JP2000047824A - Gesture processing device and method - Google Patents

Gesture processing device and method

Info

Publication number
JP2000047824A
JP2000047824A JP11140943A JP14094399A JP2000047824A JP 2000047824 A JP2000047824 A JP 2000047824A JP 11140943 A JP11140943 A JP 11140943A JP 14094399 A JP14094399 A JP 14094399A JP 2000047824 A JP2000047824 A JP 2000047824A
Authority
JP
Japan
Prior art keywords
gesture
editing
stroke
function
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11140943A
Other languages
Japanese (ja)
Other versions
JP3258978B2 (en
Inventor
Kiyoshi Tsunoda
清 角田
Masato Ijuin
真人 伊集院
Yoshiko Kitamura
佳子 北村
Yuji Okano
裕二 岡野
Hiroyuki Shigematsu
浩幸 重松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP14094399A priority Critical patent/JP3258978B2/en
Publication of JP2000047824A publication Critical patent/JP2000047824A/en
Application granted granted Critical
Publication of JP3258978B2 publication Critical patent/JP3258978B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase the operating speed when an image that is incorrectly edited is restored to its original image. SOLUTION: A tablet 19 which is put on the display screen of a display device 14 such as a liquid crystal display can input an image by drawing it via an input pen 12 and also can indicate a desired position on the display screen. A gesture function is provided to edit the image of an array of characters or symbols on the display screen. When the gesture function is activated a screen information buffer 31 stores the image information showing the images displayed on the screen and also the work flags showing the working conditions of each function.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画面上でペン等に
よる手書きでの編集を行えるようにした情報処理装置で
あり、詳しくはジェスチャー処理装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus capable of editing by handwriting with a pen or the like on a screen, and more particularly to a gesture processing apparatus.

【0002】[0002]

【従来の技術】近年、液晶表示等の表示部分と、入力ペ
ン等との当接部位の座標を検出するタブレットとを一体
化した表示装置を備え、入力ペンにより直接編集できる
ように設定された情報機器、いわゆるペン情報入力方式
の情報機器が市場に現れている。したがって、上記表示
装置は、紙とペンを連想させるように、あたかも原稿用
紙での校正と同様のことを、上記タブレット上で実現で
きるものとなっており、上記のような情報機器として
は、例えば××××××の日本語ワードプロセッサ″×
×××××××″等が知られている。
2. Description of the Related Art In recent years, a display device in which a display portion such as a liquid crystal display and a tablet for detecting the coordinates of a contact portion with an input pen or the like are provided is provided, and is set so as to be directly editable with the input pen. Information devices, so-called pen information input type information devices, have appeared on the market. Therefore, the display device can realize, on the tablet, the same thing as proofreading on manuscript paper, as if reminiscent of a paper and a pen. ××××××× Japanese word processor
XXXXXXXXX "and the like are known.

【0003】これらのペン情報入力機器において、その
特性をより生かすための機能として、ジェスチャー機能
というものが考えられた。このようなジェスチャー機能
は、予め設定して記憶しておいた編集記号により、入力
ペンでタブレット上の所望する位置の文字等を、任意の
編集記号で描画することにより、表示装置上の文章を直
接的に編集できるようになっている。
[0003] In these pen information input devices, a gesture function has been considered as a function for making the most of the characteristics. Such a gesture function is to draw a text on a display device by drawing a character or the like at a desired position on a tablet with an input pen using an editing symbol set and stored in advance with an arbitrary editing symbol. It can be edited directly.

【0004】したがって、上記ペン情報入力機器では、
各編集機能に対応する基本ストロークを予めジェスチャ
ーコマンドテーブルとして記憶しておき、入力ペンおよ
びタブレットを用いて入力されたイメージを、上記各基
本ストロークとそれぞれ比較して、そのイメージと所定
範囲内で一致する基本ストロークから、上記イメージに
対応する編集機能を検出している。
Therefore, in the above pen information input device,
Basic strokes corresponding to each editing function are stored in advance as a gesture command table, and an image input using an input pen and a tablet is compared with each of the above basic strokes, and matches the image within a predetermined range. The editing function corresponding to the image is detected from the basic stroke to be performed.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記ペン情
報入力機器では、例えば部分消去、移動、複写、アンダ
ーライン、スペース挿入など大量の文字列に対して処理
される編集機能の場合、そのような機能が実行された
後、編集前の元の状態に戻そうとしても、必ずしもその
元の状態に戻せるとは限らない。また、元の状態に戻す
ことができても、編集操作の途中や編集操作後では、ワ
ークフラグ等の動作状況が変化していることが多く、そ
れらを再設定したりするため、その復元操作が煩雑なも
のとなり、復元操作に手間取るという問題を生じてい
る。
However, in the pen information input device described above, in the case of an editing function for processing a large amount of character strings, such as partial erasure, movement, copying, underlining, and space insertion, such pen information is used. After the function is executed, an attempt to return to the original state before editing cannot always be made. In addition, even if it is possible to return to the original state, the operation status of the work flag and the like often changes during or after the editing operation. However, there is a problem that the restoration operation is troublesome.

【0006】また、上記ペン情報入力機器では、従来か
らの横書きだけではなく縦書きの文章に対しても、ジェ
スチャー機能による編集機能を付与しようとすると、横
書きと縦書きの文章を校正する際の編集記号が異なる場
合が多く、ジェスチャーコマンドテーブルに記憶してお
くコマンドとそれに対応する基本ストロークが増加す
る。これにより、入力されたイメージとの比較による、
対応するコマンドの検出処理に手間取り、処理時間が増
加するという問題と、ユーザーが記憶しておく基本スト
ローク数が増加することから、それらの認識率が低下す
るという問題も生じている。
Further, in the pen information input device described above, if it is attempted to provide an editing function using a gesture function not only for the conventional horizontal writing but also for the vertical writing, it is necessary to proofread the horizontal writing and the vertical writing. In many cases, the editing symbols are different, and the number of commands stored in the gesture command table and the corresponding basic stroke increase. As a result, by comparison with the input image,
There is also a problem that the process of detecting the corresponding command takes time and the processing time increases, and a problem that the recognition rate of the user decreases because the number of basic strokes stored by the user increases.

【0007】[0007]

【課題を解決するための手段】本発明のジェスチャー処
理装置は、以上の課題を解決するために、座標入力手段
から入力される連続する座標のストロークを抽出するス
トローク抽出手段と、複数の基本ストロークの各々に対
応して復元及び編集を含むコマンドを記憶したテーブル
手段と、抽出されたストロークとテーブル手段に記憶さ
れた基本ストロークを照合して最も近似する基本ストロ
ークに対応するコマンドを認識するジェスチャー認識手
段と、表示画面に表示されている文字等の画像情報を認
識されたコマンドに従って編集するジェスチャー編集処
理手段と、ジェスチャー編集処理手段による編集前の表
示画面での画像情報及び動作状況を記憶する画面情報記
憶手段と、ジェスチャー認識手段が復元コマンドを認識
したことに応答して画面情報記憶手段に記憶されている
画像情報及び動作状況を読み出し設定する復元手段とを
備えるジェスチャー処理装置である。
In order to solve the above-mentioned problems, a gesture processing apparatus according to the present invention comprises: a stroke extracting means for extracting a stroke of continuous coordinates inputted from a coordinate input means; Table means for storing commands including restoration and editing corresponding to each of the above, and gesture recognition for recognizing a command corresponding to the closest basic stroke by comparing the extracted stroke with a basic stroke stored in the table means. Means, a gesture editing processing means for editing image information such as characters displayed on the display screen in accordance with the recognized command, and a screen for storing image information and operation status on the display screen before editing by the gesture editing processing means The information storage means and the gesture recognition means respond to the recognition of the restoration command. A gesture processing unit and a restoring means for setting read image information and the operating status stored in the screen information storage means.

【0008】また、本発明のジェスチャー処理方法は、
座標入力手段から入力される連続する座標のストローク
を抽出し、抽出されたストロークと予め記憶された基本
ストロークを照合し最も近似する基本ストロークに対応
する復元及び編集コマンドを認識し、表示画面に表示さ
れている文字等の画像情報を認識された編集コマンドに
従って編集するジェスチャー編集処理方法であって、編
集前の表示画面での画像情報及び動作状況を記憶してお
き、認識されたコマンドが復元コマンドである場合に、
前記記憶している画像情報及び動作状況を読み出し設定
するようにしたことを特徴とするジェスチャー処理方法
である。
[0008] The gesture processing method of the present invention includes:
A stroke of continuous coordinates input from the coordinate input means is extracted, the extracted stroke is compared with a previously stored basic stroke, and a restoration and editing command corresponding to the closest approximate basic stroke is recognized and displayed on a display screen. This is a gesture editing processing method for editing image information such as characters and the like in accordance with a recognized editing command, wherein image information and operation status on a display screen before editing are stored, and the recognized command is used as a restoration command. If
A gesture processing method, wherein the stored image information and operation status are read out and set.

【0009】[0009]

【発明の実施の形態】本発明の一実施例を実施例1とし
て図1ないし図21に基づいて説明すれば、以下の通り
である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described as the first embodiment with reference to FIGS.

【0010】〔実施例1〕情報処理装置では、図2に示
すブロック図のように、プログラムを実行する中央処理
装置(Centra l Proccesing Unit、以下、CPUとい
う)1が設けられ、そのCPU1のバスライン18に、
各種データを記憶して読み出すためのRAM2、制御プ
ログラムを格納しておくROM3、プリンタ5を制御す
るプリンタコントローラ4、外部記憶手段としてのIC
カード6に対して読み書きするためのICカードインタ
ーフェース7、およびフロッピーディスクドライブ(以
下、FDDという)8を制御するFDコントローラ9が
接続されている。
[Embodiment 1] The information processing apparatus is provided with a central processing unit (hereinafter referred to as a CPU) 1 for executing a program as shown in a block diagram of FIG. On line 18,
RAM 2 for storing and reading various data, ROM 3 for storing control programs, printer controller 4 for controlling printer 5, IC as external storage means
An IC card interface 7 for reading from and writing to the card 6 and an FD controller 9 for controlling a floppy disk drive (hereinafter, referred to as FDD) 8 are connected.

【0011】さらに、上記バスライン18には、入力手
段としてのキーボード10からの信号を上記バスライン
18に入力するためのキーインターフェース11と、液
晶ディスプレイ等の表示装置14を制御するための表示
コントロール15とが接続されている。
Further, the bus line 18 has a key interface 11 for inputting a signal from a keyboard 10 as input means to the bus line 18 and a display control for controlling a display device 14 such as a liquid crystal display. 15 are connected.

【0012】その上、上記バスライン18には、上記表
示装置14の画像上と当接して、情報を入力したり、選
択したりする入力ペン12からの信号をペン座標に変換
して上記バスライン18に入力するためのペンインター
フェース13が接続されており、よって、上記入力ペン
12は、上記画像上を示す、いわゆるポインティング機
能や、上記画像上に所定のイメージを描画することによ
り、画像上の情報を選択したり、編集記号を入力したり
できるジェスチャー機能のための入力手段となってい
る。
In addition, a signal from the input pen 12 for inputting or selecting information is converted into pen coordinates by making contact with the bus line 18 on the image of the display device 14 to convert the signal into pen coordinates. A pen interface 13 for inputting to the line 18 is connected. Therefore, the input pen 12 is provided with a so-called pointing function for displaying on the image, a predetermined image on the image, and the like. Input means for a gesture function that allows the user to select information and input an edit symbol.

【0013】また、上記バスライン18には、手書き編
集インターフェース16が接続されており、その手書き
編集インターフェース16では、後に詳述するように、
上記の入力ペン12からのペン座標をそれぞれ示す各座
標データの信号により、メモリである手書き認識辞書
(記憶手段)17に予め記憶されている各基本ストロー
ク(基本イメージ)に基づいて、上記各座標データの認
識結果を上記バスライン18に出力するようになってい
る。
Further, a handwriting editing interface 16 is connected to the bus line 18, and the handwriting editing interface 16, as described later in detail,
Based on signals of respective coordinate data indicating the pen coordinates from the input pen 12, based on the respective basic strokes (basic images) previously stored in the handwriting recognition dictionary (storage means) 17 as a memory, the respective coordinates are obtained. The data recognition result is output to the bus line 18.

【0014】また、上記手書き認識辞書17では、文字
や記号を示す各基本ストロークが、後述する横書きジェ
スチャーコマンドテーブル27、縦書きジェスチャーコ
マンドテーブル34、手書き文字テーブル30というよ
うに内容により分類されてそれぞれ格納されている。
In the handwriting recognition dictionary 17, each basic stroke indicating a character or a symbol is classified according to its contents, such as a horizontal writing gesture command table 27, a vertical writing gesture command table 34, and a handwriting character table 30, which will be described later. Is stored.

【0015】このような基本ストロークの例としては、
改行を示す編集記号である逆L字が、例えば図3に示す
ように、9×9の枡目のそれぞれ相当する座標位置に〇
で示したように埋まって、すなわち各枡目に相当する座
標での入力ペン12の通過の有る無しで示されている。
なお、上記の有る無しの判定においては所定の閾値が設
定されている。
As an example of such a basic stroke,
As shown in FIG. 3, for example, as shown in FIG. 3, an inverted L-letter, which is an editing symbol indicating a line feed, is buried in a coordinate position corresponding to each of 9 × 9 cells as indicated by 〇, that is, coordinates corresponding to each cell. Are shown with and without the passage of the input pen 12.
Note that a predetermined threshold value is set in the above-described presence / absence determination.

【0016】なお、図示しないが、上記基本ストローク
は、一筆書きで描画できるように設定されて、その描画
方向、つまり、上記基本ストロークの両端の何れの一方
が起点であるかも記憶されている。
Although not shown, the basic stroke is set so that it can be drawn with one stroke, and the drawing direction, that is, which one of both ends of the basic stroke is the starting point is also stored.

【0017】一方、図2に示すように、前記表示装置1
4の画面上に、その画面の各座標を検出するための透明
なタブレット19が一体的に形成されていて、上記タブ
レット19は、図4(a)に示すように、碁盤の目状に
各XY( 640×400 )座標が設定されていて、前記の表
示装置14の文字配列、例えば図4(b)に示す縦40
行、横80列に対応するようになっている。
On the other hand, as shown in FIG.
4, a transparent tablet 19 for detecting each coordinate of the screen is integrally formed. As shown in FIG. 4 (a), the tablet 19 has a grid pattern. XY (640 × 400) coordinates are set, and the character arrangement of the display device 14, for example, the vertical 40 shown in FIG.
It corresponds to 80 rows and 80 columns.

【0018】これにより、図2に示す前記入力ペン12
の先端部が、上記タブレット19上に当接すると、その
タブレット19におけるペン座標が、前記ペンインター
フェース13にて検出され、座標コードに変換されてバ
スライン18に出力される。
Thus, the input pen 12 shown in FIG.
When the tip of the tablet abuts on the tablet 19, the pen coordinates on the tablet 19 are detected by the pen interface 13, converted into a coordinate code, and output to the bus line.

【0019】なお、上記のタブレットの方式としては、
入力ペン12が当接して描画すると、その軌跡の各座標
が検出できるものであれば特に限定されないが、例えば
静電結合式タブレットや、電気ひずみおよび磁気ひずみ
式タブレット、また、感圧式や超音波式や電気機械式タ
ブレットも使用できる。
The above tablet system includes:
There is no particular limitation as long as the coordinates of the trajectory can be detected when drawing with the input pen 12 in contact with the input pen 12. For example, an electrostatic coupling type tablet, an electrostriction and magnetostriction type tablet, a pressure-sensitive type or an ultrasonic type Formula and electromechanical tablets can also be used.

【0020】このような上記構成を用いて、表示装置1
4上に文章を作成する場合、キーボード10から入力さ
れた文字や記号が、キーインターフェース11にて所定
の文字コードや記号コードにそれぞれ変換されて、それ
ら各コードがCPU1(図1におけるテキスト編集部1
a)により一旦RAM2に順次格納される(図1におけ
るテキストメモリ2a)。
Using the above configuration, the display device 1
When a text is created on the keyboard 4, characters and symbols input from the keyboard 10 are converted into predetermined character codes and symbol codes by the key interface 11, and those codes are converted into the CPU 1 (the text editing unit in FIG. 1). 1
According to a), the data is temporarily stored in the RAM 2 sequentially (text memory 2a in FIG. 1).

【0021】その後、そのRAM2に格納されたコード
を、キーボード10からの指示とROM3に格納されて
いるプログラムとに基づいて、CPU1が、表示装置1
4に表示できるようにRAM2上に再度配列する(図1
におけるビットマップメモリ2b)。続いて、上記RA
M2上の各コード配列を、表示コントロール15を介し
て表示装置14上に表示するようなっている。
Thereafter, the CPU 1 transmits the code stored in the RAM 2 to the display device 1 based on an instruction from the keyboard 10 and a program stored in the ROM 3.
4 so that they can be displayed on the RAM 2 (see FIG. 1).
Bit map memory 2b). Then, the RA
Each code sequence on M2 is displayed on the display device 14 via the display control 15.

【0022】また、上記構成では、このように一旦表示
装置14上に表示された文章を、キーボード10、表示
装置14上に設定されたアイコン領域からの入力された
指示、または後述する入力ペン12による指示により編
集できて、上記CPU1は、所定のプログラムおよび上
記指示に従って、RAM2におけるビットマップメモリ
2bの各コード配列を並べ換える、つまり編集すること
ができるようになっている。
Further, in the above-described configuration, the sentence once displayed on the display device 14 is input to the keyboard 10, an instruction input from an icon area set on the display device 14, or an input pen 12 described later. The CPU 1 can rearrange, that is, edit, the code arrangements of the bit map memory 2b in the RAM 2 according to a predetermined program and the instructions.

【0023】次に、表示装置14上に表示されている文
章の編集を容易にするためのジェスチャー機能について
説明する。まず、図1に示すように、CRTや液晶等の
表示装置14と、その表示面上に設けられた透明なタブ
レット19とが一体に構成されたディスプレイタブレッ
ト20上で、その表示装置14上で表示されている文章
等の画像の所望の位置において、例えば編集記号を示す
イメージを入力ペン12にて描画する。
Next, a gesture function for facilitating editing of a sentence displayed on the display device 14 will be described. First, as shown in FIG. 1, a display device 14 such as a CRT or a liquid crystal and a transparent tablet 19 provided on a display surface thereof are integrally formed on a display tablet 20. At a desired position of a displayed image such as a sentence, for example, an image showing an edit symbol is drawn by the input pen 12.

【0024】そのような描画の各座標データは、上記タ
ブレット19および入力ペン12に接続されている軌跡
座標抽出部21にて順次検出される。このとき、上記座
標データの内、上記入力ペン12とタブレット19とが
最初に当接したXY座標であるペンダウン座標が、図5
(a)に示すタブレット19におけるジェスチャー機能
の有効領域19a内であるか無効領域19b内であるか
を、上記軌跡座標抽出部21からの座標データが入力さ
れるジェスチャー判定部22にて判定される。
Each coordinate data of such drawing is sequentially detected by the locus coordinate extracting unit 21 connected to the tablet 19 and the input pen 12. At this time, of the coordinate data, the pen-down coordinates, which are the XY coordinates at which the input pen 12 and the tablet 19 first contact each other, are shown in FIG.
The gesture determination unit 22 to which the coordinate data from the trajectory coordinate extraction unit 21 is input determines whether the gesture function is in the valid area 19a or the invalid area 19b of the gesture function of the tablet 19 shown in FIG. .

【0025】さらに、上記ジェスチャー判定部22で
は、上記のペンダウン座標が有効であると判定される
と、そのペンダウン座標が、表示装置14における各表
示画面に応じて設定され、入力ペン12により選択等が
実行される図5(b)に示すペンボタン領域19cであ
るか否かが判定される。
Further, when the gesture determination section 22 determines that the pen-down coordinates are valid, the pen-down coordinates are set according to each display screen on the display device 14 and selected by the input pen 12. Is determined to be the pen button area 19c shown in FIG.

【0026】その後、上記ペンダウン座標が、前記の有
効領域19a内であり、かつ、上記のペンボタン領域1
9cでないことが判定されると、上記ジェスチャー判定
部22から座標データが入力される軌跡判定部23は、
ジェスチャー機能のONを示すジェスチャー機能ONフ
ラグをフラグ指示部24にセットする。
Thereafter, the pen down coordinates are within the effective area 19a and the pen button area 1
9c, the trajectory determination unit 23 to which the coordinate data is input from the gesture determination unit 22
A gesture function ON flag indicating ON of the gesture function is set in the flag instruction unit 24.

【0027】このフラグ指示部24に、ジェスチャー機
能ONフラグがセットされていると、上記の描画軌跡を
示す各座標データは、ペンダウン座標も含めて軌跡判定
部23に接続されている座標データバッファ25にそれ
ぞれ順次記憶される。
When the gesture function ON flag is set in the flag designating section 24, the coordinate data indicating the drawing locus described above, including the pen down coordinates, is stored in the coordinate data buffer 25 connected to the locus determining section 23. Are sequentially stored.

【0028】その上、上記フラグ指示部24にジェスチ
ャー機能ONフラグがセットされていると、前記ジェス
チャー判定部22は、入力される座標データが有効領域
内であるか否か、およびペンボタン領域であるか否かの
判定を停止して、入力された座標データを全て有効とし
て軌跡判定部23に出力するようになっている。
In addition, when the gesture function ON flag is set in the flag indicating section 24, the gesture determining section 22 determines whether or not the input coordinate data is within the valid area, and determines whether or not the input coordinate data is within the effective area. The determination as to whether or not there is any is stopped, and all the input coordinate data is output as valid to the trajectory determination unit 23.

【0029】上記の入力ペン12による描画が終了し
て、入力ペン12がタブレット19から離間するペンア
ップの状態となると、軌跡判定部23は上記のジェスチ
ャー機能ONフラグがセットされていることを確認し
て、上記各軌跡座標データの全てが上記座標データバッ
ファ25からジャスチャーコマンド判定部26に出力さ
れる。
When the drawing by the input pen 12 is completed and the input pen 12 is in a pen-up state in which the input pen 12 is separated from the tablet 19, the trajectory determination unit 23 confirms that the above-mentioned gesture function ON flag is set. Then, all of the trajectory coordinate data is output from the coordinate data buffer 25 to the gesture command determination unit 26.

【0030】なお、上記のように各座標データが全てジ
ャスチャーコマンド判定部26に出力されると、上記フ
ラグ指示部24によるジェスチャー機能ONフラグがリ
セットされるようになっている。
As described above, when all the coordinate data are output to the gesture command determining section 26, the gesture function ON flag by the flag indicating section 24 is reset.

【0031】上記各軌跡座標データは、そのジャスチャ
ーコマンド判定部26にて正規化されて図2に示す手書
き認識辞書17に含まれる、例えば横書きジェスチャー
コマンドテーブル27にそれぞれ格納されている各基本
ストロークのデータと順次比較照合される。
Each of the trajectory coordinate data is normalized by the gesture command determination unit 26 and included in the handwriting recognition dictionary 17 shown in FIG. Are sequentially compared and collated.

【0032】このように上記構成では、上記フラグ指示
部24にジェスチャー機能ONフラグがセットされてい
ると、前記ジェスチャー判定部22は、入力される座標
データが有効領域内であるか否か、およびペンボタン領
域であるか否かの判定を停止して、入力された座標デー
タを全て有効として軌跡判定部23に出力するようにな
っている。
As described above, in the above configuration, when the gesture function ON flag is set in the flag instruction section 24, the gesture determination section 22 determines whether or not the input coordinate data is within the valid area, and The determination as to whether or not the area is the pen button area is stopped, and all the input coordinate data is output as valid to the trajectory determination unit 23.

【0033】このことから、図5(c)に示すように、
ペンダウン座標が有効領域19a内であれば、入力ペン
12による他の軌跡座標が、無効領域19bであって
も、入力ペン12による描画が有効なものとなってい
て、描画途中に誤って無効領域19bを通過させて、入
力ペン12による描画を無効となり、再度入力しなおす
という手間を省くことができる。ただし、図5(d)に
示すように、ペンダウン座標が無効領域19bである
と、エラー処理に移行し、ジェスチャー機能が停止す
る。
From this, as shown in FIG.
If the pen-down coordinates are within the valid area 19a, the drawing by the input pen 12 is valid even if the other trajectory coordinates by the input pen 12 are the invalid area 19b. 19b, the drawing by the input pen 12 is invalidated, and the trouble of re-inputting can be omitted. However, as shown in FIG. 5D, if the pen down coordinate is in the invalid area 19b, the processing shifts to error processing, and the gesture function stops.

【0034】なお、図1および図2に示すように、上記
のジャスチャーコマンド判定部26は前記の手書き編集
インターフェース16に含まれ、また、前記の軌跡座標
抽出部21、ジェスチャー判定部22、軌跡判定部23
およびフラグ指示部24は、前記のペンインターフェー
ス13に含まれており、前記の座標データバッファ25
はRAM2に記憶領域が設定されている。
As shown in FIGS. 1 and 2, the gesture command determination unit 26 is included in the handwriting editing interface 16, and the trajectory coordinate extraction unit 21, the gesture determination unit 22, Judgment unit 23
And a flag instructing unit 24 included in the pen interface 13 and the coordinate data buffer 25
Indicates that a storage area is set in the RAM 2.

【0035】前記の横書きジェスチャーコマンドテーブ
ル27には、図示している一字抹消コマンド27a、ス
ペース挿入コマンド27b、手書き文字入力コマンド2
7cに対応する基本ストロークの他に、例えば図6に示
す複数の基本ストロークが、それぞれ対応するコマンド
と共に記憶されている。
The horizontal writing gesture command table 27 includes a one-character deletion command 27a, a space insertion command 27b, and a handwritten character input command 2
In addition to the basic stroke corresponding to 7c, for example, a plurality of basic strokes shown in FIG. 6 are stored together with the corresponding commands.

【0036】一方、前記の縦書きジェスチャーコマンド
テーブル34には、例えば図7に示すように、複数の縦
書き用の基本ストロークが、それぞれ対応するコマンド
と共に記憶されている。したがって、上記図7に示す縦
書き用の各基本ストロークと、横書き用の各基本ストロ
ークと異なるものは6種となり、他の基本ストロークが
共通となる。
On the other hand, the vertical writing gesture command table 34 stores a plurality of basic strokes for vertical writing together with the corresponding commands, as shown in FIG. 7, for example. Therefore, the basic strokes for vertical writing and the basic strokes for horizontal writing shown in FIG. 7 are different from each other in six types, and the other basic strokes are common.

【0037】また、上記手書き認識辞書17における各
テーブル27・30・34を、ジャスチャーコマンド判
定部26からアクセス可能とアクセス不可とをそれぞれ
選択して設定できるテーブル選択部(選択手段)32が
設けられており、そのテーブル選択部32での選択は、
テキスト編集部1aを介して入力ペン12やキーボード
10等の入力手段によって設定できるようになってい
る。
Further, a table selecting section (selecting means) 32 is provided which can select and set each of the tables 27, 30 and 34 in the handwriting recognition dictionary 17 as accessible and inaccessible from the gesture command determining section 26. The selection in the table selection unit 32 is
The setting can be made by input means such as the input pen 12 and the keyboard 10 via the text editing unit 1a.

【0038】なお、上記テーブル選択部32では、各基
本ストロークを個々にジャスチャーコマンド判定部26
からアクセス可能とアクセス不可とが選択設定できるよ
うにもなっており、また、上記各基本ストロークをグル
ーピングして、各グループ毎に、アクセス可能とアクセ
ス不可とが選択設定できるようにもなっている。
In the table selection section 32, each basic stroke is individually determined by the gesture command determination section 26.
Accessible and inaccessible can be selected and set from, and the basic strokes can be grouped, and accessible and inaccessible can be selectively set for each group. .

【0039】また、上記の各基本ストロークにそれぞれ
対応する各コマンドのアクセス可能とアクセス不可とを
表にして記憶して、その表を任意に呼び出して表示装置
14で表示するための登録バッファ33が設けられてい
る。さらに、この登録バッファ33では、上記テーブル
選択部32においてグルーピングされている場合、例え
ば、全て無効、一部有効、全て有効から選択できるよう
に、グルーピングの表も記憶できるようになっている。
A registration buffer 33 for storing in a table the accessibility and inaccessibility of each command corresponding to each of the above basic strokes, arbitrarily calling up the table, and displaying the table on the display device 14. Is provided. Further, in the registration buffer 33, when grouping is performed in the table selection unit 32, a table of grouping can be stored so that, for example, all invalid, partially valid, and all valid can be selected.

【0040】前記のジャスチャーコマンド判定部26
は、上記の各基本ストロークとの比較照合の結果、前記
の軌跡座標と最も近似する基本ストロークに対応したコ
マンドを、テキスト編集部1aに出力すると共に、供給
された軌跡座標から上記コマンドにより処理される文字
または文字列の座標情報、つまり表示装置14における
位置情報を上記テキスト編集部1aに出力する。
The above-mentioned gesture command determination section 26
Outputs a command corresponding to the basic stroke closest to the trajectory coordinates to the text editing unit 1a as a result of the comparison and collation with each of the basic strokes, and processes the trajectory coordinates from the supplied trajectory coordinates by the command. The coordinate information of a character or a character string, that is, position information on the display device 14 is output to the text editing unit 1a.

【0041】これにより、上記テキスト編集部1aは、
テキストメモリ2a内の文字や記号の配列の上記位置情
報の文字や記号を、削除したり、その位置に挿入したり
して編集できることになる。
As a result, the text editing unit 1a
The characters and symbols of the position information in the character and symbol array in the text memory 2a can be edited by deleting or inserting them at that position.

【0042】このとき、テキスト編集部1aは、上記の
ようなジェスチャー機能の起動後に、つまり入力ペン1
2によるジェスチャー機能による編集記号の入力操作を
開始して、復元機能と異なる他の編集機能が入力される
と、表示装置14において表示されているテキストメモ
リ2a内の画面情報を、呼び出して一時記憶しておくメ
モリである画面情報バッファ(記憶領域)31が設定さ
れている。
At this time, after the above-described gesture function is activated, the text editing unit 1a
When the input operation of the editing symbol by the gesture function by the user 2 is started and another editing function different from the restoring function is input, the screen information in the text memory 2a displayed on the display device 14 is called up and temporarily stored. A screen information buffer (storage area) 31 which is a memory to be set is set.

【0043】さらに、上記テキスト編集部1aは、上記
のようなジェスチャー機能の起動時に、各機能の動作状
況を示す各ワークフラグのセットまたはリセットを上記
画面情報バッファ31にそれぞれ記憶させるようになっ
ている。
Further, the text editing section 1a stores the set or reset of each work flag indicating the operation status of each function in the screen information buffer 31 when the above-described gesture function is activated. I have.

【0044】したがって、上記各ワークフラグのセット
/リセット状態をそれぞれ検出して、上記の各状態を示
す信号を前記テキスト編集部1aに出力し、かつ、後述
するように画面情報バッファ31にて記憶された元の各
ワークフラグに基づいて、現在の各ワークフラグを再設
定するワークフラグ検出・復元手段35が設けられてい
る。
Accordingly, the set / reset states of the respective work flags are respectively detected, a signal indicating the respective states is output to the text editor 1a, and stored in the screen information buffer 31 as described later. A work flag detecting / restoring means 35 for resetting each current work flag based on each of the original work flags is provided.

【0045】このように上記画面情報バッファ31に画
面情報およびワークフラグが記憶、つまりセーブされる
と、セーブフラグをセットするセーブフラグ部31aが
画面情報バッファ31に設定されている。
As described above, when the screen information and the work flag are stored in the screen information buffer 31, that is, when the work flag is saved, the save flag section 31 a for setting the save flag is set in the screen information buffer 31.

【0046】なお、上記画面情報バッファ31では、次
の画面情報が記憶されると、以前に記憶された画面情報
および各ワークフラグのセット/リセットの記憶はクリ
アされるようになっている。
When the next screen information is stored in the screen information buffer 31, the storage of the previously stored screen information and the set / reset of each work flag is cleared.

【0047】また、上記のテキスト編集部1aは、ジャ
スチャーコマンド判定部26からのコマンドのみが入力
されるだけでなく、前述したようにキーボード10から
のコマンドも入力されて、そのコマンドによる編集等が
できるようになっている。
The text editing unit 1a receives not only the command from the gesture command determination unit 26 but also the command from the keyboard 10 as described above, and edits with the command. Is available.

【0048】一方、上記の軌跡座標の処理とは独立し
て、軌跡座標抽出部21により抽出された軌跡座標デー
タは、軌跡描画部28に出力されて上記軌跡座標データ
をつないだ軌跡イメージとなる。
On the other hand, independently of the above-mentioned processing of the locus coordinates, the locus coordinate data extracted by the locus coordinate extracting unit 21 is output to the locus drawing unit 28 to become a locus image connecting the locus coordinate data. .

【0049】生成された軌跡イメージは、ビットマップ
メモリ2bに現在形成されている文字列、記号列または
イメージと合成されて、そのビットマップメモリ2bに
記憶される。したがって、オペレータが入力ペン12
で、タブレット19をなぞって入力したジェスチャーイ
メージは、リアルタイムに表示装置14上に表示される
ことになる。
The generated locus image is combined with a character string, symbol string or image currently formed in the bitmap memory 2b and stored in the bitmap memory 2b. Therefore, when the operator operates the input pen 12
Thus, the gesture image input by tracing the tablet 19 is displayed on the display device 14 in real time.

【0050】このようなジェスチャー編集の操作例を図
8および図9に示す。まず、図8において、ディスプレ
イタブレット20に表示されているテキストの内、文字
「え」を一字抹消する場合、入力ペン12にて「え」の
文字の上を「V」のようにジェスチャー、つまり描画し
た後、上記入力ペン12をディスプレイタブレット20
上から離す。
FIGS. 8 and 9 show operation examples of such gesture editing. First, in FIG. 8, when deleting one character “e” in the text displayed on the display tablet 20, a gesture such as “V” is performed on the character “e” with the input pen 12, That is, after drawing, the input pen 12 is
Release from above.

【0051】なお、上のような描画の際、その開始位置
が、上記の文字の描画範囲内で有ることが上記の文字の
認識において肝要である。上記のように消去・抹消系が
指示される文字の位置を容易に精度よく認識するため、
上記文字の描画範囲のほぼ中央部から描画を開始するこ
とが望ましい。
In the above-described drawing, it is important for the recognition of the character that the start position is within the drawing range of the character. In order to easily and accurately recognize the position of the character for which the erase / erase system is specified as described above,
It is desirable to start drawing from substantially the center of the drawing range of the character.

【0052】続いて、その軌跡座標が抽出されて軌跡イ
メージがディスプレイタブレット20における表示装置
14に表示されると共に、基本ストロークとの照合によ
り得られた「V」の描画に相当する一字抹消のコマンド
と共に、上記の「え」の文字の位置情報が、テキスト編
集部1aに出力される。
Subsequently, the trajectory coordinates are extracted, the trajectory image is displayed on the display device 14 of the display tablet 20, and one character erase corresponding to the drawing of "V" obtained by collation with the basic stroke is performed. Along with the command, the position information of the character "e" is output to the text editing unit 1a.

【0053】その後、上記の位置情報に基づいて、表示
装置14におけるカーソル14aが元の位置、例えば
「ほ」の文字の位置から入力ペン12にて操作された位
置、つまり上記の場合文字「え」の位置に移動した後、
前記のテキストメモリ2a内の上記の「え」を、上記の
コマンドに基づき抹消することにより、ビットマップメ
モリ2b内の上記の「え」の文字が消去され、上記表示
装置14における上記の「え」が抹消される。このよう
にしてジェスチャー編集が完了する。
Thereafter, based on the position information, the cursor 14a on the display device 14 is operated from the original position, for example, the position of the character "" by the input pen 12, that is, the character "e" in the above case. ”Position,
By deleting the "e" in the text memory 2a based on the command, the character of the "e" in the bitmap memory 2b is deleted, and the "e" in the display device 14 is deleted. Is deleted. In this way, the gesture editing is completed.

【0054】また、図9に示すように、各編集記号を図
示しない入力ペンにより、ディスプレイタブレット20
上に描画することにより、上記と同様に、ジェスチャー
編集が可能となっている。なお、上記の編集記号のイメ
ージである基本ストロークは任意に設定できるようにな
っている。
As shown in FIG. 9, each edit symbol is displayed on the display tablet 20 by an input pen (not shown).
By drawing on the top, gesture editing can be performed in the same manner as described above. The basic stroke, which is an image of the above-mentioned editing symbol, can be set arbitrarily.

【0055】次に、上記の構成によるポインティング機
能について説明する。まず、従来のワードプロセッサで
は、テキスト上の複数文字を領域指定する場合等にはカ
ーソルを順次移動させていたが、上記構成では、図10
に示すように、カーソル14aの位置を直接入力ペン1
2の指示によりダイレクトに移動指示が可能となってい
る。
Next, the pointing function according to the above configuration will be described. First, in a conventional word processor, a cursor is sequentially moved when a plurality of characters on a text are designated as an area.
As shown in the figure, the position of the cursor 14a is directly input to the pen 1
The movement instruction can be made directly by the instruction of 2.

【0056】なお、前記のジェスチャーとポインティン
グとの切り替えは、抽出された座標が軌跡を伴わない一
点の座標であるか否か、すなわち上記各座標が連続であ
るか否かによって判断しており、このような判断は、前
記軌跡判定部23にて行われている。
The switching between the gesture and the pointing is determined based on whether or not the extracted coordinates are coordinates of one point without a locus, that is, whether or not each of the coordinates is continuous. Such a determination is made by the trajectory determination unit 23.

【0057】そこで、例えば、ポインティングであると
判断した場合、得られた座標は、横書きジェスチャーコ
マンドテーブル27と照合せず、その座標の位置情報の
みをテキスト編集部1aに出力させている。
Therefore, for example, when it is determined that the pointing is performed, the obtained coordinates are not collated with the horizontal writing gesture command table 27, and only the position information of the coordinates is output to the text editing unit 1a.

【0058】次に、上記構成を用いて、手書き文字入力
について説明する。手書き文字入力は、前記のジェスチ
ャー編集が軌跡座標と予め記憶した基本ストロークとを
照合する処理と同等の処理方法により実行できるように
なっている。
Next, handwritten character input will be described using the above configuration. The handwritten character input can be executed by a processing method equivalent to the processing in which the above-described gesture editing compares the locus coordinates with a previously stored basic stroke.

【0059】つまり、図1に示すように、ジャスチャー
コマンド判定部26と処理上の同等位置に、すなわち手
書き編集インターフェース16に、手書き文字認識部2
9が形成され、手書き文字を予め記憶している手書き文
字テーブル30が、横書きジェスチャーコマンドテーブ
ル27と同様に図2に示す手書き認識辞書17に形成さ
れている。
That is, as shown in FIG. 1, the handwritten character recognition unit 2 is placed in the same position as the gesture command determination unit 26 in processing, that is, in the handwriting editing interface 16.
9, a handwritten character table 30 in which handwritten characters are stored in advance is formed in the handwritten recognition dictionary 17 shown in FIG.

【0060】上記の手書き文字認識部29は、軌跡座標
抽出部21から供給される軌跡座標と、手書き文字テー
ブル30に記憶されている複数の基本文字ストロークと
を照合し、最も近似する基本文字ストロークに対応する
文字コードを上記の手書き文字テーブル30からテキス
ト編集部1aに出力させる。
The handwritten character recognition unit 29 collates the trajectory coordinates supplied from the trajectory coordinate extraction unit 21 with a plurality of basic character strokes stored in the handwritten character table 30, and determines the most similar basic character stroke. Is output from the handwritten character table 30 to the text editing unit 1a.

【0061】このような手書き文字入力機能と、前記の
ジェスチャー編集機能との異なる点は、手書き文字認識
部29が位置情報を出力しないことである。なお、上記
の手書き文字入力機能は、キーボード10からの指示
や、表示装置14上のアイコンからの指示から立ち上げ
可能にしており、また、ディスプレイタブレット20の
タブレット19上に、例えば横書き用のジェスチャー機
能の場合、図6に示すように、「△」をジェスチャーす
ることにより、ジェスチャー編集機能から立ち上げ可能
となっている。
The difference between such a handwritten character input function and the above-described gesture editing function is that the handwritten character recognition unit 29 does not output position information. Note that the above-described handwritten character input function can be started from an instruction from the keyboard 10 or an instruction from an icon on the display device 14. Further, for example, a gesture for horizontal writing is displayed on the tablet 19 of the display tablet 20. In the case of the function, as shown in FIG. 6, the gesture editing function can be activated by gesturing "@".

【0062】このような手書き文字入力機能の操作例に
ついて説明すると、図11に示すように、手書き文字入
力機能が立ち上げられると、ディスプレイタブレット2
0の所定位置に、手書き文字入力のためのウインドウ1
4bが表示され、そのウインドウ14b内の第1入力エ
リアに、入力ペン12にて文字を、例えば「す」と手書
きする。
An operation example of such a handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is activated, the display tablet 2 is activated.
Window 1 for inputting handwritten characters at a predetermined position 0
4b is displayed, and a character, for example, "su" is handwritten with the input pen 12 in the first input area in the window 14b.

【0063】その後、次の入力のため隣接する第2エリ
アに入力ペン12を接触させると、そのとき上記の第1
エリアに手書きされた軌跡座標の文字認識が、前記の手
書き文字テーブル30を参照して前記手書き文字認識部
29にて前述したように実行され、その認識結果の文字
をカーソル14aが示す位置に入力して表示するように
なっている。
Thereafter, when the input pen 12 is brought into contact with the adjacent second area for the next input, the first pen
Character recognition of the locus coordinates handwritten in the area is executed by the handwritten character recognition unit 29 with reference to the handwritten character table 30 as described above, and the character of the recognition result is input to the position indicated by the cursor 14a. And display it.

【0064】これにより、例えば草書体などの字体を予
め、手書き文字テーブル30に記憶させておき、その草
書体を手書きで入力して、上記手書き文字テーブル30
における草書字体を表示・印刷等が可能となっている。
なお、上記の各ジェスチャー機能では、横書き用のジェ
スチャー機能の例を挙げたが、縦書き用のジェスチャー
機能でも同様である。
Thus, for example, a font such as a cursive font is stored in the handwritten character table 30 in advance, and the cursive font is input by handwriting, and the handwritten character table 30 is input.
Can display and print cursive fonts.
In the above gesture functions, the example of the gesture function for horizontal writing has been described, but the same applies to the gesture function for vertical writing.

【0065】次に、上記実施例1の構成におけるジェス
チャー機能での復元機能を含めた各編集機能の動作例に
ついて図12のフローチャートを参照しながら説明す
る。まず、表示装置14に表示された文章を編集する場
合、入力ペン12を用いるジェスチャー機能による手書
き編集か、他の編集方法、例えばキーボード10による
キー編集かを選択する(ステップ1、以下ステップをS
と略する)。
Next, an operation example of each editing function including the restoring function by the gesture function in the configuration of the first embodiment will be described with reference to the flowchart of FIG. First, when editing a sentence displayed on the display device 14, the user selects either handwriting editing using the gesture function using the input pen 12 or another editing method, for example, key editing using the keyboard 10 (step 1, hereinafter step S is performed).
Abbreviated).

【0066】このとき、ジェスチャー機能による手書き
編集か、他の編集方法かが判定され(S2)、他の編集
方法が選択されると、セーブフラグ部31aでのフラグ
をリセットし(S3)、その通常編集処理を実行し(S
4)、処理を完了する。
At this time, it is determined whether the editing is the handwriting editing by the gesture function or another editing method (S2). When another editing method is selected, the flag in the save flag section 31a is reset (S3). Execute the normal editing process (S
4), complete the process.

【0067】一方、ジェスチャー機能による手書き編集
であれば、続いて、その手書き編集が復元機能か、他の
編集機能かが判定され(S5)、他の編集機能、例えば
一字抹消であれば、その編集機能が選択され(S6)、
その後、復元に必要な文書データおよびその時のワーク
フラグを画面情報バッファ31にセーブする(S7)。
その次に、セーブフラグ部31aにセーブフラグをセッ
ト(S8)した後、上記の編集機能を実行し(S9)処
理を完了する。
On the other hand, if it is a handwriting edit by the gesture function, then it is determined whether the handwritten edit is the restoring function or another editing function (S5). The editing function is selected (S6),
Then, the document data necessary for restoration and the work flag at that time are saved in the screen information buffer 31 (S7).
Next, after setting the save flag in the save flag section 31a (S8), the above-described editing function is executed (S9), and the process is completed.

【0068】一方、前記のS5における判定が復元機能
であれば、まず、セーブフラグ部31aのセーブフラグ
がセット状態であるか、リセット状態であるかを判定し
(S10)、リセット状態であれば、ブザー等のエラー
処理に移行し(S11)、処理が終了する。
On the other hand, if the determination in S5 is a restoration function, first, it is determined whether the save flag of the save flag section 31a is set or reset (S10). Then, the process proceeds to error processing such as a buzzer (S11), and the processing ends.

【0069】また、セーブフラグがセット状態であれ
ば、前記の画面情報バッファ31に予め記憶された元の
画面情報をおよびワークフラグを呼び出して復元処理を
実行し(S12)、続いて、セーブフラグ部31aのセ
ーブフラグをリセットして(S13)、処理を完了す
る。
If the save flag is set, the original screen information previously stored in the screen information buffer 31 and the work flag are called to execute a restoration process (S12). The save flag of the unit 31a is reset (S13), and the process is completed.

【0070】次に、上記の動作例の一具体例を、図13
ないし図16を参照しながら説明すると、まず、図13
に示すように、表示装置14における表示画面での文章
中の例えば「坂」に対して、手書き編集記号の一字抹消
機構を入力ペン12により手書き入力する。
Next, a specific example of the above operation example is shown in FIG.
16 to FIG. 16, first, FIG.
As shown in (1), a one-letter erasure mechanism of a handwritten edit symbol is input by hand with the input pen 12 for, for example, "Saka" in the text on the display screen of the display device 14.

【0071】このように復元機能と異なる他の編集機能
である一字抹消が入力されると、復元処理のために、図
2に示すRAM2にある図1に示すテキストメモリ2a
にある現在の文書データと、その時に全機能で共通使用
するワークフラグを、上記のRAM2の別領域にある画
面情報バッファ31に一時セーブする。
When the one-letter deletion, which is another editing function different from the restoring function, is input, the text memory 2a shown in FIG. 1 in the RAM 2 shown in FIG.
And the work flag commonly used by all functions at that time are temporarily saved in the screen information buffer 31 in another area of the RAM 2.

【0072】その後、上記のRAM2にあるセーブフラ
グ部31aのセーブフラグをセットする。その次に、上
記の復元処理のための処理を終了すると、図14に示す
ように、実際に一字抹消処理を実行する。
Thereafter, the save flag of the save flag section 31a in the RAM 2 is set. Then, when the processing for the above-described restoration processing is completed, as shown in FIG. 14, the one-character deletion processing is actually executed.

【0073】その後、上記の一字抹消処理が、例えば誤
りで、元の文章に復元させる場合、まず、入力ペン12
およびタブレット19により、図15に示すように、手
書き編集記号の復元記号を入力する。その後、セーブフ
ラグ部31aにおけるセーブフラグをチェックする。そ
のセーブフラグ部31aでのセーブフラグがリセット状
態であれば、手書き編集復元処理が実行不可のため、ブ
ザー等のエラー処理に移行し、処理を終了する。
Thereafter, when the one-letter erasure process is, for example, an error and the original text is restored, first, the input pen 12
Then, as shown in FIG. 15, the restoration symbol of the handwritten editing symbol is input by the tablet 19. Thereafter, the save flag in the save flag section 31a is checked. If the save flag in the save flag section 31a is in the reset state, the handwriting editing / restoring process cannot be executed, so that the process shifts to an error process such as a buzzer and the process is terminated.

【0074】一方、上記セーブフラグ部31aでのセー
ブフラグがセット状態であれば、画面情報バッファ31
から元の画面情報およびそのときのワークフラグを呼び
出して、図16に示すように、手書き編集一字抹消にて
消去した文字「坂」の復元処理を実行する。続いて、復
元処理実行後の復元処理を実行不可にするために、上記
のセーブフラグ部31aにおけるセーブフラグをリセッ
トする。なお、上記の図14および図16における□は
カーソル位置を示す。
On the other hand, if the save flag in the save flag section 31a is set, the screen information buffer 31
, The original screen information and the work flag at that time are called up, and as shown in FIG. Subsequently, the save flag in the save flag section 31a is reset in order to disable the execution of the restoration process after the execution of the restoration process. 14 and 16 indicate the cursor position.

【0075】このように上記実施例1の構成では、手書
き編集を実行する前に、文書データおよびその時のワー
クフラグをセーブしておくことにより、誤って手書き編
集を実行した場合においても、復元処理を指定するだけ
で文書データおよびその時のワークフラグを元に戻し、
表示装置14上での文書を手書き編集前の状態に迅速
に、かつ、確実に復元できる。
As described above, according to the configuration of the first embodiment, the document data and the work flag at that time are saved before the handwriting edit is performed. To restore the document data and the work flag at that time,
The document on the display device 14 can be quickly and reliably restored to the state before handwriting editing.

【0076】これにより、上記構成は、上記のような手
書き編集を取り消す場合等、予め以前の画面情報および
ワークフラグが記憶されているため、例えば図17に示
すように、入力ペン12の軌跡表示、認識領域の矩形表
示、認識情報の表示、編集機能の認識表示の一覧、処理
結果の取消か否かを問うメッセージ等を表示しても、上
記の表示やメッセージを一度消去してから、文章データ
を再配列する手間を省くことができる。したがって、上
記構成は、編集画面の再表示、認識機能実行、編集処理
の取消し等の実行が迅速化できる。
With this configuration, the previous screen information and the work flag are stored in advance in the case of canceling the handwriting editing as described above, so that, for example, as shown in FIG. Even if a rectangular display of the recognition area, a display of recognition information, a list of recognition displays of the editing function, a message asking whether or not to cancel the processing result, etc. are displayed, the above display or message is deleted once, This eliminates the need to rearrange the data. Therefore, the above configuration can speed up execution of redisplay of the editing screen, execution of the recognition function, cancellation of the editing process, and the like.

【0077】次に、上記実施例1の構成における横書き
用のジェスチャー機能と縦書き用ジェスチャー機能の動
作例について図18を参照しながら説明する。まず、上
記構成では、縦書きか、横書きかを、図21に示すよう
に、テキストメモリ2aに記憶された書式情報の中に設
定されており、例えば縦書きの時は0、横書きの時は1
に設定されている。
Next, an operation example of the gesture function for horizontal writing and the gesture function for vertical writing in the configuration of the first embodiment will be described with reference to FIG. First, in the above configuration, whether the document is written vertically or horizontally is set in the format information stored in the text memory 2a as shown in FIG. 21, for example, 0 for vertical writing and 0 for horizontal writing. 1
Is set to

【0078】まず、ジェスチャー機能が起動時に、上記
の書式情報をテキスト編集部1aにて判定し(S2
1)、上記テキスト編集部1aが横書きと判定すれば、
その結果に基づいてテーブル選択部32が、横書きジェ
スチャーコマンドテーブル27をアクセス可能に設定
し、縦書きジェスチャーコマンドテーブル34をアクセ
ス不可に設定し、上記横書きジェスチャーコマンドテー
ブル27を参照して、横書き用認識を実行する(S2
2)。
First, when the gesture function is activated, the format information is determined by the text editing unit 1a (S2).
1) If the text editing unit 1a determines that the text is written horizontally,
Based on the result, the table selecting unit 32 sets the horizontal writing gesture command table 27 to be accessible, sets the vertical writing gesture command table 34 to be inaccessible, and refers to the horizontal writing gesture command table 27 to recognize the horizontal writing gesture. (S2
2).

【0079】一方、テキスト編集部1aが縦書きと判定
すれば、その結果に基づいてテーブル選択部32が、横
書きジェスチャーコマンドテーブル27をアクセス不可
に設定し、縦書きジェスチャーコマンドテーブル34を
アクセス可能に設定し、上記縦書きジェスチャーコマン
ドテーブル34を参照して、縦書き用認識を実行する
(S23)。
On the other hand, if the text editing unit 1a determines that vertical writing is to be performed, the table selecting unit 32 sets the horizontal writing gesture command table 27 to be inaccessible based on the result, and makes the vertical writing gesture command table 34 accessible. The vertical writing recognition is performed with reference to the vertical writing gesture command table 34 (S23).

【0080】続いて、上記の認識結果に基づいてテキス
ト編集部1aは編集を実行し(S24)、その結果を表
示装置14に表示して(S25)、処理が完了する。
Subsequently, the text editing unit 1a executes editing based on the recognition result (S24), displays the result on the display device 14 (S25), and the process is completed.

【0081】このように、横書きと縦書きとの書式設定
に応じて、各テーブル27・34を個々に参照できるか
ら、横書きでのジェスチャー機能による編集、例えば図
19に示すように、ディスプレイタブレット20におい
て、横書きでの描画軌跡12aによりセンタリング編集
が可能となり、一方、縦書きでのジェスチャー機能の編
集、例えば図20に示すように、ディスプレイタブレッ
ト20において、縦書きでの描画軌跡12aによりセン
タリング編集が可能となる。
As described above, since the tables 27 and 34 can be individually referred to in accordance with the format setting of the horizontal writing and the vertical writing, editing by the gesture function in the horizontal writing, for example, as shown in FIG. In, centering editing can be performed by the drawing trajectory 12a in horizontal writing, while editing of the gesture function in vertical writing, for example, as shown in FIG. 20, on the display tablet 20, centering editing can be performed by the drawing trajectory 12a in vertical writing. It becomes possible.

【0082】上記の両者での認識は、例えば表1に示す
ように、正規化された各座標データと、各テーブル27
・34に記憶された基本ストロークの各座標データとが
比較照合されて実行される。
Recognition in both cases is performed by, for example, as shown in Table 1, normalized coordinate data and table 27
-Each coordinate data of the basic stroke stored in 34 is compared and collated and executed.

【0083】[0083]

【表1】 したがって、上記の両者の認識のための各基本ストロー
クを一つのテーブルにそれぞれ記憶しておき、上記の認
識動作を実行すると、基本ストロークの数が増加して、
その各基本ストロークとの比較照合に時間がかかること
が多いが、上記構成では、例えば文章を作成する際にま
ず設定される書式設定を利用して、各テーブル27・3
4の一方のテーブルの各基本ストロークと比較照合すれ
ばよく、各テーブル27・34のアクセス可能と不可と
を設定することにより、各基本ストロークとの比較照合
という認識経過時間を短縮化できるものとなっている。
[Table 1] Therefore, when the respective basic strokes for the recognition of the two are stored in one table, and the above-described recognition operation is performed, the number of the basic strokes increases,
In many cases, it takes time to compare and match with each basic stroke. In the above-described configuration, for example, each table 27.
4 can be compared and compared with each basic stroke of one of the tables, and by setting access permission and non-accessibility of each of the tables 27 and 34, the recognition elapsed time of comparison and comparison with each basic stroke can be shortened. Has become.

【0084】次に、本発明の他の実施例を実施例2とし
て、図6および図7、並びに図22および図23に基づ
いて説明する。なお、上記実施例1と同様の機能を有す
る各部材は、同一の部材番号を付与してその説明を省い
た。
Next, another embodiment of the present invention will be described with reference to FIGS. 6 and 7 and FIGS. 22 and 23 as a second embodiment. The members having the same functions as those of the first embodiment are given the same member numbers, and the description is omitted.

【0085】〔実施例2〕情報処理装置では、図22に
示すように、例えば横書きジェスチャーコマンドテーブ
ル27に、各基本ストロークが、対応するコマンドと共
に記憶されており、それらの基本ストロークは、図6と
図7とに示されているように、共通の基本ストローク、
例えば一字消去等を含み、一方、横書きと縦書きとでは
異なるが、例えば横書き用の基本ストロークを約90°
時計方向に回転させると、縦書き用の基本ストロークに
一致する変換可能な基本ストローク(以下、変換可能ス
トロークという)を含んでいる。
[Embodiment 2] In the information processing apparatus, as shown in FIG. 22, each basic stroke is stored together with a corresponding command in, for example, a horizontal writing gesture command table 27, and these basic strokes are stored in FIG. And a common basic stroke, as shown in FIG.
For example, one-letter erasure is included. On the other hand, horizontal writing and vertical writing are different, but for example, the basic stroke for horizontal writing is about 90 °.
When rotated clockwise, it includes a convertible basic stroke that matches the vertical writing basic stroke (hereinafter, referred to as a convertible stroke).

【0086】また、上記構成では、上記の変換可能スト
ロークの記憶の際には、その記憶領域のアドレス等を記
憶しておくヘッド部等の一部に、回転変換により他方の
基本ストロークとして使用できることを示す例えば0が
格納されている。
Further, in the above configuration, when the above-mentioned convertible stroke is stored, it can be used as the other basic stroke by rotation conversion in a part of the head section or the like that stores the address of the storage area. For example, 0 is stored.

【0087】そこで、テキスト編集部1aは、現在編集
中の文章が縦書きか、横書きかを書式設定等から判定し
た結果、縦書きの場合、ジャスチャーコマンド判定部2
6にその判定結果を出力する。
The text editing unit 1a determines whether the text currently being edited is vertical writing or horizontal writing based on format settings and the like.
6 and outputs the result of the determination.

【0088】そして、上記構成では、上記ジャスチャー
コマンド判定部26からの指示信号に基づいて、前記の
横書きジェスチャーコマンドテーブル27から呼び出さ
れる基本ストロークが変換可能ストロークであると、そ
の変換可能ストロークを回転変換して、ジャスチャーコ
マンド判定部26に出力する変換手段36が設定されて
いる。
In the above configuration, if the basic stroke called from the horizontal writing gesture command table 27 is a convertible stroke based on the instruction signal from the gesture command determining unit 26, the convertible stroke is rotated. Conversion means 36 for converting and outputting to the gesture command determination unit 26 is set.

【0089】次に、上記実施例2の構成による動作例
を、図23のフローチャートを参照しながら説明する
と、まず、ジェスチャー機能が起動時に、前記実施例1
において述べた書式情報をテキスト編集部1aにて判定
する(S31)。
Next, an operation example according to the configuration of the second embodiment will be described with reference to the flowchart of FIG. 23. First, when the gesture function is activated, the first embodiment is started.
Is determined by the text editing unit 1a (S31).

【0090】上記テキスト編集部1aが横書きと判定す
れば、その結果に基づいてジャスチャーコマンド判定部
26が、上記横書きジェスチャーコマンドテーブル27
から各基本ストロークを呼び出し(S32)、上記各基
本ストロークとジェスチャー機能による描画と比較照合
して、横書き用認識を実行する(S33)。
If the text editing unit 1a determines that the horizontal writing is performed, the gesture command determining unit 26 determines the horizontal writing gesture command table 27 based on the result.
Then, each basic stroke is called (S32), the basic stroke is compared with the drawing by the gesture function, and recognition for horizontal writing is executed (S33).

【0091】一方、上記テキスト編集部1aが縦書きと
判定すれば、その結果に基づいてジャスチャーコマンド
判定部26が、上記横書きジェスチャーコマンドテーブ
ル27から各基本ストロークを呼び出し(S34)、そ
の基本ストロークが変換可能ストロークか否かを判定す
る(S35)。
On the other hand, if the text editing unit 1a determines that the writing is vertical, the gesture command determination unit 26 calls each basic stroke from the horizontal writing gesture command table 27 based on the result (S34), and Is determined whether or not is a convertible stroke (S35).

【0092】もし、変換可能ストロークであれば、変換
手段36により約90°時計方向に回転変換して(S3
6)、ジャスチャーコマンド判定部26に出力し、他
方、変換可能ストロークでなければ変換が不要と判定し
て、その基本ストロークをジャスチャーコマンド判定部
26に出力して前記S33に移行する。
If the stroke is convertible, the conversion means 36 converts the stroke by approximately 90 ° clockwise (S3).
6), the stroke is output to the gesture command determining unit 26. On the other hand, if the stroke is not a convertible stroke, it is determined that conversion is unnecessary, and the basic stroke is output to the gesture command determining unit 26, and the process proceeds to S33.

【0093】上記S33では、ジャスチャーコマンド判
定部26にて、呼び出された各基本ストロークとジェス
チャー機能での描画座標データとが順次比較照合され
て、所定の範囲で一致しない場合、S31に戻り待機状
態となる。
In S33, the gesture command determination unit 26 sequentially compares and checks each of the called basic strokes with the drawing coordinate data of the gesture function. If they do not match within a predetermined range, the process returns to S31 and waits. State.

【0094】一方、ジャスチャーコマンド判定部26に
て、呼び出された基本ストロークとジェスチャー機能で
の描画座標データとが比較照合されて、所定の範囲で一
致した場合、認識完了とし、その認識結果に基づいて横
書き、または縦書きの編集を実行し(S34)、その編
集結果を表示装置14に表示して(S35)、処理を完
了する。
On the other hand, the gesture command judging section 26 compares and checks the called basic stroke with the drawing coordinate data by the gesture function, and if they match within a predetermined range, the recognition is completed and the recognition result is determined. Based on this, horizontal writing or vertical writing is executed (S34), and the editing result is displayed on the display device 14 (S35), and the process is completed.

【0095】このように上記実施例2の構成では、横書
きジェスチャーコマンドテーブル27における各基本ス
トロークを、縦書きに変換可能な変換可能ストロークと
それらと異なる共通な基本ストロークとに識別して記憶
しておき、縦書きの際には、識別された上記変換可能ス
トロークを変換手段36にて変換してジャスチャーコマ
ンド判定部26に出力することにより、横書きでの編集
と縦書きでの編集を、同一の横書きジェスチャーコマン
ドテーブル27を用いて可能となっている。
As described above, in the configuration of the second embodiment, each basic stroke in the horizontal writing gesture command table 27 is identified and stored as a convertible stroke that can be converted to vertical writing and a common basic stroke different from them. At the time of vertical writing, by converting the identified convertible strokes by the conversion means 36 and outputting the converted strokes to the gesture command determination unit 26, the editing in horizontal writing and the editing in vertical writing are the same. The horizontal writing gesture command table 27 can be used.

【0096】したがって、上記構成では、上記の両者の
認識のための各基本ストロークを一つのテーブルにそれ
ぞれ記憶しておき、上記の認識動作を実行すると、基本
ストロークの数が増加して、それら各基本ストロークと
の比較照合に時間がかかるが、上記構成では、例えば文
章を作成する際にまず設定される書式設定を利用して、
横書きジェスチャーコマンドテーブル27の各基本スト
ロークと比較照合すればよく、各基本ストロークとの比
較照合という認識経過時間を短縮化できるものとなって
いる。
Therefore, in the above configuration, each basic stroke for recognition of the two is stored in one table, and when the above-described recognition operation is executed, the number of basic strokes increases, and each of the basic strokes increases. Although it takes time to compare and match with the basic stroke, in the above configuration, for example, using the format setting that is set first when creating a sentence,
What is necessary is just to compare and match each basic stroke of the horizontal writing gesture command table 27, and it is possible to shorten the elapsed recognition time of comparison and matching with each basic stroke.

【0097】また、横書きジェスチャーコマンドテーブ
ル27における記憶領域を低減できて、ユーザー用のメ
モリ領域を増大化できて、アプリケーションプログラム
等への使用範囲を拡大できる。
Further, the storage area in the horizontal writing gesture command table 27 can be reduced, the memory area for the user can be increased, and the range of use for application programs and the like can be expanded.

【0098】その上、上記構成では、変換手段36にお
ける回転変換のルールが簡便なものに設定できるから、
一方の、例えば横書き用の変換可能ストロークを覚えて
いれば、縦書きの変換可能ストロークも容易に想定でき
て、横書きと縦書きでのジェスチャー機能による編集が
可能となると共に、覚えておく必要のある基本ストロー
クの数を軽減できる。これにより、各基本ストロークの
認識率を向上させることが可能となる。
In addition, in the above configuration, the rule of the rotation conversion in the conversion means 36 can be set to a simple rule.
On the other hand, if you remember the convertible strokes for horizontal writing, for example, you can easily assume the convertible strokes for vertical writing, and you can edit with the gesture function for horizontal writing and vertical writing, and you need to remember The number of certain basic strokes can be reduced. This makes it possible to improve the recognition rate of each basic stroke.

【0099】[0099]

【発明の効果】本発明のジェスチャー処理装置及びジェ
スチャー処理方法では、ジェスチャー機能による編集時
に、元の画像情報が予め記憶領域に記憶されているた
め、誤った編集処理等により、元の画像に復元する際の
復元処理を迅速化できるという効果を奏する。
According to the gesture processing apparatus and the gesture processing method of the present invention, the original image information is stored in the storage area in advance at the time of editing by the gesture function. This has the effect of speeding up the restoration process at the time of execution.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1におけるジェスチャー処理装
置の要部ブロック図である。
FIG. 1 is a main block diagram of a gesture processing apparatus according to a first embodiment of the present invention.

【図2】本発明のジェスチャー処理装置のブロック図で
ある。
FIG. 2 is a block diagram of the gesture processing device of the present invention.

【図3】本発明のジェスチャー処理装置における基本ス
トロークの記憶例を示す説明図である。
FIG. 3 is an explanatory diagram showing a storage example of a basic stroke in the gesture processing device of the present invention.

【図4】本発明のジェスチャー処理装置におけるディス
プレイタブレットを示し、(a)はディスプレイタブレ
ットのタブレットを分割して示す各座標を示す説明図で
あり、(b)はディスプレイタブレットの表示装置の縦
ないしは横書きの配列を示す説明図である。
4A and 4B are diagrams illustrating a display tablet in the gesture processing device according to the present invention, in which FIG. 4A is an explanatory diagram illustrating respective coordinates of the tablet of the display tablet divided, and FIG. It is explanatory drawing which shows the arrangement | positioning of a horizontal writing.

【図5】本発明ジェスチャー処理装置におけるディスプ
レイタブレットを示し、(a)は有効領域と無効領域を
示す説明図、(b)はペンボタン領域を示す説明図、
(c)は有効な描画軌跡例を示す説明図、(d)は無効
な描画軌跡例を示す説明図である。
5A and 5B show a display tablet in the gesture processing device of the present invention, FIG. 5A is an explanatory diagram showing an effective area and an invalid area, FIG. 5B is an explanatory diagram showing a pen button area,
(C) is an explanatory diagram showing an example of an effective drawing locus, and (d) is an explanatory diagram showing an example of an invalid drawing locus.

【図6】本発明ジェスチャー処理装置における横書き用
の基本ストローク例を示す説明図である。
FIG. 6 is an explanatory diagram showing an example of a basic stroke for horizontal writing in the gesture processing apparatus of the present invention.

【図7】本発明ジェスチャー処理装置における縦書き用
の基本ストローク例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of a basic stroke for vertical writing in the gesture processing apparatus of the present invention.

【図8】本発明ジェスチャー処理装置におけるジェスチ
ャー機能の使用例を示す説明図である。
FIG. 8 is an explanatory diagram showing an example of using a gesture function in the gesture processing device of the present invention.

【図9】本発明ジェスチャー処理装置のジェスチャー機
能の他の使用例を示す説明図である。
FIG. 9 is an explanatory diagram showing another usage example of the gesture function of the gesture processing device of the present invention.

【図10】本発明のジェスチャー機能におけるポインテ
ィング機能を示す説明図である。
FIG. 10 is an explanatory diagram showing a pointing function in the gesture function of the present invention.

【図11】本発明のジェスチャー機能における手書き文
字入力機能を示す説明図である。
FIG. 11 is an explanatory diagram showing a handwritten character input function in the gesture function of the present invention.

【図12】本発明のジェスチャー機能におけるセーブ機
能を示すフローチャートである。
FIG. 12 is a flowchart showing a save function in the gesture function of the present invention.

【図13】本発明のセーブ機能の一具体例における初期
画面を示す説明図である。
FIG. 13 is an explanatory diagram showing an initial screen in a specific example of the save function of the present invention.

【図14】本発明の初期画面に一編集処理が実行された
編集画面を示す説明図である。
FIG. 14 is an explanatory diagram showing an editing screen in which one editing process has been executed on the initial screen of the present invention.

【図15】上記編集画面に復元編集記号を入力した復元
指示画面を示す説明図である。
FIG. 15 is an explanatory diagram showing a restoration instruction screen in which a restoration editing symbol is input on the editing screen.

【図16】上記の復元指示画面から復元した初期画面を
示す説明図である。
FIG. 16 is an explanatory diagram showing an initial screen restored from the restoration instruction screen.

【図17】本発明のジェスチャー機能における種々の編
集処理がそれぞれ実行された各表示画面をそれぞれ示す
説明図である。
FIG. 17 is an explanatory diagram showing each display screen on which various editing processes in the gesture function of the present invention have been respectively executed.

【図18】本発明のジェスチャー機能における横書きと
縦書きと認識実行する際のフローチャートである。
FIG. 18 is a flowchart for performing recognition of horizontal writing and vertical writing in the gesture function of the present invention.

【図19】本発明のジェスチャー機能による横書きでの
編集例を示し、(a)は編集記号を入力した表示画面、
(b)は上記編集記号による編集が実行された表示画面
を示す説明図である。
FIG. 19 shows an example of editing in horizontal writing using the gesture function of the present invention, where (a) shows a display screen on which an editing symbol is input;
(B) is an explanatory view showing a display screen on which editing by the editing symbol has been executed.

【図20】本発明のジェスチャー機能による縦書きでの
編集例を示し、(a)は編集記号を入力した表示画面、
(b)は上記編集記号による編集が実行された表示画面
を示す説明図である。
FIG. 20 shows an example of editing in vertical writing by the gesture function of the present invention, where (a) shows a display screen on which an editing symbol is input;
(B) is an explanatory view showing a display screen on which editing by the editing symbol has been executed.

【図21】本発明のジェスチャー機能における横書きと
縦書きとを識別するための書式情報の記憶領域を示す説
明図である。
FIG. 21 is an explanatory diagram showing a storage area of format information for identifying horizontal writing and vertical writing in the gesture function of the present invention.

【図22】本発明の実施例2におけるジェスチャー処理
装置の要部ブロック図である。
FIG. 22 is a main part block diagram of a gesture processing apparatus according to a second embodiment of the present invention.

【図23】本発明のジェスチャー処理装置における基本
ストロークの変換を示すフローチャートである。
FIG. 23 is a flowchart showing conversion of a basic stroke in the gesture processing device of the present invention.

【符号の説明】[Explanation of symbols]

12入力ペン 14表示装置 19タブレット 31画面情報バッファ(記憶領域) 12 input pen 14 display device 19 tablet 31 screen information buffer (storage area)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 佳子 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 岡野 裕二 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 重松 浩幸 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Yoshiko Kitamura 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (72) Inventor Yuji Okano 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Incorporated (72) Inventor Hiroyuki Shigematsu 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】座標入力手段から入力される連続する座標
のストロークを抽出するストローク抽出手段と、 複数の基本ストロークの各々に対応して復元及び編集を
含むコマンドを記憶したテーブル手段と、 抽出されたストロークとテーブル手段に記憶された基本
ストロークを照合して最も近似する基本ストロークに対
応するコマンドを認識するジェスチャー認識手段と、 表示画面に表示されている文字等の画像情報を認識され
たコマンドに従って編集するジェスチャー編集処理手段
と、 ジェスチャー編集処理手段による編集前の表示画面での
画像情報及び動作状況を記憶する画面情報記憶手段と、 ジェスチャー認識手段が復元コマンドを認識したことに
応答して画面情報記憶手段に記憶されている画像情報及
び動作状況を読み出し設定する復元手段とを備えるジェ
スチャー処理装置。
1. Stroke extracting means for extracting strokes of continuous coordinates inputted from a coordinate input means, and table means for storing commands including restoration and editing corresponding to each of a plurality of basic strokes. A gesture recognizing means for recognizing a command corresponding to the closest basic stroke by comparing the stroke obtained with the basic stroke stored in the table means; and Gesture editing processing means for editing, screen information storage means for storing image information and operation status on the display screen before editing by the gesture editing processing means, and screen information in response to recognition of the restoration command by the gesture recognition means Read and set image information and operation status stored in the storage unit Gesture processing unit and a former unit.
【請求項2】座標入力手段から入力される連続する座標
のストロークを抽出し、抽出されたストロークと予め記
憶された基本ストロークを照合し最も近似する基本スト
ロークに対応する復元及び編集コマンドを認識し、表示
画面に表示されている文字等の画像情報を認識された編
集コマンドに従って編集するジェスチャー編集処理方法
であって、 編集前の表示画面での画像情報及び動作状況を記憶して
おき、認識されたコマンドが復元コマンドである場合
に、前記記憶している画像情報及び動作状況を読み出し
設定するようにしたことを特徴とするジェスチャー処理
方法。
2. A stroke of continuous coordinates inputted from the coordinate input means is extracted, the extracted stroke is compared with a basic stroke stored in advance, and a restoration and editing command corresponding to the closest basic stroke is recognized. A gesture editing processing method for editing image information such as characters displayed on a display screen according to a recognized editing command, wherein image information and operation status on a display screen before editing are stored and recognized. A gesture processing method for reading and setting the stored image information and operation status when the restored command is a restoration command.
JP14094399A 1999-05-21 1999-05-21 Gesture processing device and gesture processing method Expired - Lifetime JP3258978B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14094399A JP3258978B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14094399A JP3258978B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29615292A Division JP2963589B2 (en) 1992-11-05 1992-11-05 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JP2000047824A true JP2000047824A (en) 2000-02-18
JP3258978B2 JP3258978B2 (en) 2002-02-18

Family

ID=15280431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14094399A Expired - Lifetime JP3258978B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP3258978B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092821A (en) * 2011-10-24 2013-05-16 Kyocera Corp Electronic device, control program, and processing execution method
JP2014021933A (en) * 2012-07-23 2014-02-03 Ricoh Co Ltd Projection device, and projection method
US11269511B2 (en) 2017-12-01 2022-03-08 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP2022090171A (en) * 2020-12-07 2022-06-17 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus and information processing method
US11379060B2 (en) 2004-08-25 2022-07-05 Apple Inc. Wide touchpad on a portable computer
US11449224B2 (en) 2008-01-04 2022-09-20 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US11853636B2 (en) 2020-08-27 2023-12-26 Ricoh Company, Ltd. Display apparatus, display method, medium, and display system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58195959A (en) * 1982-05-11 1983-11-15 Fujitsu Ltd Editing method
JPS62256023A (en) * 1986-04-30 1987-11-07 Casio Comput Co Ltd Instruction input system
JPH0246253U (en) * 1988-09-20 1990-03-29
JPH02257270A (en) * 1989-02-10 1990-10-18 Casio Comput Co Ltd Document editing device
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58195959A (en) * 1982-05-11 1983-11-15 Fujitsu Ltd Editing method
JPS62256023A (en) * 1986-04-30 1987-11-07 Casio Comput Co Ltd Instruction input system
JPH0246253U (en) * 1988-09-20 1990-03-29
JPH02257270A (en) * 1989-02-10 1990-10-18 Casio Comput Co Ltd Document editing device
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11379060B2 (en) 2004-08-25 2022-07-05 Apple Inc. Wide touchpad on a portable computer
US11449224B2 (en) 2008-01-04 2022-09-20 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US11886699B2 (en) 2008-01-04 2024-01-30 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
JP2013092821A (en) * 2011-10-24 2013-05-16 Kyocera Corp Electronic device, control program, and processing execution method
US10185481B2 (en) 2011-10-24 2019-01-22 Kyocera Corporation Electronic device, computer readable memory, and process execution method
JP2014021933A (en) * 2012-07-23 2014-02-03 Ricoh Co Ltd Projection device, and projection method
US11269511B2 (en) 2017-12-01 2022-03-08 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
US11853636B2 (en) 2020-08-27 2023-12-26 Ricoh Company, Ltd. Display apparatus, display method, medium, and display system
JP2022090171A (en) * 2020-12-07 2022-06-17 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP3258978B2 (en) 2002-02-18

Similar Documents

Publication Publication Date Title
US5481278A (en) Information processing apparatus
US5956021A (en) Method and device for inputting information for a portable information processing device that uses a touch screen
JP2963589B2 (en) Gesture processing device and gesture processing method
JP3292752B2 (en) Gesture processing device and gesture processing method
JP5849778B2 (en) Handwriting input device and program
JP3258978B2 (en) Gesture processing device and gesture processing method
KR20040043454A (en) Pen input method and apparatus in pen computing system
JP3075882B2 (en) Document creation and editing device
JP2999335B2 (en) Gesture processing device and gesture processing method
JP3388451B2 (en) Handwriting input device
JPH07146918A (en) Handwritten character recognizing device
JP3874571B2 (en) Gesture processing device and gesture processing method
JP2905013B2 (en) Gesture processing device and gesture processing method
JP2003005902A (en) Character inputting device, information processor, method for controlling character inputting device, and storage medium
JPH0683524A (en) Pen input system
JP3469816B2 (en) Gesture processing device and gesture processing method
JPS61267128A (en) Display erasure system
JPH03111926A (en) Data processor
JPH11306369A (en) Picture data editor
JP2006134360A (en) Handwritten character input apparatus
JP2994176B2 (en) Ruled line input device
JP3469817B2 (en) Gesture processing device and gesture processing method
JPH08137865A (en) Character information processor with address book managing function
JPH09212080A (en) Portable information terminal device
JPH06251198A (en) Character input device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071207

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081207

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091207

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091207

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 11

EXPY Cancellation because of completion of term