JPH11345072A - Gesture processor and gesture processing method - Google Patents

Gesture processor and gesture processing method

Info

Publication number
JPH11345072A
JPH11345072A JP11140944A JP14094499A JPH11345072A JP H11345072 A JPH11345072 A JP H11345072A JP 11140944 A JP11140944 A JP 11140944A JP 14094499 A JP14094499 A JP 14094499A JP H11345072 A JPH11345072 A JP H11345072A
Authority
JP
Japan
Prior art keywords
gesture
pen
coordinate
display
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11140944A
Other languages
Japanese (ja)
Other versions
JP3874571B2 (en
Inventor
Yutaka Nakamura
豊 中村
Hiroyuki Shigematsu
浩幸 重松
Munenori Sakamoto
宗紀 坂本
Hiroyuki Nagasawa
宏行 長澤
Hiroshi Nakao
寛 中尾
Yasuhiro Nakajima
靖浩 中島
Masaaki Kurata
正明 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP14094499A priority Critical patent/JP3874571B2/en
Publication of JPH11345072A publication Critical patent/JPH11345072A/en
Application granted granted Critical
Publication of JP3874571B2 publication Critical patent/JP3874571B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of performing editing by handwriting by a pen or the like on a screen. SOLUTION: A display device 14 is provided, a tablet 19 capable of inputting images by performing plotting by an input pen 12 is provided and a gesture function capable of editing the images of the array or the like of characters and symbols by the images is provided. The gesture valid area of the input pen in the gesture function and a gesture invalid area for displaying the input function of an icon or the like given priority over the gesture function are set on the tablet 19. A gesture judgement part 22 for judging the validity and invalidity of the gesture function by a pen-down coordinate which is the coordinate where the input pen 12 is abutted on the tablet 19 for the first time at the time of the gesture function is provided. Thus, the validity and invalidity of the gesture function are discriminated at the time of pen-down and the gesture function is quickened.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画面上でペン等に
よる手書きでの編集を行えるようにした情報処理装置で
あり、詳しくは、ジェスチャー処理装置及びジェスチャ
ー処理方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus capable of performing handwriting editing on a screen with a pen or the like, and more particularly, to a gesture processing apparatus and a gesture processing method.

【0002】[0002]

【従来の技術】近年、液晶表示等の表示部分と、入力ペ
ン等との当接部位の座標を検出するタブレットとを一体
化した表示装置を備え、入力ペンにより直接編集できる
ように設定された情報機器、いわゆるペン情報入力方式
の情報機器が市場に現れている。したがって、上記表示
装置は、紙とペンを連想させるように、あたかも原稿用
紙での校正と同様のことを、上記タブレット上で実現で
きるものとなっており、上記のような情報機器として
は、例えばシャープ社製の日本語ワードプロセッサ"WV-
S200"等が知られている。
2. Description of the Related Art In recent years, a display device in which a display portion such as a liquid crystal display and a tablet for detecting the coordinates of a contact portion with an input pen or the like are provided is provided, and is set so as to be directly editable with the input pen. Information devices, so-called pen information input type information devices, have appeared on the market. Therefore, the display device can realize, on the tablet, the same thing as proofreading on manuscript paper, as if reminiscent of a paper and a pen. Japanese word processor "WV- made by Sharp Corporation"
S200 "and the like are known.

【0003】これらのペン情報入力機器において、その
特性をより生かすための機能として、ジェスチャー機能
というものが考えられた。このようなジェスチャー機能
は、予め設定して記憶しておいた編集記号により、入力
ペンでタブレット上の所望する位置の文字等を、任意の
編集記号で描画することにより、表示装置上の文章を編
集できるようになっている。
[0003] In these pen information input devices, a gesture function has been considered as a function for making the most of the characteristics. Such a gesture function is to draw a text on a display device by drawing a character or the like at a desired position on a tablet with an input pen using an editing symbol set and stored in advance with an arbitrary editing symbol. It can be edited.

【0004】[0004]

【発明が解決しようとする課題】ところが、上記従来で
は、描画開始時のペンダウン時から、描画完了時のペン
アップが完了した後に、その入力ペンによるジェスチャ
ー機能が有効か無効かを判別しており、ジェスチャー機
能の動作に時間がかかっていた。また、上記従来では、
描画中に入力ペンが、ジェスチャー機能の無効領域であ
る、アイコン等の領域を通ると、ジェスチャー機能をキ
ャンセルしていたため、そのようなキャンセル時には再
度設定し直して、入力ペンによりタブレット上を描画す
る必要があり、ジェスチャー機能に手間取っているとい
う問題を生じている。
However, in the prior art described above, it is determined whether the gesture function by the input pen is valid or invalid after the pen-down at the start of drawing and after the pen-up at the completion of drawing is completed. , It took time to operate the gesture function. Also, in the above-mentioned conventional,
If the input pen passes through an area such as an icon, which is an invalid area of the gesture function during drawing, the gesture function has been canceled, so at such cancellation, the setting is reset and the input pen is used to draw on the tablet Need to use the gesture function.

【0005】また、上記従来では、例えば、ユーザーが
意図しないで、消去や抹消系の編集記号を入力して、意
図しない文章に編集することがあり、そのような文章を
元に戻すのに手間取るという問題も生じている。
Further, in the above-mentioned conventional technique, for example, there is a case where a user inputs an erasure or erasure-related editing symbol without intention and edits it into an unintended text, and it takes time to restore such a text. The problem has arisen.

【0006】さらに、上記従来では、ジェスチャー機能
を有効に機能させるために、入力ペンの軌跡や編集記号
のリスト等を表示できるようになっているが、そのよう
な表示の消去と表示とを繰り返すと、その処理時間が大
きくなり処理速度が遅くなるという問題も生じている。
Furthermore, in the above-described conventional art, a locus of an input pen, a list of edit symbols, and the like can be displayed in order to effectively operate the gesture function. Such display is repeatedly erased and displayed. Then, there is also a problem that the processing time is increased and the processing speed is reduced.

【0007】[0007]

【課題を解決するための手段】本発明のジェスチャー処
理装置は、以上の課題を解決するために、液晶ディスプ
レイ等の表示手段と、入力ペン等の入力手段により指示
された表示手段の表示面上での連続する座標のストロー
クを出力する座標抽出手段と、座標抽出手段から出力さ
れる最初の座標に対応する表示位置が予め定められた有
効領域であるか否かを判定する判定手段と、判定手段に
より有効領域であると判定された最初の座標に連続する
ストロークと予め記憶された基本ストロークとを照合し
最も近似する基本ストロークに対応する編集コマンドを
出力するジェスチャー認識手段と、ジェスチャー認識手
段から出力される編集コマンドに基づき表示手段上の上
記有効領域に表示された情報を編集する編集手段とを備
えていることを特徴としている。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, a gesture processing apparatus according to the present invention has a display unit such as a liquid crystal display and a display surface of a display unit designated by an input unit such as an input pen. A coordinate extracting unit that outputs a stroke of continuous coordinates in step (a), a determining unit that determines whether a display position corresponding to the first coordinate output from the coordinate extracting unit is a predetermined effective area, A gesture recognition unit that compares a stroke that is continuous to the first coordinate determined to be an effective area with a basic stroke stored in advance and outputs an edit command corresponding to a basic stroke that is closest to the gesture, and a gesture recognition unit. Editing means for editing the information displayed in the effective area on the display means based on the output editing command. It is set to.

【0008】さらに、本発明のジェスチャー処理装置
は、上記の構成に加えて、上記判定手段は有効領域内の
最初の座標に連続する座標についての領域判定を行わな
いようにしていることを特徴としている。
Further, in the gesture processing apparatus according to the present invention, in addition to the above-described configuration, the determination means does not perform the area determination on the coordinates continuous with the first coordinate in the effective area. I have.

【0009】また、本発明のジェスチャー処理方法は、
液晶ディスプレイ等の表示手段と、入力ペン等の入力手
段により指示された表示手段の表示面上での連続する座
標のストロークを出力する座標抽出手段とを備えるジェ
スチャー処理装置におけるジェスチャー処理方法であっ
て、座標抽出手段から出力される最初の座標に対応する
表示位置が予め定められた有効領域であるか否かを判定
し、有効領域であると判定された最初の座標に連続する
ストロークと予め記憶された基本ストロークとを照合し
て最も近似する基本ストロークに対応する編集コマンド
を出力し、出力された編集コマンドに基づき表示手段上
の上記有効領域に表示された情報を編集することを特徴
としている。
Further, the gesture processing method of the present invention comprises:
A gesture processing method in a gesture processing device, comprising: a display unit such as a liquid crystal display; and coordinate extraction unit that outputs a stroke of continuous coordinates on a display surface of the display unit specified by an input unit such as an input pen. It is determined whether or not the display position corresponding to the first coordinate output from the coordinate extracting means is a predetermined effective area, and a stroke continuous to the first coordinate determined to be the effective area is stored in advance. And outputting an edit command corresponding to the closest basic stroke by comparing the basic stroke with the output basic command, and editing the information displayed in the effective area on the display means based on the output edit command. .

【0010】さらにまた、本発明のジェスチャー処理方
法は、上記の構成に加えて有効領域内の最初の座標に連
続する座標についての領域判定を行わないようにしたこ
とを特徴としている。
Further, the gesture processing method according to the present invention is characterized in that, in addition to the above-described configuration, the area determination is not performed on the coordinates continuous with the first coordinates in the effective area.

【0011】上記の本発明によれば、ジェスチャー機能
時に上記入力ペン等の入力手段により指示されて座標抽
出手段により上記表示面上での最初に指示された座標の
出力によって、上記ジェスチャー機能の有効と無効とを
判定する判定手段と、その後のストロークによって編集
コマンドを出力するジェスチャー認識手段とが設けられ
ているから、ジェスチャー機能の有効/無効とその意図
するコマンドとを正確に判断し抽出することができる。
According to the present invention, the gesture function is enabled by the output of the first designated coordinates on the display surface by the coordinate extracting means instructed by the input means such as the input pen at the time of the gesture function. And a gesture recognizing means for outputting an editing command by a subsequent stroke, so that it is possible to accurately determine and extract valid / invalid of a gesture function and its intended command. Can be.

【0012】また、本発明によれば入力手段による最初
の座標を出力した後に入力されたストロークの座標につ
いては、有効/無効の領域判定を行わないようにしたの
で、最初の座標が有効であれば、例えば、その後の連続
したストロークがジェスチャー機能の無効領域に描かれ
ても、ジェスチャー機能そのものが無効となることがな
い。
According to the present invention, valid / invalid area determination is not performed for the coordinates of a stroke input after the first coordinates are output by the input means, so that the first coordinates are valid. For example, even if a subsequent continuous stroke is drawn in the invalid area of the gesture function, the gesture function itself is not invalidated.

【0013】[0013]

【発明の実施の形態】本発明の一実施例について図1な
いし図23に基づいて説明すれば、以下の通りである。
情報処理装置としてのジェスチャー処理装置では、図2
に示すブロック図のように、プログラムを実行する中央
処理装置(Central Processing Unit、以下、CPUと
いう)1が設けられ、そのCPU1のバスライン18
に、各種データを記憶して読み出すためのRAM2、制
御プログラムを格納しておくROM3、プリンタ5を制
御するプリンタコントローラ4、外部記憶手段としての
ICカード6に対して読み書きするためのICカードイ
ンターフェース7、およびフロッピーディスクドライブ
(以下、FDDという)8を制御するFDコントローラ
9が接続されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS.
In the gesture processing device as the information processing device, FIG.
As shown in the block diagram shown in FIG. 1, a central processing unit (hereinafter, referred to as a CPU) 1 for executing a program is provided, and a bus line 18 of the CPU 1 is provided.
A RAM 2 for storing and reading various data, a ROM 3 for storing a control program, a printer controller 4 for controlling a printer 5, and an IC card interface 7 for reading from and writing to an IC card 6 as external storage means. And an FD controller 9 for controlling a floppy disk drive (hereinafter referred to as FDD) 8.

【0014】さらに、上記バスライン18には、入力手
段としてのキーボード10からの信号を上記バスライン
18に入力するためのキーインターフェース11と、液
晶ディスプレイ等の表示装置14(表示手段)を制御す
るための表示コントロール15とが接続されている。
Further, the bus line 18 controls a key interface 11 for inputting a signal from a keyboard 10 as input means to the bus line 18 and a display device 14 (display means) such as a liquid crystal display. Display control 15 is connected.

【0015】その上、上記バスライン18には、上記表
示装置14の画像上と当接して、情報を入力したり、選
択したりする入力ペン12からの信号をペン座標に変換
して上記バスライン18に入力するためのペンインター
フェース13が接続されており、よって、上記入力ペン
12は、上記画像上を示す、いわゆるポインティング機
能や、上記画像上を所定のイメージを描画することによ
り、画像上の情報を選択したり、編集記号を入力したり
できるジェスチャー機能のための入力手段となってい
る。
In addition, a signal from the input pen 12 for inputting or selecting information is converted into pen coordinates by contacting the bus line 18 with an image on the display device 14 to convert the signal into pen coordinates. A pen interface 13 for inputting to the line 18 is connected. Therefore, the input pen 12 is provided with a so-called pointing function for displaying on the image or a predetermined image on the image to draw a predetermined image on the image. Input means for a gesture function that allows the user to select information and input an edit symbol.

【0016】また、上記バスライン18には、手書き編
集インターフェース16が接続されており、その手書き
編集インターフェース16では、後に詳述するように、
上記の入力ペン12からのペン座標をそれぞれ示す各座
標データの信号により、メモリである手書き認識辞書
(記憶手段)17に基づいて、上記各座標データの認識
結果を上記バスライン18に出力するようになってい
る。
Further, a handwriting editing interface 16 is connected to the bus line 18, and the handwriting editing interface 16, as described later in detail,
Based on a signal of each coordinate data indicating the pen coordinates from the input pen 12, a recognition result of each coordinate data is output to the bus line 18 based on a handwriting recognition dictionary (storage means) 17 which is a memory. It has become.

【0017】また、上記手書き認識辞書17では、文字
や記号を示す各基本ストロークが、後述する(1)横書
きジェスチャーコマンドテーブル、(2)手書き文字テ
ーブルと(3)縦書きジェスチャーコマンドテーブルと
いうように内容により分類されてそれぞれ格納されてい
る。このような基本ストロークの例としては、改行を示
す編集記号である逆L字が、図3に示すように、9×9
の枡目のそれぞれ相当する位置に〇で示したように埋ま
って示されている。
In the handwriting recognition dictionary 17, each basic stroke indicating a character or a symbol is described as (1) a horizontal writing gesture command table, (2) a handwriting character table, and (3) a vertical writing gesture command table. Classified according to the contents and stored. As an example of such a basic stroke, an inverted L character which is an edit symbol indicating a line feed is, as shown in FIG.
Are buried in the positions corresponding to the respective squares as indicated by the triangle.

【0018】一方、図2に示すように、前記表示装置1
4の画面上に、その画面の各座標を検出するための透明
なタブレット(座標抽出手段)19が一体的に形成され
ていて、上記タブレット19は、表示装置14の文字配
列、例えば図4(b)に示す縦40行、横80例に対応する
ように、図4(a)に示す碁盤の目状に各XY( 640×
400 )座標が設定されている。
On the other hand, as shown in FIG.
4, a transparent tablet (coordinate extraction means) 19 for detecting each coordinate of the screen is integrally formed, and the tablet 19 has a character arrangement of the display device 14, for example, FIG. 4B, each XY (640 × 640) is arranged in a grid pattern as shown in FIG.
400) The coordinates are set.

【0019】これにより、図2に示す前記入力ペン12
の先端部が、上記タブレット19上に当接すると、その
タブレット19におけるペン座標が、前記ペンインター
フェース13にて検出され、座標コードに変換されてバ
スライン18に出力される。
Thus, the input pen 12 shown in FIG.
When the tip of the tablet abuts on the tablet 19, the pen coordinates on the tablet 19 are detected by the pen interface 13, converted into a coordinate code, and output to the bus line.

【0020】なお、上記のタブレットの方式としては、
入力ペン12が当接して描画すると、その軌跡の各座標
が検出できるものであれば特に限定されないが、例えば
静電結合式タブレットや、電気ひずみおよび磁気ひずみ
式タブレット、また、感圧式や超音波式や電気機械式タ
ブレットも使用できる。
The tablet system described above includes:
There is no particular limitation as long as the coordinates of the trajectory can be detected when drawing with the input pen 12 in contact with the input pen 12. For example, an electrostatic coupling type tablet, an electrostriction and magnetostriction type tablet, a pressure-sensitive type or an ultrasonic type Formula and electromechanical tablets can also be used.

【0021】このような上記構成を用いて、表示装置1
4上に文章を作成する場合、キーボード10から入力さ
れた文字や記号が、キーインターフェース11にて所定
の文字コードや記号コードにそれぞれ変換されて、それ
ら各コードがCPU1(図1におけるテキスト編集部1
a)により一旦RAM2に順次格納される(図1におけ
るテキストメモリ2a)。
With the above-described configuration, the display device 1
When a text is created on the keyboard 4, characters and symbols input from the keyboard 10 are converted into predetermined character codes and symbol codes by the key interface 11, and those codes are converted into the CPU 1 (the text editing unit in FIG. 1). 1
According to a), the data is temporarily stored in the RAM 2 sequentially (text memory 2a in FIG. 1).

【0022】その後、そのRAM2に格納されたコード
を、キーボード10からの指示とROM3に格納されて
いるプログラムとに基づいて、CPU1が、表示装置1
4に表示できるようにRAM2上に再度配列する(図1
におけるビットマップメモリ2b)。続いて、上記RA
M2上の各コード配列を、表示コントロール15を介し
て表示装置14上に表示するようなっている。
Thereafter, the CPU 1 transmits the code stored in the RAM 2 to the display device 1 based on an instruction from the keyboard 10 and a program stored in the ROM 3.
4 so that they can be displayed on the RAM 2 (see FIG. 1).
Bit map memory 2b). Then, the RA
Each code sequence on M2 is displayed on the display device 14 via the display control 15.

【0023】また、上記構成では、このように一旦表示
装置14上に表示された文章を、キーボード10、表示
装置14上に設定されたアイコン、または後述する入力
ペン12による指示により編集できて、上記CPU(編
集手段)1は、所定のプログラムおよび上記指示に従っ
て、RAM2におけるビットマップメモリ2bの各コー
ド配列を並べ換える、つまり編集することができるよう
になっている。
In the above configuration, the sentence once displayed on the display device 14 can be edited by the keyboard 10, the icon set on the display device 14, or the instruction by the input pen 12 described later. The CPU (editing means) 1 can rearrange, that is, edit, each code array of the bitmap memory 2b in the RAM 2 according to a predetermined program and the above-mentioned instruction.

【0024】次に、表示装置14上に表示されている文
章の編集を容易にするためのジェスチャー機能について
説明する。まず、図1に示すように、CRTや液晶等の
表示装置14と、その表示面上に設けられた透明なタブ
レット19とが一体に構成されたディスプレイタブレッ
ト20上で、その表示装置14上で表示されている文章
等の画像の所望の位置において、例えば編集記号を示す
イメージを入力ペン12にて描画する。
Next, a gesture function for facilitating editing of a sentence displayed on the display device 14 will be described. First, as shown in FIG. 1, a display device 14 such as a CRT or a liquid crystal and a transparent tablet 19 provided on a display surface thereof are integrally formed on a display tablet 20. At a desired position of a displayed image such as a sentence, for example, an image showing an edit symbol is drawn by the input pen 12.

【0025】そのような描画の各座標データは、上記タ
ブレット19に接続されている軌跡座標抽出部21にて
順次検出される。このとき、上記座標データの内、上記
入力ペン12とタブレット19とが最初に当接したXY
座標であるペンダウン座標が、図5に示すタブレット1
9におけるジェスチャー機能の有効領域19a内である
か無効領域19b内であるかを、上記軌跡座標抽出部2
1からの座標データが入力されるジェスチャー判定部
(判定手段)22にて判定される。
Each coordinate data of such drawing is sequentially detected by the locus coordinate extracting unit 21 connected to the tablet 19. At this time, of the coordinate data, the XY where the input pen 12 and the tablet 19 first contacted each other.
The tablet 1 shown in FIG.
9 to determine whether the gesture function is within the effective area 19a or the invalid area 19b of the gesture function.
The gesture determination unit (determination means) 22 to which the coordinate data from 1 is input is determined.

【0026】さらに、上記ジェスチャー判定部22で
は、上記のペンダウン座標が有効であると判定される
と、そのペンダウン座標が、表示装置14における各表
示画面に応じて設定され、入力ペン12により選択等が
実行されるペンボタン領域であるか否かが判定される。
Further, when the gesture determination section 22 determines that the pen-down coordinates are valid, the pen-down coordinates are set according to each display screen on the display device 14 and selected by the input pen 12. Is determined to be a pen button area to be executed.

【0027】その後、上記ペンダウン座標が、有効領域
内であり、かつ、ペンボタン領域でないことが判定され
ると、上記ジェスチャー判定部22から座標データが入
力される軌跡判定部23は、ジェスチャー機能のONを
示すジェスチャー機能ONフラグをフラグ指示部(停止
手段)24にセットする。
Thereafter, when it is determined that the pen-down coordinates are within the effective area and not in the pen button area, the trajectory determination unit 23 to which the coordinate data is input from the gesture determination unit 22 is used. A gesture function ON flag indicating ON is set in the flag indicating section (stop means) 24.

【0028】このフラグ指示部24に、ジェスチャー機
能ONフラグがセットされていると、上記の描画軌跡を
示す各座標データは、ペンダウン座標も含めて軌跡判定
部23に接続されている座標データバッファ25にそれ
ぞれ順次記憶される。
When the gesture function ON flag is set in the flag indicating section 24, the coordinate data indicating the drawing locus includes a coordinate data buffer 25 connected to the locus judging section 23, including the pen down coordinates. Are sequentially stored.

【0029】その上、上記フラグ指示部24にジェスチ
ャー機能ONフラグがセットされていると、前記ジェス
チャー判定部22は、入力される座標データが有効領域
内であるか否か、およびペンボタン領域であるか否かの
判定を停止して、入力された座標データを全て有効とし
て軌跡判定部23に出力するようになっている。
In addition, when the gesture function ON flag is set in the flag instruction section 24, the gesture determination section 22 determines whether or not the input coordinate data is within the valid area and determines whether or not the input coordinate data is in the pen button area. The determination as to whether or not there is any is stopped, and all the input coordinate data is output as valid to the trajectory determination unit 23.

【0030】上記の入力ペン12による描画が終了し
て、入力ペン12がタブレット19から離間するペンア
ップの状態となると、軌跡判定部23は上記のジェスチ
ャー機能ONフラグがセットされていることを確認し
て、上記各軌跡座標データの全てが上記データバッファ
25からジェスチャーコマンド判定部(ジェスチャー認
識手段)26に出力される。
When the drawing with the input pen 12 is completed and the input pen 12 is in a pen-up state in which the input pen 12 is separated from the tablet 19, the trajectory determination unit 23 confirms that the above-mentioned gesture function ON flag is set. Then, all of the trajectory coordinate data is output from the data buffer 25 to the gesture command determination unit (gesture recognition means) 26.

【0031】なお、上記のように各座標データが全てジ
ャスチャーコマンド判定部26に出力されると、上記フ
ラグ指示部24によるジェスチャー機能ONフラグがリ
セットされるようになっている。
As described above, when all the coordinate data are output to the gesture command determination unit 26, the gesture function ON flag by the flag instruction unit 24 is reset.

【0032】上記各軌跡座標データは、そのジャスチャ
ーコマンド判定部26にて正規化されて図2に示す手書
き認識辞書17に含まれるジェスチャーコマンドテーブ
ル27にそれぞれ格納されている基本ストロークのデー
タと照合される。なお、上記のジャスチャーコマンド判
定部27は前記の手書き編集インターフェース16に含
まれ、また、前記の軌跡座標抽出部21、ジェスチャー
判定部22、軌跡判定部23およびフラグ指示部24
は、前記のペンインターフェース13に含まれており、
前記の座標データバッファ25はRAM2に記憶領域が
設定されている。
Each of the trajectory coordinate data is normalized by the gesture command determination unit 26 and collated with the basic stroke data stored in the gesture command table 27 included in the handwriting recognition dictionary 17 shown in FIG. Is done. Note that the gesture command determination unit 27 is included in the handwriting editing interface 16, and the trajectory coordinate extraction unit 21, the gesture determination unit 22, the trajectory determination unit 23, and the flag instruction unit 24
Is included in the pen interface 13 described above,
The storage area of the coordinate data buffer 25 is set in the RAM 2.

【0033】上記のジェスチャーコマンドテーブル27
には、図示している一字抹消コマンド27a、スペース
挿入コマンド27b、手書き文字入力コマンド27cに
対応する基本ストロークの他に、例えば図6および図7
に示す複数の基本ストロークが、それぞれ対応するコマ
ンドと共に記憶されている。
The above gesture command table 27
In addition to the basic strokes corresponding to the one-character deletion command 27a, the space insertion command 27b, and the handwritten character input command 27c shown in FIG.
Are stored together with the corresponding commands.

【0034】また、上記ジェスチャーコマンドテーブル
27における各基本ストロークを、ジャスチャーコマン
ド判定部26からアクセス可能とアクセス不可とをそれ
ぞれ選択して設定できるコマンド選択部(選択手段)3
2が設けられており、そのコマンド選択部32での選択
は、テキスト編集部1aを介して入力ペン12やキーボ
ード10等の入力手段によって設定できるようになって
いる。
A command selection unit (selection means) 3 which can select and set each basic stroke in the gesture command table 27 to be accessible or inaccessible from the gesture command determination unit 26.
The selection by the command selection unit 32 can be set by input means such as the input pen 12 and the keyboard 10 via the text editing unit 1a.

【0035】なお、上記コマンド選択部32では、各基
本ストロークを個々にジャスチャーコマンド判定部26
からアクセス可能とアクセス不可とが選択設定できるよ
うになっており、また、上記各基本ストロークをグルー
ピングして、各グループ毎に、アクセス可能とアクセス
不可とが選択設定(設定手段)できるようにもなってい
る。
In the command selection section 32, each basic stroke is individually determined by the gesture command determination section 26.
It is also possible to select and set accessible and inaccessible from the group, and to group and set each of the basic strokes so that accessible and inaccessible can be selectively set (setting means) for each group. Has become.

【0036】また、上記の各基本ストロークにそれぞれ
対応する各コマンドのアクセス可能とアクセス不可とを
表にして記憶して、その表を任意に呼び出して表示装置
14で表示するための登録バッファ33が設けられてい
る。さらに、この登録バッファ33では、上記コマンド
選択部32においてグルーピングされている場合、例え
ば、全て無効、一部有効、全て有効から選択できるよう
に、グルーピングの表も記憶できるようになっている。
A registration buffer 33 for storing, in a table, the accessibility and inaccessibility of each command corresponding to each of the above basic strokes, arbitrarily calling up the table, and displaying the table on the display device 14 is provided. Is provided. Further, in the registration buffer 33, when grouping is performed in the command selection unit 32, a table of grouping can be stored so that, for example, all invalid, partially valid, and all valid can be selected.

【0037】前記のジャスチャーコマンド判定部27
は、上記の各基本ストロークとの照合の結果、前記の軌
跡座標と最も近似する基本ストロークに対応したコマン
ドを、テキスト編集部1aに出力すると共に、供給され
た軌跡座標から上記コマンドにより処理される文字また
は文字列の座標情報、つまり表示装置14における位置
情報を上記テキスト編集部1aに出力する。
The above-mentioned gesture command determination unit 27
Outputs a command corresponding to the basic stroke closest to the trajectory coordinates to the text editing unit 1a as a result of the comparison with each of the basic strokes, and is processed from the supplied trajectory coordinates by the command. The coordinate information of a character or a character string, that is, position information on the display device 14 is output to the text editing unit 1a.

【0038】これにより、上記テキスト編集部1aは、
テキストメモリ2a内の文字や記号の配列の上記位置情
報の文字や記号を、削除したり、その位置に挿入したり
して編集できることになる。このとき、テキスト編集部
1aは、上記のようなジェスチャー機能の起動時に、つ
まり入力ペン12による入力操作を開始する直前に、表
示装置14において表示されているテキストメモリ2a
内の画面情報を、呼び出して一時記憶しておくメモリで
ある画面情報バッファ(記憶領域)31が設定されてい
る。なお、上記画面情報バッファ31では、次の画面情
報が記憶されると、以前の記憶された画面情報はクリア
されるようになっている。
Thus, the text editing unit 1a
The characters and symbols of the position information in the character and symbol array in the text memory 2a can be edited by deleting or inserting them at that position. At this time, the text editor 2a displays the text memory 2a displayed on the display device 14 when the above-described gesture function is activated, that is, immediately before the input operation with the input pen 12 is started.
A screen information buffer (storage area) 31, which is a memory for recalling and temporarily storing the screen information in the area, is set. In the screen information buffer 31, when the next screen information is stored, the previously stored screen information is cleared.

【0039】これにより、上記の編集を取り消す場合
等、予め以前の画面情報が記憶されているため、例えば
図17に示すように、入力ペン12の軌跡表示、認識領
域の矩形表示、認識情報の表示、認識表示の一覧、処理
結果の取消か否かを問うメッセージ等を表示しても、編
集画面の再表示、認識機能実行、編集処理の取消し等の
実行が迅速化できる。
As a result, the previous screen information is stored in advance, such as when the above editing is canceled. For example, as shown in FIG. 17, the trajectory display of the input pen 12, the rectangular display of the recognition area, the recognition information Even if a display, a list of recognition displays, a message asking whether to cancel the processing result, or the like is displayed, execution of redisplay of the editing screen, execution of the recognition function, cancellation of the editing processing, and the like can be speeded up.

【0040】また、上記のテキスト編集部1aは、ジャ
スチャーコマンド判定部27からのコマンドのみが入力
されるだけでなく、前述したようにキーボード10から
のコマンドも入力されて、そのコマンドによる編集等が
できるようになっている。
The text editing unit 1a receives not only a command from the gesture command determination unit 27 but also a command from the keyboard 10 as described above, and performs editing by the command. Is available.

【0041】一方、上記の軌跡座標の処理とは独立し
て、軌跡座標抽出部21により抽出された軌跡座標デー
タは、軌跡描画部28に出力されて上記軌跡座標データ
をつないだ軌跡イメージとなる。
On the other hand, independently of the above-described processing of the locus coordinates, the locus coordinate data extracted by the locus coordinate extracting unit 21 is output to the locus drawing unit 28 to become a locus image connecting the locus coordinate data. .

【0042】生成された軌跡イメージは、ビットマップ
メモリ2bに現在形成されている文字列、記号列または
イメージと合成されて、そのビットマップメモリ2bに
記憶される。したがって、オペレータが入力ペン12
で、タブレット19をなぞって入力したジェスチャーイ
メージは、リアルタイムに表示装置14上に表示される
ことになる。
The generated locus image is combined with a character string, symbol string or image currently formed in the bitmap memory 2b and stored in the bitmap memory 2b. Therefore, when the operator operates the input pen 12
Thus, the gesture image input by tracing the tablet 19 is displayed on the display device 14 in real time.

【0043】このようなジェスチャー編集の操作例を図
8および図9に示す。まず、図8において、ディスプレ
イタブレット20に表示されているテキストの内、文字
「え」を一字抹消する場合、入力ペン12にて「え」の
文字の上を「V」のようにジェスチャー、つまり描画し
た後、上記入力ペン12をディスプレイタブレット20
上から離す。
FIGS. 8 and 9 show operation examples of such gesture editing. First, in FIG. 8, when deleting one character “e” in the text displayed on the display tablet 20, a gesture such as “V” is performed on the character “e” with the input pen 12, That is, after drawing, the input pen 12 is
Release from above.

【0044】なお、上のような描画の際、その開始位置
が、上記の文字の範囲内で有ることが上記の文字の認識
において肝要である。特に指示する文字の認識を容易に
するため、上記の文字のほぼ中央部から描画を開始する
ことが望ましい。
In the above-described drawing, it is important for the recognition of the above-mentioned characters that the start position thereof be within the range of the above-mentioned characters. In particular, in order to facilitate recognition of a designated character, it is desirable to start drawing from substantially the center of the character.

【0045】続いて、その軌跡座標が抽出されて軌跡イ
メージがディスプレイタブレット20における表示装置
14に表示されると共に、基本ストロークとの照合によ
り得られた「V」の描画に相当する一字抹消のコマンド
と共に、上記の「え」の文字の位置情報が、テキスト編
集部1aに出力される。
Subsequently, the trajectory coordinates are extracted, the trajectory image is displayed on the display device 14 of the display tablet 20, and the one-character erasure corresponding to the drawing of "V" obtained by collation with the basic stroke is performed. Along with the command, the position information of the character "e" is output to the text editing unit 1a.

【0046】その後、上記の位置情報に基づいて、表示
装置14におけるカーソル14aが元の位置、例えば
「ほ」の文字の位置から入力ペン12にて操作された位
置、つまり上記の場合文字「え」の位置に移動した後、
前記のテキストメモリ2a内の上記の「え」を、上記の
コマンドに基づき抹消することにより、ビットマップメ
モリ2b内の上記の「え」の文字が消去され、上記表示
装置14における上記の「え」が抹消される。このよう
にしてジェスチャー編集が完了する。
Thereafter, based on the position information, the cursor 14a on the display device 14 is operated from the original position, for example, the position of the character "" by the input pen 12, that is, the character "e" in the above case. ”Position,
By deleting the "e" in the text memory 2a based on the command, the character of the "e" in the bitmap memory 2b is deleted, and the "e" in the display device 14 is deleted. Is deleted. In this way, the gesture editing is completed.

【0047】また、図9に示すように、各編集記号を図
示しない入力ペンにより、ディスプレイタブレット20
上に描画することにより、上記と同様に、ジェスチャー
編集が可能となっている。なお、上記の編集記号のイメ
ージである基本ストロークは任意に設定できるようにな
っている。
As shown in FIG. 9, each edit symbol is displayed on the display tablet 20 by an input pen (not shown).
By drawing on the top, gesture editing can be performed in the same manner as described above. The basic stroke, which is an image of the above-mentioned editing symbol, can be set arbitrarily.

【0048】次に、上記の構成によるポインティング機
能について説明する。まず、従来のワードプロセッサで
は、テキスト上の複数文字を領域指定する場合等にはカ
ーソルを順次移動させていたが、上記構成では、カーソ
ル14aの位置を直接入力ペン12の指示によりダイレ
クトに移動指示が可能となっている。
Next, the pointing function according to the above configuration will be described. First, in the conventional word processor, the cursor is sequentially moved when a plurality of characters on the text are designated as an area. In the above configuration, the position of the cursor 14 a is directly moved by the direct input pen 12. It is possible.

【0049】なお、前記のジェスチャーとポインティン
グとの切り替えは、抽出された座標が軌跡を伴わない一
点の座標であるか否か、すなわち上記各座標が連続であ
るか否かによって判断しており、このような判断は、前
記軌跡判定部23にて行われている。
The switching between the gesture and the pointing is determined based on whether or not the extracted coordinates are coordinates of one point having no trajectory, that is, whether or not each of the coordinates is continuous. Such a determination is made by the trajectory determination unit 23.

【0050】そこで、例えば、ポインティングであると
判断した場合、得られた座標は、ジェスチャーコマンド
テーブル27と照合せず、その座標の位置情報のみをテ
キスト編集部1aに出力させている。このようなポイン
ティング機能の操作例は図10に示す通りである。
Therefore, for example, when it is determined that the pointing is performed, the obtained coordinates are not collated with the gesture command table 27, and only the position information of the coordinates is output to the text editing unit 1a. An operation example of such a pointing function is as shown in FIG.

【0051】次に、上記構成を用いて、手書き文字入力
について説明する。手書き文字入力は、前記のジェスチ
ャー編集が軌跡座標と予め記憶した基本ストロークとを
照合する処理と同等の処理方法により実行できるように
なっている。
Next, handwritten character input will be described using the above configuration. The handwritten character input can be executed by a processing method equivalent to the processing in which the above-described gesture editing compares the locus coordinates with a previously stored basic stroke.

【0052】つまり、図1に示すように、ジャスチャー
コマンド判定部26と処理上の同等位置に、すなわち手
書き編集インターフェース16に、手書き文字認識部2
9が形成され、手書き文字を予め記憶している手書き文
字テーブル30が、ジェスチャーコマンドテーブル27
と同様に図2に示す手書き認識辞書17に形成されてい
る。
That is, as shown in FIG. 1, the handwritten character recognition unit 2 is provided at the position equivalent to the processing of the gesture command determination unit 26, that is, in the handwriting editing interface 16.
9 is formed, and the handwritten character table 30 in which handwritten characters are stored in advance is a gesture command table 27.
2 is formed in the handwriting recognition dictionary 17 shown in FIG.

【0053】上記の手書き文字認識部29は、軌跡座標
抽出部21から供給される軌跡座標と、手書き文字テー
ブル30に記憶されている複数の基本文字ストロークと
を照合し、最も近似する基本文字ストロークに対応する
文字コードを上記の手書き文字テーブル30からテキス
ト編集部1aに出力させる。
The handwritten character recognizing unit 29 compares the locus coordinates supplied from the locus coordinate extracting unit 21 with a plurality of basic character strokes stored in the handwritten character table 30, and finds the most similar basic character stroke. Is output from the handwritten character table 30 to the text editing unit 1a.

【0054】このような手書き文字入力機能と、前記の
ジェスチャー編集機能との異なる点は、手書き文字認識
部29が位置情報を出力しないことである。なお、上記
の手書き文字入力機能は、キーボード10からの指示
や、表示装置14上のアイコンからの指示から立ち上げ
可能にしており、また、ディスプレイタブレット20の
タブレット19上に、図6に示すように、「△」をジェ
スチャーすることにより、ジェスチャー編集機能から立
ち上げ可能となっている。
The difference between the handwritten character input function and the gesture editing function is that the handwritten character recognition unit 29 does not output position information. Note that the above-described handwritten character input function can be started from an instruction from the keyboard 10 or an instruction from an icon on the display device 14, and is displayed on the tablet 19 of the display tablet 20 as shown in FIG. In addition, by gesturing "△", it can be started from the gesture editing function.

【0055】このような手書き文字入力機能の操作例に
ついて説明すると、図11に示すように、手書き文字入
力機能が立ち上げられると、ディスプレイタブレット2
0の所定位置に、手書き文字入力のためのウインドウ1
4bが表示され、そのウインドウ14a内の第1入力エ
リアに、入力ペン12にて文字を、例えば「す」と手書
きする。
An operation example of such a handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is activated, the display tablet 2 is activated.
Window 1 for inputting handwritten characters at a predetermined position 0
4b is displayed, and a character, for example, "su" is handwritten with the input pen 12 in the first input area in the window 14a.

【0056】その後、次の入力のため隣接する第2エリ
アに入力ペン12を接触させると、そのとき上記の第1
エリアに手書きされた軌跡座標の文字認識が、前記の手
書き文字テーブル30を参照して前記手書き文字認識部
29にて前述したように実行され、その認識結果の文字
をカーソル14aが示す位置に入力して表示するように
なっている。
Thereafter, when the input pen 12 is brought into contact with the adjacent second area for the next input, the first pen
Character recognition of the locus coordinates handwritten in the area is executed by the handwritten character recognition unit 29 with reference to the handwritten character table 30 as described above, and the character of the recognition result is input to the position indicated by the cursor 14a. And display it.

【0057】これにより、例えば草書体などの字体を予
め、手書き文字テーブル30に記憶させておき、その草
書体を手書きで入力して、上記手書き文字テーブル30
における草書字体を表示・印刷等が可能となっている。
Thus, for example, a font such as a cursive font is stored in the handwritten character table 30 in advance, and the cursive font is input by handwriting, and the handwritten character table 30 is input.
Can display and print cursive fonts.

【0058】次に、ジェスチャー編集機能における上記
構成の動作例について図12のフローチャートを参照し
ながら説明すると、まず、入力ペン12の先端部がディ
スプレイタブレット20上の所望する位置で当接または
押圧、つまりダウンされると、その時の座標が、ペンイ
ンターフェース13を介して示される。
Next, an operation example of the above configuration in the gesture editing function will be described with reference to the flowchart of FIG. 12. First, the tip of the input pen 12 is contacted or pressed at a desired position on the display tablet 20. That is, when the camera is down, the coordinates at that time are indicated via the pen interface 13.

【0059】一方、表示装置14における例えばアイコ
ン領域や、ペンボタン領域での入力ペン12の機能は選
択機能である。したがって、上記のようなジェスチャー
編集機能のディスプレイタブレット20上での有効範囲
は、上記の各領域を除外したタブレット19領域とな
る。
On the other hand, the function of the input pen 12 in, for example, the icon area or the pen button area on the display device 14 is a selection function. Therefore, the effective range of the gesture editing function on the display tablet 20 as described above is the tablet 19 area excluding the above-described areas.

【0060】このことから、上記ディスプレイタブレッ
ト20におけるタブレット19では、例えば図13に示
すように、上記のディスプレイタブレット20において
用いられる各画面に応じて予め、タブレット19におけ
る有効領域19aと、ジェスチャー機能に優先する例え
ばアイコン領域を示す無効領域19bと、ジェスチャー
機能に優先するペンボタン領域19cがそれぞれ設定さ
れている。
Accordingly, in the tablet 19 of the display tablet 20, for example, as shown in FIG. 13, the effective area 19a of the tablet 19 and the gesture function are previously set according to each screen used in the display tablet 20. An invalid area 19b indicating, for example, an icon area which is prioritized, and a pen button area 19c which is prioritized for the gesture function are set.

【0061】そこで、前述したようにペンダウンが実行
されて、その座標データ信号が軌跡座標抽出部21に出
力されると、まず、その最初の入力ペン12の接触座標
であるペンダウン座標を検出し(ステップ1、以下ステ
ップをSと略す)、前記の有効領域座標とを比較し(S
2)、その結果、上記ペンダウン座標が、有効領域座標
外であればジェスチャー機能は無効となりジェスチャー
機能が終了する。
Therefore, as described above, when the pen down is executed and the coordinate data signal is output to the locus coordinate extracting unit 21, first, the pen down coordinate which is the contact coordinate of the first input pen 12 is detected ( Step 1, hereinafter, step is abbreviated as S), and compared with the effective area coordinates (S
2) As a result, if the pen-down coordinates are outside the effective area coordinates, the gesture function is invalidated and the gesture function ends.

【0062】また、上記ペンダウン座標が、有効領域座
標内であれば、次のステップとして、ジェスチャー機能
を禁止する他の要因の一つであるペンボタン領域が、上
記ペンダウン座標に有るか否かを検出し(S3)、その
ペンダウン座標が、上記ペンボタン領域の座標上であれ
ば、そのペンボタン処理のルーティンに移行する(S
4)。
If the pen-down coordinates are within the effective area coordinates, the next step is to determine whether or not a pen button area, which is one of the other factors for inhibiting the gesture function, is at the pen-down coordinates. If the pen down coordinate is on the coordinates of the pen button area (S3), the routine proceeds to the pen button processing routine (S3).
4).

【0063】一方、上記ペンダウン座標が、ペンボタン
領域の座標外であれば、そのペンダウン座標を記憶して
おき、入力ペン12による次の座標データが入力される
と、その座標データと上記のペンダウン座標とを比較し
て、上記入力座標が上記ペンダウン座標に対して連続、
つまり、そのX座標、Y座標の少なくとも一方が連続て
あることが8座標分連続か否かを判定する(S5)。
On the other hand, if the pen-down coordinates are outside the coordinates of the pen button area, the pen-down coordinates are stored, and when the next coordinate data is input by the input pen 12, the coordinate data and the pen-down coordinates are stored. Comparing the input coordinates with the pen-down coordinates,
That is, it is determined whether or not at least one of the X coordinate and the Y coordinate is continuous for eight coordinates (S5).

【0064】このとき、上記各座標データが連続軌跡で
あれば、ジェスチャー機能をONとして、ジェスチャー
ONフラグがセットされる(S6)と共に、入力ペン1
2がジェスチャー機能の有効領域外、つまりアイコン領
域等を通っても、そのアイコン領域での入力ペン12の
アイコン指示機能は停止される。また、上記S5におけ
る判定が連続軌跡ではない場合、ポインティング処理ル
ーティンに移行する(S7)。
At this time, if the coordinate data is a continuous locus, the gesture function is turned on, the gesture ON flag is set (S6), and the input pen 1 is turned on.
Even if 2 passes outside the effective area of the gesture function, that is, through the icon area, the icon indicating function of the input pen 12 in the icon area is stopped. If the determination in S5 is not a continuous trajectory, the process proceeds to a pointing process routine (S7).

【0065】なお、上記のS5とS6のステップを逆、
すなわちジェスチャーONフラグのセットが先でもよ
い。この場合、各座標データが連続でない時、ポインテ
ィング処理ルーティンに移行するが、その際には上記ジ
ェスチャーONフラグがリセットされるようになってい
る。
The steps S5 and S6 are reversed.
That is, the gesture ON flag may be set first. In this case, when the coordinate data is not continuous, the processing shifts to a pointing processing routine. At this time, the gesture ON flag is reset.

【0066】その後、ジェスチャー操作、つまり入力ペ
ン12によるタブレット19上での所定のイメージの入
力操作が行われて、入力ペン12とタブレット19との
当接が解除、すなわち入力ペン12がアップされると、
図14のフローチャートに示すように、まず、上記のよ
うにジェスチャー機能がONであることを示す前記フラ
グがセットされているか否かを判定し(S11)、上記
フラグがセットされていなければ、上記の入力操作がジ
ェスチャー機能と無関係な動作と判定されて、ジェスチ
ャー機能を終了する。
Thereafter, a gesture operation, that is, an operation of inputting a predetermined image on the tablet 19 by the input pen 12 is performed, and the contact between the input pen 12 and the tablet 19 is released, that is, the input pen 12 is raised. When,
As shown in the flowchart of FIG. 14, first, it is determined whether or not the flag indicating that the gesture function is ON is set as described above (S11). Is determined to be an operation unrelated to the gesture function, and the gesture function ends.

【0067】また、上記フラグがセットされていれば、
ジャスチャーコマンド判定部26は、ペンダウン座標か
らペンアップの座標に至る入力ペン12の各座標データ
を、認識処理のために、まず、専用の座標データメモリ
に正規化して格納する(S12)。
If the above flag is set,
The gesture command determination unit 26 first normalizes and stores the coordinate data of the input pen 12 from the pen down coordinate to the pen up coordinate in a dedicated coordinate data memory for recognition processing (S12).

【0068】次に、上記各座標データの認識処理を、ジ
ャスチャーコマンド判定部26にて実行し(S13)、
続いて、ジェスチャーコマンドテーブル27との比較の
上で認識OKであれば(S14)、その認識結果にそっ
た各編集処理を実行して(S15)、ジェスチャー編集
が完了する。また、上記の認識処理で認識不能な場合は
エラー処理(S16)に移行して、上記のジェスチャー
編集を終了する。
Next, the above-described coordinate data recognition processing is executed by the gesture command determination unit 26 (S13).
Subsequently, if the recognition is OK based on the comparison with the gesture command table 27 (S14), each editing process according to the recognition result is executed (S15), and the gesture editing is completed. If the recognition processing is not possible in the above recognition processing, the processing shifts to error processing (S16), and the gesture editing ends.

【0069】このように上記実施例の構成では、ペンア
ップに際しては、そのときのペン座標が、ジェスチャー
機能の有効領域外であっても、その時点でジェスチャー
機能ONとなっておれば、ジェスチャー認識を実行でき
るようになっており、さらに、ペンダウン座標が、前記
有効領域内、およびペンボタン領域外であれば、上記ペ
ンダウン座標に続く描画軌跡の座標が、上記の有効領域
外、およびペンボタン領域内であって、その描画軌跡の
座標データを有効として、その認識処理に移行できるよ
うになっている。
As described above, in the configuration of the above-described embodiment, when pen-up is performed, even if the pen coordinates at that time are outside the effective area of the gesture function, if the gesture function is ON at that time, the gesture recognition is performed. If the pen down coordinates are within the effective area and outside the pen button area, the coordinates of the drawing locus following the pen down coordinates are outside the effective area and the pen button area. In this case, the coordinate data of the drawing trajectory is validated, and the process can proceed to the recognition process.

【0070】したがって、上記構成は、例えば図15に
示すように、A点で、図示しない入力ペンがダウンされ
た場合、A点はジェスチャー有効領域19a内にあるた
め、そのダウン移行後の入力ペンの描画によるジェスチ
ャー機能がONとなり、その入力ペンによる描画が完了
後、その入力ペンのアップ座標が例えB点となり、その
B点がジェスチャー有効領域19a外、つまり無効領域
19bとなっても、上記の描画、すなわちジェスチャー
は有効となる。また、描画軌跡の途中における各座標
が、上記無効領域19bとなっても同様である。
Therefore, in the above configuration, for example, as shown in FIG. 15, when the input pen (not shown) is lowered at the point A, since the point A is within the gesture valid area 19a, the input pen Is turned on, and after the drawing with the input pen is completed, the up coordinate of the input pen becomes point B, for example, even if the point B is outside the gesture valid area 19a, that is, the invalid area 19b. , That is, the gesture is valid. The same applies to the case where each coordinate in the middle of the drawing trajectory becomes the invalid area 19b.

【0071】しかし、上記構成は、例えば図16に示す
ように、ジェスチャー有効領域外、すなわち無効領域1
9a内となるC点にて、図示しない入力ペンがダウンさ
れると、その入力ペンによる操作はジェスチャー機能O
FFとなり、例えばアイコン処理等に移行することとな
る。
However, as shown in FIG. 16, for example, as shown in FIG.
When an input pen (not shown) is lowered at a point C within 9a, the operation by the input pen is performed by the gesture function O.
It becomes FF, for example, and it shifts to icon processing etc.

【0072】ところで、従来のようなジェスチャー機能
では、描画が完了した後に、その描画が有効であるか否
かを判定していたため、その判定に時間がかかってお
り、また、上記のような入力ペンによる描画の途中にお
いて、その入力ペンが、ジェスチャーの有効領域外の無
効領域や、ペンボタン領域となるタブレット領域と当接
すると、そのジェスチャー機能の処理が停止して、エラ
ー処理に移行していた。
By the way, in the conventional gesture function, after the drawing is completed, it is determined whether or not the drawing is valid. Therefore, it takes a long time to perform the determination. If the input pen touches an invalid area outside the valid area of the gesture or a tablet area that is the pen button area while drawing with the pen, the processing of the gesture function stops and the processing shifts to error processing. Was.

【0073】このため、上記従来では、入力ペンの操作
を、操作開始だけではなく操作完了までの操作に気を使
う必要があり、そのジェスチャー機能における描画に手
間取り、その操作性が劣化していた。
For this reason, in the related art, it is necessary to pay attention to the operation of the input pen not only at the start of the operation but also at the end of the operation. .

【0074】しかしながら、上記実施例の構成では、入
力ペン12によるペンダウン座標がジェスチャー機能の
有効領域19a内であれば、ジェスチャー機能を開始す
ると共に、入力ペン12による描画中は、その入力ペン
12がジェスチャーの有効領域19a外、つまり無効領
域19bまたはペンボタン領域19cに当接しても、そ
の描画を有効としている。
However, in the configuration of the above embodiment, if the pen down coordinate of the input pen 12 is within the effective area 19a of the gesture function, the gesture function is started and the input pen 12 The drawing is valid even if it touches the outside of the gesture valid area 19a, that is, the invalid area 19b or the pen button area 19c.

【0075】これにより、上記構成は、ペンダウン座標
によってジェスチャー機能を開始できるから、そのジェ
スチャー機能に必要な、例えばジェスチャーコマンドテ
ーブル27の呼び出し等を予め準備できるから、ジェス
チャー機能の迅速化を図ることが可能となり、その上、
入力ペン12による描画中において、上記有効領域を特
に意識する必要がなく、ジェスチャー機能の操作性を向
上できるものとなっている。
With this configuration, the gesture function can be started by the pen-down coordinates, so that the gesture function, such as calling the gesture command table 27, can be prepared in advance, so that the gesture function can be speeded up. Possible, and, on top of that,
During drawing with the input pen 12, it is not necessary to pay particular attention to the effective area, and the operability of the gesture function can be improved.

【0076】次に、上記ジェスチャー機能におけるコマ
ンド選択機能の際の各動作について図18のフローチャ
ートを参照しながら説明する。上記のコマンド選択機能
の処理を、キーボード10等の入力手段からの指示信号
により起動させると、まず、認識でき得る全てのコマン
ドの処理機能名を呼び出した後(S21)、その各処理
機能名を表の項目として表示装置14にて表示する(S
22)。
Next, each operation at the time of the command selection function in the gesture function will be described with reference to the flowchart of FIG. When the above-described processing of the command selection function is activated by an instruction signal from an input means such as the keyboard 10, first, the processing function names of all recognizable commands are called (S21), and the processing function names are changed. It is displayed on the display device 14 as a table item (S
22).

【0077】続いて、キーボード10における実行キー
により、各項目毎に有効/無効を選定した後(S2
3)、キー操作にて有効/無効コマンドの更新か否かを
例えば図19に示すように設定する(S24)。このと
き、新たに選定した有効/無効コマンドに更新する場合
は、実行キーをONとして、上記の選定データを取り込
んで(S25)、更新し(S26)、表示装置14にお
ける画面をクリアして(S27)、前記の処理を完了
し、一方、新たに選定した有効/無効コマンドに更新し
ない場合は、解除キーをONして更新しないで、表示装
置14における画面をクリアして(S27)、前記処理
を終了する。
Then, after selecting valid / invalid for each item using the execution key on the keyboard 10 (S2
3) Whether or not the valid / invalid command is updated by key operation is set, for example, as shown in FIG. 19 (S24). At this time, when updating to the newly selected valid / invalid command, the execution key is turned ON, the above selection data is fetched (S25), updated (S26), and the screen on the display device 14 is cleared ( S27) If the above-mentioned processing is completed, and if the command is not updated to the newly selected valid / invalid command, the screen on the display device 14 is cleared without turning on the release key and updating (S27). The process ends.

【0078】次に、上記コマンド選択機能における登録
・呼出処理についての際の各動作について図20のフロ
ーチャートを参照しながら説明する。まず、上記の登録
・呼出処理を、入力ペン12やキーボード10等の入力
手段からの指示信号により起動させると、まず、登録処
理か呼出処理かを判断し(S31)、登録処理であれ
ば、現在の有効/無効コマンドデータの全てを表示装置
14に呼び出して(S32)、確認した後、登録名をキ
ーボード10等から入力して(S33)、その登録メイ
ト共に上記有効/無効コマンドデータを登録バッファ3
3に記憶させて(S34)、上記登録処理を完了する。
Next, each operation in the registration / call processing in the command selection function will be described with reference to the flowchart of FIG. First, when the above-described registration / call processing is activated by an instruction signal from input means such as the input pen 12 or the keyboard 10, first, it is determined whether the processing is registration processing or calling processing (S31). After calling all of the current valid / invalid command data to the display device 14 (S32) and confirming it, a registered name is entered from the keyboard 10 or the like (S33), and the valid / invalid command data is registered with the registered mates. Buffer 3
3 (S34), and the registration process is completed.

【0079】一方、前記S31において呼出処理であれ
ば、登録名を入力して選択した後(S35)、登録バッ
ファ33内の登録名を検索し(S36)、その登録名に
該当する有効/無効コマンドデータを呼び出して表示装
置14に表示し(S37)、それまでの有効/無効コマ
ンドデータを上記登録名の有効/無効コマンドデータに
更新して(S38)、呼出処理を完了する。
On the other hand, in the case of the calling process in S31, after the registered name is inputted and selected (S35), the registered name is searched in the registered buffer 33 (S36), and the valid / invalid corresponding to the registered name is searched. The command data is called and displayed on the display device 14 (S37), and the valid / invalid command data up to that time is updated to the valid / invalid command data of the registered name (S38), and the calling process is completed.

【0080】このように上記実施例の構成では、個々の
コマンドに対して、それぞれ有効と無効とを設定できる
ことにより、ユーザーが必要とするジェスチャー機能の
は有効とすることができる。これにより、不必要なジェ
スチャー機能の認識による誤動作を防止することがで
き、さらに、ユーザーが認識するジェスチャーコマンド
の数を低減できるから、コマンドのユーザー認識率を高
めることができる。
As described above, in the configuration of the above-described embodiment, the validity and invalidity can be set for each command, so that the gesture function required by the user can be validated. This can prevent a malfunction due to unnecessary gesture function recognition, and can reduce the number of gesture commands recognized by the user, thereby increasing the user recognition rate of commands.

【0081】したがって、上記構成は、ジェスチャー機
能に用いる各コマンドの誤認識を低減できて、ユーザー
の意図に、より正確な編集処理が可能となる。
Therefore, the above configuration can reduce erroneous recognition of each command used for the gesture function, and can perform more accurate editing processing according to the user's intention.

【0082】また、上記構成では、複数のユーザーが同
一の情報処理装置を用いる場合等において、ユーザー毎
にコマンドの有効/無効とを選定して、その選定内容を
記憶、つまり登録しておくことができる。これにより、
複数のユーザーが個々に必要とするジェスチャー機能を
いつでも任意に選定できて、各ユーザーの編集方法等に
合った編集処理が容易に可能となる。
Further, in the above configuration, when a plurality of users use the same information processing apparatus, the valid / invalid of the command is selected for each user, and the selected contents are stored, that is, registered. Can be. This allows
Gesture functions individually required by a plurality of users can be arbitrarily selected at any time, and editing processing suitable for each user's editing method and the like can be easily performed.

【0083】その上、上記構成は、ユーザーが替わる毎
に個々のユーザーに必要なジェスチャー機能を代えた
時、不用意に不必要なジェスチャー機能による誤った編
集を行うことに起因する文章等の作成に手間取るという
ことを軽減できる。
In addition, the above-described configuration is capable of generating texts or the like caused by carelessly performing erroneous editing by unnecessary gesture functions when a gesture function necessary for each user is changed every time a user changes. Time can be reduced.

【0084】次に、上記のコマンド選択機能における有
効/無効のグルーピングによるモード選択処理について
図21を参照しながら説明する。上記構成がジェスチャ
ー機能中において、キーボード10や入力ペン12等に
よって、モード選択キーによる割り込みを発生させる
と、まず、認識でき得る全てのコマンドの処理機能名を
呼び出した後、その各処理機能名を表の項目として表示
装置14にて表示する(S41)。
Next, a description will be given, with reference to FIG. 21, of a mode selection process based on the valid / invalid grouping in the command selection function. In the above-described configuration, when an interrupt by the mode selection key is generated by the keyboard 10, the input pen 12, or the like during the gesture function, first, processing function names of all recognizable commands are called, and then the processing function names are displayed. It is displayed on the display device 14 as a table item (S41).

【0085】続いて、キーボード10における実行キー
により、各項目毎に有効/無効を選定して、有効コマン
ドグループと無効コマンドグループとを設定した後(S
42)、いままでの有効/無効コマンドを上記のように
選定したコマンドに更新するか否かをキー操作にて設定
する(S43)。
Then, after selecting valid / invalid for each item by using the execution key on the keyboard 10, a valid command group and an invalid command group are set (S
42) It is set by a key operation whether to update the valid / invalid command so far to the command selected as described above (S43).

【0086】このとき、新たに選定した有効/無効コマ
ンドに更新する場合は、実行キーをONとして、上記の
選定データを取り込んで更新し(S44)、表示装置1
4における画面をクリアして(S45)、前記のモード
選択処理を完了し、一方、新たに選定した有効/無効コ
マンドに更新しない場合は、解除キーをONして更新し
ないで、表示装置14における画面をクリアし(S4
5)、前記モード選択処理を終了する。
At this time, when updating to the newly selected valid / invalid command, the execution key is turned ON, the above selection data is fetched and updated (S44), and the display device 1 is updated.
4 (S45), and the mode selection process is completed. On the other hand, if the command is not updated to the newly selected valid / invalid command, the release key is turned ON and the command is not updated. Clear the screen (S4
5), the mode selection processing ends.

【0087】このように上記構成では、ジェスチャー機
能における無効コマンドを設定できることにより、上述
したようにジェスチャー機能におけるジェスチャーコマ
ンドの誤認識を防止することができる。
As described above, in the above configuration, since the invalid command in the gesture function can be set, it is possible to prevent erroneous recognition of the gesture command in the gesture function as described above.

【0088】その上、上記構成は、例えば消去・抹消系
のコマンドを無効とし、他のコマンドを有効とする設定
により、ジェスチャー編集は有効とすることができる
が、ジェスチャー動作によって、表示装置14上におけ
る文章等の画像が誤消去される虞が回避される。このよ
うな一部有効のジェスチャー機能選択の画面の例を図2
1に示す。
In addition, in the above-described configuration, for example, the gesture editing can be enabled by setting to invalidate an erasure / deletion command and enable other commands, but the gesture operation can be performed on the display device 14 by the gesture operation. The possibility that an image such as a sentence is mistakenly erased is avoided. FIG. 2 shows an example of such a partially effective gesture function selection screen.
It is shown in FIG.

【0089】このように一部有効を選択できるから、ジ
ェスチャー機能を扱う初心者に対し、表示装置14上に
おける文章等の画像が誤消去される虞を防止する効果が
特に大きく、上記構成を操作する際の不手際による文章
等の再作成といった手間を省くことができて、操作性を
向上させることができる。
Since the partial validity can be selected in this way, the effect of preventing the image such as a sentence on the display device 14 from being accidentally erased is particularly great for a beginner who handles the gesture function, and the above configuration is operated. It is possible to save the trouble of re-creating a sentence or the like due to inadvertent mistakes, thereby improving operability.

【0090】また、上記構成は、画面情報バッファ31
を設けて、図23のフローチャートに示すように、ジェ
スチャー機能が立ち上がると、その時の表示装置14上
の画像情報を上記画面情報バッファ31に記憶、すなわ
ちセーブさせておく(S51)。
Further, the above configuration is different from the screen information buffer 31 shown in FIG.
As shown in the flowchart of FIG. 23, when the gesture function is activated, the image information on the display device 14 at that time is stored in the screen information buffer 31, that is, saved (S51).

【0091】続いて、入力ペン12がダウンされて(S
52)、上記入力ペン12により編集機能を指示するコ
マンドが入力されて(S53)、編集範囲の認識が確定
して(S54,S55)、上記入力ペン12がアップす
ると(S52)、上記コマンドおよび編集範囲をジャス
チャーコマンド判定部26に出力し(S56)する。
Subsequently, the input pen 12 is lowered (S
52), a command instructing an editing function is input by the input pen 12 (S53), the recognition of the editing range is determined (S54, S55), and when the input pen 12 is raised (S52), the command and the command The editing range is output to the gesture command determination unit 26 (S56).

【0092】その後、表示装置14の表示画面を前記の
画面情報バッファ31にセーブした画面情報を上記表示
画面を戻す(S57)。続いて、テキストメモリ2aに
も記憶されている上記画面情報に対して、編集動作等の
機能を実行し、その結果を表示装置14に表示する(S
58)。
Thereafter, the display screen of the display device 14 is returned to the display screen with the screen information saved in the screen information buffer 31 (S57). Subsequently, a function such as an editing operation is performed on the screen information stored in the text memory 2a, and the result is displayed on the display device 14 (S
58).

【0093】次に、その表示装置14の表示画面を取り
消すか否かを判別し(S59)、取り消さない場合は上
記のジェスチャー機能を完了し、取り消す場合は、前記
の画面情報バッファ31にセーブされている画面情報に
表示装置14の表示画面を戻し、かつ、上記テキストメ
モリ2a内の画面情報も元に戻す(S60)。
Next, it is determined whether or not the display screen of the display device 14 is to be canceled (S59). If not, the above-mentioned gesture function is completed, and if it is to be canceled, it is saved in the screen information buffer 31. The display screen of the display device 14 is returned to the displayed screen information, and the screen information in the text memory 2a is returned to the original (S60).

【0094】このように上記構成は、ジェスチャー機能
の入力ペン12による操作直前の表示装置14上の画像
情報を上記画面情報バッファ31に記憶させるから、前
述したようにジェスチャー機能の取り消し等の際の、元
の画像への復帰を迅速化できるものとなっている。
As described above, in the above configuration, the image information on the display device 14 immediately before the operation by the input pen 12 for the gesture function is stored in the screen information buffer 31. Therefore, as described above, when the gesture function is canceled or the like. Thus, it is possible to quickly return to the original image.

【0095】[0095]

【発明の効果】本発明のジェスチャー処理装置及びジェ
スチャー処理方法では、入力手段により表示面上に対し
指示を開始、つまり最初の座標を指示したときにジェス
チャー機能の有効と無効とを判定し、その後に続くスト
ロークに基づいて編集コマンドを抽出するので、ジェス
チャー機能の有効時における、有効領域に表示された情
報の編集というジェスチャー機能の的確・迅速な処理が
可能となる。また、本発明のジェスチャー処理装置及び
ジェスチャー処理方法では、入力手段により表示画面上
の任意の位置にストロークを指示する途中に上記入力手
段がジェスチャー無効領域を通っても、ジェスチャー機
能が無効とならず、従来のようにジェスチャー機能が無
効となって、再度入力手段により指示するといった手間
を省くことができるという効果を奏する。
According to the gesture processing apparatus and the gesture processing method of the present invention, the instruction is started on the display surface by the input means, that is, when the first coordinate is specified, it is determined whether the gesture function is valid or invalid. Since the editing command is extracted based on the stroke following, the gesture function of editing the information displayed in the effective area when the gesture function is valid can be performed accurately and promptly. Further, in the gesture processing device and the gesture processing method of the present invention, the gesture function is not disabled even if the input means passes through the gesture invalid area while instructing a stroke to an arbitrary position on the display screen by the input means. As a result, the effect of disabling the gesture function as in the related art and eliminating the trouble of instructing again with the input means can be achieved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のジェスチャー処理装置の要部ブロック
図である。
FIG. 1 is a main block diagram of a gesture processing apparatus of the present invention.

【図2】本発明のジェスチャー処理装置のブロック図で
ある。
FIG. 2 is a block diagram of the gesture processing device of the present invention.

【図3】本発明のジェスチャー処理装置における基本ス
トロークの認識例を示す説明図である。
FIG. 3 is an explanatory diagram showing an example of recognition of a basic stroke in the gesture processing device of the present invention.

【図4】本発明のジェスチャー処理装置のディスプレイ
タブレットにおける位置情報を示す説明図であって、
(a)はタブレット、(b)は表示装置の表示面であ
る。
FIG. 4 is an explanatory diagram showing position information on a display tablet of the gesture processing device of the present invention,
(A) is a tablet, (b) is a display surface of the display device.

【図5】本発明のディスプレイタブレットにおけるジェ
スチャー機能有効領域とジェスチャー機能無効領域とを
示す説明図である。
FIG. 5 is an explanatory diagram showing a gesture function effective area and a gesture function invalid area in the display tablet of the present invention.

【図6】本発明の基本ストロークの各例とそれらにそれ
ぞれ対応するコマンドを示す説明図である。
FIG. 6 is an explanatory diagram showing examples of basic strokes of the present invention and commands corresponding to the respective examples.

【図7】本発明の基本ストロークの各例とそれらにそれ
ぞれ対応するコマンドを示す説明図である。
FIG. 7 is an explanatory diagram showing examples of basic strokes of the present invention and commands corresponding to the respective examples.

【図8】本発明のジェスチャー処理装置におけるジェス
チャー機能の編集動作例を示す説明図である。
FIG. 8 is an explanatory diagram showing an example of an editing operation of a gesture function in the gesture processing device of the present invention.

【図9】本発明のジェスチャー処理装置におけるジェス
チャー機能の各編集動作例を示す説明図である。
FIG. 9 is an explanatory diagram showing each editing operation example of the gesture function in the gesture processing device of the present invention.

【図10】本発明のジェスチャー処理装置におけるポイ
ンティング機能の動作例を示す説明図である。
FIG. 10 is an explanatory diagram showing an operation example of a pointing function in the gesture processing device of the present invention.

【図11】本発明のジェスチャー処理装置における手書
き文字入力機能の動作例を示す説明図である。
FIG. 11 is an explanatory diagram showing an operation example of a handwritten character input function in the gesture processing device of the present invention.

【図12】本発明のジェスチャー機能におけるペンダウ
ン時のフローチャートである。
FIG. 12 is a flowchart at the time of pen down in the gesture function of the present invention.

【図13】本発明のディスプレイタブレットにおけるペ
ンボタン領域を示す説明図である。
FIG. 13 is an explanatory diagram showing a pen button area in the display tablet of the present invention.

【図14】本発明のジェスチャー機能におけるペンアッ
プ時のフローチャートである。
FIG. 14 is a flowchart at the time of pen-up in the gesture function of the present invention.

【図15】本発明のジェスチャー機能におけるディスプ
レイタブレット上での軌跡の例を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of a trajectory on a display tablet in the gesture function of the present invention.

【図16】本発明のジェスチャー機能におけるディスプ
レイタブレット上での他の軌跡の例を示す説明図であ
る。
FIG. 16 is an explanatory diagram showing an example of another trajectory on the display tablet in the gesture function of the present invention.

【図17】本発明のジェスチャー機能におけるディスプ
レイタブレットでの表示例を示す説明図である。
FIG. 17 is an explanatory diagram showing a display example on the display tablet in the gesture function of the present invention.

【図18】本発明のジェスチャー機能における呼び出し
の有効/無効を設定する際のフローチャートである。
FIG. 18 is a flowchart for setting valid / invalid of calling in the gesture function of the present invention.

【図19】本発明のジェスチャー機能における呼び出し
の有効/無効を設定する際の表示装置での表示例を示す
説明図である。
FIG. 19 is an explanatory diagram showing a display example on a display device when setting validity / invalidity of a call in the gesture function of the present invention.

【図20】本発明のジェスチャー機能における登録・呼
出を設定する際のフローチャートである。
FIG. 20 is a flowchart for setting registration / call in the gesture function of the present invention.

【図21】本発明のジェスチャー機能におけるモードの
設定の際のフローチャートである。
FIG. 21 is a flowchart for setting a mode in the gesture function of the present invention.

【図22】本発明のモードを選択する際の表示装置での
表示例を示す説明図である。
FIG. 22 is an explanatory diagram showing a display example on the display device when selecting a mode of the present invention.

【図23】本発明のジェスチャー機能における画像情報
のセーブ方法を示すフローチャートである。
FIG. 23 is a flowchart showing a method for saving image information in the gesture function of the present invention.

【符号の説明】[Explanation of symbols]

12 入力ペン 14 表示装置 19 タブレット 22 ジェスチャー判定部(判定手段) 12 input pen 14 display device 19 tablet 22 gesture determination unit (determination means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長澤 宏行 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 中尾 寛 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 中島 靖浩 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 倉田 正明 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hiroyuki Nagasawa 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Inside (72) Inventor Hiroshi Nakao 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Inside (72) Inventor Yasuhiro Nakajima 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (72) Inventor Masaaki Kurata 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Sharp Corporation

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】液晶ディスプレイ等の表示手段と、 入力ペン等の入力手段により指示された表示手段の表示
面上での連続する座標のストロークを出力する座標抽出
手段と、 座標抽出手段から出力される最初の座標に対応する表示
位置が予め定められた有効領域であるか否かを判定する
判定手段と、 判定手段により有効領域であると判定された最初の座標
に連続するストロークと予め記憶された基本ストローク
とを照合し最も近似する基本ストロークに対応する編集
コマンドを出力するジェスチャー認識手段と、 ジェスチャー認識手段から出力される編集コマンドに基
づき表示手段上の上記有効領域に表示された情報を編集
する編集手段とを備えているジェスチャー処理装置。
1. A display means such as a liquid crystal display, a coordinate extraction means for outputting a stroke of continuous coordinates on a display surface of a display means specified by an input means such as an input pen, and an output from the coordinate extraction means. Determining means for determining whether or not the display position corresponding to the first coordinate is a predetermined effective area; and a stroke which is stored in advance as a stroke continuous to the first coordinate determined to be an effective area by the determining means. A gesture recognition unit that outputs an editing command corresponding to the closest basic stroke by comparing the basic stroke with the extracted basic stroke, and edits information displayed in the effective area on the display unit based on the editing command output from the gesture recognition unit. A gesture processing device comprising:
【請求項2】上記判定手段は有効領域内の最初の座標に
連続する座標についての領域判定を行わないようにした
請求項1記載のジェスチャー処理装置。
2. The gesture processing apparatus according to claim 1, wherein said determination means does not perform an area determination on coordinates continuous with a first coordinate in the effective area.
【請求項3】液晶ディスプレイ等の表示手段と、入力ペ
ン等の入力手段により指示された表示手段の表示面上で
の連続する座標のストロークを出力する座標抽出手段と
を備えるジェスチャー処理装置におけるジェスチャー処
理方法であって、 座標抽出手段から出力される最初の座標に対応する表示
位置が予め定められた有効領域であるか否かを判定し、 有効領域であると判定された最初の座標に連続するスト
ロークと予め記憶された基本ストロークとを照合して最
も近似する基本ストロークに対応する編集コマンドを出
力し、 出力された編集コマンドに基づき表示手段上の上記有効
領域に表示された情報を編集するジェスチャー処理方
法。
3. A gesture processing apparatus comprising: a display means such as a liquid crystal display; and a coordinate extracting means for outputting a continuous coordinate stroke on a display surface of the display means specified by an input means such as an input pen. In the processing method, it is determined whether or not a display position corresponding to the first coordinate output from the coordinate extracting means is a predetermined effective area, and is continuously connected to the first coordinate determined to be an effective area. The editing command corresponding to the closest basic stroke is output by comparing the stroke to be performed with the previously stored basic stroke, and the information displayed in the effective area on the display means is edited based on the output editing command. Gesture processing method.
【請求項4】有効領域内の最初の座標に連続する座標に
ついての領域判定を行わないようにした請求項3記載の
ジェスチャー処理方法。
4. The gesture processing method according to claim 3, wherein region determination is not performed for coordinates that are continuous with the first coordinates in the effective region.
JP14094499A 1999-05-21 1999-05-21 Gesture processing device and gesture processing method Expired - Lifetime JP3874571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14094499A JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14094499A JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP28327692A Division JP3292752B2 (en) 1992-10-21 1992-10-21 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JPH11345072A true JPH11345072A (en) 1999-12-14
JP3874571B2 JP3874571B2 (en) 2007-01-31

Family

ID=15280454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14094499A Expired - Lifetime JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP3874571B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269456A (en) * 2007-04-24 2008-11-06 Matsushita Electric Ind Co Ltd Character input device and program for inputting character
JP2010049679A (en) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd Information processing apparatus, information processing method and computer program
JP2012502393A (en) * 2008-09-09 2012-01-26 マイクロソフト コーポレーション Portable electronic device with relative gesture recognition mode
JP2012048765A (en) * 2011-12-09 2012-03-08 Panasonic Corp Input apparatus, input method and program for input
JP2012159899A (en) * 2011-01-31 2012-08-23 Panasonic Corp Handwritten character input device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269456A (en) * 2007-04-24 2008-11-06 Matsushita Electric Ind Co Ltd Character input device and program for inputting character
JP2010049679A (en) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd Information processing apparatus, information processing method and computer program
JP2012198939A (en) * 2008-08-22 2012-10-18 Fuji Xerox Co Ltd Information processing apparatus, and program
JP2012502393A (en) * 2008-09-09 2012-01-26 マイクロソフト コーポレーション Portable electronic device with relative gesture recognition mode
JP2012159899A (en) * 2011-01-31 2012-08-23 Panasonic Corp Handwritten character input device
JP2012048765A (en) * 2011-12-09 2012-03-08 Panasonic Corp Input apparatus, input method and program for input

Also Published As

Publication number Publication date
JP3874571B2 (en) 2007-01-31

Similar Documents

Publication Publication Date Title
US5796406A (en) Gesture-based input information processing apparatus
KR100197037B1 (en) Handwritten information processing apparatus and method
US6938220B1 (en) Information processing apparatus
EP0607926B1 (en) Information processing apparatus with a gesture editing function
JP3292752B2 (en) Gesture processing device and gesture processing method
JPH08212197A (en) Document editing device
JP2963589B2 (en) Gesture processing device and gesture processing method
JP2009151449A (en) Electric blackboard with undo function
JP3029824B1 (en) Handwritten character processing device, handwritten character processing method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2999335B2 (en) Gesture processing device and gesture processing method
US20050122322A1 (en) Document creating method apparatus and program for visually handicapped person
JP3258978B2 (en) Gesture processing device and gesture processing method
JP3388451B2 (en) Handwriting input device
JPH11345072A (en) Gesture processor and gesture processing method
JP3181409B2 (en) Information processing apparatus and information processing method
JP2905013B2 (en) Gesture processing device and gesture processing method
JP2003005902A (en) Character inputting device, information processor, method for controlling character inputting device, and storage medium
JP3469816B2 (en) Gesture processing device and gesture processing method
JPH06324798A (en) Document processor provided with handwriting editing function
JP2006134360A (en) Handwritten character input apparatus
JP3469817B2 (en) Gesture processing device and gesture processing method
JPH087034A (en) Handwritten character recognition and input system
JPH08137865A (en) Character information processor with address book managing function
JPH0830730A (en) Character recognition processor
JPH0728950A (en) Handwritten character recognition device

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 6

EXPY Cancellation because of completion of term