JPH06131110A - Information processor - Google Patents

Information processor

Info

Publication number
JPH06131110A
JPH06131110A JP28327692A JP28327692A JPH06131110A JP H06131110 A JPH06131110 A JP H06131110A JP 28327692 A JP28327692 A JP 28327692A JP 28327692 A JP28327692 A JP 28327692A JP H06131110 A JPH06131110 A JP H06131110A
Authority
JP
Japan
Prior art keywords
gesture
image
pen
function
gesture function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28327692A
Other languages
Japanese (ja)
Other versions
JP3292752B2 (en
Inventor
Yutaka Nakamura
豊 中村
Hiroyuki Shigematsu
浩幸 重松
Munenori Sakamoto
宗紀 坂本
Hiroyuki Nagasawa
宏行 長澤
Hiroshi Nakao
寛 中尾
Yasuhiro Nakajima
靖浩 中島
Masaaki Kurata
正明 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP28327692A priority Critical patent/JP3292752B2/en
Priority to US08/136,209 priority patent/US5481278A/en
Priority to DE69332727T priority patent/DE69332727T2/en
Priority to DE69329846T priority patent/DE69329846T2/en
Priority to EP00100830A priority patent/EP0992877B1/en
Priority to EP93116992A priority patent/EP0598236B1/en
Publication of JPH06131110A publication Critical patent/JPH06131110A/en
Priority to US08/457,458 priority patent/US5796406A/en
Priority to US09/028,480 priority patent/US6938220B1/en
Application granted granted Critical
Publication of JP3292752B2 publication Critical patent/JP3292752B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PURPOSE:To speed up a gesture function when the gesture function is effective by providing a means which decides whether or not the gesture function is effective from pen-down coordinates where an input pen abuts on a tablet first at the time of the gesture function. CONSTITUTION:Respective coordinate data of drawing are detected in order by a track coordinate extraction part 21 which is connected to the tablet 19. At this time, the gesture decision part 22 for which the coordinate data from the track coordinate extraction part 21 are inputted decides whether or not the pen-down coordinates as XY coordinates that the input pen 12 abuts on the tablet 19 first among the coordinate data are in the effective area of the gesture function. Further, the gesture decision part 22 once deciding that the pen-down coordinates are effective sets the pen-down coordinates corresponding to each display screen of a display device 14 and decides whether or not the coordinates are in a pen button area where a choice is made with the input pen 12.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力ペンによる表示画
面の編集機能を有する日本語ワードプロセッサ等の情報
処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus such as a Japanese word processor having a function of editing a display screen with an input pen.

【0002】[0002]

【従来の技術】近年、液晶表示等の表示部分と、入力ペ
ン等との当接部位の座標を検出するタブレットとを一体
化した表示装置を備え、入力ペンにより直接編集できる
ように設定された情報機器、いわゆるペン情報入力方式
の情報機器が市場に現れている。したがって、上記表示
装置は、紙とペンを連想させるように、あたかも原稿用
紙での校正と同様のことを、上記タブレット上で実現で
きるものとなっており、上記のような情報機器として
は、例えばシャープ社製の日本語ワードプロセッサ"WV-
S200" 等が知られている。
2. Description of the Related Art In recent years, there has been provided a display device in which a display portion such as a liquid crystal display and a tablet for detecting coordinates of a contact portion with an input pen or the like are integrated, and it is set to be directly editable by the input pen. Information devices, so-called pen information input type information devices, have appeared on the market. Therefore, the display device can realize the same thing as the calibration with the manuscript paper on the tablet as if the paper and the pen were associated with each other. Sharp's Japanese word processor "WV-
S200 "etc. are known.

【0003】これらのペン情報入力機器において、その
特性をより生かすための機能として、ジェスチャー機能
というものが考えられた。このようなジェスチャー機能
は、予め設定して記憶しておいた編集記号により、入力
ペンでタブレット上の所望する位置の文字等を、任意の
編集記号で描画することにより、表示装置上の文章を編
集できるようになっている。
In these pen information input devices, a gesture function has been considered as a function for making the best use of its characteristics. Such a gesture function draws a character at a desired position on the tablet with an input pen by using an edit symbol that is set and stored in advance, and draws a sentence on the display device by using the edit symbol. It can be edited.

【0004】[0004]

【発明が解決しようとする課題】ところが、上記従来で
は、描画開始時のペンダウン時から、描画完了時のペン
アップが完了した後に、その入力ペンによるジェスチャ
ー機能が有効か無効かを判別しており、ジェスチャー機
能の動作に時間がかかっていた。また、上記従来では、
描画中に入力ペンが、ジェスチャー機能の無効領域であ
る、アイコン等の領域を通ると、ジェスチャー機能をキ
ャンセルしていたため、そのようなキャンセル時には再
度設定し直して、入力ペンによりタブレット上を描画す
る必要があり、ジェスチャー機能に手間取っているとい
う問題を生じている。
However, in the above-mentioned conventional method, it is determined whether the gesture function by the input pen is valid or invalid after the pen-down at the start of drawing and after the pen-up at the completion of drawing is completed. , It took a long time to operate the gesture function. Further, in the above-mentioned conventional,
If the input pen passes through an area such as an icon, which is an invalid area of the gesture function during drawing, the gesture function is canceled. Therefore, in such a case, reset the settings again and draw on the tablet with the input pen. The problem is that it is necessary and time-consuming for the gesture function.

【0005】また、上記従来では、例えば、ユーザーが
意図しないで、消去や抹消系の編集記号を入力して、意
図しない文章に編集することがあり、そのような文章を
元に戻すのに手間取るという問題も生じている。
Further, in the above-described conventional art, for example, the user may unintentionally input an erasing or erasing type editing symbol to edit an unintended sentence, and it takes time to restore such a sentence. There is also a problem.

【0006】さらに、上記従来では、ジェスチャー機能
を有効に機能させるために、入力ペンの軌跡や編集記号
のリスト等を表示できるようになっているが、そのよう
な表示の消去と表示とを繰り返すと、その処理時間が大
きくなり処理速度が遅くなるという問題も生じている。
Further, in the above-mentioned conventional method, the trajectory of the input pen, the list of editing symbols, etc. can be displayed in order to effectively operate the gesture function. However, such deletion and display of the display are repeated. Then, there is a problem that the processing time becomes long and the processing speed becomes slow.

【0007】[0007]

【課題を解決するための手段】本発明の請求項1記載の
情報処理装置は、以上の課題を解決するために、液晶デ
ィスプレイ等の表示装置が設けられ、入力ペンにて描画
することによりイメージを入力したり上記表示装置の表
示面の所望する位置を指示したりできるタブレットが上
記表示面上に設けられ、上記表示面における文字や記号
の配列等の画像を、上記イメージにて編集できるジェス
チャー機能を備える情報処理装置において、上記ジェス
チャー機能における上記入力ペンのジェスチャー有効領
域と、上記ジェスチャー機能に優先するアイコン等の入
力機能を表示しているジェスチャー無効領域とが前記タ
ブレットに設定され、ジェスチャー機能時に上記入力ペ
ンが上記タブレットに最初に当接した座標であるペンダ
ウン座標により、上記ジェスチャー機能の有効と無効と
を判定する判定手段が設けられていることを特徴として
いる。
In order to solve the above-mentioned problems, the information processing apparatus according to claim 1 of the present invention is provided with a display device such as a liquid crystal display, and an image is formed by drawing with an input pen. A gesture that can be used to input, or to indicate a desired position on the display surface of the display device is provided on the display surface, and an image such as an arrangement of characters and symbols on the display surface can be edited with the image. In an information processing apparatus having a function, a gesture valid area of the input pen in the gesture function and a gesture invalid area displaying an input function such as an icon prior to the gesture function are set in the tablet, and the gesture function is set. Sometimes the pen down coordinates, which are the coordinates where the input pen first touches the tablet, It is characterized by determining means and enable or disable the serial gesture function is provided.

【0008】さらに、請求項2記載の情報処理装置は、
請求項1記載の構成に加えて、ジェスチャー機能時に上
記入力ペンが上記タブレットに最初に当接した座標であ
るペンダウン座標が前記ジェスチャー有効領域であれ
ば、上記ペンダウン座標以後に入力される上記入力ペン
の座標の上記判定手段での判定を停止する停止手段が設
けられていることを特徴としている。
Further, the information processing apparatus according to claim 2 is
In addition to the configuration according to claim 1, if the pen-down coordinate, which is the coordinate at which the input pen first contacts the tablet during the gesture function, is the gesture effective area, the input pen input after the pen-down coordinate. It is characterized in that stop means is provided for stopping the determination of the coordinates by the determination means.

【0009】本発明の請求項3記載の情報処理装置は、
液晶ディスプレイ等の表示装置が設けられ、入力ペンに
て描画することによりイメージを入力したり上記表示装
置の表示面の所望する位置を指示したりできるタブレッ
トが上記表示面上に設けられ、上記表示面における文字
や記号の配列等の画像を、予め設定された上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、ジェスチャー機能における上記イメージを記
憶しておく記憶手段が設けられ、上記記憶手段からの上
記イメージの呼び出しの有効と無効とを設定する選択手
段が設けられていることを特徴としている。
An information processing apparatus according to claim 3 of the present invention is
A display device such as a liquid crystal display is provided, and a tablet capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device is provided on the display surface. In an information processing apparatus having a gesture function capable of editing an image such as an arrangement of characters and symbols on a surface with the image set in advance, a storage unit for storing the image in the gesture function is provided, and the storage unit It is characterized in that selection means for setting whether to enable or disable the calling of the image from the above is provided.

【0010】請求項4記載の情報処理装置は、請求項3
記載の構成に加えて、さらに、上記の有効と無効とを組
分けして、上記有効と無効とを一括して設定する設定手
段が設けられていることを特徴としている。
The information processing apparatus according to claim 4 is the information processing apparatus according to claim 3.
In addition to the configuration described above, it is further characterized in that a setting means for classifying the above-mentioned validity and invalidity and collectively setting the validity and invalidity is provided.

【0011】請求項5記載の情報処理装置は、液晶ディ
スプレイ等の表示装置が設けられ、入力ペンにて描画す
ることによりイメージを入力したり上記表示装置の表示
面の所望する位置を指示したりできるタブレットが上記
表示面上に設けられ、上記表示面における文字や記号の
配列等の画像を、上記イメージにて編集できるジェスチ
ャー機能を備える情報処理装置において、上記ジェスチ
ャー機能が起動した時、上記起動時の表示面での画像を
示す画像情報を記憶する記憶領域が設定されていること
を特徴としている。
The information processing apparatus according to claim 5 is provided with a display device such as a liquid crystal display, and an image can be input by drawing with an input pen or a desired position on the display surface of the display device can be designated. In the information processing apparatus having a gesture function capable of editing an image of an arrangement of characters and symbols on the display surface with a tablet that can be provided on the display surface, the activation is performed when the gesture function is activated. It is characterized in that a storage area for storing image information showing an image on the display surface at the time is set.

【0012】[0012]

【作用】上記の請求項1記載の構成によれば、ジェスチ
ャー機能時に上記入力ペンが上記タブレットに最初に当
接した座標であるペンダウン座標により、上記ジェスチ
ャー機能の有効と無効とを判定する判定手段が設けられ
ているから、ペンダウン時にジェスチャー機能の有効と
無効とを判定できる。
According to the structure described in claim 1, the determination means for determining the validity or invalidity of the gesture function based on the pen-down coordinate which is the coordinate at which the input pen first contacts the tablet during the gesture function. Is provided, it is possible to determine whether the gesture function is valid or invalid when the pen is down.

【0013】上記の請求項2記載の構成によれば、さら
に、ペンダウン後の入力ペンでの描画中において、上記
判定手段での判定を停止する停止手段が設けられている
から、ペンダウン時に有効であれば、例え、上記描画中
に、ジェスチャー無効領域を通っても、ジェスチャー機
能が無効とならない。
According to the above-mentioned structure, the stop means for stopping the determination by the determining means is provided during drawing with the input pen after pen down, so that it is effective during pen down. If so, for example, the gesture function is not invalidated even if the gesture invalid region is passed during the drawing.

【0014】上記の請求項3記載の構成によれば、前記
イメージの呼び出しの有効と無効とを設定できるから、
例えば、消去系のイメージを呼び出し無効に設定すれ
ば、特に初心者によく見られるように、操作に不慣れな
ために、消去系のイメージを呼び出して画像を誤って消
去する虞を回避できる。
According to the third aspect of the present invention, it is possible to set whether the image calling is valid or invalid.
For example, if the erasing type image is set to be called and disabled, it is possible to avoid the possibility that the erasing type image is called and the image is erroneously erased due to being unfamiliar with the operation, as is often seen by beginners.

【0015】上記の請求項4記載の構成によれば、有効
なイメージと、無効となるイメージとを組分けして、一
括して設定できるから、例えば、初心者向けに消去・抹
消系のイメージを無効と設定しておき、他の有効なイメ
ージのみを一括して設定できて、そのような設定操作を
簡素化できる。
According to the above-mentioned structure of the present invention, valid images and invalid images can be grouped and set collectively, so that, for example, an erase / delete image for beginners can be set. It can be set to invalid and only other valid images can be set at once, which simplifies such setting operations.

【0016】上記の請求項5記載の構成によれば、ジェ
スチャー機能による編集時に、元の画像情報が予め記憶
領域に記憶されているため、例えば、従来のように、編
集時に、ジェスチャー機能でのイメージを表示面に表示
していたりして、その表示を消去してから元の画像情報
を再度配列して表示するといった手間を省くことができ
る。
According to the above-mentioned structure of claim 5, since the original image information is stored in the storage area in advance at the time of editing by the gesture function, for example, as in the conventional case, at the time of editing by the gesture function, It is possible to save the trouble of displaying the image on the display surface, deleting the display, and then rearranging and displaying the original image information.

【0017】[0017]

【実施例】本発明の一実施例について図1ないし図23
に基づいて説明すれば、以下の通りである。情報処理装
置では、図2に示すブロック図のように、プログラムを
実行する中央処理装置(Central Proccesing Unit 、以
下、CPUという)1が設けられ、そのCPU1のバス
ライン18に、各種データを記憶して読み出すためのR
AM2、制御プログラムを格納しておくROM3、プリ
ンタ5を制御するプリンタコントローラ4、外部記憶手
段としてのICカード6に対して読み書きするためのI
Cカードインターフェース7、およびフロッピーディス
クドライブ(以下、FDDという)8を制御するFDコ
ントローラ9が接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention is shown in FIGS.
The explanation is based on the following. In the information processing apparatus, as shown in the block diagram of FIG. 2, a central processing unit (Central Processing Unit, hereinafter referred to as CPU) 1 for executing a program is provided, and various data is stored in a bus line 18 of the CPU 1. R for reading
AM2, ROM3 for storing the control program, printer controller 4 for controlling the printer 5, and I for reading / writing the IC card 6 as the external storage means.
An FD controller 9 for controlling a C card interface 7 and a floppy disk drive (hereinafter referred to as FDD) 8 is connected.

【0018】さらに、上記バスライン18には、入力手
段としてのキーボード10からの信号を上記バスライン
18に入力するためのキーインターフェース11と、液
晶ディスプレイ等の表示装置14を制御するための表示
コントロール15とが接続されている。
Further, on the bus line 18, a key interface 11 for inputting a signal from the keyboard 10 as an input means to the bus line 18, and a display control for controlling a display device 14 such as a liquid crystal display. And 15 are connected.

【0019】その上、上記バスライン18には、上記表
示装置14の画像上と当接して、情報を入力したり、選
択したりする入力ペン12からの信号をペン座標に変換
して上記バスライン18に入力するためのペンインター
フェース13が接続されており、よって、上記入力ペン
12は、上記画像上を示す、いわゆるポインティング機
能や、上記画像上を所定のイメージを描画することによ
り、画像上の情報を選択したり、編集記号を入力したり
できるジェスチャー機能のための入力手段となってい
る。
Moreover, the bus line 18 is brought into contact with the image on the display device 14 to convert signals from the input pen 12 for inputting and selecting information into pen coordinates to convert the signals into pen coordinates. A pen interface 13 for inputting to a line 18 is connected, so that the input pen 12 has a so-called pointing function that shows on the image, or by drawing a predetermined image on the image, the input image is displayed on the image. It is an input means for the gesture function that allows selection of information and input of edit symbols.

【0020】また、上記バスライン18には、手書き編
集インターフェース16が接続されており、その手書き
編集インターフェース16では、後に詳述するように、
上記の入力ペン12からのペン座標をそれぞれ示す各座
標データの信号により、メモリである手書き認識辞書
(記憶手段)17に基づいて、上記各座標データの認識
結果を上記バスライン18に出力するようになってい
る。
A handwriting editing interface 16 is connected to the bus line 18, and the handwriting editing interface 16 will be described in detail later.
The recognition result of each coordinate data is output to the bus line 18 on the basis of the handwriting recognition dictionary (storage means) 17 which is a memory by the signal of each coordinate data indicating the pen coordinate from the input pen 12. It has become.

【0021】また、上記手書き認識辞書17では、文字
や記号を示す各基本ストロークが、後述する(1)横書
きジェスチャーコマンドテーブル、(2)手書き文字テ
ーブルと(3)縦書きジェスチャーコマンドテーブルと
いうように内容により分類されてそれぞれ格納されてい
る。このような基本ストロークの例としては、改行を示
す編集記号である逆L字が、図3に示すように、9×9
の枡目のそれぞれ相当する位置に〇で示したように埋ま
って示されている。
In the handwriting recognition dictionary 17, the basic strokes indicating characters and symbols are (1) horizontal writing gesture command table, (2) handwriting character table and (3) vertical writing gesture command table, which will be described later. They are stored according to their contents. As an example of such a basic stroke, an inverted L character, which is an edit symbol indicating a line feed, is 9 × 9 as shown in FIG.
It is shown by filling in the positions corresponding to each of the cells of the box, as indicated by the circles.

【0022】一方、図2に示すように、前記表示装置1
4の画面上に、その画面の各座標を検出するための透明
なタブレット19が一体的に形成されていて、上記タブ
レット19は、表示装置14の文字配列、例えば図4
(b)に示す縦40行、横80例に対応するように、図4
(a)に示す碁盤の目状に各XY( 640×400 )座標が
設定されている。
On the other hand, as shown in FIG.
4 is integrally formed with a transparent tablet 19 for detecting each coordinate of the screen, and the tablet 19 is a character array of the display device 14, for example, FIG.
As shown in FIG. 4 so as to correspond to the 40 vertical lines and 80 horizontal lines shown in FIG.
Each XY (640 × 400) coordinate is set in a grid pattern shown in (a).

【0023】これにより、図2に示す前記入力ペン12
の先端部が、上記タブレット19上に当接すると、その
タブレット19におけるペン座標が、前記ペンインター
フェース13にて検出され、座標コードに変換されてバ
スライン18に出力される。
As a result, the input pen 12 shown in FIG.
When the tip end of the tablet abuts on the tablet 19, the pen coordinates on the tablet 19 are detected by the pen interface 13, converted into a coordinate code, and output to the bus line 18.

【0024】なお、上記のタブレットの方式としては、
入力ペン12が当接して描画すると、その軌跡の各座標
が検出できるものであれば特に限定されないが、例えば
静電結合式タブレットや、電気ひずみおよび磁気ひずみ
式タブレット、また、感圧式や超音波式や電気機械式タ
ブレットも使用できる。
Incidentally, as the above-mentioned tablet system,
It is not particularly limited as long as each coordinate of the locus can be detected when the input pen 12 comes into contact with and draws. And electromechanical tablets can also be used.

【0025】このような上記構成を用いて、表示装置1
4上に文章を作成する場合、キーボード10から入力さ
れた文字や記号が、キーインターフェース11にて所定
の文字コードや記号コードにそれぞれ変換されて、それ
ら各コードがCPU1(図1におけるテキスト編集部1
a)により一旦RAM2に順次格納される(図1におけ
るテキストメモリ2a)。
By using the above-mentioned structure, the display device 1
When a sentence is created on the keyboard 4, characters and symbols input from the keyboard 10 are converted into predetermined character codes and symbol codes by the key interface 11, and the respective codes are converted into the CPU 1 (the text editing unit in FIG. 1). 1
According to a), the data is temporarily stored in the RAM 2 (text memory 2a in FIG. 1).

【0026】その後、そのRAM2に格納されたコード
を、キーボード10からの指示とROM3に格納されて
いるプログラムとに基づいて、CPU1が、表示装置1
4に表示できるようにRAM2上に再度配列する(図1
におけるビットマップメモリ2b)。続いて、上記RA
M2上の各コード配列を、表示コントロール15を介し
て表示装置14上に表示するようなっている。
Thereafter, the CPU 1 causes the display device 1 to execute the code stored in the RAM 2 based on the instruction from the keyboard 10 and the program stored in the ROM 3.
4 are arranged again on the RAM 2 so that they can be displayed on the screen (FIG.
Bitmap memory 2b). Then, the above RA
Each code array on M2 is displayed on the display device 14 via the display control 15.

【0027】また、上記構成では、このように一旦表示
装置14上に表示された文章を、キーボード10、表示
装置14上に設定されたアイコン、または後述する入力
ペン12による指示により編集できて、上記CPU1
は、所定のプログラムおよび上記指示に従って、RAM
2におけるビットマップメモリ2bの各コード配列を並
べ換える、つまり編集することができるようになってい
る。
Further, in the above configuration, the text once displayed on the display device 14 in this manner can be edited by the keyboard 10, the icon set on the display device 14, or an instruction by the input pen 12 described later, CPU1 above
RAM according to the prescribed program and the above instructions
Each code array of the bitmap memory 2b in 2 can be rearranged, that is, edited.

【0028】次に、表示装置14上に表示されている文
章の編集を容易にするためのジェスチャー機能について
説明する。まず、図1に示すように、CRTや液晶等の
表示装置14と、その表示面上に設けられた透明なタブ
レット19とが一体に構成されたディスプレイタブレッ
ト20上で、その表示装置14上で表示されている文章
等の画像の所望の位置において、例えば編集記号を示す
イメージを入力ペン12にて描画する。
Next, the gesture function for facilitating the editing of the text displayed on the display device 14 will be described. First, as shown in FIG. 1, on a display tablet 20 in which a display device 14 such as a CRT or a liquid crystal and a transparent tablet 19 provided on the display surface thereof are integrally formed. An image showing, for example, an edit symbol is drawn with the input pen 12 at a desired position of an image such as a displayed text.

【0029】そのような描画の各座標データは、上記タ
ブレット19に接続されている軌跡座標抽出部21にて
順次検出される。このとき、上記座標データの内、上記
入力ペン12とタブレット19とが最初に当接したXY
座標であるペンダウン座標が、図5に示すタブレット1
9におけるジェスチャー機能の有効領域19a内である
か無効領域19b内であるかを、上記軌跡座標抽出部2
1からの座標データが入力されるジェスチャー判定部
(判定手段)22にて判定される。
Each coordinate data of such drawing is sequentially detected by the locus coordinate extracting section 21 connected to the tablet 19. At this time, in the coordinate data, the XY with which the input pen 12 and the tablet 19 first come into contact with each other.
The pen-down coordinates that are the coordinates are the tablet 1 shown in FIG.
The locus coordinate extraction unit 2 determines whether the gesture function effective area 19a in FIG.
It is determined by the gesture determination unit (determination means) 22 to which the coordinate data from 1 is input.

【0030】さらに、上記ジェスチャー判定部22で
は、上記のペンダウン座標が有効であると判定される
と、そのペンダウン座標が、表示装置14における各表
示画面に応じて設定され、入力ペン12により選択等が
実行されるペンボタン領域であるか否かが判定される。
Further, when the gesture determining section 22 determines that the pen-down coordinates are valid, the pen-down coordinates are set according to each display screen of the display device 14, and selected by the input pen 12. Is determined to be a pen button area.

【0031】その後、上記ペンダウン座標が、有効領域
内であり、かつ、ペンボタン領域でないことが判定され
ると、上記ジェスチャー判定部22から座標データが入
力される軌跡判定部23は、ジェスチャー機能のONを
示すジェスチャー機能ONフラグをフラグ指示部(停止
手段)24にセットする。
After that, when it is determined that the pen-down coordinate is within the effective area and is not the pen button area, the trajectory determining section 23 to which the coordinate data is input from the gesture determining section 22 determines whether the gesture function of the gesture function. A gesture function ON flag indicating ON is set in the flag instruction unit (stop means) 24.

【0032】このフラグ指示部24に、ジェスチャー機
能ONフラグがセットされていると、上記の描画軌跡を
示す各座標データは、ペンダウン座標も含めて軌跡判定
部23に接続されている座標データバッファ25にそれ
ぞれ順次記憶される。
When the gesture function ON flag is set in the flag instructing section 24, the coordinate data buffer 25 connected to the trajectory determining section 23, including the pen-down coordinates, is used for each coordinate data indicating the drawing trajectory. Are sequentially stored in each.

【0033】その上、上記フラグ指示部24にジェスチ
ャー機能ONフラグがセットされていると、前記ジェス
チャー判定部22は、入力される座標データが有効領域
内であるか否か、およびペンボタン領域であるか否かの
判定を停止して、入力された座標データを全て有効とし
て軌跡判定部23に出力するようになっている。
In addition, when the gesture function ON flag is set in the flag designating section 24, the gesture determining section 22 determines whether the input coordinate data is within the valid area and whether or not the coordinate data is in the pen button area. The determination as to whether there is any is stopped, and all the input coordinate data are validated and output to the trajectory determination unit 23.

【0034】上記の入力ペン12による描画が終了し
て、入力ペン12がタブレット19から離間するペンア
ップの状態となると、軌跡判定部23は上記のジェスチ
ャー機能ONフラグがセットされていることを確認し
て、上記各軌跡座標データの全てが上記データバッファ
25からジャスチャーコマンド判定部26に出力され
る。
When the drawing by the input pen 12 is completed and the input pen 12 is in a pen-up state in which the input pen 12 is separated from the tablet 19, the locus determination unit 23 confirms that the gesture function ON flag is set. Then, all of the trajectory coordinate data are output from the data buffer 25 to the gesture command determination unit 26.

【0035】なお、上記のように各座標データが全てジ
ャスチャーコマンド判定部26に出力されると、上記フ
ラグ指示部24によるジェスチャー機能ONフラグがリ
セットされるようになっている。
When all the coordinate data are output to the gesture command determination unit 26 as described above, the gesture function ON flag by the flag instruction unit 24 is reset.

【0036】上記各軌跡座標データは、そのジャスチャ
ーコマンド判定部26にて正規化されて図2に示す手書
き認識辞書17に含まれるジェスチャーコマンドテーブ
ル27にそれぞれ格納されている基本ストロークのデー
タと照合される。なお、上記のジャスチャーコマンド判
定部27は前記の手書き編集インターフェース16に含
まれ、また、前記の軌跡座標抽出部21、ジェスチャー
判定部22、軌跡判定部23およびフラグ指示部24
は、前記のペンインターフェース13に含まれており、
前記の座標データバッファ25はRAM2に記憶領域が
設定されている。
The trajectory coordinate data is collated with the basic stroke data which is normalized by the gesture command determination unit 26 and stored in the gesture command table 27 included in the handwriting recognition dictionary 17 shown in FIG. To be done. The gesture command determination unit 27 is included in the handwriting editing interface 16, and the trajectory coordinate extraction unit 21, gesture determination unit 22, trajectory determination unit 23, and flag instruction unit 24 are included.
Is included in the pen interface 13 described above,
The coordinate data buffer 25 has a storage area set in the RAM 2.

【0037】上記のジェスチャーコマンドテーブル27
には、図示している一字抹消コマンド27a、スペース
挿入コマンド27b、手書き文字入力コマンド27cに
対応する基本ストロークの他に、例えば図6および図7
に示す複数の基本ストロークが、それぞれ対応するコマ
ンドと共に記憶されている。
The above-mentioned gesture command table 27
In addition to the basic strokes corresponding to the one-character deletion command 27a, the space insertion command 27b, and the handwritten character input command 27c shown in FIG.
A plurality of basic strokes shown in are stored together with the corresponding commands.

【0038】また、上記ジェスチャーコマンドテーブル
27における各基本ストロークを、ジャスチャーコマン
ド判定部26からアクセス可能とアクセス不可とをそれ
ぞれ選択して設定できるコマンド選択部(選択手段)3
2が設けられており、そのコマンド選択部32での選択
は、テキスト編集部1aを介して入力ペン12やキーボ
ード10等の入力手段によって設定できるようになって
いる。
A command selecting section (selecting means) 3 which can set each basic stroke in the gesture command table 27 by the gesture command judging section 26 by selecting whether it is accessible or not.
2 is provided, and the selection by the command selection section 32 can be set by the input means such as the input pen 12 and the keyboard 10 via the text editing section 1a.

【0039】なお、上記コマンド選択部32では、各基
本ストロークを個々にジャスチャーコマンド判定部26
からアクセス可能とアクセス不可とが選択設定できるよ
うになっており、また、上記各基本ストロークをグルー
ピングして、各グループ毎に、アクセス可能とアクセス
不可とが選択設定(設定手段)できるようにもなってい
る。
In the command selecting section 32, each basic stroke is individually identified by the gesture command determining section 26.
From the above, it is possible to selectively set accessible and inaccessible. Also, by grouping the above basic strokes, it is possible to selectively set (accessible) and inaccessible for each group. Has become.

【0040】また、上記の各基本ストロークにそれぞれ
対応する各コマンドのアクセス可能とアクセス不可とを
表にして記憶して、その表を任意に呼び出して表示装置
14で表示するための登録バッファ33が設けられてい
る。さらに、この登録バッファ33では、上記コマンド
選択部32においてグルーピングされている場合、例え
ば、全て無効、一部有効、全て有効から選択できるよう
に、グルーピングの表も記憶できるようになっている。
Further, a registration buffer 33 for storing the table indicating the accessibility and inaccessibility of each command corresponding to each of the above basic strokes and calling the table arbitrarily and displaying it on the display device 14 is provided. It is provided. Further, in the registration buffer 33, when grouping is performed in the command selecting unit 32, a grouping table can be stored so that, for example, all invalid, some valid, and all valid can be selected.

【0041】前記のジャスチャーコマンド判定部27
は、上記の各基本ストロークとの照合の結果、前記の軌
跡座標と最も近似する基本ストロークに対応したコマン
ドを、テキスト編集部1aに出力すると共に、供給され
た軌跡座標から上記コマンドにより処理される文字また
は文字列の座標情報、つまり表示装置14における位置
情報を上記テキスト編集部1aに出力する。
The above-mentioned gesture command determination unit 27
Outputs a command corresponding to the basic stroke closest to the above-mentioned locus coordinates to the text editing unit 1a as a result of collation with each of the above basic strokes, and is processed by the above command from the locus coordinates supplied. The coordinate information of the character or the character string, that is, the position information on the display device 14 is output to the text editing unit 1a.

【0042】これにより、上記テキスト編集部1aは、
テキストメモリ2a内の文字や記号の配列の上記位置情
報の文字や記号を、削除したり、その位置に挿入したり
して編集できることになる。このとき、テキスト編集部
1aは、上記のようなジェスチャー機能の起動時に、つ
まり入力ペン12による入力操作を開始する直前に、表
示装置14において表示されているテキストメモリ2a
内の画面情報を、呼び出して一時記憶しておくメモリで
ある画面情報バッファ(記憶領域)31が設定されてい
る。なお、上記画面情報バッファ31では、次の画面情
報が記憶されると、以前の記憶された画面情報はクリア
されるようになっている。
As a result, the text editing section 1a is
The character or symbol of the above-mentioned position information in the array of characters or symbols in the text memory 2a can be edited by deleting it or inserting it at that position. At this time, the text editing unit 1a displays the text memory 2a displayed on the display device 14 when the gesture function as described above is activated, that is, immediately before the input operation by the input pen 12 is started.
A screen information buffer (storage area) 31 which is a memory for calling and temporarily storing the screen information therein is set. In the screen information buffer 31, when the next screen information is stored, the previously stored screen information is cleared.

【0043】これにより、上記の編集を取り消す場合
等、予め以前の画面情報が記憶されているため、例えば
図17に示すように、入力ペン12の軌跡表示、認識領
域の矩形表示、認識情報の表示、認識表示の一覧、処理
結果の取消か否かを問うメッセージ等を表示しても、編
集画面の再表示、認識機能実行、編集処理の取消し等の
実行が迅速化できる。
As a result, since the previous screen information is stored in advance when canceling the above-mentioned editing, for example, as shown in FIG. 17, the locus display of the input pen 12, the rectangular display of the recognition area, and the recognition information are displayed. Even if a display, a list of recognition displays, a message asking whether to cancel the processing result, or the like is displayed, the redisplay of the editing screen, the recognition function execution, the cancellation of the editing processing, and the like can be speeded up.

【0044】また、上記のテキスト編集部1aは、ジャ
スチャーコマンド判定部27からのコマンドのみが入力
されるだけでなく、前述したようにキーボード10から
のコマンドも入力されて、そのコマンドによる編集等が
できるようになっている。
The text editing unit 1a receives not only the command from the gesture command determining unit 27 but also the command from the keyboard 10 as described above, and edits by the command. You can do it.

【0045】一方、上記の軌跡座標の処理とは独立し
て、軌跡座標抽出部21により抽出された軌跡座標デー
タは、軌跡描画部28に出力されて上記軌跡座標データ
をつないだ軌跡イメージとなる。
On the other hand, the locus coordinate data extracted by the locus coordinate extraction unit 21 independently of the above locus coordinate processing is output to the locus drawing unit 28 to form a locus image in which the above locus coordinate data are connected. .

【0046】生成された軌跡イメージは、ビットマップ
メモリ2bに現在形成されている文字列、記号列または
イメージと合成されて、そのビットマップメモリ2bに
記憶される。したがって、オペレータが入力ペン12
で、タブレット19をなぞって入力したジェスチャーイ
メージは、リアルタイムに表示装置14上に表示される
ことになる。
The generated trajectory image is combined with the character string, symbol string or image currently formed in the bit map memory 2b and stored in the bit map memory 2b. Therefore, the operator can
Then, the gesture image input by tracing the tablet 19 is displayed on the display device 14 in real time.

【0047】このようなジェスチャー編集の操作例を図
8および図9に示す。まず、図8において、ディスプレ
イタブレット20に表示されているテキストの内、文字
「え」を一字抹消する場合、入力ペン12にて「え」の
文字の上を「V」のようにジェスチャー、つまり描画し
た後、上記入力ペン12をディスプレイタブレット20
上から離す。
An example of such a gesture editing operation is shown in FIGS. 8 and 9. First, in FIG. 8, when erasing one character “e” in the text displayed on the display tablet 20, the input pen 12 makes a gesture like “V” on the character “e”, That is, after drawing, the input pen 12 is moved to the display tablet 20.
Separate from the top.

【0048】なお、上のような描画の際、その開始位置
が、上記の文字の範囲内で有ることが上記の文字の認識
において肝要である。特に指示する文字の認識を容易に
するため、上記の文字のほぼ中央部から描画を開始する
ことが望ましい。
In the above drawing, it is important for recognizing the above character that the starting position is within the range of the above character. In particular, it is desirable to start drawing from substantially the central portion of the above character in order to facilitate recognition of the designated character.

【0049】続いて、その軌跡座標が抽出されて軌跡イ
メージがディスプレイタブレット20における表示装置
14に表示されると共に、基本ストロークとの照合によ
り得られた「V」の描画に相当する一字抹消のコマンド
と共に、上記の「え」の文字の位置情報が、テキスト編
集部1aに出力される。
Subsequently, the locus coordinates are extracted, the locus image is displayed on the display device 14 of the display tablet 20, and a single character corresponding to the drawing of "V" obtained by collation with the basic stroke is erased. Along with the command, the position information of the character "e" is output to the text editing unit 1a.

【0050】その後、上記の位置情報に基づいて、表示
装置14におけるカーソル14aが元の位置、例えば
「ほ」の文字の位置から入力ペン12にて操作された位
置、つまり上記の場合文字「え」の位置に移動した後、
前記のテキストメモリ2a内の上記の「え」を、上記の
コマンドに基づき抹消することにより、ビットマップメ
モリ2b内の上記の「え」の文字が消去され、上記表示
装置14における上記の「え」が抹消される。このよう
にしてジェスチャー編集が完了する。
Thereafter, based on the above position information, the cursor 14a on the display device 14 is moved from the original position, for example, the position of the character "HO" to the position operated by the input pen 12, that is, the character "E" in the above case. After moving to the position
By deleting the "e" in the text memory 2a based on the command, the character "e" in the bitmap memory 2b is erased, and the "e" in the display device 14 is deleted. Is erased. In this way, the gesture editing is completed.

【0051】また、図9に示すように、各編集記号を図
示しない入力ペンにより、ディスプレイタブレット20
上に描画することにより、上記と同様に、ジェスチャー
編集が可能となっている。なお、上記の編集記号のイメ
ージである基本ストロークは任意に設定できるようにな
っている。
As shown in FIG. 9, the display tablet 20 is provided with an input pen (not shown) for each edit symbol.
By drawing on the above, it is possible to edit the gesture as described above. The basic stroke, which is the image of the above-mentioned edit symbol, can be arbitrarily set.

【0052】次に、上記の構成によるポインティング機
能について説明する。まず、従来のワードプロセッサで
は、テキスト上の複数文字を領域指定する場合等にはカ
ーソルを順次移動させていたが、上記構成では、カーソ
ル14aの位置を直接入力ペン12の指示によりダイレ
クトに移動指示が可能となっている。
Next, the pointing function with the above configuration will be described. First, in the conventional word processor, the cursor is sequentially moved when designating a plurality of characters on the text, but in the above configuration, the position of the cursor 14a is directly instructed by the direct input pen 12. It is possible.

【0053】なお、前記のジェスチャーとポインティン
グとの切り替えは、抽出された座標が軌跡を伴わない一
点の座標であるか否か、すなわち上記各座標が連続であ
るか否かによって判断しており、このような判断は、前
記軌跡判定部23にて行われている。
The switching between the gesture and the pointing is determined by whether or not the extracted coordinates are the coordinates of one point without a locus, that is, whether or not the above coordinates are continuous. Such a determination is made by the trajectory determination unit 23.

【0054】そこで、例えば、ポインティングであると
判断した場合、得られた座標は、ジェスチャーコマンド
テーブル27と照合せず、その座標の位置情報のみをテ
キスト編集部1aに出力させている。このようなポイン
ティング機能の操作例は図10に示す通りである。
Therefore, for example, when it is determined to be pointing, the obtained coordinates are not collated with the gesture command table 27, and only the position information of the coordinates is output to the text editing section 1a. An example of operation of such a pointing function is as shown in FIG.

【0055】次に、上記構成を用いて、手書き文字入力
について説明する。手書き文字入力は、前記のジェスチ
ャー編集が軌跡座標と予め記憶した基本ストロークとを
照合する処理と同等の処理方法により実行できるように
なっている。
Next, the input of handwritten characters will be described using the above configuration. The input of handwritten characters can be executed by the same processing method as the above-mentioned gesture editing in which the trajectory coordinates are collated with the basic strokes stored in advance.

【0056】つまり、図1に示すように、ジャスチャー
コマンド判定部26と処理上の同等位置に、すなわち手
書き編集インターフェース16に、手書き文字認識部2
9が形成され、手書き文字を予め記憶している手書き文
字テーブル30が、ジェスチャーコマンドテーブル27
と同様に図2に示す手書き認識辞書17に形成されてい
る。
That is, as shown in FIG. 1, the handwritten character recognizing unit 2 is provided at the same processing position as the gesture command determining unit 26, that is, in the handwriting editing interface 16.
9 is formed and the handwritten character table 30 storing handwritten characters in advance is the gesture command table 27.
The handwriting recognition dictionary 17 shown in FIG.

【0057】上記の手書き文字認識部29は、軌跡座標
抽出部21から供給される軌跡座標と、手書き文字テー
ブル30に記憶されている複数の基本文字ストロークと
を照合し、最も近似する基本文字ストロークに対応する
文字コードを上記の手書き文字テーブル30からテキス
ト編集部1aに出力させる。
The handwritten character recognition unit 29 collates the locus coordinates supplied from the locus coordinate extraction unit 21 with a plurality of basic character strokes stored in the handwritten character table 30 to obtain the most similar basic character stroke. The character code corresponding to is output from the handwritten character table 30 to the text editing unit 1a.

【0058】このような手書き文字入力機能と、前記の
ジェスチャー編集機能との異なる点は、手書き文字認識
部29が位置情報を出力しないことである。なお、上記
の手書き文字入力機能は、キーボード10からの指示
や、表示装置14上のアイコンからの指示から立ち上げ
可能にしており、また、ディスプレイタブレット20の
タブレット19上に、図6に示すように、「△」をジェ
スチャーすることにより、ジェスチャー編集機能から立
ち上げ可能となっている。
The difference between such a handwritten character input function and the above-mentioned gesture editing function is that the handwritten character recognition unit 29 does not output position information. The handwriting character input function described above can be activated by an instruction from the keyboard 10 or an icon from the display device 14, and as shown in FIG. 6 on the tablet 19 of the display tablet 20. By gesturing "△", it is possible to launch from the gesture editing function.

【0059】このような手書き文字入力機能の操作例に
ついて説明すると、図11に示すように、手書き文字入
力機能が立ち上げられると、ディスプレイタブレット2
0の所定位置に、手書き文字入力のためのウインドウ1
4bが表示され、そのウインドウ14a内の第1入力エ
リアに、入力ペン12にて文字を、例えば「す」と手書
きする。
An example of the operation of the handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is activated, the display tablet 2 is activated.
Window 1 for inputting handwritten characters at a predetermined position of 0
4b is displayed, and in the first input area in the window 14a, a character is handwritten with the input pen 12, for example, "su".

【0060】その後、次の入力のため隣接する第2エリ
アに入力ペン12を接触させると、そのとき上記の第1
エリアに手書きされた軌跡座標の文字認識が、前記の手
書き文字テーブル30を参照して前記手書き文字認識部
29にて前述したように実行され、その認識結果の文字
をカーソル14aが示す位置に入力して表示するように
なっている。
After that, when the input pen 12 is brought into contact with the adjacent second area for the next input, at that time, the above first
Character recognition of the locus coordinates handwritten in the area is executed as described above by the handwritten character recognition unit 29 with reference to the handwritten character table 30, and the character of the recognition result is input to the position indicated by the cursor 14a. It is designed to be displayed.

【0061】これにより、例えば草書体などの字体を予
め、手書き文字テーブル30に記憶させておき、その草
書体を手書きで入力して、上記手書き文字テーブル30
における草書字体を表示・印刷等が可能となっている。
Thus, for example, a font such as a cursive font is stored in the handwritten character table 30 in advance, and the cursive font is input by handwriting, and the handwritten character table 30 is entered.
It is possible to display and print cursive fonts in.

【0062】次に、ジェスチャー編集機能における上記
構成の動作例について図12のフローチャートを参照し
ながら説明すると、まず、入力ペン12の先端部がディ
スプレイタブレット20上の所望する位置で当接または
押圧、つまりダウンされると、その時の座標が、ペンイ
ンターフェース13を介して示される。
Next, an operation example of the above configuration in the gesture editing function will be described with reference to the flowchart of FIG. 12. First, the tip portion of the input pen 12 abuts or presses at a desired position on the display tablet 20, That is, when down, the coordinates at that time are shown via the pen interface 13.

【0063】一方、表示装置14における例えばアイコ
ン領域や、ペンボタン領域での入力ペン12の機能は選
択機能である。したがって、上記のようなジェスチャー
編集機能のディスプレイタブレット20上での有効範囲
は、上記の各領域を除外したタブレット19領域とな
る。
On the other hand, the function of the input pen 12 in the icon area and the pen button area of the display device 14 is a selection function. Therefore, the effective range of the above-described gesture editing function on the display tablet 20 is the tablet 19 area excluding the above areas.

【0064】このことから、上記ディスプレイタブレッ
ト20におけるタブレット19では、例えば図13に示
すように、上記のディスプレイタブレット20において
用いられる各画面に応じて予め、タブレット19におけ
る有効領域19aと、ジェスチャー機能に優先する例え
ばアイコン領域を示す無効領域19bと、ジェスチャー
機能に優先するペンボタン領域19cがそれぞれ設定さ
れている。
Therefore, in the tablet 19 of the display tablet 20, for example, as shown in FIG. 13, the effective area 19a and the gesture function of the tablet 19 are set in advance in accordance with each screen used in the display tablet 20. For example, an invalid area 19b indicating a priority icon area and a pen button area 19c prioritizing the gesture function are set.

【0065】そこで、前述したようにペンダウンが実行
されて、その座標データ信号が軌跡座標抽出部21に出
力されると、まず、その最初の入力ペン12の接触座標
であるペンダウン座標を検出し(ステップ1、以下ステ
ップをSと略す)、前記の有効領域座標とを比較し(S
2)、その結果、上記ペンダウン座標が、有効領域座標
外であればジェスチャー機能は無効となりジェスチャー
機能が終了する。
Therefore, when the pen down is executed as described above and the coordinate data signal is output to the locus coordinate extracting section 21, first, the pen down coordinate which is the contact coordinate of the first input pen 12 is detected ( Step 1, hereinafter step is abbreviated as S), and the effective area coordinates are compared (S).
2) As a result, if the pen-down coordinates are outside the effective area coordinates, the gesture function becomes invalid and the gesture function ends.

【0066】また、上記ペンダウン座標が、有効領域座
標内であれば、次のステップとして、ジェスチャー機能
を禁止する他の要因の一つであるペンボタン領域が、上
記ペンダウン座標に有るか否かを検出し(S3)、その
ペンダウン座標が、上記ペンボタン領域の座標上であれ
ば、そのペンボタン処理のルーティンに移行する(S
4)。
If the pen-down coordinates are within the effective area coordinates, the next step is to determine whether or not the pen button area, which is one of the other factors for prohibiting the gesture function, is in the pen-down coordinates. If it is detected (S3) and the pen-down coordinates are on the coordinates of the pen button area, the routine moves to the routine for pen button processing (S3).
4).

【0067】一方、上記ペンダウン座標が、ペンボタン
領域の座標外であれば、そのペンダウン座標を記憶して
おき、入力ペン12による次の座標データが入力される
と、その座標データと上記のペンダウン座標とを比較し
て、上記入力座標が上記ペンダウン座標に対して連続、
つまり、そのX座標、Y座標の少なくとも一方が連続て
あることが8座標分連続か否かを判定する(S5)。
On the other hand, if the pen-down coordinate is outside the coordinates of the pen button area, the pen-down coordinate is stored, and when the next coordinate data is input by the input pen 12, the coordinate data and the pen-down coordinate are input. Comparing the coordinates, the input coordinates are continuous with the pen down coordinates,
That is, it is determined whether at least one of the X coordinate and the Y coordinate is continuous for 8 coordinates (S5).

【0068】このとき、上記各座標データが連続軌跡で
あれば、ジェスチャー機能をONとして、ジェスチャー
ONフラグがセットされる(S6)と共に、入力ペン1
2がジェスチャー機能の有効領域外、つまりアイコン領
域等を通っても、そのアイコン領域での入力ペン12の
アイコン指示機能は停止される。また、上記S5におけ
る判定が連続軌跡ではない場合、ポインティング処理ル
ーティンに移行する(S7)。
At this time, if each of the coordinate data is a continuous trajectory, the gesture function is turned on, the gesture ON flag is set (S6), and the input pen 1
Even if 2 passes outside the effective area of the gesture function, that is, passes through the icon area or the like, the icon pointing function of the input pen 12 in the icon area is stopped. If the determination in S5 is not a continuous trajectory, the process proceeds to the pointing process routine (S7).

【0069】なお、上記のS5とS6のステップを逆、
すなわちジェスチャーONフラグのセットが先でもよ
い。この場合、各座標データが連続でない時、ポインテ
ィング処理ルーティンに移行するが、その際には上記ジ
ェスチャーONフラグがリセットされるようになってい
る。
The above steps S5 and S6 are reversed,
That is, the gesture ON flag may be set first. In this case, when each coordinate data is not continuous, the process goes to the pointing process routine, and the gesture ON flag is reset at that time.

【0070】その後、ジェスチャー操作、つまり入力ペ
ン12によるタブレット19上での所定のイメージの入
力操作が行われて、入力ペン12とタブレット19との
当接が解除、すなわち入力ペン12がアップされると、
図14のフローチャートに示すように、まず、上記のよ
うにジェスチャー機能がONであることを示す前記フラ
グがセットされているか否かを判定し(S11)、上記
フラグがセットされていなければ、上記の入力操作がジ
ェスチャー機能と無関係な動作と判定されて、ジェスチ
ャー機能を終了する。
Thereafter, a gesture operation, that is, an operation of inputting a predetermined image on the tablet 19 by the input pen 12, is performed, and the contact between the input pen 12 and the tablet 19 is released, that is, the input pen 12 is moved up. When,
As shown in the flowchart of FIG. 14, first, it is determined whether or not the flag indicating that the gesture function is ON is set as described above (S11), and if the flag is not set, the above is set. The input operation is determined to be an operation unrelated to the gesture function, and the gesture function ends.

【0071】また、上記フラグがセットされていれば、
ジャスチャーコマンド判定部26は、ペンダウン座標か
らペンアップの座標に至る入力ペン12の各座標データ
を、認識処理のために、まず、専用の座標データメモリ
に正規化して格納する(S12)。
If the above flag is set,
The gesture command determination unit 26 first normalizes and stores each coordinate data of the input pen 12 from the pen-down coordinate to the pen-up coordinate for the recognition process in a dedicated coordinate data memory (S12).

【0072】次に、上記各座標データの認識処理を、ジ
ャスチャーコマンド判定部26にて実行し(S13)、
続いて、ジェスチャーコマンドテーブル27との比較の
上で認識OKであれば(S14)、その認識結果にそっ
た各編集処理を実行して(S15)、ジェスチャー編集
が完了する。また、上記の認識処理で認識不能な場合は
エラー処理(S16)に移行して、上記のジェスチャー
編集を終了する。
Next, the recognition processing of each coordinate data is executed by the gesture command determination unit 26 (S13),
Subsequently, if the recognition is OK in comparison with the gesture command table 27 (S14), each editing process according to the recognition result is executed (S15), and the gesture editing is completed. If the recognition process is not possible, the process moves to the error process (S16) to end the gesture editing.

【0073】このように上記実施例の構成では、ペンア
ップに際しては、そのときのペン座標が、ジェスチャー
機能の有効領域外であっても、その時点でジェスチャー
機能ONとなっておれば、ジェスチャー認識を実行でき
るようになっており、さらに、ペンダウン座標が、前記
有効領域内、およびペンボタン領域外であれば、上記ペ
ンダウン座標に続く描画軌跡の座標が、上記の有効領域
外、およびペンボタン領域内であって、その描画軌跡の
座標データを有効として、その認識処理に移行できるよ
うになっている。
As described above, in the configuration of the above embodiment, when pen-up is performed, even if the pen coordinate at that time is outside the effective area of the gesture function, if the gesture function is ON at that time, gesture recognition is performed. If the pen-down coordinates are within the valid area and outside the pen button area, the coordinates of the drawing locus following the pen-down coordinates are outside the valid area and the pen button area. Within this, the coordinate data of the drawing locus can be validated and the recognition processing can be shifted to.

【0074】したがって、上記構成は、例えば図15に
示すように、A点で、図示しない入力ペンがダウンされ
た場合、A点はジェスチャー有効領域19a内にあるた
め、そのダウン移行後の入力ペンの描画によるジェスチ
ャー機能がONとなり、その入力ペンによる描画が完了
後、その入力ペンのアップ座標が例えB点となり、その
B点がジェスチャー有効領域19a外、つまり無効領域
19bとなっても、上記の描画、すなわちジェスチャー
は有効となる。また、描画軌跡の途中における各座標
が、上記無効領域19bとなっても同様である。
Therefore, in the above configuration, for example, as shown in FIG. 15, when the input pen (not shown) is downed at the point A, since the point A is within the gesture effective area 19a, the input pen after the down transition. Even if the gesture function by the drawing is turned on and the drawing by the input pen is completed and the up coordinate of the input pen becomes the point B, and the point B is outside the gesture effective area 19a, that is, the invalid area 19b, Drawing, that is, the gesture is effective. The same applies when each coordinate in the middle of the drawing trajectory becomes the invalid area 19b.

【0075】しかし、上記構成は、例えば図16に示す
ように、ジェスチャー有効領域外、すなわち無効領域1
9a内となるC点にて、図示しない入力ペンがダウンさ
れると、その入力ペンによる操作はジェスチャー機能O
FFとなり、例えばアイコン処理等に移行することとな
る。
However, the above-mentioned configuration is, for example, as shown in FIG. 16, outside the gesture effective area, that is, ineffective area 1.
When a not-shown input pen is moved down at a point C within 9a, the operation with the input pen is performed by the gesture function O.
It becomes FF and shifts to, for example, icon processing.

【0076】ところで、従来のようなジェスチャー機能
では、描画が完了した後に、その描画が有効であるか否
かを判定していたため、その判定に時間がかかってお
り、また、上記のような入力ペンによる描画の途中にお
いて、その入力ペンが、ジェスチャーの有効領域外の無
効領域や、ペンボタン領域となるタブレット領域と当接
すると、そのジェスチャー機能の処理が停止して、エラ
ー処理に移行していた。
By the way, in the conventional gesture function, since it is determined whether or not the drawing is effective after the drawing is completed, it takes time to make the determination, and the input as described above is performed. If the input pen comes into contact with an invalid area outside the valid gesture area or a tablet area that is the pen button area during drawing with the pen, the processing of that gesture function is stopped and error processing is entered. It was

【0077】このため、上記従来では、入力ペンの操作
を、操作開始だけではなく操作完了までの操作に気を使
う必要があり、そのジェスチャー機能における描画に手
間取り、その操作性が劣化していた。
Therefore, in the above-mentioned conventional technique, it is necessary to pay attention to the operation of the input pen not only at the start of the operation but also at the operation until the operation is completed, and it takes time to draw the gesture function and the operability is deteriorated. .

【0078】しかしながら、上記実施例の構成では、入
力ペン12によるペンダウン座標がジェスチャー機能の
有効領域19a内であれば、ジェスチャー機能を開始す
ると共に、入力ペン12による描画中は、その入力ペン
12がジェスチャーの有効領域19a外、つまり無効領
域19bまたはペンボタン領域19cに当接しても、そ
の描画を有効としている。
However, in the configuration of the above-described embodiment, if the pen-down coordinate by the input pen 12 is within the effective area 19a of the gesture function, the gesture function is started, and the input pen 12 moves during the drawing by the input pen 12. Even when the gesture is outside the effective area 19a, that is, when the gesture area is in contact with the invalid area 19b or the pen button area 19c, the drawing is valid.

【0079】これにより、上記構成は、ペンダウン座標
によってジェスチャー機能を開始できるから、そのジェ
スチャー機能に必要な、例えばジェスチャーコマンドテ
ーブル27の呼び出し等を予め準備できるから、ジェス
チャー機能の迅速化を図ることが可能となり、その上、
入力ペン12による描画中において、上記有効領域を特
に意識する必要がなく、ジェスチャー機能の操作性を向
上できるものとなっている。
With the above arrangement, since the gesture function can be started by the pen-down coordinates, it is possible to prepare in advance a call to the gesture command table 27, etc., which is necessary for the gesture function, so that the gesture function can be accelerated. Is possible, and on top of that,
During the drawing by the input pen 12, it is not necessary to pay particular attention to the effective area, and the operability of the gesture function can be improved.

【0080】次に、上記ジェスチャー機能におけるコマ
ンド選択機能の際の各動作について図18のフローチャ
ートを参照しながら説明する。上記のコマンド選択機能
の処理を、キーボード10等の入力手段からの指示信号
により起動させると、まず、認識でき得る全てのコマン
ドの処理機能名を呼び出した後(S21)、その各処理
機能名を表の項目として表示装置14にて表示する(S
22)。
Next, each operation at the time of the command selecting function in the gesture function will be described with reference to the flowchart of FIG. When the processing of the command selection function is activated by an instruction signal from the input means such as the keyboard 10, first, the processing function names of all recognizable commands are called (S21), and then the processing function names are changed. It is displayed on the display device 14 as a table item (S
22).

【0081】続いて、キーボード10における実行キー
により、各項目毎に有効/無効を選定した後(S2
3)、キー操作にて有効/無効コマンドの更新か否かを
例えば図19に示すように設定する(S24)。このと
き、新たに選定した有効/無効コマンドに更新する場合
は、実行キーをONとして、上記の選定データを取り込
んで(S25)、更新し(S26)、表示装置14にお
ける画面をクリアして(S27)、前記の処理を完了
し、一方、新たに選定した有効/無効コマンドに更新し
ない場合は、解除キーをONして更新しないで、表示装
置14における画面をクリアして(S27)、前記処理
を終了する。
Then, after selecting valid / invalid for each item by the execution key on the keyboard 10 (S2
3), whether or not the valid / invalid command is updated by key operation is set, for example, as shown in FIG. 19 (S24). At this time, when updating to the newly selected valid / invalid command, the execution key is turned on, the above selection data is fetched (S25), updated (S26), and the screen on the display device 14 is cleared ( S27), when the above process is completed and the newly selected valid / invalid command is not updated, the release key is turned on and the update is not performed, and the screen on the display device 14 is cleared (S27). The process ends.

【0082】次に、上記コマンド選択機能における登録
・呼出処理についての際の各動作について図20のフロ
ーチャートを参照しながら説明する。まず、上記の登録
・呼出処理を、入力ペン12やキーボード10等の入力
手段からの指示信号により起動させると、まず、登録処
理か呼出処理かを判断し(S31)、登録処理であれ
ば、現在の有効/無効コマンドデータの全てを表示装置
14に呼び出して(S32)、確認した後、登録名をキ
ーボード10等から入力して(S33)、その登録メイ
ト共に上記有効/無効コマンドデータを登録バッファ3
3に記憶させて(S34)、上記登録処理を完了する。
Next, each operation in the registration / calling processing in the command selection function will be described with reference to the flowchart of FIG. First, when the above registration / calling process is activated by an instruction signal from an input means such as the input pen 12 or the keyboard 10, it is first determined whether it is a registration process or a calling process (S31). After calling all of the current valid / invalid command data on the display device 14 (S32) and confirming them, enter the registration name from the keyboard 10 or the like (S33), and register the valid / invalid command data with the registration mate. Buffer 3
3 (S34), and the registration process is completed.

【0083】一方、前記S31において呼出処理であれ
ば、登録名を入力して選択した後(S35)、登録バッ
ファ33内の登録名を検索し(S36)、その登録名に
該当する有効/無効コマンドデータを呼び出して表示装
置14に表示し(S37)、それまでの有効/無効コマ
ンドデータを上記登録名の有効/無効コマンドデータに
更新して(S38)、呼出処理を完了する。
On the other hand, in the case of the calling process in S31, after inputting and selecting the registered name (S35), the registered name in the registration buffer 33 is searched (S36), and the valid / invalid corresponding to the registered name is searched. The command data is called and displayed on the display device 14 (S37), the valid / invalid command data up to that point is updated to the valid / invalid command data of the registered name (S38), and the calling process is completed.

【0084】このように上記実施例の構成では、個々の
コマンドに対して、それぞれ有効と無効とを設定できる
ことにより、ユーザーが必要とするジェスチャー機能の
は有効とすることができる。これにより、不必要なジェ
スチャー機能の認識による誤動作を防止することがで
き、さらに、ユーザーが認識するジェスチャーコマンド
の数を低減できるから、コマンドのユーザー認識率を高
めることができる。
As described above, in the configuration of the above embodiment, it is possible to set valid and invalid for each command, so that the gesture function required by the user can be validated. As a result, it is possible to prevent an erroneous operation due to unnecessary recognition of the gesture function, and it is possible to reduce the number of gesture commands recognized by the user, so that the user recognition rate of commands can be increased.

【0085】したがって、上記構成は、ジェスチャー機
能に用いる各コマンドの誤認識を低減できて、ユーザー
の意図に、より正確な編集処理が可能となる。
Therefore, the above configuration can reduce erroneous recognition of each command used for the gesture function and enable more accurate editing processing according to the user's intention.

【0086】また、上記構成では、複数のユーザーが同
一の情報処理装置を用いる場合等において、ユーザー毎
にコマンドの有効/無効とを選定して、その選定内容を
記憶、つまり登録しておくことができる。これにより、
複数のユーザーが個々に必要とするジェスチャー機能を
いつでも任意に選定できて、各ユーザーの編集方法等に
合った編集処理が容易に可能となる。
Further, in the above configuration, when a plurality of users use the same information processing apparatus or the like, command validity / invalidity is selected for each user and the selected content is stored, that is, registered. You can This allows
A gesture function required by each of a plurality of users can be arbitrarily selected at any time, and an editing process suitable for an editing method of each user can be easily performed.

【0087】その上、上記構成は、ユーザーが替わる毎
に個々のユーザーに必要なジェスチャー機能を代えた
時、不用意に不必要なジェスチャー機能による誤った編
集を行うことに起因する文章等の作成に手間取るという
ことを軽減できる。
In addition, the above-mentioned configuration creates sentences and the like resulting from careless editing by the unnecessary gesture function when the gesture function required for each user is changed every time the user changes. You can reduce the time and effort.

【0088】次に、上記のコマンド選択機能における有
効/無効のグルーピングによるモード選択処理について
図21を参照しながら説明する。上記構成がジェスチャ
ー機能中において、キーボード10や入力ペン12等に
よって、モード選択キーによる割り込みを発生させる
と、まず、認識でき得る全てのコマンドの処理機能名を
呼び出した後、その各処理機能名を表の項目として表示
装置14にて表示する(S41)。
Next, the mode selection processing by the valid / invalid grouping in the command selection function will be described with reference to FIG. When the above-described configuration is in the gesture function and an interrupt is generated by the mode selection key with the keyboard 10, the input pen 12, etc., first, the processing function names of all recognizable commands are called, and then the processing function names are changed. The items of the table are displayed on the display device 14 (S41).

【0089】続いて、キーボード10における実行キー
により、各項目毎に有効/無効を選定して、有効コマン
ドグループと無効コマンドグループとを設定した後(S
42)、いままでの有効/無効コマンドを上記のように
選定したコマンドに更新するか否かをキー操作にて設定
する(S43)。
Next, after selecting valid / invalid for each item by the execution key on the keyboard 10 and setting the valid command group and the invalid command group (S
42), whether or not to update the valid / invalid command up to now to the command selected as described above is set by key operation (S43).

【0090】このとき、新たに選定した有効/無効コマ
ンドに更新する場合は、実行キーをONとして、上記の
選定データを取り込んで更新し(S44)、表示装置1
4における画面をクリアして(S45)、前記のモード
選択処理を完了し、一方、新たに選定した有効/無効コ
マンドに更新しない場合は、解除キーをONして更新し
ないで、表示装置14における画面をクリアし(S4
5)、前記モード選択処理を終了する。
At this time, in the case of updating to the newly selected valid / invalid command, the execution key is turned on and the above selection data is fetched and updated (S44).
4 clears the screen (S45) and completes the mode selection process. On the other hand, if the newly selected valid / invalid command is not updated, the release key is not turned on to update the display device 14. Clear the screen (S4
5) Then, the mode selection process ends.

【0091】このように上記構成では、ジェスチャー機
能における無効コマンドを設定できることにより、上述
したようにジェスチャー機能におけるジェスチャーコマ
ンドの誤認識を防止することができる。
As described above, in the above configuration, since the invalid command in the gesture function can be set, it is possible to prevent erroneous recognition of the gesture command in the gesture function as described above.

【0092】その上、上記構成は、例えば消去・抹消系
のコマンドを無効とし、他のコマンドを有効とする設定
により、ジェスチャー編集は有効とすることができる
が、ジェスチャー動作によって、表示装置14上におけ
る文章等の画像が誤消去される虞が回避される。このよ
うな一部有効のジェスチャー機能選択の画面の例を図2
1に示す。
In addition, in the above configuration, for example, the gesture edit can be enabled by setting the erase / delete command to be invalid and the other commands to be valid. It is possible to avoid the possibility that an image such as a sentence in erroneously deleted. An example of such a partially effective gesture function selection screen is shown in FIG.
Shown in 1.

【0093】このように一部有効を選択できるから、ジ
ェスチャー機能を扱う初心者に対し、表示装置14上に
おける文章等の画像が誤消去される虞を防止する効果が
特に大きく、上記構成を操作する際の不手際による文章
等の再作成といった手間を省くことができて、操作性を
向上させることができる。
In this way, since partial activation can be selected, the effect of preventing a beginner who handles a gesture function from accidentally erasing an image such as a sentence on the display device 14 is particularly great, and the above-described configuration is operated. It is possible to save the trouble of re-creating a sentence or the like due to a mistake at the time and improve the operability.

【0094】また、上記構成は、画面情報バッファ31
を設けて、図23のフローチャートに示すように、ジェ
スチャー機能が立ち上がると、その時の表示装置14上
の画像情報を上記画面情報バッファ31に記憶、すなわ
ちセーブさせておく(S51)。
In addition, the above-mentioned configuration has the screen information buffer 31.
As shown in the flowchart of FIG. 23, when the gesture function is activated, the image information on the display device 14 at that time is stored in the screen information buffer 31, that is, saved (S51).

【0095】続いて、入力ペン12がダウンされて(S
52)、上記入力ペン12により編集機能を指示するコ
マンドが入力されて(S53)、編集範囲の認識が確定
して(S54,S55)、上記入力ペン12がアップす
ると(S52)、上記コマンドおよび編集範囲をジャス
チャーコマンド判定部26に出力し(S56)する。
Then, the input pen 12 is moved down (S
52) When the command for instructing the editing function is input by the input pen 12 (S53), the recognition of the editing range is confirmed (S54, S55), and when the input pen 12 moves up (S52), the command and The edit range is output to the gesture command determination unit 26 (S56).

【0096】その後、表示装置14の表示画面を前記の
画面情報バッファ31にセーブした画面情報を上記表示
画面を戻す(S57)。続いて、テキストメモリ2aに
も記憶されている上記画面情報に対して、編集動作等の
機能を実行し、その結果を表示装置14に表示する(S
58)。
Then, the screen information saved in the screen information buffer 31 is returned to the display screen (S57). Subsequently, a function such as an editing operation is executed on the screen information stored in the text memory 2a, and the result is displayed on the display device 14 (S
58).

【0097】次に、その表示装置14の表示画面を取り
消すか否かを判別し(S59)、取り消さない場合は上
記のジェスチャー機能を完了し、取り消す場合は、前記
の画面情報バッファ31にセーブされている画面情報に
表示装置14の表示画面を戻し、かつ、上記テキストメ
モリ2a内の画面情報も元に戻す(S60)。
Next, it is determined whether or not the display screen of the display device 14 is to be canceled (S59). If not canceled, the above-mentioned gesture function is completed, and if canceled, it is saved in the screen information buffer 31. The display screen of the display device 14 is returned to the displayed screen information, and the screen information in the text memory 2a is also returned to the original screen information (S60).

【0098】このように上記構成は、ジェスチャー機能
の入力ペン12による操作直前の表示装置14上の画像
情報を上記画面情報バッファ31に記憶させるから、前
述したようにジェスチャー機能の取り消し等の際の、元
の画像への復帰を迅速化できるものとなっている。
As described above, in the above configuration, the image information on the display device 14 immediately before the operation with the input pen 12 of the gesture function is stored in the screen information buffer 31, so that the gesture function is canceled as described above. , It is possible to speed up the restoration to the original image.

【0099】[0099]

【発明の効果】本発明の請求項1記載の情報処理装置
は、以上のように、ジェスチャー機能における上記入力
ペンのジェスチャー有効領域と、上記ジェスチャー機能
に優先するアイコン等の入力機能を表示しているジェス
チャー無効領域とが前記タブレットに設定され、ジェス
チャー機能時に上記入力ペンが上記タブレットに最初に
当接した座標であるペンダウン座標により、上記ジェス
チャー機能の有効と無効とを判定する判定手段が設けら
れている構成である。
As described above, the information processing apparatus according to claim 1 of the present invention displays the gesture effective area of the input pen in the gesture function and the input function such as an icon prior to the gesture function. A gesture invalid area is set in the tablet, and a determination unit is provided to determine whether the gesture function is valid or invalid based on the pen-down coordinate which is the coordinate at which the input pen first contacts the tablet during the gesture function. It has a structure.

【0100】それゆえ、上記構成は、ペンダウン時にジ
ェスチャー機能の有効と無効とを判定できるから、従来
より、ジェスチャー機能の有効時のジェスチャー機能の
迅速化を図ることができるという効果を奏する。
Therefore, the above-described structure can determine whether the gesture function is valid or invalid at the time of pen down, so that it is possible to accelerate the gesture function when the gesture function is valid.

【0101】本発明の請求項2記載の情報処理装置は、
さらに、ジェスチャー機能時に上記入力ペンが上記タブ
レットに最初に当接した座標であるペンダウン座標が前
記ジェスチャー有効領域であれば、上記ペンダウン座標
以後に入力される上記入力ペンの座標の上記判定手段で
の判定を停止する停止手段が設けられている構成であ
る。
The information processing apparatus according to claim 2 of the present invention is
Further, if the pen-down coordinates, which are the coordinates at which the input pen first contacts the tablet during the gesture function, are the gesture effective area, the coordinates of the input pen input after the pen-down coordinates are determined by the determination means. This is a configuration in which stop means for stopping the determination is provided.

【0102】それゆえ、上記構成は、入力ペンによりタ
ブレット上の任意の位置を描画する途中に、ジェスチャ
ー無効領域を通っても、ジェスチャー機能が無効となら
ず、従来のようにジェスチャー機能が無効となって再
度、入力ペンにより描画するといった手間を省くことが
できるという効果を奏する。
Therefore, in the above configuration, the gesture function is not invalidated even if it passes through the gesture invalidation area while drawing an arbitrary position on the tablet with the input pen, and the gesture function is invalidated as in the conventional case. As a result, it is possible to save the trouble of drawing again with the input pen.

【0103】本発明の請求項3記載の情報処理装置は、
以上のように、ジェスチャー機能における上記イメージ
を記憶しておく記憶手段が設けられ、上記記憶手段から
の上記イメージの呼び出しの有効と無効とを設定する選
択手段が設けられている構成である。
An information processing apparatus according to claim 3 of the present invention is
As described above, the storage means for storing the image in the gesture function is provided, and the selection means for setting the validity or invalidity of the calling of the image from the storage means is provided.

【0104】それゆえ、上記構成は、前記イメージの呼
び出しの有効と無効とを設定できるから、例えば、消去
系のイメージを呼び出し無効に設定すれば、特に初心者
によく見られるように、操作に不慣れなために、消去系
のイメージを呼び出して画像を誤って消去する虞を回避
できる。これにより、上記画像の復元に手間取るといっ
た従来の不都合を回避することができるという効果を奏
する。
Therefore, with the above configuration, it is possible to set whether the image recall is valid or invalid. Therefore, for example, if the erase type image is recalled invalid, it is unfamiliar to the operation, as often seen by beginners. Therefore, it is possible to avoid the risk of accidentally erasing an image by calling an erasing system image. This brings about an effect that it is possible to avoid the conventional inconvenience that it takes time to restore the image.

【0105】本発明の請求項4記載の情報処理装置は、
さらに、請求項3記載の構成に加えて、上記ジェスチャ
ー機能の有効と無効とを組分けして、上記有効と無効と
を一括して設定する設定手段が設けられている構成であ
る。
An information processing apparatus according to claim 4 of the present invention is
Further, in addition to the configuration according to claim 3, a configuration is provided in which the validity and invalidity of the gesture function are classified and a setting means for collectively setting the validity and invalidity is provided.

【0106】それゆえ、上記構成は、有効なイメージ
と、無効となるイメージとを組分けして、一括して設定
できるから、例えば、初心者向けに消去・抹消系のイメ
ージを無効と設定しておき、他の有効なイメージのみを
一括して設定できて、そのような設定操作を簡素化でき
るから、さらに、特に初心者によく見られるように、操
作に不慣れなために、消去系のイメージを呼び出して画
像を誤って消去する虞を回避できるて、上記画像の復元
に手間取るといった従来の不都合を回避することができ
るという効果を奏する。
Therefore, in the above-mentioned configuration, valid images and invalid images can be grouped and set collectively, so that, for example, for beginners, the erase / delete image is set invalid. Every other valid image can be set in a lump, which simplifies such setting operations.In addition, as is often seen by beginners, it is unfamiliar with the operation, so erase type images There is an effect that it is possible to avoid the possibility of calling and erasing an image by mistake, and avoiding the conventional inconvenience that it takes time to restore the image.

【0107】本発明の請求項5記載の情報処理装置は、
以上のように、液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、上記ジェスチャー機能が起動した時、上記起
動時の表示面での画像を示す画像情報を記憶する記憶領
域が設定されている構成である。
An information processing apparatus according to claim 5 of the present invention is
As described above, a display device such as a liquid crystal display is provided, and a tablet capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device is provided on the display surface. In an information processing apparatus provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image, when the gesture function is activated, an image on the display surface at the time of activation is displayed. The configuration is such that a storage area for storing the indicated image information is set.

【0108】それゆえ、上記構成は、ジェスチャー機能
による編集時に、元の画像情報が予め記憶領域に記憶さ
れているため、例えば、従来のように、編集時にイメー
ジを表示しており、その表示を消去してから再度画像情
報を配列して表示するといった手間を省くことができ
て、ジェスチャー機能による編集時の画像の復元を迅速
化できるという効果を奏する。
Therefore, in the above configuration, since the original image information is stored in the storage area in advance at the time of editing by the gesture function, for example, the image is displayed at the time of editing as in the conventional case, and the display is performed. It is possible to save the trouble of arranging and displaying the image information again after erasing, and it is possible to speed up the restoration of the image at the time of editing by the gesture function.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の情報処理装置の要部ブロック図であ
る。
FIG. 1 is a block diagram of a main part of an information processing apparatus of the present invention.

【図2】上記の情報処理装置のブロック図である。FIG. 2 is a block diagram of the information processing device.

【図3】上記の情報処理装置における基本ストロークの
認識例を示す説明図である。
FIG. 3 is an explanatory diagram showing an example of recognition of basic strokes in the information processing apparatus.

【図4】上記の情報処理装置のディスプレイタブレット
における位置情報を示す説明図であって、(a)はタブ
レット、(b)は表示装置の表示面である。
4A and 4B are explanatory diagrams showing position information on the display tablet of the information processing apparatus, wherein FIG. 4A is a tablet and FIG. 4B is a display surface of the display device.

【図5】上記のディスプレイタブレットにおけるジェス
チャー機能有効領域とジェスチャー機能無効領域とを示
す説明図である。
FIG. 5 is an explanatory diagram showing a gesture function valid area and a gesture function invalid area in the display tablet.

【図6】上記の基本ストロークの各例とそれらにそれぞ
れ対応するコマンドを示す説明図である。
FIG. 6 is an explanatory diagram showing examples of the basic strokes and commands corresponding to the examples.

【図7】上記の基本ストロークの各例とそれらにそれぞ
れ対応するコマンドを示す説明図である。
FIG. 7 is an explanatory diagram showing examples of the basic strokes and commands corresponding to the examples.

【図8】上記の情報処理装置におけるジェスチャー機能
の編集動作例を示す説明図である。
FIG. 8 is an explanatory diagram showing an example of an editing operation of a gesture function in the above information processing device.

【図9】上記の情報処理装置におけるジェスチャー機能
の各編集動作例を示す説明図である。
FIG. 9 is an explanatory diagram showing an example of each editing operation of the gesture function in the information processing apparatus.

【図10】上記の情報処理装置におけるポインティング
機能の動作例を示す説明図である。
FIG. 10 is an explanatory diagram showing an operation example of a pointing function in the information processing apparatus.

【図11】上記の情報処理装置における手書き文字入力
機能の動作例を示す説明図である。
FIG. 11 is an explanatory diagram showing an operation example of a handwritten character input function in the information processing apparatus.

【図12】上記のジェスチャー機能におけるペンダウン
時のフローチャートである。
FIG. 12 is a flowchart at the time of pen down in the above gesture function.

【図13】上記のディスプレイタブレットにおけるペン
ボタン領域を示す説明図である。
FIG. 13 is an explanatory diagram showing a pen button area in the display tablet.

【図14】上記のジェスチャー機能におけるペンアップ
時のフローチャートである。
FIG. 14 is a flowchart at the time of pen-up in the above gesture function.

【図15】上記のジェスチャー機能におけるディスプレ
イタブレット上での軌跡の例を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of a locus on the display tablet in the above gesture function.

【図16】上記のジェスチャー機能におけるディスプレ
イタブレット上での他の軌跡の例を示す説明図である。
FIG. 16 is an explanatory diagram showing an example of another locus on the display tablet in the gesture function.

【図17】上記のジェスチャー機能におけるディスプレ
イタブレットでの表示例を示す説明図である。
FIG. 17 is an explanatory diagram showing a display example on the display tablet in the gesture function.

【図18】上記のジェスチャー機能における呼び出しの
有効/無効を設定する際のフローチャートである。
FIG. 18 is a flowchart for setting the validity / invalidity of the call in the above-mentioned gesture function.

【図19】上記のジェスチャー機能における呼び出しの
有効/無効を設定する際の表示装置での表示例を示す説
明図である。
FIG. 19 is an explanatory diagram showing a display example on the display device when setting the validity / invalidity of the call in the gesture function.

【図20】上記のジェスチャー機能における登録・呼出
を設定する際のフローチャートである。
FIG. 20 is a flowchart for setting registration / calling in the above gesture function.

【図21】上記のジェスチャー機能におけるモードの設
定の際のフローチャートである。
FIG. 21 is a flowchart for setting a mode in the above gesture function.

【図22】上記のモードを選択する際の表示装置での表
示例を示す説明図である。
FIG. 22 is an explanatory diagram showing a display example on the display device when the above mode is selected.

【図23】上記のジェスチャー機能における画像情報の
セーブ方法を示すフローチャートである。
FIG. 23 is a flowchart showing a method of saving image information in the above gesture function.

【符号の説明】[Explanation of symbols]

12 入力ペン 14 表示装置 19 タブレット 22 ジェスチャー判定部(判定手段) 12 input pen 14 display device 19 tablet 22 gesture determination section (determination means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長澤 宏行 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 中尾 寛 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 中島 靖浩 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 倉田 正明 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hiroyuki Nagasawa 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Within Sharp Corporation (72) Hiroshi Nakao 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka (72) Inventor Yasuhiro Nakajima 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (72) In-house Masaaki Kurata 22-22 Nagaike-cho, Abeno-ku, Osaka, Osaka Inside Sharp Corporation

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、 上記ジェスチャー機能における上記入力ペンのジェスチ
ャー有効領域と、上記ジェスチャー機能に優先するアイ
コン等の入力機能を表示しているジェスチャー無効領域
とが前記タブレットに設定され、ジェスチャー機能時に
上記入力ペンが上記タブレットに最初に当接した座標で
あるペンダウン座標により、上記ジェスチャー機能の有
効と無効とを判定する判定手段が設けられていることを
特徴とする情報処理装置。
1. A tablet provided with a display device such as a liquid crystal display and capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device is provided on the display surface. In an information processing device provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image, a gesture effective area of the input pen in the gesture function and the gesture function have priority. A gesture invalid area displaying an input function such as an icon is set in the tablet, and the gesture function is enabled by the pen-down coordinate which is the coordinate at which the input pen first contacts the tablet during the gesture function. It is characterized in that a determination means for determining invalidity is provided. Information processing equipment.
【請求項2】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、 上記ジェスチャー機能における上記入力ペンのジェスチ
ャー有効領域と、上記ジェスチャー機能に優先するアイ
コン等の入力機能を表示しているジェスチャー無効領域
とが前記タブレットに設定され、ジェスチャー機能時に
上記入力ペンが上記タブレットに当接した座標により、
上記ジェスチャー機能の有効と無効とを判定する判定手
段が設けられ、かつ、ジェスチャー機能時に上記入力ペ
ンが上記タブレットに最初に当接した座標であるペンダ
ウン座標が前記ジェスチャー有効領域であれば、上記ペ
ンダウン座標以後に入力される上記入力ペンの座標の上
記判定手段での判定を停止する停止手段が設けられてい
ることを特徴とする情報処理装置。
2. A tablet, which is provided with a display device such as a liquid crystal display, is capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device. In an information processing device provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image, a gesture effective area of the input pen in the gesture function and the gesture function have priority. A gesture invalid area displaying an input function such as an icon is set on the tablet, and the coordinates of the input pen contacting the tablet during the gesture function,
If the determination means for determining whether the gesture function is valid or invalid is provided, and the pen-down coordinate, which is the coordinate at which the input pen first contacts the tablet during the gesture function, is the gesture valid area, the pen-down is performed. An information processing apparatus, comprising: a stop means for stopping the determination of the coordinates of the input pen input after the coordinates by the determination means.
【請求項3】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、予め設定され
た上記イメージにて編集できるジェスチャー機能を備え
る情報処理装置において、 ジェスチャー機能における上記イメージを記憶しておく
記憶手段が設けられ、上記記憶手段からの上記イメージ
の呼び出しの有効と無効とを設定する選択手段が設けら
れていることを特徴とする情報処理装置。
3. A tablet, which is provided with a display device such as a liquid crystal display, is capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device. In an information processing apparatus having a gesture function, which is provided and is capable of editing an image such as an arrangement of characters and symbols on the display surface with the image set in advance, storage means for storing the image in the gesture function is provided. An information processing apparatus, further comprising: a selection unit that sets validity and invalidity of calling the image from the storage unit.
【請求項4】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、予め設定され
た上記イメージにて編集できるジェスチャー機能を備え
る情報処理装置において、 ジェスチャー機能における上記イメージを複数記憶して
おく記憶手段が設けられ、上記イメージの呼び出しの有
効と無効とをそれぞれ設定する選択手段が設けられ、上
記の有効と無効とを組分けして、上記有効と無効とを一
括して設定する設定手段が設けられていることを特徴と
する情報処理装置。
4. A tablet, which is provided with a display device such as a liquid crystal display, is capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device. In an information processing device provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image set in advance, a storage unit for storing a plurality of the images in the gesture function is provided. Selection means for setting the validity and invalidity of the calling of the image, respectively, and a setting means for grouping the validity and invalidity and collectively setting the validity and invalidity. An information processing device characterized in that.
【請求項5】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、 上記ジェスチャー機能が起動した時、上記起動時の表示
面での画像を示す画像情報を記憶する記憶領域が設定さ
れていることを特徴とする情報処理装置。
5. A display device such as a liquid crystal display is provided, and a tablet is provided on the display screen for inputting an image by drawing with an input pen and designating a desired position on the display screen of the display device. In an information processing device provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image, when the gesture function is activated, an image on the display surface at the time of activation is displayed. An information processing apparatus, wherein a storage area for storing image information is set.
JP28327692A 1992-10-21 1992-10-21 Gesture processing device and gesture processing method Expired - Lifetime JP3292752B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP28327692A JP3292752B2 (en) 1992-10-21 1992-10-21 Gesture processing device and gesture processing method
US08/136,209 US5481278A (en) 1992-10-21 1993-10-15 Information processing apparatus
DE69329846T DE69329846T2 (en) 1992-10-21 1993-10-20 Device for entering handwriting commands
EP00100830A EP0992877B1 (en) 1992-10-21 1993-10-20 Information processing apparatus
DE69332727T DE69332727T2 (en) 1992-10-21 1993-10-20 Information processing apparatus
EP93116992A EP0598236B1 (en) 1992-10-21 1993-10-20 Apparatus for inputting handwritten commands
US08/457,458 US5796406A (en) 1992-10-21 1995-06-01 Gesture-based input information processing apparatus
US09/028,480 US6938220B1 (en) 1992-10-21 1998-02-24 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28327692A JP3292752B2 (en) 1992-10-21 1992-10-21 Gesture processing device and gesture processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP14094499A Division JP3874571B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JPH06131110A true JPH06131110A (en) 1994-05-13
JP3292752B2 JP3292752B2 (en) 2002-06-17

Family

ID=17663364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28327692A Expired - Lifetime JP3292752B2 (en) 1992-10-21 1992-10-21 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP3292752B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175407A (en) * 2000-10-20 2001-06-29 Sharp Corp Device and method for processing document information
JP2006085703A (en) * 2004-09-13 2006-03-30 Microsoft Corp Flick gesture
US7397465B2 (en) 2003-06-20 2008-07-08 Canon Kabushiki Kaisha Coordinate input control method
JP2008527528A (en) * 2005-01-05 2008-07-24 ゼ ウー アン Character input method and apparatus using pointing input means
WO2008123546A1 (en) * 2007-04-03 2008-10-16 Sharp Kabushiki Kaisha Mobile information terminal device and mobile telephone
JP2009301302A (en) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd Gesture determination device
JP2010026795A (en) * 2008-07-18 2010-02-04 Sharp Corp Information display device, information display method, information display program, and storage medium with information display program recorded thereon
JP2010049679A (en) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd Information processing apparatus, information processing method and computer program
JP2010057840A (en) * 2008-09-05 2010-03-18 Sega Corp Game machine and program
JP2011039989A (en) * 2009-08-18 2011-02-24 Canon Inc Display control apparatus, display control method, program, and storage medium
JP4796131B2 (en) * 2005-04-18 2011-10-19 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, electronic device and computer-readable recording medium for data management in an electronic device in response to user instructions by writing and / or audible sound
JP2013504103A (en) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 Multi-touch character input method and system
JP2013051000A (en) * 2012-12-11 2013-03-14 Sharp Corp Operation device, image processing device comprising operation device, and operation method
JP2014078142A (en) * 2012-10-11 2014-05-01 Konica Minolta Inc Image processing apparatus, program, and operation event determination method
JP2014241080A (en) * 2013-06-12 2014-12-25 本田技研工業株式会社 Program and application control method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175407A (en) * 2000-10-20 2001-06-29 Sharp Corp Device and method for processing document information
US7397465B2 (en) 2003-06-20 2008-07-08 Canon Kabushiki Kaisha Coordinate input control method
JP2006085703A (en) * 2004-09-13 2006-03-30 Microsoft Corp Flick gesture
US9417701B2 (en) 2004-09-13 2016-08-16 Microsoft Technology Licensing, Llc Flick gesture
JP2008527528A (en) * 2005-01-05 2008-07-24 ゼ ウー アン Character input method and apparatus using pointing input means
JP4796131B2 (en) * 2005-04-18 2011-10-19 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, electronic device and computer-readable recording medium for data management in an electronic device in response to user instructions by writing and / or audible sound
WO2008123546A1 (en) * 2007-04-03 2008-10-16 Sharp Kabushiki Kaisha Mobile information terminal device and mobile telephone
US8255002B2 (en) 2007-04-03 2012-08-28 Sharp Kabushiki Kaisha Mobile information terminal and cellular phone
JP2009301302A (en) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd Gesture determination device
JP2010026795A (en) * 2008-07-18 2010-02-04 Sharp Corp Information display device, information display method, information display program, and storage medium with information display program recorded thereon
JP2012198939A (en) * 2008-08-22 2012-10-18 Fuji Xerox Co Ltd Information processing apparatus, and program
JP2010049679A (en) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd Information processing apparatus, information processing method and computer program
JP2010057840A (en) * 2008-09-05 2010-03-18 Sega Corp Game machine and program
JP2011039989A (en) * 2009-08-18 2011-02-24 Canon Inc Display control apparatus, display control method, program, and storage medium
JP2013504103A (en) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 Multi-touch character input method and system
JP2014078142A (en) * 2012-10-11 2014-05-01 Konica Minolta Inc Image processing apparatus, program, and operation event determination method
US8982397B2 (en) 2012-10-11 2015-03-17 Konica Minolta, Inc. Image processing device, non-transitory computer readable recording medium and operational event determining method
JP2013051000A (en) * 2012-12-11 2013-03-14 Sharp Corp Operation device, image processing device comprising operation device, and operation method
JP2014241080A (en) * 2013-06-12 2014-12-25 本田技研工業株式会社 Program and application control method

Also Published As

Publication number Publication date
JP3292752B2 (en) 2002-06-17

Similar Documents

Publication Publication Date Title
US5796406A (en) Gesture-based input information processing apparatus
KR100197037B1 (en) Handwritten information processing apparatus and method
US6938220B1 (en) Information processing apparatus
US5502803A (en) Information processing apparatus having a gesture editing function
JP3292752B2 (en) Gesture processing device and gesture processing method
JPH06242885A (en) Document editing method
JP2963589B2 (en) Gesture processing device and gesture processing method
JP2009151449A (en) Electric blackboard with undo function
JP2999335B2 (en) Gesture processing device and gesture processing method
US20050122322A1 (en) Document creating method apparatus and program for visually handicapped person
JP3388451B2 (en) Handwriting input device
JP3258978B2 (en) Gesture processing device and gesture processing method
JP3874571B2 (en) Gesture processing device and gesture processing method
JP2905013B2 (en) Gesture processing device and gesture processing method
JP2989084B2 (en) Information processing device
JP3469816B2 (en) Gesture processing device and gesture processing method
JPH0728801A (en) Image data processing method and device therefor
JPH0346081A (en) On-line hand-written character input method
JPH0744308A (en) Word processor
JP2001147751A (en) Information terminal and control method therefor
JPH10207607A (en) Device for preparing document and method for inputting character
JP3469817B2 (en) Gesture processing device and gesture processing method
JPH08137865A (en) Character information processor with address book managing function
JPH087034A (en) Handwritten character recognition and input system
JPH0830730A (en) Character recognition processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080329

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130329

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130329

Year of fee payment: 11