JPH06131107A - Pen input operation method and information processor - Google Patents

Pen input operation method and information processor

Info

Publication number
JPH06131107A
JPH06131107A JP28469592A JP28469592A JPH06131107A JP H06131107 A JPH06131107 A JP H06131107A JP 28469592 A JP28469592 A JP 28469592A JP 28469592 A JP28469592 A JP 28469592A JP H06131107 A JPH06131107 A JP H06131107A
Authority
JP
Japan
Prior art keywords
gesture
input
pen
coordinate
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28469592A
Other languages
Japanese (ja)
Inventor
Tetsuo Takemoto
哲夫 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP28469592A priority Critical patent/JPH06131107A/en
Publication of JPH06131107A publication Critical patent/JPH06131107A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the operability of pen input by drawing symbol for some operation in a reverse direction and allowing pen input when a pen input instruction shows opposite operation from the operation. CONSTITUTION:A computer body 11 has a display part and a pen input part on its surface. For example, input operation can be performed with a pen 13 in a pen input recognition area 12 overlapping with the display part. Further, a pen input recognition area 12 and a computer body 11 which are separate are also applicable. Characters are inputted in the character recognition area 14 and HIRAGANA (cursive form of Japanese syllabary) is inputted and converted into KANJI (Chinese character), etc., but a pen input recognition area 12 and a character recognition area 14 in one body are also applicable. For example, when one character is copied or its copy is canceled by inputting predetermined gesture 41a, a gesture 43a which is in the same shape with the gesture 41a, but has the opposite input order 44a from the input order, i.e., writing direction 42a of the gesture is inputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ペンなどのポインティ
ングデバイスを用いて文字や図形の入力時にそれらの取
り消し方法、属性変更に適するペン入力操作方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of erasing characters and figures when using a pointing device such as a pen, and a pen input operation method suitable for changing attributes.

【0002】[0002]

【従来の技術】近年、情報処理装置の入力装置として、
ペン入力装置が注目されている。ペンによる操作を指示
するコマンドの入力の手法として、予め複数のコマンド
に対してそれぞれ固有の記号(ジェスチャ)を登録して
おき、ユーザのペン入力軌跡を登録されたジェスチャ内
容と照合して、コマンドを認識させることが行われてい
る。例えば、コピー操作を意味するジェスチャを入力す
ることにより文字列のコピーをした後、その文字列のコ
ピーを取り消す場合(アンドゥ)は、取消を意味する別
のジェスチャを入力する。同様に、文字の拡大操作およ
びその反対の縮小操作をするには、各々あらかじめ登録
されていた別個のジェスチャを入力する。
2. Description of the Related Art Recently, as an input device of an information processing device,
Pen input devices are attracting attention. As a method of inputting a command for instructing an operation with a pen, a unique symbol (gesture) is registered in advance for each of a plurality of commands, and the user's pen input trajectory is compared with the registered gesture contents to execute a command. Is being made to be recognized. For example, when a character string is copied by inputting a gesture meaning a copy operation and then the copy of the character string is canceled (undo), another gesture meaning cancel is input. Similarly, in order to perform the enlargement operation of the character and the contraction operation opposite thereto, the respective pre-registered gestures are input.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術では、あ
る操作に対しての取り消しを行う場合には、当該ある操
作とは別に登録されているジェスチャ入力を必要とす
る。また、拡大および縮小のような相反する操作につい
ても、別々のジェスチャ入力を行わなければなければな
らない。したがって、種々の操作を行うために、それぞ
れ異なるジェスチャを覚えておく必要があった。特に、
使用するシステムのOSやアプリケーションによってジ
ェスチャは異なっている場合があり、このような場合に
は覚えるべきジェスチャの数は増大し、操作に支障を来
たした。
In the above-mentioned conventional technique, when canceling a certain operation, a gesture input registered separately from the certain operation is required. In addition, separate gesture inputs must be performed for contradictory operations such as enlargement and reduction. Therefore, it is necessary to remember different gestures in order to perform various operations. In particular,
Gestures may differ depending on the OS and application of the system used, and in such a case, the number of gestures to be remembered increases, which hinders operation.

【0004】本発明の目的は、ユーザが覚えるジェスチ
ャの数をできるだけ少なくし、ペン入力の操作性の向上
を図ることができるペン入力操作方法を提供することに
ある。
An object of the present invention is to provide a pen input operation method capable of improving the operability of pen input by minimizing the number of gestures that the user can remember.

【0005】[0005]

【課題を解決するための手段】本発明によるペン入力操
作方法は、ペン入力手段を備えた情報処理装置におい
て、複数の操作に対して予め定められた固有の記号をペ
ンの軌跡で指定して所望の操作を指示するペン入力操作
方法であって、相反する操作に対して同一の記号を割り
当てるとともに、該同一の記号の入力順序によって当該
相反する操作を識別するようにしたことを特徴とする。
According to the pen input operation method of the present invention, in an information processing apparatus equipped with a pen input means, a predetermined unique symbol for a plurality of operations is designated by a trajectory of the pen. A pen input operation method for instructing a desired operation, characterized in that the same symbol is assigned to conflicting operations, and the conflicting operations are identified by the input order of the same symbols. .

【0006】また、本発明によるペン入力手段を備えた
情報処理装置は、前記ペン入力手段により入力された記
号に対して、ペンの軌跡を表わす複数の代表座標点を入
力順に抽出する代表座標点抽出手段と、複数の操作のう
ち、相反する操作の一方に対してのみ固有の記号を割り
当て、そのペンの軌跡を表わす代表座標点を正順に登録
しておく記号登録手段と、前記代表座標点抽出手段によ
り得られた代表座標点を、前記登録された複数の記号の
代表座標点と、正順および逆順に照合することにより、
前記入力手段から指示された操作が前記複数の操作およ
びその相反する操作のうちのいずれの操作であるかを特
定する照合手段とを備えたものである。
Further, the information processing apparatus having the pen input means according to the present invention is a representative coordinate point for extracting a plurality of representative coordinate points representing a locus of the pen with respect to the symbol inputted by the pen input means in the order of input. Extraction means, symbol registration means for assigning a unique symbol to only one of the contradictory operations among a plurality of operations, and registering the representative coordinate points representing the trajectory of the pen in a normal order, and the representative coordinate points. By comparing the representative coordinate points obtained by the extracting means with the representative coordinate points of the plurality of registered symbols, in the normal order and the reverse order,
It is provided with a collating means for specifying which of the plurality of operations and the contradictory operations the operation instructed from the input means is.

【0007】[0007]

【作用】ペン入力指示により、ある操作と反対の操作を
指示する場合、ある操作の記号(ジェスチャ)の書く方
向を逆にしてペン入力することにより、当該反対の操作
を指示することができる。例えば、拡大と縮小の操作に
対しては、同一の記号を割り当て、その各方向を逆にす
ることにより、両者を識別する。また、コピーや移動操
作等については、その相反する操作を取消し操作と考
え、逆方向のペン入力により直前の操作指示を取り消す
こととする。
When an operation opposite to a certain operation is instructed by the pen input instruction, the opposite operation can be instructed by reversing the writing direction of a certain operation (gesture) and inputting the pen. For example, for enlargement and reduction operations, the same symbol is assigned and their directions are reversed to identify the two. Regarding copying and moving operations, the contradictory operations are considered to be cancel operations, and the immediately preceding operation instruction is canceled by pen input in the opposite direction.

【0008】これにより、ユーザはある操作の反対の操
作について別個の記号を覚える必要がなくなり、ユーザ
の覚えるべきジェスチャの数を最大半分に削減すること
ができる。
[0008] With this, the user does not have to remember a separate symbol for an operation opposite to a certain operation, and the number of gestures that the user should remember can be reduced by half.

【0009】[0009]

【実施例】以下、本発明の実施例につき図面を参照して
詳細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0010】図1に、本発明を適用するコンピュータ装
置の外観図を示す。コンピュータ本体11は、その表面
に表示部およびペン入力部を有する。本実施例では、表
示部に重なるペン入力認識領域12内でペン13による
入力が可能である。なお、本構成以外に、このペン入力
認識領域12とコンピュータ本体11とが別々になって
いるものであっても本発明を適用することは可能であ
る。この例では、文字の入力は文字認識領域14内で行
い、ひらがな等をこの領域に入力して漢字などに変換さ
せるが、ペン入力認識領域12と文字認識領域14とが
同一になっているものであってもよい。
FIG. 1 shows an external view of a computer device to which the present invention is applied. The computer main body 11 has a display section and a pen input section on its surface. In this embodiment, it is possible to input with the pen 13 in the pen input recognition area 12 that overlaps the display unit. It should be noted that the present invention can be applied to the case where the pen input recognition area 12 and the computer main body 11 are separately provided in addition to this configuration. In this example, characters are input in the character recognition area 14, and hiragana or the like is input in this area to be converted into kanji or the like, but the pen input recognition area 12 and the character recognition area 14 are the same. May be

【0011】図2は、図1のコンピュータ装置の主要機
能ブロックおよび制御データの流れを示したものであ
る。21は、文字や図形を入力するポインティング入力
部であり、本実施例では、ペンである。22は、入力さ
れた座標データを入力データに変換する為の座標解析処
理部である。24は、あらかじめ登録されているジェス
チャ文字記号を格納する部分である。また、そのジェス
チャの書き順として、数箇所の座標も格納されている。
23は、入力されたデータとジェスチャ記憶部24のデ
ータとのマッチングを行う逆方向認識処理部である。2
5は、これらの処理結果を表示する画面表示部である。
FIG. 2 shows the main functional blocks of the computer system of FIG. 1 and the flow of control data. Reference numeral 21 denotes a pointing input unit for inputting characters and figures, which is a pen in this embodiment. Reference numeral 22 is a coordinate analysis processing unit for converting input coordinate data into input data. Reference numeral 24 is a part for storing gesture character symbols registered in advance. Further, as the writing order of the gesture, the coordinates of several places are also stored.
Reference numeral 23 is a backward direction recognition processing unit that performs matching between the input data and the data of the gesture storage unit 24. Two
Reference numeral 5 denotes a screen display unit that displays these processing results.

【0012】図3は、図1のコンピュータ装置のハード
ウエア構成例を示すブロック図であり、本実施例では、
文字や図形などの編集システムに適用した場合について
説明する。この装置は、主として中央処理装置(CP
U)31、CPU31により実行されるプログラムおよ
びデータを格納する主記憶装置32、実行されたコマン
ド結果を表示する表示装置33、実行されたコマンド結
果を印刷するプリンタ36、プログラムおよびデータ等
を格納する外部記憶装置35、文字や図形を入力するポ
インティングデバイスであるペン入力装置34からな
る。
FIG. 3 is a block diagram showing an example of the hardware configuration of the computer device shown in FIG. 1. In this embodiment,
The case where it is applied to an editing system for characters and figures will be described. This device is mainly a central processing unit (CP
U) 31, a main storage device 32 for storing programs and data executed by the CPU 31, a display device 33 for displaying the executed command results, a printer 36 for printing the executed command results, a program and data, etc. The external storage device 35 includes a pen input device 34 which is a pointing device for inputting characters and figures.

【0013】図2の画面表示部25は表示装置33に対
応し、入力部21はペン入力装置34に対応する。ま
た、図2の座標解析処理部22および逆方向認識処理部
23は、CPU31の機能に該当する。ジェスチャ記憶
部24は、主記憶装置32または外部記憶装置35に対
応する。
The screen display unit 25 of FIG. 2 corresponds to the display device 33, and the input unit 21 corresponds to the pen input device 34. Further, the coordinate analysis processing unit 22 and the backward direction recognition processing unit 23 in FIG. 2 correspond to the function of the CPU 31. The gesture storage unit 24 corresponds to the main storage device 32 or the external storage device 35.

【0014】次に、図4により、本実施例において文字
列のある操作の取り消し(アンドゥ)や図形の属性を変
更する相反する操作の為の、ペンによる操作方法とその
機能を説明する。
Next, referring to FIG. 4, a pen operation method and its function for canceling (undoing) an operation with a character string and changing the attribute of a figure in this embodiment will be described.

【0015】図4(a)は、ある1文字(ここでは
「あ」)に対して、予め定められたジェスチャ41aの
入力によりその文字をコピーする動作を示す。同図
(b)は、そのコピーを取り消す操作を示す。すなわ
ち、ジェスチャ41aと形状は同じであるが、ジェスチ
ャ41aの入力順序(書く方向)42aと逆の入力順序
44aのジェスチャ43aを入力することにより、コピ
ーを取り消すものである。なお、この例では、説明の都
合上、図1の文字認識領域14にある文字に対してコピ
ーのジェスチャを行うとその文字が隣の位置に複写され
るように示したが、一般にコピー&ペーストの動作で
は、画面上でコピーする範囲を指定してコピー動作を行
うと、コピーした内容が特定の記憶領域に書き込まれ、
次に、コピー先の位置を指定してペースト動作を行うと
その位置に前記記憶領域の内容がコピーされる。本実施
例もそのようなコピー操作に適用することができる。
FIG. 4A shows an operation of copying a certain character (here, "A") by inputting a predetermined gesture 41a. FIG. 11B shows an operation for canceling the copy. That is, the copy is canceled by inputting the gesture 43a that has the same shape as the gesture 41a, but has an input order 44a that is the reverse of the input order (writing direction) 42a of the gesture 41a. In this example, for convenience of explanation, it is shown that when a copy gesture is performed on a character in the character recognition area 14 in FIG. 1, the character is copied to the adjacent position, but in general, copy and paste is performed. In the operation of, when the copy operation is performed by specifying the range to be copied on the screen, the copied content is written to the specific storage area,
Next, when the paste operation is performed by designating the copy destination position, the contents of the storage area are copied to that position. This embodiment can also be applied to such a copy operation.

【0016】図5は、ある文字を拡大するジェスチャを
入力して拡大させる操作(同図(a))と、これと反対
の操作であるに縮小操作(同図(b))とを示す。拡大
を指示するジェスチャ41bと、縮小を指示するジェス
チャ43bとは、形状は同一であるが、それぞれの入力
順序の42bと44bとは逆になっている。
FIG. 5 shows an operation of inputting a gesture for enlarging a certain character to enlarge it (FIG. 5A) and an operation of reducing the same (FIG. 5B). The gesture 41b for instructing enlargement and the gesture 43b for instructing reduction have the same shape, but the input order 42b and 44b are opposite.

【0017】図6は、ある図形を拡大するジェスチャを
入力して拡大させる操作(同図(a))と、これを反対
に縮小する操作(同図(b))とを示す。図5と同様、
それぞれのジェスチャ41c,43cの形は同じである
が、その入力順序の42c,44cは逆である。
FIG. 6 shows an operation of inputting a gesture for enlarging a certain figure to enlarge it ((a) in the figure) and an operation to reduce the same (FIG. 6 (b)). Similar to FIG.
The gestures 41c and 43c have the same shape, but the input order 42c and 44c are opposite.

【0018】このように、相反する操作(ある操作とそ
れを取消す操作も相反する操作とする)に対して、入力
順序の異なる同一形状のジェスチャを割り当てることに
より、実質的に記憶すべきジェスチャの数を半減させる
ことが可能になる。
As described above, gestures of the same shape having different input orders are assigned to the contradictory operations (a certain operation and the operation of canceling the same operation are also contradictory operations), so that the gestures to be actually memorized. It is possible to halve the number.

【0019】図7により、複数の操作について予め登録
された複数のジェスチャ命令について説明する。
A plurality of gesture commands registered in advance for a plurality of operations will be described with reference to FIG.

【0020】図7(a1)〜(a4)に示した記号は、
それぞれ、コピー、拡大、色反転、塗りつぶしの各命令
(コマンド)に対応する記号を示す。ここでは、すべて
一筆書きのできる記号を選択している。図中の“×”
は、各記号の重心点、“・”は、各記号を記述する際の
代表座標点である。代表座標点の数の取り方は、いくつ
かあるが、本実施例では、説明簡略化のため4点とす
る。
The symbols shown in FIGS. 7 (a1)-(a4) are as follows:
The symbols corresponding to the copy, enlargement, color inversion, and fill commands are shown respectively. Here, we have selected symbols that can be written in one stroke. "X" in the figure
Is the center of gravity of each symbol, and “•” is the representative coordinate point when describing each symbol. There are several ways to obtain the number of representative coordinate points, but in the present embodiment, four points are used to simplify the description.

【0021】図7(a1)の(x01、y01),(x
02、y02),(x03、y03)(x04、y0
4)は、コピーのジェスチャにおける、重心点を原点と
したときの各代表座標点までの相対座標である。各座標
値の2個の添字番号の前者はジェスチャの通し番号を示
し、後者はその座標の入力順序を示している。他のジェ
スチャについても同様である。
In FIG. 7 (a1), (x01, y01), (x
02, y02), (x03, y03) (x04, y0
4) is a relative coordinate up to each representative coordinate point when the center of gravity is the origin in the copy gesture. The former of the two subscript numbers of each coordinate value indicates the serial number of the gesture, and the latter indicates the input order of the coordinates. The same applies to other gestures.

【0022】図7(b)は、ペンなどのポインティング
デバイスによって実際に入力された文字の軌跡であり、
図7(a1)〜(a4)のジェスチャ(記号)と照合さ
れるものである。この文字についても、重心点および代
表座標点が定まる。図中、(X01、Y01),(X0
2、Y02),(X03、Y03),(X04、Y0
4)は、それぞれ、重心点を原点としたときの各代表座
標点までの相対座標である。
FIG. 7B shows a locus of characters actually input by a pointing device such as a pen,
This is collated with the gestures (symbols) shown in FIGS. 7 (a1) to 7 (a4). Also for this character, the center of gravity and the representative coordinate point are determined. In the figure, (X01, Y01), (X0
2, Y02), (X03, Y03), (X04, Y0
4) are relative coordinates up to the respective representative coordinate points when the center of gravity is the origin.

【0023】図7(c)は、前述の各ジェスチャ命令に
ついて各々のジェスチャ代表座標4点を登録したジェス
チャ代表座標テーブル240を示す。各ジェスチャ命令
に対して、その操作に相反する操作を表わすジェスチャ
逆命令も登録されている。ジェスチャ命令は、文字コー
ドでもよいし、コマンド名称などでもよい。ジェスチャ
逆命令としては、ジェスチャ命令の逆の文字の文字コー
ドや逆のコマンドなどを用いることができる。
FIG. 7C shows a gesture representative coordinate table 240 in which four gesture representative coordinates are registered for each of the above gesture commands. For each gesture command, a gesture reverse command representing an operation contradictory to the operation is also registered. The gesture command may be a character code, a command name, or the like. As the gesture reverse instruction, a character code of a character opposite to the gesture instruction, a reverse command, or the like can be used.

【0024】次に、図8〜図13により、これらの操作
を実現するための処理フローを説明する。これらは、入
力文字とあらかじめ登録されているジェスチャとのマッ
チングを図るための一連の処理フローである。
Next, a processing flow for realizing these operations will be described with reference to FIGS. These are a series of processing flows for matching an input character with a gesture registered in advance.

【0025】まず、図8において、ペンなどのポインテ
ィングデバイスにより、文字や図形の入力を行うと文字
や図形の重心を決定し、入力代表座標を4点抽出し、重
心から入力代表座標点までの相対座標を計算する(10
1)。ジェスチャ代表座標テーブル(図7の240)に
登録された複数のジェスチャと順次マッチングをとるた
め、ジェスチャ代表座標テーブルの一番最初のアドレス
を指定する(102)。ジェスチャ代表座標テーブルに
は、n個のジェスチャが登録されており、最初は、0番
目から始まることとする。ジェスチャ代表座標テーブル
のアドレス変数nを0番目の意味の0にセットする(1
03)。入力X座標第1点目とジェスチャ代表X座標第
1点目との差の絶対値と、入力Y座標第1点目とジェス
チャ代表Y座標第1点目との差の絶対値の和(Tn1)
を算出する。入力X座標第2点目とジェスチャ代表X座
標第2点目との差の絶対値と入力Y座標第2点目とジェ
スチャ代表Y座標第2点目との差の絶対値の和(Tn
2)を算出する。入力X座標第3点目とジェスチャ代表
X座標第3点目との差の絶対値と、入力Y座標第3点目
とジェスチャ代表Y座標第3点目との差の絶対値の和
(Tn3)を算出する。入力X座標第4点目とジェスチ
ャ代表X座標第4点目との差の絶対値と、入力Y座標第
4点目とジェスチャ代表Y座標第4点目との差の絶対値
の和(Tn4)を算出する(104)。Tn1、Tn
2、Tn3、Tn4の和を算出し、TAとしてセーブし
ておく(105)。次のジェスチャの代表座標データを
取得するためにジェスチャ代表座標テーブルのポインタ
を一つインクリメントする(106)。ジェスチャ代表
座標テーブルのポインタが一つ進んだのでnの値も一つ
インクリメントする(107)。このn+1番目のジェ
スチャ代表座標テーブル内容に対して、ステップ104
と同様の計算処理を行い(108)、これにより求まっ
たTn1、Tn2、Tn3、Tn4の和を算出し、これ
をTBとしてセーブしておく(109)。
First, in FIG. 8, when a character or figure is input by a pointing device such as a pen, the center of gravity of the character or figure is determined, four input representative coordinates are extracted, and from the center of gravity to the input representative coordinate point. Calculate relative coordinates (10
1). In order to sequentially match a plurality of gestures registered in the gesture representative coordinate table (240 in FIG. 7), the first address of the gesture representative coordinate table is designated (102). In the gesture representative coordinate table, n gestures are registered, and it is assumed that the gesture starts from the 0th at the beginning. The address variable n of the gesture representative coordinate table is set to 0, which is the 0th meaning (1
03). The sum of the absolute value of the difference between the first point of the input X coordinate and the first point of the gesture representative X coordinate and the absolute value of the difference between the first point of the input Y coordinate and the first point of the gesture representative Y coordinate (Tn1 )
To calculate. Sum of absolute value of difference between input X-coordinate second point and gesture representative X-coordinate second point and absolute value of difference between input Y-coordinate second point and gesture-representative Y-coordinate second point (Tn
2) is calculated. Sum of absolute value of difference between input X-coordinate third point and gesture representative X-coordinate third point and absolute value of difference between input Y-coordinate third point and gesture representative Y-coordinate third point (Tn3 ) Is calculated. The sum of the absolute value of the difference between the fourth point of the input X coordinate and the fourth point of the gesture representative X coordinate and the absolute value of the difference between the fourth point of the input Y coordinate and the fourth point of the gesture representative Y coordinate (Tn4 ) Is calculated (104). Tn1, Tn
The sum of 2, Tn3 and Tn4 is calculated and saved as TA (105). In order to acquire the representative coordinate data of the next gesture, the pointer of the gesture representative coordinate table is incremented by one (106). Since the pointer in the gesture representative coordinate table has advanced by 1, the value of n is also incremented by 1 (107). For the contents of the n + 1th gesture representative coordinate table, step 104
The same calculation process is performed (108), the sum of Tn1, Tn2, Tn3, and Tn4 obtained by this is calculated, and this is saved as TB (109).

【0026】図9に進み、先にセーブしておいたTAと
TBを比較する(110)。TBがTAより小さい場合
は、入力された記号の代表座標に対しては、n+1番目
のジェスチャ代表座標の方が0番目のジェスチャ代表座
標より誤差が少ないとみなし、n+1番目のジェスチャ
命令を候補としてセーブする(111)。そして、TB
の値を変数Ttにセーブしておく(112)。逆に、T
AがTBより小さい場合、入力された記号の代表座標に
対しては、0番目のジェスチャ代表座標の方がn+1番
目のジェスチャ代表座標より誤差が少ないとみなし、0
番目のジェスチャ命令を候補としてセーブする(11
3)。そして、TAの値を変数Ttにセーブしておく
(114)。ジェスチャ代表座標テーブルのポインタを
進める為、nの値を1つインクリメントする(11
5)。次のジェスチャの代表データを取得するために、
ジェスチャ代表座標テーブルのポインタを一つインクリ
メントする(116)。続いて、ステップ104と同様
の計算処理を行い(117)、求まったTn1,Tn
2,Tn3,Tn4の和を算出して、これをTcとして
セーブしておく(118)。
Proceeding to FIG. 9, the previously saved TA and TB are compared (110). When TB is smaller than TA, it is considered that the n + 1th gesture representative coordinate has less error than the 0th gesture representative coordinate with respect to the representative coordinate of the input symbol, and the n + 1th gesture command is set as a candidate. Save (111). And TB
The value of is saved in the variable Tt (112). Conversely, T
When A is smaller than TB, it is considered that the 0th gesture representative coordinate has less error than the n + 1th gesture representative coordinate with respect to the representative coordinate of the input symbol, and 0
Save the th gesture command as a candidate (11
3). Then, the value of TA is saved in the variable Tt (114). In order to advance the pointer of the gesture representative coordinate table, the value of n is incremented by 1 (11
5). To get the representative data of the next gesture,
The pointer of the gesture representative coordinate table is incremented by 1 (116). Subsequently, the same calculation processing as in step 104 is performed (117), and the calculated Tn1 and Tn are obtained.
The sum of 2, Tn3 and Tn4 is calculated and saved as Tc (118).

【0027】図10に進み、先にセーブしておいたTt
の値とTcの値を比較する(119)。Tcの方が小さ
い場合、入力された記号の代表座標に対しては、今回の
ジェスチャ代表座標の方が前回のそれよりも誤差が少な
いとみなし、現在のジェスチャ代表座標テーブルのジェ
スチャ命令をセーブする(120)。そして、Tcの値
をTtにセーブする(121)。これらをジェスチャ代
表座標テーブルに登録されているすべてのジェスチャに
対して行う(122)。すべてのジェスチャ代表座標テ
ーブルに対しての処理を終えたならば、Ttの値が閾値
の範囲内にあるか調べる(123)。ここで、閾値と
は、Ttの値が誤差として容認できるか否かの基準値で
ある。Tcが閾値の範囲内にあったばらば、最終的にセ
ーブされたジェスチャ命令が選択される(124)。T
tが閾値の範囲外ならば、図11の処理へ進む。
Proceeding to FIG. 10, the Tt previously saved
And the value of Tc are compared (119). When Tc is smaller, it is considered that the current gesture representative coordinate has a smaller error than the previous gesture representative coordinate of the input symbol, and the gesture command of the current gesture representative coordinate table is saved. (120). Then, the value of Tc is saved in Tt (121). These are performed for all the gestures registered in the gesture representative coordinate table (122). When the processing for all gesture representative coordinate tables is completed, it is checked whether the value of Tt is within the threshold range (123). Here, the threshold value is a reference value of whether the value of Tt is acceptable as an error. If Tc is within the threshold range, the finally saved gesture command is selected (124). T
If t is out of the threshold range, the process proceeds to FIG.

【0028】図11では、入力文字をジェスチャ逆命令
についてマッチングを図るため、ジェスチャ代表座標テ
ーブルの先頭アドレスを再指定する(225)。そし
て、初期値0をセットする(226)。入力X座標第1
点目とジェスチャ代表X座標第4点目との差の絶対値
と、入力Y座標第1点目とジェスチャ代表Y座標第4点
目との差の絶対値の和(Tn1)を算出する。入力X座
標第2点目とジェスチャ代表X座標第3点目との差の絶
対値と、入力Y座標第2点目とジェスチャ代表Y座標第
3点目との差の絶対値の和(Tn2)を算出する。入力
X座標第3点目とジェスチャ代表X座標第2点目との差
の絶対値と、入力Y座標第3点目とジェスチャ代表Y座
標第2点目との差の絶対値の和(Tn3)を算出する。
入力X座標第4点目とジェスチャ代表X座標第1点目と
の差の絶対値と、入力Y座標第4点目とジェスチャ代表
Y座標第1点目との差の絶対値の和(Tn4)を算出す
る(227)。Tn1,Tn2,Tn3,Tn4の和を
算出し、TAとしてセーブしておく(228)。次のジ
ェスチャの代表座標データを取得するためにジェスチャ
代表座標テーブルのポインタを一つインクリメントする
(229)。ジェスチャ代表座標テーブルのポインタが
一つ進んだので、nの値も一つインクリメントする(2
30)。n+1番目のジェスチャ代表座標テーブルに対
して、ステップ227と同様の計算処理を行い(23
1)、求まったTn1,Tn2,Tn3,Tn4の和を
算出し、TBとしてセーブしておく(232)。
In FIG. 11, in order to match the input character with the gesture reverse instruction, the head address of the gesture representative coordinate table is redesignated (225). Then, the initial value 0 is set (226). Input X coordinate 1st
The sum (Tn1) of the absolute value of the difference between the point and the gesture representative X-coordinate fourth point and the difference between the input Y-coordinate first point and the gesture representative Y-coordinate fourth point is calculated. Sum of absolute value of difference between input X-coordinate second point and gesture representative X-coordinate third point and absolute value of difference between input Y-coordinate second point and gesture representative Y-coordinate third point (Tn2 ) Is calculated. Sum of absolute value of difference between input X-coordinate third point and gesture representative X-coordinate second point and absolute value of difference between input Y-coordinate third point and gesture representative Y-coordinate second point (Tn3 ) Is calculated.
The sum of the absolute value of the difference between the fourth point of the input X coordinate and the first point of the gesture representative X coordinate and the absolute value of the difference between the fourth point of the input Y coordinate and the first point of the gesture representative Y coordinate (Tn4 ) Is calculated (227). The sum of Tn1, Tn2, Tn3 and Tn4 is calculated and saved as TA (228). In order to acquire the representative coordinate data of the next gesture, the pointer of the gesture representative coordinate table is incremented by 1 (229). Since the pointer in the gesture representative coordinate table has advanced by 1, the value of n is also incremented by 1 (2
30). The same calculation processing as in step 227 is performed on the (n + 1) th gesture representative coordinate table (23
1), the calculated sum of Tn1, Tn2, Tn3 and Tn4 is calculated and saved as TB (232).

【0029】図12に進み、先にセーブしておいたTA
とTBとを比較する(233)。TBの方が小さい場
合、入力された記号の代表座標に対しては、n+1番目
のジェスチャ代表座標の方が0番目のジェスチャ代表座
標より誤差が少ないとみなし、n+1番目のジェスチャ
逆命令を候補としてセーブする(234)。そしてTB
の値を変数Ttにセーブしておく(235)。TAの方
が小さい場合、入力された記号の代表座標に対しては、
0番目のジェスチャ代表座標の方がn+1番目のジェス
チャ代表座標より誤差が少ないとみなし、0番目のジェ
スチャ逆命令を候補としてセーブする(236)。そし
て、TAの値を変数Ttにセーブしておく(237)。
ジェスチャ代表座標テーブルのポインタを進めるため、
nの値を一つインクリメントする(238)。次のジェ
スチャの代表座標データを取得するためにジェスチャ代
表座標テーブルのポインタを一つインクリメントする
(239)。次に、ステップ227と同様の計算処理を
行い(240)、求まったTn1,Tn2,Tn3,T
n4の和を算出して、これをTcとしてセーブしておく
(241)。
Proceeding to FIG. 12, the TA previously saved
And TB are compared (233). When TB is smaller, it is considered that the n + 1th gesture representative coordinate has less error than the 0th gesture representative coordinate with respect to the representative coordinates of the input symbol, and the n + 1th gesture reverse instruction is set as a candidate. Save (234). And TB
The value of is saved in the variable Tt (235). If TA is smaller than the representative coordinates of the input symbol,
It is considered that the 0th gesture representative coordinate has less error than the (n + 1) th gesture representative coordinate, and the 0th gesture reverse instruction is saved as a candidate (236). Then, the value of TA is saved in the variable Tt (237).
To move the pointer of the gesture representative coordinate table,
The value of n is incremented by one (238). In order to acquire the representative coordinate data of the next gesture, the pointer of the gesture representative coordinate table is incremented by one (239). Next, the same calculation process as in step 227 is performed (240), and the calculated Tn1, Tn2, Tn3, T
The sum of n4 is calculated and saved as Tc (241).

【0030】図13に進み、先にセーブしておいたTt
の値とTcの値を比較する(242)。Tcの方がが小
さい場合、入力された記号の代表座標に対しては、今回
のジェスチャ代表座標の方が前回のそれよりも誤差が少
ないとみなし、現在のジェスチャ代表テーブルのジェス
チャ逆命令をセーブする(243)。そして、Tcの値
をTtにセーブする(244)。これらをジェスチャ代
表座標テーブルに登録されているすべてのジェスチャに
対して繰り返す(245)。すべてのジェスチャ代表座
標テーブルに対しての処理を終えたならば、Ttの値が
閾値の範囲内にあるか否かを調べる(246)。Ttが
閾値の範囲内にあったならば、最終的にセーブされたジ
ェスチャ逆命令が選択される(247)。Ttが閾値の
範囲外ならば、エラーコードをセットして(248)、
ジェスチャ命令を選択せずにリターンする。
Proceeding to FIG. 13, the Tt previously saved
And the value of Tc are compared (242). When Tc is smaller, it is considered that the current gesture representative coordinate has less error than the previous gesture representative coordinate of the input symbol, and the gesture reverse instruction of the current gesture representative table is saved. Yes (243). Then, the value of Tc is saved in Tt (244). These are repeated for all the gestures registered in the gesture representative coordinate table (245). When the processing for all gesture representative coordinate tables is completed, it is checked whether the value of Tt is within the threshold range (246). If Tt is within the threshold, then the finally saved gesture reverse instruction is selected (247). If Tt is outside the threshold range, set an error code (248),
Return without selecting the gesture command.

【0031】[0031]

【発明の効果】本発明によれば、ペンなどのポインティ
ングデバイスでジェスチャを用いて文字や図形などに対
してある操作を行った後、その操作の反対の操作を行う
ときは、今入力したジェスチャと同じ文字を入力順序を
逆に入力するだけでよく、両操作について別個のジェス
チャを覚える必要がない。さらに、このジェスチャの文
字の入力順序を逆に入力するという行為は、人間の生理
的動作に合致するものであり、ユーザにとって違和感が
なく、操作性が向上する。
According to the present invention, when a gesture or the like is used to perform a certain operation on a character or a figure with a pointing device such as a pen and then the opposite operation is performed, the gesture just entered You only have to enter the same characters in the reverse order and you do not have to remember separate gestures for both operations. Further, the act of inputting the input order of the characters of the gesture is in conformity with the physiological action of a human, and the user does not feel uncomfortable and the operability is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用するコンピュータ装置の外観図で
ある。
FIG. 1 is an external view of a computer device to which the present invention is applied.

【図2】図1のコンピュータ装置の主要機能ブロック図
である。
FIG. 2 is a main functional block diagram of the computer device in FIG.

【図3】図1のコンピュータ装置のハードウエア構成例
を示すブロック図である。
FIG. 3 is a block diagram showing a hardware configuration example of the computer device of FIG.

【図4】実施例における、文字のコピー操作およびその
取消操作の方法の説明図である。
FIG. 4 is an explanatory diagram of a method of a character copy operation and a character cancellation operation in the embodiment.

【図5】実施例における、文字の拡大操作および縮小操
作の方法の説明図である。
FIG. 5 is an explanatory diagram of a method of enlarging and reducing a character according to the embodiment.

【図6】実施例における、図形の拡大操作および縮小操
作の方法の説明図である。
FIG. 6 is an explanatory diagram of a method of enlarging and reducing a graphic according to the embodiment.

【図7】実施例における、登録されたジェスチャの説明
図である。
FIG. 7 is an explanatory diagram of registered gestures according to the embodiment.

【図8】実施例におけるジェスチャー認識処理の一部の
フローチャートである。
FIG. 8 is a flowchart of part of the gesture recognition process in the embodiment.

【図9】実施例におけるジェスチャー認識処理の一部の
フローチャートである。
FIG. 9 is a flowchart of a part of the gesture recognition process in the embodiment.

【図10】実施例におけるジェスチャー認識処理の一部
のフローチャートである。
FIG. 10 is a flowchart of part of the gesture recognition process in the embodiment.

【図11】実施例におけるジェスチャー認識処理の一部
のフローチャートである。
FIG. 11 is a flowchart of part of the gesture recognition process in the embodiment.

【図12】実施例におけるジェスチャー認識処理の一部
のフローチャートである。
FIG. 12 is a flowchart of part of the gesture recognition process in the embodiment.

【図13】実施例におけるジェスチャー認識処理の一部
のフローチャートである。
FIG. 13 is a flowchart of part of the gesture recognition process in the example.

【符号の説明】[Explanation of symbols]

21…入力装置、22…座標解析処理、23…逆方向認
識処理、24…ジェスチャ記憶部、21…画面表示装置
21 ... Input device, 22 ... Coordinate analysis process, 23 ... Reverse direction recognition process, 24 ... Gesture storage unit, 21 ... Screen display device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】ペン入力手段を備えた情報処理装置におい
て、複数の操作に対して予め定められた固有の記号をペ
ンの軌跡で指定して所望の操作を指示するペン入力操作
方法であって、 相反する操作に対して同一の記号を割り当てるととも
に、該同一の記号の入力順序によって当該相反する操作
を識別するようにしたことを特徴とするペン入力操作方
法。
1. An information processing apparatus having pen input means, comprising: a pen input operation method of designating a predetermined unique symbol for a plurality of operations by a trajectory of a pen to instruct a desired operation. A pen input operation method, wherein the same symbol is assigned to the contradictory operations, and the contradictory operations are identified by the input order of the same symbols.
【請求項2】前記記号は一筆書きのできる記号とし、前
記相反する操作についてその書く方向を異ならせたこと
を特徴とする請求項1記載のペン入力操作方法。
2. The pen input operation method according to claim 1, wherein the symbol is a symbol that can be written with one stroke, and the writing directions of the conflicting operations are different.
【請求項3】ペン入力手段を備えた情報処理装置におい
て、 前記ペン入力手段により入力された記号に対して、ペン
の軌跡を表わす複数の代表座標点を入力順に抽出する代
表座標点抽出手段と、 複数の操作のうち、相反する操作の一方に対してのみ固
有の記号を割り当て、そのペンの軌跡を表わす代表座標
点を正順に登録しておく記号登録手段と、 前記代表座標点抽出手段により得られた代表座標点を、
前記登録された複数の記号の代表座標点と、正順および
逆順に照合することにより、前記入力手段から指示され
た操作が前記複数の操作およびその相反する操作のうち
のいずれの操作であるかを特定する照合手段とを備えた
ことを特徴とする情報処理装置。
3. An information processing apparatus having a pen input means, and a representative coordinate point extracting means for extracting a plurality of representative coordinate points representing a locus of the pen with respect to a symbol input by the pen input means in an input order. Of the plurality of operations, a unique symbol is assigned only to one of the contradictory operations, and the symbol registration means for registering the representative coordinate points representing the trajectory of the pen in the normal order, and the representative coordinate point extracting means. The obtained representative coordinate points are
By comparing the representative coordinate points of the plurality of registered symbols with the normal order and the reverse order, which of the plurality of operations and the contradictory operation is the operation instructed from the input means. An information processing apparatus comprising: a collating unit that identifies
JP28469592A 1992-10-22 1992-10-22 Pen input operation method and information processor Pending JPH06131107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28469592A JPH06131107A (en) 1992-10-22 1992-10-22 Pen input operation method and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28469592A JPH06131107A (en) 1992-10-22 1992-10-22 Pen input operation method and information processor

Publications (1)

Publication Number Publication Date
JPH06131107A true JPH06131107A (en) 1994-05-13

Family

ID=17681783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28469592A Pending JPH06131107A (en) 1992-10-22 1992-10-22 Pen input operation method and information processor

Country Status (1)

Country Link
JP (1) JPH06131107A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325322A (en) * 2003-04-25 2004-11-18 Denso Corp Navigation system
JP2010039694A (en) * 2008-08-04 2010-02-18 Yahoo Japan Corp Character decoration server, device, method, and system
JP2010273358A (en) * 2005-10-25 2010-12-02 Kyocera Corp Input device for inputting passwords and the like and cellular phone apparatus having the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325322A (en) * 2003-04-25 2004-11-18 Denso Corp Navigation system
JP2010273358A (en) * 2005-10-25 2010-12-02 Kyocera Corp Input device for inputting passwords and the like and cellular phone apparatus having the same
JP2010039694A (en) * 2008-08-04 2010-02-18 Yahoo Japan Corp Character decoration server, device, method, and system

Similar Documents

Publication Publication Date Title
JPH029385B2 (en)
JPH06131107A (en) Pen input operation method and information processor
JPH0696177A (en) Graphic relating edit processing method and editor
JPH08255221A (en) Character graphic input editing device
JPS61121185A (en) Input and output device for character graphic
JP2738851B2 (en) Input data processing display method using multiple cursors
JPH06175776A (en) Presentation device
JPH09167248A (en) Plotting device
JPS6366630A (en) Input device for print position
JP2539066B2 (en) Handwriting input processing device
JP3785205B2 (en) Tablet input device and tablet input method
JPH11212968A (en) Document processor and document processing method
JPH01161483A (en) Document editing device
JPH05189139A (en) Command input method and information processor
JP2531502B2 (en) Character processing method
JP3227219B2 (en) Information processing method and apparatus
JP2560690B2 (en) Display controller
JPH08171473A (en) Display device and method for classifying and displaying picture data therefor
JPH0218670A (en) Cad device
JP2605690B2 (en) Image creation device
JPH07121663A (en) Character recognizing method/device
JPS5933578A (en) Display system of manually written diagram information
JPH02250178A (en) Graphic generator
JP2640134B2 (en) Keyboard for outline font development device
JP3184048B2 (en) Oblique line drawing device