JPH06289983A - Handwritten input information processor - Google Patents

Handwritten input information processor

Info

Publication number
JPH06289983A
JPH06289983A JP4225280A JP22528092A JPH06289983A JP H06289983 A JPH06289983 A JP H06289983A JP 4225280 A JP4225280 A JP 4225280A JP 22528092 A JP22528092 A JP 22528092A JP H06289983 A JPH06289983 A JP H06289983A
Authority
JP
Japan
Prior art keywords
gesture
handwriting
symbol
input
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4225280A
Other languages
Japanese (ja)
Other versions
JP3398981B2 (en
Inventor
Yoshihiro Wakita
能宏 脇田
Toshifumi Arai
俊史 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Sony Corp
Original Assignee
Hitachi Ltd
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Sony Corp filed Critical Hitachi Ltd
Priority to JP22528092A priority Critical patent/JP3398981B2/en
Publication of JPH06289983A publication Critical patent/JPH06289983A/en
Application granted granted Critical
Publication of JP3398981B2 publication Critical patent/JP3398981B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To deal with vertical/horizontal writing and Japanese words by specifying an editing proofreading symbol which is the most similar to a handwriting form without regard to the directional habit of the handwriting form. CONSTITUTION:A tablet controller 58 controls a tablet provided on a display and tablet block 59 as a coordinate input means generating coordinate data corresponding to handwriting by a stylus pen 60. CPU 51 is provided with functions as a symbol discriminating means recognizing the handwriting form based on coordinate data generated by the coordinate input means and specifying the editing proofreading symbol which is the most similar to the recognized handwriting form from among plural editing proofreading symbol previously defined within a system ROM 52 without regard to the directional habit of the handwriting form and an editing proofreading means executing an editing proofreading processing to an editing proofreading object in correspondence to a function assigned to the specified editing proofreading symbol. Thereby, this processor can handle vertical/horizontal handwriting and Japanese words.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばペン等からの手
書き入力による文字や図形等を認識して処理する手書き
入力情報処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a handwriting input information processing apparatus for recognizing and processing characters, figures, etc. by handwriting input from a pen or the like.

【0002】[0002]

【従来の技術】従来より、コンピュータによって文書や
図形を編集する場合、例えばディスプレイ上にメニュー
を表示し、その中からカーソル等を用いて所望のメニュ
ーを選択し、更に所望の文字や文節,文章或いは図形等
を選択して編集処理を行う方式が存在する。具体的に
は、ディスプレイ上に、ファイルキャビネットや文書受
けトレー等を表示し、これを座標入力装置で選択する方
式がある。
2. Description of the Related Art Conventionally, when a document or figure is edited by a computer, for example, a menu is displayed on a display, a desired menu is selected from the menu by using a cursor, and a desired character, phrase, sentence Alternatively, there is a method in which a graphic or the like is selected and an editing process is performed. Specifically, there is a system in which a file cabinet, a document receiving tray, or the like is displayed on the display, and this is selected by the coordinate input device.

【0003】しかし、上記方式では、カーソルを上下左
右に頻繁に移動して編集を実行するため、凝視点が移動
してオペレータの思考が乱れがちであり、作業能率が低
下すると言う欠点がある。
However, in the above-mentioned method, since the cursor is frequently moved up, down, left, and right to perform the editing, the fixation point is likely to move, the operator's thinking is likely to be disturbed, and the work efficiency is lowered.

【0004】このため、最近は、従来のキーボードやマ
ウスの代わりに、ペン(スタイラスペン)で操作するコ
ンピュータが発表されている。
For this reason, recently, a computer operated by a pen (stylus pen) has been announced instead of the conventional keyboard and mouse.

【0005】このペン操作型コンピュータは、例えばセ
ンサが設けられた液晶画面に表示されているメニューを
上記スタイラスペンで触れるだけで操作が行える事と、
片手で入力が可能な事、初心者による操作が容易な事、
更に例えば既に作成された文書や図形等を画面上に呼出
して編集をするのに便利な事が特徴となっている。
This pen-operated computer can be operated by simply touching the menu displayed on the liquid crystal screen provided with a sensor with the stylus pen.
It is possible to input with one hand, easy for beginners to operate,
Further, it is characterized in that it is convenient for, for example, recalling an already created document or figure on the screen for editing.

【0006】ここで、上記編集においては、いわゆるジ
ェスチャと呼ばれるコマンド(編集校正記号)をスタイ
ラスペンで画面上に描くことにより、例えば文書の挿入
や削除等の処理が行われる。
Here, in the above-mentioned editing, by drawing a command (editing proof symbol), which is a so-called gesture, on the screen with a stylus pen, a process such as inserting or deleting a document is performed.

【0007】また、上記ジェスチャとしては、例えば表
1の表(1) に示すようなものが使用されている。
As the gesture, for example, the one shown in Table (1) of Table 1 is used.

【0008】[0008]

【表1】 [Table 1]

【0009】[0009]

【発明が解決しようとする課題】ところで、上述したよ
うなペン入力による従来のコンピュータ(手書き入力情
報処理装置)は、基本的に欧米文字のように横書きの文
字入力に対応したジェスチャが使用されるようになされ
ており、日本語対応が充分でないことが欠点となってい
る。
By the way, in the conventional computer (handwriting input information processing device) for pen input as described above, a gesture corresponding to horizontal character input such as Western characters is basically used. The problem is that the Japanese language support is not sufficient.

【0010】すなわち、上記ジェスチャには、日本語の
文字・記号群に含まれる形状と同じものが異なった意味
に使用されている。例えば、表1の表(1) に示すジェス
チャの機能の内の“改行”の機能を示すジェスチャは、
日本語における指定文字列の終端を示す(」:かぎかっ
こ)と形状的に同じものが使用されている。
That is, as the gesture, the same shape as that included in the Japanese character / symbol group is used for different meanings. For example, among the gesture functions shown in Table (1) of Table 1, the gesture showing the function of "line feed" is
The same shape is used as the end of the designated character string in Japanese (": angle brackets).

【0011】また、日本語は、縦書きと横書きの両方を
使用できるものであるが、上記従来のジェスチャは横書
き専用として開発されているため、縦書き対しては正確
に規定されていない。
Also, Japanese can use both vertical writing and horizontal writing, but since the above-mentioned conventional gesture is developed for horizontal writing only, it is not accurately specified for vertical writing.

【0012】そこで本発明は、縦書き,横書きの双方及
び日本語にも対応でき、更に操作性をも向上させた手書
き入力情報処理装置を提供することを目的とするもので
ある。
Therefore, an object of the present invention is to provide a handwriting input information processing apparatus which can handle both vertical writing and horizontal writing and Japanese and has improved operability.

【0013】[0013]

【課題を解決するための手段】本発明の手書き入力情報
処理装置は、上述の目的を達成するために提案されたも
のであり、編集校正対象を表示する表示手段と、筆跡に
応じた座標データを生成する座標入力手段と、前記座標
入力手段で生成された座標データを、予め定義されてい
る複数の編集校正記号の中から、認識した筆跡形状に最
も類似した編集校正記号に基づいて認識し、その筆跡形
状の方向性にかかわらず特定する記号判別手段と、前記
記号判別手段によって特定された編集校正記号に割り当
てられている機能に応じて前記編集校正対象に対して編
集校正処理を施す編集校正処理手段とを具備するもので
ある。
DISCLOSURE OF THE INVENTION The handwriting input information processing apparatus of the present invention has been proposed in order to achieve the above-mentioned object, and is a display means for displaying an editing and proofreading object and coordinate data according to handwriting. Recognizing the coordinate input means for generating, and the coordinate data generated by the coordinate input means based on the edit calibration symbol most similar to the recognized handwriting shape from among the plurality of predefined edit calibration symbols. , A symbol discriminating means for specifying regardless of the directionality of the handwriting shape, and an edit and proofreading process for the editing and proofreading object according to the function assigned to the editing and proofreading symbol specified by the symbol discriminating means. And a calibration processing means.

【0014】ここで、前記記号判別手段によって特定さ
れた編集校正記号に割り当てられている機能を解釈し、
前記筆跡形状の記入位置に隣接する編集校正対象の属性
に応じて変化する機能である場合は、前記編集校正対象
に対する前記筆跡形状の向きに応じて機能を一義的に解
釈する機能解釈手段を有し、前記編集校正処理手段で
は、前記編集校正対象に対して、前記機能解釈手段によ
って解釈された機能に対応した編集校正処理を施すよう
にしている。
Here, the function assigned to the editing proof symbol identified by the symbol discriminating means is interpreted,
In the case of a function that changes according to the attribute of the edit proof object adjacent to the handwriting shape entry position, there is a function interpreting unit that uniquely interprets the function according to the direction of the handwriting shape with respect to the edit proof object. Then, the edit / proofreading processing means performs the edit / proofreading processing corresponding to the function interpreted by the function interpreting means on the edit / proofreading target.

【0015】また、上記編集校正記号は、上記編集校正
対象が文字である場合には上記編集校正対象を仮名漢字
変換する始点から終点までの範囲と仮名漢字変換の指示
とを連続した筆跡で指定する仮名漢字変換記号(仮名漢
字変換ジェスチャ)とする。
When the edit proofreading object is a character, the edit proofreading symbol specifies a range from a start point to an end point for converting the edit proofreading object into kana-kanji and a kana-kanji conversion instruction in a continuous handwriting. Kana to Kanji conversion symbol (Kana to Kanji conversion gesture).

【0016】この時、上記仮名漢字変換ジェスチャの形
状としては終点左回りの形状や、終点右回りの形状、始
点左回りの形状、始点右回りの形状とすることができ
る。
At this time, the kana-kanji conversion gesture may have a left-handed ending shape, a right-handed ending shape, a left-handed starting shape, or a right-handed starting shape.

【0017】さらに、上記編集校正記号は、編集校正処
理コマンド(ジェスチャコマンド)の効果を取り消すと
共に座標データへの変換を指示する変換ジェスチャ及び
/又は座標データの入力を取り消すと共にジェスチャコ
マンドへの変換を指示する変換ジェスチャとする。
Further, the edit proof symbol cancels the effect of the edit proof processing command (gesture command) and cancels the input of the conversion gesture and / or the coordinate data to instruct the conversion to the coordinate data, and the conversion to the gesture command. It is a conversion gesture to instruct.

【0018】また更に、上記編集校正記号は編集校正対
象の属性に応じたパラメータを設定する引き出し線記号
(引き出し線ジェスチャ)や、入力の終了を指示する入
力終了ジェスチャとすることができる。
Further, the edit proof symbol may be a lead line symbol (lead line gesture) for setting a parameter according to the attribute of the edit proof and an input end gesture for instructing the end of input.

【0019】その他、本発明の手書き入力情報処理装置
は、実行済の編集校正処理に対応する編集校正記号に応
じた情報を保持し、当該編集校正記号に応じた情報を上
記表示手段に表示することができ、また、先に入力され
た編集校正記号の機能を、当該編集校正記号に応じた情
報の表示の上に入力された編集校正記号で修飾する機能
を有し、更に、複数の編集校正記号の各々の機能に対応
した編集校正処理を一括して行う際に、特定の編集校正
記号に対しては当該特定の編集校正記号の機能を即時実
行する機能を有することができる。
In addition, the handwriting input information processing apparatus of the present invention holds information corresponding to the edited proofreading symbol corresponding to the executed editing proofreading process, and displays the information according to the edited proofreading symbol on the display means. In addition, it has the function of modifying the function of the previously entered edit calibration symbol with the edit calibration symbol entered on the display of information according to the edit calibration symbol, and further When collectively performing the edit proofreading processing corresponding to each function of the proofreading symbol, it is possible to have a function of immediately executing the function of the particular edit proofreading symbol for the particular edit proofing symbol.

【0020】[0020]

【作用】本発明の手書き入力情報処理装置によれば、記
号判別手段は、認識した筆跡形状に最も類似した編集校
正記号をその筆跡形状の方向性にかかわらず特定するよ
うにしているため、縦書き,横書きの何れであっても対
応することができるようになる。
According to the handwriting input information processing apparatus of the present invention, the symbol discriminating means specifies the editing proof symbol most similar to the recognized handwriting shape regardless of the directionality of the handwriting shape. It will be possible to handle both writing and horizontal writing.

【0021】[0021]

【実施例】以下、本発明の手書き入力情報処理装置の実
施例について図面を参照しながら説明する。
Embodiments of the handwriting input information processing apparatus of the present invention will be described below with reference to the drawings.

【0022】本実施例の手書き入力情報処理装置は、図
1に示すように、例えば文字,図形等の編集校正対象を
表示する表示手段としての液晶表示部を有する表示・タ
ブレットブロック59と、スタイラスペン60による筆
跡に応じた座標データを生成する座標入力手段としての
上記表示・タブレットブロック59上に設けられるタブ
レット及びこのタブレットをコントロールするタブレッ
トコントローラ85と、前記座標入力手段で生成された
座標データに基づいて筆跡形状を認識し例えばシステム
ROM(リード・オンリー・メモリ)52内に予め定義
されている複数の編集校正記号(以下ジェスチャとす
る)の中から認識した筆跡形状に最も類似したジェスチ
ャをその筆跡形状の方向性にかかわらず特定する記号判
別手段及び当該記号判別手段によって特定されたジェス
チャに割り当てられている機能に応じて前記編集校正対
象に対して編集校正処理を施す編集校正処理手段として
の機能を有するCPU(中央処理ユニット)51とを具
備するものである。
As shown in FIG. 1, the handwriting input information processing apparatus of the present embodiment has a display / tablet block 59 having a liquid crystal display unit as a display means for displaying an object to be edited and calibrated such as characters and figures, and a stylus. A tablet provided on the display / tablet block 59 as a coordinate input means for generating coordinate data according to the handwriting by the pen 60, a tablet controller 85 for controlling the tablet, and coordinate data generated by the coordinate input means. For example, a gesture most similar to the handwriting shape recognized from the plurality of editing calibration symbols (hereinafter referred to as gestures) defined in advance in the system ROM (read only memory) 52 is recognized. Symbol identifying means for identifying regardless of the directionality of handwriting shape and the symbol And a CPU (central processing unit) 51 having a function as an editing and proofreading processing means for performing an editing and proofreading process on the editing and proofreading object according to a function assigned to a gesture specified by another means. is there.

【0023】言い換えれば、本実施例の手書き入力情報
処理装置のCPU51は、上記記号判別手段としての機
能と共に、当該記号判別手段によって特定されたジェス
チャに割り当てられている機能を解釈し、前記筆跡形状
の記入位置に隣接する編集校正対象の属性に応じて変化
する機能である場合には、前記編集校正対象に対する前
記筆跡形状の向きに応じて機能を一義的に解釈する機能
解釈手段の機能と、前記編集校正対象に対して前記機能
解釈手段によって解釈された機能に対応した編集校正処
理を施す編集校正処理手段の機能とを有するものであ
る。
In other words, the CPU 51 of the handwriting input information processing apparatus according to the present embodiment interprets the function assigned to the gesture specified by the symbol identifying means as well as the function as the symbol identifying means, and the handwriting shape is obtained. In the case of a function that changes according to the attribute of the editing proofreading object adjacent to the entry position, the function of the function interpreting means that uniquely interprets the function according to the direction of the handwriting shape with respect to the editing proofing work, It has a function of an editing and proofreading processing means for performing an editing and proofreading processing corresponding to the function interpreted by the function interpreting means on the editing and proofreading object.

【0024】すなわち、この図1において、本実施例装
置は、メインバスを介して各構成要素を制御する上記C
PU51と、システムのプログラム及び後述する各テー
ブルの内容や上記予め定義されている複数のジェスチャ
の情報が格納されている上記システムROM52と、処
理途中データ等が書込/読出されるワークRAM55
と、上記液晶(LCD)表示部及びダブレットからなる
表示・タブレットブロック59と、筆跡入力手段として
のスタイラスペン60と、メインバスを介して上記CP
U51に接続されると共に上記表示・タブレットブロッ
ク59と接続され上記タブレットをコントロールするタ
ブレットコントローラ58と、メインバスを介して上記
CPU51と接続されると共に上記表示・タブレットブ
ロック59の液晶表示部をコントロールするLCDコン
トローラ57と、画像表示用データを書込/読出する上
記LCDコントローラ57及びCPU51により制御さ
れるビデオRAM56と、キーの打鍵による使用者の文
字入力や編集操作等を受け付けるキーボード54と、当
該キーボード54をコントロールするキーボードコント
ローラ53とからなるものである。
That is, in FIG. 1, the apparatus of the present embodiment controls the above-mentioned C which controls each constituent element via the main bus.
The PU 51, the system ROM 52 in which the program of the system and the contents of each table to be described later and the information of the above-mentioned plurality of gestures are stored, and the work RAM 55 in / from which data in the process is written / read out.
A display / tablet block 59 including the liquid crystal (LCD) display section and the doublet, a stylus pen 60 as a handwriting input means, and the CP via the main bus.
A tablet controller 58 connected to the U51 and connected to the display / tablet block 59 to control the tablet, and connected to the CPU 51 via the main bus, and controls the liquid crystal display unit of the display / tablet block 59. An LCD controller 57, a video RAM 56 controlled by the LCD controller 57 and the CPU 51 for writing / reading image display data, a keyboard 54 for receiving a user's character input and editing operation by keystrokes, and the keyboard. The keyboard controller 53 controls 54.

【0025】なお、本実施例の手書き入力情報処理装置
の全体構成(外観)は、図2に示すようになものであ
る。すなわち、この図2において、本実施例装置は、上
記表示・タブレットブロック59に例えば文字,図形や
上記スタイラスペン60(図2ではスタイラスペン3)
による筆跡が入力及び表示されると共に内部にマイクロ
コンピュータ(上記CPU51や各コントローラ57,
58,53やROM52,RAM55,56等)を内蔵
しプログラムにより後述する本実施例の各種動作を行う
表示・タブレットブロック59(図22では1)の液晶
表示部と、使用者(ユーザ,オペレータ)が上記表示・
タブレットブロック59の液晶表示部上の任意の位置を
指示することによりその座標値が計測される表示・タブ
レットブロック59のタブレット入力装置とペン3(図
1のタブレット及びスタイラスペン60)と、上記キー
ボード2(図1のキーボード54)とからなるものであ
る。
The overall structure (appearance) of the handwriting input information processing apparatus of this embodiment is as shown in FIG. That is, in this FIG. 2, the apparatus of this embodiment has, for example, characters, figures, and the stylus pen 60 (the stylus pen 3 in FIG. 2) on the display / tablet block 59.
Handwriting is input and displayed, and a microcomputer (the CPU 51 and each controller 57,
58, 53, ROM 52, RAM 55, 56, etc.) and performs various operations of this embodiment described later by a program. A liquid crystal display unit of a display / tablet block 59 (1 in FIG. 22) and a user (user, operator). Is displayed above
A display whose coordinate values are measured by pointing an arbitrary position on the liquid crystal display of the tablet block 59. The tablet input device of the tablet block 59, the pen 3 (tablet and stylus pen 60 in FIG. 1), and the keyboard. 2 (keyboard 54 in FIG. 1).

【0026】ここで、本実施例装置の具体的な内容の説
明に先立ち、本発明実施例の特徴及び基本思想について
以下に説明する。
Here, prior to the description of the specific contents of the apparatus of this embodiment, the features and basic idea of the embodiment of the present invention will be described below.

【0027】本発明実施例では、例えば表2の表(2) 〜
表6の表(6) に示すようなジェスチャを用いることで、
以下に示すような特徴を有するものとしている。なお、
表2の表(2) には、従来のジェスチャ(前述した表(1)
のジェスチャ)と対応する本実施例でのジェスチャを示
している。また、表3の(3) には基本となるジェスチャ
を示し、表4の表(4) には文字列操作のジェスチャを、
表5の表(5) には高速操作に対応するジェスチャを、表
6の表(6) には後述の一括実行型編集で使用するジェス
チャを示している。
In the embodiment of the present invention, for example, Table (2)-
By using the gestures shown in Table (6) of Table 6,
It is assumed to have the following features. In addition,
Table 2 (2) in Table 2 shows the conventional gesture (Table 1 above).
Gesture) in the present embodiment, which corresponds to the (gesture of). Table 3 (3) shows the basic gestures, and Table 4 (4) shows the character string manipulation gestures.
Table 5 (5) of Table 5 shows gestures corresponding to high-speed operations, and Table 6 (6) of Table 6 shows gestures used in the batch execution type editing described later.

【0028】[0028]

【表2】 [Table 2]

【0029】[0029]

【表3】 [Table 3]

【0030】[0030]

【表4】 [Table 4]

【0031】[0031]

【表5】 [Table 5]

【0032】[0032]

【表6】 [Table 6]

【0033】本実施例の特徴としては、先ず第1に、日
本語に対応するジェスチャ形状セットを使用するように
している。すなわち、日本語の縦書きにも対応できるよ
うに、記号の向きを使用者に意識させないジェスチャ形
状を選んでいる。例えば、縦書きでも使用できる上記表
(2) 及び表(4) に示す“空白”,“タブ”,“改行”等
のジェスチャの形状や、回転した向きでも使用できる表
(2) 或いは表(3) に示す“範囲指定”や“挿入”のジェ
スチャの形状を用いるようにしている。また、表(3) に
示す“変換”のジェスチャ形状や表(3) の*に示す“テ
キストの選択”(“候補選択”)のジェスチャ形状のよ
うに変換や訂正等で多く使用される操作に素早く描ける
ジェスチャ形状を用意している。
As a feature of this embodiment, first, a gesture shape set corresponding to Japanese is used. That is, in order to support vertical writing in Japanese, a gesture shape that does not make the user aware of the direction of the symbol is selected. For example, the table above that can be used in vertical writing
A table that can be used with gesture shapes such as "blank", "tab", and "line feed" shown in (2) and table (4), and rotated orientations.
(2) Alternatively, the shape of the "range designation" or "insertion" gesture shown in Table (3) is used. In addition, operations that are often used for conversion and correction, such as the gesture shape of “conversion” shown in Table (3) and the gesture shape of “text selection” (“candidate selection”) shown in * of Table (3). We have prepared gesture shapes that can be drawn quickly.

【0034】第2に、記憶し易い基本ジェスチャを使用
するようにしている。すなわち、少ない基本ジェスチャ
で一通りの操作ができるようにしている。このため、操
作の意味を統一し、同じ意味の機能なら操作の対象が違
っていても同じジェスチャを利用できるようにしてい
る。例えば、表(3) に示す“移動”のジェスチャにより
例えばファイルの移動や図形の移動が行え、表(3) に示
す“方向”のジェスチャにより例えばスクラップブック
のページ送り、仮名漢字変換の候補送りが行える。
Second, a basic gesture that is easy to remember is used. That is, it is possible to perform one operation with a few basic gestures. For this reason, the meanings of operations are unified so that the same gesture can be used even if the objects of operations are different if the functions have the same meaning. For example, the "Move" gesture shown in Table (3) can be used to move files and figures, and the "Direction" gesture shown in Table (3) can be used to send scrapbook pages and kana-kanji conversion candidates. Can be done.

【0035】第3に、表(3) の引き出し線ジェスチャに
よる容易な補助入力を可能としている。この引き出し線
ジェスチャにより、後述のオブジェクトへの属性設定
や、仮名漢字変換の候補選択シートの呼び出し、ジェス
チャで指定できない命令の入力、ファイル情報の参照等
を容易にしている。
Thirdly, it is possible to easily perform auxiliary input by using the leader line gesture shown in Table (3). This leader line gesture facilitates setting attributes to objects, calling a candidate selection sheet for Kana-Kanji conversion, inputting commands that cannot be specified by the gesture, and referring to file information.

【0036】本実施例においては、CPUが処理するこ
とが可能なおよそ全てのデータの塊、すなわちファイ
ル、ビットマップ、座標値、キー入力、アイコン、直線
図形、プログラムコード、その他、何らかの処理を行う
際に処理対象となり得るデータの塊をオブジェクトと呼
ぶ。データの塊の選び方は任意であり、オブジェクトが
他のオブジェクトを包含することもある。例えば、文
字、文字列、段落等はそれぞれがオブジェクトである。
In this embodiment, approximately all data chunks that can be processed by the CPU, that is, files, bitmaps, coordinate values, key inputs, icons, linear figures, program codes, and other processing are performed. A block of data that can be processed at this time is called an object. The method of selecting a chunk of data is arbitrary, and an object may include another object. For example, characters, character strings, paragraphs, etc. are each objects.

【0037】第4に、繰り返し操作を簡単に行えるよう
にしている。すなわち、表(5) に示す“実行”のジェス
チャを用いて直前の操作の繰り返し実行を可能としてい
る。例えば、赤色で太字という設定後、設定を忘れた文
字を選択して上記表(5) に示す“入力終了指示”のジェ
スチャを入力することで、後に選択した文字を赤色で太
字にすることができる。また、表(3) の“方向”のジェ
スチャを用いることで検索,置換等の繰り返し実行を可
能としている。例えば、検索文字列を指定後、検索され
た文字列の上で表(3) の“方向”のジェスチャを入力す
ることで、次の検索された文字列へのスキップを可能と
する。
Fourth, the repeated operation can be easily performed. That is, the "execute" gesture shown in Table (5) can be used to repeatedly execute the immediately preceding operation. For example, after setting red and bold, select a character that you have forgotten to set and enter the “input end instruction” gesture shown in table (5) above to make the selected character red and bold. it can. In addition, it is possible to repeatedly execute search, replace, etc. by using the "direction" gesture in Table (3). For example, after designating a search character string, by inputting the gesture of “direction” in Table (3) on the searched character string, it is possible to skip to the next searched character string.

【0038】その他、後述のジェスチャオンジェスチャ
の機能によって、より多彩かつ効率的な操作を可能とし
ており、引き出し線ジェスチャを利用した後述の文字併
記型のジェスチャへの拡張も可能となっている。また、
一括実行型編集でも利用可能となっている。
In addition, the gesture-on-gesture function, which will be described later, enables more versatile and efficient operation, and can be extended to a character-simultaneous character-type gesture, which will be described later, using a leader line gesture. Also,
It is also available for batch execution type editing.

【0039】次に、本発明の基本思想について述べる。Next, the basic idea of the present invention will be described.

【0040】本実施例では、上記ジェスチャを、筆跡を
もってコンピュータに使用者の意思を伝達する方法と定
義している。ただし、筆跡の形状,組み合わせは無数に
存在し、その全てに意味付けを与えることは不可能であ
るので、実際には少ない画数で描ける記号のような形状
をジェスチャに利用することになる。
In this embodiment, the gesture is defined as a method of transmitting the user's intention to the computer by handwriting. However, since there are innumerable shapes and combinations of handwriting and it is impossible to give meaning to all of them, in reality, a shape such as a symbol that can be drawn with a small number of strokes is used for the gesture.

【0041】ペンで記述できる記号の中には、一端に矢
印を付けた任意形状の自由曲線(一端に(>)を付けた
任意形状の自由曲線、或いは、長線部分が自由曲線とな
る矢印)のように、形状の中に不定形な部分を含むもの
もある。本実施例では、このような不定形な部分を含ん
だ形状の記号についてもジェスチャの一種としている。
Among the symbols that can be described with a pen, a free-form curve of arbitrary shape with an arrow at one end (a free-form curve of arbitrary shape with (>) at one end, or an arrow whose long line portion is a free-form curve) There are some shapes that include an amorphous part. In the present embodiment, a symbol having a shape including such an irregular portion is also a kind of gesture.

【0042】また、ジェスチャの設計を行う場合におい
て、当該ジェスチャの設計とは、ペンで描く形状(記
号)に対してコンピュータの解釈を割り当てる作業とな
る。しかし実際にはコンピュータの解釈については幾つ
かの考え方が存在する。例えば、形状を直接アプリケー
ションの各機能に割り当ててゆくことを考えることがで
き、各機能をもう少し細かいレベルの意味にまで分解し
て、それら基本機能に対して形状を割り当てることも考
えられる。
Further, in the case of designing a gesture, the design of the gesture is a task of assigning a computer interpretation to the shape (symbol) drawn by the pen. However, there are actually some ideas about computer interpretation. For example, it is possible to consider assigning a shape directly to each function of the application, and it is also possible to decompose each function into a slightly finer level of meaning and assign a shape to these basic functions.

【0043】前者は、まとまった意味の処理を1つのジ
ェスチャで実行できるため、慣れれば高速な入力が期待
できる反面、覚えるべきジェスチャの数が多くなり、形
状を意味から連想で覚えるのが難しい等の問題が生ず
る。後者は、1つの処理を実行するのにいくつかのジェ
スチャを必要として入力量が前者に比べて多くなること
が考えられるが、反面覚えるべきジェスチャは少ない。
また、日常使用している記号からの類推で記号を覚える
ことができる等の利点がある。
In the former case, since the processing of the coherent meaning can be executed by one gesture, high-speed input can be expected if the user gets used to it, but the number of gestures to be remembered is large, and it is difficult to remember the shape from the meaning in association. The problem of occurs. The latter may require some gestures to execute one process and the input amount may be larger than that of the former, but on the other hand, there are few gestures to be remembered.
Further, there is an advantage that the symbols can be remembered by analogy with the symbols that are used everyday.

【0044】これらのことから、本実施例では、基本的
に後者の考えを採用し、前者の方が優れている点につい
ては改善のための工夫を盛り込んで対処するようにして
いる。実際には、形状に対して、選ぶ,消す,移動,設
定,方向,・・・等の基本的な意味を割り当て、これを
ジェスチャセットとしている。
From these things, in this embodiment, the latter idea is basically adopted, and the improvement of the former is dealt with by incorporating a device for improvement. Actually, basic meanings such as selecting, erasing, moving, setting, direction, etc. are assigned to a shape, and this is used as a gesture set.

【0045】ここで、形状に対して基本的な意味を割り
当てた場合には、基本的な意味をどのように解釈してコ
ンピュータが動作するべきか問題になる。なぜならば、
意味が基本的なので解釈の違いによって幾つもの動作が
可能になる上、それによって実際のアプリケーションの
操作法が決定されるからである。したがって、意味の解
釈についても何らかの指針がなければ操作の統一性が達
成されないことになる。
Here, when a basic meaning is assigned to a shape, how to interpret the basic meaning and operate the computer becomes a problem. because,
This is because the meaning is basic, and several operations are possible depending on the difference in interpretation, and the operation method of the actual application is determined by it. Therefore, even if there is some guideline for the meaning interpretation, the unity of operation cannot be achieved.

【0046】このため、本実施例では、この問題に対処
するために、場面毎の適用例を以下に述べるようにして
意味と動作の対応を付け、標準的な操作環境の実現を可
能としている。また、上記ジェスチャセットの中核をな
す基本的な意味の選定は以下の考えに基づいて行ってい
る。
Therefore, in the present embodiment, in order to deal with this problem, an application example for each scene is associated with meaning and action as described below, and a standard operating environment can be realized. . The basic meanings that form the core of the above gesture set are selected based on the following ideas.

【0047】第1に、基本的なジェスチャだけを使って
コンピュータの操作を一通り行えるようにしている。第
2に、非熟練者にも充分理解できるように机上作業で用
いられる概念を利用している。第3に、コンピュータ操
作において一般的な概念を快適で高速な操作のために利
用するようにしている。第4に意味の重ね合わせ(復
合)が容易なように留意している。
First, the computer can be operated in its entirety by using only basic gestures. Secondly, the concept used in desk work is used so that even an unskilled person can fully understand it. Third, the general concept of computer operation is used for comfortable and high-speed operation. Fourth, attention is paid so that the meanings can be easily superimposed (reconstructed).

【0048】このため、基本ジェスチャ、高速ジェスチ
ャという2つのカテゴリに意味を分類し、上記基本ジェ
スチャで最も基本的な操作を、上記高速ジェスチャで快
適な操作を実現するようにしている。
Therefore, the meanings are classified into two categories, that is, the basic gesture and the high speed gesture, so that the most basic operation of the basic gesture and the comfortable operation of the high speed gesture are realized.

【0049】次に、上記ジェスチャの形状は以下の条件
に基づいて選んでいる。
Next, the shape of the gesture is selected based on the following conditions.

【0050】第1の条件として、普段紙上で使用してい
る記号をそのままの意味で使用できるようにする。第2
の条件として、全ての形状は上下左右どの向きに描いて
も同じ意味となるようにする。第3の条件として、それ
ぞれの意味に1画で素早く描ける形状を用意する。第4
の条件として、他の記号,文字と類似した形状のジェス
チャには別の形状も用意する。第5の条件として、ジェ
スチャ同士の重ね合わせが可能な形状を選ぶようにす
る。
As the first condition, the symbols that are usually used on paper can be used as they are. Second
As a condition, all shapes should have the same meaning no matter which direction they are drawn in. As the third condition, prepare a shape that can be drawn quickly with one stroke for each meaning. Fourth
As a condition, a different shape is prepared for a gesture having a shape similar to other symbols and characters. As a fifth condition, a shape that allows gestures to be overlapped with each other is selected.

【0051】これらにより、第1の条件から普段使用し
ている記号がそのまま使える覚え易い操作を実現し、第
2の条件から使いたい記号を使いたい向きで使える自然
な操作を可能とし、第3の条件から素早く描ける形状を
利用した熟練者にも快適で高速な入力を可能とすると共
に実装が容易な1画のジェスチャで基本的なシステムが
構築でき、第4の条件から誤認識を避ける描き方を熟練
者が選択できる自由度の高い操作が可能となり、第5の
条件からジェスチャへのジェスチャ操作を許す形状セッ
トを可能としている。
With these features, it is possible to realize an easy-to-remember operation in which the normally used symbols can be used as they are from the first condition, and to enable a natural operation in which the desired symbol can be used in the desired direction from the second condition. It is possible to create a basic system with a one-stroke gesture that is easy to implement even for skilled users who use shapes that can be drawn quickly from the condition 4 and that avoids misrecognition from the condition 4 It is possible to perform an operation with a high degree of freedom in which the skilled person can select one, and it is possible to set a shape that allows the gesture operation from the fifth condition.

【0052】上記各条件に合うように、本実施例ではそ
れぞれの意味に対して複数の形状が割り当てられる場合
がある。その場合、基本的な形状を基本ジェスチャと
し、その他の形状を前記各表(2) 〜表(6) に示すよう
に、別形ジェスチャと分類している。このように分類す
ることにより、使用者はとりあえず基本ジェスチャを覚
えれば、基本的な操作を全て行うことができ、必要に応
じてその他の形状を覚えて便利に使用することができる
ようになる。
In this embodiment, a plurality of shapes may be assigned to the respective meanings so as to meet the above conditions. In that case, the basic shape is defined as the basic gesture, and the other shapes are classified as the different-shaped gestures as shown in Tables (2) to (6). By categorizing in this way, the user can perform all the basic operations if he / she learns the basic gesture for the time being, and can learn other shapes as necessary and use them conveniently.

【0053】さらに、本実施例のジェスチャを利用した
編集操作の発展した形として、編集記号を予め幾つも入
力しておき、編集実行の指示があったときに一気に編集
操作を実行する一括実行型編集も可能としている。この
一括実行型編集を利用すれば、従来の校正作業から無理
なく移行でき、なおかつ編集指示が目で見て判る形状で
表現できるようになる。
Further, as an advanced form of the editing operation using the gesture of this embodiment, a batch execution type in which a number of editing symbols are input in advance and the editing operation is executed at a stroke when an instruction to execute the editing is given. Editing is also possible. By using this batch execution type editing, it is possible to smoothly shift from the conventional proofreading work, and the editing instruction can be expressed in a visually recognizable shape.

【0054】本実施例では、上記一括実行型編集に対応
するために以下のようなことを行っている。
In this embodiment, the following operations are performed to deal with the batch execution type editing.

【0055】先ず、第1に、入力し易いジェスチャと見
て意味の判り易いジェスチャの双方を用意し、第2に、
編集指示を直接文字で記入する文字併記型編集を容易に
する引き出し線を採用し、第3に、既に記入したジェス
チャの上にジェスチャを書き込み、意味を追加,変更す
る本実施例でジェスチャオンジェスチャと呼ぶ考えを導
入し、第4に、例えばキーボードによるなどのジェスチ
ャ以外の方法で入力された処理をジェスチャの形に変換
して表示する機能を導入し、第5に、一括実行型編集時
であっても例外的に入力直後に実行される即時実行ジェ
スチャと呼ぶ考えを導入している。
First, both a gesture that is easy to input and a gesture that is easy to understand are prepared, and secondly,
Adopting a leader line for facilitating character parallel writing type in which editing instructions are directly written, and thirdly, writing a gesture on a gesture that has already been written, and adding or changing meaning, gesture-on gesture Introducing the idea called, 4th, introducing the function to display the process input by the method other than the gesture such as by the keyboard after converting it into the shape of the gesture, and 5th, in the batch execution type editing. Even if there is an exception, the idea called immediate execution gesture that is executed immediately after input is introduced.

【0056】これらの工夫により、本実施例では、一括
実行型編集に容易に対応できるようになっている。ま
た、一括実行型編集と逐次実行型編集の中間の状態すな
わち一つのジェスチャでは入力が完了せずに幾つかのジ
ェスチャの組み合わせで初めて命令が実行されるような
編集も可能としている。
With these measures, the present embodiment can easily cope with batch execution type editing. Further, it is possible to perform an edit in which an instruction is not executed for the first time with a combination of several gestures without completing the input with one gesture, which is an intermediate state between the batch execution type edit and the sequential execution type edit.

【0057】また、本実施例では、例えばファイルの指
定やコンピュータの基本設定の操作や、文書/図形編集
操作や、日本語文字認識,変換、取り消し操作の繰り返
しをする場合等にジェスチャを適用することができるよ
うになっている。
Further, in the present embodiment, the gesture is applied, for example, when a file is specified, a basic setting operation of the computer is performed, a document / graphic editing operation, Japanese character recognition, conversion, and cancellation operation are repeated. Is able to.

【0058】以下、上記表(2) 〜表(6) に示した各ジェ
スチャの形状と機能の対応における各ジェスチャの意味
について説明する。
The meaning of each gesture in the correspondence between the shape and function of each gesture shown in Tables (2) to (6) will be described below.

【0059】先ず、“ヘルプ”は、操作法,補助的情報
等の情報を提示する。このヘルプによれば、説明を提示
するための対話ウインドウが自動的に開き、使用者はウ
インドウ内のメニューを選択して所望の情報を閲覧す
る。この場合、使用者が説明して欲しい対象の上にジェ
スチャを描くのは自然な操作であるが、ジェスチャをど
こに描いても希望の説明に辿り着けることも要求され
る。従って、対話ウインドウは、筆跡の下のオブジェク
トに対する説明を提示するための選択枝と質疑応答によ
り希望の説明を提示するための選択枝の両方を提供する
ことが望ましい。
First, "help" presents information such as an operating method and auxiliary information. According to this help, an interactive window for presenting the explanation automatically opens, and the user selects a menu in the window to browse desired information. In this case, it is a natural operation for the user to draw a gesture on the object that the user wants to explain, but it is also required that the user can reach the desired description wherever the gesture is drawn. Therefore, it is desirable that the dialogue window provides both an option for presenting the explanation for the object under the handwriting and an option for presenting the desired explanation by the question and answer.

【0060】“取り消し”では、直前に行なった操作あ
るいは筆跡の下に書き込まれているジェスチャの処理を
取り消し、操作を行なう前の状態に戻す。2度続けて取
り消しを行なった場合、さらに前の操作を取り消す(多
重取り消し) 動作と、取り消し操作自身を取り消す(ト
グル取り消し) 動作の二種類が考えられる。二つの動作
の選択法については後述する。
In the "cancel", the operation performed immediately before or the processing of the gesture written under the handwriting is canceled and the state before the operation is returned. When undoing twice in a row, there are two types of actions: undoing the previous operation (multiple undo) and undoing the undo operation itself (toggle undo). The selection method of the two operations will be described later.

【0061】ここで、この“取り消し”は対象オブジェ
クト別に以下のように動作する。例えば、ジェスチャ上
に記入された場合は、下に記されたジェスチャの操作を
取り消す(実行前の状態に戻す)。例えば、属性入力ウ
インドウ,仮名漢字変換ウインドウ等の一時的に開くウ
インドウの場合には、先ず現在までのウインドウ上の入
力を全て無効とし、次に一時的に開いていたウインドウ
が閉じ、最後に引出し線を引き出す以前の状態に戻す。
上記以外のウインドウの場合には、指定されたウインド
ウ上の直前の操作を取り消す(実行前の状態に戻す) 。
Here, this "cancel" operates as follows for each target object. For example, in the case of writing on the gesture, the operation of the gesture described below is canceled (returned to the state before execution). For example, in the case of a window that opens temporarily, such as an attribute input window or a kana-kanji conversion window, first invalidate all the input on the window up to the present, then close the window that was temporarily opened, and finally draw it. Return to the condition before drawing the line.
For windows other than the above, cancels the previous operation on the specified window (returns to the state before execution).

【0062】また、上記多重取り消しとトグル取り消し
の選択には、ジェスチャオンジェスチャを利用すること
ができる。取り消しジェスチャの上に“上送り”を描い
た場合には上記多重取り消しとしてひとつづつ前の処理
を取り消し、“下送り”を描いた場合には上記トグル取
り消しとなりひとつづつ取り消した処理を復活する。ま
た、“取り消し”を再度描くと取り消した全ての処理を
復活する。
A gesture-on gesture can be used to select the multiple cancellation and the toggle cancellation. When "up feed" is drawn on the cancel gesture, the previous process is canceled as the multiple cancel, and when "down feed" is drawn, the toggle cancel is performed and the canceled process is restored. Also, if "Cancel" is drawn again, all the canceled processes are restored.

【0063】“開く”では、筆跡の下にあるオブジェク
トを開く。この“開く”とは、オブジェクト内の対象を
操作可能とする機能のことであり、例えば、ファイルを
開くとエディタが起動し、アプリケーションソフトを開
くとアプリケーションソフトが起動し、プリンタアイコ
ンを開くとプリンタの機種,印刷待ち状態等が表示さ
れ、印刷する対象の入力を促す。
"Open" opens the object under the handwriting. This "open" is a function that allows you to operate the target in the object. For example, when you open a file, the editor starts, when you open the application software, the application software starts, and when you open the printer icon, the printer The model, the print waiting status, etc. are displayed, and the input of the print target is prompted.

【0064】ここで、“開く”は対象オブジェクト別に
以下のように動作する。例えば、アプリケーションソフ
トのアイコン(含む一覧表の項目等) の場合は、アプリ
ケーションソフトを起動する。例えば、ファイルフォル
ダのアイコンである場合には、ファイルフォルダを開き
内容を表示する。また例えば、閲覧可能なファイルのア
イコンである場合には、対象のファイルを閲覧するため
のアプリケーションを起動する(操作対象は指定された
ファイル) 。
Here, "open" operates as follows for each target object. For example, in the case of application software icons (such as items in the list included), start the application software. For example, in the case of a file folder icon, the file folder is opened and the contents are displayed. Further, for example, in the case of an icon of a file that can be browsed, an application for browsing the target file is activated (the operation target is the designated file).

【0065】“位置”/“オブジェクト指定”では、指
示された位置を指定位置として設定、あるいは指示され
たオブジェクトを指定オブジェクトとして追加設定す
る。位置指定操作に入力が限定されている場合を除き、
付近にオブジェクトがあればオブジェクト指定操作とみ
なされる。オブジェクトが指定された場合は直前までに
指定されていたオブジェクトに追加する形で指定され
る。この追加操作は指定されたオブジェクトに対して何
らかの操作が施されるまで継続する。また、既に指定さ
れているオブジェクトを指示した場合はそのオブジェク
トを指定オブジェクトの中から除外する。
In the "position" / "object designation", the designated position is set as the designated position, or the designated object is additionally set as the designated object. Unless the input is limited to position specification operation,
If there is an object in the vicinity, it is regarded as an object designation operation. When an object is specified, it is specified in addition to the object specified up to immediately before. This addition operation continues until some operation is performed on the specified object. Further, when an object which has already been designated is designated, the object is excluded from the designated objects.

【0066】ここで、位置を指定する場合はペンで叩い
た位置そのものが設定されるのが通常であるが、付近に
図形の端点,線上点等を持つ特別なオブジェクトがあれ
ば、これらの点を指定位置とすることも可能である。オ
ブジェクトを指定する場合は、ペンで叩いた位置から設
定された範囲内に存在するオブジェクトが指定オブジェ
クトとして設定されるが、その設定された範囲にオブジ
ェクトが存在しない場合はオブジェクトの指定は実行さ
れない。2つ以上のオブジェクトがある場合にどちらを
選ぶかは状況に依存する。
Here, when the position is specified, the position itself hit with the pen is usually set. However, if there are special objects near the end points of the figure, line points, etc., these points will be set. It is also possible to make the designated position. When specifying an object, an object existing within the range set from the position hit with the pen is set as the specified object, but if no object exists in the set range, the object specification is not executed. Which one to choose when there are two or more objects depends on the situation.

【0067】また、指定されたオブジェクトが次のステ
ップに進むための契機を待って待機している場合には、
次のステップに進む契機として機能する。このジェスチ
ャを“次送り”と呼ぶ。待機中のオブジェクトがye
s,no等の入力を要求している場合はプログラム等に
より予め定められている値(デフォルト値)を承認した
こととする。
If the specified object is waiting for the opportunity to proceed to the next step,
It serves as an opportunity to move to the next step. This gesture is called "next feed". The waiting object is yes
When the input of s, no, etc. is required, it is assumed that the value (default value) predetermined by the program is approved.

【0068】オブジェクトが階層構造を持っているよう
な場合、どの階層のオブジェクトを指定したいのかは1
点を指示する入力では分らない。どの階層のオブジェク
トが指定されるかはアプリケーションが決定してよい。
但し、どの階層のオブジェクトが選択されたかを使用者
に明確に伝える必要がある。また、当該ジェスチャで指
定されたオブジェクトに対しては、方向指示のジェスチ
ャによって指定されるオブジェクトの階層を上下できる
ようにしてよい。
When an object has a hierarchical structure, it is 1 which level of the object should be designated.
I do not understand it by inputting points. The application may determine which layer of the object is designated.
However, it is necessary to clearly inform the user which layer of the object has been selected. Further, for the object designated by the gesture, the hierarchy of the object designated by the direction designating gesture may be moved up and down.

【0069】また、当該ジェスチャは対象オブジェクト
別に以下のように動作する。先ず、次のステップに進む
ために待機しているオブジェクトにおいては、オブジェ
クトに対してデフォルト値が入力されたものとし、待機
状態を解除する。例えば、デフォルト値がyesの対話
ウインドウが対象オブジェクトである場合、当該ジェス
チャはyesボタンを押した場合と同等に機能し、デフ
ォルト値がnoの対話ウインドウではnoボタンを押し
た場合と同等に機能し、文字列検索の検索カーソルでは
次の一致文字列を検出し、文字列置換の検索カーソルで
は当該文字列置換の検索カーソルで示された文字列を置
換したうえ次の一致文字列を検索し、仮名漢字変換中の
文節では当該仮名漢字変換中の文節の次候補を表示す
る。
The gesture operates as follows for each target object. First, for an object waiting to proceed to the next step, it is assumed that a default value has been input to the object, and the waiting state is released. For example, when the dialog window with the default value of yes is the target object, the gesture functions in the same way as when the yes button is pressed, and in the dialog window with the default value of no, it functions as when the no button is pressed. , The search cursor for character string search detects the next matching character string, and the search cursor for character string replacement replaces the character string indicated by the search cursor for the character string replacement and then searches for the next matching character string. In the phrase being converted into Kana-Kanji, the next candidate of the phrase being converted into Kana-Kanji is displayed.

【0070】その他のオブジェクトにおいて、指示され
たオブジェクトが現在指定状態にない場合は、指示され
たオブジェクトを指定オブジェクトの中に加え、指示さ
れたオブジェクトが指定オブジェクトに追加されたこと
を何らかの方法で強調して表示する(反転,点滅,色変
更・・・)。また、指定されたオブジェクトが既に指定
状態にある場合は、指示されたオブジェクトを指定オブ
ジェクトから除外し、指示されたオブジェクトを通常の
表示に戻す。
In other objects, if the designated object is not currently in the designated state, the designated object is added to the designated object, and the fact that the designated object is added to the designated object is emphasized by some method. And display (reverse, blinking, color change ...). If the designated object is already in the designated state, the designated object is excluded from the designated objects, and the designated object is returned to the normal display.

【0071】さらに、待機中のオブジェクトに次のステ
ップに進むように指示した場合、進む方向は直前までの
方向となる。例えば逆再生中に静止させた動画を当該ジ
ェスチャにより静止解除すると逆再生が始まる。方向を
変更する場合は方向のジェスチャが必要となる。
Further, when the waiting object is instructed to proceed to the next step, the proceeding direction is the direction just before. For example, reverse playback starts when a still image that has been stopped during reverse playback is released by the gesture. When changing the direction, the gesture of the direction is required.

【0072】“範囲指定”では、筆跡の角の部分から2
本の線分によって区切られる90度分の方向を指定領域
とする。すなわち例えば(「、すなわち横書き用の鉤括
弧)の形状のジェスチャは角の部分から右下方向を指定
領域とする。さらにもうひとつの(」)型のジェスチャ
と一組になって矩形範囲の指定となる。また、縦書き用
の鉤括弧の型のジェスチャも一組でやはり矩形範囲の指
定となる。
In the "range designation", 2 from the corner of the handwriting
The direction of 90 degrees divided by the line segment of the book is the designated area. That is, for example, a gesture in the shape of "(that is, a horizontal curly bracket) has the specified area in the lower right direction from the corner. In addition, it is combined with another (") type gesture to specify the rectangular range. Becomes In addition, a pair of vertical bracket-shaped gestures for vertical writing also specifies a rectangular range.

【0073】但し文字列のように紐状の連続性を持ち、
しかも行毎に折り畳まれているオブジェクトに対して描
かれた場合、2つのジェスチャにはさまれた紐状の区間
全体が指定対象となる場合がある。例えば図3のような
場合である。ただし、図3の図中○及び×は文字を意味
し、図中GEがジェスチャである。
However, it has string-like continuity like a character string,
Moreover, when drawn for an object that is folded row by row, the entire string-shaped section sandwiched between two gestures may be the target of designation. For example, this is the case as shown in FIG. However, ◯ and × in the drawing of FIG. 3 mean characters, and GE in the drawing is a gesture.

【0074】この図3の例では日本語の鈎括弧と同じく
図中×の範囲が指定対象となる。これに対して、矩形の
範囲を指定したい場合は図4のようにすればよい。
In the example of FIG. 3, the range of x in the figure is the target to be designated, as in the case of the Japanese hook and bracket. On the other hand, when it is desired to specify the rectangular range, it may be done as shown in FIG.

【0075】この図4において、対となる括弧が存在し
ない状態、或は図4の図中GE1 とGE2 のように矩形
を成さない組合せの場合は、開ている方向に無限に長さ
のある領域指定の状態となる。
In FIG. 4, when there is no pair of parentheses, or in the case of a combination which does not form a rectangle like GE 1 and GE 2 in the drawing of FIG. 4, the length is infinitely long in the opening direction. It becomes the state of the specified area with a certain depth.

【0076】すなわち、図5の例に示すように括弧以下
の文章は文書の終りまで全て指定された状態となる。
That is, as shown in the example of FIG. 5, all the sentences under the parentheses are in the designated state until the end of the document.

【0077】しかし、この図5の場合、ひとつ目の括弧
が描かれた状態で括弧以下の全てのオブジェクトを指定
状態にするのは計算機にとって非常に負担が大きく、対
になるジェスチャが入力されたときに範囲外になったオ
ブジェクトを指定から外すのも大きな負担となる。そこ
で、そのような場合には対となる括弧が現れるか指定さ
れたオブジェクトに対する操作が実行されるまではオブ
ジェクトを選択状態にしなくてもよい。
However, in the case of FIG. 5, it is very burdensome for the computer to set all the objects below the parenthesis in the state where the first parenthesis is drawn, and a gesture to be paired is input. Sometimes it becomes a big burden to remove an object that is out of range from the specification. Therefore, in such a case, the object does not have to be in the selected state until a pair of parentheses appears or an operation is performed on the designated object.

【0078】また、括弧で指定された領域内に括弧が描
かれると、括弧同士の対応の問題が生じる。このような
場合はどの括弧が対応するか使用者に確認して決定する
必要がある。
When the parentheses are drawn in the area designated by the parentheses, there arises a problem of correspondence between the parentheses. In such a case, it is necessary to confirm with the user which parentheses correspond and decide.

【0079】ここで、当該“範囲指定”は対象オブジェ
クト別に以下のように動作する。すなわち、上述の場合
のみ2つ1組で紐状範囲指定操作として動作する。それ
以外の場合は2つ1組で矩形範囲指定操作として動作す
る。ただ1つの当該ジェスチャは4半平面の範囲指定操
作として動作する。また、明示的に座標としての指定範
囲を求められていない場合、当該ジェスチャにより指定
された範囲内にオブジェクトが存在すればオブジェクト
指定操作となる。指定された範囲にかかり、なおかつ指
定された範囲からはみ出すようなオブジェクトについて
は大部分が指定された範囲に含まれていればそのオブジ
ェクトは指定されたと判断するのが望ましい。
Here, the "range designation" operates as follows for each target object. That is, only in the above-described case, two pairs operate as a string-shaped range specifying operation. In other cases, a set of two works as a rectangular range specifying operation. Only one of the gestures operates as a range designating operation of the four half planes. Further, when the designated range as the coordinate is not explicitly obtained, if the object exists within the range designated by the gesture, the object designation operation is performed. It is desirable to judge that an object that falls within the specified range and is out of the specified range is specified if most of the objects are included in the specified range.

【0080】また、当該ジェスチャの形状は日本語の鈎
括弧と完全に形状が一致している。従って文字とジェス
チャの両方が入力可能な状況では、当該ジェスチャの入
力と鈎括弧の入力が筆跡形状だけでは区別できない。従
って状況に応じた両者の区別が必要となるが、さらに誤
認識救済のためにジェスチャと座標データを切替えるジ
ェスチャを実装することが望まれる。
Further, the shape of the gesture is completely the same as the shape of the Japanese hook. Therefore, in a situation in which both characters and gestures can be input, the input of the gesture and the input of the hook and bracket cannot be distinguished only by the handwriting shape. Therefore, it is necessary to distinguish between the two depending on the situation, but it is further desired to mount a gesture for switching between the gesture and the coordinate data in order to remedy misrecognition.

【0081】“方向”では、筆跡の開始点の下にあるオ
ブジェクトを筆跡が払った方向に送る。当該ジェスチャ
では2次元平面上の実際の方向だけでなく上下,前後等
の言葉で表される抽象的な方向の双方を指定することが
できる。抽象的な方向指定における実際の動作は対象と
なる(筆跡の開始点の下にある)オブジェクトによって
大きく異なるが、基本的には順序をもつオブジェクトに
対してひとつ隣のオブジェクトに移る操作を意味する。
In the "direction", the object below the starting point of the handwriting is sent in the direction in which the handwriting was blown. With the gesture, not only the actual direction on the two-dimensional plane but also the abstract direction expressed by words such as up and down and front and back can be specified. The actual movement in the abstract direction designation differs greatly depending on the target object (below the starting point of the handwriting), but basically it means the operation of moving to the next adjacent object with respect to the ordered object. .

【0082】図6には、方向の呼称を示している。すな
わちこの図6において、上はN、下はS、左はW、右は
E、斜め右上はNE、斜め右下はSE、斜め左上はN
W、斜め左下はSWとしている。N方向のジェスチャは
“上送り”、S方向は“下送り”、E方向は“右送
り”、W方向は“左送り”と呼ぶ。
FIG. 6 shows the designation of directions. That is, in FIG. 6, N is above, S is below, W is to the left, E is to the right, NE is to the upper right, SE is to the lower right, and N is to the upper left.
W, diagonally lower left is SW. The gesture in the N direction is called "upward feed", the S direction is called "downward feed", the E direction is called "right feed", and the W direction is called "left feed".

【0083】実際の(視認できる)位置関係が明らかな
場合で、その位置関係と抽象的な順序に割り当てられた
方向が相違する場合は、実際の位置関係の操作を実装す
る。例えばページ送りについては、右開きの本を参照し
ている場合と左開きの本を参照している場合では右のペ
ージを読むための操作を同一とする(従って次のページ
を読むための操作は逆向きとなる。この操作を“次送
り”と呼ぶ。)。
When the actual (visible) positional relationship is clear and the positional relationship and the direction assigned to the abstract order are different, the operation of the actual positional relationship is implemented. For example, regarding page feed, the operation to read the right page is the same when referring to the book that opens on the right and the book that opens on the left (therefore, the operation to read the next page). Is the opposite direction. This operation is called "next feed".)

【0084】抽象的な順序と方向の対応関係のうち以下
のものは定義されている。例えば、上下(NS)は階層
構造の上下を表し、グループ化されたオブジェクトの指
定の際などに利用される。前後(WE)は同レベルの順
序関係を表し、認識結果の次候補表示などに利用され
る。上下関係はあるが前後関係はないオブジェクト、前
後関係はあるが上下関係はないオブジェクトを操作する
場合は(前=上)(後=下)と割り当て、操作可能な方
向を増やすことができる。
Among the correspondences between the abstract order and the directions, the following are defined. For example, the top and bottom (NS) represent the top and bottom of the hierarchical structure, and are used when specifying grouped objects. The front and back (WE) represent the same level order relationship, and are used for displaying the next candidate of the recognition result. When operating an object that has a vertical relationship but not a front-back relationship, or an object that has a front-back relationship but not a vertical relationship, (front = up) (rear = down) can be assigned to increase the operable directions.

【0085】オブジェクトを送る操作と視点を送る操作
の違いについては注意が必要である。例えば横書きのワ
ードプロセッサを利用している場合、紙に相当する部分
に対してN方向に本ジェスチャを描くことにより文書の
続きの部分が現れる。ところが、文字列を検索している
場合に、次の文字列を検索するのにN方向のジェスチャ
を描くのは不自然である。これは前者が巻紙を上方向に
送る操作であるのに対して後者(次の文字列の検索)が
検索カーソルを次の検索文字列(下方にある)に送る操
作だからである。後者はカーソルを下方向に送る意味で
S方向のジェスチャを描くべきである。
Attention must be paid to the difference between the operation of sending an object and the operation of sending a viewpoint. For example, when a horizontal writing word processor is used, a subsequent portion of the document appears by drawing this gesture in the N direction with respect to the portion corresponding to the paper. However, when searching for a character string, it is unnatural to draw a gesture in the N direction to search for the next character string. This is because the former is an operation to send the paper roll upward, whereas the latter (search for the next character string) is an operation to send the search cursor to the next search character string (below). The latter should draw a gesture in the S direction to send the cursor downwards.

【0086】なお、なるべく多くの場面でペンでタブレ
ットを叩く“位置/オブジェクト指定”のジェスチャに
よる“次送り”の機能を利用できるようにし、使用者の
混乱を避けるべきである。
It should be noted that the "next feed" function by the "position / object designation" gesture of hitting the tablet with a pen should be made available in as many situations as possible to avoid user confusion.

【0087】ここで、当該“方向”は対象オブジェクト
別に以下のように動作する。すなわち、アプリケーショ
ン上で紙として扱われるウインドウの場合は、指定され
た方向へのスクロールとする。オブジェクト指定等によ
り既に指定されているオブジェクトの場合は、上記図6
のN方向のジェスチャでひとつ上の階層のオブジェクト
を指定し、S方向のジェスチャでひとつ下の階層のオブ
ジェクトを指定する。例えば、図形オブジェクトの場
合、N方向のジェスチャで現在指定されているよりもも
うひとつ上の(大きな)グループを指定し、S方向のジ
ェスチャで現在指定されているよりももうひとつ下の
(細かい)グループを指定する。また、例えば、文書オ
ブジェクトの場合は、N方向のジェスチャで1文字→章
→単語→(文節→)文→段落→節→章→文全体と指定
し、S方向のジェスチャで文全体→章→節→段落→文→
(文節→)単語→1文字と指定する。なお、この文書オ
ブジェクト及びグループの指定についての詳細は後述す
る。更に、検索カーソル(検索文字列上の反転等の強調
部分)の場合は、N方向のジェスチャで前候補検索を、
S方向のジェスチャで次候補検索を、W方向のジェスチ
ャで前候補検索(横書き), 次候補検索(縦書き)を、
E方向のジェスチャで次候補検索(横書き) , 前候補検
索(縦書き)を指示する。変換操作中のオブジェクトの
場合には、W方向のジェスチャで前候補を、E方向のジ
ェスチャで次候補を指示する。
Here, the "direction" operates as follows for each target object. That is, in the case of a window treated as paper on the application, scrolling is performed in the designated direction. In the case of an object that has already been designated by object designation, etc.
The object in the upper layer is designated by the N-direction gesture, and the object in the lower layer is designated by the S-direction gesture. For example, in the case of a graphic object, a group that is one level higher (larger) than the one currently specified by the gesture in the N direction is specified, and one group (fine) that is one more lower than that currently specified by the gesture in the S direction is specified. Specify a group. Further, for example, in the case of a document object, a gesture in the N direction designates one character → chapter → word → (bunsetsu →) sentence → paragraph → section → chapter → whole sentence, and a gesture in the S direction makes the whole sentence → chapter → Section → paragraph → sentence →
(Sentence →) Word → Specify one character. Details of the designation of the document object and the group will be described later. Furthermore, in the case of the search cursor (highlighted part such as inversion on the search character string), the gesture in the N direction is used to search the previous candidate,
Gesture in S direction to search next candidate, gesture in W direction to search previous candidate (horizontal writing), next candidate search (vertical writing),
The next candidate search (horizontal writing) and the previous candidate search (vertical writing) are instructed by gestures in the E direction. In the case of an object being converted, the gesture in the W direction indicates the previous candidate, and the gesture in the E direction indicates the next candidate.

【0088】なお、当該ジェスチャの形状は非常に単純
であり、他の記述と形状だけでは区別するのが困難かの
ように考えられる場合がある。しかし、筆跡を払う速度
など形状以外の情報を検出することで充分に区別するこ
とができる。
The shape of the gesture is very simple, and it may be considered that it is difficult to distinguish it from other description alone. However, it is possible to make a sufficient distinction by detecting information other than the shape such as the speed at which the handwriting is made.

【0089】“消す”では、筆跡の下が指定領域であれ
ば現在指定されている領域を全てクリアし、筆跡の下が
指定されているオブジェクトであれば現在指定されてい
るオブジェクトを全て消去し、筆跡の下が指定状態でな
ければ筆跡の下にあるオブジェクトを消去する。致命的
な削除操作となるような場合は確認を求める。また、オ
ブジェクトを事前に指定せずに消去する場合は、ジェス
チャのサイズ,外形と附近のオブジェクトのサイズ,外
形を比較して消去するオブジェクトを決定する。
In the "erase", if the area under the handwriting is the designated area, all the areas currently designated are cleared, and if the object under the handwriting is designated, all the currently designated objects are erased. , If the area under the handwriting is not in the specified state, erase the object under the handwriting. Confirmation is requested in the case of a fatal deletion operation. When erasing without specifying an object in advance, the size and outline of the gesture and the size and outline of the nearby object are compared to determine the object to be erased.

【0090】ここで、上記“消す”は対象オブジェクト
別に以下のように動作する。すなわち、対象がジェスチ
ャの場合は、対象ジェスチャの操作を取り消し、元の状
態にする。例えば、文字を囲っている範囲指定のジェス
チャ(○)に重ねて“消す”のジェスチャ(×)を描く
と指定された範囲を通常状態に戻し、引出し線に重ねて
“消す”のジェスチャ(×)を描くと設定用のウインド
ウを設定破棄で閉じる。また、ファイルのアイコンの場
合は、ファイルを削除する。更に、図形オブジェクトの
場合は、その図形オブジェクトを消去する。文字列オブ
ジェクトの場合は、その文字列オブジェクトを消去し、
この消去により発生したすき間を詰める。
Here, the above "erase" operates as follows for each target object. That is, when the target is a gesture, the operation of the target gesture is canceled and the original state is restored. For example, if you draw a gesture (×) that overlaps a gesture (○) that encloses a character that surrounds it, the specified area is returned to the normal state, and you gesture (x) that you erase it by overlapping the leader line. ), The setting window is closed by discarding the settings. If it is a file icon, the file is deleted. Further, in the case of a graphic object, the graphic object is deleted. If it's a string object, delete the string object,
The gap generated by this erasure is reduced.

【0091】“移動”のジェスチャでは、現在指定され
ている領域,オブジェクトを移動する。指定がなければ
筆跡の開始点の下にあるオブジェクトを移動する。移動
先は筆跡の終了点とする。移動先に特殊なオブジェクト
が存在する場合は、移動が行なわれないことがある。例
えばファイルのアイコンをプリンタのアイコンの上まで
移動した場合、移動したファイルの印刷を行なう指示と
して解釈され、移動は実際には行なわれずファイルのア
イコンは元の位置に戻る。
The "move" gesture moves the currently designated area and object. If not specified, the object below the starting point of the handwriting is moved. The destination is the end point of the handwriting. If a special object exists at the move destination, the move may not be performed. For example, when the file icon is moved over the printer icon, it is interpreted as an instruction to print the moved file, and the movement is not actually performed, and the file icon returns to its original position.

【0092】ここで、この“移動”のジェスチャは対象
オブジェクト別に以下のように動作する。すなわち、終
点が特定の機能を表す特殊なオブジェクトだった場合
は、対象オブジェクト(移動してきたオブジェクト)を
機能を及ぼす対象に設定し、当該機能に対応した処理を
行う。終点が特定の機能を表す特殊なオブジェクト以外
だった場合と対象オブジェクトが機能で処理できない場
合は、通常の移動処理となる。例えば、ファイルのアイ
コンの場合は、ファイルを移動する。この場合、始点と
終点がディレクトリの境界を越えた位置にあればディレ
クトリ間の移動となり、同一ディレクトリやフォルダ内
にあればファイルアイコンの表示位置の移動になる。ま
た、図形オブジェクトの場合は、対象オブジェクトを始
点と終点の座標差分だけ並行移動する。文字列オブジェ
クトの場合は、対象オブジェクトを終点位置に文字列挿
入し、元々の対象オブジェクトを文字列削除する(文字
詰めも行なう)。
Here, this "move" gesture operates as follows for each target object. That is, when the end point is a special object that represents a specific function, the target object (moving object) is set as a target that exerts the function, and processing corresponding to the function is performed. If the end point is other than a special object that represents a specific function or if the target object cannot be processed by the function, normal movement processing is performed. For example, in the case of a file icon, the file is moved. In this case, if the start point and the end point are located beyond the boundary of the directory, the movement is between directories, and if they are in the same directory or folder, the display position of the file icon is moved. In the case of a graphic object, the target object is moved in parallel by the coordinate difference between the start point and the end point. In the case of a character string object, the target object is inserted in the character string at the end point position, and the original target object is deleted (the character is also packed).

【0093】“引き出し線”のジェスチャでは、現在指
定されている領域,オブジェクトに設定されている情報
を参照あるいは設定する。指定がなければ筆跡の開始点
の下にあるオブジェクトを対象とする。筆跡の終了点付
近に情報の参照,入力用のウインドウを自動的に開く。
The "lead line" gesture refers to or sets the information set in the currently designated area or object. If not specified, the object below the starting point of the handwriting is targeted. A window for reference and input of information is automatically opened near the end point of handwriting.

【0094】このとき、対象オブジェクトによって開く
ウインドウの種類を変えることにより、使用者にとって
便利なメニュー呼び出しとなる。例えば、仮名漢字変換
中の文節から線を引き出せば変換候補一覧ウインドウが
呼び出され、線図形から線を引き出せば線種・色等の属
性設定ウインドウが呼び出されるような切替を行うこと
ができる。
At this time, by changing the type of window to be opened depending on the target object, the menu can be conveniently called by the user. For example, it is possible to perform switching so that a conversion candidate list window is called when a line is drawn from a phrase that is being converted into Kana-Kanji and an attribute setting window such as a line type and color is called when a line is drawn from a line figure.

【0095】また、当該ジェスチャはジェスチャ操作に
よって大まかに設定されたパラメータを詳細に入力し直
す際にも用いられる。例えば、画面上に表示が残ってい
る移動のジェスチャのマークから線を引き出した場合、
移動距離・角度・移動前の座標・移動先の座標値等が表
示され、値を変更することにより移動量の微調整が可能
となる。
The gesture is also used when the parameters roughly set by the gesture operation are input again in detail. For example, if you draw a line from the movement gesture mark that is still displayed on the screen,
The movement distance, angle, coordinates before movement, coordinate values of the movement destination, etc. are displayed, and the amount of movement can be finely adjusted by changing the values.

【0096】ここで、この“引き出し線”のジェスチャ
は対象オブジェクト別に以下のように動作する。すなわ
ち、ジェスチャの場合は、ジェスチャ操作の詳細なパラ
メータの参照,設定がなされる。ファイルのアイコンの
場合は、ファイル名,ファイルの作成日,作成者,サイ
ズ,作成時に使用したアプリケーション等の情報をウイ
ンドウに提示する。ファイル名,読み書き許可フラグ等
の変更可能な情報についてはウインドウ上で変更を受け
付ける。幾つものファイルが指定されていた場合は一覧
表が提示される。また、アプリケーションのアイコンの
場合は、アプリケーション名,著作権,購入者名,サイ
ズ等の情報をウインドウに表示する。ユーザーによる細
かい設定を行なうための選択枝がウインドウ上に存在
し、選択することによりアプリケーションの環境設定な
どを行なうことができる。図形オブジェクトの場合は、
色,線種などの属性値をウインドウに表示する。属性値
を設定するための選択枝とその他の操作のための選択枝
がウインドウ上に存在し、属性設定や各種操作を行なう
ことができる。文字列オブジェクトの場合は、色,文字
種,サイズ,文字間隔,行間隔などの属性値をウインド
ウに表示する。属性値を設定するための選択肢とその他
の操作のための選択枝がウインドウ上に存在し、属性設
定や各種操作を行なうことができる。仮名漢字変換中の
文節の場合は、変換候補の一覧表を表示するための変換
候補一覧ウインドウが開かれる。文字認識後の文字場合
は、認識候補の一覧表を表示するための文字認識ウイン
ドウが開かれる。
Here, this "leading line" gesture operates as follows for each target object. That is, in the case of a gesture, detailed parameters of the gesture operation are referred to and set. In the case of a file icon, information such as the file name, file creation date, creator, size, and application used at the time of creation is presented in the window. Changes such as file name and read / write permission flag are accepted on the window. If several files are specified, a list will be presented. In the case of an application icon, information such as the application name, copyright, purchaser name, and size is displayed in the window. There is a selection branch on the window for the user to make detailed settings. By selecting it, the environment settings of the application can be set. For graphic objects,
Display attribute values such as color and line type in the window. A selection branch for setting an attribute value and a selection branch for other operations exist on the window, and attribute setting and various operations can be performed. In the case of a character string object, attribute values such as color, character type, size, character spacing, and line spacing are displayed in the window. There are choices for setting attribute values and selection branches for other operations on the window, and attribute setting and various operations can be performed. In the case of a phrase being converted into Kana-Kanji, a conversion candidate list window for displaying a conversion candidate list is opened. In the case of a character after character recognition, a character recognition window for displaying a list of recognition candidates is opened.

【0097】“変換”のジェスチャでは、現在指定され
ているオブジェクトに対して変換操作を施す。オブジェ
クトが指定されていない場合は筆跡の下にあるオブジェ
クトが対象となる。アンダーライン,傍線の先頭や末尾
に変換のための形状を組み合わせた短縮型の入力が可能
である。変換動作は、対象となるオブジェクトによって
大きく異なるが、基本的な意味は変換機能の起動と第一
候補の表示である。
In the "conversion" gesture, a conversion operation is performed on the currently designated object. If no object is specified, the object under the handwriting will be the target. It is possible to enter a shortened type that combines the shape for conversion at the beginning and end of underlines and sidelines. The conversion operation varies greatly depending on the target object, but the basic meaning is to activate the conversion function and display the first candidate.

【0098】ここで、上記“変換”のジェスチャは対象
オブジェクト別に以下のように動作する。すなわち、ジ
ェスチャの場合は、ジェスチャ認識ミスを修正する候補
ウインドウを開く。ファイルのアイコンの場合は、ファ
イルのデータ形式の変換を行なうためのウインドウが開
く。図形オブジェクトの場合は、図形の認識を行ない認
識結果を表示する。文字列オブジェクトの場合は、仮名
漢字変換を行なう。文字認識後の文字場合は、認識候
補,単漢字変換の一覧表を表示するための文字認識ウイ
ンドウが開かれる。
Here, the above-mentioned "conversion" gesture operates as follows for each target object. That is, in the case of a gesture, a candidate window for correcting a gesture recognition error is opened. In the case of the file icon, a window for converting the file data format opens. In the case of a figure object, the figure is recognized and the recognition result is displayed. In the case of a character string object, Kana-Kanji conversion is performed. In the case of characters after character recognition, a character recognition window for displaying a list of recognition candidates and single-kanji conversion is opened.

【0099】“挿入”のジェスチャでは、筆跡の尖った
部分(挿入指示部分)にオブジェクトを挿入する。筆跡
で指定された位置に挿入のためのウインドウを開く。
In the "insert" gesture, an object is inserted into the pointed portion of the handwriting (insertion instruction portion). Opens a window for insertion at the position specified by handwriting.

【0100】この“挿入”のジェスチャは対象オブジェ
クト別に以下のように動作する。すなわち、図形オブジ
ェクトの場合は、筆跡で指定された位置に筆跡で指定さ
れた方向に図形挿入指示のためのウインドウを開く。こ
の場合、余白の挿入,選択図形の挿入などを行なうこと
ができる。また、頂点の向きが下向きや上向きとなる挿
入記号の場合は縦線状の余白を作り、頂点の向きが左向
きや右向きの挿入記号の場合は横線状の余白を作る。余
白を作成する線上にかかっている図形については、変形
せずにどちらかに移動する場合と余白分だけ長くなるよ
うに変形して余白地帯上に再表示する場合のいずれかの
処理を使用者が選択できることが望ましい。更に、余白
幅が指定された場合はその値分だけが余白の幅となる。
文字列オブジェクトの場合は、文字列入力ウインドウを
開き、挿入文字列の入力を促す。対象オブジェクトが範
囲指定された文字列だった場合は対象範囲の文字列が文
字列入力用のウインドウ上に転送される。ウインドウを
開いた後挿入する文字列を選択してウインドウ上に移動
することにより、既に入力済みの文字列が挿入される。
データベースの一覧表の場合は、項目方向に挿入記号を
描くと新規項目追加用のウインドウが開く。既存項目を
選択してウインドウ上に移動することにより項目の並べ
変えが可能となる。また、データ方向に挿入記号を描く
と新規データ挿入用のメニューウインドウが開く。既存
のデータを選択してウインドウ上に移動することにより
データの並べ変えが可能となる。
This "insert" gesture operates as follows for each target object. That is, in the case of a graphic object, a window for instructing graphic insertion is opened at the position specified by the handwriting in the direction specified by the handwriting. In this case, it is possible to insert a blank space and a selected figure. In addition, a vertical line-shaped margin is created for an insertion symbol whose vertex is facing downward or upward, and a horizontal-line margin is created for an insertion symbol whose vertex is facing left or right. As for the shape that overlaps the line that creates the margin, either move it without transforming it or transform it so that it is longer by the margin and redisplay it on the margin zone. Is desirable. Furthermore, when the margin width is specified, only that value becomes the margin width.
In the case of a character string object, a character string input window is opened to prompt the user to enter an insertion character string. If the target object is a character string whose range is specified, the character string of the target range is transferred to the window for character string input. After the window is opened, the character string to be inserted is selected and moved to the window, so that the character string already input is inserted.
In the case of a database list, a window for adding a new item opens when you draw an insertion symbol in the direction of the item. Items can be rearranged by selecting existing items and moving them to the window. Also, if you insert an insertion symbol in the data direction, a menu window for inserting new data opens. Data can be rearranged by selecting existing data and moving it to the window.

【0101】“複写”のジェスチャでは、現在指定され
ている領域,オブジェクトを複写する。指定がなければ
筆跡の開始点の下にあるオブジェクトを複写する。複写
先は筆跡の終了点となる。複写先に特殊なオブジェクト
が存在する場合は複写が行なわれないことがある。
The "copy" gesture copies the currently designated area and object. If not specified, the object below the starting point of the handwriting is copied. The copy destination is the end point of the handwriting. If a special object exists at the copy destination, the copy may not be performed.

【0102】この“複写”のジェスチャは対象オブジェ
クト別に以下のように動作する。すなわち、終点が例え
ばプリンターアイコンなどのように特定の機能を表す特
殊なオブジェクトを指示している場合において、当該特
定機能が対象オブジェクトに変更を加えるものの場合
は、先ず始めに対象オブジェクトの複写を実行(複写先
は対象オブジェクトと同一位置)し、複写したオブジェ
クトを操作対象に設定し、当該特定機能に対応する処理
を実行する。また、終点が特定の機能を表す特殊なオブ
ジェクトだった場合において、当該特定機能が対象オブ
ジェクトに変更を加えないものの場合は、対象オブジェ
クトを操作対象に設定し、当該特定機能に対応する処理
を実行する(但し後者を前者と同じ扱いにしてもよ
い)。終点がそれ以外のオブジェクトだった場合は通常
の複写処理が行われる。ファイルのアイコンの場合は、
ファイルを複写する。始点と終点がディレクトリの境界
を超えた位置にあればディレクトリを超えた複写とな
り、同一ディレクトリ内にあればディレクトリ内複写と
なる。複写されたオブジェクトに元のオブジェクトと別
の名前を与える必要がある場合、計算機が自動的に行な
っても構わないし、使用者に名前の入力を求めても構わ
ない。図形オブジェクトの場合は、対象オブジェクトを
始点と終点の座標差分だけ並行移動した位置に複写を生
成する。文字列オブジェクトの場合は、終点位置に対象
文字列と同一の文字列を挿入する。
This "copy" gesture operates as follows for each target object. In other words, when the end point indicates a special object that represents a specific function, such as a printer icon, if the specific function modifies the target object, first copy the target object. (The copy destination is at the same position as the target object), the copied object is set as the operation target, and the process corresponding to the specific function is executed. If the end point is a special object that represents a specific function and the specific function does not change the target object, set the target object as the operation target and execute the process corresponding to the specific function. (However, the latter may be treated the same as the former). If the end point is any other object, normal copy processing is performed. For a file icon,
Copy the file. If the start point and the end point are located beyond the boundary of the directory, the copy is beyond the directory, and if they are in the same directory, the copy is inside the directory. When it is necessary to give the copied object a name different from that of the original object, the computer may do this automatically, or the user may be required to enter the name. In the case of a graphic object, a copy is generated at a position where the target object is moved in parallel by the coordinate difference between the start point and the end point. In the case of a character string object, the same character string as the target character string is inserted at the end position.

【0103】“カット”のジェスチャでは、筆跡の書き
だし部分(あるいはその極近傍)にあるオブジェクトを
カットバッファと呼ばれる特殊な領域に移動する。指定
操作が事前に行なわれていた場合は指定されたオブジェ
クトをカットバッファに移動する。カットバッファとは
作業帳のようなオブジェクトであり、OS(基本ソフ
ト)あるいはアプリケーションソフトが用意する。カッ
トバッファに移動されたオブジェクトは、ペーストと呼
ばれる操作によってアプリケーションソフトに戻され
る。これによってページをまたいだ移動などを効率よく
行なうことができる。また、オブジェクトを消去する目
的でカット利用することもできる。OSによってカット
バッファの機能が実現されている場合は、アプリケーシ
ョンソフト同士がカットバッファを共有することになる
ので、それを仲介してアプリケーションソフト同士のオ
ブジェクトの受渡しが可能になる。
In the "cut" gesture, the object in the writing portion (or its immediate vicinity) of the handwriting is moved to a special area called a cut buffer. If the specified operation has been performed in advance, move the specified object to the cut buffer. The cut buffer is an object such as a workbook, and is prepared by the OS (basic software) or application software. The object moved to the cut buffer is returned to the application software by an operation called paste. This makes it possible to move efficiently across pages. It can also be cut and used for the purpose of deleting an object. When the cut buffer function is realized by the OS, the application software shares the cut buffer, so that the objects of the application software can be delivered via the media.

【0104】この“カット”のジェスチャは対象オブジ
ェクト別に以下のように動作する。例えば、文字列が対
象の場合は、対象文字列がカットバッファに移動され、
対象文字列があった場所に後続の文字列が詰められる。
図形オブジェクトが対象の場合は、対象図形がカットバ
ッファに移動される。また、その他のオブジェクトが対
象の場合において、カットバッファが受け入れできない
オブジェクトの場合は、動作しない
This "cut" gesture operates as follows for each target object. For example, if the target is a character string, the target character string is moved to the cut buffer,
Subsequent strings are packed in the place where the target string was.
If the graphic object is the target, the target graphic is moved to the cut buffer. Also, when other objects are targeted, if the cut buffer cannot accept the object, it does not work.

【0105】なお、カットバッファが何を受け入れるか
はシステムに依存する。文字列からファイル、プリンタ
その他全てのものを受け付けるものも考えられるし、文
字列しか受け付けないものも考えられる。
What the cut buffer accepts depends on the system. It may be possible to accept a file, a printer, or all other things from a character string, or to accept only a character string.

【0106】“コピー”のジェスチャでは、筆跡の書き
だしのカギの先端部分(あるいはそのごく近傍)にある
オブジェクトをカットバッファに複写する。指定操作が
事前に行なわれていた場合は指定されたオブジェクトを
カットバッファに複写する。ペースト操作と組み合わせ
て、離れた場所への複写や連続した複写に利用する。
In the "copy" gesture, the object at the tip of the key for writing the handwriting (or in the vicinity thereof) is copied to the cut buffer. If the specified operation has been performed in advance, the specified object is copied to the cut buffer. Used in combination with the paste operation for copying to a distant place or continuous copying.

【0107】この“コピー”のジェスチャは対象オブジ
ェクト別に以下のように動作する。カットバッファが受
け入れできる対象オブジェクトの場合は、対象オブジェ
クトがカットバッファに複写され、カットバッファが受
け入れできない対象オブジェクトの場合は、動作しな
い。
This "copy" gesture operates as follows for each target object. If the target object can be accepted by the cut buffer, the target object is copied to the cut buffer, and if the target object cannot be accepted by the cut buffer, it does not operate.

【0108】“ペースト”のジェスチャでは、筆跡の書
きだしのカギの先端部分にカットバッファにあるオブジ
ェクトを複写する。カギの先端部分に文字列オブジェク
トが存在し、カットバッファのオブジェクトも文字列で
ある場合は文字列挿入が行なわれる。いずれの場合もカ
ットバッファの中身には影響を及ぼさない。指定操作が
事前に行なわれていた場合は指定が取り消される。カッ
ト,コピー操作と組み合わせて、離れた場所への移動,
複写,連続複写などに利用する。
In the "paste" gesture, the object in the cut buffer is copied to the tip of the key for writing the handwriting. If a character string object exists at the tip of the key and the object in the cut buffer is also a character string, character string insertion is performed. In either case, it does not affect the contents of the cut buffer. If the designated operation has been performed in advance, the designation will be canceled. Combine with cutting and copying operations to move to a remote location,
It is used for copying and continuous copying.

【0109】この“ペースト”のジェスチャは対象オブ
ジェクト別に以下のように動作する。例えば、対象が存
在しない場合は、カギの先端位置にカットバッファのオ
ブジェクトを複写する。ジェスチャが対象の場合は、カ
ギの先端位置にカットバッファのオブジェクトを複写す
る(ジェスチャの指定は無視する)。文字列オブジェク
トが対象の場合において、カットバッファのオブジェク
トが文字列である場合は、対象文字列にカットバッファ
の文字列を挿入する。また、文字列オブジェクトが対象
の場合において、カットバッファのオブジェクトが文字
列以外である場合は、カギの先端位置にカットバッファ
のオブジェクトを複写する。その他のオブジェクトが対
象の場合は、矢尻の先端位置にカットバッファのオブジ
ェクトを複写する(但し、カットバッファの内容が矢尻
の先端位置に複写可能なオブジェクトである場合であ
り、それ以外の場合は動作せず警告を発する) 。
This "paste" gesture operates as follows for each target object. For example, when there is no target, the object in the cut buffer is copied at the tip position of the key. If the target is a gesture, the object in the cut buffer is copied to the tip position of the key (ignoring the gesture specification). When the character string object is the target and the object in the cut buffer is the character string, the character string in the cut buffer is inserted into the target character string. Further, when the character string object is the object and the object in the cut buffer is other than the character string, the object in the cut buffer is copied to the tip position of the key. When other objects are targeted, the object in the cut buffer is copied to the tip position of the arrowhead (However, when the contents of the cut buffer are objects that can be copied to the tip position of the arrowhead, otherwise it works. Without warning).

【0110】“入力終了指示”のジェスチャでは、現在
行なっている入力,選択等の操作を終了し、処理を実行
する。直前の処理の再実行,一括実行型編集時の編集の
実行,引出し線による詳細設定など終了の契機がはっき
りしない入力操作の終了に用いられる。処理を先に指定
して後から対象となるオブジェクトを指定する場合も指
定終了の契機を伝えるために使用する。また、処理が指
示されていない場合は指定されたオブジェクトに対して
直前の処理を実行する。
In the gesture of "input end instruction", the operation such as input and selection currently being performed is ended and the process is executed. It is used for re-executing the immediately preceding process, executing editing during batch execution type editing, and ending input operations for which the timing of termination is unclear, such as detailed settings using leader lines. It is also used to convey the trigger for the end of specification when specifying the process first and then the target object. If the processing is not instructed, the immediately preceding processing is executed for the designated object.

【0111】取り消し操作直後の実行操作は取り消しの
再実行という意味と今取り消してしまった命令の再実行
という意味の2通りに解釈できる。どちらの解釈を望む
かは使用者と状況によって異なるので、使用者から特に
指定があった場合を除き、どちらを実行するか使用者に
確認を求めるのが望ましい。
The execution operation immediately after the cancellation operation can be interpreted in two ways, meaning that the cancellation is re-executed and that the instruction that has just been canceled is re-executed. Which interpretation is desired depends on the user and the situation, so it is desirable to ask the user to confirm which one should be executed unless otherwise specified by the user.

【0112】この“入力終了指示”のジェスチャは対象
オブジェクト別に以下のように動作する。例えば、属性
入力ウインドウ,仮名漢字変換ウインドウ等の一時的に
開くウインドウの場合は、現在までの入力を全て有効と
し、一時的に開いていたウインドウが閉じ、属性ウイン
ドウならば属性設定を行なう等の処理を実行する。それ
以外のウインドウの場合において、処理とオブジェクト
が指定されている場合は、指定されているオブジェクト
に指定された処理を施す。また、上記属性入力ウインド
ウ,仮名漢字変換ウインドウ等の一時的に開くウインド
ウ以外のウインドウの場合において、オブジェクトのみ
が指定されている場合は、指定されているオブジェクト
に直前に実行された処理を施す。指定されたオブジェク
トの種類が、直前に実行された処理に対して不適切な場
合、指定されたオブジェクトに対して実行可能な処理
を、実行された処理群の中から時系列を遡って選び出
す。同じく、上記属性入力ウインドウ,仮名漢字変換ウ
インドウ等の一時的に開くウインドウ以外のウインドウ
の場合において、処理とオブジェクトの両方とも指定さ
れていない場合は、直前に実行された処理を実行する。
但し、実行されるのはもう一度(同じオブジェクトを)
拡大する等の処理とオブジェクトの両方を省略しても操
作に意味のある場合のみである。
This "input end instruction" gesture operates as follows for each target object. For example, in the case of a window that opens temporarily such as an attribute input window or a kana-kanji conversion window, all the input up to the present is valid, the window that was opened temporarily is closed, and if it is an attribute window, you can set attributes. Execute the process. In the case of other windows, when the process and the object are designated, the designated process is performed on the designated object. Further, in the case of a window other than the window that is temporarily opened, such as the attribute input window or the kana-kanji conversion window, if only the object is specified, the process executed immediately before is performed on the specified object. When the type of the specified object is inappropriate for the process executed immediately before, the process executable for the specified object is selected in time series from the executed process group. Similarly, in the case of a window other than the window that is temporarily opened, such as the attribute input window or the kana-kanji conversion window, if neither the process nor the object is specified, the process executed immediately before is executed.
However, it is executed again (same object)
It is only when the operation is meaningful even if both the processing such as enlargement and the object are omitted.

【0113】“空白”のジェスチャでは、ペンを下ろし
た点の前の文字と後ろの文字との間に空白文字を挿入す
る。
The "blank" gesture inserts a blank character between the character before and the character after the point where the pen is lowered.

【0114】この“空白”のジェスチャは対象オブジェ
クト別に以下のように動作する。例えば、文字列上に記
入された場合は、ペンを下ろした点の前の文字と後ろの
文字との間に空白文字を挿入する。
This "blank" gesture operates as follows for each target object. For example, if it is written on the character string, a blank character is inserted between the character before and the character after the point where the pen is lowered.

【0115】“タブ”のジェスチャでは、ペンを下ろし
た点の前の文字と後ろの文字との間にタブ文字を挿入す
る。
The "tab" gesture inserts a tab character between the character before and the character after the point where the pen is lowered.

【0116】この“タブ”のジェスチャは対象オブジェ
クト別に以下のように動作する。例えば、文字列上に記
入された場合は、ペンを下ろした点の前の文字と後ろの
文字との間にタブ文字を挿入する。
This “tab” gesture operates as follows for each target object. For example, if it is written on the character string, a tab character is inserted between the character before and the character after the point where the pen is lowered.

【0117】“改行”のジェスチャでは、筆跡によって
区切られた部分で文字列を改行する。
In the "line feed" gesture, the character string is line feed at the part delimited by the handwriting.

【0118】この“改行”のジェスチャは、対象オブジ
ェクト別に以下のように動作する。例えば、文字列上に
記入された場合は、筆跡の文字列を横切る部分によって
指定された位置で文字列を改行する。
This "line feed" gesture operates as follows for each target object. For example, when it is written on a character string, the character string is broken at a position designated by a portion of the handwriting that crosses the character string.

【0119】“接続”のジェスチャでは、筆跡の前後の
文字列オブジェクトを接続する。
The "connect" gesture connects the character string objects before and after the handwriting.

【0120】この“接続”のジェスチャは対象オブジェ
クト別に以下のように動作する。例えば、文字列の行間
に記入された場合は、前後の行の末尾と先頭を接続する
(改行を削除する)。
This "connect" gesture operates as follows for each target object. For example, if it is entered between the lines of a character string, the end and the beginning of the lines before and after are connected (line breaks are deleted).

【0121】“ジェスチャ座標データ切替え”のジェス
チャでは、ジェスチャとして認識された筆跡を座標デー
タに切替える。或いは座標データとして認識された筆跡
をジェスチャとして認識する。
In the "gesture coordinate data switching" gesture, the handwriting recognized as a gesture is switched to coordinate data. Alternatively, the handwriting recognized as coordinate data is recognized as a gesture.

【0122】この“ジェスチャ座標データ切替え”のジ
ェスチャは、対象オブジェクト別に以下のように動作す
る。例えば、ジェスチャ上に記入された場合は、ジェス
チャ操作を取り消し、ジェスチャとして解釈された筆跡
を座標データとして入力したものとする。ペン筆跡から
の座標データとして入力されて生成されたオブジェクト
上に当該ジェスチャが記入された場合は、そのオブジェ
クトを削除しそのオブジェクトを生成した座標データを
その形状によるジェスチャとして入力されたものと扱
う。解釈が難しい場合は認識候補一覧を使用者に提示し
て指示を仰ぐ。
This "gesture coordinate data switching" gesture operates as follows for each target object. For example, when it is written on the gesture, it is assumed that the gesture operation is canceled and the handwriting interpreted as the gesture is input as the coordinate data. When the gesture is entered on the object generated by inputting the coordinate data from the pen handwriting, the object is deleted, and the coordinate data generated by the object is treated as the gesture input by the shape. If it is difficult to interpret, present a list of recognition candidates to the user for instructions.

【0123】一括実行型編集時の動作の変更点におい
て、“取り消し”のジェスチャが他のジェスチャ上に記
入された場合は、下に記されたジェスチャ記述が消去さ
れ、取り消しのジェスチャを一時的に残す(次の入力で
消える) 。または、下に記されたジェスチャに変更取り
消しの印“イキ”が付加される。属性入力ウインドウ,
仮名漢字変換ウインドウ等の一時的に開くウインドウの
場合は、現在までのウインドウ上の入力を全て無効と
し、一時的に開いていたウインドウを閉じ、引出し線を
消去する。それ以外のウインドウの場合は、直前に記入
されたジェスチャ記述が消去され、取り消しのジェスチ
ャを一時的に残す(次の入力で消える)。または、直前
に記入されたジェスチャに変更取り消しの印“イキ”が
付加される。
In the change of operation at the batch execution type editing, when the gesture of "cancel" is written on another gesture, the gesture description described below is erased and the cancel gesture is temporarily changed. Leave (disappear on next input). Alternatively, a change cancellation mark “Iki” is added to the gesture described below. Attribute input window,
In the case of a window that is temporarily opened, such as the Kana-Kanji conversion window, all the inputs on the window up to the present are invalidated, the window that was opened temporarily is closed, and the leader line is deleted. In the case of other windows, the gesture description entered immediately before is erased and the cancel gesture is left temporarily (disappeared by the next input). Alternatively, the mark “Iki” for canceling the change is added to the gesture that was just entered.

【0124】さらに、一括実行型編集時の動作の変更点
において、“入力終了指示”のジェスチャは、対象とな
るオブジェクトが実行を保留しているジェスチャである
場合は、実行を保留しているジェスチャに対応する処理
を実行する。属性入力ウインドウ,仮名漢字変換ウイン
ドウ等の一時的に開くウインドウの場合は、現在までの
入力を全て有効とし、一時的に開いていたウインドウが
閉じ、実行されるべき操作を引き出し線の先に文字で記
入する(文字併記型ジェスチャとして認識される)。そ
れ以外のウインドウの場合は、編集の一括実行がなされ
る。
Further, in the change point of the operation at the batch execution type editing, the gesture of “input end instruction” is the gesture of suspending the execution when the target object is the gesture of suspending the execution. The process corresponding to is executed. For windows that are temporarily opened, such as the Attribute Input window and the Kana-Kanji conversion window, all the input up to the present is enabled, the window that was opened temporarily is closed, and the operation to be executed is displayed with a character next to the leader line. Fill out with (recognized as a gesture with text writing). In the case of other windows, batch editing is performed.

【0125】本発明実施例では、上述したような各ジェ
スチャを用いて以下のようなことを実現している。
In the embodiment of the present invention, the following is realized by using each gesture as described above.

【0126】先ず、仮名漢字変換ジェスチャーについて
述べる。
First, the kana-kanji conversion gesture will be described.

【0127】例えば、本実施例の仮名漢字変換する始点
から終点までの範囲と仮名漢字変換の指示とを連続した
筆跡で指定する仮名漢字変換ジェスチャとしては、図7
の(a),(b),(c),(d) 或いは図8の(a),(b),(c),(d) に示
すように滑らかな筆跡の始端側(始点SP側)或いは終
端側に図中点線部分に12,13,14,15に示すよ
うな特殊な形状を付加した形状を用いる。なお、図7の
(a) 及び図8の(a) には認識すべき特殊な形状として終
端が左回りの形状を示し、図7の(b) 及び図8の(b) に
は終端が右回りの形状を、図7の(c) 及び図8の(c) に
は始点が右回りの形状を、図7の(d) 及び図8の(d) に
は始点が左回りの形状を示している。
For example, FIG. 7 shows a kana-kanji conversion gesture in which the range from the start point to the end point of kana-kanji conversion and the kana-kanji conversion instruction in this embodiment are designated by continuous handwriting.
(A), (b), (c), (d) of Fig. 8 or (a), (b), (c), and (d) of Fig. 8, the start side of the smooth handwriting (start point SP side) Alternatively, a shape in which a special shape as shown by 12, 13, 14, 15 is added to the dotted line portion in the figure on the terminal side is used. In addition, in FIG.
(a) and (a) of Fig. 8 show a left-handed shape as a special shape to be recognized, and Fig. 7 (b) and (b) of Fig. 8 show a right-handed shape. 7 (c) and FIG. 8 (c) show the shape in which the starting point is clockwise, and FIG. 7 (d) and FIG. 8 (d) show the shape in which the starting point is counterclockwise.

【0128】仮名漢字変換を行う場合の手順は、上記ジ
ェスチャに対応する筆跡を認識し、次に、当該筆跡が極
近傍を通過した文字を検索してこの筆跡の通過順に並
べ、その後この筆跡が極近傍を通過した文字列を仮名漢
字変換する。
The procedure for performing kana-kanji conversion is to recognize the handwriting corresponding to the above gesture, then search for the characters that have passed the closest handwriting and arrange them in the passing order of this handwriting, and then Kana-Kanji conversion is performed on the character string that has passed through the immediate vicinity.

【0129】すなわち、例えば、図9の(a) に示すよう
な“きょうはてんきがいい”という文字列が表示されて
いるとする。この時、本実施例装置の前記スタイラスペ
ン60により、当該文字列の内の仮名漢字変換を行いた
い文字列(“きょうは”の文字列)近傍に、図9の(b)
に示すような筆跡PMを描く。当該筆跡PMが描かれる
と、本実施例装置は、この筆跡PMが仮名漢字変換ジェ
スチャかどうかを判定し、仮名漢字変換であると判定す
ると、仮名漢字変換機能を呼び出し、当該筆跡PMで指
示される文字列に対して仮名漢字変換を行う。これによ
り、上記図9の(b) に示した文字列は仮名漢字変換さ
れ、図9の(c) に示すように、“今日はてんきがいい”
のように変換が実行される。なお、図9の(d) に示すよ
うに、文字列をつめ、ジェスチャ表示もこれにあわせて
変更するような実現を行ってもよい。
That is, for example, it is assumed that the character string "Today is good" is displayed as shown in FIG. 9 (a). At this time, with the stylus pen 60 of the apparatus of the present embodiment, a character string in the character string to be converted into Kana-Kanji (a character string of "Kyoha") is displayed near the character string (b) of FIG.
Draw a handwriting PM as shown in. When the handwriting PM is drawn, the apparatus of the present embodiment determines whether the handwriting PM is a kana-kanji conversion gesture, and if it is kana-kanji conversion gesture, calls the kana-kanji conversion function and is instructed by the handwriting PM. Kana-Kanji conversion is performed on the character string. As a result, the character string shown in (b) of FIG. 9 above is converted into Kana-Kanji, and as shown in (c) of FIG.
The conversion is executed as follows. Note that, as shown in FIG. 9D, a character string may be stuffed and the gesture display may be changed accordingly.

【0130】なお、本実施例の仮名漢字変換の手順につ
いては後述のフローチャートにおいて詳述する。
The procedure of Kana-Kanji conversion of this embodiment will be described in detail in the flow chart described later.

【0131】本実施例の仮名漢字変換機能は、図10の
(a),(b) に示すように、縦書きの文字列に対しても機能
する。すなわち、縦書き,横書きで操作が統一されてい
る。また、図11の(a),(b) のように特殊なレイアウト
の文字列に対しても、図11の(a) の図中筆跡PMのよ
うに通常の文字列と同様に指示すれば仮名漢字変換が可
能となっている。
The kana-kanji conversion function of this embodiment is shown in FIG.
As shown in (a) and (b), it also works for vertical text strings. That is, the operations are unified for vertical writing and horizontal writing. Further, even for a character string having a special layout as shown in (a) and (b) of FIG. 11, if it is indicated in the same manner as a normal character string like the handwriting PM in the figure of (a) of FIG. Kana-Kanji conversion is possible.

【0132】ところで、例えば、図12の(a) に示す筆
跡PMのように、文字列の繋がりとは異なる向きに筆跡
を描いた場合は、本実施例では、図12の(a) の文字列
が図12の(b) に示すように変換されることになる。こ
れに対して、例えば、文字列の方向と筆跡の方向を比較
し、仮名漢字変換の対象とする文字の選び方を工夫する
ことにより、図12の(c) に示すような変換を行なうよ
うに設定することも当然可能である。また、文字列に対
して図12の(d) に示すような軌跡PMを書き込んだ場
合には、本実施例では、図12の(e) のような変換がな
されることになる。この場合も、例えば、文字列の方向
と筆跡の方向を比較する等により、図12の(f) に示す
ような変換を行なうことが可能である。
By the way, when the handwriting is drawn in a direction different from the connection of the character strings, such as the handwriting PM shown in FIG. 12A, in the present embodiment, the character of FIG. The columns will be transformed as shown in FIG. On the other hand, for example, by comparing the direction of the character string with the direction of the handwriting and devising a method of selecting the character to be the target of Kana-Kanji conversion, conversion as shown in (c) of FIG. 12 is performed. Of course, it can be set. Further, when the locus PM shown in FIG. 12D is written in the character string, the conversion shown in FIG. 12E is performed in this embodiment. Also in this case, for example, by comparing the direction of the character string with the direction of the handwriting, it is possible to perform the conversion as shown in FIG.

【0133】なお、上記図9〜図12の例では、仮名漢
字変換の実行後に変換を指示した筆跡が残っている例を
示しているが、変換結果の表示と共に筆跡を消去するよ
うな実現を行ってもよい。また、図9の(d) のように変
換後の文字列の長さに合わせて筆跡を変形して表示する
ことにより、変換の操作の途中であることを明示するこ
とも可能である。
Although the examples of FIGS. 9 to 12 show examples in which the handwriting instructing the conversion remains after the execution of the kana-kanji conversion, it is possible to display the conversion result and erase the handwriting. You can go. Further, as shown in FIG. 9D, the handwriting is transformed and displayed according to the length of the converted character string, so that it is possible to clearly indicate that the conversion operation is in progress.

【0134】上述のようなことから、本実施例によれ
ば、素早く仮名漢字変換ができ、縦書きでも横書きでも
同じ操作で仮名漢字変換ができ、また、特殊なレイアウ
トで表示されている文字でも同じ操作で仮名漢字変換が
可能となっている。
As described above, according to the present embodiment, the kana-kanji conversion can be performed quickly, and the kana-kanji conversion can be performed by the same operation for vertical writing and horizontal writing, and even for characters displayed in a special layout. Kana-kanji conversion is possible with the same operation.

【0135】図13には、仮名漢字変換ジェスチャのフ
ローチャートを示す。ただし、このフローチャートで
は、簡単のため終端で左回り形状をとる場合についてを
表している。他の3つの形状についてもほぼ同様な手段
によって判定できる。
FIG. 13 shows a flowchart of a kana-kanji conversion gesture. However, in this flowchart, for simplification, the case where the terminal has a counterclockwise shape is shown. The other three shapes can be determined by almost the same means.

【0136】この図13において、ステップS11で
は、前記スタイラスペン60からの1画の筆跡入力を待
つ。当該ステップS11で筆跡入力がなされると、ステ
ップS12に進む。このステップS12では、上記ステ
ップS11で入力された筆跡の平滑化が行われた後、ス
テップS13に進む。
In FIG. 13, in step S11, the input of one stroke of handwriting from the stylus pen 60 is awaited. When handwriting is input in step S11, the process proceeds to step S12. In step S12, the handwriting input in step S11 is smoothed, and then the process proceeds to step S13.

【0137】当該ステップS13では、上記筆跡に自分
自身の筆跡と交差した部分が存在するか否かを判断す
る。ここで、上記筆跡に交差する部分が存在する場合
(Yes)にはステップS14に進み、存在しない場合
(No)には後述するステップS18に進む。
In step S13, it is determined whether or not the handwriting includes a portion that intersects with the handwriting of oneself. If there is a portion intersecting the handwriting (Yes), the process proceeds to step S14, and if it does not exist (No), the process proceeds to step S18 described later.

【0138】上記ステップS14では、上記筆跡の交差
する部分が1つか否かの判断が行われる。当該ステップ
S14で上記交差する部分が1つと判断した場合(Ye
s)にはステップS15に進み、交差する部分が1つで
ないと判断した場合(No)にはステップS18に進
む。
In step S14, it is determined whether or not there is one intersecting portion of the handwriting. When it is determined in step S14 that the number of intersecting portions is one (Yes
If it is determined that the number of intersecting portions is not one (No), the process proceeds to step S18.

【0139】上記ステップS15では、上記交差点の間
の筆跡は、左周りか否かの判断が行われる。当該ステッ
プS15で上記交差点の間の筆跡が左周りであると判断
した場合(Yes)にはステップS17に進み、左周り
でないと判断した場合(No)は、ステップS18に進
む。
In step S15, it is determined whether the handwriting between the intersections is left-handed. If it is determined in step S15 that the handwriting between the intersections is left-handed (Yes), the process proceeds to step S17, and if it is determined that the handwriting is not left-handed (No), the process proceeds to step S18.

【0140】上記ステップS17では、上記筆跡の始点
SPと上記交差した点(交点)の長さが、筆跡の終点E
Pと上記交点との長さよりも長いか否かの判断がなされ
る。当該ステップS17で上記始点SPと交点との長さ
が終点EPと交点との長さよりも長いと判断した場合
(Yes)にはステップS19に進み、上記始点SPと
交点との長さが終点EPと交点との長さよりも長くない
(終点EPと交点との長さの方が始点SPと交点との長
さよりも長い)と判断した場合(No)にはステップS
18に進む。
In step S17, the length of the intersection (intersection) with the start point SP of the handwriting is the end point E of the handwriting.
It is judged whether or not it is longer than the length of P and the intersection. If it is determined in step S17 that the length between the start point SP and the intersection is longer than the length between the end point EP and the intersection (Yes), the process proceeds to step S19, where the length between the start point SP and the intersection point is the end point EP. If it is determined that it is not longer than the length of the intersection (the length of the end point EP and the intersection is longer than the length of the start point SP and the intersection) (No), step S
Proceed to 18.

【0141】上記ステップS19では、上記始点SPか
ら上記交点までの軌跡に沿った文字の検索を行う。この
ステップS19の後はステップS110に進み、当該ス
テップS110では上記検索した文字に対する仮名漢字
変換の起動(実行)がなされる。このステップS110
の後はステップS11に戻る。
In step S19, a character is searched for along the locus from the start point SP to the intersection. After this step S19, the process proceeds to step S110, in which the kana-kanji conversion for the retrieved character is started (executed). This step S110
After that, the process returns to step S11.

【0142】上記ステップS13〜ステップS17での
各判断においてNoと判断された場合の上記ステップS
18では、その他の処理がなされる。すなわち、上記ス
テップS11の筆跡入力は、仮名漢字変換のジェスチャ
ではないため、他のジェスチャ或いは図形,文字等の入
力としてそれらに対応する処理を行う。このステップS
18の後はステップS11に戻る。
The above-mentioned step S when No is judged in each of the above-mentioned steps S13 to S17.
At 18, other processing is performed. That is, since the handwriting input in step S11 is not a kana-kanji conversion gesture, other gestures, figures, characters, etc. are input and the corresponding processing is performed. This step S
After 18, the process returns to step S11.

【0143】次に、本実施例装置における形状の類似し
たジェスチャの区別の機能について述べる。
Next, the function of distinguishing gestures having similar shapes in the apparatus of this embodiment will be described.

【0144】上記形状の類似したジェスチャの区別を行
う際の手順としては、先ず、入力筆跡の形状認識を行な
う。この認識結果の形状の種類から、その形状に対応す
る機能のリストを作成する。上記リストされた機能の各
々について、入力筆跡の周囲に筆跡の大きさと向きによ
って決定される判定領域を設ける。但し領域の形・大き
さは機能の種類によって異なる。次に、画面上で判定領
域内に存在するデータを検索し、この検索で発見したデ
ータの画面上での向きと大きさを入力筆跡の向きと大き
さと比較する。また、データと入力筆跡の位置関係も適
合するかどうか検査する。この検査とは、操作の対象と
なるデータとして適しているかどうかの検査のことであ
る。データや機能の種類によって検査の手続きを変更す
ることでより正確な検査を行なうことができる。更に、
上記比較及び検査の結果、向きや大きさの関係から適合
するデータがなければ、今調べている種類の機能を上記
リストから除外する。その後、リストされた機能の中
で、上記調べた適合度の得点が最も高いものを入力筆跡
が示す機能として採用する。但し筆跡が、その機能を示
すジェスチャとしては標準から外れた形状だった場合
は、得点を割り引いて評価するような実現も当然可能で
ある。
As a procedure for distinguishing between gestures having similar shapes, the shape of the input handwriting is first recognized. Based on the shape type of the recognition result, a list of functions corresponding to the shape is created. For each of the functions listed above, a determination area is provided around the input handwriting that is determined by the size and orientation of the handwriting. However, the shape and size of the area differ depending on the type of function. Next, the data existing in the judgment area is searched on the screen, and the direction and size of the data found by this search on the screen are compared with the direction and size of the input handwriting. Also, it is checked whether the positional relationship between the data and the input handwriting matches. This inspection is an inspection as to whether or not it is suitable as data to be operated. A more accurate inspection can be performed by changing the inspection procedure depending on the type of data or function. Furthermore,
As a result of the above comparison and inspection, if there is no matching data due to the relationship of the orientation and the size, the type of function currently being investigated is excluded from the above list. After that, among the listed functions, the one with the highest score of the above-described conformity is adopted as the function indicated by the input handwriting. However, when the handwriting has a shape that is out of the standard as a gesture indicating the function, it is naturally possible to realize the evaluation by discounting the score.

【0145】本実施例では、上記形状の類似したジェス
チャの区別として、例えば、表3の表(3) に示した“範
囲指定”のジェスチャに対応する入力筆跡と、“挿入”
のジェスチャに対応する入力筆跡との区別を行う場合を
例に挙げて説明する。
In the present embodiment, to distinguish between gestures having similar shapes, for example, the input handwriting corresponding to the gesture of "range designation" shown in Table (3) of Table 3 and "insertion".
The case where the input handwriting corresponding to the gesture is distinguished is described as an example.

【0146】ここで、例えば、上記“範囲指定”のジェ
スチャの機能を機能Aとし、上記“挿入”のジェスチャ
の機能を機能Bとする。
Here, for example, the function of the "range designation" gesture is referred to as a function A, and the function of the "insert" gesture is referred to as a function B.

【0147】これら二つのジェスチャは、図14の(a)
に示すジェスチャGEA と、図14の(b) に示すジェス
チャGEB のように、“範囲指定”と“挿入”として使
用されるが、これらジェスチャGEA とジェスチャGE
B は形状だけ見ると非常に類似している。
These two gestures are shown in FIG. 14 (a).
Gesture GE A shown, as gesture GE B shown in (b) of FIG. 14, "range specification" and is used as a "insertion", these gestures GE A gesture GE
B is very similar in shape only.

【0148】このようなことから、例えば、図15の
(a) に示すような文字列が表示されており、この文字列
に対して図15の(b) に示すような筆跡PMの入力がな
された場合、本実施例では以下に示す図16のフローチ
ャートのようにして、この入力筆跡が何れのジェスチャ
に対応しているかを判断している。
From the above, for example, in FIG.
When the character string as shown in (a) is displayed and the handwriting PM as shown in (b) of FIG. 15 is input to this character string, in this embodiment, the character string of FIG. As in the flowchart, it is determined which gesture the input handwriting corresponds to.

【0149】図16には、筆跡の形状の類似したジェス
チャの区別を行うためのフローチャートを示す。
FIG. 16 shows a flowchart for distinguishing gestures having similar handwriting shapes.

【0150】この図16において、ステップS21では
ペン入力或いはキーボード等からの入力待ち状態となっ
ており、当該ステップS21で入力がなされるとステッ
プS22に進む。
In FIG. 16, in step S21, a pen input or an input from a keyboard or the like is awaited, and when an input is made in step S21, the process proceeds to step S22.

【0151】当該ステップS22では、上記入力がペン
からの筆跡か否かの判断がなされる。このステップS2
2で入力が筆跡であると判断された場合(Yes)はス
テップS24に進み、Noと判断された場合にはステッ
プS23に進む。当該ステップS23では、上記入力が
筆跡でないため、その入力(例えばキーボード入力)に
対応する処理を行う。このステップS23の後はステッ
プS21に戻る。また、上記ステップS24では上記筆
跡入力の平滑化を行い、その後ステップS25に進む。
In step S22, it is determined whether or not the input is handwriting from a pen. This step S2
When it is determined that the input is handwriting in 2 (Yes), the process proceeds to step S24, and when No is determined, the process proceeds to step S23. In step S23, since the input is not a handwriting, processing corresponding to the input (for example, keyboard input) is performed. After step S23, the process returns to step S21. In step S24, the handwriting input is smoothed, and then the process proceeds to step S25.

【0152】当該ステップS25では、上記筆跡入力以
前に入力された筆跡の中に認識が保留されたものが存在
するか否かの判断を行う。このステップS25において
保留された筆跡入力が発見された場合(Yes)はステ
ップS26に進み、無い場合(No)はステップS28
に進む。
In the step S25, it is determined whether or not there is a handwriting whose recognition is suspended among the handwriting input before the handwriting input. If the pending handwriting input is found in this step S25 (Yes), the process proceeds to step S26, and if not (No), the step S28 is performed.
Proceed to.

【0153】上記ステップS28では、上記筆跡入力
(1つの筆跡入力)の認識を行う。例えば、例えば前記
システムROM52等に保持されている形状認識用テー
ブルを使用して上記筆跡入力の認識を行う。具体的に
は、上記筆跡入力の形状と対応する当該形状認識用テー
ブル内の形状番号Snoを返すような処理を行う。な
お、当該形状認識用テーブル内に上記筆跡入力に対応す
る形状番号Snoが無い場合には、未登録のコード(未
登録を意味する番号)を返す。なお、未登録のコード
は、何れのジェスチャでなく、どのジェスチャの一部で
もない筆跡入力に対して出力される。
In step S28, the handwriting input (one handwriting input) is recognized. For example, the handwriting input is recognized using the shape recognition table stored in the system ROM 52 or the like. Specifically, processing is performed such that the shape number Sno in the shape recognition table corresponding to the shape of the handwriting input is returned. If there is no shape number Sno corresponding to the handwriting input in the shape recognition table, an unregistered code (a number that means unregistered) is returned. Note that the unregistered code is output for a handwriting input that is not a gesture or a part of any gesture.

【0154】上記ステップS28の後は、ステップS2
9に進む。このステップS29では、上記形状番号Sn
oが登録されていないものか否かの判断を行う。すなわ
ち、当該ステップS29では上記ステップS28から未
登録のコードが返されてきたか否かの判断がなされ、こ
のステップS29で未登録であると判断した場合(Ye
s)にはステップS210に進み、未登録でない(登録
されている)と判断した場合(No)にはステップS2
11に進む。なお、ステップS210では、上記未登録
の筆跡入力(図形,文字等)に対応する処理を行う。当
該ステップS210の後はステップS21に戻る。
After step S28, step S2
Proceed to 9. In this step S29, the shape number Sn
It is determined whether or not o is not registered. That is, in step S29, it is determined whether or not the unregistered code is returned from step S28, and if it is determined that the unregistered code is returned in step S29 (Yes
If it is determined that it is not unregistered (registered) (No), the process proceeds to step S210.
Proceed to 11. In step S210, processing corresponding to the unregistered handwriting input (graphics, characters, etc.) is performed. After step S210, the process returns to step S21.

【0155】また、上記ステップS25でYesと判断
されると上記筆跡入力は1画でないため、ステップS2
6では多筆跡の認識が行われる。このステップS26で
も上記ステップS28と同様に、例えばシステムROM
52等に保持されている多筆跡のジェスチャに対応する
形状認識用テーブルを使用して上記多筆跡入力の認識を
行う。このステップS26の後は、ステップS27に進
む。このステップS27では、上記ステップS29同様
に、形状番号Snoが登録されていない(未登録)もの
か否かの判断を行い、Yesと判断した場合には上記ス
テップS28に進み、Noと判断した場合にはステップ
S211に進む。
If it is determined Yes in step S25, the handwriting input is not one stroke, so step S2
In 6, the recognition of multiple strokes is performed. In this step S26 as well as in the above step S28, for example, a system ROM
The shape recognition table corresponding to the gesture of the multi-handwriting held in 52 or the like is used to recognize the multi-handwriting input. After step S26, the process proceeds to step S27. In this step S27, similarly to the above step S29, it is determined whether or not the shape number Sno is not registered (unregistered). If Yes is determined, the process proceeds to step S28, and if No is determined. For that, the process proceeds to step S211.

【0156】上記ステップS29或いはステップS27
でNoと判断されてステップS211に進むと、当該ス
テップS211では上記形状番号Snoが確定さていな
い(未確定)ものか否かの判断がなされる。このステッ
プS211で未確定であると判断した場合(Yes)は
ステップS219に進み、未確定でない(確定されたも
の)と判断した場合(No)はステップS212に進
む。未確認であるとは、入力筆跡がジェスチャ形状の一
部となりうることを意味する。なお、上記ステップS2
19では、認識保留筆跡に登録した後、上記ステップS
21に戻る。登録された筆跡は、ステップS25でチェ
ックされ、ステップS26で利用される。
Step S29 or step S27
When it is determined to be No and the process proceeds to step S211, it is determined in step S211 whether or not the shape number Sno is undetermined (undetermined). If it is determined in step S211 that it is unconfirmed (Yes), the process proceeds to step S219, and if it is determined that it is not undetermined (confirmed) (No), the process proceeds to step S212. Unconfirmed means that the input handwriting can be part of the gesture shape. Note that the above step S2
In step 19, after registering the recognition hold handwriting, the above step S
Return to 21. The registered handwriting is checked in step S25 and used in step S26.

【0157】上記ステップS212では、上記システム
ROM52に格納されている上記形状番号Snoに対応
する機能リストのテーブルの参照が行われる。その後、
ステップS213で判定領域の算出が機能リストの各項
目別に行われる。
In step S212, the table of the function list corresponding to the shape number Sno stored in the system ROM 52 is referred to. afterwards,
In step S213, the determination area is calculated for each item of the function list.

【0158】上記ステップS213で判定領域の算出が
行われると、ステップS214で上記判定領域内のデー
タ(画面に表示されている文字や図形等のデータ)の検
索を行う。なお、画面上の指定領域内のデータを発見す
る機構はCAD等で一般的に利用されているものを使用
する。
When the determination area is calculated in step S213, data in the determination area (data such as characters and figures displayed on the screen) is searched for in step S214. The mechanism for finding the data in the designated area on the screen is the one generally used in CAD or the like.

【0159】このステップS214の後は、ステップS
215で上記検索されたデータの向き,大きさ,位置,
種類等の検査を行う。ただし、このステップS215で
は、向き,大きさ,位置の検査を実行するが、比較の方
法は上記機能Aと機能Bでは異なり、機能の種類によっ
て、別の比較手続きが呼び出される。その後、ステップ
S216で適合するデータを持たない機能を機能リスト
から削除する。このステップS216の後のステップS
217では後述するジェスチャ番号Gnoに上記機能リ
スト中で最も得点の高い機能に対するジェスチャ番号を
与え、次のステップS218では当該ジェスチャ番号G
noに対応するジェスチャに対して通常のジェスチャ処
理を実行する。その後、ステップS21に戻る。ジェス
チャ番号とは、ジェスチャにより決定される機能の全て
に各々を区別できるようにと割り当てた番号のことであ
る。
After this step S214, step S
At 215, the direction, size, position of the retrieved data,
Inspect the type. However, in this step S215, the direction, size, and position are inspected, but the comparison method is different between the function A and the function B, and another comparison procedure is called depending on the type of function. Then, in step S216, the function having no matching data is deleted from the function list. Step S after this step S216
In 217, the gesture number for the function with the highest score in the function list is given to the gesture number Gno to be described later, and in the next step S218, the gesture number Gno.
Normal gesture processing is executed for the gesture corresponding to no. Then, it returns to step S21. The gesture number is a number assigned so that each of the functions determined by the gesture can be distinguished.

【0160】図17には上記図16のフローチャートに
おける機能リスト内の機能Aの判定領域の算出(ステッ
プS213)の具体的な処理のフローチャートを示す。
FIG. 17 shows a flowchart of a specific process of calculating the determination area of the function A in the function list in the flowchart of FIG. 16 (step S213).

【0161】この図17のフローチャートにおいて、ス
テップS221では、図18に示すように、入力筆跡の
始点SPと頂点apと終点EPとで成す角の2等分線
(直線X)を求め、ステップS222に進む。上記ステ
ップS222では、上記頂点apを通り、上記直線Xと
45°の確度をなす図18の直線2本(直線X1A
2A)を求める。次のステップS223では、上記始点
SPと終点EPを通る直線と上記直線Xとの図18に示
す交点Pを求めた後、ステップS224に進む。当該ス
テップS224では、上記直線X1AとX2Aとに囲まれた
上記交点Pを含む4半平面の図18に示す領域EA を上
記機能Aの判定領域とする。
In the flowchart of FIG. 17, in step S221, as shown in FIG. 18, a bisector (straight line X) of the angle formed by the start point SP, the vertex ap, and the end point EP of the input handwriting is obtained, and step S222 Proceed to. In step S222, two straight lines (straight line X 1A , straight line X 1A , passing through the apex ap and having an accuracy of 45 ° with the straight line X) are formed.
X 2A ). In the next step S223, an intersection P of the straight line passing through the start point SP and the end point EP and the straight line X shown in FIG. 18 is obtained, and then the process proceeds to step S224. In step S224, the area E A shown in FIG. 18 on the four half plane including the intersection P surrounded by the straight lines X 1A and X 2A is set as the determination area of the function A.

【0162】図19には、上記図16のフローチャート
における機能リスト内の機能Bの判定領域の算出(ステ
ップS213)の具体的な処理のフローチャートを示
す。
FIG. 19 shows a flowchart of a specific process of calculating the determination area of the function B in the function list in the flowchart of FIG. 16 (step S213).

【0163】この図19のフローチャートにおいて、ス
テップS231では、図20に示すように、入力筆跡の
始点SPと頂点apと終点EPとで成す角の2等分線
(直線X)を求め、ステップS232に進む。このステ
ップS232では、図20に示すように、上記頂点ap
を通り上記直線Xと直交する直線Yを求める。次のステ
ップS233では入力筆跡の長さLを取得し、ステップ
S234では上記始点SPと終点EPとを通る直線と上
記直線Xとの図20に示す交点Pを求めた後、ステップ
S235に進む。当該ステップS235では、図20に
示すように、直線Xを上記直線Yに沿って上記長さLの
a倍(a・L)だけ平行移動した2本の直線X1B,X2B
を求める。次のステップS236では図20に示すよう
に上記直線Yを直線Xに沿って上記交点Pの逆側に上記
長さLのb倍(b・L)だけ平行移動した直線Y1 を求
め、ステップS237では図20に示すように上記直線
Yを上記直線Xに沿って上記交点P側に上記長さLのc
倍(c・L)だけ移動した直線Y2 を求める。その後、
ステップS238では、上記直線X1B,X2B,Y1 ,Y
2 に囲まれた閉領域を操作Bの判定領域EB とする。
a,b,cの値は、上記図1のROM52等に予め保持
しておく。
In the flowchart of FIG. 19, in step S231, as shown in FIG. 20, a bisector (straight line X) of the angle formed by the start point SP, the vertex ap, and the end point EP of the input handwriting is obtained, and step S232. Proceed to. In this step S232, as shown in FIG.
A straight line Y that passes through the above and is orthogonal to the above straight line X is obtained. In the next step S233, the length L of the input handwriting is acquired, and in step S234, the intersection point P of the straight line X passing through the start point SP and the end point EP and the straight line X shown in FIG. 20 is obtained, and then the process proceeds to step S235. In the step S235, as shown in FIG. 20, two straight lines X 1B and X 2B are obtained by translating the straight line X along the straight line Y by a times (a · L) times the length L.
Ask for. In the next step S236, as shown in FIG. 20, a straight line Y 1 is obtained by translating the straight line Y along the straight line X to the opposite side of the intersection P by b times (b · L) times the length L, and In S237, as shown in FIG. 20, the straight line Y is moved along the straight line X to the intersection P side by the length c of the length L.
Find a straight line Y 2 that has moved by a factor of (c · L). afterwards,
In step S238, the straight lines X 1B , X 2B , Y 1 , Y
The closed region surrounded by 2 is set as the determination region E B of the operation B.
The values of a, b, and c are stored in advance in the ROM 52 or the like shown in FIG.

【0164】図21には、上記図16のフローチャート
における例えば上記機能Bについての向き,大きさ,位
置の検査(ステップS215)の具体的な処理のフロー
チャートを示す。
FIG. 21 shows a flow chart of a concrete process of inspecting the direction, size, and position (step S215) for the function B in the flow chart of FIG.

【0165】この図21において、ステップS241で
は先に求めた判定領域EB 内のデータのうちの例えば最
初に発見されたデータをDとする。ステップS242で
はこのデータDに対して例えば100点の得点を与える
とする。ステップS243では、上記データDが例えば
文章のデータか否かの判断がなされ、文章のデータであ
ると判断した場合(Yes)にはステップS244に進
み、文章のデータでないと判断した場合(No)には後
述するステップS249に進む。
In FIG. 21, in step S241, for example, the first found data of the data in the determination area E B obtained earlier is set as D. In step S242, for example, 100 points are given to the data D. In step S243, it is determined whether or not the data D is, for example, text data, and if it is determined that it is text data (Yes), the process proceeds to step S244, and if it is determined that it is not text data (No). Then, the process proceeds to step S249 described later.

【0166】上記ステップS243で上記データDが文
字のデータであると判断されてステップS244に進む
と、当該ステップS244では上記データDを含む1行
分の文字列を取得し、次にステップS245で上記取得
した文字列の文字送り方向と、前記図19のフローチャ
ートのステップS232で求めた直線Yとの成す角Rを
求める。なお、この角Rの角度は−90°<R≦90°
である。
When it is determined in step S243 that the data D is character data and the process proceeds to step S244, in step S244, a character string for one line including the data D is acquired, and then in step S245. An angle R formed by the character feed direction of the acquired character string and the straight line Y calculated in step S232 of the flowchart of FIG. 19 is calculated. The angle R is -90 ° <R ≦ 90 °.
Is.

【0167】次に、ステップS246では上記角Rの絶
対値が角度30°より大きいか否かの判断が行われる。
当該ステップS246で角Rの絶対値が角度30°より
大きいと判断した場合(Yes)はステップS249に
進み、小さいと判断した場合(No)はステップS24
7に進む。
Next, in step S246, it is determined whether the absolute value of the angle R is larger than 30 °.
If it is determined in step S246 that the absolute value of the angle R is greater than 30 ° (Yes), the process proceeds to step S249, and if it is determined to be small (No), step S24 is performed.
Proceed to 7.

【0168】当該ステップS247では上記角Rの絶対
値が角度10°以下であるか否かの判断が行われる。当
該ステップS247で上記角Rの絶対値が角度10°以
下であると判断された場合(Yes)は後述するステッ
プS252に進み、上記角Rの絶対値が角度10°より
大きいと判断された場合(No)はステップS248に
進む。
In step S247, it is determined whether the absolute value of the angle R is 10 degrees or less. If it is determined in step S247 that the absolute value of the angle R is less than or equal to 10 ° (Yes), the process proceeds to step S252 described below, and it is determined that the absolute value of the angle R is greater than 10 °. (No) proceeds to step S248.

【0169】当該ステップS248では上記角Rの絶対
値が角度20°以下であるか否かの判断が行われる。当
該ステップS248で上記角Rの絶対値が角度20°以
下であると判断された場合(Yes)はステップS25
1に進み、上記角Rの絶対値が角度20°より大きいと
判断された場合(No)はステップS250に進む。
In step S248, it is determined whether the absolute value of the angle R is 20 degrees or less. If it is determined in step S248 that the absolute value of the angle R is 20 ° or less (Yes), step S25.
When it is determined that the absolute value of the angle R is larger than 20 ° (No), the process proceeds to step S250.

【0170】上記ステップS250では上記データDの
得点を40点とし、ステップS251では上記データD
の得点を70点とした後、ステップS252に進む。
In step S250, the score of the data D is set to 40 points, and in step S251, the data D is set.
After setting the score of 70 to 70, the process proceeds to step S252.

【0171】上記ステップS250,S251の後或い
は上記ステップS247でYesと判断されてステップ
S252に進むと、当該ステップS252では前記直線
Yが文字列の外形4角形と交わるか否かの判断が行われ
る。このステップS252で交わると判断した場合(Y
es)には後述するステップS255に進み、交わらな
いと判断した場合(No)にはステップS253に進
む。
After steps S250, S251 or in step S247, if it is determined Yes and the process proceeds to step S252, it is determined in step S252 whether the straight line Y intersects the outer quadrangle of the character string. . When it is determined that the intersections are made in step S252 (Y
es), the process proceeds to step S255 described later, and if it is determined that they do not intersect (No), the process proceeds to step S253.

【0172】ステップS253では、上記外形4角形が
直線Yの交点P側か否かの判断を行う。このステップS
253で外形4角形が上記直線Yの交点P側と判断した
場合(Yes)にはステップS254に進み、直線Yの
交点P側でないと判断した場合(No)にはステップS
255に進む。
In step S253, it is determined whether the outer quadrangle is on the intersection P side of the straight line Y or not. This step S
If it is determined in 253 that the outer quadrangular shape is on the intersection P side of the straight line Y (Yes), the process proceeds to step S254, and if it is determined that it is not on the intersection P side of the straight line Y (No), step S254 is performed.
Proceed to 255.

【0173】上記ステップS254では、上記データD
の得点から40点を減点する処理が行われた後、ステッ
プS255に進む。
At the step S254, the data D
After the process of deducting 40 points from the score of is performed, the process proceeds to step S255.

【0174】ここで、前記ステップS243でデータD
が文字のデータで無いと判断された場合(No)、或い
は、ステップS246で角Rの絶対値が30°より大き
いと判断した場合(Yes)のステップS249では、
上記データDの得点を0点とする。このステップS24
9の後は、上記ステップS255に進む。
Here, in the step S243, the data D
If it is determined that is not character data (No), or if the absolute value of the angle R is greater than 30 ° in step S246 (Yes), in step S249,
The score of the data D is 0. This step S24
After 9, the process proceeds to step S255.

【0175】上記ステップS255では、次のデータが
有るか否かの判断を行う。このステップS255で次の
データが有ると判断した場合(Yes)はステップS2
56に進み、当該ステップS256で上記次のデータを
Dとした後前記ステップS242に戻る。また、上記ス
テップS255で次のデータが無いと判断した場合(N
o)は処理を終了する。
In step S255, it is determined whether there is the next data. If it is determined in step S255 that there is the next data (Yes), step S2
In step S256, after the next data is set to D in step S256, the process returns to step S242. If it is determined in step S255 that there is no next data (N
o) ends the process.

【0176】すなわち、前述の図15の例において、例
えば、図22の(a) に示すように図中筆跡PMに対応す
る機能Aについての判定領域EA 内には文字のデータが
無く、図22の(b) に示すように図中筆跡PMに対応す
る機能Bについての判定領域EB 内には2文字のデータ
(“気”と“良”)が存在することが判る。
That is, in the example of FIG. 15 described above, for example, as shown in (a) of FIG. 22, there is no character data in the determination area E A for the function A corresponding to the handwriting PM in the figure, and As shown in (b) of FIG. 22, it is understood that two character data (“ki” and “good”) exist in the determination area E B for the function B corresponding to the handwriting PM in the figure.

【0177】このことから、上記機能Aについては判定
領域EA 内にデータがなかったので、適合データ無しと
なり、機能Bでは上記図21のフローチャートのステッ
プS241〜ステップS256に示す方法で検査が行わ
れる。本実施例では、図22の(b) の“今日は天気良
い”という文字列が上記操作Bの操作対象として適合し
ているという結果がでる。なお、検査の結果、向きや大
きさの関係が適合するデータは機能Bだけが持っている
ので、上記機能Aは機能リストから削除される。
[0177] Therefore, since the above functions A had no data in the determination region E A, becomes no matching data, inspection line by the method shown in Step S241~ step S256 of the flowchart of function B in FIG 21 Be seen. In this embodiment, the result is that the character string "Today is sunny" in FIG. 22B is suitable as the operation target of the operation B. Note that, as a result of the inspection, only the function B has data in which the relationship of the orientation and the size is compatible, and thus the function A is deleted from the function list.

【0178】上述したようなことから、本実施例によれ
ば、ジェスチャの認識精度が向上し、画面上のデータ配
置に応じて1つの形状を別々のジェスチャとして取り扱
うことが可能になる。また、回転角を変えて形状を描く
ことで区別していた複数のジェスチャを上述の方法で区
別すれば、画面上のデータに応じた自由な角度でジェス
チャを描き込めるようになる。特に全てのジェスチャを
このように扱えば、どの向きからでもジェスチャを描き
込めるような操作体系を実現できる。
As described above, according to the present embodiment, the recognition accuracy of gestures is improved, and one shape can be treated as different gestures according to the data arrangement on the screen. Further, if a plurality of gestures that are distinguished by drawing a shape while changing the rotation angle are distinguished by the above method, it becomes possible to draw a gesture at a free angle according to the data on the screen. In particular, if all gestures are handled in this way, it is possible to realize an operation system that allows drawing gestures from any direction.

【0179】なお、上記判定領域の計算法は、上述した
例に限られるものではない。本実施例は、ジェスチャ機
能の種類別に異なった判定領域を設け、ジェスチャの筆
跡の方向,大きさ,特徴点の位置に応じて判定領域の形
を算出する(変化させる)という判定領域の計算方法の
一例を挙げているが、この考え方に基づきながら、別の
計算法により判定領域を算出することも可能である。
The method of calculating the judgment area is not limited to the above example. In the present embodiment, a determination area calculation method is provided in which different determination areas are provided for different types of gesture functions, and the shape of the determination area is calculated (changed) according to the direction, size, and position of the feature point of the gesture handwriting. Although an example is given, it is possible to calculate the determination region by another calculation method based on this idea.

【0180】次に、ジェスチャを通常座標データに変換
する変換ジェスチャについて説明する。
Next, a conversion gesture for converting the gesture into normal coordinate data will be described.

【0181】ジェスチャを通常座標データに変換する手
順としては、先ず、ジェスチャから通常座標データへの
変換ジェスチャを認識する。次に、この変換ジェスチャ
が、あるジェスチャの上に描き込まれたジェスチャであ
ることを判定する(筆跡の下にあるジェスチャを例えば
ジェスチャAとする)。その後、このジェスチャAによ
って実行された処理を取り消し、ジェスチャAを入力し
た際の筆跡を単なる座標データとして処理し直す。
As a procedure for converting a gesture into normal coordinate data, first, a conversion gesture from gesture to normal coordinate data is recognized. Next, it is determined that this conversion gesture is a gesture drawn on a certain gesture (the gesture below the handwriting is, for example, gesture A). After that, the processing executed by the gesture A is canceled, and the handwriting when the gesture A is input is processed again as simple coordinate data.

【0182】本実施例では、上記変換ジェスチャとし
て、図23に示す筆跡PMのような形状のジェスチャを
用いるようにしている。また、ここでは、ジェスチャを
通常座標データに変換する場合の当該変換されるジェス
チャとしては、例えば、図24に示すような画面上のデ
ータ(この図24の例では文字データ)を丸く囲う軌跡
PMを例に挙げている。
In the present embodiment, a gesture having a shape like the handwriting PM shown in FIG. 23 is used as the conversion gesture. Further, here, as the gesture to be converted when the gesture is converted to the normal coordinate data, for example, a locus PM that circles data on the screen (character data in the example of FIG. 24) as shown in FIG. Is taken as an example.

【0183】例えば、図25の(a) に示すような長方形
の図形データが画面上に表示されているとする。この場
合において、使用者が、例えばこの長方形の図形を囲む
ような自由曲線を入力しようと思い、図25の(b) に示
すような筆跡PMを入力したとする。この時、コンピュ
ータは上記図25の(b) の筆跡PMを上記長方形の図形
データに対する選択のジェスチャであると認識し、当該
長方形の図形データを選択状態にしてしまったような場
合、次のようなことを行う。
For example, assume that rectangular graphic data as shown in FIG. 25A is displayed on the screen. In this case, it is assumed that the user inputs a handwriting PM as shown in (b) of FIG. 25 in order to input a free-form curve surrounding the rectangular figure, for example. At this time, the computer recognizes the handwriting PM in FIG. 25B as a gesture of selecting the rectangular figure data, and if the rectangular figure data is selected, the following is performed. Do what you do.

【0184】すなわち、図25の(b) のように、選択さ
れたデータとジェスチャ筆跡が表示されている場合に、
使用者は、図25の(c) のように上記変換ジェスチャの
筆跡PMN を入力する。この時、本実施例装置は、上記
25の(b) の筆跡PMに対応するジェスチャの操作の取
り消しを実行し、これにより、上記長方形の図形データ
の選択状態を解除する。次に、本実施例装置は、上記図
25の(c) の筆跡PMo を、座標データ入力として再登
録する。この結果、画面上には、図25の(c)の筆跡P
o のような自由曲線のデータが追加表示される。な
お、この図25の(c) には、上記変換ジェスチャの筆跡
PMN もそのまま同時に表示されている例を示している
が、上記ジェスチャを座標データに変換した後には、こ
の筆跡PMN を消去する処理を付け加えるようにしても
よい。
That is, when the selected data and gesture handwriting are displayed as shown in FIG. 25 (b),
The user inputs the handwriting PM N of the conversion gesture as shown in FIG. 25 (c). At this time, the apparatus of the present embodiment cancels the operation of the gesture corresponding to the handwriting PM in 25 (b) above, thereby canceling the selected state of the rectangular graphic data. Next, the apparatus of this embodiment re-registers the handwriting PM o shown in FIG. 25C as coordinate data input. As a result, the handwriting P in FIG. 25 (c) is displayed on the screen.
Free curve data such as M o is additionally displayed. Note that FIG. 25 (c) shows an example in which the handwriting PM N of the conversion gesture is also displayed as it is, but after the gesture is converted into coordinate data, the handwriting PM N is erased. You may add the process to do.

【0185】また、上述の例では、ジェスチャを通常座
標データに変換する場合を例に挙げているが、本実施例
装置は、その逆、すなわち通常座標データとして認識さ
れたものをジェスチャに変換することも可能である。
Further, in the above-mentioned example, the case where the gesture is converted into the normal coordinate data is taken as an example. However, the device of the present embodiment is the reverse, that is, the one recognized as the normal coordinate data is converted into the gesture. It is also possible.

【0186】この場合の手順としては、先ず、通常座標
データからジェスチャへの変換ジェスチャを認識する。
次に、筆跡入力によって生成されたデータの上に描き込
まれたジェスチャであることを判定する(ジェスチャの
下にあるデータを入力した際の筆跡データを筆跡Aとす
る)。この筆跡Aによって生成されたデータを削除し、
筆跡Aをジェスチャとして認識し直す。
As a procedure in this case, first, a conversion gesture from normal coordinate data to a gesture is recognized.
Next, it is determined that the gesture is drawn on the data generated by the handwriting input (handwriting data when the data below the gesture is input is referred to as handwriting A). Delete the data generated by this handwriting A,
Recognize the handwriting A as a gesture.

【0187】例えば、上述した図25を例に挙げて説明
すると、図25の(a) に示すような例えば長方形の図形
データが画面上に表示されている場合において、例えば
この長方形の図形を囲むような図25の(b) に示すよう
な筆跡PMを入力したとし、コンピュータが当該図25
の(b) の筆跡PMを自由曲線の座標データであると認識
したとする。
For example, referring to FIG. 25 described above as an example, when rectangular figure data as shown in FIG. 25A is displayed on the screen, for example, the rectangular figure is surrounded. If the handwriting PM as shown in FIG.
It is assumed that the handwriting PM in (b) is recognized as coordinate data of a free curve.

【0188】この場合、使用者は、上述同様に、図25
の(c) のように上記変換ジェスチャの筆跡PMN を入力
する。この時、本実施例装置は、上記図25の(b) の筆
跡PMに対応する自由曲線の通常座標データの取り消し
を実行し、次に上記図25の(c) の筆跡PMo を例えば
選択のジェスチャ入力として再登録する。この結果、上
記画面上の長方形の図形データが選択状態となされる。
In this case, the user is required to perform the same operation as shown in FIG.
Input the handwriting PM N of the above conversion gesture as shown in (c). At this time, the apparatus of the present embodiment executes the cancellation of the normal coordinate data of the free curve corresponding to the handwriting PM of FIG. 25B, and then selects the handwriting PM o of FIG. 25C , for example. Re-register as the gesture input of. As a result, the rectangular graphic data on the screen is selected.

【0189】なお、上述したジェスチャを通常座標デー
タに変換する変換ジェスチャと、通常座標データをジェ
スチャに変換する変換ジェスチャとを組み合わせて両方
とも同一の形状を持つジェスチャとしておき、下にジェ
スチャがあれば当該ジェスチャを通常座標データに変換
する動作とし、逆に、下に通常座標データがあれば当該
通常座標データをジェスチャに変換する動作とするよう
に、切替えて使用するようなことが可能である。
It should be noted that a combination of the conversion gesture for converting the above-mentioned gesture into the normal coordinate data and the conversion gesture for converting the normal coordinate data into the gesture is set as a gesture having the same shape, and if there is a gesture below. It is possible to switch and use the gesture so as to convert it into normal coordinate data, and conversely, if there is normal coordinate data below, to convert the normal coordinate data into a gesture.

【0190】上述のようなことから、従来ならば操作の
取り消しや再度の筆跡の入力という2つの入力が必要だ
ったのが、本実施例により1度の入力で訂正ができるよ
うになる。また、従来ならば筆跡が入力された逆順にし
か入力を取り消せないが、本発明により画面上にジェス
チャの筆跡表示が残っている間ならば、任意の筆跡を通
常データに変換することができる。更に、本実施例によ
れば、画面上にデータの表示が残っている間ならば、任
意の筆跡をジェスチャに変換することができるようにな
る。
From the above, although it is conventionally necessary to perform two inputs of canceling the operation and inputting the handwriting again, the present embodiment makes it possible to correct the input only once. Further, conventionally, the input can be canceled only in the reverse order of input of the handwriting, but according to the present invention, any handwriting can be converted into normal data while the handwriting display of the gesture remains on the screen. Furthermore, according to the present embodiment, any handwriting can be converted into a gesture while the data display remains on the screen.

【0191】図26には、上述したジェスチャから通常
座標データへの変換、或いは通常座標データからジェス
チャへの変換の上記変換ジェスチャの処理のフローチャ
ートを示す。
FIG. 26 shows a flowchart of the processing of the above-mentioned conversion gesture for converting the above-mentioned gesture into normal coordinate data or converting the normal coordinate data into a gesture.

【0192】この図26において、ステップS32で1
画の筆跡入力を待ち、1画の筆跡入力があると、ステッ
プS33で当該入力筆跡の平滑化を行う。
In FIG. 26, 1 is set in step S32.
When the stroke input of one stroke is awaited, the stroke of the input stroke is smoothed in step S33.

【0193】次のステップS34では、上記入力筆跡の
形状が、上記図23に示したような変換ジェスチャに対
応する形状であるか否かの判断が行われる。このステッ
プS34で入力形状が変換ジェスチャに対応する形状で
あると判断した場合(Yes)はステップS36に進
み、変換ジェスチャに対応する形状でないと判断した場
合(No)はステップS35に進む。このステップS3
5では、上記入力筆跡が他のジェスチャ或いは文字,図
形である場合にはそれらに対応する処理を行う。
In the next step S34, it is judged whether or not the shape of the input handwriting corresponds to the conversion gesture shown in FIG. If it is determined in step S34 that the input shape is the shape corresponding to the conversion gesture (Yes), the process proceeds to step S36, and if it is determined that the input shape is not the shape corresponding to the conversion gesture (No), the process proceeds to step S35. This step S3
In step 5, if the input handwriting is another gesture, a character, or a figure, the corresponding processing is performed.

【0194】上記ステップS34でYesと判断した場
合のステップS36では、上記入力筆跡の下にジェスチ
ャが有るか否かの判断を行う。当該ステップS34で入
力筆跡下にジェスチャが有ると判断した場合(Yes)
にはステップS38に進み、無いと判断した場合(N
o)にはステップS37に進む。
If YES in step S34, in step S36, it is determined whether or not there is a gesture under the input handwriting. When it is determined in step S34 that there is a gesture below the input handwriting (Yes)
If it is determined that there is no (N
For o), the process proceeds to step S37.

【0195】上記ステップS36でYesと判断される
と、ステップS38で上記入力筆跡下のジェスチャによ
り先に実行された処理を取り消す処理を行った後、ステ
ップS310で上記入力筆跡下のジェスチャの筆跡を通
常の座標入力として再登録を行う。このステップS31
0の後はステップS32に戻る。
If it is determined Yes in step S36, the process of canceling the previously executed process by the gesture under the input handwriting is performed in step S38, and then the handwriting of the gesture under the input handwriting is performed in step S310. Re-register as normal coordinate input. This step S31
After 0, the process returns to step S32.

【0196】また、上記ステップS36でNoと判断さ
れた場合のステップS37では上記入力筆跡の下にデー
タ(文字,図形等のデータ)が有るか否かの判断が行わ
れる。当該ステップS37で入力筆跡下にデータが有る
と判断した場合(Yes)にはステップS39に進み、
無いと判断した場合(No)にはステップS32に戻
る。
When it is determined No in step S36, it is determined in step S37 whether or not there is data (data such as characters and figures) under the input handwriting. If it is determined in step S37 that there is data below the input handwriting (Yes), the process proceeds to step S39.
If it is determined that there is not any (No), the process returns to step S32.

【0197】上記ステップS39では、上記入力筆跡下
のデータがペンで描いたデータか否かの判断を行う。当
該ステップS39で上記入力筆跡下のデータがペンで描
いたデータであると判断した場合(Yes)にはステッ
プS311に進み、ペンで描いたデータでないと判断し
た場合(No)にはステップS32に戻る。
In step S39, it is determined whether or not the data under the input handwriting is data drawn with a pen. If it is determined in step S39 that the data under the input handwriting is the data drawn by the pen (Yes), the process proceeds to step S311. If it is determined that the data is not the data drawn by the pen (No), the process proceeds to step S32. Return.

【0198】上記ステップS311では上記入力筆跡下
のデータを削除し、その後、ステップS312では上記
入力筆跡下のデータの筆跡をジェスチャとして再登録す
る。このステップS312の後はステップS32に戻
る。
In step S311, the data under the input handwriting is deleted, and then in step S312, the handwriting of the data under the input handwriting is re-registered as a gesture. After step S312, the process returns to step S32.

【0199】また、本実施例における引き出し線のジェ
スチャの手順は、以下のようにする。
Further, the procedure of the gesture of the lead line in the present embodiment is as follows.

【0200】先ず、一連の操作により座標点を二つ取得
する。例えば、タブレット上の2つの点を順番にペンで
叩くことで2つの座標点を入力する。この場合、他の操
作と紛らわしい場合は本操作だけを受け付けるように予
めボタン等で動作を切り換えればよい。また、例えば1
筆跡の始点と終点を2つの座標点とみなして取得する。
この場合、他の操作と紛らわしい場合は形状認識機構を
利用して筆跡の途中部分の特別な形状を認識してそれを
契機に本発明の操作に移ればよい。本操作だけを受け付
けるようにあらかじめボタン等で動作を切り換えておく
ようにしてもよい。
First, two coordinate points are acquired by a series of operations. For example, two coordinate points are input by sequentially striking two points on the tablet with a pen. In this case, if the operation is confusing with other operations, the operation may be switched in advance with a button or the like so as to accept only this operation. Also, for example, 1
The starting point and the ending point of the handwriting are regarded as two coordinate points and acquired.
In this case, if the operation is confusing with other operations, the shape recognition mechanism may be used to recognize a special shape in the middle part of the handwriting, and the operation of the present invention may be triggered by the recognition. The operation may be switched in advance using a button or the like so that only this operation is accepted.

【0201】次に、画面上で始めに入力された点の下に
あるデータを処理対象として設定する。例えば、1筆跡
で入力された場合は始点の座標の下を検査し、その下に
アイコンがあればアイコンを処理対象として設定する。
また、下に文字列があれば、始点に最も近い1文字を処
理対象として設定する。既に選択操作が行なわれてい
て、選択対象となっているデータが下にあれば、選択操
作で選択されていた全てのデータを処理対象とする。
Next, the data below the first input point on the screen is set as the processing target. For example, when input is made with one handwriting, the area under the coordinates of the starting point is inspected, and if there is an icon below that, the icon is set as the processing target.
If there is a character string below, the one character closest to the starting point is set as the processing target. If the selection operation has already been performed and the data to be selected is below, all the data selected by the selection operation are to be processed.

【0202】さらに、画面上で後から入力された点の位
置を、処理対象としたデータに関する情報の表示,入力
場所とする。例えば1筆跡で操作が入力された場合は終
点の座標を表示,入力場所として設定し、ウィンドウシ
ステムがあれば、情報を表示するウィンドウをその座標
に開けばよい。なお、枠が見えないウィンドウを開いて
もよい。または四角い領域を終点の座標付近に設定し、
画面に外枠を描いてもよい。なお、枠を描かない場合も
考えられる。
Further, the position of the point input later on the screen is used as the display and input location of the information regarding the data to be processed. For example, when an operation is input with one handwriting, the coordinates of the end point are displayed and set as an input location, and if there is a window system, a window for displaying information may be opened at the coordinates. Note that a window whose frame cannot be seen may be opened. Or set a square area near the coordinates of the end point,
You may draw an outer frame on the screen. It should be noted that it is possible that the frame is not drawn.

【0203】また、指定場所に表示される情報の種類・
表示形式を操作対象のデータの種類によって切り換える
ことも可能である。ここで、指定場所から情報を入力す
る方法としては、メニューの選択や、データとなる数値
や文字列入力等が考えられるが、その他にも機能を略号
化した文字列の入力(例えば文字列に対する引き出し線
の機能文字列入力位置に“トルツメ”という文字列を入
力した場合には文字列を削除し空白を詰める処理を行な
う)を受け付けることも可能である。
Also, the type of information displayed at the designated location
It is also possible to switch the display format depending on the type of data to be operated. Here, as a method of inputting information from a designated place, selection of a menu, input of numerical values or character strings as data, etc. can be considered. When the character string “Tortsume” is input to the function character string input position of the leader line, a process of deleting the character string and filling the space) can be accepted.

【0204】さらに、入力された情報を入力後も続けて
画面上に残しておくために、入力された情報を略号化さ
れた文字列または記号に変換し、入力完了後に引き出し
線の筆跡の先端に表示し、引き出し線の筆跡とともに表
示を保持し続けることもできる。この場合、情報表示部
分に例えば“画面に表示を残して終了”というボタンを
付けておくか、略号で情報を表示して残しておくモード
を予め設定しておけばよい。
Further, in order to keep the input information on the screen even after the input, the input information is converted into an abbreviated character string or symbol, and the tip of the handwriting of the lead line is drawn after the input is completed. It is also possible to display it on and keep the display with the handwriting of the leader line. In this case, for example, a button "Leave display on screen and finish" may be attached to the information display portion, or a mode in which information is displayed and retained by an abbreviation may be set in advance.

【0205】ここで、形状認識機構を用いて本発明を実
施する場合、筆跡の始点と終点を任意の位置に持ってゆ
けなければならない。また、本実施例では上記条件を満
たすように引き出し線ジェスチャの形状を、図27の
(a) 或いは(b) に示すような形状としている。例えば、
図27の(a) に示すこのジェスチャの形状を用いること
で、筆跡PMの始点SPと終点EPを任意の位置に持っ
てきても筆跡PMの途中の図中点線で囲む特徴形状25
2のような折り返し部分だけで充分他のジェスチャ形状
と区別できる。また、図27の(b) に示すジェスチャの
形状も、筆跡PMの途中の図中点線で囲む特徴形状25
4のようなループ部分だけで充分他のジェスチャー形状
と区別できる。従って、任意の位置から任意の方向に引
き出し線を描いても充分認識は可能となる。
Here, when the present invention is carried out by using the shape recognition mechanism, it is necessary to bring the starting point and the ending point of the handwriting to arbitrary positions. In addition, in the present embodiment, the shape of the leader line gesture is set so as to satisfy the above condition as shown in FIG.
The shape is as shown in (a) or (b). For example,
By using this gesture shape shown in (a) of FIG. 27, even if the start point SP and the end point EP of the handwriting PM are brought to arbitrary positions, the characteristic shape 25 surrounded by a dotted line in the middle of the handwriting PM 25
It is possible to sufficiently distinguish it from other gesture shapes only by the folded-back portion such as 2. In addition, the shape of the gesture shown in FIG. 27B is also a characteristic shape 25 surrounded by a dotted line in the figure in the middle of the handwriting PM.
Only the loop part such as 4 can be sufficiently distinguished from other gesture shapes. Therefore, even if the leader line is drawn from any position in any direction, the recognition can be sufficiently performed.

【0206】本実施例では、上述した図27の(a) 或い
は(b) に示すような形状を引き出し線ジェスチャとして
おり、既存の形状認識機構を活用して任意の位置,方
向,大きさで描かれた引き出し線を認識するようにして
いる。
In this embodiment, the shape shown in (a) or (b) of FIG. 27 described above is used as the leader line gesture, and the existing shape recognition mechanism is utilized to make an arbitrary position, direction and size. I try to recognize the drawn line.

【0207】また、本実施例装置には、例えばキーボー
ド上に“引き出し線モード”,“引き出し線モード解
除”という2つのボタンを用意している。ただし、これ
は説明を簡潔に行なうために利用するものであり、本発
明を実施する際に省略可能であることは当然である。さ
らに、本実施例装置では既存のウィンドウシステムを利
用するものとしている。
Further, the apparatus of this embodiment is provided with two buttons, for example, "lead line mode" and "lead line mode release" on the keyboard. However, this is used for the sake of simplicity of description, and it is needless to say that it can be omitted when implementing the present invention. Further, the apparatus of this embodiment uses the existing window system.

【0208】ここで、例えば、画面上に図28の(a) に
示すような文字列が表示されているとする。本実施例で
は、上記文字列中の数字の部分を例えばゴシック体の文
字に変えるための操作を実行する場合を例に挙げる。こ
の場合、本実施例装置において、例えば、上記“引き出
し線モード”のボタンを押し、更に図28の(b) に示す
ようにな軌跡PMを入力する。この時、例えばワークR
AM55に座標1として始点SPの位置が、座標2とし
て終点EPの位置が保存される。その後、座標1の下に
ある数字を操作対象として選択する。なお、座標の位置
から、その位置にあるデータを検索するには既存の機構
を利用する。
Here, for example, it is assumed that a character string as shown in FIG. 28 (a) is displayed on the screen. In the present embodiment, an example will be given in which an operation for changing a numeral portion in the character string into a Gothic character is performed. In this case, in the apparatus of this embodiment, for example, the "leader line mode" button is pressed and the locus PM is input as shown in FIG. 28 (b). At this time, for example, work R
The position of the start point SP is stored as the coordinate 1 in the AM 55, and the position of the end point EP is stored as the coordinate 2. After that, the number under the coordinate 1 is selected as the operation target. The existing mechanism is used to search the data at the position from the coordinate position.

【0209】例えば、発見されたデータが文字である
と、表7の表(7) に示す対応表を用いて、文字に対して
使用するメニュー項目を選び出す。この表(7) の対応表
を利用する以外にも可能な操作を選びだしリストに登録
していく等の方法も当然考えられる。
For example, if the found data is a character, the menu item used for the character is selected using the correspondence table shown in Table (7) of Table 7. In addition to using the correspondence table of this table (7), it is naturally conceivable to select a possible operation and register it in the list.

【0210】[0210]

【表7】 [Table 7]

【0211】次に、メニューのデータ表示部分に選択さ
れた文字の現在の属性をセットする。例えば、文字サイ
ズ=9ポイント,文字種=明朝,文字色=黒のようにセ
ットする。
Next, the current attribute of the selected character is set in the data display portion of the menu. For example, character size = 9 points, character type = Mincho, and character color = black.

【0212】次に、上記座標2の位置にメニュー用のウ
インドウを表示し、内部に上記選択したメニュー項目と
設定した現在の属性を表示する。この表示される画面は
図28の(c) に示すウインドウ293のようになる。こ
のメニューウインドウ293において、上記表(7) の対
応表に出ている項目を先頭から幾つか表示し、溢れた部
分はその他の操作を押した時に操作できるようにする。
なお、本実施例装置には、メニューを終了することがで
きるように取消ボタン,終了ボタン、表示を残して終了
ボタンの3つを用意してある。また、メニューの表示,
各項目のデータ入力・終了ボタンの判定には既存のウィ
ンドウシステムの機構を利用している。
Next, the menu window is displayed at the position of the coordinate 2 and the selected menu item and the set current attribute are displayed inside. The displayed screen is like a window 293 shown in FIG. 28 (c). In this menu window 293, some items appearing in the correspondence table of the above table (7) are displayed from the beginning, and the overflowed portion can be operated when other operation is pressed.
The apparatus of this embodiment is provided with three buttons, that is, a cancel button, an end button, and an end button with the display left so that the menu can be ended. Also, display the menu,
The existing window system mechanism is used to determine the data input / end button for each item.

【0213】次に、例えば、上記メニューウインドウ2
93に示されるメニュー中の項目294で示される“ゴ
チック”のボタンをペンで押す。これにより、メニュー
中の項目296で示される領域にゴチックと表示される
(ウィンドウシステムが自動的に処理する)。ここで、
項目295で示される“表示を残して終了”のボタンを
ペンで押すと入力が完了する。ウィンドウシステムはメ
ニューのウィンドウを消去する。なお、項目294の
“ゴチック”のボタンを押す代わりに項目296で示さ
れる領域にキーボード入力や手書き文字入力を利用して
ゴチックという文字列を直接入力することも可能であ
る。その際、ゴチック→ゴチ等の略語や、ゴチック→ゴ
シック等の別名の入力を許すことも当然考えられる。
Next, for example, the above menu window 2
Press the "Gotic" button indicated by item 294 in the menu shown at 93 with a pen. This causes Gotick to appear in the area indicated by item 296 in the menu (this is handled automatically by the window system). here,
The input is completed by pressing the "End display and leave" button indicated by item 295 with the pen. The window system erases the menu window. Instead of pressing the "Gotic" button of item 294, it is also possible to directly input the character string "Gotic" using keyboard input or handwritten character input in the area shown in item 296. At that time, it is naturally conceivable to allow the input of abbreviations such as Gothic → Gochi and aliases such as Gothic → Gothic.

【0214】その後、ウィンドウシステムからの情報を
参照すると終了条件は“表示を残して終了”なので、入
力された変更指示を有効にする。ウィンドウシステムの
情報から指示を抜き出し処理対象となっているデータに
設定する。これにより、図28の(d) に示すように、数
字の部分だけ文字がゴチック体に変化する。このとき、
終了条件が上記“表示を残して終了”なので引き出し線
のジェスチャの筆跡は残される。例えば、“終了”を選
べばジェスチャ筆跡が消される。
After that, referring to the information from the window system, since the end condition is “end with display left”, the input change instruction is validated. The instruction is extracted from the information of the window system and set to the data to be processed. As a result, as shown in FIG. 28 (d), the characters are changed to the Gothic type only in the numbers. At this time,
Since the ending condition is "end leaving display", the handwriting of the gesture of the leader line is left. For example, selecting "end" will erase the gesture handwriting.

【0215】さらに、設定に使用した文字列を座標2の
位置に表示する。これにより、図28の(d) に示す“ゴ
チック”の文字が表示される。これにより、画面上でゴ
チックフォントが使用できない装置においてもどのよう
な操作が実行されたかが一目で理解できる。特に一括実
行型編集では、その場でフォントが切り替わらないので
非常に便利な機能である。なお、この表示をON・OF
Fできる仕組みを付け加えることは当然考えられる。ま
た、この表示を見やすくするために文字列の表示位置を
修正することは当然考えられる。更に、文字列で指定さ
れなかった操作も文字列に変換して表示することもで
き、文字列を略号に変換して(例えばゴチック→ゴチ)
表示することも可能である。その他、幾つかの指定を行
なった場合は文字列を列記すれば良いのは当然である。
Further, the character string used for the setting is displayed at the position of coordinate 2. As a result, the character “Gotic” shown in FIG. 28D is displayed. With this, it is possible to understand at a glance what kind of operation was performed even in the device in which the Gothic font cannot be used on the screen. Especially in batch execution type editing, the font is not changed on the spot, which is a very convenient function. In addition, this display is ON / OF
Naturally, it is conceivable to add a mechanism that allows F. Further, it is naturally conceivable to correct the display position of the character string in order to make this display easier to see. Furthermore, operations that are not specified by a character string can also be converted into a character string and displayed, and the character string can be converted into an abbreviation (eg Gotic → Gochi).
It is also possible to display. Of course, when some designations are made, it is natural to list the character strings.

【0216】なお、本実施例の変形として、座標2の先
に開くウィンドウを図29の点線326で示す透明なウ
ィンドウとし、ウィンドウ内を全面手書き文字認識領域
とすることも可能である。さらに図29に示すような後
述する入力終了指示のジェスチャGE325 をウィンドウ
内で有効にすると、手書き文字入力による各種機能の利
用が可能となる。この図29には、上記図27の(a) の
形状のジェスチャGE322 を用いている。
As a modification of this embodiment, it is possible to set the window opened before the coordinate 2 to be a transparent window indicated by the dotted line 326 in FIG. 29, and set the entire handwritten character recognition area inside the window. Further, when a gesture GE 325 for inputting an instruction to be described later as shown in FIG. 29 is enabled in the window, it becomes possible to use various functions by inputting handwritten characters. In FIG. 29, the gesture GE322 having the shape shown in FIG. 27 (a) is used.

【0217】上述したようなことから、本実施例によれ
ば、データに対する詳細な情報の設定が便利になり、デ
ータに対して設定されている属性などの参照が簡単にな
り、属性等の情報のうち画面上で表現しにくいものを表
示する方法を提供することができる。また、一括実行型
編集時に、入力した指示を一目で確認できるようにな
る。
As described above, according to the present embodiment, it becomes convenient to set detailed information for data, it becomes easy to refer to the attributes set for the data, and information such as attributes is set. It is possible to provide a method of displaying the one that is difficult to express on the screen. In addition, at the time of batch execution type editing, the entered instructions can be confirmed at a glance.

【0218】図30には、上述した引き出し線ジェスチ
ャにおける具体的な処理のフローチャートを示す。
FIG. 30 shows a flowchart of specific processing in the above-described leader line gesture.

【0219】この図30において、ステップS51では
入力を待ち、入力が有るとステップS52では当該入力
が筆跡か否かの判断を行う。当該ステップS52で上記
入力が筆跡であると判断した場合(Yes)には後述す
るステップS53に進み、筆跡でないと判断した場合に
はステップS57に進む。
In FIG. 30, in step S51, input is awaited, and if there is input, it is determined in step S52 whether the input is handwriting. If it is determined in step S52 that the input is handwriting (Yes), the process proceeds to step S53, which will be described later, and if it is determined that the handwriting is not handwriting, the process proceeds to step S57.

【0220】当該ステップS57では上記入力が「引き
出し線モード」ボタンか否かの判断を行い、引き出し線
モードであると判断した場合(Yes)にはステップS
58に進み、当該ステップS58で引き出し線モードを
示すフラグHflagに“1”を立ててステップS51
に戻る。また、上記ステップS57で入力が「引き出し
線モード」ボタンでないと判断した場合(No)にはス
テップS59に進む。
In step S57, it is determined whether or not the input is the "leader line mode" button. If it is determined that the input is the leader line mode (Yes), step S57.
In step S58, the flag Hflag indicating the lead line mode is set to "1" in step S58, and step S51 is performed.
Return to. If it is determined in step S57 that the input is not the "lead line mode" button (No), the process proceeds to step S59.

【0221】このステップS59では、上記入力が「引
き出し線モード解除」ボタンを示すものであるか否かの
判断を行い、引き出し線モード解除と判断した場合(Y
es)にはステップS510に進み、当該ステップS5
10で引き出し線モードを示すフラグHflagに
“0”(すなわち引き出し線モード解除を示すフラグ)
を立ててステップS51に戻る。上記ステップS59で
「引き出し線モード解除」ボタンでないと判断した場合
には、ステップS511で例えばキー入力などによる上
記入力に対応する処理を行った後、上記ステップS51
に戻る。
In this step S59, it is judged whether or not the above-mentioned input indicates the "leader line mode release" button, and if it is judged that the leader line mode is released (Y
es), the process proceeds to step S510, and the step S5
The flag Hflag indicating the leader line mode at 10 is "0" (that is, a flag indicating cancellation of the leader line mode).
Stands and returns to step S51. If it is determined in step S59 that the button is not the "lead line mode release" button, in step S511, a process corresponding to the above-mentioned input, such as a key input, is performed, and then step S51 is performed.
Return to.

【0222】一方、上記ステップS52で入力が筆跡で
あると判断(Yes)してステップS53に進むと、こ
のステップS53では上記引き出し線モードを示すフラ
グHflagが“0”(引き出し線モード解除を示すフ
ラグ)となっているか否かの判断を行う。このステップ
S53で上記フラグHflagが“0”であると判断し
た場合(Yes)にはステップS54に進み、“0”で
ない(“1”)と判断した場合(No)には後述するス
テップS520に進む。
On the other hand, if it is determined in step S52 that the input is handwriting (Yes) and the process proceeds to step S53, the flag Hflag indicating the leader line mode is "0" (indicating that the leader line mode is released). Flag) is determined. If it is determined in step S53 that the flag Hflag is "0" (Yes), the process proceeds to step S54, and if it is determined that it is not "0"("1") (No), the process proceeds to step S520 described later. move on.

【0223】上記ステップS53でYesと判断すると
上記ステップS54で上記入力の筆跡の形状の認識を行
った後ステップS55に進む。
If it is determined Yes in step S53, the shape of the input handwriting is recognized in step S54, and then the process proceeds to step S55.

【0224】上記ステップS55では、上記入力筆跡が
引き出し線の形状であるか否かの判断を行い、引き出し
線の形状であると判断した場合(Yes)にはステップ
S520に進み、引き出し線の形状でないと判断した場
合(No)にはステップS56に進む。当該ステップS
56では入力筆跡(他のジェスチャ,文字,図形等)に
対応する処理を行った後、ステップS51に戻る。
In step S55, it is determined whether or not the input handwriting has the shape of a lead line. If it is determined that the input handwriting has the shape of the lead line (Yes), the process proceeds to step S520, and the shape of the lead line. If not (No), the process proceeds to step S56. Step S
At 56, after processing corresponding to the input handwriting (other gesture, character, figure, etc.), the process returns to step S51.

【0225】ステップS53でNoと判断した場合、或
いはステップS55でYesと判断すると、ステップS
520で上記入力筆跡の始点SPの座標を座標1とし、
ステップS521で入力筆跡の終点EPの座標を座標2
とする。上記ステップS521の後はステップS522
に進む。
If No in step S53 or Yes in step S55, step S53
At 520, the coordinates of the starting point SP of the input handwriting are set to coordinates 1,
In step S521, the coordinates of the end point EP of the input handwriting are set to coordinates 2.
And After step S521, step S522 is performed.
Proceed to.

【0226】上記ステップS522では上記座標1近傍
のデータの検索を行った後ステップS523に進む。こ
のステップS523では例えば前述のシステムROM5
2等に保持されているメニュー項目テーブルの中から上
記ステップS522の検索で発見したデータに応じたも
のを選択する。
In step S522, the data in the vicinity of the coordinate 1 is searched, and then the process proceeds to step S523. In step S523, for example, the system ROM 5 described above is used.
From the menu item tables stored in 2 and the like, one corresponding to the data found by the search in step S522 is selected.

【0227】上記ステップS523の後は、ステップS
524に進み当該ステップS524で現在データに設定
されている値を表示欄に登録し、次にステップS525
で上記座標2の位置にメニューを表示すると共にデータ
の入力を行う。
After the above step S523, step S
In step S524, the value currently set in the data is registered in the display field, and then in step S525.
The menu is displayed at the position of coordinate 2 and the data is input.

【0228】次に、ステップS526では、上記メニュ
ーから入力されたデータを取得し、ステップS527に
進む。当該ステップS527では、上記メニューの中か
ら例えば取消の操作が取得されて終了となされたか否か
の判断を行い、取消の操作が取得されて終了したとと判
断した場合(Yes)にはステップS531に進む。ま
た、当該ステップS527で取消の操作が取得されずに
終了したと判断した場合(No)には、ステップS52
8に進む。
Next, in step S526, the data input from the menu is acquired, and the flow advances to step S527. In step S527, for example, it is determined whether or not a cancel operation has been acquired and ended from the menu, and when it is determined that the cancel operation has been acquired and ended (Yes), step S531. Proceed to. If it is determined in step S527 that the cancel operation has been completed without being acquired (No), step S52 is performed.
Go to 8.

【0229】上記ステップS528では入力された操作
(メニューで取得した操作)を実行した後ステップS5
29に進む。
In step S528, the input operation (operation acquired from the menu) is executed, and then step S5
Proceed to 29.

【0230】ステップS529では、上記メニューで取
得した操作が終了の操作となって終了となされたか否か
の判断が行われる。当該ステップS529で終了の操作
が取得されて終了となったと判断した場合(Yes)に
はステップS531に進み、終了の操作が取得されずに
終了したと判断した場合(No)にはステップS530
に進む。
[0230] In step S529, it is determined whether or not the operation acquired from the menu has been turned to the end operation. When it is determined in step S529 that the end operation has been acquired and the end has been completed (Yes), the processing proceeds to step S531, and when it is determined that the end operation has not been acquired (No) in step S530.
Proceed to.

【0231】上記ステップS530では入力された機能
を表す文字列を上記座標2から表示する処理を行い、上
記ステップS531では引き出し線の筆跡を消去する。
これらステップS530,S531の後はステップS5
1に戻る。
In step S530, a process of displaying the character string representing the input function from the coordinate 2 is performed, and in step S531, the handwriting of the leader line is erased.
After these steps S530 and S531, step S5
Return to 1.

【0232】次に、入力終了指示ジェスチャについて説
明する。
Next, the input end instruction gesture will be described.

【0233】上記入力終了指示ジェスチャの処理の手順
として、先ず、入力終了指示のジェスチャを認識する。
このとき、ジェスチャが描き込まれたウィンドウ上で、
入力/選択されたがまだ処理されていないデータ、或い
は入力されたがまだ操作が実行されていないジェスチャ
を検索する。ここで、発見されたものがデータだった場
合は、発見したデータ(群)については全て入力は完了
したとみなし、そのデータの処理を行う。実行すべき処
理が指定されていなかった場合に、過去に実行された処
理のうち発見したデータに対して実行可能な最も最近の
処理を実行することも可能である。また、発見されたの
がジェスチャだった場合は、発見したジェスチャ(群)
についてはひとつひとつ対応する処理を実行する。何も
発見されなかった場合は、何もしなくてもよいが、直前
に行なった処理を直前のデータに対してもう1度実行す
るようなことも可能である。もう1度実行することが不
可能ならば無視すればよい。
As a processing procedure of the input end instruction gesture, first, the input end instruction gesture is recognized.
At this time, on the window with the gesture drawn,
Search for data that has been entered / selected but not yet processed, or gestures that have been entered but for which no operation has been performed. If the found data is data, it is considered that all the found data (group) have been input, and the data is processed. When the process to be executed is not designated, it is possible to execute the latest process that can be executed on the found data among the processes executed in the past. Also, if the gesture was discovered, the gesture (s) found
For each, the corresponding processing is executed. If nothing is found, it is not necessary to do anything, but it is also possible to execute the processing performed immediately before again on the immediately previous data. If it is impossible to execute it again, it can be ignored.

【0234】以下、具体的に説明する。表示画面上に
は、図31の(a) に示す様な文字列が表示されていると
する。ここで、引き出し線ジェスチャGE331 を用いて
“1”の数字をゴチック書体にしたとする。このゴチッ
ク書体化処理は、処理内容登録リストに登録しておく。
次に、ジェスチャGE335 により“2”と“3”の2文
字を選択状態とする。
A detailed description will be given below. It is assumed that a character string as shown in FIG. 31 (a) is displayed on the display screen. Here, it is assumed that the drawing line gesture GE 331 is used to change the number “1” to a Gothic typeface. This gothic typeface processing is registered in the processing content registration list.
Next, the gesture GE 335 sets the two characters “2” and “3” to the selected state.

【0235】ここで、図31の(a) のジェスチャGE
336 に示すような筆跡を入力したとき、入力された筆跡
は、入力終了指示ジェスチャと判定される。このとき、
選択状態のデータがあれば、選択状態データに対して施
すことが可能な最新の処理を選択状態データに対して実
行する。なお、選択状態のデータが存在しない時には未
処理のジェスチャの存在を判定し、存在する時には、発
見したジェスチャ(1つ以上)について、例えば、入力
時系列順に実行する。また、未処理ジェスチャーが存在
しない時は、何も実行しない。
Here, the gesture GE of FIG.
When the handwriting as shown in 336 is input, the input handwriting is determined to be the input end instruction gesture. At this time,
If there is selected state data, the latest processing that can be performed on the selected state data is executed on the selected state data. It should be noted that when there is no data in the selected state, the presence of an unprocessed gesture is determined, and when it is present, the discovered gesture (one or more) is executed, for example, in the order of input time series. If there is no unprocessed gesture, nothing is executed.

【0236】次に、処理が終了した段階の表示画面に
は、図31の(b) に示すような数字がゴチック書体とな
された表示が行なわれる。なお、この場合、ジェスチャ
の筆跡を消去する機構を加えることも可能である。
Next, on the display screen at the stage where the processing is completed, a display in which the numbers are in the Gothic typeface as shown in FIG. 31 (b) is displayed. In this case, it is possible to add a mechanism for erasing the handwriting of the gesture.

【0237】上述したようなことから、本実施例によれ
ば、入力終了指示ジェスチャを文字列を入力する入力枠
において文字列入力の終了を示すジェスチャとして利用
でき、また、幾つもの選択枝を選べるメニューにおいて
選択の終了を示すジェスチャとして利用できる。更に、
対象を指定しておき、直前の処理をもう一度実行するジ
ェスチャとして利用できる。その他、一括実行型の編集
に対して編集実行を指示するジェスチャとして利用でき
る。上記のように、入力終了指示ジェスチャは同一形状
のジェスチャにもかかわらず様々な異なった処理を起動
させる。
As described above, according to the present embodiment, the input end instruction gesture can be used as a gesture indicating the end of the character string input in the input box for inputting the character string, and a number of selection branches can be selected. It can be used as a gesture to indicate the end of selection in the menu. Furthermore,
It can be used as a gesture to specify the target and execute the previous process again. In addition, it can be used as a gesture for instructing execution of editing for batch execution type editing. As described above, the input end instruction gesture activates various different processes in spite of the gesture having the same shape.

【0238】図32には上述した入力終了指示ジェスチ
ャの具体的動作のフローチャートを示す。
FIG. 32 shows a flowchart of the specific operation of the above-mentioned input end instruction gesture.

【0239】この図32において、ステップS601で
1画の入力を待ち、1画の入力がなされると、ステップ
S602では入力画の筆跡の形状の認識を行う。次のス
テップS6021では上記形状認識の結果、上記入力筆
跡が選択ジェスチャか否かの判断を行う。当該ステップ
S6021で入力筆跡が選択ジェスチャであると判断し
た場合(Yes)にはステップS610に進み、入力筆
跡が選択ジェスチャでないと判断した場合(No)には
ステップS6022に進む。当該ステップS6022で
は上記形状認識の結果、上記入力筆跡が引き出し線ジェ
スチャか否かの判断を行う。当該ステップS6022で
入力筆跡が引き出し線ジェスチャであると判断した場合
(Yes)にはステップS606に進み、入力筆跡が引
き出し線ジェスチャでないと判断した場合(No)には
ステップS6023に進む。当該ステップS6023で
は上記形状認識の結果、上記筆跡入力が入力終了指示ジ
ェスチャか否かの判断を行う。当該ステップS6023
で入力筆跡が入力終了指示ジェスチャであると判断した
場合(Yes)にはステップS603に進み、入力筆跡
が入力終了指示ジェスチャでないと判断した場合(N
o)にはステップS6024に進み、その他の処理がな
される。すなわち、上記ステップS601の筆跡入力
は、選択ジェスチャ,引き出し線ジェスチャ,入力終了
指示ジェスチャのいずれでもないため、他のジェスチャ
或いは図形,文字等の入力としてそれらに対応する処理
を行う。このステップS6024の後はステップS60
1に戻る。
In FIG. 32, the input of one stroke is awaited in step S601. When one stroke is input, the shape of the handwriting of the input stroke is recognized in step S602. In the next step S6021, as a result of the shape recognition, it is determined whether or not the input handwriting is a selection gesture. If it is determined in step S6021 that the input handwriting is the selected gesture (Yes), the process proceeds to step S610, and if it is determined that the input handwriting is not the selected gesture (No), the process proceeds to step S6022. In step S6022, as a result of the shape recognition, it is determined whether the input handwriting is a leader line gesture. If it is determined in step S6022 that the input handwriting is a leader line gesture (Yes), the process proceeds to step S606, and if it is determined that the input handwriting is not the leader line gesture (No), the process proceeds to step S6023. In step S6023, as a result of the shape recognition, it is determined whether the handwriting input is an input end instruction gesture. Step S6023
If it is determined that the input handwriting is the input end instruction gesture (Yes), the process proceeds to step S603, and if it is determined that the input handwriting is not the input end instruction gesture (N).
In step o6024, the process advances to step S6024 to perform other processing. That is, since the handwriting input in step S601 is not a selection gesture, a leader line gesture, or an input end instruction gesture, a process corresponding to them is performed as an input of another gesture, a figure, a character, or the like. After this step S6024, step S60
Return to 1.

【0240】ここで、上記ステップS602で選択ジェ
スチャであると判断されると、上記ステップS610で
は選択ジェスチャが囲む領域の文字を選択状態としてス
テップS601に戻る。
If it is determined in step S602 that the gesture is the selected gesture, the characters in the area surrounded by the selected gesture are selected in step S610, and the process returns to step S601.

【0241】上記ステップS602で引き出し線ジェス
チャであると判断した場合には、ステップS606で文
字入力を待つ。このステップS606で文字入力が有る
と、ステップS607では文字入力が終了したか否かの
判断を行う。このステップS607で文字入力が終了し
ていないと判断した場合(No)はステップS606に
戻り、文字入力が終了したと判断した場合(Yes)に
はステップS608に進む。
If it is determined in step S602 that the gesture is a leader line gesture, the input of characters is awaited in step S606. If there is character input in step S606, it is determined in step S607 whether character input is completed. If it is determined in step S607 that the character input is not completed (No), the process returns to step S606, and if it is determined that the character input is completed (Yes), the process proceeds to step S608.

【0242】当該ステップS608では入力内容に対応
する処理が実行(例えばゴチック化)され、その後、ス
テップS609で処理の名称が処理名保存テーブルに登
録される(例えば処理名称は「選択された文字列のゴチ
ック」化)。当該ステップS609の後はステップS6
01に戻る。
In step S608, the process corresponding to the input content is executed (eg, gotification), and then the process name is registered in the process name saving table in step S609 (eg, the process name is "selected character string"). "Gotic"). After step S609, step S6
Return to 01.

【0243】また、上記ステップS602で入力終了指
示ジェスチャであると判断されると、上記ステップS6
03では選択状態のデータが存在するか否かの判断を行
い、存在すると判断した場合(Yes)にはステップS
604に進み、存在しないと判断した場合(No)には
ステップS611に進む。
If it is determined in step S602 that the gesture is an input end instruction gesture, then step S6 is performed.
In 03, it is judged whether or not there is data in the selected state. If it is judged that the data exists (Yes), the step S
The process proceeds to step 604, and if it is determined that there is none (No), the process proceeds to step S611.

【0244】上記ステップS604ではステップS60
9で登録した処理名称の中で選択状態のデータに対して
実行可能な最近の処理を実行した後、ステップS601
に戻る。ステップS611では、未処理のジェスチャが
存在するか否かの判断を行い、未処理のジェスチャが存
在すると判断した場合(Yes)にはステップS612
で発見した1以上のジェスチャについて例えば入力時系
列順に実行する処理を行った後ステップS601に戻
る。また、ステップS611で未処理のジェスチャが存
在しないと判断した場合(No)にはステップS601
に戻る。
At step S604, step S60 is performed.
After executing the latest process that can be executed on the selected data in the process names registered in step 9, step S601
Return to. In step S611, it is determined whether or not an unprocessed gesture exists, and when it is determined that an unprocessed gesture exists (Yes), step S612.
For example, the process of executing the one or more gestures found in step S <b> 601 in the order of input time series is performed, and the process returns to step S <b> 601. If it is determined in step S611 that there is no unprocessed gesture (No), step S601.
Return to.

【0245】また、本実施例では、実行された操作が表
示されるようにもなっている。すなわち、この場合の手
順としては、先ず、例えばキーボードやファイルから入
力された操作をジェスチャによる操作で表現する。ひと
つのジェスチャでは表現できない場合は幾つかのジェス
チャに変換して表現する。更に、どうしてもジェスチャ
として表現できない場合には、操作を表すアイコンで代
用する。次に、変換されたジェスチャに相当する筆跡を
操作対象となった画面上の場所に表示する。以後ジェス
チャとして入力された操作と同等に扱う。
Further, in the present embodiment, the executed operation is also displayed. That is, as a procedure in this case, first, for example, an operation input from a keyboard or a file is expressed by a gesture operation. If one gesture cannot be expressed, it is converted into several gestures and expressed. Furthermore, if the gesture cannot be expressed by any means, an icon representing the operation is used instead. Next, the handwriting corresponding to the converted gesture is displayed at the location on the screen that is the operation target. After that, it is handled in the same way as the operation input as a gesture.

【0246】例えば、図33の(a) の図中点線で囲む文
字データがジェスチャGE371 により選択状態にあると
する。本実施例では、例えばキーボードにより、これら
選択状態の文字データをゴチック書体にするとして、そ
の機能指定を入力したとする。なお、本実施例ではキー
ボード入力としているが、例えばマウス/ペンによるメ
ニュー選択による機能指定によってもよい。機能指定の
際には例えばキーボードより入力された文字をバッファ
リングしリターンキー入力などを契機として入力を終了
し、文字列の解釈を行ない発行された機能の内容を得
る。上記発行された機能指定に対応するジェスチャ番号
を表8の表(8) のテーブルから得る。ここでは簡単のた
めに、1つの機能に対して1ジェスチャ番号を与えてい
るが、適切な圧縮方法により経済的な表現方法をとるこ
とも出来る。
[0246] For example, character data enclosed by dotted line in the figure in FIG. 33 (a) is referred to as being selected by the gesture GE 371. In the present embodiment, it is assumed that the character data in the selected state is set to the Gothic typeface and the function designation is input by the keyboard, for example. Although the keyboard input is used in this embodiment, the function may be designated by menu selection with a mouse / pen, for example. When designating a function, for example, characters input from the keyboard are buffered, the input is terminated when the return key is input, and the character string is interpreted to obtain the content of the issued function. The gesture number corresponding to the issued function designation is obtained from the table (8) in Table 8. Here, for the sake of simplicity, one gesture number is given to one function, but an economical expression method can be adopted by an appropriate compression method.

【0247】[0247]

【表8】 [Table 8]

【0248】本実施例では、機能とジェスチャ番号の対
応を表す表(8) の表中の“ゴチック書体”からジェスチ
ャ番号30002を得る。次に、ジェスチャ番号に対応
するパラメトリック図形データを表9の表(9) のテーブ
ルから検索する。その後、得られた図形データに、当該
機能によって処理されるべきデータの中心座標などのパ
ラメータを付加する。この例では、選択状態にある上記
図33の(a) の図中点線で囲う部分の文字データの外接
四角形の中心座標を与える。
In this embodiment, the gesture number 30002 is obtained from the "gothic typeface" in the table (8) showing the correspondence between the function and the gesture number. Next, the parametric graphic data corresponding to the gesture number is searched from the table (9) in Table 9. Then, parameters such as central coordinates of data to be processed by the function are added to the obtained graphic data. In this example, the center coordinates of the circumscribing quadrangle of the character data in the portion surrounded by the dotted line in FIG. 33 (a) in the selected state are given.

【0249】[0249]

【表9】 [Table 9]

【0250】本実施例では、この表(9) の表中ジェスチ
ャ番号30002からパラメトリック図形データ“〜ゴ
チ”を得る。次に、上記ジェスチャ番号により真偽判定
を行ない、対応するジェスチャ表示処理へと移行する。
本実施例では、上述のようにゴチック書体への変換の指
定が発行されており、先ず、パラメトリック図形データ
及び対応するパラメータからゴチック書体ジェスチャの
表示処理を行なう。その結果、引き出し線の先に文字
“ゴチ”を付加した図33の(b) に示す引き出し線GE
372 及び文字373が表示される。その後、ゴチック書
体実行を行う。本実施例では、図33の(a) のGE371
で囲まれた文字データをゴチック書体に変換すること
で、図33の(c) に示すようにゴチック書体の数字が表
示されるようになる。
In the present embodiment, the parametric figure data "... gochi" is obtained from the gesture number 30002 in the table of this table (9). Next, the authenticity determination is performed based on the gesture number, and the process moves to the corresponding gesture display process.
In this embodiment, the designation of conversion to the Gothic typeface is issued as described above, and first, the display process of the Gothic typeface gesture is performed from the parametric graphic data and the corresponding parameter. As a result, the lead line GE shown in FIG. 33 (b) in which the character "gochi" is added to the end of the lead line
372 and characters 373 are displayed. After that, the Gothic typeface is performed. In this embodiment, the GE 371 shown in FIG.
By converting the character data enclosed in parentheses into a Gothic typeface, the numbers in the Gothic typeface are displayed as shown in (c) of FIG.

【0251】なお、生成したジェスチャの表示が既存の
画面上の情報と競合して視覚的あるいは操作上不都合が
生じる場合には、生成ジェスチャの移動/変形などの処
理を施すことも可能である。さらに、本機構を有効/無
効にする機構を含むようにすることも実現可能である。
If the display of the generated gesture conflicts with the information on the existing screen and causes visual or operational inconvenience, it is possible to perform processing such as moving / deforming the generated gesture. Furthermore, it is feasible to include a mechanism for enabling / disabling this mechanism.

【0252】上述したようなことから、本実施例によれ
ば、今行なわれた操作が何であったかを画面を見ただけ
で一目で理解できるようになる。また、一括実行型編集
をしている時にキーボードから入力した命令も実行を保
留して画面に表示しておくことができる。更に、予め入
力しておいた一連の操作手続きを一端画面上でジェスチ
ャとして表示し、確認,修正してから実行できる(一括
実行型編集を利用する)。
As described above, according to this embodiment, it is possible to understand at a glance what the operation was just done by looking at the screen. In addition, it is possible to suspend execution of commands input from the keyboard during batch execution type editing and display them on the screen. Furthermore, a series of operation procedures that have been input in advance can be displayed as gestures on the screen and can be confirmed and corrected before execution (using batch execution type editing).

【0253】図34には上述した実行された操作の表示
の動作手順のフローチャートを示す。ここでは、簡単の
ため筆跡入力により実行されるジェスチャは“選択”,
“ゴチック書体”,“取り消し”の3種のみとしてあ
る。
FIG. 34 shows a flowchart of the operation procedure for displaying the above-mentioned executed operation. Here, for the sake of simplicity, the gesture executed by handwriting input is “select”,
There are only three types, "Gothic typeface" and "Cancel".

【0254】この図34において、ステップS701で
はキーボードによる入力が有るか否かの判断を行い、キ
ーボード入力が有ったと判断した場合(Yes)は後述
するステップS710に進み、無いと判断した場合には
ステップS702に進む。
In FIG. 34, in step S701, it is determined whether or not there is an input from the keyboard. If it is determined that there is keyboard input (Yes), the process proceeds to step S710 described later, and if it is determined that there is no input. Advances to step S702.

【0255】上記ステップS702では1画の筆跡入力
が有ったか否かの判断を行い、1画の筆跡入力が有った
と判断した場合(Yes)にはステップS721に進
み、無いと判断した場合(No)にはステップS701
に戻る。
In step S702, it is determined whether or not one stroke of handwriting has been input. If it is determined that one stroke of handwriting has been input (Yes), the process proceeds to step S721. Step S701 for (No)
Return to.

【0256】上記ステップS721では上記1画の入力
筆跡が選択ジェスチャか否かの判断を行う。当該ステッ
プS721で選択ジェスチャであると判断した場合(Y
es)はステップS704に進み、選択ジェスチャでな
いと判断した場合(No)には後述するステップS72
2に進む。
In step S721, it is determined whether the input handwriting of the one stroke is a selection gesture. When it is determined in step S721 that the gesture is the selection gesture (Y
es) proceeds to step S704, and when it is determined that the gesture is not the selection gesture (No), step S72 described below is performed.
Go to 2.

【0257】上記ステップS721でYesと判断され
ると、ステップS704で選択ジェスチャを表示した
後、ステップS705で当該選択ジェスチャの操作が実
行されてステップS701に戻る。
If it is determined Yes in step S721, the selection gesture is displayed in step S704, the operation of the selection gesture is executed in step S705, and the process returns to step S701.

【0258】また、上記ステップS721でNoと判断
された場合のステップS722では、上記入力筆跡がゴ
チック書体ジェスチャか否かの判断が行われる。当該ス
テップS722でゴチック書体ジェスチャであると判断
した場合(Yes)にはステップS706に進み、ゴチ
ック書体ジェスチャでないと判断した場合(No)には
後述するステップS723に進む。
If it is determined No in step S721, in step S722, it is determined whether the input handwriting is a Gothic typeface gesture. If it is determined in step S722 that it is a Gothic typeface gesture (Yes), the process proceeds to step S706, and if it is determined that it is not the Gothic typeface gesture (No), the process proceeds to step S723 described below.

【0259】上記ステップS722でYesと判断され
ると、ステップS706でゴチック書体ジェスチャが表
示され、ステップS707でそのゴチック書体ジェスチ
ャの操作が実行された後、ステップS701に戻る。
If it is determined Yes in step S722, the gothic typeface gesture is displayed in step S706, the operation of the gothic typeface gesture is executed in step S707, and then the process returns to step S701.

【0260】さらに、上記ステップS722でNoと判
断された場合のステップS723では、入力筆跡が取消
ジェスチャか否かの判断が行われ、取消ジェスチャであ
ると判断した場合にステップS708に進み、取消ジェ
スチャでないと判断した場合にはステップS701に戻
る。
Further, if it is determined No in step S722 above, it is determined in step S723 whether or not the input handwriting is a cancel gesture. If it is determined that the input gesture is a cancel gesture, the process proceeds to step S708, and the cancel gesture is performed. If it is determined that it is not, the process returns to step S701.

【0261】上記ステップS723でYesと判断され
ると、ステップS708で取消ジェスチャが表示され、
ステップS709でその取消ジェスチャの操作が実行さ
れた後、ステップS701に戻る
If it is determined Yes in step S723, the cancel gesture is displayed in step S708.
After the operation of the cancel gesture is executed in step S709, the process returns to step S701.

【0262】一方、上記ステップS701でYesと判
断されると、ステップS710ではキーボードからの入
力の文字の入力が行われ、次のステップS711ではキ
ーボードからの入力が終了したか否かの判断が行われ
る。当該ステップS711で入力が終了していないと判
断した場合(No)にはステップS710に戻り、入力
が終了したと判断した場合(Yes)にはステップS7
12に進む。
On the other hand, if it is determined Yes in step S701, the character input from the keyboard is input in step S710, and it is determined in the next step S711 whether or not the input from the keyboard is completed. Be seen. When it is determined in step S711 that the input is not completed (No), the process returns to step S710, and when it is determined that the input is completed (Yes), step S7 is executed.
Proceed to 12.

【0263】上記ステップS712では前述した表(8)
に示すテーブルから、上記ステップS710で入力した
文字列を検索し、対応するジェスチャ番号を得る。次に
ステップS713では、表(9) に示したジェスチャと図
形との対応を示すテーブルから上記ジェスチャ番号に対
応した図形データを得てステップS714に進む。
In step S712, the above-mentioned table (8)
The character string input in the above step S710 is searched from the table shown in (1) to obtain the corresponding gesture number. Next, in step S713, the figure data corresponding to the gesture number is obtained from the table showing the correspondence between gestures and figures shown in Table (9), and the flow proceeds to step S714.

【0264】ステップS714では、上記図形データに
大きさ、位置などのパラメータを付加する。付加するパ
ラメータは表示画面の大きさや、処理されるべきデータ
の位置などから計算する。その後、ステップS715に
進む。
At step S714, parameters such as size and position are added to the graphic data. The parameter to be added is calculated from the size of the display screen and the position of the data to be processed. Then, it progresses to step S715.

【0265】上記ステップS715では上記検索された
データが選択ジェスチャか否かの判断を行い、当該ステ
ップS715で選択ジェスチャであると判断した場合
(Yes)には、上記ステップS704に進み、このス
テップS704以後上述同様の処理が施される。また、
ステップS715で選択ジェスチャでないと判断した場
合(No)は、ステップS716に進む。
[0265] In step S715, it is determined whether or not the retrieved data is a selection gesture, and if it is determined in step S715 that it is a selection gesture (Yes), the process proceeds to step S704, and this step S704. Thereafter, the same processing as described above is performed. Also,
If it is determined in step S715 that the gesture is not the selection gesture (No), the process proceeds to step S716.

【0266】当該ステップS716ではゴチック書体ジ
ェスチャであるか否かの判断を行う、当該ステップS7
16でゴチック書体ジェスチャであると判断した場合
(Yes)には、上記ステップS706に進み、このス
テップS706以後上述同様の処理が施される。さら
に、ステップS716でゴチック書体ジェスチャでない
と判断した場合(No)にはステップS717に進む。
In step S716, it is determined whether or not it is a Gothic typeface gesture.
If it is determined in 16 that the gesture is a Gothic typeface gesture (Yes), the process proceeds to step S706, and after step S706, the same process as described above is performed. Furthermore, when it is determined in step S716 that the gesture is not a Gothic typeface gesture (No), the process proceeds to step S717.

【0267】当該ステップS717では取消ジェスチャ
であるか否かの判断を行う、当該ステップS717で取
消ジェスチャであると判断した場合(Yes)には、上
記ステップS708に進み、このステップS708以後
上述同様の処理が施される。さらに、ステップS717
で取消ジェスチャでないと判断した場合(No)にはス
テップS701に戻る。
In step S717, it is determined whether the gesture is a cancellation gesture. If it is determined that the gesture is a cancellation gesture in step S717 (Yes), the process proceeds to the step S708, and the same steps as those described above are performed. Processing is performed. Further, step S717
When it is determined that the gesture is not the cancel gesture (No), the process returns to step S701.

【0268】また、本実施例では、前述したジェスチャ
オンジェスチャの動作例として、取り消し,消去,引き
出し線,入力終了指示,オブジェクト指定,方向(“上
送り”,“下送り”,“右送り”,“左送り”)のジェ
スチャが他のジェスチャの上に(又は上から始まるよう
に)描かれた場合、当該下のジェスチャの動作を修正す
る特殊なジェスチャとして動作するようにしている。本
実施例でのジェスチャオンジェスチャの手順は以下のよ
うである。
In this embodiment, as an example of the gesture-on-gesture operation described above, cancel, erase, lead line, input end instruction, object designation, direction (“upward feed”, “downward feed”, “right feed”). , "Left feed" gesture is drawn on top of (or starts from above) another gesture, it acts as a special gesture that modifies the movement of the gesture below. The procedure of the gesture-on-gesture in this embodiment is as follows.

【0269】先ず、上記取り消しのジェスチャの場合、
取り消しのジェスチャを認識し、ジェスチャの上に描き
込まれたジェスチャであることを判定(筆跡下にあるジ
ェスチャをジェスチャAとする)し、ジェスチャの上に
描き込まれたと判断した場合は、取り消しのジェスチャ
の処理を切り替えて、ジェスチャAの動作を以下のごと
く修正する。すなわち、ジェスチャAで実行された処理
を取り消し、ジェスチャAでは何の処理も行われなかっ
たことにする。なお、通常取り消しのジェスチャでは、
直線の処理の取り消しが実行される。
First, in the case of the above cancellation gesture,
Recognize the gesture of cancellation, determine that it is a gesture drawn on the gesture (the gesture below the handwriting is gesture A), and if it is judged that it was drawn on the gesture, The gesture processing is switched to correct the operation of gesture A as follows. That is, the processing executed in the gesture A is canceled, and the gesture A does not perform any processing. In addition, in the gesture of normal cancellation,
The cancellation of the straight line processing is executed.

【0270】なお、下記手順のうち、入力筆跡がジェス
チャのうえに描かれたかどうかを判定する際には、入力
筆跡とジェスチャが交差しなくても、入力筆跡がそのジ
ェスチャを指示していることが明らかな場合には、入力
筆跡がジェスチャの上に描かれたと判定するような処理
を行う。
In the following procedure, when determining whether the input handwriting is drawn on a gesture, the input handwriting indicates the gesture even if the input handwriting and the gesture do not intersect. When it is clear that the input handwriting is drawn on the gesture.

【0271】上記消去のジェスチャの場合、消去のジェ
スチャを認識し、ジェスチャの上に描き込まれたジェス
チャであることを判定(筆跡下にあるジェスチャをジェ
スチャAとする)し、ジェスチャの上に描き込まれたと
判断した場合は、消去のジェスチャの処理を切り替え
て、ジェスチャAの動作を以下のごとく修正する。すな
わち、ジェスチャAで実行された処理を取り消し、ジェ
スチャAでは何の処理も行われなかったことにする。な
お、通常消去のジェスチャでは当該消去のジェスチャの
筆跡下の図形や文字ファイル等の消去が実行される。
In the case of the erasing gesture, the erasing gesture is recognized, it is determined that the gesture is drawn on the gesture (the gesture below the handwriting is referred to as gesture A), and the gesture is drawn on the gesture. If it is determined that the gesture has been inserted, the process of the erasing gesture is switched and the operation of the gesture A is corrected as follows. That is, the processing executed in the gesture A is canceled, and the gesture A does not perform any processing. It should be noted that in the normal erasing gesture, the figures and character files under the handwriting of the erasing gesture are erased.

【0272】上記引き出し線のジェスチャの場合、引き
出し線のジェスチャを認識し、引き出し線が他のジェス
チャから引き出されていることを判定し(引き出し線の
始点が指し示すジェスチャをジェスチャAとする)、ジ
ェスチャの上に描き込まれたと判断した場合は、引き出
し線のジェスチャの処理を切り替えて、ジェスチャAの
動作を以下のごとく修正する。すなわち、引き出し線が
開くウインドウにジェスチャAで実行された処理のパラ
メータを表示したウインドウを開き、通常の引き出し線
ジェスチャと同様にウインドウへの入力を受け付け、入
力終了後修正されたパラメータに従ってジェスチャAの
処理を再実行する。複写処理のように、処理を再実行し
た場合と処理を取り消してやり直した場合で動作が異な
ってしまうときには、ジェスチャAで実行された処理を
一度取り消してから先に指定されたパラメータに従って
もう一度処理を実行すればよい。また、ジェスチャAの
筆跡を認識した時に認識結果として複数の種類のジェス
チャが候補となっていた場合は、その候補一覧もウイン
ドウに表示して、ジェスチャAの種類そのものを変更す
るために利用することもできる。その際には、ジェスチ
ャAで実行された処理を一度取り消してから指定された
種類の処理を実行すればよい。なお、通常引き出し線の
ジェスチャでは、図形や文字列その他のデータに対する
属性の参照,設定などが実行される。
In the case of the above-mentioned leader line gesture, the gesture of the leader line is recognized, it is determined that the leader line is drawn from another gesture (the gesture indicated by the starting point of the leader line is gesture A), and the gesture. When it is determined that it is drawn on the above, the processing of the gesture of the leader line is switched, and the operation of the gesture A is corrected as follows. That is, a window displaying the parameters of the process executed by the gesture A is opened in the window in which the leader line is opened, an input to the window is accepted in the same manner as a normal leader line gesture, and the gesture A according to the corrected parameter is input after the input is completed. Re-execute the process. When the operation is different when the process is re-executed and when the process is canceled and re-executed like the copy process, the process executed by the gesture A is canceled once and the process is performed again according to the previously specified parameter. Just run it. Further, when a plurality of types of gestures are candidates as the recognition result when the handwriting of the gesture A is recognized, the candidate list is also displayed in the window and used to change the type of the gesture A itself. You can also In that case, the process executed in the gesture A may be canceled once, and then the specified type of process may be executed. It should be noted that in the normal leader line gesture, reference and setting of attributes for graphics, character strings, and other data are performed.

【0273】上記入力終了指示ジェスチャの場合、入力
終了指示のジェスチャを認識し、ジェスチャの上に描き
込まれたジェスチャであることを判定(筆跡の下にある
ジェスチャをジェスチャAとする)し、ジェスチャの上
に描き込まれたと判断した場合は、入力終了指示のジェ
スチャの処理を切り替えて、ジェスチャAの動作を以下
のごとく修正する。すなわち、一括実行型編集を行って
いるときなどでジェスチャAの処理の実行が保留されて
いる場合、ジェスチャAの保留状態を解除して処理を直
ちに実行する。なお、一括実行型編集を行っている場
合、通常入力終了指示のジェスチャでは保留されている
全てのジェスチャの処理が実行される。
In the case of the input end instruction gesture, the gesture of the input end instruction is recognized, it is determined that the gesture is drawn on the gesture (the gesture below the handwriting is referred to as gesture A), and the gesture is made. When it is determined that it is drawn on the above, the processing of the gesture of the input end instruction is switched, and the operation of the gesture A is corrected as follows. That is, when the execution of the process of the gesture A is suspended, such as when performing batch execution type editing, the suspended state of the gesture A is released and the process is immediately executed. In addition, when performing batch execution type editing, processing of all gestures that are suspended in the gesture of the normal input end instruction is executed.

【0274】上記オブジェクト指定のジェスチャの場
合、オブジェクト指定のジェスチャを認識し、ジェスチ
ャの上に描き込まれたジェスチャであることを判定(筆
跡下にあるジェスチャをジェスチャAとする)し、ジェ
スチャの上に描き込まれたと判断した場合は、オブジェ
クト指定のジェスチャの処理を切り替えて、ジェスチャ
Aの動作を以下のごとく修正する。すなわち、ジェスチ
ャAで実行された処理に対応する“その次”という処理
の有無を判定し、有る場合は当該“その次”という処理
を実行する。“その次”という処理とは、例えば文字列
検索の処理に対しては“次の一致文字列の検索”という
処理が“その次”という処理であり、取り消しの処理に
対しては“さらにもう一つ前の処理の取り消し”という
処理が“その次”という処理である。上記“その次”と
いう処理の有無の判定を行うためには、各処理と“その
次”という処理の対応を示すテーブルを予め用意してお
けばよい。なお、通常オブジェクト指定のジェスチャで
は、指示されたデータを選択された状態にする処理が実
行される。
In the case of the above-mentioned object-specified gesture, the object-specified gesture is recognized, it is determined that the gesture is drawn on the gesture (the gesture below the handwriting is referred to as gesture A), and the gesture is touched. If it is determined that the gesture is drawn in, the processing of the gesture designated by the object is switched, and the operation of the gesture A is corrected as follows. That is, it is determined whether or not there is a "next" process corresponding to the process executed in the gesture A, and if there is, the "next" process is executed. The “next” process is, for example, a “next matching string search” process for a character string search process, and a “next further” process for cancellation. The process of "canceling the previous process" is the process of "the next". In order to determine the presence / absence of the “next” process, a table indicating the correspondence between each process and the “next” process may be prepared in advance. It should be noted that in the gesture for designating a normal object, a process of bringing the instructed data into a selected state is executed.

【0275】上記右送り,左送りのジェスチャの場合、
右送り,左送りのジェスチャを認識し、ジェスチャの上
に描き込まれたジェスチャであることを判定(筆跡下に
あるジェスチャをジェスチャAとする)し、ジェスチャ
の上に描き込まれたと判断した場合は、右送り,左送り
のジェスチャの処理を切り替えて、ジェスチャAの動作
を以下のごとく修正する。すなわち、右送りのジェスチ
ャの場合、ジェスチャAで実行された処理に対応する前
記“その次”という処理の有無を判定し、有る場合は当
該“その次”という処理を実行する。左送りのジェスチ
ャの場合、ジェスチャAで実行された処理に対応する
“その前”という処理の有無を判定し、有る場合は当該
“その前”という処理を実行する。“その前”という処
理とは、例えば文字列検索の処理に対しては“一つ前の
一致文字列の検索”という処理が“その前”という処理
であり、取り消しの処理に対しては“一つ前の取り消し
の処理の取り消し”という処理が“その前”という処理
である。上記“その前”という処理の有無の判定を行う
ためには、前記“その次”という処理の場合と同様にす
ればよい。右送り,左送りのジェスチャの筆跡の方向と
処理の対応を自然にするため、ジェスチャAの種類に応
じて、右送りで“その前”、左送りで“その次”という
対応に切り替える処理を付け加えてもよい。
In the case of the right feed and left feed gestures described above,
When right-feeding and left-feeding gestures are recognized, it is determined that the gesture is drawn on the gesture (the gesture below the handwriting is referred to as gesture A), and it is determined that the gesture is drawn on the gesture. Switches the processing of the right feed and left feed gestures and corrects the operation of gesture A as follows. That is, in the case of a right-feed gesture, it is determined whether or not there is the "next" process corresponding to the process executed in the gesture A, and if there is, the "next" process is executed. In the case of a left feed gesture, it is determined whether or not there is a process “before” corresponding to the process executed in the gesture A, and if there is, the process “before” is executed. The process “before” is, for example, the process “searching for the previous matching character string” is “before” for the process of character string search and “previous” for the process for canceling. The process "cancellation of the previous cancellation process" is the process "before". In order to determine the presence / absence of the process “before”, the same process as the process “next” may be performed. In order to make the correspondence between the direction of the handwriting of the right feed and left feed gestures and the processing natural, in accordance with the type of gesture A, the processing to switch to the "previous" for right feed and "the next" for left feed May be added.

【0276】上記上送り,下送りのジェスチャの場合、
先ず、上送り,下送りのジェスチャを認識し、ジェスチ
ャの上に描き込まれたジェスチャであることを判定(筆
跡下にあるジェスチャをジェスチャAとする)し、ジェ
スチャの上に描き込まれたと判断した場合は、上送り,
下送りのジェスチャの処理を切り替えて、ジェスチャA
の動作を以下のごとく修正する。すなわち、上送りのジ
ェスチャの場合、ジェスチャAで実行された処理に対応
する前記“その上”という処理の有無を判定し、有る場
合は当該“その上”という処理を実行する。“その上”
という処理とは、例えばグループ選択の処理に対しては
“一つ上のレベルのグループの選択”という処理が“そ
の上”という処理であり、横書き文書中の文字列検索の
処理に対しては“一つ前の一致文字列の検索”という処
理が“その上”という処理である。“その上”という処
理が無い場合はジェスチャAで実行された処理に対応す
る前記“その前”という処理の有無を判定し、有る場合
は当該“その前”という処理を実行する。下送りのジェ
スチャの場合、ジェスチャAで実行された処理に対応す
る“その下”という処理の有無を判定し、有る場合は当
該“その下”という処理を実行する。“その下”という
処理とは、例えばグループ選択の処理に対しては“一つ
下のレベルのグループの選択”という処理が“その下”
の処理であり、横書き文書中の文字列検索の処理に対し
ては“次の一致文字列の検索”という処理がその下の処
理である。上記“その上”,“その下”という処理の有
無の判定を行うためには前記“その次”という処理の場
合と同様にすればよい。グループのレベルについては後
述する。
In the case of the above-upward and down-feed gestures,
First, it recognizes the gestures of up-feed and down-feed, determines that it is a gesture drawn on the gesture (the gesture below the handwriting is called gesture A), and determines that it is drawn on the gesture. If done, top feed,
Switch the processing of the downward feed gesture, and make a gesture A
The operation of is modified as follows. That is, in the case of the upward feed gesture, it is determined whether or not there is the above-mentioned "above" process corresponding to the process executed in the gesture A, and if there is, the above-mentioned "above" process is executed. "Moreover"
For example, the process of “selecting a group at the next higher level” is the process of “above” for the process of selecting a group, and the process of searching for a character string in a horizontal document is The process of “searching for the previous matched character string” is the process of “above”. If there is no "above" process, it is determined whether or not there is the above-mentioned "before" process corresponding to the process executed in gesture A, and if there is, the above-mentioned "before" process is executed. In the case of the downward feed gesture, it is determined whether or not there is a process "below" corresponding to the process executed in the gesture A, and if there is, the process below "below" is executed. The process "below" is, for example, the process "selecting the group at the next lower level" is "below" for the process of group selection.
The process of "searching for the next matching character string" is a process below the process of searching for a character string in a horizontally written document. In order to determine the presence / absence of the processing “above” and “below”, the same processing as the case of the above “next” may be performed. The level of the group will be described later.

【0277】具体的には、以下のようにする。Specifically, the following is done.

【0278】先ず、直前の操作を取り消す“取消ジェス
チャ”の形状は前述した表(3) に示される通りであり、
本実施例では前記仮名漢字変換ジェスチャを取り消す場
合について説明する。
First, the shape of the "cancel gesture" for canceling the immediately preceding operation is as shown in the above-mentioned table (3),
In this embodiment, the case of canceling the Kana-Kanji conversion gesture will be described.

【0279】例えば、図35の(a) に示すような文字列
データが画面に表示されているとする。このとき、図3
5の(b) に示すような仮名漢字変換ジェスチャに対応す
る筆跡PM392 を入力したとし、この仮名漢字変換ジェ
スチャにより仮名漢字変換が実行された場合において上
記筆跡PM392 に対応する仮名漢字変換ジェスチャによ
り文字列が例えば図35の(c) に示すような文字列40
3に変換されたとする。なお、この例では、同時に筆跡
PM404 による仮名漢字変換も行っている。すなわち、
この例では、最初に行った仮名漢字変換で誤った変換が
なされたとする。この場合、図35の(d) に示すよう
に、上記“取消”のジェスチャ形状をもつ筆跡PM413
を上記仮名漢字変換ジェスチャ筆跡PM392 の上に記入
する。これにより、上記筆跡PM413 の下のジェスチャ
が検索される。この場合、仮名漢字変換ジェスチャが発
見され、当該仮名漢字変換ジェスチャの操作を取り消す
操作が行われるようになる。上記取り消しが実行された
後の表示は、図35の(e) に示すようになる。なお、取
り消したジェスチャを画面上から消去する機構を付ける
ことも可能である。
For example, assume that character string data as shown in FIG. 35 (a) is displayed on the screen. At this time,
5 of handwriting PM 392 for kana-kanji corresponding to convert the gesture as shown in (b) and the inputted kana-kanji conversion gesture corresponding to the handwriting PM 392 when the kana-kanji conversion is performed by the kana gesture Causes the character string to be, for example, a character string 40 as shown in (c) of FIG.
Suppose it has been converted to 3. In this example, kana-kanji conversion by handwriting PM 404 is also performed at the same time. That is,
In this example, it is assumed that an incorrect conversion was made in the Kana-Kanji conversion performed first. In this case, as shown in FIG. 35D, the handwriting PM 413 having the above-mentioned “cancel” gesture shape.
On the above Kana-Kanji conversion gesture handwriting PM 392 . As a result, the gesture under the handwriting PM 413 is searched. In this case, the Kana-Kanji conversion gesture is discovered, and the operation of canceling the operation of the Kana-Kanji conversion gesture is performed. The display after the cancellation is executed is as shown in FIG. It is also possible to add a mechanism for deleting the canceled gesture from the screen.

【0280】上記の例以外にも、例えば以下に示すよう
な組み合わせにおいてジェスチャの修正を行うことが考
えられる。すなわち、 任意のジェスチャ + 消去 → ジェスチャの取り消し 任意のジェスチャ + 引き出し線 → 処理パラメータの確認・修正又は ジェスチャの認識候補の一覧メニ ュー 変換ジェスチャ + 次送り → 次候補 変換ジェスチャ + 左送り → 前候補 変換ジェスチャ + 右送り → 次候補 変換ジェスチャ + 上送り → 前候補群表示 変換ジェスチャ + 下送り → 次候補群表示 取り消しジェスチャ + 次送り → さらにもう1操作取り消し 取り消しジェスチャ + 上送り → 取り消し操作を1段取り消し 取り消しジェスチャ + 下送り → さらにもう1操作取り消し 選択ジェスチャ + 上送り → 選択範囲のレベルを広げる 選択ジェスチャ + 下送り → 選択範囲のレベルを狭める 等である。
In addition to the above examples, it is possible to correct the gesture in the following combinations, for example. That is, arbitrary gesture + erase → gesture cancellation arbitrary gesture + leader line → confirmation / correction of processing parameters or list of gesture recognition candidates Menu conversion gesture + next feed → next candidate conversion gesture + left feed → previous candidate conversion Gesture + right feed → next candidate conversion gesture + up feed → previous candidate group display conversion gesture + down feed → next candidate group display cancel gesture + next feed → one more operation cancel cancel gesture + up feed → cancel operation one step Cancel gesture + Downward feed → Cancel yet another operation Select gesture + Upward feed → Expand the range of selection Range Selective gesture + Downward feed → Decrease the level of selection range.

【0281】なお、上述した、選択+上送り、或いは、
選択+下送りの際の選択範囲のレベルの例としては以下
のようなものを挙げることができる。
[0281] Note that, as described above, selection + upward feed, or
Examples of the level of the selection range at the time of selection + downward feed include the following.

【0282】例えば、テキストデータの場合において、
日本語の場合は、下位レベルから順に例えば1文字→1
文節→1文→1段落(見出し付きの区切りの場合は1項
→1節→1章)→全文のように上位レベルに移る。英語
の場合は、下位レベルから順に例えば1文字→1単語→
1文→1段落(見出し付きの区切りの場合は1項→1節
→1章)→全文のように上位レベルに移る。
For example, in the case of text data,
In the case of Japanese, for example, 1 character → 1 from the lower level.
Phrase → 1 sentence → 1 paragraph (in the case of a section with a heading, 1 item → 1 paragraph → 1 chapter) → move to a higher level like whole sentence. In the case of English, for example, 1 character → 1 word →
1 sentence → 1 paragraph (in the case of a section with a heading, 1 item → 1 section → 1 chapter) → move to a higher level like full sentence.

【0283】また、図形データの場合には、下位レベル
から順に例えば要素図形→部品→グループ→大グループ
→大大グループ→・・・→全図形のように上位レベルに
移る。なお、要素図形とは、線分,折れ線,円弧,楕
円,スプライン等のあるソフトウェアで扱える最も細か
い図形の単位である。また、部品とは、要素図形の集ま
りである。ただし、部品というレベルを持たないソフト
ウェアもある。通常は意味のある図形となるように要素
図形を集めて部品とする。例えば、部品“矢印”のよう
に線分や折れ線からなるものがある。また、1つの要素
図形が部品になることももちろんある。例えば、折れ線
からなる部品“抵抗器”等である。これらは、データベ
ースを参照して入力するのが普通である。筆跡により入
力された要素図形はそれぞれを部品として扱うことがあ
る。
In the case of graphic data, the graphic data moves from the lower level to the higher level in the order of, for example, element graphic → parts → group → large group → large / large group → ... → All figures. The element graphic is a unit of the finest graphic such as a line segment, a polygonal line, an arc, an ellipse, and a spline that can be handled by software. A part is a collection of element figures. However, some software does not have the level of parts. Usually, element graphics are collected to form a meaningful figure. For example, there is a line segment or a polygonal line like the part "arrow". Of course, one element graphic may be a part. For example, a component "resistor" composed of a polygonal line. These are usually entered by referring to a database. Element graphics input by handwriting may be treated as parts.

【0284】なお、上記グループとは、幾つか(1つで
もよい)の要素図形,部品,グループの集まりである。
グループの集まりでグループを作ることもでき、グルー
プとグループの間に包含関係が生じることがある。この
場合、含まれる側のグループを下位のグループ含む側の
グループを上位のグループと呼ぶ。図形データの上位,
下位の関係は図36に示すようになる。
The group is a collection of some (may be one) element figures, parts, and groups.
Groups can also be made up of groups, and containment relationships can occur between groups. In this case, the included group is called a lower group, and the included group is called an upper group. Higher level of figure data,
The lower relationships are as shown in FIG.

【0285】上述したようなことから、本実施例によれ
ば、引き出し線によりジェスチャで正確な処理を実行で
きるようになり、ジェスチャの組合せで実行できる処理
が増えたので覚えるべきジェスチャ形状を少なくするこ
とができる。また、今までは最後の処理(から順番に)
しか取り消せなかったが、画面に筆跡が残っている任意
の処理を取り消すことができるようになる。更に、“ど
んどん先まで取り消してゆく処理”と“取り消し処理を
取り消す処理”とを分りやすく区別できる。なお、“先
まで取り消す”は取り消しジェスチャの上に次送りのジ
ェスチャを入力し、“取り消しを取り消す”は取り消し
ジェスチャの上に消去のジェスチャを入力することであ
る。
As described above, according to the present embodiment, it is possible to accurately execute a gesture-based process using a lead line, and the number of processes that can be executed by a combination of gestures is increased. Therefore, the gesture shape to be remembered is reduced. be able to. Also, until now, the last processing (in order)
I could only cancel it, but I will be able to cancel any process that has handwriting on the screen. Furthermore, it is possible to easily distinguish between the “process of canceling the cancellation process” and the “process of canceling the cancellation process”. It should be noted that "cancel to the end" is to input the next feed gesture on the cancel gesture, and "to cancel cancel" is to input the erase gesture on the cancel gesture.

【0286】図37には、上述したジェスチャオンジェ
スチャの具体的な処理のフローチャートを示す。
FIG. 37 shows a flowchart of specific processing of the above-described gesture-on gesture.

【0287】この図37において、ステップS81では
1画の筆跡入力を待ち、1画の筆跡入力があるとステッ
プS82で当該入力筆跡の平滑化が行われる。
In FIG. 37, in step S81, the input of one stroke of handwriting is waited, and when there is one stroke of handwriting input, the input handwriting is smoothed in step S82.

【0288】このステップS82で平滑化された後、ス
テップS83では上記筆跡入力以前に入力された筆跡の
中に認識が保留されたものが存在するか否かの判断を行
う。このステップS83において保留された筆跡が有っ
た場合(Yes)は後述するステップS85に進み、無
い場合(No)はステップS84に進む。
After smoothing in step S82, it is determined in step S83 whether or not there is a handwriting whose recognition is suspended among the handwriting input before the handwriting input. If there is a handwriting held in step S83 (Yes), the process proceeds to step S85 described later, and if not (No), the process proceeds to step S84.

【0289】上記ステップS84では、上記筆跡入力
(1つの筆跡入力)の認識を行う。例えば、システムR
OM52等に保持されているジェスチャ認識用テーブル
を使用して上記筆跡入力の認識を行う。すなわち、1画
の筆跡の形状を認識して対応するジェスチャ番号Gno
を返すような処理を行う。なお、当該ジェスチャ認識用
テーブル内に上記1画の筆跡の形状に対応するジェスチ
ャ番号Gnoが無い場合には、未登録のコード(未登録
を意味する番号)を返す。
At the step S84, the handwriting input (one handwriting input) is recognized. For example, system R
The handwriting input is recognized using the gesture recognition table held in the OM 52 or the like. That is, the gesture number Gno corresponding to the shape of the handwriting of one stroke is recognized.
Perform a process that returns. If there is no gesture number Gno corresponding to the shape of the handwriting of one stroke in the gesture recognition table, an unregistered code (a number that means unregistered) is returned.

【0290】上記ステップS84の後は、ステップS8
7に進む。このステップS87では、上記ジェスチャ番
号Gnoが登録されていないものか否かの判断を行う。
すなわち、当該ステップS87では上記ステップS84
から未登録のコードが返されてきたか否かの判断を行
い、このステップS87で未登録であると判断した場合
(Yes)にはステップS88に進み、未登録でない
(登録されている)と判断した場合(No)にはステッ
プS89に進む。なお、ステップS88では、上記未登
録の図形,文字等に対応する処理を行う。当該ステップ
S88の後はステップS81に戻る。
After step S84, step S8 is performed.
Proceed to 7. In step S87, it is determined whether or not the gesture number Gno is not registered.
That is, in step S87, the above step S84 is performed.
If it is determined that the unregistered code is returned from step S87, and if it is determined that the code is not registered in step S87 (Yes), the process proceeds to step S88, and it is determined that the code is not registered (registered). If yes (No), the process proceeds to step S89. In step S88, processing corresponding to the unregistered figure, character, etc. is performed. After step S88, the process returns to step S81.

【0291】また、上記ステップS83でYesと判断
されると上記筆跡入力は1画でないため、ステップS8
5では多筆跡の認識が行われる。このステップS85で
も上記ステップS84と同様に、例えばシステムROM
52等に保持されている多筆跡のジェスチャ認識用テー
ブルを使用して上記多筆跡の形状の認識を行う。このス
テップS85の後は、ステップS86に進む。このステ
ップS86では、上記ステップS87同様に、ジェスチ
ャ番号Gnoが登録されていない(未登録)ものか否か
の判断を行い、Yesと判断した場合には上記ステップ
S84に進み、Noと判断した場合にはステップS89
に進む。
If it is determined Yes in step S83, the handwriting input is not one stroke, so step S8
In 5, the recognition of multiple strokes is performed. In this step S85 as well as in the above step S84, for example, the system ROM
The multi-handwriting gesture recognition table held in 52 or the like is used to recognize the shape of the multi-handwriting. After this step S85, the process proceeds to step S86. In step S86, similarly to step S87, it is determined whether or not the gesture number Gno is not registered (unregistered). If Yes is determined, the process proceeds to step S84. If No is determined. Step S89
Proceed to.

【0292】上記ステップS87或いはステップS86
でNoと判断されてステップS89に進むと、当該ステ
ップS89では上記ジェスチャ番号Gnoが確定さてい
ない(未確定)ものか否かの判断がなされる。このステ
ップS89で未確定であると判断した場合(Yes)は
ステップS820に進み、未確定でない(確定されたも
の)と判断した場合(No)はステップS812に進
む。なお、上記ステップS820では、認識保留筆跡に
登録した後、上記ステップS81に戻る。
The above step S87 or step S86
If No is determined and the process proceeds to step S89, it is determined in step S89 whether or not the gesture number Gno is undetermined (undetermined). If it is determined in step S89 that it is unconfirmed (Yes), the process proceeds to step S820, and if it is determined that it is not unconfirmed (confirmed) (No), the process proceeds to step S812. It should be noted that, in step S820, after registering in the recognition hold handwriting, the process returns to step S81.

【0293】上記ステップS812では、上記入力筆跡
にジェスチャが有るか否かの判断を行い、ジェスチャが
あると判断した場合(Yes)にはステップS814に
進み、ジェスチャがないと判断した場合(No)にはス
テップS813に進む。
In step S812, it is determined whether or not the input handwriting has a gesture. If it is determined that the gesture is present (Yes), the process proceeds to step S814, and if it is determined that there is no gesture (No). If so, the process advances to step S813.

【0294】上記ステップS812でNoと判断される
と、当該ステップS813で上記入力筆跡のジェスチャ
に対応する通常のジェスチャ処理を行い、その後ステッ
プS81に戻る。
If it is determined No in step S812, normal gesture processing corresponding to the gesture of the input handwriting is performed in step S813, and then the process returns to step S81.

【0295】ステップS812でYesと判断される
と、ステップS814では上記入力筆跡の下のジェスチ
ャの種類を取得しそのジェスチャにジェスチャ番号Dn
oを与え(検索で発見されたジェスチャのジェスチャ番
号をDnoに設定する)、ステップS815では入力筆
跡のジェスチャと当該入力筆跡の下のジェスチャのジェ
スチャ番号からジェスチャオンジェスチャとして実行す
べき手続きを得るために手続き番号を予め登録してある
2次元配列(テーブル)GGtblから、当該ジェスチ
ャ番号Dno,ジェスチャ番号Gnoに対応した当該手
続番号kを得る。
If it is determined Yes in step S812, the type of gesture under the input handwriting is acquired in step S814, and the gesture number Dn is added to the gesture.
o is given (the gesture number of the gesture found by the search is set to Dno), and in step S815, in order to obtain a procedure to be executed as a gesture-on-gesture from the gesture of the input handwriting and the gesture number of the gesture below the input handwriting. The procedure number k corresponding to the gesture number Dno and the gesture number Gno is obtained from the two-dimensional array (table) GGtbl in which the procedure number is registered in advance.

【0296】その後、ステップS816では、ジェスチ
ャオンジェスチャの各種操作を実際に実施する手続きの
エントリーを予めジェスチャ番号順に登録してある1次
元配列(テーブル)GGfuncから上記手続番号kに
対応する手続の図1のROM52における格納番地を求
めて、その手続を実行する。このステップS816の後
はステップS81に戻る。
After that, in step S816, the procedure corresponding to the procedure number k is registered from the one-dimensional array (table) GGfunc in which the entries of the procedure for actually performing various gesture-on-gesture operations are registered in advance in the order of gesture numbers. The storage address in the ROM 52 of No. 1 is obtained and the procedure is executed. After this step S816, the process returns to step S81.

【0297】上述したフローチャートにおけるテーブル
GGtbl及びGGfuncについて以下に述べる。
The tables GGtbl and GGfunc in the above-mentioned flowchart will be described below.

【0298】ここでは、例えば、“データ選択”,“仮
名漢字変換”,“引き出し線”,“上送り”,“下送
り”,“取消”,“消去”の7つのジェスチャを実装す
る場合を例にとり、それぞれの配列の内容を示す。GG
tblは表10の表(10)に示す内容となる。縦軸はDn
oの値、横軸はGnoの値で、表の中身がkの値とな
る。縦軸横軸共にジェスチャの種類が記入されている
が、実際にはGno,Dnoは該当するジェスチャを示
す数値である。GGfuncは、表11の表(11)に示す
内容となる。手続の内容の部分には、実際には図1のR
OM52上で当該手続が格納されている番地が並んでい
る。
Here, for example, a case where seven gestures of “data selection”, “kana-kanji conversion”, “lead line”, “upward feed”, “downward feed”, “cancel”, and “erase” are implemented. For example, the contents of each array are shown. GG
tbl has the content shown in Table 10 (10). Vertical axis is Dn
The value of o, the horizontal axis is the value of Gno, and the content of the table is the value of k. Although the type of gesture is entered on both the vertical and horizontal axes, Gno and Dno are actually numerical values indicating the corresponding gesture. GGfunc has the content shown in Table 11 of Table 11. The part of the content of the procedure is actually R in FIG.
The addresses where the procedures are stored are lined up on the OM 52.

【0299】[0299]

【表10】 [Table 10]

【0300】[0300]

【表11】 [Table 11]

【0301】なお、表11に示すテーブルGGfunc
において、手続き番号の20番では手続き番号の9番の
手続きを利用して幾つもの操作が取り消されていた場
合、一気に全ての取り消しを取り止め、取り消しジェス
チャがなかった状態にする。
The table GGfunc shown in Table 11 is used.
In the case where the procedure number 20 is used to cancel a number of operations using the procedure number 9 procedure, all the cancellations are canceled at once and there is no cancellation gesture.

【0302】また、他のジェスチャオンジェスチャにつ
いても、テーブルに正しく手続番号を登録しておけば上
述同様のことを実現できる。
Also, for other gesture-on gestures, the same as above can be realized if the procedure number is correctly registered in the table.

【0303】また、本実施例における即時実行ジェスチ
ャの場合の手順は以下のようになる。先ず、筆跡の形状
認識を行ない実行するジェスチャの種類を得る。ここ
で、認識の結果得られたジェスチャの種類があらかじめ
定めた特別な種類ならば、一括実行型編集機能を使用し
ている最中にも関わらず即座にジェスチャを実行する。
それ以外の種類ならば、後に一括して実行するようにジ
ェスチャを蓄積する。
The procedure for the immediate execution gesture in this embodiment is as follows. First, the shape of the handwriting is recognized and the type of gesture to be executed is obtained. Here, if the type of gesture obtained as a result of recognition is a special type that is set in advance, the gesture is immediately executed even while the batch execution type editing function is being used.
For other types, the gestures are accumulated so as to be executed collectively later.

【0304】ここでは、図38の(a) に示すような文字
消去ジェスチャと、図38の(b) に示すような取り消し
ジェスチャーを用いて説明を行う。
Here, a description will be given using a character erasing gesture as shown in FIG. 38A and a canceling gesture as shown in FIG. 38B.

【0305】ここで、例えば、“一括実行型編集”機能
を既にONにしているとする。画面上に例えば図39の
(a) に示すような文字列データが表示されているとす
る。このとき、例えば図39の(b) に示すような筆跡P
M(文字列消去ジェスチャ)を入力すると、当該文字列
消去ジェスチャは即時実行ジェスチャーではないので、
一旦対応する処理が図1のRAM55上に用意した処理
登録バッファに登録され蓄積される。この場合、実際に
処理が実行されたわけではないので、画面には変化が起
きない。ただし、一旦入力筆跡を削除した後、認識した
ジェスチャを清書して出力するようなことも可能であ
る。次に、上記文字列消去のジェスチャが誤り(文字列
の削除は誤り)であった場合には、例えば図39の(c)
に示すような筆跡PM472 を図39の(c) の筆跡PM
471 (図39の(b) の筆跡PM)上に入力する。この筆
跡PM472 に対応する取り消しジェスチャは即時実行ジ
ェスチャであり、この即時実行ジェスチャに対応する手
続きが実行される。
Here, for example, it is assumed that the "batch execution type editing" function is already turned on. On the screen, for example,
It is assumed that the character string data shown in (a) is displayed. At this time, for example, the handwriting P as shown in (b) of FIG.
If you input M (character string deletion gesture), the character string deletion gesture is not an immediate execution gesture.
The corresponding process is once registered and accumulated in the process registration buffer prepared on the RAM 55 of FIG. In this case, since the process has not been actually executed, the screen does not change. However, it is also possible to delete the input handwriting and then print out the recognized gesture in a clean copy. Next, if the above-mentioned character string erasing gesture is incorrect (character string deletion is incorrect), for example, (c) of FIG.
The handwriting PM 472 shown in Fig. 39 is used as the handwriting PM in Fig. 39 (c).
471 (Handwriting PM in FIG. 39 (b)). The cancellation gesture corresponding to the handwriting PM 472 is an immediate execution gesture, and the procedure corresponding to the immediate execution gesture is executed.

【0306】本実施例の場合、当該ジェスチャが即時実
行ジェスチャであるか否か、さらに即時実行ジェスチャ
であった場合に実行すべき処理を決定するために、RO
M52上に一次元配列(テーブル)を用意している。こ
のテーブルをIGtblと呼ぶ。IGtblの各要素に
は即時実行ジェスチャに対応して実行すべき処理の種類
を表す番号が格納されている。即時実行型ジェスチャ以
外のジェスチャに対応する要素には「非即時実行」を表
す数、例えば0が格納される。例えば、文字列消去のジ
ェスチャに対応するジェスチャ番号が3だったとする。
文字列消去ジェスチャは即時実行ジェスチャではない。
したがって、IGtblの3番目の要素には「非即時実
行」を表す0が格納されている。また、取り消しジェス
チャのジェスチャ番号が例えば5だったとすると、取り
消しジェスチャは即時実行型ジェスチャなので、IGt
blの5番目の要素には「非即時実行」を表す数以外の
数、例えば10が格納されている。上記のテーブルを利
用すれば、入力されたジェスチャが即時実行型ジェスチ
ャであるか否かを判定でき、しかも即時実行型ジェスチ
ャであった場合には実行すべき処理の種類を番号で得る
ことができる。本実施例の場合、上記IGtblで得た
処理の種類を示す数から、処理を行う手続きのROM5
2上での格納番地を得るためのテーブルをROM52上
に用意している。これをIGfuncと呼ぶ。IGfu
ncの各要素には、即時実行ジェスチャに対応して実行
されるべき処理手続きのROM52上での格納番地が格
納されている。例えば、取り消しジェスチャが入力さ
れ、上記IGtblにより10という処理の種類を表す
数字を得た後、IGfuncの10番目の要素を参照す
れば、取り消しジェスチャに対応した処理を行う手続き
のROM52上の格納番地、例えば6500番地を得る
ことができる。表12の表(12)には、上記例におけるI
Gtblを、表13の表(13)には上記例におけるIGf
uncの内容を示している。
In the case of the present embodiment, the RO is determined in order to determine whether or not the gesture is an immediate execution gesture, and to determine the processing to be executed when the gesture is an immediate execution gesture.
A one-dimensional array (table) is prepared on M52. This table is called IGtbl. Each element of IGtbl stores a number indicating the type of processing to be executed corresponding to the immediate execution gesture. A number representing "non-immediate execution", for example, 0 is stored in the element corresponding to the gesture other than the immediate execution type gesture. For example, it is assumed that the gesture number corresponding to the gesture of deleting a character string is 3.
The erase string gesture is not an immediate gesture.
Therefore, 0 indicating "non-immediate execution" is stored in the third element of IGtbl. Further, if the gesture number of the cancel gesture is 5, for example, the cancel gesture is an immediate execution type gesture.
The fifth element of bl stores a number other than the number indicating "non-immediate execution", for example, 10. By using the above table, it is possible to determine whether or not the input gesture is an immediate execution type gesture, and when it is an immediate execution type gesture, the type of processing to be executed can be obtained by a number. . In the case of the present embodiment, the ROM 5 of the procedure for performing the process is calculated from the number indicating the type of process obtained by the IGtbl.
A table is prepared on the ROM 52 to obtain the storage address on the memory 2. This is called IGfunc. IGfu
In each element of nc, the storage address on the ROM 52 of the processing procedure to be executed corresponding to the immediate execution gesture is stored. For example, if a cancellation gesture is input and a number representing the processing type of 10 is obtained by IGtbl, if the tenth element of IGfunc is referenced, the storage address on the ROM 52 of the procedure for performing the processing corresponding to the cancellation gesture. , For example, address 6500 can be obtained. Table (12) of Table 12 shows I in the above example.
Gtbl is shown in Table 13 (13) and IGf in the above example.
It shows the contents of unc.

【0307】[0307]

【表12】 [Table 12]

【0308】[0308]

【表13】 [Table 13]

【0309】上記即時実行ジェスチャーの操作が完了す
ると、画面表示は図39の(a) の状態に戻る。なお、一
括実行型編集時にも即時実行ジェスチャは即座に動作す
る。
When the operation of the immediate execution gesture is completed, the screen display returns to the state shown in FIG. 39 (a). Note that the immediate execution gesture operates immediately even during batch execution type editing.

【0310】上述したようなことから、本実施例では、
一括実行型編集時に誤った編集操作をジェスチャで入力
した場合にも、動作を切り換えることなくジェスチャで
訂正することができるようになる。また、誤った編集操
作を直ちに訂正することにより、画面上には実行される
編集記号のみが残るので、最終的に実行される編集操作
を画面を見ただけで容易に把握できるようになる。
From the above, in this embodiment,
Even when an erroneous editing operation is input by a gesture during batch execution type editing, the gesture can be corrected without switching the operation. In addition, by immediately correcting an erroneous editing operation, only the editing symbol to be executed remains on the screen, so that the final editing operation can be easily understood only by looking at the screen.

【0311】図40には、上述した即時実行ジェスチャ
の具体的な動作のフローチャートを示す。
FIG. 40 shows a flowchart of the specific operation of the above-described immediate execution gesture.

【0312】この図40において、ステップS91では
ペン入力或いはキーボード等からの入力待ち状態となっ
ており、当該ステップS91で入力がなされるとステッ
プS92に進む。
In FIG. 40, a pen input or a keyboard input or the like is awaited in step S91, and when an input is made in step S91, the process proceeds to step S92.

【0313】当該ステップS92では、上記入力がペン
からの筆跡か否かの判断がなされる。このステップS9
2で入力が筆跡であると判断された場合(Yes)はス
テップS94に進み、Noと判断された場合にはステッ
プS93に進む。当該ステップS93では、上記入力が
筆跡でないため、その入力(例えばキーボード入力)に
対応する処理を行う。このステップS93の後はステッ
プS91に戻る。また、上記ステップS94では上記筆
跡入力の平滑化を行い、その後ステップS95に進む。
In step S92, it is determined whether the input is a handwriting from a pen. This step S9
When it is determined that the input is handwriting in 2 (Yes), the process proceeds to step S94, and when it is determined as No, the process proceeds to step S93. In step S93, since the input is not a handwriting, a process corresponding to the input (for example, keyboard input) is performed. After step S93, the process returns to step S91. In step S94, the handwriting input is smoothed, and then the process proceeds to step S95.

【0314】このステップS94で平滑化された後、ス
テップS95では上記筆跡入力以前に入力された筆跡の
中に認識が保留されたものが存在するか否かの判断を行
う。このステップS95において保留された筆跡が発見
された場合(Yes)は後述するステップS97に進
み、発見されない場合(No)はステップS96に進
む。
After the smoothing in step S94, it is determined in step S95 whether or not there is a handwriting whose recognition is suspended among the handwriting input before the handwriting input. If the pending handwriting is found in this step S95 (Yes), the process proceeds to step S97 described later, and if not (No), the process proceeds to step S96.

【0315】上記ステップS96では、上記筆跡入力
(1つの筆跡入力)の認識を行う。例えば、システムR
OM52等に保持されているジェスチャ認識用テーブル
を使用して上記筆跡入力の認識を行う。すなわち、1画
の筆跡の形状を認識して対応するジェスチャ番号Gno
を返すような処理を行う。なお、当該ジェスチャ認識用
テーブル内に上記1画の筆跡の形状に対応するジェスチ
ャ番号Gnoが無い場合には、未登録のコード(未登録
を意味する番号)を返す。
In step S96, the handwriting input (one handwriting input) is recognized. For example, system R
The handwriting input is recognized using the gesture recognition table held in the OM 52 or the like. That is, the gesture number Gno corresponding to the shape of the handwriting of one stroke is recognized.
Perform a process that returns. If there is no gesture number Gno corresponding to the shape of the handwriting of one stroke in the gesture recognition table, an unregistered code (a number that means unregistered) is returned.

【0316】上記ステップS96の後は、ステップS9
9に進む。このステップS99では、上記ジェスチャ番
号Gnoが登録されていない(未登録)ものか否かの判
断を行う。すなわち、当該ステップS99では上記ステ
ップS96から未登録のコードが返されてきたか否かの
判断を行い、このステップS99で未登録であると判断
した場合(Yes)にはステップS910に進み、未登
録でない(登録されている)と判断した場合(No)に
はステップS911に進む。なお、ステップS910で
は、上記未登録の図形,文字等に対応する処理を行う。
当該ステップS910の後はステップS91に戻る。
After the above step S96, step S9
Proceed to 9. In step S99, it is determined whether or not the gesture number Gno is not registered (unregistered). That is, in step S99, it is determined whether or not the unregistered code is returned from step S96. If it is determined that the code is unregistered in step S99 (Yes), the process proceeds to step S910 to unregister. If it is determined that it is not (registered) (No), the process proceeds to step S911. In step S910, processing corresponding to the unregistered figure, character, etc. is performed.
After the step S910, the process returns to step S91.

【0317】また、上記ステップS95でYesと判断
されると上記筆跡入力は1画でないため、ステップS9
7では多筆跡の認識が行われる。このステップS97で
も上記ステップS96と同様に、例えばシステムROM
52等に保持されている多筆跡のジェスチャ認識用テー
ブルを使用して上記多筆跡の形状の認識を行う。このス
テップS97の後は、ステップS98に進む。このステ
ップS98では、上記ステップS99同様に、ジェスチ
ャ番号Gnoが登録されていない(未登録)ものか否か
の判断を行い、Yesと判断した場合には上記ステップ
S96に進み、Noと判断した場合にはステップS91
1に進む。
If it is determined Yes in step S95, the handwriting input is not one stroke, and thus step S9 is performed.
In 7, the recognition of multiple handwritings is performed. In this step S97 as well as in the above step S96, for example, the system ROM
The multi-handwriting gesture recognition table held in 52 or the like is used to recognize the shape of the multi-handwriting. After this step S97, the process proceeds to step S98. In step S98, similarly to step S99, it is determined whether or not the gesture number Gno is not registered (unregistered). If Yes is determined, the process proceeds to step S96, and if No is determined. Step S91
Go to 1.

【0318】上記ステップS99或いはステップS98
でNoと判断されてステップS911に進むと、当該ス
テップS911では上記ジェスチャ番号Gnoが確定さ
ていない(未確定)ものか否かの判断がなされる。この
ステップS911で未確定であると判断した場合(Ye
s)はステップS912に進み、未確定でない(確定さ
れたもの)と判断した場合(No)はステップS913
に進む。なお、上記ステップS912では、認識保留筆
跡に登録した後、上記ステップS91に戻る。
The above step S99 or step S98
When it is determined No in step S911 and the process proceeds to step S911, it is determined in step S911 whether or not the gesture number Gno is unconfirmed (unconfirmed). If it is determined in step S911 that it is unconfirmed (Yes
s), the process proceeds to step S912, and when it is determined that it is not undetermined (confirmed) (No), step S913.
Proceed to. In step S912, after registering the recognition hold handwriting, the process returns to step S91.

【0319】上記ステップS913では、一括実行モー
ドか否か判断を行い、一括実行モードであると判断した
場合(Yes)はステップS915に進み、一括実行モ
ードでないと判断した場合(No)はステップS914
に進む。
In step S913, it is determined whether the batch execution mode is set or not. If it is determined that the batch execution mode is set (Yes), the process proceeds to step S915. If it is determined that the batch execution mode is not set (No), step S914 is set.
Proceed to.

【0320】上記ステップS913でNoと判断される
と、上記ステップS914で上記一括実行モードでない
通常のジェスチャ処理を行い、その後ステップS91に
戻る。
If it is determined No in step S913, a normal gesture process that is not the collective execution mode is performed in step S914, and then the process returns to step S91.

【0321】ステップS913でYesと判断される
と、ステップS915では、筆跡のジェスチャ番号Gn
oから即時実行型ジェスチャとして実行すべき処理に対
応する手続番号kを、手続番号があらかじめ登録してあ
る1次元配列(テーブル)IGtblから得る。
If it is determined Yes in step S913, the gesture number Gn of the handwriting is calculated in step S915.
From o, the procedure number k corresponding to the process to be executed as the immediate execution type gesture is obtained from the one-dimensional array (table) IGtbl in which the procedure number is registered in advance.

【0322】このステップS915の後は、ステップS
916に進む。当該ステップS916では上記手続番号
kが非即時の手続であるか否かの判断を行う。このステ
ップS916で非即時でないと判断した場合(Yes)
にはステップS917に進み、非即時であると判断した
場合(No)にはステップS918に進む。
After step S915, step S
Proceed to 916. In step S916, it is determined whether the procedure number k is a non-immediate procedure. When it is determined in this step S916 that it is not non-immediate (Yes)
To step S917, and if it is determined to be non-immediate (No), the process proceeds to step S918.

【0323】ステップS917では非即時ジェスチャを
前述の処理登録バッファに登録を行った後ステップS9
1に戻り、ステップS918ではジェスチャの各種操作
を実際に実施する手続きの図1のROM52上における
格納番地を予めIGtblの要素の値に対応した順に登
録してある1次元配列(テーブル)IGfuncから上
記手続番号kに対応する手続きの図1のROM52にお
ける格納番地を求めて、その手続を実行する。このステ
ップS918の後はステップS91に戻る。
In step S917, the non-immediate gesture is registered in the above-described process registration buffer, and then step S9.
Returning to step 1, in step S918, the storage addresses on the ROM 52 in FIG. 1 of the procedure for actually performing various gesture operations are registered in advance in the order corresponding to the element values of IGtbl from the one-dimensional array (table) IGfunc. The storage address of the procedure corresponding to the procedure number k in the ROM 52 of FIG. 1 is obtained, and the procedure is executed. After this step S918, the process returns to step S91.

【0324】前述した表(12)のIGtblと表(13)のI
Gfuncを使用すると、上記ステップS918では6
500番地に格納された手続きが実行される。図41に
は、この6500番地に格納された手続きのフローチャ
ートを示す。この図41において、ステップS1001
では、前記入力筆跡に表示されているジェスチャを検索
する。次のステップS1002では上記ステップS10
01でジェスチャが発見されたか否かを判断する。ここ
で、上記ジェスチャが発見された場合(Yes)にはス
テップS1003に進み、発見されなかった場合(N
o)には後述するステップS1004に進む。当該ステ
ップS1003では発見されたジェスチャを処理対象に
設定してステップS1005に進む。また、上記ステッ
プS1002でYesと判断されると、処理の対象が直
接指示されなかったのでステップS1004では最後に
入力されたジェスチャを処理対象に設定し、ステップS
1005に進む。ステップS1003或いはステップS
1004からステップS1005に進むと、対象となる
ジェスチャに対する取り消し処理が実行される。この取
り消し処理では、対象となるジェスチャと前記入力筆跡
の双方を消去する処理も行う。なお、ステップS100
4において、ジェスチャ以外の処理を設定してもよい。
IGtbl of Table (12) and I of Table (13) described above.
If Gfunc is used, it is 6 in step S918.
The procedure stored at address 500 is executed. FIG. 41 shows a flowchart of the procedure stored in this 6500 address. In FIG. 41, step S1001
Then, the gesture displayed in the input handwriting is searched. In the next step S1002, the above step S10 is performed.
At 01, it is determined whether or not the gesture is found. Here, if the gesture is found (Yes), the process proceeds to step S1003, and if it is not found (N).
In step o), the process proceeds to step S1004 described below. In step S1003, the discovered gesture is set as a processing target, and the process proceeds to step S1005. If it is determined Yes in step S1002, the processing target has not been directly specified. Therefore, in step S1004, the last input gesture is set as the processing target, and step S1004 is performed.
Proceed to 1005. Step S1003 or step S
When the process proceeds from step 1004 to step S1005, cancellation processing for the target gesture is executed. In this cancellation processing, processing for deleting both the target gesture and the input handwriting is also performed. Note that step S100
In 4, the processing other than the gesture may be set.

【0325】本実施例では、表3の表(3) 〜表6の表
(6) に示した形状を用い、上述したような各ジェスチャ
からなる包括的ジェスチャーセットを用いることで、前
述した各ジェスチャに対応する機構を矛盾なく共存でき
るようにしている。すなわち、前述した各フローチャー
トを適切につなぎ合わせることにより上述した各機構を
全て利用できるようになる。また、各ジェスチャに利用
している形状は、任意の方向に傾けて描いても充分区別
できるようになっている。従って、任意の方向からジェ
スチャを書き込める操作体系を構築することが可能とな
る。また、紙の上で普段利用している小数の形状を覚え
るだけで上述の便利な機構を全て利用でき、一括実行型
の編集でも矛盾なく利用できる。
In this embodiment, the tables (3) to 3 in Table 3 to the tables in Table 6 are used.
By using the shape shown in (6) and using the comprehensive gesture set consisting of the above-mentioned gestures, the mechanisms corresponding to the above-mentioned gestures can coexist without contradiction. That is, all the above-mentioned mechanisms can be used by appropriately connecting the above-mentioned flowcharts. Further, the shapes used for the respective gestures can be sufficiently distinguished by inclining in arbitrary directions and drawing. Therefore, it becomes possible to construct an operation system in which a gesture can be written from any direction. In addition, you can use all of the above-mentioned convenient mechanisms by simply remembering the small number of shapes that you normally use on paper, and you can use it even in batch execution type editing without conflict.

【0326】前述したようなことから、本実施例によれ
ば、表3の表(3) 〜表6の表(6) の各ジェスチャは、日
本語のように縦書き,横書きに対応でき、ジェスチャは
向きを変えて使用しても同じ意味を持つようになってい
る。また、変換,訂正等の頻繁に使用する指示も素早く
描くことができるジェスチャを用意している。更に、基
本ジェスチャだけで装置の一通りの操作が可能で、処理
対象によって意味が変わらない基本的な機能を定義し、
様々な場面でジェスチャの意味を統一している。したが
って、ジェスチャが入力された状況に応じた適切な処理
を行うことが可能となる。
From the above, according to the present embodiment, each gesture of Table (3) of Table 3 to Table (6) of Table 6 can handle vertical writing and horizontal writing like Japanese, Gestures have the same meaning when used in different orientations. In addition, gestures that allow quick drawing of frequently used instructions for conversion and correction are also available. Furthermore, it is possible to operate the device as a whole with only basic gestures, and define basic functions whose meaning does not change depending on the processing target,
The meaning of gesture is unified in various situations. Therefore, it becomes possible to perform appropriate processing according to the situation in which the gesture is input.

【0327】また、例えば、引き出し線により、素早く
補助メニューを呼び出すことが可能であると共に、対象
を指定しているので補助メニューの内容を限定,選択す
ることが容易にでき、メニューの位置をユーザが自由に
設定するできる。
[0327] Also, for example, it is possible to call the auxiliary menu quickly by using a lead line, and since the target is specified, the contents of the auxiliary menu can be easily limited and selected, and the menu position can be set by the user. Can be set freely.

【0328】更に、例えば“実行”のジェスチャを利用
して直前の処理を簡単に繰り返すことが可能であり、方
向のジェスチャを利用して簡単に“次のもの”という繰
り返しが可能となる。
Further, for example, the immediately preceding process can be easily repeated using the "execute" gesture, and the "next" can be easily repeated using the direction gesture.

【0329】その他、ユーザは既存のジェスチャセット
から無理なく移行することができ、一括実行型の編集に
も矛盾なく利用でき、ジェスチャにジェスチャを描き込
むことで意味の複合や修正が可能となる。また、文字併
記型のジェスチャへも対応することができる。
In addition, the user can move from the existing gesture set without difficulty, can be used for batch execution type editing without contradiction, and the meaning can be combined and corrected by drawing the gesture in the gesture. In addition, it is possible to support a gesture of writing together characters.

【0330】[0330]

【発明の効果】上述のように、本発明の手書き入力情報
処理装置においては、編集校正対象を表示し、筆跡に応
じた座標データを生成すると共に、この生成された座標
データに基づいて筆跡形状を認識して予め定義されてい
る複数の編集校正記号の中から認識した筆跡形状に最も
類似した編集校正記号をその筆跡形状の方向性にかかわ
らず特定し、さらにこの特定された編集校正記号に割り
当てられている機能に応じて前記編集校正対象に対して
編集校正処理を施すようにすることで、縦書き,横書き
及び日本語にも対応でき、更に操作性をも向上させるこ
とを可能としている。
As described above, in the handwriting input information processing apparatus of the present invention, the editing and proofreading object is displayed, the coordinate data corresponding to the handwriting is generated, and the handwriting shape is generated based on the generated coordinate data. The editing proof symbol that most closely resembles the recognized handwriting shape is identified from among multiple predefined editing proofing symbols regardless of the directionality of the handwriting shape. By performing edit proofreading processing on the edit proofreading object according to the assigned function, it is possible to handle vertical writing, horizontal writing and Japanese, and further improve operability. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例装置の信号処理回路系のブロック回路
図である。
FIG. 1 is a block circuit diagram of a signal processing circuit system of a device of this embodiment.

【図2】本実施例装置の全体構成を示す図である。FIG. 2 is a diagram showing the overall configuration of the apparatus of this embodiment.

【図3】範囲指定において2つのジェスチャに挟まれた
紐状の区間を指定する例を説明するための図である。
FIG. 3 is a diagram for explaining an example of designating a string-shaped section sandwiched between two gestures in the range designation.

【図4】範囲指定において矩形の範囲を指定する例を説
明するための図である。
FIG. 4 is a diagram for explaining an example of designating a rectangular range in the range designation.

【図5】範囲指定において矩形を成さない組み合わせの
例を説明するための図である。
FIG. 5 is a diagram for explaining an example of a combination that does not form a rectangle in the range designation.

【図6】方向の呼称を説明するための図である。FIG. 6 is a diagram for explaining designation of directions.

【図7】横書きに対応する仮名漢字変換のジェスチャの
形状を示す図である。
FIG. 7 is a diagram showing a shape of a kana-kanji conversion gesture corresponding to horizontal writing.

【図8】縦書きに対応する仮名漢字変換のジェスチャの
形状を示す図である。
FIG. 8 is a diagram showing a shape of a kana-kanji conversion gesture corresponding to vertical writing.

【図9】横書きの文字列に対して仮名漢字変換を施す例
を説明するための図である。
FIG. 9 is a diagram for explaining an example of performing kana-kanji conversion on a horizontally written character string.

【図10】縦書きの文字列に対して仮名漢字変換を施す
例を説明するための図である。
FIG. 10 is a diagram for explaining an example of performing kana-kanji conversion on a vertically written character string.

【図11】特殊なレイアウトの文字列に対して仮名漢字
変換を施す一例を説明するための図である。
FIG. 11 is a diagram illustrating an example of performing kana-kanji conversion on a character string having a special layout.

【図12】特殊なレイアウトの文字列に対して仮名漢字
変換を施す他の例を説明するための図である。
FIG. 12 is a diagram for explaining another example in which kana-kanji conversion is performed on a character string having a special layout.

【図13】仮名漢字変換ジェスチャの動作を示すフロー
チャートである。
FIG. 13 is a flowchart showing an operation of a kana-kanji conversion gesture.

【図14】類似形状のジェスチャの一例を説明するため
の図である。
FIG. 14 is a diagram illustrating an example of a gesture having a similar shape.

【図15】類似形状のジェスチャを区別する際の文字列
及びジェスチャの一例を示す図である。
FIG. 15 is a diagram illustrating an example of a character string and a gesture when distinguishing gestures having similar shapes.

【図16】類似形状のジェスチャの区別の全体の動作を
示すフローチャートである。
FIG. 16 is a flowchart showing the overall operation of distinguishing gestures having similar shapes.

【図17】機能Aの判定領域算出のフローチャートであ
る。
FIG. 17 is a flowchart of determination area calculation of function A.

【図18】本実施例での類似形状の区別の際の機能Aの
判定領域を説明するための図である。
FIG. 18 is a diagram for explaining a determination region of a function A when distinguishing similar shapes in the present embodiment.

【図19】機能Bの判定領域算出のフローチャートであ
る。
FIG. 19 is a flowchart of a determination area calculation of a function B.

【図20】本実施例での類似形状の区別の際の機能Bの
判定領域を説明するための図である。
FIG. 20 is a diagram for explaining a determination region of a function B when distinguishing similar shapes in the present embodiment.

【図21】機能Bについての向き,大きさ,位置の検査
のフローチャートである。
FIG. 21 is a flowchart of the inspection of the direction, size, and position of the function B.

【図22】機能A及び機能Bの判定領域を説明するため
の図である。
FIG. 22 is a diagram for explaining a determination area for a function A and a function B.

【図23】ジェスチャから通常座標データへの変換及び
通常座標データからジェスチャへの変換を行うジェスチ
ャの形状を示す図である。
FIG. 23 is a diagram showing a shape of a gesture for converting a gesture into normal coordinate data and converting a normal coordinate data into a gesture.

【図24】変換されるジェスチャ(軌跡)の一例を示す
図である。
FIG. 24 is a diagram showing an example of a converted gesture (trajectory).

【図25】ジェスチャから通常座標データへの変換の手
順を説明するための図である。
FIG. 25 is a diagram for explaining a procedure of converting a gesture into normal coordinate data.

【図26】ジェスチャから通常座標データへの変換及び
通常座標データからジェスチャへの変換の動作を示すフ
ローチャートである。
FIG. 26 is a flowchart showing an operation of converting a gesture to normal coordinate data and converting a normal coordinate data to a gesture.

【図27】引き出し線のジェスチャの形状を示す図であ
る。
FIG. 27 is a diagram showing the shape of a gesture of a lead line.

【図28】引き出し線ジェスチャと引き出し線ジェスチ
ャの動作を説明するめたの図である。
FIG. 28 is a diagram for explaining an operation of a leader line gesture and a leader line gesture.

【図29】引き出し線ジェスチャの変形例を示す図であ
る。
FIG. 29 is a diagram showing a modified example of a leader line gesture.

【図30】引き出し線ジェスチャの動作を示すフローチ
ャートである。
FIG. 30 is a flowchart showing an operation of a leader line gesture.

【図31】入力終了指示ジェスチャを説明するための図
である。
FIG. 31 is a diagram for explaining an input end instruction gesture.

【図32】入力終了指示ジェスチャの動作を示すフロー
チャートである。
FIG. 32 is a flowchart showing an operation of an input end instruction gesture.

【図33】実行された操作の表示を説明するための図で
ある。
FIG. 33 is a diagram for explaining display of executed operations.

【図34】実行された操作の表示の動作のフローチャー
トである。
FIG. 34 is a flowchart of an operation of displaying executed operations.

【図35】ジェスチャオンジェスチャを説明するための
図である。
FIG. 35 is a diagram illustrating a gesture-on gesture.

【図36】図形データの上位,下位を説明するための図
である。
[Fig. 36] Fig. 36 is a diagram for explaining upper and lower sides of graphic data.

【図37】ジェスチャオンジェスチャの動作を示すフロ
ーチャートである。
FIG. 37 is a flowchart showing an operation of gesture-on gesture.

【図38】即時実行ジェスチャの例を示す図である。FIG. 38 is a diagram showing an example of an immediate execution gesture.

【図39】即時実行ジェスチャの手順を説明するための
図である。
FIG. 39 is a diagram for explaining a procedure of an immediate execution gesture.

【図40】即時実行ジェスチャの動作を示すフローチャ
ートである。
FIG. 40 is a flowchart showing an operation of an immediate execution gesture.

【図41】即時実行ジェスチャの動即時取り消しの動作
を示すフローチャートである。
[Fig. 41] Fig. 41 is a flowchart illustrating an operation of immediate cancellation of a motion of an immediate execution gesture.

【符号の説明】[Explanation of symbols]

1・・・・・液晶表示装置 2,54・・キーボード 3,60・・スタイラスペン 51・・・・CPU 52・・・・システムROM 53・・・・キーボードコントローラ 55・・・・ワークRAM 56・・・・ビデオRAM 57・・・・LCDコントローラ 58・・・・タブレットコントローラ 59・・・・表示・タブレットブロック 1 ... Liquid crystal display device 2, 54 ... Keyboard 3, 60 ... Stylus pen 51 ... CPU 52 ... System ROM 53 ... Keyboard controller 55 ... Work RAM 56 ··· Video RAM 57 ··· LCD controller 58 ··· Tablet controller 59 · · · Display · tablet block

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 編集校正対象を表示する表示手段と、 筆跡に応じた座標データを生成する座標入力手段と、 前記座標入力手段で生成された座標データを、予め定義
されている複数の編集校正記号の中から、認識した筆跡
形状に最も類似した編集校正記号に基づいて認識し、そ
の筆跡形状の方向性にかかわらず特定する記号判別手段
と、 前記記号判別手段によって特定された編集校正記号に割
り当てられている機能に応じて前記編集校正対象に対し
て編集校正処理を施す編集校正処理手段とを具備するこ
とを特徴とする手書き入力情報処理装置。
1. A display unit for displaying an editing and proofreading object, a coordinate inputting unit for generating coordinate data according to handwriting, and a plurality of editing and proofreading data in which coordinate data generated by the coordinate inputting unit are defined in advance. From among the symbols, recognized based on the editing proofing symbol most similar to the recognized handwriting shape, the symbol discriminating means for identifying regardless of the directionality of the handwriting shape, and the editing proofing symbol identified by the symbol discriminating means. An handwriting input information processing apparatus, comprising: an editing and proofreading processing unit that performs an editing and proofing process on the editing and proofing target according to an assigned function.
【請求項2】 前記記号判別手段によって特定された編
集校正記号に割り当てられている機能を解釈し、前記筆
跡形状の記入位置に隣接する編集校正対象の属性に応じ
て変化する機能である場合は、前記編集校正対象に対す
る前記筆跡形状の向きに応じて機能を一義的に解釈する
機能解釈手段を有し、 前記編集校正処理手段では、前記編集校正対象に対し
て、前記機能解釈手段によって解釈された機能に対応し
た編集校正処理を施すことを特徴とする請求項1に記載
の手書き入力情報処理装置。
2. A function that interprets the function assigned to the edit proof symbol specified by the symbol determining means and changes according to the attribute of the edit proof object adjacent to the writing position of the handwriting shape, A function interpreting unit that uniquely interprets a function according to the orientation of the handwriting shape with respect to the editing and proofreading object, wherein the editing and proofreading processing unit interprets the function with respect to the editing and proofing target. The handwriting input information processing apparatus according to claim 1, wherein editing and proofreading processing corresponding to the function is performed.
【請求項3】 前記編集校正記号は、前記編集校正対象
が文字である場合には当該編集校正対象を仮名漢字変換
する始点から終点までの範囲と仮名漢字変換の指示とを
連続した筆跡で指定する仮名漢字変換記号とすることを
特徴とする請求項1に記載の手書き入力情報処理装置。
3. The editing proof symbol, when the editing proofreading object is a character, specifies a range from a start point to an end point for converting the editing proofreading object into kana-kanji characters and a kana-kanji conversion instruction in a continuous handwriting. The handwriting input information processing apparatus according to claim 1, wherein the handwriting input information processing apparatus is a kana-kanji conversion symbol.
【請求項4】 上記仮名漢字変換記号の形状は、終点左
回りの形状とすることを特徴とする請求項3に記載の手
書き入力情報処理装置。
4. The handwriting input information processing apparatus according to claim 3, wherein the kana-kanji conversion symbol has a shape that is counterclockwise to the end point.
【請求項5】 上記仮名漢字変換記号の形状は、終点右
回りの形状とすることを特徴とする請求項3に記載の手
書き入力情報処理装置。
5. The handwriting input information processing apparatus according to claim 3, wherein the kana-kanji conversion symbol has a shape that is clockwise at the end point.
【請求項6】 上記仮名漢字変換記号の形状は、始点左
回りの形状とすることを特徴とする請求項3に記載の手
書き入力情報処理装置。
6. The handwriting input information processing apparatus according to claim 3, wherein the kana-kanji conversion symbol has a shape that is counterclockwise from the starting point.
【請求項7】 上記仮名漢字変換記号の形状は、始点右
回りの形状とすることを特徴とする請求項3に記載の手
書き入力情報処理装置。
7. The handwriting input information processing apparatus according to claim 3, wherein the kana-kanji conversion symbol has a shape in which the starting point is clockwise.
【請求項8】 上記編集校正記号は、編集校正処理コマ
ンドから座標データへの変換を指示する変換記号とする
ことを特徴とする請求項1に記載の手書き入力情報処理
装置。
8. The handwriting input information processing apparatus according to claim 1, wherein the edit proof symbol is a conversion symbol for instructing conversion from an edit proof processing command to coordinate data.
【請求項9】 上記編集校正記号は、座標データから編
集校正処理コマンドへの変換を指示する変換記号とする
ことを特徴とする請求項1に記載の手書き入力情報処理
装置。
9. The handwriting input information processing apparatus according to claim 1, wherein the edit proof symbol is a conversion symbol for instructing conversion of coordinate data into an edit proof processing command.
【請求項10】 上記編集校正記号は、編集校正処理コ
マンドから座標データへの変換、及び、座標データから
編集校正処理コマンドへの変換を指示する変換記号とす
ることを特徴とする請求項8及び9に記載の手書き入力
情報処理装置。
10. The edit proof symbol is a conversion symbol for instructing a conversion from an edit proofreading processing command to coordinate data and a conversion from a coordinate data to an edit proofreading processing command. 9. The handwriting input information processing device according to item 9.
【請求項11】 上記編集校正記号は、編集校正対象の
属性に応じたパラメータを設定する引き出し線記号とす
ることを特徴とする請求項1に記載の手書き入力情報処
理装置。
11. The handwriting input information processing apparatus according to claim 1, wherein the edit proof symbol is a leader line symbol for setting a parameter according to an attribute of an edit proof.
【請求項12】 上記編集校正記号は、入力の終了を指
示する入力終了記号とすることを特徴とする請求項1に
記載の手書き入力情報処理装置。
12. The handwriting input information processing apparatus according to claim 1, wherein the edit proof symbol is an input end symbol for instructing the end of input.
【請求項13】 実行済の編集校正処理に対応する編集
校正記号に応じた情報を保持し、当該編集校正記号に応
じた情報を上記表示手段に表示することを特徴とする請
求項1に記載の手書き入力情報処理装置。
13. The information according to the edited proofreading symbol corresponding to the executed editing proofreading process is held, and the information according to the edited proofreading symbol is displayed on the display means. Handwriting input information processing device.
【請求項14】 先に入力された編集校正記号の機能
を、当該先に入力された編集校正記号に応じた情報の表
示の上に入力された編集校正記号で修飾する機能を有す
ることを特徴とする請求項13に記載の手書き入力情報
処理装置。
14. A function of modifying the function of the previously inputted edit proof symbol with the inputted edit proof symbol on the display of information according to the previously inputted edit proof symbol. The handwriting input information processing apparatus according to claim 13.
【請求項15】 複数の編集校正記号の各々の機能に対
応した編集校正処理を一括して行う際に、特定の編集校
正記号に対しては当該特定の編集校正記号の機能を即時
実行する機能を有することを特徴とする請求項1に記載
の手書き入力情報処理装置。
15. A function of immediately executing the function of a specific edit calibration symbol for a specific edit calibration symbol when collectively performing the edit calibration process corresponding to each function of a plurality of edit calibration symbols. The handwriting input information processing apparatus according to claim 1, further comprising:
JP22528092A 1992-07-31 1992-07-31 Handwriting input information processing device Expired - Lifetime JP3398981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22528092A JP3398981B2 (en) 1992-07-31 1992-07-31 Handwriting input information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22528092A JP3398981B2 (en) 1992-07-31 1992-07-31 Handwriting input information processing device

Publications (2)

Publication Number Publication Date
JPH06289983A true JPH06289983A (en) 1994-10-18
JP3398981B2 JP3398981B2 (en) 2003-04-21

Family

ID=16826863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22528092A Expired - Lifetime JP3398981B2 (en) 1992-07-31 1992-07-31 Handwriting input information processing device

Country Status (1)

Country Link
JP (1) JP3398981B2 (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149466A (en) * 1992-11-05 1994-05-27 Sharp Corp Information processor
JPH08212197A (en) * 1995-02-01 1996-08-20 Nec Corp Document editing device
JPH09167058A (en) * 1995-12-15 1997-06-24 Sharp Corp Information processor
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JPH10269021A (en) * 1997-03-25 1998-10-09 Sharp Corp Touch panel input device
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2000047824A (en) * 1999-05-21 2000-02-18 Sharp Corp Gesture processing device and method
WO2004097722A1 (en) * 2003-05-02 2004-11-11 Fujitsu Limited Hand-written character input device and hand-written character input processing method
JP2005190199A (en) * 2003-12-25 2005-07-14 Seiko Epson Corp Handwritten character input display device, handwritten character input display method, and program of the same
JP2006146359A (en) * 2004-11-16 2006-06-08 Omron Corp Personal identification device
JP2008027082A (en) * 2006-07-19 2008-02-07 Fujitsu Ltd Handwriting input device, handwriting input method and computer program
JP2009282700A (en) * 2008-05-21 2009-12-03 Fuji Xerox Co Ltd Information processor, information processing system, and program
JP2011154430A (en) * 2010-01-26 2011-08-11 Sharp Corp Structured data processor, structured data processing method, program for achieving the method and recording medium
JP2012009033A (en) * 2004-04-01 2012-01-12 Google Inc Data acquisition by using handheld device from rendered document
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2013105420A (en) * 2011-11-16 2013-05-30 Oki Electric Ind Co Ltd Information processor, information processing method and computer program
JP2013186874A (en) * 2012-03-12 2013-09-19 Brother Ind Ltd Input device and input program
JP2013218592A (en) * 2012-04-11 2013-10-24 Seiko Epson Corp Character input device
WO2014041607A1 (en) * 2012-09-11 2014-03-20 株式会社東芝 Information processing device, information processing method, and program
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8903759B2 (en) 2004-12-03 2014-12-02 Google Inc. Determining actions involving captured information and electronic content associated with rendered documents
US8953886B2 (en) 2004-12-03 2015-02-10 Google Inc. Method and system for character recognition
JP2015035045A (en) * 2013-08-08 2015-02-19 東芝テック株式会社 Information processor and display control program
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
JP2015088159A (en) * 2013-09-24 2015-05-07 京セラドキュメントソリューションズ株式会社 Electronic apparatus
US9075779B2 (en) 2009-03-12 2015-07-07 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US9268852B2 (en) 2004-02-15 2016-02-23 Google Inc. Search engines and systems with handheld document data capture devices
US9275051B2 (en) 2004-07-19 2016-03-01 Google Inc. Automatic modification of web pages
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US9454764B2 (en) 2004-04-01 2016-09-27 Google Inc. Contextual dynamic advertising based upon captured rendered text
JP2017199217A (en) * 2016-04-27 2017-11-02 京セラドキュメントソリューションズ株式会社 Handwritten character input device, image forming apparatus, and handwritten character input method
JP2021033538A (en) * 2019-08-21 2021-03-01 京セラドキュメントソリューションズ株式会社 Information processing device

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149466A (en) * 1992-11-05 1994-05-27 Sharp Corp Information processor
JPH08212197A (en) * 1995-02-01 1996-08-20 Nec Corp Document editing device
JPH09167058A (en) * 1995-12-15 1997-06-24 Sharp Corp Information processor
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JPH10269021A (en) * 1997-03-25 1998-10-09 Sharp Corp Touch panel input device
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2000047824A (en) * 1999-05-21 2000-02-18 Sharp Corp Gesture processing device and method
US7409090B2 (en) 2003-05-02 2008-08-05 Fujitsu Limited Handwritten character input device and handwritten character input processing method
WO2004097722A1 (en) * 2003-05-02 2004-11-11 Fujitsu Limited Hand-written character input device and hand-written character input processing method
JPWO2004097722A1 (en) * 2003-05-02 2006-07-13 富士通株式会社 Handwritten character input device and handwritten character input processing method
JP2005190199A (en) * 2003-12-25 2005-07-14 Seiko Epson Corp Handwritten character input display device, handwritten character input display method, and program of the same
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US9268852B2 (en) 2004-02-15 2016-02-23 Google Inc. Search engines and systems with handheld document data capture devices
US9633013B2 (en) 2004-04-01 2017-04-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9514134B2 (en) 2004-04-01 2016-12-06 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
JP2012009033A (en) * 2004-04-01 2012-01-12 Google Inc Data acquisition by using handheld device from rendered document
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US9454764B2 (en) 2004-04-01 2016-09-27 Google Inc. Contextual dynamic advertising based upon captured rendered text
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9275051B2 (en) 2004-07-19 2016-03-01 Google Inc. Automatic modification of web pages
JP2006146359A (en) * 2004-11-16 2006-06-08 Omron Corp Personal identification device
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8903759B2 (en) 2004-12-03 2014-12-02 Google Inc. Determining actions involving captured information and electronic content associated with rendered documents
US8953886B2 (en) 2004-12-03 2015-02-10 Google Inc. Method and system for character recognition
JP2008027082A (en) * 2006-07-19 2008-02-07 Fujitsu Ltd Handwriting input device, handwriting input method and computer program
JP2009282700A (en) * 2008-05-21 2009-12-03 Fuji Xerox Co Ltd Information processor, information processing system, and program
US9075779B2 (en) 2009-03-12 2015-07-07 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
JP2011154430A (en) * 2010-01-26 2011-08-11 Sharp Corp Structured data processor, structured data processing method, program for achieving the method and recording medium
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2013089203A (en) * 2011-10-21 2013-05-13 Sharp Corp Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
JP2013105420A (en) * 2011-11-16 2013-05-30 Oki Electric Ind Co Ltd Information processor, information processing method and computer program
JP2013186874A (en) * 2012-03-12 2013-09-19 Brother Ind Ltd Input device and input program
JP2013218592A (en) * 2012-04-11 2013-10-24 Seiko Epson Corp Character input device
JPWO2014041607A1 (en) * 2012-09-11 2016-08-12 株式会社東芝 Information processing apparatus, information processing method, and program
WO2014041607A1 (en) * 2012-09-11 2014-03-20 株式会社東芝 Information processing device, information processing method, and program
JP2015035045A (en) * 2013-08-08 2015-02-19 東芝テック株式会社 Information processor and display control program
JP2015088159A (en) * 2013-09-24 2015-05-07 京セラドキュメントソリューションズ株式会社 Electronic apparatus
JP2017199217A (en) * 2016-04-27 2017-11-02 京セラドキュメントソリューションズ株式会社 Handwritten character input device, image forming apparatus, and handwritten character input method
JP2021033538A (en) * 2019-08-21 2021-03-01 京セラドキュメントソリューションズ株式会社 Information processing device

Also Published As

Publication number Publication date
JP3398981B2 (en) 2003-04-21

Similar Documents

Publication Publication Date Title
JP3398981B2 (en) Handwriting input information processing device
JP2817646B2 (en) Document editing device
US5347295A (en) Control of a computer through a position-sensed stylus
JP2000123114A (en) Handwritten character input device and storage medium
JPH06131110A (en) Information processor
JP3388451B2 (en) Handwriting input device
JPH0736607A (en) Handwritten character input device
JPH0744311A (en) Handwritten information processor
JPH02113318A (en) Help processing system for information processor
JP2785941B2 (en) Window information division / integration processing method
JPH08314917A (en) Kana (japanese syllabary)/kanji (chinese character) conversion device
JPH06324798A (en) Document processor provided with handwriting editing function
JPH0991281A (en) Information processor
JPH07141091A (en) Handwritten data input device
JP3343987B2 (en) Image processing device
JPH07141092A (en) Handwritten data input device
JP3785205B2 (en) Tablet input device and tablet input method
JPH0728801A (en) Image data processing method and device therefor
JPH11345072A (en) Gesture processor and gesture processing method
JP2659092B2 (en) Cursor display control method in logic diagram creation processor
JPH0324594A (en) Information processor with area specification confirming function
JPS63108453A (en) Electronic equipment
JP2991909B2 (en) Document processing apparatus and document processing method
JP3026617B2 (en) Document processing apparatus and method
JP2763289B2 (en) Detailed description positioning method in logic diagram creation processing device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090221

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100221

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110221

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120221

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130221

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130221

Year of fee payment: 10