JPH06149466A - Information processor - Google Patents

Information processor

Info

Publication number
JPH06149466A
JPH06149466A JP29615292A JP29615292A JPH06149466A JP H06149466 A JPH06149466 A JP H06149466A JP 29615292 A JP29615292 A JP 29615292A JP 29615292 A JP29615292 A JP 29615292A JP H06149466 A JPH06149466 A JP H06149466A
Authority
JP
Japan
Prior art keywords
image
editing
command
writing
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29615292A
Other languages
Japanese (ja)
Other versions
JP2963589B2 (en
Inventor
Kiyoshi Tsunoda
清 角田
Masato Ijuin
真人 伊集院
Yoshiko Kitamura
佳子 北村
Yuji Okano
裕二 岡野
Hiroyuki Shigematsu
浩幸 重松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP29615292A priority Critical patent/JP2963589B2/en
Publication of JPH06149466A publication Critical patent/JPH06149466A/en
Application granted granted Critical
Publication of JP2963589B2 publication Critical patent/JP2963589B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Position Input By Displaying (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To accelerate a restoration processing at the time of restoring original pictures at an erroneous editing processing or the like by setting a storage area for storing picture information for indicating pictures and a work flag for indicating the operational conditions of respective functions. CONSTITUTION:A display device 14 such as a liquid crystal display or the like is provided and a tablet 19 capable of inputting images by plotting them by an input pen 12 and instructing a desired position 6n the display screen of the display device is provided on the display screen. A gesture function capable of editing the pictures such as the arrays of symbols and characters on the display screen by the images is provided and a screen information buffer 31 for storing the picture information for indicating the pictures on the display screen at the time of starting and the work flag for indicating the operational conditions of the respective functions when the gesture function is started is set. Then, at the time of editing by the gesture function, since the original picture information is stored in the screen information buffer 31 beforehand, the picture information is called and the original pictures before the editing by the gesture function can be restored.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力ペンによる表示画
面の編集機能を有する日本語ワードプロセッサ等の情報
処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus such as a Japanese word processor having a function of editing a display screen with an input pen.

【0002】[0002]

【従来の技術】近年、液晶表示等の表示部分と、入力ペ
ン等との当接部位の座標を検出するタブレットとを一体
化した表示装置を備え、入力ペンにより直接編集できる
ように設定された情報機器、いわゆるペン情報入力方式
の情報機器が市場に現れている。したがって、上記表示
装置は、紙とペンを連想させるように、あたかも原稿用
紙での校正と同様のことを、上記タブレット上で実現で
きるものとなっており、上記のような情報機器として
は、例えばシャープ社製の日本語ワードプロセッサ"WV-
S200" 等が知られている。
2. Description of the Related Art In recent years, there has been provided a display device in which a display portion such as a liquid crystal display and a tablet for detecting coordinates of a contact portion with an input pen or the like are integrated, and it is set to be directly editable by the input pen. Information devices, so-called pen information input type information devices, have appeared on the market. Therefore, the display device can realize the same thing as the calibration with the manuscript paper on the tablet as if the paper and the pen were associated with each other. Sharp's Japanese word processor "WV-
S200 "etc. are known.

【0003】これらのペン情報入力機器において、その
特性をより生かすための機能として、ジェスチャー機能
というものが考えられた。このようなジェスチャー機能
は、予め設定して記憶しておいた編集記号により、入力
ペンでタブレット上の所望する位置の文字等を、任意の
編集記号で描画することにより、表示装置上の文章を直
接的に編集できるようになっている。
In these pen information input devices, a gesture function has been considered as a function for making the best use of its characteristics. Such a gesture function draws a character at a desired position on the tablet with an input pen by using an edit symbol that is set and stored in advance, and draws a sentence on the display device by using the edit symbol. It can be edited directly.

【0004】したがって、上記ペン情報入力機器では、
各編集機能に対応する基本ストロークを予めジェスチャ
ーコマンドテーブルとして記憶しておき、入力ペンおよ
びタブレットを用いて入力されたイメージを、上記各基
本ストロークとそれぞれ比較して、そのイメージと所定
範囲内で一致する基本ストロークから、上記イメージに
対応する編集機能を検出している。
Therefore, in the above pen information input device,
The basic stroke corresponding to each editing function is stored in advance as a gesture command table, and the image input using the input pen and the tablet is compared with each of the above basic strokes, and the image matches within the predetermined range. The editing function corresponding to the image is detected from the basic stroke.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記ペン情
報入力機器では、例えば部分消去、移動、複写、アンダ
ーライン、スペース挿入など大量の文字列に対して処理
される編集機能の場合、そのような機能が実行された
後、編集前の元の状態に戻そうとしても、必ずしもその
元の状態に戻せるとは限らない。また、元の状態に戻す
ことができても、編集操作の途中や編集操作後では、ワ
ークフラグ等の動作状況が変化していることが多く、そ
れらを再設定したりするため、その復元操作が煩雑なも
のとなり、復元操作に手間取るという問題を生じてい
る。
However, in the above-mentioned pen information input device, in the case of an editing function for processing a large amount of character strings such as partial erasing, moving, copying, underlining and space insertion, such Even if an attempt is made to return to the original state before editing after the function is executed, it is not always possible to return to the original state. Even if the original state can be restored, the operation status such as the work flag is often changed during or after the edit operation, and the reset operation is performed because the settings are reset. Becomes complicated, and there is a problem that the restoration operation is troublesome.

【0006】また、上記ペン情報入力機器では、従来か
らの横書きだけではなく縦書きの文章に対しても、ジェ
スチャー機能による編集機能を付与しようとすると、横
書きと縦書きの文章を校正する際の編集記号が異なる場
合が多く、ジェスチャーコマンドテーブルに記憶してお
くコマンドとそれに対応する基本ストロークが増加す
る。これにより、入力されたイメージとの比較による、
対応するコマンドの検出処理に手間取り、処理時間が増
加するという問題と、ユーザーが記憶しておく基本スト
ローク数が増加することから、それらの認識率が低下す
るという問題も生じている。
Further, in the above-mentioned pen information input device, if an editing function by a gesture function is added to not only conventional horizontal writing but also vertical writing, the writing of horizontal writing and vertical writing is not performed. The editing symbols are often different, and the commands stored in the gesture command table and the corresponding basic strokes increase. As a result, by comparing with the input image,
There is also a problem that the detection process of the corresponding commands is time-consuming and the processing time is increased, and that the number of basic strokes stored by the user is increased, so that the recognition rate thereof is decreased.

【0007】[0007]

【課題を解決するための手段】本発明の請求項1記載の
情報処理装置は、以上の課題を解決するために、液晶デ
ィスプレイ等の表示装置が設けられ、入力ペンにて描画
することによりイメージを入力したり上記表示装置の表
示面の所望する位置を指示したりできるタブレットが上
記表示面上に設けられ、上記表示面における文字や記号
の配列等の画像を、上記イメージにて編集できるジェス
チャー機能を備える情報処理装置において、上記ジェス
チャー機能が起動した時、上記起動時の表示面での画像
を示す画像情報と、各機能の動作状況を示すワークフラ
グとを記憶する記憶領域が設定されていることを特徴と
している。
In order to solve the above-mentioned problems, the information processing apparatus according to claim 1 of the present invention is provided with a display device such as a liquid crystal display, and an image is formed by drawing with an input pen. A gesture that can be used to input, or to indicate a desired position on the display surface of the display device is provided on the display surface, and an image such as an arrangement of characters and symbols on the display surface can be edited with the image. In an information processing apparatus having a function, when the gesture function is activated, a storage area for storing image information indicating an image on the display surface at the time of activation and a work flag indicating an operation status of each function is set. It is characterized by being.

【0008】本発明の請求項2記載の情報処理装置は、
文字や記号の配列等の画像を表示する液晶ディスプレイ
等の表示装置が設けられ、入力ペンにて描画することに
よりイメージを入力したり上記表示装置の表示面の所望
する位置を指示したりできるタブレットが上記表示面上
に設けられ、かつ、前記画像を編集するためのコマンド
と、そのコマンドに対応する基本イメージとを予め記憶
した記憶手段が設けられ、編集用の前記イメージと上記
記憶手段から呼び出した基本イメージとを比較して上記
イメージに対応するコマンドを選定し、前記画像を上記
コマンドにて編集するジェスチャー機能を備える情報処
理装置において、横に並ぶ画像を編集するための横書き
コマンドおよびその横書きコマンドに対応する横書き用
基本イメージを記憶しておく横書き用記憶領域が前記記
憶手段に設けられ、かつ、縦に並ぶ画像を編集するため
の縦書きコマンドおよびその縦書きコマンドに対応する
縦書き用基本イメージを記憶しておく縦書き用記憶領域
が上記記憶手段に設けられ、上記横書き用記憶領域およ
び縦書き用記憶領域の何れか一方を呼び出し可能に選択
する選択手段が設けられていることを特徴としている。
An information processing apparatus according to claim 2 of the present invention is
A tablet that is provided with a display device such as a liquid crystal display that displays an image of an arrangement of characters and symbols, and that can input an image by drawing with an input pen and can indicate a desired position on the display surface of the display device. Is provided on the display surface, and storage means for storing in advance a command for editing the image and a basic image corresponding to the command is provided, and is called from the image for editing and the storage means. In the information processing apparatus having a gesture function of selecting the command corresponding to the image by comparing the basic image with the basic image and editing the image with the command, a horizontal writing command for editing images arranged side by side and its horizontal writing The horizontal writing storage area for storing the horizontal writing basic image corresponding to the command is provided in the storage means. Further, a vertical writing storage area for storing a vertical writing command for editing vertically aligned images and a vertical writing basic image corresponding to the vertical writing command is provided in the storage means, and the horizontal writing storage area is provided. It is characterized in that selection means for selecting either one of the vertical writing storage area and the vertical writing storage area is provided.

【0009】本発明の請求項3記載の情報処理装置は、
文字や記号の配列等の画像を表示する液晶ディスプレイ
等の表示装置が設けられ、入力ペンにて描画することに
よりイメージを入力したり上記表示装置の表示面の所望
する位置を指示したりできるタブレットが上記表示面上
に設けられ、かつ、前記画像を編集するためのコマンド
と、そのコマンドに対応する基本イメージとを予め記憶
した記憶手段が設けられ、編集用の前記イメージと上記
記憶手段から呼び出した基本イメージとを比較して上記
イメージに対応するコマンドを選定し、前記画像を上記
コマンドにて編集するジェスチャー機能を備える情報処
理装置において、上記基本イメージは、縦書き用と横書
き用との双方に共通の共通基本イメージと、縦書き用と
横書きとの間で変換可能な変換可能基本イメージとを含
み、横書き用または縦書き用の何方か一方の基本イメー
ジとして記憶された上記変換可能基本イメージを、横書
き用または縦書き用の他方を示す信号に基づいてその他
方に変換する変換手段が設けられていることを特徴とし
ている。
An information processing apparatus according to claim 3 of the present invention is
A tablet that is provided with a display device such as a liquid crystal display that displays an image of an arrangement of characters and symbols, and that can input an image by drawing with an input pen and can indicate a desired position on the display surface of the display device. Is provided on the display surface, and storage means for storing in advance a command for editing the image and a basic image corresponding to the command is provided, and is called from the image for editing and the storage means. In the information processing apparatus having a gesture function of selecting the command corresponding to the image by comparing the basic image with the basic image and editing the image with the command, the basic image is used for both vertical writing and horizontal writing. Common basic image common to all, and a convertible basic image that can be converted between vertical writing and horizontal writing. A conversion means is provided for converting the convertible basic image stored as one of the vertical writing vertical basic images to the other based on a signal indicating the other horizontal writing or vertical writing. I am trying.

【0010】[0010]

【作用】上記の請求項1記載の構成によれば、ジェスチ
ャー機能による編集時に、元の画像情報が予め記憶領域
に記憶されているため、例えば、従来のように、編集時
に、ジェスチャー機能でのイメージを表示面に表示して
いたりして、その表示を消去してから元の画像情報を再
度配列して表示するといった手間を省いて、上記記憶領
域の画像情報を呼び出し、前記ジェスチャー機能による
編集前である元の画像に戻すことができる。
According to the configuration of the above-mentioned claim 1, since the original image information is stored in the storage area in advance at the time of editing by the gesture function. Editing the image information in the above storage area by saving the trouble of displaying the image on the display surface and deleting the display and then arranging and displaying the original image information again. You can revert to the original image that was before.

【0011】その上、上記構成では、上記ジェスチャー
機能による編集前の動作状況を示すワークフラグも記憶
してあるから、上記の編集操作によってワークフラグが
変更されていても、上記ワークフラグの再設定の手間を
省いて、元のワークフラグに戻す、つまり元の動作状況
に戻すことができる。
In addition, in the above configuration, since the work flag indicating the operation status before the editing by the gesture function is also stored, even if the work flag is changed by the editing operation, the work flag is reset. It is possible to return to the original work flag, that is, to return to the original operation status, by omitting the trouble of.

【0012】上記の請求項2記載の構成によれば、横書
き用基本イメージを記憶する横書き用記憶領域と、縦書
き用基本イメージを記憶する縦書き用記憶領域とが設け
られているので、ジェスチャー機能により横書きの文章
と縦書きの文章とを編集できる。
According to the second aspect of the present invention, since the horizontal writing storage area for storing the horizontal writing basic image and the vertical writing storage area for storing the vertical writing basic image are provided, the gesture With the function, it is possible to edit horizontally written sentences and vertically written sentences.

【0013】その上、上記構成は、前記の選択手段が設
けられているので、イメージが入力された際に、上記の
横書き用記憶領域および縦書き用記憶領域の何方か一方
の基本イメージと比較すればよい。
In addition, since the above-mentioned configuration is provided with the selection means, when an image is input, it is compared with the basic image of one of the horizontal writing storage area and the vertical writing storage area. do it.

【0014】上記の請求項3記載の構成によれば、前記
基本イメージと変換手段とが設けられているから、ジェ
スチャー機能により横書きの文章、および縦書きの文章
を編集できる。
According to the third aspect of the present invention, since the basic image and the conversion means are provided, it is possible to edit a horizontally written sentence and a vertically written sentence by the gesture function.

【0015】さらに、上記変換手段を設けることによ
り、兼用できる変換可能基本イメージを設定できるか
ら、記憶手段での基本イメージの数を削減できて、記憶
手段の記憶領域を低減できるから、例えば他のアプリケ
ーションプログラム等のメモリ範囲を確保することが容
易となる。
Further, by providing the converting means, a convertible basic image that can be used in common can be set, so that the number of basic images in the storage means can be reduced and the storage area of the storage means can be reduced. It becomes easy to secure a memory range for application programs and the like.

【0016】その上、上記構成は、横書きの文章、およ
び縦書きの文章を編集できるコマンドにおいて、双方を
兼用する変換可能基本イメージが相互に変換可能となっ
ているから、その兼用される変換可能基本イメージは、
相互に類似点を備えて容易に認識できるように設定でき
る。
In addition, in the above-described configuration, in a command that can edit a horizontally written sentence and a vertically written sentence, the convertible basic images that can both be used can be mutually converted, so that the commonly used conversion is also possible. The basic image is
It can be set so that they have similarities to each other and can be easily recognized.

【0017】[0017]

【実施例】本発明の一実施例を実施例1として図1ない
し図21に基づいて説明すれば、以下の通りである。 〔実施例1〕情報処理装置では、図2に示すブロック図
のように、プログラムを実行する中央処理装置(Centra
l Proccesing Unit 、以下、CPUという)1が設けら
れ、そのCPU1のバスライン18に、各種データを記
憶して読み出すためのRAM2、制御プログラムを格納
しておくROM3、プリンタ5を制御するプリンタコン
トローラ4、外部記憶手段としてのICカード6に対し
て読み書きするためのICカードインターフェース7、
およびフロッピーディスクドライブ(以下、FDDとい
う)8を制御するFDコントローラ9が接続されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following will describe one embodiment of the present invention as Embodiment 1 with reference to FIGS. [Embodiment 1] In an information processing apparatus, as shown in the block diagram of FIG. 2, a central processing unit (Centra) that executes a program is used.
l Proccesing Unit (hereinafter referred to as CPU) 1 is provided, and a bus line 18 of the CPU 1 has a RAM 2 for storing and reading various data, a ROM 3 for storing a control program, and a printer controller 4 for controlling the printer 5. , An IC card interface 7 for reading and writing to the IC card 6 as external storage means,
Also, an FD controller 9 for controlling a floppy disk drive (hereinafter referred to as FDD) 8 is connected.

【0018】さらに、上記バスライン18には、入力手
段としてのキーボード10からの信号を上記バスライン
18に入力するためのキーインターフェース11と、液
晶ディスプレイ等の表示装置14を制御するための表示
コントロール15とが接続されている。
Further, on the bus line 18, a key interface 11 for inputting a signal from the keyboard 10 as an input means to the bus line 18, and a display control for controlling a display device 14 such as a liquid crystal display. And 15 are connected.

【0019】その上、上記バスライン18には、上記表
示装置14の画像上と当接して、情報を入力したり、選
択したりする入力ペン12からの信号をペン座標に変換
して上記バスライン18に入力するためのペンインター
フェース13が接続されており、よって、上記入力ペン
12は、上記画像上を示す、いわゆるポインティング機
能や、上記画像上に所定のイメージを描画することによ
り、画像上の情報を選択したり、編集記号を入力したり
できるジェスチャー機能のための入力手段となってい
る。
Moreover, the bus line 18 is brought into contact with the image on the display device 14 to convert signals from the input pen 12 for inputting and selecting information into pen coordinates to convert the signals into pen coordinates. A pen interface 13 for inputting to a line 18 is connected, so that the input pen 12 has a so-called pointing function which shows on the image, or draws a predetermined image on the image to display on the image. It is an input means for the gesture function that allows selection of information and input of edit symbols.

【0020】また、上記バスライン18には、手書き編
集インターフェース16が接続されており、その手書き
編集インターフェース16では、後に詳述するように、
上記の入力ペン12からのペン座標をそれぞれ示す各座
標データの信号により、メモリである手書き認識辞書
(記憶手段)17に予め記憶されている各基本ストロー
ク(基本イメージ)に基づいて、上記各座標データの認
識結果を上記バスライン18に出力するようになってい
る。
A handwriting editing interface 16 is connected to the bus line 18, and the handwriting editing interface 16 will be described in detail later.
Based on the basic strokes (basic images) stored in advance in the handwriting recognition dictionary (storage means) 17, which is a memory, based on the signals of the respective coordinate data indicating the pen coordinates from the input pen 12, the respective coordinates described above. The data recognition result is output to the bus line 18.

【0021】また、上記手書き認識辞書17では、文字
や記号を示す各基本ストロークが、後述する横書きジェ
スチャーコマンドテーブル27、縦書きジェスチャーコ
マンドテーブル34、手書き文字テーブル30というよ
うに内容により分類されてそれぞれ格納されている。
In the handwriting recognition dictionary 17, the basic strokes indicating characters and symbols are classified according to their contents, such as a horizontal writing gesture command table 27, a vertical writing gesture command table 34, and a handwriting character table 30, which will be described later. It is stored.

【0022】このような基本ストロークの例としては、
改行を示す編集記号である逆L字が、例えば図3に示す
ように、9×9の枡目のそれぞれ相当する座標位置に〇
で示したように埋まって、すなわち各枡目に相当する座
標での入力ペン12の通過の有る無しで示されている。
なお、上記の有る無しの判定においては所定の閾値が設
定されている。
As an example of such a basic stroke,
For example, as shown in FIG. 3, the inverted L-letter, which is an edit symbol indicating a line feed, is filled in at the coordinate positions corresponding to each 9 × 9 grid, as indicated by ◯, that is, the coordinates corresponding to each grid. Is shown with and without the input pen 12 passing through.
It should be noted that a predetermined threshold value is set in the above-mentioned determination of presence / absence.

【0023】なお、図示しないが、上記基本ストローク
は、一筆書きで描画できるように設定されて、その描画
方向、つまり、上記基本ストロークの両端の何れの一方
が起点であるかも記憶されている。
Although not shown, the basic stroke is set so that it can be drawn with one stroke, and the drawing direction, that is, either one of both ends of the basic stroke is stored as a starting point.

【0024】一方、図2に示すように、前記表示装置1
4の画面上に、その画面の各座標を検出するための透明
なタブレット19が一体的に形成されていて、上記タブ
レット19は、図4(a)に示すように、碁盤の目状に
各XY( 640×400 )座標が設定されていて、前記の表
示装置14の文字配列、例えば図4(b)に示す縦40
行、横80列に対応するようになっている。
On the other hand, as shown in FIG.
A transparent tablet 19 for detecting each coordinate of the screen is integrally formed on the screen of No. 4, and the tablet 19 is formed in a grid pattern as shown in FIG. 4A. XY (640 × 400) coordinates are set, and the character arrangement of the display device 14, for example, the vertical 40 shown in FIG.
It corresponds to rows and 80 columns.

【0025】これにより、図2に示す前記入力ペン12
の先端部が、上記タブレット19上に当接すると、その
タブレット19におけるペン座標が、前記ペンインター
フェース13にて検出され、座標コードに変換されてバ
スライン18に出力される。
As a result, the input pen 12 shown in FIG.
When the tip end of the tablet abuts on the tablet 19, the pen coordinates on the tablet 19 are detected by the pen interface 13, converted into a coordinate code, and output to the bus line 18.

【0026】なお、上記のタブレットの方式としては、
入力ペン12が当接して描画すると、その軌跡の各座標
が検出できるものであれば特に限定されないが、例えば
静電結合式タブレットや、電気ひずみおよび磁気ひずみ
式タブレット、また、感圧式や超音波式や電気機械式タ
ブレットも使用できる。
The tablet system described above is as follows:
It is not particularly limited as long as each coordinate of the locus can be detected when the input pen 12 comes into contact with and draws. And electromechanical tablets can also be used.

【0027】このような上記構成を用いて、表示装置1
4上に文章を作成する場合、キーボード10から入力さ
れた文字や記号が、キーインターフェース11にて所定
の文字コードや記号コードにそれぞれ変換されて、それ
ら各コードがCPU1(図1におけるテキスト編集部1
a)により一旦RAM2に順次格納される(図1におけ
るテキストメモリ2a)。
The display device 1 is constructed by using the above structure.
When a sentence is created on the keyboard 4, characters and symbols input from the keyboard 10 are converted into predetermined character codes and symbol codes by the key interface 11, and the respective codes are converted into the CPU 1 (the text editing unit in FIG. 1). 1
According to a), the data is temporarily stored in the RAM 2 (text memory 2a in FIG. 1).

【0028】その後、そのRAM2に格納されたコード
を、キーボード10からの指示とROM3に格納されて
いるプログラムとに基づいて、CPU1が、表示装置1
4に表示できるようにRAM2上に再度配列する(図1
におけるビットマップメモリ2b)。続いて、上記RA
M2上の各コード配列を、表示コントロール15を介し
て表示装置14上に表示するようなっている。
Thereafter, the CPU 1 causes the display device 1 to execute the code stored in the RAM 2 based on the instruction from the keyboard 10 and the program stored in the ROM 3.
4 are arranged again on the RAM 2 so that they can be displayed on the screen (FIG.
Bitmap memory 2b). Then, the above RA
Each code array on M2 is displayed on the display device 14 via the display control 15.

【0029】また、上記構成では、このように一旦表示
装置14上に表示された文章を、キーボード10、表示
装置14上に設定されたアイコン領域からの入力された
指示、または後述する入力ペン12による指示により編
集できて、上記CPU1は、所定のプログラムおよび上
記指示に従って、RAM2におけるビットマップメモリ
2bの各コード配列を並べ換える、つまり編集すること
ができるようになっている。
Further, in the above configuration, the text once displayed on the display device 14 in this way is input from the keyboard 10 or the icon area set on the display device 14, or the input pen 12 described later. The CPU 1 can rearrange, that is, edit, the code arrays of the bit map memory 2b in the RAM 2 according to a predetermined program and the instruction.

【0030】次に、表示装置14上に表示されている文
章の編集を容易にするためのジェスチャー機能について
説明する。まず、図1に示すように、CRTや液晶等の
表示装置14と、その表示面上に設けられた透明なタブ
レット19とが一体に構成されたディスプレイタブレッ
ト20上で、その表示装置14上で表示されている文章
等の画像の所望の位置において、例えば編集記号を示す
イメージを入力ペン12にて描画する。
Next, the gesture function for facilitating the editing of the text displayed on the display device 14 will be described. First, as shown in FIG. 1, on a display tablet 20 in which a display device 14 such as a CRT or a liquid crystal and a transparent tablet 19 provided on the display surface thereof are integrally formed. An image showing, for example, an edit symbol is drawn with the input pen 12 at a desired position of an image such as a displayed text.

【0031】そのような描画の各座標データは、上記タ
ブレット19および入力ペン12に接続されている軌跡
座標抽出部21にて順次検出される。このとき、上記座
標データの内、上記入力ペン12とタブレット19とが
最初に当接したXY座標であるペンダウン座標が、図5
(a)に示すタブレット19におけるジェスチャー機能
の有効領域19a内であるか無効領域19b内であるか
を、上記軌跡座標抽出部21からの座標データが入力さ
れるジェスチャー判定部22にて判定される。
Each coordinate data of such drawing is sequentially detected by the locus coordinate extracting section 21 connected to the tablet 19 and the input pen 12. At this time, among the coordinate data, the pen-down coordinate, which is the XY coordinate at which the input pen 12 and the tablet 19 first contact, is shown in FIG.
The gesture determination unit 22 to which the coordinate data from the locus coordinate extraction unit 21 is input determines whether it is in the effective region 19a or the invalid region 19b of the gesture function in the tablet 19 shown in (a). .

【0032】さらに、上記ジェスチャー判定部22で
は、上記のペンダウン座標が有効であると判定される
と、そのペンダウン座標が、表示装置14における各表
示画面に応じて設定され、入力ペン12により選択等が
実行される図5(b)に示すペンボタン領域19cであ
るか否かが判定される。
Further, when the gesture determining section 22 determines that the pen-down coordinates are valid, the pen-down coordinates are set according to each display screen of the display device 14, and the selection is made by the input pen 12 or the like. It is determined whether or not it is the pen button area 19c shown in FIG.

【0033】その後、上記ペンダウン座標が、前記の有
効領域19a内であり、かつ、上記のペンボタン領域1
9cでないことが判定されると、上記ジェスチャー判定
部22から座標データが入力される軌跡判定部23は、
ジェスチャー機能のONを示すジェスチャー機能ONフ
ラグをフラグ指示部24にセットする。
Thereafter, the pen-down coordinates are within the effective area 19a and the pen button area 1
If it is determined that it is not 9c, the trajectory determination unit 23 to which the coordinate data is input from the gesture determination unit 22,
A gesture function ON flag indicating ON of the gesture function is set in the flag designating section 24.

【0034】このフラグ指示部24に、ジェスチャー機
能ONフラグがセットされていると、上記の描画軌跡を
示す各座標データは、ペンダウン座標も含めて軌跡判定
部23に接続されている座標データバッファ25にそれ
ぞれ順次記憶される。
When the gesture function ON flag is set in the flag designating section 24, the coordinate data buffer 25 connected to the locus determining section 23 includes the pen-down coordinates for each coordinate data indicating the drawing locus. Are sequentially stored in each.

【0035】その上、上記フラグ指示部24にジェスチ
ャー機能ONフラグがセットされていると、前記ジェス
チャー判定部22は、入力される座標データが有効領域
内であるか否か、およびペンボタン領域であるか否かの
判定を停止して、入力された座標データを全て有効とし
て軌跡判定部23に出力するようになっている。
In addition, when the gesture function ON flag is set in the flag designating section 24, the gesture determining section 22 determines whether the input coordinate data is within the valid area, and whether the coordinate data is in the pen button area. The determination as to whether there is any is stopped, and all the input coordinate data are validated and output to the trajectory determination unit 23.

【0036】上記の入力ペン12による描画が終了し
て、入力ペン12がタブレット19から離間するペンア
ップの状態となると、軌跡判定部23は上記のジェスチ
ャー機能ONフラグがセットされていることを確認し
て、上記各軌跡座標データの全てが上記データバッファ
25からジャスチャーコマンド判定部26に出力され
る。
When the drawing by the input pen 12 is completed and the input pen 12 is in a pen-up state in which the input pen 12 is separated from the tablet 19, the locus determination unit 23 confirms that the gesture function ON flag is set. Then, all of the trajectory coordinate data are output from the data buffer 25 to the gesture command determination unit 26.

【0037】なお、上記のように各座標データが全てジ
ャスチャーコマンド判定部26に出力されると、上記フ
ラグ指示部24によるジェスチャー機能ONフラグがリ
セットされるようになっている。
When all the coordinate data are output to the gesture command determination unit 26 as described above, the gesture function ON flag by the flag instruction unit 24 is reset.

【0038】上記各軌跡座標データは、そのジャスチャ
ーコマンド判定部26にて正規化されて図2に示す手書
き認識辞書17に含まれる、例えば横書きジェスチャー
コマンドテーブル27にそれぞれ格納されている各基本
ストロークのデータと順次比較照合される。
Each locus coordinate data is normalized by the gesture command determination unit 26 and is included in the handwriting recognition dictionary 17 shown in FIG. 2, for example, each basic stroke stored in the horizontal writing gesture command table 27. The data is compared and collated sequentially.

【0039】このように上記構成では、上記フラグ指示
部24にジェスチャー機能ONフラグがセットされてい
ると、前記ジェスチャー判定部22は、入力される座標
データが有効領域内であるか否か、およびペンボタン領
域であるか否かの判定を停止して、入力された座標デー
タを全て有効として軌跡判定部23に出力するようにな
っている。
As described above, in the above configuration, when the gesture function ON flag is set in the flag designating section 24, the gesture determining section 22 determines whether or not the input coordinate data is within the effective area. The determination as to whether or not it is the pen button area is stopped, and all the input coordinate data are validated and output to the trajectory determination unit 23.

【0040】このことから、図5(c)に示すように、
ペンダウン座標が有効領域19a内であれば、入力ペン
12による他の軌跡座標が、無効領域19bであって
も、入力ペン12による描画が有効なものとなってい
て、描画途中に誤って無効領域19bを通過させて、入
力ペン12による描画を無効となり、再度入力しなおす
という手間を省くことができる。ただし、図5(d)に
示すように、ペンダウン座標が無効領域19bである
と、エラー処理に移行し、ジェスチャー機能が停止す
る。
From this fact, as shown in FIG.
If the pen-down coordinates are within the valid area 19a, even if the other locus coordinates by the input pen 12 are the invalid area 19b, the drawing by the input pen 12 is valid, and the invalid area is mistakenly drawn during the drawing. After passing through 19b, the drawing by the input pen 12 is invalidated, and the trouble of inputting again can be saved. However, as shown in FIG. 5D, when the pen-down coordinate is the invalid area 19b, the error processing is performed and the gesture function is stopped.

【0041】なお、図1および図2に示すように、上記
のジャスチャーコマンド判定部26は前記の手書き編集
インターフェース16に含まれ、また、前記の軌跡座標
抽出部21、ジェスチャー判定部22、軌跡判定部23
およびフラグ指示部24は、前記のペンインターフェー
ス13に含まれており、前記の座標データバッファ25
はRAM2に記憶領域が設定されている。
As shown in FIGS. 1 and 2, the gesture command determination unit 26 is included in the handwriting editing interface 16, and the trajectory coordinate extraction unit 21, gesture determination unit 22, and trajectory are also included. Judgment unit 23
The flag instruction unit 24 is included in the pen interface 13, and the coordinate data buffer 25
Has a storage area set in the RAM 2.

【0042】前記の横書きジェスチャーコマンドテーブ
ル27には、図示している一字抹消コマンド27a、ス
ペース挿入コマンド27b、手書き文字入力コマンド2
7cに対応する基本ストロークの他に、例えば図6に示
す複数の基本ストロークが、それぞれ対応するコマンド
と共に記憶されている。
In the horizontal writing gesture command table 27, the one-character deletion command 27a, the space insertion command 27b, and the handwritten character input command 2 shown in FIG.
In addition to the basic stroke corresponding to 7c, for example, a plurality of basic strokes shown in FIG. 6 are stored together with the corresponding commands.

【0043】一方、前記の縦書きジェスチャーコマンド
テーブル34には、例えば図7に示すように、複数の縦
書き用の基本ストロークが、それぞれ対応するコマンド
と共に記憶されている。したがって、上記図7に示す縦
書き用の各基本ストロークと、横書き用の各基本ストロ
ークと異なるものは6種となり、他の基本ストロークが
共通となる。
On the other hand, in the vertical writing gesture command table 34, as shown in FIG. 7, for example, a plurality of basic strokes for vertical writing are stored together with the corresponding commands. Therefore, the basic strokes for vertical writing and the basic strokes for horizontal writing shown in FIG. 7 are different from each other in six types, and other basic strokes are common.

【0044】また、上記手書き認識辞書17における各
テーブル27・34・35を、ジャスチャーコマンド判
定部26からアクセス可能とアクセス不可とをそれぞれ
選択して設定できるテーブル選択部(選択手段)32が
設けられており、そのコマンド選択部32での選択は、
テキスト編集部1aを介して入力ペン12やキーボード
10等の入力手段によって設定できるようになってい
る。
Further, a table selecting section (selecting means) 32 is provided which can set the tables 27, 34, and 35 in the handwriting recognition dictionary 17 to be accessible or inaccessible from the gesture command determining section 26, respectively. The command selection section 32 selects
It can be set by input means such as the input pen 12 and the keyboard 10 via the text editing unit 1a.

【0045】なお、上記テーブル選択部32では、各基
本ストロークを個々にジャスチャーコマンド判定部26
からアクセス可能とアクセス不可とが選択設定できるよ
うにもなっており、また、上記各基本ストロークをグル
ーピングして、各グループ毎に、アクセス可能とアクセ
ス不可とが選択設定できるようにもなっている。
In the table selecting section 32, each basic stroke is individually judged by the gesture command judging section 26.
It is also possible to selectively set whether to be accessible or not, and to group each of the basic strokes so that it is possible to selectively set whether accessible or not accessible for each group. .

【0046】また、上記の各基本ストロークにそれぞれ
対応する各コマンドのアクセス可能とアクセス不可とを
表にして記憶して、その表を任意に呼び出して表示装置
14で表示するための登録バッファ33が設けられてい
る。さらに、この登録バッファ33では、上記テーブル
選択部32においてグルーピングされている場合、例え
ば、全て無効、一部有効、全て有効から選択できるよう
に、グルーピングの表も記憶できるようになっている。
Further, the registration buffer 33 for storing the table indicating the accessibility and inaccessibility of each command corresponding to each of the above basic strokes and calling the table arbitrarily and displaying it on the display device 14 is provided. It is provided. Further, in the registration buffer 33, when grouping is performed in the table selection unit 32, a grouping table can be stored so that, for example, all invalid, some valid, and all valid can be selected.

【0047】前記のジャスチャーコマンド判定部26
は、上記の各基本ストロークとの比較照合の結果、前記
の軌跡座標と最も近似する基本ストロークに対応したコ
マンドを、テキスト編集部1aに出力すると共に、供給
された軌跡座標から上記コマンドにより処理される文字
または文字列の座標情報、つまり表示装置14における
位置情報を上記テキスト編集部1aに出力する。
The above-mentioned gesture command determination unit 26
Outputs a command corresponding to the basic stroke closest to the above-mentioned locus coordinates to the text editing unit 1a as a result of comparison and collation with each of the above basic strokes, and is processed by the above-mentioned command from the supplied locus coordinates. The coordinate information of the character or the character string, that is, the position information on the display device 14 is output to the text editing unit 1a.

【0048】これにより、上記テキスト編集部1aは、
テキストメモリ2a内の文字や記号の配列の上記位置情
報の文字や記号を、削除したり、その位置に挿入したり
して編集できることになる。
As a result, the text editing section 1a is
The character or symbol of the above-mentioned position information in the array of characters or symbols in the text memory 2a can be edited by deleting it or inserting it at that position.

【0049】このとき、テキスト編集部1aは、上記の
ようなジェスチャー機能の起動後に、つまり入力ペン1
2によるジェスチャー機能による編集記号の入力操作を
開始して、復元機能と異なる他の編集機能が入力される
と、表示装置14において表示されているテキストメモ
リ2a内の画面情報を、呼び出して一時記憶しておくメ
モリである画面情報バッファ(記憶領域)31が設定さ
れている。
At this time, the text editing unit 1a uses the input pen 1 after the gesture function as described above is activated.
When the input operation of the edit symbol by the gesture function of 2 is started and another edit function different from the restore function is input, the screen information in the text memory 2a displayed on the display device 14 is called and temporarily stored. A screen information buffer (storage area) 31, which is a memory to be stored, is set.

【0050】さらに、上記テキスト編集部1aは、上記
のようなジェスチャー機能の起動時に、各機能の動作状
況を示す各ワークフラグのセットまたはリセットを上記
画面情報バッファ31にそれぞれ記憶させるようになっ
ている。
Further, the text editing section 1a stores the setting or resetting of each work flag indicating the operation status of each function in the screen information buffer 31 when the above-mentioned gesture function is activated. There is.

【0051】したがって、上記各ワークフラグのセット
/リセット状態をそれぞれ検出して、上記の各状態を示
す信号を前記テキスト編集部1aに出力し、かつ、後述
するように画面情報バッファ31にて記憶された元の各
ワークフラグに基づいて、現在の各ワークフラグを再設
定するワークフラグ検出・復元手段35が設けられてい
る。
Therefore, the set / reset state of each work flag is detected, the signal indicating each state is output to the text editing section 1a, and stored in the screen information buffer 31 as described later. Work flag detecting / restoring means 35 is provided for resetting the current work flags based on the respective original work flags.

【0052】このように上記画面情報バッファ31に画
面情報およびワークフラグが記憶、つまりセーブされる
と、セーブフラグをセットするセーブフラグ部31aが
画面情報バッファ31に設定されている。
As described above, when the screen information and the work flag are stored in the screen information buffer 31, that is, saved, the save flag portion 31a for setting the save flag is set in the screen information buffer 31.

【0053】なお、上記画面情報バッファ31では、次
の画面情報が記憶されると、以前に記憶された画面情報
および各ワークフラグのセット/リセットの記憶はクリ
アされるようになっている。
In the screen information buffer 31, when the next screen information is stored, the previously stored screen information and the set / reset memory of each work flag are cleared.

【0054】また、上記のテキスト編集部1aは、ジャ
スチャーコマンド判定部26からのコマンドのみが入力
されるだけでなく、前述したようにキーボード10から
のコマンドも入力されて、そのコマンドによる編集等が
できるようになっている。
The text editing unit 1a receives not only the command from the gesture command determination unit 26 but also the command from the keyboard 10 as described above, and the editing by the command is performed. You can do it.

【0055】一方、上記の軌跡座標の処理とは独立し
て、軌跡座標抽出部21により抽出された軌跡座標デー
タは、軌跡描画部28に出力されて上記軌跡座標データ
をつないだ軌跡イメージとなる。
On the other hand, the locus coordinate data extracted by the locus coordinate extracting unit 21 independently of the above locus coordinate processing is output to the locus drawing unit 28 to form a locus image in which the above locus coordinate data are connected. .

【0056】生成された軌跡イメージは、ビットマップ
メモリ2bに現在形成されている文字列、記号列または
イメージと合成されて、そのビットマップメモリ2bに
記憶される。したがって、オペレータが入力ペン12
で、タブレット19をなぞって入力したジェスチャーイ
メージは、リアルタイムに表示装置14上に表示される
ことになる。
The generated locus image is combined with the character string, symbol string or image currently formed in the bit map memory 2b and stored in the bit map memory 2b. Therefore, the operator can
Then, the gesture image input by tracing the tablet 19 is displayed on the display device 14 in real time.

【0057】このようなジェスチャー編集の操作例を図
8および図9に示す。まず、図8において、ディスプレ
イタブレット20に表示されているテキストの内、文字
「え」を一字抹消する場合、入力ペン12にて「え」の
文字の上を「V」のようにジェスチャー、つまり描画し
た後、上記入力ペン12をディスプレイタブレット20
上から離す。
An example of such a gesture editing operation is shown in FIGS. 8 and 9. First, in FIG. 8, when erasing one character “e” in the text displayed on the display tablet 20, the input pen 12 makes a gesture like “V” on the character “e”, That is, after drawing, the input pen 12 is moved to the display tablet 20.
Separate from the top.

【0058】なお、上のような描画の際、その開始位置
が、上記の文字の描画範囲内で有ることが上記の文字の
認識において肝要である。上記のように消去・抹消系が
指示される文字の位置を容易に精度よく認識するため、
上記文字の描画範囲のほぼ中央部から描画を開始するこ
とが望ましい。
In the above drawing, it is important for the recognition of the above character that the starting position is within the drawing range of the above character. In order to easily and accurately recognize the position of the character for which the erasure / erasure system is instructed as described above,
It is desirable to start drawing from almost the center of the drawing range of the above character.

【0059】続いて、その軌跡座標が抽出されて軌跡イ
メージがディスプレイタブレット20における表示装置
14に表示されると共に、基本ストロークとの照合によ
り得られた「V」の描画に相当する一字抹消のコマンド
と共に、上記の「え」の文字の位置情報が、テキスト編
集部1aに出力される。
Subsequently, the locus coordinates are extracted, the locus image is displayed on the display device 14 of the display tablet 20, and a single character corresponding to the drawing of "V" obtained by collation with the basic stroke is erased. Along with the command, the position information of the character "e" is output to the text editing unit 1a.

【0060】その後、上記の位置情報に基づいて、表示
装置14におけるカーソル14aが元の位置、例えば
「ほ」の文字の位置から入力ペン12にて操作された位
置、つまり上記の場合文字「え」の位置に移動した後、
前記のテキストメモリ2a内の上記の「え」を、上記の
コマンドに基づき抹消することにより、ビットマップメ
モリ2b内の上記の「え」の文字が消去され、上記表示
装置14における上記の「え」が抹消される。このよう
にしてジェスチャー編集が完了する。
Thereafter, based on the above position information, the cursor 14a on the display device 14 is moved from the original position, for example, the position of the character "HO" to the position operated by the input pen 12, that is, the character "E" in the above case. After moving to the position
By deleting the "e" in the text memory 2a based on the command, the character "e" in the bitmap memory 2b is erased, and the "e" in the display device 14 is deleted. Is erased. In this way, the gesture editing is completed.

【0061】また、図9に示すように、各編集記号を図
示しない入力ペンにより、ディスプレイタブレット20
上に描画することにより、上記と同様に、ジェスチャー
編集が可能となっている。なお、上記の編集記号のイメ
ージである基本ストロークは任意に設定できるようにな
っている。
Further, as shown in FIG. 9, each editing symbol is displayed on the display tablet 20 by an input pen (not shown).
By drawing on the above, it is possible to edit the gesture as described above. The basic stroke, which is the image of the above-mentioned edit symbol, can be arbitrarily set.

【0062】次に、上記の構成によるポインティング機
能について説明する。まず、従来のワードプロセッサで
は、テキスト上の複数文字を領域指定する場合等にはカ
ーソルを順次移動させていたが、上記構成では、図10
に示すように、カーソル14aの位置を直接入力ペン1
2の指示によりダイレクトに移動指示が可能となってい
る。
Next, the pointing function with the above configuration will be described. First, in the conventional word processor, the cursor is sequentially moved when a plurality of characters on the text are designated as an area.
Directly input the position of the cursor 14a as shown in
By the instruction of 2, the movement instruction can be directly issued.

【0063】なお、前記のジェスチャーとポインティン
グとの切り替えは、抽出された座標が軌跡を伴わない一
点の座標であるか否か、すなわち上記各座標が連続であ
るか否かによって判断しており、このような判断は、前
記軌跡判定部23にて行われている。
The switching between the gesture and the pointing is determined by whether or not the extracted coordinates are the coordinates of one point without a locus, that is, whether or not the above coordinates are continuous. Such a determination is made by the trajectory determination unit 23.

【0064】そこで、例えば、ポインティングであると
判断した場合、得られた座標は、ジェスチャーコマンド
テーブル27と照合せず、その座標の位置情報のみをテ
キスト編集部1aに出力させている。
Therefore, for example, when it is determined to be pointing, the obtained coordinates are not collated with the gesture command table 27, and only the position information of the coordinates is output to the text editing section 1a.

【0065】次に、上記構成を用いて、手書き文字入力
について説明する。手書き文字入力は、前記のジェスチ
ャー編集が軌跡座標と予め記憶した基本ストロークとを
照合する処理と同等の処理方法により実行できるように
なっている。
Next, handwritten character input will be described using the above configuration. The input of handwritten characters can be executed by the same processing method as the above-mentioned gesture editing in which the trajectory coordinates are collated with the basic strokes stored in advance.

【0066】つまり、図1に示すように、ジャスチャー
コマンド判定部26と処理上の同等位置に、すなわち手
書き編集インターフェース16に、手書き文字認識部2
9が形成され、手書き文字を予め記憶している手書き文
字テーブル30が、横書きジェスチャーコマンドテーブ
ル27と同様に図2に示す手書き認識辞書17に形成さ
れている。
That is, as shown in FIG. 1, the handwritten character recognizing unit 2 is provided at the same processing position as the gesture command determining unit 26, that is, in the handwriting editing interface 16.
9 is formed and the handwritten character table 30 in which handwritten characters are stored in advance is formed in the handwriting recognition dictionary 17 shown in FIG.

【0067】上記の手書き文字認識部29は、軌跡座標
抽出部21から供給される軌跡座標と、手書き文字テー
ブル30に記憶されている複数の基本文字ストロークと
を照合し、最も近似する基本文字ストロークに対応する
文字コードを上記の手書き文字テーブル30からテキス
ト編集部1aに出力させる。
The handwritten character recognition unit 29 collates the locus coordinates supplied from the locus coordinate extraction unit 21 with a plurality of basic character strokes stored in the handwritten character table 30 to find the most similar basic character stroke. The character code corresponding to is output from the handwritten character table 30 to the text editing unit 1a.

【0068】このような手書き文字入力機能と、前記の
ジェスチャー編集機能との異なる点は、手書き文字認識
部29が位置情報を出力しないことである。なお、上記
の手書き文字入力機能は、キーボード10からの指示
や、表示装置14上のアイコンからの指示から立ち上げ
可能にしており、また、ディスプレイタブレット20の
タブレット19上に、例えば横書き用のジェスチャー機
能の場合、図6に示すように、「△」をジェスチャーす
ることにより、ジェスチャー編集機能から立ち上げ可能
となっている。
The difference between such a handwritten character input function and the above-mentioned gesture editing function is that the handwritten character recognition unit 29 does not output position information. The above-mentioned handwritten character input function can be activated from an instruction from the keyboard 10 or an icon from the display device 14, and a gesture for horizontal writing, for example, on the tablet 19 of the display tablet 20. In the case of the function, as shown in FIG. 6, it is possible to start up from the gesture editing function by gesturing “Δ”.

【0069】このような手書き文字入力機能の操作例に
ついて説明すると、図11に示すように、手書き文字入
力機能が立ち上げられると、ディスプレイタブレット2
0の所定位置に、手書き文字入力のためのウインドウ1
4bが表示され、そのウインドウ14a内の第1入力エ
リアに、入力ペン12にて文字を、例えば「す」と手書
きする。
An example of the operation of the handwritten character input function will be described. As shown in FIG. 11, when the handwritten character input function is activated, the display tablet 2 is activated.
Window 1 for inputting handwritten characters at a predetermined position of 0
4b is displayed, and in the first input area in the window 14a, a character is handwritten with the input pen 12, for example, "su".

【0070】その後、次の入力のため隣接する第2エリ
アに入力ペン12を接触させると、そのとき上記の第1
エリアに手書きされた軌跡座標の文字認識が、前記の手
書き文字テーブル30を参照して前記手書き文字認識部
29にて前述したように実行され、その認識結果の文字
をカーソル14aが示す位置に入力して表示するように
なっている。
After that, when the input pen 12 is brought into contact with the adjacent second area for the next input, at that time, the first area
Character recognition of the locus coordinates handwritten in the area is executed as described above by the handwritten character recognition unit 29 with reference to the handwritten character table 30, and the character of the recognition result is input to the position indicated by the cursor 14a. It is designed to be displayed.

【0071】これにより、例えば草書体などの字体を予
め、手書き文字テーブル30に記憶させておき、その草
書体を手書きで入力して、上記手書き文字テーブル30
における草書字体を表示・印刷等が可能となっている。
なお、上記の各ジェスチャー機能では、横書き用のジェ
スチャー機能の例を挙げたが、縦書き用のジェスチャー
機能でも同様である。
Thus, for example, a font such as a cursive font is stored in the handwritten character table 30 in advance, and the cursive character is input by handwriting, and the handwritten character table 30
It is possible to display and print cursive fonts in.
In each of the above-mentioned gesture functions, the example of the gesture function for horizontal writing has been given, but the same applies to the gesture function for vertical writing.

【0072】次に、上記実施例1の構成におけるジェス
チャー機能での復元機能を含めた各編集機能の動作例に
ついて図12のフローチャートを参照しながら説明す
る。まず、表示装置14に表示された文章を編集する場
合、入力ペン12を用いるジェスチャー機能による手書
き編集か、他の編集方法、例えばキーボード10による
キー編集かを選択する(ステップ1、以下ステップをS
と略する)。
Next, an operation example of each editing function including the restoration function of the gesture function in the configuration of the above-described first embodiment will be described with reference to the flowchart of FIG. First, when the text displayed on the display device 14 is edited, the handwriting editing by the gesture function using the input pen 12 or another editing method, for example, the key editing by the keyboard 10 is selected (step 1, step S below).
Abbreviated).

【0073】このとき、ジェスチャー機能による手書き
編集か、他の編集方法かが判定され(S2)、他の編集
方法が選択されると、セーブフラグ部31aでのフラグ
をリセットし(S3)、その通常編集処理を実行し(S
4)、処理を完了する。
At this time, it is determined whether handwriting editing by the gesture function or another editing method is selected (S2), and when another editing method is selected, the flag in the save flag section 31a is reset (S3), Perform normal editing processing (S
4), the process is completed.

【0074】一方、ジェスチャー機能による手書き編集
であれば、続いて、その手書き編集が復元機能か、他の
編集機能かが判定され(S5)、他の編集機能、例えば
一字抹消であれば、その編集機能が選択され(S6)、
その後、復元に必要な文書データおよびその時のワーク
フラグを画面情報バッファ31にセーブする(S7)。
その次に、セーブフラグ部31aにセーブフラグをセッ
ト(S8)した後、上記の編集機能を実行し(S9)処
理を完了する。
On the other hand, in the case of handwriting editing by the gesture function, it is subsequently determined whether the handwriting editing is a restoration function or another editing function (S5), and if another editing function, for example, erasing one character, The editing function is selected (S6),
After that, the document data necessary for restoration and the work flag at that time are saved in the screen information buffer 31 (S7).
Then, after setting the save flag in the save flag section 31a (S8), the above-mentioned editing function is executed (S9) to complete the process.

【0075】一方、前記のS5における判定が復元機能
であれば、まず、セーブフラグ部31aのセーブフラグ
がセット状態であるか、リセット状態であるかを判定し
(S10)、リセット状態であれば、ブザー等のエラー
処理に移行し(S11)、処理が終了する。
On the other hand, if the determination in S5 is the restoration function, it is first determined whether the save flag of the save flag section 31a is in the set state or the reset state (S10), and if it is in the reset state. , The error processing such as a buzzer is performed (S11), and the processing ends.

【0076】また、セーブフラグがセット状態であれ
ば、前記の画面情報バッファ31に予め記憶された元の
画面情報をおよびワークフラグを呼び出して復元処理を
実行し(S12)、続いて、セーブフラグ部31aのセ
ーブフラグをリセットして(S13)、処理を完了す
る。
If the save flag is in the set state, the original screen information previously stored in the screen information buffer 31 and the work flag are called to execute the restoration process (S12). The save flag of the unit 31a is reset (S13), and the process is completed.

【0077】次に、上記の動作例の一具体例を、図13
ないし図16を参照しながら説明すると、まず、図13
に示すように、表示装置14における表示画面での文章
中の例えば「坂」に対して、手書き編集記号の一字抹消
機構を入力ペン12により手書き入力する。
Next, a specific example of the above operation example will be described with reference to FIG.
Referring to FIG. 16 to FIG. 16, first, FIG.
As shown in FIG. 5, a single character erasing mechanism of the handwritten edit symbol is input by handwriting with the input pen 12 to, for example, “hill” in the text on the display screen of the display device 14.

【0078】このように復元機能と異なる他の編集機能
である一字抹消が入力されると、復元処理のために、図
2に示すRAM2にある図1に示すテキストメモリ2a
にある現在の文書データと、その時に全機能で共通使用
するワークフラグを、上記のRAM2の別領域にある画
面情報バッファ31に一時セーブする。
In this way, when the one-character erasure, which is another editing function different from the restoration function, is input, the text memory 2a shown in FIG. 1 in the RAM 2 shown in FIG. 2 for the restoration processing.
The current document data in 1) and the work flag commonly used by all the functions at that time are temporarily saved in the screen information buffer 31 in another area of the RAM 2.

【0079】その後、上記のRAM2にあるセーブフラ
グ部31aのセーブフラグをセットする。その次に、上
記の復元処理のための処理を終了すると、図14に示す
ように、実際に一字抹消処理を実行する。
After that, the save flag of the save flag portion 31a in the RAM 2 is set. Then, when the process for the restoration process is finished, the one-character erasing process is actually executed as shown in FIG.

【0080】その後、上記の一字抹消処理が、例えば誤
りで、元の文章に復元させる場合、まず、入力ペン12
およびタブレット19により、図15に示すように、手
書き編集記号の復元記号を入力する。その後、セーブフ
ラグ部31aにおけるセーブフラグをチェックする。そ
のセーブフラグ部31aでのセーブフラグがリセット状
態であれば、手書き編集復元処理が実行不可のため、ブ
ザー等のエラー処理に移行し、処理を終了する。
After that, when the above-mentioned one-character erasing process is an error and the original sentence is restored, first, the input pen 12
And, as shown in FIG. 15, the restoration symbol of the handwritten edit symbol is input by the tablet 19. After that, the save flag in the save flag unit 31a is checked. If the save flag in the save flag unit 31a is in the reset state, the handwriting editing / restoring process cannot be executed, so the process shifts to an error process such as a buzzer and the process ends.

【0081】一方、上記セーブフラグ部31aでのセー
ブフラグがセット状態であれば、画面情報バッファ31
から元の画面情報およびそのときのワークフラグを呼び
出して、図16に示すように、手書き編集一字抹消にて
消去した文字「坂」の復元処理を実行する。続いて、復
元処理実行後の復元処理を実行不可にするために、上記
のセーブフラグ部31aにおけるセーブフラグをリセッ
トする。なお、上記の図14および図16における□は
カーソル位置を示す。
On the other hand, if the save flag in the save flag section 31a is set, the screen information buffer 31
The original screen information and the work flag at that time are called from, and as shown in FIG. 16, the restoration processing of the character “hill” erased by handwriting edit single character deletion is executed. Subsequently, the save flag in the save flag unit 31a is reset in order to disable the restore process after the restore process is executed. The squares in FIGS. 14 and 16 described above indicate the cursor position.

【0082】このように上記実施例1の構成では、手書
き編集を実行する前に、文書データおよびその時のワー
クフラグをセーブしておくことにより、誤って手書き編
集を実行した場合においても、復元処理を指定するだけ
で文書データおよびその時のワークフラグを元に戻し、
表示装置14上での文書を手書き編集前の状態に迅速
に、かつ、確実に復元できる。
As described above, in the configuration of the first embodiment described above, the document data and the work flag at that time are saved before the handwriting editing is executed, so that the restoration processing is performed even when the handwriting editing is executed by mistake. Simply specify to restore the document data and the work flag at that time,
The document on the display device 14 can be quickly and surely restored to the state before handwriting editing.

【0083】これにより、上記構成は、上記のような手
書き編集を取り消す場合等、予め以前の画面情報および
ワークフラグが記憶されているため、例えば図17に示
すように、入力ペン12の軌跡表示、認識領域の矩形表
示、認識情報の表示、編集機能の認識表示の一覧、処理
結果の取消か否かを問うメッセージ等を表示しても、上
記の表示やメッセージを一度消去してから、文章データ
を再配列する手間を省くことができる。したがって、上
記構成は、編集画面の再表示、認識機能実行、編集処理
の取消し等の実行が迅速化できる。
As a result, in the above configuration, since the previous screen information and the work flag are stored in advance when canceling the above-mentioned handwriting editing, for example, as shown in FIG. 17, the locus display of the input pen 12 is displayed. Even if a rectangular display of the recognition area, the display of recognition information, a list of recognition displays of the editing function, a message asking whether to cancel the processing result, etc. are displayed, after deleting the above display or message once, the text You can save the trouble of rearranging the data. Therefore, with the above configuration, the redisplay of the editing screen, the execution of the recognition function, the cancellation of the editing process, and the like can be speeded up.

【0084】次に、上記実施例1の構成における横書き
用のジェスチャー機能と縦書き用ジェスチャー機能の動
作例について図18を参照しながら説明する。まず、上
記構成では、縦書きか、横書きかを、図21に示すよう
に、テキストメモリ2aに記憶された書式情報の中に設
定されており、例えば縦書きの時は0、横書きの時は1
に設定されている。
Next, an operation example of the horizontal writing gesture function and the vertical writing gesture function in the configuration of the first embodiment will be described with reference to FIG. First, in the above configuration, vertical writing or horizontal writing is set in the format information stored in the text memory 2a as shown in FIG. 21, and for example, 0 is set for vertical writing, and horizontal writing is set. 1
Is set to.

【0085】まず、ジェスチャー機能が起動時に、上記
の書式情報をテキスト編集部1aにて判定し(S2
1)、上記テキスト編集部1aが横書きと判定すれば、
その結果に基づいてテーブル選択部32が、横書きジェ
スチャーコマンドテーブル27をアクセス可能に設定
し、縦書きジェスチャーコマンドテーブル34をアクセ
ス不可に設定し、上記横書きジェスチャーコマンドテー
ブル27を参照して、横書き用認識を実行する(S2
2)。
First, when the gesture function is activated, the text editing section 1a determines the above format information (S2).
1) If the text editing unit 1a determines that the writing is horizontal,
Based on the result, the table selection unit 32 sets the horizontal writing gesture command table 27 to be accessible, sets the vertical writing gesture command table 34 to be inaccessible, and refers to the horizontal writing gesture command table 27 to recognize for horizontal writing. Is executed (S2
2).

【0086】一方、テキスト編集部1aが縦書きと判定
すれば、その結果に基づいてテーブル選択部32が、横
書きジェスチャーコマンドテーブル27をアクセス不可
に設定し、縦書きジェスチャーコマンドテーブル34を
アクセス可能に設定し、上記縦書きジェスチャーコマン
ドテーブル34を参照して、縦書き用認識を実行する
(S23)。
On the other hand, if the text editing unit 1a determines that the writing mode is vertical writing, the table selecting unit 32 sets the horizontal writing gesture command table 27 to be inaccessible based on the result, and makes the vertical writing gesture command table 34 accessible. The vertical writing gesture command table 34 is set and the vertical writing recognition is executed (S23).

【0087】続いて、上記の認識結果に基づいてテキス
ト編集部1aは編集を実行し(S24)、その結果を表
示装置14に表示して(S25)、処理が完了する。
Then, the text editing unit 1a executes editing based on the above recognition result (S24), displays the result on the display device 14 (S25), and the process is completed.

【0088】このように、横書きと縦書きとの書式設定
に応じて、各テーブル27・34を個々に参照できるか
ら、横書きでのジェスチャー機能による編集、例えば図
19に示すように、ディスプレイタブレット20におい
て、横書きでの描画軌跡12aによりセンタリング編集
が可能となり、一方、縦書きでのジェスチャー機能の編
集、例えば図20に示すように、ディスプレイタブレッ
ト20において、縦書きでの描画軌跡12aによりセン
タリング編集が可能となる。
As described above, since the tables 27 and 34 can be individually referred to according to the format settings of horizontal writing and vertical writing, editing by the gesture function in horizontal writing, for example, as shown in FIG. In, the centering edit can be performed by the drawing trajectory 12a in the horizontal writing, while the editing of the gesture function in the vertical writing, for example, as shown in FIG. 20, the centering editing can be performed by the drawing trajectory 12a in the vertical writing. It will be possible.

【0089】上記の両者での認識は、例えば表1に示す
ように、正規化された各座標データと、各テーブル27
・34に記憶された基本ストロークの各座標データとが
比較照合されて実行される。
For the recognition by both of the above, as shown in Table 1, for example, the normalized coordinate data and the table 27 are used.
The coordinate data of the basic stroke stored in 34 is compared and collated and executed.

【0090】[0090]

【表1】 [Table 1]

【0091】したがって、上記の両者の認識のための各
基本ストロークを一つのテーブルにそれぞれ記憶してお
き、上記の認識動作を実行すると、基本ストロークの数
が増加して、その各基本ストロークとの比較照合に時間
がかかることが多いが、上記構成では、例えば文章を作
成する際にまず設定される書式設定を利用して、各テー
ブル27・24の一方のテーブルの各基本ストロークと
比較照合すればよく、各テーブル27・34のアクセス
可能と不可とを設定することにより、各基本ストローク
との比較照合という認識経過時間を短縮化できるものと
なっている。
Therefore, if each basic stroke for recognizing both of the above is stored in one table and the above-described recognition operation is executed, the number of basic strokes increases, and the number of basic strokes is increased. Although it often takes time to compare and collate, in the above configuration, for example, the format setting that is first set when creating a sentence is used to compare and collate with each basic stroke of one of the tables 27 and 24. It suffices to set whether each of the tables 27 and 34 is accessible or not, so that the recognition elapsed time of comparison and collation with each basic stroke can be shortened.

【0092】次に、本発明の他の実施例を実施例2とし
て、図6および図7、並びに図22および図23に基づ
いて説明する。なお、上記実施例1と同様の機能を有す
る各部材は、同一の部材番号を付与してその説明を省い
た。
Next, another embodiment of the present invention will be described as a second embodiment with reference to FIGS. 6 and 7 and FIGS. 22 and 23. In addition, each member having the same function as that of the above-described first embodiment is given the same member number, and the description thereof is omitted.

【0093】〔実施例2〕情報処理装置では、図22に
示すように、例えば横書き用ジェスチャーコマンドテー
ブル27に、各基本ストロークが、対応するコマンドと
共に記憶されており、それらの基本ストロークは、図6
と図7とに示されているように、共通の基本ストロー
ク、例えば一字消去等を含み、一方、横書きと縦書きと
では異なるが、例えば横書き用の基本ストロークを約9
0°時計方向に回転させると、縦書き用の基本ストロー
クに一致する変換可能な基本ストローク(以下、変換可
能ストロークという)を含んでいる。
[Embodiment 2] In the information processing apparatus, as shown in FIG. 22, each basic stroke is stored together with the corresponding command in, for example, a horizontal writing gesture command table 27. 6
As shown in FIG. 7 and FIG. 7, a common basic stroke, for example, erasing one character is included, while horizontal writing and vertical writing are different, but for example, a basic stroke for horizontal writing is about 9
When rotated clockwise by 0 °, a convertible basic stroke (hereinafter referred to as a convertible stroke) that matches the basic stroke for vertical writing is included.

【0094】また、上記構成では、上記の変換可能スト
ロークの記憶の際には、その記憶領域のアドレス等を記
憶しておくヘッド部等の一部に、回転変換により他方の
基本ストロークとして使用できることを示す例えば0が
格納されている。
Further, in the above configuration, when storing the above-mentioned convertible stroke, it can be used as the other basic stroke by rotation conversion in a part of the head portion or the like which stores the address and the like of the storage area. Is stored, for example, 0 is stored.

【0095】そこで、テキスト編集部1aは、現在編集
中の文章が縦書きか、横書きかを書式設定等から判定し
た結果、縦書きの場合、ジャスチャーコマンド判定部2
6にその判定結果を出力する。
Therefore, the text editing unit 1a determines whether the text currently being edited is in vertical writing or horizontal writing. As a result, in the case of vertical writing, the gesture command determining unit 2
The determination result is output to 6.

【0096】そして、上記構成では、上記ジャスチャー
コマンド判定部26からの指示信号に基づいて、前記の
横書きジェスチャーコマンドテーブル27から呼び出さ
れる基本ストロークが変換可能ストロークであると、そ
の変換可能ストロークを回転変換して、ジャスチャーコ
マンド判定部26に出力する変換手段36が設定されて
いる。
In the above structure, if the basic stroke called from the horizontal writing gesture command table 27 is a convertible stroke based on the instruction signal from the gesture command determining section 26, the convertible stroke is rotated. A conversion unit 36 that converts and outputs to the gesture command determination unit 26 is set.

【0097】次に、上記実施例2の構成による動作例
を、図23のフローチャートを参照しながら説明する
と、まず、ジェスチャー機能が起動時に、前記実施例1
において述べた書式情報をテキスト編集部1aにて判定
する(S31)。
Next, an operation example of the configuration of the second embodiment will be described with reference to the flowchart of FIG. 23. First, when the gesture function is activated, the operation of the first embodiment is performed.
The text editing unit 1a determines the format information described in (S31).

【0098】上記テキスト編集部1aが横書きと判定す
れば、その結果に基づいてジャスチャーコマンド判定部
26が、上記横書きジェスチャーコマンドテーブル27
から各基本ストロークを呼び出し(S32)、上記各基
本ストロークとジェスチャー機能による描画と比較照合
して、横書き用認識を実行する(S33)。
If the text editing unit 1a determines that the writing is horizontal writing, the gesture command determining unit 26 determines the horizontal writing gesture command table 27 based on the result.
Each basic stroke is called from (S32), the basic stroke is compared with the drawing by the gesture function, and the horizontal writing recognition is executed (S33).

【0099】一方、上記テキスト編集部1aが縦書きと
判定すれば、その結果に基づいてジャスチャーコマンド
判定部26が、上記横書きジェスチャーコマンドテーブ
ル27から各基本ストロークを呼び出し(S34)、そ
の基本ストロークが変換可能ストロークか否かを判定す
る(S35)。
On the other hand, when the text editing unit 1a determines that the writing is vertical writing, the gesture command determining unit 26 calls each basic stroke from the horizontal writing gesture command table 27 based on the result (S34). Is a convertible stroke or not (S35).

【0100】もし、変換可能ストロークであれば、変換
手段36により約90°時計方向に回転変換して(S3
6)、ジャスチャーコマンド判定部26に出力し、他
方、変換可能ストロークでなければ変換が不要と判定し
て、その基本ストロークをジャスチャーコマンド判定部
26に出力して前記S33に移行する。
If the stroke is convertible, it is converted by the converting means 36 in the clockwise direction by about 90 ° (S3).
6), output to the gesture command determination unit 26. On the other hand, if it is not a convertible stroke, it is determined that conversion is unnecessary, the basic stroke is output to the gesture command determination unit 26, and the process proceeds to S33.

【0101】上記S33では、ジャスチャーコマンド判
定部26にて、呼び出された各基本ストロークとジェス
チャー機能での描画座標データとが順次比較照合され
て、所定の範囲で一致しない場合、S31に戻り待機状
態となる。
In S33, the gesture command determination unit 26 sequentially compares and collates each called basic stroke with the drawing coordinate data of the gesture function. If they do not match within a predetermined range, the process returns to S31 and waits. It becomes a state.

【0102】一方、ジャスチャーコマンド判定部26に
て、呼び出された基本ストロークとジェスチャー機能で
の描画座標データとが比較照合されて、所定の範囲で一
致した場合、認識完了とし、その認識結果に基づいて横
書き、または縦書きの編集を実行し(S34)、その編
集結果を表示装置14に表示して(S35)、処理を完
了する。
On the other hand, the gesture command determination unit 26 compares and collates the called basic stroke with the drawing coordinate data of the gesture function, and if they match within a predetermined range, the recognition is completed and the recognition result is shown. Based on this, horizontal writing or vertical writing is executed (S34), the editing result is displayed on the display device 14 (S35), and the process is completed.

【0103】このように上記実施例2の構成では、横書
きジェスチャーコマンドテーブル27における各基本ス
トロークを、縦書きに変換可能な変換可能ストロークと
それらと異なる共通な基本ストロークとに識別して記憶
しておき、縦書きの際には、識別された上記変換可能ス
トロークを変換手段36にて変換してジャスチャーコマ
ンド判定部26に出力することにより、横書きでの編集
と縦書きでの編集を、同一の横書きジェスチャーコマン
ドテーブル27を用いて可能となっている。
As described above, in the configuration of the second embodiment, each basic stroke in the horizontal writing gesture command table 27 is identified and stored as a convertible stroke that can be converted to vertical writing and a common basic stroke different from them. In vertical writing, the above-described convertible strokes are converted by the converting means 36 and output to the gesture command determination unit 26, so that the horizontal writing and the vertical writing are the same. The horizontal writing gesture command table 27 of FIG.

【0104】したがって、上記構成では、上記の両者の
認識のための各基本ストロークを一つのテーブルにそれ
ぞれ記憶しておき、上記の認識動作を実行すると、基本
ストロークの数が増加して、それら各基本ストロークと
の比較照合に時間がかかるが、上記構成では、例えば文
章を作成する際にまず設定される書式設定を利用して、
横書きジェスチャーコマンドテーブル27の各基本スト
ロークと比較照合すればよく、各基本ストロークとの比
較照合という認識経過時間を短縮化できるものとなって
いる。
Therefore, in the above-mentioned configuration, when each basic stroke for recognizing both of the above is stored in one table and the above-described recognition operation is executed, the number of basic strokes increases and each of them is increased. Although it takes time to compare and collate with the basic stroke, in the above configuration, for example, using the format setting that is first set when creating a sentence,
It suffices to compare and collate each basic stroke of the horizontal writing gesture command table 27, and it is possible to shorten the recognition elapsed time of the comparative collation with each basic stroke.

【0105】また、横書きジェスチャーコマンドテーブ
ル27における記憶領域を低減できて、ユーザー用のメ
モリ領域を増大化できて、アプリケーションプログラム
等への使用範囲を拡大できる。
Also, the storage area in the horizontal writing gesture command table 27 can be reduced, the memory area for the user can be increased, and the range of use for application programs and the like can be expanded.

【0106】その上、上記構成では、変換手段36にお
ける回転変換のルールが簡便なものに設定できるから、
一方の、例えば横書き用の変換可能ストロークを覚えて
いれば、縦書きの変換可能ストロークも容易に想定でき
て、横書きと縦書きでのジェスチャー機能による編集が
可能となると共に、覚えておく必要のある基本ストロー
クの数を軽減できる。これにより、各基本ストロークの
認識率を向上させることが可能となる。
Moreover, in the above configuration, the rule of rotation conversion in the conversion means 36 can be set to a simple one,
On the other hand, if you can remember the convertible stroke for horizontal writing, for example, you can easily assume the convertible stroke for vertical writing, and you can edit with the gesture function for horizontal writing and vertical writing, and it is necessary to remember. The number of certain basic strokes can be reduced. This makes it possible to improve the recognition rate of each basic stroke.

【0107】[0107]

【発明の効果】本発明の請求項1記載の情報処理装置
は、以上のように、液晶ディスプレイ等の表示装置の表
示面における文字や記号の配列等の画像を、イメージに
て編集できるジェスチャー機能が起動した時、上記起動
時の表示面での画像を示す画像情報と、各機能の動作状
況を示すワークフラグとを記憶する記憶領域が設定され
ている構成である。
As described above, the information processing apparatus according to the first aspect of the present invention is capable of editing an image such as an arrangement of characters and symbols on the display surface of a display device such as a liquid crystal display as an image. When is activated, a storage area for storing image information indicating an image on the display surface at the time of activation and a work flag indicating the operation status of each function is set.

【0108】それゆえ、上記構成は、ジェスチャー機能
による編集時に、元の画像情報が予め記憶領域に記憶さ
れているため、例えば、従来のように、編集時に、ジェ
スチャー機能でのイメージを表示面に表示していたりし
て、その表示を消去してから元の画像情報を再度配列し
て表示するといった手間を省いて、上記記憶領域の画像
情報を呼び出し、前記ジェスチャー機能による編集前で
ある元の画像に戻すことができる。
Therefore, in the above configuration, since the original image information is stored in the storage area in advance when editing by the gesture function, for example, the image by the gesture function is displayed on the display surface at the time of editing as in the conventional case. It saves the trouble of displaying the original image information and then arranging and displaying the original image information again. You can revert to an image.

【0109】その上、上記構成では、上記ジェスチャー
機能による編集前の動作状況を示すワークフラグも記憶
してあるから、上記の編集操作によってワークフラグが
変更されていても、上記ワークフラグの再設定の手間を
省いて、元のワークフラグに戻す、つまり元の動作状況
に戻すことができる。
In addition, in the above configuration, since the work flag indicating the operation status before the editing by the gesture function is also stored, even if the work flag is changed by the editing operation, the work flag is reset. It is possible to return to the original work flag, that is, to return to the original operation status, by omitting the trouble of.

【0110】したがって、上記構成は、誤った編集処理
等により、元の画像に復元する際の復元処理を迅速化で
きるという効果を奏する。
Therefore, the above-described structure has an effect that the restoration process at the time of restoring the original image can be speeded up due to an incorrect editing process or the like.

【0111】本発明の請求項2記載の情報処理装置は、
以上のように、描画のイメージにより編集できるジェス
チャー機能において、横に並ぶ画像を編集するための横
書きコマンドおよびその横書きコマンドに対応する横書
き用基本イメージを記憶しておく横書き用記憶領域が記
憶手段に設けられ、かつ、上記ジェスチャー機能におい
て、縦に並ぶ画像を編集するための縦書きコマンドおよ
びその縦書きコマンドに対応する縦書き用基本イメージ
を記憶しておく縦書き用記憶領域が上記記憶手段に設け
られ、上記横書き用記憶領域および縦書き用記憶領域の
何れか一方を呼び出し可能に選択する選択手段が設けら
れている構成である。
The information processing apparatus according to claim 2 of the present invention is
As described above, in the gesture function that can be edited by the drawn image, the horizontal writing storage area for storing the horizontal writing command for editing the horizontally arranged images and the horizontal writing basic image corresponding to the horizontal writing command is stored in the storage means. In the gesture function, a vertical writing storage area for storing a vertical writing command for editing vertically aligned images and a vertical writing basic image corresponding to the vertical writing command is stored in the storage means. A selection means is provided, which selects either the horizontal writing storage area or the vertical writing storage area so as to be callable.

【0112】それゆえ、上記構成は、上記の選択手段が
設けられているので、イメージが入力された際に、上記
の横書き用記憶領域および縦書き用記憶領域の何方か一
方の基本イメージと比較すればよく、上記双方の各基本
イメージと順次比較して、例えば最後の基本イメージと
前記イメージとが比較されて一致するといった場合の比
較処理時間と比べて、上記構成の比較処理時間を低減で
きるという効果を奏する。
Therefore, since the above-mentioned configuration is provided with the above-mentioned selection means, when an image is input, it is compared with the basic image of one of the horizontal writing storage area and the vertical writing storage area. The comparison processing time of the above configuration can be reduced as compared with the comparison processing time in the case where, for example, the last basic image and the image are compared and coincide with each other by sequentially comparing each of the basic images. Has the effect.

【0113】本発明の請求項3記載の情報処理装置は、
以上のように、記憶された基本イメージと比較して判定
されることにより、特定される描画によるイメージによ
って編集できるジェスチャー機能を備え、上記基本イメ
ージは、縦書き用と横書き用との双方に共通の共通基本
イメージと、縦書き用と横書きとの間で変換可能な変換
可能基本イメージとを含み、横書き用または縦書き用の
何方か一方の基本イメージとして記憶された上記変換可
能基本イメージを、横書き用または縦書き用の他方を示
す信号に基づいてその他方に変換する変換手段が設けら
れている構成である。
An information processing apparatus according to claim 3 of the present invention is
As described above, it has a gesture function that can be edited by an image drawn by being specified by being compared with the stored basic image, and the basic image is common to both vertical writing and horizontal writing. Of the above-mentioned convertible basic image stored as a basic image for either horizontal writing or vertical writing, including a common basic image of and a convertible basic image convertible between vertical writing and horizontal writing, The configuration is such that conversion means for converting to the other for horizontal writing or vertical writing based on the other signal is provided.

【0114】それゆえ、上記構成は、横書きの文章、お
よび縦書きの文章を編集できるコマンドにおいて、双方
を兼用する変換可能基本イメージが相互に変換可能とな
っているから、その兼用される変換可能基本イメージ
は、相互に類似点を備えて容易に認識できる。
Therefore, in the above configuration, in a command that can edit a horizontally written sentence and a vertically written sentence, the convertible basic images that can be used for both can be mutually converted, so that the conversion that is also used can be performed. The basic images have similarities to each other and are easily recognizable.

【0115】したがって、上記構成は、ジェスチャー機
能により例えば横書きの文章、および縦書きの文章の双
方を編集することができて、編集機能を向上させると共
に、基本イメージの数の増加に起因する認識率の低下を
回避することが可能となるという効果を奏する。
Therefore, with the above configuration, it is possible to edit, for example, both horizontally written sentences and vertically written sentences by the gesture function, the editing function is improved, and the recognition rate due to the increase in the number of basic images is increased. It is possible to avoid the decrease of

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1における情報処理装置の要部
ブロック図である。
FIG. 1 is a block diagram of a main part of an information processing device according to a first embodiment of the present invention.

【図2】上記の情報処理装置のブロック図である。FIG. 2 is a block diagram of the information processing device.

【図3】上記の情報処理装置における基本ストロークの
記憶例を示す説明図である。
FIG. 3 is an explanatory diagram showing a storage example of a basic stroke in the information processing apparatus.

【図4】上記の情報処理装置におけるディスプレイタブ
レットを示し、(a)はディスプレイタブレットのタブ
レットを分割して示す各座標を示す説明図であり、
(b)はディスプレイタブレットの表示装置の縦ないし
は横書きの配列を示す説明図である。
FIG. 4 shows a display tablet in the above information processing apparatus, and FIG. 4 (a) is an explanatory diagram showing respective coordinates shown by dividing the tablet of the display tablet.
(B) is an explanatory view showing a vertical or horizontal writing arrangement of the display device of the display tablet.

【図5】上記情報処理装置におけるディスプレイタブレ
ットを示し、(a)は有効領域と無効領域を示す説明
図、(b)はペンボタン領域を示す説明図、(c)は有
効な描画軌跡例を示す説明図、(d)は無効な描画軌跡
例を示す説明図である。
5A and 5B show a display tablet in the information processing apparatus, FIG. 5A is an explanatory view showing an effective area and an invalid area, FIG. 5B is an explanatory view showing a pen button area, and FIG. FIG. 3D is an explanatory diagram showing an example of an invalid drawing trajectory.

【図6】上記情報処理装置における横書き用の基本スト
ローク例を示す説明図である。
FIG. 6 is an explanatory diagram showing an example of a basic stroke for horizontal writing in the information processing apparatus.

【図7】上記情報処理装置における縦書き用の基本スト
ローク例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of a basic stroke for vertical writing in the information processing apparatus.

【図8】上記情報処理装置におけるジェスチャー機能の
使用例を示す説明図である。
FIG. 8 is an explanatory diagram showing a usage example of a gesture function in the information processing apparatus.

【図9】上記情報処理装置のジェスチャー機能の他の使
用例を示す説明図である。
FIG. 9 is an explanatory diagram showing another usage example of the gesture function of the information processing apparatus.

【図10】上記のジェスチャー機能におけるポインティ
ング機能を示す説明図である。
FIG. 10 is an explanatory diagram showing a pointing function in the above gesture function.

【図11】上記のジェスチャー機能における手書き文字
入力機能を示す説明図である。
FIG. 11 is an explanatory diagram showing a handwritten character input function in the above gesture function.

【図12】上記のジェスチャー機能におけるセーブ機能
を示すフローチャートである。
FIG. 12 is a flowchart showing a save function in the above gesture function.

【図13】上記のセーブ機能の一具体例における初期画
面を示す説明図である。
FIG. 13 is an explanatory diagram showing an initial screen in a specific example of the save function.

【図14】上記の初期画面に一編集処理が実行された編
集画面を示す説明図である。
FIG. 14 is an explanatory diagram showing an editing screen in which one editing process is executed on the initial screen.

【図15】上記編集画面に復元編集記号を入力した復元
指示画面を示す説明図である。
FIG. 15 is an explanatory diagram showing a restoration instruction screen in which a restoration editing symbol is input on the editing screen.

【図16】上記の復元指示画面から復元した初期画面を
示す説明図である。
FIG. 16 is an explanatory diagram showing an initial screen restored from the above restore instruction screen.

【図17】上記のジェスチャー機能における種々の編集
処理がそれぞれ実行された各表示画面をそれぞれ示す説
明図である。
FIG. 17 is an explanatory diagram showing respective display screens on which various editing processes in the above-mentioned gesture function have been executed.

【図18】上記のジェスチャー機能における横書きと縦
書きと認識実行する際のフローチャートである。
FIG. 18 is a flowchart at the time of recognizing and executing horizontal writing and vertical writing in the above gesture function.

【図19】上記のジェスチャー機能による横書きでの編
集例を示し、(a)は編集記号を入力した表示画面、
(b)は上記編集記号による編集が実行された表示画面
を示す説明図である。
FIG. 19 shows an example of horizontal writing by the above-mentioned gesture function, (a) is a display screen in which an edit symbol is input,
(B) is an explanatory view showing a display screen on which editing by the editing symbol is executed.

【図20】上記のジェスチャー機能による縦書きでの編
集例を示し、(a)は編集記号を入力した表示画面、
(b)は上記編集記号による編集が実行された表示画面
を示す説明図である。
FIG. 20 shows an example of vertical writing by the above-mentioned gesture function, (a) is a display screen in which an edit symbol is input,
(B) is an explanatory view showing a display screen on which editing by the editing symbol is executed.

【図21】上記のジェスチャー機能における横書きと縦
書きとを識別するための書式情報の記憶領域を示す説明
図である。
FIG. 21 is an explanatory diagram showing a storage area of format information for identifying horizontal writing and vertical writing in the gesture function.

【図22】本発明の実施例2における情報処理装置の要
部ブロック図である。
FIG. 22 is a block diagram of a main part of the information processing device according to the second embodiment of the present invention.

【図23】上記の情報処理装置における基本ストローク
の変換を示すフローチャートである。
FIG. 23 is a flowchart showing conversion of basic strokes in the above information processing device.

【符号の説明】 12 入力ペン 14 表示装置 19 タブレット 31 画面情報バッファ(記憶領域)[Explanation of Codes] 12 Input Pen 14 Display Device 19 Tablet 31 Screen Information Buffer (Storage Area)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡野 裕二 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 重松 浩幸 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Yuji Okano 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Within Sharp Corporation (72) Inventor Hiroyuki Shigematsu 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Osaka Within the corporation

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】液晶ディスプレイ等の表示装置が設けら
れ、入力ペンにて描画することによりイメージを入力し
たり上記表示装置の表示面の所望する位置を指示したり
できるタブレットが上記表示面上に設けられ、上記表示
面における文字や記号の配列等の画像を、上記イメージ
にて編集できるジェスチャー機能を備える情報処理装置
において、 上記ジェスチャー機能が起動した時、上記起動時の表示
面での画像を示す画像情報と、各機能の動作状況を示す
ワークフラグとを記憶する記憶領域が設定されているこ
とを特徴とする情報処理装置。
1. A tablet provided with a display device such as a liquid crystal display and capable of inputting an image by drawing with an input pen and designating a desired position on the display surface of the display device is provided on the display surface. In an information processing device provided with a gesture function capable of editing an image such as an arrangement of characters and symbols on the display surface with the image, when the gesture function is activated, an image on the display surface at the time of activation is displayed. An information processing apparatus, wherein a storage area for storing image information shown and a work flag showing an operation status of each function is set.
【請求項2】文字や記号の配列等の画像を表示する液晶
ディスプレイ等の表示装置が設けられ、入力ペンにて描
画することによりイメージを入力したり上記表示装置の
表示面の所望する位置を指示したりできるタブレットが
上記表示面上に設けられ、かつ、前記画像を編集するた
めのコマンドと、そのコマンドに対応する基本イメージ
とを予め記憶させた記憶手段が設けられ、編集用の前記
イメージと上記記憶手段から呼び出した基本イメージと
を比較して上記イメージに対応するコマンドを選定し、
前記画像を上記コマンドにて編集するジェスチャー機能
を備える情報処理装置において、 横に並ぶ画像を編集するための横書きコマンドおよびそ
の横書きコマンドに対応する横書き用基本イメージを記
憶しておく横書き用記憶領域が前記記憶手段に設けら
れ、かつ、縦に並ぶ画像を編集するための縦書きコマン
ドおよびその縦書きコマンドに対応する縦書き用基本イ
メージを記憶しておく縦書き用記憶領域が上記記憶手段
に設けられ、上記横書き用記憶領域および縦書き用記憶
領域の何れか一方を呼び出し可能に選択する選択手段が
設けられていることを特徴とする情報処理装置。
2. A display device such as a liquid crystal display for displaying an image of an arrangement of characters and symbols is provided, and an image can be input by drawing with an input pen or a desired position on the display surface of the display device. A tablet that can be used for pointing and the like is provided on the display surface, and a storage unit that stores in advance a command for editing the image and a basic image corresponding to the command is provided, and the image for editing is provided. And a basic image called from the storage means are compared to select a command corresponding to the image,
In an information processing device having a gesture function of editing the image with the above command, a horizontal writing memory area for storing a horizontal writing command for editing horizontally arranged images and a horizontal writing basic image corresponding to the horizontal writing command is provided. A storage area for vertical writing, which is provided in the storage means and stores a vertical writing command for editing vertically aligned images and a vertical writing basic image corresponding to the vertical writing command, is provided in the storage means. An information processing apparatus is further provided with a selection unit that selects one of the horizontal writing storage area and the vertical writing storage area so as to be callable.
【請求項3】文字や記号の配列等の画像を表示する液晶
ディスプレイ等の表示装置が設けられ、入力ペンにて描
画することによりイメージを入力したり上記表示装置の
表示面の所望する位置を指示したりできるタブレットが
上記表示面上に設けられ、かつ、前記画像を編集するた
めのコマンドと、そのコマンドに対応する基本イメージ
とを予め記憶した記憶手段が設けられ、編集用の前記イ
メージと上記記憶手段から呼び出した基本イメージとを
比較して上記イメージに対応するコマンドを選定し、前
記画像を上記コマンドにて編集するジェスチャー機能を
備える情報処理装置において、 上記基本イメージは、縦書き用と横書き用との双方に共
通の共通基本イメージと、縦書き用と横書きとの間で変
換可能な変換可能基本イメージとを含み、横書き用また
は縦書き用の何方か一方の基本イメージとして記憶され
た上記変換可能基本イメージを、横書き用または縦書き
用の他方を示す信号に基づいてその他方に変換する変換
手段が設けられていることを特徴とする情報処理装置。
3. A display device such as a liquid crystal display for displaying an image of an arrangement of characters and symbols is provided, and an image can be input by drawing with an input pen or a desired position on the display surface of the display device can be displayed. A tablet that can be designated or provided is provided on the display surface, and a storage unit that stores in advance a command for editing the image and a basic image corresponding to the command is provided, and the image for editing is provided. In an information processing apparatus having a gesture function of comparing a basic image called from the storage means with a command corresponding to the image and editing the image with the command, the basic image is for vertical writing. Includes a common basic image common to both horizontal writing and a convertible basic image convertible between vertical writing and horizontal writing, Conversion means is provided for converting the convertible basic image stored as one of the horizontal or vertical writing basic images to the other based on a signal indicating the other of horizontal writing or vertical writing. An information processing device characterized by the above.
JP29615292A 1992-11-05 1992-11-05 Gesture processing device and gesture processing method Expired - Lifetime JP2963589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29615292A JP2963589B2 (en) 1992-11-05 1992-11-05 Gesture processing device and gesture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29615292A JP2963589B2 (en) 1992-11-05 1992-11-05 Gesture processing device and gesture processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP14094399A Division JP3258978B2 (en) 1999-05-21 1999-05-21 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JPH06149466A true JPH06149466A (en) 1994-05-27
JP2963589B2 JP2963589B2 (en) 1999-10-18

Family

ID=17829832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29615292A Expired - Lifetime JP2963589B2 (en) 1992-11-05 1992-11-05 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP2963589B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175407A (en) * 2000-10-20 2001-06-29 Sharp Corp Device and method for processing document information
JP2009048655A (en) * 2008-10-15 2009-03-05 Hitachi Ltd Handwriting input device, program, and handwriting input method system
JP2010139685A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program and information storage medium
JP2010145596A (en) * 2008-12-17 2010-07-01 Seiko Epson Corp Projector, program, and information storage medium
JP2011028356A (en) * 2009-07-22 2011-02-10 Fujitsu Ltd Information processor, program, and decoration method for display element
JP2013041629A (en) * 2008-01-04 2013-02-28 Apple Inc Selective rejection of touch contacts in edge region of touch surface
JP2013105420A (en) * 2011-11-16 2013-05-30 Oki Electric Ind Co Ltd Information processor, information processing method and computer program
US8952899B2 (en) 2004-08-25 2015-02-10 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US8970533B2 (en) 2008-12-08 2015-03-03 Apple Inc. Selective input signal rejection and modification
US9367151B2 (en) 2005-12-30 2016-06-14 Apple Inc. Touch pad with symbols based on mode
US10359813B2 (en) 2006-07-06 2019-07-23 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US11379060B2 (en) 2004-08-25 2022-07-05 Apple Inc. Wide touchpad on a portable computer

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3977684B2 (en) 2002-05-21 2007-09-19 株式会社東芝 Digital still camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289983A (en) * 1992-07-31 1994-10-18 Sony Corp Handwritten input information processor

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175407A (en) * 2000-10-20 2001-06-29 Sharp Corp Device and method for processing document information
US8952899B2 (en) 2004-08-25 2015-02-10 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US11379060B2 (en) 2004-08-25 2022-07-05 Apple Inc. Wide touchpad on a portable computer
US9367151B2 (en) 2005-12-30 2016-06-14 Apple Inc. Touch pad with symbols based on mode
US10890953B2 (en) 2006-07-06 2021-01-12 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US10359813B2 (en) 2006-07-06 2019-07-23 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
JP2013041629A (en) * 2008-01-04 2013-02-28 Apple Inc Selective rejection of touch contacts in edge region of touch surface
US9041663B2 (en) 2008-01-04 2015-05-26 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US11886699B2 (en) 2008-01-04 2024-01-30 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US9891732B2 (en) 2008-01-04 2018-02-13 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US11449224B2 (en) 2008-01-04 2022-09-20 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
US10747428B2 (en) 2008-01-04 2020-08-18 Apple Inc. Selective rejection of touch contacts in an edge region of a touch surface
JP2009048655A (en) * 2008-10-15 2009-03-05 Hitachi Ltd Handwriting input device, program, and handwriting input method system
US8970533B2 (en) 2008-12-08 2015-03-03 Apple Inc. Selective input signal rejection and modification
US9632608B2 (en) 2008-12-08 2017-04-25 Apple Inc. Selective input signal rejection and modification
US10452174B2 (en) 2008-12-08 2019-10-22 Apple Inc. Selective input signal rejection and modification
JP2010139685A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program and information storage medium
JP2010145596A (en) * 2008-12-17 2010-07-01 Seiko Epson Corp Projector, program, and information storage medium
JP2011028356A (en) * 2009-07-22 2011-02-10 Fujitsu Ltd Information processor, program, and decoration method for display element
JP2013105420A (en) * 2011-11-16 2013-05-30 Oki Electric Ind Co Ltd Information processor, information processing method and computer program

Also Published As

Publication number Publication date
JP2963589B2 (en) 1999-10-18

Similar Documents

Publication Publication Date Title
US5481278A (en) Information processing apparatus
EP0597379B1 (en) Pen input processing apparatus
US6938220B1 (en) Information processing apparatus
JP2963589B2 (en) Gesture processing device and gesture processing method
JP3292752B2 (en) Gesture processing device and gesture processing method
JPH07295940A (en) Electronic equipment
JP2009151449A (en) Electric blackboard with undo function
JP2999335B2 (en) Gesture processing device and gesture processing method
JP3258978B2 (en) Gesture processing device and gesture processing method
JP3075882B2 (en) Document creation and editing device
JP3388451B2 (en) Handwriting input device
JP3509130B2 (en) Handwritten information input device and method
JP3874571B2 (en) Gesture processing device and gesture processing method
JP2905013B2 (en) Gesture processing device and gesture processing method
JP3469816B2 (en) Gesture processing device and gesture processing method
JPH07141092A (en) Handwritten data input device
JPH11306369A (en) Picture data editor
JP2006134360A (en) Handwritten character input apparatus
JP2994176B2 (en) Ruled line input device
JPH08137865A (en) Character information processor with address book managing function
JP3469817B2 (en) Gesture processing device and gesture processing method
JPH087034A (en) Handwritten character recognition and input system
JPH06251198A (en) Character input device
JPH06187486A (en) Handwritten character input device
JPH0756911A (en) Document preparing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 14