JPH01161483A - Document editing device - Google Patents

Document editing device

Info

Publication number
JPH01161483A
JPH01161483A JP62319772A JP31977287A JPH01161483A JP H01161483 A JPH01161483 A JP H01161483A JP 62319772 A JP62319772 A JP 62319772A JP 31977287 A JP31977287 A JP 31977287A JP H01161483 A JPH01161483 A JP H01161483A
Authority
JP
Japan
Prior art keywords
graphic
data
buffer
document
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62319772A
Other languages
Japanese (ja)
Inventor
Hajime Kurii
栗井 甫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP62319772A priority Critical patent/JPH01161483A/en
Publication of JPH01161483A publication Critical patent/JPH01161483A/en
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To easily edit a composite document in which a graphic and a sentence are mixed by a similar operation to a hand written correction on a paper by recognizing a and written graphic, identifying a character and a graphic directly near to already inputted document graphic data and estimating an operation intended by an operator. CONSTITUTION:The sentence data and the graphic data of a document buffer 1 are read to display on a display device, at the time of inputting a correction symbol by a hand writing while viewing a display screen, an input control part 6 stores coordinate data representing a locus in a graphic buffer 5 and a graphic recognition part 7 recognizes the correction symbol accordingly there to. Further, a neighboring pattern retrieving part 8 calculates a distance between the sentence, the graphic and the correction symbol to apply an identification code to the neighboring character and the graphic, then, an operation estimating part 9 estimates the edited contents of the sentence and the graphic and an editing part 10 edits the graphic data and the sentence data of the sentence buffer 1 subsequently. Thereby, the composite document in which the graphic is mixed can be easily edited with a similar operation to the hand written correction on the paper.

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) この発明は、文字列から構成された文章と、図形とが混
在する複合文書を編集する文書編集装置に関するもので
ある。
[Detailed Description of the Invention] [Object of the Invention] (Industrial Field of Application) The present invention relates to a document editing device for editing a compound document in which text composed of character strings and graphics are mixed.

(従来の技術) 文章作成装置としてワードプロセッサが普及し、さらに
、図形の作成においてはCA D (Computer
A!ded Deslgn )が多(用いられている。
(Prior Art) Word processors have become popular as text creation devices, and CAD (Computer
A! ded Deslgn ) is often used.

(発明が解決しようとする問題点) このうち、ワードプロセッサにおいては、図形が混在す
る文書を作成できるものは少なく、仮に作成できてもこ
れらを一括編集する機能がないため、編集操作が複雑で
使い勝手が悪いという問題点があった。
(Problems to be solved by the invention) Among word processors, there are few that can create documents containing a mixture of figures, and even if they can, there is no function to edit them all at once, making editing operations complicated and difficult to use. The problem was that it was bad.

また、CADにおいては、図面を清書する機能を備え、
図形の作成には優れているものの、ワードプロセッサが
扱うような文章の入力編集ができ難いという問題点があ
った。
In addition, CAD has a function to make fine copies of drawings,
Although it is excellent at creating graphics, it has a problem in that it is difficult to input and edit text like a word processor.

この発明は上記の問題点を解決するためになされたもの
で、文章および図形が混在する複合文書を、紙の上で手
書き校正すると同様な操作で容易に編集することのでき
る文書編集装置を得ることを目的とする。
This invention was made in order to solve the above problems, and provides a document editing device that can easily edit a compound document containing a mixture of text and figures using operations similar to hand-proofreading on paper. The purpose is to

〔発明の構成〕[Structure of the invention]

(問題点を解決するための手段) 本発明は、編集すべき文章データおよび図形データを記
憶させる文書バッファと、この文書バッファのデータを
読出して文章および図形を表示装置に表示する表示制御
部と、前記表示装置の表示位置座標と関連づけて校正シ
ンボルデータを手書きで入力する入力装置と、入力され
た校正シンボルデータを図形バッファに記憶させる入力
制御部と、前記図形バッファの校正シンボルデータから
校正シンボルを認識する図形認識部と、前記文書バッフ
ァおよび図形認識部のデータを読出して文章および図形
と前記校正シンボルの軌跡との間の距離を計算し、校正
シンボル軌跡の近傍にある図形と文字に識別符号を付与
する近傍パターン検索部と、前記図形認識部の図形認識
結果と前記近傍パターン検索部の識別符号に基づいて文
章および図形の編集内容を推定する操作推定部と、この
操作推定部の推定結果に従って前記文書バッファの図形
データおよび文章データを編集する編集処理部とを備え
たことを特徴とするものである。
(Means for Solving the Problems) The present invention includes a document buffer that stores text data and graphic data to be edited, and a display control unit that reads data from the document buffer and displays the text and graphics on a display device. an input device that inputs calibration symbol data by hand in association with the display position coordinates of the display device; an input control unit that stores the input calibration symbol data in a graphic buffer; and a figure recognition unit that reads out the data in the document buffer and the figure recognition unit, calculates the distance between the text and figures and the trajectory of the proofreading symbol, and identifies figures and characters in the vicinity of the proofreading symbol trajectory. a neighborhood pattern search section that assigns a code; an operation estimation section that estimates editing contents of text and graphics based on the figure recognition result of the figure recognition section and the identification code of the neighborhood pattern search section; and an estimation by the operation estimation section. The present invention is characterized by comprising an editing processing section that edits graphic data and text data in the document buffer according to the results.

(作 用) この発明においては、文書バッファの文章データおよび
図形データを読出して表示装置に表示させる一方、その
表示画面を見ながら、手書きにて校正シンボルを入力す
ると、入力制御部がその軌跡を表す座標データを図形バ
ッファに記憶させ、これに応じて図形認識部が校正シン
ボルを認識し、さらに、近傍パターン検索部が文章およ
び図形と校正シンボルとの間の距離を計算して近傍にあ
る文字および図形に識別符号を与えると、操作推定部が
文章および図形の編集内容を推定し、これに続いて編集
処理部が文書バッファの図形データおよび文章データを
編集するようになっているので、図形が混在する複合文
書を、紙の上で手書き校正すると同様な操作で容易に編
集することができる。
(Function) In the present invention, text data and graphic data from a document buffer are read out and displayed on a display device, and when a proof symbol is input by hand while looking at the display screen, the input control unit records the trajectory of the proof symbol. The coordinate data represented is stored in the figure buffer, the figure recognition section recognizes the proofing symbol according to this, and the neighborhood pattern search section calculates the distance between the text and figure and the proofing symbol and finds nearby characters. When an identification code is given to a figure and a figure, the operation estimation unit estimates the editing contents of the text and figure, and then the editing processing unit edits the figure data and text data in the document buffer. You can easily edit a compound document containing a mixture of documents using the same operations as hand-proofing it on paper.

(実施例) 第1図はこの発明の一実施例の構成を示すブロック図で
ある。同図において編集される文書データ、すなわち、
文章および図形が混在した1夏合文書データが文書バッ
ファ1に記憶され、表示制御部2により表示装置として
のCRT3にその文書が表示されている。一方、この文
書の編集指示を与えるための入力装置として、図示省略
のスタイラスペンを6するタブレット4が設けられ、C
RT3の表示位置座標と関連づけて、手書きにて校正シ
ンボルデータの入力ができるようになっている。このタ
ブレット4には、校正シンボルの軌跡を表す座標データ
を読取って図形バッファ5に記憶させる入力制御部6が
接続されている。この場合、図形バッファ5の座標デー
タも表示制御部2に与えられるため、校正シンボルもま
たCRT3に表示される。また、図形バッファ5の座標
データからどのような校正シンボルであるかを認識する
図形認識部7と、図形バッファ5のデータと文書バッフ
ァ1のデータとを比較して、校正シンボルの軌跡と文章
および図形との間の距離を計算し、近傍にある図形と文
字に識別符号をつける近傍パターン検索部8とが設けら
れている。
(Embodiment) FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. The document data edited in the same figure, that is,
One-summer document data containing a mixture of text and graphics is stored in a document buffer 1, and a display control section 2 displays the document on a CRT 3 serving as a display device. On the other hand, a tablet 4 with a stylus pen (not shown) 6 is provided as an input device for giving editing instructions for this document.
Calibration symbol data can be entered by hand in association with the display position coordinates of RT3. An input control section 6 is connected to the tablet 4, which reads coordinate data representing the locus of the calibration symbol and stores it in the graphic buffer 5. In this case, since the coordinate data of the graphic buffer 5 is also given to the display control unit 2, the calibration symbol is also displayed on the CRT 3. In addition, the figure recognition unit 7 recognizes what kind of proofreading symbol it is from the coordinate data in the figure buffer 5, and compares the data in the figure buffer 5 with the data in the document buffer 1 to determine the locus of the proofreading symbol, the text, and the like. A neighborhood pattern search unit 8 is provided which calculates the distance between figures and assigns identification codes to neighboring figures and characters.

さらにまた、図形認識部7の認識結果と近傍パターン検
索部8の識別符号とに基づいて編集内容を推定する操作
推定部9と、この操作推定部9の推定結果に従って文書
バッファ1の文章データおよび図形データを編集する編
集処理部10とを備えている。
Furthermore, an operation estimation section 9 estimates the editing content based on the recognition result of the figure recognition section 7 and the identification code of the neighborhood pattern search section 8; It also includes an editing processing section 10 that edits graphic data.

上記のように構成された本実施例の動作を、第2図のフ
ローチャートに従って説明する。
The operation of this embodiment configured as described above will be explained according to the flowchart of FIG. 2.

先ず、編集されるべき文書、すなわち、文章および図形
でなる複合文書のデータが文書バッファ1に記憶され、
この複合文書が表示制御部2によってCRT3に表示さ
れている。この状態で表示文書を編集するべく、ステッ
プ]01にて、スタイラスペンを使ってタブレット4か
ら手占きて校正シンボルデータを入力すると、その校正
シンボルがCRT3の文書に重ねて表示される。また、
ステップ102にて、図形認識部7が図形バッファ5に
記憶された校正シンボルの軌跡を表す座標データを読出
して図形形状を認識すると同時に、ステップ103にて
、近傍パターン検索部8は図形バッファ5の座標データ
と、文書バッファ1の文章データおよび図形データとを
比較し、校正シンボル軌跡と文章および図形との距離を
計算し、校正シンボル軌跡の直近の文字および図形に識
別符号を与える。これは、検索範囲を限定して処理時間
を短縮するために行うものである。続いて、ステップ1
04にて、操作推定部9は図形認識部7の認識結果およ
び近傍パターン検索部8の識別符号に基づいて、操作者
が意図する編集内容を推定する。そこで、編集処理部1
0が、ステップ105にて、文書バッファ1の文章デー
タおよび図形データを編集すると、ステップ106にて
、表示制御部2が編集結果を表示する。このとき、表示
制御部2は、図形バッファ5のデータにもとづく校正シ
ンボルを消去する。
First, data of a document to be edited, that is, a compound document consisting of sentences and figures, is stored in a document buffer 1.
This compound document is displayed on the CRT 3 by the display control section 2. In order to edit the displayed document in this state, in step]01, when the calibration symbol data is manually entered from the tablet 4 using a stylus pen, the calibration symbol is displayed superimposed on the document on the CRT 3. Also,
In step 102, the figure recognition unit 7 reads the coordinate data representing the locus of the calibration symbol stored in the figure buffer 5 and recognizes the figure shape, and at the same time, in step 103, the neighborhood pattern search unit 8 The coordinate data is compared with the text data and figure data in the document buffer 1, the distances between the proofreading symbol locus and the text and figure are calculated, and identification codes are given to the characters and figures closest to the proofreading symbol locus. This is done to limit the search range and shorten the processing time. Next, step 1
At step 04, the operation estimation section 9 estimates the editing content intended by the operator based on the recognition result of the figure recognition section 7 and the identification code of the neighborhood pattern search section 8. Therefore, editing processing section 1
0 edits the text data and graphic data in the document buffer 1 in step 105, and the display control unit 2 displays the editing results in step 106. At this time, the display control unit 2 erases the calibration symbol based on the data in the graphic buffer 5.

次に、この実施例をよりよく理解するために、具体的な
文書と校正シンボルを用いて詳しい編集操作を説明する
Next, in order to better understand this embodiment, a detailed editing operation will be explained using a specific document and proofing symbol.

第3図はそれぞれ編集指示を与える校正シンボルで、(
a)は「ツメJ 、(b)は「アケ」、(c)は「削除
J 、(d)は「入れ換え」、(e)は「文字列と図形
の移動」を表している。
Figure 3 shows proofreading symbols that give editing instructions, respectively.
a) represents a "nail J", (b) represents a "make", (c) represents a "deletion J", (d) represents a "replacement", and (e) represents a "movement of character strings and figures".

今、第3図(d)に示す「入れ換え」のシンボルを用い
て第4図(a)に示す文章を編集する場合を考える。こ
の場合の文章データは文書バッファ1に記憶され、表示
制御部2がこの文章をCRT3に表示している。操作者
がタブレット4を用いて「入れ換え」のシンボルT1を
手書き入力すると、その軌跡を表す座標データが図形バ
ッファ5に記憶され、表示制御部2がそのシンボルをC
RT3に表示させるため、これが文章に重ねて表示され
る。図形認識部7は始点P 1終点P6、中間の■ 屈折点P2、P3、P4、P5とする「入れ換え」シン
ボルであると認識する。近傍パターン検索部8は4点P
1、P2、P3、P4で囲まれる四角形と、4点P3、
P4、P5、P6で囲まれる四角形の内部にある文字を
文書バッファ1から検索し、「シンボル」と「手書き」
の文字列に識別符号を付与する。操作推定部9は、図形
認識部7の出力が入れ換えシンボルであり、近傍パター
ン検索部8で識別n号が付与されたパターンが文字列で
あることから、文字列の入れ換え操作であることを推定
する。編集処理部10は文書バッファ1に記憶されてい
る第4図(a)の文章を取出し、文字列を並べ換える。
Now, consider the case where the text shown in FIG. 4(a) is edited using the "replace" symbol shown in FIG. 3(d). The text data in this case is stored in the document buffer 1, and the display control section 2 displays this text on the CRT 3. When the operator uses the tablet 4 to input the symbol T1 for "swap" by hand, the coordinate data representing the trajectory is stored in the graphic buffer 5, and the display control unit 2 inputs the symbol T1 by handwriting.
This is displayed over the text in order to be displayed on RT3. The figure recognition unit 7 recognizes this as an "exchange" symbol with a starting point P, an ending point P6, and an intermediate point P2, P3, P4, and P5. Neighboring pattern search unit 8 has 4 points P
1. A rectangle surrounded by P2, P3, and P4, and 4 points P3,
Search document buffer 1 for characters inside the rectangle surrounded by P4, P5, and P6, and select "symbol" and "handwritten"
Add an identification code to the character string. The operation estimation unit 9 estimates that the output of the figure recognition unit 7 is a swapping symbol, and since the pattern given the identification number n by the neighborhood pattern search unit 8 is a character string, it is a character string swapping operation. do. The editing processing unit 10 takes out the text shown in FIG. 4(a) stored in the document buffer 1 and rearranges the character strings.

そこで、表示制御部2が第4図(b)に示す文章に表示
換えする。
Therefore, the display control unit 2 changes the display to the text shown in FIG. 4(b).

次に、もう一つの例として、第3図(C)の「文字列と
図形の移動」のシンボルを用いて、図形と文字列の位置
を移動させてレイアウト編集する場合の操作を説明する
Next, as another example, the operation for editing the layout by moving the positions of figures and character strings will be explained using the "move character string and figure" symbol in FIG. 3(C).

第5図(a)に示すように、二つの四角形B1.81線
分L1〜L3、文字列C1からなる文書が文書バッファ
1に記憶され、表示制御部2によってCRT3に表示さ
れているものとする。ここで、操作者がタブレット4に
移動対象のパターンを指示する手書き図形T2を入力す
る。手書き図形T2が入力されると、その軌跡の座標デ
ータが図形バッファ5に記憶され、さらに、表示制御部
2によってこの図形がCRT3に表示されると共に、も
との文書と重ね合わされる。図形認識部7は始点P7と
、終点P8とが近接し、手書き図形T2がループを形成
することから「丸」であることを認識する。これに対し
て近傍パターン検索部8は、手書き図形T2の内部にあ
るパターンを文書バッファ1から検索する。この例では
四角形B2、線分L3および文字列C1に識別符号を付
与する。このとき、線分L2は手書き図形T2の内部と
外部にまたがるパターンなので、前述したものとは異な
る識別符号を付与する。
As shown in FIG. 5(a), a document consisting of two rectangles B1, 81 line segments L1 to L3, and a character string C1 is stored in the document buffer 1 and displayed on the CRT 3 by the display control unit 2. do. Here, the operator inputs into the tablet 4 a handwritten figure T2 indicating a pattern to be moved. When the handwritten figure T2 is input, the coordinate data of its trajectory is stored in the figure buffer 5, and the display control section 2 displays this figure on the CRT 3 and superimposes it on the original document. The figure recognition unit 7 recognizes that the handwritten figure T2 is a "circle" because the starting point P7 and the ending point P8 are close to each other and the handwritten figure T2 forms a loop. On the other hand, the neighboring pattern search unit 8 searches the document buffer 1 for a pattern inside the handwritten figure T2. In this example, identification codes are given to rectangle B2, line segment L3, and character string C1. At this time, since the line segment L2 is a pattern that spans the inside and outside of the handwritten figure T2, it is given an identification code different from the one described above.

操作推定部9は図形認識部7の出力が丸シンポルであり
、近傍パターン検索部8で識別符号を付与したパターン
であることから、移動対象となるパターンを指示したも
のと推定し、上記2種類の識別符号を付与した文書バッ
ファ1のデータに対して、表示制御部2が例えば表示色
を変えてCRT3に表示する。この時、操作推定部9は
図形バッファ5の表示内容を削除し、これによって、C
RT3に表示されていた手書き図形T2を消去する。
Since the output of the figure recognition unit 7 is a circle symbol and the pattern has been given an identification code by the neighborhood pattern search unit 8, the operation estimation unit 9 estimates that the pattern to be moved has been specified, and uses the above two types. The display control unit 2 changes the display color of the data in the document buffer 1 to which the identification code has been assigned, for example, and displays it on the CRT 3. At this time, the operation estimation unit 9 deletes the display contents of the graphic buffer 5, and thereby
Delete the handwritten figure T2 displayed on RT3.

続いて、タブレット4により手書き図形T3が入力され
ると、入力制御部6を介してその座標データを図形バッ
ファ5に記憶すると共に、表示制御部2を介してC:R
T3に表示する。
Subsequently, when the handwritten figure T3 is inputted by the tablet 4, its coordinate data is stored in the figure buffer 5 via the input control unit 6, and the coordinate data of the handwritten figure T3 is stored in the figure buffer 5 via the display control unit 2.
Display on T3.

ここで、図形認識部7は終点をP9、始点をPloとす
る直線であると認識する。近傍パターン検索部8は手書
き図形T3の近傍パターンを文書バッファ1から検索す
るが、この例では識別符号を付与するパターンはない。
Here, the figure recognition unit 7 recognizes that it is a straight line whose end point is P9 and whose starting point is Plo. The neighborhood pattern search unit 8 searches the document buffer 1 for neighborhood patterns of the handwritten figure T3, but in this example, there is no pattern to which an identification code is attached.

操作推定部9は図形認識部7からの出力が直線シンボル
であり、既に移動対象パターンが指示されていることか
ら、移動操作と推定する。手書き図形T3が下向きに書
かれたことから移動方向は図面の垂直下方で、移動距離
は2点P9.PIO間の距離とする。
Since the output from the figure recognition unit 7 is a straight line symbol and a movement target pattern has already been designated, the operation estimation unit 9 estimates that it is a movement operation. Since the handwritten figure T3 was written downward, the movement direction is vertically downward in the drawing, and the movement distance is 2 points P9. Let it be the distance between PIOs.

編集処理部10は移動対象の四角形B2、線分L3、文
字列C1を前記移動量だけ平行移動させた座標を求め、
文書バッファ1に書込む。線分L2は異なる識別符号を
付与しであることから四角形B2に接する方の端点座標
のみ平行移動された座標を求め、同様に文書バッファ1
に書込む。
The editing processing unit 10 calculates the coordinates of the rectangle B2, the line segment L3, and the character string C1 to be moved in parallel by the amount of movement,
Write to document buffer 1. Since the line segment L2 is assigned a different identification code, only the coordinates of the end point touching the rectangle B2 are translated in parallel, and the coordinates are similarly shifted to the document buffer 1.
write to.

最後に移動後のパターンを、表示制御部2を介して、C
RT3に表示すると、第5図(b)のようになる。
Finally, the pattern after movement is displayed via the display control unit 2.
When displayed on RT3, it will look like FIG. 5(b).

なお、上記実施例では、入力装置としてスタイラスペン
で表面をなぞるタブレットを用いたが、CRT画面上に
ライトペンを当てる方式のものでも、あるいは、液晶表
示装置を用いてその表面をなぞるものであっても、要は
表示装置の表示座標と関連づけて手書きできるものであ
れば、上述したと同様な編集ができることは言うまでも
ない。
In the above embodiment, a tablet whose surface is traced with a stylus pen is used as an input device, but it is also possible to apply a light pen on a CRT screen or trace the surface using a liquid crystal display device. However, it goes without saying that the same editing as described above is possible as long as the handwriting can be done in association with the display coordinates of the display device.

〔発明の効果〕〔Effect of the invention〕

以上の説明によって明らかなように1.この発明によれ
ば、手書き図形を認識し、この図形に対して、既に入力
済みの文書図形データの直近の文字および図形を識別し
て操作者の意図する操作を推定することにより、図形と
文章が混在する複合文書でも、紙の上で手書き校正する
と同様な操作で容易に編集することができるという効果
がある。
As is clear from the above explanation, 1. According to the present invention, by recognizing a handwritten figure, identifying the nearest characters and figures in document figure data that has already been inputted with respect to the figure, and estimating the operation intended by the operator, the figure and text are Compound documents containing a mixture of documents can be edited easily by hand-proofing them on paper using the same operations.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例の構成を示すブロック図、
第2図は同実施例の動作を説明するためのフローチャー
ト、第3図は同実施例を説明するための校正シンボル、
第4図(a) 、 (b)および第5図(a) 、(b
)はそれぞれ本実施例の動作を説明するための表示画面
例である。 1・・・文書バッファ、2・・・表示制御部、3・・・
CRT、4・・・タブレット、5・・・図形バッファ、
6・・・入力制御部、7・・・図形認識部、8・・・近
傍パターン検索部、9・・・操作推定部、10・・・編
集処理部10゜△    −m−」   璽−1−」 ((L)   (b)     (C)       
(d)(e)   第3図 二の之書1才手書きシニ将し1:よってイ1ト正できま
7゜(b) 第4図 (′″2 第5図 1°′
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the embodiment, and FIG. 3 is a calibration symbol for explaining the embodiment.
Figure 4 (a), (b) and Figure 5 (a), (b)
) are examples of display screens for explaining the operation of this embodiment. 1... Document buffer, 2... Display control unit, 3...
CRT, 4...Tablet, 5...Graphic buffer,
6... Input control unit, 7... Graphic recognition unit, 8... Neighborhood pattern search unit, 9... Operation estimation unit, 10... Editing processing unit 10゜△-m-'' Seal-1 -” ((L) (b) (C)
(d) (e) Fig. 3 2 no no sho 1 year old handwriting 1°

Claims (1)

【特許請求の範囲】[Claims] 編集すべき文章データおよび図形データを記憶させる文
書バッファと、この文書バッファのデータを読出して文
章および図形を表示装置に表示する表示制御部と、前記
表示装置の表示位置座標と関連づけて校正シンボルデー
タを手書きで入力する入力装置と、入力された校正シン
ボルデータを図形バッファに記憶させる入力制御部と、
前記図形バッファの校正シンボルデータから校正シンボ
ルを認識する図形認識部と、前記文書バッファおよび図
形認識部のデータを読出して文章および図形と前記校正
シンボルの軌跡との間の距離を計算し、校正シンボル軌
跡の近傍にある図形と文字に識別符号を付与する近傍、
パターン検索部と、前記図形認識部の図形認識結果と前
記近傍パターン検索部の識別符号に基づいて文章および
図形の編集内容を推定する操作推定部と、この操作推定
部の推定結果に従って前記文書バッファの図形データお
よび文章データを編集する編集処理部とを備えたことを
特徴とする文書編集装置。
A document buffer that stores text data and graphic data to be edited; a display control unit that reads data from the document buffer and displays the text and graphics on a display device; and a display control unit that stores proofreading symbol data in association with the display position coordinates of the display device. an input device that inputs the data by hand; an input control unit that stores the input calibration symbol data in a graphic buffer;
a figure recognition unit that recognizes a proofreading symbol from the proofreading symbol data in the figure buffer; and a figure recognition unit that reads data from the document buffer and figure recognition unit to calculate the distance between the text and figure and the trajectory of the proofreading symbol, and calculates the distance between the text and figure and the trajectory of the proofreading symbol. A neighborhood that gives identification codes to figures and characters near the trajectory,
a pattern search unit; an operation estimation unit that estimates editing contents of sentences and figures based on the figure recognition result of the figure recognition unit and the identification code of the neighborhood pattern search unit; 1. A document editing device, comprising: an editing processing unit that edits graphic data and text data.
JP62319772A 1987-12-17 1987-12-17 Document editing device Pending JPH01161483A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62319772A JPH01161483A (en) 1987-12-17 1987-12-17 Document editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62319772A JPH01161483A (en) 1987-12-17 1987-12-17 Document editing device

Publications (1)

Publication Number Publication Date
JPH01161483A true JPH01161483A (en) 1989-06-26

Family

ID=18114008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62319772A Pending JPH01161483A (en) 1987-12-17 1987-12-17 Document editing device

Country Status (1)

Country Link
JP (1) JPH01161483A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174015A (en) * 1990-06-29 1992-06-22 Sanyo Electric Co Ltd Handwriting calculation processor
JPH09224922A (en) * 1996-02-27 1997-09-02 Nec Corp Conesthesia input device
WO2001015429A1 (en) * 1999-08-19 2001-03-01 Cosmotec Patent Information Systems Inc. Method for converting drawing to electronic data
JP2008009785A (en) * 2006-06-30 2008-01-17 Fuji Xerox Co Ltd Image processing system and image processing program
JP2021149662A (en) * 2020-03-19 2021-09-27 株式会社リコー Display unit, display method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6075980A (en) * 1983-10-03 1985-04-30 Hitachi Ltd On-line editing device for handwritten input pattern
JPS60164863A (en) * 1984-02-08 1985-08-27 Hitachi Ltd Word processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6075980A (en) * 1983-10-03 1985-04-30 Hitachi Ltd On-line editing device for handwritten input pattern
JPS60164863A (en) * 1984-02-08 1985-08-27 Hitachi Ltd Word processor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174015A (en) * 1990-06-29 1992-06-22 Sanyo Electric Co Ltd Handwriting calculation processor
JPH09224922A (en) * 1996-02-27 1997-09-02 Nec Corp Conesthesia input device
WO2001015429A1 (en) * 1999-08-19 2001-03-01 Cosmotec Patent Information Systems Inc. Method for converting drawing to electronic data
JP2008009785A (en) * 2006-06-30 2008-01-17 Fuji Xerox Co Ltd Image processing system and image processing program
JP2021149662A (en) * 2020-03-19 2021-09-27 株式会社リコー Display unit, display method, and program

Similar Documents

Publication Publication Date Title
JP4742132B2 (en) Input device, image processing program, and computer-readable recording medium
US9465785B2 (en) Methods and apparatus for comic creation
JPS6177981A (en) Picture processing system
JPH01161483A (en) Document editing device
JP3388451B2 (en) Handwriting input device
JP2018067298A (en) Handwritten content editing device and handwritten content editing method
JP2992127B2 (en) Character recognition method and device
JPH08255221A (en) Character graphic input editing device
CN114519213A (en) Computer-aided cartographic automation from markup using machine learning
JPH0713686A (en) Handwritten information input device
JP2723109B2 (en) Image processing method
JP2917187B2 (en) Vector data erasure method
JPH0652243A (en) Drawing input processor
JP2005234610A (en) Freehand-input pattern editing system
JPH0259814A (en) Dividing/integrating process system for window information
JP3227219B2 (en) Information processing method and apparatus
JP2000067258A (en) Drawing plotter
JPH0769905B2 (en) Document creation / editing device
JP2624763B2 (en) Character input device
JPH08297466A (en) Mapping device
JPS62267854A (en) Object processing
JPH06131107A (en) Pen input operation method and information processor
JPH0756911A (en) Document preparing device
JPH0610447Y2 (en) Image processing device
JP3544699B2 (en) Document information processing device