JPH0228771A - Picture processing system and picture data correcting method - Google Patents

Picture processing system and picture data correcting method

Info

Publication number
JPH0228771A
JPH0228771A JP4296989A JP4296989A JPH0228771A JP H0228771 A JPH0228771 A JP H0228771A JP 4296989 A JP4296989 A JP 4296989A JP 4296989 A JP4296989 A JP 4296989A JP H0228771 A JPH0228771 A JP H0228771A
Authority
JP
Japan
Prior art keywords
image data
image
information
correction
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4296989A
Other languages
Japanese (ja)
Inventor
Sachiko Machida
幸子 町田
Haruo Takeda
晴夫 武田
Toshihiro Hananoi
花野井 歳弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4296989A priority Critical patent/JPH0228771A/en
Publication of JPH0228771A publication Critical patent/JPH0228771A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To prevent the deterioration of the part of an original picture other than the part having been retouched when picture data stored in a memory or a file is printed once and is corrected and is inputted again by extracting only the part having been retouched newly. CONSTITUTION:A sheet 200 on which information 230 is drawn is inputted from a picture inputting device 1, and is registered as a picture 201 in the prescribed area of the file 3. When the partial correction of the picture 201 becomes necessary, the picture is read out to the memory 7 from the file 3 by designating a picture number, etc., from a keyboard 6. The information 230 on the read out picture 201 is turned into a mesh point, and is outputted by a printer 2, and becomes the sheets 204, and is retouched by correction information 232, and a corrected picture 205 is obtained. When a part of the picture 201 is desired to be deleted, a mark is written on the picture 205 so as to surround the part to be an object to be deleted, and it is inputted from the device 1. By giving mesh point eliminating processing to the inputted corrected picture 206, a corrected part picture 208 in which only the mark is left is obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理システムおよび画像データの訂正方法
に関し、更に詳しくは、画像ファイル・システム、ある
いは、画像入力装置と画像メモリを備えたワークステー
ション,コピー機,ファクシミリ等の画像処理システム
における蓄積画像の修正に好適な画像追記,部分削除方
式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing system and an image data correction method, and more particularly to an image file system or a workstation equipped with an image input device and an image memory. The present invention relates to an image addition and partial deletion method suitable for modifying stored images in image processing systems such as , copy machines, and facsimile machines.

〔従来の技術〕[Conventional technology]

近年、大容量光ディスクを利用した文書画像ファイル・
システム(電子ファイル)が、新しい文書管理の手段と
して注目を集めている。光ディスクは容量が大きく、画
像データの記録が可能なため、設計図2文献、契約書、
その他の文書画像情報を蓄積することができる。この種
のシステムとして例えば雑誌日経エレクトロニクスの1
983年3月28日号105ページから120ページに
記載されたシステムがある。
In recent years, document image files and
Systems (electronic files) are attracting attention as a new means of document management. Optical discs have a large capacity and can record image data, so they can be used to store blueprints, documents, contracts, etc.
Other document image information can be stored. An example of this type of system is the one published by the magazine Nikkei Electronics.
There is a system described on pages 105 to 120 of the March 28, 1998 issue.

このような画像ファイル・システムに設計図面等の画像
データを格納する時、しばしば既に登録された画像を訂
正する必要が生じる。上記の従来システムで、登録済の
画像を訂正するには、通常登録画像を一旦プリンタで印
刷し、紙の上で画像を訂正し、これを再度画像入力装置
で入力し、これを新たにファイルに登録する方法が採ら
れる。
When storing image data such as design drawings in such an image file system, it is often necessary to correct already registered images. In the conventional system described above, to correct a registered image, the user usually prints the registered image on a printer, corrects the image on paper, inputs it again on the image input device, and creates a new file. The method of registration is adopted.

また最近、ワークステーションやパソコンに低価格でイ
メージ・スキャナが接続できるようになった。例えば、
日経バイト1988年6月15日号の260〜263ペ
ージにその一例が示されている。また、ファクシミリと
一体化したパソコンも登場した。日経バイト1988年
2月号141〜146ページにその一例が示されている
。これらのシステム、すなわち、画像データを処理する
に十分なメモリ容量と、イメージスキャナを持つシステ
ムにおいても、上述した画像ファイルシステムと同様に
、メモリ上の画像を訂正する際に、従来は一旦画像をプ
リントアウトし、紙の上で訂正し、再度画像入力装置か
ら入力する方法が採用されている。
Recently, it has become possible to connect image scanners to workstations and personal computers at low cost. for example,
An example is shown on pages 260-263 of the June 15, 1988 issue of Nikkei Byte. Computers that were integrated with facsimile machines also appeared. An example is shown in the February 1988 issue of Nikkei Byte, pages 141-146. Even in these systems, that is, systems that have sufficient memory capacity to process image data and an image scanner, conventionally, when correcting an image in memory, the image is The method used is to print out the information, correct it on paper, and input it again from the image input device.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術は、印刷と画像入力による画質の劣化につ
いて配慮がされておらず、画像の訂正をする際に、印刷
→訂正→再登録を繰り返す度に画像の画質劣化が顕著と
なる問題があった。
The above conventional technology does not take into account the deterioration of image quality due to printing and image input, and when correcting an image, there is a problem that the deterioration of the image quality becomes noticeable every time printing → correction → re-registration is repeated. Ta.

すなわち、プリンタと画像入力装置の画像密度とが厳密
に一致しない限り、上述した印刷〜再登録を繰り返すと
、設計図面等の大きさが訂正の都度拡大または縮小とし
てしまったり、線が太くなつたり細くなったりしてしま
い、字がつぶれる・かすれる等の問題が生じた。また、
画像入力装置によるデジタル化の誤差等により、線情報
の滑らかさが劣化したり、ノイズ情報が増大してしまう
In other words, unless the image densities of the printer and image input device match exactly, repeating the above-mentioned printing and re-registration process may result in the size of the design drawing being enlarged or reduced each time corrections are made, or the lines may become thicker. This resulted in problems such as the characters becoming too thin and blurring. Also,
Due to errors in digitization by the image input device, the smoothness of line information deteriorates and noise information increases.

このため、図面訂正をn回繰り返すと、最初の原画像は
画像入力装置をn+1回、プリンタを0回経由すること
になり、nが増大するに従って画質劣化が進むという問
題があった。
Therefore, if the drawing correction is repeated n times, the first original image passes through the image input device n+1 times and the printer 0 times, and there is a problem that the image quality deteriorates as n increases.

本発明の目的は、ファイル装置あるいはメモリ上に蓄積
された画像を訂正し、再度登録する際に発生する画質劣
化を解消することにある。
An object of the present invention is to correct the image stored in a file device or memory and eliminate the image quality deterioration that occurs when re-registering the image.

〔課題を解決するための手段〕 上記目的を達成するため、本発明の画像処理システムで
は、文書情報を第1の画像データとして格納するための
メモリ手段と、上記第1の画像データに第1の変換処理
を施して得られる原稿情報を訂正用紙上に出力する第1
手段と、新たに訂正情報が加えられた上記訂正用紙上の
情報を第2の画像データとして読取るための第2手段と
、上記第2の画像データに第2の変換処理を施すことに
より、上記原稿情報を除去した第3の画像データに変換
する第3手段、上記第3の画像データと上記第1の画像
データとに基づいて訂正された画像データを合成する第
4手段とからなることを特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the image processing system of the present invention includes a memory means for storing document information as first image data, and a memory means for storing document information as first image data. The first step is to output the original information obtained by performing the conversion process on the correction sheet.
and a second means for reading the information on the correction sheet to which new correction information has been added as second image data, and performing a second conversion process on the second image data. A third means for converting into third image data from which original information has been removed; and a fourth means for synthesizing corrected image data based on the third image data and the first image data. Features.

また、本発明による画像訂正方法は、訂正対象となる電
子化された第1の画像データに第1の変換処理を施して
、訂正用紙上に原稿情報として出力する第1のステップ
と、上記訂正用紙に訂正情報を加え、該訂正用紙上の情
報を第2の画像データとして入力する第2のスイツプと
、上記第2の画像データに第2の変換処理を施し、上記
原稿情報を除去した第3の画像データを作成する第3の
ステップと、上記第1の画像データと第3の画像データ
とから、該第3の画像データの内容を部分的に訂正した
第4の画像データを作る第4のステップと、を有するこ
とを特徴とする。
Further, the image correction method according to the present invention includes a first step of performing a first conversion process on electronic first image data to be corrected and outputting it as manuscript information on a correction sheet; A second switch that adds correction information to the paper and inputs the information on the correction paper as second image data, and a second switch that applies a second conversion process to the second image data and removes the original information. a third step of creating image data No. 3; and a third step of creating fourth image data in which the content of the third image data is partially corrected from the first image data and the third image data. 4 steps.

〔作用〕[Effect]

本発明において、第1の変換処理は、第1の画像データ
が表わす原画像情報を、ユーザがその後に入力する訂正
情報と識別できるようにするためのものであり、例えば
原画像を網点化する処理が代表的である。この場合、訂
正用紙上には、原画像を網点化した原稿情報が印刷され
るため、ユーザは、訂正用紙りでメモリ上の情報(例え
ば文字。
In the present invention, the first conversion process is for making it possible to distinguish the original image information represented by the first image data from the correction information that the user inputs later, and for example, converts the original image into halftone dots. A typical example is the process of In this case, since original information obtained by halftone dotting the original image is printed on the correction paper, the user uses the correction paper to print the information (for example, characters) on the memory.

図形)の内容あるいは位置関係を把握して、内容の追加
あるいは削除のための情報を記入できる。
Understand the content or positional relationship of (figures) and enter information for adding or deleting content.

網点化処理は、原画像上の黒画素を規則的に間引き、黒
画素を離散化したものであるから、上記訂正用紙上の情
報を読取って第2の画像データとした時、この第2画像
データに含まれる規則的に離散した黒画素を除去する第
2変換処理を施せば、ユーザが記入した訂正情報のみを
選択的に抽出することができる。従って、追記訂正の場
合は、上記訂正情報との論理和をとることにより、また
削除訂正の場合は上記訂正情報が示す部分領域の情報を
原画像から除外することにより、訂正された画像データ
を得ることができる。このようにして得られた訂正画像
は、入力装置を1回しか経由していない画像データのみ
により構成されるため、訂正が数回に及んだ場合でも、
画質劣化は極めて小さい。
Halftone processing involves regularly thinning out the black pixels on the original image and discretizing the black pixels, so when the information on the correction sheet is read and made into second image data, this second By performing the second conversion process to remove regularly discrete black pixels included in the image data, it is possible to selectively extract only the correction information entered by the user. Therefore, in the case of additional correction, the corrected image data is calculated by performing a logical sum with the above correction information, and in the case of deletion correction, the information of the partial area indicated by the above correction information is excluded from the original image. Obtainable. The corrected image obtained in this way is composed only of image data that has passed through the input device only once, so even if corrections are made several times,
Image quality deterioration is extremely small.

尚、本発明において第1変換処理は、上述した網点化以
外の形態のもの、例えば原画像中の観成離散点除去以外
の形態のもの、例えば特定色の点の除去等、他の変形例
を含み得ろ。
Incidentally, in the present invention, the first conversion process includes a form other than the above-mentioned halftone conversion, for example, a form other than the removal of visible discrete points in the original image, such as removal of points of a specific color, etc. May include examples.

〔実施例〕 以下、本発明の1実施例な、光ディスクを用いた画像フ
ァイル・システムを例として、図面を参照して説明する
[Embodiment] An image file system using an optical disk, which is an embodiment of the present invention, will be described below with reference to the drawings.

第1図は本発明の第1の実施例である画像ファイル・シ
ステムの全体構成を示すブロック図である。本システム
は、イメージスキャナ、テレビ・カメラ等の画像入力装
置1と、画像データを印刷するためのプリンタ2と、画
像データを記録、再生するための光デイスク装置3と、
画像データを表示するための表示装置4と、内部に格納
されたプログラムにより動作するデータ処理装置5と、
コードデータやコマンド等を入力するためのキーボード
6と、画像データを一時的に格納するためのメモリ7〜
12と、これらの要素を相互に接続するバス13から構
成される。
FIG. 1 is a block diagram showing the overall configuration of an image file system according to a first embodiment of the present invention. This system includes an image input device 1 such as an image scanner, a television camera, etc., a printer 2 for printing image data, and an optical disk device 3 for recording and reproducing image data.
a display device 4 for displaying image data; a data processing device 5 that operates according to an internally stored program;
A keyboard 6 for inputting code data, commands, etc., and a memory 7 for temporarily storing image data.
12 and a bus 13 that interconnects these elements.

第2図は、上記画像ファイル・システムを用いて行なう
本発明による画像の初期登録、登録画像の訂正、および
訂正画像の再登録の過程を模式的に示した図である。図
において、長方形のブロックは画像を示し、このうち右
下がめくれた状態で示されたものは紙面、それ以外はメ
モリ上の画像を示す。情報230(この例では文字A)
が描かれた紙面200は画像入力袋W1がら入力され、
ファイル3の所定の領域に画像201として登録される
。上記登録画像201に部分的な訂正の必要が生じた時
、キーボード6がら画像番号あるいはキーワード等を指
定して検索コマンドを入力することにより、登録画像を
光デイスク装置3がらメモリ7に読み出す。本実施例で
は、メモリ7に読み出された原画像201上の情報23
0を後述の方法で網点化し、さらに位置合わせのための
マ−クである矩形枠231を付加した画像203をメモ
リ8上に形成する。また、矩形枠231の書込み処理時
に、後述する枠検出処理を容易にするため、枠外領域の
黒画素は全て白画素に変換するようにしてもよい。
FIG. 2 is a diagram schematically showing the process of initial registration of an image, correction of a registered image, and re-registration of a corrected image according to the present invention using the above image file system. In the figure, rectangular blocks represent images, of which the one shown with the lower right corner turned over is on paper, and the others represent images on memory. Information 230 (letter A in this example)
The paper surface 200 on which is drawn is input from the image input bag W1,
It is registered as an image 201 in a predetermined area of file 3. When it is necessary to partially correct the registered image 201, the registered image is read out from the optical disk device 3 into the memory 7 by specifying an image number or keyword and inputting a search command from the keyboard 6. In this embodiment, information 23 on the original image 201 read into the memory 7
An image 203 is formed on the memory 8 by halftone dotting 0 using a method described later and further adding a rectangular frame 231 as a mark for alignment. Furthermore, during the writing process of the rectangular frame 231, all black pixels in the area outside the frame may be converted to white pixels in order to facilitate the frame detection process described later.

網点化された画像203は原稿情報としてプリンタによ
り出力され、紙面204となる。紙面204は内容訂正
用紙であり、これに訂正情報232が加筆されて訂正画
像205が得られる。
The halftone image 203 is output by a printer as document information and becomes a paper surface 204. The paper surface 204 is a content correction sheet, and correction information 232 is added to it to obtain a corrected image 205.

訂正画像205は画像入力装置1がらメモリ9に画像2
06として読み込まれる。画像206は、画像203と
比べると、情報203′の大きさ及び傾きが異なってい
る。即ち、前記のように、プリンタ2の画素密度より画
像入力装置1の画素密度の方が高い場合は、画像206
内の情報230′と枠231′が画像203内のそれよ
り大きくなり、逆にプリンタ2の画素密度の方が高い場
合は、画像206内の情報は画像203内のそれより小
さくなる。また、画像の傾きは、入力装置1を通過する
際の用紙のスキューによって生ずる。そこで、本発明で
は、画像206の大きさと傾きを、矩形枠231′を利
用して正規化し、画像203と同一サイズ、同一の傾き
をもつ正規化画像207をメモリ10に得る。その後、
画像207に含まれる網点203′および矩形枠231
′を消去し、メモリ11に訂正部分画像208を得る。
The corrected image 205 is stored in the memory 9 from the image input device 1 as the image 2.
06. Image 206 is different from image 203 in the size and inclination of information 203'. That is, as described above, if the pixel density of the image input device 1 is higher than the pixel density of the printer 2, the image 206
If the pixel density of printer 2 is higher, the information in image 206 will be smaller than that in image 203. Further, the tilt of the image is caused by the skew of the paper when it passes through the input device 1. Therefore, in the present invention, the size and inclination of the image 206 are normalized using the rectangular frame 231', and a normalized image 207 having the same size and the same inclination as the image 203 is obtained in the memory 10. after that,
Halftone dots 203' and rectangular frame 231 included in image 207
' is deleted, and a corrected partial image 208 is obtained in the memory 11.

画像208は訂正情報232′のみを含むため、これと
画像201′とを合成することにより、メモリ12に訂
正済の画像210を得ることができ、これを原画像20
1に代る新たな画像として光デイスク装置3に格納する
。原画像201は、そのまま光デイスク上に残して、他
の訂正図面の原紙として用いてもよい。
Since the image 208 includes only the correction information 232', by combining it with the image 201', a corrected image 210 can be obtained in the memory 12, which can be used as the original image 20.
The image is stored in the optical disk device 3 as a new image in place of image 1. The original image 201 may be left as is on the optical disk and used as a base sheet for other corrected drawings.

第3図は画像訂正のための印刷処理の流れ図であり、3
00は光デイスク装置3に登録されている画像201を
検索してメモリ7に格納するステップ、302は、読み
出された原画像201′を網点化するステップ、304
は枠形等の再登録用情報231を付加するステップ、3
06は枠付き画像203を印刷して訂正用紙204を得
るステツブである。
Figure 3 is a flowchart of print processing for image correction.
00 is a step of searching the image 201 registered in the optical disk device 3 and storing it in the memory 7, 302 is a step of halftone dotting the read original image 201', 304
3 is a step of adding re-registration information 231 such as frame shape, etc.
06 is a step for printing the framed image 203 and obtaining a correction sheet 204.

第4図は訂正画像の再登録処理の流れ図であり、350
は訂正用紙204に訂正部分を加筆して得た紙面205
を画像入力装置1から入力して画像206を得るステッ
プ、352は画像206の傾きと大きさを正規化して画
像207を得るステップ、354は画像207の網点と
矩形枠を消去して訂正部分画像208を得るステップ、
356は正規化画像207に対応する原画像201を検
索するステップ、358は訂正部分画像208と原画像
202を合成して1枚の訂正済画像210を得るステッ
プ、360は上記合成画像210を光デイスク装置3に
格納する。
FIG. 4 is a flowchart of the corrected image re-registration process, with 350
is the page 205 obtained by adding the corrected part to the correction sheet 204
is input from the image input device 1 to obtain the image 206. 352 is a step of normalizing the inclination and size of the image 206 to obtain the image 207. 354 is a step of erasing the halftone dots and rectangular frame of the image 207 to correct the corrected portion. obtaining an image 208;
356 is a step of searching the original image 201 corresponding to the normalized image 207, 358 is a step of combining the corrected partial image 208 and the original image 202 to obtain one corrected image 210, and 360 is a step of searching the original image 201 corresponding to the normalized image 207. The data is stored in the disk device 3.

第5図〜第9図は、第4図のステップ352で行なう訂
正画像の傾き・大きさ補正の詳細を示すプログラム流れ
図である。以下、第2図における画像206を、矩形枠
231′を利用して正規化し、画像207を得る処理を
例にとって説明する。
5 to 9 are program flowcharts showing details of the tilt/size correction of the corrected image performed in step 352 of FIG. 4. Hereinafter, the process of normalizing the image 206 in FIG. 2 using the rectangular frame 231' to obtain the image 207 will be described as an example.

矩形枠231′を構成する直線の検出は従来公知の種々
の方法で行うことができるが、その1つとして、ここで
は公知のHough変換を用いる。
Detection of the straight lines forming the rectangular frame 231' can be performed using various conventionally known methods, one of which is the known Hough transformation.

第5図は、矩形枠231′の4本の直線のうち、左側に
位置する縦線を検出するためのプログラム流れ図、第6
図はその説明図である。第6図で、式j=xsinθ+
ycosOが、求める直線の式であり1、jは原点0か
らの距離、θは直線の傾きを表わす。Hough変換方
式の特徴は、画像中の部分的な雑書情報に関係なく直線
を検出できることにある。この方式の概要を述べる。第
5図の流れ図において、ステップ523〜525で直流
上の1つの点の候補、例えば黒画素P1を探索し、次に
ステップ526〜530で、この点Ps を通る全ての
直線としてγ=xsinθ+y cosθにおけるγと
0との組を求め、更にステップ523〜531を繰返す
ことにより、頻度分布f(γ、θ)を求める。ここでf
 (γ、0)は、直線γ=xsinθ+y coso上
に位置する候補点の数を示す。例えば第6図では、点P
1〜P4を通る直線(j、θ)のf(γ、θ)に対して
は、f (γ、θ)の値はO〜2の小さい値となる。従
ってステップ532でf(γ、0)の値が最大となるγ
、0を求めることにより、最も多くの候補点で通る直線
のパラメータが得られる。同様にして、矩形枠231′
の右、上、下の各直線の方程式が求まる。
FIG. 5 is a program flowchart for detecting the vertical line located on the left among the four straight lines of the rectangular frame 231'.
The figure is an explanatory diagram thereof. In Figure 6, the formula j=xsinθ+
ycosO is the equation of the straight line to be found, 1, j is the distance from the origin 0, and θ is the slope of the straight line. A feature of the Hough conversion method is that straight lines can be detected regardless of partial miscellaneous information in the image. An overview of this method will be described below. In the flow chart of FIG. 5, in steps 523 to 525, one point candidate on the DC current, for example, black pixel P1, is searched, and then in steps 526 to 530, as all straight lines passing through this point Ps, γ = x sin θ + y cos θ The frequency distribution f(γ, θ) is determined by determining the set of γ and 0 in , and further repeating steps 523 to 531. Here f
(γ, 0) indicates the number of candidate points located on the straight line γ=xsinθ+ycoso. For example, in Figure 6, point P
For f (γ, θ) of the straight line (j, θ) passing through 1 to P4, the value of f (γ, θ) is a small value of O to 2. Therefore, in step 532, γ where the value of f(γ, 0) is maximum
, 0, the parameters of the straight line passing through the most candidate points can be obtained. Similarly, the rectangular frame 231'
Find the equations of the lines to the right, above, and below.

次に、矩形枠235′を利用して画像206全体を変換
して正規化する方法について述べる。
Next, a method of converting and normalizing the entire image 206 using the rectangular frame 235' will be described.

Hough変換によって、矩形枠を構成する4本の直線
の方程式が求まったので、これによって矩形枠の左上、
右上、左下、右下の各頂点を求め、左上頂点を原点とす
る座標系上に、それぞれ(0゜0) y  (Mll 
Nl) *  (Mal N2) +  (MllM2
゜N z + N 2)とする。また、原画像203上
の矩形枠231の4つの頂点の座標を(0,O)、(m
The equations of the four straight lines that make up the rectangular frame were found by Hough transformation, so the upper left of the rectangular frame,
Find the top right, bottom left, and bottom right vertices, and add (0°0) y (Mll
Nl) * (Mal N2) + (MllM2
゜N z + N 2). Also, the coordinates of the four vertices of the rectangular frame 231 on the original image 203 are (0, O), (m
.

0) 、(0,n) 、(m、n)とする。この時画像
206から画像207への変換は、 と表すことができる。ここに(x、y)は、画像206
の画素座標、(x、y)は画像207の画像座標である
。この式による変換は、たとえば上式と等価な式 によって(x、y)の各格子点すなわちXとYがともに
整数である各点に対して(x+y)を求めて、この座標
に最も近い画像の濃度を(x、y)の画素の濃度とする
ことによって実現する。例えば第7図において点Aを上
記変換式に従って変換する点aとなるが、この座標に最
も近い画素である点a′の濃度を点Aの濃度とする。
0) , (0, n) , (m, n). At this time, the conversion from image 206 to image 207 can be expressed as follows. Here (x, y) is the image 206
The pixel coordinates of (x, y) are the image coordinates of the image 207. Conversion using this formula is performed by calculating (x+y) for each grid point of (x, y), that is, for each point where both X and Y are integers, using a formula equivalent to the above formula, and then image the image closest to this coordinate. This is achieved by setting the density of the pixel at (x, y) to the density of the pixel (x, y). For example, in FIG. 7, point A is transformed into point a according to the above conversion formula, and the density of point a', which is the pixel closest to this coordinate, is taken as the density of point A.

以上は傾き・大きさの正規化用の記号として4本の線分
から構成する外枠を利用する実施例について説明したが
、これ以外にも、4隅に特徴点を付してマツチングをと
る方法、記号は特に付加せず原文書の特徴部分によりマ
ツチングをとる方法等でも実現できる。
The above has described an example in which an outer frame made up of four line segments is used as a symbol for normalizing the slope and size, but there are other methods to perform matching by attaching feature points to the four corners. , it can also be realized by a method of matching based on characteristic parts of the original document without adding any special symbols.

また以上はプリンタ2と画像入力装置1の画素密度の差
異による歪みは、線形であることを前提としたが、例え
ば画素入力装置1としてラインセンサをモータで駆動す
るタイプのイメージスキャすを用いると、駆動速度が駆
動開始・停止時と、定常駆動時とで異なり、一定でない
ため、非線形の歪みが生じることがある。この場合には
、矩形枠に代えて、例えば第8図に示すようなます目状
の枠231aや第9図に示すようなバーコード状の平行
線パターン231bを原画像203に描き、訂正画像2
06において複数の平行線により間隔の変化を検出し、
これをもとに、画像206を分割した小区画ごとに、上
記と同様な変換を施すことによって、精度の高い正規化
処理を実現することもできる。
Furthermore, the above description assumes that the distortion due to the difference in pixel density between the printer 2 and the image input device 1 is linear, but if an image scan type in which a line sensor is driven by a motor is used as the pixel input device 1, for example, Since the driving speed is different between when driving starts and stops and during steady driving, and is not constant, nonlinear distortion may occur. In this case, instead of a rectangular frame, for example, a square frame 231a as shown in FIG. 8 or a barcode-like parallel line pattern 231b as shown in FIG. 9 is drawn on the original image 203, and the corrected image is 2
06, a change in the interval is detected by a plurality of parallel lines,
Based on this, highly accurate normalization processing can be realized by performing the same transformation as above for each small section into which the image 206 is divided.

次に、第3図のステップ302で実行される画像の網点
化処理の詳細について、第10図と第11図により説明
する。
Next, details of the image halftone processing executed in step 302 in FIG. 3 will be explained with reference to FIGS. 10 and 11.

網点化処理は、黒画素が連続する領域で黒画素の間引き
を行ない、例えば第10図に示す4画素×4画素の領域
中で、特定位置にある互いに離散した2画素を残して、
他の全てを白画素に変換する処理である。今、与えられ
た画素(原画像)201および網点化画像203の左上
端の座標を原点として、右方向にX軸、下方向にy軸を
とり、画素間隔を「1」とし、原画像上の座標(x、y
)の画素がもつ濃度をOR(x、y)−網点化画像上の
座標(x、y)の画素がもつ濃度をOB (x。
In the halftone processing, black pixels are thinned out in a region where black pixels are continuous. For example, in the 4 pixel x 4 pixel region shown in FIG.
This process converts all other pixels to white pixels. Now, with the coordinates of the upper left corner of the given pixel (original image) 201 and halftone image 203 as the origin, the Coordinates above (x, y
) is OR (x, y) - the density of the pixel at coordinates (x, y) on the halftone image is OB (x.

y)と定義する。また、画素の濃度は2値で表わされ、
白または黒のいずれかの値をとるものと仮定する。
y). In addition, the density of a pixel is expressed as a binary value,
Assume that the value is either white or black.

第11図は、上記条件のもとに原画素を網点化処理する
プログラム、フローチャートの1例であり、先ず、ステ
ップ600で、OB (x + y )の全領域(x=
1〜Xm&。、y=1〜ymax) 、即ちメモリ領域
8を白画素に初期化しておく。ステップ602〜608
は、画像上の第1行目から順に、各行の絵素を順次に選
択する座標(x、y)のインクリメント処理を示してお
り、ステップ610で、座標(x、y)で特定される原
画像上の画素OR(x、y)が白か黒かをチエツクする
。もし、白画素であれば、判定ステップ618に進む。
FIG. 11 is an example of a flowchart of a program for halftone dotting processing of original pixels under the above conditions. First, in step 600, the entire area (x=
1~Xm&. , y=1 to ymax), that is, the memory area 8 is initialized to white pixels. Steps 602-608
shows the process of incrementing the coordinates (x, y) to sequentially select picture elements in each row starting from the first row on the image, and in step 610, the original specified by the coordinates (x, y) is Check whether pixel OR (x, y) on the image is white or black. If it is a white pixel, the process advances to decision step 618.

ステップ618でXが最大値Xmaxより小さいことが
判れば、ステップ608に戻ってXの値をインクリメン
トした後、次の画素について白、黒の判定を行ない、も
し、ステップ618でXが最大値Xmayに一致してい
た場合は、ステップ620でyの値が最大値’1waa
xより小さいか否かを判定する。yがMlll&Xに一
致していれば、このルーチンを終了し、V < ’I 
+uaxであれば、ステップ604に戻ってyの値をイ
ンクリメントし、次の行の第1画素について白、黒の判
定を行なう。OR(X +y)が黒の場合、ステップ6
12に進み、X座標。
If it is determined in step 618 that X is smaller than the maximum value Xmax, the process returns to step 608 and the value of X is incremented. If they match, the value of y is set to the maximum value '1waa' in step 620.
Determine whether it is smaller than x. If y matches Mllll&X, this routine is terminated and V <'I
If +uax, the process returns to step 604, increments the value of y, and determines whether the first pixel in the next row is white or black. If OR(X +y) is black, step 6
Proceed to step 12, X coordinate.

y座標の値を4で割った余りをそれぞれ変数Xmo++
+YIIodに代入する。次のステップ614は、0R
(x、y)と対応する網点化画像上の画素0B(x、y
)を黒にするか白にするかの判定ステップであり、この
実施例では、X−oa=1、且つ、Y−od=oの場合
、およびX−od=3、且つ、Yllod=2の場合、
すなわち、OB (x、y)が画像上の4×4画素の大
きさをもつ分割領域中で第10図の斜線の位置に該当す
る場合に、0B(x、y)=黒とする(ステップ116
)。上記2つの画素位置に該当しない場合は、何もせす
にステップ618に進み、前述の座標値判定の後、座標
値インクリメントからの繰り返し、またはルーチン終了
となる。
The remainder when the y coordinate value is divided by 4 is set as a variable Xmo++.
+YIIod. The next step 614 is 0R
Pixel 0B (x, y) on the halftone image corresponding to (x, y)
) is a determination step of whether to make it black or white, and in this example, when X-oa=1 and Y-od=o, and when X-od=3 and Yllod=2, case,
That is, when OB (x, y) corresponds to the diagonally shaded position in Fig. 10 in the divided area of 4 x 4 pixels on the image, 0B (x, y) is set to black (step 116
). If the pixel position does not correspond to the above two pixel positions, the process proceeds to step 618 without doing anything, and after the coordinate value determination described above, the process repeats from the coordinate value increment, or the routine ends.

第12図は、第4図のステップ354で実行される網点
消去処理の1実施例を示すプログラム・フローチャート
である。ここで、網点画像207上の座標(x、y)に
位置する画素濃度を0R(x、y)、網点消去画像20
8の座標(x、y)の画素濃度を0B(x、y)とし、
座標系を第10図と同様に定義するものとする。第12
図において、ステップ700〜708,718,720
では、第11図のステップ600〜608,618゜6
20と同様に2網点消去画像208の格納エリア(メモ
リ領域11)の初期化と、座標(x、y)値のインクリ
メント処理を行なっている。但し、このルーチンでは、
座標X+ yの初期値と最大値に定数nを加算、または
減算することにより、座標X+Yの可変範囲を枠231
′内に留め、これによりメモリ領域11に枠消去された
画像が得られるようにしている。ステップ710で、網
点画像0R(x、y)の画素が白か黒かを判定し、もし
白なら座標値Xの判定ステップ718に進む。
FIG. 12 is a program flowchart illustrating one embodiment of the dot erasure process executed in step 354 of FIG. Here, the pixel density located at the coordinates (x, y) on the halftone image 207 is set to 0R(x, y), and the halftone erased image 207
Let the pixel density at the coordinates (x, y) of 8 be 0B (x, y),
It is assumed that the coordinate system is defined in the same way as in FIG. 12th
In the figure, steps 700-708, 718, 720
Now, steps 600 to 608,618°6 in Figure 11.
Similarly to 20, the storage area (memory area 11) for the two-dot erased image 208 is initialized and the coordinate (x, y) values are incremented. However, in this routine,
By adding or subtracting a constant n to the initial value and maximum value of coordinates X+y, the variable range of coordinates
', so that an image with the frame erased can be obtained in the memory area 11. In step 710, it is determined whether the pixels of the halftone image 0R(x, y) are white or black, and if they are white, the process proceeds to step 718 for determining the coordinate value X.

0R(x*y)の画素が黒ならば、ステップ712で、
上下左右の隣接画素の濃度を判定し、もし全ての画素が
白ならば、OR(x+ y)が孤立した黒画素、即ち網
点画素であると判断し、ステップ718に進む。これに
よって、網点画素の消去が行なわれる。もし、上記隣接
4画素のうちの少なくとも1つが黒であれば、OR(X
I y)は隣接画素と共に訂正(追加)情報232の1
部を構成しているものと判断し、o B(x + y 
)を黒画素にして、判定ステップ718に進む。
If the pixel of 0R(x*y) is black, in step 712,
The density of adjacent pixels on the upper, lower, left, and right sides is determined, and if all pixels are white, it is determined that OR(x+y) is an isolated black pixel, that is, a halftone dot pixel, and the process proceeds to step 718. As a result, the halftone dot pixels are erased. If at least one of the four adjacent pixels is black, then OR(X
Iy) is 1 of the correction (additional) information 232 along with the adjacent pixels
o B(x + y
) is made a black pixel and the process proceeds to decision step 718.

以上の第11図、第12図の実施例では、網点を1個の
孤立画素で構成したが、訂正用紙上で原情報をもつと鮮
明に印刷したい場合は、各網点の構成画素を増やし、例
えば、隣接する2部2個の黒画素が市松模様配置、また
は1画素また2画素間隔で離散配置されるようにすれば
よい。このような変形は、第11図のステップ614と
、第12図のステップ712の内容の多少の変更で容易
に実現できる。
In the embodiments shown in FIGS. 11 and 12 above, the halftone dots are composed of one isolated pixel, but if you want to print clearly on the correction paper with the original information, the constituent pixels of each halftone dot can be For example, two adjacent black pixels may be arranged in a checkered pattern or discretely arranged at one or two pixel intervals. Such a modification can be easily realized by slightly changing the contents of step 614 in FIG. 11 and step 712 in FIG. 12.

第13図は、画像208と201とを合成して新たな画
像210を作り出す第4図の合成ステップ358の1実
施例を示すフローチャートである。
FIG. 13 is a flowchart illustrating one embodiment of the combining step 358 of FIG. 4 by combining images 208 and 201 to create a new image 210.

ここで、原画像201の画素をOR(x+ y)、訂正
部分画像208の画素をAD (x r y) 、訂正
済みの新画像210の画素をOB (x y y )と
し、座標(x、y)は、第10図と同様に定義するもの
とする。第13図で、ステップ800〜808.818
,820は、第11図の場合と同様であり、この実施例
では、最初に新画像エリアOB (x + y)を全て
白画素の状態にしておき、ステップ812でOR(x 
+ y )とA D (x + y)の状態をチエツク
し、少なくとも一方が黒画素の場合に、ステップ814
でOB (x + y )を黒画素にするようにしてい
る。
Here, the pixels of the original image 201 are OR (x+y), the pixels of the corrected partial image 208 are AD (x ry), the pixels of the corrected new image 210 are OB (x y y), and the coordinates (x, y) shall be defined in the same way as in FIG. In FIG. 13, steps 800-808.818
, 820 are the same as in the case of FIG.
+y) and AD(x+y), and if at least one is a black pixel, step 814
OB (x + y) is made to be a black pixel.

次に、既に登録されている画像情報の1部を削除する実
施例について、第14図を参照して説明する。第14図
は、互いに対応する画像が第2図と同一の符号を付して
示しており、この例では、ファイル3に登録された原画
像201が情報230aと230bを含み、そのうちの
情報230aを削除する場合を示している。ファイル3
から原画像201を読み出し、これを網点化処理して枠
付きでプリント・アウトするまでの処理は、前述の画像
情報を追記する実施例と同様である。既登録画像201
の1部を削除した新たな画像を得たい場合、本実施例で
は、訂正用紙205上で削除対象となる部分、即ち、網
点化して出力された情報部分230a’ を特定するた
めに、この部分を取り囲む形でマーク233を記入し、
これを画像入力装置により入力する。入力された訂正画
像206を、枠231を基準に傾き補正と正規化処理し
、前述の網点消去処理を施こすことにより、マーク23
3′だけを残した訂正部分画像208が得られる。追加
訂正の場合は、訂正部分画像208と原画像201とを
単に論理和をとる形で合成したが、キーボード6から削
除訂正の指定があった場合は、囲みマーク233′の内
部領域と対応する原画像201上の画素を全て白画像に
置換する形の合成処理が必要となる。上記合成処理は、
先ず、第4図のステップ404と406との間に、囲み
マーク233′の内部に位置する画素を全て黒画素に置
き換えるルーチンを挿入し、削除訂正の場合は、このル
ーチンが実行されるようにする。黒画素への置換は1画
像208を1行ずつ走査し、走査線(行)上に黒画素が
現われた場合、これと対をなす次の黒画素が現われる迄
、後続の白画素を次々と黒画素に変換する動作を繰り返
せばよい。
Next, an example of deleting a part of already registered image information will be described with reference to FIG. 14. In FIG. 14, mutually corresponding images are shown with the same reference numerals as in FIG. 2. In this example, the original image 201 registered in file 3 includes information 230a and 230b, of which Shows when to delete. File 3
The process of reading out the original image 201 from , subjecting it to halftone processing, and printing it out with a frame is similar to the above-described embodiment in which image information is added. Already registered image 201
In this embodiment, in order to specify the part to be deleted on the correction sheet 205, that is, the information part 230a' that has been halftoned and output, Mark 233 is written surrounding the part,
This is input using an image input device. The input corrected image 206 is subjected to tilt correction and normalization processing using the frame 231 as a reference, and the above-mentioned halftone dot erasure processing is applied to the mark 23.
A corrected partial image 208 with only 3' left is obtained. In the case of additional correction, the corrected partial image 208 and the original image 201 are combined by simply calculating the logical sum, but when deletion correction is specified from the keyboard 6, the corrected partial image 208 and the original image 201 are combined by simply calculating the logical sum. A compositing process is required to replace all pixels on the original image 201 with a white image. The above synthesis process is
First, a routine is inserted between steps 404 and 406 in FIG. 4 to replace all pixels located inside the enclosing mark 233' with black pixels, and in the case of deletion/correction, this routine is executed. do. To replace black pixels, one image 208 is scanned line by line, and when a black pixel appears on a scanning line (row), subsequent white pixels are replaced one after another until the next black pixel that pairs with it appears. It is sufficient to repeat the operation of converting to black pixels.

また、第4図の合成ステップ358を示す第13図のル
ーチンにおいて、ステップ812と並列に、’OR(x
+ y)=白、またはAD (Xl y)=黒」の場合
にステップ818に抜けるようにした判定ステップ81
2′を設け、削除処理の場合にはステップ812′の判
定結果が「N○」のときにステップ814が実行される
ようにすればよい。
Also, in the routine of FIG. 13 showing the synthesis step 358 of FIG. 4, 'OR(x
+ y) = white, or AD (Xl y) = black”, the determination step 81 is configured to skip to step 818.
2', and in the case of deletion processing, step 814 may be executed when the determination result of step 812' is "N○".

以上の実施例では、説明の簡単化のために、メモリ領域
7〜12を別々に設けたが、例えば画像203.206
,208は同一メモリ領域、画像207と210とは同
一メモリ領域を共用できるため、実用上はより少ないメ
モリ領域で画像訂正処理を実現できる。
In the above embodiment, the memory areas 7 to 12 are provided separately for the sake of simplicity.
, 208 can share the same memory area, and the images 207 and 210 can share the same memory area. Therefore, in practice, image correction processing can be realized with a smaller memory area.

上記実施例の変形例として、次のような実施形態がある
As a modification of the above embodiment, there are the following embodiments.

第1の変形例は、第1図における画像入力装置1をカラ
ー・イメージ・スキャナやカラー撮像管などのカラー画
像入力装置に置き換え、プリンタ2にカラープリンタを
適用した画像ファイルシステムである。このようにカラ
ー画像を入出力できるようにした場合、第1実施例で網
点化して出力した第2図の原画230′の代りに特定の
色、例えば青色で印刷した画像を出力し、加筆情報(訂
正情報)232を上記特定色以外の色で記入するように
する。このようにすれば、第4図のステップ354にお
ける網点消去を、上記特定色の情報消去に置き換えるこ
とにより、加筆情報のみを抽出することができる。特定
色の情報消去は、画像入力袋W1に上記特定色を除去す
る色フィルタを取りつけることによっても実現できる。
The first modification is an image file system in which the image input device 1 in FIG. 1 is replaced with a color image input device such as a color image scanner or a color image pickup tube, and a color printer is applied as the printer 2. When it is possible to input and output color images in this way, an image printed in a specific color, for example, blue, is output in place of the original image 230' in FIG. The information (correction information) 232 is written in a color other than the above-mentioned specific color. In this way, only the additional information can be extracted by replacing the halftone dot erasure in step 354 of FIG. 4 with the information erasure of the specific color. Deletion of information on a specific color can also be realized by attaching a color filter for removing the specific color to the image input bag W1.

この場合、基準枠231は非特定色とし、その後の位置
補正に用いられるようにする。
In this case, the reference frame 231 is a non-specific color and is used for subsequent position correction.

また、第2の変形例として、第1変形例とは逆に、原画
230′は通常の黒色で出力し、これに加筆情報232
を特定色で書き加え、読み取られた画像情報の中から上
記特定色の情報のみを取り出すことにより、加筆情報2
32′のみを含む画像データ208を得るようにしても
よい。この場合、加筆情報208を原画像データ230
と合成する前に、情報232′に色変換の処理を施し、
合成画像210が同一の色、例えば黒色の情報をもつよ
うにする。このような色変換は、既に確立された技術で
あり、加筆情報の色はユーザが任意に選択できる。
In addition, as a second modification example, contrary to the first modification example, the original image 230' is output in normal black color, and the additional information 230' is outputted in normal black color.
By adding information in a specific color and extracting only the information of the specific color from the read image information, added information 2
It is also possible to obtain image data 208 that includes only 32'. In this case, the additional information 208 is added to the original image data 230.
Before compositing with the information 232', color conversion processing is performed on the information 232',
The composite image 210 is made to have information of the same color, for example, black. Such color conversion is an already established technique, and the color of the additional information can be arbitrarily selected by the user.

第15図は本発明の第2の実施例を示す。この実施例は
第1図の画像ファイル・システムにおいては、手書き入
力文字によるコマンドの判定機能を付加した例である。
FIG. 15 shows a second embodiment of the invention. This embodiment is an example of the image file system shown in FIG. 1 in which a function for determining commands based on handwritten input characters is added.

第15図は、前述した第2図のステップ207〜210
に置き換わる部分を示している。
FIG. 15 shows steps 207 to 210 in FIG. 2 described above.
Indicates the part to be replaced with.

第15図における画像データ207は、網点化された原
画像を印刷した紙面上に手書きコマンドを含む加筆が行
った後、画像入力装置から入力した画像の傾き・大きさ
を正規化したものであり、情報250以外はすべて第2
図及び第14図に示したものと同一である。情報250
が手書きコマンドである。画像データ207−2は、画
像データ207から網点と矩形枠を除去したものである
The image data 207 in FIG. 15 is obtained by normalizing the tilt and size of the image input from the image input device after additions including handwritten commands have been made on the paper on which the halftone original image is printed. Yes, everything except information 250 is 2nd
It is the same as that shown in FIG. Information 250
is a handwritten command. Image data 207-2 is obtained by removing halftone dots and rectangular frames from image data 207.

画像データ208−1は、画像データ207−2からコ
マンド情報250の文字認識と単語の意味認識を行った
後、コマンド情報250と、加筆部分233′を除去し
たもので、画像データ208−2はコマンド情報250
と加筆部分232′を除去したものである。画像データ
210は原画像データ200と画像データ280−1と
画像データ280−2の合成によって得られた修正画像
を示す。本実施例においては、説明の簡m化のため囲み
233′内の画像を除去することを指示する手書きコマ
ンドを文字列「トル」で与え、手書きコマンドがない加
筆部分は追記すべき情報として扱うようにした例である
が、手書きコマンドの種類と数は任意に設定できること
明らかである。
The image data 208-1 is obtained by removing the command information 250 and the added portion 233' after character recognition and word meaning recognition of the command information 250 are performed on the image data 207-2. Command information 250
and the added portion 232' have been removed. Image data 210 indicates a modified image obtained by combining the original image data 200, image data 280-1, and image data 280-2. In this embodiment, in order to simplify the explanation, a handwritten command instructing to delete the image in the box 233' is given as a character string "toru", and the added portion without the handwritten command is treated as information to be added. Although this is an example, it is clear that the type and number of handwritten commands can be set arbitrarily.

第16図は上記手書きコマンドを用いる場合の訂正画像
の再登録処理の流れ図であり、前述した第4図に対応す
る。ステップ357と358′以外の処理ステップは第
4図と同一内容を示す。ステップ357では手書きコマ
ンドの文字認識・単語照合を行う。これには従来公知例
が数多くあるため、それを用いるものとする。次にステ
ップ358′は、ステップ357で認識したコマンドに
従って、画像の追記または削除のいずれかの合成処理を
行なう。合成処理がコマンドに従う以外は第4図のステ
ップ358と同一である。
FIG. 16 is a flowchart of the corrected image re-registration process when the handwritten command is used, and corresponds to FIG. 4 described above. Processing steps other than steps 357 and 358' are the same as in FIG. 4. In step 357, character recognition and word matching of the handwritten command are performed. Since there are many conventionally known examples for this, we will use them. Next, in step 358', according to the command recognized in step 357, a composition process of adding or deleting the image is performed. This step is the same as step 358 in FIG. 4 except that the compositing process follows the command.

第17図は本発明の第3の実施例を示す。この実施例は
、第1図の画像ファイル・システムにおいて、原画像デ
ータ201から203を作成する段階で、再登録情報と
して矩形枠231の他に文字列245および(または)
バーコード240を自動的に出力するようにしたもので
ある。245と240は原画像201の検索キーに相当
する。
FIG. 17 shows a third embodiment of the invention. In this embodiment, in the image file system shown in FIG. 1, at the stage of creating original image data 201 to 203, in addition to the rectangular frame 231, a character string 245 and/or
The barcode 240 is automatically output. 245 and 240 correspond to search keys for the original image 201.

用紙204を出力した後、−旦システムの電源を切断し
、再度システムを稼動した場合、用紙204に検索キー
が印刷してあれば、再入力された用紙から読み取った検
索キーに基づいて原画像201を自動的に読み出すこと
ができる。
After outputting the paper 204, if the power to the system is turned off and then restarted, if a search key is printed on the paper 204, the original image will be displayed based on the search key read from the re-entered paper. 201 can be read automatically.

上記検索キーの自動読取りのためには、第3図のステッ
プ304に文字又はバーコードの出力動作を付加するこ
と、第4図のステップ352と354との間に入力画像
から上記文字またはバーコードを認識するルーチンを設
けること、ステップ356における原画像検索を上記認
識された検索キーに基づいて行なうように変更すればよ
い。
In order to automatically read the search key, it is necessary to add a character or barcode output operation to step 304 in FIG. 3, and to output the character or barcode from the input image between steps 352 and 354 in FIG. What is necessary is to provide a routine that recognizes the search key, and change the original image search in step 356 to be performed based on the recognized search key.

以上の実施例は、画像ファイル・システムへの本発明の
詳細な説明したが、本発明は、第1図と基本的に同一の
要素からなるワークステーションに対しても、第1実施
例と同様に適用できる。
Although the above embodiment is a detailed explanation of the present invention for an image file system, the present invention can also be applied to a workstation consisting of basically the same elements as in FIG. Applicable to

ワークステーションの場合には、ファイル3として、光
ディスクの代りに磁気ディスクを適用できる。
In the case of a workstation, a magnetic disk can be used as the file 3 instead of an optical disk.

次に本発明の第4の実施例として、本発明をメモリ機能
付きのコピー・システムに適用した例について説明する
Next, as a fourth embodiment of the present invention, an example in which the present invention is applied to a copy system with a memory function will be described.

第18図はコピー・システムの全体構成図であり、第1
図に示した画像ファイル・システムからファイル3を省
いたものと基本的には同一の構成要素からなる。
Figure 18 is an overall configuration diagram of the copy system.
It basically consists of the same components as the image file system shown in the figure except that file 3 is omitted.

第19図は上記コピー・システムを用いて行なう本発明
による画像入力、入力画像の訂正、および訂正画像の出
力の過程を模式的に示した図である。
FIG. 19 is a diagram schematically showing the process of inputting an image, correcting the input image, and outputting the corrected image according to the present invention using the above copy system.

図において、200は情報230(この例では文字A)
を有する紙面であり、この紙面200を画像入力装置1
により読み取り、原画像データ201としてメモリ7に
ストアする。上記原画像の一部を修正、例えば加筆訂正
したい場合、第1実施例と同様に、情報230を網点化
し、これに位置合のための枠231を付加した画像デー
タ203を作成し、これを訂正のための原稿用紙204
として、プリンタ2により出力する。原稿用紙204に
対して加筆訂正を加えること、これを再度画像入力装置
1から入力すること、傾きを補正し、網点情報を消去し
てから原画像と合成し、訂正された画像データ210を
得るまでの手順は第1実施例と同様である。本実施例の
場合、訂正された画像データ210は、プリンタ2によ
り用紙220として出力される。
In the figure, 200 is information 230 (letter A in this example)
This paper surface 200 is input to the image input device 1.
is read and stored in the memory 7 as original image data 201. When it is desired to modify a part of the original image, for example, to make additional corrections, the information 230 is converted into halftone dots, and a frame 231 for alignment is added thereto to create image data 203, as in the first embodiment. Manuscript paper 204 for correcting
The printer 2 outputs the data as follows. Additions and corrections are made to the manuscript paper 204, this is inputted again from the image input device 1, the tilt is corrected, halftone information is erased, and the corrected image data 210 is combined with the original image. The procedure to obtain it is the same as in the first embodiment. In the case of this embodiment, the corrected image data 210 is output by the printer 2 as a paper 220.

第20図は、上述したコピー・システムにおける画像訂
正のための原稿用紙の出力処理を示すフローチャートを
示す。ステップ1300は、画像入力装W(イメージ・
スキャナ)1から原画像を読み取ってメモリ7に格納す
るステップ、1302は、原画像230を網点化するス
テップ、13o4は枠形等の再入力用情報231を付加
するステップ、1306は枠付き画像203を印刷して
訂正用紙204を得るステップであり、1302〜13
o6はそれぞれ第1実施例(第3図)のステップ302
〜306に対応する。
FIG. 20 is a flowchart showing the process of outputting original paper for image correction in the above-described copying system. Step 1300 is an image input device W (image input device W).
1302 is a step of halftone dotting the original image 230; 13o4 is a step of adding re-input information 231 such as a frame shape; 1306 is a frame image This is a step of printing 203 to obtain a correction sheet 204, and 1302 to 13
o6 is step 302 of the first embodiment (FIG. 3), respectively.
- Corresponds to 306.

第21図は、訂正画像の出力処理の流れ図であり、13
50は訂正用紙204に訂正部用を加筆して得た紙面2
05を画像入力装置1がら入力して画像206を得るス
テップ、1352は画像206の傾きと大きさを正規化
で画像207を得るステップ、1354は画像207の
網点と矩形枠を消去して訂正部分画像208を得るステ
ップ、1358は訂正部分画像208と原画像201を
合成して訂正済画像210を得るステップ、1370は
上記合成画像210を出力するステップである。
FIG. 21 is a flowchart of the corrected image output processing, and 13
50 is the paper page 2 obtained by adding the information for the correction department to the correction form 204.
Step 1352 is a step of normalizing the inclination and size of image 206 to obtain image 207. Step 1354 is correction by erasing the halftone dots and rectangular frame of image 207. 1358 is a step of combining the corrected partial image 208 and the original image 201 to obtain a corrected image 210; 1370 is a step of outputting the composite image 210.

これらのステップ1350〜1358は、第1実施例(
第4図)のステップ350,352,354゜358と
それぞれ対応し、第1実施例で説明した方法により行な
われる。
These steps 1350 to 1358 are performed in the first embodiment (
These correspond to steps 350, 352, 354 and 358 in FIG. 4), respectively, and are carried out by the method described in the first embodiment.

第22図は、コピー・システムで一旦読み取られた画像
の1部を削除する場合の処理を示す。原画像201が画
像入力装置1から入力された原紙200から得られたも
のであること、および、訂正された画像211がプリン
タ2から用紙220として出力される点を除いて、処理
内容は第1実施例(第14図)と同様である。
FIG. 22 shows a process for deleting a part of an image once read by the copy system. The processing content is the same as the first one, except that the original image 201 is obtained from the original paper 200 input from the image input device 1, and the corrected image 211 is output as the paper 220 from the printer 2. This is the same as the embodiment (FIG. 14).

第23図は、本発明を画像メモリ機能付きのファクシミ
リに適用した第5の実施例を示す。上記ファクシミリは
、機能的に第1図の画像ファイル・システムからファイ
ル3と表示装置4を省き、代りに通信制御装置14を設
けた構造となっている。ファクシミリの場合は、画像入
力装置1から入力された画像データの他に、通信回線を
介して受信された画像データをプリンタ出力と並行して
メモリ7にストアし、このストアされた画像データに対
して、第19図、第20図で説明したと同様の形で訂正
処理できる点が他の実施例と異なる。
FIG. 23 shows a fifth embodiment in which the present invention is applied to a facsimile with an image memory function. Functionally, the facsimile described above has a structure in which the file 3 and display device 4 are omitted from the image file system shown in FIG. 1, and a communication control device 14 is provided in their place. In the case of facsimile, in addition to the image data input from the image input device 1, image data received via the communication line is stored in the memory 7 in parallel with printer output, and the stored image data is This embodiment differs from other embodiments in that correction processing can be performed in the same manner as explained in FIGS. 19 and 20.

以上、本発明の幾つかの実施例、変形例について説明し
たが、本発明はこれらの実施例に限定されるものではな
く、例えば第1実施例の変形例として説明した方法を他
の実施例に適用するなど、更に他の変形を可能とするも
のである。
Although several embodiments and modifications of the present invention have been described above, the present invention is not limited to these embodiments. For example, the method described as a modification of the first embodiment may be applied to other embodiments. Other modifications are possible, such as application to

〔発明の効果〕〔Effect of the invention〕

以上の説明から明らかな如く、本発明によれば、メモリ
又はファイルに格納された画像データを一旦印刷して訂
正し、これを再入力する場合に、新たに加筆した情報の
みを容易に抽出できるので、加筆部分以外の原画像部分
の画質が劣化しないという効果がある。
As is clear from the above description, according to the present invention, only newly added information can be easily extracted when image data stored in a memory or file is once printed, corrected, and then re-inputted. Therefore, there is an effect that the image quality of the original image portion other than the added portion does not deteriorate.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明を実施する画像ファイル・システムの1
例を示すブロック図、第2図は原画像の初期登録から訂
正画像の再登録までの過程を模式的に示した図、第3図
は訂正用紙の印刷手順を示す流れ図、第4図は訂正画像
と原画像を合成する手順を示す流れ図、第5図は画像中
の直線検出の手順を示すプログラム流れ図、第6図は第
5図に関連する直線検出説明図、第7図は訂正画像の正
規化の説明図、第8図と第9図は画像訂正に用いる矩形
枠の変形例を示す図、第10図と第11図は画像の網点
化処理を説明するための画素配列図およびプログラム流
れ図、第12図は画像の網点消去処理を示すプログラム
流れ図、第13図は原画像と訂正部分画像の合成処理の
プログラム流れ図、第14図は削除訂正の場合の模式図
、第15図は本発明の第2の実施例における画像訂正の
過程を説明するための図、第16図は第2実施例におけ
る訂正画像の再登録処理の手順を示すフローチャート、
第17図は本発明の第3の実施例における画像訂正の過
程を説明するための図、第18図は本発明の第4の実施
例であるコピー・システムの全体構成図、第19図は上
記第4実施例における画像訂正の過程を説明するための
図、第20図と第21図は第4実施例における訂正用紙
の出力手順および訂正画像と原画像との合成の手順を示
すフローチャート、第22図は第4実施例における削除
訂正の場合の模式図、第23図は本発明の第5実施例で
あるファクシミリの構成図である。 1・・・画像入力装置、2・・・プリンタ、3・・・光
ディスク、4・・・表示装置、5・・・処理装置、6・
・・キーボード、7〜12・・・メモリ。
Figure 1 shows one of the image file systems implementing the present invention.
A block diagram showing an example, Fig. 2 is a diagram schematically showing the process from initial registration of the original image to re-registration of the corrected image, Fig. 3 is a flow chart showing the procedure for printing a correction sheet, and Fig. 4 is a correction Figure 5 is a flowchart showing the procedure for compositing an image and the original image, Figure 5 is a program flowchart showing the procedure for detecting a straight line in an image, Figure 6 is an explanatory diagram of straight line detection related to Figure 5, and Figure 7 is a diagram of the corrected image. An explanatory diagram of normalization, Figures 8 and 9 are diagrams showing modified examples of rectangular frames used for image correction, and Figures 10 and 11 are pixel array diagrams and diagrams for explaining image halftone processing. Program flowchart: Figure 12 is a program flowchart showing halftone deletion processing of an image; Figure 13 is a program flowchart of compositing processing of the original image and corrected partial image; Figure 14 is a schematic diagram for deletion/correction; Figure 15. is a diagram for explaining the process of image correction in the second embodiment of the present invention, and FIG. 16 is a flowchart showing the procedure of re-registration processing of a corrected image in the second embodiment.
FIG. 17 is a diagram for explaining the image correction process in the third embodiment of the present invention, FIG. 18 is an overall configuration diagram of a copy system according to the fourth embodiment of the present invention, and FIG. 19 is a diagram for explaining the image correction process in the third embodiment of the present invention. A diagram for explaining the process of image correction in the fourth embodiment, FIGS. 20 and 21 are flowcharts showing the procedure for outputting a correction sheet and the procedure for combining the corrected image and the original image in the fourth embodiment, FIG. 22 is a schematic diagram of deletion/correction in the fourth embodiment, and FIG. 23 is a configuration diagram of a facsimile according to the fifth embodiment of the present invention. DESCRIPTION OF SYMBOLS 1... Image input device, 2... Printer, 3... Optical disk, 4... Display device, 5... Processing device, 6...
...Keyboard, 7-12...Memory.

Claims (1)

【特許請求の範囲】 1、文書情報を第1の画像データとして格納するための
メモリ手段と、上記第1の画像データに第1の変換処理
を施して得られる原稿情報を訂正用紙上に出力する第1
手段と、新たに訂正情報が加えられた上記訂正用紙上の
情報を第2の画像データとして読取るための第2手段と
、上記第2の画像データに第2の変換処理を施すことに
より、上記原稿情報を除去した第3の画像データに変換
する第3手段、上記第3の画像データと上記第1の画像
データとに基づいて訂正された画像データを合成する第
4手段とからなることを特徴とする画像処理システム。 2、第1請求項記載の画像処理システムにおいて、更に
、訂正の種類を指定するための手段を有し、該指定手段
により削除訂正が指定された場合、前記第4手段が、前
記第3の画像データ中に含まれる削除領域指定情報と対
応する前記第1画像データ中の部分領域の情報を除去し
た形で、前記訂正画像データを合成することを特徴とす
る画像処理システム。3、前記第1手段が、前記訂正用
紙上に所定の位置決めマークと共に前記原稿情報を出力
し、前記第3手段が、前記第2の画像データ中に含まれ
る上記位置決めマークに基づいて、該第2の画像データ
を補正した後、前記第2の変換処理を行なうことを特徴
とする第1請求項または第2請求項記載の画像処理シス
テム。 4、前記メモリが複数ページ分の文書情報を格納できる
メモリ容量を有し、上記メモリから検索された第1画像
データを対象として、前記第1、第4手段が処理動作す
ることを特徴とする第1請求項〜第3請求項のいずれか
に記載の画像処理システム。 5、前記訂正画像データを前記メモリに書込むための手
段を備えたことを特徴とする第4項記載の画像処理シス
テム。 6、訂正対象となる電子化された第1の画像データに第
1の変換処理を施して、訂正用紙上に原稿情報として出
力する第1のステップと、 上記訂正用紙に訂正情報を加え、該訂正用紙上の情報を
第2の画像データとして入力する第2のステツプと、 上記第2の画像データに第2の変換処理を施し、上記原
稿情報を除去した第3の画像データを作成する第3のス
テップと、 上記第1の画像データと第3の画像データとから、該第
3の画像データの内容を部分的に訂正した第4の画像デ
ータを作る第4のステップと、 を有することを特徴とする画像データの訂正方法。 7、前記第1のステップで、前記訂正用紙上に前記原稿
情報と共に所定のマーク情報を出力し、前記第3ステッ
プで、前記第2の画像データ通に含まれるマーク情報に
基づいて該第2の画像の位置補正を行なうようにしたこ
とを特徴とする第6請求項記載の画像データの訂正方法
。 8、前記第3ステップで、前記マーク情報に基づいて前
記第2の画像の大きさも補正することを特徴とする第7
請求項記載の画像データの訂正方法。 9、前記第1の変換処理装置は、前記第1の画像データ
からなる画像情報を網点化するものであり、前記第2の
変換処理は、前記第2の画像データに含まれる網点化情
報を除去し、非網点情報のみを残すものであることを特
徴とする第6請求項〜第8請求項のいずれかの画像デー
タの訂正方法。 10、前記第1ステップで、前記第1の画像データを特
定の色で訂正用紙上に出力し、前記訂正情報を上記特定
色とは別の色により記入し、前記第3ステップで上記特
定色の原稿情報を除去するようにしたことを特徴とする
第6請求項〜第8請求項のいずれかに記載の画像データ
の訂正方法。 11、前記訂正情報を前記訂正用紙上で原稿情報と区別
できる性質の特定の記録材料を用いて記入し、前記第3
ステップで前記性質の差に基づいて、原稿情報を除去す
るようにしたことを特徴とする第6請求項〜第8請求項
のいずれかに記載の画像データ訂正方法。 12、前記訂正情報が所定領域内の原稿情報を削除する
ことを指示する記号を含み、前記第4ステップで、上記
記号に基づいて上記領域に対応する第1の画像データの
一部を削除した形の第4の画像データを作るようにした
ことを特徴とする第6請求項〜第11請求項のいずれか
に記載の画像データの訂正方法。 13、複数の画像データを格納するためのファイル手段
を有し、上記ファイル手段から検索された第1の画像デ
ータに対して前記第1、第4ステップが実行されること
を特徴とする第6請求項〜第12請求項のいずれかに記
載の画像データ訂正方法。 14、複数の画像データを格納するためのファイル手段
を有し、前記第4ステップで得られた第4の画像データ
を上記ファイル手段に登録する第5のステップを有する
ことを特徴とする第6請求項〜第13請求項のいずれか
に記載の画像データ訂正方法。 15、前記第1ステップで前記原稿情報と共に第1の画
像データを検索するためのコード情報を訂正用紙上に出
力し、前記第4ステップで上記コード情報に基づいて前
記ファイル手段から第1の画像データを読み出し、該第
1の画像データと前記第3の画像データとから第4の画
像データを得ることを特徴とする第13請求項記載の画
像データの訂正方法。
[Claims] 1. A memory means for storing document information as first image data, and outputting original information obtained by performing a first conversion process on the first image data on a correction sheet. First thing to do
and a second means for reading the information on the correction sheet to which new correction information has been added as second image data, and performing a second conversion process on the second image data. A third means for converting into third image data from which original information has been removed; and a fourth means for synthesizing corrected image data based on the third image data and the first image data. Featured image processing system. 2. The image processing system according to claim 1, further comprising means for specifying the type of correction, and when deletion correction is specified by the specifying means, the fourth means An image processing system characterized in that the corrected image data is synthesized in a form in which information on a partial area in the first image data corresponding to deletion area designation information included in the image data is removed. 3. The first means outputs the document information together with a predetermined positioning mark on the correction paper, and the third means outputs the document information together with a predetermined positioning mark included in the second image data. 3. The image processing system according to claim 1, wherein the second conversion process is performed after correcting the second image data. 4. The memory has a memory capacity capable of storing document information for a plurality of pages, and the first and fourth means operate on the first image data retrieved from the memory. An image processing system according to any one of claims 1 to 3. 5. The image processing system according to item 4, further comprising means for writing the corrected image data into the memory. 6. A first step of performing a first conversion process on the digitized first image data to be corrected and outputting it as manuscript information on a correction sheet, and adding correction information to the correction sheet and a second step of inputting the information on the correction sheet as second image data; and a second step of performing a second conversion process on the second image data to create third image data from which the original information has been removed. and a fourth step of creating fourth image data in which the content of the third image data is partially corrected from the first image data and the third image data. A method for correcting image data, characterized by: 7. In the first step, predetermined mark information is output together with the original information on the correction sheet, and in the third step, the second image data is output based on the mark information included in the second image data. 7. The image data correction method according to claim 6, wherein the position of the image is corrected. 8. In the third step, the size of the second image is also corrected based on the mark information.
A method for correcting image data as claimed. 9. The first conversion processing device halftones the image information consisting of the first image data, and the second conversion process halftones the image information included in the second image data. 9. The image data correction method according to claim 6, wherein information is removed and only non-halftone dot information is left. 10. In the first step, output the first image data on a correction sheet in a specific color, write the correction information in a color different from the specific color, and in the third step, output the first image data in a specific color on a correction paper. The image data correction method according to any one of claims 6 to 8, characterized in that original information of the image data is removed. 11. Enter the correction information on the correction sheet using a specific recording material that can be distinguished from the manuscript information, and
The image data correction method according to any one of claims 6 to 8, characterized in that in the step, document information is removed based on the difference in properties. 12. The correction information includes a symbol instructing to delete document information within a predetermined area, and in the fourth step, a part of the first image data corresponding to the area is deleted based on the symbol. The image data correction method according to any one of claims 6 to 11, characterized in that the fourth image data of a shape is created. 13. A sixth aspect characterized in that it has a file means for storing a plurality of image data, and the first and fourth steps are executed on the first image data retrieved from the file means. An image data correction method according to any one of claims to 12. 14. A sixth aspect characterized in that it has a file means for storing a plurality of image data, and has a fifth step of registering the fourth image data obtained in the fourth step in the file means. An image data correction method according to any one of claims to 13. 15. In the first step, code information for searching the first image data is output together with the original information on a correction sheet, and in the fourth step, the first image is output from the file means based on the code information. 14. The image data correction method according to claim 13, further comprising reading the data and obtaining fourth image data from the first image data and the third image data.
JP4296989A 1988-04-22 1989-02-27 Picture processing system and picture data correcting method Pending JPH0228771A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4296989A JPH0228771A (en) 1988-04-22 1989-02-27 Picture processing system and picture data correcting method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP63-98107 1988-04-22
JP9810788 1988-04-22
JP4296989A JPH0228771A (en) 1988-04-22 1989-02-27 Picture processing system and picture data correcting method

Publications (1)

Publication Number Publication Date
JPH0228771A true JPH0228771A (en) 1990-01-30

Family

ID=26382707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4296989A Pending JPH0228771A (en) 1988-04-22 1989-02-27 Picture processing system and picture data correcting method

Country Status (1)

Country Link
JP (1) JPH0228771A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289110B2 (en) 2000-07-17 2007-10-30 Human Messaging Ab Method and arrangement for identifying and processing commands in digital images, where the user marks the command, for example by encircling it
US7453594B2 (en) 2001-07-11 2008-11-18 Ricoh Company, Ltd. Document filing apparatus for storing information added to a document file

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289110B2 (en) 2000-07-17 2007-10-30 Human Messaging Ab Method and arrangement for identifying and processing commands in digital images, where the user marks the command, for example by encircling it
US7453594B2 (en) 2001-07-11 2008-11-18 Ricoh Company, Ltd. Document filing apparatus for storing information added to a document file

Similar Documents

Publication Publication Date Title
US4985930A (en) Image data filing system and image data correcting method
US7454060B2 (en) Image processor for character recognition
EP0736999B1 (en) Method and apparatus for scanning a document
US6072941A (en) Image processing apparatus and method which classifies images according to attributes
US8320683B2 (en) Image processing method, image processing apparatus, image reading apparatus, and image forming apparatus
JP2930612B2 (en) Image forming device
US7596271B2 (en) Image processing system and image processing method
US7532757B2 (en) Image processing apparatus, control method therefor, and program
US5301037A (en) Resolution conversion with simulated multi-bit gray
US8265345B2 (en) Image processing method, image processing apparatus, image forming apparatus, and image reading apparatus
JPH08307618A (en) Image recorder
US5592574A (en) Method and apparatus for expansion of white space in document images on a digital scanning device
JPH0879536A (en) Picture processing method
JP3093493B2 (en) Image storage and retrieval device
JPH0228771A (en) Picture processing system and picture data correcting method
US6983077B2 (en) Image processor
US6346991B1 (en) Margin seeking for multiple copy jobs
JP3604755B2 (en) Image information processing device
JPH04337800A (en) Image display device
US6356656B1 (en) Contour-information extraction apparatus and method
US7567725B2 (en) Edge smoothing filter for character recognition
JP2670260B2 (en) Information processing device
JPH05128306A (en) Attribute discriminating method for sentence picture
JP3371583B2 (en) Image processing device
JP3348527B2 (en) Marker eraser