JPH05181966A - Image output method - Google Patents
Image output methodInfo
- Publication number
- JPH05181966A JPH05181966A JP3347390A JP34739091A JPH05181966A JP H05181966 A JPH05181966 A JP H05181966A JP 3347390 A JP3347390 A JP 3347390A JP 34739091 A JP34739091 A JP 34739091A JP H05181966 A JPH05181966 A JP H05181966A
- Authority
- JP
- Japan
- Prior art keywords
- image
- density
- contour
- feature point
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000008859 change Effects 0.000 claims description 14
- 230000006866 deterioration Effects 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 46
- 238000010586 diagram Methods 0.000 description 36
- 230000015654 memory Effects 0.000 description 30
- 230000001788 irregular Effects 0.000 description 26
- 238000010191 image analysis Methods 0.000 description 20
- 238000000605 extraction Methods 0.000 description 17
- 230000000903 blocking effect Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、デジタルプリンタなど
のデジタル画像出力装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital image output device such as a digital printer.
【0002】[0002]
【従来の技術】デジタルプリンタなどにおいては、画像
入力部でデジタル画像データを読み込み、画像処理部
で、入力画像データについて、印字部の印字特性に合わ
せた補正や、操作部で指定された編集モードに対応した
画像編集などを行う。この画像データの処理のあとで、
電子写真法などにより印字部で用紙にハードコピーを行
う。2. Description of the Related Art In a digital printer or the like, digital image data is read by an image input section, and the image processing section corrects the input image data according to the printing characteristics of the printing section or an edit mode designated by an operating section. Edit the image corresponding to. After processing this image data,
A hard copy is made on paper at the printing section by electrophotography.
【0003】[0003]
【発明が解決しようとする課題】画像入力部では、所定
の解像度で画像の読取が行われる。そのため、解像度を
上回る原稿上の細かな情報は、読み取り時に失われてし
まう。また、印字部でも、出力画像が忠実にハードコピ
ーされない。したがって、デジタル的に画像を読み取る
画像入力装置では、画像データのハードコピーをとる場
合に、画像の劣化が発生する。原稿から一度コピーする
程度では特に画像の劣化は、問題とならない。しかし、
ハードコピーの場合には、ハードコピーを原稿にしてさ
らにコピーを繰り返す場合があり、画質が大幅に低下す
る場合がある。ワープロのフロッピー・ディスクなどの
デジタルソースのままでコピーすれば問題はないが、互
換性の問題や手軽さから、ハードコピーをさらにコピー
することが多い。したがって、ハードコピーの品質を改
善する必要がある。The image input section reads an image at a predetermined resolution. Therefore, detailed information on the original that exceeds the resolution is lost during reading. Further, even in the printing section, the output image is not faithfully hard-copied. Therefore, in an image input device that digitally reads an image, image deterioration occurs when a hard copy of image data is taken. Degradation of an image does not pose a problem even if the original is copied once. But,
In the case of hard copy, the hard copy may be used as a document and further copying may be repeated, and the image quality may be significantly deteriorated. There is no problem if you copy it as it is with a digital source such as a floppy disk of a word processor, but due to compatibility problems and ease of use, hard copies are often copied. Therefore, there is a need to improve hard copy quality.
【0004】なお、特開平2−112966号公報で
は、元の形状を推定したり、スムージングを行って輪郭
線を改善している。しかし、この方法では、ハードコピ
ー時や読み取り時の輪郭の変形は正しく復元されない。In Japanese Patent Laid-Open No. 2-112966, the original shape is estimated and smoothing is performed to improve the contour line. However, this method does not correctly restore the contour deformation at the time of hard copy or reading.
【0005】本発明の目的は、コピーを繰り返しても画
質の低下が少ない画像出力方法を提供することである。An object of the present invention is to provide an image output method in which the deterioration of image quality is small even if copying is repeated.
【0006】[0006]
【課題を解決するための手段】本発明に係る第1の画像
出力方法は、画像データを所定の濃度で表し、あらかじ
め設定された画像の輪郭に関する輪郭復元情報を画像デ
ータの濃度とは異なる濃度で表わし、画像データに輪郭
復元情報を付加して出力することを特徴とし、この画像
データのハードコピーを複写するときに、輪郭復元情報
から画像の輪郭を復元することを可能にする。本発明に
係る第2の画像出力方法は、画像データを所定の複数の
濃度バンドで表し、あらかじめ設定された画像の輪郭に
関する輪郭復元情報を画像データの濃度とは異なる複数
の濃度バンドで表し、画像データに輪郭復元情報を付加
して出力することを特徴とし、この画像データのハード
コピーを複写するときに、輪郭復元情報から画像の輪郭
を復元することを可能にする。本発明に係る第3の画像
出力方法は、画像データを所定の複数の濃度バンドで表
し、あらかじめ設定された画像の輪郭に関する輪郭復元
情報を画像データの濃度とは異なる複数の濃度バンドで
表し、画像濃度の変化の連続性を判定する判定手段を備
え、判定手段が、画像濃度の変化が、輪郭復元情報の濃
度バンドの付近で連続的であると判定したときに、その
濃度バンドを輪郭復元情報に割り当てず、画像データに
割り当てることを特徴とし、この画像データのハードコ
ピーを複写するときに、輪郭復元情報から画像の輪郭を
復元することを可能にする。According to a first image output method of the present invention, image data is represented by a predetermined density, and contour restoration information relating to the contour of a preset image is different from the density of the image data. The feature is that the contour restoration information is added to the image data and output, and when the hard copy of this image data is copied, the contour of the image can be restored from the contour restoration information. According to a second image output method of the present invention, image data is represented by a plurality of predetermined density bands, and contour restoration information regarding a preset image contour is represented by a plurality of density bands different from the density of image data. It is characterized in that contour restoration information is added to image data and output, and when a hard copy of this image data is copied, the contour of the image can be restored from the contour restoration information. In a third image output method according to the present invention, image data is represented by a plurality of predetermined density bands, and contour restoration information regarding a preset image contour is represented by a plurality of density bands different from the density of the image data, When the determination means determines that the change in the image density is continuous near the density band of the contour restoration information, the contour restoration of the density band is performed. It is characterized in that it is not assigned to information but to image data, and when a hard copy of this image data is copied, the contour of the image can be restored from the contour restoration information.
【0007】[0007]
【作用】コピーを繰り返すと画質が低下するのは、図形
の形状を正しく読み取ることができないことに、また、
正しく書き込めないことに起因する。しかし、読み取り
が所定の解像度で行われる限りは、連続的な図形で読み
落としが生じる。そこで、原稿のアナログの図形に、図
形の形状を表すデジタル情報(輪郭復元情報)を付加す
る。このデジタル情報は、あらかじめ設定されている図
形の輪郭に関する情報である。本発明に係る第1の画像
出力方法では、出力画像中の所定の濃度を画像の輪郭復
元情報として使用する(図4、図5参照)。原稿の一部
に濃度を変えて輪郭復元情報を付加する場合、中間調を
含む場合には、各中間調の濃度にたいして影響が極力小
さくなるように付加する必要がある。そこで、本発明に
係る第2の画像出力方法では、画像データとは異なる複
数の濃度バンドで輪郭復元情報を表す(図32参照)。
輪郭復元情報を適当な濃度で表すことにより、中間調画
像に対する影響が小さくできる。また、好ましくは、輪
郭復元情報に割り当てた濃度バンドに対応する画像デー
タがある場合、画像データをその濃度バンドと異なった
濃度に変換して表す(図35参照)。また、本発明に係
る第3の画像出力方法では、画像データを所定の複数の
濃度バンドで表し、あらかじめ設定された画像の輪郭に
関する輪郭復元情報を画像データの濃度とは異なる複数
の濃度バンドで表し、画像濃度の変化の連続性を判定す
る判定手段を備え、判定手段が、画像濃度の変化が、輪
郭復元情報の濃度バンドの付近で連続的であると判定し
たときに、その濃度バンドを輪郭復元情報に割り当て
ず、画像データに割り当てることを特徴とし、輪郭復元
情報から画像の輪郭を復元する(図34参照)。書き込
み時には、上述のようにアナログデータ図形にデジタル
情報(輪郭復元情報)を付加してハードコピーを作成す
る。このとき、忠実なコピーが得られなくても、デジタ
ル情報の欠落がない程度であれば、読み取り後に補正が
可能になる。このようにすれば、ハードコピーを原稿に
してコピーを繰り返しても、画質の低下が生じることが
ない。読み取り時には、アナログ(画像データ)とデジ
タル(輪郭復元情報)の両方の情報を読み込み、抽出手
段によりデジタル情報を抽出し、デジタル情報を利用し
てアナログ図形の読み取りエラーを補正し、画像データ
を復元する。復元においては、アナログの画像データは
不必要である。When the copying is repeated, the image quality deteriorates because the shape of the figure cannot be read correctly.
It is due to not being able to write correctly. However, as long as reading is performed at a predetermined resolution, overwriting occurs in continuous graphics. Therefore, digital information (contour restoration information) representing the shape of the graphic is added to the analog graphic of the original. This digital information is information relating to the contour of a graphic that is set in advance. In the first image output method according to the present invention, the predetermined density in the output image is used as the contour restoration information of the image (see FIGS. 4 and 5). When the contour restoration information is added to a part of the original document by changing the density, when the halftone is included, it is necessary to add it so that the influence on the density of each halftone is minimized. Therefore, in the second image output method according to the present invention, the contour restoration information is represented by a plurality of density bands different from the image data (see FIG. 32).
By expressing the contour restoration information with an appropriate density, the influence on the halftone image can be reduced. Further, preferably, when there is image data corresponding to the density band assigned to the contour restoration information, the image data is converted to a density different from that density band (see FIG. 35). Further, in the third image output method according to the present invention, the image data is represented by a plurality of predetermined density bands, and the contour restoration information regarding the preset image contour is represented by a plurality of density bands different from the density of the image data. The determination means for determining the continuity of the change in the image density is provided, and when the determiner determines that the change in the image density is continuous near the density band of the contour restoration information, the density band It is characterized in that it is assigned to the image data, not to the contour restoration information, and the contour of the image is restored from the contour restoration information (see FIG. 34). At the time of writing, digital information (contour restoration information) is added to the analog data graphic as described above to create a hard copy. At this time, even if a faithful copy cannot be obtained, correction can be performed after reading as long as there is no loss of digital information. In this way, even if the hard copy is used as the original and the copy is repeated, the image quality does not deteriorate. At the time of reading, both analog (image data) and digital (contour restoration information) information is read, digital information is extracted by the extraction means, analog image reading errors are corrected using the digital information, and image data is restored. To do. Analog image data is unnecessary for restoration.
【0008】[0008]
【実施例】以下、図面を参照して本発明による実施例に
ついて次の順序で説明する。 (a)特徴点の付加と輪郭復元 A.第1実施例 (b)画像処理部の構成 (c)画像解析 (d)画像復元 (e)特徴点付加部 B.第2実施例 (f)ハードコピー時の特徴点生成・付加 C.第3実施例 (g)濃度の基準パターン (h)中間調画像における低い濃度での特徴点の付加 (i)濃度変化の連続性に対応した特徴点抽出 (j)濃度が連続的に変化する中間調画像に対する特徴
点の付加 (k)オリジナル原稿作成時の特徴点付加 D.第4実施例 (l)エラー処理Embodiments of the present invention will be described below in the following order with reference to the drawings. (A) Addition of feature points and contour restoration A. First Embodiment (b) Configuration of Image Processing Unit (c) Image Analysis (d) Image Restoration (e) Feature Point Adding Unit B. Second embodiment (f) Feature point generation / addition during hard copy C. Third embodiment (g) Density reference pattern (h) Addition of feature points at low density in halftone image (i) Feature point extraction corresponding to continuity of density change (j) Density changes continuously Addition of feature points to halftone image (k) Addition of feature points when creating original document D. Fourth Embodiment (l) Error processing
【0009】(a)特徴点の付加と輪郭復元 本発明においては、原稿のアナログ図形にデジタル情報
である輪郭復元情報を埋め込む。ハードコピーは、ユー
ザが目視するため、元の図形の障害にならないようにデ
ジタル情報を付加する必要がある。具体的には、たとえ
ば図1に示すように、元の図形(またはイメージ)の輪
郭に接するように、輪郭を表す点(特徴点)を付加す
る。特徴点は、元の図形とは異なる濃度や色で表現され
る。特徴点の大きさは、ハードコピーの目視では目立た
ないが、ハードコピーの読取の際に欠落がない程度とす
る。図1は、特徴点1の濃度を図形2の濃度より濃くし
た場合の例を示す。図形2はローマ字の”a”であり、
その一部を拡大した右側の図には、特徴点1が付加され
ているのがわかる。図2は、図1の画像についての処理
を図式的に示す。(a)に示す原稿を読み込むと、
(b)に示すように特徴点が抜き出される。次に、この
特徴点に外接するように、(c)に示すように輪郭線を
計算する。復元したイメージデータを他の機器に出力す
る場合は、復元したイメージデータ(d)と抽出した特
徴点(b)の双方に処理を行う。(A) Addition of feature points and contour restoration In the present invention, contour restoration information, which is digital information, is embedded in an analog figure of a document. Since the hard copy is viewed by the user, it is necessary to add digital information so as not to obstruct the original figure. Specifically, for example, as shown in FIG. 1, a point (feature point) representing the contour is added so as to be in contact with the contour of the original figure (or image). The feature points are expressed in different densities and colors than the original figure. The size of the characteristic points is inconspicuous by visual inspection of the hard copy, but should be such that there is no omission when reading the hard copy. FIG. 1 shows an example in which the density of the feature point 1 is made higher than that of the graphic 2. Figure 2 is the Roman letter "a",
It can be seen that the feature point 1 is added to the diagram on the right side, which is an enlarged view of a part thereof. FIG. 2 schematically shows the processing on the image of FIG. When the document shown in (a) is read,
The feature points are extracted as shown in (b). Next, a contour line is calculated so as to circumscribe this feature point as shown in (c). When outputting the restored image data to another device, both the restored image data (d) and the extracted feature points (b) are processed.
【0010】図3の(a)〜(d)は、特徴点1の例を
示す。図形2の輪郭に内接する位置に特徴点1を配置す
る。さらに、特徴点の数で輪郭のカーブの種類を表す。
ここで、3は復元輪郭を表す。図1、図2の例では、特
徴点1の形状は、四角形であるが、以下では、簡単のた
め円で表す。基本的には、(a)に示すように、図形1
のコーナーに1個の特徴点を配置する。(b)〜(d)
は、後で説明する変則処理をする応用例を示す。本実施
例では、所定の微小距離内に3個の特徴点が存在する場
合、変則処理をするべき図形であることを示す。これに
より、特徴点の数を少なくすることができる。(b)〜
(d)の場合、一部の特徴点は、画像の輪郭のエッジに
存在しないことは明らかである。(b)の場合、凸のコ
ーナーに3個の近接して直角を形成する特殊な特徴点
1’が位置するが、変則処理後の復元図形3は、これら
の特徴点1’を内側に含んだ鋭角的図形である。(c)
の場合、3個の近接して直線を形成する特殊な特徴点
1’を内側に含み、変形した輪郭は、前後の点を円で接
続して得られる。この処理の場合、円弧で曲線を近似し
ている場合には、効果がない。また、(d)の場合、
(b)の場合と同様に、コーナーに3個の近接して直角
を形成する特殊な特徴点1’があるが、ただし、(b)
と逆の凹のコーナーに存在する。この場合、変形した輪
郭は、前後の特徴点1を滑らかに結ぶ曲線である。
(b)の場合と同様に特徴点の数を少なくできる。FIGS. 3A to 3D show an example of the feature point 1. The feature point 1 is arranged at a position inscribed in the contour of the figure 2. Further, the number of characteristic points indicates the type of contour curve.
Here, 3 represents a restored contour. In the examples of FIGS. 1 and 2, the shape of the feature point 1 is a quadrangle, but in the following, it is represented by a circle for simplicity. Basically, as shown in FIG.
Place one feature point at the corner of. (B)-(d)
Shows an application example for performing the irregular processing described later. In the present embodiment, if there are three feature points within a predetermined minute distance, it is indicated that the figure is to be subjected to irregular processing. As a result, the number of feature points can be reduced. (B) ~
In the case of (d), it is clear that some feature points do not exist at the edge of the contour of the image. In the case of (b), there are three special feature points 1 ′ that form a right angle in close proximity to the convex corner, but the restored figure 3 after the irregular processing includes these feature points 1 ′ inside. It is a sharp-angled figure. (C)
In the case of, the inside includes a special feature point 1 ′ that forms three adjacent straight lines, and the deformed contour is obtained by connecting the front and rear points with a circle. In the case of this processing, there is no effect when the curve is approximated by an arc. In the case of (d),
Similar to the case of (b), there are three special feature points 1'that form a right angle at the corner, but (b)
It exists in the concave corner opposite to. In this case, the deformed contour is a curve that smoothly connects the front and rear feature points 1.
As in the case of (b), the number of feature points can be reduced.
【0011】ここに、特徴点1の濃度は、画像データの
濃度より大きく設定する。図4は、多値原稿の場合の判
定出力を示し、特徴点1の濃度をIa以上とする。した
がって、読取原稿濃度がIa以上の場合に特徴点と判定
される。ただし、原稿画像の濃度が低いと、特徴点1が
画像上のノイズに見える場合があり、このとき特徴点は
付加できない。図5は、文字や図形だけの2値原稿の場
合の判定出力を示し、読取原稿濃度がIa以上の場合に
特徴点と判定される。Here, the density of the feature point 1 is set higher than the density of the image data. FIG. 4 shows the determination output in the case of a multi-valued original, and the density of the characteristic point 1 is set to Ia or more. Therefore, when the read document density is equal to or higher than Ia, it is determined to be a feature point. However, when the density of the original image is low, the characteristic point 1 may appear as noise on the image, and at this time, the characteristic point cannot be added. FIG. 5 shows a determination output in the case of a binary document including only characters and figures, and is determined as a feature point when the read document density is Ia or more.
【0012】第1実施例 (b)画像処理部の構成 デジタル複写機では、画像読取装置などの画像入力部で
画像データを読みこみ、画像処理部において、画像デー
タの各種処理を行った後、電子写真プリンタなどの印字
部においては用紙へのハードコピーが出力される。画像
処理部では、印字部の印字特性に合わせた補正や、操作
部で指定された編集モードに対応して画像編集が行われ
る。図6は、本発明の第1実施例である画像処理部のブ
ロック図を示す。この画像処理部では、画像入力部から
バスB1を介して入力されたデジタル画像データについ
て、画像解析部11で特徴点抽出と領域判別の処理が行
われる。すなわち、入力画像データから特徴点1が抽出
され、抽出された特徴点1は領域判別に使用される。す
なわち、入力画像データは、特徴点を含む復元可能領域
と特徴点を含まない復元不可能領域とに分離される。復
元不可能領域では、入力画像データをそのまま出力し、
後の処理で使用する。復元可能領域では、入力画像デー
タは使用せず、画像復元部13において、抽出された特
徴点1を用いて画像データを復元して出力する。これら
の画像データは、特徴点付加部14で合成され、操作部
16から加工モードが設定されると、抽出した特徴点が
付加される。特徴点の濃度が、複数設定可能な場合は、
特徴点近傍の濃度に最も近い濃度の特徴点を付加する。
なお、必要ならば、編集部12において、復元データと
復元不可能領域のデータのそれぞれについて独立に編集
(回転や拡大など)が行われる。ここに、編集は、両方
のデータの位置を合わせるため、両データそれぞれにつ
いて行われる。そして、編集後のデータが特徴点付加部
14において合成される。特徴点1は、操作部16で設
定される加工モードによっては、付加せずに出力でき
る。最後に、最適化部15において、画像の濃度を、操
作部16から入力された加工モードに従って円滑化処理
などで補正して、バスB2に出力する。 First Embodiment (b) Structure of Image Processing Section In a digital copying machine, after image data is read by an image input section such as an image reading device, various processing of the image data is performed in the image processing section, In a printing unit such as an electrophotographic printer, a hard copy on paper is output. In the image processing unit, correction is performed according to the printing characteristics of the printing unit, and image editing is performed according to the editing mode designated by the operation unit. FIG. 6 is a block diagram of the image processing unit according to the first embodiment of the present invention. In this image processing unit, the image analysis unit 11 performs feature point extraction and region determination processing on digital image data input from the image input unit via the bus B1. That is, the characteristic point 1 is extracted from the input image data, and the extracted characteristic point 1 is used for the area discrimination. That is, the input image data is separated into a restorable area that includes the feature points and a non-restorable area that does not include the feature points. In the non-restorable area, output the input image data as it is,
Used in later processing. In the restorable area, the input image data is not used, and the image restoration unit 13 restores the image data using the extracted feature points 1 and outputs it. These image data are combined by the feature point addition unit 14, and when the processing mode is set from the operation unit 16, the extracted feature points are added. If multiple density of feature points can be set,
The feature point with the density closest to the density near the feature point is added.
If necessary, the editing unit 12 independently edits (rotates or enlarges) the restored data and the data in the unrestorable area. Here, the editing is performed for both data in order to match the positions of both data. Then, the edited data is combined in the feature point addition unit 14. The feature point 1 can be output without being added depending on the processing mode set by the operation unit 16. Finally, the optimizing unit 15 corrects the image density by smoothing processing or the like according to the processing mode input from the operating unit 16 and outputs the corrected image density to the bus B2.
【0013】(c)画像解析 図7は、領域判別と特徴点抽出を行う画像解析部11の
ブロック図を示す。この画像解析部11は、入力される
デジタル画像データを格納する画像メモリ111、濃度
レベルと比較して抽出された特徴点の位置データを格納
する特徴点メモリ122、画像解析を行う画像解析プロ
セッサ123、画像解析プロセッサで実行されるプログ
ラムを格納するプログラムメモリ128、画像の連続す
る領域を調べて得られたブロックの管理データを格納す
るブロック管理メモリ124、画像解析に用いる作業メ
モリ127、特徴点を含まない非復元領域の画像データ
をバスB12に出力するインターフェース126、抽出
された特徴点の座標をバスB11に出力するインターフ
ェース125とからなる。画像処理プロセッサ123
は、画像メモリ111にデータが取り込まれると処理を
開始し、画像の連続する領域を調べてブロック化を行
い、特徴点を抽出し、特徴点を含まない画像ブロックを
判別する。ブロックの管理データは、ブロック管理メモ
リ124に格納し、抽出された特徴点の位置データは、
特徴点メモリ122に格納する。所定の処理が完了する
と、それぞれ、2つのインターフェース125、126
を通じて処理結果を出力する。(C) Image Analysis FIG. 7 is a block diagram of the image analysis unit 11 which performs area discrimination and feature point extraction. The image analysis unit 11 includes an image memory 111 that stores input digital image data, a feature point memory 122 that stores position data of feature points extracted by comparison with density levels, and an image analysis processor 123 that performs image analysis. , A program memory 128 for storing a program executed by the image analysis processor, a block management memory 124 for storing management data of blocks obtained by checking a continuous area of an image, a working memory 127 used for image analysis, and a feature point. It is composed of an interface 126 for outputting the image data of the non-restored area not included to the bus B12 and an interface 125 for outputting the coordinates of the extracted feature points to the bus B11. Image processor 123
Starts processing when data is loaded into the image memory 111, examines a continuous region of an image, forms a block, extracts a feature point, and determines an image block that does not include the feature point. The block management data is stored in the block management memory 124, and the extracted position data of the feature points is
It is stored in the feature point memory 122. When the predetermined process is completed, the two interfaces 125 and 126 are respectively provided.
To output the processing result.
【0014】図8は、画像処理プロセッサ123の処理
のフローを示す。電源が投入されると(S100)、ま
ず、初期化が行われる(S101)。次に、画像データ
の入力を待ち(S102)、画像入力があると、順次、
ブロック化処理(S103)、特徴点を探す処理(S1
04)、周辺データのベクトル化処理(S105)、変
則点のベクトル化処理(S106)、および、出力処理
(S107)を行う。そして、S102に戻り、以上の
処理を繰り返す。FIG. 8 shows a processing flow of the image processor 123. When the power is turned on (S100), first, initialization is performed (S101). Next, waiting for the input of image data (S102), if there is an image input,
Blocking process (S103), process for searching feature points (S1)
04), vectorization processing of peripheral data (S105), vectorization processing of irregular points (S106), and output processing (S107). Then, the process returns to S102 and the above processing is repeated.
【0015】(cー1)ブロック化 画像処理プロセッサ123は、画像メモリ111に格納
された連続する領域を調べてブロック化する(図11の
フロー参照。)。ブロック化の処理は、ノイズに弱いた
め、平滑化の処理の後に行うことが望ましい。ブロック
情報は、非復元画像を識別するブロック識別処理でも使
用できる(図31参照)。非復元化ブロックの条件は、
属性がスロープであることと、ブロック内に特徴点フラ
グがセット(有り)されていないことである。この条件
を満たすブロックについては、復元画像ではなく、画像
メモリ111の元の画像データが使用される。ブロック
化においては、まず、画像メモリ111に格納された画
像データをライン単位にスキャンする。そして、スキャ
ン中に所定の微小区間で所定の濃度以上の変化がある場
合にブロックのエッジとみなす。ラインの始点と終点も
エッジとみなす。図9に示した例では、(a)にブロッ
ク化した結果を示す。ここでは、”<”と”>”とによ
りブロックの両境界を示す。また、”a”,”b”など
は、ラインの先頭から順番に与えられる復元識別番号の
名前を表す。復元識別番号については後で説明する。そ
して、1つのエッジから次のエッジまでの1ブロック分
の濃度データについて、最大値、最小値、平均値を求め
る。次に、最大値と最小値からブロック(区間)に属性
を与える。最大値と最小値の差が所定の範囲内であれば
均一濃度区間(属性:フラット)とし、そうでなけれ
ば、連続的に変化する区間(属性:スロープ)とする。
1つの区間を、以下の情報(すなわち、復元識別番号、
特徴点フラグ(有,無)、始点、終点、平均濃度、最大
濃度、最小濃度、属性(フラット,スロープ))を記憶
するブロック管理メモリ124で管理する。ここに、特
徴点フラグは、ブロック内に特徴点が含まれるか否かを
示し、初期値はない。1ラインについて区間の判定が終
了すれば、1つ前(先頭側)のラインと比較して同一区
間の接続を行いブロック化していく。そして、以下の条
件をすべてみたした場合に、同一ブロックとみなす。
(1)区間が隣接する(2つの区間の始点と終点の間の
重複する区間がある。)(2)平均濃度の差が所定の値
以内である。(3)2つの区間内の最大濃度と最小濃度
の差が所定の値以内である。(4)属性が同じである。
ただし、スロープどうしの場合は、(2),(3)は無
視してもよい。同一ブロックとみなされない場合は、新
しいブロックとして固有の復元識別番号を付加する。1
ライン目は、すべて新規ブロックとみなす。図9の例で
は、1ライン目はすべて新規ブロックとして、”
a”,”b”,”c”,…の復元識別番号が与えられ
る。2ライン目は、それぞれ1ライン目の”a”,”
b”,”c”,…と同一ブロックとみなされる。3ライ
ン目も同様である。4ライン目に現れた復元識別番号”
d”のブロックは、3ライン目の”a”と同一ブロック
であるとみなされ、次いで、1〜3ライン目の”c”の
ブロックは、”a”と同一ブロックであるとみなされ
る。(C-1) Blocking The image processor 123 examines continuous areas stored in the image memory 111 and creates blocks (see the flow in FIG. 11). Since the blocking process is vulnerable to noise, it is desirable to perform it after the smoothing process. The block information can also be used in a block identification process for identifying a non-restored image (see FIG. 31). The condition of the non-restoring block is
The attribute is slope, and the feature point flag is not set (present) in the block. For blocks satisfying this condition, the original image data in the image memory 111 is used instead of the restored image. In blocking, first, the image data stored in the image memory 111 is scanned line by line. Then, when there is a change of a predetermined density or more in a predetermined minute section during scanning, it is considered as an edge of the block. The start and end points of the line are also considered as edges. In the example shown in FIG. 9, the result of blocking is shown in (a). Here, both boundaries of the block are indicated by "<" and ">". Further, "a", "b", etc. represent the names of the restoration identification numbers given in order from the beginning of the line. The restoration identification number will be described later. Then, the maximum value, the minimum value, and the average value are obtained for the density data of one block from one edge to the next edge. Next, an attribute is given to the block (section) from the maximum value and the minimum value. If the difference between the maximum value and the minimum value is within a predetermined range, it is set as a uniform density section (attribute: flat), and if not, it is set as a continuously changing section (attribute: slope).
The following information (that is, the restoration identification number,
The feature point flag (presence / absence), the start point, the end point, the average density, the maximum density, the minimum density, and the attribute (flat, slope) are stored in the block management memory 124. Here, the feature point flag indicates whether or not a feature point is included in the block, and has no initial value. When the determination of the section is completed for one line, the same section is connected and divided into blocks as compared with the line immediately before (the head side). Then, when all the following conditions are satisfied, they are regarded as the same block.
(1) The sections are adjacent to each other (there are overlapping sections between the start point and the end point of the two sections.) (2) The difference in average density is within a predetermined value. (3) The difference between the maximum density and the minimum density in the two sections is within a predetermined value. (4) The attributes are the same.
However, if there are slopes, (2) and (3) may be ignored. If they are not regarded as the same block, a unique restoration identification number is added as a new block. 1
All lines are regarded as new blocks. In the example of FIG. 9, all the first lines are new blocks.
Restoration identification numbers of a "," b "," c ", ... Are given. The second line is" a "," 1 ", respectively.
It is regarded as the same block as b "," c ", ... The same applies to the third line. The restoration identification number appearing on the fourth line"
The block of d "is regarded as the same block as" a "of the third line, and then the block of" c "in the first to third lines is regarded as the same block as" a ".
【0016】すべてのラインについてブロック化を終了
すると、次に、画像データから特徴点の除去を行う。
(実際には、隣接するブロックの始点または終点を変更
し、領域を合成する。)属性がフラットなブロックで、
ブロック内の平均が特徴点の濃度に相当する所定の範囲
内にあれば特徴点とみなす。特徴点は、接する他のブロ
ックのなかで、接する長さが最も長いブロックと同じと
みなす。長さが等しい場合は、平均濃度の近い方と同じ
とみなす。特徴点のブロックを取り込んだブロックの特
徴点フラグは”有”にセットする。処理を行った特徴点
ブロック情報は破棄する。図10の(a)の例では、特
徴点(”m”で表す)を含むブロックが見いだされてい
る。ここで、(b)に示すように、特徴点を含むブロッ
クは、”b”のブロックと同じとみなされ、”b”のブ
ロックの始点を変更し、領域を合成する。特徴点の除去
と同時に、特徴点座標と復元時の濃度を求めることがで
きる。特徴点座標は、特徴点ブロックの中心や、吸収さ
せたブロックから見て外側の外周上の一点(上の図で
は、外周の中心)を用いる。どの点を採用するかは、特
徴点の付加を含めて、システムごとにあらかじめ決めら
れている。When the blocking is completed for all lines, feature points are removed from the image data.
(Actually, the start point or end point of the adjacent block is changed, and the area is combined.) A block with a flat attribute,
If the average in the block is within a predetermined range corresponding to the density of the feature points, it is considered as a feature point. The feature point is considered to be the same as the block having the longest contact length among other contacting blocks. If the lengths are the same, it is considered to be the same as the closer average density. The feature point flag of the block that fetches the feature point block is set to "Yes". The processed feature point block information is discarded. In the example of FIG. 10A, a block including a feature point (represented by "m") is found. Here, as shown in (b), the block including the feature point is regarded as the same as the block of “b”, and the starting point of the block of “b” is changed to combine the regions. At the same time when the feature points are removed, the feature point coordinates and the density at the time of restoration can be obtained. As the feature point coordinates, the center of the feature point block or a point on the outer circumference outside the absorbed block (the center of the outer circumference in the above figure) is used. Which point is adopted is predetermined for each system including addition of feature points.
【0017】図11は、ブロック化処理(S103)の
フローを示す。このフローにおいて、ブロック化と特徴
点抽出とブロック識別とが同時に行われる。まず、1つ
のラインについて、ライン内のエッジを求める(S12
1)。次に、エッジから得られるブロック(区間)にお
ける最大値と最小値を求め(S122)、区間属性を判
定する(S123)。次に、前のラインに同一区間があ
るかを捜し(S124)、同一区間があれば(S125
でYES)、前の区間の復元識別番号をコピーし(S1
26)、最大値と最小値を更新する(S127)。同一
区間がなければ(S125でNO)、その区間に新しい
復元識別番号を与える(S128)。次に、この処理が
ライン内の全区間について終了したか否かが判定される
(S129)。終了していなければ(S129でN
O)、S124に戻り、次の区間の処理を行う。1ライ
ンについて全区間の処理が終了していると(S129で
YES)、次に、全ラインの処理が終了したかが判定さ
れる(S130)。終了していなければ、S121に戻
り、次の1ラインの処理を行う。全ラインの処理が終了
していれば、ブロック化処理を終了する(S131)。FIG. 11 shows a flow of the blocking process (S103). In this flow, blocking, feature point extraction, and block identification are performed at the same time. First, for one line, the edge within the line is obtained (S12
1). Next, the maximum value and the minimum value in the block (section) obtained from the edge are obtained (S122), and the section attribute is determined (S123). Next, it is searched whether the previous line has the same section (S124), and if there is the same section (S125).
YES), copy the restoration identification number of the previous section (S1
26), the maximum value and the minimum value are updated (S127). If there is no same section (NO in S125), a new restoration identification number is given to that section (S128). Next, it is determined whether or not this processing has been completed for all sections in the line (S129). If not finished (N in S129,
O), the process returns to S124 to process the next section. If the processing of all the sections has been completed for one line (YES in S129), then it is determined whether the processing of all the lines has been completed (S130). If not completed, the process returns to S121 to process the next one line. If the processing for all lines has been completed, the blocking processing is completed (S131).
【0018】(cー2)特徴点抽出処理 画像解析部11で行われる特徴点抽出処理(図8S10
4)では、特徴点をブロック管理メモリ124から抽出
し、輪郭単位に輪郭順にベクトル化して特徴点メモリ1
22に記憶する。各特徴点の情報は以下の通りである。 ・対応する復元識別番号(特徴点を吸収させたブロック
の番号) ・座標(x,y) ・復元時の濃度 ・変則フラグ(輪郭の変則処理を示す点であることを表
す) ・前の特徴点を示すポインタ(たとえば、輪郭上で反時
計回り方向の点) ・次の特徴点を示すポインタ(たとえば、輪郭上で時計
回り方向の点) 具体的な処理(図12)は、次の3ステップに分類され
る。 1: 特徴点座標と周辺濃度、復元識別番号(ブロック
ID)を求める。このとき、パターンメモリの特徴点は
削除する。 2: パターンの輪郭上(または近傍)の点を輪郭にそ
って探し、ベクトル化する。 3: パターンの内部にある変則点を探し、関連する輪
郭に接続する。(C-2) Feature point extraction processing The feature point extraction processing performed by the image analysis unit 11 (FIG. 8, S10).
In 4), the feature points are extracted from the block management memory 124, vectorized in contour order in contour units, and the feature point memory 1
22 is stored. The information of each characteristic point is as follows. -Corresponding restoration identification number (block number that absorbed the feature point) -Coordinates (x, y) -Density at restoration-Regular flag (representing a point indicating irregular contour processing) -Previous feature Pointer indicating a point (for example, a counterclockwise point on the contour) -Pointer indicating a next feature point (for example, a clockwise point on the contour) The specific process (FIG. 12) is the following three. It is classified into steps. 1: Obtain feature point coordinates, peripheral density, and restoration identification number (block ID). At this time, the characteristic points of the pattern memory are deleted. 2: A point on (or near) the contour of the pattern is searched for along the contour and vectorized. 3: Find anomalous points inside the pattern and connect to the relevant contours.
【0019】図12は、特徴点抽出処理(図8S10
4)のフローを示す。まず、属性がフラットなブロック
を捜し(S141)、ブロック内の平均濃度を求める
(S142)。そして、平均濃度を所定の濃度と比較し
て特徴点か否かを判定する(S143)。たとえば、図
4と図5に示したように判定出力が得られる。特徴点で
あれば(S143でYES)、次に、周辺ブロックとの
接辺の長さを求める(S144)。そして、最長の周辺
ブロックが複数あれば(S145でYES)、平均濃度
を比較し、最も近いものを選ぶ(S146)。次に、吸
収させるブロックを決定し(S147)、決定したブロ
ックに特徴点の領域を追加し、特徴点フラグをセットし
(S148)、特徴点座標と濃度を求める(S14
9)。そして、これらの情報を復元識別番号とともに特
徴点メモリ187に記憶し(S150)、該当する特徴
点を含むブロックの情報を廃棄する(S151)。次
に、全ブロックの処理が終了したかを判定し(S15
2)、終了していなければ、S141に戻り、次のフラ
ットなブロックの処理を行う。また、S143で特徴点
でないと判定された場合にも、S152に進む。全ブロ
ックの処理が終了していれば(S152)、特徴点抽出
処理を終了する(S153)。FIG. 12 shows a feature point extraction process (S10 in FIG. 8).
The flow of 4) is shown. First, a block having a flat attribute is searched (S141), and an average density in the block is calculated (S142). Then, the average density is compared with a predetermined density to determine whether or not it is a feature point (S143). For example, the judgment output is obtained as shown in FIGS. 4 and 5. If it is a feature point (YES in S143), then the length of the tangent to the peripheral block is obtained (S144). Then, if there are a plurality of longest peripheral blocks (YES in S145), the average densities are compared and the closest one is selected (S146). Next, a block to be absorbed is determined (S147), a feature point area is added to the determined block, a feature point flag is set (S148), and feature point coordinates and density are obtained (S14).
9). Then, these pieces of information are stored in the feature point memory 187 together with the restoration identification number (S150), and the information of the block including the corresponding feature point is discarded (S151). Next, it is determined whether the processing of all blocks is completed (S15).
2) If not completed, the process returns to S141 to process the next flat block. Also, if it is determined in S143 that it is not a feature point, the process proceeds to S152. If the processing of all blocks is completed (S152), the feature point extraction processing is completed (S153).
【0020】(cー3)周辺データベクトル化処理 図13は、周辺データベクトル化(図8S105)のフ
ローを示す。まず、対象ブロックの復元識別番号(I
D)を決める(S221)。次に、輪郭近傍の特徴点を
一つ取り出す(S222)。特徴点があれば(S223
でYES)、輪郭の始点とする(S224)。次に、対
応するブロックの輪郭にそって次の特徴点を探す(S2
25)。ここで、輪郭からの誤差は、所定の距離以内で
あるとする。特徴点があれば(S226でYES)、前
の特徴点と接続し(S227)、S225に戻る。一
方、特徴点がなければ(S226でNO)、最後の特徴
点を始点と接続し(S228)、S222に戻り、次の
輪郭の処理を続ける。S223で特徴点がないと判定さ
れると、次に、全復元識別番号の処理が終了しているか
が判定される(S230)、終了していないと判定され
ると、S221に戻り、次の復元識別番号の処理を行
う。終了していると判定されると(S230でYE
S)、ベクトル化の処理を終了する(S231)。(C-3) Peripheral Data Vectorization Processing FIG. 13 shows a flow of peripheral data vectorization (S105 in FIG. 8). First, the restoration identification number (I
D) is determined (S221). Next, one feature point near the contour is extracted (S222). If there is a feature point (S223
If YES, the contour starting point is set (S224). Next, the next feature point is searched for along the contour of the corresponding block (S2).
25). Here, it is assumed that the error from the contour is within a predetermined distance. If there is a feature point (YES in S226), the previous feature point is connected (S227), and the process returns to S225. On the other hand, if there is no feature point (NO in S226), the last feature point is connected to the start point (S228), the process returns to S222, and the processing of the next contour is continued. If it is determined in S223 that there is no feature point, it is then determined whether the processing of all restoration identification numbers has been completed (S230). If it is determined that the processing has not been completed, the processing returns to S221, and the next Process the restoration identification number. When it is determined that the process is finished (Y in S230
S), the vectorization process is terminated (S231).
【0021】(cー4)変則点ベクトル化 図14と図15は、変則点のベクトル化(図8S10
6)のフローを示す。まず、対象ブロックの復元識別番
号(ブロックID)を決める(S161)。次に、ベク
トル化ずみの特徴点を探す(S162)。次に、接続さ
れた特徴点を探す(S163)。3つの特徴点が所定の
微小距離以内にあると判定されれば(S164でYE
S)、その3点は変則処理をすべき特徴点なので特徴点
フラグをセットする(S165)。次に、輪郭の1周の
処理が終了したかが判定され(S166)、終了してい
なければ、S163に戻り、同じ輪郭内の次の特徴点に
ついての処理を行う。終了していれば、次に全輪郭につ
いての処理が終了したかが判定され(S167)、終了
していなければ、1つのブロックが複数の輪郭で構成さ
れる場合なので、S162に戻り、次の輪郭の処理を行
う。全輪郭の処理が終了すれば、次に、全復元識別番号
の処理が終了したかが判定され(S168)、終了して
いなければ、S161に戻って、次の復元識別番号のブ
ロックについて処理を続ける。全復元識別番号の処理が
終了すれば、以上の処理を終了する。(C-4) Vectorization of irregular points FIGS. 14 and 15 show vectorization of irregular points (S10 in FIG. 8).
The flow of 6) is shown. First, the restoration identification number (block ID) of the target block is determined (S161). Next, a vectorized feature point is searched (S162). Next, the connected feature points are searched (S163). If it is determined that the three feature points are within the predetermined minute distance (YE in S164).
S), the three points are the characteristic points to be subjected to the irregular processing, and the characteristic point flag is set (S165). Next, it is determined whether the processing for one round of the contour is completed (S166). If not completed, the process returns to S163, and the processing for the next feature point in the same contour is performed. If the processing has been completed, it is then determined whether or not the processing for all contours has ended (S167). If not completed, one block is composed of a plurality of contours, so the processing returns to S162 and the next Performs contour processing. When the processing of all contours is completed, it is next determined whether or not the processing of all restoration identification numbers has been completed (S168). If not finished, the process returns to S161 and the block of the next restoration identification number is processed. to continue. When the processing for all restoration identification numbers is completed, the above processing is completed.
【0022】次に、変則点での輪郭接続処理を行う。
(なお、図16に接続の例を示す。)まず、対象ブロッ
クの復元識別番号(ブロックID)を決める(S16
9)。次に、未接続特徴点(図16の点a)を探す(S
170)。次に、未接続特徴点が近傍に2個あるかが判
定され(S171)、なければ、ノイズとして除去して
(S179)、S170に戻る。2個あれば(図16の
点b,c)、変則点であるので、所定の特徴点探索方向
(図16のラインd、e)で所定の距離内にある接続ず
みの特徴点をさがす(S172)。そして、特徴点が2
個(図16の点f、g)あれば、2点の間に変則点を接
続し(S176)、仮の輪郭(図16のh,i)とす
る。(なお、最終的に復元される輪郭は、破線jであ
る。)そして、未接続点がまだあるかを判定し(S17
7)、あれば、S170に戻り、変則点処理を続ける。
未接続点がなければ、次に、全復元識別番号の処理が終
ったかが判定される(S178)。終了していなけれ
ば、S170に戻り、次の復元識別番号についての処理
を続け、終了していれば、ベクトル化処理を終了する。
また、S173で2つの特徴点がなかったと判定する
と、次に、角度を広げて探し(S174)、2個の特徴
点があるかを判定する(S175)。なければ、S17
9に進み、ノイズとして削除し、あれば、S176に進
み、2点間に変則点を接続する。Next, contour connection processing at irregular points is performed.
(Note that FIG. 16 shows an example of connection.) First, the restoration identification number (block ID) of the target block is determined (S16).
9). Next, an unconnected feature point (point a in FIG. 16) is searched for (S
170). Next, it is determined whether or not there are two unconnected feature points in the vicinity (S171). If not, the noise is removed as noise (S179), and the process returns to S170. If there are two (points b and c in FIG. 16), since they are irregular points, the connected feature points within a predetermined distance in the predetermined feature point search direction (lines d and e in FIG. 16) are searched for ( S172). And the feature point is 2
If there are individual points (points f and g in FIG. 16), irregular points are connected between the two points (S176) to form a temporary contour (h and i in FIG. 16). (Note that the finally restored contour is the broken line j.) Then, it is determined whether or not there are still unconnected points (S17).
7) If there is, return to S170 and continue the irregular point processing.
If there is no unconnected point, then it is determined whether the processing for all restoration identification numbers has been completed (S178). If not completed, the process returns to S170 to continue the process for the next restoration identification number, and if completed, the vectorization process is completed.
If it is determined in S173 that there are no two feature points, the angle is widened (S174), and it is determined whether there are two feature points (S175). If not, S17
In step 9, the noise is deleted, and if there is noise, in step S176, an irregular point is connected between the two points.
【0023】(cー5)出力処理 図17は、出力処理(図8S106)のフローを示す。
まず、1つのラインについて非復元データ要求があるか
が判定される(S201)。非復元データ要求がなけれ
ば、次に、そのラインについて特徴点要求があるかが判
定される(S202)。特徴点要求があれば、対応座標
上の復元識別番号(ブロックID)を探し(S20
3)、復元識別番号に関連する特徴点のデータを出力し
て(S204)、S201に戻り、次の処理を行う。S
202で特徴点要求がなければ、次に、全データの出力
があったかが判定され(S210)、まだ処理していな
いデータがあれば、S201に戻り、次の処理を行う。
非復元データ要求があれば(S201でYES)、対応
座標にデータがあり(S205でYES)、かつ、同一
ブロック内に特徴点フラグが立っていない場合は(S2
06でYES)、データを出力する(S207)。そし
て、S201に戻り、次の処理を行う。なお、第二実施
例で特徴点生成部22に出力する場合は、元データとブ
ロック情報を出力する。(C-5) Output Processing FIG. 17 shows the flow of the output processing (S106 in FIG. 8).
First, it is determined whether there is a non-restored data request for one line (S201). If there is no non-restored data request, it is then determined whether there is a feature point request for that line (S202). If there is a feature point request, the restoration identification number (block ID) on the corresponding coordinates is searched (S20).
3) Then, the data of the feature point related to the restoration identification number is output (S204), the process returns to S201, and the next process is performed. S
If there is no feature point request in 202, it is then determined whether or not all data has been output (S210). If there is data that has not been processed, the process returns to S201 and the next process is performed.
If there is a non-restored data request (YES in S201), there is data in the corresponding coordinates (YES in S205), and if the feature point flag is not set in the same block (S2).
If YES in 06), the data is output (S207). Then, the process returns to S201 to perform the next processing. When outputting to the feature point generator 22 in the second embodiment, the original data and the block information are output.
【0024】(d)画像復元 画像復元部13では、ベクトル化された複数の輪郭を展
開し、展開された輪郭をラスター状に走査し、輪郭の奇
数番目から偶数番目までの点を所定の濃度で塗りつぶし
て行う。塗りつぶしの濃度は、特徴点が含まれていたブ
ロックの平均濃度を用いる。輪郭を表すルールの一例を
以下に示す(図18参照)。 ・所定以上の長さの直線は、始点と終点からなり、各点
は微小距離に配置された2つの特徴点(計4点)で構成
される。 ・距離の短い円弧は、短い直線で近似する。微小距離以
内に配置する場合は、特徴点の合計は、変則点と判定し
ないため3点以外とする。 ・長い曲線は、所定の距離以上離れた始点、中点、およ
び、終点を通る円弧で近似し、中点は、始点と終点のち
ょうど中間に位置し、各点は単独の特徴点である。 ・変則点は、所定の微小距離以内に配置された3点で構
成され、輪郭の変形方法は、前後の特徴点との位置関係
で決められている。 ・いずれにもあてはまらない点は、直線とみなす。 ・1つの曲線には、少なくとも1つの直線を含む。 図19は、画像復元部13のブロック図である。プログ
ラムメモリ135には、画像復元プロセッサ134で実
行されるプログラムが記憶される。画像復元プロセッサ
134は、このプログラムを実行して、バスB11を通
じて復元データの要求が発生すると、バスB1を通じて
特徴点を入力し、ブロックごとに塗りつぶし作業メモリ
137上で復元を行い、出力バッファ138に展開し、
ライン単位ごとにバスB11に復元画像を出力する。(D) Image Restoration The image restoration unit 13 develops a plurality of vectorized contours, scans the rasterized contours in a raster pattern, and applies odd-numbered to even-numbered points of the contours to predetermined density. Fill with. As the filling density, the average density of the blocks including the feature points is used. An example of a rule representing the contour is shown below (see FIG. 18). -A straight line having a length equal to or longer than a predetermined length is composed of a start point and an end point, and each point is composed of two feature points (total of 4 points) arranged at a minute distance.・ Short arcs are approximated by short straight lines. In the case of arranging within a minute distance, the total of the characteristic points is not judged to be an irregular point, and is therefore set to other than three points. -A long curve is approximated by an arc passing through a start point, a midpoint, and an end point that are separated by a predetermined distance or more. The midpoint is located exactly in the middle of the start point and the end point, and each point is a single feature point. The irregular points are composed of three points arranged within a predetermined minute distance, and the contour deformation method is determined by the positional relationship with the front and rear feature points.・ Points that do not fit in either case are considered to be straight lines. -One curve includes at least one straight line. FIG. 19 is a block diagram of the image restoration unit 13. The program executed by the image restoration processor 134 is stored in the program memory 135. The image restoration processor 134 executes this program, and when a restoration data request is generated through the bus B11, the feature points are input through the bus B1, restoration is performed on the block-filling work memory 137 for each block, and the result is stored in the output buffer 138. Unfold,
The restored image is output to the bus B11 for each line unit.
【0025】図20は、画像復元プロセッサ134の実
行する画像復元処理のフローを示す。まず、初期化を行
い(S401)、出力バッファ138をクリアする(S
402)。次に、バスB11より復元要求があると、
(S403でYES)、その対応ラインから始まるブロ
ックの特徴点を入力する(S404)。次に、復元識別
番号(ブロックID)を決め(S405)、対応する1
ブロックを復元し(S406、図21参照)、出力バッ
ファ138へ出力する(S407)。次に、そのライン
について全ブロックが復元されていなければ(S408
でNO)、S405に戻り、次のブロックの処理を続け
る。全ブロックが復元されると(S408でYES)、
その1ラインのデータを出力する(S409)。次に、
全ラインのデータが復元されていないと判定されると
(S410でNO)、S403に戻り、次のラインにつ
いての復元要求がくるのを待つ。全ラインの処理が終了
したと判定されると(S410でYES)、S402に
戻り、出力バッファをクリアする(S402)。FIG. 20 shows a flow of image restoration processing executed by the image restoration processor 134. First, initialization is performed (S401) and the output buffer 138 is cleared (S
402). Next, if there is a restoration request from the bus B11,
(YES in S403), the feature point of the block starting from the corresponding line is input (S404). Next, the restoration identification number (block ID) is determined (S405), and the corresponding 1
The block is restored (S406, see FIG. 21) and output to the output buffer 138 (S407). Next, if all blocks have not been restored for that line (S408).
No), the process returns to S405 to continue the processing of the next block. When all blocks are restored (YES in S408),
The data of the one line is output (S409). next,
If it is determined that the data of all lines have not been restored (NO in S410), the process returns to S403 and waits for a restore request for the next line. If it is determined that the processing for all lines is completed (YES in S410), the process returns to S402 and the output buffer is cleared (S402).
【0026】図21は、1ブロック復元(図20S40
6)のフローを示す。まず、1つの輪郭において直線部
を捜し、始点を決める(S421)。始点の判定は図1
8に示すように行われる。変則点は、所定の微小距離以
内に3個の特徴点があることにより判定できる。直線
は、短い距離内に3個以外の数の特徴点がほぼ一列に位
置していることにより、かつ、同様なもう1つの特徴点
の組との間が長い距離で直線でつながれていることによ
り判定できる。距離の短い円弧は、短い直線で表して判
定する。また、円弧は、3個の特徴点A、B、Cについ
て特徴点A、Bを結ぶ直線の中心に垂直に交わる直線と
特徴点B、Cを結ぶ直線の中心に垂直に交わる直線との
交点を中心としたとき、この中心から特徴点A、B、C
への距離が所定の誤差以内であることにより判定でき
る。次に、1つの輪郭について、1つの特徴点を取り出
す(S422)。取り出した特徴点が変則点であると判
定すると(S423でYES)、残りの2特徴点を取り
だし(S424)、変則点の前後の特徴点との位置関係
を調べ(S425)、変形カーブを作業メモリ136に
描画する(S426)。また、その点が直線であると判
定すると(S432でYES)、直線分を取りだし(S
433)、直線を作業メモリ136に描画する(S43
4)。さらに、その点が円弧であると判定すると(S4
35でYES)、円弧分のデータを取りだし(S43
6)、円弧を作業メモリ136に描画する(S43
7)。その点が円弧でもなければ(S435でNO)、
S434に進み、直線を描画する。次に、最終位置が始
点であるかが判定され(S427)、始点でなければ、
S422に戻り、次の点の処理を続ける。最終位置が始
点であると判定されると、1つの輪郭の処理が終了した
ので、次に、全輪郭(全ベクター)の処理が終了したか
を判定し(S428)、まだ終了していない場合は、S
421に戻り、次の輪郭の復元処理を行う。全輪郭の処
理が終了していれば、ライン単位にスキャンし(S42
9)、塗りつぶし作業メモリ137において輪郭線間を
指定濃度で塗る(S430)。この塗りつぶしを全ライ
ンについて終了するまで(S431でYES)、続け
る。FIG. 21 shows one block restoration (S40 in FIG. 20).
The flow of 6) is shown. First, a straight line portion is searched for in one contour to determine a starting point (S421). Figure 1 shows the starting point
It is performed as shown in FIG. The irregular point can be determined by the fact that there are three feature points within a predetermined minute distance. A straight line should have a number of feature points other than three located in a line within a short distance, and be connected to another similar set of feature points by a long distance. Can be determined by. Circular arcs with a short distance are represented by short straight lines. An arc is an intersection of a straight line perpendicular to the center of the straight line connecting the feature points A and B and a straight line perpendicular to the center of the straight line connecting the feature points B and C for the three feature points A, B and C. When the center is, the characteristic points A, B, C from this center
It can be determined that the distance to is within a predetermined error. Next, one feature point is extracted for one contour (S422). When it is determined that the extracted feature points are irregular points (YES in S423), the remaining two characteristic points are extracted (S424), the positional relationship between the irregular point and the characteristic points before and after the irregular point is checked (S425), and the deformation curve is worked. Drawing in the memory 136 (S426). If it is determined that the point is a straight line (YES in S432), a straight line segment is taken out (S
433), and draw a straight line in the working memory 136 (S43).
4). Furthermore, if it is determined that the point is an arc (S4
(YES at 35), the data for the arc is extracted (S43
6) Draw an arc in the work memory 136 (S43)
7). If the point is not an arc (NO in S435),
In step S434, a straight line is drawn. Next, it is determined whether the final position is the start point (S427). If it is not the start point,
Returning to S422, the processing of the next point is continued. If it is determined that the final position is the start point, the processing of one contour is completed, so it is next determined whether the processing of all contours (all vectors) is completed (S428). Is S
Returning to 421, the next contour restoration process is performed. If processing of all contours is completed, scanning is performed line by line (S42
9) Then, the space between the contour lines is painted at the designated density in the painting work memory 137 (S430). This filling is continued until it is completed for all lines (YES in S431).
【0027】(e)特徴点付加部 図22は、特徴点付加部14の機構を示す。特徴点付加
部14では、特徴点座標を入力し、対応する座標に所定
の濃度のデータを出力画像に付加する。濃度補正部14
1は、本実施例では使用しない。非復元画像に含まれる
特徴点に使用する濃度と同濃度の画像を特徴点と混在し
ないように濃度をシフトする。セレクタ143は、特徴
点座標bが入力されたとき、画像情報ではなく、特徴点
濃度データを選択する。これにより、画像データと特徴
点データとを合成する。また、操作部16において加工
モードが設定されると、セレクタ143での特徴点の付
加を禁止できる。なお、先に説明したように、操作部1
6から編集モードが指定されると、編集部12におい
て、抽出された特徴点データと、復元部13から出力さ
れる特徴点を含まない領域の画像データとはそれぞれ独
立に回転,拡大などの編集処理がなされる。編集後の2
種のデータは上述の特徴点付加処理によって合成でき
る。(E) Feature Point Addition Unit FIG. 22 shows the mechanism of the feature point addition unit 14. The feature point addition unit 14 inputs the feature point coordinates and adds data of a predetermined density to the output image at the corresponding coordinates. Density correction unit 14
1 is not used in this embodiment. The density is shifted so that an image having the same density as the density used for the feature points included in the non-restored image is not mixed with the feature points. When the feature point coordinate b is input, the selector 143 selects the feature point density data instead of the image information. As a result, the image data and the feature point data are combined. Further, when the processing mode is set on the operation unit 16, addition of feature points by the selector 143 can be prohibited. As described above, the operation unit 1
When the edit mode is designated by 6, the editing unit 12 independently edits the extracted feature point data and the image data of the region not including the feature points output from the restoration unit 13 such as rotation and enlargement. Processing is done. 2 after editing
The seed data can be synthesized by the above-described feature point addition processing.
【0028】B.第2実施例 (f)ハードコピー時の特徴点生成・付加 以上の実施例で説明したような原稿生成時に特徴点を付
加してある原稿については、コピーを繰り返しても画像
の劣化を抑えることはできるが、特徴点を含まない通常
原稿や一部に通常原稿を切り貼りしたような原稿では、
コピーによる画像の劣化を抑えることができない。そこ
で、そのような原稿に対して、ハードコピー時に特徴点
を付加すると、それ以降のコピーにおいて劣化を防止で
きる。図23は、特徴点の付加生成が可能なデジタル複
写機の画像処理回路のブロック図を示す。この画像処理
回路では、画像読取装置などからバスB1を介して入力
されたデジタル画像データについて、画像解析部21で
特徴点抽出と領域判別の処理が行われる。すなわち、入
力画像データから特徴点が抽出され、抽出された特徴点
は領域判別に使用される。すなわち、入力画像データ
は、特徴点を含む復元可能領域と特徴点を含まない復元
不可能領域とに分離される。復元不可能領域では、入力
画像データをそのまま後の処理で使用するとともに、特
徴点生成部22において入力画像データから特徴点を生
成する。復元可能領域では、入力画像データは使用せ
ず、画像復元部23において、抽出された特徴点を用い
て画像データを復元して出力する。これらの画像データ
は、特徴点付加部24で合成され、さらに、生成した特
徴点が付加される。特徴点の濃度が、複数設定可能な場
合は、特徴点近傍の濃度に最も近い濃度の特徴点を付加
する。また、特徴点は、操作部25で設定される加工モ
ードによっては、付加せずに出力できる。最後に、最適
化部26において、画像の濃度を、操作部25から入力
された加工モードに従って円滑化処理などで補正して、
バスB2に出力する。B. Second Embodiment (f) Generation / Addition of Feature Points During Hard Copy For documents with feature points added during document generation as described in the above embodiments, image deterioration is suppressed even when copying is repeated. Although it is possible, for a normal document that does not include feature points or a document that is cut and pasted on a part of the normal document,
Image deterioration due to copying cannot be suppressed. Therefore, by adding a feature point to such an original during hard copy, deterioration can be prevented in subsequent copies. FIG. 23 is a block diagram of an image processing circuit of a digital copying machine capable of generating additional feature points. In this image processing circuit, the image analysis unit 21 performs feature point extraction and area determination processing on digital image data input from an image reading device or the like via the bus B1. That is, the characteristic points are extracted from the input image data, and the extracted characteristic points are used for area discrimination. That is, the input image data is separated into a restorable area that includes the feature points and a non-restorable area that does not include the feature points. In the non-restorable area, the input image data is used as it is in the subsequent processing, and the feature point generation unit 22 generates feature points from the input image data. In the restorable area, the input image data is not used, and the image restoration unit 23 restores and outputs the image data using the extracted feature points. These image data are combined by the feature point adding unit 24, and the generated feature points are added. When multiple densities of feature points can be set, the feature point having the density closest to the densities near the feature points is added. Further, the feature points can be output without being added depending on the processing mode set by the operation unit 25. Finally, in the optimization unit 26, the density of the image is corrected by smoothing processing or the like according to the processing mode input from the operation unit 25,
Output to bus B2.
【0029】図24は、特徴点の生成法を示す。領域判
別により特徴点が付加されていないと判定された非復元
領域の入力画像(a)について、まず、輪郭線の抽出が
行われる(b)。形状が簡単な場合は、この情報から直
ちに輪郭の特徴点を拾い出してもよいが、文字のような
場合には、読み取り時のノイズなどが含まれるため、一
度スムージング処理をして輪郭を直線近似する(c)。
次に、この直線の交点で、かつ、パターンの内側を特徴
点の座標とする(d)。FIG. 24 shows a method of generating feature points. With respect to the input image (a) of the non-restored area determined to have no feature point added by the area determination, the contour line is first extracted (b). If the shape is simple, the contour feature points may be immediately picked up from this information.However, in the case of characters, noise such as when reading is included, so smoothing is performed once to make the contour straight. Approximate (c).
Next, the coordinates of the feature points are set at the intersections of the straight lines and inside the pattern (d).
【0030】図25は、特徴点生成部22のブロック図
である。特徴点生成プロセッサ181は、バスB15、
B16からインタ−フェ−ス185、186を介して入
力される要求に応じて処理を開始し、バスB12よりイ
ンターフェース184を介して特徴点を含まないブロッ
クの情報(非復元情報)を入力し、これに対応して特徴
点を生成し、特徴点メモリ187に入力する。生成した
特徴点の情報は、バスB15へ出力し、元の画像をバス
B16に出力する。なお、特徴点メモリ187内のデー
タ構成は、画像解析プロセッサ123((c−2)節参
照)の場合と同じである。特徴点生成プロセッサ181
の処理(図26〜図29参照)の内容は、次の通りであ
る。 ・要求されたラインから始まるブロックの情報(ブロッ
ク管理メモリ124のデータ)を入力する。 ・輪郭をなぞって円弧か直線に近似していく。 ・変則処理により復元時間の短縮が可能な輪郭があるか
探し、あれば、輪郭を変形する。 ・1ライン分終了すれば、特徴点を特徴点メモリ187
からバスB15へ出力し、元の画像をバスB12(画像
メモリ111の内容)から入力し、バスB16へ出力す
る。FIG. 25 is a block diagram of the feature point generator 22. The feature point generation processor 181 uses the bus B15,
Processing is started in response to a request input from the B16 via the interfaces 185, 186, and information of a block not containing a feature point (non-restoration information) is input from the bus B12 via the interface 184. Correspondingly, feature points are generated and input to the feature point memory 187. The generated feature point information is output to the bus B15, and the original image is output to the bus B16. The data structure in the feature point memory 187 is the same as that of the image analysis processor 123 (see section (c-2)). Feature point generation processor 181
The contents of the process (see FIGS. 26 to 29) are as follows. Input the information of the block starting from the requested line (data of the block management memory 124).・ Trace the contour to approximate an arc or straight line. -If there is a contour whose restoration time can be shortened by the irregular processing, and if there is, transform the contour.・ When one line is completed, the feature point is stored in the feature point memory 187.
To the bus B15, the original image is input from the bus B12 (contents of the image memory 111), and is output to the bus B16.
【0031】図26は、特徴点生成プロセッサ181の
制御のフローを示す。初期化(S601)の後、特徴点
生成の要求を待つ(S602)。要求があると、対応ラ
インから始まるブロックの情報を入力し(S603)、
対象とする復元識別番号(ブロックID)を決め(S6
04)、特徴点生成処理(S605、図27参照)と変
則処理(S606、図29参照)を行う。この処理を全
ブロックについて完了する(S607でYES)まで行
う。そして、1ラインの元データをバスB12より入力
し(S608)、1ラインを出力する(S609)。そ
して、S602に戻り、次の要求を待つ。図27は、特
徴点生成(S605)のフローを示す。指定された復元
識別番号(ID)の特徴点を探し(S621)、最小円
弧に対応する長さまで輪郭をなぞる(S622)。すな
わち、ブロック情報を元に距離を計算しつつ輪郭をたど
る。次に、円弧判定を行い(S623、図28参照)、
円弧である(S624でYES)と判定されると、1画
素だけ次の特徴点を決め(S625)、円弧判定を行う
(S626、図28参照)。そして、円弧である(S6
27でYES)と判定されると、S625に戻り、次の
特徴点の円弧判定を行う。円弧でない(S627でN
O)と判定されると、それまでの円弧の特徴点のデータ
を特徴点メモリ187へ出力する(S628)。S62
4で円弧でないと判定されると、次に、最小二乗法によ
り直線判定をおこなう(S632)。そして、直線であ
る(S633でYES)と判定されると、1画素だけ次
の特徴点を決め(S634)、直線判定を行う(S63
6)。そして、直線でない(S636でNO)と判定さ
れると、長い直線の特徴点のデータを特徴点メモリ18
7へ出力する(S638)。円弧でも直線でもない(S
633でNO)と判定されると、区間を微小直線で特徴
点メモリ187へ出力する(S638)。この判定と出
力を特徴点が始点と同じになる(S639でYES)ま
で、すなわち、1つの輪郭が終るまで続ける。そして、
始点に接続し(S630)、1つの輪郭にする。さら
に、以上の処理を全輪郭が完了する(S631でYE
S)まで続ける。FIG. 26 shows a control flow of the feature point generation processor 181. After initialization (S601), the process waits for a feature point generation request (S602). When requested, the information of the block starting from the corresponding line is input (S603),
Decide the target restoration identification number (block ID) (S6
04), feature point generation processing (S605, refer to FIG. 27) and irregular processing (S606, refer to FIG. 29). This process is repeated until all blocks are completed (YES in S607). Then, the original data of one line is input from the bus B12 (S608) and one line is output (S609). Then, the process returns to S602 and waits for the next request. FIG. 27 shows a flow of feature point generation (S605). A feature point having the designated restoration identification number (ID) is searched for (S621), and the contour is traced to a length corresponding to the minimum arc (S622). That is, the contour is traced while calculating the distance based on the block information. Next, an arc determination is performed (S623, see FIG. 28),
If it is determined to be an arc (YES in S624), the next feature point is determined by one pixel (S625), and the arc determination is performed (S626, see FIG. 28). And it is an arc (S6
If YES is determined in 27, the process returns to S625, and the arc of the next feature point is determined. Not an arc (N in S627
If it is determined to be O), the data of the characteristic points of the circular arc up to that point is output to the characteristic point memory 187 (S628). S62
If it is determined that the arc is not a circular arc in 4, then straight line determination is performed by the least squares method (S632). Then, if it is determined to be a straight line (YES in S633), the next feature point is determined for one pixel (S634), and the straight line determination is performed (S63).
6). When it is determined that the line is not a straight line (NO in S636), the data of the long straight line feature points is stored in the feature point memory 18
It outputs to 7 (S638). It is neither an arc nor a straight line (S
If it is determined to be NO in 633, the section is output to the feature point memory 187 as a minute straight line (S638). This determination and output are continued until the feature point becomes the same as the start point (YES in S639), that is, until one contour ends. And
The contour is connected to the starting point (S630) to form one contour. Further, the above processing is completed for all contours (Y in S631).
Continue until S).
【0032】図28は、円弧判定(図27のS623,
S626)のフローを示す。まず、始点と終点とを決め
(S651)、中点を求める(S652)。必要なら、
ノイズ処理を行う。次に、中点がパターンの内部である
かを判定する(S653)。内部でなければ、エラーと
判定して(S658)、この処理を終了する。内部であ
れば、次に、仮の中心を求め(S654)、中心から各
点までの距離を求める(S655)。各点への距離が所
定の誤差以内である(S656でYES)と判定される
と、”円弧”であると判定し(S657)、そうでない
と、エラーと判定し(S658)、そのデータを無視す
る。FIG. 28 shows an arc determination (S623 in FIG. 27).
The flow of S626) is shown. First, the start point and the end point are determined (S651), and the midpoint is obtained (S652). If necessary
Perform noise processing. Next, it is determined whether the midpoint is inside the pattern (S653). If it is not internal, it is determined to be an error (S658), and this processing ends. If it is inside, then a provisional center is obtained (S654), and the distance from the center to each point is obtained (S655). If it is determined that the distance to each point is within a predetermined error (YES in S656), it is determined to be an "arc" (S657), otherwise, it is determined to be an error (S658), and the data is ignore.
【0033】図29は、変則処理(図26のS606)
のフローを示す。まず、直線でない点を探し(S67
1)、所定パターンと比較する(S672)。誤差が所
定以下であれば(S673でYES)、変形したデータ
と入れ換える(S674)。これを各特徴点について終
了する(S675でYES)まで繰り返す。FIG. 29 shows an irregular process (S606 in FIG. 26).
Shows the flow of. First, find a point that is not a straight line (S67
1), compare with a predetermined pattern (S672). If the error is less than the predetermined value (YES in S673), the transformed data is replaced (S674). This is repeated until each feature point ends (YES in S675).
【0034】C.第3実施例 (g)濃度の基準パターン 以上に説明した特徴点では、画像の濃度レベルが重要と
なる。そこで、特徴点の濃度をいかに正確に読み取るか
が課題となる。濃度の適正化の方法として、複写機の自
動露光で用いられているように、基準パターンを読み込
み、、基準パターンの濃度変動に合わせて入力データを
補正する方法を用いることができる。基準パターンの作
成方法として、原稿内の使用に支障のない領域に、あら
かじめ印字しておく方法がある。図30は、原稿上のレ
イアウトの例を示す。基準パターンは、原稿の左下の端
に印字される。基準濃度(左側)は、各特徴点のマーク
(M1,M2,…)と特徴点の使用濃度数などの付加情
報(右側)も合わせて印字される。基準パターンの読み
込みは、自動露光と同じように、実際の読み込みに先立
つ仮の原稿操作で読み取ってもよいし、原稿情報をすべ
て読み込み、基準パターンを取り出してもよい。図31
は、原稿情報をすべて読み込み基準パターンを取り出す
後者の場合の処理のフローの例を示す。すなわち、図7
に示す画像解析部11において、画像解析プロセッサ1
23は、特徴点抽出と領域判別を行うが、本実施例で
は、特徴点抽出の前に基準濃度検出を行う。そして、特
徴点抽出において、画像メモリ111からの画像データ
を検出された基準濃度と比較し、その判定結果から所定
の基準濃度に一致する場合に特徴点であると判定する。
この基準濃度読取において、次に説明する例のように複
数の濃度レベルの特徴点が設定されている場合には、各
特徴点に対応する基準パターンの濃度を読み取り、特徴
点の判別に使用する。C. Third Embodiment (g) Density Reference Pattern At the characteristic points described above, the density level of the image is important. Therefore, how to accurately read the density of feature points becomes an issue. As a method of optimizing the density, a method of reading a reference pattern and correcting the input data according to the density variation of the reference pattern, as used in automatic exposure of a copying machine, can be used. As a method of creating the reference pattern, there is a method of printing in advance in an area in the document that does not hinder the use. FIG. 30 shows an example of a layout on a document. The reference pattern is printed on the lower left edge of the document. The reference density (left side) is also printed together with the mark (M1, M2, ...) Of each feature point and additional information (right side) such as the number of used densities of the feature point. Similar to the automatic exposure, the reference pattern may be read by a temporary manuscript operation prior to the actual reading, or all the manuscript information may be read and the reference pattern may be taken out. Figure 31
Shows an example of the flow of processing in the latter case where all the document information is read and the reference pattern is taken out. That is, FIG.
In the image analysis unit 11 shown in FIG.
Reference numeral 23 performs feature point extraction and area discrimination, but in the present embodiment, reference density detection is performed before feature point extraction. Then, in the feature point extraction, the image data from the image memory 111 is compared with the detected reference density, and if the determination result matches the predetermined reference density, it is determined to be a feature point.
In this reference density reading, when feature points of a plurality of density levels are set as in the example described below, the density of the reference pattern corresponding to each feature point is read and used for the feature point determination. ..
【0035】(h)中間調画像における低い濃度での特
徴点の付加 中間調画像においては、原稿の一部に濃度を変えて特徴
点を付加する場合、中間調画像に対して影響が小さくな
るように特徴点を付加する必要がある。第1実施例のよ
うに濃い濃度の特徴点を付加すると、特徴点が画像のノ
イズとなることがある。そこで、本実施例では、特徴点
の濃度として、画像の濃度分布の全体にわたるように複
数の濃度を用いる。この方法では、複数の濃度バンドに
特徴点を割り当て、特徴点を付加しようとしている画像
の濃度に最も近い濃度を特徴点に割り当てる。特徴点の
濃度は、各濃度バンドの中央の濃度である。これによ
り、濃度の低い領域を含む原稿に対しても、画像への影
響を極力小さくなるようにして低い濃度の特徴点を付加
できる。図32に示す例では、4つの特徴点の濃度In
(n=1,2,3,4)が用いられ、濃度In(n=
2,3,4)は、画像濃度領域内にある。特徴点の濃度
In以外では、入力画像データは、そのまま画像データ
として取り込まれる。また、図32の右側には、1つの
特徴点濃度I2の近傍の状況を示す。ただし、特徴点の
近傍では、ハードコピーを生成する場合、特徴点は所定
の濃度Inで書き込むが、読取装置で読み取ると、ハー
ドコピーの品質や読取精度によりばらつきを生じる。そ
こで、ばらつきの幅をWaとし、この範囲の濃度の画像
は、特徴点とみなす。また、画像データもばらつきが生
じるため、その両側の幅Wbの範囲は、同一レベルDn
の画像とみなす。(H) Addition of feature points at low density in a halftone image In a halftone image, if the feature points are added to a part of the original document by changing the density, the effect on the halftone image is reduced. It is necessary to add feature points like this. When feature points with a high density are added as in the first embodiment, the feature points may cause image noise. Therefore, in this embodiment, a plurality of densities are used as the densities of the characteristic points so as to cover the entire density distribution of the image. In this method, characteristic points are assigned to a plurality of density bands, and the density closest to the density of the image to which the characteristic points are to be added is assigned to the characteristic points. The density of the feature point is the density at the center of each density band. As a result, even for a document including a low density area, it is possible to add feature points of low density by minimizing the influence on the image. In the example shown in FIG. 32, the concentration In of four feature points In
(N = 1, 2, 3, 4) is used, and the concentration In (n =
2, 3, 4) are within the image density area. Except for the density In of the feature points, the input image data is directly captured as image data. The right side of FIG. 32 shows a situation in the vicinity of one feature point density I2. However, in the vicinity of the feature point, when a hard copy is generated, the feature point is written with a predetermined density In, but when read by a reading device, variations occur due to the quality and reading accuracy of the hard copy. Therefore, the width of the variation is set to Wa, and the image having the density in this range is regarded as the feature point. Further, since the image data also varies, the range of the width Wb on both sides of the image data is the same level Dn.
Image.
【0036】(i)濃度変化の連続性に対応した特徴点
抽出 上のように画像データの濃度範囲内に特徴点の濃度バン
ドを割り当てると、ダイナミックレンジの低下の問題が
生じる。すなわち、ハードコピー上で表現可能な濃度範
囲が決まっているため、特徴点に割り当てを行うと、画
像として使用できる範囲が少なくなってしまう。また、
特徴点が画像のノイズを生じる場合がある。多値中間調
原稿には、濃度が連続的に変化する画像がある(図33
の(a))。この場合、ハードコピー上では特徴点に割
り当てる近傍の濃度が使用できないため、その濃度にそ
って、筋状のノイズが発生する。一方、多値中間調画像
には、領域ごとに濃度が一定な画像もある(図33の
(b))。この場合、特徴点の近傍の濃度があれば、強
制的に特徴点の濃度を少し移動することにより画像の変
化を回避できる。具体的には、図22における特徴点付
加部14の濃度補正部141において、非復元画像に含
まれる特徴点に使用する濃度と同濃度の画像を特徴点と
混在しないように濃度をシフトする。(I) Extraction of Feature Point Corresponding to Continuity of Density Change If a density band of feature points is assigned within the density range of image data as described above, there arises a problem of reduction in dynamic range. In other words, since the density range that can be expressed on the hard copy is determined, if the characteristic points are assigned, the range that can be used as an image will be reduced. Also,
Feature points can cause image noise. In a multi-value halftone original, there is an image whose density changes continuously (see FIG. 33).
(A)). In this case, since the density in the vicinity assigned to the feature point cannot be used on the hard copy, streak-like noise is generated along with the density. On the other hand, in the multi-value halftone image, there is an image in which the density is constant for each area ((b) of FIG. 33). In this case, if there is a density in the vicinity of the feature point, a change in the image can be avoided by forcibly moving the density of the feature point slightly. Specifically, the density correction unit 141 of the feature point addition unit 14 in FIG. 22 shifts the density so that an image having the same density as the density used for the feature points included in the non-restored image is not mixed with the feature points.
【0037】この2種の画像は、次のように判別でき
る。いま、濃度I1の特徴点が位置P1にあるとする。
判別は、縦横の両方について行う方が望ましい。濃度を
1つの方向に読み取ったとき、図34の(a)のように
特徴点の近傍において濃度が連続的に変化する場合は、
特徴点とみなさず、画像データの一部とみなす。一方、
図34の(b)のように、特徴点の近傍において濃度が
不連続になる場合は、特徴点とみなす。そこで、ブロッ
ク化処理において、画像の濃度の変化を1つの方向で検
出しているので、同様に濃度変化を検出して特徴点に割
り当てた濃度で画像が連続的に変化すると判定した場合
には、その濃度と異なった濃度の特徴点を付加し、そう
でなければ、その濃度の特徴点を付加することにする。
ハードコピーの読取の際も、1つの方向の濃度変化から
特徴点に割り当てた濃度で画像が連続的に変化すると判
定した場合には、特徴点でないと判定し、画像データの
一部とみなせばよい。また、その濃度で不連続に変化す
る場合は特徴点を検出したと判定する。The two types of images can be discriminated as follows. Now, it is assumed that the characteristic point of the density I1 is at the position P1.
It is desirable to make the discrimination both vertically and horizontally. When the density is read in one direction and the density continuously changes in the vicinity of the feature point as shown in FIG.
It is not considered as a feature point but as a part of image data. on the other hand,
When the density becomes discontinuous in the vicinity of the feature point as shown in FIG. 34B, it is regarded as the feature point. Therefore, in the blocking process, the change in the density of the image is detected in one direction. Therefore, if the density change is similarly detected and it is determined that the image continuously changes at the density assigned to the feature point, , A characteristic point with a different density from that density is added, and if not, a characteristic point with that density is added.
Even when reading a hard copy, if it is determined that the image continuously changes at the density assigned to the characteristic point from the density change in one direction, it is determined that the image is not the characteristic point and it is regarded as a part of the image data. Good. If the density changes discontinuously, it is determined that the feature point is detected.
【0038】(j)濃度が連続的に変化する中間調画像
に対する特徴点の付加 原則として、特徴点のために所定の濃度のバンドを割り
当てているが、図35の(a)のように、画像の濃度が
連続的に変化する場合には、第1実施例のように全バン
ドを画像に割り当てる。濃度が連続的に変化する場合に
は、濃度が連続的に変化する領域には輪郭線を想定する
必要がないので、これにより問題は生じない。しかし、
濃度が連続的に変化するような画像においては、先に説
明したように、原稿濃度領域で特徴点を割り当てるとノ
イズが発生してしまう。そこで、濃度が連続的に変化す
るような画像データに対してノイズの発生を抑えるた
め、本実施例では、原稿濃度領域では、感度を原稿濃度
に対し連続的にリニアに割り当てる。そして、図34の
(b)のように濃度変化が不連続になる場合には、特徴
点に割り当てる濃度バンドWaを除いても全内部データ
が表現可能なように、図35の(b)に拡大して示すよ
うに、感度を部分的に変更する。すなわち、特徴点に割
り当てたバンドWaに続くバンドWbにおいて、原稿濃
度に対する画像データの傾きを異ならせる。これによ
り、バンドWa内の原稿濃度をバンドWa外に割り当て
る。また、感度を変更するバンドの幅を1つ下の特徴点
用のバンドから現在のバンドまでに変更してもよい。図
36は、この方法において、特徴点を関連する画像から
識別する画像処理部の構成を示す。これまで説明した画
像解析プロセッサ123の処理との相違は、領域判別処
理におけるブロック化処理112にある。ここでは、ブ
ロックは、単に離れているパターンだけでなく、隣あう
濃度差が所定レベル以上ある画像の場合も、異なるブロ
ックとみなす。そして、こうして得られたブロックに対
して、領域の識別113を行う。また、特徴点を含まな
い領域の画像で特徴点近傍の濃度については、濃度補正
処理114を行い、内部データが連続的になるように補
正する。すなわち、図35の(b)の幅Wb内のデータ
を幅WaとWbの範囲のデータに変換する。(J) Addition of feature points to a halftone image in which the densities are continuously changed In principle, a band of a predetermined density is assigned to the feature points. However, as shown in (a) of FIG. When the image density changes continuously, all bands are assigned to the image as in the first embodiment. If the density changes continuously, this does not cause a problem because it is not necessary to assume a contour line in the area where the density changes continuously. But,
In an image in which the density changes continuously, noise is generated when the characteristic points are assigned in the original density area, as described above. Therefore, in order to suppress the occurrence of noise in image data whose density changes continuously, in this embodiment, in the document density area, the sensitivity is continuously and linearly assigned to the document density. When the density change becomes discontinuous as shown in FIG. 34B, all internal data can be expressed even if the density band Wa assigned to the feature points is excluded. The sensitivity is partially changed, as shown enlarged. That is, in the band Wb following the band Wa assigned to the characteristic points, the inclination of the image data with respect to the document density is made different. As a result, the document density in the band Wa is assigned to the outside of the band Wa. Further, the width of the band for which the sensitivity is changed may be changed from the band for the next lower characteristic point to the current band. FIG. 36 shows the configuration of an image processing unit for identifying feature points from related images in this method. The difference from the processing of the image analysis processor 123 described above is the blocking processing 112 in the area discrimination processing. Here, a block is regarded as a different block not only in a pattern that is simply separated but also in an image in which adjacent density differences have a predetermined level or more. Then, the area identification 113 is performed on the block thus obtained. In addition, for the density in the vicinity of the feature point in the image of the area not including the feature point, the density correction processing 114 is performed to correct the internal data so as to be continuous. That is, the data within the width Wb of FIG. 35B is converted into the data within the range of the widths Wa and Wb.
【0039】C.第3実施例 (k)オリジナル原稿作成時の特徴点付加 特徴点は、オリジナル原稿作成時に付加されているのが
望ましい。図37は、アウトラインフォントを備えるコ
ンピュータ(ワープロなど)でオリジナルの原稿を作成
するときに特徴点を付加するための、プリンタ機能付デ
ジタル複写機の構成を示す。コンピュータからのアウト
ラインフォントのコード情報はコード処理部31に入力
され、画像データを生成して、画像処理部33に出力さ
れ、印字部34で印字される。一方、オリジナル原稿に
特徴点を付加する場合は、原稿から読み取った画像デー
タは画像入力部32を介して画像処理部33に入力され
る。また、コード情報よりコード処理部31において、
アウトラインフォントデータから特徴点が算出され、画
像処理部33に送られる。操作部35から加工モードを
設定することにより、画像処理部33において特徴点の
付加が行われる。画像処理部33で特徴点が付加された
データは印字部34で紙に印字され、ハードコピーが得
られる。図38は、画像処理部33とコード処理部31
の構成を示す。コード処理部31において、コード情報
は、コード解析部51で文字を示す文字コードと、文字
の印字位置を指定する書式制御コードとに分けられる。
描画位置制御部52では、書式制御と文字パターン生成
部54から得られる文字サイズ情報から各文字の印字位
置を決めていく。文字パターン生成部54(図39参
照)では、コード解析部51から文字コードで指定され
た文字のパターンを生成し、また、アウトラインフォン
トデータからパターンの特徴点を生成する。描画処理部
53では、描画位置制御部52で得られた印字位置に、
文字パターン生成部54で得られたパターンを描画した
画像を編集する。編集された画像は、文字パターン生成
部54で得られた特徴点を特徴点付加部44で付加し
て、最適化部45で濃度などの補正をおこなった後、出
力する。画像処理部33は、第1実施例と同様に、画像
解析部(領域判別と特徴点抽出を行う)41、編集部4
2、画像復元部43、特徴点付加部44および最適化部
45からなる。C. Third Embodiment (k) Addition of Feature Points when Creating Original Document It is desirable that feature points be added when creating an original document. FIG. 37 shows the configuration of a digital copier with a printer function for adding feature points when an original document is created by a computer (word processor or the like) having an outline font. The outline font code information from the computer is input to the code processing unit 31, generates image data, is output to the image processing unit 33, and is printed by the printing unit 34. On the other hand, when the characteristic points are added to the original document, the image data read from the document is input to the image processing unit 33 via the image input unit 32. Further, from the code information, in the code processing unit 31,
The feature points are calculated from the outline font data and sent to the image processing unit 33. By setting the processing mode from the operation unit 35, the feature points are added in the image processing unit 33. The data to which the characteristic points are added by the image processing unit 33 is printed on paper by the printing unit 34, and a hard copy is obtained. FIG. 38 shows the image processor 33 and the code processor 31.
Shows the configuration of. In the code processing unit 31, the code information is divided by the code analysis unit 51 into a character code indicating a character and a format control code designating a print position of the character.
The drawing position control unit 52 determines the printing position of each character based on the character size information obtained from the format control and the character pattern generation unit 54. The character pattern generation unit 54 (see FIG. 39) generates a pattern of characters specified by the character code from the code analysis unit 51, and also generates feature points of the pattern from the outline font data. In the drawing processing unit 53, at the print position obtained by the drawing position control unit 52,
The image in which the pattern obtained by the character pattern generation unit 54 is drawn is edited. The edited image is added with the feature points obtained by the character pattern generation unit 54 by the feature point addition unit 44, corrected by the optimization unit 45 such as density, and then output. The image processing unit 33, similar to the first embodiment, has an image analysis unit (performs area discrimination and feature point extraction) 41 and an editing unit 4.
2, an image restoration unit 43, a feature point addition unit 44, and an optimization unit 45.
【0040】図39は、文字に特徴点を付加する文字パ
ターン生成部54の構成を示す。この文字パターン生成
部54は、アウトラインフォントを使用する。アウトラ
インフォントは、文字の輪郭生成に必要な座標(制御
点)を有する。制御点算出部541では、アウトライン
フォントから制御点が算出される。アウトラインフォン
ト情報部542では、文字サイズ情報を描画位置制御部
52に送る。輪郭生成部543では、制御点の座標から
輪郭を生成し、塗り潰し部545で輪郭の中を塗りつぶ
すことにより文字パターンを得る。また、特徴点算出部
544では、制御点から特徴点を算出し、特徴点付加部
44に出力する。図40は、アウトラインフォントの輪
郭をあらわす制御点の例を示す。これは、4点(P0〜
P3)をパラメータとする3次ベジェ曲線をもちいた例
である。アウトラインフォント情報は、あらかじめ決め
られた関数(この場合は3次ベジェ)に対するパラメー
タ(この場合は制御点)を中心に構成される。アウトラ
インフォントの輪郭情報は、フォントパターンの外側に
配置することができるが、特徴点は、文字パターンの内
側に配置しなければならない。簡単な方法として直線近
似があげられる。アウトラインフォントの制御点として
用いるにはデータ量が多くなるが、特徴点においては問
題はない。図41は、制御点から特徴点への変換方法を
示す。変換の考え方は、制御点から輪郭線を計算する場
合と同じである。まず、制御点P0とP1の中点P4、
制御点P2とP3の中点P5、制御点P2とP3の中点
P6を求める。次に、P4とP5、P5とP6を結ぶ線
分を計算し、輪郭線の近似としてP0−P4−P5−P
6−P3を求める。近似が不十分な場合は、さらに、こ
れらの線分の中点を結んでいく。特徴点は、近似した直
線の交点を使用する。文字の場合は、アウトラインフォ
ントの情報から計算したが、円や直線などの図形をプリ
ントする場合にも、特徴点の計算は容易にできる。FIG. 39 shows the structure of the character pattern generator 54 for adding feature points to characters. The character pattern generator 54 uses an outline font. The outline font has coordinates (control points) necessary for generating the outline of the character. The control point calculator 541 calculates control points from the outline font. The outline font information section 542 sends the character size information to the drawing position control section 52. The contour generating unit 543 generates a contour from the coordinates of the control points, and the filling unit 545 fills the inside of the contour to obtain a character pattern. Further, the feature point calculation unit 544 calculates the feature point from the control point and outputs it to the feature point addition unit 44. FIG. 40 shows an example of the control points that represent the outline of the outline font. This is 4 points (P0-
This is an example of using a cubic Bezier curve having P3) as a parameter. The outline font information is mainly composed of parameters (control points in this case) for a predetermined function (cubic Bezier in this case). The outline information of the outline font can be placed outside the font pattern, but the feature points must be placed inside the character pattern. A simple method is linear approximation. The amount of data is large to use as a control point of the outline font, but there is no problem in the feature point. FIG. 41 shows a method of converting control points into feature points. The concept of conversion is the same as the case of calculating a contour line from control points. First, the midpoint P4 between the control points P0 and P1,
A midpoint P5 between control points P2 and P3 and a midpoint P6 between control points P2 and P3 are obtained. Next, the line segments connecting P4 and P5 and P5 and P6 are calculated, and P0-P4-P5-P is used as an approximation of the contour line.
6-P3 is calculated. When the approximation is insufficient, the midpoints of these line segments are further connected. The feature points use the intersections of the approximated straight lines. In the case of characters, it was calculated from the outline font information, but even when printing a figure such as a circle or a straight line, the calculation of the characteristic points can be done easily.
【0041】D.第4実施例 (l)エラー処理 特徴点などの復元用情報を付加した場合でも、パターン
の部分的な切り貼りを行った場合や、原稿のよごれなど
で付加情報を正しく読み込めなかった場合には、再コピ
ーによる画質の低下を抑えられないだけでなく、正しく
復元できない場合がある。図42は、復元に誤りが生じ
る場合を示す。(a)の入力画像から特徴点の読み誤り
があり、(b)の輪郭を得たとする。この輪郭からは、
(c)の復元パターンが得られる。この復元パターン
は、入力画像(a)と比較され、(d)のように所定以
上の差があった場合は、特徴点の読取に誤りがあったと
みなす。図42の(d)において、ハッチングで示した
部分が復元パターン(c)と入力画像(a)との異なる
部分である。このような誤りが検出された場合は、先に
説明した方法により、新たに特徴点の生成を行う。図4
3は、読取エラー検出機能とエラー訂正機能を備えた画
像処理部の構成を示す。画像処理部は、第2実施例(図
23)の場合と同様に、画像解析部61、特徴点生成部
62、画像復元部63、特徴点付加部64、および最適
化部66からなるが、画像解析部61の構成が異なる。
画像解析部61では、画像メモリ611から読み出した
画像データについてブロック化処理612を行った後、
画像ブロック識別部613では、特徴点を含むブロック
も切り出し、比較部614へ送る。一方、特徴点抽出部
618で抽出された特徴点を基に画像復元部63におい
て復元データ(c)が得られる。この復元データも比較
部614に送られる。比較部614では、ブロック識別
部613からの非復元データ(a)と画像復元部63で
特徴点から復元したパターンとを比較し、エラーが少な
い場合には、スイッチ615、616を閉じて、復元画
像データと元の特徴点を特徴点生成部62に通し、特徴
点生成部62で非復元画像について生成した特徴点だけ
を新たに付加する。また、エラー発生時には、比較部1
9から操作部4に信号を送り、表示部にエラー発生を表
示することが望ましい。なお、本実施例では、特徴点と
して輪郭に内接する点を用いたが、必ずしも内接する必
要はない。D. Fourth Embodiment (l) Error Processing Even when information for restoration such as feature points is added, when partial cutting and pasting of the pattern is performed or when the additional information cannot be read correctly due to contamination of the original, Not only the deterioration of image quality due to recopying cannot be suppressed, but it may not be possible to restore correctly. FIG. 42 shows a case where an error occurs in the restoration. It is assumed that there is a reading error of the feature point from the input image of (a) and the contour of (b) is obtained. From this contour,
The restoration pattern of (c) is obtained. This restoration pattern is compared with the input image (a), and if there is a difference of not less than a predetermined value as shown in (d), it is considered that there is an error in reading the feature point. In FIG. 42D, the hatched portion is a portion where the restoration pattern (c) and the input image (a) are different. When such an error is detected, the feature point is newly generated by the method described above. Figure 4
3 shows the configuration of an image processing unit having a reading error detection function and an error correction function. The image processing unit includes an image analysis unit 61, a feature point generation unit 62, an image restoration unit 63, a feature point addition unit 64, and an optimization unit 66, as in the case of the second embodiment (FIG. 23). The configuration of the image analysis unit 61 is different.
In the image analysis unit 61, after performing the block processing 612 on the image data read from the image memory 611,
The image block identifying unit 613 also cuts out a block including a feature point and sends it to the comparing unit 614. On the other hand, the restored data (c) is obtained in the image restoration unit 63 based on the feature points extracted by the feature point extraction unit 618. This restored data is also sent to the comparison unit 614. The comparison unit 614 compares the non-restored data (a) from the block identification unit 613 with the pattern restored from the feature points by the image restoration unit 63. If there are few errors, the switches 615 and 616 are closed and restoration is performed. The image data and the original feature points are passed through the feature point generation unit 62, and only the feature points generated by the feature point generation unit 62 for the non-restored image are newly added. When an error occurs, the comparison unit 1
It is desirable to send a signal from 9 to the operation unit 4 to display an error occurrence on the display unit. In the present embodiment, the points inscribed in the contour are used as the characteristic points, but they do not necessarily have to be inscribed.
【0042】[0042]
【発明の効果】原稿の情報についてデジタル的に付加す
ることにより、複写による画質の劣化を防ぐとともに、
従来どおり、目視可能なハードコピーとしても使用でき
る。中間調を含む多値原稿についても、原稿への影響を
与えることなく、復元のためのデータをデジタル的に付
加できる。中間調を含む多値原稿についても、階調変化
のある場合でも、原稿への影響を与えることなく、復元
のためのデータをデジタル的に付加できる。あらかじめ
原稿上に輪郭上の重要となる点に関する復元用情報が含
まれている場合に、読み取り時に読取解像度の限界やエ
ラーにより欠落した輪郭を復元できる。出力すべき画像
情報に加えて、復元用情報を付加して出力してあるた
め、ハードコピー生成時やそのハードコピーを原稿とし
て読み込んだときに、多少変形しても、復元が可能にな
る。ハードコピー時に出力する画像データには、画像情
報に復元用情報を付加(合成)するので、加工後も再コ
ピーを行っても画質の低下が少ない。The information of the original is digitally added to prevent deterioration of the image quality due to copying, and
As before, it can also be used as a visible hard copy. Even for a multi-valued original including halftone, data for restoration can be added digitally without affecting the original. Even for a multi-valued original including halftone, even if there is a change in gradation, data for restoration can be added digitally without affecting the original. In the case where the document contains restoration information about important points on the contour in advance, it is possible to restore the contour that is missing due to the limit of reading resolution or an error during reading. Since the restoration information is added in addition to the image information to be output, the restoration can be performed even when the hard copy is generated or the hard copy is read as an original even if it is slightly deformed. Since restoration information is added (combined) to the image information in the image data output at the time of hard copy, there is little deterioration in image quality even after re-copying after processing.
【図1】特徴点を付加した画像の一例の図である。FIG. 1 is a diagram of an example of an image to which feature points are added.
【図2】図1の画像についての処理を図式的に示す図で
ある。FIG. 2 is a diagram schematically showing a process for the image of FIG.
【図3】輪郭点の例(a)〜(d)を示す図である。FIG. 3 is a diagram showing examples (a) to (d) of contour points.
【図4】多値原稿の場合の判定出力の図である。FIG. 4 is a diagram of determination output in the case of a multi-valued original.
【図5】2値原稿の場合の判定出力の図である。FIG. 5 is a diagram showing a determination output in the case of a binary original.
【図6】デジタル複写機の画像処理回路のブロック図で
ある。FIG. 6 is a block diagram of an image processing circuit of a digital copying machine.
【図7】画像解析部のブロック図である。FIG. 7 is a block diagram of an image analysis unit.
【図8】画像処理プロセッサの処理のフローチャートで
ある。FIG. 8 is a flowchart of processing of an image processing processor.
【図9】ブロック化の一例を示す図である。FIG. 9 is a diagram showing an example of blocking.
【図10】特徴点のブロック合成の一例を示す図であ
る。FIG. 10 is a diagram showing an example of block synthesis of feature points.
【図11】ブロック化処理のフローチャートである。FIG. 11 is a flowchart of a blocking process.
【図12】特徴点抽出処理のフローチャートである。FIG. 12 is a flowchart of a feature point extraction process.
【図13】画像復元部のブロック図である。FIG. 13 is a block diagram of an image restoration unit.
【図14】変則点のベクトル化の一部のフローチャート
である。FIG. 14 is a flowchart showing part of vectorization of irregular points.
【図15】変則点のベクトル化の一部のフローチャート
である。FIG. 15 is a flowchart showing a part of vectorization of irregular points.
【図16】変則点のベクトル化の一例の図である。FIG. 16 is a diagram showing an example of vectorization of irregular points.
【図17】出力処理のフローチャートである。FIG. 17 is a flowchart of output processing.
【図18】輪郭を表すルールの例を示す図である。FIG. 18 is a diagram showing an example of a rule representing a contour.
【図19】画像復元部のブロック図である。FIG. 19 is a block diagram of an image restoration unit.
【図20】画像復元のフローチャートである。FIG. 20 is a flowchart of image restoration.
【図21】1ブロック復元のフローチャートである。FIG. 21 is a flowchart of 1-block restoration.
【図22】特徴点付加部のブロック図である。FIG. 22 is a block diagram of a feature point addition unit.
【図23】特徴点の付加生成が可能な画像処理回路のブ
ロック図である。FIG. 23 is a block diagram of an image processing circuit capable of generating additional feature points.
【図24】特徴点生成の一例を示す図である。FIG. 24 is a diagram showing an example of generation of feature points.
【図25】特徴点生成部のブロック図である。FIG. 25 is a block diagram of a feature point generation unit.
【図26】特徴点生成プロセッサの処理のフローチャー
トである。FIG. 26 is a flowchart of processing of a feature point generation processor.
【図27】特徴点生成のフローチャートである。FIG. 27 is a flow chart of feature point generation.
【図28】円弧判定のフローチャートである。FIG. 28 is a flowchart of circular arc determination.
【図29】変則処理のフローチャートである。FIG. 29 is a flowchart of irregular processing.
【図30】濃度基準パターンの原稿上のレイアウトの例
を示す図である。FIG. 30 is a diagram showing an example of a layout of a density reference pattern on a document.
【図31】基準パターン読み込みのフローを示す図であ
る。FIG. 31 is a diagram showing a flow of reading a reference pattern.
【図32】複数の濃度バンドを用いる場合の特徴点の濃
度を示す図である。FIG. 32 is a diagram showing the densities of feature points when a plurality of density bands are used.
【図33】濃度が連続的に変化する画像と領域ごとに濃
度が一定な画像の一例の図である。FIG. 33 is a diagram illustrating an example of an image in which the density continuously changes and an image in which the density is constant in each region.
【図34】図33の図形の濃度変化の図である。FIG. 34 is a diagram showing a change in density of the figure in FIG. 33.
【図35】感度を部分的に変更する例の図である。FIG. 35 is a diagram of an example of partially changing the sensitivity.
【図36】特徴点を関連する画像と識別する処理のフロ
ーチャートである。FIG. 36 is a flowchart of a process of identifying a feature point from a related image.
【図37】オリジナル作成時の特徴点付加のブロック図
である。FIG. 37 is a block diagram of adding feature points when creating an original.
【図38】画像処理部とコード処理部の構成を示す図で
ある。FIG. 38 is a diagram showing a configuration of an image processing unit and a code processing unit.
【図39】文字に特徴点を付加する文字パターン生成部
のブロック図である。FIG. 39 is a block diagram of a character pattern generation unit that adds a feature point to a character.
【図40】アウトラインフォントの輪郭をあらわす制御
点の例を示す図である。FIG. 40 is a diagram showing an example of control points representing the outline of an outline font.
【図41】制御点から特徴点への変換の一例を示す図で
ある。FIG. 41 is a diagram showing an example of conversion from control points to feature points.
【図42】復元の誤りの検出を示す図である。FIG. 42 is a diagram showing detection of a restoration error.
【図43】読取エラー検出部とエラー訂正部を備えた画
像処理部のブロック図である。FIG. 43 is a block diagram of an image processing unit including a reading error detection unit and an error correction unit.
21…画像解析部、 22…特徴点解析部、23…画
像復元部、 24…特徴点付加部。21 ... Image analysis unit, 22 ... Feature point analysis unit, 23 ... Image restoration unit, 24 ... Feature point addition unit.
Claims (4)
を画像データの濃度とは異なる濃度で表わし、 画像データに輪郭復元情報を付加して出力することを特
徴とし、 この画像データのハードコピーを複写するときに、輪郭
復元情報から画像の輪郭を復元することを可能にした画
像出力方法。1. The image data is represented by a predetermined density, the contour restoration information relating to the contour of a preset image is represented by a density different from the density of the image data, and the contour restoration information is added to the image data for output. And an image output method capable of restoring the contour of the image from the contour restoration information when a hard copy of the image data is copied.
表し、 あらかじめ設定された画像の輪郭に関する輪郭復元情報
を画像データの濃度とは異なる複数の濃度バンドで表
し、 画像データに輪郭復元情報を付加して出力することを特
徴とし、 この画像データのハードコピーを複写するときに、輪郭
復元情報から画像の輪郭を復元することを可能にした画
像出力方法。2. The image data is represented by a plurality of predetermined density bands, the contour restoration information relating to the contour of a preset image is represented by a plurality of density bands different from the density of the image data, and the contour restoration information is added to the image data. An image output method capable of restoring the contour of an image from contour restoration information when a hard copy of this image data is copied.
いて、 処理すべきデータのうち画像データの中に、輪郭復元情
報の濃度に対応する濃度情報があった場合に、画像デー
タの濃度を、画像復元情報の濃度バンドに含まれない濃
度に変化させることを特徴とする画像出力方法。3. The image output method according to claim 2, wherein when there is density information corresponding to the density of the contour restoration information in the image data of the data to be processed, the density of the image data is changed. An image output method characterized in that the density is changed to a density not included in the density band of the image restoration information.
表し、 あらかじめ設定された画像の輪郭に関する輪郭復元情報
を画像データの濃度とは異なる複数の濃度バンドで表
し、 画像濃度の変化の連続性を判定する判定手段を備え、 判定手段が、画像濃度の変化が、輪郭復元情報の濃度バ
ンドの付近で連続的であると判定したときに、その濃度
バンドを輪郭復元情報も割り当てず、画像データに割り
当てることを特徴とし、 この画像データのハードコピーを複写するときに、輪郭
復元情報から画像の輪郭を復元することを可能にした画
像出力方法。4. Continuity of changes in image density, wherein image data is represented by a plurality of predetermined density bands, and contour restoration information regarding preset image contours is represented by a plurality of density bands different from the density of image data. When the determination unit determines that the change in the image density is continuous in the vicinity of the density band of the contour restoration information, the density band is not assigned to the contour restoration information, and the image data And an image output method capable of restoring the contour of the image from the contour restoration information when a hard copy of the image data is copied.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3347390A JPH05181966A (en) | 1991-12-27 | 1991-12-27 | Image output method |
US08/429,469 US5956420A (en) | 1991-12-27 | 1995-04-27 | Image processor |
US08/987,267 US6185326B1 (en) | 1991-12-27 | 1997-12-09 | Image processor |
US09/639,360 US6771812B1 (en) | 1991-12-27 | 2000-08-14 | Image processor |
US10/721,730 US7263219B2 (en) | 1991-12-27 | 2003-11-25 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3347390A JPH05181966A (en) | 1991-12-27 | 1991-12-27 | Image output method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05181966A true JPH05181966A (en) | 1993-07-23 |
Family
ID=18389905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3347390A Pending JPH05181966A (en) | 1991-12-27 | 1991-12-27 | Image output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05181966A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010028429A (en) * | 2008-07-18 | 2010-02-04 | Canon Inc | Image processing apparatus, image processing method, and program |
JP2021103092A (en) * | 2019-12-24 | 2021-07-15 | 株式会社アイシン | Seat posture detection device |
-
1991
- 1991-12-27 JP JP3347390A patent/JPH05181966A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010028429A (en) * | 2008-07-18 | 2010-02-04 | Canon Inc | Image processing apparatus, image processing method, and program |
JP2021103092A (en) * | 2019-12-24 | 2021-07-15 | 株式会社アイシン | Seat posture detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3833735B2 (en) | Replication device and method for incrementing spacing between text lines of media in replication device | |
US5566252A (en) | Image processor with readability assurance means | |
JP3759982B2 (en) | Replication device and method for reducing document replication page number in replication device | |
JP4586241B2 (en) | Image processing device | |
EP0326137A2 (en) | Image processing system | |
US5483606A (en) | Method for automatically registering a document having a plurality of pages | |
US5153737A (en) | Image forming apparatus with an editing function | |
JP3637925B2 (en) | Apparatus and method for detecting a region surrounded by a marker by single optical path scanning for a photocopier | |
EP0533177B1 (en) | Method of noise detection and noise erasing | |
US5956420A (en) | Image processor | |
US6993208B2 (en) | Image processing apparatus and its processing method | |
JP2917639B2 (en) | Image output device, image output method, image data restoration method, image data generation method, and image processing device | |
JPH05181966A (en) | Image output method | |
JP3554130B2 (en) | Image processing method | |
US7263219B2 (en) | Image processor | |
JPH05181448A (en) | Image output device | |
JP2004341914A (en) | Document filing device, document filing method and program for allowing computer to execute its method | |
JPH05181965A (en) | Image output device | |
JP3997696B2 (en) | Apparatus, method and recording medium for image processing | |
JPH04160981A (en) | Image processor for each image area of copying machine | |
JP3899800B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program | |
JPH0877324A (en) | Electronic filing device | |
JP3466813B2 (en) | Image verification device | |
JP4100779B2 (en) | Information processing apparatus and method, and storage medium | |
JP4010386B2 (en) | Image forming apparatus |