JP2543198B2 - Method for converting linear density of binary image signal - Google Patents

Method for converting linear density of binary image signal

Info

Publication number
JP2543198B2
JP2543198B2 JP1218882A JP21888289A JP2543198B2 JP 2543198 B2 JP2543198 B2 JP 2543198B2 JP 1218882 A JP1218882 A JP 1218882A JP 21888289 A JP21888289 A JP 21888289A JP 2543198 B2 JP2543198 B2 JP 2543198B2
Authority
JP
Japan
Prior art keywords
image
density
binary
low
halftone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1218882A
Other languages
Japanese (ja)
Other versions
JPH0382268A (en
Inventor
博義 土屋
義光 菅野
俊晴 黒沢
秀彦 川上
宏曄 小寺
英明 大平
睦生 橋詰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electronics Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electronics Corp, Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electronics Corp
Priority to JP1218882A priority Critical patent/JP2543198B2/en
Priority to US07/571,350 priority patent/US5229868A/en
Priority to EP19900116286 priority patent/EP0414271A3/en
Publication of JPH0382268A publication Critical patent/JPH0382268A/en
Application granted granted Critical
Publication of JP2543198B2 publication Critical patent/JP2543198B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation

Description

【発明の詳細な説明】 産業上の利用分野 本発明はファクシミリのような画像通信や、画像デー
タの各種ファイルシステムなどに利用でき受信した画像
や記憶装置から読み出した画像を滑らかに再生するため
の2値画像信号の線密度変換方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention can be used for image communication such as a facsimile and various file systems for image data, and for smoothly reproducing an image received or read from a storage device. The present invention relates to a linear density conversion system for binary image signals.

従来の技術 ファクシミリ通信におけるG3規格の例では、主走査方
向の分解能は8.037画素/mm固定、副走査方向の分解能は
3.85画素/mm、7.7画素/mm、15.4画素/mmの3種類が規定
されており、送信する画像内容に応じて選択できる。
Conventional technology In the example of G3 standard for facsimile communication, the resolution in the main scanning direction is fixed at 8.037 pixels / mm, and the resolution in the sub scanning direction is
Three types are defined: 3.85 pixels / mm, 7.7 pixels / mm, 15.4 pixels / mm, and can be selected according to the image content to be transmitted.

一方、受信記録は、近年、レーザプリンタ等のように
16画素/mm以上の高密度記録が可能な装置が多く使用さ
れるようになってきた。送信側としては送信する情報量
と通信コスト・時間の関係で低密度走査が有利であるが
記録側では高密度記録の特性を生かしてより滑らかな再
生画を得たいと言う要望があり、低密度画像から高密度
画像に変換する最適な線密度変換方式が求められてい
る。これはファクシミリ通信に限らず一般の画像データ
ファイルシステムにおいても同様で、ファイル容量削減
のために分解能を落とした画像から滑らかな画像を再生
するのに必要な技術である。
On the other hand, recently received data is recorded in the same way as laser printers.
Devices capable of high-density recording of 16 pixels / mm or more have come into wide use. On the transmitting side, low-density scanning is advantageous in terms of the amount of information to be transmitted and the communication cost / time, but on the recording side, there is a desire to obtain smoother reproduced images by utilizing the characteristics of high-density recording. There is a demand for an optimum linear density conversion method for converting a density image into a high density image. This is the same not only in facsimile communication but also in a general image data file system, and is a technique necessary for reproducing a smooth image from an image whose resolution has been reduced in order to reduce the file capacity.

さて、従来の2値画像の線密度変換方式としては、SP
C方式、論理和法、投影法、9分割法など各種方式提案
がされており、(森町、小町、安田:“編集機能付きコ
ピーのための倍率任意の高速画素密度変換方式”第12回
画像工学コンファレンス論文集、(S56年12月)、新
井、安田:“ファクシミリ線密度変換の一検討”画像電
子学会誌7巻1号、P.11(1978)、宮井、首藤:“イメ
ージの拡大縮小方式”情報処理学会第20回全国大会、P.
463)なかでも、投影法は画質劣化の少ない方式として
知られている。第13図は前記投影法を説明する図で、D
は出力画素点を、P,Q,R,Sは点Dに隣接する入力画素点
を表している。P′,Q′,R′,S′を入力画素点P,Q,R,S
の占有面積、D′を出力画素点Dの占有面積、IP、IQ,I
R,ISを入力画素点P,Q,R,Sのデータ値{=0(白)また
は1(黒)}としたとき、出力画素点Dに関する加重平
均値f(D)を次式で計算する。
By the way, SP is the conventional linear density conversion method for binary images.
Various methods such as C method, logical sum method, projection method, and 9 division method have been proposed. (Morimachi, Komachi, Yasuda: "High speed arbitrary pixel density conversion method for copying with editing function" 12th image Proceedings of Engineering Conference, (S56 December), Arai, Yasuda: "A Study on Facsimile Line Density Conversion", The Institute of Image Electronics Engineers of Japan, Vol. Method ”IPSJ 20th National Convention, P.
463) Among them, the projection method is known as a method with little deterioration in image quality. FIG. 13 is a diagram for explaining the projection method, and D
Represents an output pixel point, and P, Q, R, and S represent input pixel points adjacent to the point D. P ', Q', R ', S'are input pixel points P, Q, R, S
Of the output pixel point D, I P , I Q , I
R, I S input pixel point P, Q, R, when the data value of S {= 0 (white) or 1 (black)}, the weighted average value f a (D) for the output pixel points D by: calculate.

上記f(D)に対して次の閾値処理を行ない出力画素
点Dのデータ値IDを決定する。
The following threshold processing is performed on f (D) to determine the data value I D of the output pixel point D.

他のいずれの方式も投影法と同様に、入力イメージの
点P,Q,R,Sの値および出力イメージの点Dとの位置関係
に基づいて点Dの値が決定される。
Similar to the projection method in any of the other methods, the value of the point D is determined based on the positional relationship between the values of the points P, Q, R, S of the input image and the point D of the output image.

発明が解決しようとする課題 しかし、上記従来のように、入力イメージ4点のデー
タ値のみで出力イメージのデータ値を決定する方法では
大幅な画質改善効果を期待することができない。走査線
の高密度変換を行なったときの画質改善度は線分が滑ら
かにかつ適切な線幅で補間されているかで評価できる。
However, a significant image quality improvement effect cannot be expected by the method of determining the data value of the output image only by the data values of the four points of the input image as in the above-mentioned conventional technique. The degree of image quality improvement when high-density conversion of scanning lines is performed can be evaluated based on whether the line segments are smoothly interpolated with an appropriate line width.

第14図は主走査・副走査とも2倍補間する例を示して
いる。(a)は斜線で示した黒い線の画像を2値化した
画像データ、(b)は前記画像データを従来方法で補間
した例、(c)は理想的に補間した例を示す。
FIG. 14 shows an example in which the main scanning and the sub scanning are doubled. (A) shows image data obtained by binarizing an image of a black line indicated by diagonal lines, (b) shows an example of interpolating the image data by a conventional method, and (c) shows an example of ideal interpolation.

従来方法の問題点は、補関すべきデータ値の決定を近
傍4画素の値と位置関係のみで決定しているため、線分
の滑らかさが45度方向近傍しか効果的でないことと、第
(2)式のように、2値化処理の“=”を1としている
ために線分が太くなる(逆に“=”を0とすると細くな
る。
The problem with the conventional method is that since the data values to be supplemented are determined only by the positional relationship with the values of the four neighboring pixels, the smoothness of the line segment is effective only in the vicinity of the 45 ° direction. As in the formula (2), since the “=” in the binarization process is set to 1, the line segment becomes thicker (on the contrary, when “=” is set to 0, the line segment becomes thinner.

本発明は上記問題に鑑み、高画質の画像を得ることの
できる2値画像信号の線密度変換方法を提供するもので
ある。
In view of the above problems, the present invention provides a method for converting the linear density of a binary image signal that can obtain a high quality image.

課題を解決するための手段 本発明は上記目的を達成するため、第1にファクシミ
リ等の低密度2値画像を画素補間により高密度2値画像
に変換する際に、 網点画像を除いた文字・線画等の前記低密度画像の部
分領域を構成する2値パターンAと所望の高密度画像の
同一部分を構成する2値パターンBとのパターン構造の
対応関係を、予め学習用高密度画像によって統計的に学
習しておき、前記低密度画像が網点画像でないところは
前記低密度画像の部分領域内から選択された適当な参照
画素を用いて、前記学習結果に基づき前記低密度2値パ
ターンAを前記高密度2値パターンBに変換し、前記低
密度画像が網点画像であるところは前記低密度画像の同
一画素を繰り返すことにより高密度画像に変換するもの
である。
Means for Solving the Problems In order to achieve the above-mentioned object, the present invention firstly, when converting a low-density binary image of a facsimile or the like into a high-density binary image by pixel interpolation, a character excluding a halftone image is used. The correspondence of the pattern structure between the binary pattern A forming the partial area of the low density image such as a line drawing and the binary pattern B forming the same portion of the desired high density image is calculated in advance by the high density image for learning. When the low density image is not a halftone dot image, it is learned statistically, and an appropriate reference pixel selected from within the partial area of the low density image is used, and the low density binary pattern is obtained based on the learning result. A is converted into the high density binary pattern B, and where the low density image is a halftone dot image, it is converted into a high density image by repeating the same pixel of the low density image.

第2に本発明は、ファクシミリ等の低密度2値画像を
画素補間により高密度2値画像に変換する際に、 網点画像を除いた文字・線画等の前記低密度画像の部
分領域を構成する2値パターンA1と所望の高密度画像の
同一部分を構成する2値パターンB1とのパターン構成の
対応関係と、網点画像の前記低密度画像の部分領域を構
成する2値パターンA2と所望の高密度画像の同一部分を
構成する2値パラーンB2とのパターン構成の対応関係
を、予め学習用高密度画像によって統計的に学習してお
き、前記低密度画像が網点画像でないところは前記低密
度画像の部分領域内から選択された適当な参照画素を用
いて、前記学習結果に基づき前記低密度2値パターンA1
を前記高密度2値パターンB2に変換し、前記低密度画像
が網点画像であるところは前記低密度画像の部分領域内
から選択された適当な参照画素を用いて、前記学習結果
に基づき前記低密度2値パターンA2を前記高密度2値パ
ターンB2に変換するものである。
Secondly, according to the present invention, when converting a low-density binary image such as a facsimile into a high-density binary image by pixel interpolation, a partial area of the low-density image such as a character or line drawing excluding a halftone image is formed. Of the binary pattern A1 and the binary pattern B1 forming the same portion of the desired high-density image, and the desired binary pattern A2 forming the partial area of the low-density image of the halftone image. Of the binary pattern B2 forming the same portion of the high-density image is statistically learned in advance by the high-density learning image, and the low-density image is not the halftone image. Based on the learning result, the low-density binary pattern A1 is generated by using an appropriate reference pixel selected from the partial area of the low-density image.
Is converted into the high-density binary pattern B2, and where the low-density image is a halftone dot image, an appropriate reference pixel selected from within the partial area of the low-density image is used, and based on the learning result, The low density binary pattern A2 is converted into the high density binary pattern B2.

作 用 本発明は上記方法で、変換出力の線密度に相当する対
象とする画素の性質(線分の太さや滑らかさ)をあらか
じめ学習して辞書を作成し、その辞書に基づいて入力画
像データのデータ補間を行なうため、従来方式に見られ
るように対象とする画像の性質に無関係でしかも、定め
られた方法にしたがってデータ補間値を決定していくも
のに比べて良好な変換出力画像を得ることができ、更
に、網点画像と文字・線画など、性質のことなる種類の
画像に対してそれぞれに合った補間処理を行うことがで
き、より高画質の出力画像を得ることができる。
Operation The present invention uses the above method to learn in advance the properties (thickness and smoothness of line segments) of the target pixels corresponding to the linear density of the conversion output, create a dictionary, and input image data based on the dictionary. Since data interpolation is performed, a good converted output image is obtained, which is irrelevant to the characteristics of the target image as seen in the conventional method, and which is better than the one that determines the data interpolation value according to the defined method. Further, it is possible to perform an interpolation process suitable for each type of image having different properties such as a halftone image and a character / line drawing, and it is possible to obtain a higher quality output image.

実施例 第1図は本発明の第1の実施例における2値画像信号
の線密度変換方法の処理プロセスを示す図である。1は
学習用画像データで、入力画像データを補間して記録す
るときの走査線密度と同じ分解能を有し、かつ文字・線
画等の各種入力画像内容を含む画像データである。な
お、学習画像データの走査線密度を主走査m画素/mm、
副走査n画素/mmとする。2は補間データ学習のプロセ
スで詳細は後述するが、入力画像データに対する補間倍
率の種類ごとに別々に学習を行なう。今、入力画像デー
タに対して主走査をK倍に、副走査をL倍に補間するた
めの学習をK×L倍補間学習とする。3は補間データ辞
書の作成プロセスで、前記K×L倍補間学習の結果に基
づいて補間値の1/0を決定する文字・線画用のK×L倍
補間辞書を作成する。4は入力画像データで、走査線密
度は主走査がm/K画素/mm、副走査がn/L画素/mmである。
5は網点画像検出のプロセスで、前記入力画像データが
網点画像であるか否かの判定を行なう。6は入力データ
補間のプロセスで、全記入力画像データを、前記判定が
網点画像であれば前記入力画像データの所定の画素デー
タを用い、前記判定が網点画像でなければ前記文字・線
画用のK×L倍補間辞書を用い主走査を用い主走査をK
倍に副走査をL倍に補間する。7は補間画像データで、
前記入力データ補間6で補間された、主走査m画素/m
m、副走査n画素/mmの画像データである。
First Embodiment FIG. 1 is a diagram showing a processing process of a binary image signal linear density conversion method according to a first embodiment of the present invention. Reference numeral 1 denotes learning image data, which has the same resolution as the scanning line density when the input image data is interpolated and recorded, and includes various input image contents such as characters and line drawings. In addition, the scanning line density of the learning image data is set to the main scanning m pixel / mm,
Sub-scanning n pixels / mm. Reference numeral 2 is a process of learning the interpolation data, which will be described in detail later, but the learning is performed separately for each type of interpolation magnification for the input image data. Now, learning for interpolating the main scanning by K times and the sub scanning by L times with respect to the input image data is referred to as K × L times interpolation learning. 3 is a process of creating an interpolation data dictionary, which creates a K × L times interpolation dictionary for a character / line drawing that determines 1/0 of an interpolation value based on the result of the K × L times interpolation learning. Reference numeral 4 is input image data, and the scanning line density is m / K pixels / mm for main scanning and n / L pixels / mm for sub-scanning.
Reference numeral 5 denotes a halftone dot image detection process, which determines whether or not the input image data is a halftone dot image. Reference numeral 6 denotes an input data interpolation process, which uses all the input image data, if the judgment is a halftone dot image, predetermined pixel data of the input image data, and if the judgment is not a halftone dot image, the character / line drawing. Main scan using K × L times interpolation dictionary for main scan
The sub-scanning is doubled to L times. 7 is interpolation image data,
Main scanning m pixels / m interpolated by the input data interpolation 6
Image data of m and sub-scanning n pixels / mm.

第2図は本発明の第2の実施例における2値画像信号
の線密度変換方法の処理プロセスを示す図である。第1
図と同一番号のブロックは同じ動作のプロセスを示す。
よって、以下では第1図の実施例とは異なるプロセスの
み説明する。8は学習用画像データで、第1図の図番1
で説明した学習用画像データと同形式の網点画像であ
る。9は第1図の図番3で説明した補間データ辞書と同
形式の網点画像用K×L倍補間データ辞書を作成するプ
ロセスである。10は入力データ補間のプロセスで、前記
網点画像検出プロセス5で判定が網点画像であれば前記
網点画像用K×L倍補間辞書を、前記判定が網点画像で
なければ前記文字・線画用K×L倍補間辞書を用いて主
走査をK倍に副走査をL倍に補間する。
FIG. 2 is a diagram showing a processing process of a linear density conversion method for a binary image signal in the second embodiment of the present invention. First
Blocks with the same numbers as in the figure show processes of the same operation.
Therefore, only the process different from the embodiment of FIG. 1 will be described below. Reference numeral 8 is learning image data, which is shown in FIG.
This is a halftone dot image of the same format as the learning image data described in. Reference numeral 9 is a process of creating a K × L times interpolation data dictionary for halftone images having the same format as the interpolation data dictionary described in FIG. Reference numeral 10 denotes an input data interpolation process. If the determination in the halftone image detection process 5 is a halftone dot image, the K × L times interpolation dictionary for halftone dot images is used. The main scan is interpolated by K times and the sub-scan is interpolated by L times using the line drawing K × L times interpolation dictionary.

さて、上記第1図と第2図の画像処理プロセスにおい
て、処理ブロック1〜3,8,9における補間データ辞書の
作成過程は計算機を用いて時間かけた演算を行なうソフ
トウエア処理で十分であるが、処理ブロック4〜7,10に
おける入力データの補間処理は通常高速化が要求される
ためにハードウエア処理が適当である。
In the image processing process of FIGS. 1 and 2, the process of creating the interpolation data dictionary in the processing blocks 1 to 3, 8 and 9 may be a software process for performing a time-consuming operation using a computer. However, since the interpolation processing of the input data in the processing blocks 4 to 7 and 10 is usually required to be speeded up, hardware processing is appropriate.

従って、本発明の実施例も上記構成で詳細説明を行な
う。
Therefore, the embodiment of the present invention will also be described in detail with the above configuration.

なお、処理ブロックの入力データ補間6,10で使用され
るK×L倍補間辞書はROMまたはRAMなどのメモリ上に記
憶されたデータとして提供されるものとする。
It is assumed that the K × L multiplication dictionary used in the input data interpolations 6 and 10 of the processing block is provided as data stored in a memory such as a ROM or a RAM.

処理ブロック2,3,6,9,10の詳細はK=2,L=2の2×
2倍補間とK=2,L=4の2×4倍補間の2例で説明す
る。なお、本実施例は、とりわけファクシミリ通信にお
けるG3規格の入力画像データに対して適用できる有用な
ものである。
Details of the processing blocks 2, 3, 6, 9 and 10 are 2 × with K = 2 and L = 2.
Two examples of 2 × interpolation and 2 × 4 × interpolation with K = 2 and L = 4 will be described. The present embodiment is particularly applicable to G3 standard input image data in facsimile communication.

(1) 補間データ学習の詳細実施例 第3図は2×2倍補間学習用走査窓である。(1) Detailed Example of Interpolation Data Learning FIG. 3 shows a scanning window for 2 × 2 times interpolation learning.

r1〜r16は参照画素で、h1〜h3は学習画素である。r 1 to r 16 are reference pixels, and h 1 to h 3 are learning pixels.

参照する画素は16個であるから参照画素で作られるパ
ターンの種類は216個発生する。学習とは前記走査窓で
学習画像データを走査したとき、前記各パターンにおい
てh1〜h3それぞれが1であるか0であるかを統計的に調
べることである。参照画素数が多いほど学習結果が向上
するが補間辞書が2乗に比例して大きくなるため、辞書
に使用するメモリ容量との関係で制限される。計算機で
のソフトウエアで学習する場合、参照画素r1〜r16をメ
モリ空間のアドレスとし、各アドレス毎にh1〜h3の3個
のアップダウンカウンタを用意し、当該学習画素が1で
あれば+1、0であれば−1の演算を行なう。(アップ
ダウンカウンタにしたのは学習終了後のカウンタ値が正
であれば1、負であれば0の補間値とすることを前提と
しているためであり、意図的に1または0の補間値を多
くする操作を行ないたい場合には1専用と0専用のカウ
ンタを用意し、それぞれのカウンタ結果の比率で補間値
を決定すると良い。)以上のソフトウエア演算を行なう
プログラム構成は一般的で容易な技術であるため詳細は
省略する。第4図は2×4倍補間学習用走査窓である。
第3図の2×2倍補間学習用走査窓に比べて副走査方向
の干渉画素間隔が倍になり、学習画素がh1〜h7の7個に
増えている以外は前記2×2倍補間学習と同様である。
Since there are 16 pixels to refer to, 2 16 types of patterns are created by the reference pixels. Learning is to statistically examine whether h 1 to h 3 are 1 or 0 in each pattern when the learning image data is scanned through the scanning window. The learning result improves as the number of reference pixels increases, but the interpolation dictionary grows in proportion to the square of the number of pixels. Therefore, it is limited in relation to the memory capacity used for the dictionary. When learning by software in the computer, the reference pixels r 1 ~r 16 as an address of the memory space, providing a three-up-down counter of h 1 to h 3 for each address, the learned pixel is 1 If it is 0, the operation is +1; if it is 0, the operation is -1. (The reason why the up-down counter is used is because it is premised that the interpolated value is 1 if the counter value after learning is positive and 0 if it is negative, and the interpolated value of 1 or 0 is intentionally set. If you want to perform many operations, you should prepare counters for 1 and 0, and determine the interpolated value by the ratio of the respective counter results.) The program configuration for the above software operation is general and easy. Since this is a technology, details are omitted. FIG. 4 shows a scanning window for 2 × 4 times interpolation learning.
The interference pixel spacing in the sub-scanning direction compared to the 2 × 2 × interpolation learning scan window of FIG. 3 is doubled, the 2 × 2 times, except that learning pixels are increased to seven h 1 to h 7 This is the same as the interpolation learning.

(2) 補間辞書作成の詳細実施例 第5図は補間辞書作成の具体例である。ROMまたはRAM
のメモリ空間上において、r1〜r16をデータアドレスと
し、各補間データh′1,h′2,……の1または0でビッ
トパターンを構成する。h′1,h′……の1または0
は、前記学習したカウンタhi(i=1,2,…)の各値に対
して次のように設定する。
(2) Detailed Example of Creating Interpolation Dictionary FIG. 5 is a specific example of creating an interpolation dictionary. ROM or RAM
In this memory space, r 1 to r 16 are used as data addresses, and each interpolation data h ′ 1 , h ′ 2 ,. h '1, h' 2 ...... 1 or 0
Is set as follows for each value of the learned counter h i (i = 1, 2, ...).

h′=r6 r6は第3図,第4図で示すように補間画素位置近傍の
参照画素値である。
h ′ 1 = r 6 r 6 is a reference pixel value near the interpolation pixel position as shown in FIGS. 3 and 4.

(3) 入力データ補間の詳細実施例 第6図は第1図の第1の実施例における2×2倍補間
のハード構成例、第7図(a)〜(f)は前記構成にお
ける各入出力信号のタイミングチャートである。先に第
7図のタイミングチャートについて説明すると、同図
(a)はリセット信号で、これは出力画像信号の1走査
区間(主走査区間)毎に発生するパルスであり、同図
(b)は入力画像信号で、図示のように前記1走査区間
おきに入力画像信号の1走査線のデータが入力する。同
図(c)はクロック1で、出力画像信号の画素クロック
{入力画像信号画素クロック(図示せず)の2倍の周波
数}に相当する。同図(d)はクロック2で、補間デー
タを入力画像データ間に挿入するタイミングパルスであ
る。クロック2はクロック1の半分の周波数で図示した
ように入力画像信号と同様1走査区間おきに発生する。
同図(e)は出力画像信号である。同図(f)は書き込
み禁止パルスで後述する画像メモリ12の書き込みアドレ
スポインタを制御する。
(3) Detailed Embodiment of Input Data Interpolation FIG. 6 is a hardware configuration example of the 2 × 2 times interpolation in the first embodiment of FIG. 1, and FIGS. It is a timing chart of an output signal. Explaining the timing chart of FIG. 7 earlier, FIG. 7A shows a reset signal, which is a pulse generated in each scanning section (main scanning section) of the output image signal, and FIG. As shown in the figure, the data of one scanning line of the input image signal is input by the input image signal every other scanning period. FIG. 3C shows clock 1, which corresponds to the pixel clock of the output image signal {double the frequency of the input image signal pixel clock (not shown)}. FIG. 3D is a clock 2 and is a timing pulse for inserting interpolation data between input image data. The clock 2 has a frequency half that of the clock 1 and is generated every other scanning period as in the case of the input image signal.
FIG. 7E shows an output image signal. In the same figure (f), the write address pointer of the image memory 12 which will be described later is controlled by the write inhibit pulse.

次に、このタイミングチャートの各信号で第6図のハ
ード構成を説明する。11はリセット信号の入力端子、12
は入力画像信号の入力端子、13はクロック1の入力端
子、14はクロック2の入力端子、15は出力画像信号の出
力端子、16は書き込み禁止パルスの入力端子、17は網点
領域検出信号の入力端子である。18は画像専用メモリと
して市販されている8ビット構成のFIFO(First In Fir
st Out)構造をもつラインメモリ(例えば、日本電気株
式会社製μPDN 41101C等;NEC、ICメモリデータブック19
87年pp.293〜)である。DIN0〜DIN5はデータの入力端
子、DOUT0〜DOUT5はデータの出力端子、▲▼は
リセットリード入力で内部にあるリードアドレスポイン
タをイニシャライズ(データアドレス=0)するための
リセット入力端子、▲▼はリセットライト入力
で内部にあるライトアドレスポインタをイニシャライズ
(データアドレス=0)するためのリセット入力端子、
PCKはリードクロック入力でリードアドレスポインタを
1クロック入力ごとにインクリメントするためのクロッ
ク入力端子、WCKはライトクロック入力でライドアドレ
スポインタを1クロック入力ごとにインクリメントする
ためのクロック入力端子、▲▼はリードイネーブル
入力で“H"レベルのときはリードアドレスポインタはRC
Kにクロックが入力してもインクリメントさせず現在地
のままで停止させるためのリード動作制御入力端子、▲
▼はライトイネーブル入力で“H"レベルのときはラ
イトアドレスポインタはWCKにクロックが入力してもイ
ンクリメントさせず現在地のままで停止させるためのラ
イト動作制御入力端子である。▲▼と▲
▼は入力端子11に、RCKとWCKは入力端子13に、▲
▼は入力端子16に接続、▲▼は接地(“L")されて
いる。19は7ビットのシフトレジスタを7個(20〜26)
有するレジスタ群で、個々のデータセツトも可能であ
る。図示の如く、r1〜r16、h1〜h3の各レジスタは第3
図に対応して配置されている。FCKは各レジスタ共通の
シフトクロックパルス入力端子、SCKはh1〜h3のデータ
をセットするクロック入力端子で、それぞれ入力端子1
3、入力端子14に接続されている。各7ビットシフトレ
ジスタ20〜25の最終ビット出力はそれぞれ画像メモリ18
の各入力端子DIN0〜DIN5に接続され21〜26の先頭ビット
入力はそれぞれ画像メモリ18の各出力端子DOUT0〜DOUT5
に、20の先頭ビット入力は入力端子12に接続されてい
る。24のレジスタビットr6は出力画像信号として出力端
子16に接続される。27は補間データメモリで、レジスタ
群19の各ビットr1〜r16をメモリのアドレス線に接続
し、メモリのデータ線にデータh′〜h′を出力す
る。この補間データメモリ27の内容は第5図の構成にな
っている。28はデータセレクタで、入力端子17の網点領
域検出信号がON(=1)のとき24のレジスタビットr5
同じデータを3個出力し、OFF(=0)のときには前記
データh′〜h′を出力してそれぞれレジスタ群19
の各ビットh1〜h3のデータセット入力端子に接続する。
Next, the hardware configuration of FIG. 6 will be described with reference to each signal of this timing chart. 11 is a reset signal input terminal, 12
Is an input terminal of an input image signal, 13 is an input terminal of a clock 1, 14 is an input terminal of a clock 2, 15 is an output terminal of an output image signal, 16 is an input terminal of a write inhibit pulse, 17 is a dot area detection signal. It is an input terminal. 18 is an 8-bit FIFO (First In Fir) marketed as a dedicated image memory.
line memory having a st out structure (for example, μPDN 41101C manufactured by NEC Corporation; NEC, IC memory data book 19
87 years pp.293〜). D IN0 to D IN5 are data input terminals, D OUT0 to D OUT5 are data output terminals, and ▲ ▼ are reset input terminals for initializing the internal read address pointer by reset read input (data address = 0), ▲ ▼ is a reset input terminal for reset write input to initialize the internal write address pointer (data address = 0),
PCK is a clock input terminal for incrementing the read address pointer for each clock input with a read clock input, WCK is a clock input terminal for incrementing the ride address pointer for each clock input with a write clock input, and ▲ ▼ is a read When the enable input is at "H" level, the read address pointer is RC
Read operation control input terminal to stop at the current position without incrementing even if a clock is input to K, ▲
▼ is a write operation control input terminal for stopping the write address pointer at the present position without incrementing even when a clock is input to WCK when the write enable input is at “H” level. ▲ ▼ and ▲
▼ indicates input terminal 11, RCK and WCK indicate input terminal 13, ▲
▼ is connected to the input terminal 16, and ▲ ▼ is grounded (“L”). 19 has seven 7-bit shift registers (20 to 26)
Individual data sets are also possible with the registers that it has. As shown in the figure, each register of r 1 to r 16 and h 1 to h 3 is a third register.
It is arranged corresponding to the figure. FCK the registers common shift clock pulse input terminal, SCK is a clock input terminal for setting the data of h 1 to h 3, input terminals 1
3, connected to the input terminal 14. The final bit output of each 7-bit shift register 20-25 is the image memory 18 respectively.
Connected to each input terminal D IN0 to D IN5 of the first bit input of 21 to 26 is each output terminal of the image memory 18 D OUT0 to D OUT5
The first 20 bit inputs are connected to the input terminal 12. The 24 register bits r 6 are connected to the output terminal 16 as output image signals. 27 is an interpolation data memory, which connects each bit r 1 to r 16 of the register group 19 to the address line of the memory and outputs data h ′ 1 to h ′ 3 to the data line of the memory. The contents of the interpolation data memory 27 have the structure shown in FIG. Reference numeral 28 denotes a data selector which outputs three pieces of data identical to the register bit r 5 of 24 when the halftone dot area detection signal of the input terminal 17 is ON (= 1), and the data h ′ 1 when OFF (= 0). ~ H ' 3 is output and each register group 19
Connect to the data set input pin of each bit h 1 to h 3 of.

以上の構成でその動作を説明する。入力端子11のリセ
ット信号で画像メモリ18のリードアドレスポインタとア
イトアドレスポインタを1走査区間の始めごとに0にし
た後、入力端子13のクロック1でライトアドレスポイン
タをインクリメントしていく。リードアドレスポインタ
は入力端子16の書き込み禁止パルスによりカウント数7
だけ遅れてインクリメントしていく。これはレジスタ群
19の各入力信号が出力端までシフトされてくる遅れ分に
相当する。入力端子12の入力画像信号は第1の走査区間
で入力端子13のクロック1によりシフトレジスタ20を経
由して画像メモリのDIN0から記憶されていき、第2の走
査区間でDOUT0から出てシフトレジスタ21を経由して画
像メモリのDIN1から記憶されていき、以下、DOUT1→レ
ジスタ22→DIN2→DOUT2→レジスタ23→DIN3→……のよ
うに流れていく。入力画像信号は入力端子14のクロック
2によりレジスタ23でh2とh3、レジスタ24でh1のデータ
補間がされることになる。
The operation will be described with the above configuration. The read address pointer and the eye address pointer of the image memory 18 are set to 0 at the beginning of one scanning section by the reset signal of the input terminal 11, and then the write address pointer is incremented by the clock 1 of the input terminal 13. The read address pointer counts 7 by the write disable pulse of input terminal 16.
It increments with a delay. This is a group of registers
Each of the 19 input signals corresponds to the delay of being shifted to the output end. The input image signal of the input terminal 12 is stored from D IN0 of the image memory via the shift register 20 by the clock 1 of the input terminal 13 in the first scanning section, and is output from D OUT0 in the second scanning section. The data is stored from D IN1 of the image memory via the shift register 21, and then flows from D OUT1 → register 22 → D IN2 → D OUT2 → register 23 → D IN3 → ... The input image signal is subjected to data interpolation of h 2 and h 3 in the register 23 and h 1 in the register 24 by the clock 2 of the input terminal 14.

2×4倍補間の場合はレジスタ群19の構成が第4図に
対応したようになり、従って、画像メモリ18の容量も6
ライン分から12ライン分に増え、第7図に示した入力画
像信号とクロック2の信号が3走査区間おきとなること
が2×2倍補間と異なることであり詳細は省略する。ま
た、第6図の構成以外に同様の補間目的を達成する別構
成例として、レジスタ群19の走査窓を参照画素r1〜r16
のみ(従って4×4走査窓)とし補間データの挿入を別
系統とすることも容易に考えられるが説明は省略する。
In the case of 2 × 4 times interpolation, the configuration of the register group 19 corresponds to that shown in FIG. 4, and accordingly, the capacity of the image memory 18 is 6
The number of lines is increased from 12 to 12 and the input image signal and the signal of the clock 2 shown in FIG. 7 are every 3 scanning intervals, which is different from the 2 × 2 interpolation, and the details will be omitted. Further, as another configuration example that achieves a similar interpolation purpose other than the configuration of FIG. 6, the scanning window of the register group 19 is set to reference pixels r 1 to r 16.
It is easily conceivable to set only (thus, 4 × 4 scanning window) and insert the interpolation data in a separate system, but the description is omitted.

第8図は第2図の第2の実施例における2×2倍補間
のハード構成例である。第6図の構成と異なるのは、網
点画像用の補間データメモリ29を用意し、データセレク
タ30が入力端子17の網点領域検出信号がONのときには補
間データメモリ29の網点用補間データ値h″〜h″
を、OFFのときには補間データメモリ27の文字・線画用
補間データh′〜h′を出力して、それぞれレジス
タ群19の各ビットh1〜h3のデータセット値とすることで
ある。
FIG. 8 is a hardware configuration example of 2 × 2 interpolation in the second embodiment of FIG. The difference from the configuration of FIG. 6 is that an interpolated data memory 29 for halftone dot images is prepared, and when the data selector 30 turns on the halftone dot area detection signal of the input terminal 17, the interpolated data for halftone dots in the interpolated data memory 29. Value h ″ 1 to h ″ 3
When it is OFF, the character / line drawing interpolation data h ′ 1 to h ′ 3 in the interpolation data memory 27 are output and used as the data set values of the bits h 1 to h 3 of the register group 19, respectively.

(4) 網点画像検出の詳細実施例 学習方式 入力画像と同じ走査線密度の学習用網点画像で網点画
像検出用の辞書メモリを作成する。第9図は画像データ
領域31を4×4走査窓で走査する場合の実施例である。
本実施例の場合における前記辞書メモリは走査窓32のデ
ータ値{x1,x2,…x16}をアドレスとして当該アドレス
のデータ値を1にセットすることにより作成できる。
(但しメモリの初期値は全て0クリアしておく) 入力画像データの網点検出は、前記入力画像データを
走査する走査窓内のデータ値をアドレスとして前記辞書
メモリのデータ値を参照し、1であれば網点領域である
と判定する。
(4) Detailed embodiment of halftone dot image detection Learning method A dictionary memory for halftone dot image detection is created with a halftone dot image for learning having the same scanning line density as the input image. FIG. 9 shows an embodiment in which the image data area 31 is scanned by a 4 × 4 scanning window.
The dictionary memory in the case of the present embodiment can be created by setting the data value of the address to 1 as the data value {x 1 , x 2 , ... X 16 } of the scanning window 32.
(However, all the initial values of the memory are cleared to 0.) To detect halftone dots of the input image data, refer to the data value of the dictionary memory with the data value in the scanning window for scanning the input image data as an address, and If so, it is determined to be a halftone dot area.

上記網点領域検出の判定結果は統計的に網点領域で1
が多く、文字・線画領域で1が少ない(0が多い)とい
うように離散的な出力になり、領域分離判定結果として
不完全である。(走査窓サイズを大きくし、参照画素数
を多くとると判定精度が向上し前記離散度を減少させる
ことができるが、その分ハード構成が重くなる。) 従って、前記判定結果に対して2次元的に平滑化処理
を行い、その結果を最終の網点領域分離判定結果とする
のが望ましい。
The judgment result of the dot area detection is statistically 1 in the dot area.
However, the output is discrete such that 1 is small (there are many 0s) in the character / line drawing area, and the area separation determination result is incomplete. (If the scanning window size is increased and the number of reference pixels is increased, the determination accuracy can be improved and the discreteness can be reduced, but the hardware configuration is correspondingly heavy. Therefore, the determination result is two-dimensional. It is preferable that the final halftone dot area separation determination result be obtained by performing smoothing processing.

第10図にその平滑化処理の実施例を示す。33は入力画
像信号を走査する第1の走査窓、34は前記網点画像検出
用辞書メモリで、第1の走査窓33内のデータ値をアドレ
スとして前記学習した結果に基づく網点領域検出信号を
出力する。35はその網点領域検出信号を走査する第2の
走査窓、36は第2の走査窓35内データをアドレスとして
最終網点領域検出信号を出力する領域分離辞書メモリで
ある。領域分離辞書メモリ36は、アドレスデータ値の1
の数を調べ、 (アドレスデータ値の1の数)≧N であれば同辞書メモリ36の当該アドレスのデータ値を1
に、他は0とすることで作成できる。Nは定数で、小さ
な値にすると網点画像領域寄りに、大きな値にすると文
字・線画領域寄りの判定結果が出る。
FIG. 10 shows an example of the smoothing process. Reference numeral 33 is a first scanning window for scanning an input image signal, 34 is the halftone image detecting dictionary memory, and a halftone dot area detection signal based on the learning result using the data value in the first scanning window 33 as an address. Is output. Reference numeral 35 is a second scanning window for scanning the halftone dot area detection signal, and 36 is an area separation dictionary memory for outputting the final halftone dot area detection signal using the data in the second scan window 35 as an address. The area separation dictionary memory 36 stores 1 of the address data value.
Is checked, and if (the number of 1s of the address data value) ≧ N, the data value of the address in the dictionary memory 36 is set to 1
And the others can be created by setting it to 0. N is a constant, and when it is set to a small value, the judgment result is shifted to the halftone dot image area, and when it is set to a large value, the judgment result is shifted to the character / line drawing area.

走査窓内データのパターン構造判定方式 前記の学習方式のように網点画像データの学習辞書
を持たずに、走査窓内にパターン構造そのものを調べ、
網点画像の特徴を有するかを逐次判定していく方式につ
いて説明する。
Pattern structure determination method of data in the scanning window Without having a learning dictionary of halftone image data like the learning method described above, the pattern structure itself is examined in the scanning window,
A method of sequentially determining whether or not the halftone image has the characteristics will be described.

(A)第9図の走査窓32内の主走査方向と副走査方向1/
0の交番数が一定値より多いと網点画像と判定する。第1
1図は本実施例の構成例を示すもので、38が1/0交番数判
定辞書である。同辞書38も第10図の領域分離辞書36と同
様に走査窓37のデータ構造から事前に作成できることは
明らかである。
(A) Main scanning direction and sub scanning direction 1 in the scanning window 32 of FIG.
If the number of alternations of 0 is larger than a certain value, it is determined as a halftone image. First
FIG. 1 shows a configuration example of the present embodiment, and 38 is a 1/0 alternation number determination dictionary. It is obvious that the dictionary 38 can be created in advance from the data structure of the scanning window 37 like the area separation dictionary 36 of FIG.

(B)第9図の走査窓32内データに1または0の孤立点
があれば網点画像と判定する。孤立点は走査窓内データ
の論理式でも判定できるが第12図に示すように1/0孤立
点判定辞書39を用いる方式でも可能である。
(B) If there is an isolated point of 1 or 0 in the data in the scanning window 32 of FIG. 9, it is judged as a halftone image. The isolated point can be determined by the logical expression of the data within the scanning window, but it is also possible to use the 1/0 isolated point determination dictionary 39 as shown in FIG.

上記(A),(B)の2方式の特徴を用いた、(辞書
38)+(辞書39)で網点画像の判定を行うことも可能で
ある。また、本パターン構造判定方式も前述の学習方
式と同様に前記判定結果に対して2次元的な平滑化処
理を行った後、最終の網点領域分離判定結果とするのが
望ましい。
Using the features of the above two methods (A) and (B), (Dictionary
It is also possible to judge the halftone image with (38) + (dictionary 39). Also in the present pattern structure determination method, it is desirable to perform the two-dimensional smoothing process on the determination result as in the above-described learning method, and then set the final halftone dot area separation determination result.

発明の効果 以上のように本発明は、あらかじめ変換出力の線密度
に相当する画像の特徴を記憶した辞書を用意しておき、
その辞書に従って入力データを補間するため、学習無し
の他の補間方式に比べて学習した情報量が多い分、線分
がより滑らかにかつ適切な線幅で補間され、高品質な画
像出力が得られるなど、その効果は大きい。
EFFECTS OF THE INVENTION As described above, according to the present invention, a dictionary in which the features of the image corresponding to the linear density of the converted output are stored is prepared in advance,
Since the input data is interpolated according to the dictionary, the amount of learned information is large compared to other interpolation methods without learning, so line segments are interpolated more smoothly and with an appropriate line width, and high-quality image output is obtained. That effect is great.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の第1の実施例における2値画像信号の
線密度変換方法の処理プロセスを示す図、第2図は本発
明の第2の実施例における2値画像信号の線密度変換方
法の処理プロセスを示す図、第3図は同実施例の要部で
ある2×2倍補間学習用走査窓の概念図、第4図は同2
×4倍補間学習用走査部の概念図、第5図は同補間辞書
の概念図、第6図は第1図の第1の実施例における2×
2倍補間を実現する要部ブロック結線図、第7図は第6
図の要部タイミングチャート、第8図は第2図の第2の
実施例における2×2倍補間を実現する要部ブロック結
線図、第9図は同画像データ領域を4×4走査窓で走査
する際の概念図、第10図は同平滑化処理を実現する要部
ブロック結線図、第11図は同1/0の交番数による網点画
像判定を実現する要部ブロック結線図、第12図は同孤立
点検出による網点画像判定を実現する要部ブロック結線
図、第13図は従来の投影法を示す概念図、第14図は主走
査・副走査とも2倍補間する際の概念図である。 1……学習用画像データ(文字・線画等)、2……補間
データ学習、3……補間データ辞書(文字・線画等)、
4……入力画像データ、5……網点画像検出、6,10……
入力データ補間、7……補間画像データ、8……学習用
画像データ(網点画像)、9……補間データ辞書(腰点
画像)、34……網点画像検出用辞書メモリ、36……領域
分離辞書メモリ、38……1/0交番数判定辞書、39……1/0
孤立点判定辞書。
FIG. 1 is a diagram showing a processing process of a linear density conversion method for a binary image signal in the first embodiment of the present invention, and FIG. 2 is a linear density conversion for a binary image signal in the second embodiment of the present invention. FIG. 3 is a diagram showing a processing process of the method, FIG. 3 is a conceptual diagram of a scanning window for 2 × 2 interpolation learning which is a main part of the embodiment, and FIG.
5 is a conceptual diagram of the scanning unit for 4 × interpolation learning, FIG. 5 is a conceptual diagram of the same interpolation dictionary, and FIG. 6 is 2 × in the first embodiment of FIG.
FIG. 7 shows a block diagram of a main block for realizing double interpolation.
FIG. 8 is a timing chart of main parts, FIG. 8 is a block connection diagram of main parts for realizing the 2 × 2 times interpolation in the second embodiment of FIG. 2, and FIG. 9 is a 4 × 4 scanning window of the same image data area. Fig. 10 is a conceptual diagram of scanning, Fig. 10 is a block diagram of a main part that realizes the smoothing process, and Fig. 11 is a block diagram of a main part that realizes a halftone dot image determination by an alternating number of 1/0. Fig. 12 is a block diagram of a main part for realizing the halftone dot image determination by the same isolated point detection, Fig. 13 is a conceptual diagram showing a conventional projection method, and Fig. 14 is a double interpolation for both main scanning and sub scanning. It is a conceptual diagram. 1 ... Learning image data (characters / line drawings, etc.), 2 ... Interpolation data learning, 3 ... Interpolation data dictionary (characters / line drawings, etc.),
4 ... Input image data, 5 ... Halftone dot image detection, 6, 10 ...
Input data interpolation, 7 ... Interpolation image data, 8 ... Learning image data (dot image), 9 ... Interpolation data dictionary (waist image), 34 ... Halftone image detection dictionary memory, 36 ... Area separation dictionary memory, 38 …… 1/0 Alternation number judgment dictionary, 39 …… 1/0
Isolated point judgment dictionary.

フロントページの続き (72)発明者 黒沢 俊晴 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 川上 秀彦 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 小寺 宏曄 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 大平 英明 東京都目黒区下目黒2丁目3番8号 松 下電送株式会社内 (72)発明者 橋詰 睦生 東京都目黒区下目黒2丁目3番8号 松 下電送株式会社内 (56)参考文献 特開 平2−268073(JP,A)Front page continuation (72) Inventor Toshiharu Kurosawa 3-10-1, Higashisanda, Tama-ku, Kawasaki, Kanagawa Prefecture Matsushita Giken Co., Ltd. (72) Hidehiko Kawakami 3--10-1, Higashisanda, Tama-ku, Kawasaki, Kanagawa Issue Matsushita Giken Co., Ltd. (72) Inventor Hiroaki Kodera 3-10-1 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd. (72) Inventor Hideaki Ohira 2-3 3-Shimomeguro, Meguro-ku, Tokyo No. 8 in Matsushita Electric Transport Co., Ltd. (72) Inventor Mutsuo Hashizume 2-3-8 Shimomeguro, Meguro-ku, Tokyo Matsushita Electric Power Co., Ltd. (56) Reference JP-A-2-268073 (JP, A)

Claims (16)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ファクシミリ等の低密度2値画像を画素補
間により高密度2値画像に変換する際に、 網点画像を除いた文字・線画等の前記低密度画像の部分
領域を構成する2値パターンAと所望の高密度画像の同
一部分を構成する2値パターンBとのパターン構造の対
応関係を、予め学習用高密度画像によって統計的に学習
しておき、前記低密度画像が網点画像でないところは前
記低密度画像の部分領域内から選択された適当な参照画
素を用いて、前記学習結果に基づき前記低密度2値パタ
ーンAを前記高密度2値パターンBに変換し、前記低密
度画像が網点画像であるところは前記低密度画像の同一
画素を繰り返すことにより高密度画像に変換することを
特徴とする2値画像信号の線密度変換方法。
1. When converting a low-density binary image such as a facsimile into a high-density binary image by pixel interpolation, a partial area of the low-density image such as a character or line drawing excluding a halftone image is formed. The correspondence relationship of the pattern structure between the value pattern A and the binary pattern B forming the same portion of the desired high density image is statistically learned in advance by the high density image for learning, and the low density image is a halftone dot. Where the image is not an image, the low density binary pattern A is converted into the high density binary pattern B based on the learning result by using an appropriate reference pixel selected from within the partial area of the low density image, and the low density binary pattern B is converted into the low density binary pattern B. Where the density image is a halftone dot image, the same pixel of the low density image is repeated to convert it into a high density image.
【請求項2】請求項1記載の低密度画像が網点画像であ
るか否かを手動で指示することを特徴とした2値画像信
号の線密度変換方法。
2. A linear density conversion method for a binary image signal, which comprises manually instructing whether or not the low-density image according to claim 1 is a halftone dot image.
【請求項3】請求項1記載の低密度画像が網点画像であ
るか否かの判定は、予め学習用の低密度画像によって統
計的に学習した結果に基づいて行うことを特徴とした2
値画像信号の線密度変換方法。
3. The determination as to whether or not the low density image according to claim 1 is a halftone dot image is performed based on the result of statistical learning by a low density image for learning in advance.
Value image signal linear density conversion method.
【請求項4】請求項3記載の判定結果を画像平面上で平
滑化した後、網点画像であるかの判定結果とすることを
特徴とした2値画像信号の線密度変換方法。
4. A linear density conversion method for a binary image signal, wherein the determination result according to claim 3 is smoothed on an image plane and then used as a determination result as to whether the image is a halftone dot image.
【請求項5】請求項1記載の低密度画像が網点画像であ
るか否かの判定は、前記低密度画像を走査する走査窓内
のパターン構造判定で行うことを特徴とした2値画像信
号の線密度変換方法。
5. A binary image characterized in that the determination as to whether or not the low density image according to claim 1 is a halftone image is made by a pattern structure determination within a scanning window for scanning the low density image. Signal linear density conversion method.
【請求項6】請求項5記載のパターン構造判定は走査窓
内の1と0の交番数で判定することを特徴とした2値画
像信号の線密度変換方法。
6. A linear density conversion method for a binary image signal, wherein the pattern structure determination according to claim 5 is performed by an alternating number of 1 and 0 within a scanning window.
【請求項7】請求項5記載のパターン構造判定は走査窓
内に1または0の孤立点があるとき網点画像であると判
定することを特徴とした2値画像信号の線密度変換方
法。
7. A method for converting linear density of a binary image signal, wherein the pattern structure determination according to claim 5 determines that the image is a halftone image when there are 1 or 0 isolated points in a scanning window.
【請求項8】請求項5記載の判定結果を画像平面上で平
滑化した後、網点画像であるかの判定結果することを特
徴とした2値画像信号の線密度変換方法。
8. A linear density conversion method for a binary image signal, which comprises smoothing the determination result according to claim 5 on an image plane and then determining whether the image is a halftone image.
【請求項9】ファクシミリ等の低密度2値画像を画素補
間により高密度2値画像に変換する際に、 網点画像を除いた文字・線画等の前記低密度画像の部分
領域を構成する2値パターンA1と所望の高密度画像の同
一部分を構成する2値パターンB1とのパターン構造の対
応関係と、網点画像の前記低密度画像の部分領域を構成
する2値パターンA2と所望の高密度画像の同一部分を構
成する2値パターンB2とのパターン構造の対応関係を予
め学習用高密度画像によって統計的に学習しておき、前
記低密度画像が網点画像でないところは前記低密度画像
の部分領域内から選択された適当な参照画素を用いて、
前記学習結果に基づき前記低密度2値パターンA1を前記
高密度2値パターンB2に変換し、前記低密度画像が網点
画像であるところは前記低密度画像の部分領域内から選
択された適当な参照画素を用いて、前記学習結果に基づ
き前記低密度2値パターンA2を前記高密度2値パターン
B2に変換することを特徴とする2値画像信号の線密度変
換方法。
9. When converting a low-density binary image of a facsimile or the like into a high-density binary image by pixel interpolation, a partial area of the low-density image such as a character or line drawing excluding a halftone image is formed. The correspondence of the pattern structure between the value pattern A1 and the binary pattern B1 forming the same portion of the desired high-density image, and the binary pattern A2 forming the partial area of the low-density image of the halftone image and the desired high-density image. The correspondence of the pattern structure with the binary pattern B2 forming the same portion of the density image is statistically learned in advance by the learning high-density image, and the low-density image is a place where the low-density image is not a halftone image. Using an appropriate reference pixel selected from within the subregion of
The low-density binary pattern A1 is converted into the high-density binary pattern B2 based on the learning result, and the low-density image is a halftone image which is selected from a partial area of the low-density image. The low density binary pattern A2 is converted to the high density binary pattern based on the learning result using a reference pixel.
A method of converting a linear density of a binary image signal, characterized by converting to B2.
【請求項10】請求項9記載の低密度画像が網点画像で
あるか否かを手動で指示することを特徴とした2値画像
信号の線密度変換方法。
10. A linear density conversion method for a binary image signal, which comprises manually instructing whether or not the low density image according to claim 9 is a halftone dot image.
【請求項11】請求項9記載の低密度画像が網点画像で
あるか否かの判定は、予め学習用の低密度画像によって
統計的に学習した結果に基づいて行うことを特徴とした
2値画像信号の線密度変換方法。
11. The determination as to whether or not the low density image according to claim 9 is a halftone dot image is performed based on a result of statistical learning previously performed by a low density image for learning. Value image signal linear density conversion method.
【請求項12】請求項11記載の判定結果を画像平面上で
平滑化した後、網点画像であるかの判定結果とすること
を特徴とした2値画像信号の線密度変換方法。
12. A linear density conversion method for a binary image signal, which comprises smoothing the determination result according to claim 11 on an image plane and then determining the result as a halftone image.
【請求項13】請求項9記載の低密度画像が網点画像で
あるか否かの判定は、前記低密度画像を走査する走査窓
内のパターン構造判定で行うことを特徴とした2値画像
信号の線密度変換方法。
13. A binary image, characterized in that the determination as to whether or not the low density image according to claim 9 is a halftone dot image is made by a pattern structure determination within a scanning window for scanning the low density image. Signal linear density conversion method.
【請求項14】請求項13記載のパターン構造判定は走査
窓内の1と0の交番数で判定することを特徴とした2値
画像信号の線密度変換方法。
14. A linear density conversion method for a binary image signal, wherein the pattern structure determination according to claim 13 is performed by an alternating number of 1 and 0 within a scanning window.
【請求項15】請求項13記載のパターン構造判定は走査
窓内に1または0の孤立点があるとき網点画像であると
判定することを特徴とした2値画像信号の線密度変換方
法。
15. The method for linear density conversion of a binary image signal according to claim 13, wherein when the scan window has an isolated point of 1 or 0, it is determined as a halftone image.
【請求項16】請求項13記載の判定結果を画像平面上で
平滑化した後、網点画像であるかの判定結果とすること
を特徴とした2値画像信号の線密度変換方法。
16. A method for converting linear density of a binary image signal, wherein the determination result according to claim 13 is smoothed on an image plane and then used as a determination result as to whether the image is a halftone dot image.
JP1218882A 1989-08-25 1989-08-25 Method for converting linear density of binary image signal Expired - Fee Related JP2543198B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP1218882A JP2543198B2 (en) 1989-08-25 1989-08-25 Method for converting linear density of binary image signal
US07/571,350 US5229868A (en) 1989-08-25 1990-08-23 Method and apparatus for converting a line density of a bi-level image signal
EP19900116286 EP0414271A3 (en) 1989-08-25 1990-08-24 Method and apparatus for converting a line density of a bi-level image signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1218882A JP2543198B2 (en) 1989-08-25 1989-08-25 Method for converting linear density of binary image signal

Publications (2)

Publication Number Publication Date
JPH0382268A JPH0382268A (en) 1991-04-08
JP2543198B2 true JP2543198B2 (en) 1996-10-16

Family

ID=16726785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1218882A Expired - Fee Related JP2543198B2 (en) 1989-08-25 1989-08-25 Method for converting linear density of binary image signal

Country Status (1)

Country Link
JP (1) JP2543198B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020879A (en) * 2002-03-25 2009-01-29 Trustees Of Columbia Univ In The City Of New York Method and system for enhancing data quality grade

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020879A (en) * 2002-03-25 2009-01-29 Trustees Of Columbia Univ In The City Of New York Method and system for enhancing data quality grade

Also Published As

Publication number Publication date
JPH0382268A (en) 1991-04-08

Similar Documents

Publication Publication Date Title
US5568597A (en) Adapting image data resolution to match resolution of an output device
JP2610365B2 (en) Document color type identification device
JPH1084475A (en) Image area discrimination method and image-processing unit
US5701364A (en) Image processing apparatus
US4710823A (en) Density conversion in image reproduction
JPH0725064A (en) Picture forming equipment of electrophotographic printer
US5130791A (en) Color image processing apparatus
US6744532B1 (en) Method for enhancing printing quality
JP2543198B2 (en) Method for converting linear density of binary image signal
JP2616386B2 (en) Image processing device
JP2543197B2 (en) Method for converting linear density of binary image signal
JPH0681243B2 (en) Image processing method
JP2920635B2 (en) Image processing device
US5729357A (en) Image processing apparatus
JP2557480B2 (en) Color image processor
JP2525768B2 (en) Image reduction conversion method
JPH0357083A (en) Image area separating method for binary picture
JP3073220B2 (en) Image area identification device
JP2624427B2 (en) Image discriminating device
JPH05110831A (en) Device and method for identifying picture area
JPH0382269A (en) Character region separation system
JP3033978B2 (en) Image area identification device
JP3073219B2 (en) Image area identification device
JPH0722335B2 (en) Image forming device
JPH02123479A (en) Line picture area separating system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees