JPH0823873B2 - Image forming device - Google Patents

Image forming device

Info

Publication number
JPH0823873B2
JPH0823873B2 JP3194423A JP19442391A JPH0823873B2 JP H0823873 B2 JPH0823873 B2 JP H0823873B2 JP 3194423 A JP3194423 A JP 3194423A JP 19442391 A JP19442391 A JP 19442391A JP H0823873 B2 JPH0823873 B2 JP H0823873B2
Authority
JP
Japan
Prior art keywords
input
data
dot
output
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3194423A
Other languages
Japanese (ja)
Other versions
JPH0540839A (en
Inventor
盛吉 中村
知久 三上
潤 師尾
俊雄 胡中
一彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3194423A priority Critical patent/JPH0823873B2/en
Priority to EP92402023A priority patent/EP0526295B1/en
Priority to DE69231481T priority patent/DE69231481T2/en
Priority to US07/911,741 priority patent/US6016154A/en
Priority to KR1019920012277A priority patent/KR960002693B1/en
Publication of JPH0540839A publication Critical patent/JPH0540839A/en
Publication of JPH0823873B2 publication Critical patent/JPH0823873B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はレーザプリンタ、インク
ジェットプリンタ、熱転写プリンタ等のプリンタ、すな
わち画像形成装置の構成に係り、さらに詳しくは画像の
ジャギー、すなわちギザギザを減少させて、入力画像の
画質を向上させる画像形成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a printer such as a laser printer, an ink jet printer, a thermal transfer printer, etc., that is, the structure of an image forming apparatus. More specifically, the jaggies of the image, that is, jaggedness is reduced to improve the image quality of an input image. The present invention relates to an image forming apparatus to improve.

【0002】[0002]

【従来の技術】画像形成装置として使われているプリン
タは、現在、300dpiの物が主流である。従って、電子計
算機から出力される信号も、300dpiに対応しているもの
が多い。しかし、300dpiのプリンタでは、ジャギーが目
立つという欠点がある。この欠点をなくすためには、画
素密度を増加させてやればよい。ところが、極く単純に
画素密度を増加させると、ページバッファの増加と、エ
ンジンの高精度化に伴うプリンタコストの増加に加え
て、(1) 巷間に流布されている300dpi用のビットマップ
フォントが使えない。(2) 広く流通している300dpiの入
力機器(スキャナ等)が使えないと言う欠点がある。と
ころで、レーザプリンタでは、副走査方向の画素密度を
上げる、即ち、紙送り/ドラム送りのピッチを上げるこ
とは難しく、仮に出来たとしても高コストになる。一
方、主走査方向の画素密度を上げるには、レーザ光を変
調する周波数を高くするだけでよく、比較的容易かつ低
コストで実現可能である。そこで、主走査方向の画素の
位置決め精度を3倍にし、また、画素の大きさを12段階
に変えることにより、画質の向上を図る方法が提案され
ている(USP4,847,641)。この方法は、入力した画像の
画素を、あらかじめ定められた大きさのマスクで切り取
り、予めROMに書き込まれているパターンと比較し、
パターンと一致した場合に、対応する画素の位置と大き
さを修正する方法である。
2. Description of the Related Art Currently, printers used as image forming apparatuses are mainly 300 dpi. Therefore, many of the signals output from electronic computers are compatible with 300 dpi. However, the 300dpi printer has the drawback that jaggies are noticeable. In order to eliminate this defect, the pixel density should be increased. However, if the pixel density is increased extremely simply, in addition to the increase in page buffer and the printer cost due to the high accuracy of the engine, (1) The bitmap font for 300 dpi, which has been disseminated in the streets, is also added. Not available. (2) There is a disadvantage that widely distributed 300 dpi input devices (scanners, etc.) cannot be used. By the way, in the laser printer, it is difficult to increase the pixel density in the sub-scanning direction, that is, to increase the pitch of paper feed / drum feed, and even if it is possible, the cost will be high. On the other hand, in order to increase the pixel density in the main scanning direction, it suffices to increase the frequency for modulating the laser light, which can be realized relatively easily and at low cost. Therefore, there has been proposed a method of improving the image quality by doubling the pixel positioning accuracy in the main scanning direction and changing the pixel size in 12 steps (USP 4,847,641). This method cuts the pixels of the input image with a mask of a predetermined size and compares it with a pattern written in ROM in advance,
This is a method of correcting the position and size of the corresponding pixel when the pattern matches.

【0003】図34はこの修正方法の説明図である。同
図においては、入力データ1をサンプリングウィンドウ
2で切り出し、右にあるテンプレート3と比較して、デ
ータが一致した場合に対応する画素の位置と大きさの変
更が行われる。
FIG. 34 is an explanatory diagram of this correction method. In the figure, the input data 1 is cut out by the sampling window 2, and compared with the template 3 on the right, and when the data match, the position and size of the corresponding pixel are changed.

【0004】図35はテンプレート3内に格納されてい
る修正すべきパターンと修正後のパターンの例である。
同図において矢印の上がテンプレート内の修正すべきデ
ータ、下がそのデータに対する修正後のパターンであ
る。上段のパターンは縦の斜め線に対する修正パターン
を示し、例えば最も左側のパターンはウィンドウの中央
の画素に対するドットを1/3だけ左側に寄せることを
示している。なおこのパターン内で色の薄い黒丸は現在
修正対象となっていない画素を示す。
FIG. 35 shows an example of a pattern to be modified and a pattern after modification stored in the template 3.
In the figure, the upper part of the arrow is the data to be corrected in the template, and the lower part is the pattern after the correction for that data. The upper pattern shows a corrected pattern for a vertical diagonal line. For example, the leftmost pattern shows that the dots for the central pixel of the window are shifted to the left by ⅓. In this pattern, light black circles indicate pixels that are not currently targeted for correction.

【0005】図35の中段の修正パターンは横の斜め線
に対するジャギーの減少処理を示し、修正対象のドット
の大きさを最大のドットの直径の60%とすることを示
す。また下段の右側2個の修正パターンは、横の斜め線
に対するジャギーの修正において、修正対象のドットの
大きさを最大ドットの直径の30%とすることを示し、こ
の修正の後に次の修正対象、すなわち1つ右の白丸に対
して中段の修正パターンに示すように60%の大きさのド
ットを打つことにより、横方向の斜めの線のジャギーを
目立たなくさせることができる。
The correction pattern in the middle part of FIG. 35 shows a jaggy reduction process for a horizontal diagonal line, and indicates that the size of the dot to be corrected is 60% of the maximum dot diameter. In addition, the two correction patterns on the right side of the lower row indicate that the size of the dot to be corrected is set to 30% of the maximum dot diameter in the correction of the jaggies with respect to the horizontal diagonal line. That is, by striking a dot having a size of 60% to the white circle on the right one as shown in the correction pattern in the middle row, the jaggies of the diagonal line in the horizontal direction can be made inconspicuous.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、図34
で説明したような方法では、多くのテンプレートパター
ンを持つ必要があるために、処理速度が遅い、テン
プレートパターン記憶用のメモリ量が大きくなる、テ
ンプレートパターンと完全に一致する画素配置について
しか修正が行われないという問題点があった。
However, as shown in FIG.
With the method described in the above, it is necessary to have many template patterns, so the processing speed is slow, the amount of memory for storing template patterns is large, and only the pixel arrangement that completely matches the template pattern is corrected. There was a problem that I was not denied.

【0007】また、画素単位での位置と大きさの修正を
行うために、1画素内で黒〜白〜黒というパターンを
生成できないため黒、白、黒というような画素配置に対
して有効な補正を行うことができないという問題点もあ
った。さらに、画質向上の対象としては、ジャギーのほ
かに濃度変化の平滑化もあるが、同一の中間濃度を与え
る画素パターンは多数存在するため、濃度変化の平滑
化を行うことができないという問題点もあった。
Further, since the pattern of black to white to black cannot be generated within one pixel in order to correct the position and size in pixel units, it is effective for pixel arrangements such as black, white and black. There was also a problem that the correction could not be performed. Further, as an object of image quality improvement, there is smoothing of density change in addition to jaggies, but there is a problem that density change cannot be smoothed because there are many pixel patterns that give the same intermediate density. there were.

【0008】本発明は、ニューラルネットワークを用い
て入力画像データに含まれるジャギー、すなわちギザギ
ザを減少させたり、中間調画像における濃度変化を滑ら
かにして、入力画像の画質を向上させることであり、ま
たそのニューラルネットワークとして修正パターンの学
習後に中間層の各ニューロンへの入力結合の重みを少な
いビット数で表すことができるネットワークを用いるこ
とにより、重みを格納するバッファの容量を小さくし
て、回路規模を縮小することである。
The present invention is to improve the image quality of an input image by using a neural network to reduce jaggies contained in the input image data, that is, jaggedness, and smooth the density change in a halftone image. By using a network that can represent the weight of the input coupling to each neuron in the intermediate layer with a small number of bits after learning the modified pattern as the neural network, the capacity of the buffer that stores the weight is reduced and the circuit scale is reduced. It is to reduce.

【0009】[0009]

【課題を解決するための手段】図1は本発明の原理ブロ
ック図である。同図は、入力されるドット画像データの
配列に応じて、その入力ドット画像データの補正を制御
することにより、画像のジャギー、すなわちギザギザを
減少させたり、中間調画像における濃度変化を滑らかに
して、入力ドット画像の高品位化を図る画像形成装置の
原理ブロック図である。
FIG. 1 is a block diagram showing the principle of the present invention. In the figure, by controlling the correction of the input dot image data according to the arrangement of the input dot image data, jaggies of the image, that is, jaggedness can be reduced, or the density change in the halftone image can be smoothed. FIG. 3 is a principle block diagram of an image forming apparatus for improving the quality of an input dot image.

【0010】図1において円滑化手段10は、例えば入
力層、中間層、および出力層の3層からなり、学習後に
中間層の各ニューロンへの入力結合の重みが+n,−
n、および0(nは定数)、例えば+1,−1、および
0の3値となるニューラルネットワークによって構成さ
れ、入力されるドット画像データの配列に応じて入力画
像データのドットの補正指示を出力する。
In FIG. 1, the smoothing means 10 is composed of, for example, three layers of an input layer, an intermediate layer, and an output layer, and after learning, the weight of the input connection to each neuron of the intermediate layer is + n,-.
n and 0 (n is a constant), for example, composed of a three-valued neural network of +1, -1, and 0, and outputs a dot correction instruction for the input image data according to the array of input dot image data To do.

【0011】また円滑化手段10を、学習後に中間層の
各ニューロンへの入力結合の重みが+1および0の2値
となるニューラルネットワークによって構成し、かつそ
のニューラルネットワークに画素データの正立信号と反
転信号との両方を入力させることも可能である。
Further, the smoothing means 10 is constituted by a neural network in which the weight of the input coupling to each neuron in the intermediate layer becomes binary of +1 and 0 after learning, and the neural network is provided with an upright signal of pixel data. It is also possible to input both the inverted signal.

【0012】[0012]

【作用】図2は本発明において修正すべきパターンの例
である。まず図1および図2を用いて本発明の作用を説
明する。
FIG. 2 shows an example of a pattern to be corrected in the present invention. First, the operation of the present invention will be described with reference to FIGS.

【0013】本発明においては、図34および図35と
同様に、ウィンドウの中央の画素のドットサイズと位置
とをジャギーを減少させるように修正して出力すること
になるが、一般にジャギーの修正に関係のあるドット
は、中央のドットを含めてその周辺のいくつかのドット
に限定され、ウィンドウ内の全てのドットではないこと
が多い。図2において、修正後においては中央のドット
が大きさはそのままで左に1/3ドットだけずれた位置
に移動することになるが、この修正に必要となるデータ
は上の行の左から2番目の黒、3,4番目の白、中央の
行の左から3番目の黒、4番目の白、下の行の左から3
番目の黒、および4番目の白であり、その他のドットは
黒と白のどちらでもよい、すなわちドントケアとして考
えることができる。
In the present invention, as in FIGS. 34 and 35, the dot size and position of the pixel in the center of the window are corrected and output so as to reduce the jaggies. The relevant dots are limited to some of their surrounding dots, including the central dot, and are often not all the dots in the window. In FIG. 2, after the correction, the central dot moves to the position left shifted by 1/3 dot with the size unchanged, but the data required for this correction is 2 from the left of the upper line. Th black, 3rd, 4th white, 3rd black from the left in the middle row, 4th white, 3 from the left in the bottom row
The second black and the fourth white, and the other dots can be either black or white, that is, they can be considered as don't cares.

【0014】そこで図1の円滑化手段10の一部として
のニューラルネットワークに対して、ドントケアの部分
のデータとして0または1のいずれかを与えて教育を繰
り返し、パターン数を増やして学習を進めて行くと中間
層のニューロンへの入力結合の重みが+1,−1、およ
び0の3種類のいずれかに収束することが判明した。本
発明においては、このような学習を行って中間層のニュ
ーロンへの入力結合の重みが1,−1および0の3種類
のいずれかに収束したニューラルネットワークを用いて
画像のジャギーの減少処理が行われる。
Therefore, to the neural network as a part of the smoothing means 10 in FIG. 1, either 0 or 1 is given as the data of the don't care part to repeat the education, and the learning is advanced by increasing the number of patterns. It turned out that the weight of the input coupling to the neurons in the hidden layer converges to any one of +1, -1, and 0. In the present invention, by performing such learning, the processing for reducing jaggies of an image is performed by using a neural network in which the weight of the input coupling to the neurons of the intermediate layer converges to one of three types of 1, −1 and 0. Done.

【0015】図1において、円滑化手段10を構成する
ニューラルネットワークは、入力される画像データのう
ちで、例えば3本のライン上の5個の画素に対応する長
方形のウィンドウ内の画素データの入力に応じて、その
ウィンドウの中央の画素のサイズと位置の変換データを
出力する。
In FIG. 1, the neural network forming the smoothing means 10 inputs pixel data in a rectangular window corresponding to, for example, five pixels on three lines in the input image data. In accordance with, the converted data of the size and position of the pixel at the center of the window is output.

【0016】例えば画素としてのドットの大きさは、最
大の直径を 100%として60%, 30%、および0%(ドッ
トを打たない)を含めて4値、または 100%, 75%, 50
%,25%、および0%の5値をとるものとし、また画
素、すなわちドットの位置としては本来の入力位置に加
えて、その位置を中心とする横方向の前後の位置の3つ
の位置のいずれかをとるものとする。
For example, the size of a dot as a pixel is four values including 60%, 30%, and 0% (no dot is applied) with the maximum diameter being 100%, or 100%, 75%, 50.
%, 25%, and 0%, and in addition to the original input position for the position of the pixel, that is, the dot, there are three positions that are the front and rear positions in the horizontal direction centered on that position. Take one of them.

【0017】そしてニューラルネットワークは、その出
力層のうちの複数個のニューロン(ユニット)が画素の
サイズの変換データ、他の複数個のユニットが画素の位
置の変換データを出力するものとし、画素の大きさとそ
の位置はそれぞれ独立したユニットから出力される。こ
れによって出力層のユニットが画素のサイズと位置とを
混在させた出力コードを出力する場合に比較して、例え
ば中間層のユニットの個数を少なくすることができ、ニ
ューラルネットワークの処理速度を向上させることがで
きる。
In the neural network, a plurality of neurons (units) in the output layer output conversion data of pixel size, and a plurality of other units output conversion data of pixel positions. The size and its position are output from independent units. As a result, the number of units in the intermediate layer can be reduced, and the processing speed of the neural network can be improved, as compared with the case where the units in the output layer output the output code in which the pixel size and the position are mixed. be able to.

【0018】すなわち、本発明では、入力ドット画像デ
ータの配列に応じて、ドットの補正を指示するニューラ
ルネットワークを用いているので、多量のテンプレート
パターンを持つ必要がなく、処理速度が速く、メモリ量
も小さく、また、未学習のパターンに対しても最適な補
正を指示することができる。
That is, according to the present invention, since the neural network for instructing dot correction according to the arrangement of the input dot image data is used, it is not necessary to have a large number of template patterns, the processing speed is high, and the memory capacity is large. Is also small, and optimal correction can be instructed even for unlearned patterns.

【0019】次に、図1において、円滑化手段10の一
部を構成するニューラルネットワークが、入力されるド
ット画像データのうちで、例えば7本のライン上の9個
の画素に対応する長方形のウィンドウ内の画素データの
配列に応じて、そのウィンドウの中央の画素を補正すべ
く、その画素を構成する複数個のサブドットのオン・オ
フ情報を出力する場合について説明する。
Next, in FIG. 1, a neural network forming a part of the smoothing means 10 has a rectangular shape corresponding to, for example, nine pixels on seven lines in the input dot image data. A case will be described in which on / off information of a plurality of subdots forming a pixel is output in order to correct the pixel at the center of the window according to the array of pixel data in the window.

【0020】例えば、1画素を8つのサブドットで表現
する場合、主走査方向の解像度が300dpiの場合には常時
2,400dpi相当の変換を行い、さらに画素をジャギーを目
立たなくしたり濃度変化を滑らかにする8分割したパタ
ーンに置き換えることで高品位化を図る。
For example, when one pixel is expressed by eight subdots, if the resolution in the main scanning direction is 300 dpi, it is always
Higher quality is achieved by performing conversion equivalent to 2,400 dpi and replacing the pixel with an 8-divided pattern that makes jaggies less noticeable and smoothes density changes.

【0021】ジャギーが最も目立つパターンは、直線で
ある。また、直線でもその傾きによってジャギーの目立
ち方が変わる。図3は、角度と目立ち方の関係を示す図
である。縦軸の主観評価値はジャギーの目立ち方に対応
するもので、5点はジャギーは分からず、点数が低くな
るに従ってジャギーの目立ち方が激しくなることに相当
する。この図は、0°,45°,90°から少しずれた角度
でジャギーが非常に目立つことを意味している。これら
の角度で8つのサブドットでの修正パターンを検討した
結果、図4に示す28個のパターンの組み合わせで目立た
なくできることが判明した。8つのサブドットで表現で
きるパターンは 256通りであるが、そのうちわずか28個
のパターンでジャギーが修正できる。つまり、サブドッ
トの中で連続してオン(黒)とする数がドットの大きさ
に対応し、入力の1ドットを2つ以上の小さなドットで
表現して修正することはなく、また、隣りのドットの修
正から影響を受けることも考慮しても、1ドットを表わ
すサブドットパターンは黒、黒〜白、黒〜白〜黒、白〜
黒〜白、白〜黒、白、の6通りしかなく、図4に示すパ
ターンはその全てを表わしている。そして、これらのパ
ターンを用いることにより、ドットの大きさとドット位
置を制御することに相当する修正を行うことができる。
The most noticeable pattern for jaggies is a straight line. Even on a straight line, the inclination of jaggies changes depending on the inclination. FIG. 3 is a diagram showing the relationship between the angle and the conspicuousness. The subjective evaluation value on the vertical axis corresponds to how the jaggies are conspicuous. At 5 points, the jaggies are not known, and as the score decreases, the jaggies become more conspicuous. This figure means that the jaggies are very noticeable at angles slightly deviated from 0 °, 45 ° and 90 °. As a result of examining a correction pattern with 8 subdots at these angles, it was found that the combination of 28 patterns shown in FIG. 4 can be made inconspicuous. There are 256 patterns that can be expressed by 8 sub-dots, but only 28 of them can correct jaggies. In other words, the number of consecutive ON (black) sub-dots corresponds to the dot size, and one input dot is not represented by two or more small dots and is not corrected. The sub-dot pattern representing one dot is black, black-white, black-white-black, white-
There are only six patterns, black to white, white to black, and white, and the pattern shown in FIG. 4 represents all of them. Then, by using these patterns, it is possible to make a correction equivalent to controlling the dot size and the dot position.

【0022】[0022]

【実施例】図5はニューラルネットワークを構成するニ
ューロンの動作の説明図である。ニューロンはユニット
とも呼ばれ、一般に複数個の入力に対してそれぞれ適当
な係数(重み)を乗算し、それらの乗算値を全て加算
し、その加算結果を適当な関数を用いて変換して出力す
る。n番目のニューロンの出力yn は次式で与えられ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 5 is an explanatory diagram of the operation of neurons forming a neural network. A neuron is also called a unit. Generally, a plurality of inputs are multiplied by appropriate coefficients (weights), all the multiplication values are added, and the addition result is converted and output using an appropriate function. . The output y n of the n-th neuron is given by the following equation.

【0023】 yn =f(k0 n +k1 n 1 n +・・・km n m n ) ・・・・・・・・(1) ここでxi n はn番目のニューロンへのi番目の入力、
i n はその入力に対する係数(重み)、k0 n は定数
項、図6はニューラルネットワークのモデルである。同
図において〇印はそれぞれニューロンを表わす。また入
力層(ネットワークへの入力が与えられる)のユニット
は中間層のユニットへ入力を分配するだけのもであり、
省略されている。中間層のユニットは3個、出力層のユ
ニットは2個である。
[0023] y n = f (k 0 n + k 1 n x 1 n + ··· k m n x m n) ········ (1) where x i n is the n-th neuron The i-th input of
k i n is a coefficient (weight) for the input, k 0 n is a constant term, and FIG. 6 is a model of the neural network. In the figure, each circle represents a neuron. Also, units in the input layer (provided input to the network) only distributes input to units in the middle layer,
Omitted. There are three units in the middle layer and two units in the output layer.

【0024】図5において変換のための関数としてはシ
グモイド関数やステップ関数が用いられる。図7はシグ
モイド関数、図8はステップ関数を示す。変換用関数と
してはこれらの関数に限定されることなく、他の関数を
使うことも可能である。
In FIG. 5, a sigmoid function or a step function is used as a function for conversion. FIG. 7 shows a sigmoid function, and FIG. 8 shows a step function. The conversion function is not limited to these functions, and other functions can be used.

【0025】一般にニューラルネットワークに入力され
る画素数が多いほうが良好な画像修正が行えるが、修正
を行うべきパターン数も多くなる。例えば入力画像を5
×5とすると、全ての画素の組み合わせは25X5 個すな
わち33554432個となり、全ての修正パターンを保持する
のは困難となる。そこで、修正を行うべきパターンと修
正を行わないパターンを適当に選んでおき、ニューラル
ネットワークの教育を行う。教育によって得られた係数
を使用したニューラルネットワークにより画素の補正を
行い、もし不都合な変換を行うようであれば再教育を行
う。この方法により、全てのパターンを列挙することな
く画素の補正が行え、予め教育されていないパターンに
ついても良好な画素変換が行える。
Generally, the better the number of pixels input to the neural network, the better the image can be corrected. However, the number of patterns to be corrected also increases. For example, input image 5
When it is set to × 5, the number of combinations of all pixels is 25 × 5 , that is, 33554432, and it becomes difficult to hold all the correction patterns. Therefore, the patterns to be modified and the patterns not to be modified are appropriately selected, and the neural network is trained. The pixel is corrected by a neural network using the coefficient obtained by the education, and if the inconvenient conversion is performed, the re-education is performed. With this method, pixels can be corrected without enumerating all patterns, and good pixel conversion can be performed even for patterns that are not previously trained.

【0026】図9はニューラルネットワークの入力層の
各ユニットへの画素の割り当ての例を示す図である。同
図(a) においては、3本のライン上のそれぞれ5個の画
素を1つのウィンドウとして出力する例を示しており、
同図(b) は7本のライン上のそれぞれ9個の画素を1つ
のウィンドウとして出力する例を示している。なお、ウ
ィンドウは予め定められた形であればよい。そして入力
層の15個(同図(b) においては、63個)のそれぞれのユ
ニットに対しては、割り当てられた画素が黒画素である
場合、その画素に対するデータが1に設定される。その
画素が白画素である場合0が与えられる。尚、“1”と
“0”を逆に設定しても良い。
FIG. 9 is a diagram showing an example of pixel allocation to each unit in the input layer of the neural network. In the figure (a), an example is shown in which five pixels on each of the three lines are output as one window.
FIG. 7B shows an example in which nine pixels on each of seven lines are output as one window. The window may have a predetermined shape. Then, when the assigned pixel is a black pixel for each of the 15 units (63 units in the same figure (b)) of the input layer, the data for that pixel is set to 1. If the pixel is a white pixel, 0 is given. Note that "1" and "0" may be set in reverse.

【0027】図10は変換後の画素のサイズの実施例で
ある。同図において最大のドットの直径を 100%とし、
直径が60%, 30%、および0%(ドットを打たない)の
4つの値のいずれかが指定(4階調のレベル制御)され
る。
FIG. 10 shows an example of the pixel size after conversion. In the figure, the maximum dot diameter is 100%,
Any of four values of diameter 60%, 30%, and 0% (no dot is printed) is designated (level control of 4 gradations).

【0028】図11は変換データによって指定される画
素、すなわちドットの位置の実施例である。同図におい
てドット位置は、本来の入力位置としての中央の位置
と、入力位置と同一のライン上で左側に1/3ドットず
れた位置、および右側に1/3ドットずれた位置のいず
れかに指定(900dpi相当) される。
FIG. 11 shows an example of the positions of pixels, that is, dots, designated by the conversion data. In the figure, the dot position is either the center position as the original input position, the position shifted to the left by 1/3 dot, or the position shifted to the right on the same line as the input position by 1/3 dot. It is specified (equivalent to 900dpi).

【0029】図12はニューラルネットワークの出力層
のユニットの出力の値と画素の位置およびサイズの対応
の実施例である。同図において、ニューラルネットワー
クの5個の出力ユニットの出力値を表わす5ビットのデ
ータの上位3ビットはドットの大きさを表わし、000
は図10の0%、001は30%、010は60%、100
は 100%を表わす。また下位2ビットはドットの位置を
表わし、00は中央を、01は右側に1/3ドットずれ
た位置を、また10は左側に1/3ドットずれた位置を
示す。
FIG. 12 shows an embodiment in which the value of the output of the unit of the output layer of the neural network and the position and size of the pixel correspond to each other. In the figure, the upper 3 bits of the 5-bit data representing the output values of the 5 output units of the neural network represent the dot size, and 000
Is 0% in FIG. 10, 001 is 30%, 010 is 60%, 100
Represents 100%. The lower 2 bits represent the dot position, 00 is the center, 01 is the position shifted to the right by 1/3 dot, and 10 is the position shifted to the left by 1/3 dot.

【0030】このように本実施例では、出力層の5個の
ユニットのうち3個のユニットがドットの大きさを、2
個のユニットが位置を示すデータを出力することにな
り、出力コードは合計5ビットとなる。ドットのサイズ
および位置は合計10個の状態で表わされ、これらの状態
を4ビットで表現することも可能であるが、その場合に
はドットのサイズと位置とを独立に出力層のユニットの
出力に割り付けることはできなくなり、実験結果では中
間層のユニットの数も多くなり、ニューラルネットワー
クの処理速度も遅くなるという問題があることが判明し
た。
As described above, in this embodiment, 3 units out of 5 units in the output layer have the dot size of 2 units.
Each unit outputs the data indicating the position, and the output code has a total of 5 bits. The size and position of the dot are represented by a total of 10 states, and it is possible to represent these states by 4 bits. In that case, the size and position of the dot are independent of the unit of the output layer. It became impossible to assign to the output, and the experimental results revealed that the number of units in the intermediate layer increased and the processing speed of the neural network slowed down.

【0031】図13は本発明の画像形成装置の実施例の
システム構成図である。同図においてニューラルネット
ワークを構成するニューロンはハードウェアによって構
成される。
FIG. 13 is a system configuration diagram of an embodiment of the image forming apparatus of the present invention. In the figure, the neurons forming the neural network are configured by hardware.

【0032】図14は図13のシステムの動作のタイミ
ングチャートである。図13および図14を用いて入力
画像データの処理について説明する。図13において、
図示しないビットマップメモリからの3ライン分の入力
データはデータ切り出し部20に与えられる。この3ラ
インのうち、ウィンドウの中央のラインとなる、現在の
処理ラインは例えば中央のラインバッファ21bに、そ
の上のライン(一般的にはこのラインに対する処理は既
に終了しているが、処理前のデータが再びビットマップ
メモリから入力される。)はラインバッファ21aに、
またその下のラインはラインバッファ21cに入力され
る。これにより必要な3ライン分のデータがラインバッ
ファ21a〜21cに取り込まれたことになる。
FIG. 14 is a timing chart of the operation of the system shown in FIG. Processing of input image data will be described with reference to FIGS. 13 and 14. In FIG.
Input data for three lines from a bitmap memory (not shown) is given to the data cutout unit 20. This 3 la
The current line that is the center line of the window in
The processing line is stored in, for example, the central line buffer 21b.
Line above (in general, no
However, the unprocessed data is remapped to the bitmap.
Input from memory. ) Is stored in the line buffer 21a,
The line below it is input to the line buffer 21c.
It As a result, the required three lines of data are taken into the line buffers 21a to 21c.

【0033】各ラインバッファ21a〜21c内に格納
されたデータは、5ビットずつシフトレジスタ(SR)
22a〜22cに、それぞれロードされる。これら3つ
のシフトレジスタは連結されており、ロードされたデー
タは1ビットずつシリアルにデータ切り出し部20から
出力される。これらのシフトレジスタからの出力は例え
ばロードされた順、すなわち先入れ先出しとすることも
でき、また先入れ後出しとすることもできるものとす
る。
The data stored in each of the line buffers 21a to 21c is a 5-bit shift register (SR).
22a to 22c, respectively. These three shift registers are connected, and the loaded data is serially output bit by bit from the data cutout unit 20. The outputs from these shift registers may be, for example, in the order in which they were loaded, ie first in, first out, or first in, last out.

【0034】一連のジャギー低減動作以前に中間層・出
力層双方の係数バッファ25,33に係数をセットす
る。その後、ジャギー低減動作を開始する。図13にお
いて、図示しないビットマップメモリから入力されたデ
ータを用いて、データ切り出し部20で5×3のビット
マップ画像が前述のように切り出される。
Prior to a series of jaggie reduction operations, coefficients are set in the coefficient buffers 25 and 33 in both the intermediate layer and the output layer. Then, the jaggy reduction operation is started. In FIG. 13, the data cutout unit 20 cuts out a 5 × 3 bitmap image using the data input from a bitmap memory (not shown) as described above.

【0035】データ切り出し部20から出力された入力
画像データは、図示しない入力層のユニットを介して中
間層の24個のニューロン24a〜24xに同時に与えら
れる。中間層のニューロン24a〜24xはそれぞれ全
く同一の構成を持ち、全てが並列に動作する。
The input image data output from the data slicing section 20 is simultaneously given to the 24 neurons 24a to 24x in the intermediate layer via a unit in the input layer (not shown). Each of the neurons 24a to 24x in the intermediate layer has exactly the same configuration, and all of them operate in parallel.

【0036】中間層で行われる演算は(1) 式に示したも
のであり、この演算は中間層の24個のニューロン24a
〜24xのそれぞれにおいて並行して行われる。中間層
の各ニューロンに対しては、データ切り出し部20から
ウィンドウ内の各画素に対するデータとして黒または
白、すなわち1または0のいずれかを表わす1ビットの
データが入力される。この入力データと係数バッファ2
5内の係数、すなわち重みとが2つのアンドゲート26
a,26bに入力される。ここで係数バッファ25の内
容は前述のように+1,−1、および0のいずれかであ
るが、+1は01、−1は11、0は00とそれぞれ2
ビットで表わされている。アンドゲート26a,26b
の2つが必要な理由はこのように係数が2ビットで表わ
されているためである。また係数としては黒であるべき
データ、例えば図2において上の行の左から2番目のド
ットのデータが入力される時の係数は+1、すなわち0
1となっており、白であるべきデータが入力される時に
は11、ドントケアのデータが入力される時には00と
なっている。
The operation performed in the intermediate layer is shown in the equation (1), and this operation is performed by the 24 neurons 24a in the intermediate layer.
~ 24x each in parallel. To each neuron in the intermediate layer, 1-bit data representing black or white, that is, either 1 or 0 is input from the data cutout unit 20 as data for each pixel in the window. This input data and coefficient buffer 2
The AND gate 26 in which the coefficient within 5, that is, the weight, is two
a, 26b. Here, the content of the coefficient buffer 25 is one of +1, -1, and 0 as described above, but +1 is 01, -1 is 11, and 0 is 00.
It is expressed in bits. AND gate 26a, 26b
The reason why the two are required is that the coefficient is represented by 2 bits in this way. Further, as the coefficient, when the data which should be black, for example, the data of the second dot from the left in the upper row in FIG. 2 is input, the coefficient is +1, that is, 0.
The value is 1, 11 when the data that should be white is input, and 00 when the don't care data is input.

【0037】アンドゲート26aの出力は符号ビットで
あるために、加算器27に対して上位4ビットとして共
通に与えられる。ここでは黒であるべき、すなわち係数
01に対応するドットに黒が入力されると加算器27の
内容は加算され、また白であるべき、すなわち係数が1
1のドットに黒が入力されると加算器27の内容は減算
される。そこで15個の入力に対し、加算器27の出力は
−15〜+15の範囲にあり、加算器27の出力ビット数は
符号ビット込みで5ビットでよいことになる。加算器2
7はデータ切り出し部20から1ビットのデータが入力
されるたびに加算を行い、その結果をレジスタ28に出
力する。そして次のデータが入力されるとレジスタ28
の内容がアンドゲート26a,26bの出力と共に加算
器27の内容に加算され、再度レジスタ28に格納され
る。
Since the output of the AND gate 26a is a sign bit, it is commonly given to the adder 27 as the upper 4 bits. Here, it should be black, that is, when black is input to the dot corresponding to the coefficient 01, the contents of the adder 27 are added, and it should be white, that is, the coefficient is 1.
When black is input to the dot of 1, the content of the adder 27 is subtracted. Therefore, for 15 inputs, the output of the adder 27 is in the range of -15 to +15, and the number of output bits of the adder 27 is 5 bits including the sign bit. Adder 2
7 performs addition every time 1-bit data is input from the data cutout unit 20, and outputs the result to the register 28. When the next data is input, the register 28
Is added to the contents of the adder 27 together with the outputs of the AND gates 26a and 26b, and stored in the register 28 again.

【0038】15個の入力データに対してこの動作が15回
繰り返され、レジスタ28には最終的な積和演算結果が
保持される。この値はレジスタ29に取り込まれ、次段
のROM30に格納されている関数、例えばステップ関
数による変換、すなわちスケーリングが行われ、変換結
果はスリーステートレジスタ31に格納される。
This operation is repeated 15 times for 15 pieces of input data, and the final product-sum operation result is held in the register 28. This value is fetched in the register 29, converted, that is, scaled by a function stored in the ROM 30 in the next stage, for example, a step function, and the conversion result is stored in the three-state register 31.

【0039】以上が1つのウィンドウに対する入力デー
タについての中間層ニューロンの動作の1周期分に相当
する。24個の中間層ニューロンは完全並列動作を行うた
めに、各スリーステートレジスタ31の内容は同時に確
定する。
The above corresponds to one cycle of the operation of the hidden layer neuron with respect to the input data for one window. The contents of each three-state register 31 are fixed at the same time because the 24 middle-layer neurons perform a complete parallel operation.

【0040】出力層への入力はスリーステートレジスタ
31のアウトプットイネーブル(OE)を順次たてるこ
とによりスキャンされる。出力層は選択された中間層出
力と係数を乗算し、加算器35を通してレジスタ36に
セットする。中間層の出力を全てスキャンした後、レジ
スタ36の値をレジスタ37に取り込む。レジスタ37
にセットされた値はシグモイド関数を通すべきである
が、中間層への入力と同様に出力層の出力も“1”か
“0”の2値であり、シグモイド関数は0に対して0.5
を返すことから、最上位ビット(符号ビット)を出力す
ればよい。1ラインの処理を終えると、次の新たな1ラ
インを含む3ライン分のデータをラインバッファ21a
〜21cに取り込んで同様の動作を行う。以上の動作に
より1ページにわたる画素補正を行うことができる。
The input to the output layer is scanned by sequentially setting the output enable (OE) of the three-state register 31. The output layer multiplies the selected intermediate layer output by the coefficient and sets it in the register 36 through the adder 35. After scanning all the outputs of the intermediate layer, the value of the register 36 is loaded into the register 37. Register 37
The value set in should pass through the sigmoid function, but the output of the output layer is a binary value of "1" or "0" as well as the input to the intermediate layer, and the sigmoid function is 0.5 with respect to 0.
Is returned, the most significant bit (sign bit) may be output. When the processing for one line is completed, the data for three lines including the next new one line is transferred to the line buffer 21a.
The same operation is performed by loading the data in the files 21 to 21c. With the above operation, the pixel correction can be performed over one page.

【0041】図15は学習後の中間層のニューロンに対
する入力結合の重み、すなわち係数の実施例である。同
図において、最も左列の1から24の数字は中間層の24個
のニューロンの番号を示し、1番上の行の1から15の数
字は15個の入力、すなわち図2の各ドットに対する入力
の番号(図9の番号と同じ)を示し、定数項は(1) 式に
おける定数項k0 n を示す。
FIG. 15 shows an example of the weight of the input connection, that is, the coefficient, for the neurons in the intermediate layer after learning. In the figure, the numbers 1 to 24 in the leftmost column indicate the numbers of the 24 neurons in the middle layer, and the numbers 1 to 15 in the uppermost row represent 15 inputs, that is, for each dot in FIG. The input number (same as the number in FIG. 9) is shown, and the constant term is the constant term k 0 n in the equation (1).

【0042】本発明においては、中間層の24個のニュー
ロンのそれぞれはある特定の修正パターンの検出を行う
ことになる。例えば図15において、2番目のニューロ
ンは図2のパターンを検出するものである。そこで2番
目のニューロンは黒の入力に対する係数が1、白の入力
に対する係数が−1、ドントケアの入力に対する係数が
0となっている。そして図2のパターンが入力された時
には2番目のニューロンによって求められる積和演算結
果は黒であるべきドット数と等しいために+3となり、
これと定数項−3との和、すなわち‘0’をROM30
によるスケーリングの代わりに、例えばコンパレータに
よって検出することによって、2番目のニューロンの出
力は1となる。
In the present invention, each of the 24 neurons in the intermediate layer will detect a specific correction pattern. For example, in FIG. 15, the second neuron detects the pattern of FIG. Therefore, in the second neuron, the coefficient for the black input is 1, the coefficient for the white input is -1, and the coefficient for the don't care input is 0. When the pattern of FIG. 2 is input, the product-sum calculation result obtained by the second neuron is +3 because it is equal to the number of dots that should be black,
The sum of this and the constant term-3, that is, "0" is stored in the ROM 30
The output of the second neuron becomes 1 by detecting by a comparator, for example, instead of scaling by.

【0043】図2のパターンは8個のドントケアドット
を含んでいるために中間層の1つのニューロン、すなわ
ち2番目のニューロンによって 256個のパターンの修正
が可能となる。ニューラルネットワークの学習時にはこ
の 256個のパターンを全て学習させる必要はなく、例え
ばドントケアの8つのドットが全て白、あるいはどれか
1つだけ黒の組み合わせとなる9個のパターンを学習さ
せるだけで、教育していないパターンでも修正が可能と
なる。しかしながらドントケアのドット以外のドットは
黒か白のいずれかに指定されたパターンに修正パターン
が限定されることになる。
Since the pattern of FIG. 2 contains eight don't care dots, one neuron in the middle layer, that is, the second neuron, can modify 256 patterns. It is not necessary to learn all these 256 patterns when learning a neural network. For example, by learning 9 patterns in which 8 dots of don't care are all white, or only one of them is a combination of black, education is possible. It is possible to correct even patterns that have not been done. However, for the dots other than the don't care dots, the correction pattern is limited to the pattern designated as either black or white.

【0044】図16は画像形成装置の第2の実施例にお
ける中間層のニューロンの構成を示すブロック図であ
る。第2の実施例において、データ切り出し部20およ
び出力層ニューロン32a〜32eの構成は図13の第
1の実施例におけると同じである。
FIG. 16 is a block diagram showing the structure of an intermediate layer neuron in the second embodiment of the image forming apparatus. In the second embodiment, the configurations of the data cutout unit 20 and the output layer neurons 32a to 32e are the same as those in the first embodiment of FIG.

【0045】図16の第2の実施例においては、積和演
算が加算器27の代わりにアップダウンカウンタ43に
よって行われる。係数バッファ40の内容は第1の実施
例における係数バッファ25の内容と同じである。アッ
プダウンカウンタ43の制御はデコーダ42によって行
われる。
In the second embodiment shown in FIG. 16, the product-sum operation is performed by the up / down counter 43 instead of the adder 27. The content of the coefficient buffer 40 is the same as the content of the coefficient buffer 25 in the first embodiment. The up / down counter 43 is controlled by the decoder 42.

【0046】デコーダ42は、2つのアンドゲート41
a,41bの出力が01の時にアップカウント、11の
時にダウンカウント、00の時にホールドとなるように
アップダウンカウンタ43を制御する。そこで第1の実
施例におけると同様に黒であるべきドット、すなわち係
数が01となっているドットに黒が入力されるとアップ
ダウンカウンタ43の内容はアップされ、白であるべき
ドットに黒が入力された時にダウンされることになる。
The decoder 42 has two AND gates 41.
The up / down counter 43 is controlled so that when the outputs of a and 41b are 01, they are up-counted, when they are 11, they are down-counted, and when they are 00, they are held. Therefore, as in the first embodiment, when black is input to a dot that should be black, that is, a dot whose coefficient is 01, the content of the up / down counter 43 is up, and a dot that should be white is black. It will be down when entered.

【0047】15個の入力に対してアップダウンカウンタ
43のカウントが行われ、その後その内容はレジスタ4
4に格納され、ROM45によってスケーリングが行わ
れ、その変換結果はスリーステートレジスタ46を介し
て出力層のニューロンに出力される。
The up / down counter 43 is counted for 15 inputs, and then the contents are registered in the register 4
4 and scaling is performed by the ROM 45, and the conversion result is output to the neuron in the output layer via the three-state register 46.

【0048】図17は第3の実施例における中間層ニュ
ーロンの構成ブロック図である。第3の実施例において
もデータ切り出し部、および出力層ニューロンの構成は
第1の実施例と同じである。しかしながら第3の実施例
においては、第1、第2の実施例と異なり、データ切り
出し部からの入力に対して、その入力をそのままとし
た、すなわち正立入力Aと、インバータ49を用いた結
果としての反転入力 外1 との2つの入力が与えられ
る。2つの入力A, 外2 は選択部50に与え
FIG. 17 is a block diagram showing the configuration of the intermediate layer neuron according to the third embodiment. Also in the third embodiment, the configurations of the data cutout unit and the output layer neuron are the same as those in the first embodiment. However, in the third embodiment, unlike the first and second embodiments, the input from the data cutout unit is left unchanged, that is, the result of using the erect input A and the inverter 49. The two inputs are given. Two inputs A and 2 are given to the selector 50

【0049】[0049]

【外1】 [Outside 1]

【0050】[0050]

【外2】 [Outside 2]

【0051】られ、そのいずれかが選択制御部51から
の制御信号に従って選択され、その選択結果は係数バッ
ファ52の内容と共にアンドゲート53に入力され、ア
ンドゲート53の出力が加算器54に与えられる。加算
器54への入力は第1の実施例におけると同様にレジス
タ55の内容と加算され、再びレジスタ55に格納され
る。この動作が15個の入力に対して15回繰り返され、最
終的な積和演算結果はレジスタ56に格納され、ROM
57によってスケーリングが行われ、変換結果がスリー
ステートレジスタ58を介して出力層のニューロンに与
えられる。
Any one of them is selected in accordance with a control signal from the selection control unit 51, the selection result is input to the AND gate 53 together with the contents of the coefficient buffer 52, and the output of the AND gate 53 is given to the adder 54. . The input to the adder 54 is added to the contents of the register 55 as in the first embodiment, and stored in the register 55 again. This operation is repeated 15 times for 15 inputs, and the final product-sum operation result is stored in the register 56 and stored in the ROM.
The scaling is performed by 57, and the conversion result is given to the neuron in the output layer via the three-state register 58.

【0052】図18は、図17において選択制御部51
から選択部50に与えられる選択制御信号と、係数バッ
ファ52に格納されている係数の実施例である。選択制
御部51からは選択制御信号として黒であるべきドット
に対しは正立入力Aを選択させるための信号値としての
0、白であるべきドット位置に対しては反転入力 外3
を選択させるための信号1が出力される。
FIG. 18 shows a selection control unit 51 in FIG.
2 is an example of the selection control signal given to the selection unit 50 from the above and the coefficient stored in the coefficient buffer 52. As a selection control signal from the selection control unit 51, 0 is set as a signal value for selecting the upright input A for a dot which should be black, and an inverted input 3 is set for a dot position which should be white.
The signal 1 for selecting is output.

【0053】[0053]

【外3】 [Outside 3]

【0054】一方、係数バッファ52内では正立入力A
が1、すなわち黒であるべきドット位置と反転入力 外
4 が1、すなわち白であるべきドット位置とに対して
係数
On the other hand, in the coefficient buffer 52, the upright input A
Is 1, that is, the dot position that should be black and the inverted input outside 4 is 1, that is, the dot position that should be white,

【0055】[0055]

【外4】 [Outside 4]

【0056】が共に1、それ以外、すなわちドントケア
のドット位置に対する係数が0となっている。図18に
示した係数および選択制御信号の値は図2の修正パター
ンに対するものであり、ドット番号は入力番号を示す
が、係数が0、すなわちドントケアのドットに対しては
選択制御信号の値は0、すなわち正立信号を選択する値
となっている。
Both are 1, and other than that, that is, the coefficient for the dot position of don't care is 0. The values of the coefficient and the selection control signal shown in FIG. 18 are for the correction pattern of FIG. 2, and the dot number indicates the input number, but the coefficient is 0, that is, the value of the selection control signal is for the don't care dot. The value is 0, that is, a value for selecting the erect signal.

【0057】以上においては、ドットの位置を本来の入
力位置の前後に1/3ドットずらせる変換、すなわち実
質的に300dpiから900dpiへの変換にニューラルネットワ
ークを用いる例を説明したが、これと異なる画素密度の
組み合わせの変換に用いることも可能であり、主走査方
向の画素変換だけでなく副走査方向の画素変換に用いる
ことも可能である。
In the above, an example in which a neural network is used for the conversion for shifting the dot position by 1/3 dot before and after the original input position, that is, for the conversion from substantially 300 dpi to 900 dpi has been described. It can be used for conversion of a combination of pixel densities, and can be used not only for pixel conversion in the main scanning direction but also for pixel conversion in the sub scanning direction.

【0058】続いて本発明における画像形成装置として
プリンタについてその全体構成を示し、その全体構成に
関連して他の実施例を詳細に説明する。図19はプリン
タの全体構成ブロック図である。同図において、プリン
タはコントローラ60、画質補正回路61、および印字
機構62から成っている。このうち画質補正回路61の
内容については後述する。
Next, the overall configuration of a printer as an image forming apparatus in the present invention will be shown, and another embodiment will be described in detail in relation to the overall configuration. FIG. 19 is a block diagram of the overall configuration of the printer. In the figure, the printer comprises a controller 60, an image quality correction circuit 61, and a printing mechanism 62. Of these, the contents of the image quality correction circuit 61 will be described later.

【0059】コントローラ60は全体制御用のプロセッ
サMPU63、プログラム格納用のROM64、文字フ
ォント用ROM65、ワーク用RAM66、ページ展開
用RAM67、ホストコンピュータから印字データ等を
受け取るホストコンピュータインタフェース68、印字
データ等を格納する先入れ、先出しメモリ(FIFO)
69、およびシフトレジスタ70、制御パネル71、入
力インタフェース回路72から成っている。
The controller 60 includes a processor MPU 63 for overall control, a ROM 64 for storing programs, a ROM 65 for character fonts, a work RAM 66, a page expansion RAM 67, a host computer interface 68 for receiving print data and the like from a host computer, print data and the like. First-in, first-out memory (FIFO) to store
69, a shift register 70, a control panel 71, and an input interface circuit 72.

【0060】印字機構62は電源74、メカコン75、
画像印字用の光学ユニット76、プロセスユニット7
7、モータ78等からなり、メカコン75はモータ駆動
回路79、およびセンサインタフェース回路80を含ん
でいる。そして光学ユニット76からは、画質補正回路
61およびコントローラ60に対して、例えばプリンタ
用紙の端を検出したことを示すビームディテクト信号
(BD)が送られ、また画質補正回路61から光学ユニ
ット76に発光パルス補正信号が与えられる。
The printing mechanism 62 includes a power source 74, a mechanical controller 75,
Optical unit 76 for image printing, process unit 7
The mechanical controller 75 includes a motor drive circuit 79 and a sensor interface circuit 80. Then, the optical unit 76 sends a beam detect signal (BD) indicating that the edge of the printer paper has been detected to the image quality correction circuit 61 and the controller 60, and the image quality correction circuit 61 emits light to the optical unit 76. A pulse correction signal is provided.

【0061】図20は図19の画質補正回路61の詳細
構成ブロック図である。同図において、画質補正回路は
コントローラ60からのビデオ信号、すなわち入力画像
信号が入力されるラッチ回路81、ラッチ回路81の後
段に位置するツーポートランダムアクセスメモリ(RA
M)82、RAM82から出力されるデータのシリアル
/パラレル変換を行うためのシフトレジスタ83a〜8
3n、これらのシフトレジスタからの出力がそれぞれ入
力層のユニットに入力され、ウィンドウの中央の画素に
対する補正データを出力するためのニューラルネットワ
ーク(ニューロ)84、ニューラルネットワーク84の
出力を格納するためのツーポートRAM85、ツーポー
トRAM85の出力が入力されるラッチ86、およびツ
ーポートRAM85とラッチ86の出力によって印字機
構62内の光学ユニット76に発光パルス補正信号を出
力するパルス幅補正回路87、ツーポートRAM82の
ラッチ81側、およびRAM85のラッチ86側のリー
ド/ライトアドレスを制御するカウンタ88、RAM8
2のシフトレジスタ側とRAM85のニューラルネット
ワーク側のライト/リードアドレスを制御するためのカ
ウンタ89、および全体の制御部90から構成されてい
る。
FIG. 20 is a detailed block diagram of the image quality correction circuit 61 of FIG. In the figure, the image quality correction circuit includes a latch circuit 81 to which a video signal from the controller 60, that is, an input image signal is input, and a two-port random access memory (RA located at a stage subsequent to the latch circuit 81.
M) 82, shift registers 83a to 8 for performing serial / parallel conversion of data output from RAM 82
3n, the outputs from these shift registers are respectively input to the units of the input layer, the neural network (neuro) 84 for outputting the correction data for the pixel in the center of the window, and the two-port for storing the output of the neural network 84 The RAM 85, the latch 86 to which the outputs of the two-port RAM 85 are input, the pulse width correction circuit 87 that outputs a light emission pulse correction signal to the optical unit 76 in the printing mechanism 62 by the outputs of the two-port RAM 85 and the latch 86, and the latch 81 side of the two-port RAM 82 , And a counter 88 for controlling the read / write address on the latch 86 side of the RAM 85, the RAM 8
2, a counter 89 for controlling write / read addresses on the shift register side of the RAM 85 and on the neural network side of the RAM 85, and an overall control unit 90.

【0062】図21はコントローラ60側からのRAM
82への1ライン分のデータ入力の説明図である。この
データ入力を図22に示すラッチ81とツーポートRA
M82との接続図を用いて説明する。なお、以後の説明
では、中央画素に対する補正データ出力のためのウィン
ドウの大きさは5×4とする。
FIG. 21 shows the RAM from the controller 60 side.
It is an explanatory view of data input for one line to 82. This data input is applied to the latch 81 and two-port RA shown in FIG.
This will be described with reference to the connection diagram with M82. In the following description, the size of the window for outputting the correction data for the central pixel is 5 × 4.

【0063】図21において、上部に示すRAM82の
内容は現在の格納内容を示すものとする。例えばアドレ
スn−1のビット0〜4には“a,b,c,d,e”の
データが格納れている。ビットの0〜4はそれぞれ画像
上の1ラインのデータに相当し、ビット0のデータは最
も最近RAM82に格納されたものとする。新しいライ
ンのデータが入力される時には、RAM82の内容がア
ドレス0から順次リードされ、ラッチ81に入力され
る。この時、RAM82とラッチ81は図22に示すよ
うに1ビットずつシフトする形式で接続されているため
に、例えばアドレスn−1のデータからは“e”があふ
れ、“a,b,c,d”が格納される。
In FIG. 21, the contents of the RAM 82 shown at the top indicate the present stored contents. For example, data "a, b, c, d, e" is stored in bits 0 to 4 of the address n-1. Bits 0 to 4 correspond to data of one line on the image, and the data of bit 0 is assumed to be most recently stored in the RAM 82. When data of a new line is input, the contents of RAM 82 are sequentially read from address 0 and input to latch 81. At this time, since the RAM 82 and the latch 81 are connected in a format that shifts by one bit as shown in FIG. 22, for example, "e" overflows from the data at the address n-1 and "a, b, c,". d ”is stored.

【0064】ラッチ81の入力D0 には、この時コント
ローラ60側からのアドレスn−1上のデータ“v”が
入力され、これらのデータはラッチ81を介して再びR
AM82に格納される。この動作を1ライン分繰り返し
行うことにより入力される1ライン分のデータは、RA
M82上でビット0の位置に格納される。ビット1〜4
に格納されているデータはビットの番号の順に新しく格
納されたライン上のデータを示す。またRAM82のア
ドレスによって、各ラインの印字開始位置に近いデータ
から順に左側から並んで格納される。RAM82上のデ
ータは、印字に先立って領域外を走査する間に、連続的
に“0”を書き込むことでクリアされる。
At this time, the data “v” at the address n−1 from the controller 60 side is input to the input D 0 of the latch 81, and these data are again read through the latch 81.
It is stored in the AM 82. Data for one line input by repeating this operation for one line is RA
It is stored in the position of bit 0 on M82. Bits 1-4
The data stored in indicates the data on the line newly stored in the order of bit numbers. Further, according to the address of the RAM 82, the data is stored in order from the left side in order from the data closer to the print start position of each line. The data on the RAM 82 is cleared by continuously writing "0" while scanning outside the area before printing.

【0065】図20においてRAM82に1ライン分の
データが新たに入力されると、例えば5ライン上のそれ
ぞれ4個の画素から構成されるウィンドウに対するニュ
ーラルネットワーク84の処理が行われるが、それに先
立ってRAM82からシフトレジスタ83a〜83nへ
のデータ入力が行われる。
When data for one line is newly input to the RAM 82 in FIG. 20, the neural network 84 processes the window composed of four pixels on five lines, for example. Data is input from the RAM 82 to the shift registers 83a to 83n.

【0066】図23はシフトレジスタへのデータ入力の
説明図である。RAM82上での現在処理すべきウィン
ドウがアドレスn−1から始まるものとすると、先ずそ
のアドレス上のビット0〜4の位置のデータ“A,B,
C,D,E”がそれぞれ5つのシフトレジスタに入力さ
れる。次にアドレスnのデータがそれぞれ5つのシフト
レジスタに入力されるが、その時アドレスn−1にあっ
たデータはシフトレジスタ内でシフトされる。
FIG. 23 is an explanatory diagram of data input to the shift register. Assuming that the window to be currently processed on the RAM 82 starts from the address n−1, first, the data “A, B,
C, D, and E ″ are input to five shift registers respectively. Next, the data of address n is input to each of five shift registers, but the data at address n−1 at that time is shifted in the shift register. To be done.

【0067】図24はRAM82とシフトレジスタ83
a〜83nとの接続図である。同図において、RAM8
2からアドレスに従って順次1ビットずつシリアルに出
力されるデータは各ビット位置に対応するシフトレジス
タに入力れ、各シフトレジスタ上で1ビットずつ、図で
は下方にシフトされながら格納される。
FIG. 24 shows a RAM 82 and a shift register 83.
It is a connection diagram with a-83n. In the figure, RAM8
Data serially output bit by bit according to the address from 2 is input to the shift register corresponding to each bit position, and stored in each shift register bit by bit, being shifted downward in the figure.

【0068】1つのウィンドウ上のデータが各シフトレ
ジスタに格納されると、図20においてニューラルネッ
トワークへ各シフトレジスタ83a〜83nからの出力
が行われる。この出力はパラレルに行われる。従って各
シフトレジスタはシリアル/パラレル変換を行うことに
なる。
When the data on one window is stored in each shift register, the output from each shift register 83a to 83n is performed to the neural network in FIG. This output is done in parallel. Therefore, each shift register performs serial / parallel conversion.

【0069】このシフトレジスタへのデータ入出力はニ
ューラルネットワークの処理速度に応じて行われるもの
であり、図20ではカウンタ89の発生するカウント値
によって制御される。一般にニューラルネットワークの
処理速度はあまり早くないために、例えばRAM82へ
の画像データ入力、すなわちカウンタ88の発生するカ
ウント値でのタイミングで行われるデータ入力とは無関
係のタイミングで、ニューラルネットワーク84へのデ
ータ入力が行われる。なお各シフトレジスタ83a〜8
3n内のデータは各行の先頭で全てクリアされる。
Data input / output to / from the shift register is performed according to the processing speed of the neural network, and is controlled by the count value generated by the counter 89 in FIG. Generally, since the processing speed of the neural network is not so fast, for example, the data to the neural network 84 is input at a timing unrelated to the image data input to the RAM 82, that is, the data input performed at the timing of the count value generated by the counter 88. Input is made. Each shift register 83a-8
The data in 3n are all cleared at the beginning of each line.

【0070】ニューラルネットワーク84の処理結果、
すなわち中央の画素としてのドットのサイズと位置(シ
フト)との修正用データは、RAM85を介してラッチ
86、およびパルス幅補正回路87に出力される。RA
M85は入力側と同様にニューラルネットワーク84と
発光パルス補正信号出力とのタイミングの調整用に用い
られる。なお、ここではニューロ84の出力する中央画
素に対する修正データはサイズ用に4ビット、位置(シ
フト)用に2ビットの計6ビットとする。
The processing result of the neural network 84,
That is, the correction data for the size and position (shift) of the dot as the central pixel is output to the latch 86 and the pulse width correction circuit 87 via the RAM 85. RA
M85 is used for adjusting the timing between the neural network 84 and the light emission pulse correction signal output, as in the input side. Note that here, the correction data for the central pixel output from the neuro 84 is 4 bits for size and 2 bits for position (shift), which is a total of 6 bits.

【0071】図25は図20のパルス幅補正回路87の
構成ブロック図である。同図において、パルス幅補正回
路87はラッチ86からの6ビットの出力とラッチ86
を介さずにRAM85からの直接の出力6ビットとの合
計12ビットがアドレスとして入力されるリードオンリメ
モリ(ROM)88、およびROM88の出力が入力さ
れ、パラレル/シリアル変換を行って発光パルス補正信
号を出力するシフトレジスタ89から構成されている。
FIG. 25 is a block diagram showing the configuration of the pulse width correction circuit 87 shown in FIG. In the figure, the pulse width correction circuit 87 outputs the 6-bit output from the latch 86 and the latch 86.
6 bits directly output from RAM 85 and a total of 12 bits as an address are input as an address, and a read-only memory (ROM) 88 and an output of ROM 88 are input, and parallel / serial conversion is performed to perform a light emission pulse correction signal. Is composed of a shift register 89 which outputs

【0072】図26はドットのサイズとシフトとの指定
に対する発光パルスの例である。同図(a) はサイズが8
/8でシフトが中央、すなわち本来の入力位置に最大の
大きさのドットを打つ指定に対する発光パルスであり、
この時の発光信号は8ビットの全てが1となっている。
これに対して同図(b) に示すようにサイズが2/8、シ
フトが中央の指定の時には、発光パルス補正信号は中央
の4,5ビットが1で、他の全てのビットが0である。
FIG. 26 shows an example of a light emission pulse corresponding to designation of dot size and shift. The size of the figure (a) is 8
At / 8, the shift is at the center, that is, a light emission pulse for designating a dot of maximum size at the original input position,
At this time, all the 8 bits of the light emission signal are 1.
On the other hand, when the size is set to 2/8 and the shift is set to the center, as shown in Fig. 6 (b), the emission pulse correction signal is 1 for the central 4th and 5th bits and 0 for all other bits. is there.

【0073】図26(c) はサイズが8/8、シフト右の
指定に対するものであり、補正信号は1〜3ビットが
0、4〜8ビット目が1となっているが、これは現在の
ウィンドウに対する補正信号であり、本来サイズが8/
8の指定の時には図(a) に示したように8つのビットに
対して信号値が‘1’となるために、残りの3ビットに
対する‘1’は次のウィンドウに対する発光パルス補正
信号出力時に出力されなければならない。また、同図
(d) に示すようにサイズ4/8、シフト右の指定に対し
ては、右則にはみ出す1ビットの‘1’を次のウィンド
ウに対する補正信号出力時に出力しなければならない。
FIG. 26C shows the case where the size is 8/8 and the shift right is designated. The correction signal is 0 for the 1st to 3rd bits and 1 for the 4th to 8th bits. Is a correction signal for the window of
When 8 is specified, the signal value becomes "1" for 8 bits as shown in Fig. (A). Therefore, "1" for the remaining 3 bits is output when the emission pulse correction signal for the next window is output. Should be output. Also, the same figure
As shown in (d), in order to specify size 4/8 and shift right, a 1-bit '1' protruding to the right rule must be output when the correction signal is output to the next window.

【0074】図27は、前のウィンドウのドットに対す
る残りデータと現在のドットに対するデータとを合成し
て、発光パルス補正信号とする例である。図25に示す
ようにROM88のリードアドレスは、ラッチ86に格
納されている前のウィンドウの中央のドットに対するサ
イズとシフトの指定データと、RAM85から直接入力
される現在のウィンドウの中央のドットに対するサイズ
とシフトの指定データとからなっており、ROM88内
には、このアドレスに対して合成して出力すべき発光パ
ルス補正信号が格納されており、そのデータがシフトレ
ジスタ89を介してシリアル信号として光学ユニット7
6に出力される。
FIG. 27 shows an example in which the remaining data for the dots in the previous window and the data for the current dot are combined to form a light emission pulse correction signal. As shown in FIG. 25, the read address of the ROM 88 is the size and shift designation data for the central dot of the previous window stored in the latch 86, and the size for the central dot of the current window directly input from the RAM 85. And a shift designation data. The ROM 88 stores a light emission pulse correction signal to be combined with this address and output. The data is optically transmitted as a serial signal via the shift register 89. Unit 7
6 is output.

【0075】図28は画質補正回路の動作タイミングチ
ャートである。同図において、図19の光学ユニット7
6から、例えばプリンタ用紙の端を検出したことを示す
ビームディテクト信号(BD)が入力されると、図20
のカウンタ88,89がリセットされると共に、ビデオ
データクロック(VDCLK)に従って、図19のコン
トローラ60から図20のRAM82へのデータ入力が
行われる。この時のライトアドレスはカウンタ88によ
って指定される。1ライン分のデータが書き込まれる
と、その後次のBD信号が入力されるまで書き込み禁止
となる。これは領域外のデータをライトしないためであ
る。なお0から2047のアドレスは1ライン分の書き込み
アドレスを示す。
FIG. 28 is an operation timing chart of the image quality correction circuit. In the figure, the optical unit 7 of FIG.
When a beam detect signal (BD) indicating that the edge of the printer paper has been detected is input from 6,
The counters 88 and 89 are reset and data is input from the controller 60 of FIG. 19 to the RAM 82 of FIG. 20 in accordance with the video data clock (VDCLK). The write address at this time is designated by the counter 88. When the data for one line is written, the writing is prohibited until the next BD signal is input. This is because data outside the area is not written. The addresses 0 to 2047 indicate write addresses for one line.

【0076】一方、RAM82からニューロ84へのデ
ータ出力もBD信号の入力と共に開始されるが、その入
力はRAM82へのデータ入力のタイミングより遅いタ
イミングで行われる。そしてニューロ84上で1つのウ
ィンドウに対する処理が終了するたびに、RAM85へ
のドットサイズとシフトのデータ出力が行われる。この
出力はカウンタ89のカウント値によって行われる。こ
の時RAM85には1本前のラインに対するドットの補
正データとしてのサイズおよびシフトのデータが格納さ
れており、このデータはコントローラからRAM82へ
のデータ入力のタイミングと同一のタイミング、すなわ
ちカウンタ88の出力するカウント値に応じて、ラッチ
86およびパルス幅補正回路87に出力される。
On the other hand, the data output from the RAM 82 to the neuro 84 is started at the same time as the BD signal is input, but the input is performed at a timing later than the timing of the data input to the RAM 82. Then, each time the processing for one window on the neuro 84 is completed, the dot size and shift data are output to the RAM 85. This output is performed by the count value of the counter 89. At this time, the RAM 85 stores the size and shift data as the dot correction data for the previous line, and this data is the same timing as the data input timing from the controller to the RAM 82, that is, the output of the counter 88. Output to the latch 86 and the pulse width correction circuit 87 according to the count value.

【0077】図29に本発明の画像形成装置のさらに他
の実施例のシステム構成図を示す。同図においてニュー
ラルネットワークを構成するニューロンはハードウェア
によって構成され、ドット画像データの入力に応じてサ
ブドットパターンを出力する。
FIG. 29 shows a system configuration diagram of still another embodiment of the image forming apparatus of the present invention. In the figure, the neurons that make up the neural network are made up of hardware and output a sub-dot pattern in response to the input of dot image data.

【0078】図30は図29のシステムの動作のタイミ
ングチャートである。図29および図30を用いて入力
ドット画像データの処理について説明する。図29にお
いて、図示しないビットマップメモリからのドット画像
データは7ライン分のラインバッファと7ライン×9画
素分の長方形のドット画像データを保持するレジスタで
構成されるデータ切り出し部を介してニューラルネット
ワークに与えられる。このデータ切り出し部で切り出さ
れた7×9のビットマップ画像である63画素分のドッ
ト画像データは、図9(b) に示されるような画素の割り
当てが行われる。そして、このドット画像データは、入
力層101のユニットを構成する9ビットシフトレジス
タ102a〜102gに入力され、その後中間層103
の22個のニューロン24a〜24vに1ビットづつ同時
に与えられる。中間層103のニューロン24a〜24
vは、各ニューロン24a〜24vに設定される係数の
値を除いてそれぞれ同一の構成を有しており、全てが並
列に動作するように構成されている。
FIG. 30 is a timing chart of the operation of the system shown in FIG. Processing of input dot image data will be described with reference to FIGS. 29 and 30. In FIG. 29, the dot image data from the bit map memory (not shown) includes a line buffer for 7 lines and a data cutting section configured by a register for holding rectangular dot image data for 7 lines × 9 pixels through a neural network. Given to. The dot image data for 63 pixels, which is a 7 × 9 bitmap image cut out by the data cutout unit, is assigned with pixels as shown in FIG. 9B. Then, this dot image data is input to the 9-bit shift registers 102a to 102g forming the unit of the input layer 101, and then the intermediate layer 103.
22 neurons 24a to 24v are simultaneously given one bit at a time. Neurons 24a to 24 of the intermediate layer 103
v has the same configuration except for the value of the coefficient set for each neuron 24a to 24v, and all are configured to operate in parallel.

【0079】尚、各ニューロン24a〜24v内の各回
路の動作は、図13に示される第1の実施例における各
ニューロン24a〜24xと同様であるので、その詳細
説明は省略する。
Since the operation of each circuit in each neuron 24a to 24v is the same as that of each neuron 24a to 24x in the first embodiment shown in FIG. 13, its detailed description will be omitted.

【0080】唯一両者の相違点は、図29に示される各
ニューロン24a〜24v内の各係数バッファ104に
格納される係数の数が63個であり、ANDゲート26に
は、1回当たり63個のデータが入力されるという点であ
る。なお、ここでは係数バッファ内の係数を一般的にn
ビットとしている。
The only difference between the two is that the number of coefficients stored in each coefficient buffer 104 in each of the neurons 24a to 24v shown in FIG. 29 is 63, and the AND gate 26 has 63 coefficients at one time. That is, the data of is input. Note that the coefficient in the coefficient buffer is generally n here.
I have a bit.

【0081】一方、中間層103の22個の各ニューロン
24a〜24vの出力は、8個のニューロン32a〜3
2hで構成される出力層105に与えられる。この出力
層内の8個のニューロン32a〜32hの回路構成は、
図13に示される実施例における出力層のニューロン3
2a〜32eとほぼ同様であり、その構成及び動作につ
いての詳細説明を省略する。
On the other hand, the output of each of the 22 neurons 24a to 24v of the intermediate layer 103 is the same as that of the 8 neurons 32a to 3v.
It is provided to the output layer 105 composed of 2h. The circuit configuration of the eight neurons 32a to 32h in this output layer is
Output layer neuron 3 in the embodiment shown in FIG.
2a to 32e are substantially the same, and detailed description of the configuration and operation thereof will be omitted.

【0082】尚、両者の相違点は、中間層103のニュ
ーロンと同様に、各ニューロン32a〜32hの係数バ
ッファ106に格納される係数の数が中間層103のニ
ューロンの個数に合わせて22個であるという点にある。
The difference between the two is that, like the neurons in the intermediate layer 103, the number of coefficients stored in the coefficient buffer 106 of each of the neurons 32a to 32h is 22 according to the number of neurons in the intermediate layer 103. There is a point.

【0083】以上説明した構成において、入力層10
1、中間層103、及び出力層105から成るニューラ
ルネットワークは、補正対象画素がその中央画素に設定
されている7×9ドット、つまり、合計63個の画素デー
タが入力される毎に中間層103が各画素データと係数
データとの演算処理を行う。次いで、出力層105が中
間層103のニューロンの出力データと係数バッファ1
06に保持していた係数データとの演算処理を行う。そ
して、出力層105の8個のニューロンは、ニューラル
ネットワークに入力されたドット画像データの画素の配
列パターンに応じた最適なサブドットパターンを、7×
9のウィンドウの中央画素を示すデータとしてプリント
ヘッドコントローラ(図示しない)に出力する。この最
適なサブドットパターンは、図4に示される28個のパタ
ーンのうちのいずれか1つのパターンである。
In the structure described above, the input layer 10
In the neural network including the intermediate layer 103, the intermediate layer 103, and the output layer 105, the intermediate layer 103 is input every time 7 × 9 dots in which the pixel to be corrected is set to the central pixel, that is, 63 pixel data in total are input. Performs arithmetic processing on each pixel data and coefficient data. Next, the output layer 105 outputs the output data of the neurons of the intermediate layer 103 and the coefficient buffer 1
The arithmetic processing with the coefficient data held in 06 is performed. Then, the eight neurons of the output layer 105 generate an optimum sub-dot pattern corresponding to the pixel array pattern of the dot image data input to the neural network by 7 ×.
It is output to a print head controller (not shown) as data indicating the center pixel of the window of No. 9. This optimum sub-dot pattern is any one of the 28 patterns shown in FIG.

【0084】図31及び図32は、図29に示される実
施例におけるニューラルネットワークに与えられる入力
パターンとその入力パターンに対する教師パターンとの
関係を示す図である。各図の矢印の上側が入力パターン
であり、その下側が教師パターンである。
31 and 32 are diagrams showing the relationship between the input pattern given to the neural network in the embodiment shown in FIG. 29 and the teacher pattern for the input pattern. The upper side of the arrow in each figure is the input pattern, and the lower side is the teacher pattern.

【0085】図31(a) に示されるように、教師パター
ンの7×9のウィンドウの中央画素は、入力パターンの
中央画素が白であるにもかかわらず、8個のサブドット
の内の右側の3サブドット分が黒に変換されている。一
方、図31(b) に示されるように、図31(a) の入力パ
ターンに対し、その全てのドットが左側に1ドットづつ
ずれた入力パターンの場合は、入力パターンの中央画素
は黒であるけれども8個のサブドットの内の右側の3個
のサブドットが白に変換されている。
As shown in FIG. 31 (a), the center pixel of the 7 × 9 window of the teacher pattern is on the right side of the eight subdots even though the center pixel of the input pattern is white. 3 sub-dots are converted to black. On the other hand, as shown in FIG. 31 (b), in the case of the input pattern shown in FIG. 31 (a) in which all the dots are shifted by one dot to the left, the central pixel of the input pattern is black. However, of the eight subdots, the right three subdots are converted to white.

【0086】従って、図31(a) と図31(b) を教師パ
ターンとして学習させることにより、図31(a) ,(b)
に示されるような入力パターンのジャギーの補正を行わ
せることができる。
Therefore, by learning FIG. 31 (a) and FIG. 31 (b) as a teacher pattern, FIG. 31 (a), (b)
It is possible to correct the jaggy of the input pattern as shown in FIG.

【0087】図31(c) は、黒である中央画素が8個の
サブドットのうち左側の3個のサブドットが白に変換さ
れる例を示している。図31(d) は、黒である中央画素
が未変換のまま出力される例である。
FIG. 31 (c) shows an example in which three subdots on the left side of the eight subdots having black central pixels are converted to white. FIG. 31D is an example in which the black central pixel is output without being converted.

【0088】図32(a) は、白である中央画素が8個の
サブドットのうち中央の4個のサブドットが黒に変換さ
れた例を示している。図32(b) は、黒である中央画素
が8個のサブドットのうち両端のサブドットが白に変換
された例を示している。尚、図32(b) の例において
は、中央画素の右隣りの画素が中央画素となる時は、8
個のサブドットのうち両側2つづつ合計4個のサブドッ
トが白に変換され、また更に右隣りの画素は、白である
にもかかわらず、中央の2個のサブドットが黒に変換さ
れ、徐々にドットの大きさが変化するように各ドットが
補正される。
FIG. 32A shows an example in which, out of the eight subdots having the white central pixel, the central four subdots are converted to black. FIG. 32B shows an example in which the sub-dots at both ends of the eight sub-dots having the black central pixel are converted to white. In the example of FIG. 32 (b), when the pixel to the right of the center pixel becomes the center pixel,
Of these subdots, two on each side, a total of four subdots, are converted to white, and the two pixels on the right are converted to black even though the central two subdots are white. , Each dot is corrected so that the dot size gradually changes.

【0089】また、図32(c) ,図32(d) は白である
中央画素が8個のサブドットのうち中央のいくつかのサ
ブドットが黒に変換された例を示している。図32(c)
,図32(d) の例は、図32(b)の例と同様に図32
(c) ,図32(d) において中央画素である画素の近隣の
白および黒の画素が小さなドットとなるように変換され
る。
Further, FIGS. 32C and 32D show an example in which some central subdots among the eight subdots having white central pixels are converted to black. Figure 32 (c)
, The example of FIG. 32 (d) is similar to the example of FIG. 32 (b).
In (c) and FIG. 32 (d), the white and black pixels adjacent to the pixel which is the central pixel are converted into small dots.

【0090】尚、図33は、文字及び直線に対し、図3
1及び図32に示されるような補正を施した結果得られ
たパターンを示している。同図において色の薄く見える
ドットは、そのドット位置やサイズ、すなわち露光のタ
イミングが補正されたことを意味している。
Incidentally, FIG. 33 shows the case of FIG.
33 shows a pattern obtained as a result of performing the correction as shown in FIG. In the figure, a dot that appears light in color means that the dot position and size, that is, the exposure timing has been corrected.

【0091】以上の説明におけるニューロンの変換用関
数としては、シグモイド関数やステップ関数に限ること
なく別の関数、例えばシグモイド関数を直線で近似した
ものや、直線を用いることもできる。さらにレーザプリ
ンタのような電子写真プリンタに限らず、インクジェッ
トプリンタや熱転写プリンタ等にも本発明を適用するこ
とができる。
The function for transforming a neuron in the above description is not limited to the sigmoid function or the step function, and another function, for example, a function obtained by approximating a sigmoid function with a straight line, or a straight line can be used. Furthermore, the present invention can be applied not only to electrophotographic printers such as laser printers, but also to inkjet printers, thermal transfer printers, and the like.

【0092】[0092]

【発明の効果】以上詳細に説明したように、本発明によ
ればニューラルネットワークを用いることにより、修正
対象として学習させたパターン以外のパターンに対して
も画像データの補正を行うことができ、またマスクパタ
ーンを持つ必要がないためにメモリの節約が可能にな
り、プリンタの出力画像の高品位化に寄与するところが
大きい。
As described in detail above, according to the present invention, by using a neural network, it is possible to correct image data even for a pattern other than a pattern learned as a correction target. Since it is not necessary to have a mask pattern, it is possible to save memory, and this greatly contributes to improving the quality of the output image of the printer.

【0093】さらにドントケアのドットに対する入力値
を0または1のいずれかとしてニューラルネットワーク
の学習を行わせることにより、中間層ニューロンに対す
る入力結合の重みを+1,−1、および0の3値のいず
れかに収束させることができ、中間層ニューロンに対す
る重みバッファの容量は小さくなり、回路規模を大幅に
縮小することが可能となる。
Further, the input value for the don't care dot is set to either 0 or 1, and the learning of the neural network is performed, so that the weight of the input connection to the hidden layer neuron is one of three values of +1, -1, and 0. , And the capacity of the weight buffer for the hidden layer neuron becomes small, and the circuit scale can be greatly reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】本発明が対象とする修正すべきパターンの例を
示す図である。
FIG. 2 is a diagram showing an example of a pattern to be modified which is a target of the present invention.

【図3】角度と目立ち方の関係を示す図である。FIG. 3 is a diagram showing a relationship between an angle and how to stand out.

【図4】ジャギー低減に必要なサブドットパターンを示
す図である。
FIG. 4 is a diagram showing a sub-dot pattern required to reduce jaggies.

【図5】ニューロンの動作の説明図である。FIG. 5 is an explanatory diagram of an operation of a neuron.

【図6】ニューラルネットワークのモデルを示す図であ
る。
FIG. 6 is a diagram showing a model of a neural network.

【図7】シグモイド関数を示す図である。FIG. 7 is a diagram showing a sigmoid function.

【図8】ステップ関数を示す図である。FIG. 8 is a diagram showing a step function.

【図9】入力層のユニットへの画素の割り当ての実施例
を示す図である。
FIG. 9 is a diagram showing an example of pixel allocation to a unit of an input layer.

【図10】画素の大きさの実施例を示す図である。FIG. 10 is a diagram showing an example of a pixel size.

【図11】変換データとしての画素の位置の実施例を示
す図である。
FIG. 11 is a diagram showing an example of positions of pixels as conversion data.

【図12】出力層ユニットの出力値と画素の位置、サイ
ズの対応の実施例を示す図である。
FIG. 12 is a diagram showing an example of correspondence between output values of output layer units, positions and sizes of pixels.

【図13】画像形成装置の第1の実施例のシステム構成
を示すブロック図である。
FIG. 13 is a block diagram showing a system configuration of a first embodiment of the image forming apparatus.

【図14】図13のシステムの動作のタイミングチャー
トである。
14 is a timing chart of the operation of the system of FIG.

【図15】学習後の中間層ニューロンに対する係数の実
施例を示す図である。
FIG. 15 is a diagram showing an example of coefficients for a middle-layer neuron after learning.

【図16】画像形成装置の第2の実施例における中間層
ニューロンの構成を示すブロック図である。
FIG. 16 is a block diagram showing the configuration of an intermediate layer neuron in the second embodiment of the image forming apparatus.

【図17】画像形成装置の第3の実施例における中間層
ニューロンの構成を示すブロック図である。
FIG. 17 is a block diagram showing a configuration of an intermediate layer neuron in a third embodiment of the image forming apparatus.

【図18】図17における係数バッファの内容と選択制
御信号の実施例を示す図である。
18 is a diagram showing an example of contents of a coefficient buffer and a selection control signal in FIG.

【図19】画像形成装置としてのプリンタの全体構成を
示すブロック図である。
FIG. 19 is a block diagram showing an overall configuration of a printer as an image forming apparatus.

【図20】画質補正回路の詳細構成を示すブロック図で
ある。
FIG. 20 is a block diagram showing a detailed configuration of an image quality correction circuit.

【図21】1ラインの画像データ入力の説明図である。FIG. 21 is an explanatory diagram of one-line image data input.

【図22】画像データ入力側のラッチとRAMとの接続
図である。
FIG. 22 is a connection diagram of a latch on the image data input side and a RAM.

【図23】シフトレジスタへのデータ入力の説明図であ
る。
FIG. 23 is an explanatory diagram of data input to a shift register.

【図24】画像データ入力側のRAMとシフトレジスタ
との接続図である。
FIG. 24 is a connection diagram of a RAM on the image data input side and a shift register.

【図25】パルス幅補正回路の構成を示すブロック図で
ある。
FIG. 25 is a block diagram showing a configuration of a pulse width correction circuit.

【図26】ドットのサイズとシフトとによって指定され
る発光パルス補正信号の例を示す図である。
FIG. 26 is a diagram showing an example of a light emission pulse correction signal designated by dot size and shift.

【図27】前のウィンドウのドットの残りデータと現在
のウィンドウのドットデータとの合成による発光パルス
補正信号の例を示す図である。
FIG. 27 is a diagram showing an example of a light emission pulse correction signal by combining the dot remaining data of the previous window and the dot data of the current window.

【図28】画質補正回路の動作タイミングチャートであ
る。
FIG. 28 is an operation timing chart of the image quality correction circuit.

【図29】画像形成装置のさらに他の実施例のシステム
構成を示すブロック図である。
FIG. 29 is a block diagram showing a system configuration of still another embodiment of the image forming apparatus.

【図30】画像形成装置の動作タイミングチャートであ
る。
FIG. 30 is an operation timing chart of the image forming apparatus.

【図31】修正パターン(教師パターン)の実施例を示
す図である。
FIG. 31 is a diagram showing an example of a correction pattern (teacher pattern).

【図32】修正パターン(教師パターン)の実施例を示
す図である。
FIG. 32 is a diagram showing an example of a correction pattern (teacher pattern).

【図33】文字と直線の修正例を示す図である。FIG. 33 is a diagram showing an example of correcting a character and a straight line.

【図34】入力画像データの画質向上法の従来例を説明
する図である。
FIG. 34 is a diagram illustrating a conventional example of a method for improving the image quality of input image data.

【図35】修正パターンの例を示す図である。FIG. 35 is a diagram showing an example of a correction pattern.

【符号の説明】[Explanation of symbols]

10 円滑化手段(ニューラルネットワーク) 20 データ切り出し部 21a〜21c ラインバッファ 22a〜22c シフトレジスタ 24a〜24x 中間層ニューロン 25 中間層ニューロン内係数バッファ 32a〜32e 中間層ニューロン 33 出力層ニューロン内係数バッファ 10 Smoothing Means (Neural Network) 20 Data Extraction Unit 21a to 21c Line Buffer 22a to 22c Shift Register 24a to 24x Intermediate Layer Neuron 25 Intermediate Layer Neuron Coefficient Buffer 32a to 32e Intermediate Layer Neuron 33 Output Layer Neuron Coefficient Buffer

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/409 (72)発明者 胡中 俊雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 佐藤 一彦 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 平2−43665(JP,A) 特開 平2−72491(JP,A)─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical indication location H04N 1/409 (72) Inventor Toshio Kunanaka 1015 Uedoda, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Limited (72) Inventor Kazuhiko Sato 1015 Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Limited (56) References JP-A-2-43665 (JP, A) JP-A-2-72491 (JP, A)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力されるドット画像データの配列に応
じて、前記ドット画像データ内の画素としてのドットを
補正することにより、画像を滑らかにする円滑化手段を
有する画像形成装置において、 前記円滑化手段は、中間層の各ニューロンへの重み係数
が0または正であり、かつ、二値となるニューラルネッ
トワーク(10)を含んで成り、かつ該ニューラルネッ
トワーク(10)に前記ドット画像データの正立信号と
反転信号とを入力させることを特徴とする画像形成装
置。
1. An image forming apparatus having a smoothing unit for smoothing an image by correcting dots as pixels in the dot image data according to an array of input dot image data, The conversion means is a weighting factor for each neuron in the hidden layer.
There is a 0 or a positive, and growth is, and the neural network comprises a neural network (10) comprising a binary
An upright signal of the dot image data is sent to the network (10).
An image forming apparatus, wherein an inversion signal is input .
【請求項2】 前記正の重み係数が+1であることを特2. The positive weighting factor is +1.
徴とする請求項1記載の画像形成装置。The image forming apparatus according to claim 1, which is a characteristic.
【請求項3】 前記円滑化手段は、前記ニューラルネッ3. The smoothing means is the neural network.
トワークの出力に応じて、ドットのサイズと位置の補正Correct dot size and position according to network output
を行う手段を含んで成ることを特徴とする請求項1又はClaim 1 or characterized in that it comprises means for performing
2記載の画像形成装置。2. The image forming apparatus according to 2.
JP3194423A 1991-07-10 1991-08-02 Image forming device Expired - Fee Related JPH0823873B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP3194423A JPH0823873B2 (en) 1991-08-02 1991-08-02 Image forming device
EP92402023A EP0526295B1 (en) 1991-07-10 1992-07-10 Image forming apparatus
DE69231481T DE69231481T2 (en) 1991-07-10 1992-07-10 Imaging device
US07/911,741 US6016154A (en) 1991-07-10 1992-07-10 Image forming apparatus
KR1019920012277A KR960002693B1 (en) 1991-07-10 1992-07-10 Image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3194423A JPH0823873B2 (en) 1991-08-02 1991-08-02 Image forming device

Publications (2)

Publication Number Publication Date
JPH0540839A JPH0540839A (en) 1993-02-19
JPH0823873B2 true JPH0823873B2 (en) 1996-03-06

Family

ID=16324362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3194423A Expired - Fee Related JPH0823873B2 (en) 1991-07-10 1991-08-02 Image forming device

Country Status (1)

Country Link
JP (1) JPH0823873B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0243665A (en) * 1988-08-04 1990-02-14 Nippon Telegr & Teleph Corp <Ntt> Neural network device
JPH0272491A (en) * 1988-09-08 1990-03-12 Sony Corp Picture conversion processor

Also Published As

Publication number Publication date
JPH0540839A (en) 1993-02-19

Similar Documents

Publication Publication Date Title
US5327260A (en) Image processing apparatus for smoothing edges of image
EP0526295B1 (en) Image forming apparatus
US5745249A (en) Pipelined architecture for patterned halftone generation
US5697712A (en) Image processing method and apparatus
JPH0421473A (en) Printer
EP0661664B1 (en) Print image enhancement device
US5666213A (en) Image data processing system and method realizing fine image with simple construction/procedure
EP0572956B1 (en) Image output device and image control method for smoothing image or increasing image resolution by use of same
US5638463A (en) Image-data processing system
US5790764A (en) Image output device and image control method for smoothing image or increasing image resolution by use of same
JPH0823873B2 (en) Image forming device
EP0476863B1 (en) Method and printer for printing an image formed of 2-dimensionally arranged pixels
JP2752821B2 (en) Image recording device
JPH0531958A (en) Image forming apparatus
JP2532177B2 (en) Image forming device
JPH0522599A (en) Image forming device
JPH08223423A (en) Image data processing method and image processor
JPH07250246A (en) Image forming device
JPH05159066A (en) Image forming device
JP2990671B2 (en) Image smoothing method
JP3246542B2 (en) Multi-tone image processing method
JP2839806B2 (en) Resolution improvement method in image forming apparatus
JPS60116284A (en) Method for processing colored half tone picture
JPH08139918A (en) Image processor
JPH05233818A (en) Image forming device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960827

LAPS Cancellation because of no payment of annual fees