JPH10224620A - Image processing method and its device - Google Patents

Image processing method and its device

Info

Publication number
JPH10224620A
JPH10224620A JP9305738A JP30573897A JPH10224620A JP H10224620 A JPH10224620 A JP H10224620A JP 9305738 A JP9305738 A JP 9305738A JP 30573897 A JP30573897 A JP 30573897A JP H10224620 A JPH10224620 A JP H10224620A
Authority
JP
Japan
Prior art keywords
output
image
input
sum
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9305738A
Other languages
Japanese (ja)
Inventor
Mamoru Tanaka
衞 田中
Toshiaki Nobumiya
利昭 信宮
Masaaki Imaizumi
昌明 今泉
Yuji Inoue
裕司 井上
Masamichi Oshima
正道 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP9305738A priority Critical patent/JPH10224620A/en
Publication of JPH10224620A publication Critical patent/JPH10224620A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method and its device in which optimum half tone processing is conducted and an image with high image quality is obtained by taking a weight corresponding to an area of each picture element into account even when a maximum luminance, a bit number and color expression capability differ from each picture element. SOLUTION: The device is provided with input frame buffers 2, 5, 8 that receive image data with a 1-picture element multi-value level, processor elements 3, 6, 9 that quantize the received image data based on a neural net algorithm so that an output area of one picture element corresponds to an output device different from a position of the picture element and output frame buffers 4, 7, 10 that provide an output of a quantization result, and the processor elements 3, 6, 9 executes an arithmetic operation based on the neural net algorithm based on a value resulting from multiplying a corresponding weight to the area of each picture element with an output value.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は入力画像データを入
力画像データの入力レベル数よりも少ないレベルのデー
タに量子化処理する画像処理方法及び装置に関し、特
に、1画素の出力面積が画素の位置によって異なる出力
装置に適応するように量子化処理する画像処理方法及び
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for quantizing input image data into data having a level smaller than the number of input levels of the input image data. The present invention relates to an image processing method and apparatus for performing a quantization process so as to adapt to different output devices.

【0002】[0002]

【従来の技術】黒白の2値表示のプリンタやディスプレ
イで濃淡画像を再現するために、疑似的なデジタル中間
調画像を形成することにより濃淡画像を表現する面積階
調法が従来から使われてきた。面積階調法は、近傍画像
内の黒の割合を変化させて階調を再現させる方法で、原
画像の濃淡画像u(x,y)を一定の規則により算出さ
れたしきい値Tと比較するディザ法、入力濃淡画像値と
出力中間調画像との誤差を走査されていない画素に拡散
する誤差拡散法が実用的に使用されている。
2. Description of the Related Art In order to reproduce a grayscale image on a black-and-white binary printer or display, an area gradation method for expressing a grayscale image by forming a pseudo digital halftone image has been used. Was. The area gradation method is a method of reproducing gradation by changing the ratio of black in a neighboring image, and comparing a grayscale image u (x, y) of an original image with a threshold value T calculated according to a certain rule. An error diffusion method for diffusing an error between an input grayscale image value and an output halftone image to unscanned pixels is practically used.

【0003】カラー画像の場合にも、従来より、これら
ディザ法、誤差拡散法を用いて、入力カラー画像データ
を低ビット(例えば1ビットの2値データ)に中間調処
理し、2値プリンタ、2値表示装置を用い、フルカラー
画像を形成する技術が知られている。
In the case of a color image, the input color image data is conventionally subjected to halftone processing into low bits (for example, 1-bit binary data) by using the dither method and the error diffusion method. A technique for forming a full-color image using a binary display device is known.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
ディザ法や誤差拡散法は、出力デバイスがすべての画素
で同じ階調表現能力をもつこと(すべての画素が同じ最
大輝度を持ち、同じビット数を持ち、同じ色表現能力を
持つ)を前提にしているため、画素ごとに最大輝度、ビ
ット数、色表現能力が異なる出力デバイスには用いるこ
とができないという欠点があった。また、液晶ディスプ
レイのように、画素数が固定のデバイスでは、表示デー
タの画素数とデバイスの画素数が異なる場合、補間処理
などで解像度変換を行った後、中間調処理を行う必要が
あった。
However, the conventional dither method or error diffusion method requires that the output device has the same gradation expression capability in all pixels (all pixels have the same maximum luminance and the same number of bits). And has the same color expression capability). Therefore, there is a drawback that it cannot be used for output devices having different maximum luminance, the number of bits, and the color expression capability for each pixel. In a device with a fixed number of pixels, such as a liquid crystal display, when the number of pixels of display data is different from the number of pixels of the device, it is necessary to perform halftone processing after performing resolution conversion by interpolation processing or the like. .

【0005】本発明はこの従来技術の欠点を除去するも
のであり、入力多値画像データから、画素ごとに最大輝
度、ビット数、色表現能力、および解像度が異なる出力
デバイスへ出力するための量子化データ(中間調処理さ
れたデータ)を得ることができる画像処理方法及び装置
の提供を目的とする。
The present invention eliminates the drawbacks of the prior art, and a quantum for outputting from an input multi-valued image data to an output device having different maximum luminance, the number of bits, the color expression capability, and the resolution for each pixel. It is an object of the present invention to provide an image processing method and apparatus capable of obtaining coded data (data subjected to halftone processing).

【0006】[0006]

【課題を解決するための手段】上述の目的を達成するべ
く、本発明の画像処理装置は、1画素多値レベルを有す
る画像データを入力する入力手段と、前記入力手段によ
り入力した画像データを、1画素の出力面積が画素の位
置によって異なる出力装置に適応するように量子化する
量子化手段と、前記量子化手段からの量子化結果を出力
する出力手段とを備え、前記量子化手段は各画素の面積
に対応する重みを出力値に掛けた値に基づき量子化処理
のための演算を実行することを特徴とする。
In order to achieve the above-mentioned object, an image processing apparatus according to the present invention comprises an input means for inputting image data having one pixel multi-value level, and an image data input by the input means. A quantizing unit that quantizes the output area of one pixel so as to adapt to an output device that varies depending on the position of the pixel; and an output unit that outputs a quantization result from the quantizing unit. An operation for quantization processing is performed based on a value obtained by multiplying the output value by a weight corresponding to the area of each pixel.

【0007】又、本発明の画像処理装置は、入力濃淡画
像を入力する濃淡画像入力手段と、画像の各画素におい
て、2つ以上の複数のニューロンが存在し、複数画素の
ニューロンの非線形出力値に出力面積率に対応する重み
を掛けて加算した集合的出力量を複数画素の入力濃淡画
像に重みを掛けて加算した集合的入力量にダイナミック
に近付けるダイナミック量子化手段と、前記集合的出力
量に対応する面積によって各画素の階調を表現する面積
階調出力手段とを有することを特徴とする。
Further, the image processing apparatus according to the present invention comprises: a grayscale image input means for inputting an input grayscale image; and at least two or more neurons in each pixel of the image. Dynamic quantization means for dynamically bringing a collective output amount obtained by multiplying and adding a weight corresponding to an output area ratio to a collective input amount obtained by weighting and adding an input grayscale image of a plurality of pixels, and the collective output amount And an area gradation output means for expressing the gradation of each pixel by an area corresponding to.

【0008】又、本発明の画像処理装置は、近傍画像領
域における入力重み値と入力濃淡画像との積和を演算す
る第1の積和演算手段と、近傍画像領域における出力重
み値と、出力面積率に対応する重み値及び量子化処理さ
れた出力値の積和を演算する第2の積和演算手段と、第
1、第2の積和演算手段からの結果を加算する加算手段
と、前記加算手段からの加算結果を量子化する量子化手
段と、前記量子化手段で求められた出力値を第2の積和
演算手段へフィードバックする制御手段とを有すること
を特徴とする。
The image processing apparatus according to the present invention comprises: first product-sum calculating means for calculating a product sum of an input weight value and an input grayscale image in a neighboring image area; an output weight value in a neighboring image area; Second sum-of-products calculating means for calculating the sum of the weight value corresponding to the area ratio and the output value subjected to the quantization process, and adding means for adding the results from the first and second sum-of-products calculating means; It is characterized by comprising a quantizing means for quantizing the addition result from the adding means, and a control means for feeding back an output value obtained by the quantizing means to a second product-sum operation means.

【0009】又、本発明の画像処理方法は、1画素多値
レベルを有する画像データを入力する入力工程と、前記
入力工程により入力した画像データを、1画素の出力面
積が画素の位置によって異なる出力装置に適応するよう
に量子化する量子化工程と、前記量子化工程からの量子
化結果を出力する出力工程とを備え、前記量子化工程は
各画素の面積に対応する重みを出力値に掛けた値に基づ
き量子化処理のための演算を実行することを特徴とす
る。
Further, in the image processing method of the present invention, an input step of inputting image data having a multi-value level of one pixel, and an output area of one pixel differs depending on the position of the pixel. A quantization step of quantizing to adapt to an output device, and an output step of outputting a quantization result from the quantization step, wherein the quantization step outputs a weight corresponding to an area of each pixel to an output value. An operation for a quantization process is executed based on the multiplied value.

【0010】又、本発明の画像処理方法は、近傍画像領
域における入力重み値と入力濃淡画像との積和を演算す
る第1の積和演算工程と、近傍画像領域における出力重
み値と、出力面積率に対応する重み値及び量子化処理さ
れた出力値の積和を演算する第2の積和演算工程と、第
1、第2の積和演算工程からの結果を加算する加算工程
と、前記加算工程からの加算結果を量子化する量子化工
程と、前記量子化工程で求められた出力値を第2の積和
演算工程へフィードバックする制御工程を有することを
特徴とする。
The image processing method according to the present invention further comprises a first sum-of-products calculating step of calculating a sum of products of an input weight value and an input grayscale image in a neighboring image area; A second sum-of-products operation step of calculating the product sum of the weight value corresponding to the area ratio and the quantized output value, and an adding step of adding the results from the first and second sum-of-products operations; A quantization step of quantizing an addition result from the addition step; and a control step of feeding back an output value obtained in the quantization step to a second product-sum operation step.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態を詳細
に説明する。
Embodiments of the present invention will be described below in detail.

【0012】まず、はじめにセルラーニューラルネット
に基づくアルゴリズムに基づき、入力多値画像データを
2値データに中間調処理する場合を説明する。
First, a case where halftone processing of input multi-valued image data into binary data based on an algorithm based on a cellular neural network will be described.

【0013】図1は2値の中間調処理を行なう離散時間
型セルラーニューラルネット(DTCNN)に基づくア
ルゴリズムを説明するための図である。
FIG. 1 is a diagram for explaining an algorithm based on a discrete-time cellular neural network (DTCNN) for performing binary halftone processing.

【0014】図1においては、注目画素に対する出力画
像の5×5近傍画像領域における出力低ビット画像値Y
ijと出力重み値Aklとの積和
In FIG. 1, the output low bit image value Y in the 5 × 5 neighborhood image area of the output image for the target pixel is shown.
ij and the product sum of the output weight value Akl

【0015】[0015]

【外1】 と、入力画像5×5近傍画像領域における入力濃淡画像
Uijと入力重み値Bk1との積和
[Outside 1] Sum of the input grayscale image Uij and the input weight value Bk1 in the input image 5 × 5 neighborhood image area

【0016】[0016]

【外2】 と加算し、[Outside 2] And add

【0017】[0017]

【外3】 を求める。[Outside 3] Ask for.

【0018】ここで、入力Ui,jは、−1.0と+
1.0の間の実数値、出力Yi,jは−1.0または+
1.0の2値をとる。
Here, the inputs Ui, j are -1.0 and +
A real value between 1.0 and output Yi, j is -1.0 or +
It takes two values of 1.0.

【0019】Ak,1,Bk,1の値は例えば以下のよ
うなものを用いる。
The values of Ak, 1, Bk, 1 are as follows, for example.

【0020】[0020]

【外4】 [Outside 4]

【0021】そして、式(1)の結果を各色、赤
(R)、緑(G)、青(B)毎に求め、非線形演算部へ
入力し、 Yi,j=f(Xi,j) (式4) を求める。非線形演算部では各色毎のXijを所定の閾
値(この場合は0)と比較し各色毎のYi,jを求め
る。
Then, the result of equation (1) is obtained for each color, red (R), green (G), and blue (B), and input to the non-linear operation unit, where Yi, j = f (Xi, j) ( Equation 4) is obtained. The non-linear operation unit compares Xij for each color with a predetermined threshold (0 in this case) to determine Yi, j for each color.

【0022】そして非線形演算の結果Yi,jを、注目
画素の出力画像の画像値とする。
The result Yi, j of the non-linear operation is set as the image value of the output image of the target pixel.

【0023】この演算を画像内の全画素に対して行い、
結果が収束するまで繰り返す。
This operation is performed for all pixels in the image,
Repeat until the results converge.

【0024】収束について説明する。まず全画素の出力
結果をランダムな値にし(式1)に基づき画像の全画素
の2値化結果を求め、次にこの求められた2値化結果を
もとに(式1)に基づき再度演算を行い、全画素の2値
化結果を求める。この最初に求めた2値化結果と2番目
に求めた2値化結果の比較を行う。この結果、変化のあ
った画素が所定数以上ある場合は、収束していないとし
て再度(式1)に基づき全画素の2値化結果を求める。
そして新たに求めた2値化結果と1つ前に求めた2値化
結果と比較し、変化のあった画素をカウントする。そし
て、2値化結果の比較において、変化のあった画素が所
定数以下になったとき、収束したと判断する。
The convergence will be described. First, the output results of all the pixels are set to random values, and the binarization results of all the pixels of the image are obtained based on (Equation 1). Next, based on the obtained binarization results, the binarization results are again obtained based on (Equation 1). An operation is performed to obtain a binarization result for all pixels. The first binarized result is compared with the second binarized result. As a result, if the number of changed pixels is equal to or more than a predetermined number, it is determined that the pixels have not converged, and the binarization result of all pixels is obtained again based on (Equation 1).
Then, the newly calculated binarization result is compared with the binarization result obtained immediately before, and the number of changed pixels is counted. Then, in the comparison of the binarization results, when the number of changed pixels becomes equal to or smaller than a predetermined number, it is determined that the pixels converge.

【0025】つまり(式1)に基づく演算は、結果が収
束するまでくり返される。
That is, the operation based on (Equation 1) is repeated until the result converges.

【0026】図2が2値中間調処理を行う場合の、図1
の非線形演算部f(x)の作用を表わす図である。図2
では(式1)の演算結果Xi,jを0と比較し、0以上
でYi,jを1に0以下でYi,jを−1に2値化して
いる。
FIG. 1 shows a case where FIG. 2 performs binary halftone processing.
FIG. 8 is a diagram illustrating the operation of the non-linear operation unit f (x). FIG.
In the above, the calculation result Xi, j of (Equation 1) is compared with 0, and Yi, j is binarized to 1 when Yi, j is greater than 0 and −1 when Yi, j is less than 0.

【0027】また、この方法で多値中間調処理を行うた
めには、2値の非線形演算部を多値に変えればよい。
Further, in order to perform the multi-value halftone processing by this method, the binary non-linear operation section may be changed to a multi-value.

【0028】例えば、4値の中間調処理を行う場合に
は、図1の非線形演算部f(x)の作用を図3で示した
ように、入力Xi,jに対して出力Yi,jが4通り出
力されるようにする。
For example, when performing quaternary halftone processing, as shown in FIG. 3, the operation of the non-linear operation unit f (x) in FIG. Output in four ways.

【0029】次に、本発明の実施の形態である、画素ご
とに、輝度(面積)、階調数が異なるデバイスの場合お
よび、解像度変換を行いながら中間調処理を行う場合の
説明を行う。
Next, a description will be given of an embodiment of the present invention in the case of a device having different luminance (area) and the number of gradations for each pixel, and a case of performing halftone processing while performing resolution conversion.

【0030】図4は1画素で複数レベルの表示が可能な
FLCディスプレイ(強誘電性液晶ディスプレイ)を標
準解像度モード(1024×768ドット)で駆動する
時のピクセル構成の詳細を示した図である。図4は1画
素の画素の状態を示している。
FIG. 4 is a diagram showing the details of the pixel configuration when an FLC display (ferroelectric liquid crystal display) capable of displaying a plurality of levels with one pixel is driven in a standard resolution mode (1024 × 768 dots). . FIG. 4 shows the state of one pixel.

【0031】この標準解像度モードでは、サブピクセル
(a〜r)を組み合わせることにより、0.0,1.
0,1.5,2.0,2.5,3.0,3,5,4.
0,4.5,5.0,5.5,6.0,6.5,7.
0,7.5,8.0,8.5,9.0,9.5,10.
0,10.5,11.0,11.5,12.0,12.
5,13.0,13.5,14.0,15.0の29値
を表現することができる。
In this standard resolution mode, sub-pixels (ar) are combined to form 0.0, 1..
0, 1.5, 2.0, 2.5, 3.0, 3, 5, 4.
0, 4.5, 5.0, 5.5, 6.0, 6.5, 7.
0, 7.5, 8.0, 8.5, 9.0, 9.5, 10.
0, 10.5, 11.0, 11.5, 12.0, 12.
29 values of 5, 13.0, 13.5, 14.0, and 15.0 can be represented.

【0032】図5にr(赤)で、この29値を表現する
ための、画素の組み合わせの例を示す。
FIG. 5 shows an example of a combination of pixels for expressing the 29 values by r (red).

【0033】図5中のa,d,g,j,m,pは、画素
を特定するため図4に示される記号である。
In FIG. 5, a, d, g, j, m, and p are symbols shown in FIG. 4 for specifying a pixel.

【0034】図6にg(緑)で、この29値を表現する
ための、画素の組み合わせの例を示す。
FIG. 6 shows an example of a combination of pixels for expressing the 29 values with g (green).

【0035】図6中のe,b,k,h,q,nは、画素
を特定するため図4に示される記号である。図7に、b
(青)で、この29値を表現するための、画素の組み合
わせの例を示す。図7中のc,f,i,l,o,rは、
画素を特定するため図4に示される記号である。画素の
出力値Yi,jが取り得る値は、0から15の値を、−
1.0から+1.0の値に正規化させたものとする。
E, b, k, h, q, and n in FIG. 6 are symbols shown in FIG. 4 for specifying a pixel. FIG.
(Blue) shows an example of combinations of pixels for expressing the 29 values. C, f, i, l, o, and r in FIG.
This is a symbol shown in FIG. 4 for specifying a pixel. The output value Yi, j of the pixel can take a value from 0 to 15,
It is assumed that the value is normalized from 1.0 to +1.0.

【0036】図9に標準解像度モードにおけるXi,j
とYi,jの関係を示す。図9では、−1〜+1の間の
Yi,jを29レベルに量子化する例を示している。
FIG. 9 shows Xi, j in the standard resolution mode.
And the relationship between Yi and j. FIG. 9 shows an example in which Yi, j between −1 and +1 is quantized to 29 levels.

【0037】図8はFLCディスプレイを高解像度モー
ド(2048×1536ドット)で駆動する時のピクセ
ル構成の詳細を示した図である。図8からわかるよう
に、高解像度モードでは、標準解像度モードの画素を縦
(j)横(i)それぞれに2分割し、4倍の画素数とし
て用いる。
FIG. 8 is a diagram showing the details of the pixel configuration when the FLC display is driven in the high resolution mode (2048 × 1536 dots). As can be seen from FIG. 8, in the high resolution mode, the pixels in the standard resolution mode are divided into two in each of vertical (j) and horizontal (i), and the number of pixels is quadrupled.

【0038】つまり、標準解像度モードでは、1画素で
最大15までの29レベルの輝度を表現できるが、高解
像度モードでは、4画素あたり最大15になるため、平
均的に1画素では15/4が最大輝度になる。
In other words, in the standard resolution mode, one pixel can express up to 15 levels of 29 levels of luminance, but in the high resolution mode, the maximum is 15 per 4 pixels. It becomes the maximum brightness.

【0039】しかし、図8の高解像度モードにおける、
i:奇数、j:奇数の位置のr(赤)およびb(青)、
またi:偶数、j:奇数のg(緑)の最大輝度は5であ
るため、0から5を−5/(15/4)=−4/3から
+5/(15/4)=+4/3に正規化したものをY
i,jとする。
However, in the high resolution mode shown in FIG.
i: odd, j: r (red) and b (blue) at odd positions,
Also, since the maximum luminance of i: even number and j: odd number of g (green) is 5, 0 to 5 is calculated as -5 / (15/4) =-4/3 to + 5 / (15/4) = + 4 /. Y normalized to 3
i and j.

【0040】図10に、図8の高解像度モードにおけ
る、i:奇数、j:奇数のr(赤)およびb(青)、ま
たi:偶数、j:奇数のg(緑)のXi,jとYi,j
の関係を示す。つまり、この場合Xi,jに対して2値
に量子化されることになる。
In FIG. 10, i: odd, j: odd r (red) and b (blue), i: even, j: odd g (green) Xi, j in the high resolution mode of FIG. And Yi, j
Shows the relationship. That is, in this case, Xi, j is quantized into binary values.

【0041】同様に、図8の高解像度モードにおける、
i:奇数、j:奇数のg(緑)、またi:偶数、j:奇
数のr(赤)およびb(青)の最大輝度は2.5である
ため、0から2.5を−2.5/(15/4)=−2/
3から+2.5/(15/4)=+2/3に正規化した
ものをYi,jとする。
Similarly, in the high resolution mode shown in FIG.
Since the maximum luminance of i: odd number, j: odd number g (green), i: even number, j: odd number r (red) and b (blue) is 2.5, 0 to 2.5 is -2. .5 / (15/4) =-2 /
The value normalized from 3 to + 2.5 / (15/4) = + 2/3 is defined as Yi, j.

【0042】図11に、図8の高解像度モードにおけ
る、i:奇数、j:奇数の、g(緑)、またi:偶数、
j:奇数のr(赤)およびb(青)の、Xi,jとY
i,jの関係を示す。つまり、この場合Xi,jに対し
て2値に量子化されることになる。
FIG. 11 shows that in the high-resolution mode of FIG. 8, i: odd, j: odd, g (green), i: even,
j: Xi, j and Y of odd r (red) and b (blue)
The relationship between i and j is shown. That is, in this case, Xi, j is quantized into binary values.

【0043】又、図8の高解像度モードにおける、i:
奇数、j:偶数のr(赤)およびb(青)、またi:偶
数、j:偶数のg(緑)の2つのサブピクセルによる最
大輝度は5であるため、0から5を−5/(15/4)
=−4/3から+5/(15/4)=+4/3に正規化
したものをYi,jとする。
In the high resolution mode shown in FIG. 8, i:
Since the maximum luminance due to the two subpixels of odd, j: even r (red) and b (blue), and i: even, j: even g (green) is 5, 0 to 5 is −5 / (15/4)
Yi, j is obtained by normalizing from −4/3 to + 5 / (15/4) = + 4/3.

【0044】図12に、図8の高解像度モードにおけ
る、i:奇数、j:偶数の、r(赤)およびb(青)、
またi:偶数、j:偶数のg(緑)のXi,jとYi,
jの関係を示す。つまりこの場合、Xi,jに対して、
サブピクセルが2つあるため4値に量子化されることに
なる。
FIG. 12 shows that in the high resolution mode of FIG. 8, i: odd, j: even, r (red) and b (blue),
Also, i: even number, j: Xi, j and Yi of even g (green),
The relationship of j is shown. That is, in this case, for Xi, j,
Since there are two sub-pixels, they are quantized to four values.

【0045】又、図8の高解像度モードにおける、i:
奇数、j:偶数のg(緑)、またi:偶数、j:偶数の
r(赤)およびb(青)の2つのサブピクセルによる最
大輝度は2.5であるため、0から2.5を−2.5/
(15/4)=−2/3から+2.5/(15/4)=
+2/3に正規化したものをYi,jとする。
In the high resolution mode shown in FIG. 8, i:
Since the maximum luminance by the two subpixels of odd, j: even g (green), and i: even, j: even r (red) and b (blue) is 2.5, 0 to 2.5 To -2.5 /
(15/4) = − / to + 2.5 / (15/4) =
The value normalized to +2/3 is defined as Yi, j.

【0046】図13に、図8の高解像度モードにおけ
る、i:奇数、j:偶数のg(緑)、またi:偶数、
j:偶数のr(赤)およびb(青)のXi,jとYi,
jの関係を示す。
FIG. 13 shows i: odd number, j: even number g (green), and i: even number, in the high resolution mode of FIG.
j: Xi, j and Yi of even r (red) and b (blue)
The relationship of j is shown.

【0047】つまりこの場合、Xi,jに対して、サブ
ピクセルが2つあるため4値に量子化されることにな
る。
That is, in this case, since Xi, j has two subpixels, it is quantized to four values.

【0048】1画素が複数のサブピクセルから構成され
ている場合には、1画素の出力は各サブピクセルの出力
に対応する輝度(面積)をかけたものの総和で表わせる
ので、
When one pixel is composed of a plurality of subpixels, the output of one pixel can be represented by the sum of the output of each subpixel multiplied by the luminance (area) corresponding to the output.

【0049】[0049]

【外5】 となる。[Outside 5] Becomes

【0050】ここで、Wn,i,jは各サブピクセルの
面積に比例した出力最大輝度重み値であり、yn,i,
jは各サブピクセルの出力で、−1.0または+1.0
の値である。
Here, Wn, i, j is an output maximum luminance weight value proportional to the area of each subpixel, and yn, i, j
j is the output of each subpixel, -1.0 or +1.0
Is the value of

【0051】図4に示す標準解像度モードの時には、r
(赤)に対する重み値Wr1 Wr2 Wr3 Wr4
Wr5 Wr6の値はそれぞれ、1/15,1.5/
15,2/15,2.5/15,3/15,5/15と
する。
In the standard resolution mode shown in FIG.
Weight value Wr1 Wr2 Wr3 Wr4 for (red)
The values of Wr5 and Wr6 are 1/15 and 1.5 /
15, 2/15, 2.5 / 15, 3/15, 5/15.

【0052】図4中のWr1 Wr2 Wr3 Wr5
Wr6が、それぞれに対応する画素の位置を表わして
いる。
Wr1 Wr2 Wr3 Wr5 in FIG.
Wr6 represents the position of the corresponding pixel.

【0053】g(緑)に対する重み値Wg1 Wg2
Wg3 Wg4 Wg5 Wg6もそれぞれ、1/1
5,1.5/15,2/15,2.5/15,3/1
5,5/15とし、図4中に対応する画素の位置を示
す。
Weight value Wg1 Wg2 for g (green)
Wg3 Wg4 Wg5 Wg6 are also 1/1
5, 1.5 / 15, 2/15, 2.5 / 15, 3/1
5, 5/15, and the positions of the corresponding pixels are shown in FIG.

【0054】b(青)に対する重み値Wb1 Wb2
Wb3 Wb4 Wb5 Wb6もそれぞれ、1/1
5,1.5/15,2/15,2.5/15,3/1
5,5/15とし、図4中に対応する画素の位置を示
す。
Weight value Wb1 Wb2 for b (blue)
Wb3, Wb4, Wb5, Wb6 are also 1/1
5, 1.5 / 15, 2/15, 2.5 / 15, 3/1
5, 5/15, and the positions of the corresponding pixels are shown in FIG.

【0055】図8に示す高解像度モードの時には、i:
奇数、j:奇数の、r(赤)に対する重みWroo1お
よびb(青)に対する重みWboo1、またi:偶数、
j:奇数のg(緑)に対する重みWgeo1は4/3
In the high resolution mode shown in FIG. 8, i:
Odd, j: odd, weight Wloo1 for r (red) and weight Wboo1 for b (blue), and i: even,
j: Weight Wgeo1 for odd g (green) is 4/3

【0056】[0056]

【外6】 となる。[Outside 6] Becomes

【0057】i:奇数、j:奇数の、g(緑)に対する
重みWgoo1、またi:偶数、j:奇数のr(赤)に
対する重みWreo1およびb(青)に対する重みWb
eo1は2/3
I: odd number, j: odd number, weight Wgood1 for g (green), i: even number, j: odd number weight Wreo1 for r (red) and weight Wb for b (blue)
eo1 is 2/3

【0058】[0058]

【外7】 となる。[Outside 7] Becomes

【0059】i:奇数、j:偶数の、r(赤)に対する
重みWroe1、Wroe2はそれぞれ、
I: odd number, j: even number, weights Wroe1 and Wroe2 for r (red) are respectively

【0060】[0060]

【外8】 となる。[Outside 8] Becomes

【0061】i:奇数、j:偶数のb(青)に対する重
みWboe1、Wboe2はそれぞれ、
I: odd numbers, j: weights Wboe1, Wboe2 for even b (blue) are respectively

【0062】[0062]

【外9】 となる。[Outside 9] Becomes

【0063】またi:偶数、j:偶数のg(緑)に対す
る重みWgeo1、Wgeo2はそれぞれ、
Further, i: even number, j: weight Wgeo1 and Wgeo2 for even number g (green) are respectively

【0064】[0064]

【外10】 となる。[Outside 10] Becomes

【0065】i:奇数、j:偶数の、g(緑)に対する
重みWgoe1、Wgoe2はそれぞれ、
The weights Wgoe1 and Wgoe2 for i (odd number) and j (even number) for g (green) are respectively

【0066】[0066]

【外11】 となる。[Outside 11] Becomes

【0067】またi:偶数、j:偶数のr(赤)に対す
る重みWree1、Wree2はそれぞれ、
Also, i: an even number, j: weights Wree1 and Wree2 for even r (red) are respectively

【0068】[0068]

【外12】 となる。[Outside 12] Becomes

【0069】同様にb(青)に対するWgeo1、Wg
eo2はそれぞれ、4/15、2/5となる。
Similarly, Wgeo1, Wg for b (blue)
eo2 is 4/15 and 2/5, respectively.

【0070】(式2)(式3)(式5)を(式1)に代
入し、Xi,jを求めるが、(式4)でYi,jを求め
ることはできないので、次に示す方法で、出力値となる
yn,i,jを求める。
By substituting (Equation 2), (Equation 3) and (Equation 5) into (Equation 1), Xi, j is obtained. However, since Yi, j cannot be obtained by (Equation 4), the following method is used. Then, yn, i, and j as output values are obtained.

【0071】[0071]

【外13】 yn,i,j=f(xn,i,j)(式7) ここで、f(xn,i,j)は図4に示した関数 f(xn,i,j)=+1.0 (xn,i,j>=
0) f(xn,i,j)=−1.0 (xn,i,j<=
0) である。
[Outside 13] yn, i, j = f (xn, i, j) (Equation 7) where f (xn, i, j) is a function f (xn, i, j) = + 1.0 (xn , I, j> =
0) f (xn, i, j) = − 1.0 (xn, i, j <=
0).

【0072】すなわち、ランダムに選んだnに関して、
yn,i,jと(式2)(式3)(式5)を(式1)に
代入して求められたXi,jを(式6)に代入し、x
n,i,jを求める。
That is, for n selected at random,
yn, i, j and (Expression 2) (Expression 3) (Expression 5) are substituted into (Expression 1), and Xi, j obtained is substituted into (Expression 6), and x
Find n, i, j.

【0073】このxn,i,jを(式7)に代入し、y
n,i,jを求める。
This xn, i, j is substituted into (Equation 7), and y
Find n, i, j.

【0074】この処理を収束するまで(すなわち、y
n,i,jの変化がなくなるまで)繰り返す。収束した
時点でのyn,i,jが求められた結果である。
Until this processing converges (that is, y
(until there is no change in n, i, j). This is the result of obtaining yn, i, j at the time of convergence.

【0075】(式6)中にあるTは(式6)(式7)の
演算で求めるYi,jにヒステリシスを与えるために、
用いられ、例えば、図4で示される標準解像度モードの
時には、T=1/15とする。
T in (Equation 6) is to give hysteresis to Yi, j obtained by the calculation of (Equation 6) and (Equation 7).
For example, in the standard resolution mode shown in FIG. 4, T = 1/15.

【0076】図9にTを与えた場合の標準解像度モード
における、Xi,jとYi,jの関係を示す。Tを1/
15より小さくすると、Xi,j=14/15の近傍お
よび、Xi,j=−14/15の近傍でYi,jの値を
とることができない。
FIG. 9 shows the relationship between Xi, j and Yi, j in the standard resolution mode when T is given. T is 1 /
If it is smaller than 15, the value of Yi, j cannot be taken near Xi, j = 14/15 and near Xi, j = -14 / 15.

【0077】また、Tを1/15より大きくすると、X
i,j=14/15の近傍および、Xi,j=−14/
15の近傍ではYi,jは値をとることができるが、関
数のオーバーラップが大きくなる。
When T is larger than 1/15, X
i, j = 14/15 and Xi, j = -14 /
In the vicinity of 15, Yi, j can take a value, but the overlap of functions becomes large.

【0078】図12、図13は、高解像度モードで、4
値表示が行える画素におけるXi,jとYi,jの関数
であるが、2Tで与えられる階段形の関数のステップ幅
を3/5にする必要性から、Te=3/10(2Te=
3/5)とする。
FIG. 12 and FIG.
This is a function of Xi, j and Yi, j in a pixel capable of displaying a value. Since the step width of the step-like function given by 2T needs to be 3/5, Te = 3/10 (2Te =
3/5).

【0079】図10、図11に示す関数の場合は階段形
の必要性がないためTo=0とする。
In the case of the functions shown in FIGS. 10 and 11, To = 0 is set because there is no need for a stepped shape.

【0080】図14は、本実施の形態のデジタル画像処
理プロセッサを内蔵した、表示システムの構成を示した
ブロック図である。
FIG. 14 is a block diagram showing the configuration of a display system incorporating the digital image processor of the present embodiment.

【0081】図14において、1は画素複数ビットから
なる濃淡カラー画像を入力する画像入力部である。ここ
では、R,G,B各画素8ビットのデータを入力する。
画像入力部1は例えば、デジタルカメラ、スキャナ、コ
ンピュータによって、構成される。2は赤(R)データ
を格納する入力フレームバッファで、複数ライン分の画
像データを一時格納する。
In FIG. 14, reference numeral 1 denotes an image input unit for inputting a gray-scale color image composed of a plurality of bits of pixels. Here, 8-bit data for each pixel of R, G, and B is input.
The image input unit 1 includes, for example, a digital camera, a scanner, and a computer. Reference numeral 2 denotes an input frame buffer for storing red (R) data, which temporarily stores image data for a plurality of lines.

【0082】ここでは、注目画素の出力データを決定す
るに際し、入力画像の5×5のエリアで積和演算を実行
するので、少なくとも5ライン分のデータを一時格納す
る。
Here, when determining the output data of the pixel of interest, since the product-sum operation is performed in a 5 × 5 area of the input image, data for at least five lines is temporarily stored.

【0083】図14において、3はRに関するプロセッ
サエレメントである。プロセッサエレメントはDTCN
Nのアルゴリズムに基づき、基本的には図1に示した如
く、出力画像データと出力重み値との積和演算ΣAk,
1*Yi−k,j−1と入力画像データと入力重み値と
の積和演算ΣBk,1*Ui−k,j−1とを加算し出
力する。このDTCNNアルゴリズムにより所定のエリ
アの入力画像及び出力画像を考慮し、注目画素のデータ
として入力画像になるべく忠実なデータを出力フレーム
バッファ4へ出力する。本実施の形態におけるプロセッ
サエレメント3は図4に示した出力デバイスを用いてい
るため、図1に示した基本形をより複雑化した処理をし
ているので詳細は図15を用いて説明する。
In FIG. 14, reference numeral 3 denotes a processor element relating to R. Processor element is DTCN
Based on the algorithm of N, the product-sum operation of the output image data and the output weight value {Ak,
1 * Yi-k, j-1 and the product-sum operation ΣBk, 1 * Ui-k, j-1 of the input image data and the input weight value are added and output. In consideration of an input image and an output image of a predetermined area by the DTCNN algorithm, data as faithful as an input image is output to the output frame buffer 4 as data of a target pixel. Since the processor element 3 in the present embodiment uses the output device shown in FIG. 4, it performs more complicated processing of the basic form shown in FIG. 1, so that the details will be described with reference to FIG.

【0084】4はRに関する出力フレームバッファで、
量子化された多値画像データを液晶ディスプレイのサブ
ピクセルに対応させて格納する。緑(G)、青(B)に
関する、入力フレームバッファがそれぞれ5,8であ
り、プロセッサエレメントがそれぞれ、6、9であり、
出力フレームバッファがそれぞれ7、10である。
4 is an output frame buffer for R,
The quantized multi-valued image data is stored in correspondence with the sub-pixel of the liquid crystal display. The input frame buffers for green (G) and blue (B) are 5, 8 respectively, and the processor elements are 6, 9 respectively,
The output frame buffers are 7, 10 respectively.

【0085】11は強誘電性液晶ディスプレイ(FLC
ディスプレイ)である。このディスプレイの1画素は図
4に示した如くR,G,Bのサブピクセルから構成され
ている。
11 is a ferroelectric liquid crystal display (FLC)
Display). One pixel of this display is composed of R, G and B sub-pixels as shown in FIG.

【0086】12はCPUで、入力フレームバッファ
2,5,8、画像処理部3,6,9、出力フレームバッ
ファ,7,10に接続され、データ転送のアドレス制
御、画像処理部の制御などを行う。CPU12には制御
プログラムを格納したROM、ワークエリアとしてのR
AMが備えられている。
Reference numeral 12 denotes a CPU, which is connected to the input frame buffers 2, 5, 8, the image processing units 3, 6, 9, and the output frame buffers 7, 10, and performs address control of data transfer, control of the image processing unit, and the like. Do. The CPU 12 has a ROM storing a control program and an R as a work area.
AM is provided.

【0087】図15はプロセッサエレメント3の詳細を
示したブロック図である。プロセッサエレメント6,9
も同一の構成である。プロセッサエレメントは、アドレ
ス計算部30、アドレス計算部31、入力重み値メモリ
40、入力画像値メモリ41、出力重み値メモリ42、
出力輝度重み値メモリ43、出力画像値メモリ44、T
値メモリ90、積和演算部50、積和演算部51、積和
演算部52、レジスタ53、乗算器54、加算器55、
非線形演算部56から構成される。
FIG. 15 is a block diagram showing details of the processor element 3. As shown in FIG. Processor elements 6, 9
Have the same configuration. The processor elements include an address calculator 30, an address calculator 31, an input weight memory 40, an input image value memory 41, an output weight memory 42,
Output luminance weight value memory 43, output image value memory 44, T
Value memory 90, product-sum operation unit 50, product-sum operation unit 51, product-sum operation unit 52, register 53, multiplier 54, adder 55,
It comprises a non-linear operation unit 56.

【0088】アドレス計算部30はALU60、PCレ
ジスタ61、NPCレジスタ62からなる。アドレス計
算部31はALU63、PCレジスタ64、NPCレジ
スタ65からなる。
The address calculator 30 comprises an ALU 60, a PC register 61, and an NPC register 62. The address calculator 31 includes an ALU 63, a PC register 64, and an NPC register 65.

【0089】PCレジスタ61はCPUからの指令のも
と出力画像の処理対象ピクセルのアドレスを格納する。
そしてNPCレジスタ62は近傍系の画像位置を格納す
る。
The PC register 61 stores the address of the pixel to be processed in the output image under the instruction from the CPU.
The NPC register 62 stores the image position of the neighborhood system.

【0090】PCレジスタ64はCPUからの指令のも
と入力画像の処理対象ピクセルのアドレスを格納する。
そしてNPCレジスタ65は近傍系の画像位置を格納す
る。
The PC register 64 stores the address of the pixel to be processed of the input image under the instruction from the CPU.
The NPC register 65 stores the image position of the neighborhood system.

【0091】このNPCレジスタ62、NPCレジスタ
65に格納される値は、処理に用いる近傍系を5×5の
サイズとすれば、(−2、−2)から(2,2)の間の
値を格納し、そのために、それらの値を更新できるよう
なインクリメントを内蔵している。
The values stored in the NPC register 62 and the NPC register 65 are values between (−2, −2) and (2, 2) when the size of the neighborhood used for processing is 5 × 5. , And for that purpose, a built-in increment so that their values can be updated.

【0092】このNPCレジスタ62とPCレジスタ6
1の値から近傍画素のアドレスを計算し、出力重み値メ
モリ42。出力輝度重み値メモリ43、出力画像値メモ
リ44を制御する。
The NPC register 62 and the PC register 6
The output weight memory 42 calculates the address of the neighboring pixel from the value of 1. The output luminance weight memory 43 and the output image memory 44 are controlled.

【0093】出力重み値メモリ42には、CPU12か
らの指令に基づいて、Ak,lの値(式2)を格納す
る。
The output weight memory 42 stores the value of Ak, l (Equation 2) based on a command from the CPU 12.

【0094】出力輝度重み値メモリ43には、CPU1
2からの指令に基づいて前述したWn,i,jの値を格
納する。
The output luminance weight memory 43 has a CPU 1
2, the values of Wn, i, and j described above are stored.

【0095】出力画像値メモリ44には近傍画像領域に
おける各サブピクセルの出力画像を格納する。
The output image memory 44 stores the output image of each subpixel in the neighboring image area.

【0096】T値メモリ90は標準解像度モードで用い
られるT=1/15、高解像度モードで用いられるTe
=3/10、To=0といった値を格納する。
The T value memory 90 stores T = 1/15 used in the standard resolution mode and Te used in the high resolution mode.
= 3/10, To = 0.

【0097】NPCレジスタ65とPCレジスタ64の
値から近傍画素のアドレスを計算し、入力重み値メモリ
40、入力画像値メモリ41を制御する。
The address of the neighboring pixel is calculated from the values of the NPC register 65 and the PC register 64, and the input weight memory 40 and the input image memory 41 are controlled.

【0098】入力重み値メモリ40には、CPU12か
らの指令に基づいて、Bk,lの値(式3)を格納す
る。
The input weight memory 40 stores the value of Bk, l (Equation 3) based on a command from the CPU 12.

【0099】入力画像値メモリ41には近傍画像領域に
おける入力濃淡画像を格納する。
The input image value memory 41 stores the input grayscale image in the neighboring image area.

【0100】積和演算部50は、レジスタ70、レジス
タ71、乗算器72、加算器73、ACCレジスタ74
から構成される。
The product-sum operation unit 50 includes a register 70, a register 71, a multiplier 72, an adder 73, and an ACC register 74.
Consists of

【0101】積和演算部51は、レジスタ75、レジス
タ76、乗算器77、加算器78、ACCレジスタ79
からなる。
The product-sum operation unit 51 includes a register 75, a register 76, a multiplier 77, an adder 78, and an ACC register 79.
Consists of

【0102】積和演算部52は、レジスタ80、レジス
タ81、乗算器82、加算器83、ACCレジスタ84
からなる。
The product-sum operation unit 52 includes a register 80, a register 81, a multiplier 82, an adder 83, and an ACC register 84.
Consists of

【0103】レジスタ70は、入力重み値メモリ40の
値をフェッチする。レジスタ71は、入力画像値メモリ
41の値をフェッチする。レジスタ75は、出力重み値
メモリ42の値をフェッチする。レジスタ76は、積和
演算部52の結果値をフェッチする。レジスタ80は、
出力輝度重み値メモリ43の値をフェッチする。レジス
タ81は、出力画像値メモリ44の値をフェッチする。
The register 70 fetches the value of the input weight value memory 40. The register 71 fetches the value of the input image value memory 41. The register 75 fetches the value of the output weight value memory 42. The register 76 fetches the result value of the product-sum operation unit 52. Register 80
The value of the output luminance weight memory 43 is fetched. The register 81 fetches the value of the output image value memory 44.

【0104】乗算器72は、レジスタ70とレジスタ7
1の値の乗算を行い、Ak,l*yi−k,j−lを出
力する。加算器73とACCレジスタ74は乗算器72
の累算を行い、ΣAk,l*Yi−k,j−lの値を出
力する。
The multiplier 72 includes a register 70 and a register 7
The value of 1 is multiplied, and Ak, l * yi-k, j-l are output. The adder 73 and the ACC register 74 are
And outputs the value of ΣAk, l * Yi-k, j-l.

【0105】乗算器77は、レジスタ75とレジスタ7
6の値の乗算を行い、Bk,l*Ui−k,j−lを出
力する。加算器78とACCレジスタ79は乗算器77
の累算を行い、ΣBk,l*Ui−k,j−lの値を出
力する。
The multiplier 77 comprises a register 75 and a register 7
6 and outputs Bk, l * Ui-k, j-1. The adder 78 and the ACC register 79 are connected to a multiplier 77.
And outputs the value of ΣBk, l * Ui-k, j-1.

【0106】乗算器82は、レジスタ80とレジスタ8
1の値の乗算を行い、Wm,i,j*yn,i,jを出
力する。加算器83とACCレジスタ84は乗算器82
の累算を行い、ΣWm,i,j*yn,i,jの値を出
力する。
The multiplier 82 includes a register 80 and a register 8
The value of 1 is multiplied, and Wm, i, j * yn, i, j is output. The adder 83 and the ACC register 84 are
And outputs the value of ΣWm, i, j * yn, i, j.

【0107】レジスタ53にはCPU12からの指令に
よって、T値メモリ90から読み出されたしきい値を決
定するための値Tが設定される。
In the register 53, a value T for determining the threshold value read from the T value memory 90 is set in accordance with a command from the CPU 12.

【0108】乗算器54は出力画像値メモリ44とレジ
スタ53の値の乗算を行い、T*yn,i,jを出力す
る。
The multiplier 54 multiplies the output image value memory 44 by the value in the register 53 and outputs T * yn, i, j.

【0109】加算器55には、積和演算器50、積和演
算51、積和演算器52、乗算器54の結果の値が入力
され、(式6)に示した。
The value of the result of the product-sum operation unit 50, the product-sum operation unit 51, the product-sum operation unit 52, and the multiplier 54 is input to the adder 55, and is shown in (Equation 6).

【0110】[0110]

【外14】 を出力する。[Outside 14] Is output.

【0111】非線形演算部56は(式7)の演算を行
い、各サブピクセルの2値化を行い、その結果で出力画
像値メモリ44の値を更新する。
The non-linear operation unit 56 performs the operation of (Expression 7), binarizes each sub-pixel, and updates the value of the output image value memory 44 with the result.

【0112】各サブピクセル毎に2値データは決定し、
図4の標準解像度モードではR,G,Bそれぞれ前述し
た如く29階調を表現でき、図8の高解像度モードでは
画素位置により更にR,G,Bにより、表現できる階調
数は異なることになる。
Binary data is determined for each sub-pixel,
In the standard resolution mode of FIG. 4, each of R, G and B can express 29 gradations as described above, and in the high resolution mode of FIG. Become.

【0113】そして、演算が収束後、出力画像値メモリ
44の値を出力フレームバッファへ転送する。
After the operation has converged, the value of the output image value memory 44 is transferred to the output frame buffer.

【0114】次に本実施の形態における動作制御フロー
チャートを図16、図17に示し、その制御を説明す
る。図16、図17のフローチャートはCPU12によ
って実行される。
Next, operation control flowcharts in the present embodiment are shown in FIGS. 16 and 17, and the control will be described. 16 and 17 are executed by the CPU 12.

【0115】ステップS101ではプロセッサエレメン
トで用いられる出力重み値(A)、入力重み値(B)、
出力輝度重み値(W)、Xi,jとYi,jの関数にお
けるステップ幅(T)を設定する。
In step S101, the output weight value (A), input weight value (B),
An output luminance weight value (W) and a step width (T) in a function of Xi, j and Yi, j are set.

【0116】ステップS101の詳細を示したフローチ
ャートが図17である。図17は一例としてRデータを
処理する際のフローチャートを示している。G、Bデー
タにおける制御フローチャートはS204で設定される
重み(W)及び(T)の値が変わることになる。この設
定については前述したため、G、Bデータにおける図1
7に相当するフローチャートは省略する。
FIG. 17 is a flowchart showing details of step S101. FIG. 17 is a flowchart illustrating an example of processing R data. In the control flowchart for the G and B data, the values of the weights (W) and (T) set in S204 are changed. Since this setting has been described above, FIG.
The flowchart corresponding to 7 is omitted.

【0117】図17のステップS200では出力重み値
A(式2)及び入力重み値B(式3)を設定する。これ
らの重みは標準解像度モード、高解像度モードで共通の
ものである。
In step S200 of FIG. 17, an output weight value A (formula 2) and an input weight value B (formula 3) are set. These weights are common to the standard resolution mode and the high resolution mode.

【0118】次にステップS202ではFLCディスプ
レイで表示する解像度モードが標準解像度モードか高解
像度モードかを判別する。これは不図示のホストコンピ
ュータ等からコマンドによって設定される。
Next, in step S202, it is determined whether the resolution mode displayed on the FLC display is the standard resolution mode or the high resolution mode. This is set by a command from a not-shown host computer or the like.

【0119】標準解像度モードの場合は、ステップS2
03に進み、ここで標準モード用の重みW、及びTを設
定する。この重みWは図4で、又Tは図9で説明した通
りである。
In the case of the standard resolution mode, step S2
In step 03, weights W and T for the standard mode are set. The weight W is as described in FIG. 4 and T is as described in FIG.

【0120】一方、高解像度モードの場合はステップS
204に進む。ここでは高解像度モード用の重みW及び
Tを設定する。この重みは図8で示した如く、画素位置
及び色によって異なり、S204にはRの場合の4つの
画素位置で用いられる重みをそれぞれ示した。
On the other hand, in the case of the high resolution mode, step S
Proceed to 204. Here, the weights W and T for the high resolution mode are set. As shown in FIG. 8, the weight differs depending on the pixel position and the color. In S204, the weights used at the four pixel positions in the case of R are shown.

【0121】又、Tは画素位置によって、量子化するレ
ベルが異なるため図10、図11に相当する2値化の場
合はTo=0を、図12、図13に相当する4値化の場
合はTe=3/10を設定する。
Since T has a different quantization level depending on the pixel position, To = 0 in the case of binarization corresponding to FIGS. 10 and 11, and T in the case of quaternization corresponding to FIGS. Sets Te = 3/10.

【0122】図16に戻り、ステップS102では、出
力フレームバッファ4、7、10に初期値を設定する。
ここでは全画素の全サブピクセルに+1または−1のデ
ータをランダムに出力フレームバッファに設定する。そ
して、入力フレームバッファ2、5、8にも初期値を設
定する。ここでは入力データと入力重み値から、ΣB
k,l*Ui−k,j−lを計算し、入力フレームバッ
ファに設定する。
Returning to FIG. 16, in step S102, initial values are set in the output frame buffers 4, 7, and 10.
Here, +1 or -1 data is randomly set in the output frame buffer for all sub-pixels of all pixels. Then, initial values are also set in the input frame buffers 2, 5, and 8. Here, from the input data and the input weight value, ΣB
Calculate k, l * Ui-k, j-l and set it in the input frame buffer.

【0123】プロセッサエレメント内のメモリには出力
重み値と出力最大輝度重み値から、Ak,l*Wnの値
を計算し、設定する。
The value of Ak, l * Wn is calculated and set in the memory in the processor element from the output weight value and the output maximum luminance weight value.

【0124】また、1画面の全画素入力データに対し、
積和演算を実行するに際し、その演算順序を設定する。
ここで、演算順序はランダムに、全ての画素を走査する
ような順とする。非線形演算を行うテーブルにも入力に
対する出力のサブピクセルの点灯パターンを設定する
(点灯パターンの一例を図19に示す。)。
Also, for all pixel input data of one screen,
When executing the product-sum operation, the operation order is set.
Here, the calculation order is such that all pixels are scanned at random. The lighting pattern of the output sub-pixel with respect to the input is also set in the table for performing the non-linear operation (an example of the lighting pattern is shown in FIG. 19).

【0125】ステップS103ではステップS102で
決定した順序に基づき3つのプロセッサエレメントに指
令を出し、ΣAk,l*Wn*yn,i−k,j−l+
ΣBk,l*Ui−k,j−l+T*yn,i,jの演
算とその非線形演算を実行する。
In step S103, a command is issued to the three processor elements based on the order determined in step S102, and {Ak, l * Wn * yn, ik, j-l +
演算 Executes the calculation of Bk, l * Ui-k, j-l + T * yn, i, j and its non-linear calculation.

【0126】この結果は3つのフレームバッファに送ら
れ、既に格納されている値と異なる場合、値が書き換え
られる。
The result is sent to three frame buffers, and if different from the value already stored, the value is rewritten.

【0127】ステップS104では出力フレームバッフ
ァの値が書き換えられた画素数を判別する。
In step S104, the number of pixels whose output frame buffer value has been rewritten is determined.

【0128】ステップS105ではステップS104で
判別した画素数が所定値以下か否かを判別し、所定値以
下の場合はDTCNNに基づく演算が収束したと判別
し、計算を終了する。又、所定値に達していない場合で
も、繰り返し回数が所定値に達した場合には、そこで計
算を打ち切る。それ以外の場合はステップS103に戻
る。
In step S105, it is determined whether or not the number of pixels determined in step S104 is equal to or less than a predetermined value. If not, it is determined that the operation based on DTCNN has converged, and the calculation is terminated. Further, even when the number of repetitions has not reached the predetermined value, if the number of repetitions has reached the predetermined value, the calculation is terminated there. Otherwise, the process returns to step S103.

【0129】以上説明した如く、本実施の形態によれ
ば、画素毎に最大輝度、ビット数、色表現能力が異なる
場合であってもセルラーニューラルネットに基づくアル
ゴリズムにより最適な中間調処理を行うことができ、高
画質な画像を得ることができる。
As described above, according to the present embodiment, even when the maximum luminance, the number of bits, and the color expression capability are different for each pixel, the optimum halftone processing can be performed by the algorithm based on the cellular neural network. And a high quality image can be obtained.

【0130】しかも、同一のハードウェアで、標準解像
度モードは解像度変換を行いながらR、G、Bそれぞれ
29値の中間調処理を行え、高解像度モードではR、
G、Bそれぞれ画素の面積に依存した2値又は4値の中
間調処理を行うことができる。
Further, in the standard resolution mode, 29 levels of R, G, and B halftone processing can be performed while performing resolution conversion in the same hardware mode.
Binary or quaternary halftone processing depending on the area of each pixel of G and B can be performed.

【0131】(他の実施の形態)次に、テーブル演算を
用い処理を簡素化した例を説明する。
(Other Embodiments) Next, an example in which the processing is simplified by using a table operation will be described.

【0132】1画素の出力値は、(式5)を示した通り
画素内のサブピクセルに面積比の重みを掛けた和Yi,
j=ΣWn,i,j*yn,i,jと表される。
The output value of one pixel is the sum Yi, obtained by multiplying the sub-pixel in the pixel by the weight of the area ratio, as shown in (Equation 5).
j = ΣWn, i, j * yn, i, j.

【0133】ここで、Wn,i,jの値は、標準解像度
のとき画素に依存せず、例えば赤画素の値は各サブピク
セルに対応して、Wr1=1/15,Wr2=1.5/
15,Wr3=2/15,Wr4=2.5/15,Wr
5=3/15,Wr6=5/15となる。
Here, the values of Wn, i and j do not depend on the pixel at the standard resolution. For example, the value of the red pixel corresponds to each sub-pixel, and Wr1 = 1/15, Wr2 = 1.5 /
15, Wr3 = 2/15, Wr4 = 2.5 / 15, Wr
5 = 3/15 and Wr6 = 5/15.

【0134】高解像度の時には座標ごとに値が異なり、
赤画素のWn,i,jの値は、 i:奇数,j:奇数のとき、Wroo1=4/3 i:奇数,j:偶数のとき、Wreo1=2/3 i:偶数,j:奇数のとき、Wroe1=8/15、W
roe2=4/5 i:偶数,j:偶数のとき、Wree1=4/15,W
ree2=2/5 となる。
At the time of high resolution, the value differs for each coordinate.
The values of Wn, i, j of the red pixel are: i: odd number, j: odd number, Wroo1 = 4/3 i: odd number, j: even number, Wreo1 = 2/3 i: even number, j: odd number When Wroe1 = 8/15, W
roe2 = 4/5 i: even number, j: even number, Wree1 = 4/15, W
ree2 = 2/5.

【0135】これらを、出力画像Yi,jと出力重み値
Ak1との積和であるΣAk,l*Yi−k,j−l=
Σ(Ak,1*Wn,i−k,j−l)*yn,i−
k,j−lの計算に用いる。
These are obtained by summing the product of the output image Yi, j and the output weight value Ak1, {Ak, l * Yi-k, j-1 =
Σ (Ak, 1 * Wn, ik, j-1) * yn, i-
Used for calculating k, j-1.

【0136】yn,i−k,j−lは+1または−1の
値をとるので、(Ak,l*Wn,i−k,j−l)と
yn,i−k,j−lの積和演算をyn,i−k,j−
lの符号に対応して(Ak,l*Wn,i−k,j−
l)の加減算で計算することができる。(Ak,l*W
n,i−k,j−l)の値をあらかじめ計算してメモリ
に格納しておくことで、繰り返し計算の中で積演算を行
なわずに計算することができる。
Since yn, ik and j-l take a value of +1 or -1, the product of (Ak, l * Wn, ik, j-l) and yn, ik, j-l is obtained. Sum operation is yn, ik, j-
(Ak, l * Wn, ik, j-
It can be calculated by addition and subtraction in l). (Ak, l * W
By calculating the value of (n, ik, j-1) in advance and storing it in the memory, the calculation can be performed without performing the product operation in the repeated calculation.

【0137】また、入力画像Ui,jと入力重み値B
k,1との積和ΣBk,l*Ui−k,j−lの値は繰
り返し計算の途中で変化しないため、初めに計算して格
納しておけばよい。
The input image Ui, j and the input weight value B
Since the value of the product sum ΣBk, l * Ui-k, j-1 with k, 1 does not change during the iterative calculation, it may be calculated first and stored.

【0138】図18はプロセッサエレメントの詳細を示
したブロック図である。
FIG. 18 is a block diagram showing details of the processor element.

【0139】他の実施例における全体構成は図14に示
したものと同一であり、図18は他の実施例における1
色分のプロセッサエレメントの詳細を示している。
The overall structure of the other embodiment is the same as that shown in FIG. 14, and FIG.
7 shows details of a processor element for each color.

【0140】プロセッサエレメント100にはアドレス
計算部120、メモリ130、符号反転器140、加算
器150、テーブル151がある。アドレス計算部12
0はALU112、PCレジスタ110、NPCレジス
タ111からなる。
The processor element 100 includes an address calculator 120, a memory 130, a sign inverter 140, an adder 150, and a table 151. Address calculator 12
0 comprises an ALU 112, a PC register 110, and an NPC register 111.

【0141】PCレジスタ110はCPU101からの
指令のもと処理対象ピクセルのアドレスを格納する。そ
してNPCレジスタ111は近傍系の画像位置を格納す
る。このNPCレジスタ111に格納される値は、処理
に用いる近傍系を5×5のサイズとすれば、(−2,−
2)から(2,2)の間の値を格納し、そのために、そ
れらの値を更新できるようなインクリメンタを内蔵して
いる。このNPCレジスタ111とPCレジスタ110
の値から近傍画素のアドレスを計算し、入力フレームバ
ッファ、出力フレームバッファ、メモリを制御する。
The PC register 110 stores the address of the pixel to be processed under a command from the CPU 101. The NPC register 111 stores the image position of the neighborhood system. The value stored in the NPC register 111 is (−2, −2) if the neighborhood system used for processing has a size of 5 × 5.
A value between 2) and (2, 2) is stored, and therefore, an incrementer that can update those values is incorporated. The NPC register 111 and the PC register 110
, The address of the neighboring pixel is calculated from the value of, and the input frame buffer, output frame buffer, and memory are controlled.

【0142】メモリ130には、CPU101であらか
じめ計算した、出力重み値と面積重み値の積(Ak,l
*Wn,i−k,j−l)を格納する。
In the memory 130, the product (Ak, l) of the output weight value and the area weight value calculated in advance by the CPU 101 is stored.
* Wn, ik, j-1).

【0143】符号反転器140は、サブピクセルごとの
出力フレームバッファの値が+1か−1に対応して、メ
モリ130の値の符号の反転/非反転を切り替える。
The sign inverter 140 switches between inversion and non-inversion of the sign of the value in the memory 130 in accordance with whether the value of the output frame buffer for each subpixel is +1 or -1.

【0144】計算に5×5の近傍画素を用い、各色あた
り6つのサブピクセルから構成される高解像度モードの
ときにはAテンプレートの大きさは5×5=25とな
り、Aテンプレートと面積比重みの積を格納するメモリ
130の数は5×5×6=150必要となる。同様に符
号反転器140も150個必要となる。
In the high-resolution mode composed of 6 sub-pixels for each color, the size of the A template is 5 × 5 = 25, and the product of the A template and the area ratio weight is used. Is required to store 5 × 5 × 6 = 150. Similarly, 150 sign inverters 140 are required.

【0145】加算器150は全ての符号反転器の出力
(Ak,l*Wn,i−k,j−l)*yn,i−k,
j−lとあらかじめ入力値とBテンプレートの積和演算
の結果を格納した入力フレームバッファ102の値を加
算することで、Σ(Ak,l*Wn,i−k,j−l)
*yn,i−k,j−l+ΣBk,l*Ui−k,j−
lの計算を行う。
The adder 150 outputs (Ak, l * Wn, ik, j-l) * yn, ik,
By adding j-l and the value of the input frame buffer 102 storing the result of the product-sum operation of the input value and the B template in advance, Σ (Ak, l * Wn, i-k, j-l)
* Yn, i−k, j−l + ΣBk, l * Ui−k, j−
Calculate l.

【0146】ここで、ΣBk,l*Ui−k,j−lは
繰り返し計算によらず一定なので、あらかじめCPUで
計算し、入力フレームバッファ102に格納しておく。
Here, since ΣBk, l * Ui-k, j-l is constant irrespective of repetitive calculation, it is calculated in advance by the CPU and stored in the input frame buffer 102.

【0147】サブピクセルパターンテーブル151は加
算器150の出力Σ(Ak,l*Wn,i−k,j−
l)*yn,i−k,j−l+ΣBk,l*Ui−k,
j−lとサブピクセルの点灯パターンの対応を格納す
る。サブピクセルパターンテーブルの入力(z)と出力
(a,b,c,d,e,f)の対応例を図19に示す。
The sub-pixel pattern table 151 stores the output Σ (Ak, l * Wn, ik, j-
l) * yn, ik, jl + ΣBk, l * Ui-k,
The correspondence between j-1 and the lighting pattern of the sub-pixel is stored. FIG. 19 shows an example of correspondence between inputs (z) and outputs (a, b, c, d, e, f) of the sub-pixel pattern table.

【0148】次に本実施例における動作制御フローチャ
ートを図20に示し、その制御を説明する。この制御は
プロセッサエレメントに接続されたCPU101によっ
て行なう。ステップS101ではプロセッサエレメント
で用いられる出力重み値(A)と、出力輝度重み値
(W)の積(Ak,l*Wn,i−k,j−l)を計算
し、プロセッサエレメント内のメモリ130に格納す
る。ここで、A,Wは解像度が標準か高解像度かR,
G,Bのいずれの色かによって変化する。
Next, an operation control flowchart in this embodiment is shown in FIG. 20, and the control will be described. This control is performed by the CPU 101 connected to the processor element. In step S101, the product (Ak, l * Wn, ik, j-1) of the output weight value (A) used by the processor element and the output luminance weight value (W) is calculated, and the memory 130 in the processor element is calculated. To be stored. Here, A and W indicate whether the resolution is standard or high resolution.
It changes depending on which color of G or B it is.

【0149】つまり、標準解像度における出力輝度重み
値Wは図4で説明したものであり、画素位置には依存せ
ず、R,G,Bの色毎に変化する。
That is, the output luminance weight value W at the standard resolution is as described with reference to FIG. 4, and changes for each of R, G, and B colors without depending on the pixel position.

【0150】又、高解像度における出力輝度重み値W
は、図8で説明したとうり、画素位置と色毎に変化す
る。
The output luminance weight value W at high resolution
Changes according to the pixel position and the color as described with reference to FIG.

【0151】ステップS102では、出力フレームバッ
ファに初期値を設定する。ここでは全画素の全サブピク
セルに+1または−1のデータをランダムに出力フレー
ムバッファに設定する。そして、入力フレームバッファ
にも初期値を設定する。ここでは入力データと入力重み
値から、ΣBk,l*Ui−k,j−lを計算し、入力
フレームバッファに設定する。
In step S102, an initial value is set in the output frame buffer. Here, +1 or -1 data is randomly set in the output frame buffer for all sub-pixels of all pixels. Then, an initial value is also set in the input frame buffer. Here, ΣBk, l * Ui-k, j-1 is calculated from the input data and the input weight value, and is set in the input frame buffer.

【0152】また、1画面の全画素入力データに対し、
積和演算を実行するに際し、その演算順序を設定する。
ここで、演算順序はランダムに、全ての画素を走査する
ような順とする。
For all pixel input data of one screen,
When executing the product-sum operation, the operation order is set.
Here, the calculation order is such that all pixels are scanned at random.

【0153】非線形演算を行うテーブルに、図19に示
したような入力に対する出力のサブピクセルの点灯パタ
ーンを設定する。
The lighting pattern of the output sub-pixel with respect to the input as shown in FIG. 19 is set in the table for performing the non-linear operation.

【0154】ステップS103ではステップS102で
決定した順序に基づき、Σ(Ak,l*Wn,i−k,
j−l)*yn,i−k,j−l+ΣBk,l*Ui−
k,j−lの演算とそのサブピクセルパターンによる変
換を実行する。
In step S103, based on the order determined in step S102, Σ (Ak, l * Wn, ik,
jl) * yn, ik, jl + {Bk, l * Ui-
The calculation of k, j-1 and the conversion by the sub-pixel pattern are executed.

【0155】この結果は出力フレームバッファに送ら
れ、既に格納されている値と異なる場合、値が書き換え
られる。
This result is sent to the output frame buffer, and if different from the value already stored, the value is rewritten.

【0156】ステップS104では出力フレームバッフ
ァの値が書き換えられた画素数を判別する。
In step S104, the number of pixels whose output frame buffer value has been rewritten is determined.

【0157】ステップS105ではステップS104で
判別した画素数が所定値以下か否かを判別し、所定値以
下の場合はDTCNNに基づく演算が収束したと判別
し、計算を終了する。又、所定値に達していない場合で
も、繰り返し回数が所定値に達した場合には、そこで計
算を打ち切る。それ以外の場合はステップS103に戻
る。
In step S105, it is determined whether or not the number of pixels determined in step S104 is equal to or less than a predetermined value. If not, it is determined that the operation based on DTCNN has converged, and the calculation ends. Further, even when the number of repetitions has not reached the predetermined value, if the number of repetitions has reached the predetermined value, the calculation is terminated there. Otherwise, the process returns to step S103.

【0158】この様に他の実施の形態によれば、同一の
ハードウェアで、テーブル、メモリの値を書き換えるこ
とで、標準解像度モードおよび、高解像度モードでの中
間調処理を行うことができる。
As described above, according to another embodiment, halftone processing in the standard resolution mode and the high resolution mode can be performed by rewriting the values of the table and the memory with the same hardware.

【0159】また、必要な積和演算(出力重み値と出力
輝度重み値との積和)を、サブピクセルごとに分解し、
あらかじめメモリに格納しておくことでΣ(Ak,l*
Wn,i−k,j−l)*yn,i−k,j−lの演算
を、加算だけで行うことができる。
Further, the necessary product-sum operation (product-sum of output weight value and output luminance weight value) is decomposed for each sub-pixel,
By storing it in the memory in advance, it is possible to use Σ (Ak, l *
Wn, ik, j-1) * yn, ik, j-1 can be calculated only by addition.

【0160】更に、Σ(Ak,l*Wn,i−k,j−
l)*yn,i−k,j−l+ΣBk,l*Ui−k,
j−lに対応したサブピクセルの点灯パターンを予め格
納しているので、処理を高速化することができる。
Further, Σ (Ak, l * Wn, ik, j-
l) * yn, ik, jl + ΣBk, l * Ui-k,
Since the lighting pattern of the sub-pixel corresponding to j-1 is stored in advance, the processing can be speeded up.

【0161】なお、本実施の形態では出力デバイスとし
てFLCディスプレイの例を説明したが、他の液晶ディ
スプレイ、又はプリンタ等において画素毎に最大輝度、
ビット数、色表現能力が異なる場合に適用できることは
いうまでもない。
In this embodiment, an example of an FLC display has been described as an output device.
It goes without saying that the present invention can be applied to a case where the number of bits and the color expression ability are different.

【0162】[0162]

【発明の効果】以上説明した如く、本発明によれば、画
素毎に最大輝度、ビット数、色表現能力が異なる場合で
あっても、異なる解像度モードで最適な中間調処理を行
うことができ、高画質な画像を得ることができる。
As described above, according to the present invention, optimal halftone processing can be performed in different resolution modes even when the maximum luminance, the number of bits, and the color expression capability differ for each pixel. And high-quality images can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態におけるDTCNNを用いた画像
処理の概念を説明するための図。
FIG. 1 is a view for explaining the concept of image processing using a DTCNN in the present embodiment.

【図2】2値中間調処理をする場合の、図1の非線形演
算部を説明するための図。
FIG. 2 is a diagram for explaining a non-linear operation unit in FIG. 1 when performing binary halftone processing;

【図3】4値中間調処理をする場合の、図1の非線形演
算部を説明するための図。
FIG. 3 is a diagram for explaining a nonlinear operation unit in FIG. 1 when performing a four-value halftone process;

【図4】標準解像度モード(1024×768ドット)
時のFLCディスプレイの1画素のサブピクセル構成を
示した図。
FIG. 4 Standard resolution mode (1024 × 768 dots)
The figure which showed the subpixel structure of one pixel of the FLC display at the time.

【図5】標準解像度モード時のRデータの輝度に対する
点灯サブピクセルを示した図。
FIG. 5 is a diagram showing lighting sub-pixels with respect to luminance of R data in a standard resolution mode.

【図6】標準解像度モード時のGデータの輝度に対する
点灯サブピクセルを示した図。
FIG. 6 is a diagram showing lighting sub-pixels with respect to luminance of G data in a standard resolution mode.

【図7】標準解像度モード時のBデータの輝度に対する
点灯サブピクセルを示した図。
FIG. 7 is a diagram showing lighting sub-pixels with respect to luminance of B data in a standard resolution mode.

【図8】高解像度モード(2048×1536ドット)
時のFLCディスプレイの4画素分のサブピクセル構成
を示した図。
FIG. 8 is a high resolution mode (2048 × 1536 dots)
The figure which showed the subpixel structure for 4 pixels of the FLC display at the time.

【図9】標準解像度モード時のYi,jとXi,jとの
関係を示した図。
FIG. 9 is a diagram showing a relationship between Yi, j and Xi, j in a standard resolution mode.

【図10】高解像度モードの所定のサブピクセルのX
i,jとYi,jとの関係を示した図。
FIG. 10 shows the X of a given sub-pixel in high resolution mode
The figure which showed the relationship between i, j and Yi, j.

【図11】高解像度モードの所定のサブピクセルのX
i,jとYi,jとの関係を示した図。
FIG. 11 shows the X of a given sub-pixel in high resolution mode.
The figure which showed the relationship between i, j and Yi, j.

【図12】高解像度モードの所定のサブピクセルのX
i,jとYi,jとの関係を示した図。
FIG. 12 shows X of a predetermined sub-pixel in a high resolution mode.
The figure which showed the relationship between i, j and Yi, j.

【図13】高解像度モードの所定のサブピクセルのX
i,jとYi,jとの関係を示した図。
FIG. 13 shows X of a predetermined sub-pixel in a high-resolution mode.
The figure which showed the relationship between i, j and Yi, j.

【図14】実施の形態におけるデジタル画像処理のプロ
セッサを内蔵した表示システムの構成を示したブロック
図。
FIG. 14 is a block diagram illustrating a configuration of a display system including a processor for digital image processing according to an embodiment.

【図15】図14におけるプロセッサエレメントの詳細
を示したブロック図。
FIG. 15 is a block diagram showing details of a processor element in FIG. 14;

【図16】実施の形態における動作を示した制御フロー
チャート図。
FIG. 16 is a control flowchart showing an operation in the embodiment.

【図17】実施の形態における動作を示した制御フロー
チャート図。
FIG. 17 is a control flowchart showing an operation in the embodiment.

【図18】他の実施の形態におけるプロセッサエレメン
トの詳細を示したブロック図。
FIG. 18 is a block diagram illustrating details of a processor element according to another embodiment.

【図19】サブピクセルパターンテーブルの一例を示し
た図。
FIG. 19 is a diagram showing an example of a sub-pixel pattern table.

【図20】他の実施形態における動作を示した制御フロ
ーチャート図。
FIG. 20 is a control flowchart showing an operation in another embodiment.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井上 裕司 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 大島 正道 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yuji Inoue 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Masamichi Oshima 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inside the corporation

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 1画素多値レベルを有する画像データを
入力する入力手段と、 前記入力手段により入力した画像データを、1画素の出
力面積が画素の位置によって異なる出力装置に適応する
ように量子化する量子化手段と、 前記量子化手段からの量子化結果を出力する出力手段と
を備え、 前記量子化手段は各画素の面積に対応する重みを出力値
に掛けた値に基づき量子化処理のための演算を実行する
ことを特徴とする画像処理装置。
1. An input means for inputting image data having a multi-level of one pixel, and a quantizer for converting image data input by the input means to an output device in which the output area of one pixel differs depending on the position of the pixel. Quantizing means for quantizing, and output means for outputting a quantization result from the quantizing means, wherein the quantizing means performs a quantization process based on a value obtained by multiplying an output value by a weight corresponding to the area of each pixel. An image processing apparatus for performing an operation for
【請求項2】 前記量子化手段はニューラルネットのア
ルゴリズムに基づき、入力画像データを量子化処理する
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein said quantization means performs a quantization process on the input image data based on a neural network algorithm.
【請求項3】 前記出力装置は複数の解像度で画像を出
力可能であり、解像度に応じて、前記重みが変化するこ
とを特徴とする請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the output device is capable of outputting an image at a plurality of resolutions, and the weight changes according to the resolution.
【請求項4】 入力濃淡画像を入力する濃淡画像入力手
段と、 画像の各画素において、2つ以上の複数のニューロンが
存在し、複数画素のニューロンの非線形出力値に出力面
積率に対応する重みを掛けて加算した集合的出力量を複
数画素の入力濃淡画像に重みを掛けて加算した集合的入
力量にダイナミックに近付けるダイナミック量子化手段
と、 前記集合的出力量に対応する面積によって各画素の階調
を表現する面積階調出力手段とを有することを特徴とす
る画像処理装置。
4. A gray-scale image input means for inputting an input gray-scale image, wherein each pixel of the image has two or more neurons, and a weight corresponding to an output area ratio is assigned to a nonlinear output value of the neurons of the plurality of pixels. Multiplying the total output amount by multiplying the input grayscale image of a plurality of pixels by weighting and dynamically approaching the total input amount; anda dynamic quantization means, An image processing apparatus comprising: an area gradation output unit for expressing gradation.
【請求項5】 画素あたりの前記ニューロン数を解像度
に従って可変にすることにより、前記入力濃淡画像を前
記解像度に対応する前記面積階調画像に変換することを
特徴とする請求項4記載の画像処理装置。
5. The image processing according to claim 4, wherein the input grayscale image is converted into the area gradation image corresponding to the resolution by making the number of neurons per pixel variable according to resolution. apparatus.
【請求項6】 近傍画像領域における入力重み値と入力
濃淡画像との積和を演算する第1の積和演算手段と、 近傍画像領域における出力重み値と、出力面積率に対応
する重み値及び量子化処理された出力値の積和を演算す
る第2の積和演算手段と、 第1、第2の積和演算手段からの結果を加算する加算手
段と、 前記加算手段からの加算結果を量子化する量子化手段
と、 前記量子化手段で求められた出力値を第2の積和演算手
段へフィードバックする制御手段とを有することを特徴
とする画像処理装置。
6. A first sum-of-products calculating means for calculating a sum of products of an input weight value and an input grayscale image in a neighboring image area, an output weight value in a neighboring image area, a weight value corresponding to an output area ratio, and Second sum-of-products calculating means for calculating the sum of products of the quantized output values; adding means for adding the results from the first and second sum-of-products calculating means; An image processing apparatus comprising: a quantizing unit for quantizing; and a control unit for feeding back an output value obtained by the quantizing unit to a second product-sum operation unit.
【請求項7】 前記第2の積和演算手段における出力面
積率に対応する重み値を、出力解像度に応じて変化させ
ることを特徴とする請求項6記載の画像処理装置。
7. An image processing apparatus according to claim 6, wherein a weight value corresponding to an output area ratio in said second product-sum operation means is changed according to an output resolution.
【請求項8】 前記第2の積和演算手段はテーブルを用
いて積和演算を実行することを特徴とする請求項6記載
の画像処理装置。
8. An image processing apparatus according to claim 6, wherein said second sum-of-products calculating means executes a sum-of-products calculation using a table.
【請求項9】 前記量子化手段の量子化結果を用いて画
像を表示する表示手段を有し、 前記量子化手段は、加算結果に対応する量子化結果を予
めテーブルに格納していることを特徴とする請求項6記
載の画像処理装置。
9. A display unit for displaying an image using a quantization result of the quantization unit, wherein the quantization unit stores a quantization result corresponding to the addition result in a table in advance. 7. The image processing apparatus according to claim 6, wherein:
【請求項10】 1画素多値レベルを有する画像データ
を入力する入力工程と、 前記入力工程により入力した画像データを、1画素の出
力面積が画素の位置によって異なる出力装置に適応する
ように量子化する量子化工程と、 前記量子化工程からの量子化結果を出力する出力工程と
を備え、 前記量子化工程は各画素の面積に対応する重みを出力値
に掛けた値に基づき量子化処理のための演算を実行する
ことを特徴とする画像処理方法。
10. An input step of inputting image data having one pixel multi-value level, and a step of converting the image data input in the input step so as to be adapted to an output device in which the output area of one pixel differs depending on the position of the pixel. A quantization step, and an output step of outputting a quantization result from the quantization step, wherein the quantization step is based on a value obtained by multiplying an output value by a weight corresponding to the area of each pixel. An image processing method comprising: performing an operation for:
【請求項11】 前記量子化工程はニューラルネットの
アルゴリズムに基づき、入力画像データを量子化処理す
ることを特徴とする請求項10記載の画像処理方法。
11. The image processing method according to claim 10, wherein in the quantization step, input image data is quantized based on a neural network algorithm.
【請求項12】 近傍画像領域における入力重み値と入
力濃淡画像との積和を演算する第1の積和演算工程と、 近傍画像領域における出力重み値と、出力面積率に対応
する重み値及び量子化処理された出力値の積和を演算す
る第2の積和演算工程と、 第1、第2の積和演算工程からの結果を加算する加算工
程と、 前記加算工程からの加算結果を量子化する量子化工程
と、 前記量子化工程で求められた出力値を第2の積和演算工
程へフィードバックする制御工程を有することを特徴と
する画像処理方法。
12. A first sum-of-products calculating step of calculating a product sum of an input weight value and an input grayscale image in a neighboring image area, an output weight value in the neighboring image area, a weight value corresponding to an output area ratio, and A second sum-of-products operation step of calculating the sum of products of the quantized output values; an adding step of adding the results from the first and second sum-of-products operations; An image processing method, comprising: a quantization step of quantizing; and a control step of feeding back an output value obtained in the quantization step to a second product-sum operation step.
【請求項13】 前記第2の積和演算工程における、出
力面積率に対応する重み値を、出力解像度に応じて変化
させることを特徴とする請求項12記載の画像処理方
法。
13. The image processing method according to claim 12, wherein a weight value corresponding to an output area ratio in said second product-sum operation step is changed according to an output resolution.
【請求項14】 前記第2の積和演算はテーブルを用い
て積和演算を実行することを特徴とする請求項12記載
の画像処理方法。
14. The image processing method according to claim 12, wherein the second product-sum operation uses a table to execute the product-sum operation.
【請求項15】 前記量子化工程の量子化結果を用いて
画像を表示する表示工程を有し、 前記量子化工程は、加算結果に対応する量子化結果を予
めテーブルに格納していることを特徴とする請求項12
記載の画像処理方法。
15. A display step of displaying an image using a quantization result of the quantization step, wherein the quantization step stores a quantization result corresponding to the addition result in a table in advance. Claim 12
The image processing method described in the above.
JP9305738A 1996-12-04 1997-11-07 Image processing method and its device Withdrawn JPH10224620A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9305738A JPH10224620A (en) 1996-12-04 1997-11-07 Image processing method and its device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-324046 1996-12-04
JP32404696 1996-12-04
JP9305738A JPH10224620A (en) 1996-12-04 1997-11-07 Image processing method and its device

Publications (1)

Publication Number Publication Date
JPH10224620A true JPH10224620A (en) 1998-08-21

Family

ID=26564439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9305738A Withdrawn JPH10224620A (en) 1996-12-04 1997-11-07 Image processing method and its device

Country Status (1)

Country Link
JP (1) JPH10224620A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151443A (en) * 2017-03-10 2018-09-27 株式会社半導体エネルギー研究所 Semiconductor device
KR20180129211A (en) * 2017-05-25 2018-12-05 삼성전자주식회사 Method and apparatus for quantizing data in a neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151443A (en) * 2017-03-10 2018-09-27 株式会社半導体エネルギー研究所 Semiconductor device
KR20180129211A (en) * 2017-05-25 2018-12-05 삼성전자주식회사 Method and apparatus for quantizing data in a neural network

Similar Documents

Publication Publication Date Title
JP3524250B2 (en) Digital image processor
JPH09163162A (en) Image processing method and device
JP5685064B2 (en) Image display device, image display device driving method, image display program, and gradation conversion device
CN100437742C (en) Image processing apparatus, image transmission apparatus, display, image processing method, and image transmission method
JPH01113789A (en) Half-tone display device
JPH06105160A (en) Image controller
JP5013805B2 (en) Processor-readable storage medium
JP5762994B2 (en) Image display apparatus, image display apparatus driving method, gradation conversion program, and gradation conversion apparatus
US7209144B2 (en) Image-display apparatus, image-display method, and image-display program
JPH10224620A (en) Image processing method and its device
JPH11184841A (en) Picture processing method and picture processor
US6282323B1 (en) Image processing method and apparatus
JP2003069819A (en) Image processor and image processing method
JP2863072B2 (en) Image gradation conversion method and image processing device
JPH0698157A (en) Halftone image forming device
JPH11185033A (en) Image processing method and device
JPH0668250A (en) Image processor
JPH11177808A (en) Image processor
JP2000067234A (en) Image processing method/device
JPH0822273A (en) Color reduction device
JPS6226632B2 (en)
JP2001297324A (en) Image processor, image processing method and recording medium
JPH0383178A (en) Dither image enlarging system
JPH11305716A (en) Device and method for image output
JPH03159372A (en) Picture signal processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050201