JPS63184474A - Picture processing unit - Google Patents
Picture processing unitInfo
- Publication number
- JPS63184474A JPS63184474A JP62014262A JP1426287A JPS63184474A JP S63184474 A JPS63184474 A JP S63184474A JP 62014262 A JP62014262 A JP 62014262A JP 1426287 A JP1426287 A JP 1426287A JP S63184474 A JPS63184474 A JP S63184474A
- Authority
- JP
- Japan
- Prior art keywords
- image
- representative
- display
- pixel
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015654 memory Effects 0.000 claims abstract description 55
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 6
- 239000006185 dispersion Substances 0.000 claims description 2
- 238000013329 compounding Methods 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract description 5
- 238000003786 synthesis reaction Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 239000002131 composite material Substances 0.000 description 6
- 230000006837 decompression Effects 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は画像処理装置、詳しくは少なくとも入力した画
像の表示機能を有する画像処理装置に関するものである
。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus having at least a function of displaying an input image.
[従来の技術]
従来、この種の装置は画像データを対話的に操作するた
めに、ディスプレイ装置への表示用画像を蓄えるメモリ
と、印刷用の実画像データを蓄えるメモリとを別々に持
つものが一般的であった。[Prior Art] Conventionally, in order to interactively manipulate image data, this type of device has separate memories for storing images to be displayed on a display device and memories for storing actual image data for printing. was common.
というのは、印刷等の記録に用いられる実画像データは
表示画像データに比べ画素数及び階調数が多いのが一般
的であって、表示用の画像データは高速にアクセスする
必要があるからである。これは通常の画像処理では最終
的に高鮮明で高分解能で印刷出力することを目的として
いて、その間の処理すなわち表示画面を見ながらの画像
編集はその最終目的を達成する中間過程であるという認
識から生じているものである。更には、表示装置そのも
のの精度を上げることよりコスト的に低く押えられると
いうこともある。This is because actual image data used for recording such as printing generally has a larger number of pixels and gradations than display image data, and image data for display needs to be accessed at high speed. It is. This is the recognition that the final goal of normal image processing is to print out with high clarity and high resolution, and that the processing in between, that is, image editing while looking at the display screen, is an intermediate process to achieve that final goal. It arises from. Furthermore, the cost can be kept lower than by increasing the accuracy of the display device itself.
[発明が解決しようとする問題点]
しかし、高速メモリ上に表示画像データのみならず、印
刷記録で用いられる画像データを持つ様に構成すれば実
画像の編集処理は高速に実行可能となるが、高価となる
。また、表示用の画像データは高速なメモリに保持し、
記録画像データは大容量の外部メモリに保持する様に構
成すると、実画像の編集処理が遅くなってしまう。仮に
記録画像データを大容量の高速な外部メモリに蓄える様
にしても、表示画面上で編集処理(表示用の画像メモリ
内のデータをアクセスする)すると共に記録画像用のメ
モリ内のデータをもそれに応じて訂正等の編集処理しな
ければならず手間がかかる。[Problems to be Solved by the Invention] However, if the high-speed memory is configured to hold not only display image data but also image data used for print recording, editing processing of actual images can be executed at high speed. , it becomes expensive. In addition, image data for display is held in high-speed memory,
If the recorded image data is held in a large-capacity external memory, editing processing of the actual image becomes slow. Even if recorded image data is stored in a large-capacity, high-speed external memory, editing processing (accessing data in the image memory for display) on the display screen and data in the memory for recorded images will also be required. Editing processes such as corrections must be performed accordingly, which is time-consuming.
しいては、処理が2回に及ぶことになるから処理速度の
向上にも限界がある。In this case, since the processing is performed twice, there is a limit to the improvement in processing speed.
本発明はかかる従来技術に鑑みなされたものであり、メ
モリ効率を上げると共に、高速に編集処理することを可
能とする画像処理装置を提供することにある。The present invention has been made in view of such prior art, and it is an object of the present invention to provide an image processing device that can improve memory efficiency and perform editing processing at high speed.
[問題点を解決するための手段]
この問題を解決するために本発明は以下の様な構成から
なる。[Means for solving the problem] In order to solve this problem, the present invention has the following configuration.
すなわち、表示画像を格納するための画像メモリと、画
像を多階調で人力する入力手段と、入力した画像データ
中のn×mの画素ブロック全体の代表階調値を抽出する
代表階調値抽出手段と、前記画素ブロックの細部情報を
検出する細部情報検出手段と、前記代表階調値の情報と
前記細部情報とを1つの表示画素データとして前記画像
メモリに格納する格納手段と、格納された前記表示画素
データ中の代表階調値のみを表示する表示手段と、前記
格納手段により格納された前記表示画素データ内の代表
階調値及び細部情報とから前記画素ブロックの大きさに
復号する復号手段とを備える[作用]
かかる本発明の構成において、入力手段によって人力し
たn×mの画素ブロックを代表階調値抽出手段及び細部
情報検出手段でもって得られた情報を画像メモリに格納
手段でもって格納して、表示手段により表示し、複合手
段でもって復号するものである。That is, an image memory for storing a display image, an input means for manually inputting an image in multiple gradations, and a representative gradation value for extracting the representative gradation value of the entire n×m pixel block in the input image data. an extracting means, a detailed information detecting means for detecting detailed information of the pixel block, a storing means for storing information on the representative gradation value and the detailed information as one display pixel data in the image memory; display means for displaying only the representative gradation value in the display pixel data; and decoding into the size of the pixel block from the representative gradation value and detailed information in the display pixel data stored by the storage means. [Operation] In the configuration of the present invention, a means for storing information obtained by inputting an n×m pixel block manually by the input means using the representative gradation value extraction means and the detailed information detection means in the image memory; The information is then stored, displayed by a display means, and decoded by a decoding means.
[実施例]
以下、添付図面に従って本発明に係る実施例を詳細に説
明する。[Embodiments] Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
尚、本実施例ではカラー画像処理装置に応用した場合を
説明する。In this embodiment, a case where the present invention is applied to a color image processing apparatus will be explained.
[構成図の説明(第1図)コ
第1図は本実施例における画像処理装置のブロック構成
図である。[Explanation of Configuration Diagram (Fig. 1) Fig. 1 is a block diagram of the image processing apparatus in this embodiment.
図中、101は装置全体を制御する制御処理装置であり
、102内に格納されたプログラムに従って処理するも
のである。103はキーボード、104はポインティン
グデバイスの1つであるマウスであり、これらは制御処
理装置101に接続されている。105は画像を読取る
画像読取り装置であり、読取られた画像データは圧縮符
号化器106でもって圧縮符号化される(この圧縮符号
化された画像データを以下、単に符号化データと言うこ
とにする)。尚、この圧縮符号化器106の詳細は後述
する。108は符号化データを復号する伸張復号化器で
あり、復号された画像データは印刷装置107でもって
永久可視像(印刷出力画像)を形成する。また109,
110は画像メモリであって、圧縮符号化器106でも
って形成された符号化データをシステムバス118を介
して格納するものである。112は画像メモリ109,
110内の任意の領域を合成して表示装置113に出力
する合成部であり、合成する領域は画像フラグメモリ1
11内に格納されたフラグデータによって決定される。In the figure, 101 is a control processing device that controls the entire device, and performs processing according to a program stored in 102. 103 is a keyboard, and 104 is a mouse, which is one of the pointing devices, and these are connected to the control processing unit 101. 105 is an image reading device that reads an image, and the read image data is compressed and encoded by a compression encoder 106 (hereinafter, this compression encoded image data will be simply referred to as encoded data). ). Note that details of this compression encoder 106 will be described later. Reference numeral 108 denotes an expansion decoder that decodes the encoded data, and the decoded image data is used by the printing device 107 to form a permanent visible image (print output image). Also 109,
An image memory 110 stores encoded data generated by the compression encoder 106 via a system bus 118. 112 is an image memory 109;
This is a compositing unit that synthesizes arbitrary areas within 110 and outputs it to the display device 113. The area to be synthesized is the image flag memory 1.
This is determined by the flag data stored in 11.
[圧縮符号化の説明(第4図)]
以下、圧縮符号化器106について第4図を用いて説明
する。[Description of Compression Encoding (FIG. 4)] The compression encoder 106 will be explained below using FIG. 4.
図中、400は画像読取装置105により読取られた画
素ブロックであり、本実施例では4X4画素とした。各
画素はそれぞれ色成分であるR(赤)、G(緑)、B(
青)に対してそれぞれ256階調(8ビツト)となって
いる。従ってバス451を介して人力した画素ブロック
400は合計384ビツト(=8X16X3)のデータ
から構成されることになる。In the figure, 400 is a pixel block read by the image reading device 105, which is 4×4 pixels in this embodiment. Each pixel has color components R (red), G (green), B (
There are 256 gradations (8 bits) for each (blue). Therefore, the pixel block 400 manually generated via the bus 451 is composed of data of a total of 384 bits (=8×16×3).
さて、画像読取装置105から順次出力される画素ブロ
ック400は圧縮符号化器106内の代表色抽出部40
1にバス451を介して人力され、画素ブロック400
を全体的に見た場合の最も良く表わしている色情報を抽
出する。本実施例ては各画素の色成分(R,G、B)毎
の階調の平均値をとるものとして説明するが、これに限
定されるものではない。例えば各画素の色分布(標準偏
差)から決定する様にしても構わない。いずれにせよ、
画素ブロック400の代表色が決定され、バス453を
介して符号化データ404の代表色情報404aとして
出力される。尚、この圧縮符号化器401が代表色を決
定すると、各色成分毎の値(閾値)をバス452に出力
する。Now, the pixel blocks 400 sequentially output from the image reading device 105 are processed by the representative color extraction unit 40 in the compression encoder 106.
1 via bus 451, pixel block 400
The color information that best represents the overall image is extracted. Although this embodiment will be described as taking the average value of the gradations for each color component (R, G, B) of each pixel, the present invention is not limited to this. For example, it may be determined based on the color distribution (standard deviation) of each pixel. in any case,
The representative color of the pixel block 400 is determined and output as representative color information 404a of the encoded data 404 via the bus 453. Note that when the compression encoder 401 determines the representative color, it outputs a value (threshold value) for each color component to the bus 452.
さて、画素ブロック400は同様にバッファメモリ40
2にも一旦入力される。尚、このバッファメモリ402
は複数個の画素ブロックが格納可能となっていている。Now, the pixel block 400 is similarly stored in the buffer memory 40.
2 is also entered once. Note that this buffer memory 402
can store multiple pixel blocks.
そして、代表色抽出部401で代表色が抽出され、閾値
がバス452を介して2値化器403に入力されると、
その閾値に対応する画素ブロックもバッファメモリ40
2から2値化器403に人力されて2値化される。2値
化された各色成分毎の4×4のブロックは符号化データ
404の細部情報404bとして出力さる。Then, when the representative color is extracted by the representative color extraction unit 401 and the threshold value is input to the binarizer 403 via the bus 452,
The pixel block corresponding to the threshold value is also stored in the buffer memory 40.
2 is manually input to a binarizer 403 and binarized. The binarized 4×4 blocks for each color component are output as detailed information 404b of encoded data 404.
更にバッファメモリ402内に格納された画素ブロック
400はバス455を介して分散値算出部405に入力
され、この入力された画素ブロック400と代表色抽出
部401からのバス452上に出力した各色成分毎の平
均値とから分散値σ8.σ。+(’Bを算出する。例え
ば°’R(赤)°°の分散値aRは次式の様になる。Furthermore, the pixel block 400 stored in the buffer memory 402 is input to the variance value calculation unit 405 via the bus 455, and the input pixel block 400 and each color component outputted from the representative color extraction unit 401 onto the bus 452 are The variance value σ8. σ. +('B is calculated. For example, the variance value aR of °'R (red) °° is as shown in the following equation.
尚、■式中、nは画素数(16)、ARは各画素毎のR
(赤)成分の平均値、R,は各画素の階調度を示す。In the formula, n is the number of pixels (16), and AR is R for each pixel.
The average value of the (red) component, R, indicates the gradation level of each pixel.
また、他のG(縁)、B(青)についても全く同様の演
算で行なうことができる。この様にして求められた各色
成分毎の分散OR+ (ff G +σ、はバス456
を介して符号化データ404の分散情報404cとして
出力され、先に説明した代表色情報404a及び細部情
報404bと共に符号化データ404を構成することに
なる。Further, the same calculation can be performed for other G (edge) and B (blue). The variance OR+(ff G +σ) for each color component obtained in this way is the bus 456
This information is output as distributed information 404c of the encoded data 404 through the encoded data 404, and constitutes the encoded data 404 together with the representative color information 404a and detailed information 404b described above.
尚、このとき細部情報404bは画素ブロック400の
各色成分の2値化された情報であるから、合計48ビツ
ト(:=16X3)でもって構成され、分散値情報40
4Cは各色成分毎に8ビツトで示されるものとすると、
符号化データ404は代表色情報404a (8x3ビ
ツト)と細部情報404b (16X3)、分散情報4
04c (a×3ビット)の合計96ビツトとなり、画
素ブロック400の384ビツトに対し、その大籾さは
1/4に圧縮されることになる。At this time, the detail information 404b is binary information of each color component of the pixel block 400, so it is composed of a total of 48 bits (:=16X3), and the variance value information 40
Assuming that 4C is represented by 8 bits for each color component,
Encoded data 404 includes representative color information 404a (8x3 bits), detailed information 404b (16x3), and variance information 4.
04c (a×3 bits), which is a total of 96 bits, and its size is compressed to 1/4 of the 384 bits of the pixel block 400.
[装置の動作説明(第2図、第3図)]以上の処理でも
って形成された符号化データ404は通常の画像データ
と同様に表示装置に表示される。すなわち、表示装置に
表示しようとする場合には、代表色情報のみを画像デー
タとして表示するわけである。従って表示画面上の表示
ドツト数は画像読み取り装置105で読取られた画素数
の1/16とすることができる。[Description of operation of the apparatus (FIGS. 2 and 3)] The encoded data 404 formed through the above processing is displayed on a display device in the same way as normal image data. That is, when displaying on a display device, only representative color information is displayed as image data. Therefore, the number of display dots on the display screen can be set to 1/16 of the number of pixels read by the image reading device 105.
以下に説明するのは、この様に圧縮し符号化したデータ
でもって画像処理する場合に応用した例である。What will be described below is an example in which image processing is performed using data compressed and encoded in this manner.
今、第2図(a)に示す圧縮し符号化された画像A(以
下、単に画像Aと言う)が画像メモリ110に格納され
、第2図(b)に示す圧縮し符号化された画像B(以下
、単に画像Bと言う)が画像メモリ109に格納されて
いるものとする。そして、これら画像A、Bでもって第
2図(C)に示す圧縮し符号化された画像C(以下、単
に画像Cという)を形成するまでを説明する。オペレー
タはキーホード103或いはマウス104でもって適当
な指令を入力し、画像メモリ109内の画像Bのみを回
転、縮小処理する。次の段階では、この様にして処理さ
れた画像Bに対する輪郭情報を表わすビットマツプ情報
をマスク情報(“1゛′か“0°′の情報)に変換され
、画像フラグメモリ111に格納される。尚、ここでは
画像Bの輪郭情報の形成は画像メモリ109内を走査す
ることによって輪郭をフラグデータを画像メモリ111
に形成されるとしたが、例えばマウス104を駆使して
輪郭をなぞる様にして境界を指定する様にしても構わな
い。Now, the compressed and encoded image A (hereinafter simply referred to as image A) shown in FIG. 2(a) is stored in the image memory 110, and the compressed and encoded image shown in FIG. 2(b) is stored in the image memory 110. It is assumed that image B (hereinafter simply referred to as image B) is stored in image memory 109. The process up to forming compressed and encoded image C (hereinafter simply referred to as image C) shown in FIG. 2(C) using these images A and B will be explained. The operator inputs appropriate commands using the keyboard 103 or the mouse 104 to rotate and reduce only the image B in the image memory 109. In the next step, the bitmap information representing contour information for image B processed in this manner is converted into mask information (information of "1" or "0") and stored in the image flag memory 111. In this case, the outline information of image B is formed by scanning the image memory 109 and transmitting flag data to the image memory 111.
However, for example, the boundary may be specified by tracing the outline using the mouse 104.
さて、以上の様に各画像及びマスク情報がメモリ109
〜111に格納された後、画像A、Bの合成表示を開始
することになる。Now, as described above, each image and mask information are stored in the memory 109.
~111, the combined display of images A and B will begin.
第3図は合成部112の内部構成を示す図である。FIG. 3 is a diagram showing the internal configuration of the combining section 112.
図中、301及び304は人力されてくる信号のどちら
か一方を選択する信号選択器であり、信号選択器301
は画像フラグメモリ111のマスク情報(信号線114
に送られてくる)に基づいて画像A、Bのどちらか一方
を選択するものである。302は信号加算器であって、
画像A、Bの階調を加算するものである。加算されたデ
ータは1/2回路303でもって1/2(平均)される
。そして、この1/2回路の出力は信号選択器304の
一方の入力側に接続されている。In the figure, 301 and 304 are signal selectors that select either one of the manually input signals, and the signal selector 301
is the mask information of the image flag memory 111 (signal line 114
One of images A and B is selected based on the information sent to the user. 302 is a signal adder,
This is to add the gradations of images A and B. The added data is halved (averaged) by a halving circuit 303. The output of this 1/2 circuit is connected to one input side of the signal selector 304.
従って例えば信号線351のレベルが0′°のときには
画像フラグメモリ111内のマスク情報で選択された画
像データが信号線117を介して表示装置に出力される
ことになる。このときの表示画像は第2図(c)に示す
様に画像A、Bが重畳された画像Cになる。Therefore, for example, when the level of the signal line 351 is 0'°, the image data selected by the mask information in the image flag memory 111 is outputted to the display device via the signal line 117. The displayed image at this time becomes image C in which images A and B are superimposed, as shown in FIG. 2(c).
また、信号線3510レベルが1゛°のとぎには、画像
A、Bの階調の平均が信号線154に出力されることに
なり、結局画像A、Bが透過されて合成表示されること
になる。Furthermore, when the signal line 3510 level is 1°, the average gradation of images A and B is output to the signal line 154, and images A and B are eventually transmitted and displayed as a composite. become.
尚、上記構成でもって、画像を合成するとぎに輪郭が目
立ち通ることがある。この様なとぎには輪郭箇所では平
均値画像を選択する様に信号線351を制御することに
よって達成される。すなわち、上記構成でもって画像A
、Bの合成表示の比率は100:0→50:50→0:
100%と3段階に制御できるわけである。Note that with the above configuration, the contours may stand out when images are combined. Such cutting is accomplished by controlling the signal line 351 so that the average value image is selected at the contour location. That is, with the above configuration, image A
, the composite display ratio of B is 100:0 → 50:50 → 0:
This means that it can be controlled in three stages, 100%.
また、オペレータの所望とした画像が表示されたら、合
成表示された画像Cに基づいて、実際に画像メモリ10
9内の画像Bと画像メモリ110内の画像Aとを合成し
、画像メモリ110に格納する。このとき各符号化デー
タ内の代表色情報404aはもちろん、細部情報404
b、分散情報404cをも合成対象として処理する。そ
の結果、画像Cが画像メモリ110内に形成されること
になる。Further, when the image desired by the operator is displayed, the image memory 10 is actually stored based on the synthesized and displayed image C.
Image B in 9 and image A in image memory 110 are combined and stored in image memory 110. At this time, not only representative color information 404a in each encoded data but also detailed information 404
b. The distributed information 404c is also processed as a synthesis target. As a result, image C will be formed in image memory 110.
[伸張復号化の説明(第5図)コ
さて、最終的に画像Cを印刷出力するとぎには、画像メ
モリ110内に格納されている画像Cの符号化データを
順次、伸長復号化器108に転送して復号する。[Explanation of decompression decoding (FIG. 5)] Now, in order to finally print out image C, the encoded data of image C stored in image memory 110 is sequentially transferred to decompression decoder 108. and decrypt it.
伸長復号化器108では人力されてくる符号化データ4
04内の代表色情報404a、細部情報404b及び分
散情報404cとから4×4の階調のある画素ブロック
に復号する。In the decompression decoder 108, encoded data 4 input manually
The representative color information 404a, detail information 404b, and variance information 404c in 04 are decoded into a 4×4 pixel block with gradations.
実際には、細部情報404b内の各色成分の2値化して
1°°になった画素に対しては、その代表色情報404
a内に格納されている各色成分毎の平均階調度 (A
R,A a、A a)にその色成分の分散値(OR1σ
。、Oa)を加えた値にする。また、2値化して°0゛
°になった画素に対して平均階調度から分散値を引いた
値にすることによって復号処理する。In reality, for a pixel in which each color component in the detailed information 404b is binarized to 1°°, its representative color information 404b is
The average gradation level for each color component stored in a (A
R, A a, A a), the variance value (OR1σ
. , Oa). Further, for pixels that have been binarized and become 0°, decoding processing is performed by setting the value to a value obtained by subtracting the variance value from the average gradation level.
例えば色成分である’R(赤)°°に対しては、2値化
して°゛1°°になった画素XRは、X 、mA R+
a 、 *・・ ■2値化して“0°°になった画
素xRは、X R−A R−OR・・・ ■
で与えられる。For example, for the color component 'R (red) °°, the pixel XR, which is binarized to °゛1°°, is X, mA R+
a, *... (2) The pixel xR which has been binarized and becomes "0°" is given by X R-A R-OR... (2).
第5図は色成分“°R°゛における2値化処理、復号処
理の簡単な推移を示すものである。FIG. 5 shows a simple transition of binarization processing and decoding processing for color component "°R°".
図中、50は画像読取装置105で読取った色成分“R
”の画素ブロックである。また、各画素中の数値は色成
分“R”の階調値を示している。In the figure, 50 is the color component "R" read by the image reading device 105.
” pixel block. Furthermore, the numerical value in each pixel indicates the gradation value of the color component “R”.
51は画素ブロック50内の画素をその階調の平均値(
計算するとAR〜53となる)でもって2値化した2値
化ブロツクである。尚、この平均値は先に説明した様に
代表色抽出部401でもって算出する。また、算出され
た各色成分の平均値と画素ブロックとから、先に示した
分散算出式■でもって各色成分毎の分散を分散値算出部
405で算出する。また、この場合(第5図)の分散値
Q R419となる。52は2値化ブロツク51を復号
したときの復号画素ブロックである。51 is the average value of the gradation of the pixels in the pixel block 50 (
This is a binarized block that has been binarized with AR~53). Note that this average value is calculated by the representative color extraction unit 401 as described above. Further, from the calculated average value of each color component and the pixel block, the variance value calculation unit 405 calculates the variance for each color component using the variance calculation formula (2) shown above. Moreover, the dispersion value Q R in this case (FIG. 5) is 419. 52 is a decoded pixel block when the binarized block 51 is decoded.
さて、この2値化ブロツクを復号画素ブロック52に復
号するとき、前述した■、■式から、2値化ブロツク5
1内の°゛1°゛となっている画素の階調値は“72(
−AR十〇R−53+19)”となり、“0°゛となっ
ている画素は“34(=AR−σR)°°となり、画素
ブロック50に近似した復号画素ブロック52が形成さ
れる。Now, when decoding this binarized block to the decoded pixel block 52, from the above-mentioned equations (1) and (2), the binarized block 5
The gradation value of the pixel at °゛1°゛ within 1 is “72 (
−AR10R−53+19)”, and the pixel that is “0°” becomes “34 (=AR−σR)°”, and a decoded pixel block 52 that approximates the pixel block 50 is formed.
ところで、通常印刷時にはYMC(イエロー、マゼンダ
、シアン)等に変換処理して印刷装置107に出力する
ことになるが、この処理は従来での変換処理を採用する
ものとして、本実施例では説明は省略する。By the way, during normal printing, conversion processing into YMC (yellow, magenta, cyan), etc. is performed and output to the printing device 107, but this processing is assumed to be a conventional conversion processing, and will not be explained in this embodiment. Omitted.
[他の合成表示の説明(第6図)]
上記実施例では、合成表示するときに、画像A及び画像
Bの合成表示を3段階の比率でもって合成表示する場合
を説明したが、更に発展させた例を第6図を基に説明す
る。[Explanation of other composite display (Figure 6)] In the above embodiment, when performing composite display, a case was explained in which the composite display of image A and image B is displayed at three levels of ratio, but further development is possible. An example of this will be explained based on FIG.
図中、111aは画像フラグメモリであり、今度は各画
像メモリ109,110に対し、1画素当り4ビツトで
構成されるものとする。そして、この4ビツトでもって
画像Aと画像Bとの合成表示の比率を多段階(4ビツト
では16段階)にしようとするわけである。また、60
.61は画像フラグメモリ111aからバス63を介し
て送られてくる4ビツトの値によって、バス115゜1
16上に出力されてくる画像データの階調値を0.0倍
〜1.0倍の間を16段階でもって乗算する乗算器であ
る。また、62はそれぞれの乗算器60.61からの信
号を加算する加算器であり、加算した結果を表示装置1
13への信号線117上に出力する。In the figure, 111a is an image flag memory, and this time it is assumed that each image memory 109, 110 is configured with 4 bits per pixel. By using these 4 bits, the composite display ratio of image A and image B is to be displayed in multiple stages (16 stages with 4 bits). Also, 60
.. 61 is a 4-bit value sent from the image flag memory 111a via the bus 63 to the bus 115°1.
This is a multiplier that multiplies the gradation value of the image data output on the 16 in 16 steps between 0.0 times and 1.0 times. Further, 62 is an adder that adds the signals from the respective multipliers 60 and 61, and the added result is displayed on the display device 1.
13 on signal line 117.
今、バス63上に(F)+a、すなわち4ビット全部が
ハイレベルのときを想定してみる。このとき乗算器60
はバス115上の画像データの階調度を1.0倍、すな
わちそのままで加算器62に出力する。一方、乗算器6
1への画像フラグメモリからのデータは反転(すなわち
、(0)+6)されて入力されるので、バス116上の
画像データの階調度は0.0倍、すなわち加算器62へ
の出力は” o ”となる。加算器62は人力された画
像データの階調度を単に加算し表示装置113に信号線
117を介して出力するが、この場合にはバス115上
にある画像のみを表示装置113に出力することになる
わけである。Let us now assume that (F)+a is on the bus 63, that is, all four bits are at high level. At this time, the multiplier 60
outputs the gradation level of the image data on the bus 115 to the adder 62 by 1.0 times, that is, without changing it. On the other hand, multiplier 6
Since the data from the image flag memory to 1 is inverted (that is, (0) + 6) and input, the gradation level of the image data on bus 116 is 0.0 times, that is, the output to adder 62 is " o”. The adder 62 simply adds the gradations of the manually input image data and outputs it to the display device 113 via the signal line 117, but in this case, only the image on the bus 115 is output to the display device 113. That's why it happens.
以上の説明からもわかる様に、画像フラグメモリ111
aからのデータによって、バス115゜116上に出力
されてくる画像データの階調度の合成比率を多段階にし
て表示することができることになり、例えば合成する2
つの画像の輪郭近傍の階調性を多段階に合成することに
より、画像同志の合成にかかる、輪郭部の違和感がなく
なる。As can be seen from the above explanation, the image flag memory 111
By using the data from a, it is possible to display the gradation ratio of the image data output on the bus 115 and 116 in multiple stages.
By compositing the gradations near the contours of two images in multiple stages, the unnatural feeling of the contours caused by the compositing of two images is eliminated.
更には一方の画像から他の画像に切換えるスムース画像
合成をも可能にすることになる。Furthermore, it also becomes possible to perform smooth image synthesis by switching from one image to another.
[他の構成図の説明(第7図)]
第7図は第1図のブロック構成図を更に発展させたもの
である。[Explanation of another block diagram (FIG. 7)] FIG. 7 is a further development of the block diagram of FIG. 1.
図中、第1図の構成と違う点は画像メモリ109.11
0と画像フラグメモリ111がシステムバス118直接
接続されてなく、処理部701を介している点にある。In the figure, the difference from the configuration in Figure 1 is the image memory 109.11.
0 and the image flag memory 111 are not directly connected to the system bus 118 but are connected through the processing unit 701.
第1図の構成ではメモリ109〜111に同時にアクセ
スすることは難しく、制御処理装置101による処理に
時間がかかつてしまう。そこで、ここでは制御処理装置
101を分散して制御装置702と処理装置701とに
分けた。この構成によれば、各メモリに対するアクセス
(読出し/書込み)の並列化による効率の向上と供に、
システムバス118の使用効率が下がるので、他の処理
を制御部702が行うことも可能となり、システム全体
の処理速度が上がることになる。In the configuration shown in FIG. 1, it is difficult to access memories 109 to 111 simultaneously, and processing by control processing device 101 takes time. Therefore, here, the control processing device 101 is distributed and divided into a control device 702 and a processing device 701. According to this configuration, in addition to improving efficiency by parallelizing access (reading/writing) to each memory,
Since the usage efficiency of the system bus 118 is reduced, the control unit 702 can also perform other processing, and the processing speed of the entire system increases.
以上説明した様に本実施例によれば、カラー画像データ
を数分の1にまで圧縮したデータでもって表示画面上に
表示して画像処理し、印刷するときには高解像の画像に
して出力することが可能となる。As explained above, according to this embodiment, color image data is compressed to a fraction of its original size and displayed on the display screen, processed, and output as a high-resolution image when printed. becomes possible.
また、画像編集時には代表色情報のみを変化させること
によりなされるので、画像処理の処理速度は向上するこ
とになる。Furthermore, since image editing is done by changing only the representative color information, the processing speed of image processing is improved.
更には、2つの画像同志の合成比率を多段階にすること
ができ、合成する画像の輪郭部の違和感をなくすること
を可能とすると共に、一方の画像から他方の画像にスム
ースに切換える画像合成表示を可能とした。Furthermore, the composition ratio of two images can be set in multiple stages, making it possible to eliminate the unnatural feeling of the contours of the images to be composited, and image composition that smoothly switches from one image to the other. enabled display.
更に、また表示画像と印刷等への出力画像とを別個にす
ることがないため、それぞれのメモリに対して2重の処
理をすることもなくなり、且つ少ないメモリで構成でき
、コストの低減にもなる。Furthermore, since the display image and the output image for printing etc. are not separated, there is no need to perform double processing on each memory, and the configuration can be configured with less memory, reducing costs. Become.
尚、本実施例では2つの画像の合成比率を多段階にする
ことを説明したが、これら2つの画像を論理和、或いは
論理積等の論理演算する様にしても構わない。In this embodiment, it has been explained that the combination ratio of two images is set in multiple stages, but these two images may be subjected to logical operations such as logical sum or logical product.
更に画素ブロックは4×4の大きさに限定されるもので
はなく、一般にnXmの画素でもって実現できるもので
ある。Further, the pixel block is not limited to a size of 4×4, but can generally be realized with n×m pixels.
更には、例えば1つの色(例えば黒)だけの画像を処理
する装置の場合には、本実施例で説明したカラー画像を
構成する色成分の1つに注目して考えれは容易に実現で
きるものである。Furthermore, in the case of a device that processes images of only one color (for example, black), it can be easily realized by focusing on one of the color components that make up the color image described in this embodiment. It is.
[発明の効果]
以上、説明した様に本発明によれば、画像データを数分
の1にまで圧縮したデータでもって表示画面上に表示し
て画像処理し、印刷するときには高解像の画像にして出
力することが可能となると共に、画像編集時には代表階
調情報のみを変化させることによりなされるので、画像
処理の処理速度は向上することになる。[Effects of the Invention] As explained above, according to the present invention, image data is compressed to a fraction of its original size and displayed on the display screen for image processing, and when printed, a high-resolution image is obtained. In addition, since image editing is done by changing only the representative gradation information, the processing speed of image processing is improved.
またメモリを効率的に使用し、且つ高速に画像の編集処
理が可能となる。Furthermore, memory can be used efficiently and images can be edited at high speed.
第1図は本実施例における画像処理装置のブロック構成
図、
第2図(a)、(b)は合成する画像を示す図、
第2図(c)は合成後の画像を示す図、第3図は第1図
に示す合成部の内部構成図、第4図は第1図に示す圧縮
符号化器の内部構成図、
第5図は圧縮符号化されたデータが伸張復号するまでを
説明するための図1、
第6図は他の合成部を説明するための図、第7図は本実
施例に係る他の画像処理装置のブロック構成図である。
図中、101・・・制御処理装置、102・・・メモリ
、103・・・キーボード、1.04・・・マウス、1
05・・・画像読取装置、106・・・圧縮符号化器、
107・・・印刷装置、108・・・伸長復号化器、1
09゜110・・・画像メモリ、111,1lla・・
・画像フラグメモリ、112,112a・・・合成部、
113・・・表示装置、114〜117・・・信号線、
118・・・システムバス、301,304・・・信号
選択器、302・・・信号加算器、303・・・1/2
回路、400・・・画素ブロック、401・・・代表色
抽出器、402・・・バッファメモリ、403・・・2
(t[1化1%、404・・・符号化データ、404
a・・・代表色情報、404b・・・細部情報、60.
61・・・乗算器、62・・・加算器、701・・・処
理装置、702・・・制御装置である。
三つ
′11゜
、1N
t′FIG. 1 is a block diagram of the image processing apparatus in this embodiment. FIGS. 2(a) and 2(b) are diagrams showing images to be combined. FIG. 2(c) is a diagram showing images after combination. Figure 3 is an internal configuration diagram of the synthesis unit shown in Figure 1, Figure 4 is an internal configuration diagram of the compression encoder shown in Figure 1, and Figure 5 explains the process until compression-encoded data is decompressed and decoded. 1 and 6 are diagrams for explaining another combining section, and FIG. 7 is a block diagram of another image processing apparatus according to the present embodiment. In the figure, 101...control processing unit, 102...memory, 103...keyboard, 1.04...mouse, 1
05... Image reading device, 106... Compression encoder,
107... Printing device, 108... Decompression decoder, 1
09°110... Image memory, 111, 1lla...
- Image flag memory, 112, 112a... synthesis unit,
113...Display device, 114-117...Signal line,
118...System bus, 301, 304...Signal selector, 302...Signal adder, 303...1/2
Circuit, 400... Pixel block, 401... Representative color extractor, 402... Buffer memory, 403...2
(t[1%, 404... encoded data, 404
a...Representative color information, 404b...Detail information, 60.
61... Multiplier, 62... Adder, 701... Processing device, 702... Control device. Three'11°, 1N t'
Claims (6)
多階調で入力する入力手段と、入力した画像データ中の
n×mの画素ブロック全体の代表階調値を抽出する代表
階調値抽出手段と、前記画素ブロックの細部情報を検出
する細部情報検出手段と、前記代表階調値の情報と前記
細部情報とを1つの表示画素データとして前記画像メモ
リに格納する格納手段と、格納された前記表示画素デー
タ中の代表階調値のみを表示する表示手段と、前記格納
手段により格納された前記表示画素データ内の代表階調
値及び細部情報とから前記画素ブロックの大きさに復号
する復号手段とを備えることを特徴とする画像処理装置
。(1) An image memory for storing a display image, an input means for inputting the image in multiple gradations, and a representative gradation for extracting the representative gradation value of the entire n×m pixel block in the input image data. a value extracting means, a detailed information detecting means for detecting detailed information of the pixel block, a storing means for storing information on the representative gradation value and the detailed information as one display pixel data in the image memory; display means for displaying only the representative tone value in the display pixel data, and decoding into the size of the pixel block from the representative tone value and detailed information in the display pixel data stored by the storage means; An image processing apparatus comprising: a decoding means for decoding.
る特許請求の範囲第1項記載の画像処理装置。(2) The image processing apparatus according to claim 1, wherein the input means is an image reading device.
階調の平均値を抽出することを特徴とする特許請求の範
囲第1項記載の画像処理装置。(3) The image processing apparatus according to claim 1, wherein the representative tone value extraction means extracts an average value of tone of each pixel in the pixel block.
を2値化する2値化手段と、2値化された2値化データ
に対応する画素の前記代表階調値からの分散を検出する
分散検出手段とからなることを特徴とする特許請求の範
囲第1項記載の画像処理装置。(4) The detailed information detection means includes a binarization means that binarizes the pixel block from the representative gradation value, and detects the variance of the pixel corresponding to the binarized data from the representative gradation value. 2. The image processing apparatus according to claim 1, further comprising dispersion detection means.
に出力されることを特徴とする特許請求の範囲第1項記
載の画像処理装置。(5) The image processing apparatus according to claim 1, wherein the image information compounded by the compounding means is outputted to a printing device.
るときには、代表階調値抽出手段及び細部情報検出手段
は各色成分毎に処理することを特徴とする特許請求の範
囲第1項記載の画像処理装置。(6) When the image input by the input means is a color image, the representative gradation value extraction means and the detailed information detection means process the image for each color component. Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62014262A JPS63184474A (en) | 1987-01-26 | 1987-01-26 | Picture processing unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62014262A JPS63184474A (en) | 1987-01-26 | 1987-01-26 | Picture processing unit |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63184474A true JPS63184474A (en) | 1988-07-29 |
Family
ID=11856173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62014262A Pending JPS63184474A (en) | 1987-01-26 | 1987-01-26 | Picture processing unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63184474A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056304A (en) * | 1990-11-30 | 1993-01-14 | Matsushita Electric Ind Co Ltd | Image memory device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5817763A (en) * | 1981-07-23 | 1983-02-02 | Toshiba Corp | Picture information storage system |
JPS6068439A (en) * | 1983-09-24 | 1985-04-19 | Toshiba Corp | Storing system of hierarchical array data |
JPS62100077A (en) * | 1985-10-28 | 1987-05-09 | Nippon Telegr & Teleph Corp <Ntt> | Coding method and device |
-
1987
- 1987-01-26 JP JP62014262A patent/JPS63184474A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5817763A (en) * | 1981-07-23 | 1983-02-02 | Toshiba Corp | Picture information storage system |
JPS6068439A (en) * | 1983-09-24 | 1985-04-19 | Toshiba Corp | Storing system of hierarchical array data |
JPS62100077A (en) * | 1985-10-28 | 1987-05-09 | Nippon Telegr & Teleph Corp <Ntt> | Coding method and device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056304A (en) * | 1990-11-30 | 1993-01-14 | Matsushita Electric Ind Co Ltd | Image memory device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0597556B1 (en) | Image processing apparatus | |
US5680486A (en) | Image processing apparatus | |
US8385639B2 (en) | Compressive coding device and visual display control device | |
US4642680A (en) | Method and system for processing image data stored in RGB form | |
US5420966A (en) | Method and apparatus for filling an object based rasterized image | |
JP3645922B2 (en) | Image processing method and apparatus | |
JP2578170B2 (en) | Image display device | |
US5852444A (en) | Application of video to graphics weighting factor to video image YUV to RGB color code conversion | |
JPH1188700A (en) | Coding method of color image signal, and decoding method and color image processor thereof | |
US20110002553A1 (en) | Compressive coding device and decoding device | |
US5638464A (en) | Image processing apparatus | |
JP2703223B2 (en) | Color image processing equipment | |
JPS63184474A (en) | Picture processing unit | |
US5867143A (en) | Digital image coding | |
JP2737869B2 (en) | Image processing method | |
JPH05204351A (en) | Color image display method | |
JP2810585B2 (en) | Image encoding method and image decoding method | |
JP3377179B2 (en) | Screen synthesis apparatus and method | |
JP2974596B2 (en) | Color image processing equipment | |
JP4192671B2 (en) | Image processing apparatus and image processing method | |
JP2862498B2 (en) | Image processing method | |
KR930004645B1 (en) | Apparatus for encoding image signal | |
JPS60197073A (en) | Color designation processing unit of color picture | |
JPS62140176A (en) | Image editing processor | |
KR930008176B1 (en) | Apparatus for encoding image signal |