JPH0679322B2 - Image editing processor - Google Patents

Image editing processor

Info

Publication number
JPH0679322B2
JPH0679322B2 JP28163185A JP28163185A JPH0679322B2 JP H0679322 B2 JPH0679322 B2 JP H0679322B2 JP 28163185 A JP28163185 A JP 28163185A JP 28163185 A JP28163185 A JP 28163185A JP H0679322 B2 JPH0679322 B2 JP H0679322B2
Authority
JP
Japan
Prior art keywords
image
data
address
image data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28163185A
Other languages
Japanese (ja)
Other versions
JPS62140176A (en
Inventor
衞 佐藤
秀史 大沢
尚登 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP28163185A priority Critical patent/JPH0679322B2/en
Priority to DE3650771T priority patent/DE3650771D1/en
Priority to EP86309702A priority patent/EP0235456B1/en
Priority to EP93203481A priority patent/EP0597555B1/en
Priority to DE3650764T priority patent/DE3650764T2/en
Priority to EP93203482A priority patent/EP0597556B1/en
Priority to DE3650717T priority patent/DE3650717T2/en
Publication of JPS62140176A publication Critical patent/JPS62140176A/en
Priority to US08/112,374 priority patent/US5861892A/en
Priority to US08/221,450 priority patent/US5485557A/en
Publication of JPH0679322B2 publication Critical patent/JPH0679322B2/en
Priority to US08/977,046 priority patent/US5812146A/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、符号化された画像データによって表される複
数の画像の合成画像を作成する画像編集処理装置に関す
るものである。
Description: TECHNICAL FIELD The present invention relates to an image editing processing apparatus that creates a composite image of a plurality of images represented by encoded image data.

[従来の技術] 従来、符号化された画像データによって表される複数の
画像を合成する際には、各々の画像データを復号化し、
あらかじめ用意されたレイアウト情報に従って合成画像
を作成していた。そして、所望の合成画像が得られたど
うかは実際にプリントアウトすることによって確認して
いた。
[Prior Art] Conventionally, when synthesizing a plurality of images represented by encoded image data, each image data is decoded,
The composite image was created according to the layout information prepared in advance. Then, it was confirmed by actually printing out whether or not the desired composite image was obtained.

[発明が解決しようとする課題] これに対して、複数の画像をディスプレイ上で確認しな
がら所望のレイアウト情報を抽出し、そのレイアウト情
報に従って合成画像を作成できれば、プリントアウトし
た画像で合成画像を確認する必要がなくなり、編集処理
が効率よく行うことができる。
[Problems to be Solved by the Invention] On the other hand, if desired layout information is extracted while confirming a plurality of images on a display and a composite image can be created according to the layout information, the composite image can be generated using the printed out image. It is not necessary to check, and the editing process can be performed efficiently.

しかしながら、ディスプレイ上で合成画像を表示する際
に、原画と同じ解像度の画像データを用いると、合成や
表示のための負荷が大きくなり、編集処理に時間がかか
ってしまう。一方、ディスプレイ上では、レイアウト情
報のように編集のためのパラメータが抽出できればよ
く、原画と同じ画質は要求され必ずしも要求されない。
However, when the composite image is displayed on the display, if image data having the same resolution as the original image is used, the load for combining and displaying becomes large, and the editing process takes time. On the other hand, it suffices that parameters for editing such as layout information can be extracted on the display, and the same image quality as the original image is required and is not always required.

本発明は、かかる事情に鑑みてなされたものであり、符
号化された画像データによって表される複数の画像を合
成する際に、効率よく編集処理パラメータを抽出できる
ととともに、合成画像の高速表示が可能な画像編集処理
装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and is capable of efficiently extracting edit processing parameters when synthesizing a plurality of images represented by encoded image data and displaying the synthesized image at high speed. It is an object of the present invention to provide an image editing processing device capable of performing the above.

[課題を解決するための手段及び作用] かかる目的を達成するため、本発明の画像編集処理装置
は、 第1の解像度の画像データを符号化することによって得
られる符号データを複数画像分記憶する記憶手段と、 前記記憶手段に記憶された符号データを復号化する復号
化手段と、 前記復号化手段により復号化された第1の解像度の画像
データを、前記第1の解像度よりも低い第2の解像度の
画像データに変換する変換手段と、 前記変換手段により変換された複数の画像に対応する前
記第2の解像度の画像データに対して編集処理を施し、
該複数の画像の合成画像に対応する前記第2の解像度の
画像データを得る第1の編集処理手段と、 前記第1の編集処理手段により得られた前記第2の解像
度の画像データに基づき、前記複数の画像の合成画像を
表示する表示手段と、 前記復号化手段により復号化された複数の画像に対応す
る前記第1の解像度の画像データに対して、前記表示手
段により表示された合成画像を得るために前記第1の編
集処理手段により用いられた編集パラメータに従って編
集処理を施し、該複数の画像の合成画像に対応する前記
第1の解像度の画像データを得る第2の編集処理手段と
を有することを特徴とする。
[Means and Actions for Solving the Problem] In order to achieve the above object, the image editing processing device of the present invention stores code data obtained by coding image data of the first resolution for a plurality of images. Storage means, decoding means for decoding the coded data stored in the storage means, and image data of the first resolution decoded by the decoding means, the second resolution lower than the first resolution. Converting means for converting into image data of resolution, and performing edit processing on the image data of the second resolution corresponding to the plurality of images converted by the converting means,
A first edit processing means for obtaining image data of the second resolution corresponding to the composite image of the plurality of images; and based on the image data of the second resolution obtained by the first edit processing means, Display means for displaying a composite image of the plurality of images, and a composite image displayed by the display means for the image data of the first resolution corresponding to the plurality of images decoded by the decoding means Second edit processing means for performing edit processing according to the edit parameter used by the first edit processing means to obtain the image data of the first resolution corresponding to the composite image of the plurality of images. It is characterized by having.

[実施例] <概論> 一般に画像編集装置の機能としては、 以上の2つの編集機能を必要とする。前者は一般にハー
ドウエアにるパイプライン・プロセサーと言われるもの
で本装置に於ては画像編集機能のある特定の高速性を必
要とする項目について実行する。後者のCPUによる処理
は人間とインターラクテイブに行う項目について(ある
程度時間はかかってもよい)実行する。
[Example] <Overview> Generally, the functions of the image editing apparatus are as follows. The above two editing functions are required. The former is generally called a pipeline processor in hardware, and in this apparatus, an image editing function is executed for a certain item requiring high speed. The latter processing by the CPU is executed for items that interact with humans (it may take some time).

即ち、前者のパイプライン・プロセサーは、例えば画像
のレイアウトを決めるアフイン変換(拡大・縮小・移動
・回転)と空間フイルター処理(画像の強調・平滑化
等)及びlook up table(LUT)による色変換処理等の画
像の逐次処理を主として行う。
That is, the former pipeline processor is, for example, affine transformation (enlargement / reduction / movement / rotation) that determines the image layout, spatial filter processing (image enhancement / smoothing, etc.), and color conversion by look up table (LUT). Sequential processing of images such as processing is mainly performed.

後者のCPUによる処理は一般に複雑な処理、ハードウエ
ア化出来にくい処理を行う。ここでは画像を任意の形状
に切り出したり、切り出した画像を別の所へコピーする
処理、画像の一部を修正する等の処理をさす。これらの
処理は一般に操作者の創造によるクリエイテイブな処理
で、ある程度時間がかかっても許容出来る。しかしこの
機能は高機能である必要がある。
The latter processing by the CPU generally performs complicated processing and processing that cannot be implemented by hardware. Here, it refers to processing such as cutting out an image into an arbitrary shape, copying the cut out image to another place, and correcting a part of the image. These processes are generally creative processes created by the operator and can be tolerated even if it takes some time. However, this function needs to be highly functional.

以上2つの編集処理機能を最大のパフオーマンスで実施
するためには編集装置のシステム・アーキテクチヤーか
ら考える必要がある。
In order to carry out the above two editing processing functions with the maximum performance, it is necessary to consider from the system architecture of the editing apparatus.

即ち両者の処理が十分高機能に高速に実行出来るように
するためには構成するシステムの体系、取り扱う画像デ
ータの持ち方(フオーマツト)、信号の流れ、機能の解
析等が検討される必要がある。
That is, in order to perform both processes with sufficiently high functions at high speed, it is necessary to consider the system system to be configured, how to hold image data to be handled (format), signal flow, analysis of functions, etc. .

種々の検討の結果(カラー)画像編集装置としてのシス
テム・アーキテクチヤーとして次の事が結論として得ら
れた。
As a result of various examinations, the following was concluded as a system architecture as a (color) image editing apparatus.

(1)画像編集を行うためには画像データは圧縮データ
として持つ。
(1) In order to edit an image, the image data has compressed data.

(2)圧縮の方式としてはm×mのブロツクを一符号と
して持つベクトル量子化がよい。
(2) As a compression method, vector quantization having an m × m block as one code is preferable.

(1)に於て、高解像・高階調の画像編集処理を行うた
めには、画像データ容量としては極めて莫大となる。例
えばA4,1pageを16pel/mmでカラー読取りした場合、R,G,
B3色で約48Mバイトのデータ容量となる。先に述べた画
像編集をインターラクテイブに、高機能に行うために
は、かかるカラー画像データを圧縮し、編集やりやすい
形にする事が重要技術となる。このためには(2)のベ
クトル量子化手法が最適であると結論づけられた。
In (1), in order to perform the high-resolution / high-gradation image editing processing, the image data capacity becomes extremely huge. For example, when A4,1 page is color read at 16 pel / mm, R, G,
B3 colors have a data capacity of about 48 Mbytes. In order to perform the above-described image editing interactively and with high functionality, it is an important technique to compress the color image data so that it can be edited easily. It was concluded that the vector quantization method (2) is optimal for this.

本発明は以上の結論を基にシステム・アーキテクチヤー
を決定し、高画質で高機能・高速の画像編集処理装置を
実現出来たものである。
The present invention has determined the system architecture based on the above conclusions, and was able to realize a high image quality, high function, and high speed image editing processing apparatus.

以下本発明をカラー処理に適用した場合の実施例に基づ
き詳細に説明する。
Hereinafter, the present invention will be described in detail based on examples when it is applied to color processing.

第1図はこの発明の一実施例を示す画像編集装置の構成
図である。リーダ1によって読みとられた画像データ
(例べばR,G,B各8bitデジタルデータ)は変換器11によ
り信号変換されNTSC信号で用いられる輝度(Y)信号と
色差信号(I,Q)に変換される。かかる変換は例えばR,
G,Bのデータを なるマトリツクス計算により与えられる。ここで変換マ
トリツクスの係数はリーダの色分解特性,γ特性等に合
わせて適宜修正される。かかるY,I,Q信号は後述の圧縮
器2により圧縮され画像データフアイル用のデイスクメ
モリ3へ記憶される。デイスク内の画像データはImage
メモリ5と呼ばれるICメモリ上へ読み出され加工・編集
される。ここで高速処理を行うべく基本処理はハードウ
エア化されたパイプラインプロセサー4によって、デイ
スクからImageメモリへの転送の過程で、所謂ラスター
オペレーションによりイメージメモリ5上へ編集展開さ
れる。
FIG. 1 is a block diagram of an image editing apparatus showing an embodiment of the present invention. The image data read by the reader 1 (for example, R, G, B 8-bit digital data) is converted by the converter 11 into a luminance (Y) signal and a color difference signal (I, Q) used in the NTSC signal. To be converted. Such conversions can be performed using R,
G and B data Is given by the matrix calculation. Here, the coefficient of the conversion matrix is appropriately modified according to the color separation characteristics, γ characteristics, etc. of the reader. The Y, I and Q signals are compressed by a compressor 2 described later and stored in a disk memory 3 for image data file. Image data in the disk is Image
It is read out on an IC memory called memory 5 and processed / edited. In order to perform high-speed processing, the basic processing is edited and developed on the image memory 5 by a so-called raster operation in the process of transfer from the disk to the image memory by the hardware pipeline processor 4.

一方、イメージメモリ5上の画像データはCPU8により各
種処理が施され加工・修正が行われる。編集の過程はCR
Tコントローラ9によりカラーCRT10上へ表示され、編集
の状況がモニターできる。編集された結果はイメージメ
モリ5から復号器6を通して元の画像データに戻され、
変換器12によりこの画像データがプリンタに対応した色
信号(Yellow,Magenta,Cyan,Black)に変換されColor P
rinter 7へ出力される。
On the other hand, the image data on the image memory 5 is subjected to various kinds of processing by the CPU 8 to be processed / corrected. The editing process is CR
It is displayed on the color CRT 10 by the T controller 9, and the editing status can be monitored. The edited result is returned from the image memory 5 to the original image data through the decoder 6,
This image data is converted by the converter 12 into color signals (Yellow, Magenta, Cyan, Black) compatible with the printer and Color P
Output to rinter 7.

次に画像データの圧縮法について述べる。Y,I,Qのよう
な輝度と色差の3色信号に分けることにより、輝度デー
タであるY信号の空間周波数をよく保存しておけば、色
差信号であるI,Q信号の空間周波数は、ある程度制限し
(高周波成分のカツト)視覚上の画質劣化が少ないとい
うことが知られている。
Next, a method of compressing image data will be described. If the spatial frequency of the Y signal that is the luminance data is well preserved by dividing it into three color signals of luminance and color difference such as Y, I, and Q, the spatial frequency of the I and Q signals that are the color difference signals will be It is known that there is little visual quality deterioration due to some limitation (cutting of high frequency components).

そこで例えばI,Q信号はm×mのブロツク(mは整数)
の平均値等で色情報を代表させ、カラー画像のデータ量
を削減するデータ圧縮法が考えられる。I,Q信号のブロ
ツクサイズは要求される画質、許容されるメモリ容量に
より2×2,4×4,6×6などのブロツクサイズが選ばれ
る。例えばブロツクサイズを4×4とすると、前述した
ようにA4,1pageのメモリ容量48MByteは、Y信号16MByte
+I,Q信号2MByte=計18MByteとなり約2.7の圧縮率とな
る。
So, for example, I and Q signals are m × m blocks (m is an integer)
A data compression method is conceivable in which the color information is represented by an average value of, and the data amount of the color image is reduced. As the block size of the I and Q signals, a block size of 2 × 2, 4 × 4, 6 × 6 or the like is selected depending on the required image quality and the allowable memory capacity. For example, if the block size is 4x4, the memory capacity of A4,1page is 48MByte and the Y signal is 16MByte as described above.
+ I, Q signal 2MByte = 18MByte in total, resulting in a compression ratio of about 2.7.

一方Y信号に関してはI,Q信号の圧縮とは異なり解像度
データを十分残すような圧縮法が必要となる。
On the other hand, for the Y signal, unlike the compression of the I and Q signals, a compression method that leaves sufficient resolution data is required.

第1の方法としてはブロック符号化手法がある。The first method is a block coding method.

この手法はm×mブロツク内の画素データxの平均値
、標準偏差σを算出する。次に各画素ごとの濃淡情報
を数bit程度で表わす。例えば(x−)/σの計算値
を再量子化することにより実現できる。この圧縮データ
フオーマツトは第2図(a)のようになり、平均値、標
準偏差の次に各画素の濃淡情報を続け、この濃淡情報の
順序をブロツク内の画素位置に1対1に対応させる。し
たがって、この濃淡情報を順序を入れ変えることにより
ブロツク内での画素の回転を実施することができる。
This method calculates the average value and standard deviation σ of the pixel data x in the m × m block. Next, the grayscale information for each pixel is represented by several bits. For example, it can be realized by requantizing the calculated value of (x −) / σ. This compressed data format is as shown in FIG. 2 (a). The average value and the standard deviation are followed by the density information of each pixel, and the order of this density information corresponds one-to-one to the pixel position in the block. Let Therefore, it is possible to rotate the pixels within the block by changing the order of the grayscale information.

第2の方法は、m×m画素のベクトル量子化手法であ
る。
The second method is a vector quantization method of m × m pixels.

ここ手法はm×mブロツク内の画素データを平均値,
標準偏差σと画像の回転を表わすコードおよび画像のパ
ターンを表わすコードにより表現させて、データの圧縮
を計るものである。この圧縮データフオーマツトは、第
2図(b)のようになる。ここで回転を表わすコードと
は例えばm×mのブロツク内の画像パターンを90゜,180
゜,270゜回転させたものと、同じパターンコードを用い
るベクトル量子化法において、この角度を表わすコード
である。本実施例では0゜,90゜,180゜,270゜の4パタ
ーン2bitで表わされる。
In this method, the pixel data in the m × m block is averaged,
The data compression is measured by expressing the standard deviation σ and a code representing the rotation of the image and a code representing the pattern of the image. This compressed data format is as shown in FIG. 2 (b). Here, the code representing rotation is, for example, 90 °, 180 ° for an image pattern in an m × m block.
This is a code representing this angle in the vector quantization method using the same pattern code as that rotated by 270 °. In this embodiment, four patterns of 0 °, 90 °, 180 ° and 270 ° are represented by 2 bits.

この手法においては、回転コードを操作することによ
り、ブロツク内の画素の回転が可能となる。
In this method, by manipulating the rotation code, it is possible to rotate the pixels in the block.

次にアフイン変換について説明する。Next, the affine transformation will be described.

アフイン変換では画像の拡大・縮小・移動・回転を行な
う。
Affine conversion involves enlarging, reducing, moving, and rotating images.

入力画像のもつ入力メモリ上でのアドレスを(xS,yS
とし、主走査方向縮倍率をα、副走査方向の縮倍率を
β、回転角をφ、回転の中心座標を(xC,yC)、主走査
方向への移動量をXm、副走査方向への移動量をYmとした
時、出力メモリでのアドレス(xD,yD)とすると、次の
ような関係式が成立する。
The address of the input image on the input memory is (x S , y S ).
, The main scanning direction reduction ratio is α, the sub-scanning direction reduction ratio is β, the rotation angle is φ, the rotation center coordinate is (x C , y C ), the movement amount in the main scanning direction is Xm, and the sub-scanning direction is when the Ym the amount of movement, the address of the output memory (x D, y D) when relational expression such as the following is established.

xS,ySが与えられると、,に従ってxD,yDを求めてゆ
く。これは例えば第3図のような構成で実現できる。以
下、第3図に従って説明する。xSを式に従って求めて
ゆく場合は、初期値オフセツト(直流分)分を初期値と
してレジスタ31にセツトする。また、副走査同期増分値
及び主走査同期増分値を各々当該レジスタ32,27にセツ
トする。この一連の値のセツトは、縮倍率・回転角に応
じてCPUにより実行される。第4図は、第3図の回路の
ページ同期信号と副走査同期信号と主走査同期信号の関
係を示すタイミングチヤートである。ページ同期信号が
立ち下がることにより副走査同期信号の発生が開始され
ページ内に存在する走査線数分だけ発生する。副走査同
期信号の立ち下りにより主走査同期信号が発生し、走査
線内に存在するデータ数分だけ発生する。これらの信号
は、図示しない同期信号発生回路によって発生される。
ページ同期信号がLowレベルの間33の選択器は、31の初
期値レジスタの保持する値を出力する。34の加算器は副
走査同期信号の立ち下がりにより加算が実行される。34
の出力は副走査ラツキ同期によって35にラッチされる。
また、36は副走査同期信号がLowレベルである間は、35
の出力を出力する。38の加算器は、36の出力と、37の主
走査同期増分値を主走査同期信号の立ち下がりにより加
算が実行され、その出力は、主走査同期信号の立ち上が
りにより39にラッチされる。ラッチ35は、走査線の先頭
のデータが対応する出力側のアドレスを保持し、ラツチ
39は走査線内の各データの対応する出力側のアドレスを
与える。yDに関しても式に従って全く同様に求めるこ
とが可能である。
Given x S , y S , we find x D , y D according to. This can be realized, for example, by the configuration shown in FIG. Hereinafter, description will be given with reference to FIG. To obtain x S according to the formula, the initial value offset (DC component) is set as the initial value in the register 31. The sub-scanning synchronization increment value and the main-scanning synchronization increment value are set in the registers 32 and 27, respectively. This series of values is executed by the CPU according to the reduction ratio and rotation angle. FIG. 4 is a timing chart showing the relationship among the page sync signal, the sub-scan sync signal, and the main-scan sync signal of the circuit of FIG. When the page sync signal falls, the sub-scan sync signal is started to be generated and the number of scan lines existing in the page is generated. The main scanning synchronization signal is generated by the falling of the sub scanning synchronization signal, and is generated by the number of data existing in the scanning line. These signals are generated by a synchronizing signal generating circuit (not shown).
The 33 selectors output the values held by the 31 initial value registers while the page sync signal is at the low level. The adder 34 performs addition at the falling edge of the sub-scanning synchronization signal. 34
Is latched at 35 by the sub-scanning rack synchronization.
Also, 36 is 35 while the sub-scanning synchronization signal is at the Low level.
Output the output of. The adder of 38 performs addition of the output of 36 and the main scanning synchronization increment value of 37 at the falling edge of the main scanning synchronization signal, and the output thereof is latched at 39 at the rising edge of the main scanning synchronization signal. The latch 35 holds the address on the output side corresponding to the data at the beginning of the scanning line and latches it.
39 gives the address of the corresponding output side of each data in the scan line. It is possible to obtain y D in the same manner according to the formula.

かくして求めたアドレスは、cosφ,sinφ等が一般には
無理数であるため、無理数となる。実機上では、十分な
ビツト数をもつ小数となる。この小数アドレスの近傍の
整数アドレスを出力アドレスとして定める。(xD,yD
を中心として、主走査方向にα(|sinφ|+|cosφ|)
の巾、副走査方向にβ(|sinφ|+|cosφ|)の巾をも
つ領域内に存在する整数アドレスに対し、各々、逆変換
を行なう。この整数アドレスを(XD,XD)とすると、(X
D,YD)に対応する入力データ側のアドレスを(XS,YS
とした時 という関係式が成立する。
The address thus obtained is an irrational number because cosφ, sinφ, etc. are generally irrational numbers. On a real machine, it is a decimal with a sufficient number of bits. An integer address near this decimal address is determined as an output address. (X D , y D )
In the main scanning direction with α as the center (| sinφ | + | cosφ |)
And an integer address existing in a region having a width of β (| sinφ | + | cosφ |) in the sub-scanning direction are respectively inversely converted. If this integer address is (X D , X D ), (X
D, and the address of the input data side corresponding to the Y D) (X S, Y S)
When The relational expression is established.

上式を第5図に示す回路で逐次求めてゆく。第6図は、
第5図の信号のタイミングチヤートである。初期値オフ
セツト(直流分)及び主走査同期増分値、副走査同期増
分値は、CPUによりあらかじめそれぞれ57,51,52のレジ
スタにセツトされているものとする。また、XD,YDに変
化があった際には、図示しない回路(例えば1クロツク
前の値を保持するレジスタと現クロツクの値とを比較す
る比較器とで構成される)により、各々53及び54のゲー
トをON,OFFするゲート信号がLowとなる。この時ゲート
は各々独立に51及び52の値を出力し、それ以外ではLow
レベル、即ち50を出力する。主走査同期信号の立ち下が
りにより55の加算器が加算を実行し、その出力を主走査
同期信号の立ち上がりにより56にラツチする。また副走
査同期信号がLowのレベルの間は、59は、57のレジスタ
に保持された値を出力する。そうでない時は58の加算器
の値を出力する。50のラッチは、主走査同期の立ち上が
りで、59の出力を保持する。58の加算器は、主走査同期
の立ち下がりで50の保持する値と56の保持する値との加
算を実行するものである。
The above equation is successively obtained by the circuit shown in FIG. Figure 6 shows
6 is a timing chart of the signals in FIG. It is assumed that the initial value offset (DC component), the main-scan synchronization increment value, and the sub-scan synchronization increment value are set in the registers 57, 51, and 52 by the CPU in advance. Further, when there is a change in X D , Y D , each of them is controlled by a circuit (not shown) (for example, composed of a register holding the value of the previous clock and a comparator for comparing the value of the current clock). The gate signal that turns ON / OFF the gates of 53 and 54 becomes Low. At this time, the gate outputs the value of 51 and 52 independently, otherwise it is Low.
Output level, ie 50. The 55 adder executes addition at the falling edge of the main scanning synchronization signal, and the output is latched at 56 at the rising edge of the main scanning synchronization signal. Further, while the sub-scanning synchronization signal is at the low level, 59 outputs the value held in the register 57. Otherwise, it outputs the value of 58 adder. The 50 latch holds the 59 output at the rising edge of the main scanning synchronization. The adder 58 adds the value held by 50 and the value held by 56 at the falling edge of the main scanning synchronization.

かくして得られたXS,YSは、xD,yD同様、一般には無理数
であり、実機では小数で表現される。この値を四捨五入
して得られる値をもって、出力すべきデータの入力側ア
ドレスとする。第7図,第8図がソース側とデイステイ
ネーシヨン側とのアドレスの対応を示している。正方格
子がデイステイネーシヨン側のアドレス格子を示してお
り、正方形の中心が整数アドレスである。平行四辺形の
格子がソース側のアドレス格子を示しており、平行四辺
形の中心が整数アドスである。第7図のl,mで与えられ
る長方形がxD,yDを中心とする領域であり、A,Bが出力さ
れるべき入デイステイネーシヨンアドレスである。第8
図に示すようにaが、Aの出力として決定される。ここ
で、第5図で示す回路は、l×mの面積中に入る最大の
出力格子数分だけ存在し、各々並列に動作する。また、
入力側に第9図に示すように4本の走査線バツフアをも
ち、1本のバツフアにデータを入力中に、他の3本のバ
ツフアに入力済のデータをもって前記処理を行なう。デ
ータは前述の符号化されたデータが走査データとして入
力され、データの順に入力のアテドレスが定まってい
る。かくして、入出力のアドレスの対応づけを行ない、
アフイン変換を実現する。
The thus obtained X S , Y S are generally irrational numbers like x D , y D , and are represented by decimal numbers in actual machines. The value obtained by rounding off this value is used as the input side address of the data to be output. 7 and 8 show the correspondence between addresses on the source side and the destination side. The square grid shows the address grid on the dayside side, and the center of the square is an integer address. The parallelogram grid shows the source side address grid, and the center of the parallelogram is an integer address. The rectangle given by l, m in FIG. 7 is the area centering on x D , y D , and A, B are the input destination addresses to be output. 8th
As shown in the figure, a is determined as the output of A. Here, the circuit shown in FIG. 5 exists for the maximum number of output grids included in the area of 1 × m, and operates in parallel. Also,
As shown in FIG. 9, the input side has four scanning line buffers, and while the data is being input to one buffer, the above processing is performed with the already input data to the other three buffers. As the data, the encoded data described above is input as scanning data, and the attended input is determined in the order of the data. Thus, the input / output addresses are associated,
Affine conversion is realized.

本実施例に於けるアフイン変換アルゴリムは前述の如く
ソース側のラスターデータ(今の場合、フアイルからの
読出し、リーダからの読出し、イメージメモリからの読
出しがある)を入力し、デイストネーシヨンメモリ(今
の場合、イメージメモリ)へランダム・アクセスで記憶
されていく。従ってアフイン変換ハードウエアがパイプ
ライン化されている為順次入力データに対して、順次出
力を得て、フアイルからメージメモリへのデータ転送の
過程にて実行され、極めて高速な変換を行う事が出来
る。ここで画像データは前述の圧縮データを言い、アド
レスポイントは圧縮データでのアドレス空間での座標を
言う。
As described above, the affine-converted algorithm in this embodiment inputs the raster data on the source side (in this case, there are reading from the file, reading from the reader, and reading from the image memory), and the destination memory. (In the present case, image memory) is stored by random access. Therefore, since the affine conversion hardware is pipelined, sequential input data is sequentially output and executed in the process of data transfer from the file to the image memory, which enables extremely high-speed conversion. . Here, the image data means the above-mentioned compressed data, and the address point means the coordinates in the address space of the compressed data.

符合化されたデータのアフイン変換後のアドレスが決定
されると、次にブロツク内の画像データの配置交換を実
行する。
When the address after the Affine conversion of the encoded data is determined, the arrangement and exchange of the image data in the block is executed next.

以下実施例を2×2のブロツクで説明する。The embodiment will be described below with a 2 × 2 block.

第10図(a)は原画となる4ブロツク(A,B,C,D)内の
データを示している。このブロツクに対し、90゜,180
゜,270゜のブロツクごとの回転を前述した回転処理によ
りアドレスを発生させ、デイステイネーシヨンメモリに
記録させ、これを再生すると、同図(b),(c),
(d)のようになる。同図から明らかなように原画を忠
実に再現していない。そこで回転角に応じてブロツクの
内部の画素を回転させる方式をとる。同図(e),
(f),(g)にはブロツク内の画素を90゜,180゜,270
゜回転させた例であり、原画への忠実性を増すことがで
きる。この回転操作は第2図(b)のコードを用いて、
2bitの回転コードの書き変えを行いパターンコードはい
じらずに実施できる。
FIG. 10 (a) shows the data in 4 blocks (A, B, C, D) which are original images. For this block, 90 °, 180
The rotation of each block of 270 ° and 270 ° is generated by the rotation process described above, and the address is recorded in the destination memory, and when this is reproduced, the same figure (b), (c),
It becomes like (d). As is clear from the figure, the original image is not faithfully reproduced. Therefore, a method of rotating the pixels inside the block according to the rotation angle is adopted. The same figure (e),
Pixels in the block are 90 °, 180 °, 270 in (f) and (g).
This is an example in which the image is rotated by °, and the fidelity to the original image can be increased. This rotation operation uses the code in FIG. 2 (b),
The 2-bit rotation code can be rewritten and the pattern code can be implemented without tampering.

任意角度の回転に関しては、90゜単位にブロツク内回転
角を分けて対応する。第7図は回転角を315゜〜45゜,45
゜〜135゜,135゜〜225゜,225゜〜315゜の4つの領域に
分け、ブロツク内回転を0゜,90゜,180゜,270゜に割り
あてた例を示している。
For rotation at an arbitrary angle, the rotation angle in the block is divided into 90 ° units. Figure 7 shows the rotation angle of 315 ° to 45 °, 45
An example is shown in which the rotation in the block is divided into 0 °, 90 °, 180 ° and 270 ° by dividing into four regions of ° to 135 °, 135 ° to 225 °, 225 ° to 315 °.

第12図は、第2図(a)に示したブロツク符号化のデー
タフオーマツトをブロツク内回転角により入れ換えて再
フオーマツトした実施例である。(a)0゜(b)90゜
(c)180゜(d)270゜を示す。,σに関しては回転
による変更はされず、後に続く濃淡データの順序が変更
される。(a)0゜のデータフオーマツトがABCDの時に
(b)90゜はBDAC、(c)180゜はDCBA、(d)270゜は
CADBとなる。
FIG. 12 shows an embodiment in which the block-encoded data format shown in FIG. 2 (a) is replaced by the rotation angle in the block and re-formatted. (A) 0 ° (b) 90 ° (c) 180 ° (d) 270 ° , Σ is not changed by rotation, and the order of the grayscale data that follows is changed. (A) When the 0 ° data format is ABCD, (b) 90 ° is BDAC, (c) 180 ° is DCBA, and (d) 270 ° is
It becomes CADB.

第13図は、ブロツク内データフオーマツト変換回路の実
施例である。入力信号は、,σをバツフア80に、残り
の4つの濃淡データをバツフア81,82,83,84に別々に保
持される。セレクト85,86,87,89には図示しない制御器
より回転角に応じたセレクタ信号が送られる。例えばブ
ロツク内回転角0゜,90゜,180゜,270゜をそれぞれ0,1,
2,3に対応させると2bitのセレクト信号になる。バツフ
ア81,82,83,84の出力をA,B,C,Dとし、セレクタ85,86,8
7,88の入力端子X,Y,Z,Wにそれぞれ対応が異なるように
接続する。セレクト信号が1つの場合入力端子のYがそ
れぞれのセレクタの出力端子により出力されるとする
と、バツフア85,86,87,88よりそれぞれB,D,A,Cが出力さ
れることになる。この出力値をバツフア90において,
σとともに再連結すると、第12図に示したようなデータ
フオーマツトが完成し、バツフア90の出力信号として出
力される。
FIG. 13 shows an embodiment of the data format conversion circuit in the block. As for the input signals, .sigma. Is held in the buffer 80, and the remaining four grayscale data are held in the buffers 81, 82, 83, 84 separately. A selector signal corresponding to the rotation angle is sent to the selects 85, 86, 87, 89 from a controller (not shown). For example, the rotation angles 0 °, 90 °, 180 °, 270 ° in the block are 0, 1,
If it corresponds to 2 and 3, it becomes a 2-bit select signal. The outputs of buffers 81, 82, 83, 84 are A, B, C, D, selectors 85, 86, 8
Connect to input terminals X, Y, Z, and W of 7,88 so that they correspond to each other. If there is only one select signal and the input terminal Y is output from the output terminals of the respective selectors, B, D, A and C will be output from the buffers 85, 86, 87 and 88, respectively. This output value at buffer 90
When reconnected with σ, the data format as shown in FIG. 12 is completed and output as the output signal of the buffer 90.

以上が符号化データのブロツク回転およびブロツク内回
転の実施例である。即ち本発明に於ては回転を伴うAFFI
NE変換を行う時、m×mの圧縮データを−データとして
回転オペレーシヨンを行う事、及びm×mの圧縮データ
内での回転オペレーシヨンを行う事の組合せで実行され
る。これは多少の画質劣化を伴うため、それを最小限に
くい止めるため 輝度信号(Y)に対しては小さいマトリツクス(mO
×mO)でブロツク符号化又はベクトル量子化を行う。
The above is the embodiment of the block rotation and the intra-block rotation of the encoded data. That is, in the present invention, the AFFI with rotation
When NE conversion is performed, it is performed by a combination of performing rotation operation using m × m compressed data as −data and performing rotation operation within m × m compressed data. This is accompanied by some deterioration in image quality, so in order to prevent it to a minimum, a small matrix (m O
Block encoding or vector quantization is performed with × m O ).

色差信号(I,Q)に対しては、比較的人間の目には高
分解性を必要としないため大きいマトリツクス(m1×m
1:m1>mO)でブロツク符号化又はベクトル量子化あるい
は直接平均データでもつ。
For color-difference signals (I, Q), a relatively large matrix (m1 × m
1: m1> m O ) and has block coding, vector quantization, or direct average data.

以上2点に注意する必要がある。It is necessary to pay attention to the above two points.

次に、CRTコントローラ9について説明する。Next, the CRT controller 9 will be described.

第14図はCRTコントローラ9の機能を示した図で、5は
圧縮されたイメージメモリ、9はCRTコントローラ、10
はカラーCRT、8はCPU、356はCPUからセットされるパラ
メータレジスタである。本発明ではメモリアドレスX,Y
の2次元として扱っているが、このアドレスを一次元の
アドレスに変換して用いることも可能である。第14図の
CRTコントローラの機能は、メモリ5の任意の始アドレ
ス(x0,y0)を持つ任意大きさ(xw,yw)の矩形領域をた
てTDドツト、よこXDドツトの解造度のCRTに表示出力す
ることである。任意の値x0,y0,xw,ywには範囲のみなら
ず、2や4の倍数でなければならないという制約はつき
得る。第15図はこのCRTコントローラを実施例で、101,1
02,103,104はパラメータレジスタ、105,106は加算器、1
07,108はセレクタ、109,110はアドレスラツチまたはレ
ジスタである。112はCRT同期回路で121は水平同期信
号、122は垂直同期信号、123は画素クロツクである。11
1はデータラツチ、128はメモリから読みだされたカラー
信号、124はCRTへのカラー信号で、125は水平アドレス
(X)、126は垂直アドレス(Y)である。CRT同期回路
112により垂直同期信号122が発生され、さらに水平同期
信号121、画素クロツク123が発生される。121によって
Yアドレスラツチ110にとり込まれるアドレスは122がON
の間、108によっては始値y0102が選択されているので、
y0となる。また、123によってXアドレスラツチ109にと
り込まれるアドレスは121がONの間107によっては始値x0
101が選択されているのでx0となる。その他の場合Xア
ドレスラツチ109は1クロツク(=1ドツト)にxw/XD
け増加し、メモリアドレスは更新され、x方向のスキヤ
ンがなされることになる。水平同期信号121がONにな
り、画素クロツクがONになるとXアドレスラツチ109はx
0にリセツトされる。またYアドレスラツチ110は1水平
同期毎にyw/YDだけ増加し、メモリアドレスは更新さ
れ、y方向のスキヤンがなさることになる。
FIG. 14 is a diagram showing the function of the CRT controller 9, 5 is a compressed image memory, 9 is a CRT controller, and 10
Is a color CRT, 8 is a CPU, and 356 is a parameter register set by the CPU. In the present invention, the memory address X, Y
However, this address can be converted into a one-dimensional address for use. Figure 14
The function of the CRT controller is to create a rectangular area of arbitrary size (xw, yw) having an arbitrary start address (x 0 , y 0 ) in the memory 5 and a CRT with a degree of resolution of T D dot and horizontal X D dot. It is to display and output to. Any value x 0 , y 0 , xw, yw can be restricted not only to the range but also to a multiple of 2 or 4. FIG. 15 shows an example of this CRT controller.
02, 103, 104 are parameter registers, 105, 106 are adders, 1
07 and 108 are selectors, and 109 and 110 are address latches or registers. 112 is a CRT synchronizing circuit, 121 is a horizontal synchronizing signal, 122 is a vertical synchronizing signal, and 123 is a pixel clock. 11
1 is a data latch, 128 is a color signal read from the memory, 124 is a color signal to the CRT, 125 is a horizontal address (X), and 126 is a vertical address (Y). CRT synchronization circuit
A vertical synchronizing signal 122 is generated by 112, and a horizontal synchronizing signal 121 and a pixel clock 123 are further generated. 122 is ON for the address taken in by the Y address latch 110 by 121.
During, the opening price y 0 102 is selected depending on 108, so
It becomes y 0 . Further, the address taken into the X address latch 109 by 123 is the open value x 0 depending on 107 while 121 is ON.
Since 101 is selected, it becomes x 0 . In other cases, the X address latch 109 is increased by 1 clock (= 1 dot) by xw / X D , the memory address is updated, and scanning in the x direction is performed. When the horizontal synchronizing signal 121 is turned ON and the pixel clock is turned ON, the X address latch 109 is x
Reset to 0 . Further, the Y address latch 110 is increased by yw / Y D for each horizontal synchronization, the memory address is updated, and scanning in the y direction is performed.

第12図はCRT上で矩形合成をすることが可能なCRTコント
ローラの機能を示した図である。CRT10に表示されてい
る矩形画像130,131はメモリ5上に領域132,133として保
持されている画像である。今は画像131の上に画像130が
重なっており、画像130がのっている部分の画像131は表
示されていない。これは第15図に示した構成を拡張して
いることができる。第17図にの構成例を示す。第17図に
おいて、134,135,136,137は領域内アドレス生成モジユ
ールで内部の構成はすべて等しい。134は最高の優先順
位を持つ領域の水平アドレス生成モジユール、135は同
じく垂直アドレス生成モジユール、136は第2の優先順
位を持つ領域の水平アドレス生成モジユール、137は同
じく垂直アドレス生成モジユールである。148は水平デ
イスプレイアドレスカウンタ、149は垂直デイスプレイ
アドレスカウンタであり各々水平デイスプレイアドレス
150,垂直デイスプレイアドレス151を出力する。次にア
ドレス生成モジユールについて説明する。134内部で138
は表示開始デイスプレイアドレスを保持するレジスタ、
139は表示終了デイスプレイアドレスを保持するレジス
タ、152,140は比較器で、141の論理回路により信号150
がレジスタ138とレジスタ139の領域に含まれているか否
かを判断する。領域に含まれていれば、このアドレス生
成モジユールがメモリアドレスを出力する権利を持つ。
ただし、それは、X,Yの両方共に成立した時であり、こ
のモジユール134,135によるアドレス出力が可能となる
のは信号153,154が共に真となった時であり、論理回路1
59により出力許可信号155が生成され、出力バツフア147
がイネーブルになりメモリ水平アドレスバス125にアド
レスレジスタ146の内容が出力される。同様にモジユー
ル135からメモリ垂直アドレスバス126にアドレスが出力
される。モジユール134,135のどちらかの領域内信号す
なわち153または154が偽となると、論理回路159の出力
も偽となり、モジュール134,135の出力はデイスエーブ
ルとなる。この時、第2の優先順位を持つモジュール13
6,137の領域内信号すなわち156,157が真であれば、論理
回路160の出力が真となり、モジユール136,137のアドレ
ス出力がメモリアドレスバス125,126に出力される。論
理回路160の出力が為となると第3の優先順位を持つモ
ジユールがテストされ、以下、次々に下位の優先順位を
持つものへとアドレス出力権が移行することになる。勿
論、自分より上位の優先順位を持つモジユールがアドレ
ス出力権を獲得した時は、その上位のモジユールがアド
レス出力をすることになる。一方、出力するアドレスに
ついて説明する。モジユール134内においてレジスタ143
は読み出し開始メモリアドレスを保持するレジスタ、14
2はアドレス増分値を保持するレジスタであり、145は15
3が偽である間、アドレスレジスタ146にレジスタ143の
出力が入力されるように構成されたセレクタ、144はレ
ジスタ146に増分レジスタ142の内容を加えていく加算器
である。信号153が真になるとレジスタ146はレジスタ14
2の内容だけクロツク毎に増加する。以上のように、第1
7図の構成で第16図に示したCRT画面上での矩形合成をす
ることができる。
FIG. 12 is a diagram showing the function of a CRT controller capable of performing rectangle synthesis on a CRT. The rectangular images 130 and 131 displayed on the CRT 10 are images held as areas 132 and 133 on the memory 5. Now, the image 130 is overlaid on the image 131, and the part of the image 131 on which the image 130 is placed is not displayed. This can be an extension of the configuration shown in FIG. FIG. 17 shows a configuration example. In FIG. 17, reference numerals 134, 135, 136 and 137 are in-region address generation modules, all of which have the same internal structure. Reference numeral 134 is a horizontal address generation module for the area having the highest priority, 135 is also a vertical address generation module, 136 is a horizontal address generation module for the area having the second priority, and 137 is also a vertical address generation module. Reference numeral 148 is a horizontal display address counter, 149 is a vertical display address counter, each of which is a horizontal display address.
Outputs 150 and vertical display address 151. Next, the address generation module will be described. 134 Inside 138
Is a register that holds the display start display address,
139 is a register for holding the display end display address, 152 and 140 are comparators, and a signal 150 is given by the logic circuit of 141.
Is included in the areas of the registers 138 and 139. If included in the area, this address generation module has the right to output the memory address.
However, it is when both X and Y are established, and the address output by these modules 134 and 135 becomes possible when both the signals 153 and 154 become true, and the logic circuit 1
The output enable signal 155 is generated by 59, and the output buffer 147
Are enabled and the contents of the address register 146 are output to the memory horizontal address bus 125. Similarly, the address is output from the module 135 to the memory vertical address bus 126. If the signal in one of the modules 134, 135, ie 153 or 154, goes false, the output of the logic circuit 159 will also go false and the outputs of the modules 134, 135 will be disabled. At this time, module 13 with the second priority
If the in-region signals of 6,137, that is, 156,157 are true, the output of the logic circuit 160 becomes true, and the address output of the modules 136,137 is output to the memory address buses 125,126. When the output of the logic circuit 160 is invalid, the module having the third priority is tested, and thereafter, the address output right is shifted to the one having the lower priority. Of course, when a module having a higher priority than itself acquires the address output right, the higher module will output the address. On the other hand, the output address will be described. Register 143 in module 134
Is a register holding the read start memory address, 14
2 is a register that holds the address increment value, and 145 is 15
A selector configured to input the output of the register 143 to the address register 146 while 3 is false, and 144 is an adder for adding the contents of the increment register 142 to the register 146. When signal 153 goes true, register 146 will register 14
Only the contents of 2 increase with each clock. As mentioned above, the first
With the configuration shown in FIG. 7, rectangular composition can be performed on the CRT screen shown in FIG.

第18図は、CRTコントローラの機能を示した図で任意の
自由形状の画像をCRT上で合成出力することを可能にし
たものである。第18図において、306はマスク形状記録
であり、第18図の例の場合、画像領域133に対応してマ
スク領域162が、画像領域132に対応してマスク領域161
が定義され、マスク領域161にはハート形のマスクが書
き込まれている。この時、第18図10のCRTに示すように
画像領域132がハート形に切りぬかれて画像領域133の上
に重畳されて表示される。このような処理を行うCRTコ
ントローラ9は、画像メモリ5の読み出しに先立ってマ
スク形状記憶306を先読みすることによって実現する。
たとえば本実施例では垂直アドレス方向に1だけ先のラ
インを読み出し、マスクの制御を行う。第18図のCRT10
で垂直アドレスyに表示すべきラスタ画像データが領域
133では先頭よりy0,領域132では先頭よりy1だけ進んだ
ラスタであるときマスタ形状記憶306上でのマスク領域1
62はラインy0+1を、領域161はラインy1+1をそれぞ
れ読み出して、次のCRT10の垂直アドレスy+1にそな
えることを可能にしている。第19図はCRTコトローラの
実施例である。第19図は、第17図の1対の水平・垂直モ
ジユールに対応している。第19図において、161,162,16
7,168はデイスプレイアドレスを保持するレジスタで先
の実施例と同様、このレジスタの指定するデイスプレイ
上の矩形の領域が、このモジユールのよって制御され
る。173は2ラスク分のマスクを保持できる2ラインマ
スクデータバツフアであり、本実施例の特徴となるもの
である。1垂直アドレス分だけ先読みされたマスクデー
タはカウンタ174によりアドレスされ、論理回路176に入
力される。論理回路176は図示しないカウンタによって
生成されたデイスプレイ上のアドレスXD,YDが当モジユ
ールが扱うべき矩形領域内に含まれており、かつマスク
データがONであることによって真の出力を行う。この信
号は論理回路177に入力され、当モジユールよりも優先
度の高いモジユールからの信号PRIORが真であるとき、
メモリアドレスXDAT,YDATを出力するようにデータアド
レスバツフア179,178を駆動する。マスクデータMSKDTは
表示すべきデータの転送中もマスクデータバツフア173
に読み込みを続けている。用いられるマスクデータはマ
スク形状記憶306から読み込まれるが表示データアドレ
スより先行して読み出す必要があるので、データアドレ
スレジスタ166,172より1タイミング先行したアドレス
を保持するマスクアドレスレジスタ165,171から出力さ
れる。このとき、モジユールの個数が複数個であるとき
はマスク読み込みが異なったモジユールから同時になさ
れる場合があり得るがENMSK信号により時分割してマス
クアドレスバスの使用許可を与えて衝突を防いでいる。
以上のように本実施例によれば、任意形状の画像を高
速、高精細にデイスプレイ上で重畳表示することが可能
である。本実施例によるCRTコントローラ画像データそ
のものは書き換えをせずに重畳ができるので、持ち時間
もなく処理が可能であることが特徴である。
FIG. 18 is a diagram showing the function of the CRT controller, which makes it possible to synthesize and output an arbitrary free-form image on the CRT. In FIG. 18, reference numeral 306 denotes a mask shape record. In the example of FIG. 18, a mask area 162 corresponds to the image area 133 and a mask area 161 corresponds to the image area 132.
Is defined, and a heart-shaped mask is written in the mask area 161. At this time, as shown in the CRT of FIG. 18, the image area 132 is cut out in a heart shape and is superimposed and displayed on the image area 133. The CRT controller 9 that performs such processing is realized by pre-reading the mask shape memory 306 prior to reading the image memory 5.
For example, in this embodiment, the line preceding by 1 in the vertical address direction is read and the mask is controlled. CRT10 in Figure 18
Area of raster image data to be displayed at vertical address y
In the case of 133, the raster is y 0 from the beginning and the region 132 is y 1 from the beginning. Mask area 1 on master shape memory 306
The line 62 reads the line y 0 +1 and the region 161 reads the line y 1 +1 and makes it possible to read the line y 0 +1 and provide it to the vertical address y + 1 of the next CRT 10. FIG. 19 shows an example of a CRT controller. FIG. 19 corresponds to the pair of horizontal and vertical modules shown in FIG. In Fig. 19, 161, 162, 16
Reference numeral 7,168 is a register for holding a display address, and similarly to the previous embodiment, the rectangular area on the display designated by this register is controlled by this module. Numeral 173 is a two-line mask data buffer capable of holding a mask for two rasks, which is a feature of this embodiment. The mask data preread by one vertical address is addressed by the counter 174 and input to the logic circuit 176. The logic circuit 176 outputs true when the addresses X D and Y D on the display generated by a counter (not shown) are included in the rectangular area to be handled by this module and the mask data is ON. This signal is input to the logic circuit 177, and when the signal PRIOR from the module having a higher priority than this module is true,
The data address buffers 179 and 178 are driven so as to output the memory addresses X DAT and Y DAT . The mask data MSKDT remains in the mask data buffer 173 even while the data to be displayed is being transferred.
Continues to read. The mask data to be used is read from the mask shape memory 306, but it is necessary to read it prior to the display data address, so that it is output from the mask address registers 165 and 171 which hold the address one timing ahead of the data address registers 166 and 172. At this time, when the number of modules is plural, mask reading may be performed simultaneously from different modules, but the ENMSK signal is time-divided to give permission to use the mask address bus to prevent collision.
As described above, according to this embodiment, it is possible to superimpose and display an image of an arbitrary shape on a display at high speed and with high precision. Since the CRT controller image data itself according to the present embodiment can be superimposed without rewriting, it is characterized in that it can be processed without holding time.

次に画像編集の機能及び操作について述べる。Next, the function and operation of image editing will be described.

第一表は本装置に於ける各種画像編集機能を示す。Table 1 shows various image editing functions of this device.

第20図は編集操作の概略のフローである。今複数枚の画
像を編集合成する事を想定する。画像入力処理200はま
ずこの複数枚の画像を読み取り画像フアイル用のメモリ
ーへしまう操作及び処理を意味する。この時、フアイル
容量を少くするため前述の圧縮データを用いる。その後
部品処理を行うか、レイアウト処理を行うかを204に於
て選択する。部品処理201とは1枚の画像の内の修正・
変換等の処理を行う もので第一表のAの項目が概当する。レイアウト処理20
2は出来上った部品としての複数の画像データのレイア
ウトを決める処理で画像の回転、変倍、移動等の処理を
行うアフイン変換と、合成処理を行う。第一表のBの項
目に相当する。
FIG. 20 is a schematic flow of editing operation. Now assume that multiple images are edited and combined. The image input process 200 means an operation and a process of first reading the plurality of images and storing them in a memory for image files. At this time, the above-mentioned compressed data is used to reduce the file capacity. Then, at 204, it is selected whether to perform the component processing or the layout processing. What is the component processing 201?
Perform processing such as conversion In this case, item A in Table 1 is roughly applicable. Layout process 20
2 is a process of deciding the layout of a plurality of image data as finished parts, and performs affine transformation for performing processes such as image rotation, scaling, and movement, and composition processing. Corresponds to item B in Table 1.

ここで部品処理は画像データを直接変換する事が必要で
あるが、レイアウト処理はレイアウトパラメータ情報
(例えば変倍率、回転角移動後の位置等)を記憶してお
くだけでよい。従ってレイアウト処理は画像データを間
引いてデイスプレイへ表示してパラメータを抽出すれば
よい。
Here, the component processing needs to directly convert the image data, but the layout processing only needs to store the layout parameter information (for example, the scaling factor, the position after the rotation angle movement, etc.). Therefore, the layout process may be performed by thinning out the image data, displaying the image data on the display, and extracting the parameters.

かかる処理が終了した段階で、次に実画像データ203を
行う。これは出来上った部品データをレイアウト・パラ
メータの下でイメージ・メモリ上へ合成編集していく。
かかる処理が終了後イメージ・メモリのデータをプリン
ターへ転送しプリンター出力206を行う。
At the stage where this processing is completed, the actual image data 203 is next performed. This is to compose and edit the completed part data on the image memory under the layout parameters.
After this processing is completed, the data in the image memory is transferred to the printer and the printer output 206 is performed.

第21図は画像入力処理200を詳しく説明したもので、ま
ず、リーダで原稿読み取り207を行い、データを前述の
圧縮器で圧縮した後(208)、フアイルとしては例えば
ハード・デイスク等へ登録する。この操作を原稿がある
間繰り返し、読みとる原稿が無くなると終了する(21
0)。
FIG. 21 shows the image input process 200 in detail. First, the document is read by the reader 207, the data is compressed by the above-mentioned compressor (208), and then the file is registered on, for example, a hard disk. . This operation is repeated as long as there are originals, and it ends when there are no more originals to read
0).

第22図は部品処理の内容を示したもので、まず何を行う
か処理項目の選択211を行う。先ず色修正212は画像デー
タをフアイル(File)からイメージ・メモリへ転送し
(イメージメモリがデイスプレイのビデオ・メモリを兼
ねているので即時にデイスプレイに出力される。)、デ
イスプレイを見つつ色修正を行う。かかる操作はイメー
ジ・メモリ内の画像データは変更せずデイスプレイ(CR
T)への出力へのLook up Table(LUT)の変更にて行わ
れる(216)。これでよいと思う画像になった時にLUTを
記憶するもの(220)。
FIG. 22 shows the contents of the component processing. First, a processing item selection 211 is performed to determine what to do. First, the color correction 212 transfers the image data from the file (File) to the image memory (since the image memory doubles as the video memory of the display, it is immediately output to the display.), And the color correction is performed while watching the display. To do. This operation does not change the image data in the image memory and
This is done by changing the Look up Table (LUT) to output to (T) (216). The one that stores the LUT when an image that you think is good with this (220).

輪郭修正213は、同様にCRTへ出力するケーブル上に空間
フイルター演算器を置き実画像データはいじらない。そ
して空間フイルターの情報(例えば周知のラプラシアン
のカーネル又は係数)等を記録する(221)。次に切抜
きマスク214はイメージメモリと並列に置かれたIbit pl
aneのマスクメモリの書換えを行う。これは画像の領域
を決めるもので、実画像データはいじらない(218)。
その他の処理は実データ修正215と呼ばれる処理を行
う。これはイメージ・メモリ上に書かれた実画像データ
をCPUから直接アクセスして書き変えるもので、実画像
データに画像データを書き込んだり消したり、コピーし
たりする。以上の処理が終了したら実データ及びマスク
・データをフアイルとしてハード・デイスク登録222す
る。
In the contour correction 213, a space filter arithmetic unit is placed on the cable which is also output to the CRT, and the actual image data is not touched. Then, information on the spatial filter (for example, a well-known Laplacian kernel or coefficient) and the like are recorded (221). The cutout mask 214 is then placed on the Ibit pl in parallel with the image memory.
Rewrite the mask memory of ane. This determines the area of the image and does not touch the actual image data (218).
The other processing is processing called actual data correction 215. This is to directly rewrite the real image data written in the image memory from the CPU and rewrite it. The image data is written, erased, or copied to the real image data. When the above processing is completed, the actual data and the mask data are registered as a hard disk 222 as a file.

第23図はレイアウト処理について記したものである。FIG. 23 shows the layout process.

まずフアイルから画像データをイメージ・メモリーへ書
込む(223)。この時、前述の如く間引きデータでよく
複数枚の画像データがイメージメモリ内へとりこまれ
る。かかる複数枚の画像データをCRTコントローラより
合成変倍(225)してデイスプレイ上に出力される。こ
の時画像の回転はイメージメモリー上の別の領域へアフ
イン変換器4によりラスターオペレーシヨン(ROP)で
書き変えられる(224)一方変倍はCRTコントローラでは
整数変倍しか出来ないため、同様アフイン変換器4によ
り任意変倍を行う。出力画像領域を制限するマスクメモ
リのデータ作成226を次に行う。以上の操作が各画像に
対して行われ、レイアウトパラメータが抽出される(22
7)。
First, write the image data from the file to the image memory (223). At this time, the thinned-out data is sufficient as described above, and a plurality of pieces of image data are taken into the image memory. The image data of a plurality of such images are combined and scaled (225) by the CRT controller and output on the display. At this time, the image rotation can be rewritten to another area on the image memory by the raster operation (ROP) by the affine converter 4 (224). On the other hand, the scaling can be performed only by the integer scaling with the CRT controller. Arbitrary scaling is performed by the device 4. Next, data creation 226 of the mask memory for limiting the output image area is performed. The above operation is performed for each image to extract layout parameters (22
7).

第24図は以上の部品データ及びレイアウトパラメタに基
づいて最終画像データを形成する。このプロセスは全く
無人化が可能である。まず下に重ねられる画像部品デー
タから先に処理されていく。1枚目の画像のレイアウト
パラメター及びマスタデーターがパイプライン用AFFINE
変換用のレジスタ、LUT及びマスクメモリ(これはイメ
ージメモリと並列に置かれた1bitメモリ)等へセツトさ
れる。次にフアイルからのデータがこれらパイプライン
・プロセサを経てイメージ・メモリへ転送される。その
結果ラスター・オペレーシヨン(ROP)により処理され
る。
FIG. 24 forms final image data based on the above component data and layout parameters. This process can be completely unmanned. First, the image component data overlaid below is processed first. Layout parameter and master data of the first image is AFFINE for pipeline
It is set to a register for conversion, a LUT and a mask memory (this is a 1-bit memory placed in parallel with the image memory). The data from the file is then transferred to the image memory via these pipeline processors. As a result, it is processed by Raster Operation (ROP).

かかる処理が部品データの数の分だけ(ηmaxだけ)く
り返されイメージメモリ上へオーバライトされる(230,
231)。
This processing is repeated for the number of component data (ηmax) and overwritten on the image memory (230,
231).

次にプリンターへの出力について述べる。Next, the output to the printer will be described.

編集結果の画像データはイメージメモリ上に作られ、プ
リンター側へ転送される。プリンターの出力方式、例え
ば面順次・線順次・点順次かによりイメージメモリから
の送出状態が異る。かかる変換は第1図の変換器12で行
われる。それに先立ち、圧縮データを通常の画素データ
へ復号器6で復号しておく。
The image data of the edited result is created in the image memory and transferred to the printer side. The output state from the image memory differs depending on the printer output method, for example, frame sequential, line sequential, or dot sequential. Such conversion is performed by the converter 12 shown in FIG. Prior to that, the compressed data is decoded into normal pixel data by the decoder 6.

プリンター7は通常1台が接続される。しかし複数台の
プリンターを接続することにより、より高速の出力が可
能となり、特に大量の出力を必要とする出版、印刷分野
での有要である。本イメージ・メモリへの画像データの
記憶形態は、濃度データを圧縮し、再び濃度データへ戻
す方式であるため、複数台のプリンターへつないだ時生
じる色相のズレ(これは個々のプリンター出来具合によ
り異る)を各々、ある濃度データから別のある濃度デー
タへ移すLook Up Table(LUT)により変換・補正が出来
る。
Normally, one printer 7 is connected. However, connecting multiple printers enables higher-speed output, which is particularly important in the publishing and printing fields that require a large amount of output. The image data is stored in this image memory in a format that compresses the density data and restores it to the density data again.Therefore, the hue shift that occurs when connecting to multiple printers (this may depend on the individual printer Different) can be converted / corrected by a Look Up Table (LUT) that moves from one density data to another density data.

(これは通常イメージ・メモリが2値化された後の状態
で記憶する方式であれば困難である。)かかるLUTによ
る個別プリンターへの調整機構は変換器12に含まれる。
(This is usually difficult if the system stores the image memory after it has been binarized.) The adjusting mechanism for the individual printer by the LUT is included in the converter 12.

カラープリンタ7に於てはかかる補正された画像データ
をもとに通常の方法、例えばデイザ法等により画像出力
される。
The color printer 7 outputs an image based on the corrected image data by a normal method such as a dither method.

[発明の効果] 以上のように、本発明によれば、符号化された画像デー
タによって表される複数の画像を合成する際に、効率よ
く編集処理パラメータを抽出できるとともに、合成画素
高速表示が可能な画像編集処理装置を提供することがで
きる。
[Effects of the Invention] As described above, according to the present invention, when a plurality of images represented by coded image data are combined, edit processing parameters can be efficiently extracted, and high-speed display of combined pixels can be performed. It is possible to provide a possible image editing processing device.

【図面の簡単な説明】[Brief description of drawings]

第1図は本実施例のカラー編集処理装置の全体ブロツク
図、第2図は符号化データのデータ形式を示す図、第3
図はアフイン変換器のアドレス生成部のブロツク図、第
4図はアドレス生成部のタイミングチヤートを示す図、
第5図はアドレス生成部のブロツク図、第6図はアドレ
ス生成部のタイミングチヤート図、第7図,第8図は原
画像と処理画像のアドレス対応を示した図、第9図はア
フイン変換用ラインバツフアのブロツク図、第10図はブ
ロツク回転とブロツク内回転の概念図、第11図はブロツ
ク内回転を示した図、第12図は回転によって符号が受け
る処理を示した図、第13図は回転のブロツク図、第14
図,第16図,第18図はCRTコントローラの概念図、第15
図,第17図,第19図はCRTコントローラのブロツク図、
第20図,第21図,第22図,第23図,第24図は編集処理手
順を示したフローチヤート図である。
FIG. 1 is an overall block diagram of the color edit processing apparatus of this embodiment, FIG. 2 is a diagram showing the data format of encoded data, and FIG.
Fig. 4 is a block diagram of the address generator of the affine converter. Fig. 4 is a timing chart of the address generator.
FIG. 5 is a block diagram of the address generation unit, FIG. 6 is a timing chart of the address generation unit, FIGS. 7 and 8 are diagrams showing address correspondence between the original image and the processed image, and FIG. 9 is an affine conversion. Block diagram of the line buffer for use, Fig. 10 is a conceptual diagram of block rotation and rotation inside the block, Fig. 11 is a diagram showing rotation inside the block, Fig. 12 is a diagram showing processing that the code receives by rotation, Fig. 13 Is the block diagram of rotation, 14th
Figures 16, 16 and 18 are conceptual diagrams of the CRT controller, 15
Figures 17, 17 and 19 are block diagrams of the CRT controller,
20, FIG. 21, FIG. 22, FIG. 23, and FIG. 24 are flow charts showing the editing processing procedure.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】第1の解像度の画像データを符号化するこ
とによって得られる符号データを複数画像分記憶する記
憶手段と、 前記記憶手段に記憶された符号データを復号化する復号
化手段と、 前記復号化手段により復号化された第1の解像度の画像
データを、前記第1の解像度よりも低い第2の解像度の
画像データに変換する変換手段と、 前記変換手段により変換された複数の画像に対応する前
記第2の解像度の画像データに対して編集処理を施し、
該複数の画像の合成画像に対応する前記第2の解像度の
画像データを得る第1の編集処理手段と、 前記第1の編集処理手段により得られた前記第2の解像
度の画像データに基づき、前記複数の画像の合成画像を
表示する表示手段と、 前記復号化手段により復号化された複数の画像に対応す
る前記第1の解像度の画像データに対して、前記表示手
段により表示された合成画像を得るために前記第1の編
集処理手段により用いられた編集パラメータに従って編
集処理を施し、該複数の画像の合成画像に対応する前記
第1の解像度の画像データを得る第2の編集処理手段と
を有することを特徴とする画像編集処理装置。
1. A storage unit for storing a plurality of images of code data obtained by encoding image data of a first resolution, and a decoding unit for decoding the code data stored in the storage unit. Conversion means for converting the image data of the first resolution decoded by the decoding means into image data of a second resolution lower than the first resolution, and a plurality of images converted by the conversion means Edit processing is performed on the image data of the second resolution corresponding to
A first edit processing means for obtaining image data of the second resolution corresponding to the composite image of the plurality of images; and based on the image data of the second resolution obtained by the first edit processing means, Display means for displaying a composite image of the plurality of images, and a composite image displayed by the display means for the image data of the first resolution corresponding to the plurality of images decoded by the decoding means Second edit processing means for performing edit processing according to the edit parameter used by the first edit processing means to obtain the image data of the first resolution corresponding to the composite image of the plurality of images. An image edit processing device comprising:
JP28163185A 1985-12-13 1985-12-13 Image editing processor Expired - Fee Related JPH0679322B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP28163185A JPH0679322B2 (en) 1985-12-13 1985-12-13 Image editing processor
EP93203482A EP0597556B1 (en) 1985-12-13 1986-12-12 Image processing apparatus
EP86309702A EP0235456B1 (en) 1985-12-13 1986-12-12 Image processing apparatus and method with blocks of compressed data
EP93203481A EP0597555B1 (en) 1985-12-13 1986-12-12 Image processing apparatus
DE3650764T DE3650764T2 (en) 1985-12-13 1986-12-12 Image processing device
DE3650771T DE3650771D1 (en) 1985-12-13 1986-12-12 Image processing device
DE3650717T DE3650717T2 (en) 1985-12-13 1986-12-12 Image processing apparatus and method using blocks of compressed data
US08/112,374 US5861892A (en) 1985-12-13 1993-08-27 Image processing apparatus using compressed-data processing
US08/221,450 US5485557A (en) 1985-12-13 1994-04-01 Image processing apparatus
US08/977,046 US5812146A (en) 1985-12-13 1997-11-25 Image processing apparatus using compressed data processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28163185A JPH0679322B2 (en) 1985-12-13 1985-12-13 Image editing processor

Publications (2)

Publication Number Publication Date
JPS62140176A JPS62140176A (en) 1987-06-23
JPH0679322B2 true JPH0679322B2 (en) 1994-10-05

Family

ID=17641803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28163185A Expired - Fee Related JPH0679322B2 (en) 1985-12-13 1985-12-13 Image editing processor

Country Status (1)

Country Link
JP (1) JPH0679322B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572499A (en) * 1991-04-10 1996-11-05 Canon Kabushiki Kaisha Image processing apparatus for storing image data in storage medium and/or for reproducing image stored in storage medium
KR101037624B1 (en) * 2009-06-19 2011-05-30 (주)실리콘화일 Apparatus and method of rotating image without using memory

Also Published As

Publication number Publication date
JPS62140176A (en) 1987-06-23

Similar Documents

Publication Publication Date Title
EP0597555B1 (en) Image processing apparatus
JP2922680B2 (en) Compressed image storage method for high-resolution computer graphics
US5034806A (en) Image processing apparatus and method
JPH08235346A (en) Picture processor
GB2139849A (en) Image data compression system
JP2830690B2 (en) Image processing device
JPH1188700A (en) Coding method of color image signal, and decoding method and color image processor thereof
JPH0679322B2 (en) Image editing processor
JP2575641B2 (en) Image editing processing method
JP2653781B2 (en) Image editing processing method
JP2821452B2 (en) Color image processing method
JP2703223B2 (en) Color image processing equipment
JP2862498B2 (en) Image processing method
JP2974596B2 (en) Color image processing equipment
JPS62140178A (en) Image editing processor
JP2809552B2 (en) Image encoding method and image decoding method
JP2744231B2 (en) Image processing device
JP3629509B2 (en) Shading processor
JPS62140549A (en) Image editing processor
JPH09204171A (en) Graphic data generating method and graphic controller
JP3054299B2 (en) Image processing apparatus and method
JP2737869B2 (en) Image processing method
JP2641432B2 (en) Interface device
JPS62245380A (en) Image processor
JPS62245379A (en) Image processor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees