JPH06217278A - Image data encoding device - Google Patents

Image data encoding device

Info

Publication number
JPH06217278A
JPH06217278A JP397593A JP397593A JPH06217278A JP H06217278 A JPH06217278 A JP H06217278A JP 397593 A JP397593 A JP 397593A JP 397593 A JP397593 A JP 397593A JP H06217278 A JPH06217278 A JP H06217278A
Authority
JP
Japan
Prior art keywords
image data
block
weighting
encoding device
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP397593A
Other languages
Japanese (ja)
Inventor
Makiko Konoshima
真喜子 此島
Kiichi Matsuda
喜一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP397593A priority Critical patent/JPH06217278A/en
Publication of JPH06217278A publication Critical patent/JPH06217278A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE:To improve the efficiency of encoding by providing a parameter calcu lation part which supplies a weighting pattern corresponding to a current block to a weighting process part or forcibly sets the value of input image data on the side of a high frequency component to '0'. CONSTITUTION:Longitudinal and lateral position determination parts 3 and 4 detect the current longitudinal and lateral positions (x) and (y) of respective blocks from a horizontal and a vertical synchronizing signal, a clock signal, etc., by using a counter, etc. Then a parameter calculation part 5 selects the weighting pattern at the weighting process part 2 as preprocessing for quantization or encoding by using parameters which are given by an operator and indicate which position on a screen is increased in picture quality and the frequency components after orthogonal conversion by an orthogonal conversion part 1 are weighted. In another way, the values of more low frequency components of the input image data are set to '0' toward the peripheral part except in a high-picture-quality area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像データ符号化装置に
関し、特に多眼式立体映像データ又は3次元ボリューム
データを高能率に符号化する装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data encoding apparatus, and more particularly to an apparatus for encoding multi-view stereoscopic image data or three-dimensional volume data with high efficiency.

【0002】図12に多眼式立体映像を作る場合の既に
1992年NHK技術研究所で公開されたシステムの概
念構成が示されており、まず、静止或いは動いている被
写体(タコ)100を、位置をタテおよびヨコに少しづ
つずらした複数のカメラ群110で撮影する。次に、複
数のカメラ群110から得られた画像データを符号器1
20で高能率符号化し、多重化部130でマルチプレク
スしたのち、伝送路140などを介して伝送し、受信側
では分離部140でデマルチプレクスした後、復号化を
行い、ディスプレイ160に映し出す。
FIG. 12 shows a conceptual configuration of a system that has already been made public at the NHK Technical Research Institute in 1992 in the case of producing a multi-view stereoscopic image. First, a stationary or moving subject (octopus) 100 is Images are taken with a plurality of camera groups 110 whose positions are slightly shifted vertically and horizontally. Next, the image data obtained from the plurality of camera groups 110 is converted into the encoder 1
High-efficiency coding is performed at 20, multiplex is performed at the multiplexing unit 130, and then transmitted via the transmission path 140 and the like. At the receiving side, demultiplexing is performed at the separating unit 140, decoding is performed, and the result is displayed on the display 160.

【0003】この出力側のディスプレイ160は、一例
としてレンチキュラ・レンズ(ヨコ方向にのみ視差があ
る場合)または、ハエの眼レンズ(タテ・ヨコ方向に視
差がある場合)が使用される。
As the display 160 on the output side, for example, a lenticular lens (when there is parallax only in the horizontal direction) or a fly's eye lens (when there is parallax in the vertical and horizontal directions) is used.

【0004】一例として、図13に、タコを被写体とし
たときの、タテ5眼、ヨコ5眼の、それぞれのカメラか
らの出力を分かり易く表示した例を示す。この例では、
上下方向にも視差が有る。
As an example, FIG. 13 shows an example in which the output from each of the five vertical and five horizontal cameras when the octopus is the subject is displayed in an easy-to-understand manner. In this example,
There is also parallax in the vertical direction.

【0005】このように位置をタテおよびヨコに少しづ
つずらした複数のカメラを用いるのは、1つのカメラか
らの出力を片方の眼に対する入力として、両眼視差を形
成して立体視を行えるようにするためであり、また、カ
メラを多数用いた場合、出力系でディスプレイ160を
見る人間が頭を振っても自然な立体視を行えるようにす
るためである。
In this way, the use of a plurality of cameras whose positions are slightly shifted vertically and horizontally allows the stereoscopic vision to be performed by forming the binocular parallax using the output from one camera as the input to one eye. In addition, when a large number of cameras are used, a person who looks at the display 160 in the output system can obtain a natural stereoscopic view even if the person shakes his / her head.

【0006】一方、3次元ボリュームデータとは奥行き
階層を有する3次元立体画像表示用ボリュームデータの
各階層のデータを示し、3次元空間内の各点が値を持つ
ものである。この画像データの現れ方により、次の3つ
に分けることができる。
On the other hand, the three-dimensional volume data indicates the data of each layer of the volume data for three-dimensional stereoscopic image display having a depth layer, and each point in the three-dimensional space has a value. Depending on the appearance of this image data, it can be divided into the following three types.

【0007】被写体の表面のみならず、中身の画像デ
ータをも持つ場合:CTスキャン等で得られた3次元画
像データは、被写体の中身まで透視するため中身の情報
を持っており医療向けの画像データとして扱われること
が多い。 被写体の表面のみの画像データを持つ場合:被写体の
画像データを、違う角度から複数台のカメラを用いて取
り込み、奥行き推定した場合。このため、被写体の中身
の画像データは無い(これはヌル・データ又はNULL
と称される)。 被写体を或る方向から見たときの表面の画像データだ
けを持つ場合:被写体の画像データを、或る角度から1
台又は複数台のカメラを用いて取り込み、奥行き推定し
た場合。このため、被写体をその方向から見たときの表
面の画像データのみが存在し、当然、中身の画像データ
は無く、ヌル・データである。
When not only the surface of the subject but also the image data of the contents are included: The three-dimensional image data obtained by CT scanning or the like has information of the contents for seeing through the contents of the subject and is an image for medical treatment. Often treated as data. When there is image data of only the surface of the subject: When image data of the subject is captured from different angles using multiple cameras and depth is estimated. Therefore, there is no image data of the contents of the subject (this is null data or NULL
Is called). When only the image data of the surface when the subject is viewed from a certain direction is included: The image data of the subject is 1 from a certain angle.
When using one or more cameras to estimate the depth. Therefore, there is only the image data of the surface when the subject is viewed from that direction, and naturally, there is no image data of the contents, and it is null data.

【0008】このように、多眼式立体映像データ又は3
次元ボリュームデータは自然な立体映像を与えるものと
して種々の利用が期待されており、従ってその符号化装
置も最適なものとする必要がある。
In this way, multi-view stereoscopic image data or 3
The dimensional volume data is expected to be used in various ways as it gives a natural stereoscopic image, and therefore it is necessary to optimize the encoding device.

【0009】[0009]

【従来の技術】図14は上記のようなデータに対して行
われる従来から知られた画像データ符号化装置を示した
もので、入力画像データは、好ましくは動き補償や前処
理のフィルタを掛ける動作を行う前処理部6を経由して
直交変換部1に送られ、ここでDCT、ウェーブレッ
ト、アダマール、KL変換等を施すことにより画像デー
タを時間成分信号から周波数成分信号に変換する。
2. Description of the Related Art FIG. 14 shows a conventionally known image data encoding apparatus which operates on the above-mentioned data. The input image data is preferably subjected to motion compensation and preprocessing. It is sent to the orthogonal transformation unit 1 via the pre-processing unit 6 which performs the operation, where DCT, wavelet, Hadamard, KL transformation and the like are performed to transform the image data from the time component signal to the frequency component signal.

【0010】即ち、直交変換部1においては、符号化し
ようとする入力画像の1画面を1次元あるいは2次元以
上の多次元のブロックに区切って直交変換を掛けると、
図15に示すように、低周波数〜高周波数成分に分かれ
る。図示の例は8×8画素の2次元のブロックである。
図中、左上端は直流成分で、右下に行くほど高い周波数
成分となる。
That is, in the orthogonal transformation unit 1, when one screen of an input image to be encoded is divided into one-dimensional or multi-dimensional blocks of two or more dimensions and orthogonal transformation is performed,
As shown in FIG. 15, it is divided into low-frequency to high-frequency components. The illustrated example is a two-dimensional block of 8 × 8 pixels.
In the figure, the upper left end is a DC component, and the frequency component is higher toward the lower right.

【0011】一方、画像データにおいては、高い周波数
成分が一般的に余り無いこと、また、人間の目には高い
周波数成分の歪みが感知し難い等の性質があることが知
られている。
On the other hand, it is known that image data generally has few high frequency components, and that human eyes hardly perceive the distortion of high frequency components.

【0012】そこで、標準化等、広く知られている符号
化装置においては、上記性質を用いて、図14に示す如
く、量子化又は符号化部7に対する前処理部として重み
付け処理部2を設け、高周波成分の量子化値を低周波成
分の量子化値より小さく(粗く)している。
Therefore, in a widely known coding apparatus such as standardization, the weighting processing section 2 is provided as a preprocessing section for the quantization or coding section 7 as shown in FIG. The quantized value of the high frequency component is made smaller (coarse) than the quantized value of the low frequency component.

【0013】即ち、高周波成分の量子化値を低周波成分
の量子化値より小さくするために、図16に示すような
ISO標準MPEG2の量子化マトリクスと呼ばれる重
みを付けたものに対して量子化する。この量子化マトリ
クスが量子化に対する前処理であり、重みが大きいほ
ど、大きい量子化値を算出しなくなる。
That is, in order to make the quantized value of the high frequency component smaller than the quantized value of the low frequency component, the weighted one called the quantization matrix of ISO standard MPEG2 as shown in FIG. 16 is quantized. To do. This quantization matrix is a pre-process for quantization, and the larger the weight, the larger the calculated quantization value.

【0014】従って、符号化結果を受信側に送る量子化
/符号化部7では、量子化値は低周波成分から高周波成
分に向かって可変長符号化される。量子化値が小さいほ
ど符号語も小さくなるように情報量を割り当てているた
め、情報量の低減を図ることができる。
Therefore, in the quantizing / encoding unit 7 which sends the encoded result to the receiving side, the quantized value is variable length encoded from the low frequency component toward the high frequency component. Since the information amount is assigned such that the code word becomes smaller as the quantization value becomes smaller, the information amount can be reduced.

【0015】また、周波数成分が“0”となる確率が高
くなるほど0ランレングス(2次元の可変長符号化で、
“0”が続いた数、即ちラン長と符号語の組み合わせか
ら成る)やEOB(End Of Block、ブロッ
ク内で、この符号語以降の周波数成分の値は送られな
い)の効果があり、情報量の低減を図ることができる。
Further, as the probability that the frequency component becomes "0" becomes higher, 0 run length (in two-dimensional variable length coding,
There is an effect of the number that "0" continues, that is, the combination of the run length and the code word) and EOB (End Of Block, the value of the frequency component after this code word is not sent in the block), The amount can be reduced.

【0016】[0016]

【発明が解決しようとする課題】従来の画像データ符号
化装置では、量子化マトリクス等、量子化に対する前処
理の仕方やパラメータは、画面内、画像のどの部分にお
いても一定であるか、或いはパラメータを画像の性質に
応じて切り換えるだけであった。
In the conventional image data coding apparatus, the preprocessing method and parameters for quantization such as the quantization matrix are constant in any part of the image within the screen, or the parameters. Was simply switched according to the nature of the image.

【0017】しかしながら、アプリケーションによって
は、画像の特定したある部分だけ鮮明な高い画質(高い
解像度)が必要(高周波成分を損なわないことが必要)
で、その他の部分は画質を低くして(高周波成分を犠牲
にして)符号化をし易くし、効率を向上させる用い方も
考えられる。
However, depending on the application, a high image quality (high resolution) that is clear only in a specified portion of the image is required (it is necessary that the high frequency component is not damaged).
Then, in other parts, it may be possible to use a method of improving the efficiency by lowering the image quality (at the expense of the high frequency component) to facilitate the encoding.

【0018】例えば、遠隔操作マニピュレーションにお
いては、作業を行う際、オペレータは概ね画像の中心部
を作業場所に合わせて、作業を行っていたが、従来装置
では、自動的に画像の位置に応じてパラメータを変える
ことが出来ず、符号化効率の低下、また、必要となる中
心部の画像の画質の劣化を招いて、作業に支障を来して
いた。
For example, in remote operation manipulation, when performing a work, an operator generally performs the work by aligning the center of the image with the work place. However, in the conventional apparatus, the operator automatically responds to the position of the image. Since the parameters cannot be changed, the coding efficiency is lowered, and the required image quality of the central portion image is deteriorated, which hinders the work.

【0019】従って本発明は、入力画像データ又は前処
理を受けた入力画像データを直交変換部で直交変換して
得られた周波数成分に対して重み付け処理部で重み付け
処理を行ってから量子化又は符号化処理を行う画像デー
タ符号化装置において、必要に応じて画面中に高周波成
分を損なわない高画質部分と高周波成分を犠牲にした低
画質部分とを設けて符号化をし易くすることを目的とす
る。
Therefore, according to the present invention, the frequency component obtained by orthogonally transforming the input image data or the preprocessed input image data by the orthogonal transforming unit is weighted by the weighting processing unit and then quantized or In an image data encoding device that performs encoding processing, an object is to provide a high image quality portion that does not impair high frequency components and a low image quality portion that sacrifices high frequency components in the screen to facilitate encoding as necessary. And

【0020】[0020]

【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る画像データ符号化装置においては、図
1に原理的に示すように、水平同期信号と装置内ブロッ
ク水平同期信号とにより該入力画像データを構成する各
ブロックの現在の縦方向位置を決定するブロック縦方向
位置決定部3と、垂直同期信号と装置内ブロック垂直同
期信号とにより該入力画像データを構成する各ブロック
の現在の横方向位置を決定するブロック横方向位置決定
部4と、両決定部3,4による各ブロックの現在の縦方
向位置及び横方向位置と操作者から指示された画面内の
どの領域を高画質にするかを示すパラメータとにより現
在のブロックに対する重み付けパターンを選択して重み
付け処理部2に与えるパラメータ計算部5とを備えてい
る。
In order to achieve the above object, in the image data coding apparatus according to the present invention, as shown in principle in FIG. 1, a horizontal synchronizing signal and a block horizontal synchronizing signal in the apparatus are provided. A block vertical position determining unit 3 for determining the current vertical position of each block forming the input image data, and each block forming the input image data by the vertical synchronization signal and the in-apparatus block vertical synchronization signal. The block horizontal position determining unit 4 for determining the current horizontal position, and the current vertical position and horizontal position of each block by both determining units 3 and 4 and which region in the screen designated by the operator is raised. The parameter calculation unit 5 selects a weighting pattern for the current block according to the parameter indicating whether to make the image quality and gives it to the weighting processing unit 2.

【0021】また上記の本発明では、パラメータ計算部
5が、予め複数種類の重み付けパターンを記憶してお
り、いずれかの重み付けパターンを選択して該重み付け
処理部2に与えるようにしてもよい。
Further, in the above-mentioned present invention, the parameter calculation unit 5 may store a plurality of types of weighting patterns in advance, select any one of the weighting patterns, and give it to the weighting processing unit 2.

【0022】更に上記の本発明では、該重み付けパター
ンとして量子化マトリクスを用いることができる。
Further, in the above-mentioned present invention, a quantization matrix can be used as the weighting pattern.

【0023】更に本発明では、該パラメータ計算部5
が、該高画質領域の中心点から離れるほど該量子化マト
リクスの高周波数成分に対する値を大きくすることがで
きる。
Further, in the present invention, the parameter calculation unit 5
However, the value for the high frequency component of the quantization matrix can be increased as the distance from the center point of the high image quality region increases.

【0024】更に本発明では、該パラメータ計算部5及
び該重み付け処理部2が、該高画質領域の中心点から離
れるほど該周波数成分の内のより低い高次成分を強制的
に0にすることが可能である。
Further, according to the present invention, the parameter calculation unit 5 and the weighting processing unit 2 forcibly set the higher-order component lower in the frequency components to 0 as the distance from the center point of the high image quality region increases. Is possible.

【0025】更に本発明では、該パラメータが、該高画
質を維持する領域の中心の画素の位置と、該中心からの
距離とを含むものとすることができる。
Further, according to the present invention, the parameter may include the position of the pixel at the center of the area for maintaining the high image quality and the distance from the center.

【0026】[0026]

【作用】図1において、直交変換部1と重み付け処理部
2は図14に示した公知の画像データ符号化装置を構成
しており、本発明では重み付け処理部2に対して以下の
ような改良を加えている。
In FIG. 1, the orthogonal transformation unit 1 and the weighting processing unit 2 constitute the known image data coding device shown in FIG. 14, and the present invention improves the weighting processing unit 2 as follows. Is added.

【0027】即ち、まず水平同期信号、垂直同期信号、
また装置内で用いられているクロック信号等からカウン
タ等を用いて各ブロックの現在の縦方向及び横方向位置
x,yをそれぞれ縦方向位置決定部3及び横方向位置決
定部4により検出する。
That is, first, the horizontal synchronizing signal, the vertical synchronizing signal,
Further, the current vertical and horizontal positions x and y of each block are detected by the vertical position determining unit 3 and the horizontal position determining unit 4 from a clock signal or the like used in the apparatus by using a counter or the like.

【0028】これらの決定部3,4での検出結果と、操
作者から与えられる画面中のどの位置の画質を高くする
かを示すパラメータを用いて量子化又は符号化の前処理
としての重み付け処理部2での重み付けパターン(例え
ば量子化マトリクス)を選択し、直交変換部1で直交変
換した後の周波数成分に対して重み付け処理を施す。或
いは入力画像データに対して高画質領域以外は周辺部に
行くに従って低周波数成分の値をより多く“0”にす
る。
A weighting process as a pre-process of quantization or coding is performed by using the detection results of the decision units 3 and 4 and a parameter given by the operator indicating which position on the screen the image quality is to be enhanced. A weighting pattern (for example, a quantization matrix) in the unit 2 is selected, and a weighting process is performed on the frequency component after the orthogonal transformation in the orthogonal transformation unit 1. Alternatively, with respect to the input image data, the value of the low frequency component is increased to “0” as it goes to the peripheral portion except for the high image quality area.

【0029】従って、高画質領域は高周波数成分を劣化
させず、その他の領域は高画質領域の中心から離れれば
離れる程高周波数成分を劣化させるので、高画質領域の
画質を維持することができ、符号化効率を向上させるこ
とができる。
Therefore, the high frequency component does not deteriorate in the high image quality region, and the high frequency component deteriorates in the other regions as the distance from the center of the high image quality region increases, so that the image quality in the high image quality region can be maintained. , The coding efficiency can be improved.

【0030】上記の画像データは、2次元画像(単眼〜
多眼)であっても、3次元ボリュームデータの場合で
も、基本的に同様に適用することができる。たとえば、
多眼式で両眼視差により立体視を行っているのではな
く、3次元ボリュームデータを用いて奥行き方向に情報
を持つ場合でも、操作者からみれば、作業を行いやすい
空間的な位置(装置にもよるが、概ね奥行き1メートル
程度)が大体決まっており、2次元から3次元への拡張
に過ぎない。
The above-mentioned image data is a two-dimensional image (monocular to
Basically, the same can be applied to the case of multiview) and the case of three-dimensional volume data. For example,
Even if the stereoscopic vision is not performed by binocular parallax in the multi-lens type and the information is provided in the depth direction by using the three-dimensional volume data, the operator can see the spatial position (device Depending on the situation, the depth is about 1 meter), but it is only an extension from 2D to 3D.

【0031】[0031]

【実施例】実施例(その1):図2〜図4 この実施例は図1に示した本発明に係る画像データ符号
化装置に用いられるパラメータ計算部5の実施例を示し
たもので、まず、予め用意した数種類の量子化マトリク
スをブロックの位置によって選択する実施例を図2のフ
ローチャートについて説明する。尚、この実施例は、単
眼〜多眼の2次元画像の場合について示しているが、次
元数を拡張して3次元ボリュームデータにも適用可能で
ある。
Embodiment (No. 1): FIGS. 2 to 4 This embodiment shows an embodiment of a parameter calculation unit 5 used in the image data encoding apparatus according to the present invention shown in FIG. First, an embodiment in which several kinds of quantization matrices prepared in advance are selected according to the position of a block will be described with reference to the flowchart of FIG. In addition, although this embodiment shows the case of a two-dimensional image of a single eye to a multi-eye, it can also be applied to three-dimensional volume data by expanding the number of dimensions.

【0032】1画面の大きさを図3に示すようにA×B
画素とし、1画面中の画像データの処理単位としてのブ
ロックの大きさを通常の如く8×8画素とする。
The size of one screen is A × B as shown in FIG.
As a pixel, the size of a block as a processing unit of image data in one screen is 8 × 8 pixels as usual.

【0033】また、操作者から与えられるパラメータと
して、高画質(解像度)を保ちたい領域の中心点を図
3に示す如く(a,b)とし、高画質を保つ中心点
(a,b)からどの位までの領域を高画質のままにする
かを表すパラメータ(半径)をrとし、更に出力する
重み付けパターンとしての量子化マトリクス(図16参
照)を8×8の配列QMAT (8,8) とする(ステップS
1)。
As a parameter given by the operator, the center point of the area where high image quality (resolution) is desired to be maintained is (a, b) as shown in FIG. A parameter (radius) indicating up to which area the high image quality is maintained is r, and a quantization matrix (see FIG. 16) as a weighting pattern to be output is an 8 × 8 array Q MAT (8,8). ) (Step S
1).

【0034】更に、図1に示した縦方向位置決定部3及
び横方向位置決定部4の実施例として用いられるカウン
タ(図示せず)により出力された現在のブロック位置
(ブロックの左肩の画素の位置)を(x,y)とする
(同S1)。
Further, the current block position (pixels on the left shoulder of the block) output by a counter (not shown) used as an embodiment of the vertical position determining unit 3 and the horizontal position determining unit 4 shown in FIG. The position is defined as (x, y) (at step S1).

【0035】そして、現在のブロック位置(x,y)と
高画質中心点(a,b)までの大まかな距離を調べ、
“U”=|x−a|+|y−b|とする(同S2)。但
し、本来距離は2乗誤差平均であるが、簡略化のため絶
対値和としている。
Then, the rough distance between the current block position (x, y) and the high image quality center point (a, b) is checked,
“U” = | x−a | + | y−b | (S2). However, the distance is originally an average of squared errors, but is set to the sum of absolute values for simplification.

【0036】そして、このようにして求めた距離Uを操
作者からのパラメータrと比較し、U<rであれば、高
画質を維持するため量子化マトリクスQMAT (8,8) は全
て16/16=“1”とする(同S3)。
Then, the distance U thus obtained is compared with the parameter r from the operator. If U <r, the quantization matrices Q MAT (8,8) are all 16 in order to maintain high image quality. / 16 = “1” (at step S3).

【0037】これにより、中心点(a,b)から半径r
の高画質領域内に直交変換された画像データ中の現在の
ブロックが位置しているときには該ブロックの高周波成
分の情報をも劣化させずに出力することとなる。
As a result, the radius r from the center point (a, b)
When the current block in the image data subjected to the orthogonal transformation is located in the high image quality region, the information of the high frequency component of the block is output without deterioration.

【0038】また、図4の領域Eに示すように距離Uが
半径r以上で、(A+B−4×r)/6より小さい領域
Eに有るときには(ステップS4)、ステップS5に示
す量子化マトリクスQMAT (8,8) を使用して直交変換部
1(図1参照)から出力される周波数成分としての直交
変換係数に対して重み付けを施す。
As shown in the area E of FIG. 4, when the distance U is greater than the radius r and is in the area E smaller than (A + B-4 × r) / 6 (step S4), the quantization matrix shown in step S5. Q MAT (8,8) is used to weight the orthogonal transform coefficient as the frequency component output from the orthogonal transform unit 1 (see FIG. 1).

【0039】この量子化マトリクスは高調波成分の方が
重みが大きくなっているので、大きい量子化値を算出し
なくなり、粗い量子化が行われ、画像は低画質状態にな
る。
In this quantization matrix, the harmonic component is heavier in weight, so that a large quantization value is not calculated, rough quantization is performed, and the image is in a low image quality state.

【0040】ここで、ステップS4における式(A+B
−4×r)/6の意味は、Uは“0”から最大(A+
B)/2の値をとり、半径rから(A+B)/2まで
(=(A+B−2r)/2)を3等分して閾値としたも
のである。
Here, the expression (A + B in step S4
-4 × r) / 6 means that U is from “0” to maximum (A +
B) / 2 is taken and the radius r to (A + B) / 2 (= (A + B-2r) / 2) is equally divided into three and used as a threshold value.

【0041】また、距離Uが、図4の領域Fに示すよう
に、(A+B−4×r)/6以上で、(A+B−r)/
3より小さければ(ステップS6)、ステップS7に示
す量子化マトリクスQMAT (8,8) を使用する。この量子
化マトリクスはステップS5の量子化マトリクスより一
層高次係数の側の重みが大きくなっており、粗い量子化
を行わせるようにしている。
Further, the distance U is (A + B-4 × r) / 6 or more and (A + B−r) /, as shown in the region F of FIG.
If it is smaller than 3 (step S6), the quantization matrix Q MAT (8,8) shown in step S7 is used. This quantization matrix has a higher weight on the higher-order coefficient side than the quantization matrix in step S5, so that coarse quantization is performed.

【0042】更に、図4の領域Gに示すように、距離U
が、(A+B−r)/3より大きければ(ステップS
6)、ステップS8に示す量子化マトリクスQMAT (8,
8) を使用する。この量子化マトリクスはステップS5
及びS7の量子化マトリクスより更に一層重みが大きく
なっており、粗い量子化を行わせるようにしている。
Further, as shown in the area G in FIG. 4, the distance U
Is larger than (A + B-r) / 3 (step S
6), the quantization matrix Q MAT (8, 8
Use 8). This quantization matrix is step S5.
Further, the weight is further increased compared to the quantization matrix of S7 and S7, so that coarse quantization is performed.

【0043】このように、上記の実施例においては、こ
れら量子化マトリクスは、画面内でのブロックの位置が
画面の周辺部に近いほど、高周波成分に対する量子化マ
トリクスの配列の値は大きくなり粗い量子化を行わせ低
画質画像にしている。
As described above, in the above-described embodiments, in these quantization matrices, the closer the position of the block in the screen is to the peripheral portion of the screen, the larger the value of the array of the quantization matrix with respect to the high-frequency component becomes, and the coarser the matrix is. Quantization is performed to obtain a low quality image.

【0044】尚、量子化マトリクスQMAT (8,8) は、画
像信号が、輝度信号か色差信号か、或いはフレーム間符
号化を行ったか行わないか、によって異ならせてもよ
い。
The quantization matrix Q MAT (8,8) may differ depending on whether the image signal is a luminance signal or a color difference signal, or whether or not inter-frame coding is performed.

【0045】図5は図2に示した計算アルゴリズムを実
行するハードウェア回路をブロック図で示したもので、
現在のブロック位置(x,y)を出力した後、操作者が
指定したパラメータa,bとの差分を取り且つその絶対
値を演算部11でとった後の値を加算してUとする。
FIG. 5 is a block diagram showing a hardware circuit for executing the calculation algorithm shown in FIG.
After outputting the current block position (x, y), the difference between the current block position (x, y) and the parameters a and b designated by the operator is obtained, and the absolute value thereof is taken by the arithmetic unit 11 to be added to obtain U.

【0046】一方、予め与えられた画面の大きさA及び
Bとパラメータrとにより(A+B−4×r)/6及び
(A+B−r)/3を演算し、これらとUとrとを比較
器13に与えることにより、ステップS2,S4,S6
に対応する比較動作を行う。比較結果はROM、スイッ
チ等から構成される選択器14を通して、それぞれステ
ップS3,S5,S7,S8の量子化マトリクスに対応
する量子化マトリクスQMAT (8,8) をメモリ15a〜1
5dから選択し出力する。
On the other hand, (A + B-4 × r) / 6 and (A + B-r) / 3 are calculated from the screen sizes A and B and the parameter r which are given in advance, and these are compared with U and r. By giving it to the device 13, steps S2, S4, S6
The comparison operation corresponding to is performed. The comparison result is passed through a selector 14 composed of a ROM, a switch, etc., and a quantization matrix Q MAT (8,8) corresponding to the quantization matrix of steps S3, S5, S7 and S8 is stored in memories 15a to 1a.
Select from 5d and output.

【0047】実施例(その2):図6〜図7 図6は実施例(その1)の変形例を示したもので、やは
りパラメータ計算部5の実施例を示しており、量子化マ
トリクスQMAT (8,8) を画面の位置に応じて計算する実
施例について説明している。
Embodiment (No. 2): FIGS. 6 to 7 FIG. 6 shows a modification of the embodiment (No. 1), which also shows an embodiment of the parameter calculation unit 5, and the quantization matrix Q. An example of calculating MAT (8,8) according to the position of the screen is described.

【0048】まず、実施例(その1)と同様に1画面の
大きさを図3に示したようにA×B画素とし、1画面中
の画像データの処理単位としてのブロックの大きさを通
常の如く8×8画素とする。
First, as in the first embodiment, the size of one screen is set to A × B pixels as shown in FIG. 3, and the size of a block as a processing unit of image data in one screen is usually set. As shown in FIG.

【0049】また、操作者から与えられるパラメータと
して、高画質(解像度)を保ちたい領域の中心点を
(a,b)とし、高画質を保つ中心点(a,b)から
どの位までの領域を高画質のままにするかを表すパラメ
ータ(半径)をrとし、選択する量子化マトリクスを
8×8の配列QMAT (8,8) とすると共に、更に中心点
(a,b)から離れている度合いを示すパラメータをk
とする(ステップS11)。
Further, as a parameter given by the operator, the center point of the area where the high image quality (resolution) is desired to be maintained is (a, b), and the area from the center point (a, b) maintaining the high image quality Let r be the parameter (radius) that indicates whether to keep the image quality as high, and the quantization matrix to be selected is an 8 × 8 array Q MAT (8,8), and further away from the center point (a, b). The parameter indicating the degree
(Step S11).

【0050】また、現在のブロック位置(ブロックの左
肩の画素の位置)を(x,y)とする(同S11)。
The current block position (the position of the pixel on the left shoulder of the block) is set to (x, y) (at step S11).

【0051】そして、現在のブロック位置(x,y)と
高画質中心点(a,b)までの大まかな距離を調べ、
“U”=|x−a|+|y−b|とし、且つk=2×
(U−r)/(A+B−2r)と定める(ステップS1
2)。
Then, the rough distance between the current block position (x, y) and the high image quality center point (a, b) is checked,
“U” = | x−a | + | y−b |, and k = 2 ×
(U-r) / (A + B-2r) is determined (step S1)
2).

【0052】このkの式の意味は、まず、U<rの場合
は高画質を維持するままなので取り敢えず考慮には入れ
ないこととすると、Uの取り得る最大値は概ね(A+
B)/2となるので、Uの変動する範囲は、 r<U<(A+B)/2 となるが、このUの変動範囲を“0”から“1”までに
正規化した場合、 0<U−r<{(A+B)/2}−r となる。
The meaning of the equation of k is that, if U <r, the high image quality is maintained, so if it is not taken into consideration, the maximum value that U can take is approximately (A +
B) / 2, the range of fluctuation of U is r <U <(A + B) / 2. However, when the fluctuation range of U is normalized from “0” to “1”, 0 < U-r <{(A + B) / 2} -r.

【0053】これを変形すると、 0<2×(U−r)/(A+B−2r)<1 となるので、2×(U−r)/(A+B−2r)をkに
置き換えれば、このkが現在のブロックが中心からどの
程度離れているかを示すこととなる。この場合、0<k
<1である。
When this is modified, 0 <2 × (U−r) / (A + B−2r) <1. Therefore, if 2 × (U−r) / (A + B−2r) is replaced with k, this k Indicates how far the current block is from the center. In this case, 0 <k
<1.

【0054】従って、k<0であるか否かを判定し(ス
テップS13)、k<0となる場合は、U<rとなる場
合であるので、k=0となるようにリミッタをかける
(ステップS14)。従って、ステップS15の量子化
マトリクスの各値は全て“1”となり、直交変換後のデ
ータをそのまま出力することとなる。
Therefore, it is judged whether or not k <0 (step S13), and when k <0, it means that U <r. Therefore, a limiter is applied so that k = 0 ( Step S14). Therefore, all the values of the quantization matrix in step S15 become "1", and the data after orthogonal transformation is output as it is.

【0055】一方、k≧0であれば量子化マトリクスQ
MAT (8,8) をステップS15に示すように決定する。こ
の量子化マトリクスの各値は、kが大きいほど、また、
高周波成分ほど値が大きくなるように構成されており、
現在のブロックが中心から離れれば離れる程、高周波成
分に対する量子化マトリクスの配列の値は大きくなり直
交変換後のデータに対して粗い量子化を行わせるように
している。
On the other hand, if k ≧ 0, the quantization matrix Q
MAT (8,8) is determined as shown in step S15. For each value of this quantization matrix, the larger k is,
The higher the frequency component, the larger the value.
The farther the current block is from the center, the larger the value of the array of the quantization matrix for the high frequency component, so that the data after the orthogonal transformation is coarsely quantized.

【0056】図7は図6に示した計算アルゴリズムを実
行するハードウェア回路をブロック図で示したもので、
まず、ブロックの現在の位置x,yと操作者からのパラ
メータa,bを用い、絶対値演算部11,12を経由す
ることによりUを計算する。
FIG. 7 is a block diagram showing a hardware circuit for executing the calculation algorithm shown in FIG.
First, U is calculated by using the current positions x and y of the block and the parameters a and b from the operator and passing through the absolute value calculation units 11 and 12.

【0057】そして、このUと操作者からのパラメータ
rと1画面の大きさA,Bとを用いて割り算部16から
kを算出する。kは、リミッタ17により、0以下とな
る場合は0に固定する。
Then, k is calculated from the division unit 16 using this U, the parameter r from the operator, and the sizes A and B of one screen. The value k is fixed to 0 when it becomes 0 or less by the limiter 17.

【0058】この後、リミッタ17からのkに基づき、
ステップS15に示したQMAT (8,8) を構成する1+
k,(1+k)2 ,(1+k)3 ,1+k/2,1+k
/4の5種類の値を算出してスイッチ18に与える。
After that, based on k from the limiter 17,
1+ constituting Q MAT (8,8) shown in step S15
k, (1 + k) 2 , (1 + k) 3 , 1 + k / 2, 1 + k
Five kinds of values of / 4 are calculated and given to the switch 18.

【0059】これらの算出結果は、まず、カウンタ等に
より現在処理しようとしているブロック内の各画素の位
置をメモリ15に与えることにより、このメモリ15が
画素位置によって量子化マトリクスQMAT (8,8) 中のど
の値を選択するかを記憶していることからスイッチ18
を切り換えることができる。尚、この量子化マトリクス
は正規化されているので、スイッチ18からの出力に対
し「16」を除算する必要は無くそのまま出力すればよ
い。
These calculation results are obtained by first giving the position of each pixel in the block currently processed by a counter or the like to the memory 15 so that the memory 15 can quantize the matrix Q MAT (8,8) according to the pixel position. ) Switch 18 because it remembers which value to select
Can be switched. Since this quantization matrix is normalized, it is not necessary to divide "16" with respect to the output from the switch 18, and the output may be output as it is.

【0060】実施例(その3):図8〜図9 図8は更に別の変形例を示したもので、この実施例は、
パラメータ計算部5と重み付け処理部2とを混在して組
み合わせたもので、画像ブロックの位置によって直交変
換して得られた高周波数成分(高次係数)を“0”にし
てしまう方法を採っている。
Embodiment (3): FIGS. 8 to 9 FIG. 8 shows a further modified example.
A method in which the parameter calculation unit 5 and the weighting processing unit 2 are mixed and combined, and a method of setting the high frequency component (higher order coefficient) obtained by the orthogonal transformation according to the position of the image block to “0” is adopted. There is.

【0061】まず、実施例(その1及びその2)と同様
に1画面の大きさを図3に示したようにA×B画素と
し、1画面中の画像データの処理単位としてのブロック
の大きさを通常の如く8×8画素とする。
First, as in the first and second embodiments, the size of one screen is set to A × B pixels as shown in FIG. 3 and the size of a block as a processing unit of image data in one screen. 8 × 8 pixels as usual.

【0062】また、操作者から与えられるパラメータと
して、高画質(解像度)を保ちたい領域の中心点を
(a,b)とし、高画質を保つ中心点(a,b)から
どの位までの領域を高画質のままにするかを表すパラメ
ータ(半径)をrとする(ステップS21)。
As a parameter given by the operator, the central point of the area where the high image quality (resolution) is desired to be maintained is (a, b), and the area from the central point (a, b) where the high image quality is maintained to Let r be a parameter (radius) indicating whether or not to keep the high image quality (step S21).

【0063】更に、現在のブロック位置(ブロックの左
肩の画素の位置)を(x,y)とし、図1に示した重み
付け処理部2への入力となる直交変換後の画像ブロッ
ク、即ち入力画像ブロックをC(8,8)、重み付け処
理部2から出力される画像ブロックをD(8,8)とす
る(同S21)。
Further, assuming that the current block position (the position of the pixel on the left shoulder of the block) is (x, y), an image block after orthogonal transformation which is an input to the weighting processing unit 2 shown in FIG. 1, that is, an input image Let the block be C (8,8) and the image block output from the weighting processing unit 2 be D (8,8) (at step S21).

【0064】更に、2次元DCTを1次元展開するとき
のスキャン順序(通常、低周波数成分から高周波数成分
に向かってスキャンするが、本実施例ではスキャン順序
をジグザグスキャンとしている)を、図示の如くJ
(8,8)の配列で与える。
Further, the scan order when the two-dimensional DCT is one-dimensionally expanded (normally, scanning is performed from the low frequency component to the high frequency component, but in the present embodiment, the scan order is zigzag scan) is shown in the figure. As J
It is given as an array of (8, 8).

【0065】そして、下記での判定を行うための閾値T
Hを、TH1〜TH4とする(同S21)。
Then, a threshold value T for making the following determination
H is set to TH1 to TH4 (at step S21).

【0066】このように設定した後、現在のブロック位
置(x,y)と高画質中心点(a,b)までの大まかな
距離を調べ、“U”=|x−a|+|y−b|とし、上
記のパラメータrと比較し(同S22)、U<rであれ
ば閾値TH=TH1とする(同S23)。
After setting in this way, the rough distance between the current block position (x, y) and the high image quality center point (a, b) is checked, and "U" = | x-a | + | y- b | and compared with the above parameter r (at step S22), and if U <r, the threshold value TH = TH1 is set (at step S23).

【0067】また、U≧rで、図4の領域Eに示すよう
に(A+B−4×r)/6より小さければ(同S2
4)、閾値TH=TH2とする(同S25)。この(A
+B−4×r)/6の式の意味は、図4に示した如く、
Uは、0から(A+B)/2の値をとり、rから(A+
B)/2までを3等分(=(A+B−2r)/2)した
ときの閾値である。
If U ≧ r and smaller than (A + B-4 × r) / 6 as shown in the area E of FIG.
4) and the threshold value TH is set to TH2 (at step S25). This (A
The meaning of the expression + B-4 × r) / 6 is as shown in FIG.
U takes a value of 0 to (A + B) / 2 and r to (A + B) / 2.
B) / 2 is a threshold value when it is divided into three equal parts (= (A + B-2r) / 2).

【0068】また、Uが、ステップS24において、図
4の領域Fに示すように(A+B−4×r)/6以上で
(A+B−r)/3より小さければ(同S26)、閾値
TH=TH3とする(同S27)。
If U is (A + B-4 × r) / 6 or more and smaller than (A + B−r) / 3 in step S24 (S26), the threshold value TH = It is set to TH3 (at step S27).

【0069】上記以外であれば(図4の領域G)、閾値
TH=TH4とする(同S28)。
Otherwise (region G in FIG. 4), the threshold value TH = TH4 is set (at step S28).

【0070】次に、上記のJ(8,8)の配列(i,
j)におけるi,jをi=1,j=1に初期化し(ステ
ップS29,S30)、このJ(i,j)と閾値THと
を比較する(同S31)。
Next, the above array of J (8,8) (i,
i, j in j) is initialized to i = 1, j = 1 (steps S29, S30), and this J (i, j) is compared with the threshold TH (step S31).

【0071】この結果、このJ(8,8)による要素の
値、即ちスキャン順序の値が閾値THを越えた位置の入
力画像ブロックC(8,8)の各画素の値を“0”にし
(同S33)、閾値THを越えないときには入力画像ブ
ロックC(8,8)の値をそのまま出力画像ブロックD
(8,8)として次段の量子化/符号化部(図14参
照)に与える(同S32)。そして、i,jをインクリ
メントして行き、i=8,j=8となるまで実行する
(同S34〜S37)。
As a result, the value of each element of the input image block C (8, 8) at the position where the value of the element by J (8, 8), that is, the value of the scan order exceeds the threshold value TH is set to "0". (S33), when the threshold value TH is not exceeded, the value of the input image block C (8,8) is directly output image block D.
It is given as (8, 8) to the quantization / encoding unit of the next stage (see FIG. 14) (at step S32). Then, i and j are incremented and executed until i = 8 and j = 8 (S34 to S37).

【0072】従って、本実施例においては、閾値TH1
>TH2>TH3>TH4とした時、画面の周辺部に行
くほど(図4の領域EからGに行くほど)、閾値THが
小さくなるため、J(8,8)のスキャン順序の値は閾
値THより大きくなることが多くなるので、直交変換を
受けた入力画像ブロックC(8,8)の各画素の値を
“0”にして除去してしまう成分は低周波数成分寄りと
なる。
Therefore, in this embodiment, the threshold value TH1
When>TH2>TH3> TH4, the threshold TH becomes smaller as it goes to the peripheral portion of the screen (from region E to G in FIG. 4). Therefore, the value of the scan order of J (8,8) is the threshold value. Since it often becomes larger than TH, the component which removes the value of each pixel of the input image block C (8, 8) subjected to the orthogonal transformation by “0” is closer to the low frequency component.

【0073】図9は図8に示した計算アルゴリズムを実
行するハードウェア回路をブロック図で示したもので、
まず、ブロックの現在の位置x,yと操作者からのパラ
メータa,bを用い、絶対値演算部11,12を経由す
ることによりUを計算する。
FIG. 9 is a block diagram showing a hardware circuit for executing the calculation algorithm shown in FIG.
First, U is calculated by using the current positions x and y of the block and the parameters a and b from the operator and passing through the absolute value calculation units 11 and 12.

【0074】そして、Uとr、(A+B−4×r)/
6、又は(A+B−r)/3とをそれぞれ比較器13に
おいて比較する。この比較の結果が選択器14’に入力
され、閾値TH1〜TH4 のいずれかが選択出力され
る。
Then, U and r, (A + B-4 × r) /
6 or (A + B−r) / 3 respectively in the comparator 13. The result of this comparison is input to the selector 14 ', and one of the threshold values TH1 to TH4 is selected and output.

【0075】選択器14’の出力結果は、装置内で画素
毎に発生されるクロックに基づきカウンタ20,21に
よりメモリ22から出力されたJ(8,8)のスキャン
配列(i,j)の要素と共に比較器19に入力され、そ
の比較結果が選択器23に入力されて選択器23は、
“0”か入力画像ブロックC(8,8)の要素のどちら
かを選択して画像ブロックD(8,8)として量子化/
符号化部へ出力する。
The output result of the selector 14 'is the scan array (i, j) of J (8,8) output from the memory 22 by the counters 20 and 21 based on the clock generated for each pixel in the device. The elements are input to the comparator 19 together with the elements, the comparison result is input to the selector 23, and the selector 23
Either "0" or the element of the input image block C (8,8) is selected and quantized as an image block D (8,8) /
Output to the encoding unit.

【0076】実施例(その4):図10〜図11 図10は更に別の変形例を示したもので、この実施例は
上記の実施例(その2)と実施例(その3)とを組み合
わせたもので、パラメータ計算部5と重み付け処理部2
とが混在している。
Embodiment (No. 4): FIGS. 10 to 11 FIG . 10 shows still another modification. This embodiment includes the above-mentioned embodiment (No. 2) and embodiment (No. 3). A combination of the parameter calculation unit 5 and the weighting processing unit 2
And are mixed.

【0077】まず、上記の各実施例と同様に1画面の大
きさを図3に示したようにA×B画素とし、1画面中の
画像データの処理単位としてのブロックの大きさを通常
の如く8×8画素とする(ステップS41)。
First, similarly to each of the above-described embodiments, the size of one screen is set to A × B pixels as shown in FIG. 3, and the size of a block as a processing unit of image data in one screen is set to a normal size. As described above, the number of pixels is set to 8 × 8 (step S41).

【0078】また、操作者から与えられるパラメータと
して、高画質(解像度)を保ちたい領域の中心点を
(a,b)とし、高画質を保つ中心点(a,b)から
どの位までの領域を高画質のままにするかを表すパラメ
ータ(半径)をrとする(同S41)。
As a parameter given by the operator, the center point of the area where high image quality (resolution) is desired to be maintained is (a, b), and the area from the center point (a, b) where high image quality is maintained Let r be a parameter (radius) that indicates whether to keep the high image quality (S41).

【0079】更に、現在のブロック位置(ブロックの左
肩の画素の位置)を(x,y)とし、中心点(a,b)
から離れている度合いを示すパラメータをkとし、図1
に示した重み付け処理部2への入力となる直交変換後の
画像ブロック、即ち入力画像ブロックをC(8,8)、
重み付け処理部2から出力される画像ブロックをD
(8,8)とし、更に、2次元DCTを1次元展開する
ときのスキャン順序(ジグザグスキャン順序)を、図示
の如くJ(8,8)の配列で与える(同S41)。
Furthermore, the current block position (the position of the pixel on the left shoulder of the block) is (x, y), and the center point (a, b)
Assuming that the parameter indicating the degree of separation from k is k
The image block after the orthogonal transformation, which is the input to the weighting processing unit 2 shown in FIG. 2, that is, the input image block is C (8, 8),
The image block output from the weighting processing unit 2 is D
(8, 8), and the scan order (zigzag scan order) when one-dimensionally expanding the two-dimensional DCT is given as an array of J (8, 8) as shown in the drawing (at step S41).

【0080】そして、現在のブロック位置(x,y)と
高画質中心点(a,b)までの大まかな距離を調べ、
“U”=|x−a|+|y−b|とし、且つ実施例(そ
の2)と同様にk=2×(U−r)/(A+B−2r)
と定める(同S42)。
Then, the rough distance between the current block position (x, y) and the high image quality center point (a, b) is checked,
“U” = | x−a | + | y−b |, and k = 2 × (U−r) / (A + B−2r) as in the second embodiment.
(S42).

【0081】そして、k<0となる場合は(同S4
3)、U<rの場合であるので、k=0にリミッタをか
ける(同S44)。
Then, when k <0 is satisfied (the same S4
3), since U <r, a limiter is applied to k = 0 (at step S44).

【0082】ここまでは実施例(その2)と同じであ
り、本実施例では次に実施例(その3)をステップS4
5〜S53にて実行する。これらのステップS45〜S
53は実施例(その3)のステップS29〜S37に対
応するものである。
The process up to this point is the same as that of the embodiment (part 2). In this embodiment, the process of the embodiment (part 3) is performed in step S4.
5 to S53 are executed. These steps S45-S
Reference numeral 53 corresponds to steps S29 to S37 of the embodiment (part 3).

【0083】但し、本実施例では、実施例(その3)の
ステップS31の代わりにステップS47において、k
とα(0<α<64)を乗算して整数化(INT)し、
スキャン順序の最大値「64」から減算すると共に、J
(8,8)の要素の値(スキャン順序の値)と、上記計
算結果とを比較している。
However, in the present embodiment, in step S47 instead of step S31 of the embodiment (part 3), k
And α (0 <α <64) are multiplied to form an integer (INT),
The value is subtracted from the maximum value "64" of the scan order, and J
The value (scan order value) of the element (8, 8) is compared with the above calculation result.

【0084】そして、J(8,8)の要素の値が大きい
場合、処理部2の出力は“0”、そうでなければ入力画
像ブロックC(8,8)の周波数成分の値をそのまま出
力している(同S48,S49)。
When the value of the element of J (8,8) is large, the output of the processing unit 2 is "0", otherwise, the value of the frequency component of the input image block C (8,8) is output as it is. (S48, S49 of the same).

【0085】このようにして本実施例では、kが小さく
αが小さいほど、高周波数成分が0にされない。
In this way, in this embodiment, the smaller the k and the smaller α, the higher the frequency component is not reduced to zero.

【0086】図11は図10に示した計算アルゴリズム
を実行するハードウェア回路をブロック図で示したもの
で、ここにおいては、ブロックの位置x、yと操作者か
らのパラメータa、bを用いてUを計算し、Uと操作者
からのパラメータr、画像の大きさA、Bを用いて割り
算部16よりkを算出する。kは、リミッタ17によ
り、0以下となる場合は0とする。
FIG. 11 is a block diagram showing a hardware circuit for executing the calculation algorithm shown in FIG. 10, in which the positions x and y of the blocks and the parameters a and b from the operator are used. U is calculated, and k is calculated by the division unit 16 using U, the parameter r from the operator, and the image sizes A and B. The value k is set to 0 when it becomes 0 or less by the limiter 17.

【0087】kは、この後、αとの乗算をとり、その結
果を「64」から減算する。これと、カウンタ20,2
1,22によるJ(8,8)の要素の値を比較器19で
比較し、比較結果から、選択器23が処理部2への入力
画像ブロックC(8,8)の要素のままか、0かを選ん
で出力画像ブロックD(8,8)とする。
After that, k is multiplied by α, and the result is subtracted from “64”. This and the counters 20 and 2
The values of the elements of J (8,8) according to 1 and 22 are compared by the comparator 19, and whether the selector 23 is the element of the input image block C (8,8) to the processing unit 2 based on the comparison result. 0 is selected as the output image block D (8,8).

【0088】[0088]

【発明の効果】上記のように、本発明に係る画像データ
符号化装置によれば、入力画像データを構成する各ブロ
ックの現在の縦方向位置及び横方向位置と操作者から指
示された画面内のどの領域を高画質にするかを示すパラ
メータとにより現在のブロックに対する重み付けパター
ンを重み付け処理部に与えるか、或いは入力画像データ
に対して高周波数成分の側の値をできるだけ多く強制的
に“0”にするパラメータ計算部を設けたので、操作者
にとって作業上重要な中心部の画像の画質を維持し、か
つ概ねの状況を知るために必要な周辺部の画像の画質を
下げることにより、符号化効率を上げることが出来る。
As described above, according to the image data encoding apparatus of the present invention, the current vertical position and horizontal position of each block constituting the input image data and the screen instructed by the operator. Of the high-frequency component with respect to the input image data as much as possible by giving a weighting pattern for the current block to the weighting processing unit according to the parameter indicating which region of the high-quality image. Since the parameter calculation unit for "." Is provided, it is possible to maintain the image quality of the central image which is important for the operator's work and to reduce the image quality of the peripheral image necessary to know the general situation. Efficiency can be increased.

【0089】また、符号化効率の向上により、従来より
も画質の向上が図れる。現在、高能率画像符号化の標準
化(CCITT、ISO等)の主流となっている符号化
等では、このような画質の低下に伴いかなり効率化を図
ることが期待できる。
Further, by improving the coding efficiency, the image quality can be improved as compared with the conventional case. At present, in encoding, which is the mainstream of standardization of high-efficiency image encoding (CCITT, ISO, etc.), it can be expected that efficiency will be considerably improved due to such deterioration in image quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像データ符号化装置を原理的に
示したブロック図である。
FIG. 1 is a block diagram showing the principle of an image data encoding device according to the present invention.

【図2】本発明に係る画像データ符号化装置のソフトウ
ェアによる実施例(その1)を示したフローチャート図
である。
FIG. 2 is a flowchart showing an embodiment (part 1) by software of the image data encoding device according to the present invention.

【図3】実施例(その1)の原理説明図(1) である。FIG. 3 is an explanatory view (1) of the principle of the embodiment (No. 1).

【図4】実施例(その2)の原理説明図(2) である。FIG. 4 is an explanatory view (2) of the principle of the embodiment (No. 2).

【図5】実施例(その1)のハードウェア回路のブロッ
ク図である。
FIG. 5 is a block diagram of a hardware circuit of the embodiment (No. 1).

【図6】本発明に係る画像データ符号化装置のソフトウ
ェアによる実施例(その2)を示したフローチャート図
である。
FIG. 6 is a flowchart showing an embodiment (part 2) by software of the image data encoding device according to the present invention.

【図7】実施例(その2)のハードウェア回路のブロッ
ク図である。
FIG. 7 is a block diagram of a hardware circuit of an embodiment (No. 2).

【図8】本発明に係る画像データ符号化装置のソフトウ
ェアによる実施例(その3)を示したフローチャート図
である。
FIG. 8 is a flowchart showing an embodiment (part 3) by software of the image data encoding device according to the present invention.

【図9】実施例(その3)のハードウェア回路のブロッ
ク図である。
FIG. 9 is a block diagram of a hardware circuit according to an embodiment (No. 3).

【図10】本発明に係る画像データ符号化装置のソフト
ウェアによる実施例(その4)を示したフローチャート
図である。
FIG. 10 is a flowchart showing an embodiment (part 4) by software of the image data encoding device according to the present invention.

【図11】実施例(その4)のハードウェア回路のブロ
ック図である。
FIG. 11 is a block diagram of a hardware circuit of an embodiment (No. 4).

【図12】多眼式立体映像システムの一般的な構成を示
したブロック図である。
FIG. 12 is a block diagram showing a general configuration of a multi-view stereoscopic image system.

【図13】多眼式(5眼×5眼)のカメラ出力例を示し
た図である。
[Fig. 13] Fig. 13 is a diagram showing an example of multi-lens (5 eyes x 5 eyes) camera output.

【図14】従来例を示したブロック図である。FIG. 14 is a block diagram showing a conventional example.

【図15】直交変換した後の画像データの係数成分を説
明するための図である。
FIG. 15 is a diagram for explaining coefficient components of image data after orthogonal transformation.

【図16】従来より知られている量子化マトリクスの一
例を示した図である。
FIG. 16 is a diagram showing an example of a conventionally known quantization matrix.

【符号の説明】[Explanation of symbols]

1 直交変換部 2 重み付け処理部 3 縦方向位置決定部 4 横方向位置決定部 5 パラメータ計算部 6 前処理部 7 量子化/符号化部 図中、同一符号は同一又は相当部分を示す。 DESCRIPTION OF SYMBOLS 1 Orthogonal transformation part 2 Weighting processing part 3 Vertical direction position determination part 4 Horizontal direction position determination part 5 Parameter calculation part 6 Pre-processing part 7 Quantization / coding part In the figure, the same code | symbol shows the same or equivalent part.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力画像データ又は前処理を受けた入力
画像データを直交変換部(1) で直交変換して得られた周
波数成分に対して重み付け処理部(2) で重み付け処理を
行ってから量子化又は符号化処理を行う画像データ符号
化装置において、 水平同期信号と装置内ブロック水平同期信号とにより該
入力画像データを構成する各ブロックの現在の縦方向位
置を決定するブロック縦方向位置決定部(3) と、 垂直同期信号と装置内ブロック垂直同期信号とにより該
入力画像データを構成する各ブロックの現在の横方向位
置を決定するブロック横方向位置決定部(4) と、 両決定部(3,4) による各ブロックの現在の縦方向位置及
び横方向位置と操作者から指示された画面内のどの領域
を高画質にするかを示すパラメータとにより現在のブロ
ックに対する重み付けパターンを選択して該重み付け処
理部(2) に与えるパラメータ計算部(5) と、 を備えたことを特徴とする画像データ符号化装置。
1. A weighting processing unit (2) performs a weighting process on a frequency component obtained by orthogonally transforming input image data or preprocessed input image data by an orthogonal transformation unit (1). In an image data encoding device that performs quantization or encoding processing, a block vertical position determination that determines the current vertical position of each block that constitutes the input image data by a horizontal synchronization signal and a block horizontal synchronization signal in the device A block lateral position determining unit (4) that determines the current horizontal position of each block that composes the input image data based on the vertical synchronizing signal and the in-device block vertical synchronizing signal; Weighting for the current block by the current vertical position and horizontal position of each block by (3, 4) and the parameter that indicates which area in the screen the high image quality is specified by the operator. Image data encoding apparatus characterized by comprising parameter calculation unit which selects the pattern giving to the weighting processing unit (2) and (5), a.
【請求項2】 該パラメータ計算部(5) が、予め複数種
類の重み付けパターンを記憶しており、いずれかの重み
付けパターンを選択して該重み付け処理部(2) に与える
ことを特徴とした請求項1に記載の画像データ符号化装
置。
2. The parameter calculation unit (5) stores a plurality of types of weighting patterns in advance, and selects one of the weighting patterns to give to the weighting processing unit (2). Item 1. The image data encoding device according to Item 1.
【請求項3】 該重み付けパターンが量子化マトリクス
であることを特徴とした請求項2に記載の画像データ符
号化装置。
3. The image data encoding device according to claim 2, wherein the weighting pattern is a quantization matrix.
【請求項4】 該パラメータ計算部(5) が、該高画質領
域の中心点から離れるほど該量子化マトリクスの高周波
数成分に対する値を大きくすることを特徴とした請求項
4に記載の画像データ符号化装置。
4. The image data according to claim 4, wherein the parameter calculation unit (5) increases the value for the high frequency component of the quantization matrix as the distance from the center point of the high image quality region increases. Encoding device.
【請求項5】 該パラメータ計算部(5) 及び該重み付け
処理部(2) が、該高画質領域の中心点から離れるほど該
周波数成分の内のより低い高次成分を強制的に0にする
ことを特徴とした請求項1に記載の画像データ符号化装
置。
5. The parameter calculation unit (5) and the weighting processing unit (2) forcibly set lower higher-order components of the frequency components to 0 as the distance from the center point of the high image quality region increases. The image data encoding device according to claim 1, wherein
【請求項6】 該パラメータが、該高画質を維持する領
域の中心の画素の位置と、該中心からの距離とを含んで
いることを特徴とした請求項1乃至5のいずれかに記載
の画像データ符号化装置。
6. The method according to claim 1, wherein the parameter includes the position of a pixel at the center of the area where the high image quality is maintained and the distance from the center. Image data encoding device.
JP397593A 1993-01-13 1993-01-13 Image data encoding device Pending JPH06217278A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP397593A JPH06217278A (en) 1993-01-13 1993-01-13 Image data encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP397593A JPH06217278A (en) 1993-01-13 1993-01-13 Image data encoding device

Publications (1)

Publication Number Publication Date
JPH06217278A true JPH06217278A (en) 1994-08-05

Family

ID=11572065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP397593A Pending JPH06217278A (en) 1993-01-13 1993-01-13 Image data encoding device

Country Status (1)

Country Link
JP (1) JPH06217278A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006485A (en) * 2005-06-22 2007-01-11 General Electric Co <Ge> System, method and computer command for compressing 4-dimensional data
US7970052B2 (en) 2003-01-14 2011-06-28 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970052B2 (en) 2003-01-14 2011-06-28 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US7970053B2 (en) 2003-01-14 2011-06-28 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US7970051B2 (en) 2003-01-14 2011-06-28 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US7970054B2 (en) 2003-01-14 2011-06-28 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US7978766B2 (en) 2003-01-14 2011-07-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US7978767B2 (en) 2003-01-14 2011-07-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US8014448B2 (en) 2003-01-14 2011-09-06 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US8331440B2 (en) 2003-01-14 2012-12-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US8340173B2 (en) 2003-01-14 2012-12-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US8345745B2 (en) 2003-01-14 2013-01-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
US8902975B2 (en) 2003-01-14 2014-12-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding and/or decoding moving pictures
JP2007006485A (en) * 2005-06-22 2007-01-11 General Electric Co <Ge> System, method and computer command for compressing 4-dimensional data

Similar Documents

Publication Publication Date Title
US8488870B2 (en) Multi-resolution, multi-window disparity estimation in 3D video processing
US8879840B2 (en) Image processor, image processing method, and program for shift-changing depth data of an image
US7027659B1 (en) Method and apparatus for generating video images
CN102055998B (en) Image processing apparatus, image processing method
US5473384A (en) Method of and system for enhancing distorted graphical information
EP2624563A1 (en) Motion-video encoding apparatus, motion-video decoding apparatus, motion-video encoding method, and motion-video decoding method
WO2013006115A2 (en) Depth or disparity map upscaling
MXPA03011623A (en) Configurable pattern optimizer.
Shao et al. Stereoscopic video coding with asymmetric luminance and chrominance qualities
Sethuraman et al. Multiresolution based hierarchical disparity estimation for stereo image pair compression
JPH06217278A (en) Image data encoding device
CN111654699A (en) Image transmission method and device
JP3733358B2 (en) Image transmission apparatus, transmission apparatus, reception apparatus, transmission method, and reception method
JP2006246351A (en) Image coding unit and image decoding unit
Kim et al. Synthesis of a high-resolution 3D stereoscopic image pair from a high-resolution monoscopic image and a low-resolution depth map
Bal et al. Detection and removal of binocular luster in compressed 3D images
Sonoda et al. Depth image compression by colorization for Intel RealSense depth cameras
Coltuc et al. Color stereo embedding by reversible watermarking
WO2010079682A1 (en) Image compression method, image processing apparatus, image display apparatus, and image display system
KR101609394B1 (en) Encoding Apparatus and Method for 3D Image
Kim et al. Object-based stereoscopic conversion of MPEG-4 encoded data
WO2011158562A1 (en) Multi-viewpoint image encoding device
JP3080486B2 (en) Orthogonal transform coding method for multi-view stereoscopic video
JP4763413B2 (en) Image improvement device
JP2022120891A (en) Image filtering device and program thereof, and image encoding device and program thereof

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20011204