JPH11234638A - Image coding device, its method and storage medium - Google Patents

Image coding device, its method and storage medium

Info

Publication number
JPH11234638A
JPH11234638A JP3283998A JP3283998A JPH11234638A JP H11234638 A JPH11234638 A JP H11234638A JP 3283998 A JP3283998 A JP 3283998A JP 3283998 A JP3283998 A JP 3283998A JP H11234638 A JPH11234638 A JP H11234638A
Authority
JP
Japan
Prior art keywords
motion
quantization
image
block
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3283998A
Other languages
Japanese (ja)
Inventor
Takuji Katsu
拓二 勝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3283998A priority Critical patent/JPH11234638A/en
Publication of JPH11234638A publication Critical patent/JPH11234638A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a video telephone set to attain image transfer at a low bit rate and with high image quality. SOLUTION: A block conversion circuit 10 divides an input image into a plurality of blocks placed concentrically with respect to a center block in the middle of the screen. An orthogonal transform circuit 14 uses discrete cosine transform(DCT) when a motion is detected in an image in the middle within the screen and uses lapped orthogonal transform(LOT) in the case of a still image when no motion is detected. A quantization circuit 16 applies a recommended quantization table to a center block of the screen when no motion is detected at a peripheral part and the motion is comparatively concentrated on the screen center, and it applies a quantization table whose values are higher than those of the recommended quantization table as a variable quantization method. When any motion is detected at the peripheral part of the screen, non-variable quantization, where the same quantization table is applied to all the blocks within the screen, is used.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像符号化装置及
び方法並びに記憶媒体に関し、より具体的には、テレビ
会議及びテレビ電話等に適した画像符号化装置及び方法
並びに記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding apparatus, method, and storage medium, and more particularly, to an image encoding apparatus, method, and storage medium suitable for a video conference, a video phone, and the like.

【0002】[0002]

【従来の技術】近年、日本国内でISDNやインターネ
ット等のデータ・ネットワークが整備されてきており、
これにより、テレビ会議やテレビ電話等の情報サービス
が利用可能になってきている。これらサービスに利用さ
れる画像圧縮技術としては、静止画像圧縮ではJPEG
(Joint Photographic Exper
t Group)方式が用いられ、動画像では、H.2
61方式及びMPGE(Moving Picture
Expert Group)方式が一般的に用いられ
ている。H.261方式は、ISDN回線の64kbp
s等の低ビットレートでの動画像伝送を対象としてい
る。MPEG方式は、H.261方式から発展したもの
であり、共通性が考慮されている。
2. Description of the Related Art In recent years, data networks such as ISDN and the Internet have been developed in Japan.
As a result, information services such as videoconferencing and videophone have become available. The image compression technology used for these services is JPEG for still image compression.
(Joint Photographic Expert
t Group) method is used, and in a moving image, H.264 is used. 2
61 system and MPGE (Moving Picture)
An Expert Group method is generally used. H. The H.261 method is 64 kbp of the ISDN line.
It is intended for moving image transmission at a low bit rate such as s. The MPEG system is based on H.264. This is an evolution from the H.261 system, taking into account commonality.

【0003】MPEG方式には、現在のところ3つのレ
ベルがある。レベル1は、主にテレビ電話やテレビ会議
等の使用を目的としており、推奨レートは15Mbps
である。レベル2は、ビデオ信号のディジタル伝送がタ
ーゲットにされており、推奨レートは10Mbpsであ
る。そして、レベル3は、次世代テレビ、即ち、高品位
テレビジョン信号が対象となっている。
The MPEG system currently has three levels. Level 1 is mainly for videophone and video conference use, and the recommended rate is 15 Mbps.
It is. Level 2 is targeted for digital transmission of video signals, with a recommended rate of 10 Mbps. Level 3 is for next-generation television, that is, high-definition television signals.

【0004】H261方式及びMPEG方式の特徴は、
離散コサイン変換DCT(Discrete Cosi
ne Transform)に代表される直交変換をベ
ースとするJPEG方式の静止画圧縮技術に、時間軸方
向の圧縮のためのフレーム間予測処理を加えた点にあ
る。このフレーム間処理は、基本的には動き補償予測を
行うことによってその効果が高められている。DCT及
び動き補償を行うマクロブロックサイズはそれぞれ、8
×8画素及び16×16画素である。
The features of the H261 system and the MPEG system are as follows.
Discrete Cosine Transform DCT
NeTransform), which is a point that an inter-frame prediction process for compression in the time axis direction is added to a JPEG still image compression technology based on orthogonal transform represented by ne Transform. The effect of this inter-frame processing is basically enhanced by performing motion compensation prediction. The macroblock sizes for DCT and motion compensation are 8
× 8 pixels and 16 × 16 pixels.

【0005】[0005]

【発明が解決しようとする課題】H.261方式では、
1画面が図6に示すように12個のブロックに分割さ
れ、その1つのブロックは更に、図7に示すように16
×16画素の33個(=3×11)のマクロブロックに
分割される。MPEG方式では、図8に示すように、1
画面の画像データを任意の位置で区切った複数のブロッ
クを画面左上から右下に横スキャンしていくようになっ
ている。
Problems to be Solved by the Invention In the H.261 system,
One screen is divided into 12 blocks as shown in FIG. 6, and one block is further divided into 16 blocks as shown in FIG.
It is divided into 33 (= 3 × 11) macroblocks of × 16 pixels. In the MPEG system, as shown in FIG.
A plurality of blocks obtained by dividing the image data of the screen at arbitrary positions are horizontally scanned from the upper left to the lower right of the screen.

【0006】このようなブロック配置は、商用テレビ等
の画像には有効であると考えられが、テレビ電話及びテ
レビ会議のように、話者の動きが一部分に集中し、他の
部分はほぼ静止している画像にとっては、効率の良いブ
ロック化とはいえない。つまり、同じ様な性質を持つ箇
所は同じブロックに属した方が、動き補償及び量子化の
点から符号を削減できるからである。
[0006] Such a block arrangement is considered to be effective for an image such as a commercial television, but the movement of the speaker is concentrated in one part and the other part is almost stationary as in a videophone and a video conference. This is not an efficient block operation for the image that is being processed. In other words, if portions having similar properties belong to the same block, codes can be reduced in terms of motion compensation and quantization.

【0007】本発明は、低ビットレート及び/又は高画
質を達成できる画像符号化装置及び方法並びに記憶媒体
を提示することを目的とする。
An object of the present invention is to provide an image encoding apparatus and method and a storage medium capable of achieving a low bit rate and / or high image quality.

【0008】[0008]

【課題を解決するための手段】本発明に係る画像符号化
装置は、画面内を複数のブロックに分割するブロック変
換手段と、当該ブロック変換手段によるブロック毎に画
像データを符号化する符号化手段とからなり、当該ブロ
ック変換手段によるブロックが、人物を撮影したときの
画面中央の中心ブロックとその周辺に位置する複数のブ
ロックからなることを特徴とする。
According to the present invention, there is provided an image coding apparatus comprising: a block converting means for dividing a screen into a plurality of blocks; and an encoding means for coding image data for each block by the block converting means. Wherein the block by the block converting means comprises a central block at the center of the screen when a person is photographed and a plurality of blocks located around the central block.

【0009】本発明に係る画像符号化方法は、画面内を
複数のブロックに分割するブロック変換ステップと、当
該ブロック変換ステップによるブロック毎に画像データ
を符号化する符号化ステップとからなり、当該ブロック
変換ステップによるブロックが、人物を撮影したときの
画面中央の中心ブロックとその周辺に位置する複数のブ
ロックからなることを特徴とする。
An image encoding method according to the present invention comprises a block conversion step of dividing a screen into a plurality of blocks, and an encoding step of encoding image data for each block by the block conversion step. The block in the conversion step includes a central block at the center of the screen when a person is photographed and a plurality of blocks located around the central block.

【0010】本発明に係る画像符号化方法は、プログラ
ム・ソフトウエアとして、外部記憶自在な記憶媒体に格
納されうる。
The image encoding method according to the present invention can be stored as program software in a storage medium that can be externally stored.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】図1は、本発明の一実施例の画像符号化装
置の概略構成ブロック図を示し、図2は、図1に示す画
像符号化装置に対応する画像復号化装置の概略構成ブロ
ック図を示す。
FIG. 1 is a schematic block diagram of an image coding apparatus according to an embodiment of the present invention. FIG. 2 is a schematic block diagram of an image decoding apparatus corresponding to the image coding apparatus shown in FIG. Is shown.

【0013】図1に示す画像符号化装置の構成を説明す
る。10は、図示しない画像メモリから入力する画像デ
ータを符号化ブロックに分割するブロック変換回路、1
2は、ブロック変換回路10から出力されるブロック毎
の画像データに、フレーム間予測符号化の場合に予測フ
レームの予測値を減算し、フレーム内符号化の場合には
ブロック変換回路10の出力をスルー出力する減算器、
14は、減算器12の出力を直交変換する直交変換回
路、16は直交変換回路16の出力を量子化する量子化
回路、18は量子化回路16の出力をエントロピー符号
化するエントロピー符号化回路、20はエントロピー符
号化回路18の出力データをバッファリングして伝送路
に送出するバッファである。
The configuration of the image coding apparatus shown in FIG. 1 will be described. A block conversion circuit 10 divides image data input from an image memory (not shown) into coding blocks.
2 subtracts the predicted value of the predicted frame in the case of inter-frame prediction coding from the image data of each block output from the block conversion circuit 10, and outputs the output of the block conversion circuit 10 in the case of intra-frame coding. Subtractor for through output,
14 is an orthogonal transform circuit for orthogonally transforming the output of the subtracter 12, 16 is a quantization circuit for quantizing the output of the orthogonal transform circuit 16, 18 is an entropy encoding circuit for entropy encoding the output of the quantization circuit 16, Reference numeral 20 denotes a buffer for buffering output data of the entropy encoding circuit 18 and transmitting the data to a transmission path.

【0014】22は、ブロック変換回路10の出力デー
タから動きを検出する動き検出回路、24は、量子化回
路16の出力を局所復号化し、動き検出回路22から出
力される動きベクトルを参照して動き補償した予測値を
減算器12に出力する動きフレーム間予測回路である。
Reference numeral 22 denotes a motion detection circuit for detecting a motion from the output data of the block conversion circuit 10, and 24 locally decodes the output of the quantization circuit 16 and refers to the motion vector output from the motion detection circuit 22. This is a motion inter-frame prediction circuit that outputs a motion-compensated prediction value to the subtractor 12.

【0015】動きフレーム間予測回路24は、量子化回
路16の出力を逆量子化する逆量子化回路26、逆量子
化回路26の出力を逆直交変換する逆直交変換回路2
8、フレーム間予測符号化の場合には逆直交変換回路2
8の出力に予測値を加算し、フレーム内符号化の場合に
は、逆直交変換回路28の出力をスルー出力する加算器
30、及び、動き検出回路22により検出された動きベ
クトルに従い加算器30の出力から予測値を算出する予
測回路32からなる。
The motion inter-frame prediction circuit 24 includes an inverse quantization circuit 26 for inversely quantizing the output of the quantization circuit 16 and an inverse orthogonal transformation circuit 2 for inversely orthogonally transforming the output of the inverse quantization circuit 26.
8. In the case of inter-frame predictive coding, an inverse orthogonal transform circuit 2
8 in the case of intra-frame coding, an adder 30 that outputs the output of the inverse orthogonal transform circuit 28 through-output, and an adder 30 according to the motion vector detected by the motion detection circuit 22. And a prediction circuit 32 for calculating a prediction value from the output of

【0016】本実施例では、直交変換回路14は、離散
コサイン変換(DCT)と重複直交変換(Lapped
Orthogonal Transform)とを適
宜に選択し、量子化回路16は、可変量子化と非可変量
子化を適宜に選択する。直交変換回路14及び量子化回
路16に対応して、動きフレーム間予測回路24の逆量
子化回路26は可変逆量子化と非可変逆量子化を具備
し、逆直交変換回路28は逆DCTと逆LOTを具備す
る。詳細は後述するが、直交変換と量子化の組み合わせ
は、動き検出回路22により検出される動きベクトルの
大きさに応じて決定される。
In the present embodiment, the orthogonal transform circuit 14 performs discrete cosine transform (DCT) and overlap orthogonal transform (Lapped).
Orthogonal Transform), and the quantization circuit 16 appropriately selects variable quantization and non-variable quantization. Corresponding to the orthogonal transformation circuit 14 and the quantization circuit 16, the inverse quantization circuit 26 of the motion inter-frame prediction circuit 24 has variable inverse quantization and non-variable inverse quantization, and the inverse orthogonal transformation circuit 28 has inverse DCT. It has an inverse LOT. Although the details will be described later, the combination of the orthogonal transformation and the quantization is determined according to the magnitude of the motion vector detected by the motion detection circuit 22.

【0017】本実施例の動作を説明する前に、本出願の
課題を解決するために必要な条件を簡単に説明する。上
述の課題を解決するには、第1に効率的なブロック化を
行い、第2に最適な量子化テーブルを割り当て(可変量
子化)、第3に画面が静止している場合に目立つブロッ
クノイズを抑制するという3点を考慮する必要がある。
Before describing the operation of the present embodiment, conditions necessary for solving the problems of the present application will be briefly described. In order to solve the above-described problems, first, efficient blocking is performed, second, an optimal quantization table is allocated (variable quantization), and third, block noise that is conspicuous when the screen is stationary. It is necessary to consider the three points of suppressing.

【0018】効率的なブロック化については、基本的
に、話者が画面中央に位置すると想定して、最も動きが
集中する顔付近を同一ブロック化すればよい。そして、
そのブロックから同心状に他のブロックを割り当てるこ
とによって、動きのある部分から少ない部分をそれぞれ
同じブロックに収容する。このようにすることで、同じ
ような性質を持つ画像部分を同一ブロックに入れること
ができ、符号化効率を高められる。
For efficient block formation, basically, assuming that the speaker is located at the center of the screen, the vicinity of the face where the movement is most concentrated may be formed into the same block. And
By allocating other blocks concentrically from that block, the lesser moving parts are accommodated in the same block. By doing so, image portions having similar properties can be included in the same block, and coding efficiency can be improved.

【0019】中心ブロックから同心状に各ブロックを配
置するのは、人間の視覚特性を考慮したからである。即
ち、目に写った視覚情報は、すべて均一に脳に伝達され
ているのではなく、眼球内の中心窩に写った情報がより
高い精度で脳に伝達される。中心窩は広くないので、人
間は、眼球運動によって視覚情報を補っている。従っ
て、目に写る視覚情報のほとんどが「見えている」ので
あって、「見ている」部分は少ない。テレビ電話又はテ
レビ会議では、「見ている」領域は通常、画面中央の話
者の顔付近となるので、次第に「見えている」領域に移
行していくように同心状にブロック化を行う。この観点
から、本実施例のブロック変換回路10は、画面中央に
顔がある図3(a)に示す顔画像に沿わせた図3(b)
に示すようなブロック構成で画像データをブロック変換
する。
The reason why each block is arranged concentrically from the center block is that human visual characteristics are taken into consideration. That is, all the visual information shown in the eyes is not uniformly transmitted to the brain, but the information shown in the fovea in the eyeball is transmitted to the brain with higher accuracy. Since the fovea is not wide, humans supplement visual information with eye movements. Therefore, most of the visual information visible to the eyes is "visible", and the "viewing" portion is small. In a videophone or videoconference, the "viewing" area is usually near the face of the speaker at the center of the screen, and concentric blocks are formed so as to gradually move to the "viewing" area. From this point of view, the block conversion circuit 10 of the present embodiment uses the face image shown in FIG.
The image data is subjected to block conversion with a block configuration as shown in FIG.

【0020】最適な量子化テーブルの割り当てについて
は、話者の顔に相当する中心ブロックに対して推奨量子
化テーブルを採用し、同心状に中心ブロックの周囲に広
がるブロックには、その推奨量子化テーブルを数倍した
ものを採用する。即ち、ブロック毎に値が変更される可
変量子化を適用する。これは、人間の視覚特性が、上述
のように画面中央に注視し、その外側は見えてはいるも
ののあまり意識されていないことに注目した結果であ
る。但し、画面内の話者が動いた場合は、それを注視す
る相手の視点も話者に追従して画面中央から外れること
になる。その場合には、同心状の周辺ブロック部にも推
奨量子化テーブルを用いる。
For optimal allocation of the quantization table, the recommended quantization table is adopted for the center block corresponding to the speaker's face, and the recommended quantization table is used for the blocks concentrically extending around the center block. Use a table that is several times larger. That is, a variable quantization in which a value is changed for each block is applied. This is a result of focusing on the fact that the visual characteristics of a human are focused on the center of the screen as described above, and the outside is visible but not so conscious. However, when the speaker in the screen moves, the viewpoint of the other party who gazes at the screen follows the speaker and deviates from the center of the screen. In that case, the recommended quantization table is used also for the concentric peripheral block portion.

【0021】本実施例では、このように画面全体の全ブ
ロックで推奨量子化テーブルを用いる場合は、上述の可
変量子化と区別して、非可変量子化と呼ぶことにする。
詳細は後述するが、可変量子化又は非可変量子化の何れ
を選択するかは、動き検出回路22で検出される周辺ブ
ロックでの動きベクトルによって決定される。通常、画
面内の話者は一定位置にあるので、同心状の周辺ブロッ
クの動きベクトルは極めて小さいと考えられるが、画面
内の話者が体勢を変えた場合は、同心状の周辺ブロック
の動きベクトルが大きくなるからである。つまり、画面
内の話者がほぼ一定位置で動きが顔面位置の中心ブロッ
クに集中し、周辺ブロックでは動きが少なく、動きベク
トル量が少ない場合は、可変量子化として周辺ブロック
には推奨量子化テーブルを数倍したものを用いる。ま
た、画面内の話者が体勢を変え、周辺ブロックの動きベ
クトル量が大きくなった場合は、非可変量子化として全
てのブロックで推奨量子化テーブルを用いる。そして、
話者が再び画面中央に戻って静止した場合は、再び、可
変量子化を用いるようにする。
In the present embodiment, when the recommended quantization table is used for all blocks of the entire screen as described above, it is referred to as non-variable quantization in distinction from the above-described variable quantization.
Although details will be described later, whether to select variable quantization or non-variable quantization is determined by a motion vector in a peripheral block detected by the motion detection circuit 22. Usually, since the speaker in the screen is at a fixed position, the motion vector of the concentric peripheral block is considered to be extremely small, but when the speaker in the screen changes posture, the motion of the concentric peripheral block is This is because the vector becomes large. In other words, when the speaker in the screen moves at a substantially constant position and the movement concentrates on the central block of the face position, the motion is small in the peripheral blocks, and the motion vector amount is small, the variable quantization is used as the recommended quantization table for the peripheral blocks. Use a number obtained by multiplying If the speaker in the screen changes his posture and the motion vector amount of the peripheral block increases, the recommended quantization table is used for all blocks as non-variable quantization. And
When the speaker returns to the center of the screen and stops, the variable quantization is used again.

【0022】ブロック・ノイズは以下のようにして抑圧
する。即ち、ITU−T勧告H.261、及びISO/
IEC MPEG(Moving Picture E
xperts Group)等の国際標準のビデオ符号
化方式はすべて、DCTを使用する。しかし、DCT
は、前述のようにマクロブロック(8×8画素)内で完
全に閉じた変換になっているので、低ビットレートの符
号化では、マクロブロックの不連続歪みが生じる欠点が
ある。
Block noise is suppressed as follows. That is, according to ITU-T Recommendation H.264. 261 and ISO /
IEC MPEG (Moving Picture E
All international standard video coding schemes, such as xparts Group, use DCT. However, DCT
As described above, since the conversion is completely closed within a macroblock (8 × 8 pixels) as described above, there is a drawback that discontinuity of the macroblock occurs in encoding at a low bit rate.

【0023】これらのブロックノイズは、画面が常に変
化している状態では、人の視覚特性からさほど気になら
ないが、画面が静止した場合に特に目につきやすい。テ
レビ電話やテレビ会議などでは、途中で画面を停止させ
るような状況も考えられる。例えば、プレゼンテーショ
ンなどでグラフを示したり、写真などを参照したりする
場合である。
These block noises are not particularly noticeable from the viewpoint of human vision when the screen is constantly changing, but are particularly noticeable when the screen is stationary. In a videophone call, a video conference, or the like, a situation in which the screen is stopped halfway may be considered. For example, this is a case where a graph is shown in a presentation or a photograph is referred to.

【0024】本実施例では、静止画面状態では、ブロッ
クノイズを軽減するために、重複直交変換LOT(La
pped Orthogonal Transfor
m)による直交変換を利用する。ここで簡単に、以前か
ら提唱されているブロックノイズの低減方法とLOTを
説明する。以前から提唱されているブロックノイズを低
減させる方法には、ブロックとブロックをオーバーラッ
プさせるオーパーラップ方式と、復号器側で境界ピクセ
ルにローパスフィルタをかけるフィルタリング方式があ
る。前者はビットレートが高くなり、後者はブロックの
境界がぼやけるという欠点があった。
In the present embodiment, in the still picture state, the overlapping orthogonal transform LOT (La
ppped Orthogonal Transfer
m). Here, the block noise reduction method and the LOT proposed previously have been briefly described. Methods of reducing block noise that have been proposed in the past include an overlap method in which blocks overlap each other and a filtering method in which a low-pass filter is applied to boundary pixels on the decoder side. The former has a disadvantage that the bit rate is high, and the latter has a drawback that the block boundaries are blurred.

【0025】オーバーラップ方式が空間領域の画像に対
してオーバーラップさせるのに対し、LOTは、変換基
底が隣接ブロックにオーバーラップしているので、ブロ
ックノイズが軽減されるだけでなく、特定の変換係数に
対する電力集中度(Energy Compactio
n)がDCTより優れている。しかも符号化のサンプル
数もDCTと同じになるように基底行列が定められてい
るので、付加ビットが不要である。つまり、従来の直交
変換方式のDCT変換回路をLOT変換に置き換えてそ
のまま使用することができる。ただし、LOTに要する
演算時間は、DCTに比べ30%増し程度であり、動画
処理状態では演算負荷が増加してしまうので、極力、動
画処理には適用しない。
[0025] Whereas the overlap scheme overlaps the image in the spatial domain, LOT not only reduces block noise because the transform basis overlaps adjacent blocks, but also reduces the specific transform. Power Concentration Ratio to Energy (Energy Compaction)
n) is better than DCT. Moreover, since the basis matrix is determined so that the number of samples for encoding is the same as that of DCT, additional bits are unnecessary. In other words, the conventional orthogonal transform DCT transform circuit can be replaced with LOT transform and used as it is. However, the calculation time required for the LOT is about 30% longer than that of the DCT, and the calculation load increases in the moving image processing state. Therefore, the calculation time is not applied to the moving image processing as much as possible.

【0026】以上を整理すると、本実施例では、画面が
停止している静止画状態ではLOT変換を主に使用し、
画面内の話者が話し出すなどにより、再び動きが発生し
た時は、DCT変換を主に使用する。その切換えは、動
きベクトル、特に、中心ブロックの動きベクトルを参照
して決定する。これは、中心ブロックが最も動きがある
(口の動き及び顔の表情の変化など)ので、このブロッ
クの動きベクトル量を参照することで、画面が静止状態
であるのか話者に動きがあるのかを容易に判定できるか
らである。ただし、LOT変換を適用する場合、画面内
の全てのブロックには同じ量子化テーブルを用いる(非
可変量子化)。これは、前述のように静止画像時の画質
を向上させるためである。
Summarizing the above, in this embodiment, LOT conversion is mainly used in a still image state where the screen is stopped,
When movement occurs again due to a speaker in the screen speaking, DCT conversion is mainly used. The switching is determined with reference to the motion vector, particularly the motion vector of the central block. This is because the center block has the most movement (such as the movement of the mouth and the change of the facial expression). By referring to the motion vector amount of this block, it is determined whether the screen is stationary or the speaker has movement. Can be easily determined. However, when applying the LOT transform, the same quantization table is used for all blocks in the screen (non-variable quantization). This is to improve the image quality of a still image as described above.

【0027】本実施例の基本的な動作を説明する。先に
述べた理由により、本実施例のブロック変換回路10
は、画面中央に顔がある図3(a)に示す顔画像に沿わ
せた図3(b)に示すようなブロック構成で画像データ
をブロック変換する。ブロック変換回路10によりブロ
ック変換された画像データは、減算器12及び動き検出
回路22に印加される。動き検出回路22は、ブロック
変換回路10からのブロック変換された画像データから
動きベクトルを求める。動き検出回路22によ得られた
動きベクトルは、動き補償のために予測回路32に供給
され、圧縮画像データと伝送するためにエントロピー符
号化回路18に供給される。動き検出回路22により得
られた動きベクトルはまた、直交変換回路14での直交
変換方式及び量子化回路16の量子化方式の選択のため
に直交変換回路14及び量子化回路16に供給される。
The basic operation of this embodiment will be described. For the reason described above, the block conversion circuit 10 of the present embodiment is used.
Converts the image data into blocks in a block configuration as shown in FIG. 3B along the face image shown in FIG. 3A having a face at the center of the screen. The image data block-converted by the block conversion circuit 10 is applied to the subtractor 12 and the motion detection circuit 22. The motion detection circuit 22 obtains a motion vector from the block-converted image data from the block conversion circuit 10. The motion vector obtained by the motion detection circuit 22 is supplied to the prediction circuit 32 for motion compensation, and is supplied to the entropy encoding circuit 18 for transmission with the compressed image data. The motion vector obtained by the motion detection circuit 22 is also supplied to the orthogonal transformation circuit 14 and the quantization circuit 16 for selecting the orthogonal transformation method in the orthogonal transformation circuit 14 and the quantization method in the quantization circuit 16.

【0028】減算器12は、ブロック変換回路10から
の画像データから、動きフレーム間予測回路24からの
動き補償された予測値を減算し、直交変換回路14に印
加する。直交変換回路14は、減算器12から出力され
る差分画像データを直交変換し、その変換係数を量子化
回路16に出力する。
The subtractor 12 subtracts the motion-compensated predicted value from the inter-frame prediction circuit 24 from the image data from the block conversion circuit 10, and applies the subtracted value to the orthogonal transformation circuit 14. The orthogonal transform circuit 14 orthogonally transforms the difference image data output from the subtractor 12 and outputs the transform coefficients to the quantization circuit 16.

【0029】先に説明したように、直交変換回路14
は、DCT演算部とLOT演算部を具備し、動き検出回
路22からの動きベクトル量に従い、どちらを適用する
かを決定する。具体的には、図3(b)に示す中心ブロ
ックAでの動きベクトル量にある閾値Taを設定し、ブ
ロックAのベクトル量Vaがその閾値Taを越えた場合
(Va>Ta)、画面内で人物が動いている動画状態で
あると判断し、DCT演算を適用して高速化を図る。逆
に、動きベクトル量Vaが閾値Ta以下の場合、画面が
静止状態であると判断してLOT演算を適用して、高画
質化を図る。
As described above, the orthogonal transform circuit 14
Has a DCT operation unit and a LOT operation unit, and determines which one to apply according to the amount of motion vector from the motion detection circuit 22. Specifically, a threshold Ta is set for the motion vector amount in the central block A shown in FIG. 3B, and when the vector amount Va of the block A exceeds the threshold Ta (Va> Ta), the screen Is determined to be a moving image state in which a person is moving, and DCT calculation is applied to increase the speed. Conversely, when the motion vector amount Va is equal to or less than the threshold value Ta, it is determined that the screen is in a stationary state, and the LOT calculation is applied to improve the image quality.

【0030】量子化回路16は、直交変換回路14から
の変換係数データを、図示しない量子化テーブルROM
に記憶される量子化テーブルに従って量子化する。但
し、先に説明したように、本実施例では、量子化回路1
6は、動き検出回路22からの動きベクトルを参照し、
画面周辺部に動きが生じずに比較的画面中心部に動きが
集中している場合は、可変量子化を適用し、周辺のブロ
ックには推奨量子化テーブルを数倍したものを用いるこ
とによりビットレートを低減する。周辺部にも動きが検
出されて、画面内全体に動きがある場合は、非可変量子
化を適用し、周辺のブロックにも推奨量子化テーブルを
用いることにより、H.261及びMPEG等の標準画
像符号化方式を使用して画質劣化を低減する。
The quantization circuit 16 converts the transform coefficient data from the orthogonal transform circuit 14 into a quantization table ROM (not shown).
Are quantized according to the quantization table stored in. However, as described above, in the present embodiment, the quantization circuit 1
6 refers to the motion vector from the motion detection circuit 22;
If motion is relatively concentrated in the center of the screen without any movement in the periphery of the screen, apply variable quantization, and use bits obtained by multiplying the recommended quantization table by several times for surrounding blocks. Reduce rate. When motion is detected also in the peripheral portion and there is motion in the entire screen, non-variable quantization is applied, and the recommended quantization table is used for the peripheral blocks, so that H.264 is used. Image quality degradation is reduced using standard image coding methods such as H.261 and MPEG.

【0031】量子化回路16は、動き検出回路16で求
められたブロック毎の動きベクトルの内、周辺ブロック
の動きベクトル量により、可変量子化又は非可変量子化
を選択する。具体的には、周辺ブロックのベクトル量の
和Vbと閾値Tsを比較し、ベクトル和Vbが閾値Ts
以下の場合は、周辺部に動きがないものと判断して可変
量子化を適用し、閾値Tsよりも大きい場合、周辺部に
おいても動きがあると判断して、非可変量子化を適用す
る。可変量子化では、周辺ブロックB〜Fには推奨量子
化テーブルの3倍の値の量子化テーブルを適用し、周辺
ブロックG〜Iには推奨量子化テーブルの5倍の値の量
子化テーブルを適用する。但し、この倍数は、環境条件
により任意に決定するようにしてもよい。図4は、可変
量子化方式の量子化テーブルの一例であって、中心ブロ
ックAに適用する推奨量子化テーブル(図4(a))
と、周辺ブロックG〜Iに適用する5倍の量子化テーブ
ル(図4(b))を示す。
The quantization circuit 16 selects variable quantization or non-variable quantization according to the motion vector amount of a peripheral block among the motion vectors for each block obtained by the motion detection circuit 16. Specifically, the sum Vb of the vector amounts of the peripheral blocks is compared with the threshold value Ts, and the vector sum Vb is set to the threshold value Ts.
In the following cases, it is determined that there is no motion in the peripheral portion, and variable quantization is applied. When the value is larger than the threshold value Ts, it is determined that there is also motion in the peripheral portion, and non-variable quantization is applied. In the variable quantization, a quantization table having a value three times the recommended quantization table is applied to the peripheral blocks BF, and a quantization table having a value five times the recommended quantization table is applied to the peripheral blocks GI. Apply. However, this multiple may be arbitrarily determined according to environmental conditions. FIG. 4 is an example of a quantization table of the variable quantization system, and is a recommended quantization table applied to the central block A (FIG. 4A).
And a five-fold quantization table (FIG. 4B) applied to peripheral blocks GI.

【0032】動き検出回路22により検出された動きベ
クトルと、直交変換回路14における変換方式と量子化
回路16の量子化テーブルの選択との関係を図5に示
す。
FIG. 5 shows the relationship between the motion vector detected by the motion detection circuit 22, the transformation method in the orthogonal transformation circuit 14, and the selection of the quantization table in the quantization circuit 16.

【0033】中心ブロックAの動きベクトル量から動き
が検出されない場合(S1)、LOTと非可変量子化の
組み合わせが選択され(S2)、高画質化が優先され
る。また、中心ブロックAに動きが検出された場合(S
1)、周辺ブロックのベクトル量から周辺部に動きがあ
るか否かを判定し(S2)、周辺部に動きがないと判定
された場合、即ち、比較的画面中心部に動きが集中して
いる場合は、DCTと可変量子化の組み合わせが選択さ
れ(S4)、低ビットレート化が優先される。周辺部に
動きがあると判定された判定された場合(S3)、即
ち、画面全体に動きがある場合は、DCTと非可変量子
化の組み合わせが選択され、H.261及びMPEG等
の標準方式によるビットレートと画質のバランスの両方
がバランス良く選択される。
If no motion is detected from the motion vector amount of the central block A (S1), a combination of LOT and non-variable quantization is selected (S2), and higher image quality is prioritized. When a motion is detected in the central block A (S
1) It is determined whether or not there is a motion in the peripheral portion based on the vector amount of the peripheral block (S2). If there is, a combination of DCT and variable quantization is selected (S4), and a lower bit rate is prioritized. When it is determined that there is movement in the peripheral part (S3), that is, when there is movement in the entire screen, a combination of DCT and non-variable quantization is selected, and H.264 is selected. The balance between the bit rate and the image quality according to standard methods such as H.261 and MPEG is selected in a well-balanced manner.

【0034】量子化回路16の出力は、エントロピー符
号化回路18と動きフレーム間予測回路24に印加され
る。エントロピー符号化回路18は、エントロピー符号
化用テーブルROMの値に従って量子化回路16の出力
及び動き検出回路22からの動きベクトルをエントロピ
ー符号化し、データ・バッファ20に書き込む。具体的
には、エントロピー符号化回路18は、量子化回路16
から出力されるマトリクス・データに対し、各マクロブ
ロック毎にエネルギーの集中する係数から順にジグザグ
・スキャンして一次元配列に変換し、その一次元配列の
量子化データに、ハフマン符号化又は算術符号化などを
用いて、統計的な発生頻度に基づいた符号を割り当て
る。バッファ20は、エントロピー符号化回路18から
出力されるデータのレートを出力先の伝送路のレートに
平滑化する。
The output of the quantization circuit 16 is applied to an entropy coding circuit 18 and a motion inter-frame prediction circuit 24. The entropy encoding circuit 18 entropy-encodes the output of the quantization circuit 16 and the motion vector from the motion detection circuit 22 according to the value of the entropy encoding table ROM, and writes the encoded data into the data buffer 20. Specifically, the entropy encoding circuit 18
The matrix data output from is converted into a one-dimensional array by zigzag scanning in order from the coefficient in which energy is concentrated for each macroblock, and the Huffman coding or arithmetic coding is performed on the quantized data of the one-dimensional array. A code is assigned based on the statistical frequency of occurrence by using a method such as conversion. The buffer 20 smoothes the rate of the data output from the entropy encoding circuit 18 to the rate of the transmission path of the output destination.

【0035】伝送路に送出されたデータは、伝送路を伝
搬し、図2に示す受信装置に入力して、復号化される。
The data transmitted to the transmission path propagates through the transmission path, is input to the receiver shown in FIG. 2, and is decoded.

【0036】動きフレーム間予測回路24は、先ず、量
子化回路16の出力データを局部復号化する。即ち、逆
量子化回路26は、量子化回路16の出力データを逆量
子化し、逆直交変換回路28は、逆量子化回路26の出
力を逆直交変換する。勿論、逆量子化回路26は、動き
検出回路22からの動きベクトルを参照して、量子化回
路16で採用されたのと同じ量子化テーブルを採用し、
逆直交変換回路28も、動き検出回路22からの動きベ
クトルを参照して、直交変換回路14で採用された直交
変換方式に対応する逆直交変換を採用する。逆直交変換
回路28の出力は、フレーム間差分符号化方式の場合に
は、差分画像データに相当し、加算器30は逆直交変換
回路28の出力に予測フレームの予測値を加算して、予
測回路32に供給する。予測回路32は、動き検出回路
22から出力される動きべクトルを参照し、加算器32
の出力を動き補償した予測値を算出する。但し、予測回
路32は、フレーム間符号化の場合には、予測値を算出
するが、フレーム内符号化の場合には、ゼロ値を出力す
る。予測回路32の出力は、加算器30及び減算器12
に印加される。
The inter-motion-frame prediction circuit 24 first locally decodes the output data of the quantization circuit 16. That is, the inverse quantization circuit 26 inversely quantizes the output data of the quantization circuit 16, and the inverse orthogonal transform circuit 28 performs an inverse orthogonal transform on the output of the inverse quantization circuit 26. Of course, the inverse quantization circuit 26 uses the same quantization table as that used in the quantization circuit 16 with reference to the motion vector from the motion detection circuit 22,
The inverse orthogonal transform circuit 28 also adopts an inverse orthogonal transform corresponding to the orthogonal transform method adopted by the orthogonal transform circuit 14 with reference to the motion vector from the motion detection circuit 22. The output of the inverse orthogonal transform circuit 28 corresponds to difference image data in the case of the inter-frame difference encoding method, and the adder 30 adds the predicted value of the predicted frame to the output of the inverse orthogonal transform circuit 28 to perform prediction. Supply to the circuit 32. The prediction circuit 32 refers to the motion vector output from the motion detection circuit 22 and
Is calculated by motion-compensating the output of. However, the prediction circuit 32 calculates a predicted value in the case of inter-frame encoding, but outputs a zero value in the case of intra-frame encoding. The output of the prediction circuit 32 is supplied to the adder 30 and the subtractor 12
Is applied to

【0037】なお、図示しないコントローラが、図1に
示す装置全体、特に、符号化モード、及び、バッファ2
0の記憶データ量に基づくフレーム間引き等を制御す
る。
A controller (not shown) controls the entire apparatus shown in FIG. 1, in particular, the coding mode and the buffer 2.
Frame thinning or the like based on the stored data amount of 0 is controlled.

【0038】図2に示す復号化装置を説明する。伝送路
からのデータはバッファ40でレート調整されてエント
ロピー復号化回路42に入力する。エントロピー復号化
回路42は、バッファ40から入力するデータを、エン
トロピー符号化回路18とは逆の処理で復号化し、画像
情報と動き情報を分離して、画像情報を逆量子化回路4
4に供給すると共に、動き情報を逆量子化回路44、逆
直交変換回路46及び予測回路50に供給する。逆量子
化回路44は、逆量子化回路26と全く同様に動作し
て、エントロピー復号化回路42からの画像情報を逆量
子化し、逆直交変換回路46は、逆直交変換回路28と
全く同様に動作して、逆量子化回路26の出力データを
逆直交変換する。逆直交変換回路46の出力データは、
フレーム内符号化の場合には、画像データそのものであ
るが、フレーム間符号化の場合には、差分画像データに
なっている。
The decoding device shown in FIG. 2 will be described. The data from the transmission path is rate-adjusted by the buffer 40 and input to the entropy decoding circuit 42. The entropy decoding circuit 42 decodes the data input from the buffer 40 by a process reverse to that of the entropy coding circuit 18, separates the image information and the motion information, and converts the image information into the inverse quantization circuit 4.
4 and the motion information to the inverse quantization circuit 44, the inverse orthogonal transform circuit 46, and the prediction circuit 50. The inverse quantization circuit 44 operates in exactly the same way as the inverse quantization circuit 26, and inversely quantizes the image information from the entropy decoding circuit 42. The inverse orthogonal transform circuit 46 operates in exactly the same way as the inverse orthogonal transform circuit 28. In operation, the output data of the inverse quantization circuit 26 is subjected to inverse orthogonal transform. The output data of the inverse orthogonal transform circuit 46 is
In the case of intra-frame encoding, the image data itself is used. In the case of inter-frame encoding, the image data is difference image data.

【0039】加算器48は、フレーム内符号化の場合に
は、逆直交変換回路46の出力データにゼロ値を加算し
て出力し、フレーム間符号化の場合には、フレーム間符
号化の場合には、逆直交変換回路46の出力に予測値を
加算して出力する。加算器48の出力波受信画像データ
として外部に出力されると共に、予測回路50にも印加
される。予測回路50は、予測回路32と同様に、エン
トロピー復号化回路42からの動きべクトルを参照し、
加算器48の出力を動き補償した予測値を算出し、フレ
ーム間符号化の場合には予測値を、フレーム内符号化の
場合にはゼロ値を加算器48に印加する。
The adder 48 adds a zero value to the output data of the inverse orthogonal transform circuit 46 in the case of intra-frame coding, and outputs the result. , A predicted value is added to the output of the inverse orthogonal transform circuit 46, and the result is output. The output wave reception image data of the adder 48 is output to the outside as well as applied to the prediction circuit 50. The prediction circuit 50 refers to the motion vector from the entropy decoding circuit 42 similarly to the prediction circuit 32,
A predicted value obtained by motion-compensating the output of the adder 48 is calculated, and the predicted value is applied to the adder 48 in the case of inter-frame coding and the zero value in the case of intra-frame coding.

【0040】伝送路としては通信回線のみならず、種々
の記録媒体、例えば、光磁気ディスク、光ディスク、磁
気テープ及び磁気ディスクなどを使用する記録再生系も
含めて考えられるべきである。技術的に異なる点が無い
からである。
The transmission path should include not only a communication line but also a recording / reproducing system using various recording media, for example, a magneto-optical disk, an optical disk, a magnetic tape, and a magnetic disk. This is because there is no technical difference.

【0041】次に、本実施例の特徴部分の動作を詳細に
説明する。動き補償予測符号化方式では、送信側の符号
化装置は、入力画像を所定ブロック形式にブロック変換
し、ブロック毎に動き補償予測符号化し、エントロピー
符号化する。具体的には、ブロック変換回路10は、入
力画像データを図3(b)に示すような、顔画像に沿っ
たブロック配置のブロックに変換する。つまり、図3
(b)に示すように、画面のほぼ中央に位置するブロッ
クAを中心として同心状にブロックB、ブロックC及び
ブロックD・・・を配置する。
Next, the operation of the characteristic portion of this embodiment will be described in detail. In the motion compensation predictive coding method, a coding device on the transmission side performs block conversion of an input image into a predetermined block format, performs motion compensation predictive coding for each block, and performs entropy coding. More specifically, the block conversion circuit 10 converts the input image data into blocks arranged in blocks along the face image as shown in FIG. That is, FIG.
As shown in (b), a block B, a block C, a block D,... Are arranged concentrically around a block A located substantially at the center of the screen.

【0042】図3(a)及び図3(b)から分るよう
に、顔面はブロックAでほぼカバーされる。また、ブロ
ックAの周囲のブロックB〜Dは、被写体人物の髪及び
服などを含み、人は左右対称であるから、各ブロックの
画面右側部分と左側部分はその特性がほぼ同じになる。
ブロックG〜Iは背景であり、これも同様である。従っ
て、テレビ会議及びテレビ電話等に限定すれば、各ブロ
ックの右側部分と左側部分はほとんど同じ性質の画像と
なり、高い符号化効率を達成できる。
As can be seen from FIGS. 3A and 3B, the face is almost covered by the block A. The blocks B to D around the block A include the hair and clothes of the subject person, and the person is symmetrical, so that the right and left portions of the screen of each block have substantially the same characteristics.
Blocks GI are backgrounds, and so are the blocks. Therefore, if limited to video conferencing, video telephony, and the like, the right and left portions of each block become images having almost the same properties, and high coding efficiency can be achieved.

【0043】加算器12は、ブロック変換回路10から
ので画像データから、動きフレーム間予測回路24から
の動き補償フレーム間予測処理による予測結果を減算
し、減算結果、即ち、差分画像データを直交変換回路1
4に供給する。直交変換回路14は、加算器12からの
差分画像データを直交変換する。本実施例では、前述の
ように、動き検出回路22からの中心ブロックAの動き
ベクトルを参照してブロックAが動画状態か静止画状態
かを判定し、DCT処理又はLOT処理を選択する。
The adder 12 subtracts the prediction result from the motion compensation inter-frame prediction processing from the motion inter-frame prediction circuit 24 from the image data from the block conversion circuit 10, and performs the orthogonal transformation on the subtraction result, ie, the difference image data. Circuit 1
4 The orthogonal transform circuit 14 orthogonally transforms the difference image data from the adder 12. In this embodiment, as described above, it is determined whether the block A is in the moving image state or the still image state with reference to the motion vector of the central block A from the motion detection circuit 22, and DCT processing or LOT processing is selected.

【0044】量子化回路16は、直交変換回路14から
出力される変換係数データを図示しない量子化テーブル
ROMに記憶される量子化テーブル値に従って量子化す
る。本実施例では、前述のように、動き検出回路22か
らの画面周辺部のブロックの動きベクトルを参照して、
周辺部に動きが生じておらず、比較的中心部に動きが集
中している場合と画面内全体に動きがある場合とを判定
し、可変量子化又は非可変量子化を選択する。
The quantization circuit 16 quantizes the transform coefficient data output from the orthogonal transform circuit 14 according to a quantization table value stored in a quantization table ROM (not shown). In the present embodiment, as described above, referring to the motion vector of the block around the screen from the motion detection circuit 22,
Judgment is made between the case where no movement has occurred in the peripheral portion and the movement is relatively concentrated in the central portion and the case where there is movement in the entire screen, and variable quantization or non-variable quantization is selected.

【0045】動き検出回路22は、ブロック変換回路1
0によりブロック変換された画像データから動きベクト
ルを求めて、動きフレーム間予測回路24の予測回路3
2に出力する。動きフレーム間予測回路24は、動き検
出回路22により検出された動きベクトルを基に動き補
償予測を行う。
The motion detecting circuit 22 includes the block converting circuit 1
0 to obtain a motion vector from the image data block-converted by the
Output to 2. The motion inter-frame prediction circuit 24 performs motion compensation prediction based on the motion vector detected by the motion detection circuit 22.

【0046】図3(b)のブロック配置は一例であり、
ブロックの数、位置及び形状等は、図示例に限定されな
い。
The block arrangement in FIG. 3B is an example,
The number, position, shape, and the like of the blocks are not limited to the illustrated example.

【0047】また、本実施例は、ハードウエアにみなら
ず、その一部又は全部がソフトウエアにより実現できる
ことは明らかである。
It is apparent that the present embodiment can be realized not only by hardware but also partly or entirely by software.

【0048】本発明は、複数の機器(例えばホストコン
ピュータ、インタフェース機器、リーダ及びプリンタ
等)から構成されるシステムに適用しても、一つの機器
(例えば複写機及びファクシミリ装置)からなる装置に
適用してもよい。
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader and a printer, etc.), or to an apparatus including one device (for example, a copier and a facsimile machine). May be.

【0049】また、上述した実施形態の機能を実現する
ように各種のデバイスを動作させるべく当該各種デバイ
スと接続された装置又はシステム内のコンピュータに、
上記実施形態の機能を実現するためのソフトウェアのプ
ログラムコードを供給し、その装置又はシステムのコン
ピュータ(CPU又はMPU)を、格納されたプログラ
ムに従って前記各種デバイスを動作させることによって
実施したものも、本願発明の範囲に含まれる。
Further, in order to operate various devices so as to realize the functions of the above-described embodiment, a computer in an apparatus or a system connected to the various devices includes:
The present invention also provides a program code of software for realizing the functions of the above-described embodiments, which is implemented by operating a computer (CPU or MPU) of the device or system according to a stored program to operate the various devices. Included in the scope of the invention.

【0050】この場合、前記ソフトウエアのプログラム
コード自体が、前述した実施形態の機能を実現すること
になり、そのプログラムコード自体、及びそのプログラ
ムコードをコンピュータに供給するための手段、例え
ば、かかるプログラムコードを格納した記憶媒体は、本
発明を構成する。かかるプログラムコードを格納する記
憶媒体としては、例えば、フロッピーディスク、ハード
ディスク、光ディスク、光磁気ディスク、CD−RO
M、磁気テープ、不揮発性のメモリカード及びROM等
を用いることが出来る。
In this case, the program code itself of the software realizes the functions of the above-described embodiment, and the program code itself and means for supplying the program code to the computer, for example, the program The storage medium storing the code constitutes the present invention. Examples of storage media for storing such program codes include floppy disks, hard disks, optical disks, magneto-optical disks, and CD-ROs.
M, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.

【0051】また、コンピュータが供給されたプログラ
ムコードを実行することにより、前述の実施形態の機能
が実現されるだけではなく、そのプログラムコードがコ
ンピュータにおいて稼働しているOS(オペレーティン
グシステム)又は他のアプリケーションソフトウエア等
と共同して上述の実施形態の機能が実現される場合に
も、かかるプログラムコードが本出願に係る発明の実施
形態に含まれることは言うまでもない。
When the computer executes the supplied program code, not only the functions of the above-described embodiment are realized, but also the OS (operating system) or other operating system running on the computer. Even when the functions of the above-described embodiments are realized in cooperation with application software or the like, it goes without saying that such program codes are included in the embodiments of the invention according to the present application.

【0052】更には、供給されたプログラムコードが、
コンピュータの機能拡張ボード又はコンピュータに接続
された機能拡張ユニットに備わるメモリに格納された
後、そのプログラムコードの指示に基づいて、その機能
拡張ボード又は機能拡張ユニットに備わるCPU等が実
際の処理の一部または全部を行い、その処理によって上
述した実施形態の機能が実現される場合も、本出願に係
る発明に含まれることは言うまでもない。
Further, the supplied program code is
After being stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU or the like provided in the function expansion board or the function expansion unit performs one of the actual processing based on the instruction of the program code. It goes without saying that a case where the functions of the above-described embodiments are realized by performing the processing of all or part of the units is also included in the invention according to the present application.

【0053】[0053]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、被写体画像の性質と人の視覚特性
に基づいたブロック化、直交変換及び量子化により、低
ビットレートでも高い画質を実現でき、低ビット・レー
トの伝送路でも、テレビ電話又はテレビ会議で高い画質
を実現できる。静止画像時には、LOT演算を用いるこ
とによりDCT演算を使用したときに問題となるブロッ
クノイズを低減できる。
As can be easily understood from the above description, according to the present invention, high image quality can be obtained even at a low bit rate by performing blocking, orthogonal transformation, and quantization based on the characteristics of the subject image and the visual characteristics of a person. , And high image quality can be realized in a videophone or videoconference even with a low bit rate transmission path. At the time of a still image, by using the LOT operation, it is possible to reduce block noise which is a problem when the DCT operation is used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例の画像符号化装置の概略構
成ブロック図である。
FIG. 1 is a schematic configuration block diagram of an image encoding device according to an embodiment of the present invention.

【図2】 図1に示す画像符号化装置に対応する画像復
号化装置の概略構成ブロック図である。
FIG. 2 is a schematic block diagram of an image decoding device corresponding to the image encoding device shown in FIG.

【図3】 テレビ電話又はテレビ会議の画面例(a)と
これに対応する本実施例のブロック配置(b)を示す図
である。
FIG. 3 is a diagram illustrating an example of a videophone or videoconference screen (a) and a corresponding block arrangement (b) of the present embodiment.

【図4】 本実施例で中心ブロックに使用する推奨量子
化テーブル(a)と、周辺ブロックG〜Iに使用する量
子化テーブル(b)の一例である。
FIG. 4 is an example of a recommended quantization table (a) used for a central block and a quantization table (b) used for peripheral blocks GI in this embodiment.

【図5】 本実施例の直交変換方式及び量子化方式の選
択のフローチャートである。
FIG. 5 is a flowchart of selection of an orthogonal transform method and a quantization method according to the present embodiment.

【図6】 H.261のブロック配置図である。FIG. 261 is a block layout diagram. FIG.

【図7】 図6のブロックAの拡大図である。FIG. 7 is an enlarged view of a block A in FIG. 6;

【図8】 MPEG方式におけるブロック図配置図であ
る。
FIG. 8 is a block diagram layout in the MPEG system.

【符号の説明】[Explanation of symbols]

10:ブロック変換回路 12:減算器 14:直交変換回路 16:量子化回路 18:エントロピー符号化回路 20:バッファ 22:動き検出回路 24:動きフレーム間予測回路 26:逆量子化回路 28:逆直交変換回路 30:加算器 32:予測回路 40:バッファ 42:エントロピー復号化回路 44:逆量子化回路 46:逆直交変換回路 48:加算器 50:予測回路 10: Block transformation circuit 12: Subtractor 14: Orthogonal transformation circuit 16: Quantization circuit 18: Entropy coding circuit 20: Buffer 22: Motion detection circuit 24: Motion inter-frame prediction circuit 26: Inverse quantization circuit 28: Inverse orthogonal Conversion circuit 30: Adder 32: Prediction circuit 40: Buffer 42: Entropy decoding circuit 44: Inverse quantization circuit 46: Inverse orthogonal transformation circuit 48: Adder 50: Prediction circuit

Claims (36)

【特許請求の範囲】[Claims] 【請求項1】 画面内を複数のブロックに分割するブロ
ック変換手段と、 当該ブロック変換手段によるブロック毎に画像データを
符号化する符号化手段とからなり、当該ブロック変換手
段によるブロックが、人物を撮影したときの画面中央の
中心ブロックとその周辺に位置する複数のブロックから
なることを特徴とする画像符号化装置。
An image processing apparatus includes: a block conversion unit that divides a screen into a plurality of blocks; and an encoding unit that encodes image data for each block by the block conversion unit. An image encoding apparatus comprising a central block at the center of a screen at the time of shooting and a plurality of blocks located around the central block.
【請求項2】 当該中心ブロックに近接する周辺のブロ
ックは、中心ブロックに対して同心円状に配置される請
求項1に記載の画像符号化装置。
2. The image encoding device according to claim 1, wherein peripheral blocks adjacent to the central block are arranged concentrically with respect to the central block.
【請求項3】 当該符号化手段が、直交変換手段と、当
該直交変換手段の出力を量子化する量子化手段と、当該
量子化手段の出力をエントロピー符号化するエントロピ
ー符号化手段と、ブロック毎の画像の動きを検出する動
き検出手段とを具備する請求項1に記載の画像符号化装
置。
3. An encoding apparatus comprising: an orthogonal transformation unit; a quantization unit for quantizing an output of the orthogonal transformation unit; an entropy encoding unit for entropy encoding the output of the quantization unit; 2. The image encoding apparatus according to claim 1, further comprising a motion detecting unit configured to detect a motion of the image.
【請求項4】 当該直交変換手段が、離散コサイン変換
手段と、重複直交変換手段を具備する請求項3に記載の
画像符号化装置。
4. The image coding apparatus according to claim 3, wherein said orthogonal transform means comprises a discrete cosine transform means and an overlap orthogonal transform means.
【請求項5】 当該直交変換手段は、画面内の中央部分
の画像に動きが検出された場合に当該離散コサイン変換
手段を使用し、動きが検出されずに静止画像状態の場合
に、当該重複直交変換手段を使用する請求項4に記載の
画像符号化装置。
5. The orthogonal transform means uses the discrete cosine transform means when a motion is detected in the image in the center of the screen, and when the motion is not detected and the still image state is reached, the orthogonal transform means uses the discrete cosine transform means. 5. The image coding apparatus according to claim 4, wherein an orthogonal transform unit is used.
【請求項6】 当該直交変換手段は、当該動き検出手段
により検出される当該中心ブロックの動きベクトルによ
り当該離散コサイン変換手段と当該重複直交変換手段を
選択する請求項5に記載の画像符号化装置。
6. The image coding apparatus according to claim 5, wherein said orthogonal transform means selects said discrete cosine transform means and said overlap orthogonal transform means based on a motion vector of said central block detected by said motion detecting means. .
【請求項7】 当該直交変換手段は、当該動き検出手段
により検出される当該中心ブロックの動きベクトル量が
所定閾値を越えるとき、当該離散コサイン変換手段を選
択し、それ以外では当該重複直交変換手段を選択する請
求項6に記載の画像符号化装置。
7. The orthogonal transform means selects the discrete cosine transform means when the motion vector amount of the central block detected by the motion detecting means exceeds a predetermined threshold, and otherwise selects the overlapping orthogonal transform means. The image encoding device according to claim 6, wherein:
【請求項8】 当該量子化手段は、当該中心ブロックに
推奨量子化テーブルを適用すると共に、周辺のブロック
には当該推奨量子化テーブルよりも大きな値の量子化テ
ーブルを適用する可変量子化手段と、画面内の全ブロッ
クに同じ量子化テーブルを適用する非可変量子化手段と
を具備する請求項3乃至7の何れか1項に記載の画像符
号化装置。
8. The variable quantization means for applying a recommended quantization table to the center block and applying a quantization table having a larger value than the recommended quantization table to peripheral blocks. 8. The image encoding apparatus according to claim 3, further comprising: a non-variable quantization unit that applies the same quantization table to all blocks in the screen.
【請求項9】 当該量子化手段は、画面周辺部で動きが
検出された場合に当該非可変量子化手段を適用し、周辺
部に動きが検出されず、画面中心部に動きが比較的集中
している場合に当該可変量子化手段を適用する請求項8
に記載の画像符号化装置。
9. The quantization means applies the non-variable quantization means when motion is detected in a peripheral portion of the screen, and no motion is detected in the peripheral portion, and the motion is relatively concentrated in the central portion of the screen. 9. The variable quantizing means is applied when the variable quantization is performed.
An image encoding device according to claim 1.
【請求項10】 当該量子化手段は、当該動き検出手段
により検出された周辺ブロックの全動きベクトル量の和
により当該可変量子化手段又は当該非可変量子化手段を
選択する請求項9に記載の画像符号化装置。
10. The variable quantization unit or the non-variable quantization unit according to claim 9, wherein the quantization unit selects the variable quantization unit or the non-variable quantization unit based on a sum of all motion vector amounts of peripheral blocks detected by the motion detection unit. Image coding device.
【請求項11】 当該量子化手段は、当該動き検出手段
により検出された周辺ブロックの全動きベクトル量の和
が所定閾値を越える場合に当該可変量子化手段を適用
し、当該所定閾値以下の場合に当該非可変量子化手段を
適用する請求項10に記載の画像符号化装置。
11. The variable quantizing means applies the variable quantizing means when the sum of all motion vector amounts of peripheral blocks detected by the motion detecting means exceeds a predetermined threshold, and applies the variable quantization means when the sum is equal to or smaller than the predetermined threshold. The image coding apparatus according to claim 10, wherein the non-variable quantization means is applied to the image coding apparatus.
【請求項12】 当該重複直交変換手段の選択時には、
当該非可変量子化手段が選択される請求項8乃至11の
何れか1項に記載の画像符号化装置。
12. When the overlapping orthogonal transform means is selected,
The image encoding device according to claim 8, wherein the non-variable quantization unit is selected.
【請求項13】 画面内を複数のブロックに分割するブ
ロック変換ステップと、 当該ブロック変換ステップによるブロック毎に画像デー
タを符号化する符号化ステップとからなり、当該ブロッ
ク変換ステップによるブロックが、人物を撮影したとき
の画面中央の中心ブロックとその周辺に位置する複数の
ブロックからなることを特徴とする画像符号化方法。
13. A block transforming step of dividing a screen into a plurality of blocks, and an encoding step of encoding image data for each block in the block transforming step. An image coding method comprising a central block at the center of a screen at the time of shooting and a plurality of blocks located around the central block.
【請求項14】 当該中心ブロックに近接する周辺のブ
ロックは、中心ブロックに対して同心円状に配置される
請求項13に記載の画像符号化方法。
14. The image coding method according to claim 13, wherein peripheral blocks adjacent to the central block are arranged concentrically with respect to the central block.
【請求項15】 当該符号化ステップが、ブロック毎の
画像の動きを検出する動き検出ステップと、直交変換ス
テップと、当該直交変換ステップの出力を量子化する量
子化ステップと、当該量子化ステップの出力をエントロ
ピー符号化するエントロピー符号化ステップとを具備す
る請求項13に記載の画像符号化方法。
15. The encoding step includes: a motion detection step of detecting a motion of an image for each block; an orthogonal transformation step; a quantization step of quantizing an output of the orthogonal transformation step; 14. The image encoding method according to claim 13, further comprising an entropy encoding step of entropy encoding the output.
【請求項16】 当該直交変換ステップが、離散コサイ
ン変換ステップと、重複直交変換ステップを具備する請
求項15に記載の画像符号化方法。
16. The image encoding method according to claim 15, wherein the orthogonal transform step includes a discrete cosine transform step and an overlapping orthogonal transform step.
【請求項17】 当該直交変換ステップは、画面内の中
央部分の画像に動きが検出された場合に当該離散コサイ
ン変換ステップを使用し、動きが検出されずに静止画像
状態の場合に、当該重複直交変換ステップを使用する請
求項16に記載の画像符号化方法。
17. The orthogonal transformation step uses the discrete cosine transformation step when a motion is detected in the image in the center portion of the screen, and when the motion is not detected and the image is in a still image state, the overlapping is performed. 17. The image coding method according to claim 16, wherein an orthogonal transformation step is used.
【請求項18】 当該直交変換ステップは、当該動き検
出ステップにより検出される当該中心ブロックの動きベ
クトルにより当該離散コサイン変換ステップと当該重複
直交変換ステップを選択する請求項17に記載の画像符
号化方法。
18. The image coding method according to claim 17, wherein the orthogonal transforming step selects the discrete cosine transforming step and the overlapping orthogonal transforming step based on a motion vector of the central block detected by the motion detecting step. .
【請求項19】 当該直交変換ステップは、当該動き検
出ステップにより検出される当該中心ブロックの動きベ
クトル量が所定閾値を越えるとき、当該離散コサイン変
換ステップを選択し、それ以外では当該重複直交変換ス
テップを選択する請求項17に記載の画像符号化方法。
19. The orthogonal transforming step comprises selecting the discrete cosine transform step when the motion vector amount of the central block detected by the motion detecting step exceeds a predetermined threshold, and otherwise selecting the overlapping orthogonal transform step. 18. The image encoding method according to claim 17, wherein (i) is selected.
【請求項20】 当該量子化ステップは、当該中心ブロ
ックに推奨量子化テーブルを適用すると共に、周辺のブ
ロックには当該推奨量子化テーブルよりも大きな値の量
子化テーブルを適用する可変量子化ステップと、画面内
の全ブロックに同じ量子化テーブルを適用する非可変量
子化ステップとを具備する請求項16乃至19の何れか
1項に記載の画像符号化装置。
20. The variable quantization step of applying a recommended quantization table to the central block and applying a quantization table having a larger value than the recommended quantization table to peripheral blocks. 20. The image encoding apparatus according to claim 16, further comprising: a non-variable quantization step of applying the same quantization table to all blocks in the screen.
【請求項21】 当該量子化ステップは、画面周辺部で
動きが検出された場合に当該非可変量子化ステップを適
用し、周辺部に動きが検出されず、画面中心部に動きが
比較的集中している場合に当該可変量子化ステップを適
用する請求項20に記載の画像符号化方法。
21. The quantization step applies the non-variable quantization step when motion is detected in the peripheral portion of the screen, and no motion is detected in the peripheral portion, and the motion is relatively concentrated in the central portion of the screen. 21. The image encoding method according to claim 20, wherein the variable quantization step is applied when the image coding is performed.
【請求項22】 当該量子化ステップは、当該動き検出
ステップにより検出された周辺ブロックの全動きベクト
ル量の和により当該可変量子化ステップ又は当該非可変
量子化ステップを選択する請求項21に記載の画像符号
化方法。
22. The quantization step according to claim 21, wherein the variable quantization step or the non-variable quantization step is selected based on a sum of all motion vector amounts of peripheral blocks detected by the motion detection step. Image coding method.
【請求項23】 当該量子化ステップは、当該動き検出
ステップにより検出された周辺ブロックの全動きベクト
ル量の和が所定閾値を越える場合に当該可変量子化ステ
ップを適用し、当該所定閾値以下の場合に当該非可変量
子化ステップを適用する請求項22に記載の画像符号化
方法。
23. The quantization step, wherein the variable quantization step is applied when the sum of all motion vector amounts of peripheral blocks detected by the motion detection step exceeds a predetermined threshold, and when the sum is equal to or smaller than the predetermined threshold. 23. The image coding method according to claim 22, wherein the non-variable quantization step is applied to the image coding.
【請求項24】 当該重複直交変換ステップの選択時に
は、当該非可変量子化ステップが選択される請求項16
乃至23の何れか1項に記載の画像符号化方法。
24. The non-variable quantization step is selected when the overlapping orthogonal transformation step is selected.
24. The image encoding method according to any one of claims 23 to 23.
【請求項25】 画面内を、人物を撮影したときの画面
中央の中心ブロックとその周辺に位置する複数のブロッ
クとからなるブロックに分割するブロック変換ステップ
と、 当該ブロック変換ステップによるブロック毎に画像デー
タを符号化する符号化ステップとからなるプログラム・
ソフトウエアを外部読み出し自在に記憶することを特徴
とする記憶媒体。
25. A block conversion step of dividing the screen into a block including a central block at the center of the screen when a person is photographed and a plurality of blocks located around the block, and an image for each block by the block conversion step. A program comprising an encoding step for encoding data;
A storage medium for storing software so that it can be read externally.
【請求項26】 当該中心ブロックに近接する周辺のブ
ロックは、中心ブロックに対して同心円状に配置される
請求項25に記載の記憶媒体。
26. The storage medium according to claim 25, wherein peripheral blocks adjacent to the central block are arranged concentrically with respect to the central block.
【請求項27】 当該符号化ステップが、ブロック毎の
画像の動きを検出する動き検出ステップと、直交変換ス
テップと、当該直交変換ステップの出力を量子化する量
子化ステップと、当該量子化ステップの出力をエントロ
ピー符号化するエントロピー符号化ステップとを具備す
る請求項25に記載の記憶媒体。
27. The encoding step, comprising: a motion detection step of detecting a motion of an image for each block; an orthogonal transformation step; a quantization step of quantizing an output of the orthogonal transformation step; 26. The storage medium of claim 25, further comprising: an entropy encoding step of entropy encoding the output.
【請求項28】 当該直交変換ステップが、離散コサイ
ン変換ステップと、重複直交変換ステップを具備する請
求項27に記載の記憶媒体。
28. The storage medium according to claim 27, wherein said orthogonal transformation step includes a discrete cosine transformation step and an overlap orthogonal transformation step.
【請求項29】 当該直交変換ステップは、画面内の中
央部分の画像に動きが検出された場合に当該離散コサイ
ン変換ステップを使用し、動きが検出されずに静止画像
状態の場合に、当該重複直交変換ステップを使用する請
求項28に記載の記憶媒体。
29. The orthogonal transforming step uses the discrete cosine transform step when motion is detected in the image in the center portion of the screen. 29. The storage medium according to claim 28, wherein an orthogonal transformation step is used.
【請求項30】 当該直交変換ステップは、当該動き検
出ステップにより検出される当該中心ブロックの動きベ
クトルにより当該離散コサイン変換ステップと当該重複
直交変換ステップを選択する請求項29に記載の記憶媒
体。
30. The storage medium according to claim 29, wherein in the orthogonal transformation step, the discrete cosine transformation step and the overlapping orthogonal transformation step are selected based on a motion vector of the central block detected in the motion detection step.
【請求項31】 当該直交変換ステップは、当該動き検
出ステップにより検出される当該中心ブロックの動きベ
クトル量が所定閾値を越えるとき、当該離散コサイン変
換ステップを選択し、それ以外では当該重複直交変換ス
テップを選択する請求項29に記載の記憶媒体。
31. The orthogonal transforming step, wherein the discrete cosine transform step is selected when the motion vector amount of the center block detected by the motion detecting step exceeds a predetermined threshold, and otherwise the overlapping orthogonal transform step The storage medium according to claim 29, wherein is selected.
【請求項32】 当該量子化ステップは、当該中心ブロ
ックに推奨量子化テーブルを適用すると共に、周辺のブ
ロックには当該推奨量子化テーブルよりも大きな値の量
子化テーブルを適用する可変量子化ステップと、画面内
の全ブロックに同じ量子化テーブルを適用する非可変量
子化ステップとを具備する請求項28乃至31の何れか
1項に記載の記憶媒体。
32. A variable quantization step of applying a recommended quantization table to the central block and applying a quantization table having a larger value than the recommended quantization table to peripheral blocks. 32. The storage medium according to claim 28, further comprising: a non-variable quantization step of applying the same quantization table to all blocks in the screen.
【請求項33】 当該量子化ステップは、画面周辺部で
動きが検出された場合に当該非可変量子化ステップを適
用し、周辺部に動きが検出されず、画面中心部に動きが
比較的集中している場合に当該可変量子化ステップを適
用する請求項32に記載の記憶媒体。
33. The quantization step applies the non-variable quantization step when motion is detected in a peripheral portion of the screen, and no motion is detected in the peripheral portion, and the motion is relatively concentrated in the central portion of the screen. 33. The storage medium according to claim 32, wherein the variable quantization step is applied when performing.
【請求項34】 当該量子化ステップは、当該動き検出
ステップにより検出された周辺ブロックの全動きベクト
ル量の和により当該可変量子化ステップ又は当該非可変
量子化ステップを選択する請求項33に記載の記憶媒
体。
34. The variable quantization step or the non-variable quantization step according to claim 33, wherein the quantization step selects the variable quantization step or the non-variable quantization step based on a sum of all motion vector amounts of peripheral blocks detected by the motion detection step. Storage medium.
【請求項35】 当該量子化ステップは、当該動き検出
ステップにより検出された周辺ブロックの全動きベクト
ル量の和が所定閾値を越える場合に当該可変量子化ステ
ップを適用し、当該所定閾値以下の場合に当該非可変量
子化ステップを適用する請求項34に記載の記憶媒体。
35. The variable quantization step, wherein the variable quantization step is applied when the sum of all motion vector amounts of peripheral blocks detected by the motion detection step exceeds a predetermined threshold, and when the sum is equal to or smaller than the predetermined threshold. 35. The storage medium according to claim 34, wherein said non-variable quantization step is applied.
【請求項36】 当該重複直交変換ステップの選択時に
は、当該非可変量子化ステップが選択される請求項28
乃至35の何れか1項に記載の記憶媒体。
36. The non-variable quantization step is selected when the overlapping orthogonal transformation step is selected.
36. The storage medium according to any one of items 35 to 35.
JP3283998A 1998-02-16 1998-02-16 Image coding device, its method and storage medium Withdrawn JPH11234638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3283998A JPH11234638A (en) 1998-02-16 1998-02-16 Image coding device, its method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3283998A JPH11234638A (en) 1998-02-16 1998-02-16 Image coding device, its method and storage medium

Publications (1)

Publication Number Publication Date
JPH11234638A true JPH11234638A (en) 1999-08-27

Family

ID=12370003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3283998A Withdrawn JPH11234638A (en) 1998-02-16 1998-02-16 Image coding device, its method and storage medium

Country Status (1)

Country Link
JP (1) JPH11234638A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234476A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image data encoding method, image data decoding method, and image data decoding device
JP2010063161A (en) * 2009-12-09 2010-03-18 Mitsubishi Electric Corp Moving image decoding method
JP2010063160A (en) * 2009-12-09 2010-03-18 Mitsubishi Electric Corp Moving image decoding method
JP2012516626A (en) * 2009-01-27 2012-07-19 トムソン ライセンシング Method and apparatus for selection of transforms in video encoding and video decoding

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234476A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image data encoding method, image data decoding method, and image data decoding device
JP2012516626A (en) * 2009-01-27 2012-07-19 トムソン ライセンシング Method and apparatus for selection of transforms in video encoding and video decoding
US9049443B2 (en) 2009-01-27 2015-06-02 Thomson Licensing Methods and apparatus for transform selection in video encoding and decoding
US9161031B2 (en) 2009-01-27 2015-10-13 Thomson Licensing Method and apparatus for transform selection in video encoding and decoding
US9774864B2 (en) 2009-01-27 2017-09-26 Thomson Licensing Dtv Methods and apparatus for transform selection in video encoding and decoding
US10178411B2 (en) 2009-01-27 2019-01-08 Interdigital Vc Holding, Inc. Methods and apparatus for transform selection in video encoding and decoding
JP2010063161A (en) * 2009-12-09 2010-03-18 Mitsubishi Electric Corp Moving image decoding method
JP2010063160A (en) * 2009-12-09 2010-03-18 Mitsubishi Electric Corp Moving image decoding method

Similar Documents

Publication Publication Date Title
US10469854B2 (en) Content, psychovisual, region of interest, and persistence based adaptive quantization for video coding
US10614593B2 (en) Image processing device and method
JP4755093B2 (en) Image encoding method and image encoding apparatus
US20040158719A1 (en) Video encoder capable of differentially encoding image of speaker during visual call and method for compressing video signal using the same
US6862372B2 (en) System for and method of sharpness enhancement using coding information and local spatial features
JP2009303236A (en) Adaptive image stability
JP2001245303A (en) Moving picture coder and moving picture coding method
JPH04196976A (en) Image encoding device
US20120262598A1 (en) Image signal processing apparatus
JP3703299B2 (en) Video coding method, system and computer program product for optimizing picture center image quality
JP2008506294A (en) Method and system for performing deblocking filtering
EP0680217B1 (en) Video signal decoding apparatus capable of reducing blocking effects
JPH04219089A (en) Image encoding device
JP2003348597A (en) Device and method for encoding image
US7876816B2 (en) Moving picture coding program, program storage medium, and coding apparatus
JPH11234638A (en) Image coding device, its method and storage medium
JP4341078B2 (en) Encoding device for moving picture information
JPH0256187A (en) Moving picture encoder
JP2914607B2 (en) Image signal decoding device
JPH0630402A (en) Image coding device
JPH09261530A (en) Video recorder
JPH0984024A (en) Coder for moving image signal
JP3202270B2 (en) Video encoding device
JPH02241285A (en) Highly efficient encoder for moving image signal
JP4747109B2 (en) Calculation amount adjustment device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050510