JPH089385A - Dynamic image encoder - Google Patents
Dynamic image encoderInfo
- Publication number
- JPH089385A JPH089385A JP13717894A JP13717894A JPH089385A JP H089385 A JPH089385 A JP H089385A JP 13717894 A JP13717894 A JP 13717894A JP 13717894 A JP13717894 A JP 13717894A JP H089385 A JPH089385 A JP H089385A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- data
- encoding processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、動画像等の画像伝送に
用いられる動画像符号化装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding apparatus used for transmitting moving pictures and the like.
【0002】[0002]
【従来の技術】従来、このような分野の技術としては、
例えば次のような文献に記載されるものがあった。 文献1;オプトロニクス(1992−5)オプトロニク
ス社、大久保“テレビ電話・会議における符号化”P.74
-79,86-98 文献2;IEEE 1993 CUSTOM CIRCUITS CONFERENCE(19
93)、Subroto Bose他著“A Single Chip Multistand
ard Video Codec ”P.11.4.1-11.4.4 動画像の符号化では文献2に記載されたように、符号化
しようとする1フレームの画像を例えば16×16画素
のマクロブロック(以下、MBという)と呼ばれる小ブ
ロック単位で、次の(1)〜(5)の処理を順に行い、
符号化を行う。 (1)動きベクトル検出 符号化しようとするフレームつまり符号化フレームの符
号化対象MBに対して相関の1番大きい領域を符号化参
照フレームから検出する。このときの符号化参照フレー
ムは、一般的に符号化フレームの前後のフレームが用い
られる。領域の検出において、符号化参照フレーム中で
符号化対象MBと同じ空間位置の近辺が探索領域とさ
れ、探索領域内で符号化対象MBに対して相関の1番大
きい領域が求められる。そして、相関の1番大きい領域
の参照フレーム中の空間位置と符号化対象MBの空間位
置との差分が動きベクトルとして検出される。 (2)離散コサイン変換(以下、DCTという) 一種の直交変換が符号化対象MBに施され、符号化対象
MBのデータは空間データから周波数スペクトルデータ
へ変換される。DCTの入力データとしては符号化フレ
ームの符号化対象MBデータがそのまま用いられるか、
または符号化対象MBと動きベクトルで参照される領域
の参照フレームのデータとの差分が用いられる。その判
定基準としては、その差分値が大きいときには符号化フ
レームのデータがそのまま用いられ、小さい時には差分
データが用いられる。2. Description of the Related Art Conventionally, techniques in such a field include:
For example, some documents were described in the following documents. Reference 1: Optronics (1992-5) Optronics, Okubo “Videophone / Conference Encoding” P.74
-79,86-98 Reference 2; IEEE 1993 CUSTOM CIRCUITS CONFERENCE (19
93), Subroto Bose et al. “A Single Chip Multistand”
ard Video Codec ”P.11.4.1-11.4.4 In moving image coding, as described in Reference 2, one frame image to be coded is encoded, for example, in a macro block of 16 × 16 pixels (hereinafter, MB The following processes (1) to (5) are sequentially performed in small block units called "
Encode. (1) Motion Vector Detection The frame having the largest correlation with the coding target MB of the frame to be coded, that is, the coding frame is detected from the coding reference frame. As the encoded reference frame at this time, generally the frames before and after the encoded frame are used. In the area detection, the vicinity of the same spatial position as the coding target MB in the coding reference frame is set as the search area, and the area having the largest correlation with the coding target MB is obtained in the search area. Then, the difference between the spatial position in the reference frame of the region having the largest correlation and the spatial position of the encoding target MB is detected as a motion vector. (2) Discrete Cosine Transform (hereinafter referred to as DCT) A kind of orthogonal transform is applied to the encoding target MB, and the data of the encoding target MB is converted from spatial data to frequency spectrum data. Is the encoding target MB data of the encoding frame used as it is as the input data of the DCT,
Alternatively, the difference between the encoding target MB and the data of the reference frame of the area referred to by the motion vector is used. As the criterion, the data of the encoded frame is used as it is when the difference value is large, and the difference data is used when the difference value is small.
【0003】(3)量子化 DCTの出力データが、所定の代表値に変換される。 (4)可変長符号化 量子化の出力データのうち発生頻度の低い値に対して大
きい長さの符号が与えられ、発生頻度の高い値に対して
小さい長さの符号が割り当てられて符号化データとして
出力される。 (5)逆量子化,逆離散コサイン変換(以下、IDCT
という) 逆量子化は量子化の逆の処理、IDCTはDCTの逆の
処理をそれぞれ行う。これらの処理によって空間データ
として画像データが再生され、後に符号化されるフレー
ムに対する参照フレームデータとなる。ここで、量子化
は1:1の変換とならないので、量子化入力と逆量子化
出力とは同等ではない。そのため、原画像と再生画像と
は異なったものになる。(1)の動きベクトル検出は輝
度成分データに対して行われ、(2)〜(5)の処理は
輝度成分及び色成分に対して行われる。1MB中の輝度
成分は16×16=256画素、色成分はその半分の1
28画素である。(3) Quantization The output data of the DCT is converted into a predetermined representative value. (4) Variable-length coding A code having a large length is given to a value having a low occurrence frequency in the quantized output data, and a code having a small length is assigned to a value having a high occurrence frequency for coding. It is output as data. (5) Inverse quantization and inverse discrete cosine transform (hereinafter referred to as IDCT
Inverse quantization performs inverse processing of quantization, and IDCT performs inverse processing of DCT. By these processes, the image data is reproduced as the spatial data and becomes the reference frame data for the frame to be encoded later. Here, since the quantization does not become a 1: 1 conversion, the quantized input and the dequantized output are not equivalent. Therefore, the original image and the reproduced image are different. The motion vector detection of (1) is performed on the luminance component data, and the processes of (2) to (5) are performed on the luminance component and the color component. The luminance component in 1 MB is 16 × 16 = 256 pixels, and the color component is half of 1
It has 28 pixels.
【0004】図2は、従来の動画像符号化装置の1例を
示す構成ブロック図であり、この図を参照しつつ、ある
1つのMBデータに対する符号化処理の流れを説明す
る。この動画像符号化装置100は、符号化MBを符号
化するために必要な画像データを格納する画像データバ
ッファ101を備え、その画像データバッファ101の
出力側には動きベクトル検出部102とDCT部103
が接続されている。動きベクトル検出部102の出力側
には制御部104が接続されている。DCT103の出
力側にはIDCT部105と量子化部106が接続さ
れ、そのIDCT部105の出力データが画像データバ
ッファ101に出力される接続である。量子化部106
の出力側には逆量子化部107と可変長符号化部108
が接続されている。逆量子化部107の出力信号もID
CT部105に入力され、可変長符号化部108の出力
が符号化データDTout として出力される構成である。
制御部104は、この動画像符号化装置100の符号化
処理のシーケンスを制御するものであり、制御信号s1
04a,s104b,s104cを送出する機能を有し
ている。制御部104からの制御信号s104aはDC
T部103、IDCT部105、量子化部106、逆量
子化部107、及び可変長符号化部108へ入力され、
制御信号s104bは画像データバッファ101に入力
される構成である。また、制御信号s104cは外部の
図示しない画像メモリ150に供給される接続である。
動きベクトル検出部102は画像データバッファ101
から動きベクトル検出に必要なデータを入力し、動きベ
クトル検出結果の動きベクトルd102を制御部104
に出力する。DCT103は符号化対象フレームデータ
(現画像データ)と動きベクトルで示される位置の参照
フレームデータ(参照画像データ)とを画像データバッ
ファ101から入力し、DCT入力データとして現画像
データを使用するかまたは現画像データと参照画像デー
タを使用するか判定する。DCT103はその判定結果
をフレーム内/フレーム間予測の選択結果s103とし
てIDCT部105に出力すると共にDCTを行ってD
CT結果のデータd103を量子化部108に送出す
る。FIG. 2 is a block diagram showing an example of a conventional moving picture coding apparatus. The flow of coding processing for a certain MB data will be described with reference to this drawing. The moving picture coding apparatus 100 includes an image data buffer 101 that stores image data necessary for coding a coded MB, and a motion vector detecting unit 102 and a DCT unit are provided on the output side of the image data buffer 101. 103
Are connected. A control unit 104 is connected to the output side of the motion vector detection unit 102. The output side of the DCT 103 is connected to the IDCT unit 105 and the quantization unit 106, and the output data of the IDCT unit 105 is output to the image data buffer 101. Quantizer 106
The dequantization unit 107 and the variable length coding unit 108 are provided on the output side of
Are connected. The output signal of the inverse quantization unit 107 is also ID
It is configured such that it is input to the CT unit 105 and the output of the variable length encoding unit 108 is output as encoded data DT out .
The control unit 104 controls the sequence of the encoding process of the moving image encoding apparatus 100, and the control signal s1
It has a function of transmitting 04a, s104b, and s104c. The control signal s104a from the control unit 104 is DC
The T section 103, the IDCT section 105, the quantization section 106, the dequantization section 107, and the variable length coding section 108 are input,
The control signal s104b is input to the image data buffer 101. The control signal s104c is a connection supplied to an external image memory 150 (not shown).
The motion vector detecting unit 102 is the image data buffer 101.
Necessary data for motion vector detection is input from the control unit 104 and the motion vector d102 as a motion vector detection result is input to the control unit 104.
Output to. The DCT 103 inputs the encoding target frame data (current image data) and the reference frame data (reference image data) at the position indicated by the motion vector from the image data buffer 101, and uses the current image data as DCT input data. It is determined whether to use the current image data and the reference image data. The DCT 103 outputs the determination result to the IDCT unit 105 as the intraframe / interframe prediction selection result s103 and performs DCT to perform D
The CT result data d103 is sent to the quantization unit 108.
【0005】量子化部106はDCT出力d103を入
力して量子化を行い、この量子化で代表値に変換された
データd106が可変長符号化部108に供給される。
可変長符号化部108は量子化部からのデータd106
に、発生頻度に対応した符号を割り当て符号化データD
Tout を生成して出力する。逆量子化部107は量子化
データd106に対して逆量子化を行い、逆量子化結果
のデータd107をIDCT部105に供給する。ID
CT部105ではデータd107に対してIDCTを施
し、DCT部103におけるフレーム内/フレーム間予
測の選択結果s103がフレーム内予測を選択している
場合、IDCT部105はIDCT結果をそのまま再生
画像データd105として画像データバッファ101に
出力する。また、DCT部103においてフレーム間予
測が選択されている場合、IDCT部105は画像デー
タバッファ101から参照画像データを入力してIDC
T結果に加算する。IDCT結果に参照画像データが加
算されたデータが再生画像データd105として画像デ
ータバッファ101へ出力される。画像データバッファ
は再生画像データを格納し、この格納された再生画像デ
ータが画像データが外部の画像メモリへ出力される。制
御部104は動きベクトル検出部102と、DCT部1
03と、IDCT部105と、量子化部部106と、逆
量子化部107と、可変長符号化部108とに、符号化
制御信号s104aを送出し、符号化処理のシーケンス
を制御する。符号化制御信号s104aの内容はアドレ
スとデータとから構成され、そのアドレスによって特定
された部が符号化処理の計算を実施する。符号化制御信
号s104aのうちのデータ部分は特定された部へ与え
るパラメータとなる。また、制御部104は画像データ
バッファ101に対する入出力を制御するバッファ制信
号s104bを画像データバッファ101へ送出し、外
部の画像メモリ150と画像データバッファ101間に
対するデータの入出力を制御する画像メモリ制信号s1
04cを外部の画像メモリ150に送出する。The quantizing unit 106 inputs the DCT output d103 and quantizes it, and the data d106 converted into a representative value by this quantizing is supplied to the variable length coding unit 108.
The variable length coding unit 108 receives the data d106 from the quantization unit.
, A code corresponding to the occurrence frequency is assigned to the encoded data D
Generate and output T out . The inverse quantization unit 107 inversely quantizes the quantized data d106, and supplies the inverse quantization result data d107 to the IDCT unit 105. ID
When the CT unit 105 performs IDCT on the data d107 and the intraframe / interframe prediction selection result s103 in the DCT unit 103 selects intraframe prediction, the IDCT unit 105 directly reproduces the IDCT result as the reproduced image data d105. To the image data buffer 101. Further, when the inter-frame prediction is selected in the DCT unit 103, the IDCT unit 105 inputs the reference image data from the image data buffer 101 and outputs the IDC.
Add to T result. The data obtained by adding the reference image data to the IDCT result is output to the image data buffer 101 as reproduced image data d105. The image data buffer stores reproduced image data, and the stored reproduced image data is output as image data to an external image memory. The control unit 104 includes the motion vector detection unit 102 and the DCT unit 1.
03, the IDCT unit 105, the quantization unit 106, the dequantization unit 107, and the variable length coding unit 108, the coding control signal s104a is sent to control the coding processing sequence. The content of the encoding control signal s104a is composed of an address and data, and the section specified by the address carries out the calculation of the encoding process. The data portion of the encoded control signal s104a serves as a parameter given to the specified portion. Further, the control unit 104 sends a buffer control signal s104b for controlling input / output to / from the image data buffer 101 to the image data buffer 101 to control input / output of data between the external image memory 150 and the image data buffer 101. Control signal s1
04c is sent to the external image memory 150.
【0006】図3は、図2中の画像データバッファのデ
ータ転送を説明する図である。次の(i)〜(iii)で、
1MBの符号化処理に必要な外部画像メモリ150と画
像データバッファ101間のデータ転送量を図3を参照
しつつ説明する。 (i)参照画像データ読出し 輝度成分について動きベクトル検出を行うために、参照
フレーム中の探索範囲として使用する領域の分だけ画像
データを画像メモリ150から読出す必要がある。例え
ば、符号化対象MBに対して水平方向±16画素、垂直
方向±16画素を探索範囲とすると48×48画素の画
像データを読出す必要がある。しかし、通常、空間位置
の順序にしたがって符号化が行われるので、符号化対象
MBと直前に処理したMBとで探索範囲に重複する部分
が存在することになる。この重複する部分の画像データ
はすでに画像データバッファ101に格納されているの
で、符号化対象MBに対する動きベクトル検出で新たに
用いるデータのみを読出すとすると、図3のように16
×48画素が、外部の画像メモリから読出される。一
方、色成分については動きベクトル検出結果に応じて読
出されるので、16×8画素である。FIG. 3 is a diagram for explaining the data transfer of the image data buffer in FIG. In the following (i) to (iii),
The data transfer amount between the external image memory 150 and the image data buffer 101 required for 1 MB encoding processing will be described with reference to FIG. (I) Reading Reference Image Data In order to detect the motion vector for the luminance component, it is necessary to read the image data from the image memory 150 for the area used as the search range in the reference frame. For example, when the search range is ± 16 pixels in the horizontal direction and ± 16 pixels in the vertical direction for the MB to be encoded, it is necessary to read image data of 48 × 48 pixels. However, since encoding is usually performed in the order of spatial positions, there is a portion where the MB to be encoded and the MB processed immediately before overlap in the search range. Since the image data of this overlapping portion is already stored in the image data buffer 101, if only the data newly used in the motion vector detection for the encoding target MB is read out, as shown in FIG.
The x48 pixels are read from the external image memory. On the other hand, since the color component is read according to the motion vector detection result, it has 16 × 8 pixels.
【0007】(ii)現画像データ 輝度成分について16×16画素、及び色成分16×8
画素読出される。 (iii)再生画像データ 輝度成分16×16画素、色成分16×8画素である。
以上の(i)〜(iii)を合計すると、 (16×48+16×8)+(16×16+16×8) +(16×16+16×8)=1664画素 となる。図4は、図2の動画像符号化装置と画像メモリ
を示すブロック図である。図4には図2の動画像符号化
装置100に接続された画像メモリ150が示されてい
る。画像メモリ150の入力データDTinは時系列に入
力される動画像データがアナログ/デジタル変換された
データであり、画像メモリ150にはこの入力データD
Tinが書込まれる。動画像符号化装置100中の制御部
104から画像メモリ制御信号S104cが出力され、
その画像メモリ制御信号s104cに基き、画像データ
d150が動画像符号化装置100と画像メモリ150
との間で転送される。画像データd150の内容は参照
画像データと現画像データと再生画像データから構成さ
れる。(Ii) Current image data 16 × 16 pixels for luminance component and 16 × 8 for color component
Pixels are read out. (iii) Reproduced image data The luminance component is 16 × 16 pixels and the color component is 16 × 8 pixels.
When the above (i) to (iii) are summed up, (16 × 48 + 16 × 8) + (16 × 16 + 16 × 8) + (16 × 16 + 16 × 8) = 1664 pixels. FIG. 4 is a block diagram showing the moving picture coding apparatus and the picture memory of FIG. FIG. 4 shows an image memory 150 connected to the moving picture coding apparatus 100 of FIG. The input data DT in of the image memory 150 is data obtained by analog / digital conversion of moving image data input in time series.
T in is written. An image memory control signal S104c is output from the control unit 104 in the moving image encoding apparatus 100,
Based on the image memory control signal s104c, the image data d150 is the moving image encoding device 100 and the image memory 150.
Transferred to and from. The content of the image data d150 is composed of reference image data, current image data, and reproduced image data.
【0008】[0008]
【発明が解決しようとする課題】しかしながら、従来の
動画像符号化装置では、次のような課題があった。処理
画像の大きさが大きくなると、動画像符号化装置100
の処理能力と動画像符号化装置100と画像メモリ15
0間のデータ転送速度に限界が来るとい問題点があっ
た。例えば、標準ビデオ規格では1フレームの大きさが
720×480画素であり、フレーム周波数は30Hz
である。1フレーム内のMB数は、 720×480/(16×16)=1350MB となり、1MBに対する処理許容時間は最大、 1/30sec/1350=24.6μs と非常に短い時間である。そのため、処理量が膨大とな
って1つの動画像符号化装置では性能を満たさない場合
も発生する。また、動画像符号化装置100と画像メモ
リ150間のデータ転送における1画素当たりの周期
は、 24.6μs/1664画素=14.78ns となる。1画素当たりの転送能力を上げるために4画素
同時に転送したとしても、59.1ns周期で転送する
必要がある。転送オーバヘッドを25%程度と考慮する
と47.3nsの周期つまり21.1MHzでデータを
入出力する必要がある。動画像符号化装置において符号
化処理性能または画像転送性能のいずれかを満足出来な
い場合に、画像データを分割して処理することによって
符号化計算量及び画像データ転送量を適量としたシステ
ムが、文献2に記載されている。However, the conventional moving picture coding apparatus has the following problems. When the size of the processed image becomes large, the moving picture coding apparatus 100
Processing capacity, moving picture coding apparatus 100, and image memory 15
There was a problem that the data transfer rate between 0s was limited. For example, in the standard video standard, the size of one frame is 720 × 480 pixels, and the frame frequency is 30 Hz.
Is. The number of MBs in one frame is 720 × 480 / (16 × 16) = 1350MB, and the maximum allowable processing time for 1MB is 1 / 30sec / 1350 = 24.6μs, which is a very short time. Therefore, a large amount of processing may occur and one moving image coding device may not satisfy the performance. Further, the cycle per pixel in data transfer between the moving picture coding apparatus 100 and the image memory 150 is 24.6 μs / 1664 pixels = 14.78 ns. Even if four pixels are transferred at the same time in order to improve the transfer capability per pixel, it is necessary to transfer at 59.1 ns cycle. Considering the transfer overhead of about 25%, it is necessary to input / output data at a cycle of 47.3 ns, that is, 21.1 MHz. When either the coding processing performance or the image transfer performance cannot be satisfied in the moving picture coding device, a system in which the coding calculation amount and the image data transfer amount are appropriately adjusted by dividing and processing the image data, It is described in Reference 2.
【0009】図5は、画像データを分割処理する動画像
符号化装置を示すブロック図である。この画像符号化装
置は、例えば図2に示された動画像符号化装置と同様の
構成の2つの符号化処理部100A,100bを備えて
いる。各符号化処理部100A,100Bには、画像メ
モリ150A,150Bがそれぞれ接続されている。2
個の画像メモリ150A,150Bには、720×24
0画素の画像データDTinがそれぞれ書込まれる。各符
号化処理手段100A,100Bと画像メモリ150
A,150B間でデータd150A,d150Bの転送
がそれぞれ行われ、各符号化処理部100A,100B
はそれぞれ符号化処理を行う。図6は、フレーム中のM
Bを示す図である。図6には1フレームの一部である複
数のMBのA0〜G4が示されている。例えば、MBの
A0〜D4に対応する画像データDTinが画像メモリ1
50Aに書込まれ、符号化処理部100AがMBのA0
〜D4、つまりフレームの上側のMBに対応した符号化
を実施する。同様に、MBのE0〜G4に対応する画像
データDTinが画像メモリ150Bに書込まれ、符号化
処理手段100BがMBのE0〜G4、つまりフレーム
の上側のMBに対応した符号化を実施する。このような
符号化処理によれば、動画像符号化装置における負荷が
分割されるので処理量の集中を回避することができる。
しかし、フレームの上と下の境界部にあたるMBにおい
て、動きベクトル検出範囲が十分確保できなくなり、動
きベクトルの検出性能が劣化して符号化効率を低下させ
ていた。例えば、上側のMBであるD2に対する動きベ
クトル検出では、下側のE0〜E4のMBに対応するデ
ータを参照することができなかった。FIG. 5 is a block diagram showing a moving picture coding apparatus for dividing image data. This image encoding device includes, for example, two encoding processing units 100A and 100b having the same configuration as the moving image encoding device shown in FIG. Image memories 150A and 150B are connected to the encoding processing units 100A and 100B, respectively. Two
In each of the image memories 150A and 150B, 720 × 24
The image data DT in of 0 pixel is written respectively. Each encoding processing means 100A, 100B and image memory 150
The data d150A and d150B are respectively transferred between A and 150B, and the respective coding processing units 100A and 100B are transferred.
Perform encoding processing respectively. FIG. 6 shows M in the frame.
It is a figure which shows B. FIG. 6 shows A0 to G4 of a plurality of MBs that are part of one frame. For example, the image data DT in corresponding to A0 to D4 of MB is stored in the image memory 1
50A, and the encoding processing unit 100A writes A0 of MB.
~ D4, that is, the encoding corresponding to the upper MB of the frame is performed. Similarly, the image data DT in corresponding to E0 to G4 of MB is written in the image memory 150B, and the encoding processing unit 100B performs encoding corresponding to E0 to G4 of MB, that is, the MB above the frame. . According to such encoding processing, since the load on the moving image encoding apparatus is divided, it is possible to avoid concentration of the processing amount.
However, in the MB that is the boundary between the upper and lower parts of the frame, the motion vector detection range cannot be sufficiently secured, the motion vector detection performance deteriorates, and the coding efficiency decreases. For example, in the motion vector detection for the upper MB D2, the data corresponding to the lower E0 to E4 MBs could not be referred to.
【0010】[0010]
【課題を解決するための手段】本発明は、前記課題を解
決するために、画像データを記憶する画像メモリを共有
し、前記画像メモリに記憶された現画像における所定の
大きさのブロックの画像データと参照画像のブロックの
画像データとを用いて動きベクトル検出を行い該現画像
をブロック単位で符号化を行う複数の符号化処理部を備
え、動画像に対する符号化を実施する動画像符号化装置
において、次のような構成を講じている。即ち、互いに
隣接する前記現画像中のブロック列を前記各符号化処理
部にそれぞれ対応させ該各符号化処理部による前記符号
化を並列に行わせる制御手段と、前記動きベクトル検出
で使用する前記参照画像のブロックの画像データのうち
前記各符号化処理部間で共通して使用する画像データ
を、該画像データを共通して使用する全ての符号化処理
部に前記画像メモリから同時に読出すアクセス手段と
を、設けている。In order to solve the above problems, the present invention shares an image memory for storing image data, and an image of a block of a predetermined size in a current image stored in the image memory. Moving picture coding for carrying out coding on a moving picture, comprising a plurality of coding processing units for carrying out motion vector detection using data and image data of a block of a reference picture and coding the current picture in block units The device has the following configuration. That is, the control means for causing the block strings in the current image adjacent to each other to correspond to the respective encoding processing units and performing the encoding in parallel by the respective encoding processing units, and the control unit used in the motion vector detection An access for simultaneously reading, from the image memory, the image data commonly used by the respective encoding processing units among the image data of the block of the reference image to all the encoding processing units commonly using the image data. And means are provided.
【0011】[0011]
【作用】本発明によれば、以上のように動画像符号化装
置を構成したので、各符号化処理部は、各制御手段の制
御により、互いに隣接する前記現画像中のブロック列を
並列に符号化する。このとき、各符号化処理部間で共通
に使用される参照画像のブロックの画像データが、アク
セス手段によって、それを使用する全ての符号化処理部
へ同時に画像メモリから読出される。各符号化処理部
は、さらに参照画像のブロックの画像データのうち各符
号化処理部で共通使用しないブロックの画像データと現
画像のブロックの画像データとを画像メモリから読出し
て動きベクトルを検出してブロック単位で符号化を行
う。従って、前記課題を解決できるのである。According to the present invention, since the moving picture coding apparatus is constructed as described above, each coding processing section, under the control of each control means, parallelizes the block strings in the current picture adjacent to each other. Encode. At this time, the image data of the block of the reference image that is commonly used by the encoding processing units is simultaneously read from the image memory by the access unit to all the encoding processing units that use it. Each coding processing unit further reads, from the image memory, the image data of the block of the reference image that is not commonly used by the coding processing units and the image data of the block of the current image, and detects the motion vector. Encoding in block units. Therefore, the above problem can be solved.
【0012】[0012]
【実施例】図1は、本発明の実施例を示す動画像符号化
装置のブロック図である。この動画像符号化装置200
は、CPU(中央処理装置)等を用いて構成された2個
の符号化処理部200A,200Bを備え、これら符号
化処理部200A,200Bには時系列に入力される画
像データDTinを記憶する画像メモリ250が接続され
ている。各符号化処理部200A,200Bは現画像の
ブロック単位に動きベクトル検出を行って符号化をそれ
ぞれ行うものであり、各符号化処理部200A,200
Bと画像メモリ250間でデータ転送が行われ、符号化
処理部200A,200Bの出力側から符号化されたデ
ータDTout が出力される構成である。また、各符号化
処理部200A,200Bは画像メモリ250を共有
し、各符号化処理部200A,200Bの画像メモリ2
50に対するアクセスは、同期信号s200で制御され
る構成である。図7は、図1中の符号化処理部の内部を
示す構成ブロック図である。符号化処理部200A,2
00Bは同様の構成であり、それぞれ画像データバッフ
ァ201を備えている。画像データバッファ201は画
像メモリ250に接続されており、各符号化処理部20
0A,200Bにおける符号化に必要な画像データを格
納する機能を有している。画像データバッファ201の
出力側には動きベクトル検出部202とDCT部203
が接続されている。動きベクトル検出部202の出力側
には制御手段である制御部204が接続されている。D
CT203の出力側にはIDCT部205と量子化部2
06が接続され、そのIDCT部205の出力データが
画像データバッファ201に出力される接続である。量
子化部206の出力側には、逆量子化部207と可変長
符号化部208が接続されている。逆量子化部207の
出力データもIDCT部205に入力され、可変長符号
化部208の出力が符号化データDTout として出力さ
れる構成である。制御部204は、この符号化処理部の
符号化処理のシーケンスを制御するものであり、制御信
号s204a,s204b,s204cを送出する機能
を有している。制御部104からの制御信号s204a
は、DCT部203、IDCT部205、量子化部20
6、逆量子化部207、及び可変長符号化部208へ入
力され、制御信号s204bは画像データバッファ20
1に入力される構成である。制御信号s104cは画像
メモリ250に供給される接続である。各符号化処理部
200A,200Bには同期制御部300がそれぞれ設
けられ、その同期制御部300が制御部204に接続さ
れている。同期制御部220はアクセス手段を構成し、
同期制御部220の送出する同期制御信号s200によ
って各符号化処理部200A,200Bの画像メモリ2
50に対するアクセスが制御される構成である。1 is a block diagram of a moving picture coding apparatus according to an embodiment of the present invention. This moving picture coding device 200
Includes two encoding processing units 200A and 200B configured by using a CPU (central processing unit) and the like, and these encoding processing units 200A and 200B store image data DT in input in time series. The image memory 250 is connected. The encoding processing units 200A and 200B perform motion vector detection in units of blocks of the current image and perform encoding, respectively.
Data is transferred between B and the image memory 250, and the encoded data DT out is output from the output side of the encoding processing units 200A and 200B. Further, the encoding processing units 200A and 200B share the image memory 250, and the image memories 2 of the encoding processing units 200A and 200B are shared.
Access to 50 is controlled by the synchronization signal s200. FIG. 7 is a configuration block diagram showing the inside of the encoding processing unit in FIG. Encoding processing units 200A, 2
00B has the same configuration and includes an image data buffer 201. The image data buffer 201 is connected to the image memory 250, and each encoding processing unit 20.
It has a function of storing image data necessary for encoding in 0A and 200B. On the output side of the image data buffer 201, a motion vector detection unit 202 and a DCT unit 203
Are connected. A control unit 204, which is a control unit, is connected to the output side of the motion vector detection unit 202. D
The IDCT unit 205 and the quantization unit 2 are provided on the output side of the CT 203.
06 is connected, and the output data of the IDCT unit 205 is output to the image data buffer 201. An inverse quantizer 207 and a variable length encoder 208 are connected to the output side of the quantizer 206. The output data of the inverse quantization unit 207 is also input to the IDCT unit 205, and the output of the variable length encoding unit 208 is output as encoded data DT out . The control unit 204 controls the sequence of the encoding process of the encoding processing unit, and has a function of transmitting the control signals s204a, s204b, s204c. Control signal s204a from the control unit 104
Are the DCT unit 203, the IDCT unit 205, and the quantization unit 20.
6, the dequantization unit 207, and the variable length coding unit 208, and the control signal s204b is input to the image data buffer 20.
1 is input. The control signal s104c is a connection supplied to the image memory 250. A synchronization control unit 300 is provided in each of the encoding processing units 200A and 200B, and the synchronization control unit 300 is connected to the control unit 204. The synchronization controller 220 constitutes access means,
The image memory 2 of each of the encoding processing units 200A and 200B according to the synchronization control signal s200 transmitted from the synchronization control unit 220.
This is a configuration in which access to 50 is controlled.
【0013】次に、図1の動画像符号化装置の動作を図
を用いて説明する。符号化処理部200A,200B
は、画像メモリ250を共有し、時分割でアクセス行っ
てそれぞれ符号化を実施する。同期制御信号s200で
どちらの符号化処理部が画像メモリ250とデータ入出
力するかが決定される。動きベクトル検出部202は画
像データバッファ201から動きベクトル検出に必要な
データを入力し、動きベクトル検出結果の動きベクトル
のデータd202を制御部204に出力する。DCT2
03は現画像データと動きベクトルで示される位置の参
照画像データとを画像データバッファ201から入力
し、DCT入力データとして現画像データを使用するか
または現画像データ及び参照画像データを使用するか判
定する。DCT203はその判定結果をフレーム内/フ
レーム間予測の選択結果s203としてIDCT部20
5に出力すると共にDCTを行ってDCT結果のデータ
d203を量子化部206に送出する。量子化部206
はDCT出力d203を入力して量子化を行い、この量
子化で代表値に変換されたデータd206が可変長符号
化部208に供給される。可変長符号化部208は量子
化部からのデータd206の発生頻度に対応した符号を
割り当て符号化データDTout を生成して出力する。逆
量子化部207は量子化データd206に対して逆量子
化を行い、逆量子化結果のデータd207をIDCT部
205に供給する。IDCT部205ではデータd20
7に対してIDCTを施し、DCT部203におけるフ
レーム内/フレーム間予測の選択結果s203がフレー
ム内予測を選択している場合、IDCT部205はID
CT結果をそのまま再生画像データd205として画像
データバッファ201に出力する。また、DCT部20
3においてフレーム間予測が選択されている場合、ID
CT部205は画像データバッファ201から参照画像
データを入力してIDCT結果に加算する。IDCT結
果に参照画像データが加算されたデータが再生画像デー
タd205として画像データバッファ201へ出力され
る。画像データバッファは再生画像データを格納し、こ
の格納された再生画像データが画像データd250とし
て画像メモリ250へ出力される。Next, the operation of the moving picture coding apparatus shown in FIG. 1 will be described with reference to the drawings. Encoding processing units 200A and 200B
Share the image memory 250, access by time division, and carry out encoding respectively. The synchronization control signal s200 determines which encoding processing unit inputs / outputs data to / from the image memory 250. The motion vector detection unit 202 inputs the data necessary for motion vector detection from the image data buffer 201, and outputs the motion vector data d202 of the motion vector detection result to the control unit 204. DCT2
03 receives the current image data and the reference image data at the position indicated by the motion vector from the image data buffer 201, and determines whether to use the current image data as the DCT input data or the current image data and the reference image data. To do. The DCT 203 uses the determination result as the intraframe / interframe prediction selection result s203.
5 and performs DCT and sends the DCT result data d203 to the quantizer 206. Quantizer 206
Receives the DCT output d203 and quantizes it, and the data d206 converted into a representative value by this quantization is supplied to the variable length coding unit 208. The variable length coding unit 208 allocates a code corresponding to the occurrence frequency of the data d206 from the quantizing unit, generates coded data DT out , and outputs it. The inverse quantization unit 207 inversely quantizes the quantized data d206, and supplies the inverse quantization result data d207 to the IDCT unit 205. In the IDCT unit 205, the data d20
7 is subjected to IDCT, and the intra-frame / inter-frame prediction selection result s203 in the DCT unit 203 selects intra-frame prediction, the IDCT unit 205 determines that the ID
The CT result is directly output to the image data buffer 201 as the reproduced image data d205. In addition, the DCT unit 20
If inter-frame prediction is selected in 3, ID
The CT unit 205 inputs the reference image data from the image data buffer 201 and adds it to the IDCT result. The data obtained by adding the reference image data to the IDCT result is output to the image data buffer 201 as reproduced image data d205. The image data buffer stores reproduced image data, and the stored reproduced image data is output to the image memory 250 as image data d250.
【0014】制御部204は動きベクトル検出部202
と、DCT部203と、IDCT部205と、量子化部
部206と、逆量子化部207と、可変長符号化部20
8とに、符号化制御信号s204aを送出し、符号化処
理のシーケンスを制御する。符号化制御信号s204a
の内容はアドレスとデータとから構成され、そのアドレ
スによって特定された部が符号化処理の計算を実施す
る。符号化制御信号s204aのうちのデータは特定さ
れた部へ与えるパラメータとなる。また、制御部204
は画像データバッファ201に対する入出力を制御する
バッファ制信号s104bを画像データバッファ201
へ送出し、外部の画像メモリ250と画像データバッフ
ァ201間に対するデータの入出力を制御する画像メモ
リ制信号s204cを外部の画像メモリ250に送出す
る。この画像メモリ制信号s204cによって各符号化
処理部200A,200Bは、処理するブロックを選定
する。本実施例の各符号化処理部200A,200B
は、現画像中の互いに隣接するブロック列をそれぞれ並
列で符号化する。例えば、符号化処理部200Aは図6
におけるA0〜A4とC0〜C4とE0〜E4のMBに
対する符号化を行い、符号化処理部200Bは、B0〜
B4とD0〜D4とF0〜F4のMBに対する符号化を
行う。MBの各A0〜A4と各B0〜B4、各C0〜C
4と各D0〜D4、及び各E0〜E4と各F0〜F4の
処理は少しタイミングがずらされた状態で、同時進行で
符号化される。The control unit 204 is a motion vector detecting unit 202.
, DCT section 203, IDCT section 205, quantization section 206, inverse quantization section 207, and variable length coding section 20.
8, the coding control signal s204a is sent out to control the sequence of the coding process. Encoding control signal s204a
The content of is composed of an address and data, and the part specified by the address carries out the calculation of the encoding process. The data of the encoded control signal s204a becomes a parameter to be given to the specified part. In addition, the control unit 204
Is a buffer control signal s104b for controlling input / output to / from the image data buffer 201.
The image memory control signal s204c for controlling input / output of data between the external image memory 250 and the image data buffer 201 is transmitted to the external image memory 250. Each of the encoding processing units 200A and 200B selects a block to be processed according to the image memory control signal s204c. Each encoding processing unit 200A, 200B of this embodiment
Encodes adjacent block sequences in the current image in parallel. For example, the encoding processing unit 200A is shown in FIG.
In A to A4, C0 to C4, and E0 to E4 are encoded, and the encoding processing unit 200B sets B0 to B0.
Coding is performed on MBs of B4, D0 to D4, and F0 to F4. Each A0-A4 of MB, each B0-B4, each C0-C
4 and each of D0 to D4, and each of E0 to E4 and each of F0 to F4 are encoded at the same time while being slightly shifted in timing.
【0015】図8は、図1の符号化処理部のデータ転送
を説明する図である。この図はMBであるC1及びD1
の符号化のシーケンスを示している。各符号化処理部2
00A,200Bのおける処理時間のうち、動きベクト
ル検出は約1/3を使用し、DCT及び量子化等では約
2/3が使用される。C1についての輝度成分の参照デ
ータを水平、垂直方向とも±16画素とすると、必要と
する参照画像のMBは図6のB0,B1,B2,C0,
C1,C2,D0,D1,D2であるが、先立って行わ
れたC0の符号化処理でB0,B1,C0,C1,D
0,D1は使用されているので、既に画像データバッフ
ァ201に格納されている。そのため、新たに必要なM
Bの画像データは、B2,C2,D2の画像データであ
る。同様に、D1について新たに必要な画像データは、
C2,D2,E2のMBの画像データである。ここで、
C2,D2の画像データは各符号化処理部200A,2
00B双方の動きベクトル検出に必要があるので、符号
化処理部200A,200Bの双方の画像データバッフ
ァ201に同時に、画像メモリ250から読出されて書
込まれる。FIG. 8 is a diagram for explaining the data transfer of the encoding processing unit of FIG. This figure shows MB C1 and D1
3 shows a sequence of encoding of. Each encoding processing unit 2
Of the processing time in 00A and 200B, about 1/3 is used for motion vector detection, and about 2/3 is used for DCT and quantization. If the reference data of the luminance component for C1 is ± 16 pixels in both the horizontal and vertical directions, the MB of the required reference image is B0, B1, B2, C0,
C1, C2, D0, D1, and D2, which are B0, B1, C0, C1, and D in the encoding process of C0 performed previously.
Since 0 and D1 are used, they are already stored in the image data buffer 201. Therefore, the newly required M
The image data of B is the image data of B2, C2, D2. Similarly, the image data newly required for D1 is
It is the image data of MB of C2, D2, and E2. here,
The image data of C2 and D2 are encoded by the respective encoding processing units 200A and 2A.
00B, it is necessary to detect both motion vectors, and thus is read from the image memory 250 and written to the image data buffers 201 of both encoding processing units 200A and 200B at the same time.
【0016】参照画像の輝度データの読出しは図8中の
時刻t0から開始され、引き続き、現画像データの読出
しが行われる。現画像データの読出しではC1の現画像
データが先に読出され、D1の現画像データが後に読出
される。C1の現画像データの読出し終了後、符号化処
理部200AはC1に対する動きベクトル検出を開始す
る。D1の現画像データの読出し終了後、符号化処理部
200BはD1に対する動きベクトル検出を開始する。
また、D1の現画像データの読出し終了後、既に計算さ
れて各画像データバッファ201に格納されているC
0,D0の再生画像データを順番に画像メモリ250に
書込む。D0の再生画像データの書込み終了時には、C
1に対する動きベクトル検出は終了しているので、検出
された動きベクトルで示される色成分の参照領域のデー
タC1c が、符号化処理部200Aの画像データバッフ
ァ201に書込まれる。引き続き、D1に対する色成分
参照領域のデータD1c が読出されて符号化処理部20
0Bの画像データバッファ201に書込まれる。2個の
MBのC1,D1に対する符号化処理で、画像メモリ2
50と各画像データバッファ201間のデータ転送量
は、図8中に示された時刻t1〜時刻t2の間で281
6画素のデータとなり、1MB当たりに換算すると14
08画素のデータとなる。この値は、従来例のデータ転
送量1664画素に対して、11/13に削減されてお
り、処理時間を短縮できることになる。The reading of the luminance data of the reference image starts at time t 0 in FIG. 8, and the reading of the current image data is subsequently performed. When reading the current image data, the current image data of C1 is read first, and the current image data of D1 is read later. After the reading of the current image data of C1 is completed, the encoding processing unit 200A starts the motion vector detection for C1. After the reading of the current image data of D1 is completed, the encoding processing unit 200B starts the motion vector detection for D1.
In addition, after the reading of the current image data of D1 is completed, C already calculated and stored in each image data buffer 201 is displayed.
The reproduced image data of 0 and D0 are written in the image memory 250 in order. At the end of writing the reproduced image data of D0, C
Since the motion vector detection for 1 has been completed, the reference region data C1c of the color component indicated by the detected motion vector is written in the image data buffer 201 of the encoding processing unit 200A. Subsequently, the data D1c of the color component reference area for D1 is read and the encoding processing unit 20
It is written in the image data buffer 201 of 0B. The image memory 2 is processed by the encoding process for C1 and D1 of two MBs.
The data transfer amount between 50 and each image data buffer 201 is 281 between time t1 and time t2 shown in FIG.
It becomes 6 pixel data, and it is 14 when converted per 1MB.
It becomes the data of 08 pixels. This value is reduced to 11/13 as compared with the conventional data transfer amount of 1664 pixels, which means that the processing time can be shortened.
【0017】図9は、図1中の符号化処理部間のアクセ
ス権の変動を示す図であり、この図を用いて、図8中の
時刻t1〜時刻t2における各符号化処理部200A,
200Bの画像メモリ250に対するアクセスを説明す
る。符号化処理部200A,200Bのうち1つがマス
タ、他方がスレーブとなる。符号化処理部が3個以上の
場合には、1つの符号化処理部がマスタとなり、他の符
号化処理部が全てスレーブとなる。ここでは、符号化処
理部200Aをマスタ、符号化処理部200Bをスレー
ブとする。符号化処理部200A,200の両方で共通
に必要となるデータを画像メモリ250から読出す際、
画像メモリ制御信号s204cはマスタ側である符号化
処理部200Aから出力され、スレーブ側からは出力さ
れない。どちらの符号化処理部がマスタであるかスレー
ブであるかは制御部204から同期制御インタフェース
信号sIを同期制御220に与えて設定する。時刻t1
において、符号化処理部200Aは画像メモリ250に
対するアクセス権を放棄する。符号化処理部200A中
の制御部204から同期制御インタフェース信号sIが
符号化処理部200Aの同期制御部220に供給され、
この同期制御部220から符号化処理部200B中の同
期制御部220へ同期制御信号s200が送出される。
符号化処理部200B中の同期制御部220から同期制
御インターフェース信号sIが符号化処理部200B中
の制御部204へ入力され、その制御部204が画像メ
モリ250に対するアクセス権を得たことを認識する。
制御部204はMBであるD1の現画像データ読出しを
行うための画像メモリ制御信号S204cを画像メモリ
250に出力し、画像メモリ250から対応するデータ
が読出される。D1の現画像データの読出し終了後、符
号処理部200Bの制御部204は画像メモリ250に
対するアクセス権を放棄する。即ち、符号処理部200
Bの制御部204は同期制御インタフェース信号sIを
符号処理部200Bの同期制御部220へ供給する。符
号処理部200Bの同期制御部220から符号化処理部
200Aの同期制御部220に同期制御信号s200を
送出する。FIG. 9 is a diagram showing a change in access right between the encoding processing units in FIG. 1, and using this figure, each encoding processing unit 200A at time t1 to time t2 in FIG.
Access to the image memory 250 of 200B will be described. One of the encoding processing units 200A and 200B is a master and the other is a slave. When the number of encoding processing units is three or more, one encoding processing unit becomes a master and all the other encoding processing units become slaves. Here, the encoding processing unit 200A is a master and the encoding processing unit 200B is a slave. When the data required in common to both the encoding processing units 200A and 200 is read from the image memory 250,
The image memory control signal s204c is output from the encoding processing unit 200A on the master side and is not output from the slave side. Which of the encoding processing units is the master or the slave is set by giving the synchronization control interface signal sI from the control unit 204 to the synchronization control 220. Time t1
At, the encoding processing unit 200A abandons the access right to the image memory 250. The synchronization control interface signal sI is supplied from the control unit 204 in the encoding processing unit 200A to the synchronization control unit 220 of the encoding processing unit 200A,
A synchronization control signal s200 is sent from the synchronization control unit 220 to the synchronization control unit 220 in the encoding processing unit 200B.
The synchronization control interface signal sI is input from the synchronization control unit 220 in the encoding processing unit 200B to the control unit 204 in the encoding processing unit 200B, and it is recognized that the control unit 204 has obtained the access right to the image memory 250. .
The control unit 204 outputs the image memory control signal S204c for reading the current image data of D1 which is MB to the image memory 250, and the corresponding data is read from the image memory 250. After the reading of the current image data of D1 is completed, the control unit 204 of the code processing unit 200B abandons the access right to the image memory 250. That is, the code processing unit 200
The B control unit 204 supplies the synchronization control interface signal sI to the synchronization control unit 220 of the code processing unit 200B. The synchronization control signal s200 is transmitted from the synchronization control unit 220 of the code processing unit 200B to the synchronization control unit 220 of the encoding processing unit 200A.
【0018】以下同様な手順で、符号化処理部200A
によるC0の再生画像データの書込み、符号化処理部2
00BによるD0の再生画像データの書込み、符号化処
理部200AによるC1の色成分C1c 参照画像データ
読出し、符号化処理部200BによるD1の色成分D1
c 参照画像データ読出し、及び符号化処理部200Aに
よるC3の輝度成分の参照画像データ読出しが行われ
る。MBのC3の参照画像データである輝度成分は画像
メモリ250から読出され、同時に各符号化処理部20
0A,200Bの画像データバッファ201にそれぞれ
書込まれる。ここで、C3の参照画像データの書込み手
順を説明する。マスタである符号化処理部200Aの制
御部204は、共通データアクセスリクエスト信号を同
期制御インタフェースsIとして符号化処理部200A
の同期制御部220に出力する。この同期制御部220
から符号化処理部200Bの同期制御部220に対して
同期制御信号s200が送出される。同期制御信号s2
00の出力から所定のサイクル遅れて、画像メモリ25
0からの読出しが開始されるようにしておく。所定のサ
イクルのサイクル数は、両符号化処理部200A,20
0B間で予め設定しておく。符号処理部200Bの制御
部204は同期制御部220経由で共通データアクセス
信号を入力する。前記所定サイクル経過と同時に、画像
データバッファ201に対するデータ転送が開始され
る。マスタである符号化処理部200Aの制御部204
は、画像メモリ制御信号s204cを画像メモリ250
に供給すると共に、バッファ制御信号s204bを画像
データバッファ201へ供給する。一方、符号化処理部
200Bの制御部204はバッファ制御信号s204b
を画像データバッファ201へ供給する処理のみを行
う。MBのC3の参照画像データである輝度成分の読出
し終了後、同様の手順でD3の輝度成分が参照画像デー
タとして読出される。引き続き、符号化処理部200B
によるMBのE3の参照画像データ、符号化処理部20
0AによるMBのC2の現画像データの各読出しが行わ
れる。In the same procedure as described below, the encoding processing unit 200A
Writing of reproduced image data of C0 by the encoding processing unit 2
00B for writing the reproduced image data of D0, the encoding processing unit 200A for reading the C1 color component C1c reference image data, and the encoding processing unit 200B for the D1 color component D1.
c Reference image data reading and reference image data reading of the luminance component of C3 by the encoding processing unit 200A are performed. The luminance component which is the reference image data of C3 of MB is read from the image memory 250, and at the same time, each encoding processing unit 20
It is written in the image data buffers 201 of 0A and 200B, respectively. Here, the procedure for writing the reference image data of C3 will be described. The control unit 204 of the encoding processing unit 200A, which is the master, uses the common data access request signal as the synchronization control interface sI.
To the synchronization control unit 220. This synchronization control unit 220
Sends a synchronization control signal s200 to the synchronization control unit 220 of the encoding processing unit 200B. Synchronization control signal s2
00, the image memory 25 is delayed by a predetermined cycle.
The reading from 0 is started. The number of cycles of the predetermined cycle is determined by the two encoding processing units 200A and 20A.
It is preset between 0B. The control unit 204 of the code processing unit 200B inputs the common data access signal via the synchronization control unit 220. The data transfer to the image data buffer 201 is started at the same time when the predetermined cycle elapses. Control unit 204 of encoding processing unit 200A that is a master
Sends the image memory control signal s204c to the image memory 250.
And the buffer control signal s204b to the image data buffer 201. On the other hand, the control unit 204 of the encoding processing unit 200B controls the buffer control signal s204b.
Is supplied to the image data buffer 201 only. After the reading of the luminance component that is the reference image data of C3 of MB is completed, the luminance component of D3 is read as reference image data in the same procedure. Subsequently, the encoding processing unit 200B
E3 reference image data of MB, encoding processing unit 20
Each reading of the current image data of C2 of MB by 0A is performed.
【0019】以上のように、本実施例では、画像メモリ
250を共有する2つの符号化処理部200A,200
Bで動画像符号化装置を構成しているので、処理量の集
中が無く、符号化処理部の負担が低減される。また、各
符号化処理部200A,200Bは現画像中で互いに隣
接するMBの列をそれぞれ並列に符号化する。そのた
め、参照画像の領域が制限される事がなく且つ共通の参
照画像のデータを用いることが可能となり、画質の低下
を防止したうえで画像メモリ250と動画像符号化装置
200間のデータ転送量を少なくする事ができる。な
お、本発明は、上記実施例に限定されず種々の変形が可
能である。例えば、符号化処理部200A,200Bの
数は2個でなくてもよく、3個以上で構成してもよく、
その場合、さらに各符号化処理部における負担が軽減さ
れる。また、MBのサイズは画像処理の目的に応じて変
更可能であり、どのようなサイズのMBであっても、上
記実施例と同様の効果が発揮される。As described above, in this embodiment, the two encoding processing units 200A and 200 sharing the image memory 250 are shared.
Since the moving image coding apparatus is configured by B, the processing amount is not concentrated and the load on the coding processing unit is reduced. In addition, the encoding processing units 200A and 200B respectively encode the columns of MBs adjacent to each other in the current image in parallel. Therefore, the area of the reference image is not limited and the data of the common reference image can be used, and the amount of data transfer between the image memory 250 and the moving image encoder 200 can be prevented while preventing the deterioration of the image quality. Can be reduced. The present invention is not limited to the above embodiment, and various modifications can be made. For example, the number of encoding processing units 200A and 200B may not be two, and may be three or more.
In that case, the load on each encoding processing unit is further reduced. The size of the MB can be changed according to the purpose of the image processing, and the same effect as that of the above-described embodiment can be obtained regardless of the size of the MB.
【0020】[0020]
【発明の効果】以上詳細に説明したように、本発明によ
れば、画像メモリを共有する複数の符号化処理部を動画
像符号化装置と制御手段とを備え、制御手段の制御によ
り、各符号化処理部が、互いに隣接するブロック列を並
列に符号化する構成としている。また、動画像符号化装
置にはアクセス手段が設けられ、アクセス手段によって
各符号化処理部間で共通に使用される参照画像のデータ
をそれを使用する各符号化処理部に同時に画像メモリか
ら読出される。そのため、参照画像の領域が制限される
事なく、共通の参照画像のデータを用いることが可能と
なり、画像メモリと動画像符号化装置間のデータ転送量
を少なくする事ができる。As described in detail above, according to the present invention, a plurality of coding processing units sharing an image memory are provided with a moving picture coding device and a control means, and each of them is controlled by the control means. The encoding processing unit is configured to encode adjacent block strings in parallel. Further, the moving picture coding apparatus is provided with an access means, and the data of the reference image commonly used by the respective coding processing sections by the access means is simultaneously read from the image memory to each coding processing section using the reference picture data. To be done. Therefore, it is possible to use common reference image data without limiting the reference image area, and it is possible to reduce the amount of data transfer between the image memory and the moving image encoding device.
【図1】本発明の実施例を示す動画像符号化装置のブロ
ック図である。FIG. 1 is a block diagram of a moving picture coding apparatus showing an embodiment of the present invention.
【図2】従来の動画像符号化装置の1例を示す構成ブロ
ック図である。FIG. 2 is a configuration block diagram showing an example of a conventional moving image encoding device.
【図3】図2中の画像データバッファのデータ転送を説
明する図である。FIG. 3 is a diagram illustrating data transfer of an image data buffer in FIG.
【図4】図2の動画像符号化装置と画像メモリを示すブ
ロック図である。FIG. 4 is a block diagram showing a moving picture coding apparatus and an image memory of FIG.
【図5】画像データを分割処理する動画像符号化装置を
示すブロック図である。[Fig. 5] Fig. 5 is a block diagram illustrating a moving image encoding device that divides image data.
【図6】フレーム中のMBを示す図である。FIG. 6 is a diagram showing an MB in a frame.
【図7】図1中の符号化処理部の内部を示す構成ブロッ
ク図である。7 is a configuration block diagram showing the inside of the encoding processing unit in FIG. 1. FIG.
【図8】図1の符号化処理部のデータ転送を説明する図
である。FIG. 8 is a diagram illustrating data transfer of the encoding processing unit in FIG. 1.
【図9】図1中の符号化処理部間のアクセス権の変動を
示す図である。9 is a diagram showing a change in access right between the encoding processing units in FIG.
200 動画像符号化装置 200A,200B 符号化処理部 250 画像メモリ s200 同期制御信号 s204c 画像メモリ制御信号 s250 転送データ DTout 符号化データ 201 画像データバッファ 202 動きベクトル検出部 203 DCT部 204 制御部 220 同期制御部 s204b バッファ制御信号 sI 同期制御インタフェース信号200 moving picture coding apparatus 200A, 200B coding processing section 250 image memory s200 synchronization control signal s204c image memory control signal s250 transfer data DT out coded data 201 image data buffer 202 motion vector detection section 203 DCT section 204 control section 220 synchronization Control unit s204b Buffer control signal sI Synchronous control interface signal
Claims (1)
し、前記画像メモリに記憶された現画像における所定の
大きさのブロックの画像データと参照画像のブロックの
画像データとを用いて動きベクトル検出を行い該現画像
をブロック単位で符号化を行う複数の符号化処理部を備
え、動画像に対する符号化を実施する動画像符号化装置
において、 互いに隣接する前記現画像中のブロック列を前記各符号
化処理部にそれぞれ対応させ該各符号化処理部による前
記符号化を並列に行わせる制御手段と、前記動きベクト
ル検出で使用する前記参照画像のブロックの画像データ
のうち前記各符号化処理部間で共通して使用する画像デ
ータを、該画像データを共通して使用する全ての符号化
処理部に前記画像メモリから同時に読出すアクセス手段
とを、設けたことを特徴とする動画像符号化処理装置。1. A motion vector is detected by sharing an image memory for storing image data and using image data of a block of a predetermined size and image data of a block of a reference image in the current image stored in the image memory. In the moving picture coding apparatus, which includes a plurality of coding processing units for coding the current picture in block units, and which performs coding for the moving picture, Control means corresponding to each of the encoding processing units and causing the encoding processing units to perform the encoding in parallel, and each encoding processing unit of the image data of the block of the reference image used in the motion vector detection. Access means for simultaneously reading out image data commonly used between all the encoding processing units that commonly use the image data from the image memory, Moving image encoding process and wherein the digit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13717894A JP3360942B2 (en) | 1994-06-20 | 1994-06-20 | Video encoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13717894A JP3360942B2 (en) | 1994-06-20 | 1994-06-20 | Video encoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH089385A true JPH089385A (en) | 1996-01-12 |
JP3360942B2 JP3360942B2 (en) | 2003-01-07 |
Family
ID=15192642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13717894A Expired - Fee Related JP3360942B2 (en) | 1994-06-20 | 1994-06-20 | Video encoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3360942B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998042136A1 (en) * | 1997-03-19 | 1998-09-24 | Sony Corporation | Image encoding method and device |
US6263112B1 (en) | 1996-12-13 | 2001-07-17 | Fujitsu Limited | Motion vector searching apparatus and motion picture coding apparatus |
US6470050B1 (en) | 1999-04-09 | 2002-10-22 | Matsushita Electric Industrial Co., Ltd. | Image coding apparatus and its motion vector detection method |
JP2007325119A (en) * | 2006-06-02 | 2007-12-13 | Canon Inc | Image processing apparatus and method |
US7365777B2 (en) | 2003-03-24 | 2008-04-29 | Fujifilm Corporation | Digital camera |
JP2010239428A (en) * | 2009-03-31 | 2010-10-21 | Nec Corp | Statistical multiplexer, encoder, and statistical multiplex method |
GB2447402B (en) * | 2006-02-10 | 2011-03-02 | Nvidia Corp | Processing video data |
US8687222B2 (en) | 2006-08-28 | 2014-04-01 | Fujitsu Semiconductor Limited | Image data buffer apparatus and data transfer system for efficient data transfer |
US9113162B2 (en) | 2003-11-25 | 2015-08-18 | Nvidia Corporation | Dynamic packet size control for MPEG-4 data partition mode |
-
1994
- 1994-06-20 JP JP13717894A patent/JP3360942B2/en not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6263112B1 (en) | 1996-12-13 | 2001-07-17 | Fujitsu Limited | Motion vector searching apparatus and motion picture coding apparatus |
WO1998042136A1 (en) * | 1997-03-19 | 1998-09-24 | Sony Corporation | Image encoding method and device |
US6005628A (en) * | 1997-03-19 | 1999-12-21 | Sony Corporation | Picture encoding method and picture encoding apparatus |
US6470050B1 (en) | 1999-04-09 | 2002-10-22 | Matsushita Electric Industrial Co., Ltd. | Image coding apparatus and its motion vector detection method |
US7365777B2 (en) | 2003-03-24 | 2008-04-29 | Fujifilm Corporation | Digital camera |
US9113162B2 (en) | 2003-11-25 | 2015-08-18 | Nvidia Corporation | Dynamic packet size control for MPEG-4 data partition mode |
GB2447402B (en) * | 2006-02-10 | 2011-03-02 | Nvidia Corp | Processing video data |
US8705630B2 (en) | 2006-02-10 | 2014-04-22 | Nvidia Corporation | Adapting one type of encoder to another type of encoder |
JP2007325119A (en) * | 2006-06-02 | 2007-12-13 | Canon Inc | Image processing apparatus and method |
US8687222B2 (en) | 2006-08-28 | 2014-04-01 | Fujitsu Semiconductor Limited | Image data buffer apparatus and data transfer system for efficient data transfer |
JP2010239428A (en) * | 2009-03-31 | 2010-10-21 | Nec Corp | Statistical multiplexer, encoder, and statistical multiplex method |
Also Published As
Publication number | Publication date |
---|---|
JP3360942B2 (en) | 2003-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100298416B1 (en) | Method and apparatus for block classification and adaptive bit allocation | |
AU657510B2 (en) | Improved image encoding/decoding method and apparatus | |
JPH0837662A (en) | Picture encoding/decoding device | |
JPH0595540A (en) | Dynamic picture encoder | |
JPH09179987A (en) | Method and device for detecting motion vector | |
JPH05308622A (en) | Image encoder/decoder | |
JPH05219529A (en) | Motion vector detection circuit | |
JPH04334190A (en) | Video signal coder | |
KR101160640B1 (en) | Data processing system and data processing method | |
JPH089385A (en) | Dynamic image encoder | |
JPH0759096A (en) | Video encoder and decoder | |
JPH09294262A (en) | Image coder | |
JPH01179584A (en) | Method for searching motion compensating dynamic vector | |
JPH07143494A (en) | Coding method for moving image | |
US7613351B2 (en) | Video decoder with deblocker within decoding loop | |
JPH06225279A (en) | Coding/decoding methods and coding/decoding devices | |
US6097843A (en) | Compression encoding apparatus, encoding method, decoding apparatus, and decoding method | |
US20040146213A1 (en) | System and method for video data compression | |
JPH0846977A (en) | Picture compression circuit | |
JPH0221776A (en) | Predicting static picture encoder/decoder | |
JP2776284B2 (en) | Image coding device | |
JP2834134B2 (en) | Multiplexing device and multiple decoding device | |
JP3141149B2 (en) | Image coding device | |
JP2008136177A (en) | Motion detection apparatus, mos (metal-oxide semiconductor) integrated circuit and video system | |
JPH07111653A (en) | Encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021001 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081018 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081018 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091018 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101018 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111018 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |