JP3360942B2 - Video encoding device - Google Patents

Video encoding device

Info

Publication number
JP3360942B2
JP3360942B2 JP13717894A JP13717894A JP3360942B2 JP 3360942 B2 JP3360942 B2 JP 3360942B2 JP 13717894 A JP13717894 A JP 13717894A JP 13717894 A JP13717894 A JP 13717894A JP 3360942 B2 JP3360942 B2 JP 3360942B2
Authority
JP
Japan
Prior art keywords
image
image data
encoding
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13717894A
Other languages
Japanese (ja)
Other versions
JPH089385A (en
Inventor
陽一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP13717894A priority Critical patent/JP3360942B2/en
Publication of JPH089385A publication Critical patent/JPH089385A/en
Application granted granted Critical
Publication of JP3360942B2 publication Critical patent/JP3360942B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、動画像等の画像伝送に
用いられる動画像符号化装置に関するものである。 【0002】 【従来の技術】従来、このような分野の技術としては、
例えば次のような文献に記載されるものがあった。 文献1;オプトロニクス(1992−5)オプトロニクス社、大久保 “テレビ電話・会議における符号化”P.74-79,86-98 文献2;IEEE 1993 CUSTOM CIRCUITS CONFERENCE(1993)、 Subroto Bose 他著“A Single Chip Multistandard Video Codec ”P.11.4.1-11.4.4 動画像の符号化では文献2に記載されたように、符号化
しようとする1フレームの画像を例えば16×16画素
のマクロブロック(以下、MBという)と呼ばれる小ブ
ロック単位で、次の(1)〜(5)の処理を順に行い、
符号化を行う。 (1)動きベクトル検出 符号化しようとするフレームつまり符号化フレームの符
号化対象MBに対して相関の1番大きい領域を符号化参
照フレームから検出する。このときの符号化参照フレー
ムは、一般的に符号化フレームの前後のフレームが用い
られる。領域の検出において、符号化参照フレーム中で
符号化対象MBと同じ空間位置の近辺が探索領域とさ
れ、探索領域内で符号化対象MBに対して相関の1番大
きい領域が求められる。そして、相関の1番大きい領域
の参照フレーム中の空間位置と符号化対象MBの空間位
置との差分が動きベクトルとして検出される。 (2)離散コサイン変換(以下、DCTという) 一種の直交変換が符号化対象MBに施され、符号化対象
MBのデータは空間データから周波数スペクトルデータ
へ変換される。DCTの入力データとしては符号化フレ
ームの符号化対象MBデータがそのまま用いられるか、
または符号化対象MBと動きベクトルで参照される領域
の参照フレームのデータとの差分が用いられる。その判
定基準としては、その差分値が大きいときには符号化フ
レームのデータがそのまま用いられ、小さい時には差分
データが用いられる。 【0003】(3)量子化 DCTの出力データが、所定の代表値に変換される。 (4)可変長符号化 量子化の出力データのうち発生頻度の低い値に対して大
きい長さの符号が与えられ、発生頻度の高い値に対して
小さい長さの符号が割り当てられて符号化データとして
出力される。 (5)逆量子化,逆離散コサイン変換(以下、IDCT
という) 逆量子化は量子化の逆の処理、IDCTはDCTの逆の
処理をそれぞれ行う。これらの処理によって空間データ
として画像データが再生され、後に符号化されるフレー
ムに対する参照フレームデータとなる。ここで、量子化
は1:1の変換とならないので、量子化入力と逆量子化
出力とは同等ではない。そのため、原画像と再生画像と
は異なったものになる。(1)の動きベクトル検出は輝
度成分データに対して行われ、(2)〜(5)の処理は
輝度成分及び色成分に対して行われる。1MB中の輝度
成分は16×16=256画素、色成分はその半分の1
28画素である。 【0004】図2は、従来の動画像符号化装置の1例を
示す構成ブロック図であり、この図を参照しつつ、ある
1つのMBデータに対する符号化処理の流れを説明す
る。この動画像符号化装置100は、符号化MBを符号
化するために必要な画像データを格納する画像データバ
ッファ101を備え、その画像データバッファ101の
出力側には動きベクトル検出部102とDCT部103
が接続されている。動きベクトル検出部102の出力側
には制御部104が接続されている。DCT103の出
力側にはIDCT部105と量子化部106が接続さ
れ、そのIDCT部105の出力データが画像データバ
ッファ101に出力される接続である。量子化部106
の出力側には逆量子化部107と可変長符号化部108
が接続されている。逆量子化部107の出力信号もID
CT部105に入力され、可変長符号化部108の出力
が符号化データDTout として出力される構成である。
制御部104は、この動画像符号化装置100の符号化
処理のシーケンスを制御するものであり、制御信号s1
04a,s104b,s104cを送出する機能を有し
ている。制御部104からの制御信号s104aはDC
T部103、IDCT部105、量子化部106、逆量
子化部107、及び可変長符号化部108へ入力され、
制御信号s104bは画像データバッファ101に入力
される構成である。また、制御信号s104cは外部の
図示しない画像メモリ150に供給される接続である。
動きベクトル検出部102は画像データバッファ101
から動きベクトル検出に必要なデータを入力し、動きベ
クトル検出結果の動きベクトルd102を制御部104
に出力する。DCT103は符号化対象フレームデータ
(現画像データ)と動きベクトルで示される位置の参照
フレームデータ(参照画像データ)とを画像データバッ
ファ101から入力し、DCT入力データとして現画像
データを使用するかまたは現画像データと参照画像デー
タを使用するか判定する。DCT部103はその判定結
果をフレーム内/フレーム間予測の選択結果s103と
してIDCT部105に出力すると共にDCTを行って
DCT結果のデータd103を量子化部106に送出す
る。 【0005】量子化部106はDCT出力データd10
3を入力して量子化を行い、この量子化で代表値に変換
されたデータd106が可変長符号化部108に供給さ
れる。可変長符号化部108は量子化部106からのデ
ータd106に、発生頻度に対応した符号を割り当て符
号化データDTout を生成して出力する。逆量子化部1
07は量子化データd106に対して逆量子化を行い、
逆量子化結果のデータd107をIDCT部105に供
給する。IDCT部105ではデータd107に対して
IDCTを施し、DCT部103におけるフレーム内/
フレーム間予測の選択結果s103がフレーム内予測を
選択している場合、IDCT部105はIDCT結果を
そのまま再生画像データd105として画像データバッ
ファ101に出力する。また、DCT部103において
フレーム間予測が選択されている場合、IDCT部10
5は画像データバッファ101から参照画像データを入
力してIDCT結果に加算する。IDCT結果に参照画
像データが加算されたデータが再生画像データd105
として画像データバッファ101へ出力される。画像デ
ータバッファ101は再生画像データを格納し、この格
納された再生画像データが外部の画像メモリへ出力され
る。制御部104は動きベクトル検出部102と、DC
T部103と、IDCT部105と、量子化部106
と、逆量子化部107と、可変長符号化部108とに、
符号化制御信号s104aを送出し、符号化処理のシー
ケンスを制御する。符号化制御信号s104aの内容は
アドレスとデータとから構成され、そのアドレスによっ
て特定された部が符号化処理の計算を実施する。符号化
制御信号s104aのうちのデータ部分は特定された部
へ与えるパラメータとなる。また、制御部104は画像
データバッファ101に対する入出力を制御するバッフ
ァ制信号s104bを画像データバッファ101へ送出
し、外部の画像メモリ150と画像データバッファ10
1間に対するデータの入出力を制御する画像メモリ制信
号s104cを外部の画像メモリ150に送出する。 【0006】図3は、図2中の画像データバッファ10
のデータ転送を説明する図である。次の(i)〜(ii
i)で、1MBの符号化処理に必要な外部画像メモリ1
50と画像データバッファ101間のデータ転送量を図
3を参照しつつ説明する。 (i)参照画像データ読出し 輝度成分について動きベクトル検出を行うために、参照
フレーム中の探索範囲として使用する領域の分だけ画像
データを画像メモリ150から読出す必要がある。例え
ば、符号化対象MBに対して水平方向±16画素、垂直
方向±16画素を探索範囲とすると48×48画素の画
像データを読出す必要がある。しかし、通常、空間位置
の順序にしたがって符号化が行われるので、符号化対象
MBと直前に処理したMBとで探索範囲に重複する部分
が存在することになる。この重複する部分の画像データ
はすでに画像データバッファ101に格納されているの
で、符号化対象MBに対する動きベクトル検出で新たに
用いるデータのみを読出すとすると、図3のように16
×48画素が、外部の画像メモリ150から読出され
る。一方、色成分については動きベクトル検出結果に応
じて読出されるので、16×8画素である。 【0007】(ii)現画像データ 輝度成分について16×16画素、及び色成分16×8
画素読出される。 (iii)再生画像データ 輝度成分16×16画素、色成分16×8画素である。
以上の(i)〜(iii)を合計すると、 (16×48+16×8)+(16×16+16×8)
+(16×16+16×8)=1664画素 となる。図4は、図2の動画像符号化装置と画像メモリ
を示すブロック図である。図4には図2の動画像符号化
装置100に接続された画像メモリ150が示されてい
る。画像メモリ150の入力データDTinは時系列に入
力される動画像データがアナログ/デジタル変換された
データであり、画像メモリ150にはこの画像データ
inが書込まれる。動画像符号化装置100中の制御部
104から画像メモリ制御信号S104cが出力され、
その画像メモリ制御信号s104cに基き、画像データ
d150が動画像符号化装置100と画像メモリ150
との間で転送される。画像データd150の内容は参照
画像データと現画像データと再生画像データから構成さ
れる。 【0008】 【発明が解決しようとする課題】しかしながら、従来の
動画像符号化装置では、次のような課題があった。処理
画像の大きさが大きくなると、動画像符号化装置100
の処理能力と動画像符号化装置100と画像メモリ15
0間のデータ転送速度に限界が来るとい問題点があっ
た。例えば、標準ビデオ規格では1フレームの大きさが
720×480画素であり、フレーム周波数は30Hz
である。1フレーム内のMB数は、 720×480/(16×16)=1350MB となり、1MBに対する処理許容時間は最大、 1/30sec/1350=24.6μs と非常に短い時間である。そのため、処理量が膨大とな
って1つの動画像符号化装置では性能を満たさない場合
も発生する。また、動画像符号化装置100と画像メモ
リ150間のデータ転送における1画素当たりの周期
は、 24.6μs/1664画素=14.78ns となる。1画素当たりの転送能力を上げるために4画素
同時に転送したとしても、59.1ns周期で転送する
必要がある。転送オーバヘッドを25%程度と考慮する
と47.3nsの周期つまり21.1MHzでデータを
入出力する必要がある。動画像符号化装置において符号
化処理性能または画像転送性能のいずれかを満足出来な
い場合に、画像データを分割して処理することによって
符号化計算量及び画像データ転送量を適量としたシステ
ムが、文献2に記載されている。 【0009】図5は、画像データを分割処理する動画像
符号化装置を示すブロック図である。この画像符号化装
置は、例えば図2に示された動画像符号化装置100
同様の構成の2つの符号化処理部100A,100B
備えている。各符号化処理部100A,100Bには、
画像メモリ150A,150Bがそれぞれ接続されてい
る。2個の画像メモリ150A,150Bには、720
×240画素の画像データDTinがそれぞれ書込まれ
る。各符号化処理部100A,100Bと画像メモリ1
50A,150B間でデータd150A,d150Bの
転送がそれぞれ行われ、各符号化処理部100A,10
0Bはそれぞれ符号化処理を行う。図6は、フレーム中
のMBを示す図である。図6には1フレームの一部であ
る複数のMBのA0〜G4が示されている。例えば、M
BのA0〜D4に対応する画像データDTinが画像メモ
リ150Aに書込まれ、符号化処理部100AがMBの
A0〜D4、つまりフレームの上側のMBに対応した符
号化を実施する。同様に、MBのE0〜G4に対応する
画像データDTinが画像メモリ150Bに書込まれ、符
号化処理手段100BがMBのE0〜G4、つまりフレ
ームの下側のMBに対応した符号化を実施する。このよ
うな符号化処理によれば、動画像符号化装置における負
荷が分割されるので処理量の集中を回避することができ
る。しかし、フレームの上と下の境界部にあたるMBに
おいて、動きベクトル検出範囲が十分確保できなくな
り、動きベクトルの検出性能が劣化して符号化効率を低
下させていた。例えば、上側のMBであるD2に対する
動きベクトル検出では、下側のE0〜E4のMBに対応
するデータを参照することができなかった。 【0010】 【課題を解決するための手段】本発明は、前記課題を解
決するために、現画像データを複数のブロック列に分割
し、分割されたそれぞれのブロック列に対応して複数の
符号化処理部を備える動画像符号化装置であって、前記
各符号化処理部は、前記画像メモリに接続され、バッフ
ァ制御信号により入出力が制御される画像データ一時記
憶用の画像データバッファと、符号化処理手段と、同期
制御手段と、制御手段とを備えている。 前記符号化処理
手段は、前記画像データバッファに接続され、符号化制
御信号により符号化処理のシーケンスが制御され、前記
画像データバッファに記憶された前記現画像における所
定の大きさのブロックの画像データと前記参照ブロック
の画像データとを用いて動きベクトル検出を行い、前記
現画像をブロック単位で符号化を行って符号化データを
出力するものである。 前記同期制御手段は、同期制御イ
ンタフェース信号が入力されると、前記画像メモリに対
するアクセス権調停用の同期制御信号を他の符号化処理
部に与え、前記他の符号化処理部から前記同期制御信号
を受取ると、前記同期制御インタフェース信号を出力す
るものである。 前記制御手段は、前記バッファ制御信号
及び前記符号化制御信号を出力する機能を有すると共
に、前記同期制御インタフェース信号の授受によって自
己の符号化処理部が前記画像メモリに対するアクセス権
を有しているか否かを判断するものである。 そして、前
記制御手段は、前記画像メモリに対するアクセス権を有
している場 合は、画像メモリ制御信号を出力して前記画
像メモリをアクセスし、前記動きベクトル検出で使用す
る前記参照画像のブロックの画像データのうち共通して
使用する画像データを、前記画像メモリから読出して前
記画像データバッファ及び前記他の符号化処理部内の画
像データバッファに記憶させるようにしている。 【0011】 【作用】本発明によれば、以上のように動画像符号化装
置を構成したので、各符号化処理部は、各制御手段の制
御により、互いに隣接する現画像中のブロック列を並列
に符号化する。このとき、ある符号化処理部内の制御手
段が、同期制御手段から同期制御インタフェース信号を
受取ると、画像メモリ制御信号を出力して画像メモリを
アクセスし、動きベクトル検出で使用する参照画像のブ
ロックの画像データのうち他の符号化処理部と共に共通
して使用する画像データを、該画像メモリから読出して
該符号化処理部内の画像データバッファ及び他の符号化
処理部内の画像データバッファに記憶させる。参照画像
のブロックの画像データのうち各符号化処理部で共通使
用しないブロックの画像データと現画像のブロックの画
像データとは、各符号化処理部が各々独立して画像メモ
リから読出して画像データバッファに記憶させる。これ
により、各符号化処理部では、画像データバッファに記
憶された画像データを用い、動きベクトルを検出してブ
ロック単位で符号化を行う。従って、前記課題を解決で
きるのである。 【0012】 【実施例】図1は、本発明の実施例を示す動画像符号化
装置のブロック図である。この動画像符号化装置200
は、CPU(中央処理装置)等を用いて構成された2個
の符号化処理部200A,200Bを備え、これら符号
化処理部200A,200Bには時系列に入力される画
像データDTinを記憶する画像メモリ250が接続され
ている。各符号化処理部200A,200Bは現画像の
ブロック単位に動きベクトル検出を行って符号化をそれ
ぞれ行うものであり、各符号化処理部200A,200
Bと画像メモリ250間でデータ転送が行われ、符号化
処理部200A,200Bの出力側から符号化されたデ
ータDToutが出力される構成になっている。各符号化
処理部200A,200Bは画像メモリ250を共有
し、各符号化処理部200A,200Bの画像メモリ2
50に対するアクセス権の調停(即ち、アクセスの衝突
回避の調停)は、同期制御信号s200によって行われ
る。図7は、図1中の符号化処理部の内部を示す構成ブ
ロック図である。符号化処理部200A,200Bは同
様の構成であり、それぞれ画像データバッファ201を
備えている。画像データバッファ201は画像メモリ2
50に接続されており、各符号化処理部200A,20
0Bにおける符号化に必要な画像データを格納する機能
を有している。画像データバッファ201には、動きベ
クトル検出部202、DCT部203、IDCT部20
5、量子化部206、逆量子化部207、及び可変長符
号化部208からなる符号化処理手段が接続されてい
る。 即ち、画像データバッファ201の出力側には、動
きベクトル検出部202とDCT部203が接続されて
いる。動きベクトル検出部202の出力側には制御手
段である制御部204が接続されている。DCT部20
3の出力側にはIDCT部205と量子化部206が接
続され、そのIDCT部205の再生画像データd20
が画像データバッファ201に出力される接続であ
る。子化部206の出力側には、逆量子化部207と可
変長符号化部208が接続されている。逆量子化部20
7の出力データd207もIDCT部205に入力さ
れ、可変長符号化部208の出力が符号化データDT
out として出力される構成である。制御部204は、こ
の符号化処理部の符号化処理のシーケンスを制御するも
のであり、制御信号s204a,s204b,s204
cを送出する機能を有している。制御部204からの制
御信号s204aは、DCT部203、IDCT部20
5、量子化部206、逆量子化部207、及び可変長符
号化部208へ入力され、制御信号s204bは画像デ
ータバッファ201に入力される構成である。制御信号
s204cは画像メモリ250に供給される接続であ
る。各符号化処理部200A,200Bには、同期制御
信号s200を出力するための同期制御手段である同期
制御部220がそれぞれ設けられ、その同期制御部22
が制御部204に接続されている 【0013】次に、図1の動画像符号化装置の動作を図
を用いて説明する。符号化処理部200A,200B
は、画像メモリ250を共有し、時分割でアクセス
ってそれぞれ符号化を実施する。同期制御信号s200
でどちらの符号化処理部200A,200Bが画像メモ
リ250とデータ入出力するかが決定される。動きベク
トル検出部202は画像データバッファ201から動き
ベクトル検出に必要なデータを入力し、動きベクトル検
出結果の動きベクトルのデータd202を制御部204
に出力する。DCT部203は現画像データと動きベク
トルで示される位置の参照画像データとを画像データバ
ッファ201から入力し、DCT入力データとして現画
像データを使用するかまたは現画像データ及び参照画像
データを使用するか判定する。DCT部203はその
判定結果をフレーム内/フレーム間予測の選択結果s2
03としてIDCT部205に出力すると共にDCTを
行ってDCT結果のデータd203を量子化部206に
送出する。量子化部206はDCT部203の出力デー
d203を入力して量子化を行い、この量子化で代表
値に変換されたデータd206が可変長符号化部208
に供給される。可変長符号化部208は量子化部206
からのデータd206の発生頻度に対応した符号を割り
当て符号化データDTout を生成して出力する。逆量子
化部207は量子化データd206に対して逆量子化を
行い、逆量子化結果のデータd207をIDCT部20
5に供給する。IDCT部205ではデータd207に
対してIDCTを施し、DCT部203におけるフレー
ム内/フレーム間予測の選択結果s203がフレーム内
予測を選択している場合、IDCT部205はIDCT
結果をそのまま再生画像データd205として画像デー
タバッファ201に出力する。また、DCT部203に
おいてフレーム間予測が選択されている場合、IDCT
部205は画像データバッファ201から参照画像デー
タを入力してIDCT結果に加算する。IDCT結果に
参照画像データが加算されたデータが再生画像データd
205として画像データバッファ201へ出力される。
画像データバッファは再生画像データを格納し、この格
納された再生画像データが画像データd250として画
像メモリ250へ出力される。 【0014】制御部204は動きベクトル検出部202
と、DCT部203と、IDCT部205と、量子化部
206と、逆量子化部207と、可変長符号化部208
とに、符号化制御信号s204aを送出し、符号化処理
のシーケンスを制御する。符号化制御信号s204aの
内容はアドレスとデータとから構成され、そのアドレス
によって特定された部が符号化処理の計算を実施する。
符号化制御信号s204aのうちのデータは特定され
た部へ与えるパラメータとなる。また、制御部204
画像データバッファ201に対する入出力を制御す
るバッファ制御信号s204bを画像データバッファ2
01へ送出すると共に、外部の画像メモリ250と画像
データバッファ201間に対するデータの入出力を制御
する画像メモリ制御信号s204cを外部の画像メモリ
250送出する。この画像メモリ制御信号s204c
によって各符号化処理部200A,200Bは、処理す
るブロックを選定する。本実施例の各符号化処理部20
0A,200Bは、現画像中の互いに隣接するブロック
列をそれぞれ並列で符号化する。例えば、符号化処理部
200Aは図6におけるA0〜A4とC0〜C4とE
0〜E4のMBに対する符号化を行い、符号化処理部2
00Bは、B0〜B4とD0〜D4とF0〜F4のMB
に対する符号化を行う。MBの各A0〜A4と各B0〜
B4、各C0〜C4と各D0〜D4、及び各E0〜E4
と各F0〜F4の処理は少しタイミングがずらされた状
態で、同時進行で符号化される。 【0015】図8は、図1の符号化処理部のデータ転送
を説明する図である。この図はMBであるC1及びD1
の符号化のシーケンスを示している。各符号化処理部2
00A,200Bおける処理時間のうち、動きベクト
ル検出は約1/3を使用し、DCT及び量子化等では約
2/3が使用される。C1についての輝度成分の参照デ
ータを水平、垂直方向とも±16画素とすると、必要と
する参照画像のMBは図6のB0,B1,B2,C0,
C1,C2,D0,D1,D2であるが、先立って行わ
れたC0の符号化処理でB0,B1,C0,C1,D
0,D1は使用されているので、既に画像データバッフ
ァ201に格納されている。そのため、新たに必要なM
Bの画像データは、B2,C2,D2の画像データであ
る。同様に、D1について新たに必要な画像データは、
C2,D2,E2のMBの画像データである。ここで、
C2,D2の画像データは各符号化処理部200A,
200B双方の動きベクトル検出に必要があるので、
述するように、例えば、マスタ側の符号化処理部200
Aの制御部204から出力された画像メモリ制御信号s
204cにより、画像メモリ250から読出されて符号
化処理部200A,200B双方の画像データバッファ
201に書込まれる。 【0016】参照画像の輝度データの読出しは図8中の
時刻tから開始され、引き続き、現画像データの読出
しが行われる。現画像データの読出しではC1の現画像
データが先に読出され、D1の現画像データが後に読出
される。C1の現画像データの読出し終了後、符号化処
理部200AはC1に対する動きベクトル検出を開始す
る。D1の現画像データの読出し終了後、符号化処理部
200BはD1に対する動きベクトル検出を開始する。
また、D1の現画像データの読出し終了後、既に計算さ
れて各画像データバッファ201に格納されているC
0,D0の再生画像データを順番に画像メモリ250に
書込む。D0の再生画像データの書込み終了時には、C
1に対する動きベクトル検出は終了しているので、検出
された動きベクトルで示される色成分の参照領域のデー
タC1c が、符号化処理部200Aの画像データバッフ
ァ201に書込まれる。引き続き、D1に対する色成分
参照領域のデータD1c が読出されて符号化処理部20
0Bの画像データバッファ201に書込まれる。2個の
MBのC1,D1に対する符号化処理で、画像メモリ2
50と各画像データバッファ201間のデータ転送量
は、図8中に示された時刻t1〜時刻t2の間で281
6画素のデータとなり、1MB当たりに換算すると14
08画素のデータとなる。この値は、従来例のデータ転
送量1664画素に対して、11/13に削減されてお
り、処理時間を短縮できることになる。 【0017】図9は、図1中の符号化処理部間のアクセ
ス権の変動を示す図であり、この図を用いて、図8中の
時刻t1〜時刻t2における各符号化処理部200A,
200Bの画像メモリ250に対するアクセスを説明す
る。符号化処理部200A,200Bのうち1つがマス
タ、他方がスレーブとなる。符号化処理部が3個以上の
場合には、1つの符号化処理部がマスタとなり、他の符
号化処理部が全てスレーブとなる。ここでは、符号化処
理部200Aをマスタ、符号化処理部200Bをスレー
ブとする。符号化処理部200A,200Bの両方で共
通に必要となるデータを画像メモリ250から読出す
際、画像メモリ制御信号s204cはマスタ側である符
号化処理部200Aから出力され、スレーブ側からは出
力されない。これにより、スレ−ブ側の符号化処理部2
00Bの制御部204では、データ読出しのための画像
メモリ制御信号s204cを出力する必要がないので、
処理の効率化が図れる。どちらの符号化処理部200
A,200Bがマスタであるかスレーブであるかは
御部204から同期制御インタフェース信号sIを同期
制御220に与えて設定する。時刻t1において、符
号化処理部200Aは画像メモリ250に対するアクセ
ス権を放棄する。符号化処理部200A中の制御部20
4から同期制御インタフェース信号sIが符号化処理部
200Aの同期制御部220に供給され、この同期制御
部220から符号化処理部200B中の同期制御部22
0へ同期制御信号s200が送出される。符号化処理部
200B中の同期制御部220から同期制御インターフ
ェース信号sIが符号化処理部200B中の制御部20
4へ入力され、その制御部204が画像メモリ250に
対するアクセス権を得たことを認識する。制御部204
はMBであるD1の現画像データ読出しを行うための画
像メモリ制御信号S204cを画像メモリ250に出力
し、画像メモリ250から対応するデータが読出され
る。D1の現画像データの読出し終了後、符号処理部
200Bの制御部204は画像メモリ250に対するア
クセス権を放棄する。即ち、符号処理部200Bの制
御部204は同期制御インタフェース信号sIを符号
処理部200Bの同期制御部220へ供給する。符号
処理部200Bの同期制御部220から符号化処理部
200Aの同期制御部220へ、同期制御信号s200
を送出する。 【0018】以下同様な手順で、符号化処理部200A
によるC0の再生画像データの書込み、符号化処理部2
00BによるD0の再生画像データの書込み、符号化処
理部200AによるC1の色成分C1c 参照画像データ
読出し、符号化処理部200BによるD1の色成分D1
c 参照画像データ読出し、及び符号化処理部200Aに
よるC3の輝度成分の参照画像データ読出しが行われ
る。MBのC3の参照画像データである輝度成分は
像メモリ250から読出され、各符号化処理部200
A,200Bの画像データバッファ201にそれぞれ書
込まれる。ここで、C3の参照画像データの書込み手順
を説明する。マスタである符号化処理部200Aの制御
部204は、共通データアクセスリクエスト信号を同期
制御インタフェース信号sIとして符号化処理部200
Aの同期制御部220に出力する。この同期制御部22
0から符号化処理部200Bの同期制御部220に対し
て同期制御信号s200が送出される。同期制御信号s
200の出力から所定のサイクル遅れて、画像メモリ2
50からの読出しが開始されるようにしておく。所定の
サイクルのサイクル数は、両符号化処理部200A,2
00B間で予め設定しておく。符号処理部200Bの
制御部204は同期制御部220経由で共通データア
クセス信号を入力する。前記所定サイクル経過と同時
に、画像データバッファ201に対するデータ転送が開
始される。マスタである符号化処理部200Aの制御部
204は、画像メモリ制御信号s204cを画像メモリ
250に供給すると共に、バッファ制御信号s204b
を画像データバッファ201へ供給する。一方、符号化
処理部200Bの制御部204はバッファ制御信号s
204bを画像データバッファ201へ供給する処理の
みを行う。MBのC3の参照画像データである輝度成分
の読出し終了後、同様の手順でD3の輝度成分が参照画
像データとして読出される。引き続き、符号化処理部2
00BによるMBのE3の参照画像データ、符号化処理
部200AによるMBのC2の現画像データの各読出し
が行われる。 【0019】以上のように、本実施例では、画像メモリ
250を共有する2つの符号化処理部200A,200
Bで動画像符号化装置を構成しているので、処理量の集
中が無く、符号化処理部200A,200Bの負担が低
減される。また、各符号化処理部200A,200B
現画像中で互いに隣接するMBの列をそれぞれ並列
に符号化する。そのため、参照画像の領域が制限される
事がなく且つ共通の参照画像のデータを用いることが可
能となり、画質の低下を防止した上で画像メモリ250
と動画像符号化装置200間のデータ転送量を少なくす
る事ができる。特に、符号化処理部200A,200B
の両方で共通に必要となるデータを画像メモリ250か
ら読出す際、画像メモリ制御信号s204cはマスタ側
である符号化処理部200Aから出力され、スレーブ側
からは出力されない。これにより、スレ−ブ側の符号化
処理部200Bの制御部204では、データ読出しのた
めの画像メモリ制御信号s204cを出力する必要がな
いので、処理の効率化が図れる。なお、本発明は、上記
実施例に限定されず種々の変形が可能である。その変形
例としては、例えば次の(a)、(b)のようなものが
ある。 (a) 符号化処理部200A,200Bの数は2個でな
くてもよく、3個以上で構成してもよく、その場合、さ
らに各符号化処理部における負担が軽減される。例え
ば、符号化処理部を3列の並列に設け、現画像を3分割
して読込んで処理する場合(即ち、符号化処理部を3個
設けて図6に示すMBのC2/D2/E2を並列処理す
る場合)、C3,D3,E3の画像データがそれぞれの
符号化処理部での処理に用いられ、上記実施例とほぼ同
様に動作し、各符号化処理部における負担が軽減され
る。 (b) MBのサイズは画像処理の目的に応じて変更可能
であり、どのようなサイズのMBであっても、上記実施
例と同様の効果が発揮される。 【0020】 【発明の効果】以上詳細に説明したように、本発明によ
れば、画像メモリを共有する複数の符号化処理部内にそ
れぞれ同期制御手段及び制御手段を設け、制御手段の制
御により、各符号化処理部が、互いに隣接するブロック
列を並列に符号化し、また、アクセス権を持つ符号化処
理部内の制御手段から出力される画像メモリ制御信号に
より、共通に使用される参照画像のデータを画像メモリ
から読出して、それを使用する各符号化処理部内の画像
データバッファに記憶させるようにしている。そのた
め、参照画像の領域が制限される事なく、共通の参照画
像のデータを用いることが可能となり、画像メモリと
数の符号化処理部との間のデータ転送量を少なくする事
ができる。特に、アクセス権を持たない符号化処理部内
の制御手段では、共通に使用される参照画像のデータを
画像メモリから読出すための画像メモリ制御信号を出力
する必要がないので、処理の効率化を図ることができ
る。
DETAILED DESCRIPTION OF THE INVENTION [0001] BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to transmission of moving images and the like.
The present invention relates to a moving picture coding apparatus to be used. [0002] 2. Description of the Related Art Conventionally, techniques in such a field include:
For example, there is one described in the following literature.     Reference 1: Optronics (1992-5) Optronics, Okubo           “Encoding in Videophone / Conference” P.74-79,86-98     Reference 2: IEEE 1993 CUSTOM CIRCUITS CONFERENCE (1993),             Subroto Bose et al. “A Single Chip Multistandard              Video Codec ”P.11.4.1-11.4.4 In the coding of moving images, as described in Reference 2,
An image of one frame to be obtained is, for example, 16 × 16 pixels.
Small block called a macro block (hereinafter referred to as MB)
The following processes (1) to (5) are sequentially performed for each lock,
Perform encoding. (1) Motion vector detection The frame to be encoded, that is, the code of the encoded frame
The region having the largest correlation with the MB to be encoded
Detect from the illumination frame. The encoded reference frame at this time
Frames are generally used before and after the encoded frame.
Can be In the region detection, in the coded reference frame
The vicinity of the same spatial position as the MB to be encoded is a search area.
The largest correlation of the MB to be coded in the search area.
A critical area is required. And the area with the largest correlation
Position in the reference frame and the spatial position of the MB to be encoded
The difference from the position is detected as a motion vector. (2) Discrete cosine transform (hereinafter referred to as DCT) A kind of orthogonal transformation is performed on the MB to be coded, and
MB data is frequency spectrum data from spatial data
Is converted to The input data of DCT is
Whether the encoding target MB data of the
Or the region to be referred to by the encoding target MB and the motion vector
Of the reference frame is used. That judgment
As a standard, when the difference value is large, the encoding
Frame data is used as is
Data is used. (3) Quantization DCT output data is converted to a predetermined representative value. (4) Variable length coding Larger for less frequently occurring values of quantization output data
Is given a code of a certain length, and for frequently occurring values
Codes of small length are allocated and encoded
Is output. (5) Inverse quantization, inverse discrete cosine transform (hereinafter IDCT)
That) Inverse quantization is the inverse of quantization, and IDCT is the inverse of DCT.
Perform each processing. With these processes, spatial data
The image data is played back as
This is the reference frame data for the system. Where quantization
Is not a 1: 1 transform, so quantization input and inverse quantization
Not equivalent to output. Therefore, the original image and the reproduced image
Will be different. The motion vector detection in (1) is bright
Is performed on the degree component data, and the processing of (2) to (5)
Performed on the luminance component and the color component. Brightness in 1MB
The component is 16 × 16 = 256 pixels, and the color component is half of 1
There are 28 pixels. FIG. 2 shows an example of a conventional moving picture coding apparatus.
FIG. 2 is a block diagram showing the configuration, with reference to FIG.
The flow of the encoding process for one MB data will be described.
You. This video encoding apparatus 100 encodes an encoded MB.
Image data to store image data necessary for
Buffer 101, and the image data buffer 101
On the output side, a motion vector detection unit 102 and a DCT unit 103
Is connected. Output side of the motion vector detection unit 102
Is connected to the control unit 104. Out of DCT103
The IDCT unit 105 and the quantization unit 106 are connected to the input side.
The output data of the IDCT unit 105 is
The connection is output to the buffer 101. Quantization unit 106
Are output to the inverse quantization unit 107 and the variable-length encoding unit 108
Is connected. The output signal of the inverse quantization unit 107 is also ID
Input to the CT unit 105 and output from the variable length coding unit 108
Is the encoded data DToutIs output.
The control unit 104 controls the encoding of the moving image encoding device 100.
It controls the processing sequence, and includes a control signal s1
04a, s104b, and s104c
ing. The control signal s104a from the control unit 104 is DC
T section 103, IDCT section 105, quantization section 106, inverse amount
Input to the child unit 107 and the variable length coding unit 108,
The control signal s104b is input to the image data buffer 101
It is a configuration that is performed. The control signal s104c is
The connection is supplied to an image memory 150 (not shown).
The motion vector detection unit 102 includes the image data buffer 101
Input the data required for motion vector detection from
The motion vector d102 of the result of the vector detection is
Output to DCT103 is the frame data to be encoded
Reference of (current image data) and position indicated by motion vector
Frame data (reference image data) and image data
File 101 and the current image as DCT input data
Use the data or use the current image data and reference image data
To use the data.DCT section103 is the judgment result
The result is a selection result s103 of intra / interframe prediction.
Output to the IDCT unit 105 and perform DCT.
DCT result data d103 is quantized106Send to
You. [0005] The quantization unit 106 is a DCT.output datad10
3 is input and quantized, and converted to a representative value by this quantization.
The supplied data d106 is supplied to the variable length coding unit 108.
It is. The variable length coding unit 108 is a quantization unit106De from
Assign a code corresponding to the frequency of occurrence to
Coded data DToutIs generated and output. Inverse quantization unit 1
07 performs inverse quantization on the quantized data d106,
The data d107 of the inverse quantization result is supplied to the IDCT unit 105.
Pay. In the IDCT unit 105, the data d107
IDCT is performed, and the
The intra-frame prediction selection result s103 indicates intra-frame prediction.
If selected, the IDCT unit 105 outputs the IDCT result
The image data back as it is as the reproduced image data d105.
Output to the camera 101. In the DCT section 103,
When the inter-frame prediction is selected, the IDCT unit 10
Reference numeral 5 denotes input of reference image data from the image data buffer 101.
To add to the IDCT result. Reference image in IDCT result
The data to which the image data has been added is the reproduced image data d105.
Is output to the image data buffer 101. Image
Data buffer101Stores the playback image data.
Played image data storedIs outsideOutput to the image memory
You. The control unit 104 includes a motion vector detection unit 102 and a DC
T unit 103, IDCT unit 105,Quantization unit106
And the inverse quantization unit 107 and the variable length encoding unit 108
The encoding control signal s104a is transmitted, and the encoding process is performed.
Control the cans. The content of the encoding control signal s104a is
It consists of an address and data.
The specified part performs the calculation of the encoding process. Coding
The data part of the control signal s104a is the specified part
Parameters to be given to In addition, the control unit 104
Buffer for controlling input / output to / from data buffer 101
Sends the control signal s104b to the image data buffer 101.
External image memory 150 and image data buffer 10
Image memory control for controlling data input / output between one
The signal s104c is sent to the external image memory 150. FIG. 3 shows an image data buffer shown in FIG.10
1FIG. 4 is a diagram for explaining data transfer. The following (i) to (ii)
i), external image memory 1 required for 1 MB encoding process
The figure shows the data transfer amount between the image data buffer 50 and the image data buffer 101.
This will be described with reference to FIG. (I) Reference image data read Reference to perform motion vector detection for luminance component
Images for the area used as the search range in the frame
Data must be read from the image memory 150. example
For example, ± 16 pixels in the horizontal direction and the vertical
If the search range is ± 16 pixels in the direction, an image of 48 × 48 pixels
It is necessary to read out image data. But usually the spatial position
Encoding is performed according to the order of
Part overlapping the search range between the MB and the MB processed immediately before
Will exist. Image data of this overlapping part
Is already stored in the image data buffer 101
In the motion vector detection for the encoding target MB,
If only the data to be used is read, as shown in FIG.
× 48 pixels are external image memory150Read from
You. On the other hand, for the color components,
Since the pixels are read out in the same manner, they are 16 × 8 pixels. (Ii) Current image data 16 × 16 pixels for luminance component and 16 × 8 color component
PixelButIs read. (iii) Playback image data The luminance component is 16 × 16 pixels and the color component is 16 × 8 pixels.
When the above (i) to (iii) are summed up, (16 × 48 + 16 × 8) + (16 × 16 + 16 × 8)
+ (16 × 16 + 16 × 8) = 1664 pixels Becomes FIG. 4 is a block diagram showing the moving picture coding apparatus and the picture memory shown in FIG.
FIG. FIG. 4 shows the moving picture coding of FIG.
An image memory 150 connected to the device 100 is shown.
You. Input data DT of the image memory 150inIs in chronological order
The input moving image data has been converted from analog to digital
The data is stored in the image memory 150.image dataD
TinIs written. Control unit in video encoding device 100
104 outputs an image memory control signal S104c;
Based on the image memory control signal s104c, image data
d150 is the moving picture coding apparatus 100 and the image memory 150
Transferred between and. Refer to the contents of image data d150
It consists of image data, current image data, and reproduced image data.
It is. [0008] SUMMARY OF THE INVENTION However, the conventional
The moving image coding apparatus has the following problems. processing
When the size of the image increases, the moving image encoding apparatus 100
Processing capacity, video encoding device 100 and image memory 15
When the data transfer speed between 0 is limitedUThere is a problem
Was. For example, in the standard video standard, the size of one frame is
720 x 480 pixels, frame frequency 30 Hz
It is. The number of MBs in one frame is 720 × 480 / (16 × 16) = 1350 MB And the maximum allowable processing time for 1 MB is 1/30 sec / 1350 = 14.6 μs And in a very short time. As a result, the processing
The performance is not satisfied with one video encoding device
Also occurs. In addition, the moving image encoding device 100 and the image memo
Cycle per pixel in data transfer between memory 150
Is 24.6 μs / 1664 pixels = 14.78 ns Becomes 4 pixels to increase transfer capacity per pixel
Even if they are transferred at the same time, they are transferred at a period of 59.1 ns
There is a need. Consider transfer overhead at about 25%
And data at a period of 47.3 ns, that is, 21.1 MHz.
I need to input and output. Code in video coding device
Cannot satisfy either the image processing performance or the image transfer performance.
When the image data is divided and processed.
A system with an appropriate amount of encoding calculation and image data transfer
Is described in reference 2. FIG. 5 shows a moving image obtained by dividing image data.
It is a block diagram which shows an encoding device. This image coding device
The moving image encoding apparatus shown in FIG.100When
Two encoding processing units 100A having the same configuration,100BTo
Have. Each of the encoding units 100A and 100B includes:
Image memories 150A and 150B are connected respectively.
You. 720 images are stored in the two image memories 150A and 150B.
× 240 pixel image data DTinAre written respectively
You. eachEncoding processing unit100A, 100B and image memory 1
Between the data d150A and d150B between 50A and 150B.
Each transfer is performed, and each of the encoding processing units 100A, 10A
0B respectively perform an encoding process. Figure 6 shows the frame
3 is a diagram showing an MB of FIG. FIG. 6 shows a part of one frame.
A0 to G4 of a plurality of MBs are shown. For example, M
Image data DT corresponding to A0 to D4 of BinIs an image memo
And the encoding processing unit 100A writes the MB
A0 to D4, that is, a code corresponding to the upper MB of the frame.
Perform encryption. Similarly, it corresponds to E0 to G4 of MB.
Image data DTinIs written to the image memory 150B,
The encryption processing means 100B determines that the MBs E0 to G4,
Of theLowerIs performed corresponding to the MB. This
According to such an encoding process, a negative
Since the load is divided, the concentration of processing volume can be avoided.
You. However, the MB at the top and bottom border of the frame
The motion vector detection range cannot be secured enough
Motion vector detection performance is degraded and encoding efficiency is reduced.
I was letting it down. For example, for the upper MB D2
For motion vector detection, it corresponds to the lower MB of E0 to E4
Data could not be referenced. [0010] The present invention solves the above problems.
To decideDivide current image data into multiple block rows
And a plurality of blocks corresponding to each divided block
A moving image encoding device including an encoding processing unit,
Each encoding unit is connected to the image memory,
Image data temporary input / output controlled by
Synchronization with the image data buffer for storage and the encoding processing means
It has a control means and a control means. The encoding process
The means is connected to the image data buffer, and includes an encoding system.
The sequence of the encoding process is controlled by the control signal,
Location in the current image stored in the image data buffer
Image data of a block of a fixed size and the reference block
Perform motion vector detection using the image data of
Encodes the current image in block units and encodes the encoded data.
Output. The synchronous control means includes a synchronous control
When an interface signal is input, the image memory
Encodes the synchronization control signal for access right arbitration
And the synchronization control signal from the other encoding processing unit.
Receiving the synchronization control interface signal.
Things. The control unit is configured to control the buffer control signal
And a function of outputting the encoding control signal.
Automatically by transmitting and receiving the synchronous control interface signal.
Own encoding processing unit has access right to the image memory
Is determined. And before
The control means has an access right to the image memory.
Place where you are Output an image memory control signal to
Access the image memory and use it in the motion vector detection
Common among the image data of the blocks of the reference image
Read the image data to be used from the image memory and
The image data buffer and the image in the other encoding processing unit.
The data is stored in the image data buffer. [0011] According to the present invention, as described above,
Each encoding processing unit controls each control means.
Block rows in the current image adjacent to each other
To be encoded. At this time,A control hand in an encoding unit
The stage receives a synchronization control interface signal from the synchronization control means.
Upon receipt, it outputs an image memory control signal to
Access and block the reference image used for motion vector detection.
Lock image data shared with other encoding processing units
Read from the image memory
Image data buffer and other encoding in the encoding processing unit
The image data is stored in the image data buffer in the processing unit. Reference image
Of the image data of the block
Unused block image data and current image block image
Image data means that each encoding processing unit
Read from the memory and stored in the image data buffer. this
Thus, each encoding processing unit records the data in the image data buffer.
Using the stored image data, a motion vector is detected and
Encoding is performed in lock units.Therefore, the above problem can be solved.
You can. [0012] FIG. 1 is a moving picture coding system showing an embodiment of the present invention.
It is a block diagram of an apparatus. This moving picture coding apparatus 200
Are two components configured using a CPU (central processing unit)
Are provided with encoding processing sections 200A and 200B of
The image processing units 200A and 200B input the images input in time series.
Image data DTinIs connected to the image memory 250 for storing
ing. Each of the encoding processing units 200A and 200B
Perform motion vector detection for each block and perform encoding
Each encoding processing unit 200A, 200
B and data transfer between the image memory 250 and encoding
Data encoded from the output side of the processing units 200A and 200B
Data DToutIs outputIt has become.Each encoding
Processing units 200A and 200B share image memory 250
And the image memory 2 of each of the encoding units 200A and 200B.
Against 50Mediation of access rights (ie, access conflicts)
Avoidance arbitration) is performed by the synchronization control signal s200.
You.FIG. 7 is a block diagram showing the inside of the encoding processing unit in FIG.
It is a lock figure. The encoding units 200A and 200B are
And the image data buffer 201 is
Have. The image data buffer 201 is the image memory 2
50, and each of the encoding processing units 200A, 20A
Function to store image data necessary for encoding in 0B
have.The image data buffer 201 has a motion database.
Vector detection unit 202, DCT unit 203, IDCT unit 20
5, quantization unit 206, inverse quantization unit 207, and variable length code
Encoding means comprising an encoding unit 208 is connected.
You. That is,The output side of the image data buffer 201
Vector detection unit 202 and DCT unit 203 are connected
I have. On the output side of the motion vector detection unit 202,,Control hand
The control unit 204, which is a stage, is connected.DCT section20
3 is connected to the IDCT unit 205 and the quantization unit 206.
The IDCT unit 205Reproduction image data d20
5Is a connection output to the image data buffer 201.
You. On the output side of the child unit 206, an inverse quantization unit 207 is
The variable length coding unit 208 is connected. Inverse quantization unit 20
7 output datad207Is also input to the IDCT unit 205.
The output of the variable length coding unit 208 is the coded data DT
outIs output. The control unit 204
Control the encoding sequence of the encoding unit
And the control signals s204a, s204b, s204
It has a function to send out c. Control unit204System from
The control signal s204a is transmitted to the DCT unit 203 and the IDCT unit 20.
5, quantization unit 206, inverse quantization unit 207, and variable length code
The control signal s204b is input to the
This is a configuration input to the data buffer 201. Control signal
s204cIs a connection supplied to the image memory 250.
You. Each of the encoding units 200A and 200B has, Synchronous control
Synchronous control means for outputting the signal s200Sync
Control unit220Are respectively provided, and the synchronization control unit is provided.22
0Is connected to the control unit 204. Next, the operation of the moving picture coding apparatus shown in FIG. 1 will be described.
This will be described with reference to FIG. Encoding processing units 200A, 200B
Share the image memory 250 and access in time divisionToline
, Respectively. Synchronization control signal s200
Which encoding processing unit200A, 200BIs an image memo
It is determined whether to input / output data to / from the memory 250. Motion vector
The torque detection unit 202 moves from the image data buffer 201.
Enter the data required for vector detection and
The motion vector data d202 of the output result is stored in the control unit 204.
Output toDCT section203 is the current image data and motion vector
The reference image data at the position indicated by the
Input from buffer 201 and present image as DCT input data
Use image data or current image data and reference image
Use dataTojudge.DCT section203 is
The judgment result is the selection result s2 of intra-frame / inter-frame prediction.
03 to the IDCT unit 205 and DCT
The DCT result data d203 is sent to the quantization unit 206.
Send out. The quantization unit 206Output data of DCT section 203
TaQuantization is performed by inputting d203.
The data d206 converted into the value is used as the variable length coding unit 208
Supplied to The variable length coding unit 208 is a quantization unit206
A code corresponding to the frequency of occurrence of data d206 from
Coded data DToutIs generated and output. Inverse quantum
The quantization unit 207 performs inverse quantization on the quantized data d206.
And the data d207 of the inverse quantization result is stored in the IDCT unit 20.
5 The IDCT unit 205 converts the data d207
IDCT is performed on the frame, and the frame in DCT section 203 is subjected to IDCT.
Selection result s203 of intra-frame / inter-frame prediction is within a frame
When prediction is selected, the IDCT unit 205
The image data is directly used as the reproduced image data d205.
Output to the data buffer 201. Also, the DCT unit 203
If the inter-frame prediction is selected in the
The unit 205 stores the reference image data from the image data buffer 201.
And adds it to the IDCT result. IDCT results
The data to which the reference image data has been added is the reproduced image data d.
205 is output to the image data buffer 201.
The image data buffer stores the reproduced image data,
The stored reproduced image data is displayed as image data d250.
Output to the image memory 250. The control unit 204 includes a motion vector detection unit 202
, DCT section 203, IDCT section 205,Quantization unit
206, an inverse quantization unit 207, and a variable length encoding unit 208
At the same time, the encoding control signal s204a is transmitted, and the encoding process is performed.
Control sequence. Encoding control signal s204a
The content consists of an address and data, and the address
The part specified by performs the calculation of the encoding process.
The data of the encoding control signal s204a is,Identified
Parameters to be given to the part. The control unit 204
Is,Controls input / output to / from image data buffer 201
BufferControl signal s204bTo the image data buffer 2
To 01Send it out,External image memory 250 and image
Controls data input / output between data buffers 201
Image memoryControl signals204c is an external image memory
250WhatSend out. This image memoryControl signals204c
Each of the encoding processing units 200A and 200B performs processing.
Block to be selected. Each encoding processing unit 20 of the present embodiment
0A and 200B are adjacent blocks in the current image.
Encode each column in parallel. For example, the encoding processing unit
200A is,A0 to A4, C0 to C4, and E in FIG.
Encoding is performed on the MBs 0 to E4, and the encoding processing unit 2
00B is the MB of B0 to B4, D0 to D4, and F0 to F4
Is encoded. MB A0 to A4 and B0 to B0
B4, each C0-C4 and each D0-D4, and each E0-E4
And the processing of F0 to F4 is slightly shifted in timing.
, And are encoded simultaneously. FIG. 8 is a data transfer diagram of the encoding processing unit shown in FIG.
FIG. This figure shows MBs C1 and D1
Is shown. Each encoding processing unit 2
00A, 200BToOf the processing time
The detection uses about 1/3 and DCT and quantization etc.
2/3 are used. Reference data of luminance component for C1
If the data is ± 16 pixels in both the horizontal and vertical directions,
The reference image MBs to be processed are B0, B1, B2, C0,
C1, C2, D0, D1, D2
B0, B1, C0, C1, D
Since 0 and D1 are used, the image data buffer
Is stored in the key 201. Therefore, newly required M
The image data of B is the image data of B2, C2, and D2.
You. Similarly, newly required image data for D1 is
Image data of MBs C2, D2 and E2. here,
The image data of C2 and D2 is,Each encoding processing unit 200A,
Since it is necessary to detect both 200B motion vectors,rear
As described above, for example, the encoding processing unit 200 on the master side
A image memory control signal s output from the control unit 204 of A
204c, the code read from the image memory 250
Data buffer of both the image processing units 200A and 200B
Written in 201. The reading of the luminance data of the reference image is performed as shown in FIG.
Time t0And then read out the current image data
Is performed. In reading the current image data, the current image of C1 is read.
Data is read out first, D1 current image data is read out later
Is done. After reading the current image data of C1, the encoding process
The control unit 200A starts detecting a motion vector for C1.
You. After reading the current image data of D1, the encoding processing unit
200B starts motion vector detection for D1.
Also, after reading of the current image data of D1 is completed,
C stored in each image data buffer 201
0 and D0 reproduced image data in the image memory 250 in order.
Write. At the end of writing the reproduced image data of D0, C
Since the motion vector detection for 1 has been completed,
Of the reference area of the color component indicated by the
The data C1c is an image data buffer of the encoding processing unit 200A.
Written in the key 201. Subsequently, the color component for D1
The data D1c in the reference area is read out and
0B is written to the image data buffer 201. Two
In the encoding process for C1 and D1 of the MB, the image memory 2
50 and the data transfer amount between each image data buffer 201
Is 281 between time t1 and time t2 shown in FIG.
This is 6 pixel data, which is 14 per MB.
It becomes data of 08 pixels. This value is equivalent to the data
It is reduced to 11/13 for the transmission amount of 1664 pixels.
As a result, the processing time can be reduced. FIG. 9 shows the access between the encoding units in FIG.
FIG. 8 is a diagram showing the change in
Each of the encoding processing units 200A from time t1 to time t2,
The access to the 200B image memory 250 will be described.
You. One of the encoding units 200A and 200B is
And the other becomes a slave. 3 or more encoding units
In this case, one encoding unit becomes the master and
All the encryption processing units become slaves. Here, the encoding process
The processing unit 200A is the master, and the encoding unit 200B is the slave.
And The encoding processing unit 200A,200BBoth
Data required for communication from the image memory 250
At this time, the image memory control signal s204c is
Output from the encryption processing unit 200A and output from the slave side.
I'm not forced.Thus, the slave-side encoding processing unit 2
In the control unit 204 of 00B, an image for reading data is
Since there is no need to output the memory control signal s204c,
Processing efficiency can be improved.Which encoding processing unit200
A, 200BIs a master or a slave,System
Synchronizes the synchronization control interface signal sI from the control unit 204
controlDepartment220 and set. At time t1,
The encryption processing unit 200A accesses the image memory 250.
Abandon the right. Control unit 20 in encoding processing unit 200A
4, the synchronization control interface signal sI
The synchronization control unit 220 supplies the synchronization control
From the section 220 to the synchronization control section 22 in the encoding section 200B
The synchronization control signal s200 is sent to 0. Encoding processing unit
From the synchronization control unit 220 in the synchronization control interface 200B.
Of the control unit 20 in the encoding processing unit 200B.
4 and the control unit 204 stores it in the image memory 250.
Recognize that you have access to the Control unit 204
Is an image for reading the current image data of MB D1.
Outputs image memory control signal S204c to image memory 250
Then, the corresponding data is read from the image memory 250.
You. After reading the current image data of D1, the codeConversionProcessing unit
The control unit 204 of the 200B
Give up access rights. That is, the signConversionProcessing unit 200B
Your part 204,Signs synchronous control interface signal sI
ConversionIt is supplied to the synchronization control unit 220 of the processing unit 200B. Sign
ConversionFrom the synchronization control unit 220 of the processing unit 200B to the encoding processing unit
200A synchronization control unit 220What,Synchronization control signal s200
Is sent. In the same procedure, the encoding processing unit 200A
Of the reproduction image data of C0 by the encoding unit 2
Writing and encoding of the reproduced image data of D0 by 00B
C1c color component C1c reference image data by the processor 200A
The color component D1 of D1 by the reading and encoding processing unit 200B
c Reference image data reading and encoding processing unit 200A
The reference image data of the luminance component of C3 is read.
You. The luminance component that is the reference image data of MB C3 is,Picture
Read from image memory 250EachEncoding processing unit 200
A and 200B in the image data buffer 201 respectively.
Be included. Here, the writing procedure of the reference image data of C3
Will be described. Control of coding processing section 200A as master
The unit 204 synchronizes the common data access request signal
Control interfacesignalEncoding unit 200 as sI
A to the synchronization control unit 220 of FIG. This synchronization control unit 22
0 to the synchronization control unit 220 of the encoding processing unit 200B
The synchronization control signal s200 is sent out. Synchronous control signal s
After a predetermined cycle delay from the output of the image memory 200, the image memory 2
Reading from 50 is started. Predetermined
The number of cycles is determined by the two encoding processing units 200A and 200A.
00B is set in advance. SignConversionOf the processing unit 200B
The control unit 204,The common data address via the synchronization control unit 220
Access signal. Simultaneously with the passage of the predetermined cycle
Then, data transfer to the image data buffer 201 is started.
Begun. Control unit of encoding processing unit 200A as master
Reference numeral 204 denotes an image memory control signal s204c
250 and a buffer control signal s204b
Is supplied to the image data buffer 201. Meanwhile, coding
The control unit 204 of the processing unit 200B,Buffer control signal s
204b to the image data buffer 201
Do just that. Luminance component which is reference image data of MB C3
After the reading of the reference image, the luminance component of D3 is
It is read out as image data. Subsequently, the encoding processing unit 2
E3 reference image data of MB according to 00B, encoding process
Each reading of current image data of C2 of MB by unit 200A
Is performed. As described above, in this embodiment, the image memory
Two encoding processing units 200A and 200 sharing the same 250
B constitutes a moving picture encoding apparatus,
There is no center, and the load on the encoding processing units 200A and 200B is low.
Is reduced. Also, each of the encoding units 200A, 200B
Is,Parallel MB rows adjacent to each other in the current image
To be encoded. Therefore, the area of the reference image is limited.
Use common reference image data
Function, preventing the image quality from deteriorating.AboveImage memory 250
The amount of data transfer between the video encoding device 200 and the
I can do it.In particular, the encoding processing units 200A, 200B
The data that is required in common for both is stored in the image memory 250.
When reading from the master, the image memory control signal s204c is
Is output from the encoding processing unit 200A
Is not output. Thereby, the coding on the slave side is performed.
The control unit 204 of the processing unit 200B reads the data
It is not necessary to output the image memory control signal s204c for
Therefore, processing efficiency can be improved.Note that the present invention
The present invention is not limited to the embodiment, and various modifications are possible.Its deformation
As an example, for example, the following (a) and (b)
is there. (a)   The number of encoding processing units 200A and 200B is two.
Or three or more, in which case
In addition, the burden on each encoding unit is reduced.example
For example, the encoding unit is provided in parallel with three columns, and the current image is divided into three parts.
And read and process (ie, three encoding units
To process C2 / D2 / E2 of MB shown in FIG. 6 in parallel.
The C3, D3, and E3 image data
It is used for processing in the encoding processing unit, and is almost the same as the above embodiment.
Works in the same way, reducing the burden on each encoding unit.
You. (b)   MB size can be changed according to the purpose of image processing
And the above-mentioned operation is performed for any size MB.
The same effect as the example is exerted. [0020] As described in detail above, according to the present invention,
If multiple image processing units share the image memory,Niso
A synchronization control means and a control means are provided respectively, and control of the control means is provided.
Control, each encoding processing unit
Encode columns in parallel, and encode
Image memory control signal output from the control means in the
Than,Commonly used reference image dataImage memory
Image from each encoding unit that uses the
The data is stored in the data buffer.That
Because the area of the reference image is not limited,
Image data can be used, and image memory andDuplicate
Between the number encoding unitReduce the amount of data transferred
Can be.In particular, in the encoding unit that does not have access rights
In the control means, the data of the commonly used reference image is
Outputs image memory control signal for reading from image memory
It is not necessary to perform
You.

【図面の簡単な説明】 【図1】本発明の実施例を示す動画像符号化装置のブロ
ック図である。 【図2】従来の動画像符号化装置の1例を示す構成ブロ
ック図である。 【図3】図2中の画像データバッファのデータ転送を説
明する図である。 【図4】図2の動画像符号化装置と画像メモリを示すブ
ロック図である。 【図5】画像データを分割処理する動画像符号化装置を
示すブロック図である。 【図6】フレーム中のMBを示す図である。 【図7】図1中の符号化処理部の内部を示す構成ブロッ
ク図である。 【図8】図1の符号化処理部のデータ転送を説明する図
である。 【図9】図1中の符号化処理部間のアクセス権の変動を
示す図である。 【符号の説明】 200 動画像符号化装置 200A,200B 符号化処理部 250 画像メモリ s200 同期制御信号 s204c 画像メモリ制御信号 s250 転送データ DTout 符号化データ 201 画像データバッファ 202 動きベクトル検出部 203 DCT部 204 制御部 220 同期制御部 s204b バッファ制御信号 sI 同期制御インタフェース信号
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a moving picture coding apparatus according to an embodiment of the present invention. FIG. 2 is a configuration block diagram illustrating an example of a conventional video encoding device. FIG. 3 is a diagram for explaining data transfer of an image data buffer in FIG. 2; FIG. 4 is a block diagram showing a moving picture coding apparatus and a picture memory of FIG. 2; FIG. 5 is a block diagram illustrating a moving image encoding device that divides image data. FIG. 6 is a diagram showing MBs in a frame. FIG. 7 is a configuration block diagram showing the inside of an encoding processing unit in FIG. 1; FIG. 8 is a diagram illustrating data transfer of the encoding processing unit in FIG. 1; FIG. 9 is a diagram showing a change in access right between encoding processing units in FIG. 1; [Description of Codes] 200 Video coding devices 200A, 200B Coding processing unit 250 Image memory s200 Synchronization control signal s204c Image memory control signal s250 Transfer data DT out Encoded data 201 Image data buffer 202 Motion vector detection unit 203 DCT unit 204 control unit 220 synchronization control unit s204b buffer control signal sI synchronization control interface signal

Claims (1)

(57)【特許請求の範囲】 【請求項1】 現画像データを複数のブロック列に分割
し、分割されたそれぞれのブロック列に対応して複数の
符号化処理部を備える動画像符号化装置であって、 前記それぞれの符号化処理部は、前記現画像における所
定の大きさのブロックの画像データ、及び参照ブロック
の画像データを含む参照画像データを記憶する共用の画
像メモリにそれぞれ接続され、 前記各符号化処理部は、 前記画像メモリに接続され、バッファ制御信号により入
出力が制御される画像データ一時記憶用の画像データバ
ッファと、 前記画像データバッファに接続され、符号化制御信号に
より符号化処理のシーケンスが制御され、前記画像デー
タバッファに記憶された前記現画像における所定の大き
さのブロックの画像データと前記参照ブロックの画像デ
ータとを用いて動きベクトル検出を行い、前記現画像を
ブロック単位で符号化を行って符号化データを出力する
符号化処理手段と、 同期制御インタフェース信号が入力されると、前記画像
メモリに対するアクセス権調停用の同期制御信号を他の
符号化処理部に与え、前記他の符号化処理部から前記同
期制御信号を受取ると、前記同期制御インタフェース信
号を出力する同期制御手段と、 前記バッファ制御信号及び前記符号化制御信号を出力す
る機能を有すると共に、前記同期制御インタフェース信
号の授受によって自己の符号化処理部が前記画像メモリ
に対するアクセス権を有しているか否かを判断する制御
手段とを有し、 前記制御手段は、前記画像メモリに対するアクセス権を
有している場合は、画像メモリ制御信号を出力して前記
画像メモリをアクセスし、前記動きベクトル検出で使用
する前記参照画像のブロックの画像データのうち共通し
て使用する画像データを、前記画像メモリから読出して
前記画像データバッファ及び前記他の符号化処理部内の
画像データバッファに記憶させることを特徴とする動画
像符号化 装置。
(57) [Claims] 1. The current image data is divided into a plurality of block strings.
And a plurality of blocks corresponding to each divided block
A moving image encoding device including an encoding processing unit , wherein each of the encoding processing units includes a part in the current image.
Image data of block of fixed size and reference block
Shared image that stores reference image data including
Are connected to the image memory, each encoding unit is connected to the image memory, input by the buffer control signal
Image data buffer for temporarily storing image data whose output is controlled
Buffer and the image data buffer, and
The sequence of the encoding process is controlled by the
A predetermined size of the current image stored in the data buffer.
Image data of the reference block and the image data of the reference block.
And perform motion vector detection using the
Encode in blocks and output encoded data
Encoding processing means, when a synchronization control interface signal is input, the image
Synchronous control signals for arbitrating access rights to memory
Given to an encoding processing section, and transmitted from the other encoding processing section to the same
Receiving the synchronization control interface signal,
Synchronization control means for outputting the buffer control signal and the encoding control signal.
And a synchronous control interface signal.
The self-encoding processing unit is provided with the image memory
To determine whether or not you have access to
Means, wherein the control means sets an access right to the image memory.
If it has, output the image memory control signal and
Access image memory and use for motion vector detection
Common among the image data of the blocks of the reference image
Image data to be read from the image memory
In the image data buffer and the other encoding processing unit
Moving image characterized by being stored in an image data buffer
Image coding device.
JP13717894A 1994-06-20 1994-06-20 Video encoding device Expired - Fee Related JP3360942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13717894A JP3360942B2 (en) 1994-06-20 1994-06-20 Video encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13717894A JP3360942B2 (en) 1994-06-20 1994-06-20 Video encoding device

Publications (2)

Publication Number Publication Date
JPH089385A JPH089385A (en) 1996-01-12
JP3360942B2 true JP3360942B2 (en) 2003-01-07

Family

ID=15192642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13717894A Expired - Fee Related JP3360942B2 (en) 1994-06-20 1994-06-20 Video encoding device

Country Status (1)

Country Link
JP (1) JP3360942B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4294743B2 (en) 1996-12-13 2009-07-15 富士通株式会社 Motion vector search apparatus and moving picture coding apparatus
DE69834788T2 (en) * 1997-03-19 2007-05-16 Sony Corp. PROCESS AND DEVICE FOR IMAGE CODING
US6470050B1 (en) 1999-04-09 2002-10-22 Matsushita Electric Industrial Co., Ltd. Image coding apparatus and its motion vector detection method
JP2004289631A (en) 2003-03-24 2004-10-14 Fuji Photo Film Co Ltd Digital camera
US20050111545A1 (en) 2003-11-25 2005-05-26 Ram Prabhakar Dynamic packet size control for MPEG-4 data partition mode
US8705630B2 (en) * 2006-02-10 2014-04-22 Nvidia Corporation Adapting one type of encoder to another type of encoder
JP4822940B2 (en) * 2006-06-02 2011-11-24 キヤノン株式会社 Image processing apparatus and image processing method
JP4789753B2 (en) 2006-08-28 2011-10-12 富士通セミコンダクター株式会社 Image data buffer device, image transfer processing system, and image data buffer method
JP5152072B2 (en) * 2009-03-31 2013-02-27 日本電気株式会社 Statistical multiplexing apparatus, encoder, and statistical multiplexing method

Also Published As

Publication number Publication date
JPH089385A (en) 1996-01-12

Similar Documents

Publication Publication Date Title
US5267334A (en) Encoding/decoding moving images with forward and backward keyframes for forward and reverse display
US5589885A (en) Moving picture coding and decoding circuit
US5212742A (en) Method and apparatus for encoding/decoding image data
EP0710029B1 (en) Signal processor for encoding and decoding
KR100283161B1 (en) Motion evaluation coprocessor
US5774206A (en) Process for controlling an MPEG decoder
JPH0837662A (en) Picture encoding/decoding device
JPH11316708A (en) Picture memory mapping for minimizing memory bandwidth in compression and expansion of data sequence
JP3360942B2 (en) Video encoding device
US5198900A (en) Video signal encoding apparatus
US5309528A (en) Image digitizer including pixel engine
EP0510640B1 (en) Image coding apparatus
JP2002534919A (en) Method and apparatus for performing motion compensation in a texture mapping engine
US6658154B2 (en) Method and device for decoding moving picture
JPH0759096A (en) Video encoder and decoder
KR980013441A (en) Image processing device
JPH1084532A (en) Signal processing unit/method and memory storage method
JPH0730903A (en) Integrated memory circuit for picture processing
JP2776284B2 (en) Image coding device
JPH0221776A (en) Predicting static picture encoder/decoder
JP2003122705A (en) Digital camera
JPH0846977A (en) Picture compression circuit
JP2923875B2 (en) Video encoding device
US5764294A (en) Image coding device to be manufactured at low cost and to be usable with low-speed memory
EP0558292B1 (en) Compression/expansion circuit

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081018

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081018

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091018

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101018

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111018

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees