JPH08214314A - Image transmission equipment - Google Patents

Image transmission equipment

Info

Publication number
JPH08214314A
JPH08214314A JP1612095A JP1612095A JPH08214314A JP H08214314 A JPH08214314 A JP H08214314A JP 1612095 A JP1612095 A JP 1612095A JP 1612095 A JP1612095 A JP 1612095A JP H08214314 A JPH08214314 A JP H08214314A
Authority
JP
Japan
Prior art keywords
data
circuit
image
encoded
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1612095A
Other languages
Japanese (ja)
Inventor
Tadashi Yoshida
正 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1612095A priority Critical patent/JPH08214314A/en
Publication of JPH08214314A publication Critical patent/JPH08214314A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To transmit a still picture in real time similarly as a moving image by applying frame-encoding to the still picture and inserting it to the code of the moving image. CONSTITUTION: SIF-formatted still picture data is encoded by an intra-encoding system of MPEG system, and converted to one picture. A picture header is attached on such picture data, and code constitution of only one sheet/one picture is formed as shown in (B). Such encoded still picture data is inserted to just before one picture of real time encoded MPEG code as shown in (A). An insertion timing is set at a time just before one picture appearing in a MPEG bit stream first after the completion of intra-encoding of the still picture. In such a way. the MPEG bit stream including a still picture intra-frame is recognized by a code on a reception side, and the still picture is reproduced separately from the reproduction of the moving image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像及び静止画像を
符号化して伝送する画像伝送装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image transmission device for encoding and transmitting moving images and still images.

【0002】[0002]

【従来の技術】ディジタル画像処理技術が急速に進歩
し、画像通信も、G3規格及びG4規格で扱われる白黒
画像のみならず、カラー画像、更には動画像も実現でき
るようになった。各種画像の符号化技術が進歩し、国際
標準化が進められたことが背景にある。例えば、2値画
像の階層符号化方式であるJBIG、カラー自然画像の
符号化方式であるJPEG、テレビ電話及びテレビ会議
における動画像符号化方式であるITU−T勧告H.2
61、並びに、蓄積伝送符号化方式であるMPEG等
が、国際標準化機関ISO及びITU−Tにより標準化
されている。
2. Description of the Related Art Rapid advances in digital image processing technology have made it possible to realize not only black and white images handled in the G3 and G4 standards, but also color images and moving images in image communication. This is due to the fact that the coding techniques for various images have advanced and international standardization has been advanced. For example, JBIG, which is a hierarchical encoding method for binary images, JPEG, which is an encoding method for color natural images, ITU-T Recommendation H.264, which is a moving image encoding method for videophones and video conferences. Two
61, and MPEG, which is a storage transmission coding method, are standardized by the international standardization organizations ISO and ITU-T.

【0003】これらの符号化方式は、それぞれに適した
用途を中心に普及しつつある。即ち、JBIG方式はG
3及びG4ファクシミリの次世代版に、JPEG方式は
カラー・ファクシミリに、H.261は64kbit/
s〜384kbit/sの低ビット・レートのテレビ会
議用に、MPEG方式は比較的高ビット・レートの、C
D−ROMなどの蓄積乃至放送の用途に使われつつあ
る。
These encoding methods are becoming popular mainly for their respective applications. That is, the JBIG method is G
The next generation of 3 and G4 facsimiles, the JPEG method for color facsimiles, and the H.264 standard. 261 is 64 kbit /
For low bit rate video conferencing from s to 384 kbit / s, the MPEG system has a relatively high bit rate, C
It is being used for storage and broadcasting such as D-ROM.

【0004】しかし、これらの符号化方式は、相互に互
換性が無いので全く別々に使用されている。図16は、
テレビ会議システムの概略構成図を示す。図16では、
2つのコンピュータ10A,10BがISDN等の通信
回線12を介して接続する。コンピュータ10A,10
Bはそれぞれ、テレビ会議用ボード14A,14B、動
画像を入力するビデオ・カメラ16A,16B及び画像
を表示するモニタ18A,18Bを具備する。コンピュ
ータ10A,10Bは、H.261に従い相互に動画像
をリアルタイムで通信できる。例えば、ビデオ・カメラ
16A(又は16B)で入力された画像はテレビ会議用
ボード14A(又は14B)によりH.261に準拠し
て符号化され、通信回線12を介してコンピュータ10
B(又は10A)に転送される。コンピュータ10B
(又は10A)は、受信した画像をテレビ会議用ボード
14B(又は14A)により復号化し、モニタ18B
(又は18A)に表示する。
However, these encoding methods are not compatible with each other and are therefore used separately. 16
The schematic block diagram of a video conference system is shown. In FIG.
Two computers 10A and 10B are connected via a communication line 12 such as ISDN. Computers 10A, 10
B includes video conference boards 14A and 14B, video cameras 16A and 16B for inputting moving images, and monitors 18A and 18B for displaying images. The computers 10A and 10B are H.264. In accordance with H.261, moving images can be mutually communicated in real time. For example, an image input by the video camera 16A (or 16B) is transmitted by the video conference board 14A (or 14B) to H.264. 261 is encoded in accordance with H.261, and the computer 10 is connected via the communication line 12.
B (or 10A). Computer 10B
(Or 10A) decodes the received image by the video conference board 14B (or 14A), and the monitor 18B
(Or 18A).

【0005】図17は、ファクシミリ通信の場合の概略
構成ブロック図を示す。ファクシミリ装置20A,20
Bが通信回線22を介して接続する。ファクシミリ装置
20A(又は20B)は、付属するスキャナで読み取っ
た画像をMMR等の符号化方式で符号化する。その符号
化データは、通信回線22のレート(ISDN回線では
64kbit/s)でファクシミリ装置20B(又は2
0A)に転送される。受信側のファクシミリ装置20B
(又は20A)は、受信符号を復号し、プリンタにより
ハードコピー出力する。送信時間は、ファクシミリ装置
20B,20Aの能力及び通信回線22の回線速度に依
存する。通常、数十秒から数分程度かかる。
FIG. 17 shows a schematic block diagram of a facsimile communication. Facsimile machines 20A, 20
B connects through the communication line 22. The facsimile device 20A (or 20B) encodes the image read by the attached scanner by an encoding method such as MMR. The encoded data is transmitted at the rate of the communication line 22 (64 kbit / s in the ISDN line) to the facsimile device 20B (or 2).
0A). Receiving side facsimile device 20B
(Or 20A) decodes the received code and outputs a hard copy by the printer. The transmission time depends on the capabilities of the facsimile machines 20B and 20A and the line speed of the communication line 22. Usually, it takes several tens of seconds to several minutes.

【0006】[0006]

【発明が解決しようとする課題】テレビ会議中、即ち、
相互に動画を伝送している最中に、資料など伝送したい
場合がある。別のファクシミリ装置を利用することもで
きるが、図18に示すような書画カメラをコンピュータ
10A,10Bに装備し、動画伝送と同じ回線で静止画
を伝送する構成が提案されている。
During a video conference, that is,
You may want to transmit materials, etc. while transmitting moving images to each other. Although another facsimile device can be used, a configuration has been proposed in which a document image camera as shown in FIG. 18 is provided in the computers 10A and 10B and a still image is transmitted on the same line as the moving image transmission.

【0007】しかし、従来例では、書画カメラで十分な
解像度の静止画を伝送しようとすると、長い伝送時間及
び/又は大きな伝送容量が必要になり、十分な画質を確
保するには、動画伝送を一時的に中断しなければならな
かった。
However, in the conventional example, when a still image having a sufficient resolution is transmitted by the document camera, a long transmission time and / or a large transmission capacity are required. Therefore, in order to secure a sufficient image quality, moving image transmission is required. I had to suspend it temporarily.

【0008】本発明は、動画伝送を途切ることなしに、
十分な画質で静止画を伝送できる画像伝送装置を提示す
ることを目的とする。
According to the present invention, there is no interruption in moving image transmission.
An object of the present invention is to provide an image transmission device capable of transmitting a still image with sufficient image quality.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像伝送装
置は、動画像データを入力する動画像入力手段と、静止
画像データを入力する静止画像入力手段と、前記動画像
入力手段により入力された動画像データを、画面内符号
化及び画面間符号化を用いて符号化する符号化手段と、
前記静止画像入力手段により入力された静止画像データ
を前記符号化手段の方式の画面内符号化により符号化
し、前記符号化手段により符号化された動画像符号化デ
ータ中に、前記符号化された静止画像データを挿入して
出力する出力手段とを有することを特徴とする。
An image transmitting apparatus according to the present invention is a moving image input unit for inputting moving image data, a still image input unit for inputting still image data, and an input by the moving image input unit. Encoding means for encoding the moving image data using intra-picture encoding and inter-picture encoding,
The still image data input by the still image input means is encoded by intra-picture encoding of the method of the encoding means, and is encoded in the moving image encoded data encoded by the encoding means. And an output unit for inserting and outputting still image data.

【0010】[0010]

【作用】上記手段により、静止画像の符号化データを動
画像の符号中に挿入して伝送するので、静止画像を動画
像と同様にリアルタイムで伝送できる。同時に、原寸サ
イズの静止画を符号化して送信するので、十分な解像度
の静止画像も伝送できる。これらにより、リアルタイム
性と解像度の両方を実現できる。
By the above means, the encoded data of the still image is inserted into the code of the moving image and transmitted, so that the still image can be transmitted in real time like the moving image. At the same time, since a full size still image is encoded and transmitted, a still image with sufficient resolution can also be transmitted. With these, both real-time property and resolution can be realized.

【0011】[0011]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】図1は、本発明の一実施例のシステム全体
を示す概略構成ブロック図である。図1において、30
は、種々のデータ(本実施例では、JPEG及びMPE
G等の各種方式により符号化された画像データ、音声デ
ータ及び制御データなど)をATM(非同期転送モー
ド)転送するATMネットワーク、32,34は、イー
サネット(米国、ゼロックス・コーポレーションの商
標)により構成されるローカル・エリア・ネットワーク
(LAN)、36はATMネットワーク30に接続さ
れ、画像データの圧縮伸長機能を有するファクシミリ装
置、38は内部にページ・メモリを有するカラー・プリ
ンタである。
FIG. 1 is a schematic block diagram showing the entire system of an embodiment of the present invention. In FIG. 1, 30
Indicates various data (in this embodiment, JPEG and MPE
ATM networks for transferring image data, audio data, control data, etc. encoded by various methods such as G (Asynchronous transfer mode), 32 and 34 are configured by Ethernet (trademark of Xerox Corporation in the United States) A local area network (LAN) 36 is a facsimile machine connected to the ATM network 30 and having a compression / expansion function of image data, and 38 is a color printer having a page memory therein.

【0013】40は、カラー・リーダ及びカラー・プリ
ンタを具備するカラー複写機であって、カラー・リーダ
で読み取った原稿の画像データを例えばJPEG方式に
基づいて圧縮する圧縮回路と、圧縮された画像データが
書き込まれるページ・メモリ、当該ページ・メモリに書
き込まれた圧縮画像データを読み出して伸長する伸長回
路を含む。伸長回路により伸長された画像データは、内
部のプリンタ又は外部のプリンタに供給される。
Reference numeral 40 denotes a color copying machine equipped with a color reader and a color printer, and a compression circuit for compressing image data of an original read by the color reader based on, for example, the JPEG system, and a compressed image. It includes a page memory in which data is written and a decompression circuit for reading and decompressing the compressed image data written in the page memory. The image data expanded by the expansion circuit is supplied to an internal printer or an external printer.

【0014】42は、ATMネットワーク30を介して
入力される画像データを蓄積記憶するファイル・サー
バ、44は、ファイル・サーバ42にデータを入出力す
るためのワークステーション、46はATMネットワー
ク30と接続されるパーソナルコンピュータ(PC)で
ある。コンピュータ46は、ローカル・エリア・ネット
ワーク32,34との間でMPEGデータ及びJPEG
データを遣り取りし、データの符号化・復号化を行なう
とともに、画像データの編集等の種々の処理を実行でき
る。また、このコンピュータ46は、ネットワーク34
又は専用線を介してプリンタ38に接続する。
Reference numeral 42 is a file server for storing and storing image data input via the ATM network 30, 44 is a workstation for inputting / outputting data to / from the file server 42, and 46 is a connection with the ATM network 30. It is a personal computer (PC) used. The computer 46 exchanges MPEG data and JPEG with the local area networks 32 and 34.
It is possible to exchange data, perform encoding / decoding of data, and perform various processes such as editing of image data. Further, this computer 46 is connected to the network 34.
Alternatively, it is connected to the printer 38 via a dedicated line.

【0015】48は、サーバ42と同様の構成のファイ
ル・サーバである。サーバ48には、カラー複写機40
と同様の構成のカラー複写機50が直接、接続されてい
る。
Reference numeral 48 is a file server having the same configuration as the server 42. The server 48 includes a color copying machine 40.
A color copying machine 50 having the same configuration as is directly connected.

【0016】52は、ATMネットワーク30に接続さ
れているディジタル・テレビである。ディジタル・テレ
ビ52は、ATMネットワーク30を介して入力される
MPEGデータ及びJPEGデータを復号し、可視像と
してCRTディスプレイ装置に表示する。モニタ・ディ
スプレイとしては、例えば、強誘電体液晶を用いたディ
スプレイ装置であってもよい。
Reference numeral 52 is a digital television connected to the ATM network 30. The digital television 52 decodes the MPEG data and JPEG data input via the ATM network 30 and displays it on the CRT display device as a visible image. The monitor display may be, for example, a display device using a ferroelectric liquid crystal.

【0017】54は、ATMネットワーク30を介して
入力されたMPEGデータ及びJPEGデータを受信
し、圧縮状態のまま、又は所定の処理をして磁気テープ
に記録するディジタル・ビデオ・テープ・レコーダであ
る。VTR54は、また、外部から受信した非圧縮デー
タをMPEG又はJPEG方式に基づいて圧縮する画像
圧縮器を具備し、その圧縮データも磁気テープに記録で
きる。
Reference numeral 54 is a digital video tape recorder which receives MPEG data and JPEG data input via the ATM network 30 and records them on a magnetic tape in a compressed state or after a predetermined process. . The VTR 54 also includes an image compressor that compresses uncompressed data received from the outside based on the MPEG or JPEG method, and the compressed data can also be recorded on a magnetic tape.

【0018】56は、ATMネットワーク30にMPE
G画像データ及びJPEG画像データを送出するCAT
V局である。CATV局56は、ATMネットワーク3
0に放送データを出力する。
Reference numeral 56 denotes MPE on the ATM network 30.
CAT for sending G image data and JPEG image data
It is station V. The CATV station 56 is an ATM network 3
Broadcast data is output to 0.

【0019】58は、ATMネットワーク30に他のA
TMネットワークを接続するためのルータ、60は、L
AN34を他のローカル・エリア・ネットワークに接続
するためのルータである。
Reference numeral 58 designates another A in the ATM network 30.
A router for connecting the TM network, 60 is L
A router for connecting the AN 34 to another local area network.

【0020】なお、ファクシミリ装置36、プリンタ3
8、及びカラー複写機40とATMネットワーク30と
の間には、図示しないATMネットワーク・スイッチが
設けられている。
The facsimile device 36 and the printer 3
8, and an ATM network switch (not shown) is provided between the color copying machine 40 and the ATM network 30.

【0021】ATMネットワーク30を介して伝送され
るJPEGデータを説明する。JPEGデータは、デー
タの周波数特性や人間の視覚特性を利用してカラー静止
画を圧縮することを目的とした国際標準方式であるCC
ITT/ISOのJPEG方式に基づいて符号化された
データであり、このデータは、符号化データ及び各種マ
ーカ・コードを図2に示すようなイメージ/フレーム/
スキャンの階層構造として構成される。
JPEG data transmitted via the ATM network 30 will be described. JPEG data is an international standard method CC that aims to compress a color still image by utilizing the frequency characteristics of data and human visual characteristics.
The data is coded based on the ITT / ISO JPEG system, and the coded data and various marker codes are shown in an image / frame / frame as shown in FIG.
It is structured as a hierarchical structure of scans.

【0022】即ち、JPEGデータは、SOI(Sta
rt Of Image)コード、フレーム、EOI
(End Of Image)コードから構成される。
フレームは、階層符号化されたデータの場合には、各階
層毎に複数のフレームから成り、階層符号化されていな
い場合には、単一のフレームからなる。フレームは、S
OF(Start Of Frame)コード、フレー
ム・ヘッダ及びスキャンからなり、スキャンは、SOS
(Start Of Scan)コード、スキャン・ヘ
ッダ及び符号化データからなる。スキャンは、輝度デー
タ(Y)と2つの色差データ(Cr,Cb)とを分けて
符号化する場合(ノンインタリーブさせる場合)、複数
のスキャンからなり、各データを分けずに符号化する場
合(インタリーブさせる場合)、単一のスキャンからな
る。
That is, the JPEG data is the SOI (Sta
rt Of Image) code, frame, EOI
(End Of Image) code.
A frame is composed of a plurality of frames for each layer in the case of hierarchically encoded data, and is composed of a single frame when not hierarchically encoded. The frame is S
It consists of OF (Start Of Frame) code, frame header and scan, and scan is SOS.
(Start Of Scan) code, scan header, and encoded data. The scan consists of a plurality of scans when the luminance data (Y) and the two color difference data (Cr, Cb) are encoded separately (when non-interleaved), and when each data is encoded without being divided ( Interleaving) consists of a single scan.

【0023】図3及び図4を参照して、JPEG方式の
基本的なベースライン・システムにおける符号化・復号
化のアルゴリズムを説明する。図3は、符号化系の概略
構成ブロック図を示し、図4は、復号化系の概略構成ブ
ロック図を示す。
An encoding / decoding algorithm in a basic baseline system of the JPEG system will be described with reference to FIGS. 3 and 4. FIG. 3 shows a schematic block diagram of an encoding system, and FIG. 4 shows a schematic block diagram of a decoding system.

【0024】図3を説明する。ブロック化回路110
は、入力画像データを8画素×8画素のブロックに分割
し、DCT(離散コサイン変換)回路112がブロック
化回路110から出力されるブロックを、2次元離散コ
サイン変換により1つの直流成分(DC)と63個の交
流成分(AC)から成る水平/垂直の空間周波数成分
(DCT係数)に変換する。
FIG. 3 will be described. Blocking circuit 110
Divides the input image data into blocks of 8 pixels × 8 pixels, and the DCT (discrete cosine transform) circuit 112 outputs the block output from the blocking circuit 110 to one direct current component (DC) by two-dimensional discrete cosine transform. And a horizontal / vertical spatial frequency component (DCT coefficient) composed of 63 AC components (AC).

【0025】量子化回路114は、DCT回路112か
ら出力される各周波数成分を、各々所定の係数(量子化
係数)で除算することにより量子化する。量子化された
直流成分と交流成分は、異なるアルゴリズムで処理され
る。なお、量子化係数は一般に、周波数成分毎に異なる
値なっており、視覚上で重要な低域成分に対する量子化
係数は、高域成分に対する量子化係数に比して小さく設
定されている。これにより、比較的重要でない高域成分
の圧縮率を高め、画質に与える影響を少なくしながら、
全体としてデータ量を削減できるようにしている。
The quantization circuit 114 quantizes each frequency component output from the DCT circuit 112 by dividing each frequency component by a predetermined coefficient (quantization coefficient). The quantized DC component and AC component are processed by different algorithms. Note that the quantized coefficient generally has a different value for each frequency component, and the quantized coefficient for the visually important low-frequency component is set smaller than the quantized coefficient for the high-frequency component. This increases the compression ratio of relatively unimportant high frequency components and reduces the effect on image quality,
We are trying to reduce the amount of data as a whole.

【0026】DCT変換係数の直流成分は、隣接ブロッ
クとの相関が高い。これを利用して、差分回路116
は、先行するブロックとの間で直流成分の差分を求め、
ハフマン符号化回路118が、差分回路116の出力差
分値を1次元ハフマン符号化し、直流成分の符号化デー
タとして付加回路130に出力する。
The DC component of the DCT transform coefficient has a high correlation with the adjacent block. By utilizing this, the difference circuit 116
Is the difference of the DC component from the preceding block,
The Huffman coding circuit 118 performs one-dimensional Huffman coding on the output difference value of the difference circuit 116 and outputs it to the addition circuit 130 as DC component coded data.

【0027】他方、交流成分については、上述の63個
の交流成分をスキャン回路120が視覚的に重要な低域
側の周波数成分から高域側に順次、ジグザグスキャンし
て1次元の配列に変換する。係数判定回路122は、各
成分の値が「0値」であるか0値以外の値(有効係数)
であるかを判定する。「0値」については、ランレング
ス・カウンタ124が0ランをカウントし、有効係数に
ついては、グループ化回路126が、その値によってグ
ループ化する。これらによって得られたランレングスと
グループ値との組み合わせを、ハフマン符号化回路12
8が、2次元ハフマン符号化し、交流成分の符号化デー
タとして付加回路130に出力する。
On the other hand, for the AC components, the scan circuit 120 converts the above-mentioned 63 AC components into a one-dimensional array by sequentially performing zigzag scanning from the visually important frequency components on the low frequency side to the high frequency side. To do. The coefficient determination circuit 122 determines whether the value of each component is “0 value” or a value other than 0 value (effective coefficient).
Is determined. For "0 value", the run length counter 124 counts 0 runs, and for the effective coefficient, the grouping circuit 126 groups by that value. The combination of the run length and the group value obtained by the above is used as the Huffman coding circuit 12
8 outputs the two-dimensional Huffman code to the additional circuit 130 as AC component coded data.

【0028】ハフマン符号化は、生起確率の高いもの
(直流成分については上記差分値、交流成分については
ランレングスと有効係数の組み合わせ)により短い符号
長を割り当てる。これにより、全体としてのデータ量を
削減する。更には、生起確率が低いものについて、所定
のコード(ZRLコード)を割り当てることで、有限の
コード数で総てのパターンを表現できる。
In the Huffman coding, a shorter code length is assigned to one having a higher occurrence probability (the above-mentioned difference value for the DC component, and the combination of the run length and the effective coefficient for the AC component). This reduces the amount of data as a whole. Furthermore, by assigning a predetermined code (ZRL code) to the one having a low occurrence probability, all patterns can be expressed with a finite number of codes.

【0029】以上の処理を各ブロック単位で行なって、
1枚のカラー静止画の符号化を終了する。付加回路13
0は、以上の各符号化データに前述のマーカ・コード等
を付加し、図2に示すデータ構造のJPEGデータを出
力する。
The above processing is performed for each block,
The encoding of one color still image ends. Additional circuit 13
In the case of 0, the above-mentioned marker code and the like are added to each of the above encoded data, and JPEG data having the data structure shown in FIG. 2 is output.

【0030】なお、量子化回路114における量子化係
数及びハフマン符号化回路118,128におけるハフ
マン・コードは任意に設定できるので、符号化に用いら
れた量子化係数及びハフマン・コードを表わすデータ
が、SOIコードの後に付加される。
Since the quantization coefficient in the quantization circuit 114 and the Huffman code in the Huffman coding circuits 118 and 128 can be set arbitrarily, the data representing the quantization coefficient and the Huffman code used in the coding are It is added after the SOI code.

【0031】図4に示す復号化系を説明する。復号化の
アルゴリズムは基本的に符号化アルゴリズムの逆であ
る。復号化回路132は、入力された符号化データを、
一緒に入力されるハフマン・テーブルを用いて復号し、
直流成分を加算器134に、交流成分を並び換え回路1
36に供給する。加算器134は、入力する直流成分
(差分値)に先行ブロックの直流成分を加算する。並び
換え回路136は、復号された各周波数成分を元の2次
元配列に並び換える。
The decoding system shown in FIG. 4 will be described. The decoding algorithm is basically the reverse of the encoding algorithm. The decoding circuit 132 converts the input coded data into
Decoding using the Huffman table input together,
DC component is added to adder 134 and AC component is rearranged circuit 1
Supply to 36. The adder 134 adds the DC component of the preceding block to the input DC component (difference value). The rearrangement circuit 136 rearranges each decoded frequency component into the original two-dimensional array.

【0032】逆量子化回路138は、加算器134から
出力される直流成分及び並び換え回路136から出力さ
れる交流成分を逆量子化し、逆DCT回路140は、逆
量子化回路138の出力を逆離散コサイン変換する。逆
DCT回路140の出力が、復元画像データになってい
る。
The inverse quantization circuit 138 inversely quantizes the DC component output from the adder 134 and the AC component output from the rearrangement circuit 136, and the inverse DCT circuit 140 inverses the output from the inverse quantization circuit 138. Discrete cosine transform. The output of the inverse DCT circuit 140 is the restored image data.

【0033】このような処理を各ブロック単位で行なっ
て、1枚のカラー静止画の復号化を終了する。
The above processing is performed for each block to complete the decoding of one color still image.

【0034】図3及び図4を参照して説明した以上のア
ルゴリズムは、JPEG方式の基本的なものであるが、
これに更に各種の階層符号化を取り入れたエクステンド
・システムもJPEG方式として認められている。この
階層符号化を行なった場合には、上記SOFコードによ
って、その種類を表わすことになっている。
The algorithm described above with reference to FIGS. 3 and 4 is the basic one of the JPEG system.
An extended system incorporating various hierarchical codings is also recognized as the JPEG system. When this hierarchical encoding is performed, the type is represented by the SOF code.

【0035】次に、MPEGデータを説明する。MPE
G方式は、動画像を高能率符号化することを目的とした
国際標準であり、基本的には先のJPEG方式と同様に
データの周波数特性及び人間の視覚特性を利用するが、
更に、動画像特有の時間軸方向の冗長度を利用して、よ
り高い圧縮率を達成する。
Next, MPEG data will be described. MPE
The G method is an international standard aimed at high-efficiency coding of moving images, and basically uses the frequency characteristics of data and human visual characteristics as in the JPEG method described above.
Furthermore, a higher compression rate is achieved by utilizing the redundancy in the time axis direction that is unique to moving images.

【0036】MPEG方式には、ディジタル記憶媒体用
に転送レートを最大1.5MbpsとしたMPEG1
と、伝送レートの上限を無くし、双方向ディジタル・マ
ルチメディア機器、ディジタルVTR、A−TV及び光
ファイバ・ネットワーク等の全ての伝送系で用いられる
ことを企図したMPEG2がある。基本的なアルゴリズ
ムはほぼ同様であるので、MPEG1をベースとして、
そのデータ構造及び符号化復号化のアルゴリズムを説明
する。なお、MPEG2では、使用可能な符号化方法を
複数のプロフィール(シンプル・プロフィール、メイン
・プロフィール、スケーラブル、空間スケーラブル及び
ハイ)によって規定しているが、代表的なメイン・プロ
フィールは、基本的にMPEG1とほぼ同様である MPEGによる高能率符号化方式の原理を説明する。M
PEGでは、フレーム間の差分を取ることで時間軸方向
の冗長度を低減する。そして、これによって得られた差
分データをDCT及び可変長符号化処理して空間方向の
冗長度を低減する。これらの処理により、全体として高
い圧縮率を実現する。
As the MPEG system, MPEG1 having a maximum transfer rate of 1.5 Mbps for a digital storage medium is used.
There is MPEG2 which is intended to be used in all transmission systems such as bidirectional digital multimedia equipment, digital VTRs, A-TVs and optical fiber networks by eliminating the upper limit of the transmission rate. Since the basic algorithm is almost the same, based on MPEG1,
The data structure and the encoding / decoding algorithm will be described. In MPEG2, usable coding methods are defined by a plurality of profiles (simple profile, main profile, scalable, spatial scalable, and high), but a typical main profile is basically MPEG1. The principle of a high-efficiency coding system based on MPEG, which is almost the same as the above, will be described. M
PEG reduces the redundancy in the time axis direction by taking the difference between frames. Then, the difference data obtained thereby is subjected to DCT and variable length coding processing to reduce the redundancy in the spatial direction. These processes realize a high compression rate as a whole.

【0037】時間軸方向の冗長度については、動画の場
合、連続したフレーム間の相関が高いことに着目し、符
号化しようとするフレームと時間的に先行又は後行する
フレームとの差分を取ることによって、冗長度を削減で
きる。MPEGでは、図5に示すように、専らフレーム
内で符号化する符号化モードで得られるイントラ符号化
画像(Iピクチャ)の他に、時間的に先行するフレーム
との差分値を符号化する前方予測符号化画像(Pピクチ
ャ)と、時間的に先行又は後行するフレームとの差分値
若しくはそれらの両フレームによる補間フレームとの差
分値の内、最もデータ量が少ないものを符号化する両方
向予測符号化画像(Bピクチャ)とを有し、これらの符
号化モードによる各フレームを所定の順序で組み合わせ
ている。即ち、MPEGでは、Iピクチャ、Pピクチャ
及びBピクチャを夫々1枚、4枚及び10枚で1単位
(GOP)とし、先頭にIピクチャを配し、2枚のBピ
クチャと1枚のPピクチャを繰り返し配する組み合わせ
を推奨しており、一定周期でIピクチャを置くことによ
って、逆再生等の特殊再生やGOPを単位とした部分再
生を可能とするとともにエラー伝播の防止を図ってい
る。
Regarding the redundancy in the time axis direction, in the case of a moving image, paying attention to the fact that the correlation between consecutive frames is high, and the difference between the frame to be encoded and the frame preceding or succeeding in time is calculated. By doing so, the redundancy can be reduced. In MPEG, as shown in FIG. 5, in addition to an intra-coded image (I picture) obtained in a coding mode in which coding is performed exclusively in a frame, a difference value with respect to a temporally preceding frame is coded forward. Bidirectional prediction in which a predictive coded image (P picture) and a temporally preceding or following frame difference value or a difference value between an interpolated frame by both of them and having the smallest data amount are coded A coded image (B picture) is included, and frames in these coding modes are combined in a predetermined order. That is, in MPEG, I picture, P picture, and B picture are set as 1 unit (GOP) with 1 picture, 4 pictures, and 10 pictures respectively, and an I picture is arranged at the beginning, and 2 B pictures and 1 P picture are arranged. It is recommended that the combination of repeatedly arranging is used, and by placing an I picture at a constant cycle, special reproduction such as reverse reproduction or partial reproduction in units of GOP is possible and error propagation is prevented.

【0038】フレーム中で新たな物体が現われた場合に
は、時間的に先行するフレームとの差分を取るよりも後
行するフレームとの差分を取った方がその差分値が少な
くなる場合がある。そこで、MPEGでは、上述のよう
な両方向予測符号化を行ない、高い圧縮率を実現してい
る。
When a new object appears in a frame, the difference value may be smaller by taking the difference with the subsequent frame than by taking the difference with the temporally preceding frame. . Therefore, in MPEG, the bidirectional predictive coding as described above is performed to realize a high compression rate.

【0039】また、MPEGでは動き補償を併用する。
即ち、先の8画素×8画素のブロックを輝度データにつ
いて4ブロック、色差データについて2ブロック集めた
ものを単位(マクロブロック)として、先行又は後行フ
レームの対応ブロック近傍のマクロブロックとの差分を
とり、一番差が少ないマクロブロックを探索することに
よって動きベクトルを検出する。そして、時間的に先行
するフレームを一旦符号化した後、再度復号したフレー
ムを先行フレームとし、この先行フレームにおけるマク
ロブロックと符号化しようとするフレームのマクロブロ
ックとの差をDCT変換及びハフマン符号化する。この
動きベクトルも、符号化されて伝送される。復号の際に
は、この動きベクトルを用いて先行又は後行フレームの
対応マクロブロック・データを抽出し、これにより、動
き補償符号化された差分データを復号化する。なお、M
PEG1はフレーム間の動き補償を採用するが、MPE
G2はフィールド間の動き補償を採用する。
In MPEG, motion compensation is also used.
That is, the difference from the macroblock in the vicinity of the corresponding block of the preceding or succeeding frame is taken as a unit (macroblock) by collecting the previous 8 pixel × 8 pixel block for 4 blocks for luminance data and 2 blocks for chrominance data. Then, the motion vector is detected by searching the macro block having the smallest difference. Then, after temporally preceding a frame is once encoded, a frame that is decoded again is set as a preceding frame, and the difference between the macro block in this preceding frame and the macro block of the frame to be encoded is DCT-transformed and Huffman encoded. To do. This motion vector is also encoded and transmitted. At the time of decoding, the corresponding macroblock data of the preceding or following frame is extracted using this motion vector, and thereby the motion compensation encoded difference data is decoded. In addition, M
PEG1 uses motion compensation between frames, but MPE
G2 employs inter-field motion compensation.

【0040】MPEG方式のデータ構造は、図6に示す
ように、ビデオ・シーケンス層、GOP層、ピクチャ
層、スライス層、マクロブロック層及びブロック層から
なる。以下、各層について、下の層から順に説明する。
As shown in FIG. 6, the data structure of the MPEG system comprises a video sequence layer, a GOP layer, a picture layer, a slice layer, a macroblock layer and a block layer. Hereinafter, each layer will be described in order from the lower layer.

【0041】ブロック層は、先のJPEGと同様に、輝
度データ及び色差データ毎に8画素×8画素で各々構成
され、これを単位にDCTが行なわれる。
Similar to JPEG, the block layer is composed of 8 pixels × 8 pixels for each of luminance data and color difference data, and DCT is performed in units of this.

【0042】マクロブロック層は、上述した8画素×8
画素のブロックを輝度データについては4ブロック、色
差データについては各1ブロックまとめて、マクロブロ
ック・ヘッダを付したものである。MPEG方式では、
このマクロブロックを後述する動き補償及び符号化の単
位とする。マクロブロック・ヘッダは、各マクロブロッ
ク単位の動き補償及び量子化ステップの各データ、並び
に、各マクロブロック内の6つのDCTブロック(Y
0,Y1,Y2,Y3,Cr,Cb)がデータを有する
か否かのデータを含む。
The macroblock layer is composed of 8 pixels × 8 described above.
A block of pixels is grouped into four blocks for luminance data and one block for color difference data, and a macroblock header is added. In the MPEG system,
This macroblock is used as a unit for motion compensation and coding described later. The macroblock header includes each data of the motion compensation and quantization step for each macroblock, and the six DCT blocks (Y
0, Y1, Y2, Y3, Cr, Cb) includes data indicating whether or not it has data.

【0043】スライス層は、画像の走査順に連なる1以
上のマクロブロック及びスライス・ヘッダからなる。同
一スライス層内の一連のマクロブロックにおける量子化
ステップは、一定とすることができる。スライス・ヘッ
ダは、各スライス層内の量子化ステップに関するデータ
を有し、各マクロブロックに固有の量子化ステップ・デ
ータがない場合には、そのスライス層内の量子化ステッ
プを一定とする。先頭のマクロブロックは、直流成分の
差分値をリセットされる。
The slice layer is composed of one or more macroblocks and a slice header which are consecutive in the scanning order of the image. The quantization step in a series of macroblocks in the same slice layer can be constant. The slice header has data relating to the quantization step in each slice layer, and if there is no quantization step data unique to each macroblock, the quantization step in that slice layer is fixed. The top macroblock is reset with the difference value of the DC component.

【0044】ピクチャ層は、スライス層を1フレーム単
位で複数集めたものであり、ピクチャ・スタート・コー
ド等からなるヘッダと、これに続く1つ又は複数のスラ
イス層とからなる。ここでのヘッダには、画像の符号化
モードを示すコード、及び動き検出の精度(画素単位か
半画素単位か)を示すコードが含まれる。
The picture layer is a collection of a plurality of slice layers in units of one frame, and is composed of a header including a picture start code and the like, and one or more slice layers following the header. The header here includes a code indicating the image encoding mode and a code indicating the accuracy of motion detection (pixel unit or half pixel unit).

【0045】GOP層は、グループ・スタート・コー
ド、シーケンスの最初からの時間を示すタイムコード等
のヘッダ、及びこれに続く複数のIフレーム、Bフレー
ム又はPフレームからなる。
The GOP layer is composed of a group start code, a header such as a time code indicating the time from the beginning of the sequence, and a plurality of I frames, B frames or P frames following the header.

【0046】ビデオ・シーケンス層は、シーケンス・ス
タート・コードから始まってシーケンス・エンド・コー
ドで終了する。その間に、画像サイズ及びアスペクト比
等の、復号に必要な制御データ及び画像サイズ等が同じ
である複数のGOPが、配列される。
The video sequence layer starts with a sequence start code and ends with a sequence end code. In the meantime, a plurality of GOPs having the same control data and image size necessary for decoding such as image size and aspect ratio are arranged.

【0047】このようなデータ構造を持つMPEG方式
は、その規格でビット・ストリームも規定されている。
The MPEG system having such a data structure also defines a bit stream in its standard.

【0048】図7及び図8を参照し、MPEG方式の符
号化装置及び復号化装置を説明する。図7は、符号化装
置の概略構成ブロック図を示し、図8は、復号化装置の
概略構成ブロック図を示す。
An MPEG type coding apparatus and decoding apparatus will be described with reference to FIGS. 7 and 8. FIG. FIG. 7 shows a schematic block diagram of the encoding device, and FIG. 8 shows a schematic block diagram of the decoding device.

【0049】図7に示す符号化装置では、符号化の対象
とする画像サイズは、図9に示すように、1,920画
素×1,080画素のHigh(MPEG2におけるハ
イ・レベルに対応する。)、1,440画素×1,08
0画素のHigh1440(MPEG2におけるハイ1
440レベルに対応する。)、4:2:2又は4:2:
0のCCIR.601対応画像(MPEG2におけるメ
イン・レベルに対応する。)、SIFフォーマット、C
IFフォーマット及びQCIFフォーマットに対応した
ものがある。MPEG1及びMPEG2のロー・レベル
では、SIFフォーマットの画像サイズを対象としてい
る。
In the encoding apparatus shown in FIG. 7, the image size to be encoded corresponds to a high level of 1,920 pixels × 1,080 pixels (corresponding to a high level in MPEG2, as shown in FIG. 9). ), 1,440 pixels x 1,08
High 1440 with 0 pixels (High 1 in MPEG2
Corresponds to 440 levels. ) 4: 2: 2 or 4: 2:
CCIR. 601-compatible images (corresponding to the main level in MPEG2), SIF format, C
Some are compatible with the IF format and the QCIF format. At the low level of MPEG1 and MPEG2, the image size of the SIF format is targeted.

【0050】ブロック化回路210は、符号化すべき画
像データを8画素×8画素のブロックに分割し、その出
力はスイッチ214のa接点、減算器212及び動きベ
クトル検出回路234に印加される。スイッチ214
は、入力画像データをイントラ・フレーム(Iフレー
ム)とする場合にはa接点に接続し、それ以外のフレー
ム(Pフレーム又はBフレーム)にする場合にはb接点
に接続する。
The block forming circuit 210 divides the image data to be encoded into blocks of 8 pixels × 8 pixels, and the output thereof is applied to the a contact of the switch 214, the subtracter 212 and the motion vector detecting circuit 234. Switch 214
Is connected to the a contact when the input image data is an intra frame (I frame), and is connected to the b contact when it is another frame (P frame or B frame).

【0051】イントラ・フレームの場合、ブロック化回
路210の出力はスイッチ214を介してDCT回路2
16に印加され、DCT回路216は、入力データをD
CT変換し、量子化回路218は、DCT回路216か
ら出力されるDCT係数を量子化する。可変長符号化回
路220は量子化回路218の出力を可変長符号化す
る。可変長符号化回路220の出力は、一旦、バッファ
222に記憶され、レート調整されて付加回路224に
印加される。
In the case of an intra frame, the output of the blocking circuit 210 is passed through the switch 214 to the DCT circuit 2
16 and the DCT circuit 216 outputs the input data to D
After CT conversion, the quantization circuit 218 quantizes the DCT coefficient output from the DCT circuit 216. The variable length coding circuit 220 performs variable length coding on the output of the quantization circuit 218. The output of the variable length coding circuit 220 is temporarily stored in the buffer 222, the rate is adjusted, and the result is applied to the adding circuit 224.

【0052】また、逆量子化回路228は量子化回路2
18の出力を逆量子化し、逆DCT回路230は逆量子
化回路228の出力を逆DCT変換する。スイッチ23
8はイントラ・フレームでは開放され、イントラ・フレ
ーム以外では閉成される。従って、加算器232は、イ
ントラ・フレームでは逆DCT回路230の出力をその
まま出力し、イントラ・フレーム以外では、逆DCT回
路230の出力に動き補償回路236の出力(予測値)
を加算して出力する。
The inverse quantization circuit 228 is the quantization circuit 2
The output of 18 is inversely quantized, and the inverse DCT circuit 230 performs inverse DCT conversion of the output of the inverse quantization circuit 228. Switch 23
8 is open in the intra frame and closed in other than the intra frame. Therefore, the adder 232 outputs the output of the inverse DCT circuit 230 as it is in the intra frame, and outputs the output of the motion compensation circuit 236 (predicted value) to the output of the inverse DCT circuit 230 in the cases other than the intra frame.
Is added and output.

【0053】動きベクトル検出回路234はブロック化
回路210の出力(符号化すべき画像)と加算器232
の出力(既に符号化した画像)とから動きベクトルを検
出し、検出値を動き補償回路236に供給する。動き補
償回路236は動きベクトル検出回路234からの動き
ベクトルに従い、加算器232の出力から得られる所定
のフレーム(先行フレーム、後行フレーム又はこれらの
補間フレーム)の動き補償した画像データを、予測値と
して、スイッチ238を介して加算器232に、及び減
算器212に出力する。即ち、動き補償回路236は、
動きベクトル検出回路234により検出された動きベク
トルに従い、加算器232の出力から得られる所定のフ
レーム(先行フレーム、後行フレーム又はこれらの補間
フレーム)における対応マクロブロックを出力する。
The motion vector detecting circuit 234 outputs the output of the blocking circuit 210 (image to be encoded) and the adder 232.
From the output (image already encoded) and the motion vector are detected, and the detected value is supplied to the motion compensation circuit 236. The motion compensation circuit 236, according to the motion vector from the motion vector detection circuit 234, predicts the motion-compensated image data of a predetermined frame (preceding frame, subsequent frame or their interpolation frame) obtained from the output of the adder 232. As output to the adder 232 via the switch 238 and to the subtractor 212. That is, the motion compensation circuit 236 is
According to the motion vector detected by the motion vector detection circuit 234, the corresponding macroblock in a predetermined frame (leading frame, trailing frame or their interpolation frame) obtained from the output of the adder 232 is output.

【0054】減算器212は、動き補償回路236の出
力からブロック化回路210の出力を減算し、その結果
をスイッチ214のb接点に印加する。従って、イント
ラ・フレーム以外の場合には、DCT回路216は差分
値を離散コサイン変換し、その変換係数は、量子化回路
218により量子化され、可変長符号化回路220によ
り可変長符号化された後、出力バッファ222を介して
付加回路224に供給される。
The subtractor 212 subtracts the output of the blocking circuit 210 from the output of the motion compensation circuit 236, and applies the result to the b contact of the switch 214. Therefore, in the case other than the intra frame, the DCT circuit 216 performs a discrete cosine transform on the difference value, and the transform coefficient is quantized by the quantizing circuit 218 and variable length encoded by the variable length encoding circuit 220. After that, it is supplied to the additional circuit 224 via the output buffer 222.

【0055】レート制御回路226は出力バッファ22
2の記憶データ量が一定になるように、量子化回路21
8の量子化ステップ・サイズを制御する。
The rate control circuit 226 uses the output buffer 22.
2 so that the amount of stored data is constant.
Control quantization step size of 8.

【0056】可変長符号化回路220は、基本的には、
先に説明したJPEGにおけるハフマン符号化回路と同
様であるが、生起確率が低いものについて所定コード
(エスケープ・コード)を一律に割り当てる点で異な
る。
The variable length coding circuit 220 basically has
It is similar to the Huffman coding circuit in JPEG described above, but differs in that a predetermined code (escape code) is uniformly assigned to the one having a low occurrence probability.

【0057】付加回路224は、出力バッファ222か
ら出力される符号化データに先に説明した各種ヘッダを
付加し、MPEG方式に対応したMPEGデータとして
出力する。
The adding circuit 224 adds the various headers described above to the encoded data output from the output buffer 222, and outputs it as MPEG data compatible with the MPEG system.

【0058】復号装置は、基本的には、上述の符号化の
逆の処理を行なう。即ち、符号化データは入力バッファ
240を介して可変長復号化回路242に印加され、こ
こで、可変長符号を復号化される。可変長復号化回路2
42の出力は逆量子化回路244により逆量子化され、
逆DCT回路246により逆離散コサイン変換され、空
間領域のデータに戻される。
The decoding device basically performs the reverse processing of the above-mentioned encoding. That is, the encoded data is applied to the variable length decoding circuit 242 via the input buffer 240, and the variable length code is decoded here. Variable length decoding circuit 2
The output of 42 is inversely quantized by the inverse quantization circuit 244,
The inverse DCT circuit 246 performs an inverse discrete cosine transform and restores the data in the spatial domain.

【0059】スイッチ248はイントラ・フレームでは
a接点に接続し、それ以外のフレームではb接点に接続
する。逆DCT回路246の出力はスイッチ248のa
接点と、加算器252に印加され、加算器252の出力
がスイッチ248のb接点に印加されている。スイッチ
248の出力は出力バッファ254及び動き補償回路2
50に印加され、動き補償回路250の出力は加算器2
52に印加されている。これにより、イントラ・フレー
ムでは、逆DCT回路246の出力が、復元画像データ
として、スイッチ248及び出力バッファ254を介し
て外部に出力され、同時に、動き補償回路250に印加
される。動き補償回路250は、スイッチ248からの
復元画像データを動き補償し、次のフレーム間符号化フ
レームの参照フレームとして加算器252に印加する。
イントラ・フレーム以外では、加算器252は逆DCT
回路246の出力に動き補償回路250からの動き補償
データを加算し、その出力が復元画像データとしてスイ
ッチ248を介して出力バッファ254及び動き補償回
路250に印加される。
The switch 248 connects to the a contact in the intra frame, and connects to the b contact in the other frames. The output of the inverse DCT circuit 246 is a of the switch 248.
It is applied to the contact and the adder 252, and the output of the adder 252 is applied to the b contact of the switch 248. The output of the switch 248 is the output buffer 254 and the motion compensation circuit 2
50, and the output of the motion compensation circuit 250 is the adder 2
52 is applied. As a result, in the intra frame, the output of the inverse DCT circuit 246 is output to the outside as the restored image data via the switch 248 and the output buffer 254, and is simultaneously applied to the motion compensation circuit 250. The motion compensation circuit 250 motion-compensates the restored image data from the switch 248 and applies it to the adder 252 as a reference frame of the next inter-frame encoded frame.
Except for intra frames, adder 252 uses inverse DCT
The motion compensation data from the motion compensation circuit 250 is added to the output of the circuit 246, and the output is applied as the restored image data to the output buffer 254 and the motion compensation circuit 250 via the switch 248.

【0060】図示しない符号化識別回路が、入力バッフ
ァ240に入力する符号化データの符号化方式を識別
し、その識別結果に応じてスイッチ248を制御する。
An encoding identification circuit (not shown) identifies the encoding method of the encoded data input to the input buffer 240, and controls the switch 248 according to the identification result.

【0061】出力バッファ254は復元された画像デー
タを一時記憶すると共に、元の空間配置に並び換えて外
部に出力する。
The output buffer 254 temporarily stores the restored image data, rearranges the original spatial arrangement, and outputs the rearranged image data to the outside.

【0062】次に、ATM通信フォーマットを説明す
る。ATM通信では、図10に示すように、一連のビッ
ト・ストリームを複数の固定長パケットに分割し、各パ
ケットを複数(例えば、4つ)のATMセルで構成す
る。各ATMセルは、パケット・ヘッダとデータ用のペ
イロードとからなり、一般的に、パケット・ヘッダは5
バイト、データが48バイトとされている。ATM通信
は、ネットワークのビット・レートとは独立(非同期)
でデータを伝送でき、単位時間当たりの伝送セル数によ
って伝送レートを任意に設定できる。従って、種々のデ
ータを混在して伝送する伝送系に適している。
Next, the ATM communication format will be described. In ATM communication, as shown in FIG. 10, a series of bit streams is divided into a plurality of fixed length packets, and each packet is composed of a plurality (for example, four) ATM cells. Each ATM cell consists of a packet header and a payload for data, and in general, the packet header is 5
Bytes and data are 48 bytes. ATM communication is independent of network bit rate (asynchronous)
The data can be transmitted by, and the transmission rate can be set arbitrarily by the number of transmission cells per unit time. Therefore, it is suitable for a transmission system that transmits various data in a mixed manner.

【0063】図11は、パーソナル・コンピュータ46
の概略構成ブロック図である。図11を参照し、本実施
例でのコンピュータ46の構成を説明する。コンピュー
タ46は、扱うデータのデータ量と処理に要する転送速
度に応じて選択できる複数のデータ・バスを具備する。
即ち、本実施例では、16bitデータ・バスD1、3
2bitデータ・バスD2、64bitデータ・バスD
3、拡張バスとしての128bitデータ・バスD4及
びシステム・バスSBを備えている。通常のパーソナル
・コンピュータと同様に、このコンピュータ46も、機
能拡張を可能とする拡張ボード・インタフェースを備え
ており、このインターフェースに種々の拡張ボードを接
続することにより、所望の機能を拡張できる。
FIG. 11 shows a personal computer 46.
3 is a schematic configuration block diagram of FIG. The configuration of the computer 46 in this embodiment will be described with reference to FIG. The computer 46 has a plurality of data buses that can be selected according to the data amount of data to be handled and the transfer speed required for processing.
That is, in this embodiment, 16-bit data buses D1, 3
2-bit data bus D2, 64-bit data bus D
3. A 128-bit data bus D4 as an expansion bus and a system bus SB are provided. Like a normal personal computer, this computer 46 also has an expansion board interface that enables expansion of functions, and desired functions can be expanded by connecting various expansion boards to this interface.

【0064】310はネットワーク・インターフエ−ス
であり、内部にATM制御回路312を具備する。ネッ
トワーク・インターフェース310及び内部のATM制
御回路312を介して、上述の各伝送チャンネルとの間
で、各種データを授受できる。ATM制御回路312
は、ATMスイッチとしての機能のみならず、上述のA
TM−LANにおける輻輳制御等の各種通信制御の機能
を具備する。
Reference numeral 310 is a network interface, which has an ATM control circuit 312 inside. Through the network interface 310 and the internal ATM control circuit 312, various data can be exchanged with each of the above-mentioned transmission channels. ATM control circuit 312
Not only functions as an ATM switch, but also the above-mentioned A
It is provided with various communication control functions such as congestion control in the TM-LAN.

【0065】314は全体を制御するCPUである。C
PU314のほかに、サブCPUとして上記バス・シス
テムを制御するバス制御回路316及びビット変換器3
18を具備する。先に述べたように、本実施例のバス・
システムでは、処理するデータの容量及び処理速度に応
じて、いずれかのデータ・バスD1〜D4,SBを適宜
使い分けることによって、必要とされる処理能力を提供
する。
Reference numeral 314 is a CPU for controlling the whole. C
In addition to the PU 314, a bus control circuit 316 that controls the above bus system as a sub CPU and a bit converter 3
18 are provided. As described above, the bus of this embodiment
In the system, the required processing capacity is provided by appropriately using any one of the data buses D1 to D4, SB according to the capacity of data to be processed and the processing speed.

【0066】320はROM、322はメモリ制御回路
である。メモリ制御回路322は、外部記憶装置324
のハード・ディスク装置326及びCD−ROM装置3
28との間でデータを授受する。
Reference numeral 320 is a ROM and 322 is a memory control circuit. The memory control circuit 322 uses the external storage device 324.
Hard disk drive 326 and CD-ROM drive 3
Data is exchanged with 28.

【0067】330は画像編集時等におけるデータの位
相管理等を行なう編集制御回路である。
An edit control circuit 330 controls the phase of data when editing an image.

【0068】332は表示制御回路であり、この表示制
御回路332から出力される画像データは、メモリ33
4を介してCRTディスプレイ336及び/又はFLC
ディスプレイ338に印加される、これらにより可視像
表示される。表示制御回路332はまた、表示デバイス
の種類に応じた周知の処理を行なう。
Reference numeral 332 is a display control circuit, and the image data output from the display control circuit 332 is stored in the memory 33.
CRT display 336 and / or FLC via 4
These are applied to the display 338, and a visible image is displayed by them. The display control circuit 332 also performs known processing according to the type of display device.

【0069】340はプリンタ制御回路である。プリン
タ制御回路340は、プリントすべきデータをメモリ3
42を介して熱転写プリンタ344又はインクジェット
方式と熱転写方式などのように複数の方式に対応するハ
イブリッド・プリンタ346に印加する。プリンタ制御
回路340は、プリントすべき画像データに応じて、プ
リンタ344,346を使い分ける。表示用と印刷用で
メモリ334,342を共用するようにしてもよい。
Reference numeral 340 is a printer control circuit. The printer control circuit 340 stores data to be printed in the memory 3
It is applied via 42 to a thermal transfer printer 344 or a hybrid printer 346 compatible with a plurality of methods such as an inkjet method and a thermal transfer method. The printer control circuit 340 selectively uses the printers 344 and 346 according to the image data to be printed. The memories 334 and 342 may be shared for display and printing.

【0070】348は画像データを符号化復号化するコ
ーデックである。本実施例では、先に説明したように、
JPEG方式及びMPEG方式に対応している。
Reference numeral 348 is a codec for coding and decoding image data. In this embodiment, as described above,
It supports the JPEG system and the MPEG system.

【0071】350は拡張ボード・インタフェースであ
り、このインターフェース350を介して各種の拡張ボ
ード352,354,356を接続でき、機能を拡張で
きる。
Reference numeral 350 is an expansion board interface, and various expansion boards 352, 354, 356 can be connected through this interface 350 to expand the function.

【0072】358はマウス/キーボード制御回路であ
り、この制御回路358を介してキーボード360及び
マウス362が接続する。
Reference numeral 358 denotes a mouse / keyboard control circuit, and the keyboard 360 and the mouse 362 are connected via this control circuit 358.

【0073】364は音声処理回路、366は音声を出
力するスピーカである。
Reference numeral 364 is a voice processing circuit, and 366 is a speaker for outputting voice.

【0074】このコンピュータにはまた、システム・ポ
ート368を介して手書き入力機器370、音声マイク
372、ビデオ・カメラ374及びイメージ・スキャナ
376が接続する。
A handwriting input device 370, a voice microphone 372, a video camera 374 and an image scanner 376 are also connected to the computer via the system port 368.

【0075】図11に示す構成のコンピュータは、デー
タ・バスD1,D2,D3,D4、バス制御回路316
及びビット変換器318からなるバス・システムにおい
て、データ量や処理に要する転送・処理速度等に応じて
最適なデータ・バスを選択的に使用する。
The computer having the configuration shown in FIG. 11 has data buses D1, D2, D3, D4 and a bus control circuit 316.
In the bus system including the bit converter 318, the optimum data bus is selectively used according to the amount of data, the transfer / processing speed required for processing, and the like.

【0076】拡張ボード・インターフェース350に接
続される拡張ボード352,354,356によって所
望の機能を拡張できる。例えば、上述の各プロフィール
に対応した符号化・復号化を行なうコーデック拡張ボー
ドを接続することによって、それらの処理を行なえるよ
うになる。
The desired functions can be expanded by the expansion boards 352, 354, 356 connected to the expansion board interface 350. For example, by connecting a codec expansion board that performs encoding / decoding corresponding to each profile described above, these processes can be performed.

【0077】図12を参照して、図11におけるコーデ
ック348の構成を説明する。図12に示すように、コ
ーデック348は、データ・バス410、システム・バ
ス412に各種機能ブロックが接続される構成になって
いる。コンピュータ本体のシステム・バスSB及び各デ
ータ・バスSD1〜D4とは、マイコン・インターフェ
ース414及びデータ・インタフェース416を介して
種々のデータを授受するようになっている。
The configuration of the codec 348 in FIG. 11 will be described with reference to FIG. As shown in FIG. 12, the codec 348 has a configuration in which various functional blocks are connected to the data bus 410 and the system bus 412. Various data is transmitted and received to and from the system bus SB of the computer main body and the respective data buses SD1 to D4 via the microcomputer interface 414 and the data interface 416.

【0078】418はコーデック全体を動作制御するC
PUである。CPU418は、RAM420に予め記憶
されたプログラムに基づいて、符号化及び復号化のため
の処理を各部に実行させる。
Reference numeral 418 is C for controlling the operation of the entire codec.
It is PU. The CPU 418 causes each unit to execute processing for encoding and decoding based on a program stored in the RAM 420 in advance.

【0079】422は入力符号化データにおけるスター
ト・コード(タイムコード)、各種ヘッダ等の制御コー
ド及び符号化データを検出するコード検出器である。コ
ード検出器422で検出された各コードは、データ・バ
ス410又はシステム・バス412を介してCPU41
8に伝送し、各部の制御に利用される。検出されたコー
ドは又、各機能ブロックが必要に応じて参照できるよう
に、パラメータ・メモリ424に記憶される。
A code detector 422 detects a start code (time code) in the input coded data, control codes such as various headers, and the coded data. Each code detected by the code detector 422 is sent to the CPU 41 via the data bus 410 or the system bus 412.
8 and used for controlling each part. The detected code is also stored in the parameter memory 424 so that each functional block can refer to it as needed.

【0080】426は動き補償ユニット、428はレー
ト制御ユニット、430は符号化バッファ・ユニット、
432は復号化バッファ・ユニットである。符号化バッ
ファ・ユニット430を介して伝送される入力画像デー
タ、又は動き補償ユニット426から伝送される動きベ
クトル・データ及び差分値は、DCT回路及び逆DCT
回路からなる変換ユニット434、量子化回路及び逆量
子化回路からなる量子化ユニット436及び可変長符号
化回路及び可変長復号化回路からなる可変長符号化ユニ
ット438により順次処理されて、出力バッファとして
機能する復号化バッファ432にメモリされ、CPU4
18により指示される所定タイミングでデータ・バス4
10及びインタフェース416を介してデータ・バスD
1〜D4に出力される。
426 is a motion compensation unit, 428 is a rate control unit, 430 is an encoding buffer unit,
432 is a decoding buffer unit. The input image data transmitted through the encoding buffer unit 430, or the motion vector data and the difference value transmitted from the motion compensation unit 426 may be input to the DCT circuit and the inverse DCT.
A conversion unit 434 composed of a circuit, a quantization unit 436 composed of a quantization circuit and an inverse quantization circuit, and a variable length coding unit 438 composed of a variable length coding circuit and a variable length decoding circuit are sequentially processed to serve as an output buffer. CPU 4 stored in a functional decoding buffer 432
Data bus 4 at a predetermined timing designated by 18.
10 and data bus D via interface 416
1 to D4.

【0081】なお、量子化ユニット436及び可変長符
号化ユニット438にはそれぞれ、量子化テーブル44
0及びハフマン・テーブル442が付属している。これ
らユニット436,438における処理を実行する上で
必要な量子化ステップやハフマン・コード等の各種パラ
メータが、上記パラメータ・メモリ424からこれらの
テーブル440,442に適宜に転送されるようになっ
ている。
The quantization unit 436 and the variable length coding unit 438 respectively include the quantization table 44.
0 and Huffman table 442 are included. Various parameters such as quantization step and Huffman code necessary for executing the processing in these units 436 and 438 are appropriately transferred from the parameter memory 424 to these tables 440 and 442. .

【0082】復号化されるべき符号化データは、復号化
バッファ432、可変長符号化ユニット438、量子化
ユニット436及び変換ユニット434を介して処理さ
れて、出力バッファとして機能する符号化バッファ43
0にメモリされ、CPU418により指示される所定タ
イミングでデータ・バス410及びインタフェース41
6を介してデータ・バスD1〜D4に出力される。
The coded data to be decoded is processed through the decoding buffer 432, the variable length coding unit 438, the quantization unit 436 and the conversion unit 434, and the coding buffer 43 functioning as an output buffer.
0, and the data bus 410 and the interface 41 at a predetermined timing instructed by the CPU 418.
It is output to the data buses D1 to D4 via 6.

【0083】動き補償ユニット426は、レファレンス
・バッファ444を用いて、符号化時及び復号化時にお
けるPフレーム及びBフレームの動き補償を行なう。本
実施例では、動き補償ユニット426は、JPEG符号
化におけるDC成分の差分値を得る処理にも共用され
る。
The motion compensation unit 426 uses the reference buffer 444 to perform motion compensation of P frames and B frames during encoding and decoding. In this embodiment, the motion compensation unit 426 is also used for the process of obtaining the difference value of the DC component in JPEG encoding.

【0084】446はバス・アービタであり、パイプラ
イン処理等におけるデータ・バス410の利用権を調停
する。
A bus arbiter 446 arbitrates the right to use the data bus 410 in pipeline processing and the like.

【0085】このような構成のコーデックは、コンピュ
ータ本体のCPU314からの指示を受けて、CPU4
18が、所定の各ユニットを動作させ、画像データを符
号化し、又は符号化画像データを復号化する。
The codec having such a configuration receives the instruction from the CPU 314 of the computer main body and receives the instruction from the CPU 4
18 operates each predetermined unit to encode image data or decode encoded image data.

【0086】また、このコーデックでは、同時に複数系
統の符号化及び復号化を行なう場合、符号化と復号化を
同時に並行処理する場合、又は、コンピュータ本体にお
ける通信、表示及び印刷等の各種処理と符号化・復号化
処理を並行して行なう場合等、各種の処理態様に応じて
最適なシーケンスで上記各ユニットへのデータ転送及び
動作を制御する。このシーケンスに対応した動作プログ
ラムは、RAM420に予め記憶されている。
Further, in this codec, when a plurality of systems of encoding and decoding are performed at the same time, when encoding and decoding are simultaneously processed in parallel, or various processing and encoding such as communication, display and printing in the computer main body are performed. In the case where the encryption / decryption processing is performed in parallel, the data transfer to each unit and the operation are controlled in an optimum sequence according to various processing modes. The operation program corresponding to this sequence is stored in the RAM 420 in advance.

【0087】なお、RAM420に記憶されたプログラ
ムは、適宜に更新できるようになっている。
The program stored in the RAM 420 can be updated appropriately.

【0088】以上に説明した実施例では、テレビ会議に
おけるようなリアルタイム動画像通信は、以下のように
行なわれる。即ち、図11に示すような構成を有するコ
ンピュータ46が、図1に示すように、ATMネットワ
ーク30又はLAN32,34に接続されているとす
る。ビデオ・カメラ374(図11)により入力された
動画像は、システム・ポート368中の動画入力インタ
ーフェース(図示せず。)によりSIFフォーマットに
変換される。変換されたディジタル・データY,Cr,
Cbは、データ・バスD4を介してコーデック348に
転送され、図6で説明したMPEGデータに図7で説明
したようにして符号化される。本実施例では、1秒当た
り30フレームのSIFデータがリアルタイムで符号化
される。
In the above-described embodiment, real-time moving image communication as in a video conference is performed as follows. That is, it is assumed that the computer 46 having the configuration shown in FIG. 11 is connected to the ATM network 30 or the LANs 32 and 34 as shown in FIG. The moving image input by the video camera 374 (FIG. 11) is converted to the SIF format by the moving image input interface (not shown) in the system port 368. Converted digital data Y, Cr,
Cb is transferred to the codec 348 via the data bus D4 and encoded into the MPEG data described in FIG. 6 as described in FIG. In this embodiment, 30 frames per second of SIF data are encoded in real time.

【0089】このようにして得られたMPEGデータは
データ・バスD3を介してネットワーク・インターフェ
ース310からLAN32に送出され、他のコンピュー
タに転送される。MPEGデータを受信したコンピュー
タも、コンピュータ46と同様に図11に示す構成を具
備し、ネットワーク・インターフェース310及びデー
タ・バスD3を介してMPEGデータを取り込み、コー
デック348により復号化する。復号化処理は、図7で
説明したように行なわれる。復号されたSIFデータ
Y,Cr,Cbは、データ・バスD4を介して表示制御
回路332に転送され、RGB信号に変換される。表示
制御回路332は、そのRGBデータをメモリ334を
介してCRTディスプレイ336に印加し、画像表示さ
せる。
The MPEG data thus obtained is sent from the network interface 310 to the LAN 32 via the data bus D3 and transferred to another computer. The computer that receives the MPEG data also has the configuration shown in FIG. 11 similarly to the computer 46, takes in the MPEG data via the network interface 310 and the data bus D3, and decodes it by the codec 348. The decoding process is performed as described with reference to FIG. The decoded SIF data Y, Cr, Cb are transferred to the display control circuit 332 via the data bus D4 and converted into RGB signals. The display control circuit 332 applies the RGB data to the CRT display 336 via the memory 334 to display an image.

【0090】このような、SIFフォーマットの動画像
の符号化、送信、受信、復号化及び表示が、毎秒30フ
レームの速さで実行される。同時に、逆の経路でも動画
像が伝送される。
The encoding, transmission, reception, decoding and display of the SIF format moving image as described above are executed at a rate of 30 frames per second. At the same time, the moving image is transmitted through the reverse route.

【0091】映像と同時に、音声も伝送される。音声
は、マイク372から入力され、システム・ポート36
8中のA/D変換器によりディジタル信号に変換され、
システム7・バスD1を介して音声処理回路364に転
送される。音声処理回路364は、入力する音声データ
を符号化する。符号化された音声データは、ネットワー
ク・インターフェース310を介して相手のコンピュー
タに送信される。符号化音声データを受信すべきコンピ
ュータは、ネットワーク・インターフェース310によ
り符号化音声データを取り込み、音声処理回路364に
より復号化して、スピーカ366から音声出力する。逆
方向にも、同様にして音声が伝送される。
Audio is transmitted at the same time as the video. The voice is input from the microphone 372, and the system port 36
Converted to a digital signal by the A / D converter in 8.
It is transferred to the audio processing circuit 364 via the system 7 / bus D1. The voice processing circuit 364 encodes the input voice data. The encoded voice data is transmitted to the partner computer via the network interface 310. The computer which should receive the encoded voice data takes in the encoded voice data by the network interface 310, decodes it by the voice processing circuit 364, and outputs the voice from the speaker 366. Audio is similarly transmitted in the opposite direction.

【0092】このように、MPEG方式でリアルタイム
動画像伝送が行なわれている最中に、高精細なカラー静
止画像を迅速に相手コンピュータに伝送したい場合、本
実施例でも、次のように処理される。即ち、静止画像は
イメージ・スキャナ376により入力される。本実施例
では、A4サイズを400dpiの解像度で画像入力す
るとする。入力された画像データは、システム・ポート
368及びシステム・バスSBを介してコーデック34
8に転送される。コーデック348は、入力した画像デ
ータをJPEG方式で符号化する。符号化された画像デ
ータは、システム・バスD2及びネットワーク・インタ
ーフェース310を介してLAN上に出力され、当該L
ANに接続する他のコンピュータに転送される。
As described above, when it is desired to quickly transmit a high-definition color still image to the other computer during real-time moving image transmission by the MPEG system, the present embodiment also performs the following processing. It That is, the still image is input by the image scanner 376. In this embodiment, it is assumed that an A4 size image is input with a resolution of 400 dpi. The input image data is transmitted to the codec 34 via the system port 368 and the system bus SB.
8 is transferred. The codec 348 encodes the input image data by the JPEG method. The encoded image data is output to the LAN via the system bus D2 and the network interface 310, and the L
It is transferred to another computer connected to the AN.

【0093】JPEGデータを受信したコンピュータ
も、図11に示すのと同じ構成を有するものとすると、
LAN上のデータはネットワーク・インターフェース3
10により取り込まれ、データ・バスD2を介してコー
デック348に転送され、復号化される。コーデック3
48で復元された画像データは、図13に示すフォーマ
ットになっており、データ・バスD2、ネットワーク・
インターフェース310及びLAN34を介してカラー
・プリンタ38に転送され、印刷出力される。
If the computer that receives the JPEG data also has the same configuration as shown in FIG.
Data on LAN is network interface 3
10 is taken in, transferred to the codec 348 via the data bus D2, and decoded. Codec 3
The image data restored in 48 has the format shown in FIG. 13, and the data bus D2, network
It is transferred to the color printer 38 via the interface 310 and the LAN 34 and printed out.

【0094】高精細なカラー静止画像の場合、データ量
が膨大になるので、1枚の画像を伝送する、即ち、符号
化から復号化及び出力(表示)するまでには、動画伝送
に比べ非常に時間がかかる。この意味で、高精細カラー
静止画像は、通常、動画像伝送のような意味でのリアル
タイム伝送が不可能又は極めて困難である。この問題に
対し、本実施例では、以下のように処置することで、実
質的に動画像伝送とほぼ同じレベルでのリアルタイム伝
送を実現した。
In the case of a high-definition color still image, the amount of data becomes enormous, so that one image transmission, that is, from encoding to decoding and output (display), is much more difficult than moving image transmission. Takes time. In this sense, high-definition color still images are usually impossible or extremely difficult to be transmitted in real time in the same way as moving image transmission. In order to solve this problem, in this embodiment, the following measures are taken to realize real-time transmission at substantially the same level as moving image transmission.

【0095】即ち、スキャナ376で読み取られた図1
3に示すフォーマットの画像を、JPEG符号化して送
信すると同時に、図9に示すSIFフォーマットに変換
する。具体的には、CPU314が、システム・ポート
368の出力画像データを取り込み、長手方向を約1/
13、短手方向を1/7に縮小して、SIFフォーマッ
トに変換する。縮小技術には、公知のスムージング・サ
ブサンプリング法又は投影法を用いればよい。
That is, FIG. 1 read by the scanner 376.
The image of the format shown in FIG. 3 is JPEG encoded and transmitted, and at the same time, converted into the SIF format shown in FIG. Specifically, the CPU 314 takes in the output image data of the system port 368 and sets the longitudinal direction to about 1 /
13. Reduce the widthwise direction to 1/7 and convert to SIF format. A known smoothing subsampling method or projection method may be used for the reduction technique.

【0096】SIFフォーマットの静止画像を動画像と
同じ速度で伝送するために、その符号データを以下のよ
うに、MPEG符号の中に挿入し、動画像と一緒に伝送
する。
In order to transmit a still image in SIF format at the same speed as a moving image, its code data is inserted into an MPEG code and transmitted together with the moving image as follows.

【0097】先に説明したように、ビデオ・カメラ37
4から常時入力されている動画像はMPEG方式により
リアルタイム符号化されている。図5及び図6で説明し
たように、MPEGデータは、フレーム内符号化されて
いるIピクチャと、前方予測符号化されているPピクチ
ャと、両方向予測符号化されているBピクチャとからな
り、Iピクチャを先頭にGOP層が形成されている。各
ピクチャの先頭には、Iピクチャ、Pピクチャ及びBピ
クチャの何れであるかを特定するピクチャ・ヘッダがあ
る。
As described above, the video camera 37
The moving image that is always input from 4 is encoded in real time by the MPEG method. As described with reference to FIGS. 5 and 6, the MPEG data is composed of an intra-frame encoded I picture, a forward predictive encoded P picture, and a bidirectional predictive encoded B picture. A GOP layer is formed starting from the I picture. At the beginning of each picture, there is a picture header that specifies which of I picture, P picture, and B picture.

【0098】SIFフォーマット化された静止画データ
は、MPEG方式のイントラ符号化方式で符号化され、
Iピクチャに変換される。このピクチャ・データにピク
チャ・ヘッダが付加され、図14(B)に示すようにI
ピクチャ1枚のみの符号構成にされる。ピクチャ・ヘッ
ダには、静止画1枚のみであることを示す情報が、その
ユーザ・データ領域に書き込まれる。この符号化静止画
データは、図14(A)に示すように、リアルタイム符
号化されているMPEG符号(ビット・ストリーム)の
Iピクチャの直前に挿入される。挿入タイミングは、静
止画像のイントラ符号化終了後に最初にMPEGビット
・ストリーム中に出現するIピクチャの直前である。
The SIF-formatted still image data is encoded by the MPEG intra-encoding system,
Converted to an I picture. A picture header is added to this picture data, and as shown in FIG.
The code configuration has only one picture. In the picture header, information indicating that there is only one still image is written in the user data area. As shown in FIG. 14A, this encoded still image data is inserted immediately before the I picture of the MPEG code (bit stream) which is encoded in real time. The insertion timing is immediately before the I picture that first appears in the MPEG bit stream after the intra-coding of the still image is completed.

【0099】このように静止画イントラ・フレームを含
むMPEGビット・ストリームは、受信側のコーデック
で認識され、動画像再生とは別に静止画再生される。静
止画は、図15に示すように、動画とは別のウインドウ
に表示されるように、CPU314が表示制御回路33
2を制御する。
As described above, the MPEG bit stream including the still image intra frame is recognized by the codec on the receiving side, and the still image is reproduced separately from the moving image reproduction. As shown in FIG. 15, the CPU 314 causes the display control circuit 33 to display the still image in a window different from the moving image.
Control 2

【0100】このように、静止画をSIFフォーマット
に変換し、動画ビット・ストリームと一緒に伝送するこ
とにより、静止画をリアルタイムで伝送でき、受信側で
モニタ画面に表示できる。SIFに縮小変換する前の高
精細カラー静止画像は、先に説明したように、別にJP
EG符号化されて送信されるので、受信側は、必要に応
じて印刷出力又はモニタ出力すればよい。また、編集及
びファイリングについては、高精細画像の方を利用でき
る。
As described above, by converting the still image into the SIF format and transmitting it together with the moving image bit stream, the still image can be transmitted in real time and can be displayed on the monitor screen on the receiving side. As described above, the high-definition color still image before reduction conversion to SIF has a separate JP
Since it is EG-encoded and transmitted, the receiving side may perform printout or monitor output as necessary. For editing and filing, high definition images can be used.

【0101】上記実施例では、動画像及び静止画像をネ
ットワーク・インターフェース310を介してLANに
より伝送したが、ATMネットワークを介しても同様に
行なえることは明らかである。この場合、ATM制御回
路312は、図10に示すパケットによりMPEGビッ
ト・ストリーム及びJPEGビット・ストリームを伝送
する。通信回線はISDN等の公衆回線であってもよ
い。図11の拡張ボード・インターフェース350にI
SDNインターフェース・ボードを接続する。
In the above embodiment, the moving image and the still image were transmitted via the LAN via the network interface 310, but it is obvious that the same can be done via the ATM network. In this case, the ATM control circuit 312 transmits the MPEG bit stream and the JPEG bit stream by the packet shown in FIG. The communication line may be a public line such as ISDN. I on the extension board interface 350 of FIG.
Connect the SDN interface board.

【0102】また、動画像伝送のための符号化方式とし
てMPEG方式を、高精細カラー静止画像の符号化方式
としてJPEG方式を採用したが、他の符号化方式であ
ってもよい。例えば、動画像用にはITU−T勧告H.
261があり、静止画用にはJBIG方式がある。
Further, although the MPEG system and the JPEG system are adopted as the coding system for moving image transmission and the high-definition color still image coding system, other coding systems may be used. For example, for moving images, ITU-T Recommendation H.264.
261 and the JBIG system for still images.

【0103】本発明の適用例として、CATV等の放送
動画像に静止画を挿入することもできる。この場合、C
ATV局56は、送信(放送)すべき動画像に、先に説
明したように静止画像を挿入して、一緒に送信する。静
止画像を含むビット・ストリームは、ATMネットワー
ク30を介して伝送される。ATMネットワーク30に
接続するコンピュータ(例えば、46)は、この伝送デ
ータを取り込んで復号化し、図15に示すように、動画
像を動画ウインドウに、静止画を静止画ウインドウに表
示する。静止画には、種々の情報を付加することができ
る。
As an application example of the present invention, a still image can be inserted in a broadcast moving image such as CATV. In this case, C
The ATV station 56 inserts the still image as described above into the moving image to be transmitted (broadcast), and transmits it together. The bit stream containing the still image is transmitted over the ATM network 30. A computer (for example, 46) connected to the ATM network 30 takes in and decodes this transmission data, and displays a moving image in the moving image window and a still image in the still image window, as shown in FIG. Various information can be added to the still image.

【0104】静止画は必ずしもイメージ・スキャナから
入力する必要は無く、スチル・ビデオ・カメラから入力
した画像、又は、コンピュータ上で作成した画像又はド
キュメントであってもよい。
The still image does not necessarily have to be input from the image scanner, and may be an image input from a still video camera or an image or document created on a computer.

【0105】本発明は又、ディジタルVTR54で動画
を記録する場合に、静止画を付加情報として記録すると
いう用途にも利用できる。
The present invention can also be used for recording a still image as additional information when recording a moving image with the digital VTR 54.

【0106】[0106]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、静止画像をフレーム内符号化して
動画像の符号中に挿入することにより、動画像と同様に
リアルタイムで静止画像を伝送できる。
As can be easily understood from the above description, according to the present invention, a still image can be encoded in a frame and inserted into the code of the moving image, so that the still image can be displayed in real time like the moving image. Can be transmitted.

【0107】高精細静止画像のようにサイズの大きい静
止画像については、原寸サイズの静止画を符号化送信す
ると同時に、動画と同様のサイズに縮小して符号化し、
動画符号のフレーム内符号として送信する。これによ
り、縮小画像ではあるが、リアルタイム伝送を実現で
き、且つ、高精細画像も伝送できる。
For a still image having a large size such as a high-definition still image, a full size still image is encoded and transmitted, and at the same time, it is reduced to the same size as a moving image and encoded.
It is transmitted as the intra-frame code of the moving image code. As a result, although it is a reduced image, real-time transmission can be realized and a high-definition image can be transmitted.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例を利用するシステム構成の
概略構成ブロック図である。
FIG. 1 is a schematic configuration block diagram of a system configuration using an embodiment of the present invention.

【図2】 JPEGデータのデータ構造図である。FIG. 2 is a data structure diagram of JPEG data.

【図3】 JPEG符号化装置の概略構成ブロック図で
ある。
FIG. 3 is a schematic configuration block diagram of a JPEG encoding device.

【図4】 JPEG復号化装置の概略構成ブロック図で
ある。
FIG. 4 is a schematic block diagram of a JPEG decoding device.

【図5】 MPEG符号化方式のフレーム構成を示す図
である。
[Fig. 5] Fig. 5 is a diagram showing a frame structure of an MPEG encoding system.

【図6】 MPEGデータのデータ構造図である。FIG. 6 is a data structure diagram of MPEG data.

【図7】 MPEG符号化装置の概略構成ブロック図で
ある。
FIG. 7 is a schematic block diagram of an MPEG encoding device.

【図8】 MPEG復号化装置の概略構成ブロック図で
ある。
FIG. 8 is a schematic block diagram of an MPEG decoding device.

【図9】 画像の各種フォーマットを示す図である。FIG. 9 is a diagram showing various formats of an image.

【図10】 ATMフォーマットを示す図である。FIG. 10 is a diagram showing an ATM format.

【図11】 コンピュータ46の概略構成ブロック図で
ある。
FIG. 11 is a schematic block diagram of a computer 46.

【図12】 コーデック348の概略構成ブロック図で
ある。
FIG. 12 is a schematic block diagram of a codec 348.

【図13】 高精細カラー静止画像のフォーマットであ
る。
FIG. 13 is a format of a high-definition color still image.

【図14】 本実施例におけるビデオ・シーケンスであ
る。
FIG. 14 is a video sequence according to the present embodiment.

【図15】 動画像と静止画像を別に表示する表示画面
例である。
FIG. 15 is an example of a display screen that separately displays a moving image and a still image.

【図16】 テレビ会議システムの概略構成図である。FIG. 16 is a schematic configuration diagram of a video conference system.

【図17】 ファクシミリ通信の基本接続構成図であ
る。
FIG. 17 is a basic connection configuration diagram of facsimile communication.

【図18】 書画カメラの外観の略図である。FIG. 18 is a schematic view of the appearance of a document camera.

【符号の説明】[Explanation of symbols]

10A,10B:コンピュータ 12:通信回線 14A,14B:テレビ会議用ボード 16A,16B:ビデオ・カメラ 18A,18B:モニタ 20A,20B:ファクシミリ装置 22:通信回線 30:ATMネットワーク 32,34:ローカル・エリア・ネットワーク(LA
N) 36:ファクシミリ装置 38:カラー・プリンタ 40:カラー複写機 42:ファイル・サーバ 44:ワークステーション 46:パーソナルコンピュータ(PC) 48:ファイル・サーバ 50:カラー複写機 52:ディジタル・テレビ 54:ディジタル・ビデオ・テープ・レコーダ 56:CATV局 58:ルータ 60:ルータ 110:ブロック化回路 112:離散コサイン変換回路 114:量子化回路 116:差分回路 118:ハフマン符号化回路 120:スキャン回路 122:係数判定回路 124:ランレングス・カウンタ 126:グループ化回路 128:ハフマン符号化回路 130:付加回路 132:復号化回路 134:加算器 136:並び換え回路 138:逆量子化回路 140:逆DCT回路 210:ブロック化回路 212:減算器 214:スイッチ 216:DCT回路 218:量子化回路 220:可変長符号化回路 222:バッファ 224:付加回路 226:レート制御回路 228:逆量子化回路 230:逆DCT回路 232:加算器 234:動きベクトル検出回路 236:動き補償回路 238:スイッチ 240:入力バッファ 242:可変長復号化回路 244:逆量子化回路 246:逆DCT回路 248:スイッチ 250:動き補償回路 252:加算器 254:出力バッファ 310:ネットワーク・インターフエ−ス 312:ATM制御回路 314:CPU 316:バス御回路 318:ビット変換器 320:ROM 322:メモリ制御回路 324:外部記憶装置 326:ハード・ディスク装置 328:CD−ROM装置 330:編集制御回路 332:表示制御回路 334:メモリ 336:CRTディスプレイ 338:FLCディスプレイ 340:プリンタ制御回路 342:メモリ 344:熱転写プリンタ 346:ハイブリッド・プリンタ 348:コーデック 350:拡張ボード・インタフェース 352,354,356:拡張ボード 358:マウス/キーボード制御回路 360:キーボード 362:マウス 364:音声処理回路 366:スピーカ 368:システム・ポート 370:手書き入力機器 372:音声マイク 374:ビデオ・カメラ 376:イメージ・スキャナ 410:データ・バス 412:システム・バス 414:マイコン・インターフェース 416:データ・インタフェース 418:CPU 420:RAM 422:コード検出器 424:パラメータ・メモリ 426:動き補償ユニット 428:レート制御ユニット 430:符号化バッファ・ユニット 432:復号化バッファ・ユニット 434:変換ユニット 436:量子化ユニット 438:可変長符号化ユニット 440:量子化テーブル 442:ハフマン・テーブル 444:レファレンス・バッファ 446:バス・アービタ D1,D2,D3,D4:データ・バス SB:システム・バス
10A, 10B: Computer 12: Communication line 14A, 14B: Video conference board 16A, 16B: Video camera 18A, 18B: Monitor 20A, 20B: Facsimile device 22: Communication line 30: ATM network 32, 34: Local area・ Network (LA
N) 36: Facsimile device 38: Color printer 40: Color copying machine 42: File server 44: Workstation 46: Personal computer (PC) 48: File server 50: Color copying machine 52: Digital television 54: Digital -Video tape recorder 56: CATV station 58: Router 60: Router 110: Blocking circuit 112: Discrete cosine transform circuit 114: Quantization circuit 116: Difference circuit 118: Huffman coding circuit 120: Scan circuit 122: Coefficient determination Circuit 124: Run length counter 126: Grouping circuit 128: Huffman coding circuit 130: Additional circuit 132: Decoding circuit 134: Adder 136: Rearrangement circuit 138: Inverse quantization circuit 140: Inverse DCT circuit 210: Block Circuit 212: Subtractor 214: Switch 216: DCT circuit 218: Quantization circuit 220: Variable length coding circuit 222: Buffer 224: Additional circuit 226: Rate control circuit 228: Inverse quantization circuit 230: Inverse DCT circuit 232: Addition 234: Motion vector detection circuit 236: Motion compensation circuit 238: Switch 240: Input buffer 242: Variable length decoding circuit 244: Inverse quantization circuit 246: Inverse DCT circuit 248: Switch 250: Motion compensation circuit 252: Adder 254 : Output buffer 310: Network interface 312: ATM control circuit 314: CPU 316: Bus control circuit 318: Bit converter 320: ROM 322: Memory control circuit 324: External storage device 326: Hard disk device 328: CD-ROM device 3 0: Edit control circuit 332: Display control circuit 334: Memory 336: CRT display 338: FLC display 340: Printer control circuit 342: Memory 344: Thermal transfer printer 346: Hybrid printer 348: Codec 350: Expansion board interface 352, 354 , 356: Expansion board 358: Mouse / keyboard control circuit 360: Keyboard 362: Mouse 364: Audio processing circuit 366: Speaker 368: System port 370: Handwriting input device 372: Audio microphone 374: Video camera 376: Image scanner 410: Data Bus 412: System Bus 414: Microcomputer Interface 416: Data Interface 418: CPU 420: RAM 422: Code Detector 24: Parameter memory 426: Motion compensation unit 428: Rate control unit 430: Encoding buffer unit 432: Decoding buffer unit 434: Transform unit 436: Quantization unit 438: Variable length coding unit 440: Quantization table 442: Huffman table 444: Reference buffer 446: Bus arbiter D1, D2, D3, D4: Data bus SB: System bus

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 動画像データを入力する動画像入力手段
と、 静止画像データを入力する静止画像入力手段と、 前記動画像入力手段により入力された動画像データを、
画面内符号化及び画面間符号化を用いて符号化する符号
化手段と、 前記静止画像入力手段により入力された静止画像データ
を前記符号化手段の方式の画面内符号化により符号化
し、前記符号化手段により符号化された動画像符号化デ
ータ中に、前記符号化された静止画像データを挿入して
出力する出力手段とを有することを特徴とする画像伝送
装置。
1. A moving image input unit for inputting moving image data, a still image input unit for inputting still image data, and moving image data input by the moving image input unit,
Coding means for coding using intra-picture coding and inter-picture coding, and still picture data inputted by the still picture input means is coded by intra-picture coding of the method of the coding means, An image transmission device comprising: an output unit that inserts the encoded still image data into the encoded moving image data encoded by the encoding unit and outputs the inserted still image data.
【請求項2】 前記符号化された静止画像データは前記
動画像データのフレームサイズに解像度変換されて符号
化されている請求項1に記載の画像伝送装置。
2. The image transmission apparatus according to claim 1, wherein the encoded still image data is resolution-converted into a frame size of the moving image data and encoded.
【請求項3】 更に、前記静止画像入力手段により入力
された静止画像データを符号化し、出力する第2の符号
化手段を有する請求項2に記載の画像伝送装置。
3. The image transmission device according to claim 2, further comprising second encoding means for encoding and outputting still image data input by said still image input means.
【請求項4】 前記第2の符号化手段はJPEG方式に
より画像データを符号化する請求項3に記載の画像伝送
装置。
4. The image transmission device according to claim 3, wherein the second encoding means encodes image data by a JPEG system.
【請求項5】 前記第2の符号化手段はJBIG方式に
より画像データを符号化する請求項3に記載の画像伝送
装置。
5. The image transmission device according to claim 3, wherein the second encoding means encodes image data by the JBIG method.
【請求項6】 前記符号化手段はMPEG方式により画
像データを符号化する請求項1、4又は5に記載の画像
伝送装置。
6. The image transmission device according to claim 1, 4 or 5, wherein said encoding means encodes image data by an MPEG system.
【請求項7】 前記符号化手段はITU−T勧告H.2
61方式により画像データを符号化する請求項1、4又
は5に記載の画像伝送装置。
7. The encoding means is ITU-T Recommendation H.264. Two
The image transmission device according to claim 1, wherein the image data is encoded by the 61 system.
JP1612095A 1995-02-02 1995-02-02 Image transmission equipment Pending JPH08214314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1612095A JPH08214314A (en) 1995-02-02 1995-02-02 Image transmission equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1612095A JPH08214314A (en) 1995-02-02 1995-02-02 Image transmission equipment

Publications (1)

Publication Number Publication Date
JPH08214314A true JPH08214314A (en) 1996-08-20

Family

ID=11907663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1612095A Pending JPH08214314A (en) 1995-02-02 1995-02-02 Image transmission equipment

Country Status (1)

Country Link
JP (1) JPH08214314A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667612B1 (en) * 1999-06-08 2007-01-15 소니 가부시끼 가이샤 Image processing apparatus, image processing method, and storage medium
JP2009044282A (en) * 2007-08-07 2009-02-26 Sharp Corp Digital video data reproduction apparatus and display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667612B1 (en) * 1999-06-08 2007-01-15 소니 가부시끼 가이샤 Image processing apparatus, image processing method, and storage medium
JP2009044282A (en) * 2007-08-07 2009-02-26 Sharp Corp Digital video data reproduction apparatus and display device

Similar Documents

Publication Publication Date Title
US5761438A (en) Apparatus for measuring the amount of traffic of a network at a predetermined timing and compressing data in the packet without changing the size of the packet
EP1486065B1 (en) Method for coding motion in a video sequence
JP3651941B2 (en) Image playback device
JP3432009B2 (en) Communication method and device
JPH08123681A (en) Management system and terminal device
JPH07123447A (en) Method and device for recording image signal, method and device for reproducing image signal, method and device for encoding image signal, method and device for decoding image signal and image signal recording medium
AU667165B2 (en) Method for coding or decoding time-varying image, and apparatuses for coding/decoding
JPH0537900A (en) Moving picture compression recording medium and moving picture data encoder and decoder
WO2004040914A1 (en) A method and device for transcoding images
EP0907289B1 (en) Efficient decoding apparatus for picture signal
JPH0818979A (en) Image processor
JP3332580B2 (en) Image reproducing apparatus and image reproducing method
KR100312421B1 (en) A conversion method of the compressed moving video on the video communication system
JPH1042295A (en) Video signal encoding method and video signal encoder
US6205287B1 (en) Image forming apparatus and system for changing a parameter value of a plurality of images by a predetermined amount
JP3312417B2 (en) Image signal encoding device and image signal decoding device
JPH08214314A (en) Image transmission equipment
JP3927606B2 (en) Image communication apparatus and system, image receiving apparatus and received image data processing method
JP2000004440A (en) Method and device for decoding moving image
JPH0795536A (en) Device and method for reversely reproducing moving image
JP3501505B2 (en) Image forming apparatus and image processing apparatus
JPH0698311A (en) High efficiency coding and decoding device for picture signal
JP3141149B2 (en) Image coding device
JP2002369220A (en) Extended image coding method, extended image decoding method, extended image coder, extended image decoder and extended image recording medium
JP3687458B2 (en) Compression decoding method and compression decoding apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050726