JPH08307860A - Scene re-encoder - Google Patents

Scene re-encoder

Info

Publication number
JPH08307860A
JPH08307860A JP10659695A JP10659695A JPH08307860A JP H08307860 A JPH08307860 A JP H08307860A JP 10659695 A JP10659695 A JP 10659695A JP 10659695 A JP10659695 A JP 10659695A JP H08307860 A JPH08307860 A JP H08307860A
Authority
JP
Japan
Prior art keywords
frame
scene change
coding
circuit
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10659695A
Other languages
Japanese (ja)
Inventor
Minoru Outa
実 巨田
Kazuharu Niimura
一治 新村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10659695A priority Critical patent/JPH08307860A/en
Publication of JPH08307860A publication Critical patent/JPH08307860A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To facilitate edition of an image in the unit of scenes and re-coding. CONSTITUTION: When a scent change detection circuit 32 detects a scene change, a scene change flag is generated. A motion evaluation circuit 33 revises the coding method with respect to each image frame so as to inhibit prediction between scenes. A frame sequence rearrangement circuit 31 revises a frame sequence in response to the revised coding method and provides an output. Thus, a GOP is made to stop just before a scenes change and the coding frame in a scene change timing is set to a head of the GOP. Moreover, an overhead data generating circuit 34 sets a closed GOP just after the scene change. Thus, coding is conducted without predicting between scenes and the edit and re-coding in the unit of scenes are facilitated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、シーン単位の編集及び
再符号化を可能にしたシーン再エンコード装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a scene re-encoding device capable of editing and re-encoding scene by scene.

【0002】[0002]

【従来の技術】近年、画像の高能率符号化技術の確立に
伴って、画像のディジタル処理が普及してきている。高
能率符号化技術は、ディジタル伝送及び記録等の効率を
向上させるために、少ないビットレートで画像データを
符号化するものである。この高能率符号化においては、
m×n画素のブロック単位でDCT(離散コサイン変
換)処理等の直交変換を行っている。直交変換は、入力
される標本値を空間周波数成分等の直交成分に変換する
ものである。これにより空間的な相関成分が削減可能と
なる。直交変換された成分は量子化することにより、ブ
ロックの信号の冗長度を削減する。
2. Description of the Related Art In recent years, digital processing of images has become popular with the establishment of high-efficiency image coding technology. The high-efficiency coding technique is for coding image data at a low bit rate in order to improve the efficiency of digital transmission and recording. In this high efficiency coding,
Orthogonal transformation such as DCT (discrete cosine transformation) processing is performed in block units of m × n pixels. Orthogonal transformation is to transform an input sample value into an orthogonal component such as a spatial frequency component. This makes it possible to reduce spatial correlation components. The orthogonally transformed components are quantized to reduce the redundancy of the signal of the block.

【0003】更に、量子化出力にハフマン符号化等の可
変長符号化を施すことにより、データ量を一層削減す
る。ハフマン符号化は、量子化出力の統計的符号量から
算出した結果に基づいて符号化を行うものであり、出現
確率が高いデータには短いビットを割当て、出現確率が
低いデータには長いビットを割当てる可変長符号化によ
って全体のデータ量を削減する。
Further, variable length coding such as Huffman coding is applied to the quantized output to further reduce the data amount. Huffman coding performs coding based on the result calculated from the statistical code amount of the quantized output, assigning short bits to data with a high appearance probability and long bits to data with a low appearance probability. The variable length coding to be assigned reduces the total amount of data.

【0004】更に、高能率符号化を行う装置において
は、MPEG(Moving Picture experts group)等など
で検討されているハイブリッド方式が主流となってい
る。この方式では、フレーム内の画像をDCT処理する
フレーム内圧縮の外に、フレーム間の相関を利用して時
間軸方向の冗長度を削減するフレーム間圧縮(予測符号
化)も採用する。フレーム間圧縮は、一般の動画像が前
後のフレームでよく似ているという性質を利用して、前
後のフレームの差分を求め差分値(予測誤差)を符号化
することによって、ビットレートを一層低減させるもの
である。特に、画像の動きを予測してフレーム間差を求
めることにより予測誤差を低減する動き補償フレーム間
予測符号化が有効である。
Further, in a device for performing high efficiency coding, a hybrid system which is being studied by MPEG (Moving Picture experts group) and the like is predominant. In this method, inter-frame compression (predictive coding) that reduces redundancy in the time axis direction by utilizing correlation between frames is adopted in addition to intra-frame compression that performs DCT processing on an image within a frame. Inter-frame compression further reduces the bit rate by obtaining the difference between the previous and next frames and encoding the difference value (prediction error) by using the property that general moving images are similar to each other. It is what makes me. In particular, motion-compensated interframe predictive coding that reduces the prediction error by predicting the motion of an image and obtaining the interframe difference is effective.

【0005】このように、ハイブリッド方式では、所定
フレームの画像データをそのままDCT処理して符号化
するフレーム内符号化の外に、所定フレームの画像デー
タとこのフレーム前後のフレームの参照画像データとの
差分データのみをDCT処理して符号化する予測符号化
とを採用する。予測符号化方法としては、時間的に前方
向の参照画像データを動き補償して予測誤差を求める前
方予測符号化と、時間的に後方向の参照画像データを動
き補償して予測誤差を求める後方予測符号化と、符号化
効率を考慮して、前方若しくは後方のいずれか一方又は
両方向の平均を用いた両方向予測符号化とがある。
As described above, in the hybrid system, the image data of a predetermined frame and the reference image data of the frames before and after this frame are subjected to the intra-frame coding in which the image data of the predetermined frame is directly DCT processed and coded. Predictive coding in which only difference data is DCT processed and coded is adopted. The predictive coding method includes forward predictive coding for motion-compensating temporally forward reference image data to obtain a prediction error, and backward predictive coding for temporally motion-compensating backward-oriented reference image data to obtain a predictive error. There are predictive coding and bidirectional predictive coding using an average of either forward or backward or both directions in consideration of coding efficiency.

【0006】フレーム間圧縮モードで符号化されたフレ
ームを復号化するためには参照画像が必要である。即
ち、フレーム間圧縮フレームのみでは元の画像を復元す
ることはできない。一方、フレーム内符号化によって符
号化されたフレーム(以下、Iピクチャという)はフレ
ーム内情報のみによって符号化されているので、単独の
符号化データのみによって復号可能である。従って、M
PEG規格においては、エラー伝播防止等のために、I
ピクチャを固定周期(例えば12フレーム)に1枚挿入
するようになっている。MPEG規格では、このIピク
チャを用いた前方予測符号化によってフレーム間符号化
フレーム(以下、Pピクチャという)を得る。なお、P
ピクチャは前方のPピクチャを前方予測符号化すること
によっても得られる。また、前方若しくは後方のいずれ
か一方又は両方向のI,Pピクチャを用いた両方向予測
符号化によって両方向予測適応切換フレーム(以下、B
ピクチャという)を得る。
A reference image is required to decode a frame encoded in the interframe compression mode. That is, the original image cannot be restored only with the inter-frame compressed frame. On the other hand, a frame coded by intra-frame coding (hereinafter referred to as an I picture) is coded only by intra-frame information, and thus can be decoded by only single coded data. Therefore, M
In the PEG standard, I
One picture is inserted in a fixed cycle (for example, 12 frames). In the MPEG standard, an inter-frame coded frame (hereinafter referred to as P picture) is obtained by forward predictive coding using this I picture. Note that P
The picture can also be obtained by performing forward predictive coding on the forward P picture. In addition, a bidirectional prediction adaptive switching frame (hereinafter, referred to as B) by bidirectional predictive coding using either forward or backward I or P pictures in both directions.
Picture).

【0007】図10はこの方式の圧縮法を説明するため
の説明図である。図10(a)は入力されるフレーム画
像を示し、図10(b)は符号化データを示し、図10
(c)は復号化データを示している。
FIG. 10 is an explanatory diagram for explaining the compression method of this system. 10A shows an input frame image, FIG. 10B shows encoded data, and FIG.
(C) shows the decrypted data.

【0008】フレーム番号0のフレーム画像はフレーム
内符号化される。このフレーム画像を参照画像として用
いてフレーム番号3のフレーム画像を前方予測符号化す
る。図10(a)の矢印はこのような符号化の予測方向
を示しており、フレーム番号6のフレーム画像も前方の
フレーム番号3のフレーム画像を参照画像として前方予
測符号化する。また、フレーム番号1,2のフレーム画
像はフレーム番号0,3のフレーム画像を参照画像とし
て両方向予測符号化される。また、フレーム番号4,5
のフレーム画像はフレーム番号3,6のフレーム画像を
参照画像として両方向予測符号化する。
The frame image of frame number 0 is intra-frame coded. Using this frame image as a reference image, the frame image of frame number 3 is forward predictively encoded. The arrow in FIG. 10A indicates the prediction direction of such encoding, and the frame image of frame number 6 is also subjected to forward predictive encoding using the frame image of frame number 3 ahead as a reference image. Further, the frame images of frame numbers 1 and 2 are bidirectionally predictively coded using the frame images of frame numbers 0 and 3 as reference images. Also, frame numbers 4, 5
The bidirectional predictive coding is performed on the frame image of No. 3 using the frame images of frame numbers 3 and 6 as reference images.

【0009】即ち、図10(b)に示すように、先ず、
フレーム番号0の画像データをフレーム内符号化してI
ピクチャを得る。この場合には、フレーム番号0の画像
データをメモリ等によってフレーム化すると共に、例え
ば、8画素×8ライン毎にブロック化し、ブロック単位
でDCT処理を施す。DCT処理によって得たDCT変
換係数は所定の量子化係数を用いて量子化した後、可変
長符号化を施して符号化データを得る。
That is, first, as shown in FIG.
The image data of frame number 0 is intra-frame coded to I
Get the picture. In this case, the image data of frame number 0 is framed by a memory or the like, and for example, it is divided into blocks of 8 pixels × 8 lines, and DCT processing is performed in block units. The DCT transform coefficient obtained by the DCT process is quantized using a predetermined quantized coefficient, and then variable length coding is performed to obtain coded data.

【0010】次に入力されるフレーム番号1のフレーム
画像については、フレーム番号0,3のフレーム画像を
用いた両方向予測符号化を行うので、フレーム番号3の
フレーム画像を符号化するまではメモリに保持する。同
様に、フレーム番号2のフレーム画像についてもフレー
ム番号3のフレーム画像の符号化の後に符号化する。フ
レーム番号3のフレーム画像については、フレーム番号
0のフレーム画像を参照画像として用いた前方予測符号
化を行ってPピクチャを得る(図10(b))。即ち、
フレーム番号0の画像データを動きベクトルを用いて動
き補償し、動き補償した参照画像データと現フレーム
(フレーム番号3のフレーム)の画像データとの差分
(予測誤差)をDCT処理する。DCT変換係数を量子
化した後可変長符号化することはフレーム内符号化時と
同様である。
For the frame image with the frame number 1 input next, bidirectional predictive coding using the frame images with the frame numbers 0 and 3 is performed. Therefore, until the frame image with the frame number 3 is coded, it is stored in the memory. Hold. Similarly, the frame image of frame number 2 is also encoded after the frame image of frame number 3 is encoded. For the frame image of frame number 3, forward prediction coding is performed using the frame image of frame number 0 as a reference image to obtain a P picture (FIG. 10 (b)). That is,
The image data of frame number 0 is motion-compensated using the motion vector, and the difference (prediction error) between the motion-compensated reference image data and the image data of the current frame (frame of frame number 3) is DCT-processed. The variable length coding after quantizing the DCT transform coefficient is the same as the intraframe coding.

【0011】次に、既に符号化したフレーム番号0,3
のIピクチャ,Pピクチャを用いてフレーム番号1,2
のフレーム画像を順次両方向予測符号化する。こうし
て、図10(b)に示すように、2つのBピクチャを得
る。以後同様にして、図10(b)に示すように、フレ
ーム番号6,4,5,…のフレーム画像の順に符号化を
行って、Pピクチャ,Bピクチャ,Bピクチャ,…を得
る。
Next, the already encoded frame numbers 0, 3
I and P pictures of frame numbers 1 and 2
Frame images are sequentially bidirectionally predictively encoded. In this way, two B pictures are obtained as shown in FIG. Thereafter, similarly, as shown in FIG. 10B, the frame images of frame numbers 6, 4, 5, ... Are encoded in order to obtain P picture, B picture, B picture ,.

【0012】このように、符号化時においては、実際に
入力されるフレーム順と異なるフレーム順で符号化を行
う。復号化時には、符号化データのフレーム順を元に戻
して、図10(c)に示すように、フレーム番号0,
1,2,…の順に復号化データを出力する。
Thus, at the time of encoding, the encoding is performed in a frame order different from the actually input frame order. At the time of decoding, the frame order of the encoded data is returned to the original, and as shown in FIG.
Decoded data is output in the order of 1, 2, ....

【0013】図11はこのようなMPEG方式に対応し
た圧縮装置を示すブロック図である。
FIG. 11 is a block diagram showing a compression device compatible with such an MPEG system.

【0014】入力端子1を介して入力された映像データ
はフレーム順並べ換え回路2に供給される。フレーム順
並べ換え回路2は、入力された映像データのフレーム順
を上述した符号化方法に応じて変更して減算回路3及び
動き評価回路4に出力する。なお、フレーム順並べ換え
回路2は映像データを例えば水平8画素×垂直8ライン
の2次元データ(以下、ブロックデータという)単位で
出力する。
Video data input via the input terminal 1 is supplied to the frame order rearrangement circuit 2. The frame order rearrangement circuit 2 changes the frame order of the input video data according to the above-described encoding method and outputs the frame order to the subtraction circuit 3 and the motion evaluation circuit 4. The frame order rearrangement circuit 2 outputs video data in units of two-dimensional data (hereinafter, referred to as block data) of horizontal 8 pixels × vertical 8 lines, for example.

【0015】いま、フレーム内圧縮モードが指定されて
いるものとする。この場合には、スイッチ5はオフであ
り、減算回路3は入力されたブロックデータをそのまま
DCT回路6に出力する。DCT回路6は8×8の2次
元DCT処理によって入力信号を空間座標軸成分から周
波数成分に変換する。これにより、空間的な相関成分を
削減可能となる。即ち、DCT回路6の出力(変換係
数)は量子化回路7に与えられ、量子化回路7は変換係
数を所定の量子化幅で再量子化することによって、1ブ
ロックの信号の冗長度を低減する。なお、量子化回路7
は、量子化幅(量子化レベル)が異なる複数の量子化テ
ーブルのうち発生符号量及び割当てられた設定符号量等
に基づくテーブルを用いて量子化を行うことにより、符
号化出力の発生レートを制御することができるようにな
っている。
Now, it is assumed that the intra-frame compression mode is designated. In this case, the switch 5 is off, and the subtraction circuit 3 outputs the input block data as it is to the DCT circuit 6. The DCT circuit 6 converts an input signal from a spatial coordinate axis component into a frequency component by 8 × 8 two-dimensional DCT processing. This makes it possible to reduce spatial correlation components. That is, the output (transformation coefficient) of the DCT circuit 6 is given to the quantization circuit 7, and the quantization circuit 7 requantizes the transformation coefficient with a predetermined quantization width to reduce the redundancy of the signal of one block. To do. The quantization circuit 7
Of the plurality of quantization tables having different quantization widths (quantization levels) is used to quantize using a table based on the generated code amount, the assigned set code amount, etc. It can be controlled.

【0016】量子化回路7からの量子化データは、ブロ
ック毎に水平及び垂直の低域から高域に向かってジグザ
グスキャンされて可変長符号化回路8に与えられる。可
変長符号化回路8は所定の可変長符号表、例えば、ハフ
マン符号表等に基づいて、量子化出力を2次元ハフマン
符号化して符号化出力を出力する。なお、2次元ハフマ
ン符号化においては、量子化出力の零が連続する数(ゼ
ロランレングス)と非零係数のビット数との組みのデー
タを符号化する。これにより、出現確率が高いデータに
は短いビットを割当て、出現確率が低いデータには長い
ビットを割当てて、伝送量を一層削減する。
The quantized data from the quantizing circuit 7 is zigzag-scanned from the low band to the high band in the horizontal and vertical directions for each block and is given to the variable length coding circuit 8. The variable length coding circuit 8 two-dimensionally Huffman-codes the quantized output based on a predetermined variable-length code table, such as a Huffman code table, and outputs a coded output. In the two-dimensional Huffman coding, a pair of data of the number of zero quantized outputs (zero run length) and the number of bits of non-zero coefficient is coded. As a result, short bits are assigned to data having a high appearance probability and long bits are assigned to data having a low appearance probability, thereby further reducing the transmission amount.

【0017】可変長符号化回路8からの符号化出力はレ
ートバッファ9に与えられる。レートバッファ9は例え
ばFIFO(ファーストインファーストアウト)メモリ
によって構成されており、入力された符号化出力を所定
の速度でマルチプレクサ10に出力する。可変長符号化回
路8からの符号化出力の発生レートは可変レートであ
り、レートバッファ9は発生レートと伝送レートとの相
違を吸収する。一方、オーバヘッドデータ発生回路11は
符号化における各種設定、例えば予測方式、量子化スケ
ール及びフレーム順等のオーバヘッドデータを発生して
マルチプレクサ10に出力している。マルチプレクサ10
は、レートバッファ9の出力にオーバヘッドデータを多
重して、出力端子12から図示しない伝送路に出力する。
The coded output from the variable length coding circuit 8 is given to the rate buffer 9. The rate buffer 9 is composed of, for example, a FIFO (first in first out) memory, and outputs the input encoded output to the multiplexer 10 at a predetermined speed. The generation rate of the encoded output from the variable length encoding circuit 8 is a variable rate, and the rate buffer 9 absorbs the difference between the generation rate and the transmission rate. On the other hand, the overhead data generation circuit 11 generates overhead data such as various settings in encoding, such as a prediction method, a quantization scale, and a frame order, and outputs the overhead data to the multiplexer 10. Multiplexer 10
, Multiplexes the overhead data with the output of the rate buffer 9 and outputs the multiplexed data from the output terminal 12 to a transmission line (not shown).

【0018】一方、フレーム間圧縮符号化モード時に
は、スイッチ5はオンとなる。フレーム順並べ換え回路
2からのブロックデータは減算回路2に与えられ、減算
回路2は、スイッチ5から後述する動き補償された参照
画像のブロック(以下、参照ブロックという)の画素デ
ータが与えられて、現フレームのブロックとの差分を予
測誤差としてDCT回路6に出力する。この場合には、
DCT回路6は差分データをDCT処理することにな
る。
On the other hand, in the interframe compression coding mode, the switch 5 is turned on. The block data from the frame order rearrangement circuit 2 is supplied to the subtraction circuit 2, and the subtraction circuit 2 is supplied with pixel data of a motion-compensated reference image block (hereinafter referred to as a reference block) from the switch 5, The difference from the block of the current frame is output to the DCT circuit 6 as a prediction error. In this case,
The DCT circuit 6 will perform DCT processing on the difference data.

【0019】参照ブロックは量子化出力を復号すること
により得ている。すなわち、量子化回路7の出力は、逆
量子化回路13にも与えられる。逆量子化回路13によって
量子化出力を逆量子化し、更に逆DCT回路14において
逆DCT処理して元の映像データに戻す。減算回路2の
出力が差分情報であるので、逆DCT回路14の出力も差
分情報である。逆DCT回路14の出力は加算器15に与え
られる。加算器15の出力はフレームメモリ16、動き補償
回路17,18、選択回路19及びスイッチ5を介して加算器
15に帰還されており、加算器15は選択回路19からの参照
ブロックのデータに差分データを加算して現フレームの
ブロックデータ(ローカルデコードデータ)を再生して
フレームメモリ16に出力する。フレームメモリ16は加算
器15からのブロックデータを画面の位置に対応させて格
納する。
The reference block is obtained by decoding the quantized output. That is, the output of the quantization circuit 7 is also given to the inverse quantization circuit 13. The inverse quantization circuit 13 inversely quantizes the quantized output, and the inverse DCT circuit 14 performs inverse DCT processing to restore the original video data. Since the output of the subtraction circuit 2 is the difference information, the output of the inverse DCT circuit 14 is also the difference information. The output of the inverse DCT circuit 14 is given to the adder 15. The output of the adder 15 is added through the frame memory 16, the motion compensation circuits 17 and 18, the selection circuit 19 and the switch 5.
The adder 15 adds the difference data to the data of the reference block from the selection circuit 19 to reproduce the block data (local decoded data) of the current frame, and outputs it to the frame memory 16. The frame memory 16 stores the block data from the adder 15 in association with the position on the screen.

【0020】フレームメモリ16は、2フレーム(2画
像)分のローカルデコードデータを記憶する容量を有し
ており、記憶した参照画像のローカルデコードデータを
動き補償回路17,18及び動き評価回路4に出力する。動
き評価回路4は、フレーム順並べ換え回路2からの現フ
レームのブロックデータとフレームメモリ16からの参照
画像のブロックデータとから動きベクトルを検出して動
き補償回路17,18に出力する。動き補償回路17,18は、
フレームメモリ16に格納された参照画像のローカルデコ
ードデータのブロック化位置を動きベクトルによって補
正して、動き補償した参照ブロックとして出力する。
The frame memory 16 has a capacity for storing the local decoded data for two frames (two images), and the stored local decoded data of the reference image is stored in the motion compensation circuits 17 and 18 and the motion evaluation circuit 4. Output. The motion evaluation circuit 4 detects a motion vector from the block data of the current frame from the frame rearrangement circuit 2 and the block data of the reference image from the frame memory 16 and outputs it to the motion compensation circuits 17 and 18. The motion compensation circuits 17 and 18 are
The block position of the local decoded data of the reference image stored in the frame memory 16 is corrected by the motion vector and output as a motion-compensated reference block.

【0021】動き補償回路17,18の出力は係数器21,22
にも与えられる。係数器21,22は入力されたデータに係
数α,βを乗算して加算器23に出力する。なお、一般的
にはα=β=1/2である。加算器23は係数器21,22の
出力を加算して選択回路19に出力する。選択回路19は、
動き評価回路4によって符号化モードが指定されて、前
方予測符号化を行う場合には動き補償回路17の出力を選
択し、後方予測符号化を行う場合には動き補償回路18の
出力を選択し、両方向予測符号化を行う場合には動き補
償回路17,18のいずれか一方又は加算器23の出力を選択
する。選択回路19からの参照ブロックデータはスイッチ
5を介して減算回路3及び加算器15に与えられる。
The outputs of the motion compensation circuits 17 and 18 are coefficient multipliers 21 and 22.
Also given to. The coefficient units 21 and 22 multiply the input data by the coefficients α and β, and output it to the adder 23. Note that generally α = β = 1/2. The adder 23 adds the outputs of the coefficient units 21 and 22 and outputs the result to the selection circuit 19. The selection circuit 19 is
When the coding mode is designated by the motion evaluation circuit 4 and the forward prediction coding is performed, the output of the motion compensation circuit 17 is selected, and when the backward prediction coding is performed, the output of the motion compensation circuit 18 is selected. , In the case of performing bidirectional predictive coding, one of the motion compensation circuits 17 and 18 or the output of the adder 23 is selected. The reference block data from the selection circuit 19 is given to the subtraction circuit 3 and the adder 15 via the switch 5.

【0022】こうして、動き補償された参照ブロックデ
ータが減算回路2に供給されることになり、減算回路2
は現フレームのブロックと参照ブロックとの差分から予
測誤差を求める。これにより、予測誤差に対してDCT
処理が行われる。なお、動き評価回路4からの動きベク
トルは端子20を介して可変長符号化回路8にも与えら
れ、可変長符号化回路8によって所定の可変長符号表に
基づいて可変長符号化されて出力される。
In this way, the motion-compensated reference block data is supplied to the subtraction circuit 2, and the subtraction circuit 2
Calculates the prediction error from the difference between the block of the current frame and the reference block. This allows the DCT for the prediction error.
Processing is performed. The motion vector from the motion evaluation circuit 4 is also given to the variable length coding circuit 8 via the terminal 20, and is variable length coded by the variable length coding circuit 8 based on a predetermined variable length code table and output. To be done.

【0023】上述したように、エラー伝搬の抑制等の理
由から、フレーム内圧縮フレームを所定のフレーム単位
(以下、GOP(Group of Picture)という)で挿入す
るようになっている。図12はGOPの構成を示す説明
図である。図12(a)は圧縮装置に入力される画像フ
レームを示し、図12(b)は圧縮装置から出力される
符号化フレームを示し、図12(c)は矢印によって予
測方向を示している。なお、図12のI,P,Bの添字
はフレーム番号を示している。
As described above, in order to suppress error propagation and the like, the intra-frame compressed frame is inserted in a predetermined frame unit (hereinafter, referred to as GOP (Group of Picture)). FIG. 12 is an explanatory diagram showing the structure of a GOP. 12A shows an image frame input to the compression device, FIG. 12B shows an encoded frame output from the compression device, and FIG. 12C shows a prediction direction by an arrow. The subscripts I, P and B in FIG. 12 indicate frame numbers.

【0024】図11の圧縮装置によって、図12(a)
に示す画像フレームB-2,B-1をBピクチャとして符号
化しようとするものとすると、これらのフレームの前後
の画像フレームP-3,I0 を先に符号化する必要があ
る。従って、圧縮装置においては、図12(b)に示す
ように、画像フレームP-3,I0 ,B-2,B-1の順に符
号化して符号化フレームを伝送する。同様に他のフレー
ムにおいても、符号化モードに応じて、図12(a)と
図12(b)との間の矢印に示すフレーム順の並べ換え
が行われる。図12の例では、1GOPを9フレームで
構成している。例えば、GOP1は符号化フレームI0
から符号化フレームB5 までである。なお、GOPは先
頭にIピクチャを配列する。また、GOP単位で符号化
を完結させるために、1GOPに対応する元の画像フレ
ーム群の最後の画像フレーム(図12(a)参照)はP
ピクチャとして符号化するようになっている。
With the compression device of FIG. 11, the structure shown in FIG.
If the image frames B-2 and B-1 shown in (1) are to be encoded as B pictures, the image frames P-3 and I0 before and after these frames must be encoded first. Therefore, in the compression device, as shown in FIG. 12B, the image frames P-3, I0, B-2, and B-1 are encoded in this order and the encoded frame is transmitted. Similarly, in other frames, rearrangement in the frame order shown by the arrow between FIGS. 12A and 12B is performed according to the coding mode. In the example of FIG. 12, 1 GOP is composed of 9 frames. For example, GOP1 is a coded frame I0
To encoded frame B5. The GOP has an I picture arranged at the head. Further, in order to complete the encoding in GOP units, the last image frame (see FIG. 12A) of the original image frame group corresponding to 1 GOP is P
It is designed to be encoded as a picture.

【0025】ところで、圧縮装置から出力された符号化
データの一部分の画質を変更するために、符号化データ
の一部を再符号化することが考えられる。符号化パラメ
ータを変化させて、一部の画像データを再度符号化する
のである。また、複数の符号化データ相互間又は1つの
符号化データに対して編集を行うことも考えられる。
By the way, in order to change the image quality of a part of the encoded data output from the compression device, it is possible to re-encode a part of the encoded data. By changing the coding parameter, some image data is coded again. Further, it is possible to edit a plurality of pieces of encoded data or one piece of encoded data.

【0026】MPEG規格においては、GOP単位で編
集を行うようになっている。この場合でも、図12に示
すように、GOPの先頭から2フレーム目及び3フレー
ム目の符号化フレームは、前GOPの最後のPピクチャ
を参照画像に用いている。例えば、GOP1の符号化フ
レームB-2,B-1は参照画像としてGOP0の符号化フ
レームP-3を参照画像としている。このように、GOP
の一部の符号化フレームは前GOPに依存することがあ
り、GOPは完全には独立ではない。従って、GOPを
編集の単位にした場合には、GOPの先頭から2,3番
目の符号化フレームは、GOP先頭の符号化フレームの
みを参照画像とするBピクチャにしなければならず、符
号量は編集を行わないときよりも若干増加する可能性が
ある。
According to the MPEG standard, editing is performed in GOP units. Also in this case, as shown in FIG. 12, the second and third encoded frames from the beginning of the GOP use the last P picture of the previous GOP as a reference image. For example, the coded frames B-2 and B-1 of GOP1 use the coded frame P-3 of GOP0 as a reference image as a reference image. Like this, GOP
Some coded frames of GOP may depend on the previous GOP, which is not completely independent. Therefore, when the GOP is used as a unit of editing, the second and third coded frames from the head of the GOP must be B pictures with only the coded frame at the head of the GOP as a reference image, and the code amount is May be slightly higher than without editing.

【0027】ところで、再符号化する部分の開始点又は
編集の開始点(以下、編集点という)としては、シーン
の切換りタイミングが考えられる。ところが、シーンチ
ェンジがGOPのいずれの位置で発生するかは確定して
おらず、シーンチェンジを編集点とすると、編集点がG
OPの先頭位置でないことがある。図12(b)は符号
化フレームP3 の直前を編集点としたことを示してい
る。即ち、この場合には、入力された画像フレームB1
(図12(a)参照)以降の画像フレームを再符号化す
る。
By the way, as a starting point of a portion to be re-encoded or an editing starting point (hereinafter referred to as an editing point), a scene switching timing can be considered. However, it has not been determined at which position in the GOP the scene change occurs, and if the scene change is the edit point, the edit point is G
It may not be the start position of OP. FIG. 12B shows that the edit point is immediately before the encoded frame P3. That is, in this case, the input image frame B1
The image frames after (see FIG. 12A) are re-encoded.

【0028】しかし、この場合には、編集点前後でGO
Pの連続性を維持しようとすると、符号化フレームP3
を作成するために編集点前の符号化フレームI0 を必要
となる。このように、シーンチェンジを編集点とする
と、GOPの連続性を維持しながら編集を行うことはで
きない。即ち、シーンチェンジを編集点とすると、編集
前にはP,Bピクチャであった符号化フレームをIピク
チャにする必要があり、編集又は再符号化前後で符号量
が著しく相違してしまうことがある。
However, in this case, the GO before and after the edit point
In an attempt to maintain the continuity of P, the encoded frame P3
The coded frame I0 before the edit point is required to create the. As described above, when the scene change is used as the editing point, the editing cannot be performed while maintaining the continuity of the GOP. That is, when a scene change is used as an editing point, a coded frame that was a P or B picture before editing needs to be an I picture, and the code amount may be significantly different before and after editing or recoding. is there.

【0029】[0029]

【発明が解決しようとする課題】このように、従来、符
号化データを再符号化又は編集する場合においては、シ
ーン単位の独立性が低いことから、GOPの連続性を維
持しながら編集点をシーンチェンジタイミングに設定す
ることはできないという問題点があった。
As described above, conventionally, in the case of re-encoding or editing coded data, since the independence of each scene is low, the edit point is maintained while maintaining the continuity of GOP. There was a problem that it was not possible to set the scene change timing.

【0030】本発明はかかる問題点に鑑みてなされたも
のであって、シーン単位の編集及び再符号化を行う場合
でも、シーン単位の独立性を確保してGOPの連続性を
維持することができるシーン再エンコード装置を提供す
ることを目的とする。
The present invention has been made in view of the above problems, and it is possible to maintain the independence of each scene and maintain the continuity of GOP even when performing the editing and re-encoding of each scene. It is an object of the present invention to provide a scene re-encoding device capable of performing the same.

【0031】[0031]

【課題を解決するための手段】本発明に係るシーン再エ
ンコード装置は、入力される画像データに基づく入力画
像フレームに対してフレーム内符号化処理、前方の参照
画像を用いた片方向予測符号化処理又は前方及び後方の
参照画像を用いた両方向予測符号化処理による符号化を
行って符号化フレームを出力する符号化手段と、この符
号化手段を制御して、前記フレーム内符号化処理、片方
向予測符号化処理及び両方向予測符号化処理の各符号化
モードをフレーム単位で所定のアルゴリズムで切換えて
所定のフレーム数周期で繰返させる符号化制御手段と、
前記入力画像フレームのシーンチェンジを検出するシー
ンチェンジ検出手段と、このシーンチェンジ検出手段の
検出結果に基づいて前記符号化制御手段による前記符号
化手段の符号化モードの制御を変更して、シーンチェン
ジタイミング前の入力画像フレームを参照画像とするシ
ーンチェンジタイミング後の入力画像フレームの予測符
号化及びシーンチェンジタイミング後の入力画像フレー
ムを参照画像とするシーンチェンジタイミング前の入力
画像フレームの予測符号化であるシーン間の予測符号化
を禁止する予測符号化制御手段とを具備したものであ
る。
A scene re-encoding apparatus according to the present invention is an intra-frame encoding process for an input image frame based on input image data, and a unidirectional predictive encoding using a forward reference image. Processing or coding means for performing coding by bidirectional predictive coding processing using forward and backward reference images to output a coded frame; and controlling the coding means to perform the intra-frame coding processing, Coding control means for switching each coding mode of the directional predictive coding process and the bidirectional predictive coding process by a predetermined algorithm on a frame-by-frame basis and repeating the cycle in a predetermined number of frames,
A scene change detecting means for detecting a scene change of the input image frame, and a scene change detecting means for changing the control of the encoding mode of the encoding means by the encoding control means based on the detection result of the scene change detecting means. Predictive coding of the input image frame after the scene change timing using the input image frame before the timing as the reference image and predictive coding of the input image frame before the scene change timing using the input image frame after the scene change timing as the reference image Predictive coding control means for prohibiting predictive coding between certain scenes is provided.

【0032】[0032]

【作用】本発明において、入力された画像データは符号
化手段に与えられ、符号化制御手段の制御に基づく符号
化モード、即ち、フレーム内符号化処理、片方向予測符
号化処理又は両方向予測符号化処理の各符号化モードに
よって符号化される。シーンチェンジが発生すると、シ
ーンチェンジタイミング直前の画像フレームはシーンチ
ェンジタイミング直後の画像フレームを用いた予測符号
化が禁止され、また、シーンチェンジタイミング直後の
画像フレームはシーンチェンジタイミング直前の画像フ
レームを用いた予測符号化が禁止される。これにより、
シーン間の予測が行われず、シーン単位で独立した符号
化が行われることになる。こうして、シーン単位での編
集及び再符号化を容易にする。
According to the present invention, the input image data is given to the coding means, and the coding mode is controlled under the control of the coding control means, that is, the intraframe coding processing, the unidirectional prediction coding processing or the bidirectional prediction coding. Encoding is performed according to each encoding mode of the encoding process. When a scene change occurs, predictive coding using the image frame immediately after the scene change timing is prohibited for the image frame immediately before the scene change timing, and the image frame immediately before the scene change timing is used for the image frame immediately after the scene change timing. Predictive coding that was previously used is prohibited. This allows
Inter-scene prediction is not performed, and independent encoding is performed for each scene. This facilitates editing and re-encoding on a scene-by-scene basis.

【0033】[0033]

【実施例】以下、図面を参照して本発明の実施例につい
て説明する。図1は本発明に係るシーン再エンコード装
置の一実施例を示すブロック図である。図1において図
11と同一の構成要素には同一符号を付してある。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a scene re-encoding device according to the present invention. In FIG. 1, the same components as those in FIG. 11 are designated by the same reference numerals.

【0034】本実施例は、シーンチェンジが発生する
と、符号化フレームのピクチャタイプ及び符号化順を変
化させることによりGOPの境界位置を変更可能にし
て、シーンチェンジタイミングとGOPの境界とを一致
させるものである。これにより、シーンチェンジタイミ
ングを編集点とした場合でも、編集又は再符号化前後で
GOPを連続させることができ、符号量制御が容易とな
る。
In this embodiment, when a scene change occurs, the GOP boundary position can be changed by changing the picture type and coding order of the coded frame so that the scene change timing and the GOP boundary match. It is a thing. As a result, even when the scene change timing is the editing point, GOPs can be made continuous before and after editing or re-encoding, and the code amount control becomes easy.

【0035】入力端子1には所定の前処理が施された映
像データが入力される。この映像データはフレーム順並
べ換え回路31に供給されると共に、シーンチェンジ検出
回路32にも供給される。フレーム順並べ換え回路31は、
入力された映像データのフレーム順を符号化方法に応じ
て変更して減算回路3及び動き評価回路33に出力する。
なお、フレーム順並べ換え回路31は映像データを例えば
水平8画素×垂直8ラインの2次元データ(以下、ブロ
ックデータという)単位で出力する。
Video data that has been subjected to predetermined preprocessing is input to the input terminal 1. This video data is supplied to the frame rearrangement circuit 31 and also to the scene change detection circuit 32. The frame order rearrangement circuit 31
The frame order of the input video data is changed according to the encoding method and output to the subtraction circuit 3 and the motion evaluation circuit 33.
The frame rearrangement circuit 31 outputs video data in units of two-dimensional data (hereinafter, referred to as block data) of, for example, horizontal 8 pixels × vertical 8 lines.

【0036】本実施例においては、フレーム順並べ換え
回路31はシーンチェンジ検出回路32に制御されるように
なっている。シーンチェンジ検出回路32は、図示しない
フレームメモリを有しており、前後の画像を比較するこ
とにより、シーンチェンジを検出してシーンチェンジフ
ラグをフレーム順並べ換え回路31、動き評価回路33及び
オーバヘッドデータ発生回路34に出力するようになって
いる。
In this embodiment, the frame rearrangement circuit 31 is controlled by the scene change detection circuit 32. The scene change detection circuit 32 has a frame memory (not shown), detects a scene change by comparing front and rear images, and rearranges the scene change flag into a frame order rearrangement circuit 31, a motion evaluation circuit 33, and overhead data generation. It is designed to output to the circuit 34.

【0037】フレーム順並べ換え回路31は、各画像フレ
ームに対する符号化方法に応じて、フレーム順を変更す
る。本実施例においては、シーンチェンジ直前の画像フ
レームをPピクチャとして符号化すると共に、シーンチ
ェンジ直後の画像フレームをIピクチャとして符号化
し、更に、シーンチェンジ直後のGOPをクローズドG
OPに設定する。なお、クローズドGOPは、他のGO
Pの画像フレームを参照画像としない閉じたGOPであ
る。これにより、シーン間での予測を禁止した符号化を
行うようになっている。
The frame order rearrangement circuit 31 changes the frame order according to the encoding method for each image frame. In this embodiment, the image frame immediately before the scene change is encoded as a P picture, the image frame immediately after the scene change is encoded as an I picture, and the GOP immediately after the scene change is closed G.
Set to OP. In addition, closed GOP is other GO
It is a closed GOP that does not use the P image frame as a reference image. As a result, encoding is performed so that prediction between scenes is prohibited.

【0038】例えば、フレーム順並べ換え回路31は、P
ピクチャとして符号化する画像フレームの前にその参照
画像であるIピクチャ又はPピクチャを出力し、Bピク
チャとして符号化する画像フレームの前にその参照画像
であるIピクチャ又はPピクチャを出力する。フレーム
順並べ換え回路31はフレームの出力順の情報を動き評価
回路33に出力するようになっている。
For example, the frame order rearrangement circuit 31 uses P
The I picture or P picture that is the reference image is output before the image frame that is encoded as a picture, and the I picture or P picture that is the reference image is output before the image frame that is encoded as the B picture. The frame order rearrangement circuit 31 outputs information on the frame output order to the motion evaluation circuit 33.

【0039】動き評価回路33はフレーム順並べ換え回路
31からのブロックデータが与えられると共に、後述する
フレームメモリ16から参照画像のデータが与えられ、現
フレームと参照フレームとの間の動きベクトルを求めて
動き補償回路17,18に出力するようになっている。ま
た、動き評価回路33は、フレーム順並べ換え回路31から
フレームの出力順の情報及びシーンチェンジフラグに基
づいて、現フレームのピクチャタイプを決定して、ピク
チャタイプに基づく制御信号を選択回路19に出力する。
The motion evaluation circuit 33 is a frame order rearrangement circuit.
The block data from 31 is given, and the data of the reference image is given from the frame memory 16 described later, and the motion vector between the current frame and the reference frame is obtained and output to the motion compensation circuits 17 and 18. ing. Further, the motion evaluation circuit 33 determines the picture type of the current frame from the frame rearrangement circuit 31 based on the information on the output order of the frames and the scene change flag, and outputs a control signal based on the picture type to the selection circuit 19. To do.

【0040】減算回路3はスイッチ5から動き補償され
た参照ブロックの画像データが与えられ、フレーム間圧
縮モード時には、フレーム順並べ換え回路31からのブロ
ックデータと参照ブロックデータとの差分を予測誤差と
してDCT回路6に供給する。フレーム内圧縮モード時
には、スイッチ5はオフとなり、減算回路3はフレーム
順並べ換え回路31の出力をそのままDCT回路6に与え
る。DCT回路6は減算回路3の出力をDCT処理して
量子化回路7に出力する。量子化回路7はDCT変換係
数を量子化して可変長符号化回路8及び逆量子化回路13
に出力する。可変長符号化回路8は、量子化回路7から
の量子化出力を可変長符号化してレートバッファ9に出
力する。
The subtraction circuit 3 is supplied with the motion-compensated image data of the reference block from the switch 5, and in the inter-frame compression mode, the difference between the block data from the frame order rearrangement circuit 31 and the reference block data is used as the prediction error DCT. Supply to the circuit 6. In the intra-frame compression mode, the switch 5 is turned off, and the subtraction circuit 3 gives the output of the frame order rearrangement circuit 31 to the DCT circuit 6 as it is. The DCT circuit 6 DCT-processes the output of the subtraction circuit 3 and outputs it to the quantization circuit 7. The quantizing circuit 7 quantizes the DCT transform coefficient, and the variable length coding circuit 8 and the inverse quantizing circuit 13
Output to. The variable length coding circuit 8 performs variable length coding on the quantized output from the quantization circuit 7 and outputs it to the rate buffer 9.

【0041】レートバッファ9は例えばFIFOメモリ
によって構成されており、可変長符号化回路8からの符
号化出力の発生レートと伝送レートとの相違を吸収し
て、符号化出力を所定の速度でマルチプレクサ10に出力
する。オーバヘッドデータ発生回路34は符号化における
各種設定、例えば予測方式、量子化スケール及びフレー
ム順等のオーバヘッドデータを発生する。
The rate buffer 9 is composed of, for example, a FIFO memory, absorbs the difference between the generation rate and the transmission rate of the coded output from the variable length coding circuit 8 and multiplexes the coded output at a predetermined speed. Output to 10. The overhead data generation circuit 34 generates overhead data such as various settings in encoding, such as a prediction method, a quantization scale, and a frame order.

【0042】本実施例においては、オーバヘッドデータ
発生回路34はシーンチェンジ検出回路32からシーンチェ
ンジフラグが与えられている。オーバヘッドデータ発生
回路34は、シーンチェンジが発生したことが示された場
合には、シーンチェンジ直後のGOPの各符号化フレー
ムがシーンチェンジ前のGOPの符号化フレームを参照
画像としていないこと、即ち、GOPが独立しているこ
とを示すクローズド(closed)フラグをオーバヘ
ッドデータに含めて出力するようになっている。マルチ
プレクサ10は、レートバッファ9の出力にオーバヘッド
データを多重して、出力端子12から図示しない伝送路に
出力する。
In the present embodiment, the overhead data generation circuit 34 is given a scene change flag from the scene change detection circuit 32. If it is indicated that a scene change has occurred, the overhead data generation circuit 34 determines that each coded frame of the GOP immediately after the scene change does not use the coded frame of the GOP before the scene change as a reference image, that is, A closed flag indicating that the GOPs are independent is included in the overhead data and output. The multiplexer 10 multiplexes the overhead data on the output of the rate buffer 9 and outputs it from the output terminal 12 to a transmission line (not shown).

【0043】逆量子化回路13は量子化出力を逆量子化
し、逆DCT回路14は逆量子化出力を逆DCT処理して
DCT処理前の画素データに戻した後加算器15に与え
る。加算器15にはスイッチ5を介して参照画像データが
与えられており、逆DCT回路14からの予測誤差と参照
画像データとを加算して現フレームのデータ(ローカル
デコードデータ)を復元してフレームメモリ16に出力す
る。
The inverse quantization circuit 13 inversely quantizes the quantized output, and the inverse DCT circuit 14 inversely DCT-processes the inversely quantized output to restore the pixel data before the DCT processing, and supplies the pixel data to the adder 15. The reference image data is given to the adder 15 through the switch 5, and the prediction error from the inverse DCT circuit 14 and the reference image data are added to restore the data of the current frame (local decoded data) to obtain the frame. Output to memory 16.

【0044】フレームメモリ16は2フレーム分の参照画
像データを記憶することができる。フレームメモリ16
は、加算器15から参照画像となるI,Pピクチャの復元
画像データが与えられて保持する。フレームメモリ16
は、対応するP,Bピクチャの復号タイミングで保持し
ている参照画像データを動き補償回路17,18及び動き評
価回路33に出力するようになっている。
The frame memory 16 can store reference image data for two frames. Frame memory 16
Is provided with the restored image data of the I and P pictures to be the reference image and held by the adder 15. Frame memory 16
Output the reference image data held at the decoding timing of the corresponding P and B pictures to the motion compensation circuits 17 and 18 and the motion evaluation circuit 33.

【0045】動き補償回路17,18は夫々フレームメモリ
16からの参照画像データを動き評価回路33からの動きベ
クトルに基づいて動き補償して出力する。動き補償回路
17,18の出力は夫々係数器21,22に与えられると共に、
選択回路19にも与えられる。係数器21,22は動き補償回
路17の出力に所定の係数を乗算して加算器23に出力す
る。加算器23は係数器21,22の出力を加算して選択回路
19に出力する。
The motion compensation circuits 17 and 18 are frame memories, respectively.
The reference image data from 16 is motion-compensated based on the motion vector from the motion evaluation circuit 33 and output. Motion compensation circuit
The outputs of 17 and 18 are given to coefficient units 21 and 22, respectively, and
It is also given to the selection circuit 19. The coefficient units 21 and 22 multiply the output of the motion compensation circuit 17 by a predetermined coefficient and output it to the adder 23. The adder 23 adds the outputs of the coefficient units 21 and 22 to select circuit
Output to 19.

【0046】選択回路19は、動き評価回路33に制御され
て、Pピクチャとして符号化を行う場合には動き補償回
路17の出力を選択し、Bピクチャとして符号化を行う場
合には、予測の方向に応じて、動き補償回路17,18又は
加算器23の出力を選択してスイッチ5に出力する。スイ
ッチ5は端子24のモード信号によって制御されて、フレ
ーム内圧縮モード時にはオフとなり、フレーム間圧縮モ
ード時にはオンとなるようになっている。
Under the control of the motion evaluation circuit 33, the selection circuit 19 selects the output of the motion compensation circuit 17 in the case of encoding as a P picture and the prediction in the case of encoding as a B picture. The output of the motion compensation circuits 17 and 18 or the adder 23 is selected according to the direction and output to the switch 5. The switch 5 is controlled by the mode signal at the terminal 24 and is turned off in the intra-frame compression mode and turned on in the inter-frame compression mode.

【0047】次に、このように構成された実施例の動作
について図2及び図3の説明図を参照して説明する。図
2及び図3は記号I,B,Pによって入力される画像フ
レームに予定されているピクチャタイプ及び出力される
符号化フレームのピクチャタイプを示し、添字によって
フレーム番号を示している。図2(a)は入力される画
像フレームを示し、図2(b)はシーンチェンジによる
ピクチャタイプの変更を示し、図2(c)は出力されて
伝送される符号化フレームを示している。
Next, the operation of the embodiment thus constructed will be described with reference to the explanatory views of FIGS. 2 and 3 show the planned picture type of the input image frame and the picture type of the output encoded frame by the symbols I, B, and P, and the frame numbers are indicated by the subscripts. 2A shows an input image frame, FIG. 2B shows a change in picture type due to a scene change, and FIG. 2C shows an output and transmitted encoded frame.

【0048】所定の前処理が施された映像データは入力
端子1を介してフレーム順並べ換え回路31及びシーンチ
ェンジ検出回路32に入力される。図2(a)に示すよう
に、フレーム番号0の画像フレームI0 をIピクチャに
設定し、以後、フレーム番号順に夫々B,B,P,B,
B,P,B,B,I,…の順でピクチャタイプを設定す
るものとする。即ち、この場合には、1GOPを9フレ
ームで構成する。
The video data which has been subjected to the predetermined pre-processing is input to the frame rearrangement circuit 31 and the scene change detection circuit 32 via the input terminal 1. As shown in FIG. 2 (a), the image frame I0 of frame number 0 is set as an I picture, and thereafter, B, B, P, B, and
The picture types are set in the order of B, P, B, B, I, .... That is, in this case, one GOP is composed of 9 frames.

【0049】いま、シーンチェンジ検出回路32によって
シーンチェンジが検出されていないものとする。この場
合には、フレーム順並べ換え回路31は、例えば図10と
同一の規則によってフレーム順を変更する。フレーム順
並べ換え回路31からのブロックデータは減算回路3及び
動き評価回路33に与えられる。入力された映像データの
画像フレームがIピクチャに設定されているものとする
と、スイッチ5はオフであり、減算回路3は入力された
ブロックデータをそのままDCT回路6に出力する。
Now, assume that the scene change detection circuit 32 has not detected a scene change. In this case, the frame order rearrangement circuit 31 changes the frame order according to the same rule as in FIG. 10, for example. The block data from the frame order rearrangement circuit 31 is given to the subtraction circuit 3 and the motion evaluation circuit 33. Assuming that the image frame of the input video data is set to the I picture, the switch 5 is off and the subtraction circuit 3 outputs the input block data to the DCT circuit 6 as it is.

【0050】DCT回路6はブロックデータを2次元D
CT処理して量子化回路7に出力する。DCT変換係数
は量子化回路7によって量子化されて符号量が削減され
る。量子化出力は可変長符号化回路8によって可変長符
号化されてレートバッファ9に与えられる。レートバッ
ファ9は所定の速度で可変長符号化出力をマルチプレク
サ10に与える。マルチプレクサ10はオーバヘッドデータ
発生回路34からのオーバヘッドデータを可変長符号化出
力に多重して出力する。
The DCT circuit 6 converts the block data into a two-dimensional D
The CT processing is performed and the result is output to the quantization circuit 7. The DCT transform coefficient is quantized by the quantization circuit 7 to reduce the code amount. The quantized output is subjected to variable length coding by the variable length coding circuit 8 and given to the rate buffer 9. The rate buffer 9 provides the variable length coded output to the multiplexer 10 at a predetermined speed. The multiplexer 10 multiplexes the overhead data from the overhead data generation circuit 34 on the variable length coded output and outputs it.

【0051】一方、量子化回路7の出力は、参照画像を
作成するために、逆量子化回路13にも出力される。量子
化出力は逆量子化回路13によって逆量子化され、逆DC
T回路14よって逆DCT処理されてDCT処理前のデー
タに戻されて加算器15に与えられる。Iピクチャを作成
する場合にはスイッチ5はオフであるので、加算器15は
逆DCT回路14の出力をそのままローカルデコードデー
タとしてフレームメモリ16に格納する。
On the other hand, the output of the quantizing circuit 7 is also output to the inverse quantizing circuit 13 in order to create a reference image. The quantized output is inversely quantized by the inverse quantization circuit 13, and inverse DC
Inverse DCT processing is performed by the T circuit 14 to restore the data before DCT processing, and the data is supplied to the adder 15. Since the switch 5 is off when creating an I picture, the adder 15 stores the output of the inverse DCT circuit 14 in the frame memory 16 as it is as local decoded data.

【0052】次に、Pピクチャに設定された映像データ
が入力されるものとする。この場合には、スイッチ5は
オンとなる。動き評価回路33はフレーム順並べ換え回路
31の出力とフレームメモリ16の出力とから動きベクトル
を求めて動き補償回路17に出力する。動き補償回路17は
フレームメモリ16に格納されている参照画像のブロック
化位置を動きベクトルによって補正して、動き補償した
参照ブロックデータを選択回路19を介して出力する。こ
の参照ブロックデータはスイッチ5を介して減算回路3
に与えられ、減算回路3は、現ブロックデータとの差分
を予測誤差としてDCT回路6に出力する。
Next, it is assumed that the video data set in the P picture is input. In this case, the switch 5 is turned on. The motion evaluation circuit 33 is a frame rearrangement circuit
A motion vector is obtained from the output of 31 and the output of the frame memory 16 and output to the motion compensation circuit 17. The motion compensation circuit 17 corrects the block position of the reference image stored in the frame memory 16 by the motion vector, and outputs the motion-compensated reference block data via the selection circuit 19. This reference block data is sent to the subtraction circuit 3 via the switch 5.
The subtraction circuit 3 outputs the difference from the current block data to the DCT circuit 6 as a prediction error.

【0053】こうして、この場合には、予測誤差がDC
T処理、量子化処理及び可変長符号化処理されて、Pピ
クチャが作成される。また、量子化出力は逆量子化回路
13及び逆DCT回路14によってDCT処理前のデータに
戻されて加算器15に与えられる。減算回路3の出力が予
測誤差であるので、逆DCT回路14の出力も予測誤差と
なる。加算器15にはスイッチ5を介して前フレームまで
の動き補償された参照ブロックデータが与えられてお
り、加算器15は予測誤差に参照ブロックデータを加算し
て、現フレームの画像データを復元する。この画像デー
タは参照画像データとしてフレームメモリ16に格納され
る。
Thus, in this case, the prediction error is DC
A P picture is created by performing T processing, quantization processing, and variable length coding processing. In addition, the quantization output is an inverse quantization circuit.
13 and the inverse DCT circuit 14 restores the data before the DCT processing and supplies it to the adder 15. Since the output of the subtraction circuit 3 is the prediction error, the output of the inverse DCT circuit 14 is also the prediction error. The adder 15 is supplied with the motion-compensated reference block data up to the previous frame via the switch 5, and the adder 15 adds the reference block data to the prediction error to restore the image data of the current frame. . This image data is stored in the frame memory 16 as reference image data.

【0054】次に、Bピクチャに設定された映像データ
が入力されるものとする。この場合にも、スイッチ5は
オンとなる。動き評価回路33はフレーム順並べ換え回路
31の出力とフレームメモリ16の出力とから動きベクトル
を求めて動き補償回路17,18に出力する。動き補償回路
17はフレームメモリ16に格納されている前方参照画像の
ブロック化位置を動きベクトルによって補正して、動き
補償した参照ブロックデータを出力する。また、動き補
償回路18はフレームメモリ16に格納されている後方参照
画像のブロック化位置を動きベクトルによって補正し
て、動き補償した参照ブロックデータを出力する。
Next, it is assumed that the video data set for the B picture is input. Also in this case, the switch 5 is turned on. The motion evaluation circuit 33 is a frame rearrangement circuit
A motion vector is obtained from the output of 31 and the output of the frame memory 16 and output to the motion compensation circuits 17 and 18. Motion compensation circuit
A block 17 corrects the blocking position of the forward reference image stored in the frame memory 16 with a motion vector, and outputs motion-compensated reference block data. Further, the motion compensation circuit 18 corrects the blocking position of the backward reference image stored in the frame memory 16 by the motion vector and outputs the motion-compensated reference block data.

【0055】動き補償回路17,18の出力は夫々係数器2
1,22によって係数α,βと乗算された後、加算器23に
よって加算されて選択回路19に与えられる。選択回路19
は動き評価回路33に制御されて、予測方向に応じて動き
補償回路17,18又は加算器23の出力を選択する。こうし
て、動き補償された参照ブロックデータがスイッチ5を
介して減算回路3に与えられ、減算回路3は現フレーム
との予測誤差を出力する。この予測誤差がDCT処理、
量子化処理及び可変長符号化処理されて、前方、後方又
は両方向の参照画像を用いたBピクチャが作成される。
The outputs of the motion compensation circuits 17 and 18 are coefficient units 2 respectively.
After being multiplied by the coefficients α and β by 1 and 22, they are added by the adder 23 and given to the selection circuit 19. Selection circuit 19
Is controlled by the motion evaluation circuit 33 to select the output of the motion compensation circuits 17, 18 or the adder 23 according to the prediction direction. In this way, the motion-compensated reference block data is given to the subtraction circuit 3 via the switch 5, and the subtraction circuit 3 outputs a prediction error from the current frame. This prediction error is DCT processing,
Quantization processing and variable length coding processing are performed to create a B picture using reference images in the front, rear, or both directions.

【0056】ここで、図2(a)に示すフレーム番号3
の画像フレームP3 のタイミングでシーンチェンジが発
生するものとする。なお、図2(a)の画像フレームP
-3までがGOP0に対応し、画像フレームB-2乃至P6
がGOP1に対応し、画像フレームB7 以降のフレーム
がGOP2に対応している。シーンチェンジ検出回路32
は、シーンチェンジを検出すると、シーンチェンジフラ
グをフレーム順並べ換え回路31、動き評価回路33及びオ
ーバヘッドデータ発生回路34に出力する。
Here, the frame number 3 shown in FIG.
It is assumed that a scene change occurs at the timing of the image frame P3. The image frame P of FIG.
-3 corresponds to GOP0, and image frames B-2 to P6
Corresponds to GOP1, and frames after the image frame B7 correspond to GOP2. Scene change detection circuit 32
When detecting a scene change, outputs a scene change flag to the frame rearrangement circuit 31, the motion evaluation circuit 33, and the overhead data generation circuit 34.

【0057】本実施例においては、GOP途中でシーン
チェンジが発生すると、このタイミングでGOPを分割
する。即ち、図2(b)に示すように、GOP1に対応
する第−2画像フレームから第6画像フレームまでのう
ち第−2画像フレームから第2画像フレームまでをGO
P1,1とし、第3フレームから第6フレームまでをG
OP1,2とする。そして、これらのGOP1,1とG
OP1,2との間、即ち、シーン間で予測符号化を行わ
ないようにするために、符号化方法を変更する。つま
り、図2(b)に示すように、GOP1,1の最後の第
2画像フレームをBピクチャからPピクチャ(又はIピ
クチャ)に変更する。同様に、GOP1,2の最初の第
3画像フレームをPピクチャからIピクチャに変更す
る。また、このピクチャタイプの変更に伴って、フレー
ム順も変更する。
In this embodiment, when a scene change occurs during GOP, the GOP is divided at this timing. That is, as shown in FIG. 2B, GO from the -2nd image frame to the 2nd image frame among the -2nd image frame to the 6th image frame corresponding to GOP1.
P1,1 and G from the third frame to the sixth frame
OP1 and OP2. And these GOP 1,1 and G
The encoding method is changed so as not to perform predictive encoding between OP1 and OP2, that is, between scenes. That is, as shown in FIG. 2B, the last second image frame of GOP1, 1 is changed from the B picture to the P picture (or I picture). Similarly, the first third image frame of GOP1 and GOP2 is changed from a P picture to an I picture. Also, the frame order is changed in accordance with the change of the picture type.

【0058】フレーム順並べ換え回路31は、GOP途中
のPピクチャとして符号化する予定であった画像フレー
ムP3 のタイミングでシーンチェンジフラグが発生する
と、GOP1,1の最後の画像フレームP2 と直前の画
像フレームB1 との出力順を入れ換える。また、第3画
像フレームI3 をGOP1,2の先頭フレームとしてシ
ーンチェンジ後の最初に出力し、画像フレームP6 を画
像フレームB4 ,B5の参照画像として、シーンチェン
ジ後の2番目に出力する。フレーム順並べ換え回路31は
フレームの出力順の情報を動き評価回路33に出力する。
When the scene change flag occurs at the timing of the image frame P3 which was to be encoded as a P picture in the middle of GOP, the frame order rearrangement circuit 31 generates the last image frame P2 of GOP1,1 and the immediately preceding image frame. Swap the output order with B1. Further, the third image frame I3 is output as the first frame of GOP1 and 2 after the scene change, and the image frame P6 is output second as the reference image of the image frames B4 and B5 after the scene change. The frame order rearrangement circuit 31 outputs information on the output order of frames to the motion evaluation circuit 33.

【0059】フレーム順並べ換え回路31からの映像デー
タは減算回路3及び動き評価回路33に与えられる。画像
フレームP2 が入力されると、動き評価回路33は画像フ
レームI0 との間で動きベクトルを求めて、動き補償回
路17に出力する。また、この場合には、動き評価回路33
は選択回路19に動き補償回路17の出力を選択させる。こ
うして、減算回路3には画像フレームI0 との間で動き
補償された参照ブロックデータが与えられて予測誤差が
求められる。これにより、画像フレームP2 は前方予測
符号化されてマルチプレクサ10に出力される。
The video data from the frame order rearrangement circuit 31 is given to the subtraction circuit 3 and the motion evaluation circuit 33. When the image frame P2 is input, the motion evaluation circuit 33 obtains a motion vector with the image frame I0 and outputs it to the motion compensation circuit 17. In this case, the motion evaluation circuit 33
Causes the selection circuit 19 to select the output of the motion compensation circuit 17. Thus, the subtraction circuit 3 is supplied with the motion-compensated reference block data with the image frame I0 to obtain the prediction error. As a result, the image frame P2 is forward predictively encoded and output to the multiplexer 10.

【0060】次の画像フレームB1 が入力されると、動
き評価回路33は画像フレームI0 ,P2 との間で動きベ
クトルを求めて、動き補償回路17,18に出力する。ま
た、この場合には、動き評価回路33は選択回路19に動き
補償回路17,18又は加算器23のいずれかの出力を選択さ
せる。こうして、減算回路3は画像フレームI0 ,P2
との間で動き補償された参照ブロックデータが与えられ
て予測誤差が求められる。これにより、画像フレームB
1 は両方向予測符号化されてマルチプレクサ10に出力さ
れる。
When the next image frame B1 is input, the motion evaluation circuit 33 obtains a motion vector between the image frames I0 and P2 and outputs it to the motion compensation circuits 17 and 18. Further, in this case, the motion evaluation circuit 33 causes the selection circuit 19 to select the output of either the motion compensation circuits 17 and 18 or the adder 23. In this way, the subtraction circuit 3 operates the image frames I0 and P2.
The motion-compensated reference block data is given between and to obtain the prediction error. As a result, the image frame B
1 is bidirectionally predictively coded and output to the multiplexer 10.

【0061】次の画像フレームI3 は減算回路3を介し
てそのままDCT回路6に供給されて、フレーム内圧縮
処理が施される。次に、画像フレームP6 が入力される
と、動き評価回路33は、画像フレームI3 との間で動き
ベクトルを求めて動き補償回路17に与え、動き補償回路
17からの動き補償された参照ブロックデータを減算回路
3に出力させる。こうして、減算回路3は画像フレーム
P6 と画像フレームI3 との間の予測誤差を求めてDC
T回路6に出力する。画像フレームP6 は前方予測符号
化されて符号化フレームP6 として出力される。
The next image frame I3 is directly supplied to the DCT circuit 6 via the subtraction circuit 3 and subjected to intra-frame compression processing. Next, when the image frame P6 is input, the motion evaluation circuit 33 obtains a motion vector with the image frame I3 and gives it to the motion compensation circuit 17,
The motion-compensated reference block data from 17 is output to the subtraction circuit 3. In this way, the subtraction circuit 3 obtains the prediction error between the image frame P6 and the image frame I3, and calculates the DC error.
Output to the T circuit 6. The image frame P6 is forward predictively encoded and output as an encoded frame P6.

【0062】同様にして、次の画像フレームB4 は画像
フレームI3 ,P6 を参照画像とする両方向予測符号化
によって符号化されて、符号化フレームB4 が得られ
る。次に符号化される画像フレームB5 も画像フレーム
I3 ,P6 を参照画像とする両方向予測符号化によって
符号化される。
Similarly, the next image frame B4 is coded by bidirectional predictive coding using the image frames I3 and P6 as reference images to obtain a coded frame B4. The image frame B5 to be encoded next is also encoded by bidirectional predictive encoding using the image frames I3 and P6 as reference images.

【0063】このように、GOP1,2の各画像フレー
ムは、GOP1,2内の画像フレームのみを用いた予測
符号化が行われる。即ち、GOP1,1とGOP1,2
とはシーン間の予測が用いられておらず、相互に独立し
ている。
As described above, each image frame of GOP1 and GOP2 is subjected to predictive coding using only the image frame in GOP1 and GOP2. That is, GOP1,1 and GOP1,2
It does not use inter-scene prediction and is independent of each other.

【0064】また、シーンチェンジ検出回路32のシーン
チェンジフラグはオーバヘッドデータ発生回路34にも供
給される。オーバヘッドデータ発生回路34は、GOP
1,2が閉じたGOPであることを示すクローズドフラ
グを発生してオーバヘッドデータとしてマルチプレクサ
10に出力する。マルチプレクサ10はレートバッファ9か
らの符号化出力にオーバヘッドデータを多重して出力す
る。
The scene change flag of the scene change detection circuit 32 is also supplied to the overhead data generation circuit 34. The overhead data generation circuit 34 uses the GOP
A closed flag indicating that 1 and 2 are closed GOPs is generated, and the multiplexer is used as overhead data.
Output to 10. The multiplexer 10 multiplexes the encoded data from the rate buffer 9 with the overhead data and outputs it.

【0065】このようにして作成された符号化出力をシ
ーンチェンジタイミングで編集して再符号化するものと
する。つまり、この場合には、図2(c)の符号化フレ
ームI3 のタイミングで再符号化が開始される。この場
合には、GOP1,2を構成する符号化フレームI3 乃
至B5 に対応する画像フレームI3 乃至P6 を図2
(b)と同一のピクチャタイプで再符号化する。編集前
のGOP1,1とGOP1,2とは相互に独立している
ので、編集しない場合と編集した場合とで略々同様の符
号量制御が可能である。
It is assumed that the encoded output created in this way is edited and re-encoded at the scene change timing. That is, in this case, re-encoding is started at the timing of the encoded frame I3 in FIG. 2 (c). In this case, the image frames I3 to P6 corresponding to the coded frames I3 to B5 forming the GOPs 1 and 2 are shown in FIG.
Re-encoding with the same picture type as in (b). Since GOP 1,1 before editing and GOP 1,2 are independent from each other, almost the same code amount control can be performed with and without editing.

【0066】次に、GOP中のBピクチャのタイミング
でシーンチェンジが発生するものとする。この場合にお
いても、図3(a),(b)に示すように、GOP1を
GOP1,1とGOP1,2とに分割し、GOP1,1
の最後の画像フレームのピクチャタイプをPにすると共
に、GOP1,2中で最初にPピクチャに設定されてい
た画像フレームのピクチャタイプをIに変更する。フレ
ーム順並べ換え回路31は、シーンチェンジ後に最初にP
ピクチャとして符号化する予定であった画像フレームP
3 をシーンチェンジ後の最初の画像フレームI3 として
出力し、次にシーンチェンジタイミングの画像フレーム
B2 を出力する。
Next, assume that a scene change occurs at the timing of a B picture in a GOP. Also in this case, GOP1 is divided into GOP1,1 and GOP1,2 as shown in FIGS.
The picture type of the last image frame is changed to P, and the picture type of the image frame initially set to the P picture in GOP1 and GOP2 is changed to I. The frame order rearrangement circuit 31 first sets P after the scene change.
The image frame P that was to be encoded as a picture
3 is output as the first image frame I3 after the scene change, and then the image frame B2 at the scene change timing is output.

【0067】即ち、シーンチェンジが発生すると、フレ
ーム順並べ換え回路31はGOP1,2の最初の画像フレ
ームとして第3画像フレームI3 を出力する。この画像
フレームI3 は減算回路3を介してそのままDCT回路
6に供給されてフレーム内圧縮される。また、シーンチ
ェンジフラグはオーバヘッドデータ発生回路34にも供給
されて、クローズドフラグがオーバヘッドデータとして
出力される。
That is, when a scene change occurs, the frame order rearrangement circuit 31 outputs the third image frame I3 as the first image frame of GOP1 and GOP2. This image frame I3 is directly supplied to the DCT circuit 6 via the subtraction circuit 3 and is compressed in the frame. The scene change flag is also supplied to the overhead data generation circuit 34, and the closed flag is output as overhead data.

【0068】次に、フレーム順並べ換え回路31は画像フ
レームB2 を出力する。シーンチェンジが発生しない場
合には、画像フレームB2 は、前方の画像フレームP1
と後方の画像フレームI3 とを参照画像として符号化さ
れるものであるが、この場合には、クローズドフラグに
よってシーン間の予測が禁止されているので、参照画像
として画像フレームP1 を用いずに、GOP1,2中の
画像フレームI3 のみを参照画像とする。動き評価回路
33は画像フレームI3 との間で動きベクトルを求め、動
き補償回路18は画像フレームI3 のローカルデコードデ
ータを動き補償して参照ブロックデータとして出力す
る。これにより、画像フレームB2 は後方予測符号化さ
れる。
Next, the frame order rearrangement circuit 31 outputs the image frame B2. When no scene change occurs, the image frame B2 is the front image frame P1.
And the subsequent image frame I3 are coded as reference images. In this case, since the inter-scene prediction is prohibited by the closed flag, the image frame P1 is not used as the reference image. Only the image frame I3 in GOP1 and GOP2 is used as the reference image. Motion evaluation circuit
A motion vector 33 is used to obtain a motion vector with respect to the image frame I3, and the motion compensation circuit 18 motion-compensates the locally decoded data of the image frame I3 and outputs it as reference block data. As a result, the image frame B2 is backward predictively coded.

【0069】GOP1,2内の以後の画像フレームにお
いても、GOP1,2内の画像フレームを参照画像とし
て予測符号化される。これにより、この場合において
も、GOP1,1とGOP1,2とは相互に独立であ
る。
In the subsequent image frames in GOP1 and GOP2, the image frames in GOP1 and GOP2 are used as reference images for predictive coding. As a result, even in this case, the GOP 1,1 and the GOP 1,2 are independent of each other.

【0070】こうして、編集時において、シーンチェン
ジ単位の編集が可能となる。
In this way, at the time of editing, it is possible to edit in scene change units.

【0071】このように、本実施例においては、シーン
チェンジを検出すると、このタイミングでGOPを分割
し、シーンチェンジ直前の画像フレームのピクチャタイ
プをPに設定し、シーンチェンジ後の最初にPピクチャ
として符号化する予定であった画像フレームのピクチャ
タイプをIに設定する。また、ピクチャタイプの変更に
応じて符号化のフレーム順を変更して、シーンチェンジ
前後のGOPを相互に独立にする。これにより、シーン
チェンジタイミングで編集を行うことを可能にする。
As described above, in this embodiment, when a scene change is detected, the GOP is divided at this timing, the picture type of the image frame immediately before the scene change is set to P, and the P picture is first displayed after the scene change. The picture type of the image frame that was to be encoded as is set to I. Also, the frame order of encoding is changed according to the change of the picture type so that the GOPs before and after the scene change are mutually independent. This enables editing at the scene change timing.

【0072】なお、本実施例においては、1GOPに対
応する画像フレームをB,B,I,B,B,P,B,
B,Pとして説明したが、異なる構成の画像フレームで
あってもよいことは明らかである。
In this embodiment, the image frames corresponding to 1 GOP are B, B, I, B, B, P, B,
Although described as B and P, it is obvious that image frames having different configurations may be used.

【0073】ところで、図2では、シーンチェンジタイ
ミングでGOPを分割して、1GOPに対応する画像フ
レームから相互に独立した2つのGOPを作成してい
る。これに対し、シーンチェンジまでの画像でGOPを
完結させ、シーンチェンジ以後に通常と同様のGOPを
新たに作成する方法も考えられる。この場合でも、図1
と同様の回路構成で実現することができ、フレーム順並
べ換え回路31及び動き評価回路33によるピクチャタイプ
の決定及びフレーム順の変更のアルゴリズムを変更する
のみでよい。
By the way, in FIG. 2, the GOP is divided at the scene change timing to create two GOPs which are independent of each other from the image frame corresponding to one GOP. On the other hand, a method of completing the GOP with the images up to the scene change and newly creating a GOP similar to the normal after the scene change is also conceivable. Even in this case,
It can be realized by a circuit configuration similar to that described above, and only the algorithm for determining the picture type and changing the frame order by the frame rearrangement circuit 31 and the motion estimation circuit 33 need be changed.

【0074】図4及び図5はこの場合のピクチャタイプ
の決定及びフレーム順の変更を説明するための説明図で
ある。図4及び図5(a)乃至(c)は夫々図2及び図
3(a)乃至(c)に対応している。
FIGS. 4 and 5 are explanatory views for explaining the determination of the picture type and the change of the frame order in this case. FIGS. 4 and 5A to 5C correspond to FIGS. 2 and 3A to 3C, respectively.

【0075】GOP途中でシーンチェンジを検出した場
合には、シーンチェンジまでの画像フレームでGOPを
完結させる。例えば1GOPをN枚の符号化フレームで
構成した場合でも、シーンチェンジによってGOPを完
結させて、Nよりも少ない枚数の符号化フレームでGO
Pを構成する。そして、シーンチェンジが検出された画
像フレーム以降のN枚の画像フレームを用いて新たに1
GOPを構成する。GOPを完結させるためには、上述
したように、シーンチェンジ直前の画像フレームをPピ
クチャ(又はIピクチャ)に変更すればよい。
When a scene change is detected during the GOP, the GOP is completed with the image frames up to the scene change. For example, even if one GOP is composed of N coded frames, the GOP is completed by a scene change, and GO is executed with a coded frame of less than N.
Configure P. Then, a new 1 is added using N image frames after the image frame in which the scene change is detected.
Configure GOP. In order to complete the GOP, as described above, the image frame immediately before the scene change may be changed to the P picture (or I picture).

【0076】いま、図4(a)に示す画像フレームが入
力されるものとする。なお、シーンチェンジが発生しな
い場合には、画像フレームB-2乃至P6 の9画像フレー
ムがGOP1に対応している。画像フレームP3 のタイ
ミングでシーンチェンジが発生すると、画像フレームB
2 まででGOP1を完結させる。即ち、GOP1と次の
GOP2′との間で予測を行わないように、図4(b)
に示すように、最後の画像フレームB2 のピクチャタイ
プをPに変更する。
Now, assume that the image frame shown in FIG. 4A is input. If no scene change occurs, nine image frames B-2 to P6 correspond to GOP1. When a scene change occurs at the timing of image frame P3, image frame B
Complete GOP1 by 2 That is, the prediction is not performed between GOP1 and the next GOP2 ', as shown in FIG.
The picture type of the last image frame B2 is changed to P as shown in FIG.

【0077】次のGOP2′は9画像フレームを用いた
通常のGOPであるので、図4(b)に示すように、第
3,4画像フレームのピクチャタイプをBとし、第5画
像フレームのピクチャタイプをIとする。また、GOP
1の符号化フレームを用いた予測を禁止するために、G
OP2′をクローズドにする。
Since the next GOP 2'is a normal GOP using 9 image frames, the picture type of the 3rd and 4th image frames is set to B and the picture of the 5th image frame is set to B, as shown in FIG. 4B. Let type be I. Also, GOP
In order to prohibit the prediction using one encoded frame,
OP2 'is closed.

【0078】フレーム順並べ換え回路31は、図4(a)
に示す画像フレームP3 のタイミングでシーンチェンジ
フラグが発生すると、GOP1の最後の画像フレームP
2 と直前の画像フレームB1 との出力順を入れ換える。
また、動き評価回路33は、画像フレームP2 の参照画像
として画像フレームI0 を用い、画像フレームB1 の参
照画像として画像フレームI0 ,P2 を用いる。これに
より、図4(c)に示すように、符号化フレームI0 ,
B-2,B-1,P2 ,B1 の5フレームによって構成され
るGOP1が作成される。
The frame order rearrangement circuit 31 is shown in FIG.
When the scene change flag is generated at the timing of the image frame P3 shown in FIG.
The output order of 2 and the immediately preceding image frame B1 is exchanged.
Further, the motion evaluation circuit 33 uses the image frame I0 as a reference image of the image frame P2 and the image frames I0 and P2 as a reference image of the image frame B1. As a result, as shown in FIG. 4C, the coded frames I0,
A GOP1 composed of five frames B-2, B-1, P2 and B1 is created.

【0079】次にフレーム順並べ換え回路31は画像フレ
ームI5 を出力する。この画像フレームI5 はフレーム
内圧縮される。次に、フレーム順並べ換え回路31は画像
フレームB3 を出力する。この場合には、オーバヘッド
データ発生回路34はクローズドフラグを発生させてお
り、動き評価回路33は画像フレームI5 を用いた後方予
測を可能にする。また、同様に、画像フレームB4 につ
いても画像フレームI5を用いた後方予測を行う。次の
画像フレームP8 以降の符号化は通常のGOP作成時と
同様である。
Next, the frame order rearrangement circuit 31 outputs the image frame I5. This image frame I5 is compressed in the frame. Next, the frame order rearrangement circuit 31 outputs the image frame B3. In this case, the overhead data generation circuit 34 has generated the closed flag, and the motion evaluation circuit 33 enables backward prediction using the image frame I5. Similarly, backward prediction using the image frame I5 is performed for the image frame B4. The encoding of the next image frame P8 and the subsequent ones is the same as the normal GOP creation.

【0080】このように、この場合には、GOP1をシ
ーンチェンジタイミングで完結させると共に、次のGO
P2′をクローズドにして符号化を行っている。従っ
て、シーンチェンジタイミングにおいて編集を行った場
合でも、編集前と同様に、GOPの連続性を維持するこ
とができ、符号量制御等が容易になる。
Thus, in this case, GOP1 is completed at the scene change timing, and the next GO
Coding is performed with P2 'closed. Therefore, even when the editing is performed at the scene change timing, the continuity of GOP can be maintained as in the case before the editing, and the code amount control and the like becomes easy.

【0081】また、図5はGOP1途中の画像フレーム
B2 のタイミングでシーンチェンジが発生した場合の例
を示している。この場合には、動き評価回路33はGOP
1に対応する最後の画像フレームP1 (図5(a))を
そのままPピクチャとする(図5(b))。これによ
り、GOP1を完結する。
FIG. 5 shows an example in which a scene change occurs at the timing of the image frame B2 in the middle of GOP1. In this case, the motion evaluation circuit 33 uses the GOP
The last image frame P1 (FIG. 5 (a)) corresponding to 1 is directly used as a P picture (FIG. 5 (b)). This completes GOP1.

【0082】次の画像フレームB2 以降の9フレームに
よってGOP2′を作成する。フレーム順並べ換え回路
31は、先ず画像フレームI4 をGOP2′の先頭フレー
ムとして出力する。この画像フレームI4 はフレーム内
圧縮される。また、GOP2′にはクローズドフラグが
たてられる。次に画像フレームB2 がフレーム順並べ換
え回路31から出力される。動き評価回路33は画像フレー
ムB2 の参照画像として後方の画像フレームI4 のみを
指定する。また、同様に、次に出力される画像フレーム
B3 の参照画像も画像フレームI4 のみが用いられる。
これにより、GOP2′の全画像フレームに対してGO
P2′内の画像フレームのみを用いた閉じた符号化が行
われる。
A GOP2 'is created by nine frames after the next image frame B2. Frame order rearrangement circuit
31 first outputs the image frame I4 as the head frame of GOP2 '. This image frame I4 is intraframe compressed. A closed flag is set in GOP2 '. Next, the image frame B2 is output from the frame order rearrangement circuit 31. The motion evaluation circuit 33 specifies only the rear image frame I4 as the reference image of the image frame B2. Similarly, only the image frame I4 is used as the reference image of the image frame B3 to be output next.
As a result, GO is applied to all image frames of GOP2 '.
Closed encoding is performed using only the image frames in P2 '.

【0083】こうして、この場合にも、GOPの連続性
を維持したまま、シーンチェンジタイミングで編集を行
うことが可能となる。
Thus, also in this case, it is possible to edit at the scene change timing while maintaining the continuity of GOP.

【0084】更に、シーンチェンジが発生したGOPを
クローズドにすることによりシーン単位の編集を可能に
することも考えられる。図6及び図7はこの場合のピク
チャタイプの決定及びフレーム順の変更を説明するため
の説明図である。図6及び図7(a)乃至(c)は夫々
図2及び図3(a)乃至(c)に対応している。なお、
この場合も、フレーム順並べ換え回路31及び動き評価回
路33によるピクチャタイプの決定及びフレーム順の変更
のアルゴリズムを変更することにより実現可能である。
Further, it is possible to edit the scene unit by closing the GOP in which the scene change has occurred. 6 and 7 are explanatory diagrams for explaining the determination of the picture type and the change of the frame order in this case. FIGS. 6 and 7A to 7C correspond to FIGS. 2 and 3A to 3C, respectively. In addition,
Also in this case, it can be realized by changing the algorithm for determining the picture type and changing the frame order by the frame order rearrangement circuit 31 and the motion estimation circuit 33.

【0085】GOP途中でシーンチェンジを検出した場
合には、シーンチェンジが属するGOPをクローズドに
して符号化する。即ち、このGOPの各画像フレームの
符号化において、前GOPの画像フレームを用いた予測
を行わない。更に、シーンチェンジ前の各画像フレーム
はシーンチェンジ前の画像フレームのみを用いた予測符
号化を行い、シーンチェンジ後の各画像フレームはシー
ンチェンジ後の画像フレームのみを用いた予測符号化を
行う。
When a scene change is detected in the middle of a GOP, the GOP to which the scene change belongs is closed and encoded. That is, in encoding each image frame of this GOP, prediction using the image frame of the previous GOP is not performed. Further, each image frame before the scene change is subjected to the predictive coding using only the image frame before the scene change, and each image frame after the scene change is subjected to the predictive coding using only the image frame after the scene change.

【0086】いま、図6(a)に示す画像フレームが入
力されるものとする。なお、シーンチェンジが発生しな
い場合には、画像フレームB-2乃至P6 の9画像フレー
ムがGOP1に対応している。画像フレームP3 のタイ
ミングでシーンチェンジが発生するものとする。そうす
ると、オーバヘッドデータ発生回路34はシーンチェンジ
検出回路32からのシーンチェンジフラグによって、GO
P1をクローズドにしたことを示すオーバヘッドデータ
を発生する。また、シーン間の予測を行わないために、
図6(b)に示すように、画像フレームB1 ,B2 のピ
クチャタイプをPに変更する。また、同様に、シーンチ
ェンジ直後の画像フレームP3 のピクチャタイプをIに
変更する。
Now, assume that the image frame shown in FIG. 6A is input. If no scene change occurs, nine image frames B-2 to P6 correspond to GOP1. It is assumed that a scene change occurs at the timing of the image frame P3. Then, the overhead data generation circuit 34 responds to the GO by the scene change flag from the scene change detection circuit 32.
Overhead data indicating that P1 is closed is generated. Also, in order not to predict between scenes,
As shown in FIG. 6B, the picture type of the image frames B1 and B2 is changed to P. Similarly, the picture type of the image frame P3 immediately after the scene change is changed to I.

【0087】フレーム順並べ換え回路31は、クローズド
GOP1の先頭フレームとして画像フレームI0 を出力
する。この画像フレームI0 はフレーム内圧縮されて出
力される。次に、フレーム順並べ換え回路31は画像フレ
ームB-2,B-1を順次出力する。GOP1はクローズド
に設定されているので、動き評価回路33はこれらの画像
フレームの符号化時に動き補償回路18を選択させて、後
方参照画像のみを用いた予測符号化を採用する。
The frame order rearrangement circuit 31 outputs the image frame I0 as the first frame of the closed GOP1. This image frame I0 is output after being compressed in the frame. Next, the frame order rearrangement circuit 31 sequentially outputs the image frames B-2 and B-1. Since GOP1 is set to be closed, the motion estimation circuit 33 selects the motion compensation circuit 18 at the time of encoding these image frames and adopts the predictive encoding using only the backward reference image.

【0088】次に、画像フレームI0 を用いて符号化フ
レームP1 ,P2 を作成する。符号化フレームP1 ,P
2 は画像フレームI3 を予測に用いておらず、クローズ
ドGOP1の符号化フレームB-2乃至P2 はGOP1内
で独立した符号化が行われている。
Next, the coded frames P1 and P2 are created using the image frame I0. Encoded frames P1 and P
2 does not use the image frame I3 for prediction, and the coded frames B-2 to P2 of the closed GOP1 are independently coded in GOP1.

【0089】次に、シーンチェンジ後の画像フレームI
3 をフレーム内圧縮する。更に、画像フレームI3 を用
いて画像フレームP6 を前方予測符号化する。次に、こ
れらの画像フレームI3 ,P6 を用いて、画像フレーム
B4 ,B5 を両方向予測符号化する。これらの画像フレ
ームI3 乃至P6 もGOP1内のシーンチェンジ前の各
画像フレーム及びGOP2の画像フレームを予測に用い
ておらず、独立している。
Next, the image frame I after the scene change
Compress 3 in frame. Further, the image frame P6 is forward predictively encoded using the image frame I3. Next, using these image frames I3 and P6, the image frames B4 and B5 are bidirectionally predictively coded. These image frames I3 to P6 are also independent of each other without using the image frames before the scene change in GOP1 and the image frame of GOP2.

【0090】このようにして作成された符号化データを
再符号化する場合には、クローズドGOPの先頭フレー
ムから再符号化を開始する。この場合には、GOP1が
クローズドであるので、GOP1の先頭フレームから再
符号化が可能である。符号化パラメータを変化させずに
再符号化することによりシーンチェンジ前の各符号化フ
レームは再符号化前と同一となる。画像フレームI3 以
降は新たな符号化パラメータを設定して再符号化を行
う。この場合にも、クローズドGOP1のシーンチェン
ジ後の各画像フレームは独立して符号化されており、再
符号化が可能となっている。
When re-encoding the encoded data created in this way, re-encoding is started from the first frame of the closed GOP. In this case, since GOP1 is closed, re-encoding is possible from the first frame of GOP1. By performing re-encoding without changing the encoding parameter, each encoded frame before the scene change becomes the same as before re-encoding. After the image frame I3, new encoding parameters are set and re-encoding is performed. Also in this case, each image frame after the scene change of the closed GOP 1 is independently coded, and re-coding is possible.

【0091】このように、この場合においても、図2乃
至図5の場合と同様の効果を得ることができる。
As described above, also in this case, the same effect as in the case of FIGS. 2 to 5 can be obtained.

【0092】また、図7はGOP1途中の画像フレーム
B2 のタイミングでシーンチェンジが発生した場合の例
を示している。この場合には、シーンチェンジ直前の画
像フレームB1 のピクチャタイプをPに変更し、シーン
チェンジ直後の画像フレームB2 のピクチャタイプをI
に変更する。画像フレームB1 をPピクチャに変更する
ことにより、シーンチェンジ直後の画像フレームP3 を
用いた予測が不要となり、GOP1のシーンチェンジ前
の各画像フレームは閉じた符号化が可能となる。また、
同様に、GOP1のシーンチェンジ後の各画像フレーム
についても、画像フレームB2 をIピクチャに変更して
いるので閉じた符号化が可能である。
FIG. 7 shows an example in which a scene change occurs at the timing of image frame B2 in the middle of GOP1. In this case, the picture type of the image frame B1 immediately before the scene change is changed to P, and the picture type of the image frame B2 immediately after the scene change is I.
Change to By changing the image frame B1 to the P picture, the prediction using the image frame P3 immediately after the scene change becomes unnecessary, and each image frame before the scene change of GOP1 can be closed and encoded. Also,
Similarly, with respect to each image frame after the scene change of GOP1, since the image frame B2 is changed to the I picture, closed encoding is possible.

【0093】従って、このようにして作成された符号化
データをシーンチェンジタイミングで編集した場合で
も、GOPの連続性を維持することができる。
Therefore, even when the coded data thus created is edited at the scene change timing, the continuity of GOP can be maintained.

【0094】更に、本実施例では、図8及び図9に示す
方法を採用することも可能である。図8及び図9はピク
チャタイプの決定及びフレーム順の変更を説明するため
の説明図であり、図8及び図9(a)乃至(c)は夫々
図2及び図3(a)乃至(c)に対応している。
Further, in this embodiment, it is possible to adopt the method shown in FIGS. 8 and 9. 8 and 9 are explanatory diagrams for explaining the determination of the picture type and the change of the frame order, and FIGS. 8 and 9A to 9C are FIGS. 2 and 3A to 3C, respectively. ) Is supported.

【0095】編集点をGOPの境界に設定した場合に
は、従来、編集点直後のGOPにクローズドフラグをた
てることにより、前GOPの画像フレームを用いた予測
が行われないことを示す。しかし、上述したように、編
集前においては予測が用いられており、GOPは独立で
なく、編集した場合としない場合とで同一の符号量制御
を行うことはできない。
When the edit point is set at the boundary of the GOP, conventionally, the closed flag is set to the GOP immediately after the edit point, which indicates that the prediction using the image frame of the previous GOP is not performed. However, as described above, prediction is used before editing, GOPs are not independent, and the same code amount control cannot be performed with and without editing.

【0096】そこで、編集に簡易的に対応するために、
GOPの境界でシーンチェンジが発生した場合には、符
号化時にシーンチェンジ直後のGOPをクローズドに設
定する。更に、GOP途中でシーンチェンジが発生した
場合には、シーンチェンジが含まれるGOPの次のGO
Pをクローズドに設定する。この場合には、シーンチェ
ンジでは編集できないが、GOP単位では確実に編集す
ることができる。
Therefore, in order to easily handle editing,
When a scene change occurs at the boundary of GOP, the GOP immediately after the scene change is set to closed at the time of encoding. Furthermore, when a scene change occurs during GOP, the GO next to the GOP including the scene change
Set P to closed. In this case, editing cannot be performed by changing the scene, but can be surely performed by GOP.

【0097】いま、図8(a)に示す画像フレームが入
力されるものとする。なお、画像フレームB-2乃至P6
の9画像フレームがGOP1に対応している。GOP1
の先頭フレームである画像フレームB2 のタイミングで
シーンチェンジが発生するものとする。そうすると、オ
ーバヘッドデータ発生回路34はシーンチェンジ検出回路
32からのシーンチェンジフラグによって、GOP1をク
ローズドにしたことを示すオーバヘッドデータを発生す
る。即ち、GOP1の予測にはGOP0の画像フレーム
を用いない。
Now, assume that the image frame shown in FIG. 8A is input. The image frames B-2 to P6
9 image frames correspond to GOP1. GOP1
It is assumed that a scene change occurs at the timing of the image frame B2 which is the first frame of the. Then, the overhead data generation circuit 34 becomes the scene change detection circuit.
The scene change flag from 32 generates overhead data indicating that GOP1 is closed. That is, the image frame of GOP0 is not used for the prediction of GOP1.

【0098】フレーム順並べ換え回路31は、クローズド
GOP1の先頭フレームとして画像フレームI0 を出力
する。この画像フレームI0 はフレーム内圧縮されて出
力される。次に、フレーム順並べ換え回路31は画像フレ
ームB-2,B-1を順次出力する。GOP1はクローズド
に設定されているので、動き評価回路33はこれらの画像
フレームの符号化時に動き補償回路18を選択させて、後
方参照画像のみを用いた予測符号化を採用する。こうし
て、GOP1に対して閉じた符号化が行われる。
The frame order rearrangement circuit 31 outputs the image frame I0 as the first frame of the closed GOP1. This image frame I0 is output after being compressed in the frame. Next, the frame order rearrangement circuit 31 sequentially outputs the image frames B-2 and B-1. Since GOP1 is set to be closed, the motion estimation circuit 33 selects the motion compensation circuit 18 at the time of encoding these image frames and adopts the predictive encoding using only the backward reference image. Thus, the closed encoding is performed on GOP1.

【0099】このようにして構成された符号化出力をシ
ーンチェンジタイミングで編集するものとする。この場
合には、GOP1がクローズドに設定されているので、
シーンチェンジ、即ち、GOP1の先頭フレームから例
えば再符号化を行っても、編集前後でGOPの連続性は
維持される。このように、シーン間で独立に符号化され
るので、シーン単位での編集及び再符号化が容易とな
る。
It is assumed that the coded output thus constructed is edited at the scene change timing. In this case, since GOP1 is set to closed,
Even if a scene change is performed, that is, re-encoding is performed from the first frame of GOP1, the continuity of GOP is maintained before and after editing. In this way, since the scenes are encoded independently, editing and re-encoding for each scene becomes easy.

【0100】また、図9はGOP1途中の画像フレーム
B4 のタイミングでシーンチェンジが発生した場合の例
を示している。この場合には、シーンチェンジがGOP
2の先頭フレームのタイミングで発生したものと判断し
て、GOP2をクローズドに設定する(図9(c))。
即ち、GOP2の画像フレームB7 ,B8 については、
後方参照画像として画像フレームI9 を用いた予測符号
化を行う。
FIG. 9 shows an example in which a scene change occurs at the timing of the image frame B4 in the middle of GOP1. In this case, the scene change is GOP
It is determined that the error occurs at the timing of the first frame of No. 2, and GOP2 is set to closed (FIG. 9 (c)).
That is, regarding the image frames B7 and B8 of GOP2,
Predictive coding is performed using the image frame I9 as the backward reference image.

【0101】このようにして構成された符号化データを
編集する場合には、シーンチェンジがGOP2の先頭で
あるものする。このように、GOP2の先頭フレームか
ら編集を行うことによって、編集前後でGOPの連続性
を維持することができる。シーンチェンジの判断をGO
P単位にすることによって、シーンチェンジに伴うフレ
ーム順の変更を行う必要がなくなり、回路構成を簡単化
することができるという利点がある。
When editing the encoded data thus configured, the scene change is assumed to be the head of GOP2. In this way, by performing editing from the first frame of GOP2, the continuity of GOP can be maintained before and after editing. GO decision on scene change
By setting the P unit, it is not necessary to change the frame order due to the scene change, and there is an advantage that the circuit configuration can be simplified.

【0102】[0102]

【発明の効果】以上説明したように本発明によれば、シ
ーン単位の編集及び再符号化を行う場合でも、シーン単
位の独立性を確保してGOPの連続性を維持することが
できるという効果を有する。
As described above, according to the present invention, it is possible to maintain the independence of each scene and maintain the continuity of GOP even when performing the editing and re-encoding of each scene. Have.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るシーン再エンコード装置の一実施
例を示すブロック図。
FIG. 1 is a block diagram showing an embodiment of a scene re-encoding device according to the present invention.

【図2】実施例の動作を説明するための説明図。FIG. 2 is an explanatory diagram for explaining the operation of the embodiment.

【図3】実施例の動作を説明するための説明図。FIG. 3 is an explanatory diagram for explaining the operation of the embodiment.

【図4】実施例の動作を説明するための説明図。FIG. 4 is an explanatory diagram for explaining the operation of the embodiment.

【図5】実施例の動作を説明するための説明図。FIG. 5 is an explanatory diagram for explaining the operation of the embodiment.

【図6】実施例の動作を説明するための説明図。FIG. 6 is an explanatory diagram for explaining the operation of the embodiment.

【図7】実施例の動作を説明するための説明図。FIG. 7 is an explanatory diagram for explaining the operation of the embodiment.

【図8】実施例の動作を説明するための説明図。FIG. 8 is an explanatory diagram for explaining the operation of the embodiment.

【図9】実施例の動作を説明するための説明図。FIG. 9 is an explanatory diagram for explaining the operation of the embodiment.

【図10】MPEG方式の圧縮法を説明するための説明
図。
FIG. 10 is an explanatory diagram for explaining a compression method of the MPEG system.

【図11】MPEG方式に対応した圧縮装置を示すブロ
ック図。
FIG. 11 is a block diagram showing a compression device compatible with the MPEG system.

【図12】GOPの構成を示す説明図。FIG. 12 is an explanatory diagram showing the structure of a GOP.

【符号の説明】[Explanation of symbols]

17,18…動き補償回路、19…選択回路、31…フレーム順
並べ換え回路、32…シーンチェンジ検出回路、33…動き
評価回路、34…オーバヘッドデータ発生回路
17, 18 ... Motion compensation circuit, 19 ... Selection circuit, 31 ... Frame order rearrangement circuit, 32 ... Scene change detection circuit, 33 ... Motion evaluation circuit, 34 ... Overhead data generation circuit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 入力される画像データに基づく入力画像
フレームに対してフレーム内符号化処理、前方の参照画
像を用いた片方向予測符号化処理又は前方及び後方の参
照画像を用いた両方向予測符号化処理による符号化を行
って符号化フレームを出力する符号化手段と、 この符号化手段を制御して、前記フレーム内符号化処
理、片方向予測符号化処理及び両方向予測符号化処理の
各符号化モードをフレーム単位で所定のアルゴリズムで
切換えて所定のフレーム数周期で繰返させる符号化制御
手段と、 前記入力画像フレームのシーンチェンジを検出するシー
ンチェンジ検出手段と、 このシーンチェンジ検出手段の検出結果に基づいて前記
符号化制御手段による前記符号化手段の符号化モードの
制御を変更して、シーンチェンジタイミング前の入力画
像フレームを参照画像とするシーンチェンジタイミング
後の入力画像フレームの予測符号化及びシーンチェンジ
タイミング後の入力画像フレームを参照画像とするシー
ンチェンジタイミング前の入力画像フレームの予測符号
化であるシーン間の予測符号化を禁止する予測符号化制
御手段とを具備したことを特徴とするシーン再エンコー
ド装置。
1. An intraframe coding process for an input image frame based on input image data, a unidirectional predictive coding process using a forward reference image, or a bidirectional predictive code using a forward and backward reference image. Coding means for performing coding by coding processing and outputting a coded frame; and controlling the coding means to code each of the intra-frame coding processing, unidirectional predictive coding processing and bidirectional predictive coding processing. Encoding control means for switching the encoding mode on a frame-by-frame basis by a predetermined algorithm and repeating the cycle at a predetermined number of frames; scene change detecting means for detecting a scene change of the input image frame; and a detection result of the scene change detecting means. Based on the above, the control of the encoding mode of the encoding means by the encoding control means is changed so that the input before the scene change timing is changed. Between the scenes that are predictive coding of the input image frame after the scene change timing using the input image frame as the reference image and the predictive coding of the input image frame before the scene change timing that use the input image frame after the scene change timing as the reference image And a predictive coding control means for prohibiting predictive coding of the scene re-encoding device.
【請求項2】 前記符号化手段から出力される前記所定
のフレーム数周期の複数の符号化フレームは、先頭がフ
レーム内符号化処理によって作成されたフレーム内符号
化フレームであるグループオブピクチャを構成すること
を特徴とする請求項1に記載のシーン再エンコード装
置。
2. A group of pictures in which a plurality of coded frames of the predetermined number of frame cycles output from the coding means have an intra-frame coded frame created at the beginning by an intra-frame coding process. The scene re-encoding device according to claim 1, wherein
【請求項3】 前記予測符号化制御手段は、前記符号化
手段の符号化処理のフレーム順を変更するフレーム順変
更手段と前記符号化手段の符号化モードを選択する選択
手段と、 所定のグループオブピクチャを、他のグループオブピク
チャを用いた予測符号化を禁止したクローズドグループ
オブピクチャに設定するクローズドグループオブピクチ
ャ設定手段とを具備したことを特徴とする請求項2に記
載のシーン再エンコード装置。
3. The predictive coding control means, a frame order changing means for changing a frame order of a coding process of the coding means, a selection means for selecting a coding mode of the coding means, and a predetermined group. 3. The scene re-encoding apparatus according to claim 2, further comprising: a closed group of picture setting unit that sets the of picture to a closed group of picture for which prediction encoding using another group of picture is prohibited. .
【請求項4】 前記クローズドグループオブピクチャを
示す情報を前記符号化手段の出力に多重する多重手段を
付加したことを特徴とする請求項2に記載のシーン再エ
ンコード装置。
4. The scene re-encoding apparatus according to claim 2, further comprising a multiplexing unit that multiplexes information indicating the closed group of pictures to an output of the encoding unit.
【請求項5】前記予測符号化制御手段は、シーンチェン
ジタイミング直前のグループオブピクチャの最後のフレ
ームをフレーム内符号化処理又は片方向予測符号化処理
によって作成することにより、シーンチェンジタイミン
グ後の入力画像フレームを参照画像とするシーンチェン
ジタイミング前の入力画像フレームの予測符号化を禁止
することを特徴とする請求項2に記載のシーン再エンコ
ード装置。
5. The predictive coding control means creates the last frame of the group of pictures immediately before the scene change timing by intra-frame coding processing or unidirectional predictive coding processing, thereby inputting after the scene change timing. The scene re-encoding apparatus according to claim 2, wherein predictive encoding of an input image frame before a scene change timing using an image frame as a reference image is prohibited.
【請求項6】 前記予測符号化制御手段は、シーンチェ
ンジタイミングで前記グループオブピクチャを分割し、
シーンチェンジタイミング直後のグループオブピクチャ
を、他のグループオブピクチャを用いた予測符号化を禁
止したクローズドグループオブピクチャに設定して前記
シーン間の予測符号化を禁止することを特徴とする請求
項2に記載のシーン再エンコード装置。
6. The predictive coding control means divides the group of pictures at a scene change timing,
The group of pictures immediately after the scene change timing is set to a closed group of pictures for which prediction coding using another group of pictures is prohibited to prohibit prediction coding between the scenes. The scene re-encoding device according to 1.
【請求項7】 前記予測符号化制御手段は、シーンチェ
ンジを含む前記グループオブピクチャを、他のグループ
オブピクチャを用いた予測符号化を禁止したクローズド
グループオブピクチャに設定して前記シーン間の予測符
号化を禁止することを特徴とする請求項2に記載のシー
ン再エンコード装置。
7. The predictive coding control means sets the group of pictures including a scene change to a closed group of picture for which prediction coding using another group of pictures is prohibited, and predicts between the scenes. The scene re-encoding device according to claim 2, wherein encoding is prohibited.
【請求項8】 前記予測符号化制御手段は、シーンチェ
ンジ直後のグループオブピクチャを、他のグループオブ
ピクチャを用いた予測符号化を禁止したクローズドグル
ープオブピクチャに設定して前記シーン間の予測符号化
を禁止することを特徴とする請求項2に記載のシーン再
エンコード装置。
8. The predictive coding control means sets a group of picture immediately after a scene change to a closed group of picture in which predictive coding using another group of picture is prohibited, and the predictive coding between scenes is performed. The scene re-encoding device according to claim 2, wherein the encoding is prohibited.
【請求項9】 前記予測符号化制御手段は、シーンチェ
ンジが前記グループオブピクチャの先頭のフレームで発
生しない場合にはシーンチェンジ直後のグループオブピ
クチャをシーンチェンジタイミングと判断することを特
徴とする請求項8に記載のシーン再エンコード装置。
9. The predictive coding control means determines that the group of picture immediately after the scene change is the scene change timing when the scene change does not occur in the first frame of the group of picture. Item 9. The scene re-encoding device according to item 8.
JP10659695A 1995-04-28 1995-04-28 Scene re-encoder Pending JPH08307860A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10659695A JPH08307860A (en) 1995-04-28 1995-04-28 Scene re-encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10659695A JPH08307860A (en) 1995-04-28 1995-04-28 Scene re-encoder

Publications (1)

Publication Number Publication Date
JPH08307860A true JPH08307860A (en) 1996-11-22

Family

ID=14437551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10659695A Pending JPH08307860A (en) 1995-04-28 1995-04-28 Scene re-encoder

Country Status (1)

Country Link
JP (1) JPH08307860A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152753A (en) * 2000-11-08 2002-05-24 Nec Corp Moving picture edit method, moving picture editor and storage medium with moving picture edit program stored thereon
US6463101B1 (en) 1998-03-19 2002-10-08 Kabushiki Kaisha Toshiba Video encoding method and apparatus
JP2007158712A (en) * 2005-12-05 2007-06-21 Canon Inc Image coder and image coding method
JP2008512046A (en) * 2004-08-31 2008-04-17 トムソン ライセンシング Fast motion estimation of multiple reference pictures
JP2011239255A (en) * 2010-05-12 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> Video encoding method, video encoder, and video encoding program
JP2012074026A (en) * 2010-09-03 2012-04-12 Arm Ltd Data compression and decompression using relative and absolute delta values
JP2015170904A (en) * 2014-03-05 2015-09-28 ソニー株式会社 Image processor, image processing method and image processing system
JP2018011337A (en) * 2017-09-11 2018-01-18 ソニー株式会社 Image processing apparatus, image processing method and image processing system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463101B1 (en) 1998-03-19 2002-10-08 Kabushiki Kaisha Toshiba Video encoding method and apparatus
JP2002152753A (en) * 2000-11-08 2002-05-24 Nec Corp Moving picture edit method, moving picture editor and storage medium with moving picture edit program stored thereon
JP4524908B2 (en) * 2000-11-08 2010-08-18 日本電気株式会社 Moving image editing method, moving image editing apparatus, and storage medium storing moving image editing program
JP2008512046A (en) * 2004-08-31 2008-04-17 トムソン ライセンシング Fast motion estimation of multiple reference pictures
US9253493B2 (en) 2004-08-31 2016-02-02 Thomson Licensing Fast motion estimation for multiple reference pictures
JP2007158712A (en) * 2005-12-05 2007-06-21 Canon Inc Image coder and image coding method
JP4574530B2 (en) * 2005-12-05 2010-11-04 キヤノン株式会社 Image coding apparatus and image coding method
JP2011239255A (en) * 2010-05-12 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> Video encoding method, video encoder, and video encoding program
JP2012074026A (en) * 2010-09-03 2012-04-12 Arm Ltd Data compression and decompression using relative and absolute delta values
JP2015170904A (en) * 2014-03-05 2015-09-28 ソニー株式会社 Image processor, image processing method and image processing system
JP2018011337A (en) * 2017-09-11 2018-01-18 ソニー株式会社 Image processing apparatus, image processing method and image processing system

Similar Documents

Publication Publication Date Title
KR100592651B1 (en) Transcoding
EP0798930B1 (en) Video coding apparatus
US5974185A (en) Methods and apparatus for encoding video data using motion vectors for decoding by regular or downconverting decoders
EP1280356A2 (en) Apparatus and method for compressing multiplexed video signals
JPH07112284B2 (en) Predictive encoding device and decoding device
JP2001054110A (en) Signal processing unit, signal processing method and computer program product
US6271774B1 (en) Picture data processor, picture data decoder and picture data encoder, and methods thereof
JPH10271516A (en) Compression coder, coding method, decoder and decoding method
US7428339B2 (en) Pseudo-frames for MPEG-2 encoding
KR100202538B1 (en) Mpeg video codec
JPH08307860A (en) Scene re-encoder
JP2002199392A (en) Method and device for encoding image
JP2898413B2 (en) Method for decoding and encoding compressed video data streams with reduced memory requirements
JP3227674B2 (en) Video encoding apparatus and method
JPH08251582A (en) Encoded data editing device
JPH11196424A (en) Device and method for picture processing and presentation medium
JP3469866B2 (en) Method for changing the bit rate of a data stream of an encoded video picture
WO1996033573A1 (en) Device and method for coding moving image
JP3937248B2 (en) Video signal encoding method and video signal encoding apparatus
JP3188081B2 (en) Image encoding method and image encoding device
JP2004350030A (en) Telop superimposing device, telop superimposing method, and telop superimposing program
US20070025440A1 (en) Video encoding method and device
JP2001268571A (en) Moving image re-encoder
JPH08130741A (en) Picture decoder
JP3590976B2 (en) Video compression device