KR100233764B1 - Video signal coder - Google Patents

Video signal coder Download PDF

Info

Publication number
KR100233764B1
KR100233764B1 KR1019920013243A KR920013243A KR100233764B1 KR 100233764 B1 KR100233764 B1 KR 100233764B1 KR 1019920013243 A KR1019920013243 A KR 1019920013243A KR 920013243 A KR920013243 A KR 920013243A KR 100233764 B1 KR100233764 B1 KR 100233764B1
Authority
KR
South Korea
Prior art keywords
field
frame
mode
motion
prediction
Prior art date
Application number
KR1019920013243A
Other languages
Korean (ko)
Other versions
KR930003745A (en
Inventor
가쯔지 이가라시
Original Assignee
이데이 노부유끼
소니 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시키가이샤 filed Critical 이데이 노부유끼
Publication of KR930003745A publication Critical patent/KR930003745A/en
Application granted granted Critical
Publication of KR100233764B1 publication Critical patent/KR100233764B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

프레임간 및 기수, 우수 필드간의 움직임 벡터와 각화소의 절대치 차분을 검출하는 프레임/필드 움직임 검출 회로(22,21)와 프레임/필드 단위의 움직임 보상 모드에서 효율이 좋은 모드를 선택하는움직임 예측 모드 판정 회로(23), 셀렉터(24)와, 프레임/필드의 직교 변호나의 각 블록화 모드에서 효율이 좋은 모드를 선택하는 블록화 모드 판정 회로(25)와, 회로(25)의 출력을 기초로 프레임 메모리군을 제어하는 어드레스 발생기(11)와, 회로(23,25)의 출력을 기초로 동작하는 움직임 보상기 부착 프레임 메모리근(20)을 갖추고 있다.Frame / field motion detection circuits 22 and 21 for detecting the motion vector and the absolute difference between each pixel between frames and odd and even fields, and a motion prediction mode for selecting an efficient mode in motion compensation mode on a frame / field basis. Frame memory on the basis of the output of the circuit 25, the selector 24, the block mode decision circuit 25 for selecting a mode with high efficiency in each block mode of orthogonal number of frames / fields, and the circuit 25; An address generator 11 for controlling the group and a frame memory root 20 with a motion compensator operating on the basis of the outputs of the circuits 23 and 25 are provided.

필드 구성의 동화에 대해서, 움직임이 적은 화상도 움직임 많은 화상도, 또한 이들 양자가 흔재한 화상이라도 필드처리 또는 프레임 처리를 효율좋게 할 수 있다.For moving pictures having a field structure, even if the image is small in motion, the image is high in motion, or both are common, field processing or frame processing can be made efficient.

Description

비디오 신호 코더Video signal coder

제1도는 제1의 실시예의 화상 신호의 고능률 부호화 장치의 개략 구성을 나타내는 블록도.1 is a block diagram showing a schematic configuration of a high efficiency encoding device of an image signal of the first embodiment.

제2도는 제2의 실시예의 화상 신호의 고능률 부호화 장치의 개략 구성을 나타내는 블록도.2 is a block diagram showing a schematic configuration of a high efficiency encoding device of an image signal according to the second embodiment.

제3도는 매크로 블록을 나타내는 도.3 shows a macro block.

제4도는 프레임처리 모드의 매크로 블록을 나타내는 도.4 is a diagram showing a macroblock in a frame processing mode.

제5도는 필드 처리모드의 매크로 블록을 나타내는 도.5 is a diagram showing a macroblock in the field processing mode.

제6도는 실시예장치의 부호화 처리의 상태를 설명하기 위한 도.6 is a diagram for explaining a state of an encoding process of the embodiment apparatus.

제7도는 디지탈 VTR 하나의 구체에 포맷에 있어서 프레임처리 모드/필드 처리 모드의 DCT처리의 단위 블록을 나타내는 도.FIG. 7 shows a unit block of DCT processing in the frame processing mode / field processing mode in the format of one digital VTR. FIG.

제8도는 제7도의 예에 있어서 움직임 예측의 상태을 나타내는 도.FIG. 8 is a diagram showing a state of motion prediction in the example of FIG.

제9도는 제7도 이외의 예를 나타내는 도.9 is a diagram showing an example other than FIG.

제10도는 제9도의 예에 있어서 움직임 예측을 상태을 나타내는 도.FIG. 10 is a diagram showing a state of motion prediction in the example of FIG.

제11도는 디지탈 VTR의 다른 구체예 포맷에 있어서 프레임처리 모드/필드 처리 모드의 DCT 처리의 단위 블록을 나타내는 도.FIG. 11 is a diagram showing a unit block of DCT processing in a frame processing mode / field processing mode in another specific format of a digital VTR. FIG.

제12도는 제11도의 다른 예를 나타내는도.FIG. 12 shows another example of FIG. 11. FIG.

제13도는 매크로 블록의 쌍을 나타내는 도.13 illustrates a pair of macro blocks.

제14도는 제13도의 예에 있어서의 프레임 처리 모드에서 처리의 상태를 설명하기 위한 도.FIG. 14 is a diagram for explaining the state of processing in the frame processing mode in the example of FIG.

제15도는 제13도의 예에 있어서 필드 처리 모드에서의 처리의 상태를 설명하기 위한 도.FIG. 15 is a diagram for explaining a state of processing in the field processing mode in the example of FIG.

제16도는 제2의 실시예에 있어서 확장 비트 부가의 변형예(전 예측에 대해서)를 설명하기 위한 도.FIG. 16 is a diagram for explaining a modification (with respect to previous prediction) of extension bit addition in the second embodiment. FIG.

제17도는 복호기의 구성을 나타내는 블록도.17 is a block diagram showing the structure of a decoder.

제18도는 기수 사이클의 화상을 나타내는 도.18 shows an image of a radix cycle.

제19도는 우수 사이클의 화상을 나타내는 도.19 shows an image of even cycles.

제20도는 각 예측 화상을 설명하기 위한 도.20 is a diagram for explaining each predictive image.

제21도는 데이터 구조를 나타내는 도.21 is a diagram showing a data structure.

제22도는 움직이는 물체의 어떤 화상을 나타내는 도.22 is a diagram showing a certain image of a moving object.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10 : 프레임 메모리 근 11, 31 : 어드레스 발생기10: frame memory root 11, 31: address generator

12 : 차분 검출기 13 : DCT 회로12 differential detector 13 DCT circuit

14 : 양자화기 15 : 가변장 부호화 회로14 quantizer 15 variable length coding circuit

16 : 버퍼 17 : 역 양자화기16: buffer 17: inverse quantizer

18 : DCT 회로 20 : 움직임 보상기 부착 프레임 메모리 근18 DCT circuit 20 Frame memory root with motion compensator

21 : 필드 움직임 검출 회로 22 : 프레임 움직임 검출 회로21: field motion detection circuit 22: frame motion detection circuit

23 : 움직임 예측 모드 판정회로 24 : 셀렉터23: motion prediction mode determination circuit 24: selector

25 : 블록화 모드 판정 회로 43 : 모드 판정 회로25: Blocking mode determination circuit 43: Mode determination circuit

본 발명은, 화상 신호를 직교 변환에 위해서 고능률 부호화 하는 화상신호의 고능률 부호화 장치 및 그 복호화 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high efficiency coding apparatus for an image signal for high efficiency coding for an orthogonal transformation and a decoding apparatus thereof.

화상 신호를 고능률 부호화 하는 방식으로서, 예를들면, MPEG(Moving Picture Experts Group)에 의한 표준화 안으로는, 소위 디지탈 저장매체용의 화상신호의 고능률 부호화 방식이 규정되어있다. 여기에서, 당해 방식에서 대상으로 삼고 있는 저장 대체는, 소위 CD(콤팩트 디스크)와 DAT(디지탈 오디오 테이프), 하드 디스크 등과 같이, 연속적인 전송 속도가 약 1.5Mbit/sec 이하의 것이다. 또한, 이것은, 직접 복호기에 접속될 뿐만 아니라, 컴퓨터 버스, LAN(로칼 에리아 네트워크), 텔레커뮤니케이션 등의 전송 매체를 경유하여서 접속되는 것도 상정되고 있고, 게다가, 순방향 재생뿐만 아니라, 랜덤 억세스와 고속 재생, 역방향 재생 등과 같은 특수 기능에 대해서도 고려되고 있다.As a method of high efficiency encoding of a picture signal, for example, a standard of MPEG (Moving Picture Experts Group) defines a so-called high efficiency coding method of a picture signal for a digital storage medium. Here, the storage substitutes targeted by the scheme are those whose continuous transfer rate is about 1.5 Mbit / sec or less, such as so-called CD (compact disc), DAT (digital audio tape), hard disc, and the like. In addition, this is not only directly connected to a decoder, but also connected via a transmission medium such as a computer bus, a local area network (LAN), telecommunications, and the like. In addition, not only forward playback but also random access and high speed playback are also possible. Special features such as reverse playback, etc. are also considered.

상기 MPEG 에 의한 화상 신호의 고능률 부호화 방식의 원리는, 다음에 나타내는 것과 같은 것이다.The principle of the high efficiency coding method of the image signal by MPEG is as follows.

즉, 이 고능률 부호화 방식에서는, 우선, 화상간이 차분(差分)을 취하는 것으로 시간축 방향의 용장도를 떨어뜨리고, 그 후, 소위 이산 코사인 변환(DCT) 처리와 가변장 부호를 사용하여서 공간축 방향의 용장도를 떨어뜨리도록 하고 있다.That is, in this high efficiency coding method, first, the redundancy in the time axis direction is lowered by taking the difference between the images, and then using the so-called discrete cosine transform (DCT) processing and variable length code, the space axis direction is used. To reduce the degree of redundancy.

우선, 상기 시간축 방향의 용장도에 대해서 다음에 서술한다. 일반적으로, 연속한 동화(動畵)에서는, 시간적으로 전후의 화상과, 어떤 주목하고 있는 화상(즉 어떤시각의 화상)과는 아주 유사한 것이다. 따라서, 예를들면 제20도에 나타내는 것 같이, 지금부터 부호화 하려고 하고 있는 화상과, 시간적으로 전방의 화상과의 차분을 취하고, 그 차분을 전송할 수 있도록 하면, 시간축 방향의 용장도를 줄여서 전송하는 정보량을 적게하는 것이 가능해진다. 이렇게 해서 부호화 되는 화상은, 후술하는 전방 예측 부호화 화상(Predictive-Coded Picture, P 화상 또는 P 프레임)이라고 불려진다. 마찬가지로, 상기 지금부터 부호화하려고 하고 있는화상과, 시간적으로 전방 또는 후방 혹은, 전방 및 후방으로 만들어진 보간(補間)화상과의 차분을 취하여, 그것들 중 작은 값의 차분을 전송할 수 있도록 하면, 시간축 방향의 용장도를 줄여서 전송하는 정보량을 적게하는 것이 가능해진다. 이렇게 해서 부호화 되는 화상은, 후술하는 양방향 예측 부호화 화상(Bidirectionally Predictivecoded Picture, B 화상 또는 B 프레임)이라고 불려진다. 또한, 이 제20도에 있어서, 도면중 I로 나타내는 화상은후술하는 화상내 부호화 화상(인트라 부호화 화상 : Intra-Coded Picture, I화상 또는 I프레임)을 나타내며, 도면중 P로 나타내는 화상은 상기 P화상을 나타내고, 도면중 B로 나타내는 화상은 상기 B화상을 나타내고 있다.First, the redundancy degree in the said time axis direction is demonstrated next. In general, in a continuous moving picture, it is very similar to the image before and after time and the image of attention (that is, image of a certain time). Therefore, for example, as shown in FIG. 20, if the difference between the image to be encoded from now and the image in front of it is taken and the difference can be transmitted, the redundancy in the time axis direction is reduced and transmitted. It is possible to reduce the amount of information. The picture to be encoded in this way is called a forward predictive coded picture (Predictive-Coded Picture, P picture or P frame) to be described later. Similarly, if the difference between the image to be encoded from now and the interpolated image made forward or backward or forward and backward in time is taken and the difference between the smaller values can be transmitted, It is possible to reduce the redundancy and reduce the amount of information to be transmitted. The picture to be encoded in this way is called a bidirectionally predicted picture (B picture or B frame) described later. In FIG. 20, the image indicated by I in the figure represents an intra-coded image (intra-coded picture, I image or I frame), which will be described later. An image is shown, and the image shown by B in the figure has shown the said B image.

또한, 각 에측 화상을 만들어 내기 위해서는, 소위 움직임 보상이 행해진다.In addition, so-called motion compensation is performed to produce each side image.

즉 이 움직임 보상에 의하면, 예를들어 8×8화소의 단위 블록에 의해서 구성되는 예를들면 16×16화소의 블록(이하 매크로 블록이라고 부른다)을 만들고, 전화상의 해당 매크로 블록 위치의 근방에서 제일 차분이 적은 경우를 탐색하여, 이 탐색된 매크로 블록과의 차분을 취하므로써, 보내야만하는 데이터를 삭감할 수 있다. 실제로는, 예를들면, 상기 P 화상(전방 예측 부호화 화상)에서는, 움직임 보상 후의 예측화의 차분을 취한 것과, 해당 움직임 보상 후의 예측화와 차분을 취하지 않는 것 중, 데이터량이 적은 것을 상기 16×16화소의 매크로 블록 단위로 선택하여 부호화 한다.In other words, according to this motion compensation, for example, a block of 16 × 16 pixels (hereinafter referred to as a macro block) composed of unit blocks of 8 × 8 pixels is made, and the first position in the vicinity of the corresponding macro block position on the telephone is made. By searching for a case where the difference is small and taking the difference from the searched macro block, the data that must be sent can be reduced. In practice, for example, in the P picture (forward predictive coded picture), the difference between the prediction after the motion compensation and the difference between the prediction and the motion compensation after the motion compensation is small. 16 bits are selected and encoded in macroblock units.

그러나, 상술한 바와 같은 경우, 예를들면, 물체가 움직인 뒤에 나온 부분(화상)에 관해서는, 많은 데이터를 보내야만 한다. 그러므로 예를들면, 상기 B 화상(양방향 예측 부호화 화상)에서는, 이미 복호화된 움직임 보상후의 시간적으로 전방 또는 후방의 화상 및, 그 양자를 더하여서 만든 보간 화상과 상기 지금부터 부호화 하려고 하고 있는 화상과의 차분과, 해당 차분을 취하지 않는 것 즉 지금부터 부호화 하려고 하고 있는 화상의 4개 중, 가장 데이터량이 적은 것이 부호화된다.However, in the case described above, for example, a large amount of data must be sent with respect to the portion (image) that comes after the object moves. Therefore, for example, in the B picture (bidirectional predictive coded picture), the interpolation picture created by adding the both of the temporally forward or backward picture after motion compensation already decoded and the picture to be encoded from now on. The difference and the one which does not take the difference, that is, the least amount of data among the four images to be encoded from now on are encoded.

다음으로, 상기 공간축 방향의 용장도에 대해서 다음에 서술한다.Next, the redundancy degree of the said space axis direction is demonstrated next.

화상 데이터의 차본은 그대로 전송하는 것이 아니라. 상기 8×8 화소의 단위 블록마다 이산 코사인 변환(DCT)을 행한다. 해당 DCT는, 화상을 화소 레벨이 아니라, 코사인 함수의 어느 주파수 성분이 어느만큼 포함되어 있는가로 표현하는 것으로 예를들면 2차원 DCT 에 의해 8×8화소의 단위 블록의 데이터는, 2차원 DCT에 의해 8×8의 코사인 함수성분의 계수 블록으로 변환된다. 예를들면 TV 카메라로 촬영한 것 같은 자연화의 화상 신호는 원활한 신호가 되는 경우가 많고, 이 경우, 해당 화상 신호에 대해서 DCT처리를 실시하므로써 효율적으로 데이터량을 떨어뜨릴 수 있다.The copy of the image data is not transmitted as it is. Discrete cosine transform (DCT) is performed for each unit block of the 8x8 pixel. The DCT expresses the image in terms of how much frequency component of the cosine function is included instead of the pixel level. For example, data of a unit block of 8x8 pixels is stored in the two-dimensional DCT by the two-dimensional DCT. Is transformed into a coefficient block of an 8x8 cosine functional component. For example, a naturalized image signal captured by a TV camera often becomes a smooth signal. In this case, the data amount can be efficiently reduced by performing DCT processing on the image signal.

즉, 예를들면, 상술의 자연화의 화상 신호와 같은 원활한 신호의 경우, 상기 DCT을 행한 것에 의해, 어떤 계수의 주변에 큰 값이 집중하게 된다. 이 계수를 양자화하면, 상기 8×8의 계수 블록은 거의 0이 되어, 큰 계수만이 남을 수 있도록 된다. 그래서, 이 8×8의 계수 블록의 데이터를 전송할 때에는, 소위 지그재그 스캔의 순서로 영이 아닌 계수와 그 계수의 앞에 어느만큼 0이 계속되었는가를 나타내는 소위 0런을 1쌍으로 한 소위 하프만 부호로 보낼 수있도록 하는 것으로, 전송량을 줄이는 것이 가능해진다. 또한, 복호기 측에서는, 역의 순서로 화상을 재구성한다.That is, for example, in the case of a smooth signal such as the above-described naturalized image signal, a large value is concentrated around a certain coefficient by performing the DCT. When the coefficient is quantized, the 8x8 coefficient block becomes almost zero, so that only a large coefficient can remain. Therefore, when data of this 8x8 coefficient block is transmitted, a so-called half-man code with a pair of so-called zero runs indicating how many nonzero zeros precede the coefficients in the order of so-called zigzag scans By making it possible to send, it is possible to reduce the amount of transmission. On the decoder side, the image is reconstructed in the reverse order.

여기에서, 상술한 부호화 방식이 취급하는 데이터의 구조를 제21도에 나타낸다. 즉, 이 제21도에 나타내는 데이터 구조는, 아래로부터 차례로, 블록층과, 매크로 블록층과, 슬라이스 층과, 화상 층과, 화상 그룹(G에:Group of picture)층과, 비디오 시이퀸스 층으로 구성된다. 이하, 이 제21도에 있어서 아래의 층부터 차례로 설명한다.Here, FIG. 21 shows a structure of data handled by the above-described encoding method. That is, the data structure shown in FIG. 21 is sequentially divided into block layers, macroblock layers, slice layers, picture layers, group of picture layers (G), and video sequence layers. It consists of. Hereinafter, in this FIG. 21, it demonstrates sequentially from the following layer.

우선, 상기 블록층에 있어서, 해당 블록층의 블록은, 휘도 또는 색차가 이웃한 8×8의 화소(8라인 ×8화소의 화소)로 이루어진다. 상술한 DCT(이산 코사인 변환)는, 이 단위 블록마다 행해진다.First, in the block layer, the block of the block layer is composed of 8x8 pixels (pixels of 8 lines x 8 pixels) of which luminance or color difference is adjacent. The DCT (Discrete Cosine Transform) described above is performed for each unit block.

상기 매크로 블록층에 있어서, 당해 매크로 블록층의 매크로 블록은, 좌우 및 상하로 이웃한 4가지의 휘도 블록(휘도의 단위 블록)(Y10, Y1, Y2, Y3)와 화상상에서는 상기 휘도 블록과 같은 위치에 해당하는 색차 블록(색차의 단위 블록)(Cr, Cb)의 전부로 6개의 블록으로 구성된다. 이러한 블록의 전송의 순서는, Y0,Y1,Y2,Y3,Cr,Cb의 순서이다. 여기에서, 해당 부호화 방식에 있어서, 예측화(차분을취하는 기준의 화상)에 무엇을 사용하는가, 또는 차분을 보내지 않아도 되는가 등은, 이 매크로 블록 단위로 판단된다.In the macro block layer, the macro block of the macro block layer is the same as the luminance block on the image of four luminance blocks (unit blocks of luminance) Y10, Y1, Y2, and Y3 adjacent to the left and right and up and down. It consists of six blocks with all of the color difference block (unit block of a color difference) Cr and Cb corresponding to a position. The order of such block transfer is Y0, Y1, Y2, Y3, Cr, Cb. Here, in the coding method, what is used for prediction (image of the reference which takes the difference), whether or not the difference should be sent is determined in this macroblock unit.

상기 슬라이스층은, 화상의 주사순으로 늘어선 1개 또는 복수의 매크로 블럭으로 이루어져 있다. 이 슬라이스 머리(헤더)에서는 화상내의 있어서의 움직임 벡터 및 DC(직류)성분의 차분이 리세트되고, 또한 최초의 매크로 블록은, 화상내의 위치를 나타내는 데이터를 가지고 있으며, 따라서 에러가 일어난 경우라도 복귀시킬 수 있게 되었다. 그 때문에, 상기 슬라이스 길이와 시작되는 위치는 임의로 되고, 전송로의 에러 상태에 의해서 바꾸어질 수 있게 되었다.The slice layer is composed of one or a plurality of macro blocks arranged in the scanning order of images. In this slice head (header), the difference between the motion vector and the DC (direct current) component in the image is reset, and the first macro block has data indicating the position in the image, so that even if an error occurs, it is returned. I can do it. As a result, the slice length and the starting position are arbitrary and can be changed by an error state of a transmission path.

상기 화상 층에 있어서 화상 즉 1장 1장의 화상은, 적어도 1개 또는 복수의 상기 슬라이스로 구성된다. 그리고, 각각이 부호화의 방식에 따라서, 상술한 바와같은 인트라 부호화 화상(I화상 또는 I프레임), 상기 전방 에측 부호화 화상(P화상 또는 P프레임), 양방향 예측 부호화 화상(B화상 또는 B프레임), DC 인트라 부호화 화상(DC coded(D) picture)의 4종류의 화상으로 분류된다.In the image layer, an image, that is, an image of one sheet is composed of at least one or a plurality of the slices. Each of the above-described intra coded pictures (I pictures or I frames), the forward-side coded pictures (P pictures or P frames), bidirectional predictive coded pictures (B pictures or B frames), and the like, according to the encoding method. It is classified into four types of pictures of DC intra coded picture (DC coded (D) picture).

여기에서, 상기 인트라 부호화 화상(I화상)에 있어서는, 부호화 될 때에, 그 화상 1장의 중간 정도에서 끝나는 정보만을 사용한다. 따라서, 바꿔 말하면, 복호화할때에 I화상 자신의 정보만으로 화상을 재구성할 수 있게 된다. 실제로는, 차분을 취하지 않고, 그대로 DCT처리하여 부호화를 행한다. 이 부호화 방식은, 일반적으로 효율이 나쁘지만, 이것을 도처에 집어넣어 두면, 랜덤 억세스나 고속 재생이 가능해진다.Here, in the intra coded image (I image), only information ending in the middle of one image is used when the image is encoded. In other words, therefore, it is possible to reconstruct the picture only with the information of the I picture itself at the time of decoding. In practice, DCT processing is performed as it is without taking the difference. This coding method is generally inefficient, but if it is put everywhere, random access and high speed playback are possible.

상기 전방 예측 부호화 화상(P 화상)에 있어서는, 예측 화상(차분을 취하는 기준이 되는 화상)으로서, 입력으로 시간적으로 앞에 위치하여 이미 복호화된 I 화상 또는 P화상을 사용한다. 실제로는, 움직임 보상된 예측 화상과의 차이를 부호화 하는 것과, 차이를 취하지 않고 그대로 부호화 하는(인트라 부호)것과 어느 것인가 효율이 좋은 쪽을 상기 매크로 블록 단위로 선택한다.In the forward predictive coded picture (P picture), an I picture or a P picture which has already been decoded in advance in time as an input is used as the predicted picture (the picture to be the difference). In practice, the macroblock units are selected to encode the difference from the motion-compensated predictive image, to encode the difference as it is without taking the difference (intra code), or to have higher efficiency.

상기 양방향 예측 부호화 화상(B 화상)에 있어서는, 예측 화상으로서 시간적으로 앞에 위치하는 이미 복호화된 I화상 또는 P화상 및 그 양방향으로 만들어진 보간 화상의 3종류를 사용한다. 이것에 의해, 상기 3종류의 움직임 보상후의 차분의 부호화와 인트라 부호중에서 가장 효율이 좋은 것을 매크로 블록 단위로 선택할 수 있다.In the bidirectional predictive coded picture (B picture), three types of pre-decoded I picture or P picture which are located temporally in advance and an interpolation picture made in both directions are used as the predictive picture. As a result, it is possible to select, in macroblock units, the most efficient one among the differential coding and intra code after the three types of motion compensation.

상기 DC인트라 부호화 화상은, DCT의 DC계수만으로 구성되는 인트라 부호화 화상이고, 다른 3종류의 화상과 동일한 시이퀀스로는 존재할 수 없는 것이다.The DC intra coded image is an intra coded image composed only of the DC coefficient of the DCT, and cannot exist in the same sequence as the other three types of images.

상기화상 그룹(GOP)층은, 1 또는 복수장의 I화상와, 0 또는 복수장의 비 I화상로 구성되어 있다. 여기에서, 부호기로의 입력순을 , 예를들면, 1I, 2B, 3B, 4P*5B, 6B, 7I, 8B, 9B, 10I, 11B, 12B, 13P, 14B, 15B, 16P*17B, 18B, 19I, 20B, 21B, 22P와 같이 했을 때, 해당 부호기의 출력 즉 복호기의 입력은, 예를들면,1I, 4P, 2B, 3B*7I, 5B, 6B, 10I, 8B, 9B, 13P, 11B, 12B, 16P, 14B, 15B*19I, 17B, 18B, 22P, 20B, 21B가 된다. 이와 같이 부호기속에서 순서의 교체가 이루어지는 것은, 예를들면, 상기 B화상을 부호화 또는 복호화 하는경우에는, 그 예측 화상이 되는 시간적으로는 후방인 상기 I화상 또는 P화상이 앞에 부호화되어있지 않아서는 안되기 때문이다. 여기에서, 상기 I화상의 간격(예를들면 9) 및, I화상 또는 B화상의 간격(예를들면 3)은 자유이다. 또한, I 화상 또는 P 화상의 간격은, 해당 화상 그룹층의 내부에서 바뀌어도 되는 것이다. 또한, 화상 그룹층의 층간은, 상기 *로 표시되어 있다. 또한, 상기 I은 I화상, 상기 P는 P 화상, 상기 B은 B화상을 나타내고 있다.The image group (GOP) layer is composed of one or a plurality of I images and zero or a plurality of non-I images. Here, the input order to the encoder is, for example, 1I, 2B, 3B, 4P * 5B, 6B, 7I, 8B, 9B, 10I, 11B, 12B, 13P, 14B, 15B, 16P * 17B, 18B, In the case of 19I, 20B, 21B, and 22P, the output of the encoder, i.e., the input of the decoder, is, for example, 1I, 4P, 2B, 3B * 7I, 5B, 6B, 10I, 8B, 9B, 13P, 11B, 12B, 16P, 14B, 15B * 19I, 17B, 18B, 22P, 20B, 21B. In this way, the order is changed in the code stream. For example, when the B picture is encoded or decoded, the I picture or P picture, which is backward in time, which becomes the prediction picture, is not encoded before. Because not. Here, the intervals (eg 9) of the I picture and the intervals (eg 3) of the I picture or the B picture are free. In addition, the space | interval of an I picture or a P picture may be changed inside the said image group layer. In addition, the interlayer of an image group layer is represented by said *. In addition, I is an I image, P is a P image, and B is a B image.

상기 비디오 시이퀀스 층은, 화상 싸이즈, 화상레이트등이 동일한 1 또는 복수의 화상 그룹층으로 구성된다.The video sequence layer is composed of one or a plurality of image group layers having the same image size, image rate, and the like.

상술한 바와 같이, 상기 MPEG에 의한 고능률 부호화 방식으로 표준화된 동화상을 전송하는 경우에는, 우선 1장의 화상을 화상내에서 압축한 화상이 보내지고, 다음으로 이 화상을 움직임 보상한 화상과의 차분이 전송된다.As described above, in the case of transmitting a moving picture standardized by the high-efficiency coding method according to the MPEG, an image obtained by compressing one image in the image is sent first, and then the difference from the image which has motion-compensated this image. Is sent.

그런데, 상기 1장의 화상에 있어서, 예를들면, 필드를 화상로서 처리하는 경우에는, 2필드에서 교대로 수직 위치가 다르게 되기 때문에, 예를들면 정지화를 전송할 때에도 차분정보를 전송하지 않으면 안된다.By the way, in the above one image, for example, when a field is processed as an image, since the vertical positions are alternately shifted in two fields, differential information must be transmitted even when transmitting still images, for example.

또한, 예를들면, 프레임을 화상로서 처리하는 경우에는, 상기 프레임내에서 예를들면 움직이고 있는 부분에 대해서는 소위 빗(comb)형으로 흔들린 화상을 처리하지 않으면 안된다. 즉, 예를들면, 제22도에 나타내는 바와 같이,정지한 배경의 바로 앞에 자동차등의 동체(CA)가 있는 경우, 1프레임을 관찰하면 필드간에 움직임이 있기 때문에, 그와 같은 부분은 빗형(KS)의 화상을 되어버린다.For example, when processing a frame as an image, an image shaken in a so-called comb shape must be processed for a moving part in the frame, for example. That is, for example, as shown in FIG. 22, when there is a fuselage CA such as a car in front of a stationary background, when one frame is observed, there is a movement between the fields. KS) burns.

더욱이, 예를들면, 정지 부분과 동화부분이 혼재한 화상을 처리하는 경우에는, 상기 필드를 화상로서 처리하는 경우 또는 프레임을 화상로서 처리하는 경우의 어느 방법을 사용한다 하더라도, 화상내에 압축 효율이 나쁜 부분의 화상이 생기게 된다.Further, for example, in the case of processing an image in which a still part and a moving part are mixed, the compression efficiency in the image is reduced even if any method of processing the field as an image or processing a frame as an image is used. Bad parts are burned.

그래서, 본 발명은, 상술과 같은 실정에 감안하여서 제안된 것으로, 필드 구성의 동화에 대해서, 움직임이 적은 화상이나 움직임이 많은 화상이나, 또한, 이 양자가 혼재한 화상이더라도 필드 처리 또는 프레임 처리를 효율적으로 행할 수 있는 화상 신호의 고능률 부호화 장치 및 그 복호화 장치를 제공하는 것을 목적으로 하고 있다.Therefore, the present invention has been proposed in view of the above-described circumstances, and it is possible to perform field processing or frame processing for a moving picture of a field structure even if the image has little motion or the image has many motions, or the image is a mixture of both. It is an object of the present invention to provide a high efficiency encoding device and a decoding device thereof which can be efficiently performed.

이와 같은 과제를 해결하기 위해서 본 발명에 의한 제1의 고능률 부호화 장치는, 복수의 화소의 2차원 배열로 이루어지는 매크로 블록을 단위로서 부호화를 행하는 화상 신호의 고능률 부호화 장치에 있어서, 상기 매크로 블록 단위로 프레임간의 움직임 벡터와 각 화소의 절대치의 차분합을 검출하는 수단과 상기 매크로 블록 단위로 상기 프레임의 화소 스캔의 기수 또는 우수로 나누어진 것으로 이루어지는 필드간의 움직임 벡터와 각 화소의 절대치의 차분합을 검출하는 수단으로 이루어진 움직임 검출 수단과, 상기 매크로 블록에 있어서의 프레임을 단위로 움직임 보상을 행하느 프레임 예측 모드와, 상기 매크로 블록에 있어서의 필드를 단위로서 움직임 보상을 행하는 필드 예측 모드중 어느 것이 움직임 보상을 하는데 있어서 효율적인가를 상기 움직임 검출 수단으로부터 출력되는 정보에 의해 판정하고, 효율적인 예측 모드를 선택하는 제1의 모드 선택 수단과, 상기 매크로 블록에 있어서의 프레임을 단위로서 직교 변환을 행하는 것 같이 블록화 하는 프레임 처리 모드와 상기 매크로 블록에 있어서의 필드를 단위로서 직교 변환을 행하는 것 같이 블록화 하는 필드 처리 모드 중 어느 것이 직교 변환을 행하는데 있어서 효율적인가를 상기 움직임 검출 수단 및 상기 제1의 모드 선택 수단으로부터 출력되는 정보를 사용하여서 판정하고, 효율적인 블록화의 모드를 선택하는 제2의 모드 선택 수단과, 1프레임에 대해서 부호화 처리의 인터레이스에 있어서의 기수 필드의 스캔을 행하는 기간의 기수 사이클인가 우수 필드의 스캔을 행하는 기간의 우수 사이클인가를 인식하여, 해당 기수 사이클에서 상기 블록화의 모드에 대응하여 블록화된 매크로 블록을 출력할 수 있도록 프레임 메모리군을 제어하는 어드레스 발생수단과, 상기 제1의 모드 선택 수단으로 선택된 움직임 예측 모드 정보와 상기 제2의 모드 선택수단으로 선택된 블록화 모드 정보를 받아, 해당 모드 정보에 대응하여 움직임 보상 프레임 또는 필드 간 예측을 실행하는움직임 보상 수단을 갖춘 것이다.In order to solve such a problem, the 1st high efficiency coding apparatus which concerns on this invention is the high efficiency coding apparatus of the image signal which encodes the macroblock which consists of a two-dimensional array of several pixel as a unit, The said macroblock Means for detecting the difference between the motion vector between the frames and the absolute value of each pixel in units, and the difference between the absolute value of each pixel and the motion vector between the field, which is divided by the radix or even number of the pixel scan of the frame in the macroblock unit. Motion detection means comprising: a means for detecting motion; a frame prediction mode for performing motion compensation in units of frames in the macroblock; and a field prediction mode for performing motion compensation in units of fields in the macroblocks. Recall that it is effective in compensating for motion A first mode selecting means for judging by the information output from the motion detecting means, for selecting an efficient prediction mode, and a frame processing mode and the macro for blocking the frame in the macroblock as an orthogonal transform as a unit; It is determined by using the information output from the motion detecting means and the first mode selecting means which of the field processing modes that block the field in the block, such as performing orthogonal transformation as a unit, is effective in performing orthogonal transformation. Second mode selecting means for selecting an efficient blocking mode, and an odd cycle of a period in which a radix field is scanned in an interlace of an encoding process for one frame or an even cycle in a period in which an even field is scanned? In the corresponding radix cycle Address generating means for controlling a frame memory group so as to output a blocked macroblock corresponding to the mode of blocking, motion prediction mode information selected by the first mode selecting means, and selected by the second mode selecting means It is equipped with a motion compensation means for receiving the blocking mode information, and performing the motion compensation frame or inter-field prediction corresponding to the mode information.

또한, 본 발명에 의한 제2의 고능률 부호화 장치는, 복수의 화소의 2차원 배열로 구성된 매크로 블록을 단위로서 부호화를 행하는 화상 신호의 고능률 부호화 장치에 있어서, 상기 매크로 블록 단위로 프레임간의 움직임 벡터와 각 화소의 절대치의 차분합을 검출하는 수단과 상기 매크로 블록 단위로 상기 프레임의 화소의 스캔의 기수 또는 우수로 구분한 것으로 이루어지는 필드간의 움직임 벡터와 각 화소의 절대치의 차분합을 검출하는 수단으로 이루어지는 움직임 검출 수단과, 상기 매크로 블록에 있어서의 프레임을 단위로서 움직임 보상을 행하는 프레임 예측 모드와, 상기 매크로 블록에 있어서의 필드를 단위로서 움직임 보상을 행하는 필드 예측 모드중 어느것이 움직임 보상을 하는데 있어서 효율적인가를 상기 움직임 검출 수단으로부터 출력되는 정보에 의해 판정하여, 효율적인 예측 모드를 선택하는 제1의 모드 선택 수단과, 상기 매크로 블록에 있어서의 프레임을 단위로서 직교 변환을 행하도록 블록화 하는 프레임 처리 모드와 상기 매크로 블록에 있어서의 필드를 단위로서 직교 변환을 행하도록 블록화 하는 필드 처리 모드중 어느 것이 직교 변환을 행하는데 있어서 효율적인가를 상기 움직임 검출 수단 및 상기 제1의 모드 선택 수단으로부터 출력되는 정보를 사용하여 판정하고, 효율적인 블록화의 모드를 선택하는 제2의 모드선택 수단과, 1프레임에 대해서 부호화 처리의 인터레이스에 있어서의 기수필드의 스캔을 행하는 기간의 우수 사이클인가우수 필드의 스캔을 행하는 기간의 우수 사이클인가를 인식하여, 상기 블록화의 모드가 필드 처리 모드때만, 해당 기수 사이클에서 매크로 블록분의 기수 필드를 차례대로 1프레임분 출력한다. 이어서 상기 우수 사이클로 매크로 블록분의 우수 필드를 차례대로 1프레임분 출력할 수 있도록 프레임 메모리군을 제어하는 어드레스 발생 수단과, 상기 제1의 모드 선택 수단으로 선택된 움직임 예측 모드 정보와 상기 제2의 모드 선택 수단으로 선택된 블록화 모드 정보를 받아 , 그 모드 정보에 대응하여 움직임 보상 프레임 또는 필드 간 예측을 실행하는 움직임 보상 수단을 갖춘 것이다.A second high efficiency encoding apparatus according to the present invention is a high efficiency encoding apparatus of an image signal which encodes a macro block composed of a two-dimensional array of a plurality of pixels as a unit. Means for detecting the difference between the absolute value of the vector and each pixel, and means for detecting the difference between the absolute value of each pixel and the motion vector between the fields, each of which is divided by the radix or even number of the scan of the pixel of the frame in units of the macroblock. Motion compensation means comprising a motion detection means comprising: a frame prediction mode for performing motion compensation in units of frames in the macroblock, and a field prediction mode for performing motion compensation in units of fields in the macroblock. Output from the motion detecting means The first mode selection means for selecting an efficient prediction mode, the frame processing mode for blocking the frame in the macroblock as a unit, or the like, and the field in the macroblock. Which of the field processing modes that block to perform orthogonal transformation as a unit is effective in performing orthogonal transformation using the information output from the motion detecting means and the first mode selecting means to determine the effective mode of blocking. Recognizing whether the second mode selection means for selecting and the even cycle of the period of scanning the odd field or the period of scanning the excellent field in the interlace of the encoding process for one frame, Only when the mode is field processing mode, every As outputs one frame in turn, the odd field block of the time. Subsequently, address generation means for controlling a frame memory group so as to output one even field of a macroblock in order in the even cycle, the motion prediction mode information selected by the first mode selection means, and the second mode. And a motion compensation means for receiving the block mode information selected as the selection means and performing the motion compensation frame or the inter-field prediction corresponding to the mode information.

또한, 본 발명에 의한 고능률 복호화 장치는, 재생되는 화상 부호화 데이터 및 검출 움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보를 포함하는 헤더 정보를 수신하여서 복호화 하고, 상기 복호화된 화상 복호화 데이터와 함께 상기 검출 움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보와 매크로 블록의 상기 헤더 정보중의 매크로 블록 어드레스 인크리멘트를 출력하는 역가변장 부호화 수단과, 상기 매크로 블록 어드레스 인크리멘트로부터 상기 화상 복호화 데이터를 축적하는 프레임 버퍼에서의 어드레스 인크리멘트치를 산출하여, 각각 매크로 블럭의 선두 어드레스를 구하고, 그 선두 어드레스를 상기 프레임 버퍼에 주는 어드레스 발생 수단과, 상기 선두 어드레스 이외의 상기 매크로 블록의 상대 어드레스를 상기 프레임 버퍼에 더하여서 데이터를 억세스하고, 상기 검출 움직임 벡터와 상기 움직임 예측 모드 정보와 상기 블록화 모드 정보를 받아, 그 모드 정보에 대응한 움직임 보상 프레임 또는 필드간, 예측을 실행하여 움직임 보상된 화상 신호를 상기 프레임 버퍼에 보낼 수 있도록 구성하는움직임 보상 수단을 갖춘 것이다.In addition, the high-efficiency decoding apparatus according to the present invention receives and decodes the encoded picture data to be reproduced, and header information including the detected motion vector information, the motion prediction mode information, and the blocking mode information, and together with the decoded picture decoded data. Inverse-variable encoding means for outputting macroblock address increments in said detected motion vector information, motion prediction mode information, blocking mode information, and said header information of a macroblock, and said image decoded data from said macroblock address increments; Calculates an address increment value in a frame buffer which accumulates a value, obtains a head address of the macroblock, and gives address heading means for giving the head address to the frame buffer, and the relative addresses of the macroblocks other than the head address. remind In addition to the frame buffer, the data is accessed, the detected motion vector, the motion prediction mode information, and the blocking mode information are received, and motion compensation frames or fields corresponding to the mode information are subjected to prediction to perform motion compensation. Motion compensation means for constructing the frame buffer.

본 발명에 의하면, 프레임 처리 모드와 필드 처리 모드를 매크로 블록단위로 바꿀 수가 있고, 따라서, 매크로 블록 단위로 가장 효율이 좋은 부호화를 선택할 수 있다.According to the present invention, the frame processing mode and the field processing mode can be switched in units of macro blocks, and therefore, the most efficient encoding can be selected in units of macro blocks.

[실시예]EXAMPLE

이하, 본 발명을 적용한 실시예에 대해서 도면을 참조하면서 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the Example which applied this invention is described, referring drawings.

제1도 및 제2도는 본 발명에 관계되는 화상 신호의 고능률 부호화 장치의 실시예를 나타내고, 제17도는 본 발명에 관계되는 화상 신호의 고능률 복호화 장치의 실시예를 나타내는 계통도이다.1 and 2 show an embodiment of a high efficiency coding apparatus of an image signal according to the present invention, and FIG. 17 is a system diagram showing an embodiment of a high efficiency decoding apparatus of an image signal according to the present invention.

제1도는 본발명의 제1실시예를 나타내는 것으로, 1화면보다 작은 화소의 2차원 배열로 이루어지는 매크로 블록(예를들면 래스터 스캔 순의 입력 화상 데이터의 공간 배치에 있어서 16×16의 화소를 1블럭으로 하는 블록)을 단위로서 부호화를 행하는 화상 신호의 고능률 부호화 장치이고, 상기 16×16화소의 단위 블록이 복수 개가 모인 것으로 이루어지는 프레임(1화면)이 복수장, 원화상으로서 메모리되어 있는 프레임 메모리근(10)과, 상기 프레임간 및 상기 매크로 블록 단위로 상기 프레임 화소의 스캔의 기수 또는 우수로 나눈 것으로 이루어지는 필드간의 움직임 벡터와 각 화소의 절대치 차분합을 검출하는 움직임 검출 수단인 프레임 움직임 검출 회로(22) 및 필드 움직임 검출 회로(21)와, 상기 매크로 블록에 있어서 프레임을 단위로서 움직임 보상을 행하는 프레임 예측 모드와 상기 매크로 블록에 있어서의 필드를 단위로서 움직임 보상을 행하는 필드 예측 모드중 어느쪽 효율이 좋은가를 상기 움직임 검출 수단으로부터 출력되는 정보에 의해 판정하여, 효율이 좋은 예측 모드를 선택하는 제1의 모드 선택 수단인 움직임 예측 모드 판정회로(23) 및 셀렉터(24)와, 상기 매크로 블록에 있어서의 프레임 단위로서 직교변환을 하도록 블록화 하는 프레임 처리모드와 상기 매크로 블록에 있어서의 필드를 단위로서 직교 변환을 하도록 블록화 하는 필드 처리 모드중 어느쪽이 직교 변환을 하는데 있어서 효율이 좋은가를 상기 움직임 검출 수단 및 상기 제1의 모드 선택 수단으로부터 출력되는 정보를 사용하여서 판정하여, 효율이 좋은 블록화 모드를 선택하는 제2의 모드 선택 수단인 블록화 모드 판정 회로(25)와, 1 프레임(1 화면)에 대해서 부호화 처리의 인터레이스에 있어서 기수 필드 스캔을 행하는 기간의 기수 사이클인지 우수 필드의 스캔을 행하는 기간의 우수 사이클인지를 인식하여, 그 기수 사이클에서 상기 블록화의 모드에 대응하여서 블록화된 매크로 블록을 출력하도록 프레임 메모리근을 제어하는 어드레스 발생 수단인 어드레스 발생기(11)와, 상기 제1의 모드 선택 수단으로 선택된 움직임 예측 모드 정보와 상기 제2의 모드 선택 수단으로 선택된 블록화 모드 정보를 받아, 그 모드 정보에 대응하여서 움직임 보상 프레임 또는 필드 간 예측을 실행하는 움직임 보상 수단인 움직임 보상기 부착 프레임 메모리군(20)을 갖춘 것이다.FIG. 1 shows a first embodiment of the present invention, in which a macroblock consisting of a two-dimensional array of pixels smaller than one screen (e.g., 16 x 16 pixels in a spatial arrangement of input image data in raster scan order) A high efficiency encoding device for encoding an image signal in units of blocks, wherein a plurality of frames (one screen) consisting of a plurality of unit blocks of 16 × 16 pixels are stored in a plurality of frames and stored as an original picture Frame motion detection, which is a motion detection means for detecting the motion vector between the memory root 10 and the field divided by the radix or even number of the scan of the frame pixel between the frame and the macroblock unit, and the absolute value difference of each pixel. The circuit 22 and the field motion detection circuit 21 perform motion compensation in units of frames in the macro block. Determines whether the efficiency of the frame prediction mode or the field prediction mode that performs motion compensation on the basis of the field in the macroblock is good, based on the information output from the motion detection means, and selects an efficient prediction mode. The motion prediction mode determination circuit 23 and the selector 24, which are the first mode selection means, and a frame processing mode for blocking orthogonal transformation as a frame unit in the macroblock, and a field in the macroblock as a unit. As a result, it is determined by using the information output from the motion detecting means and the first mode selecting means, which of the field processing modes to block orthogonal transformation is effective in performing orthogonal transformation, so that an efficient blocking mode is obtained. Blocking mode determination circuit 25, which is a second mode selection means for selecting a. And whether or not the odd cycle of the period in which the radix field scan is performed or the even cycle in the period in which the even field scan is performed in the interlace of the encoding process for one frame (one screen) is performed. An address generator 11 which is an address generating means for controlling a frame memory root to output a correspondingly blocked macroblock, and a motion prediction mode information selected by the first mode selecting means and a blocking selected by the second mode selecting means A frame memory group 20 with a motion compensator, which is a motion compensation means for receiving mode information and performing motion compensation frames or inter-field prediction in response to the mode information.

또한, 제2도는 본 발명의 제2실시예를 나타내는 것이다. 더욱이, 제2도에 있어서 제1도와 동일 번호가 붙여진 블록은 동일한 기능을 하는 것이다. 따라서, 여기에서는 제1도와 다른 번호가 붙여진 블록에 대해서 서술한다. 즉, 제2도의 고능률 부호화 장치는, 제1도의 고능률 부호화 장치와 동일 번호가 붙여진 블록 이외에, 움직임 보상이 상기 프레임 예측 모드에서 직교 변환의 블록화가 상기 프레임 처리 모드의 경우와, 움직임 보상이 상기 필드 예측 모드에서 직교 변환의 블록화가 상기 필드 처리 모드의 경우의 어느쪽의 효율이 좋은가를 상기 움직임 검출 수단으로부터 출력되는 정보에 의해 판정하여, 효율이 좋은 예측 모드를 선택하는 모드 선택 수단인 모드 판정 회로(43) 및 셀렉터(24)와, 1 프레임(1 화면)에 대해서 부호화 처리의 인터레이스에 있어서의 기수 필드의 스캔을 행하는 기간의 기수 사이클인지 우수 필드의 스캔을 행하는 기간의 우수 사이클인지를 인식하여, 상기 모드 판정회로(43)의 모드가 필드 예측 필드 처리의 때만 상기 기수 사이클에서 매크로 블록분의 기수 필드를 차례로 1 프레임분 출력하고, 이어서 상기 우수 사이클에서 매크로 블록분의 우수 필드를 차례로 1 프레임분 출력하도록 프레임 메모리군을 제어하는 어드레스 발생 수단인 어드레스 발생기(31)를 갖춘 것이다.2 shows a second embodiment of the present invention. Moreover, in Fig. 2, blocks designated by the same reference numerals as in Fig. 1 perform the same function. Therefore, a block numbered different from that in FIG. 1 will be described here. That is, in the high efficiency encoding apparatus of FIG. 2, in addition to the blocks numbered the same as the high efficiency encoding apparatus of FIG. 1, the motion compensation is performed when the orthogonal transform is blocked in the frame prediction mode and the motion compensation is performed. Mode which is a mode selection means which selects the efficient prediction mode by judging by the information output from the said motion detection means which efficiency of the block of orthogonal transform in the said field prediction mode is the case of the said field processing mode. Whether the decision circuit 43, the selector 24, and one frame (one screen) is an odd cycle of a period in which the radix field is scanned in the interlace of the encoding process or an even cycle in the period in which the even field is scanned Recognizes that macros in the odd cycle are only available when the mode of the mode determining circuit 43 is field prediction field processing. The address generator 31 is provided as an address generating means for controlling the frame memory group so that the odd number field of the lock is sequentially outputted one frame, and then the even field of the macroblock is outputted one frame in order in the even cycle.

또한, 제2실시예는 상기 블록화의 모드와 상기 움직임 보상의 모드 분할이 없는 부호화 장치이다. 물론, 제1의 실시예와 동일한 블록도이라도 괜찮지만, 제2의 실시예가 제1의 실시예와 근본적으로 다른 점은 상술한 바와 같이 어드레스 발생기의 동작에 있다.Further, the second embodiment is an encoding device without the partitioning mode and the mode division of the motion compensation. Of course, the same block diagram as that of the first embodiment may be used, but the second embodiment is fundamentally different from the first embodiment in the operation of the address generator as described above.

먼저, 이 제1도의 구성을 이용하여서, 제1의 실시예에 있어서 부호화 처리되는 화상 데이터의 주요한 흐름에 대해서 설명한다. 이어서, 제2도에 의해 제2의 실시예에 대해서 설명한다.First, the main flow of the image data subjected to the encoding process in the first embodiment will be described using the configuration of FIG. Next, a second embodiment will be described with reference to FIG.

즉, 이 제1도에있어서, 입력 단자(1)에는 디지탈의 화상 신호가 공급되고, 상기 프레임 메모리군(10)에 격납된다. 해다 프레임 메모리군(10)으로 부터는, 상기 16×16화소의 단위 매크로 블록의 데이터가 후술하는 어드레스 발생기(11)에 제어, 출력되어, 차분 검출기(12)로 전송된다. 해당 차분 검출기(12)에는, 후술하는 움직임 보상기 부착 프레임 메모리군(20) 으로부터의 움직임 보상된 화상 데이터도 공급되어, 해당 차분 검출기(12)에서 이들의 차분이 검출된다.That is, in FIG. 1, a digital image signal is supplied to the input terminal 1, and is stored in the frame memory group 10. As shown in FIG. From the frame memory group 10, data of the unit macroblock of the 16x16 pixel is controlled and output to the address generator 11 described later, and transmitted to the difference detector 12. The difference detector 12 is also supplied with motion compensated image data from the frame memory group 20 with a motion compensator to be described later, and these differences are detected by the difference detector 12.

상기 차분 검출기(12)의 출력은, 직교 변환(DCT)처리를 행하는 DCT 회로(13)으로 보내진다. 해당 DCT 회로(13)에서 DCT 처리되어 얻어진 DCT 계수 데이터는, 양자화기(14)로 보내진다. 해당 양자화기(14)로 부터의 양자화 데이터는, 예를들면 소위 하프만 부호화와 란렝그스 부호화 등의 가변장 부호화 처리를 행하는 가변장 부호화 회로(15) 및 버퍼 (16)를 경유하여서, 출력 단자(2)로 부터 부호화 데이터로서 출력된다.The output of the difference detector 12 is sent to a DCT circuit 13 that performs orthogonal transform (DCT) processing. The DCT coefficient data obtained by DCT processing in the DCT circuit 13 is sent to the quantizer 14. The quantized data from the quantizer 14 is output via the variable length coding circuit 15 and the buffer 16, which perform variable length coding processing such as so-called half-man coding and Langlenth coding. It is output as encoded data from (2).

또한, 상기 움직임 보상기 부착 프레임 메모리군(20)에는, 상기 양자화기(14)로 부터의 양자화 데이타가, 해당 양자화기(14)에서의 양자화 처리의 역 양자화 처리를 행하는 역 양자화기(17)와 상기 DCT회로(13)에서의 DCT 처리의 역 DCT 처리를 행하는 역 DCT 회로(18)를 경유하여, 또한 가산기(19)를 경유한 데이터가 공급될 수 있도록 되어 있다. 상기 가산기(19)에서는, 상기 역 DCT 회로(18)의 출력과 해당 움직임 보상기 부착 프레임 메모리군(20)의 출력과의 가산이 이루어진다. 또한, 버퍼(16)으로 부터는, 해당 버퍼(16)의 오버플로우를 방지하기 위한 신호가, 상기 양자화기(14)에 피드백 될 수 있도록 되어 있다.In the frame memory group 20 with the motion compensator, the quantization data from the quantizer 14 includes an inverse quantizer 17 that performs inverse quantization processing of the quantization processing in the quantizer 14; The data via the adder 19 can be supplied via the reverse DCT circuit 18 which performs the reverse DCT process of the DCT process in the DCT circuit 13. In the adder 19, the output of the inverse DCT circuit 18 and the output of the frame memory group 20 with the motion compensator are added. In addition, from the buffer 16, a signal for preventing the overflow of the buffer 16 can be fed back to the quantizer 14.

한편, 상기 프레임 메모리군(10)으로부터 상기 매크로 블록 단위로 출력된 화상 데이터는, 프레임 움직임 검출 회로(22) 및 필드 움직임 검출 회로(21)로 전송된다.On the other hand, image data output from the frame memory group 10 in units of the macro blocks are transmitted to the frame motion detection circuit 22 and the field motion detection circuit 21.

상기 프레임 움직임 검출 회로(22)는, 상기 매크로 블록 단위로 프레임간의 움직임 벡터와 각 화소이 절대치 차분합을 검출하여, 이들의 데이터(프레임간의 움직임 벡터의 데이터(FMMV)와 절대치 차분합의 데이터(FMAD)를 출력한다. 또한 상기 필드 움직임 검출 회로(21)는, 매크로 블록 단위로 필드간의 움직임 벡터와 각 화소의 절대치 차분합을 검출하여, 이들의 데이터 필드간의 움직임 벡터의 데이터(FDMV)와 절대치 차분합의 데이터(FDAD)를 출력한다. 이들 움직임 검출 회로(21 및 22)의 각 움직임 벡터의 데이터(FMMV/FDMV)는 상기 셀렉터(24)로 전송되고, 각 절대치 차분합의 데이터(FMAD/FDAD)는 상기 움직임 예측 모드 판정 회로(23)으로 전송된다.The frame motion detection circuit 22 detects the absolute difference between the motion vectors between the frames and the pixels in units of the macroblock, and determines their data (the data FMMV of the motion vectors between the frames and the absolute value difference data FMAD). The field motion detection circuit 21 detects the absolute difference between the motion vectors between the fields and each pixel in units of macroblocks, and compares the data (FDMV) and the absolute value difference between the motion vectors between these data fields. The data FDAD is outputted The data FMMV / FDMV of each motion vector of these motion detection circuits 21 and 22 is transmitted to the selector 24, and the data FMAD / FDAD of each absolute value difference summation is described above. It is sent to the motion prediction mode determination circuit 23.

해당 움직임 예측 모드 판정 회로(23)는, 상기 프레임 움직임 검출 회로(22)로 부터의 절대치 차분합 데이터(FAD)와 상기 필드 움직임 검출 회로(21)로 부터의 절대치 차분합 데이터 (FDAD)에 의거하여서, 후술하는 움직임 보상기 부착 프레임 메모리군(20)에서의 움직임 예측 처리시에 상기 프레임 단위로 움직임 예측 처리를 행하는지 또는 필드 단위로 움직임 예측 처리를 행하는지의 판정을 하여, 어느쪽인가 유리한쪽(효율이 좋은쪽)의 처리 모드를 나타내는 데이터를 출력한다. 구체적으로 말하면, 이 움직임 예측 모드 판정 회로(23)에 있어서, 예를들면 절대치 차분합 데이터(FMAD)와 절대치 차분합 데이터(FDAD)와의 차이가 어떤 임계치(T1)보다도 크다고 (FMAD-FDAD>T1일 때) 판정된 경우는, 해당 회로(23)으로부터 상기 필드 단위로 움직임 예측 처리를 행하는 쪽이 효율이 좋다는 것을 나타내는 데이터(움직임 예측에 있어서의 필드 처리 모드의 데이터(MPED)를 출력한다. 역으로, 절대치 차분합 데이터(FMAD) 와 절대치 차분합 데이터(FDAD)와의 차이가 상기 임계치(T1)보다도 작거나 또는 같다고 (FMAD-FDAD≤T1일 때)판정된 경우는, 상기 프레임 단위로 움직임 예측 처리를 행하는 쪽이 효율이 좋다는 것을 나타내는 데이터(움직임 예측에 있어서의 프레임 처리 모드의 데이터(MPFM)를 출력한다. 이들 어느쪽인가의 움직임 에측 모드 데이터(MPFM/MPFD)는, 움직임 보상기 부착 프레임 메모리군(20)으로 보내지고, 이것에 의해,해당 프레임 메모리군(20)에서는, 프레임 단위 또는 필드 단위로 움직임 보상을 행한다. 또한 이들 움직임 예측 모드 데이터(MPFM/MPFD)는, 셀렉터(24)에도 보내진다.The motion prediction mode determination circuit 23 is based on the absolute value difference data FAD from the frame motion detection circuit 22 and the absolute value difference data FDAD from the field motion detection circuit 21. In the motion prediction processing in the frame memory group with a motion compensator 20 to be described later, it is determined whether the motion prediction processing is performed in the frame unit or the motion prediction processing in the field unit. Output data indicating the processing mode of the more efficient one). Specifically, in this motion prediction mode determination circuit 23, for example, the difference between the absolute value difference data FMAD and the absolute value difference data FDAD is greater than any threshold value T1 (FMAD-FDAD> T1). Is determined, outputting data (field data MPED in the field processing mode in the motion prediction) indicating that the motion prediction processing is performed from the circuit 23 on a per field basis. When it is determined that the difference between the absolute difference data FMAD and the absolute difference data FDAD is less than or equal to the threshold value T1 (when FMAD-FDAD≤T1), the motion prediction is performed on the frame basis. Outputs data indicating that the processing is more efficient (data of the frame processing mode (MPFM) in motion prediction.) Either of these motion-side mode data (MPFM / MPFD). Is sent to the frame memory group 20 with a motion compensator, whereby the frame memory group 20 performs motion compensation on a frame basis or field basis, and these motion prediction mode data (MPFM / MPFD). Is also sent to the selector 24.

해당 셀렉터(24)는, 상기 움직임 예측 모드 판정 회로(23)으로부터의 움직임 예측 모드 데이터(MPFM/MPFD)에 따라서, 상기 프레임 움직임 검출 회로(22)로부터 공급되고 있는 프레임간의 움직임 벡터 데이터(FMMV)와, 상기 필드 움직임 검출 회로(21)로부터 공급되고 있는 필드간의 움직임 벡터 데이터(FDMV)의 어느 한쪽을 선택 출력한다. 즉, 상기 움직임 예측 모드 데이터가 필드 예측 모드를 나타내는 데이터(MPFD)일 때는 상기 필드 움직임 검출 회로(21)로 부터의 움직임 벡터 데이터(FDMV)를 선택하여서 출력하고, 상기 움직임 예측 모드 데이터가 프레임 예측 모드를 나타내는 데이터(MPFM)일때는 상기 필드 움직임 검출 회로(22)로 부터 움직임 벡터 데이터(FMMV)를 선택하여서 출력한다. 해당 셀렉터(24)에서 선택된 움직임 벡터 데이터(FMMV/FDMV)는, 상기 블록화 모드 판정 회로(25)로 보내진다.The selector 24, according to the motion prediction mode data (MPFM / MPFD) from the motion prediction mode determination circuit 23, motion vector data (FMMV) between frames supplied from the frame motion detection circuit 22. And either of the motion vector data FDMV between the fields supplied from the field motion detection circuit 21 is output. That is, when the motion prediction mode data is the data MPFD indicating the field prediction mode, the motion vector data FDMV from the field motion detection circuit 21 is selected and output, and the motion prediction mode data is frame prediction. In the case of the data MPFM indicating the mode, the motion vector data FMMV is selected from the field motion detection circuit 22 and output. The motion vector data FMMV / FDMV selected by the selector 24 is sent to the blocking mode determination circuit 25.

해당 블록화 모드 판정 회로(25)에는, 상기 프레임 메모리군(10)으로부터의 출력 데이터와 상기 움직임 예측 모드 판정 회로(23)으로부터의 상기 처리 모드 데이터(MPFM/MPFD)도 공급되도록 되어 있다. 해당 블록화 모드 판정 회로(25)에서는, 상기 움직임 예측 모드 데이터(MPFM/MPFD)와 상기 움직임 벡터 데이터(FMMV/FDMV)을 받고, 또한, 상기 프레임 메모리군(10)으로 부터의 화상을 이용하여서 차분 화상을 만들어, 해당 차분 화상에 의거해서, 상기 프레임 메모리군(10)으로부터 출력되어 상기 DCT 회로(13)으로 DCT 처리되는 화상에 가장 적당한 블록화 처리 모드를 선택한다. 더욱, 상기의 I 화상(또는 I 프레임)의 경우는, 상기 차분 화상 대신에 프레임 메모리군(10)의 화상(원화)데이터를 사용한다.The block mode determination circuit 25 is also supplied with output data from the frame memory group 10 and the processing mode data MPFM / MPFD from the motion prediction mode determination circuit 23. The block mode determination circuit 25 receives the motion prediction mode data (MPFM / MPFD) and the motion vector data (FMMV / FDMV) and makes a difference using an image from the frame memory group 10. An image is created and the block processing mode most suitable for the image output from the frame memory group 10 and subjected to DCT processing by the DCT circuit 13 is selected based on the difference image. Further, in the case of the above I image (or I frame), the image (original) data of the frame memory group 10 is used instead of the difference image.

즉 여기에서, 상기 차분 화상의 예를들면 매크로 블록이 예를들어 제3도에 나타내는 것과 같은 매크로 블록이었다고 하자(I화상에 있어서의 원화의 매크로 블록). 또한, 제3도에 있어서, 기수 라인(o1, o2, o3,……oN, 단 N은 매크로 블록의 경우 16)은 실선으로 나타내고, 우수라인(e1, e2, e3, .……eN, 단 N은 매크로 블록의 경우 16)은 점선으로 나타내고 있다. 또, 우수 라인의 각 픽셀은 e(i,j)로 표현하고, 기수 라인은 각 픽셀은 o(i,j)로 표현하고 있다. 이 제3도와 같은 차분화상 또는 원화상(I 화상의 화상)에 있어서, 필드 단위의 상기 차분 화상의 차분(EFD)는 수1의 수식으로 나타낼 수 있고, 프레임 단위의 상기 차분 화상의 차분(EFM)은 수2의 수식으로 나타낼 수 있다.In other words, suppose that the macroblock in the difference image is, for example, a macroblock as shown in FIG. 3 (macroblock of the original picture in the I picture). In Fig. 3, the odd lines o1, o2, o3, ..., oN, where N is 16 in the case of a macro block, are indicated by solid lines, and even lines (e1, e2, e3, ..., eN, In the case of macroblock, N is indicated by dotted line. Each pixel of the even line is represented by e (i, j), and the odd line is represented by each pixel as o (i, j). In the difference image or the original image (the image of the I image) as shown in FIG. 3, the difference EFD of the difference image in the field unit can be expressed by a number 1 expression, and the difference (EFM) of the difference image in the frame unit. ) Can be represented by the formula of number 2.

[수 1][1]

[수 2][Number 2]

상기 블록화 모드 판정 회로(25)에 있어서는, 구체적으로, 이 수 1 및 수2의 수식을 이용하여서 프레임에서 구한 차분(EFM)과 필드에서 구한 차분(EFD)과의 차이가 어떤 임계치(T2)보다도 크다고(EFM-EFD>T2 일때)판정된 경우는, 상기 DCT 회로(13) 에서의 DCT를 필드 단위로 행하는 것을 나타내는 데이터(블럭화 처리에 있어서의 필드 처리 모드의 데이타(MPED))를 출력한다. 역으로, 상기 차분(EFM) 과 상기 차분(EFD)와의 차이가 상기 임계치(T2)보다도 작거나 또는 같다고(EFM-EFD≤T2 일 때) 판정된 경우는, 상기 DCT 회로(13)에서의 DCT를 상기 프레임 단위로 행하는 것을 나타내는 데이터(블럭화 처리에 있어서의 프레임 처리 모드의 데이터(MDFM))를출력한다. 이들 어느것인가의 블록화 모드 데이터(MDFM/MDFD)는, 상기 어드레스 발생기(11) 및 움직임 보상기 부착 프레임 메모리군(20)으로 전송된다. 또한, 상기 움직임 벡터 데이터(FMMV/FDMV)와 상기 블록화 모드 데이터(MDFM/MDFD)와 상기 예측 모드 데이터(MPFM/MPFD)는, 상술의 가변장 부호화 회로(15)로 보내진다.In the blocking mode determination circuit 25, the difference between the difference EFM obtained in the frame and the difference EFD obtained in the field using the formulas of numbers 1 and 2 is more than any threshold value T2. In the case where it is determined to be large (when EFM-EFD> T2), data (data of the field processing mode (MPED) in the block processing) indicating that the DCT in the DCT circuit 13 is performed in units of fields is output. Conversely, when it is determined that the difference between the difference EFM and the difference EFD is less than or equal to the threshold T2 (when EFM-EFD? T2), the DCT in the DCT circuit 13 is determined. Is output in the frame unit (data MDFM in the frame processing mode in the block processing). Any of these block mode data MDFM / MDFD is transmitted to the address generator 11 and the frame memory group 20 with a motion compensator. The motion vector data FMMV / FDMV, the block mode data MDFM / MDFD, and the prediction mode data MPFM / MPFD are sent to the variable length coding circuit 15 described above.

상기어드레스 발생기(11)에서는, 상기 프레임 메모리군(10)에 저장되어 있는 화상데이터에 대해서, 예를들면 상기 매크로 블록 단위로 상기 DCT 에 있어서의 처리 모드 데이터(MPFM/MPFD)에 따라서 블록화된 매크로 블록을 출력하도록 프레임 메모리군을 제어한다. 즉, 해당 어드레스 발생기(11)에 있어서, 상기 블록화 모드 데이터가 프레임 단위로 DCT 처리를 나타내는 데이터(MPFM)의 경우는, 제4도에 나타내는 바와 같이 우수와 기수가 교대로 스캔된 매크로 블록을 출력하도록 프레임 메모리군을 제어한다. 이것에 의해, 상기 DCT 회로(13)에 보내지는 매크로 블록의 단위 블록은, 우수 필드와 기수 필드를 합친 것이 된다. 역으로, 상기 블록화 모드 데이터가 필드 단위로의 DCT 처리를 나타내는 데이터(MDFD)의 경우는, 제5도에 나타내는 바와 같이, 우수와 기수의 스캔을 따로따로 나누어서 스캔된 매크로 블록을 출력하도록 프레임 메모리군을 제어한다. 이것에의해, 상기 DCT 회로(13)에 보내진 매크로 블록의 단위 블록은, 우수 필드와 기수 필드가 따로따로 나누어진 것이 된다. 단, DCT 회로(13)에서는, 상술한 바와 같이, 8×8 화소의 단위 블록으로 DCT 변환을 행한다. 또한, 이 제4도 ,제5도에 있어서는, 기수 라인은 실선으로 나타내고, 우수 라인은 점선으로 나타내고 있다.In the address generator 11, for example, the image data stored in the frame memory group 10 is blocked in accordance with processing mode data (MPFM / MPFD) in the DCT in units of the macro blocks. The frame memory group is controlled to output a block. In other words, in the address generator 11, in the case of the data MPFM in which the blocking mode data indicates DCT processing on a frame basis, as shown in FIG. 4, the macroblocks in which even and odd numbers are alternately scanned are output. The frame memory group is controlled. As a result, the unit block of the macro block sent to the DCT circuit 13 is the sum of the even field and the odd field. Conversely, in the case of the data MDFD in which the blocking mode data indicates DCT processing on a field-by-field basis, as shown in FIG. 5, the frame memory is configured to output the scanned macroblock by dividing the even and odd scans separately. Control your army. As a result, the unit block of the macro block sent to the DCT circuit 13 is obtained by dividing the even field and the odd field separately. In the DCT circuit 13, however, DCT conversion is performed in a unit block of 8x8 pixels as described above. In Figs. 4 and 5, the odd lines are shown by solid lines, and the even lines are shown by dotted lines.

또한, 상기 움직임 보상기 부착 프레임 메모리군(20)에는, 상기 움직임 예측 모드 판정 회로(23)으로부터의 예측 모드 데이터(MPFM/MPFD)와, 상기 블록화 모드 판정 회로(25)로부터의 블록화 모드 데이터(MPFM/MPFD)와, 상기 셀렉터(24)에서 선택된 움직임 벡터 데이터(FMMV/FDMV)가 공급되고 있다.Further, in the frame memory group 20 with the motion compensator, prediction mode data (MPFM / MPFD) from the motion prediction mode determination circuit 23 and blocking mode data (MPFM) from the blocking mode determination circuit 25 are included. / MPFD and the motion vector data (FMMV / FDMV) selected by the selector 24 are supplied.

따라서, 해당 움직임 보상기 부착 프레임 메모리군(20)에서는, 상기 움직임 예측에 있어서의 예측 모드 데이터(MPFM/MPFD) 및 DCT 처리에 있어서의 블록화 모드 데이터(MDFM/MDFD)에 응함과 동시에, 상기 움직임 벡터 데이터(FMMV/FDMV)를 이용한 움직임 보상이 행해진다.Therefore, in the frame memory group 20 with the motion compensator, the motion vector corresponds to the prediction mode data MPFM / MPFD in the motion prediction and the blocking mode data MDFM / MDFD in the DCT process. Motion compensation using data FMMV / FDMV is performed.

그런데, 제2도에 있어서의 상기 모드 판정회로(43)는, 상기 프레임 움직임 검출 회로(22)로부터의 절대치 차분합 데이터(FMAD)와 상기 필드 움직임 검출 회로(21)로부터의 절대치 차분합 데이터(FDAD)에 의거하여서, 후술하는 움직임 보상기 부착 프레임 메모리군(20)에서의 움직임 예측 처리시에 상기 프레임 단위로 움직임 예측 처리를 행하는지 또는 필드 단위로 움직임 예측 처리를 행하는지늬 판정을 함과 동시에, 그 판정 결과(제1의 실시예의 예측 모드 데이터(MPFM/MPFD)에 상당한다)와, 상기 움직임 검출 회로(21,22)로부터의 움직임 벡터(FMMV.FDMV)와, 또, 상기 프레임 메모리군(10)으로부터의 화상을 이용하여서 차분 화상을 만들고, 해당 차분 화상에 의거해서, 상기 프레임 메모리군(10)으로부터 출력되어서 상기 DCT 회로(13)에서 DCT 처리된 화상에 가장 적당한 블록화 처리의 모드로 판정한다. 즉, 해당 모드 판정 회로(43)에서는, 움직임 예측이 프레임 예측 모드에서 블록화가 프레임 처리 모드(PDFM)와, 움직임 예측이 필드 예측 모드에서 블록화가 필드 처리 모드(PDFD)중 어느쪽이 효율이 좋은가를 판정하고 있는 것이다. 바꿔말하면, 해당 모드 판정 회로(43)은 상기 제1실시예에 있어서의 상기 움직임 예측 모드 판정 회로(23) 와 상기 블록화 모드 판정 회로(25)의 기능을 합친 것과 같은 구성으로 되어 있다.By the way, the mode determination circuit 43 in FIG. 2 has absolute value difference data FMAD from the frame motion detection circuit 22 and absolute value difference data from the field motion detection circuit 21. According to FDAD), the motion prediction process is performed in the frame unit or the field prediction process in the frame prediction group in the frame memory group 20 with a motion compensator to be described later. The determination result (corresponds to the prediction mode data (MPFM / MPFD) in the first embodiment), the motion vector (FMMV.FDMV) from the motion detection circuits 21 and 22, and the frame memory group ( A difference image is created using the image from 10), and is output from the frame memory group 10 based on the difference image, and is most suitable for the DCT processed image in the DCT circuit 13. And it determines a mode of rokhwa treatment. That is, in the mode determination circuit 43, which of the block prediction mode processing mode PDFM in motion prediction is the frame prediction mode and the block prediction field processing mode PDFD in motion prediction is the most efficient? Is being judged. In other words, the mode determining circuit 43 has the same configuration as the combined functions of the motion prediction mode determining circuit 23 and the blocking mode determining circuit 25 in the first embodiment.

더욱이, 구체적인 모드의 판정은, 예를들면, 제1실시예에 있어서의 움직임 예측 모드 및 블록화 모드의 판정과 동일하게 행할 수가 있다.Further, the determination of the specific mode can be performed, for example, in the same manner as the determination of the motion prediction mode and the blocking mode in the first embodiment.

또한, 상기 어드레스 발생기(31)에서는, 상기 프레임 메모리군(10)에 저장되어 있는 화상 데이터에 대해서, 예를들면 상기 매크로 블록 단위로 상기 모드 데이터(PDFM/PDFD)에 따라서 블록화된 매크로 블록을 출력할 수 있도록 프레임 메모리군(10)을 제어한다. 즉, 해당 어드레스 발생기(31)에 있어서, 상기 모드 데이터가 프레임 단위에서의 부호화 처리를 나타내는 데이터(PDFM)의 경우는, 제4도에 나타내는 바와 같이 우수와 기수가 교대로 스캔된 매크로 블록을 출력하도록 프레임 메모리군(10)을 제어한다. 이것에 의해, 상기 DCT 회로(13)에 보내지는 매크로 블록의 단위 블록은, 우수 필드와 기수 필드를 합친 것이 된다. 역으로, 상기 모드 데이터가 필드 단위에서의 부호화처리를 나타내는 데이터(PDFD)의 경우는, 상기 기수 사이클에서 상기 매크로 블록분의 기수 필드를 순차 1 프레임(1 화면) 분 출력하고, 이어서 상기 우수 사이클에서 상기 매크로 블록분의 우수 필드를 순차 1 프레임(1화면)분 출력하도록 프레임 메모리군(10)을 제어한다. 이것에 의해, 기수 사이클에서 상기 DCT 회로(13)에 보내는 매크로 블록의 단위 블록은, 기수 필드만으로 구성된 매크로 블록이 되고, 우수 사이클에서는 우수 필드만으로 구성된 매크로 블록이 된다. 단, DCT 회로(13)에서는, 상술한 바와 같이, 8×8 화소의 단위 블록으로 DCT변환을 행한다.(또한, 이제4도, 제5도에 있어서는, 기수라인은 실선으로 나타내고, 우수 라인은 점선으로 나타내고 있다).In addition, the address generator 31 outputs a macroblock blocked according to the mode data (PDFM / PDFD) in the macroblock units, for example, on the image data stored in the frame memory group 10. The frame memory group 10 is controlled to do so. That is, in the address generator 31, in the case of the data (PDFM) indicating the coding processing in units of frames, the mode generator outputs a macroblock in which even and odd numbers are alternately scanned as shown in FIG. The frame memory group 10 is controlled. As a result, the unit block of the macro block sent to the DCT circuit 13 is the sum of the even field and the odd field. Conversely, in the case of the data (PDFD) indicating the encoding processing in field units, the mode data outputs the odd field for the macroblock for one frame (one screen) in the odd cycle, followed by the even cycle. The frame memory group 10 is controlled to output the even field for the macroblock for one frame (one screen) in sequence. As a result, the unit block of the macro block sent to the DCT circuit 13 in the odd cycle becomes a macro block composed of only the odd field, and becomes a macro block composed of only the even field in the even cycle. In the DCT circuit 13, however, DCT conversion is performed in a unit block of 8x8 pixels as described above. (In addition, in Figs. 4 and 5, the odd lines are represented by solid lines, and the even lines are Indicated by a dashed line).

즉, 상술한 제1, 제2실시예의 화상 신호의 고능률 부호화 장치에 있어서는, 움직임 예측에 있어서의 프레임 예측 모드와 필드 예측 모드, 및 DCT 처리의 블록화에 있어서의 프레임 처리 모드와 필드 처리 모드를 매크로 블록 단위로 바꿀 수 있기 때문에, 해당 매크로 블록 단위에서 가장 효율이 좋은 부호화가 가능하게된다.That is, in the high-efficiency encoding apparatus of the image signals of the first and second embodiments described above, the frame prediction mode and the field prediction mode in motion prediction, and the frame processing mode and the field processing mode in the block of DCT processing are selected. Since it can be changed in units of macroblocks, the most efficient encoding is possible in the macroblock units.

제1 및 제2실시예의 부호화 장치는, 구체적으로 예를들면 소위 디지탈 VTR의 포맷마다 다음에 나타내는 것과 같은 움직임 예측 및 DCT 변환 처리를 행하고 있다.Specifically, the encoding apparatuses of the first and second embodiments perform motion prediction and DCT conversion processing as shown below for each format of a so-called digital VTR, for example.

여기서, 제6도, 제8도, 제10도에 있어서는, 상기 I 프레임(I 화상)의 프레임을 구성하는 필드 Io 필드(I 프레임의 기수 필드), Ie 필드(I 프레임의 우수 필드)로 하고, 상기 P 프레임(P 화상)을 구성하는 필드를 Po 필드(기수필드), Pe 필드(우수필드)로 하고, 상기 B 프레임(B 화상)를 구성하는 필드를 Bo 필드9기수 필드), Be 필드(우수 필드)로 하고 있다.Here, in FIGS. 6, 8, and 10, the field Io field (the radix field of the I frame) and the Ie field (the even field of the I frame) constituting the frame of the I frame (I image) are assumed. A field constituting the P frame (P picture) is a Po field (odd field) and a Pe field (excellent field), and a field constituting the B frame (B picture) is a Bo field (9 odd field) and a Be field. (Excellent field).

또한, 제1, 제2실시예에 있어서는, 상술한 제4도에 나타내는 것 같이, 블록화에 있어서의 프레임 처리 모드는 기수 필드와 우수 필드를 합하여 상기 매크로 블럭을 구성(즉 프레임마다 매크로 블록을 구성)하여 이 매크로 블록을 처리 단위로 하는 모드이고, 또한, 상술한 제5도에 나타내는 것같이, 블록화에 있어서의 필드 처리 모드는, 기수 필드와 우수 필드에서 따로따로 매크로 블록을 구성(즉 필드마다 매크로 블록을 구성)하여 이 매크로 블록을 처리 단위로 하는 모드이다. 따라서, 예를들면, I 프레임에서는, 상기 매크로 블록마다 프레임 처리 모드와, 필드 처리 모드가 변환되게 된다.In addition, in the first and second embodiments, as shown in FIG. 4, the frame processing mode in block formation constitutes the macroblock by adding the odd field and the even field (that is, forming a macroblock for each frame). This macroblock is a processing unit, and as shown in FIG. 5, the field processing mode in block formation constitutes a macroblock separately in the radix field and the even field (that is, for each field). Macroblock), which is a macroblock processing unit. Thus, for example, in an I frame, a frame processing mode and a field processing mode are switched for each macroblock.

또한, 제1, 제2 실시예의 고능률 부호화 장치에 있어서는, 1개의 프레임에 대해서, 부호화 처리가 인터레이스에 있어서의 기수 필드가 스캔을 행하는 기간의 기수 사이클과, 우수 필드가 스캔을 행하는 기간의 우수 사이클로 구분되고 있다.In the high-efficiency encoding apparatus of the first and second embodiments, the odd cycle of the period in which the radix field in the interlace is scanned by the encoding process and the even period in which the even field is scanned for one frame It is divided into cycles.

제1실시예의 경우 예를들면, 소위 4:2:0 콤포넌트의 디지탈 VTR 포맷을 다루는 경우는, 제7도에 나타내는 것 같이, 상기 블록화가 프레임 처리 모드일 때는, 기수 필드 및 우수 필드로 이루어진 휘도 블록(Y0, Y1, Y2, Y3)과 기수 필드의 색차 블록(Cb0, Cr1)으로 이루어진 매크로 블록의 각 단위 블록의 DCT 처리가 행해진다. 이것에 대해, 상기 블럭화기 필드 처리 모드일 때는, 각 기수 필드의 휘도 블럭(Y02o, Y13o)과 각 우수 필드의 휘도 블럭(Y02e, Y13e) 및 상기 홀드 필드의 색차 블럭(cb0, cr1)으로 이루어진 매크로 블럭(MB)의 각 단위 블럭의 DCT 처리가 행해진다.In the case of the first embodiment, for example, when dealing with a so-called digital VTR format of 4: 2: 0 components, as shown in FIG. 7, when the blocking is in the frame processing mode, the luminance consists of the odd field and the even field. DCT processing is performed on each unit block of the macro block consisting of the blocks Y0, Y1, Y2, Y3 and the color difference blocks Cb0, Cr1 of the odd field. On the other hand, in the blocker field processing mode, the block comprises the luminance blocks Y02o and Y13o of each radix field, the luminance blocks Y02e and Y13e of each even field and the color difference blocks cb0 and cr1 of the hold field. DCT processing of each unit block of the macro block MB is performed.

또한, 이 제7도 예에서의 움직임 예측은, 제8도에 나타내는 것 같이, 상기 프레임 예측 모드일 때는 I 프레임과 P 프레임간의 움직임 예측(MCP)이 가능하게 된다. 이것에 대해서 필드 예측 모드에서는, Io 필드와 Po 필드 사이의 움직임 예측 (MCoPo)과, Io필드와 Pe 필드 사이의 움직임 예측(MCePo)과, Ie 필드와 Pe 필드 사이의 움직임 예측(MCe Pe)이 가능하게 된다. 즉, 이 제8도의 경우, 움직임 예측 및 블록화가 프레임 예측/ 처리모드와 필드 예측/처리 모드에서 독립하여 존재할 수 있고, 프레임 예측 모드에서는 움직임 벡터가 1개 구해지고, 필드 예측 모드에서는 움직임 벡터가 2개 구해진다.As shown in FIG. 8, the motion prediction in the example of FIG. 7 enables motion prediction (MCP) between an I frame and a P frame in the frame prediction mode. On the other hand, in the field prediction mode, the motion prediction between the Io field and the Po field (MCoPo), the motion prediction between the Io field and the Pe field (MCePo), and the motion prediction between the Ie field and the Pe field (MCe Pe) It becomes possible. That is, in FIG. 8, motion prediction and blocking may exist independently in the frame prediction / processing mode and the field prediction / processing mode, and one motion vector is obtained in the frame prediction mode, and the motion vector is obtained in the field prediction mode. Two are saved.

따라서, 제1실시예에 있어서는, 예를들면, I 프레임의 상기 블록화가 프레임 처리 모드일 때는, 상기 기수 사이클에서, 상기 Io 필드와 Ie 필드가 조합되어 상기 매크로 블록이 구성되고, 예를들면 상기 기수 사이클에서, 해당 매크로 블록마다 DCT 변환(단 DCT은 8×8의 상기 단위 블록마다 행해진다),양자화, 가변화 부보화가 행해진다. 이것에 대해서, 이 모드의 우수 사이클에서는, 어느것도 데이터는 보내지 않는다.Therefore, in the first embodiment, for example, when the blocking of an I frame is a frame processing mode, in the radix cycle, the Io field and the Ie field are combined to form the macro block, for example the In the odd cycle, DCT conversion (where DCT is performed for each of the unit blocks of 8x8), quantization, and variable subcomplementation are performed for each macroblock. On the other hand, none of the even cycles in this mode send data.

또한, 상기 블록화가 필드 처리 모드일때는, 상기 기수 사이클에서는 상기 Io 필드와 Ie 필드가 따로따로 나누어진 형태로 상기 매크로 블록이 구성되고, 해당 매크로 블록마다 DCT 변환(단 DCT는 8×8의 상기 단위 블록마다 행해진다), 양자화, 가변장 부호화가 행해진다. 이것에 대해서, 이 모드의 우수 사이클에서는, 제7도로부터도 알 수 있듯이 어느것도 데이터는 보내지 않는다.In addition, when the blocking is in the field processing mode, the macroblock is configured in a form in which the Io field and the Ie field are divided separately in the radix cycle, and DCT conversion (for DCT is 8 × 8) for each macroblock. Per unit block), quantization, and variable length coding are performed. In contrast, in the even cycle of this mode, as can be seen from FIG. 7, none of the data is sent.

또한, 상기 P프레임의 경우는, 이하와 같은 처리가 행해진다. 예를들면, P 프레임의 상기 블록화가 프레임 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는,상기 기수 사이클에서는 참조 화상을 전방향의 화상(I 프레임의 화상0으로서 프레임간의 움직임 벡터(MVP)를 검출하고, Io 필드와 Ie 필드가 교대로 조합된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화 한다. 한편, 이 모드의 상기 우수 사이클에서는, 어느것도 데이터는 보내지 않는다.In the case of the P frame, the following processing is performed. For example, when the blocking of the P frame is the frame prediction mode and the motion prediction is the frame prediction mode, the radix cycle detects the reference picture as the omnidirectional picture (picture 0 of the I frame) and the motion vector (MVP) between frames. Then, the difference between the macroblock in which the Io field and the Ie field are alternately combined is encoded as a predictive image, and the difference between the original image and the original image is not transmitted.

또한, P 프레임의 블록화가 프레임 처리 모드에서 움직임 예측이 필드 예측 모드일 때는, 상기 기수 사이클에서는 Io 필드와 Ie 필드(또는 Po 필드와 Pe 필드)를 각각 참조 화상으로서, Io 필드와 Po 필드 사이의 움직임 벡터(MVoPo), Ie 필드와 Po 필드 사이의 움직임 벡터(MVePo), Io 필드와 Pe 필드 사이의 움직임 벡터(MVoPe), Ie 필드와 Pe 필드 사이의 움직임 벡터(MVe Pe)를 검출하고, 기수 필드의 예측과 우수 필드의 예측과 양방향 예측(예를들면, 우수 필드 예측과 기수 필드 예측의 평균)중에서, 현 P 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, Io 필드와 Ie 필드가 조합된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화 한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.In addition, when the block of the P frame is the motion prediction mode in the frame processing mode, in the odd cycle, the Io field and the Ie field (or the Po field and the Pe field) are referred to as reference pictures, respectively, between the Io field and the Po field. Motion vector (MVoPo), motion vector (MVePo) between Ie and Po fields, motion vector (MVoPe) between Io and Pe fields, motion vector (MVe Pe) between Ie and Pe fields, and detect Among the field prediction, the even field prediction, and the bidirectional prediction (eg, the average of the good field prediction and the odd field prediction), the prediction with the minimum prediction error with the current P frame is selected, so that the Io field and the Ie field are selected. The combined macroblock is encoded as a difference from the original picture as a predictive picture. On the other hand, none of the even cycles in this mode send data.

또한, P 프레임의 상기 블록화가 필드 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는, 상기 기수 사이클에서는 참조 화상을 I 프레임의 화상(또는 P 프레임의 화상)으로서, 프레임 간의 움직임 벡터(MVP)를 검출하고, Io 필드와 Ie 필드가 따로따로 나누어져서 구성된 상기 매크로 블록을 예측 화상으로서 원화상(Po 필드와 Pe 필드가 따로따로 나누어져서 구성된 매크로 블록)과의 차분을 부호화한다. 한편, 이 모드의 우수사이클에서는 상기와 같이 어느것도 데이터는 보내지 않는다.Further, when the blocking of the P frame is in the field processing mode and the motion prediction is in the frame prediction mode, the motion cycle (MVP) between the frames is detected as the reference picture as the picture of the I frame (or the picture of the P frame) in the odd cycle. Then, the difference between the original block (the macroblock formed by dividing the Po field and the Pe field separately) is encoded as the predicted image using the macroblock formed by dividing the Io field and the Ie field separately. On the other hand, none of the even cycles in this mode send data as described above.

또한, P 프레임의 상기 블록화가 필드 처리 모드에서 움직임 예측이 필드 예측 모드일 때는, 상기 기수 사이클에서는 Io 필드와 Ie 필드(또는 Po 필드와 Pe 필드)를 각각 참조화상으로서, Io 필드와 Po 필드 사이의 움직임 벡터(MVoPo), Io 필드와 Po 필드 사이의 움직임 벡터(MVePo),Ie 필드와 Pe 필드 사이의 움직임 벡터(MVoPe), Ie 필드와 Pe필드 사이의 움직임 벡터(MVe Pe)를 검출하고, 기수 필드의 예측과 우수 필드의 예측과 양방의 예측(예를들면, 우수필드 예측과 기수 필드 예측의 평균)중에서, 현 P 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, Io 필드와 Ie 필드가 따로따로 나누어져서 구성된 상기 매크로 블록을 예측 화상으로서 원화상(Po 필드와 Pe 필드가 따로따로 나누어져서 구성된 매크로 블록)과의 차분을 부호화 한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.Further, when the blocking of the P frame is in the field processing mode and the motion prediction is in the field prediction mode, the Io field and the Ie field (or the Po field and the Pe field) are referred to as reference pictures in the odd cycle, respectively, between the Io field and the Po field. Detects the motion vector MVoPo, the motion vector MVePo between the Io field and the Po field, the motion vector MVoPe between the Ie field and the Pe field, and the motion vector MVe Pe between the Ie field and the Pe field, From the prediction of the odd field, the prediction of the even field, and the prediction of both directions (for example, the average of the prediction of the even field and the odd field prediction), the prediction with the minimum prediction error with the current P frame is selected. The difference between the original block (the macroblock formed by dividing the Po field and the Pe field separately) is encoded as the predicted image using the macroblock formed by dividing the fields separately. On the other hand, none of the even cycles in this mode send data.

또한, 상기 B프레임의 경우는 다음과 같은 처리가 행해진다.In the case of the B frame, the following processing is performed.

예를들면, B 프레임의 상기 블록화가 프레임 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는, 상기 기수 사이클에서는 참조화상을 전방과 후방의 화상으로서 프레임 간의 움직임 벡터, 즉, I 프레임과 B 프레임 사이의 움직임 벡터(FMUB)와 P 프레임과 B 프레임 사이의 움직임 벡터(BMVB)를 검출하고 전방 예측과 후방 예측과 양방향 예측(전방 예측과 후방 예측과의 평균)중에서, 현 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, 기수 필드와 우수필드가 교대로 조합된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.For example, when the blocking of the B frame is the frame prediction mode and the motion prediction is the frame prediction mode, in the radix cycle, the reference picture is the front and back picture as the motion vector between the frames, that is, between the I frame and the B frame. Detects the motion vector (FMUB) and the motion vector (BMVB) between the P and B frames, and among the forward prediction, backward prediction and bidirectional prediction (average of forward prediction and backward prediction), the prediction error with the current frame is minimal. The prediction is selected, and the difference between the original image and the original block is encoded using the macroblock in which the odd field and the even field are alternately combined. On the other hand, none of the even cycles in this mode send data.

또한, B 프레임의 상기 블록화가 프레임 처리 모드에서 움직임 예측이 필드 예측 모드일 때는, 상기 기수 사이클에서는 참조 화상을 전방과 후방의 화상으로서 이들 화상에 대해서, 각각 기수 필드의 예측과 우수 필드의 예측을 행하고, 각각의 움직임 벡터, 즉, Io 필드와 Bo 필드 사이의 움직임 벡터(FMVoBo), Ie 필드와 Bo 필드 사이의 움직임 벡터(FMVeBo), ,Io 필드와 Be 필드 사이의 움직임 벡터(FMVoBe), Ie 필드와 Be 필드 사이의 움직임 벡터(FMVeBe), Po 필드와 Bo 필드 사이의 움직임 벡터(BMVoBo), Pe 필드와 Bo 필드 사이의 움직임 벡터(BMVe Bo), Po필드와 Be 필드 사이의 움직임 벡터(BMVoBe), Pe 필드와 Be 필드 사이의 움직임 벡터(BMVeBe)를 검출하고, 각각의 벡터에 의한 기수 필드의 예측과 우수 필드의 예측과 양방의 예측(예를들면, 우수 필드의 예측과 기수 필드 예측의 평균 )중에서, 현 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, Io 필드와 Ie 필드(또는 Po 필드와 Pe 필드)가 조합된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.Further, when the motion of the B frame is the frame prediction mode and the motion prediction is the field prediction mode, in the radix cycle, prediction of the odd field and prediction of the even field are performed for these pictures as the reference picture as the front and rear pictures, respectively. Each motion vector, i.e., the motion vector between the Io field and the Bo field (FMVoBo), the motion vector between the Ie field and the Bo field (FMVeBo), the motion vector between the Io field and the Be field (FMVoBe), and Ie. Motion vector between field and Be field (FMVeBe), motion vector between Po field and Bo field (BMVoBo), motion vector between Pe field and Bo field (BMVe Bo), motion vector between Po field and Be field (BMVoBe ), The motion vector (BMVeBe) between the Pe field and the Be field is detected, and the prediction of the odd field and the prediction of the even field and both predictions (e.g., the prediction of the even field and the odd field prediction) Rating ) From, by selecting the prediction is the prediction error of the current frame is minimized, and the Io field and the Ie field (or the Po field and the Pe field) are combined the macroblock as a predicted image coding a difference from the original image. On the other hand, none of the even cycles in this mode send data.

또한, B프레임의 상기 블록화가 필드 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는, 상기 기수 사이클에서는 참조 화상을 전방과 후방의 화상으로서 프레임간의 움직임 벡터, 즉, I 프레임과 B 프레임 사이의 움직임 벡터(FMVB) 및 P 프레임과 B프레임 사이의 움직임 벡터(FMVB)를 검출하고, 전방 예측과 후방 예측 양방향 예측(전방 예측과 후방 예측과의 평균)중에서, 현 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, 기수필드와 우수 필드가 따로따로 나누어져서 구성된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화 한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.Further, when the blocking of the B frame is the field prediction mode and the motion prediction is the frame prediction mode, in the cardinal cycle, the reference picture is the front and rear picture, and the motion vector between the frames, that is, the motion vector between the I frame and the B frame. (FMVB) and a motion vector (FMVB) between a P frame and a B frame, and among prediction between the forward prediction and the backward prediction bidirectional prediction (average of the forward prediction and the backward prediction), the prediction error with the current frame is minimized. Is selected to encode the difference with the original picture as a predictive picture of the macroblock formed by dividing the odd field and the even field separately. On the other hand, none of the even cycles in this mode send data.

또한, B 프레임의 상기 블록화가 필드 처리 모드에서 움직임 예측이 필드 예측 모드일 때는, 상기 기수 사이클에서는 참조 화상을 전방과 후방의 화상으로서 이들의 화상에 대해서, 각각 기수 필드의 예측과 우수 필드의 예측을 행한다. 각각의 움직임 벡터, 즉, Io 필드와 Bo필드 사이의 움직임 벡터(FMVoBo), Ie필드와 Bo필드 사이의 움직임 벡터(FMVeBo), Io 필드와 Be 필드 사이의 움직임 벡터(FMVoBe), Ie 필드와 Be 필드 사이의 움직임 벡터(FMVeBe), Po 필드와 Bo 필드 사이의 움직임 벡터(BMVoBo), Pe 필드와 Bo 필드 사이의 움직임 벡터(BMVeBo), Po필드와 Be필드 사이의 움직임 벡터(BMVoBe), Pe필드와 Be필드 사이의 움직임 벡터 (BMVeBe)를 검출하고, 각각의 벡터에 의한 기수 필드의 예측과 우수 필드의 예측과 양방의 예측(예를들면, 우수 필드의 예측과 기수 필드의 예측의 평균)중에서, 현 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, Io 필드와 Ie 필드(또는 Po 필드와 Pe 필드)가 따로따로 나누어져 구성된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화한다. 한편, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다.When the motion of the B frame is the field prediction mode and the motion prediction is the field prediction mode, the odd cycle predicts the odd field and the even field, respectively, for these pictures as reference pictures as the front and rear pictures. Is done. Each motion vector, that is, a motion vector between Io and Bo fields (FMVoBo), a motion vector between Ie and Bo fields (FMVeBo), a motion vector between Io and Be fields (FMVoBe), Ie and Be fields Motion vector between fields (FMVeBe), motion vector between Po field and Bo field (BMVoBo), motion vector between Pe field and Bo field (BMVeBo), motion vector between Po field and Be field (BMVoBe), Pe field Detects the motion vector (BMVeBe) between and Be fields and predicts the radix field by each vector, the prediction of the even field, and both predictions (e.g., the average of the prediction of the even field and the prediction of the radix field). Selects a prediction having a minimum prediction error with the current frame, and encodes the difference from the original picture as a predictive picture of the macroblock formed by dividing the Io field and the Ie field (or the Po field and the Pe field) separately. . On the other hand, none of the even cycles in this mode send data.

단, 제1실시예의 경우, 제8도로부터도 알수 있는 것처럼 Io 필드와 Ie필드 사이의 움직임 예측과, Po필드와 Pe 필드 사이의 움직임 예측과, Bo 필드와 Be필드 사이의 움직임 예측을 할수 없다.However, in the first embodiment, as can be seen from FIG. 8, the motion prediction between the Io field and the Ie field, the motion prediction between the Po field and the Pe field, and the motion prediction between the Bo field and the Be field are not possible. .

이 경우, 제2실시예를 사용하면, 각각의 화상에 있어서, 기수 필드에서 우수 필드로의 예측을 할 수 있다. 즉, 예를들면 제9도에 나타내는 것 같이, 상기 블록화가 프레임 처리 모드일 때는, 기수 사이클에서, 기수 필드 및 우수 필드로 이루어지는 휘도 블록(Y0, Y1, Y2, Y3)과, 기수 필드의 색차 블록(Cb0, Cr1)로 이루어지는 매크로 블록(MB)의 각 단위 블록의 DCT 처리를 행하도록 하고, 또한, 상기 블록화가 필드 처리 모드일 때는, 기수 사이클에서 상기 기수 필드의 각 휘도 블록(Y02o, Y13o)과 상기 기수 필드의 각 색차 블록(Cb0, Cr1)과의 각 단위 블록을 DCT 처리한다. 그후, 우수 사이클에서 우수 필드의 각 휘도 블록( Y02e, Y13e)의 각 단위 블록을 DCT 처리한다.In this case, using the second embodiment, prediction can be made from the odd field to the even field in each image. That is, for example, as shown in FIG. 9, when the blocking is in the frame processing mode, the color difference between the luminance blocks Y0, Y1, Y2, and Y3 consisting of the odd field and the even field in the odd cycle and the odd field DCT processing of each unit block of the macro block MB made up of the blocks Cb0 and Cr1, and when the blocking is in the field processing mode, each luminance block Y02o, Y13o of the radix field in the radix cycle. ) And each unit block between the color difference blocks Cb0 and Cr1 of the radix field are subjected to DCT processing. Thereafter, each unit block of each of the luminance blocks Y02e and Y13e of the even field in the even cycle is subjected to DCT processing.

이 제9도의 예에서 움직임 예측은, 제10도에 나타내는 것 같이, 상기 제9도의 각 움직임 예측(MVP, MCoPo, MCope, MCePo, MCePe)외에 Io 필드와 Io 필드 사이의 움직임 예측(SMCI)과, Po 필드와 Pe 필드 사이의 움직임 예측(SMCP)이 가능하게 된다.In the example of FIG. 9, the motion prediction includes the motion prediction between the Io field and the Io field (SMCI) in addition to the motion predictions (MVP, MCoPo, MCope, MCePo, MCePe) of FIG. The motion prediction between the Po field and the Pe field is possible.

따라서, 제2실시예에 있어서는, 예를들면, I 프레임의 상기 블록화가 프레임 처리 모드일 때는, 상기 기수 사이클에서, 상기 Io 필드와 Ie필드가 조합되어 사기 매크로 블록이 구성되며, 예를들면 상기 기수 사이클에서, 해당 매크로 블록마다 DCT 변환(다만 DCT는 8×8의 상기 단위 블록마다 행해진다). 양자화, 가변장 부호화가 이루어진다. 이것에 대해서, 이 모드의 우수 사이클에서는 어느것도 데이터는 보내지 않는다. 또한, 상기 블록화가 필드 처리 모드일 때는, 상기 기수 사이클에서는 매크로 블록의 기수 필드만을 똑같이 부호화 한다. 이것에 의해, 예를들면 상기 기수 사이클이 끝난 시점에서는, 후술하는 복호기측에서는 상기 Io 필드의 전면 및 상기 프레임 처리 모드에 의한 Ie 필드의 매크로 블록 부분이 얻어지게 된다. 더욱이 I 프레임의 상기 우수 사이클에서는 상기 필드 처리 모드에 의한 Ie 필드의 매크로 블록에 대해서, 상기 Io필드를 참조화상으로서 움직임 예측을 행하고, 그 움직임 벡터(SMVI) 및 예측 화상과의 차분 화상을 부호화한다.Thus, in the second embodiment, for example, when the blocking of an I frame is a frame processing mode, in the odd cycle, the Io field and the Ie field are combined to form a fraudulent macro block. In an odd cycle, DCT conversion is performed for each of the macroblocks (however, DCT is performed for each unit block of 8x8). Quantization and variable length coding are performed. In contrast, none of the even cycles in this mode send data. When the blocking is in the field processing mode, only the odd field of the macroblock is encoded in the odd cycle. As a result, for example, at the end of the odd cycle, the decoder side, which will be described later, obtains the macroblock portion of the front of the Io field and the Ie field by the frame processing mode. Further, in the even cycle of the I frame, motion prediction is performed on the macro block of the Ie field in the field processing mode as a reference picture, and the difference picture between the motion vector SMVI and the predictive picture is encoded. .

상기 P 프레임의 경우는 이하와 같은 처리가 행해진다. 예를들면, 상기 P 프레임의 상기 블록화가 프레임 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는, 상기 기수 사이클에서는 참조 화상을 전방향의 화상(I 프레임의 화상)으로서 프레임간의 움직임 벡터(MVP)를 검출하고, Io 필드와 Ie 필드가 조합된 상기 매크로 블록을 예측 화상으로서 원화상과의 차분을 부호화 한다. 한편, 상기와 같은 이 모드의 상기 우수 사이클에서는 아무 데이터도 보내지 않는다.In the case of the P frame, the following processing is performed. For example, when the blocking of the P frame is the frame prediction mode and the motion prediction is the frame prediction mode, in the odd cycle, the reference picture is the omnidirectional image (the picture of the I frame), and the motion vector (MVP) between the frames is selected. The difference and the difference from the original image are encoded as the predicted image using the macroblock in which the Io field and the Ie field are combined. On the other hand, no data is sent in the even cycle of this mode as described above.

또한, 상기 블록화가 필드 처리 모드에서 움직임 예측이 필드 예측 모드일 때는 ,상기 기수 사이클에서는 Io 필드와 Ie 필드(또는 Po 필드와 Pe 필드)를 각각 참조 화상으로서, Io 필드와 Po필드의 사이의 움직임 벡터(MVoPo) 및, Io 필드와 Po 필드 사이의 움직임 벡터(MVe Po)를검출하고, 기수 필드 예측과 우수 필드 예측과 양방의 예측 (예를들면 우수 필드 예측과 기수 필드 예측의 평균)중에서, 현 프레임의 기수 필드와의 예측 오차가 최소가 되는 예측을 선택하고, 그 예측 화상과의 차분을 부호화 한다. 이것에 대해서, 이 모드의 우수 사이클에서는, 필드 처리 모드의 매크로 블록에 대해서, Io 필드와 Pe 필드 사이의 움직임 벡터(MVoPe) 및 Ie 필드와 Pe필드 사이의 움직임 벡터(MVePe) 및, Po 필드와 Pe 필드 사이의 움직임 벡터(SMVP)를 검출하고, 각각의 벡터에 의한 기수 필드의 예측과 우수필드의 예측과 현 프레임의 기수 필드의 예측(우수 사이클만 행하는 Po 필드로부터의 움직임 예측)과 그들 중에서 2개의 예측 평균에 의한예측과의 사이에서 예측 오차가 최소화되는 예측을 선택하여, 그 예측 화상과의 차분을 부호화 한다.Further, when the block is in the field processing mode and the motion prediction is in the field prediction mode, in the radix cycle, the Io field and the Ie field (or the Po field and the Pe field) are referred to as reference pictures, respectively, and the motion between the Io field and the Po field is obtained. Vector (MVoPo) and motion vector (MVe Po) between the Io field and the Po field are detected and, among the odd field prediction, even field prediction, and both predictions (e.g., average of the even field prediction and the odd field prediction), The prediction in which the prediction error with the odd field of the current frame is minimum is selected, and the difference with the prediction image is encoded. On the other hand, in the even cycle of this mode, for the macroblock of the field processing mode, the motion vector MVoPe between the Io field and the Pe field and the motion vector MVePe between the Ie field and the Pe field, and the Po field and Detects the motion vector (SMVP) between the Pe fields, predicts the odd field by each vector, predicts the even field, predicts the odd field of the current frame (predicts the motion from the Po field which performs only the good cycle), and among them. Prediction in which the prediction error is minimized is selected between the prediction by the two prediction averages, and the difference with the prediction image is encoded.

또한 예를들면, B 프레임의 상기 블록화가 프레임 처리 모드에서 움직임 예측이 프레임 예측 모드일 때는, 상기 기수 사이클에서, 참조 화상을 전방과 후방의 화상으로서 프레임간의 움직임 벡터 즉 I 프레임과 B 프레임 사이의 움직임 벡터(FMVB) 및 P프레임과 B프레임 사이의 움직임 벡터(BMVB)를 검출하고, 전방 예측과 후방 예측과 양방향 예측(전방 예측과 후방 예측의 평균)중에서, 현 프레임과의 예측 오차가 최소가 되는 예측을 선택하여, 그 예측 화상과의 차분을 부호화 한다. 한편, 이 모드의 우수 사이클에서는 아무 데이터도 보내지 않는다.Also, for example, when the blocking of the B frame is the frame prediction mode and the motion prediction is the frame prediction mode, in the radix cycle, the reference picture is the front and rear picture as the motion vector between the frames, i.e. between the I frame and the B frame. The motion vector (FMVB) and the motion vector (BMVB) between P and B frames are detected, and among the forward prediction, backward prediction and bidirectional prediction (average of forward prediction and backward prediction), the prediction error with the current frame is minimal. The prediction to be selected is selected and the difference with the prediction image is encoded. On the other hand, no data is sent in the even cycle of this mode.

또한, 상기 블록화가 필드 처리 모드에서 움직임 예측이 필드 예측 모드일때는, 기수 사이클에서 참조 화상을 전방과 후방으로 하고 이들 화상에 대해서 각각 기수 필드의 예측과 우수 필드의 예측을 행하고, 각각의 움직임 벡터 즉Io 필드와 Bo 필드 사이의 움직임 벡터(FMVoBo), Ie 필드와 Bo필드 사이의 움직임 벡터(FMVeBo), Po필드와 Bo필드 사이의 움직임 벡터(BMVoBo), Pe필드와 Bo필드 사이의 움직임 벡터(BMVeBo)를 검출한다. 이하 상술한 것과 마찬가지로 예측 오차가 최소가 되는 예측을 선택하고, 그 예측 화상과의 차분을 부호화 한다. 또한, 이 모드의우수 사이클에서는, Io 필드와 Be 필드 사이의 움직임 벡터(FMVoBe), Ie 필드와 Be필드 사이의 움직임 벡터(FMVerBe), Po 필드와 Be 필드 사이의 움직임 벡터(BMVoBe), Pe 필드와 Be 필드 사이의 움직임 벡터(BMVeBe)에 의한 각 예측, 또한 현 프레임의 기수 필드의 예측(즉 Bo 필드 Be 필드 사이의 움직임 벡터(SMVB)에 의한 예측)도 아울러 행하고, 예측 오차가 최소가 되는 예측을 선택하여, 그 예측 화상과의 차분을 부호화 한다.Further, when the block is in the field processing mode and the motion prediction is the field prediction mode, the reference pictures are forward and backward in the odd cycle, the odd field prediction and the even field prediction are performed on these pictures, respectively, and the respective motion vectors. That is, the motion vector between the Io field and the Bo field (FMVoBo), the motion vector between the Ie field and the Bo field (FMVeBo), the motion vector between the Po field and the Bo field (BMVoBo), and the motion vector between the Pe field and the Bo field ( BMVeBo) is detected. In the same manner as described above, the prediction with the minimum prediction error is selected, and the difference from the prediction image is encoded. In addition, in the excellent cycle of this mode, the motion vector (FMVoBe) between the Io field and the Be field, the motion vector (FMVerBe) between the Ie field and the Be field, the motion vector (BMVoBe) between the Po field and the Be field, and the Pe field Each prediction by the motion vector (BMVeBe) between the and Be fields, and also the prediction of the radix field of the current frame (that is, the prediction by the motion vector (SMVB) between the Bo field Be fields) is performed. A prediction is selected and the difference with the prediction image is encoded.

더욱이, 제1의 실시예에 있어서, 예를들면, 소위 4:2:2 콤포넌트의 디지탈 VTR 포맷을 취급하는 경우, 제11도에 나타내는 것 같이, 상기 프레임 처리 모드일 때는, 기수 필드 및 우수 필드로 이루어지는 휘도 블록(Y0, Y1, Y2, Y3) 및 기수 필드와 우수 필드로 이루어지는 색차 블록(Cb01, Cr01, Cb23, Cr23)으로 구성된 매크로 블록의 각 단위 블록의 DCT 처리가 행해진다. 필드 처리 모드일 때는, 기수 필드의 각 휘도 블록(Y02o, Y13o) 및 각 기수 필드의 색차 블록(Cb012o, Cr0123o)과, 우수 필드의 각 휘도 블록(Y02e, Y13e) 및 각 우수 필드의 색차 블록(Cb0123e, Cr0123e) 로 이루어진 매크로 블록의 각 단위 블록의 DCT처리가 행해진다.Furthermore, in the first embodiment, for example, when dealing with the so-called digital VTR format of 4: 2: 2 components, as shown in FIG. 11, the radix field and even field in the frame processing mode. DCT processing is performed on each unit block of the macroblock consisting of luminance blocks Y0, Y1, Y2, Y3 consisting of the color blocks and color difference blocks Cb01, Cr01, Cb23, Cr23 composed of odd and even fields. In the field processing mode, the luminance blocks Y02o and Y13o of the radix field and the color difference blocks Cb012o and Cr0123o of the radix field, the luminance blocks Y02e and Y13e of the even field and the color difference blocks of each even field ( DCT processing of each unit block of the macroblock consisting of Cb0123e and Cr0123e) is performed.

또한, 이 제11도의 예의 경우의 움직임 예측은, 상술한 제8도에 나타내는 것 같이 된다. 단, 이 제11도의 경우도 상술한 것처럼, Io 필드와 Ie 필드와의 사이의 움직임 예측과, Po필드와 Pe필드와의 사이의 움직임 예측과, Bo 필드와 Be필드와의 사이의 움직임 예측을 할 수 없다.The motion prediction in the case of the example of FIG. 11 is as shown in FIG. 8 described above. However, in the case of FIG. 11, as described above, the motion prediction between the Io field and the Ie field, the motion prediction between the Po field and the Pe field, and the motion prediction between the Bo field and the Be field are performed. Can not.

따라서, 이 경우는 상술한 것과 같이, 제2의 실시예를 사용하면 좋다. 즉, 예를들면, 제12도에 나타내는 것 같이 상기 블록화가 프레임 처리 모드일 때는 기수 사이클에서 기수 필드 및 우수 필드로 이루어진 휘도 블록(Y0, Y1, Y2, Y3) 및 색차 블록(Cb01, Cr01, Cb23, Cr23)으로 이루어지는 매크로 블록의 각 단위 블럭이 DCT 처리를 행하도록 하고, 또, 블록화가 필드 처리 모드일 때는 기수 사이클에서 상기 기수 필드의 각 휘도 블록(Y02o, Y13o)과 상기 기수 필드의 각 색차 블록(Cb0123o, Cr0123o)와의 각 단위 블록을 DCT 처리한다. 그후, 우수 사이클에서 우수 필드의 각 휘도 블록(Y02e, Y13e) 및 우수 필드의 각 색차 블록(Cb0123e, Cr0123e)의 각 단위 블록을 DCT 처리한다.In this case, therefore, as described above, the second embodiment may be used. That is, for example, as shown in FIG. 12, when the blocking is in the frame processing mode, the luminance blocks Y0, Y1, Y2, Y3 and the chrominance blocks Cb01, Cr01, Each unit block of the macroblock consisting of Cb23 and Cr23 performs DCT processing, and when the blocking is in the field processing mode, each of the luminance blocks Y02o and Y13o of the radix field and each of the radix field in the radix cycle. Each unit block with the color difference blocks Cb0123o and Cr0123o is subjected to DCT processing. Thereafter, DCT processing is performed on each unit block of each of the luminance blocks Y02e and Y13e of the even field and each of the chrominance blocks Cb0123e and Cr0123e of the even field in the even cycle.

이 제12도 예의 경우 움직임 예측은, 제10도와 마찬가지로 된다.In the case of this example of FIG. 12, the motion prediction is similar to that of FIG.

또한, 제1 제2의 실시예에 있어서, 상기 4:2:2 콤포넌트의 디지탈 VTR 포맷을 취급하는 경우는, 상술한 제11도 및 제12도와 같은 처리외에, 예를들면, 제13도에 나타내는 것 같이, 프레임의 움직임 예측은 매크로 블록(MB)단위로 하지만, 필드의 움직임 예측을 하는 경우에는 어떤 매크로 블록(MB(i,j))과, 그 아래에 위치하는 매크로 블록(MB(i+1,j)을 쌍으로 하여서, 이 매크로 블록의 쌍(MBg)에 대해서 기수 필드의 움직임 예측과 우수 필드의 움직임 예측을 하도록 하는 것이 가능하다.Further, in the first and second embodiments, when dealing with the digital VTR format of the 4: 2: 2 component, for example, in addition to the processing shown in FIGS. 11 and 12 described above, for example, in FIG. As shown, the frame motion prediction is performed in units of macroblocks (MB), but in the case of field motion prediction, a macroblock MB (i, j) and a macroblock MB (i) positioned below it are used. With + 1, j) as a pair, it is possible to perform the motion prediction of the odd field and the motion prediction of the even field for the pair MBg of the macroblock.

이 제13도 예의 경우 프레임의 일부의 매크로 블록을 뽑아낸 것을 제14도에 나타낸다. 또, 제14도의 그림중 화살표 방향으로 처리가 진행하게 한다. 즉, 이 제14도에는, 어떤 매크로 블록(MB(i,j)에 대해서 다음 매크로 블록(MB(i,j+1))과, 그것들의 아래에 위치한(다음 라인의)매크로 블록(MB(i+1,j) 및 MB(i+1,j+1))를 나타내고 있다.In the case of this FIG. 13 example, FIG. 14 shows that a macroblock of a part of the frame is extracted. The processing proceeds in the direction of the arrow in the figure of FIG. That is, in Fig. 14, the next macro block MB (i, j + 1) for a certain macro block MB (i, j) and the macro block MB (located on the next line) below them are shown. i + 1, j) and MB (i + 1, j + 1).

이 제14도에 나타내는 것과 같은 매크로 블록에있어서, 예를들면, 프레임 처리 모드인 경우는, 각 매크로 블록(MB(i,j),MB(i,j+1)……MB(i+1,j),MB(i+1,j+1)마다, 각 휘도 블록(Y0, Y1) ALC 색차 블록(Cb01, Cr01)이 DCT 처리된다. 따라서, 해당 프레임 처리 모드인 경우는, 각 매크로 블럭이 처리가 다른 매크로 블록의 처리 모드에 영향주지 않는다.In the macroblock as shown in FIG. 14, for example, in the frame processing mode, each macroblock MB (i, j), MB (i, j + 1) ... MB (i + 1) For each MB (i + 1, j + 1), each luminance block (Y0, Y1) ALC chrominance blocks (Cb01, Cr01) are DCT-processed. This processing does not affect the processing mode of other macro blocks.

이것에 대해서, 필드 처리 모드인 경우는,제15도에 나타내는 것 같이, 상기 매크로 블록의 쌍(MBg) 에 대해서, 해당 매크로 블록의 쌍(MBg) 을 구성하는 매크로 블록을 기수 필드의 매크로 블록(MBgo)과 우수 필드의 매크로 블록( MBge) 로 나누어지고, 상기 기수 필드의 매크로 블록(MBgo) 내의 각 휘도 블록(Y0o, Y1o)와 색차 블록(Cb01o, Cr01o)을 DCT 처리한다. 여기에서, 예를들면 해당 매크로 블록의 쌍(MBg)이 상기 제14도의 매크로 블록(MB(i,j)와 MB(i+1,j))로 구성되어 있다고 하면, 해당 매크로 블록( MBg)내의 상기 기수 필드의 매크로 블록(MBgo)내의 휘도 블록(Y0o, Y1o)은, 상기 매크로 블록(MB(i,j))의 기수 필드의 휘도 블록과 상기 매크로 블록(MB(i+1,j))의 기수 필드의 휘도 블록으로 된 것이고, 해당 기수 필드의 매크로 블록(MBgo) 내의 색차 블록(Cb01o, Cr01o)은, 마찬가지로 상기 매크로 블록(MB(i,j))의 기수 필드의 색차 블록과 상기 매크로 블록(MB(i+1,j))의 기수 필드의 색차 블록으로 이루어진 것이다. 동일한 것으로부터, 상기 우수 필드의 매크로 블록( MBge)내의 휘도 블록(Y0e, Y1e)은, 상기 매크로 블록(MB(i,j))의 우수 필드의 휘도 블록과 상기 매크로블럭(MB(i+1,j))의 우수 필드의 휘도 블록으로 이루어진 것이고, 해당 우수 필드의 매크로 블록(MBge)내의 색차 블록(Cb01e, Cr01e)은, 상기 매크로 블록(MB(i,j))의 우수 필드의 색차 블록과 상기 매크로 블록(MB(i+1,j))의 우수 필드의 색차 블록으로 이루어진 것이다.On the other hand, in the case of the field processing mode, as shown in FIG. 15, for the pair MBg of the macroblocks, the macroblocks constituting the pair MBg of the macroblocks are divided into the macroblocks of the odd field ( MBgo) and macroblocks MBge of even fields, and each luminance block Y0o, Y1o and chrominance blocks Cb01o, Cr01o in macroblock MBgo of the odd field are subjected to DCT processing. Here, for example, if the pair MBg of the macroblock is composed of the macroblocks MB (i, j) and MB (i + 1, j) shown in FIG. 14, the macroblock MBg The luminance blocks Y0o and Y1o in the macroblock MBgo of the radix field in the subfields are the luminance blocks of the radix field of the macroblock MB (i, j) and the macroblock MB (i + 1, j). The color difference blocks Cb01o and Cr01o in the macroblock MBgo of the radix field are the same as the color difference block of the radix field of the macroblock MB (i, j). It consists of a color difference block of the radix field of the macro block MB (i + 1, j). From the same, the luminance blocks Y0e and Y1e in the macroblock MBge of the even field are the luminance blocks of the even field of the macroblock MB (i, j) and the macroblock MB (i + 1). j)), and the color difference blocks Cb01e and Cr01e in the macroblock MBge of the even field are the color difference blocks of the even field of the macroblock MB (i, j). And a color difference block of even fields of the macro block MB (i + 1, j).

상술한 것으로부터, 움직임 예측과 DCT 변환의 각 처리 모드와의 관계를 다음에 서술한다. 즉, 본 실시예의 부호화 장치에 있어서는, 예를들면 상기 매크로 블록(MB(i,j))에 대해서, 프레임 처리 모드의 움직임 예측에서, 프레임 처리 모드의 DCT 변환인 경우, 예를들면, 전기(前記)움직임 보상기 부착 프레임 메모리군(20)중에서 부호화된 화상을 참조 프레임으로 하고, 이 참조 프레임에서 추출한 예측 화상과 입력 화상(원화상)과의 차분을 DCT 변환한다. 그리고 그 DCT 계수와 프레임 움직임 벡터를 전송한다.From the above, the relationship between the motion prediction and each processing mode of the DCT transform is described below. That is, in the encoding apparatus of the present embodiment, for example, when the DCT transformation of the frame processing mode is performed in the motion prediction of the frame processing mode for the macro block MB (i, j), for example, The image encoded in the frame memory group 20 with a motion compensator is used as a reference frame, and the difference between the predicted image extracted from the reference frame and the input image (original image) is DCT transformed. The DCT coefficient and the frame motion vector are transmitted.

또한, 예를들면, 상기 매크로 블록 (MB(i,j))에 있어서, 필드 처리 모드의 움직임 예측에서,필드 처리 모드의 DCT 변환인 경우, 해당 매크로 블록(MB(i,j))에서는, 기수 필드에서 추출한 예측 화상과 기수 필드의 원화상과의 차분과, 기수 필드의 움직임 벡터를 부호화 한다. 또한, 상기 매크로 블록(MB(i,j))에서는, 우수필드에서 추출한 예측 화상과 우수 필드의 원화상과의 차분과, 우수 필드의 움직임 벡터를 부호화 한다.Further, for example, in the macro block MB (i, j), in the motion prediction of the field processing mode, in the case of DCT transformation of the field processing mode, in the macro block MB (i, j), The difference between the predicted image extracted from the radix field and the original image of the radix field, and the motion vector of the radix field are encoded. In the macro block MB (i, j), the difference between the prediction image extracted from the even field and the original image of the even field and the motion vector of the even field are encoded.

또, 예를들면, 상기 매크로 블록(MB(i,j))에 있어서, 필드 처리 모드의 움직임 예측에서, 프레임 처리 모드의 DCT변환인 경우, 해당 매크로 블록(MB(i,j))에서는, 참조 프레임에서 추출한 해당 매크로 블록(MB(i,j))의 위치에 대한 예측 화상과 입력 화상과의 프레임 차분과, 기수 필드의 움직임 벡터와 우수필드의 움직임 벡터를 전송한다. 또한, 상기 매크로 블록(MB(i+1,j))에서는, 참조 프레임에서 추출한 해당 매크로 블록(MB(i+1,j))의 위치에 대한 예측 화상과 입력 화상과의 프레임 차분을 전송한다.For example, in the macro block MB (i, j), in the motion prediction of the field processing mode, in the DCT transformation of the frame processing mode, in the macro block MB (i, j), The frame difference between the predicted picture and the input picture of the position of the macroblock MB (i, j) extracted from the reference frame, the motion vector of the odd field, and the motion vector of the even field are transmitted. Further, in the macro block MB (i + 1, j), the frame difference between the predicted picture and the input picture of the position of the macroblock MB (i + 1, j) extracted from the reference frame is transmitted. .

또, 예를들면, 상기 매크로 블록(MB(i,j))에 있어서, 프레임 처리 모드의 움직임 예측에서, 필드 처리 모드의 DCT 변환인 경우, 해당 매크로 블록(MB(i,j)에서는, 기수 필드에서 추출한 예측 화상과 기수 필드의 원화상과의 차분과, 해당 매크로 블록(MB(i,j))의 프레임 움직임 벡터와, 상기 메크로 블럭(MB(i+1, j))의 프레임 움직임 벡터를 전송한다. 또한, 상기 매크로 블록(MB(i+1,j)에서는, 기수 필드의 예측 화상과 입력 화상과의 차분을 전송한다.For example, in the macro block MB (i, j), in case of DCT conversion of the field processing mode in the motion prediction of the frame processing mode, the macro block MB (i, j) is an odd number. The difference between the predicted picture extracted from the field and the original picture of the odd field, the frame motion vector of the macro block MB (i, j), and the frame motion vector of the macro block MB (i + 1, j). The macroblock MB (i + 1, j) transmits the difference between the predicted picture of the odd field and the input picture.

그런데, 본 실시예의 부호화 장치에서는, 종래의 매크로 블록 타임에 확장 비트를 첨가하여 종래와의 호환성을 취함으로써 본 부호를 실현하고 있다.By the way, in the encoding device of the present embodiment, this code is realized by adding the extension bits to the conventional macroblock time and making it compatible with the conventional.

즉, 제1의 실시예의 경우, 예를들면 B 프레임에 있어서, 매크로 블록 타입은 상술과 같이 전 예측, 후 예측, 양 예측의 3가지가 있는데, 전 예측에 대해서 필드 예측 모드일 때 전 프레임의 기수 필드와 우수 필드에서의 예측이라는 2가지 방법이 생각될 수 있으므로, 어느쪽의 예측인가를 인식하는 확장 비트를 첨가하는 것에 의해 본 부호를 실현하고 있다. 이 경우의 예측은 2종류이므로, 확장 비트는 1개의 방향(전후예측)에 대해서, 1비트를 부가하면 좋다. 예를들면, 전 또는 후 예측에서 기수 필드에서의 예측인 경우는, 부호 “1”을 우수필드에서의 예측인 경우는, 부호 “0”을 확장 비트로서 종래의 매크로 블록 타입에 부가하면 좋다. 또한, 양예측에서는 전 또는 후 예측에 대해서 양방의 확장 비트가 부가된다.That is, in the case of the first embodiment, for example, in a B frame, there are three types of macro block types, pre-prediction, post-prediction, and both prediction, as described above. Since two methods of prediction in the odd field and the even field can be considered, the present code is realized by adding an extension bit that recognizes which prediction. Since there are two types of predictions in this case, one bit may be added to the extension bits in one direction (front and rear prediction). For example, in the case of the prediction in the odd field in the before or after prediction, the sign "1" may be added to the conventional macroblock type as the extension bit in the case of the prediction in the even field. In both predictions, both extension bits are added to the before or after prediction.

프레임 예측 모드이면, 확장 비트는 부가하지 않고, 종래의 비트 스트립(MPEG)와 같은 형식이 된다.In the frame prediction mode, the extended bits are not added and have the same format as a conventional bit strip (MPEG).

이상의 것은, P 프레임의 경우에서도 마찬가지로 적용된다.The above is also applied in the case of P frames.

다음으로, 제2의 실시예의 경우, 예를들면 B프레임에 있어서 매크로 블록 타입은, 상술과 같이 전 예측, 후 예측, 양 예측이 있는데, 전 예측에 대해서 필드 예측 모드일 때, 기수 필드에서의 예측인가, 우수 필드에서의 예측인가, 자기 프레임내의 기수 필드에서의 예측인가를 인식시키는 확장 비트를 매크로 블록 타입에 부가하지 않으면 안된다. 즉, 전 예측의 필드 예측 모드에서는, 자기 프레임 내에서의 예측이 있기 때문에, 기수 우수를 포함하여, 3가지 방법외 예측을 확장 비트로 표현하기 위해서는, 1 또는 2비트의 확장 비트가 필요하게 되고, 후 예측의 필드 예측 모드에서는,기수 우수의 2가지 방법뿐이기 때문에, 언제나 확장 비트는 1 비트 필요하게 된다. 예를 들면, 전 예측에서는, 전 프레임의 기수 필드에서와 예측인 경우는 부호 “1”, 전 프레임의 우수 필드에서의 예측인 경우는 부호 “01”, 현 프레임의 기수 필드에서의 예측인 경우는 부호 “11”을 부가하고, 후 예측에서는, 후 프레임의 기수 필드에서의 예측인 경우는 부호 “1”, 후 프레임의 우수 필드에서의 예측인 경우는 부호 “0”을 확장 비트로서 종래의 매크로 블록 타입에 부가하면 좋다.Next, in the case of the second embodiment, for example, in the B frame, the macroblock type includes the pre-prediction, the post-prediction, and the positive prediction, as described above. An extension bit must be added to the macroblock type to recognize whether it is prediction, prediction in the even field or prediction in the odd field in its frame. That is, in the field prediction mode of all the predictions, since there is prediction in the own frame, in order to express the three non-method predictions with the extension bits including the odd evenness, one or two bits of extension bits are required. In the field prediction mode of post-prediction, since there are only two methods of odd even, one bit is always needed for the extension. For example, in the previous prediction, in the odd field of the previous frame and in the prediction field, the sign is "1"; in the even field of the previous frame, the sign is "01"; in the odd field of the current frame, the prediction is in the odd field of the current frame. Adds the sign "11". In the post prediction, the code is "1" for prediction in the odd field of the next frame, and "0" for prediction in the even field of the next frame. This can be added to the macro block type.

또, 프레임 모드이면, 확장 비트는 부가하지 않고, 종래의 비트 스트림(MPEG)과 동일 형식이 된다. 또한, 양 예측에서는, 전 또는 후 예측에 대해서 양방의 확장 비트가 부가된다.In the frame mode, the extended bits are not added and are in the same format as the conventional bit stream (MPEG). In both predictions, both extension bits are added to the before or after prediction.

이상의 것은 P프레임의 경우에서도 동일하게 적용된다.The same applies to the case of the P frame.

또, 이 변형으로서, 상기 전 예측의 경우 확장 비트를 1비트로 줄이는 것도 가능하다. 즉, 필드 예측 모드에 있어서의 우수 사이클에 있어서, 제16도에 나타내는 것 같이, 시간적 및 위치적으로 가장 떨어진 전 프레임의 기수 필드에서의 그림중 일점쇄선으로 나타내는 예측을 폐지하는 것에 의해, 전 예측을 2개로 줄이고, 1비트의 확장으로 전 예측 모드를 전송할 수 있다. 구체적으로는, 기수 사이클에서 전 예측에서는, 전 프레임의 기수 필드에서의 예측인 경우는 부호 “1”, 전 프레임의 우수 필드에서의 예측인 경우는 부호 “0”, 또 우수 사이클에서 전 예측에서는, 현 프레임의 기수 필드에서의 예측인 경우는 부호 “1”, 전 프레임의 우수 필드에서의 예측인 경우는 부호 “0”, 또, 후 예측에서는, 후 프레임의 기수 필드에서의 예측인 경우는 부호 “1”, 후 프레임의 우수 필드에서의 예측인 경우는 부호 “0”을, 확장 비트로서 종래의 매크로 블록 타입에 부가하면 좋다.As a variant of this, it is also possible to reduce the extension bits to 1 bit in the case of the previous prediction. That is, in the even cycle in the field prediction mode, as shown in FIG. 16, all prediction is abolished by abolishing the prediction indicated by the dashed line in the figure in the odd field of the previous frame that is furthest apart temporally and positionally. It is possible to reduce to two and to transmit the full prediction mode with one bit extension. Specifically, in the previous cycle in the odd cycle, the sign is "1" for the prediction in the odd field of the previous frame, the sign "0" for the prediction in the even field of the previous frame, and in the previous prediction in the even cycle. If the prediction is in the odd field of the current frame, the code is "1"; if the prediction is in the even field of the previous frame, the code is "0"; In the case of prediction of the sign "1" and the even field of the next frame, the sign "0" may be added to the conventional macroblock type as an extension bit.

제17도에는, 화상 신호의 복호기의 블록도를 나타낸다. 즉, 본 실시예의 고능률 복호화 장치는, 재생되는 화상부호화 데이터 및 검출 움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보를 포함하는 헤더 정보를 수신하여서 복호화하고, 상기 복호화된 화상 복호화 데이터와 함께 상기 검출 움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보와 매크로 블록의 상기 헤더 정보중 매크로 블록 어드레스 인크리멘트를 출력하는 역 가변장 부호화 회로(51)과 상기 매크로 블록 어드레스 인크리멘트에서 상기 화상 복호화 데이터를 축적하는 프레임 버퍼(61, 62, 64)에서의 어드레스 인크리멘트 값을 산출하고, 각각 매크로 블록의 선두 어드레스를 구하여, 그 선두 어드레스를 상기 프레임 버퍼에 주는 어드레스 발생 캐리어(81, 82, 83)과 상기 선두 어드레스 이외의 상기 매크로 블록의 상대 어드레스를 상기 프레임 버퍼(61, 62, 64)에 첨가하여 데이터를 억세스하고, 상기 검출 움직임 벡터와 상기 움직임 예측 모드 정보와 상기 블록화 모드 정보를 받고, 그 모드 정보와 대응한 움직임 보상 프레임 또는 필드간 예측을 실행하고, 움직임 보상된 화상 신호를 프레임 버퍼(61, 62, 64)에 보낼 수 있도록 구성한 움직임 보상 회로(59, 60, 63, 65, 66)를 갖춘 것이다.17 shows a block diagram of a decoder of an image signal. That is, the high efficiency decoding apparatus of the present embodiment receives and decodes the encoded picture data, the header information including the detected motion vector information, the motion prediction mode information, and the block mode information, and decodes the decoded picture decoded data together. The inverse variable-length encoding circuit 51 which outputs a macroblock address increment among the detected motion vector information, the motion prediction mode information, the blocking mode information, and the header information of the macroblock, and the image decoding in the macroblock address increment. The address increment values in the frame buffers 61, 62, and 64 that store data are calculated, the head addresses of the macro blocks are obtained, respectively, and the address generating carriers 81, 82, which give the head addresses to the frame buffers, respectively. 83) and the relative advice of the macro block other than the head address A data is added to the frame buffers 61, 62, and 64 to access data, receive the detected motion vector, the motion prediction mode information, and the blocking mode information, and between the motion compensation frames or fields corresponding to the mode information. It has a motion compensation circuit 59, 60, 63, 65, 66 configured to execute prediction and send motion compensated image signals to the frame buffers 61, 62, 64.

이제 17도에 있어서, 전기 실시예의 고능률 부호화 장치에 의해 부호화된 데이터는, 일단, CD 등의 기록 매체에 기록된다. 이 CD 등으로부터 재생된 부호화 데이터는, 입력단자(50)을 경유해서 우선, 역 가변장 부호화 회로(51)에서 시이퀴스마다, 프레임 그룹마다, 그레임 마다에 헤더 정보등이 복호화 된다. 상기 프레임의 기수 사이클에서는 슬라이스 (매크로 블록의 그룹)마다 헤더 정부가 복호화되고, 양자화 폭은 이 슬라이스의 헤더에 포함된다. 그리고 매크로 블록마다 매크로 블록의 어드레스와, 필드 처리 모드/프레임 처리 모드 정보와, 복호 양식을 나타내는 매크로 블록 타임이 복호화되고, 양자화 폭은 갱신할 때에 복호화 된다.Now, in FIG. 17, the data encoded by the high efficiency encoding device of the above embodiment is once recorded on a recording medium such as a CD. The encoded data reproduced from the CD or the like is first decoded by the inverse variable-length encoding circuit 51 by the sequence, frame group, and frame by the inverse variable-length encoding circuit 51. In the odd cycle of the frame, the header portion is decoded for each slice (group of macro blocks), and the quantization width is included in the header of this slice. The macroblock address, the field processing mode / frame processing mode information, and the macroblock time indicating the decoding format are decoded for each macroblock, and the quantization width is decoded when updating.

또, 매크로 블록에 있어서 블록화가 프레임처리 모드인 경우, 기수 사이클에서 매크로 블록 전체를 복호하고, 우수 사이클에서는 아무것도 복호화하지 않는다. 또한, 블록화가 필드처리 모드인 경우는 매크로 블록중의 기수 필드를 포함하는 블록만을 기수 사이클에서 복호화 하고, 우수 사이클에서 우수 필드를 포함하는 블록을 복호한다.When the blocking in the macroblock is the frame processing mode, the entire macroblock is decoded in the odd cycle and nothing is decoded in the even cycle. When the blocking is in the field processing mode, only blocks including the odd field in the macroblock are decoded in the odd cycle, and the block including the even field in the even cycle is decoded.

화상 정보는, 역 양자화 처리를 행하는 역 양자화기(53)과 역 DCT 변환 처리를 행하는 역 DCT 회로(54)를 경유하여 복호화되고, 매크로 블록 타입에 의해, 차분 화상인지 아닌지의 판정이 행해지고, 이 판정 결과에 따라서, 가산기(56)에 의해(MPEG 부호화의 비인트라/인트라에 대응한다) 참조 화상에 가산하는가 또는 가산하지 않는 것을 절환하는 모든 스위치(57)를 절환한다. 복호화된 화상은, I프레임 또는 P프레임의 경우는 프레임 버퍼(64 또는 61)에 (I프레임, P프레임을 처리할 때마다 교대로)입력되고, B프레임의 경우는 프레임 버퍼(62)에 입력된다. 또, 각 프레임 버퍼는, 2개의 필드 버퍼로 되고, 기수/우수 필드 화상은, 각각의 필드 버퍼에 나누어서 저장된다. 또한, 이 프레임 버퍼로의 써넣기는 스위치(58)의 절환에 의해 제어된다.The image information is decoded via an inverse quantizer 53 for performing inverse quantization processing and an inverse DCT circuit 54 for performing inverse DCT conversion processing, and a macroblock type determines whether or not a differential image is obtained. In accordance with the determination result, the adder 56 switches all the switches 57 for switching between adding or not adding to the reference image (corresponding to non-intra / intra of MPEG encoding). The decoded picture is input to the frame buffer 64 or 61 (alternatively each time an I frame or P frame is processed) in the case of an I frame or a P frame, and is input to the frame buffer 62 in the case of a B frame. do. Each frame buffer is composed of two field buffers, and odd / excellent field images are stored separately in the respective field buffers. In addition, writing to the frame buffer is controlled by switching of the switch 58.

이때, 프레임 버퍼(61, 62, 64)에 써넣는 어드레스는 어드레스 발생기(81, 82, 83)에 의해 주어진다. 이 어드레스 발생기(81, 82, 83)에서는 매크로 블록의 헤더 정보안의 매크로 블록 어드레스 인크리맨트로부터 프레임 버퍼(61, 62, 64)에서의 어드레스 인크리멘트 값을 계산하고, 각각 매크로 블록의 선두 어드레스를 구하고 있다.At this time, addresses written to the frame buffers 61, 62, and 64 are given by the address generators 81, 82, and 83. The address generators 81, 82, and 83 calculate the address increment values in the frame buffers 61, 62, and 64 from the macro block address increments in the header information of the macro block, and respectively, the head addresses of the macro blocks. Is seeking.

또, 양자의 폭의 데이터는, 각각 I필드분 메모리(52)에 기억된다. 이 양자화 폭 데이터는, 역 가변장 부호화 회로(51)의 출력에 따라서 절환되는 스위치(55)를 경유하여서, 역 양자화기(53)에 보내진다. 여기에서, 우수 사이클에서는, 필드 처리 모드로 처리된 매크로 블록만을 복호하기 때문에, 매크로 블록마다에 복호화되는 어드레스와의 매크로 블록 타입과 이것이 나타내는 예측 방식에 필요한 움직임 벡터가 복호되어, 참조 필드로부터 움직임 보상된 화상으로 또한 전송되어 온 차분 화상이 가산되어, 재생화를 얻는다.The data of both widths is stored in the I field memory 52, respectively. This quantization width data is sent to the inverse quantizer 53 via the switch 55 switched in accordance with the output of the inversely variable-length coding circuit 51. Here, in the even cycle, since only the macroblock processed in the field processing mode is decoded, the macroblock type with the address to be decoded for each macroblock and the motion vector required for the prediction method indicated by the macroblock are decoded to compensate for the motion from the reference field. The difference image that has also been transferred to the transferred image is added to obtain a reproduction.

또, 상기 각 프레임 버퍼(64, 62, 61)의 데이터는, 각 움직임 보상 처리 회로(65, 66, 59, 60, 63)에 의해 움직임 보상된다. 이때, 각 움직임 보상 회로는 DCT 처리에 있어서 블록화 모드(프레임/필드)에 의해 프레임이 움직임 보상/필드의 움직임 보상을 절환한다.The data of the frame buffers 64, 62, and 61 are motion compensated by the motion compensation processing circuits 65, 66, 59, 60, and 63, respectively. At this time, each motion compensation circuit switches the motion compensation / field compensation of the frame by the blocking mode (frame / field) in the DCT process.

이들 움직임 보상된 화상은 절환 선택 스위치(67, 68, 71)의 각 피선택 단자로 보내진다. 이들 절환 선택 스위치(67, 68, 71)는 매크로 블록 타입의 복호 방식이 나타내는 참조 필드 또는 프레임이 꺼낼 수 있도록 절환되는 것이다. 여기에서, 상기 절환 선택 스위치(71)에는, 상기 절환 선택 스위치(67 및 68)의 출력을 가산기(69)에서 가산한 후에 나눗셈기(70)에서 1/2이 된 신호와, 상기 스위치(67)의 출력이 공급된다. 해당 스위치(71)의 출력은, 상기 스위치(57)에 보내진다.These motion compensated images are sent to each of the selected terminals of the switching selector switches 67, 68, and 71. These switching selection switches 67, 68, and 71 are switched so that the reference field or frame indicated by the decoding method of the macroblock type can be taken out. Here, the switch selector 71 is a signal that is 1/2 of the divider 70 after the outputs of the switch selector switches 67 and 68 are added by the adder 69, and the switch 67 ) Is supplied. The output of the switch 71 is sent to the switch 57.

또, 각 프레임 버퍼(64, 61, 62)의 출력은, 절환 선택 스위치(72)을 경유하여서 디스플레이(73)에 보내진다. 해당 디스플레이(73)에는, 복호화 차례가 아니고, 재생 화상의 차례로 표시되도록, 절환된 상기 절환 선택 스위치(72)의 출력이 공급된다. 이것에 의해 화상이 얻어진다.Moreover, the output of each frame buffer 64, 61, 62 is sent to the display 73 via the switching selection switch 72. As shown in FIG. The output of the above-mentioned switching selection switch 72 is supplied to the display 73 so that the reproduction image is displayed in order instead of the decoding order. As a result, an image is obtained.

상술한 것에서, 예를 들면, 상술한 제22도에 나타낸 것처럼 정지한 배경의 바로 앞에 동체(CA)가 있는 경우에는 1 프레임 관찰하면 필드 간에 움직임이 있기 때문에, 이와 같은 부부은 빗형(KS)으로 되지만, 본 실시예 장치에 의하면, 이같은 움직이는 부분은, 필드 처리 모드에서 부호화되기 때문에, 필드별로된 흔들림이 없는 화상으로서 처리할 수 있고, 기수/우수 간의 움직임 보상에 의해 고능률로 고화질인 동화(動畵)를 재생할 수 있다. 즉, 예를들면 제18도에 나타내는 것 같이, 기수 사이클일 때, 움직이는 부분은 필드처리 모드에서 처리함과 동시에 정지 부분은 프레임 처리 모드에서 처리한다. 또, 우수 사이클에서 이미 화상이 생긴 부분은, 제19도의 도면중 사선으로 나타낸 부분이 된다. 이 제19도의 도면중 사선 부분 이외는 즉 움직이는 부분은 움직임 보상에 의해 복호화 한다.In the above description, for example, when there is a moving body CA in front of a stationary background as shown in FIG. 22, the couple moves into a comb-type KS because there is movement between the fields when one frame is observed. According to the present embodiment, since such moving parts are encoded in the field processing mode, the moving parts can be processed as an image without field-shaking, and high-quality moving pictures with high efficiency can be obtained by compensating between odd and excellent motions. I) can be played back. That is, as shown in FIG. 18, for the odd cycle, the moving part is processed in the field processing mode while the still part is processed in the frame processing mode. In addition, the part which an image has already generate | occur | produced in an even cycle becomes the part shown by the oblique line in the figure of FIG. In the figure of FIG. 19, the moving parts other than the oblique part are decoded by the motion compensation.

그런데, 본 실시예에 있어서는, 우수 사이클에서는 필드 처리 모드로 처리된 매크로 블록만을 복호하므로, 매크로 블록 어드레스를 알 필요가 있다. 이 매크로 블록 어드레스를 아는 방법은, 2가지 있는데, 하나는 앞에 서술한 우수 사이클의 매크로 블록마다 매크로 블록의 어드레스를 전송하는 방법이고, 또 하나는 기수 사이클에서 1필드 분 필드 처리 모드/프레임 처리 모드의 정보를 기억하여 두고, 각 처리 모드의 열에서 필드 처리 모드로 되어 있는 매크로 블록의 어드레스를 환산하는 방법이다. 전자의 이점은 메모리의 추가가 필요없는 것이고, 후자의 이점은 전송 정보가 증가하지 않는 것이다. 양자화 폭도 동일하게 앞에 서술한 기수 사이클에서 1필드분 기억하는 방법을 취하지 않고, 매크로 블록마다 전송하는 것으로 실현할 수 있다.In the present embodiment, however, since only the macroblock processed in the field processing mode is decoded in the even cycle, it is necessary to know the macroblock address. There are two ways of knowing the macro block address. One method is to transfer the address of the macro block for each macro block of the even cycle described above, and the other field is one field processing mode / frame processing mode in the odd cycle. Is stored in the processing mode, and the address of the macroblock in the field processing mode is converted into columns in each processing mode. The former advantage does not require the addition of memory, and the latter advantage does not increase the transmission information. Similarly, the quantization width can be realized by transferring each macroblock without taking the method of storing one field in the above-described radix cycle.

이상 서술한 것으로부터, 본 실시예에 의하면, 1프레임의 처리를 기수 사이클과 우수 사이클의 2개의 사이클로 나누어, 기수 사이클에서는 매크로 블록 단위에 프레임 처리 모드와 필드 처리 모드를 절환하고, 프레임 처리에서는 기수 필드와 우수 필드를 동시에 복호화 하고, 필드 처리에서는 기수 필드만을 복호화하고, 또 이 사이클에서는 양자화 폭을 기억하여 두고, 다음의 우수 사이클에서는 이 기억한 정보를 사용하여 필드처리 모드의 매크로 블록만을 움직임 보상하여서 재생 화상을 복호화 할 수 있도록 하고 있기 때문에, 효율이 좋은 부호화 데이터를 전송할 수 있다. 즉, 적은 전송 정보로 고화질의 동화를 재생하는 것이 가능하게 된다.From the above description, according to the present embodiment, the processing of one frame is divided into two cycles of the radix cycle and the even cycle. In the radix cycle, the frame processing mode and the field processing mode are switched in macroblock units. Decode the field and the even field at the same time, decode only the odd field in the field process, store the quantization width in this cycle, and use the stored information in the next even cycle to compensate for motion only macroblocks in the field processing mode. Since the reproduced image can be decoded, the encoded data can be transmitted with high efficiency. In other words, it is possible to reproduce a high quality moving picture with little transmission information.

상술과 같이, 본 발명의 화상 신호의 고능률 부호화 장치에 의하면, 필드 구성의 동화에 대해서, 움직임이 적은 화상도 움직임이 많은 화상도 또한 이들 양자가 혼재한 화상이라도 필드처리 또는 프레임 처리를 효율좋게 행할 수 있도록 되며, 따라서, 적은 전송 정보로 뒤의 본 발명의 고능률 복호화 장치에 있어서의 복호화 때에 고화질의 동화를 재생하는 것이 가능하게 된다.As described above, according to the high-efficiency encoding apparatus of the image signal of the present invention, field moving or frame processing can be efficiently carried out for moving pictures having a field structure, even if the moving pictures are small, the moving pictures are high, or both are mixed. Therefore, it is possible to reproduce a high quality moving picture at the time of decoding in a later high efficiency decoding apparatus of the present invention with less transmission information.

Claims (3)

복수의 화소의 2차원 배열로 이루어지는 매크로 블록(macro block)을 단위로서 부호화를 행하는 화상 신호의 고능률 부호화 장치에 있어서, 상기 매크로 블록 단위로 프레임간의 움직임 벡터와 각 화소의 절대치의 차분함을 검출하는 수단과 상기 매크로 블록 단위로 상기 프레임 화소의 스캔의 기수 또는 우수로 나누어진 것으로 이루어지는 필드간의 움직임 벡터와 각 화소의 절대치의 차분함을 검출하는 수단으로 이루어지는 움직임 검출 수단과, 상기 매크로 블록에 있어서의 프레임을 단위로써 움직임 보상을 행하는 프레임 예측 모드와, 상기 매크로 블록에 있어서의 필드를 단위로서 움직임 보상을 행하는 필드 예측 모드와의 어느것이 움직임 보상을 함에 있어서 효율적인가를 상기 움직임 검출 수단에서 출력되는 정보에 의해 판정하여, 표율적인 예측 모드를 선택하는 제1의모드 선택 수단과, 상기 매크로 블록에 있어서의 단위로써 직교변환을 행하도록 블록화 하는 프레임 처리 모드와 상기 매크로 블록에 있어서의 필드를 단위로써 직교 변환을 행하도록 블럭화 하는 필드처리 모드와의 어느것이 직교 변환을 행함에 있어서 효율적인가를 상기 움직임 검출 수단 및 상기 제1의 모드 선택 수단에서 출력되는 정보를 이용하여 판정하고, 효율적인 블럭화의 모드를 선택하는 제2의 모드 선택 수단과, 1프레임에 대해서 부호화 처리의 인테레이스에 있어서의 기수 필드의 스캔을 행하는 기간의 기수 사이클인가 우수 필드의 스캔을 행하는 기간의 우수 사이클인가를 인식하여, 해상 기수 사이클에서 상기 블록화의 모드에 대응하여 블록화된 매크로 블럭을 출력하도록 프레임 메모리군을 제어하는 어드레스 발생 수단과, 상기 제1의 모드 선택 수단에서 선택된 움직임예측 모드 정보와 상기 제2의 모드 선택 수단에서 선택된 블록화 모드 정보를 받아, 해당 모드 정보에 대응하여 움직임 보상 프레임 또는 필드간 예측을 실행하는 움직임 보상 수단을 갖춘 것을 특징으로 하는 화상 신호의 고능률 부호화 장치.A high-efficiency encoding apparatus of an image signal that encodes a macro block composed of a two-dimensional array of a plurality of pixels as a unit, the apparatus for detecting the difference between the motion vector between frames and the absolute value of each pixel in the macro block unit. Means for detecting the difference between the motion vector between the field divided by the radix or even of the scan of the frame pixel and the absolute value of each pixel in units of the macroblock, and the frame in the macroblock. By the information output from the motion detecting means, which of the frame prediction mode for performing motion compensation in units of? And the field prediction mode for performing motion compensation in units of fields in the macroblock is effective in performing motion compensation? Judging A first mode selecting means for selecting the side mode, a frame processing mode for blocking the quadrature transformation in units of the macroblock, and a field for blocking the orthogonal transformation in units of the fields in the macroblock; Second mode selecting means for determining which of the processing modes is effective in performing orthogonal transformation using information output from the motion detecting means and the first mode selecting means, and selecting an efficient blocking mode; Recognizing whether or not the odd cycle of the period in which the radix field is scanned or the even cycle of the period in which the even field is scanned in the interlacing of the encoding process for one frame. Advice to control frame memory group to output blocked macroblock Receiving the prediction generating means, the motion prediction mode information selected by the first mode selecting means, and the blocking mode information selected by the second mode selecting means, and performing motion compensation frame or inter-field prediction corresponding to the mode information. A high efficiency encoding device for an image signal, characterized by comprising motion compensation means. 복수의 화소의 2차원 배열에서 이루어지는 매크로 블록을 단위로써 부호화를 행하는 화상 신호의 고능률 부호화 장치에 있어서, 상기 매크로 블록 단위로 프레임간의 움직임 벡터와 각 화소의 절대치의 차분함을 검출하는 수단과 상기 매크로 블록단위로 상기 프레임의 화소의 스캔의 기수 또는 우수로 나누어진 것으로 이루어지는 필드간의 움직임 벡터와 각 화소의 절대치의 차분함을 검출하는 수단으로 이루어지는 움직임 검출 수단과, 상기 매크로 블록에 있어서의 프레임 단위로써 움직임 보상을 행하는 프레임 예측 모드와, 상기 매크로 블록에 있어서의 필드를 단위로써 움직임 보상을 행하는 필드 예측 모드와으 어느것이 움직임 보상을 함에 있어서 효율적인가를 상기 움직임 검출 수단에서 출력되는 정보에 의해 판정하고, 효율적인 예측 모드를 선택하는 제1의 모드 선택 수단과, 상기 매크로 블록에 있어서의 프레임 단위로써 직교 변환을 행하도록 블록화 하는 프레임처리 모드와 상기 매크로 블록에 있어서의 필드를 단위로써 직교 변환을 행하도록 블록화 하는 필드 처리 모드와의 어느것이 직교 변환을 행함에 있어서 효율적인가를 상기 움직임 검출 수단 및 상기 제1의 모드 선택 수단에서 출력되는 정보를 이용하여 판정하고 효율적인 블록화의 모드를 선택하는 제2의 모드 선택 수단과, 1프레임에 대해서 부호화 처리의 인터레이스에 있어서의 기수 필드의 스캔을 행하는 기간의 기수 사이클인가 우수 필드의 스캔을 행하는 기간의 우수 사이클인가를 인식하여, 상기 블록화의 모드가 필드 처리 모드시에만, 해당 기수 사이클에서 매크로 블록분의 기수 필드를 차례대로 1프레임분 출력하고, 이어서 상기 우수 사이클에서 매크로 블록분의 우수 필드를 차례대로 1프레임분 출력하도록 프레임 메모리군을 제어하는 어드레스 발생 수단과, 상기 제1의 모드 선택 수단에서 선택된 움직임 예측 모드 정보와 상기 제2의 모드 선택 수단에서 선택된 블록화 모드 정보를 받아, 해당 모드 정보에 대응하여 움직임 보상 프레임 또는 필드간 예측을 실행하는 움직임 보상 수단을 갖춘 것을 특징으로 하는 화상 신호의 고능률 부호화 장치.A high-efficiency encoding apparatus of an image signal for encoding a macroblock formed by a two-dimensional array of a plurality of pixels as a unit, comprising: means for detecting a difference between a motion vector between frames and an absolute value of each pixel in the macroblock unit; Motion detection means comprising means for detecting a difference between a motion vector between fields consisting of a radix or even number of scans of pixels of the frame in block units and an absolute value of each pixel, and motions in units of frames in the macroblock; The information output from the motion detection means determines whether the frame prediction mode for compensation and the field prediction mode for motion compensation in units of fields in the macroblock are effective in compensating for motion. Prediction mode A first mode selecting means for selecting a; and a block processing to block orthogonal transformation on the basis of the frame processing mode and the field in the macroblock to perform orthogonal transformation on a frame basis in the macroblock; Second mode selecting means for determining which of the modes is efficient in performing orthogonal transformation by using the information output from the motion detecting means and the first mode selecting means, and selecting an efficient blocking mode; 1 Recognizing whether the frame is a radix cycle in the period in which the radix field is scanned in the interlace of the encoding process or the even cycle in the period in which the even field is scanned, and the radix cycle is performed only when the blocking mode is in the field processing mode. Outputs one frame of macroblocks in Address generation means for controlling a frame memory group so as to output one even field of macroblocks sequentially in the even cycle, the motion prediction mode information selected by the first mode selection means, and the second And motion compensation means for receiving the block mode information selected by the mode selection means and performing motion compensation frame or inter-field prediction in correspondence to the mode information. 재생되는 화상 부호화 데이터 및 검출 움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보를 포함하는 헤더 정보를 수신하여서 복호화하고, 상기 복호화된 화상 복호화 데이터와 함께 상기 검출움직임 벡터 정보와 움직임 예측 모드 정보와 블록화 모드 정보와 매크로 블럭의 상기 헤더 정보중의 매크로 블록 어드레스 인크리멘트를 출력하는 역가변장 부호화 수단과, 상기 매크로 블록 어드레스 인크리멘트로부터 상기 화상 복호화 데이터를 축적하는 프레임 버퍼에서의 어드레스 인크리멘트치를 산출하고, 각각의 매크로 블록의 선두 어드레스를 구하여, 해당 선두 어드레스를 상기 프레임 버퍼에 주는 어드레스 발생 수단과, 상기 선두 어드레스 이외의 상기 매크로 블록의 상대 어드레스를 상기 프레임 버퍼에 더하여서 데이터를 억세스하고 상기 검출 움직임 벡터와 상기 움직임 예측 모드 정보와 상기 블록화 모드 정보를 받고, 해당 모드 정보에 대응한 움직임 보상 프레임 또는 필드간 예측을 실행하고, 움직임 보상된 화상 신호를 상기 프레임 버퍼에 보낼 수 있도록 구성한 움직임 보상 수단을 갖춘 것을 특징으로 하는 화상신호의 고능률 부호화 장치.Receives and decodes received picture coded data, header information including detected motion vector information, motion prediction mode information, and blocking mode information, and blocks the detected motion vector information and motion prediction mode information together with the decoded picture decoded data. An inverse variable encoding means for outputting a macroblock address increment in mode information and the header information of the macroblock, and an address increment value in a frame buffer which accumulates the image decoded data from the macroblock address increment. Calculates, obtains a head address of each macro block, adds the head generating address to the frame buffer, and adds a relative address of the macro block other than the head address to the frame buffer to access data. Receive the detected motion vector, the motion prediction mode information and the blocking mode information, perform motion compensation frame or interfield prediction corresponding to the mode information, and send a motion compensated image signal to the frame buffer. An apparatus for encoding high efficiency of an image signal, comprising: motion compensation means.
KR1019920013243A 1991-07-30 1992-07-24 Video signal coder KR100233764B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP21138291 1991-07-30
JP91-211382 1991-07-30

Publications (2)

Publication Number Publication Date
KR930003745A KR930003745A (en) 1993-02-24
KR100233764B1 true KR100233764B1 (en) 1999-12-01

Family

ID=16605041

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1019920013244A KR100272812B1 (en) 1991-07-30 1992-07-24 Video signal coder
KR1019920013243A KR100233764B1 (en) 1991-07-30 1992-07-24 Video signal coder

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1019920013244A KR100272812B1 (en) 1991-07-30 1992-07-24 Video signal coder

Country Status (2)

Country Link
JP (2) JP3092280B2 (en)
KR (2) KR100272812B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100450746B1 (en) * 2001-12-15 2004-10-01 한국전자통신연구원 Apparatus and method for performing mixed motion estimation based on hierarchical Search
KR101075377B1 (en) 2003-09-07 2011-10-24 마이크로소프트 코포레이션 Advanced bi-directional predictive coding of interlaced video
KR101083904B1 (en) * 2003-09-07 2011-11-22 마이크로소프트 코포레이션 Innovations in coding and decoding macroblock and motion information for interlaced and progressive video
KR101194952B1 (en) * 2002-07-15 2012-10-25 애플 인크. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8817880B2 (en) 2002-07-24 2014-08-26 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784107A (en) * 1991-06-17 1998-07-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for picture coding and method and apparatus for picture decoding
JP2684941B2 (en) * 1992-11-25 1997-12-03 松下電器産業株式会社 Image encoding method and image encoding device
JP2925046B2 (en) * 1991-10-31 1999-07-26 ケイディディ株式会社 Motion compensation prediction method for moving images
JPH0620828U (en) * 1992-08-21 1994-03-18 タキゲン製造株式会社 Door latch device
KR100363588B1 (en) * 1993-03-25 2003-02-17 세이코 엡슨 가부시키가이샤 Image processing device
JPH0846971A (en) * 1994-07-29 1996-02-16 Sharp Corp Device for encoding moving picture
US5991447A (en) * 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
KR20020000389A (en) * 2000-06-24 2002-01-05 박종섭 Control apparatus of receiving buffer
JP2005051276A (en) * 2001-04-25 2005-02-24 Sony Corp Image processing apparatus
KR100984610B1 (en) * 2002-10-01 2010-09-30 파나소닉 주식회사 Picture decoding device, and method using the same
KR100543611B1 (en) * 2004-03-02 2006-01-20 엘지전자 주식회사 Intra coding method
KR100667806B1 (en) * 2005-07-07 2007-01-12 삼성전자주식회사 Method and apparatus for video encoding and decoding
KR100730689B1 (en) * 2005-07-29 2007-06-21 엠텍비젼 주식회사 Video Data Encoder and its control method
FR2903271A1 (en) * 2006-06-30 2008-01-04 Thomson Licensing Sa FRAME OR BITRAME MODE ENCODING METHOD
JP2009260421A (en) 2008-04-11 2009-11-05 Fujitsu Ltd Moving image processing system, encoding device, encoding method, encoding program, decoding device, decoding method and decoding program
JP2013066016A (en) * 2011-09-16 2013-04-11 Univ Of Electro-Communications Outline extraction system, outline extraction device and outline extraction program
KR101601062B1 (en) 2014-12-16 2016-03-22 박호동 Smat phone application's individuality expression pocket tpe eneral merchandise

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100450746B1 (en) * 2001-12-15 2004-10-01 한국전자통신연구원 Apparatus and method for performing mixed motion estimation based on hierarchical Search
US6907074B2 (en) 2001-12-15 2005-06-14 Electronics And Telecommunications Research Institute Apparatus and method for performing mixed motion estimation based on hierarchical search
US8711924B2 (en) 2002-07-15 2014-04-29 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8737462B2 (en) 2002-07-15 2014-05-27 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
KR101194952B1 (en) * 2002-07-15 2012-10-25 애플 인크. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9516337B2 (en) 2002-07-15 2016-12-06 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8630339B2 (en) 2002-07-15 2014-01-14 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9204161B2 (en) 2002-07-15 2015-12-01 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8837580B2 (en) 2002-07-15 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9838707B2 (en) 2002-07-15 2017-12-05 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8737483B2 (en) 2002-07-15 2014-05-27 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8743951B2 (en) 2002-07-15 2014-06-03 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8817883B2 (en) 2002-07-15 2014-08-26 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US10154277B2 (en) 2002-07-15 2018-12-11 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8824559B2 (en) 2002-07-15 2014-09-02 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8837597B2 (en) 2002-07-15 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8934546B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8942287B2 (en) 2002-07-24 2015-01-27 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8885732B2 (en) 2002-07-24 2014-11-11 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8934547B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8934551B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8817880B2 (en) 2002-07-24 2014-08-26 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8938008B2 (en) 2002-07-24 2015-01-20 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8837603B2 (en) 2002-07-24 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8953693B2 (en) 2002-07-24 2015-02-10 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US10123037B2 (en) 2002-07-24 2018-11-06 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US9554151B2 (en) 2002-07-24 2017-01-24 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8625669B2 (en) 2003-09-07 2014-01-07 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
KR101083904B1 (en) * 2003-09-07 2011-11-22 마이크로소프트 코포레이션 Innovations in coding and decoding macroblock and motion information for interlaced and progressive video
KR101365908B1 (en) * 2003-09-07 2014-02-25 마이크로소프트 코포레이션 Advanced bi-directional predictive coding of interlaced video
KR101075377B1 (en) 2003-09-07 2011-10-24 마이크로소프트 코포레이션 Advanced bi-directional predictive coding of interlaced video

Also Published As

Publication number Publication date
JP3092280B2 (en) 2000-09-25
JPH0595545A (en) 1993-04-16
KR100272812B1 (en) 2000-11-15
KR930003745A (en) 1993-02-24
JP3092281B2 (en) 2000-09-25
KR930015863A (en) 1993-07-24
JPH0591500A (en) 1993-04-09

Similar Documents

Publication Publication Date Title
KR100233764B1 (en) Video signal coder
US5539466A (en) Efficient coding apparatus for picture signal and decoding apparatus therefor
US5424779A (en) Video coding apparatus
KR100340369B1 (en) Encoding method
JP3778721B2 (en) Video coding method and apparatus
KR100345968B1 (en) High efficient coder for picture signal, decoder and recording medium
EP0907289B1 (en) Efficient decoding apparatus for picture signal
JP3331351B2 (en) Image data encoding method and apparatus
JPH05268594A (en) Motion detector for moving picture
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
JP3257052B2 (en) Highly efficient image signal encoding apparatus and method
JPH0698311A (en) High efficiency coding and decoding device for picture signal
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3506504B2 (en) Digital video signal recording and playback device
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JPH0630332A (en) Coding and decoding device for moving image
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3381167B2 (en) Highly efficient image signal decoding apparatus and method
JP3449370B2 (en) Image data decoding method and apparatus
JP3415390B2 (en) Moving picture coding apparatus and moving picture coding method
JPH07255056A (en) Moving picture reproducing method and device therefor
JP2001177841A (en) Image signal transmission method and device, and image signal decoding method and device
JPH06217344A (en) Motion compensation device and encoder employing it
JP2004304846A (en) Image coding method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110906

Year of fee payment: 13

EXPY Expiration of term