WO1996022656A1 - Predictive encoding method for picture information - Google Patents

Predictive encoding method for picture information Download PDF

Info

Publication number
WO1996022656A1
WO1996022656A1 PCT/JP1995/001952 JP9501952W WO9622656A1 WO 1996022656 A1 WO1996022656 A1 WO 1996022656A1 JP 9501952 W JP9501952 W JP 9501952W WO 9622656 A1 WO9622656 A1 WO 9622656A1
Authority
WO
WIPO (PCT)
Prior art keywords
image information
block
motion
motion vector
information
Prior art date
Application number
PCT/JP1995/001952
Other languages
French (fr)
Japanese (ja)
Inventor
Yasuo Suto
Masahiko Achiha
Katsumi Usami
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Publication of WO1996022656A1 publication Critical patent/WO1996022656A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Definitions

  • the present invention relates to a motion compensation technique used for video coding, for example, a technique effective when applied to a video processing apparatus included in a TV (television) telephone system in ISDN, a video conference system, and the like.
  • a motion compensation technique used for video coding for example, a technique effective when applied to a video processing apparatus included in a TV (television) telephone system in ISDN, a video conference system, and the like.
  • interframe coding In the case of moving images, in a scene with little motion, there is a large correlation between adjacent frames, and large data compression is performed using this. Such data compression is called interframe coding.
  • inter-frame coding in order to perform more efficient information compression, a motion-compensated predictive coding scheme that uses a correlation between a previous frame and a current frame and encodes and transmits only a moving part is relatively efficient. Many have been adopted. For example, in a TV telephone system or a TV conference system, a TV camera is fixed and an object to be photographed by the TV camera is exclusively a human. In this case, a still portion such as a background in a whole photographed image occupies a large proportion.
  • the stationary portion which is the redundant portion of the image information between frames
  • the difference portion that is, the portion where the image moves, is detected, and only that portion is encoded. This is the motion compensation prediction coding method, which enables large information compression.
  • the motion vector of the target area is detected between the current frame and the previous frame, and the position shifted by the motion vector in the previous frame is detected.
  • the difference (prediction error) between the predicted value and the pixel of interest in the current frame is transmitted.
  • the receiving side holds the information of the previous frame, and obtains the image of the current frame by using the motion vector transmitted together with the prediction error in a procedure generally opposite to the above.
  • the motion compensation prediction method it is effective to reduce the prediction error as much as possible to increase the compression rate and reduce the amount of encoded data. If the size of the block is reduced and fine motion compensation is performed, the prediction accuracy can be improved, but then the number of blocks per frame increases, and the motion vector to be transmitted is increased. The data volume increases. On the other hand, when the size of a block is increased, the amount of data in the motion vector decreases, but the amount of encoded data increases due to a large motion compensation prediction error, and the block-like distortion increases.
  • An object of the present invention is to eliminate motion vector information.
  • Another object of the present invention is to realize accurate motion compensation prediction with reduced block distortion. Disclosure of the invention
  • input image information used for motion compensation for inter-frame encoding of a moving image is divided into blocks of a plurality of pixels, and image information similar to a target block in a current frame is obtained from information of a previous frame.
  • a method for detecting a motion vector for predictive encoding of input image information based on the information of the previous frame by determining the position of an area having This is divided into a plurality of first blocks and a plurality of second blocks arranged in such a manner that the first block is shifted half a block vertically and horizontally, and the first block and the second block are divided.
  • the motion vectors (V1, V2) are detected for each.
  • the motion vectors obtained by the two types of block segmentation are used to generate motion-compensated predicted image information ( ⁇ ⁇ , BX 2) using the image information of the previous frame for each motion vector of the first and second blocks. To be served.
  • the positions of the first and second blocks are shifted vertically and horizontally by a half block (NZ2), and the motion vector for the first block and the second block are shifted.
  • NZ2 half block
  • the final predicted value (BXo) is obtained by combining the motion-predicted predicted image information (also simply referred to as predicted value) created based on the motion vector obtained by the two types of block segmentation.
  • the two systems are divided into blocks so that they are shifted from each other by half a block, the motion vector is obtained for each of the divided blocks, motion-assisted image information is generated, and these are synthesized. This makes it possible to perform predictive coding with almost the same accuracy as when the block size is reduced by one level.
  • the number of motion vectors can be reduced to about 1 Z 2. Therefore, in consideration of the fact that the information to be transmitted or the information compressed by encoding must include a motion vector in the motion-compensated predictive coding, the amount of transmitted information is reduced, and the moving image compression ratio is reduced. Improvement can be achieved. As described above, the motion vector information amount can be reduced to about 12 in the case where the block division is performed with the one-step smaller size.
  • the motion compensated prediction image information (BX 1) related to the first block and the motion compensated prediction image information (BX 2) related to the second block are Weighting processing for reducing the weight of the end pixels is performed, and they are combined to obtain final motion-compensated predicted image information. That is, in the motion compensated prediction image created based on the motion vector, block distortion is generally caused due to poor matching of the motion compensated prediction image with an adjacent block at a block end. At this time, the first block and the second block are separated from each other in the vertical and horizontal half-block size phases, so that the above-described block distortion also occurs when the half-block size phase is shifted.
  • the combining means (11) performs a weighting process to eliminate the weight of the predicted value corresponding to each block edge of the first block and the second block.
  • the generation of the motion-compensated predicted image information can be performed for each reference block having the size of the half block vertically and horizontally.
  • the weighting process is performed on the motion compensated prediction image information of the reference block relating to one of the first block and the second block with respect to the reference block in the vertical and horizontal directions.
  • a moving picture processing apparatus converts input image information (X) used for motion compensation for inter-frame coding of a moving image into a plurality of pixels.
  • the prediction code of the input image information based on the information of the previous frame is determined by determining the position of a region having image information similar to the first block of interest in the current frame from the information of the previous frame by dividing into one block.
  • a second motion vector detecting means for detecting a second motion vector (V 2) for predictive encoding of input image information based on the information of the previous frame by determining the position of the region having (38) and first motion compensation for creating motion-compensated predicted image information (BX 1) for the first block using the first motion vector of the first block and image information of the previous frame.
  • Means (9), and a second motion for generating motion compensated prediction image information (BX 2) for the second block using the second motion vector of the second block and the image information of the previous frame.
  • Compensation means (10) motion compensation obtained by combining the motion compensated prediction image information created by the first motion compensation means with the motion compensation prediction image information created by the second motion compensation means.
  • the synthesizing unit reduces the weight of the block end pixel, as described in the method, for the motion compensation prediction image information related to the first block and the motion compensation prediction image information related to the second block. Weighting process for them and synthesize them.
  • the moving image processing apparatus further includes a first storage unit (3) for holding the image information of the current frame, and a motion compensated prediction image information that is combined with the prediction error information generated by the subtraction unit. It is possible to have a first adding means (8) for adding, and a second storage means (50) for holding the image information obtained by the first adding means as image information of a previous frame. is there.
  • the video processing device includes the prediction error information (BX o) and the first and second motion vectors (VI, V 2) And means for transmitting (13, 14).
  • Second combining means (52) for creating the motion-compensated predicted image information, and decoding by adding the synthesized motion-compensated predicted image information (BX o) and the received prediction error information ( ⁇ ').
  • a moving image processing apparatus that applies a method of creating a motion-compensated predicted image using the accuracy method among the two types of blocks detected by two types of block separation shifted vertically and horizontally by half blocks.
  • the input image information (X) used for motion compensation for inter-frame coding of a moving image is divided into first blocks of a plurality of pixels, and the information of the previous frame is used to extract the first block of interest in the current frame.
  • Motion vector detection for detecting the first motion vector for predictive encoding of input image information based on the information of the previous frame by determining the position of an area having image information similar to that of the previous frame.
  • Means (37) the input image information is divided into a second block in which the first block is displaced by half a block in the vertical and horizontal directions, and the information of the previous frame is similar to the second block of interest in the current frame.
  • Image of A second motion vector detecting means for detecting a second motion vector for predictive encoding of input image information based on the information of the previous frame by determining a position of an area having information; And the more accurate one of the detected first motion vector and second motion vector.
  • First compensation means (31, 32) for selecting a motion vector, and motion compensation prediction for the selected motion vector using the selected motion vector and the image information of the previous frame.
  • a first motion compensation means (33) for generating image information (BXo); and a prediction by subtracting the motion-compensated prediction image information generated by the first motion compensation means and the corresponding image information of the current frame.
  • subtraction means (14) for obtaining error information ( ⁇ ).
  • the first storage means (3) for holding the image information of the current frame, and the prediction error information (f) generated by the subtraction means, First adding means (8) for adding motion-compensated predicted image information (BXo), and second convenient means (5) for holding the image information obtained by the adding means as image information of the previous frame. 0).
  • the prediction error information, the first motion vector, the second motion vector, and the first selecting means Means (13, 14) for transmitting the control information (g) for designating the motion vector selected in step (1), and means for transmitting the information via a transmission line (15) or the like.
  • the moving image processing apparatus can further comprise means (51) and (25).
  • FIG. 1 is a block diagram of a coding system prediction processing unit in a TV telephone system according to one embodiment of the present invention.
  • FIG. 2 is a block diagram of a decoding system prediction processing unit in the TV telephone system.
  • FIG. 3 is a block diagram of an image communication system in the TV telephone system.
  • FIG. 4 is an explanatory diagram of first and second blocks used in the processing of the encoding system prediction processing unit.
  • FIG. 5 is a diagram for explaining the basic principle of motion compensation in video coding.
  • FIG. 6 is an explanatory diagram of the weighting process for the motion-compensated predicted image C 1 (X, Y).
  • FIG. 7 is an explanatory diagram of the weighting process for the motion compensated prediction image C 2 (X, Y).
  • FIG. 8 is an explanatory diagram of an example of a block size and a reference block size, which are units of motion vector detection in the present embodiment.
  • FIG. 9 is an explanatory diagram of separation of the first block in the device of the present embodiment.
  • FIG. 10 is an explanatory diagram of the separation of the second block in the apparatus of this embodiment.
  • FIG. 11 is a flowchart showing the first half of the encoding process using the apparatus of this embodiment.
  • FIG. 12 is a flowchart showing the latter half of the encoding process following the process of FIG.
  • FIG. 13 is a block diagram of an encoding prediction processing section in a system according to another embodiment of the present invention.
  • FIG. 14 is a block diagram of a decoding system prediction processing unit in a system according to another embodiment of the present invention.
  • FIG. 15 is a flowchart showing the first half of an encoding process using a system according to another embodiment of the present invention.
  • FIG. 16 is a flowchart showing the latter half of the encoding process following the process of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • Motion-compensated predictive coding calculates the pixel value Cm (N k + p, NI + p), using the pixel value Cm-1 (Nk + p-, N 1 + p-j ') of the block shifted by (, j') in the previous frame as the prediction value Perform encoding.
  • An image composed of the predicted values is a motion-compensated predicted image.
  • the encoded output data is obtained by encoding the motion vector values ', j') and NXN prediction error values (difference value between the value relating to the current frame and the prediction value) for one block. Things.
  • the motion vector detection according to the present invention shows the size of a frame or a specific image area.
  • the first block and the second block which are equal to each other and have different division positions, are prepared, and the motion vector is individually obtained for each block.
  • the division of the second block shown in FIG. 4 (B) is shifted from the block division shown in FIG. 4 (A) by half a block in each of the vertical and horizontal directions.
  • the positions of the first and second blocks are shifted vertically and horizontally by NZ2, and the kill vector for the first block and the motion vector for the second block are shifted.
  • NZ2 two types of motion vectors are obtained for each one-step smaller area of size
  • N / 2 two types of motion vectors are obtained for each one-step smaller area of size
  • the final predicted value is obtained by combining motion-compensated predicted image information (also simply referred to as predicted value) created based on the motion vector obtained by the two types of block segmentation. Therefore, a final predicted value can be obtained with the same high precision or the same small prediction error as in the case where the motion vector is detected in units of one-step smaller size blocks.
  • the motion vector is set in units of blocks each having the smaller size by one step.
  • the motion vector is not changed. The number is
  • the number of motion vectors can be reduced to about 12. Therefore, in consideration of the fact that in the motion compensation predictive coding, the information to be transmitted or the information compressed by the encoding must include a motion vector, the amount of transmitted information can be reduced, and the moving image compression can be reduced. Rate improvement can be achieved.
  • a motion-compensated predicted image created based on a motion vector generally causes block distortion due to poor matching of the motion-compensated predicted image with an adjacent block at a block end.
  • the above-described block distortion also occurs when the half block size phase is shifted. Will be. Focusing on this feature, weighting processing is performed to reduce the weight of the predicted value corresponding to each block end of the first block and the second block. Thereby, the block distortion can be reduced.
  • the positions of the first and second blocks are shifted vertically and horizontally by two to detect the motion vector for the first block and the motion vector for the second block.
  • Two types of motion vectors can be obtained for each smaller area of X (N / 2).
  • the motion vector having the smaller minimum value S j ′ (relative accuracy
  • FIG. 3 shows a moving image communication device in a TV telephone system which is an embodiment of the moving image processing device according to the present invention.
  • the moving image communication device includes a transmitting device SEN for transmitting moving image data, a receiving device for receiving the moving image data transmitted from the transmitting device SEN, which is coupled to the transmitting device SEN by a communication line 15.
  • the equipment REC is established.
  • the communication line 15 is ISDN, though not particularly limited.
  • the transmission device SEN is configured as follows, for example.
  • An image receiving unit 1 such as a TV camera for inputting a moving image is provided, and an AZD (analog digital) converter 2 for converting the moving image data from the image receiving unit 1 into a digital signal is provided at a subsequent stage. ing.
  • a frame memory 3 for storing digital signals from the AZD converter 2 is provided.
  • the frame memory 3 has a storage capacity of at least one frame of an image, and stores a current frame to be encoded.
  • an encoding prediction processing unit 26 (to be described in detail later) for performing inter-frame prediction encoding processing is provided.
  • a subtracter 4 for obtaining a prediction error f by subtracting the image information X output from the frame memory 3 and the predicted value BXo output from the coding prediction processing unit 26 is provided.
  • a switch 5 for selectively transmitting the prediction error ⁇ output from the subtractor 4 and the image information X from the frame memory 3 to the subsequent quantization section 6 is provided. Have been.
  • the quantization unit 6 when the image information X is selected by the switch 5, the quantization of the image information X is performed, and when the prediction error ⁇ is selected by the switch 5, the prediction error ⁇ is calculated. Quantization is performed.
  • the quantization value output from the quantization unit 6 is denoted by q.
  • an inverse quantization unit 7 for performing inverse quantization of the quantization value q is provided.
  • the inverse quantization unit 7 outputs a decoded image signal X ′ for the image signal X, and outputs a prediction error f ′ for the prediction error £.
  • a switch 25 for selecting a predicted value BXo output from the encoding system prediction processing unit 26 is provided, and the predicted value BXo (at the time of inter-frame predictive encoding) or 0 value (frame) is provided.
  • An adder 8 is provided for adding the output of the inverse quantization unit 7 and the output of the inverse quantization unit 7.
  • An encoding control unit 12 for controlling whether to use inter-frame predictive encoding or intra-frame encoding is provided, and the encoding control signal p output from the encoding control unit 12 provides The operation of switches 5 and 25 is controlled.
  • the coding control signal p is set to the high level, and the prediction error ⁇ is selectively transmitted to the quantization unit 6 by the switch 5.
  • the predicted value ⁇ ⁇ ⁇ is transmitted to the adder 8 via the switch 25, and is added to the prediction error f ′ which is the output value from the inverse quantization unit 7.
  • the result of the addition is used as decoded image information X ′, which is input to the encoding prediction processing unit 26.
  • the motion vectors VI and V 2 are obtained from the coding prediction processing unit 26, and these are used as the coding control signal p from the coding control unit 12 and the motion vector VI and V 2 from the self quantization unit 6.
  • the image information X is given to the quantization unit 6 by the switch 5, the 0 value is supplied from the switch 25 to the adder 8, and the output of the adder 8 is the decoded image which is the output of the inverse quantization unit ⁇ .
  • Information X ′ is supplied to the encoding system prediction processing unit 26.
  • the decoded image information X ′ supplied to the encoding system prediction processing unit 26 is handled as information of a previous frame on the transmission side in a later process.
  • the receiving device REC is configured as follows, for example.
  • a receiving unit 16 for capturing moving image data input via the communication line 15 is provided, and the moving image data received by the receiving unit 16 is transmitted to a subsequent signal unit I 17.
  • the signal separating section 17 is provided corresponding to the signal multiplexing section 13 in the transmitting section SEN.
  • the moving image data transmitted from the receiving section 16 has a quantization value q and a motion vector VI. , V 2, and the coding control signal p.
  • an inverse quantization unit 18 is arranged at the subsequent stage of the signal separation unit 17.
  • a prediction error at the time of frame ⁇ prediction encoding
  • decoded image information X '(at the time of intra-frame encoding) is obtained.
  • a decoding system prediction processing unit 27 for obtaining a prediction value ⁇ ⁇ ⁇ ⁇ for motion compensation
  • the signal separation unit 1 A switch 22 whose operation is controlled by an encoding control signal ⁇ from the decoding control signal ⁇ from the decoding system prediction processing unit 27.
  • 0 value in intra-frame encoding
  • the adder 19 calculates the prediction error f ′ transmitted from the inverse quantization unit 18 and the prediction value BX ⁇ transmitted from the decoding prediction processing unit 27.
  • Addition processing is performed, and at the time of intra-frame encoding, addition processing of the decoded image signal X, and the 0 value is performed.
  • the decoded image information X ′ output from the adder 19 is supplied to a decoding prediction processing circuit 27.
  • the decryption The decoded image information X ′ supplied to the system prediction processing unit 27 is handled as information of the previous frame on the receiving side in a later process.
  • an AZD converter 23 for converting the output signal of the adder 19 into an analog signal is provided at a stage subsequent to the adder 19, and the converted output is provided to a TV monitor 24 at the subsequent stage. Is displayed.
  • FIG. 1 shows a detailed configuration example of the coding system prediction processing unit 26. The content shown in the figure focuses on inter-frame predictive coding.
  • the coding system prediction processing unit 26 is not particularly limited, the frame memory 50, the motion vector detection units 37, 38, the motion compensation units 9, 10, And a combining unit 11.
  • the frame memory 50 stores the decoded image information X, output from the adder 8. This decoded image information X ′ is handled as image information of the previous frame in a later process.
  • the data stored in the frame memory 50 can be transmitted to the motion vector detection units 37 and 38 and the motion compensation units 9 and 10.
  • the motion vector detector 37 compares the input image information X with the image information of the previous frame in the frame memory 50 using the first block shown in FIG.
  • the motion vector V1 is detected for each block of the image.
  • the motion vector detector 38 compares the input image information X with the image information of the previous frame in the frame memory 50 using the second block shown in FIG.
  • the motion vector V2 is detected for each block of the image.
  • the motion compensating unit 9 generates a predicted value BX 1 by moving the position of the previous frame supplied from the frame memory 50 by using the detected motion vector V 1.
  • the motion compensating unit 10 generates the predicted value BX2 by moving the position of the previous frame supplied from the frame memory 50 using the detected motion vector V2.
  • the synthesizing unit 11 although not particularly limited, After performing weighting processing using a trigonometric function on each of the predicted values BX1 and BX2 output from the motion compensation units 9 and 10 (details will be described later), the final values are synthesized by combining them.
  • the predicted value BX o is transmitted to the above-mentioned subtractor 4 switch 25 shown in FIG.
  • FIG. 2 shows a detailed configuration example of the decoding system prediction processing unit 27. The content shown in the figure focuses on inter-frame predictive coding.
  • the decoding system prediction processing unit 27 includes, but is not limited to, a frame memory 51, motion compensation units 39 and 40, and a synthesis unit 52.
  • the decoded image information X ′ output from the adder 19 is stored in the frame memory 51.
  • the decoded image information X ′ stored in the frame memory 51 is handled as the image information of the previous frame on the receiving side.
  • the data stored in the frame memory 51 can be transmitted to the free compensators 39 and 40.
  • the motion compensator 39 moves the position of the previous frame supplied from the frame memory 51 by the motion vector VI transmitted from the signal separator 17 to generate a predicted value BX1.
  • the motion compensator 40 moves the position of the previous frame supplied from the frame memory 51 by using the motion vector V2 transmitted from the signal separator 17, and generates a predicted value BX2.
  • the combining unit 52 performs a predetermined weighting process on the predicted value BX1 and the predicted value BX2 from the motion compensation units 39 and 40, and then combines them to obtain the final predicted value. Get the value BX o.
  • the predicted value BX0 is transmitted to the switch 22 shown in FIG. That is, the decoding system prediction processing unit 27 performs the same processing as the series of processing by the motion compensation units 9 and 10 and the synthesis unit 11 in the coding system prediction processing unit 26 described above. Accordingly, processing for decoding the received image is performed.
  • FIGS. 8 to 10 show the above-described two types of block division.
  • the detection processing of the motion vector is performed in blocks of 32 ⁇ 32 pixels separated by a solid line. Otherwise, the processing is performed in units of 16 ⁇ 16 pixel blocks (hereinafter referred to as reference blocks).
  • the first block (corresponding to FIG. 4 (A)), which is cut off by the solid line shown in FIG. 9, is used by the motion vector detection unit 37.
  • the second block (corresponding to FIG. 4 (B)) separated by a solid line shown in FIG. 10 is used by the motion vector detection unit 38.
  • the reference block is denoted by X (p, q)
  • the first block is denoted by LI (x, y)
  • the second block is denoted by L 2 (X, y). Notation.
  • FIG. 11 and 12 show flow charts of the decoding process using the apparatus of the present embodiment.
  • the symbols # 1 and # 2 shown in Fig. 11 and the symbols # 1 and # 2 shown in Fig. 12 indicate that the processing is repeated between the corresponding symbols. .
  • the size of the image is assumed to be a size (16 N pixels X 16 M pixels) defined by N reference blocks in the horizontal direction and M reference blocks in the vertical direction.
  • the processing is performed while scanning for each reference block from the upper left to the lower right of the image in the horizontal direction. In the following processing, division by 2 (2) is performed.
  • step S1 the processing is started from the upper left of the image.
  • the processing of steps S2A to S5A depends on the first block. This is processing related to motion vector detection, and this processing is performed by the motion vector detection unit 37 and the motion compensation unit 9.
  • the processing of steps S2B to S5B is processing related to motion vector detection by the second block, and this processing is performed by the motion vector detection unit 38 and the motion compensation unit 10. Done.
  • the motion vector detection unit 37 searches the frame memory 50, and the motion vector V1 of the first block LI (p / 2, q / 2) is obtained.
  • the signal is latched by an internal register and transmitted to the motion compensator 9, and is also transmitted to the signal multiplexer 13 for signal multiplexing (steps S3A and S5A).
  • the motion compensator 9 creates motion-compensated predicted image information BX1 from the previous frame in the frame memory 50 based on the motion vector V1 sent by fe (step S5A).
  • the detection of the motion vector for one first block is performed based on the image information of the reference block located at the upper left of the first block, and the four reference blocks included in the first block are detected.
  • the motion compensation prediction image information for each is generated using the motion vector detected based on the reference block located at the upper left corner.
  • the signal is sent to the signal multiplexing unit 13 for signal multiplexing (step S4B).
  • the motion compensation unit 10 creates a motion-compensated predicted image BX2 from the previous frame in the frame memory 50 based on the transferred motion vector V2 (step S5B).
  • motion-compensated predicted image information BX2 of the reference block size is created based on the motion vector V2 currently latched in the register in the motion vector detection unit 38. That is, the detection of the motion vector for one second block is performed based on the image information of the reference block located at the upper left of the second block, and the four reference blocks included in the second block are detected. The respective motion-compensated prediction image information for the block is generated using the motion vector detected based on the reference block located at the upper left.
  • the motion-compensated predicted image information BX 1 and BX 2 created in the above steps S 5 A and S 5 B are transmitted to the synthesizing unit 11, where the motion-compensated predicted image information BX 1 and BX 2 Then, a weighting process using a trigonometric function as shown in FIGS. 6 and 7 is performed and synthesized to create motion-compensated predicted image information BXo (step S6).
  • the weighting is performed so as to lose the weight of the block end pixel. That is, the motion-compensated predicted image information created based on the motion vector generally causes block distortion due to poor matching of the motion-compensated predicted image with an adjacent block at a block end. At this time, the first block and the second block are separated from each other by a vertical and horizontal half block size phase shift. Therefore, the above-described block distortion also occurs when the half-block size phase is shifted. Focusing on this feature, weighting processing is performed to reduce the weight of the motion-compensated predicted image information (predicted value) corresponding to each block end of the first block and the second block.
  • the weight here is sin 2 ( ⁇ N) sin 2 ( ⁇ Y / N) for the first block, taking into account the vertical and horizontal components as shown in Fig. 6.
  • the second block is cos 2 (jr X / N) Xcos 2 ( ⁇ Y / N) in consideration of the vertical and horizontal components as shown in FIG.
  • the weighting function is a function of sin 2 and cos 2 in which the vertical and horizontal directions of the reference block have a period of 2 respectively.
  • the reason for using the trigonometric function is as follows. As is clear from comparison of Figs. 6 and 7, the weight of the first block and the second block decreases at the end of the block, and the weights of the first block and the second block are reduced.
  • the first block and the second block have a phase shift of ⁇ / 2 in the above weighting function.
  • the block distortion is reduced.
  • the weight of the block end value is lost by the weighting function.
  • the position of the first block L 1 (X, y) is a position indicated by a broken line.
  • the weight of the value at the block end is eliminated by the weighting function. Therefore, focusing on one reference block X (p, q), the block distortion at the block end of the reference block X (p, q) is reduced.
  • the motion-compensated predicted image information BXo formed through such weighting processing is transmitted to the subtractor 4.
  • the subtracter 4 calculates the image information X output from the frame memory 3 and the motion-compensated predicted image information (predicted value).
  • the prediction error ⁇ is extracted by subtraction processing with BX o (step S7).
  • the prediction error ⁇ is extracted by the subtractor 4
  • the prediction error ⁇ is quantized by the quantization unit 6 and the quantized value q is sent to the signal multiplexing unit 13 and the inverse quantization unit 7 (step S 8)
  • the quantized value q is inversely quantized by the inverse quantizer 7 and added to the motion compensated prediction image BXo by the adder 8, so that the decoded image information ( X and are created (Step S9).
  • This reference frame X is stored in the frame memory 50 (step S10).
  • step S11 The processing of 2A, S2B to S10 is performed (step S11). That is, it is determined whether or not p ⁇ N-1 is satisfied (step S111). If it is determined in this determination that p ⁇ N-1 is satisfied (yes), then After p is incremented (step S114), the above steps S2A and S2B are discriminated again. If it is determined in step S 1 1 1 that p ⁇ N ⁇ 1 does not hold (no), the value of p is set to 0, and then q ⁇ M ⁇ 1 holds.
  • step S112, S113 It is determined whether or not this is the case (steps S112, S113). In this determination, if it is determined that q ⁇ M—1 holds (yes), q is incremented (step S115), and the determination in steps S2A and S2B is performed again. Is performed. If it is determined that q ⁇ M—1 does not hold (no) in the determination in step S.113, the last reference block of the plurality of reference blocks to be encoded is processed. Since the processing of has been completed, the encoding processing for the current frame is terminated. Next, the results of simulation by a computer will be described. The image data used was 160 x 96 pixels, the block size was 16 x 16 pixels, and the search area for motion vector detection was 115 to 15 pixels.
  • the first motion vector and the second motion vector are detected for the first block and the second block shown in FIGS. 4 (A) and (B), respectively. Based on these motion vectors, motion-compensated predicted images C 1 (X, Y) and C 2 (X, Y) are created. Next, the motion-compensated predicted images CI (X, Y) and C 2 (X, Y) are subjected to weighting processing using trigonometric functions as shown in Figs. 6 and 7, and then synthesized. To obtain the final motion-compensated predicted image C (X, Y). The final motion-compensated predicted image C (X, Y) is represented by the following equation.
  • Prediction is performed using this final motion prediction image C (X, Y), and the obtained prediction error is encoded. It has been confirmed that such a simulation can simultaneously reduce the amount of motion vector information and block distortion.
  • the motion vector detection unit 38 apart from the processing in the motion vector detection unit 37, performs a multi-pixel process so that the first block is divided by half a block in the vertical and horizontal directions of the frame.
  • the block is cut into the second block, and the motion vector is detected for each of the cut blocks.
  • two systems of block segmentation are performed so as to be shifted from each other by half a block, a motion vector is obtained for each of the segmented blocks, motion-compensated image information is generated, and the motion-compensated image information is synthesized.
  • Predictive coding can be performed with almost the same accuracy as when the block size is reduced by one level. Wear.
  • the amount of motion vector information can be reduced to about 12 in the case where the block division is performed in the one-step smaller size.
  • the weighting process to reduce the weight of the block edge pixels is performed on each of the motion-compensated prediction images generated by the above, and the combining unit 11 that combines them is adopted. Therefore, the objective evaluation of the motion compensated prediction image can be enhanced. As a result, the threshold value of the prediction error can be set high, so that the error signal can be largely eliminated in the moving image communication device.
  • FIG. 13 shows another configuration example of the encoding system prediction processing unit 26 shown in FIG.
  • the coding prediction processing unit 26 includes three first motion vector detection units, a second motion vector detection unit 38, a comparator 31, a switch 32, a motion compensation unit 33, And a frame memory 50.
  • the first motion vector detection unit 37 compares the input image information X with the previous frame in the frame memory 50 using the first block shown in FIG. It has a function to obtain the motion vector V1 of the block.
  • the second motion vector detection unit 38 compares the input image information X with the previous frame in the frame memory 50 by using the second block shown in FIG. It has the function of obtaining the motion vector V2 of the block.
  • the comparator 31 has a function of comparing the minimum value of the absolute value sum S ij of the difference. That is, the sum of absolute values S of the differences obtained by the motion vector detection unit 37 , 3 and the sum of the absolute values of the differences S: j obtained by the bridle vector detector 38 (compared as S 2 ′). U.
  • the information g of this comparison result is multiplexed together with the motion vectors V 1 and V 2 by the signal multiplexing unit 13, and transmitted to the communication line 15 via the transmission unit 14. Further, the operation of the switch 32 is controlled by the comparison result information g of the comparator 31. If the sum of the absolute values of the differences obtained by the motion vector detector 37 is S!
  • the switch 32 The output of the torque detector 37 is selected and transmitted to the subsequent motion compensator 33.
  • the absolute value sum S ij of the difference obtained by the motion vector detector 38 is the minimum value S ij of the difference S ij, and the sum S of the difference obtained by the motion vector detector 37. If it is smaller than the minimum value S 1 J of J, the output of the motion vector detection unit 38 is selected and transmitted to the subsequent stage motion compensation unit 33. That is, the motion vector with the higher accuracy is selected and supplied to the motion compensator 33.
  • the motion compensator 33 has a function of generating a predicted value BXo by moving the position of the previous frame stored in the frame memory 50 based on the motion vector transmitted via the switch 32. Have.
  • the predicted value BXo is transmitted to the switch 25 and the subtractor 4 described with reference to FIG.
  • FIG. 14 shows another configuration example of the decoding-based prediction processing unit 27 shown in FIG. As shown in FIG. 14, the motion vector transmitted from the signal separator 17 and the motion vector transmitted from the signal separator 17 for latching the motion vector V1 are shown.
  • a vector latch 42 for latching the vector V 2 is provided, and the outputs of the vector latches 41 and 42 are selectively transmitted to the motion compensator 44 via a switch 43 at the subsequent stage. It is as follows.
  • the above switch 43 is the ratio transmitted from the signal separation unit 17.
  • the operation is controlled by the comparison result information g. That is, the motion vectors V 1 and V 2 used for the processing in the motion compensator 44 are selected in accordance with the comparison result in the comparator 31 shown in FIG. I have.
  • the motion compensator 44 moves the previous frame from the frame memory 51 using the transmitted motion vector to generate a predicted value BXo.
  • the predicted value BXo can be transmitted to the adder 19 via the switch 22.
  • FIGS. 15 and 16 show flowcharts of the encoding process in the apparatus of this embodiment.
  • the symbols # 3, # 4, and # 5 shown in Figs. 15 and 16 and the symbols # 3, # 4, and # 5 shown in Fig. 16 are processed by the corresponding symbols. It indicates that they are continuous.
  • the processing shown in FIGS. 15 and 16 is similar to that of the embodiment described above, except that the image size is determined by the horizontal N reference block X the vertical M reference block (16 N pixels X 16 M pixels) Then, it is assumed that scanning is performed for each reference block in the horizontal direction from the upper left of the image to the lower right, and the processing is advanced.
  • steps S12A to S14A is processing relating to the motion vector detection by the first block, and this processing is performed by the motion vector detection unit 37.
  • steps S12B to S14B is processing related to the motion vector detection by the second block, and this processing is performed by the motion vector detection unit 38.
  • the reference block X (p, q) is located at the upper left of the first block. This is clear from FIG. In this case, the motion vector detection unit 37 searches the frame memory 50 to find the motion vector V1 of the first block LI (pZ2, q / 2), and the detection result is stored in the internal memory. And sent to the signal multiplexing unit 13 for signal multiplexing (steps S13A and S14A).
  • the motion vector V 2 of L 2 (p 2 +1, q / 2 + 1) is detected. Then, the detection result is latched in an internal register and sent to the signal multiplexing section 13 for signal multiplexing (step S14B).
  • the motion vector detectors 37 and 38 compare the calculated minimum value S 1 j ′ with S 2 i ′ (step S 15). Also, in the determination of the above steps S12A and S12B, when it is determined to be no, the determination of the above step S15 is also performed. If it is determined in the comparison of step S 15 that S i >> S 2 j is satisfied (yes), the comparison result information g output from the comparator 31 is set to level “1” ( Step S16A), the motion vector V1 output from the motion vector detection unit 37 is transmitted to the motion compensation unit 33 via the switch 32, and the motion compensation unit 33 A predicted value BXo is created (step S17A).
  • the predicted value BX 0 created in the above step S 178 or S 177 B is transmitted to the subtractor 4, and in the subtracter 4, the frame memory 3 A prediction error ⁇ is extracted by a subtraction process between the image information X output from and the predicted value BXo (step S18). Further, when the prediction error ⁇ is extracted by the subtracter 4, the prediction error ⁇ is quantized by the quantization unit 6, and the quantized value q is converted into the signal multiplexing unit 13 and the inverse quantization unit 7. (Step S19).
  • step S22 The processing of S12A, S12B to S21 is performed (step S22). That is, it is determined whether or not p ⁇ N—1 is satisfied (step S221). If it is determined in this determination that p ⁇ N—1 is satisfied (yes), After p is incremented (step S224), the above-mentioned steps S12A and S12B are discriminated again. If it is determined in step S 2 21 that p ⁇ N—1 does not hold (n 0), the value of p is set to 0, and then q ⁇ M—1 holds.
  • step S22, S223 It is determined whether or not to perform (steps S22, S223). In this discrimination, if it is determined that q ⁇ M ⁇ 1 is satisfied (yes), q is incremented (step S 2 25), and the above steps S 12 A, S 1 2 B is determined. If it is determined that q ⁇ M—1 does not hold (no) in the determination in step S22.3, it is determined that the last reference block of the plurality of reference blocks to be encoded is processed. Since the processing for has been completed, the encoding processing for the current frame is terminated.
  • weighting processing of a motion-compensated prediction image is performed using a trigonometric function.
  • a linear function having a triangular shape and a bilinear function having a semicircular shape are used.
  • Various functions such as the following function and even the rectangle function can be used.
  • the size of the reference block is not limited to the size described in the above embodiment, and may be smaller, but the size of the above embodiment is preferable from the viewpoint of efficient data processing. .

Abstract

A moving picture is divided into a first block and a second block in such a way that they are shifted from each other by a half block. Movement vectors (V1 and V2) of the divided first and second blocks are acquired and two pieces of movement compensation picture information (BX1 and BX2) corresponding to the respect vectors are generated. Then movement compensation information (BXo) for inter-frame encoding is obtained by combining the two pieces of information (BX1 and BX2). Therefore, prediction encoding processing can be performed with nearly the same accuracy as that when a moving picture is divided into smaller blocks, and the amount of movement vector information can be reduced to about 1/2 of the amount which is obtained when a moving picture is divided into smaller blocks.

Description

明 細 書 画像情報の予測符号化方法 技術分野  Description Predictive coding method for image information
本発明は、 動画像符号化に使用される動き補償技術に関し、 例えば、 I S D Nにおける T V (テレビジョン) 電話システムや、 T V会議シス テム等に含まれる動画像処理装置に適用して有効な技術に関する。 背景技術  The present invention relates to a motion compensation technique used for video coding, for example, a technique effective when applied to a video processing apparatus included in a TV (television) telephone system in ISDN, a video conference system, and the like. . Background art
動画像の場合は、 動きの少ないシーンでは隣り合うフレーム間に大き な相関があり、 それを利用して大幅なデータ圧縮が行われる。 そのよう なデータ圧縮をフレーム間符号化と称する。 フレーム間符号化において、 より髙能率情報圧縮を行うために、 前フレームと現在のフレームとの相 関を利用し、 動きのある部分だけを符号化して送信する動き補償予測符 号化方式が比较的多く採用されている。 例えば、 T V電話システムや、 T V会議システムにおいては、 T Vカメラは固定され、 その T Vカメラ による撮影対象は専ら人間であるが、 この場合、 撮影画像全体における 背景等の静止部分は大きな割合を占める。 また、 1秒間に数フレームで T V画面に描画される場合、 互いに隣接するフレーム間の画像の違いは 小さい。 そのような場合に、 フレーム間の画像情報の冗長部分とされる 静止部分は送信せず、 違いのあった部分、 すなわち画像の動きがあった ところを検出して、 その部分のみを符号化するようにしたのが、 動き補 償予測符号化方式であり、 大きな情報圧縮が可能とされる。  In the case of moving images, in a scene with little motion, there is a large correlation between adjacent frames, and large data compression is performed using this. Such data compression is called interframe coding. In inter-frame coding, in order to perform more efficient information compression, a motion-compensated predictive coding scheme that uses a correlation between a previous frame and a current frame and encodes and transmits only a moving part is relatively efficient. Many have been adopted. For example, in a TV telephone system or a TV conference system, a TV camera is fixed and an object to be photographed by the TV camera is exclusively a human. In this case, a still portion such as a background in a whole photographed image occupies a large proportion. Also, when several frames are drawn on the TV screen per second, the difference in the image between adjacent frames is small. In such a case, the stationary portion, which is the redundant portion of the image information between frames, is not transmitted, and the difference portion, that is, the portion where the image moves, is detected, and only that portion is encoded. This is the motion compensation prediction coding method, which enables large information compression.
具体的には、 現フレームと前フレームとの間で対象領域の動きべク ト ルを検出して、 前フレームにおいて動きべク トル分だけずらした位置を 予測値として、 当該予測値と現フレームの着目画素との差分 (予測誤差) を伝送するようにする。 受け側は、 前フレームの情報を保持しており、 予測誤差と共に伝送されてくる動きべク トルを利用して、 上記とは概ね 逆の手順にて、 現フレームの画像を取得する。 Specifically, the motion vector of the target area is detected between the current frame and the previous frame, and the position shifted by the motion vector in the previous frame is detected. As the predicted value, the difference (prediction error) between the predicted value and the pixel of interest in the current frame is transmitted. The receiving side holds the information of the previous frame, and obtains the image of the current frame by using the motion vector transmitted together with the prediction error in a procedure generally opposite to the above.
尚、 動きベク トルの検出方式としては、 ブロックマッチング、 あるい はパターンマッチングと称される技術がある。 尚、 動き補償予測につい て記載された文献としては、 C Q出版社から発行された 「インタフエ一 ス ( 1 9 9 1年 1 2月号、 第 1 5 2頁) 」 がある。  As a method of detecting a motion vector, there is a technique called block matching or pattern matching. As a reference describing the motion compensation prediction, there is “Interface (issued on December, 1991, p. 152)” published by CQ Publisher.
動き補償予測方式においては、 圧縮率を上げて符号化データ量を削減 するには、 予測誤差を可能な限り小さくすることが有効である。 ブロッ クの大きさを小さくして、 きめ細かな動き補償を行えば、 予測精度を上 げることができるが、 そうすると、 1フレーム当りのブロックの数が多 くなり、 伝送すべき動きベク トルのデータ量が増えてしまう。 それに対 して、 ブロックを大きくすると、 動きベク トルのデータ量は滅少するが、 動き補償予測誤差が大きいため、 符号化データ量が増え、 加えてブロッ ク状の歪みが大きくなってしまう。  In the motion compensation prediction method, it is effective to reduce the prediction error as much as possible to increase the compression rate and reduce the amount of encoded data. If the size of the block is reduced and fine motion compensation is performed, the prediction accuracy can be improved, but then the number of blocks per frame increases, and the motion vector to be transmitted is increased. The data volume increases. On the other hand, when the size of a block is increased, the amount of data in the motion vector decreases, but the amount of encoded data increases due to a large motion compensation prediction error, and the block-like distortion increases.
本発明の目的は、 動きべク トル情報を削滅することにある。  An object of the present invention is to eliminate motion vector information.
本発明の別の目的は、 プロック歪みを軽減して精度の良い動き補償予 測を実現することにある。 発明の開示  Another object of the present invention is to realize accurate motion compensation prediction with reduced block distortion. Disclosure of the invention
本発明では、 動画像のフレーム間符号化のための動き補償に用いられ る入力画像情報を複数画素毎のプロックに分け、 前フレームの情報から、 現フレームの中の着目ブロックと類似の画像情報を有する領域の位置を 判定することにより、 前記前フレームの情報に基づく入力画像情報の予 測符号化のための動きべク トルを検出する方法において、 一つのフレー ムにっき、 これを複数個の第 1ブロックと、 前記第 1ブロックを縦横方 向に半ブロックずらした配置の複数個の第 2ブロックとに切り分けを行 い、 前記第 1ブロックと第 2ブロックの夫々について動きベク トル (V 1, V 2) を検出する。 According to the present invention, input image information used for motion compensation for inter-frame encoding of a moving image is divided into blocks of a plurality of pixels, and image information similar to a target block in a current frame is obtained from information of a previous frame. A method for detecting a motion vector for predictive encoding of input image information based on the information of the previous frame by determining the position of an area having This is divided into a plurality of first blocks and a plurality of second blocks arranged in such a manner that the first block is shifted half a block vertically and horizontally, and the first block and the second block are divided. The motion vectors (V1, V2) are detected for each.
2種類のブロック切り分けで得られた動きベクトルは、 第 1ブロック と第 2ブロックの動きべク トル毎に、 前フレームの画像情報を利用した 動き補償予測画像情報 (ΒΧ Ι, BX 2) の作成に供される。  The motion vectors obtained by the two types of block segmentation are used to generate motion-compensated predicted image information (ΒΧ Ι, BX 2) using the image information of the previous frame for each motion vector of the first and second blocks. To be served.
例えば、 第 1及び第 2プロックのサイズを夫々 NX N画素とすると、 第 1, 第 2ブロックの位置を互いに縦横に半ブロック (NZ2) だけず らして、 第 1ブロックに対する動きベクトルと第 2ブロックに対する動 きベク トルとを検出すると、 大きさ (NZ2) (N/2) の一段階小 さな領域 (基準ブロック) 毎に、 2種類の動きベク トルが得られること になる。 2通りのブロック切り分けで得られた動きべク トルを基に作成 した動き補儻予測画像情報 (単に予測値とも記す) を互いに合せ込むこ とにより、 最終的な予測値 (BXo) を得る。 したがって、 前記一段階 小さなサイズのプロック単位で動きべクトルを検出する場合と同等の髙 い精度をもって、 最終的な予測値を得ることができる。 このように、 互 いに半ブロック分ずれるように 2系統のブロック切り分けを行い、 切り 分けられたプロックのそれぞれについて動きべク トルを取得して動き補 債画像情報を生成し、 それを合成することにより、 ブロックサイズを 1 段階小さくした場合とほぼ同等の精度をもって予測符号化処理を行うこ とができる。  For example, assuming that the size of the first and second blocks is NX N pixels, respectively, the positions of the first and second blocks are shifted vertically and horizontally by a half block (NZ2), and the motion vector for the first block and the second block are shifted. When a motion vector corresponding to is detected, two types of motion vectors are obtained for each area (reference block) of one size smaller than the size (NZ2) (N / 2). The final predicted value (BXo) is obtained by combining the motion-predicted predicted image information (also simply referred to as predicted value) created based on the motion vector obtained by the two types of block segmentation. Therefore, it is possible to obtain the final predicted value with the same high accuracy as that in the case of detecting the motion vector in the one-step small-sized block unit. In this way, the two systems are divided into blocks so that they are shifted from each other by half a block, the motion vector is obtained for each of the divided blocks, motion-assisted image information is generated, and these are synthesized. This makes it possible to perform predictive coding with almost the same accuracy as when the block size is reduced by one level.
また、 必要な動きベク トルの情報量 (動きベク トルの数) という点に おいては、 前記一段階小さなサイズのブロック単位で動きべク トルを検 出する場合に比べて、 動きべク トルの数が大凡半減される。 例えば、 1 フレームについて、 縦に K個、 横に L個のブロック切り分けを行ってい る場合を基準にすると、 単純にプロックサイズをその 1 2にして動き べク トルを検出する場合における動きべク トルの数は、 2 K X 2 L = 4 Kしとされる。 これに対して、 本発明のように、 ブロックサイズは変更 することなく、 半ブロック分ずらして 2通りのブロック切り分けを行つ て動きべク トルを検出する場合には、 動きべク トルの数は、 In terms of the amount of motion vector information required (the number of motion vectors), the motion vector is smaller than in the case where the motion vector is detected in units of one-step smaller blocks. Is almost halved. For example, one frame is divided into K blocks vertically and L blocks horizontally. When the motion vector is detected by simply setting the block size to 12, the number of motion vectors is 2 KX 2 L = 4 K. On the other hand, as in the present invention, when detecting a motion vector by performing two types of block separation with a shift of a half block without changing the block size, the number of motion vectors is determined. Is
K L + ( K + 1 ) X ( L + 1 ) = 2 K L + K + L + 1 K L + (K + 1) X (L + 1) = 2 K L + K + L + 1
となり、 動きべク トルの数を 1 Z 2程度にまで低減することができる。 したがって、 動き補償予測符号化において、 伝送される情報若しくは符 号化によって圧縮された情報には動きべク トルを含まなければならない ことを考慮すれば、 伝送情報量の低減、 そして動画像圧縮率の向上を達 成することができる。 このように、 前記一段階小さなサイズでブロック 切り分けを行った場合の 1 2程度まで、 動きべク トル情報量を低減す ることができる。 Thus, the number of motion vectors can be reduced to about 1 Z 2. Therefore, in consideration of the fact that the information to be transmitted or the information compressed by encoding must include a motion vector in the motion-compensated predictive coding, the amount of transmitted information is reduced, and the moving image compression ratio is reduced. Improvement can be achieved. As described above, the motion vector information amount can be reduced to about 12 in the case where the block division is performed with the one-step smaller size.
更に、 ブロック歪みの低減を図るために、 前記第 1ブロックに係る動 き補償予測画像情報 (B X 1 ) と前記第 2ブロックに係る動き補慣予測 画像情報 (B X 2 ) とに対して、 ブロック端画素の重みを減ずるための 重み付け処理を行ってそれらを合成し、 最終的な動き補償予測画像情報 を得ることができる。 すなわち、 動きべク トルを基に作成される動き補 償予測画像は、 一般的に、 ブロック端での隣接ブロックとの間で動き補 償予測画像の整合不良によるブロック歪みを生ずることになる。 このと き、 第 1ブロックと第 2プロックの切り分けは夫々縦横半プロックサイ ズ位相のずれたものであるため、 上記ブロック歪みも半ブロックサイズ 位相がずれたところに、 それぞれ発生することになる。 この特徴に着目 し、 第 1ブロックと第 2プロックのそれぞれのプロック端に対応される 予測値の重みを滅ずるような重み付け処理を合成手段 ( 1 1 ) にて行う。 これによつて、 上記プロック歪みを g減することができる。 前記動き補償予測画像情報の作成を、 縦横夫々が前記半プロックの大 きさを有する基準ブロック毎に行うことができる。 この場合、 前記重み 付け処理は、 前記第 1ブロックと第 2ブロックの内の何れか一方に係る 前記基準プロックの動き補償予測画像情報に対してはその基準プロック め縦横に対して夫々周期 π Ζ 2とされる s i n 2の関数を乗算して行い、 前記第 1プロックと第 2ブロックの内の何れか他方に係る前記基準プロッ クの動き補償予測画像情報に対してはその基準プロックの縦横に対して 夫々周期 π / 2とされる c 0 s 2の関数を乗算して行うことができる。 前記合成されて得られた動き補償予測画像情報 (Β Χ ο ) は現フレー ムの対応画像情報と減算され、 これによつて予測誤差情報 (ε ) が取得 される。 Further, in order to reduce the block distortion, the motion compensated prediction image information (BX 1) related to the first block and the motion compensated prediction image information (BX 2) related to the second block are Weighting processing for reducing the weight of the end pixels is performed, and they are combined to obtain final motion-compensated predicted image information. That is, in the motion compensated prediction image created based on the motion vector, block distortion is generally caused due to poor matching of the motion compensated prediction image with an adjacent block at a block end. At this time, the first block and the second block are separated from each other in the vertical and horizontal half-block size phases, so that the above-described block distortion also occurs when the half-block size phase is shifted. Focusing on this feature, the combining means (11) performs a weighting process to eliminate the weight of the predicted value corresponding to each block edge of the first block and the second block. Thereby, the above-mentioned block distortion can be reduced by g. The generation of the motion-compensated predicted image information can be performed for each reference block having the size of the half block vertically and horizontally. In this case, the weighting process is performed on the motion compensated prediction image information of the reference block relating to one of the first block and the second block with respect to the reference block in the vertical and horizontal directions. 2 is performed by multiplying by a function of sin 2 and the motion-compensated prediction image information of the reference block relating to one of the first block and the second block is vertically and horizontally aligned with the reference block. On the other hand, they can be performed by multiplying the functions of c 0 s 2 each having a period of π / 2. The motion-compensated predicted image information (Β ο ο) obtained by the synthesis is subtracted from the corresponding image information of the current frame, whereby prediction error information (ε) is obtained.
さらに、 互いに縦横半プロック分ずらした 2通りのブロック切り分け にて夫々動きべク トルとを検出すると、 個々のブロックにおいて縦横夫々 1 2の一段階小さな領域毎に、 2種類の動きべクトルが得られること になるので、 ブロック毎に、 精度の髙ぃ方の動きベク トルを選択して、 これを動き補償予測画像の作成に用いることにより、 予測誤差を小さく できるので、 精度の高い画像を復号化することが可能になる。  Furthermore, when a motion vector is detected by two types of block segmentation shifted from each other by half the vertical and horizontal half blocks, two types of motion vectors are obtained for each one-step smaller area in each of the vertical and horizontal directions in each block. By selecting a motion vector with higher accuracy for each block and using it to create a motion-compensated prediction image, the prediction error can be reduced, so that a high-precision image can be decoded. Will be possible.
前記動きべク トル検出方法や予測符号化方法を適用した動画像処理装 置は、 動画像のフレーム間符号化のための動き補償に用いられる入力画 像情報 (X ) を複数画素毎の第 1ブロックに分け、 前フレームの情報か ら、 現フレームの中の着目第 1プロックと類似の画像情報を有する領域 の位置を判定することにより、 前記前フレームの情報に基づく入力画像 情報の予測符号化のための第 1動きベク トル (V I ) を検出する第 1動 きベク トル検出手段 (3 7 ) と、 前記入力画像情報を、 前記第 1ブロッ クを縦横方向に半ブロックずらした配置の第 2ブロックに分け、 前フレ ームの情報から、 現フレームの中の着目第 2ブロックと類似の画像情報 を有する領域の位置を判定することにより、 前記前フレームの情報に基 づく入力画像情報の予測符号化のための第 2動きベク トル (V 2) を検 出する第 2動きべク トル検出手段 (3 8) と、 前記第 1ブロックの第 1 動きべク トルと前フレームの画像情報とを利用して当該第 1プロックに 係る動き補償予測画像情報 (BX 1 ) を作成する第 1動き補償手段 (9) と、 前記第 2プロックの第 2動きべク トルと前フレームの画像情報とを 利用して当該第 2ブロックに係る動き補償予測画像情報 (BX 2) を作 成する第 2動き補償手段 ( 1 0) と、 前記第 1動き補償手段にて作成さ れた前記動き補償予測画像情報と前記第 2動き補償手段にて作成された 前記動き補償予測画像情報とを合成した動き補償予測画像情報を作成す る第 1合成手段 ( 1 1) と、 前記合成された動き補償予測画像情報と現 フレームの対応画像情報とを減算して予測誤差情報を取得する減算手段A moving picture processing apparatus to which the motion vector detection method or the predictive coding method is applied, converts input image information (X) used for motion compensation for inter-frame coding of a moving image into a plurality of pixels. The prediction code of the input image information based on the information of the previous frame is determined by determining the position of a region having image information similar to the first block of interest in the current frame from the information of the previous frame by dividing into one block. A first motion vector detecting means (37) for detecting a first motion vector (VI) for image transformation, and an arrangement in which the input image information is arranged by shifting the first block by half a block vertically and horizontally. Image information similar to the second block of interest in the current frame from the information of the previous frame A second motion vector detecting means for detecting a second motion vector (V 2) for predictive encoding of input image information based on the information of the previous frame by determining the position of the region having (38) and first motion compensation for creating motion-compensated predicted image information (BX 1) for the first block using the first motion vector of the first block and image information of the previous frame. Means (9), and a second motion for generating motion compensated prediction image information (BX 2) for the second block using the second motion vector of the second block and the image information of the previous frame. Compensation means (10); motion compensation obtained by combining the motion compensated prediction image information created by the first motion compensation means with the motion compensation prediction image information created by the second motion compensation means. First combining means (11) for creating predicted image information; Motion compensated prediction picture information and the current frame of the corresponding image information and subtracting means for obtaining a prediction error information by subtracting the
(4) と、 を備えて構成することができる。 前記合成手段は、 前記第 1 プロックに係る動き補償予測画像情報と前記第 2プロックに係る動き補 償予測画像情報とに対して、 前記方法で説明したように、 ブロック端画 素の重みを減ずるための重み付け処理を行ってそれらを合成するように 構成できる。 (4) and can be configured. The synthesizing unit reduces the weight of the block end pixel, as described in the method, for the motion compensation prediction image information related to the first block and the motion compensation prediction image information related to the second block. Weighting process for them and synthesize them.
更に動画像処理装置は、 前記現フレームの画像情報を保持するための 第 1の記憶手段 ( 3) と、 前記減算手段で生成された予測誤差情報に前 記合成された動き補償予測画像情報を加算する第 1加算手段 (8) と、 前記第 1加算手段にて得られた画像情報を前フレームの画像情報として 保持するための第 2の記憶手段 (5 0) とを備えることが可能である。 上述の構成によって符号化された情報を復号化する構成を考慮した場 合、 動画像処理装置は、 前記予測誤差情報 (BX o) と第 1及び第 2動 きベク トル (V I , V 2 ) とを伝送する手段 ( 1 3、 1 4) を更に備え る。 そして、 伝送線路 ( 1 5) 等を介して前記伝送する手段に結合され、 前記予測誤差情報と第 1及び第 2動きべク トルを受信する手段 ( 1 6, 1 7 ) と、 受信された第 1動きベク トルと受信側前フレームの画像情報 とを利用して動き補償予測画像情報を作成する第 3動き補償手段 (3 9 ) と、 受信された第 2動きベク トルと受信側前フレームの画像情報とを利 用して動き補償予測画像倩報を作成する第 4動き補償丰段 (4 0 ) と、 前記第 3動き補償手段にて作成された前記動き補償予測画像情報と前記 第 4動き補償丰段にて作成された前記動き補償予測画像情報とを合成し た動き補償予測画像情報を作成する第 2合成手段 (5 2 ) と、 前記合成 された動き補償予測画像情報 (B X o ) と受信された予測誤差情報 (ε ' ) とを加算して復号化画像情報 (X ' ) を取得する第 2加算手段 ( 1 9 ) と、 前記第 2加算手段にて得られた画像情報を前記受信側前フレームの 画像情報として保持するための第 3の記憶手段 (5 1 ) とを備える。 互いに縦横半プロック分ずらした 2通りのプロック切り分けにて検出 された勁きべク トルの内、 精度の髙ぃ方を利用して動き補償予測画像を 作成する方法を適用した動画像処理装置は、 動画像のフレーム間符号化 のための動き補償に用いられる入力画像情報 (X ) を複数画素毎の第 1 ブロックに分け、 前フレームの情報から、 現フレームの中の着目第 1ブ 口ックと類似の画像情報を有する領域の位置を判定することにより、 前 記前フレームの情報に基づく入力画像情報の予測符号化のための第 1動 きベク トルを検出する第 1動きベク トル検出手段 (3 7 ) と、 前記入力 画像情報を、 前記第 1プロックを縦横方向に半ブロックずらした配置の 第 2ブロックに分け、 前フレームの情報から、 現フレームの中の着目第 2ブロックと類似の画像情報を有する領域の位置を判定することにより、 前記前フレームの情報に基づく入力画像情報の予測符号化のための第 2 動きべク トルを検出する第 2動きべク トル検出手段 (3 8 ) と、 前記検 出された第 1動きベク トルと第 2動きベク トルの内、 精度の高い方の動 きベク トルを選択する第 1選択手段 (3 1, 3 2) と、 選択された動き べク トルと前フレームの画像情報とを利用して当該選択された動きべク トルに係る動き補償予測画像情報 (BX o) を作成する第 1動き補償手 段 (3 3) と、 前記第 1動き補償手段にて作成された動き補償予測画像 情報と現フレームの対応画像情報とを減算して予測誤差情報 (ε ) を取 得する減算手段 ( 1 4) と、 を備えて構成することができる。 更に、 前 記現フレームの画像情報を保持するための第 1の記憶手段 (3) と、 前 記減算手段で生成された予測誤差情報 (f ) に、 前記第 1動き補償手段 で生成された動き補償予測画像情報 (BX o) を加算する第 1加算手段 (8) と、 前記加算手段にて得られた画像情報を前フレームの画像情報 として保持するための第 2の記慷手段 (5 0) とを備えることができる。 この動画像処理装置に対しても同じく符号化された情報を復号化する 構成を考慮した場合、 前記予測誤差情報、 第 1動きべク トル、 第 2動き べク トル、 及び前記第 1選択手段にて選択された動きべク トルを指定す るための制御情報 (g) を伝送する手段 ( 1 3, 1 4) と、 伝送線路 ( 1 5 ) 等を介して前記伝送する手段に結合された受信手段 ( 1 6, 1 7 ) と、 受信された第 1動きベク トル及び第 2動きベク トルの中から前 記制御情報で指定される動きべク トルを選択する第 2選択手段 ( 4 3 ) と、 前記第 2選択手段で選択された動きべク トルと受信側前フレームの 画像情報とを利用して動き補償予測画像情報を作成する第 2動き補償手 段 ( 4 4) と、 前記第 2動き補償丰段で形成された動き補償予測画像情 報と受信された予測誤差情報とを加算して復号化画像情報を取得する第 2加算手段 ( 1 9) と、 前記第 2加算手段にて得られた画像情報を受信 側前フレームの画像情報として保持するための第 3の記億手段 (5 1 ) と、 を更に備え動画像処理装置を構成することができる。 図面の簡単な説明 The moving image processing apparatus further includes a first storage unit (3) for holding the image information of the current frame, and a motion compensated prediction image information that is combined with the prediction error information generated by the subtraction unit. It is possible to have a first adding means (8) for adding, and a second storage means (50) for holding the image information obtained by the first adding means as image information of a previous frame. is there. In consideration of a configuration for decoding the information encoded by the above configuration, the video processing device includes the prediction error information (BX o) and the first and second motion vectors (VI, V 2) And means for transmitting (13, 14). And coupled to the transmission means via a transmission line (15) or the like, Means for receiving the prediction error information and the first and second motion vectors (16, 17); and motion compensation using the received first motion vector and image information of the previous frame on the receiving side. Third motion compensating means (39) for generating predicted image information, and fourth motion generating means for generating a motion-compensated predicted image information using the received second motion vector and the image information of the previous frame on the receiving side. A motion compensation stage (40), and combining the motion compensated prediction image information created by the third motion compensation means with the motion compensated prediction image information created by the fourth motion compensation stage. Second combining means (52) for creating the motion-compensated predicted image information, and decoding by adding the synthesized motion-compensated predicted image information (BX o) and the received prediction error information (ε '). Second addition means (19) for acquiring image information (X '); and Image information and a third storage means (5 1) for holding an image data of the receiving front frame. A moving image processing apparatus that applies a method of creating a motion-compensated predicted image using the accuracy method among the two types of blocks detected by two types of block separation shifted vertically and horizontally by half blocks. The input image information (X) used for motion compensation for inter-frame coding of a moving image is divided into first blocks of a plurality of pixels, and the information of the previous frame is used to extract the first block of interest in the current frame. Motion vector detection for detecting the first motion vector for predictive encoding of input image information based on the information of the previous frame by determining the position of an area having image information similar to that of the previous frame. Means (37), the input image information is divided into a second block in which the first block is displaced by half a block in the vertical and horizontal directions, and the information of the previous frame is similar to the second block of interest in the current frame. Image of A second motion vector detecting means for detecting a second motion vector for predictive encoding of input image information based on the information of the previous frame by determining a position of an area having information; And the more accurate one of the detected first motion vector and second motion vector. First compensation means (31, 32) for selecting a motion vector, and motion compensation prediction for the selected motion vector using the selected motion vector and the image information of the previous frame. A first motion compensation means (33) for generating image information (BXo); and a prediction by subtracting the motion-compensated prediction image information generated by the first motion compensation means and the corresponding image information of the current frame. And subtraction means (14) for obtaining error information (ε). Furthermore, the first storage means (3) for holding the image information of the current frame, and the prediction error information (f) generated by the subtraction means, First adding means (8) for adding motion-compensated predicted image information (BXo), and second convenient means (5) for holding the image information obtained by the adding means as image information of the previous frame. 0). Considering a configuration for decoding the encoded information for the moving image processing apparatus as well, the prediction error information, the first motion vector, the second motion vector, and the first selecting means Means (13, 14) for transmitting the control information (g) for designating the motion vector selected in step (1), and means for transmitting the information via a transmission line (15) or the like. Receiving means (16, 17) and a second selecting means (4) for selecting a motion vector specified by the control information from the received first motion vector and second motion vector. 3) and a second motion compensation means (44) for creating motion-compensated predicted image information using the motion vector selected by the second selection means and the image information of the previous frame on the receiving side; The motion-compensated predicted image information formed in the second motion compensation step and the received prediction error information are added. Second adding means (19) for obtaining decoded image information by calculating the third information, and a third storage means for holding the image information obtained by the second adding means as image information of the previous frame on the receiving side. The moving image processing apparatus can further comprise means (51) and (25). BRIEF DESCRIPTION OF THE FIGURES
第 1図は本発明の一実施例である T V電話システムにおける符号化系 予測処理部のブロック図である。  FIG. 1 is a block diagram of a coding system prediction processing unit in a TV telephone system according to one embodiment of the present invention.
第 2図は上記 T V電話システムにおける復号化系予測処理部のプロッ ク図である。  FIG. 2 is a block diagram of a decoding system prediction processing unit in the TV telephone system.
第 3図は上記 T V電話システムにおける画像通信系のブロック図であ る。  FIG. 3 is a block diagram of an image communication system in the TV telephone system.
第 4図は上記符号化系予測処理部の処理で使用される第 1及び第 2ブ ロックの説明図である。  FIG. 4 is an explanatory diagram of first and second blocks used in the processing of the encoding system prediction processing unit.
第 5図は動画像符号化における動き補償の基本的な原理説明図である。 第 6図は動き補償予測画像 C 1 ( X , Y ) に対する重み付け処理の説 明図である。  FIG. 5 is a diagram for explaining the basic principle of motion compensation in video coding. FIG. 6 is an explanatory diagram of the weighting process for the motion-compensated predicted image C 1 (X, Y).
第 7図は動き補償予測画像 C 2 ( X , Y ) に対する重み付け処理の説 明図である。  FIG. 7 is an explanatory diagram of the weighting process for the motion compensated prediction image C 2 (X, Y).
第 8図は本実施例装置における動きべク トル検出の単位とされるブロッ クのサイズと基準プロックのサイズとの一例説明図である。  FIG. 8 is an explanatory diagram of an example of a block size and a reference block size, which are units of motion vector detection in the present embodiment.
第 9図は本実施例装置における第 1プロックの切り分けについての説 明図である。  FIG. 9 is an explanatory diagram of separation of the first block in the device of the present embodiment.
第 1 0図は本実施例装置における第 2プロックの切り分けについての 説明図である。  FIG. 10 is an explanatory diagram of the separation of the second block in the apparatus of this embodiment.
第 1 1図は本実施例装置を利用した符号化処理の前半を示すフローチヤ 一トである。  FIG. 11 is a flowchart showing the first half of the encoding process using the apparatus of this embodiment.
第 1 2図は第 1 1図の処理に続く後半の符号化処理を示すフローチヤ ートである。  FIG. 12 is a flowchart showing the latter half of the encoding process following the process of FIG.
第 1 3図は本発明の他の実施例システムにおける符号化系予測処理部 のブロック図である。 第 1 4図は本発明の他の実施例システムにおける復号化系予測処理部 のブロック図である。 FIG. 13 is a block diagram of an encoding prediction processing section in a system according to another embodiment of the present invention. FIG. 14 is a block diagram of a decoding system prediction processing unit in a system according to another embodiment of the present invention.
第 1 5図は本発明の他の実施例システムを利用した符号化処理の前半 を示すフローチャートである。  FIG. 15 is a flowchart showing the first half of an encoding process using a system according to another embodiment of the present invention.
第 1 6図は第 1 5図の処理に続く後半の符号化処理を示すフローチヤ 一トである。 発明を実施するための最良の形態  FIG. 16 is a flowchart showing the latter half of the encoding process following the process of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
本発明をより詳細に説明するために、 添付の図面に従ってこれを説明 する。  In order to explain the present invention in more detail, this will be described with reference to the accompanying drawings.
ここで先ず、 本発明の理解を容易にするために、 動きベク トル検出 方式の基本原理について説明する。  Here, first, in order to facilitate understanding of the present invention, the basic principle of the motion vector detection method will be described.
第 5図に示されるように、 今、 第 mフレームの画像 2 1を符号化対象 フレームとして、 NX N画素から成る各ブロック 2 3の左上端の画素位 置 (N k, N 1 ) における画素値を Cm (Nk, N l ) とする。 ここで、 位置を ( i, j ) だけずらした前フレーム (第 m- 1フレーム) 2 2に おけるブロック 2 4と現フレーム (第 mフレーム) との差分の絶対値和 S , iを次式のように計算する。  As shown in FIG. 5, a pixel at the pixel position (N k, N 1) at the upper left corner of each block 23 composed of NX N pixels is now assumed that the image 21 of the m-th frame is the encoding target frame. Let the value be Cm (Nk, Nl). Here, the sum of absolute values S, i of the difference between the block 24 in the previous frame (the (m-1) th frame) 22 whose position is shifted by (i, j) and the current frame (the mth frame) is expressed by the following equation. Calculate as follows.
N-l N-1 N-l N-1
S i j =∑ ∑ I Cm(N k + p,N l + q )  S i j = ∑ ∑ I Cm (N k + p, N l + q)
P=° q=° - Cm- l (N k + p + i ,N l + q +) I そして ( i, j ) を種々変えて、 例えば 0〜土 I、 0〜± Jまで変え て、 S uを計算し、 その最小値 S に を求める。 求められた最小値 S 厂 に対応される ( i ' , j ' ) カ 、 そのときの動きべク トルとさ れる。 P = ° q = °-Cm- l (N k + p + i, N l + q +) I And variously change (i, j), for example, change from 0 to Sat I, 0 to ± J, Calculate S u and find the minimum value S. The (i ', j') power corresponding to the found minimum value S-factory is taken as the motion vector at that time.
動き補償予測符号化は、 現フレームのブロックの画素値 Cm (N k + p, N I + p ) に対する予測値として、 前フレームの ( , j ' ) だけずらされたブロックの画素値 Cm- 1 (Nk + p— , N 1 + p - j ' ) を用いて、 予測符号化を行う。 この予測値から構成される画像 が動き補償予測画像とされる。 符号化出力データは、 1ブロックに対し て、 前記動きベク トル値 ' , j ' ) と、 NXN個の予測誤差値 (現 フレームに係る値と前記予測値との差分値) をそれぞれ符号化したもの である。 Motion-compensated predictive coding calculates the pixel value Cm (N k + p, NI + p), using the pixel value Cm-1 (Nk + p-, N 1 + p-j ') of the block shifted by (, j') in the previous frame as the prediction value Perform encoding. An image composed of the predicted values is a motion-compensated predicted image. The encoded output data is obtained by encoding the motion vector values ', j') and NXN prediction error values (difference value between the value relating to the current frame and the prediction value) for one block. Things.
上記した基本的な原理に対して、 本発明に係る動きべクトル検出では、 フレーム若しくは特定の画像領域に対して、 第 4図 (A) , (B) に示 されるように、 大きさが互いに等しく、 分割位置の異なる第 1ブロック と、 第 2ブロックを用意し、 それぞれのブロックについて個別的に動き べク トルを求めるようにする。 第 4図 (B) に示される第 2ブロックの 切り分けは、 第 4図 (A) に示されるブロック切り分けに対して、 縱方 向、 及び横方向にそれぞれ半ブロック分ずれている。  In contrast to the basic principle described above, the motion vector detection according to the present invention, as shown in FIGS. 4 (A) and 4 (B), shows the size of a frame or a specific image area. The first block and the second block, which are equal to each other and have different division positions, are prepared, and the motion vector is individually obtained for each block. The division of the second block shown in FIG. 4 (B) is shifted from the block division shown in FIG. 4 (A) by half a block in each of the vertical and horizontal directions.
第 1及び第 2ブロックのサイズが夫々 N X N画素とすると、 第 1, 第 2ブロックの位置を互いに縦横に NZ 2だけずらして、 第 1ブロックに 対する勦きべク トルと第 2ブロックに対する動きべク トルとを検出する と、 大きさ (NZ2) (N/ 2) の一段階小さな領域毎に、 2種類の 動きべク トルが得られることになる。 2通りのブロック切り分けで得ら れた動きベク トルを基に作成した動き補償予測画像情報 (単に予測値と も記す) を互いに合せ込むことにより、 最終的な予測値を得る。 したがつ て、 前記一段階小さなサイズのブロック単位で動きべク トルを検出する 場合と同等の高い精度若しくは同等の小さな予測誤差をもって、 最終的 な予測値を得ることができる。  Assuming that the sizes of the first and second blocks are NXN pixels, respectively, the positions of the first and second blocks are shifted vertically and horizontally by NZ2, and the kill vector for the first block and the motion vector for the second block are shifted. When a vector is detected, two types of motion vectors are obtained for each one-step smaller area of size (NZ2) (N / 2). The final predicted value is obtained by combining motion-compensated predicted image information (also simply referred to as predicted value) created based on the motion vector obtained by the two types of block segmentation. Therefore, a final predicted value can be obtained with the same high precision or the same small prediction error as in the case where the motion vector is detected in units of one-step smaller size blocks.
このとき、 必要な動きベク トルの情報量 (動きベク トルの数) という 点においては、 前記一段階小さなサイズのブロック単位で動きべク トル を検出する場合に比べて、 動きべク トルの数が大凡半減される。 例えば、 1 フレームについて、 縦に K個、 横に L個のブロック切り分けを行って いる場合を基準にすると、 単純にブロックサイズをその 1 2にして動 きベク トルを検出する場合における動きベク トルの数は、 2 K X 2 L = 4 K Lとされる。 これに対して、 本発明のように、 ブロックサイズは変 更することなく、 半ブロック分ずらして 2通りのブロック切り分けを行つ て動きべク トルを検出する場合には、 動きべク トルの数は、 At this time, in terms of the amount of information of the required motion vector (the number of motion vectors), the motion vector is set in units of blocks each having the smaller size by one step. The number of motion vectors is almost halved compared to the case of detecting. For example, based on the case where one frame is divided into K blocks vertically and L blocks horizontally, the motion vector when the motion vector is detected by simply setting the block size to 12 is used. Is 2 KX 2 L = 4 KL. On the other hand, as in the present invention, when the motion vector is detected by performing two types of block separation with a shift of half a block without changing the block size, the motion vector is not changed. The number is
K X L + ( K + 1 ) X ( L + 1 ) = 2 K L + K + L + 1 K X L + (K + 1) X (L + 1) = 2 K L + K + L + 1
となり、 動きべク トルの数を 1 2程度にまで低減することができる。 したがって、 動き補償予測符号化において、 伝送される情報若しくは符 号化によって圧縮された情報には動きべク トルを舍まなければならない ことを考慮すれば、 伝送情報量の低減、 そして動画像圧縮率の向上を達 成することができる。 Thus, the number of motion vectors can be reduced to about 12. Therefore, in consideration of the fact that in the motion compensation predictive coding, the information to be transmitted or the information compressed by the encoding must include a motion vector, the amount of transmitted information can be reduced, and the moving image compression can be reduced. Rate improvement can be achieved.
また、 動きベク トルを基に作成される動き補償予測画像は、 一般的に、 ブロック端での隣接プロックとの間で動き補償予測画像の整合不良によ るブロック歪みを生ずることになる。 このとき、 第 1ブロックと第 2ブ 口ックの切り分けは夫々縦横半プロックサイズ位相のずれたものである ため、 上記ブロック歪みも半ブロックサイズ位相がずれたところに、 そ れぞれ発生することになる。 この特徴に着目し、 第 1ブロックと第 2ブ ロックのそれぞれのブロック端に対応される予測値の重みを減ずるよう な重み付け処理を行う。 これによつて、 上記ブロック歪みを蛏減するこ とができる。  In addition, a motion-compensated predicted image created based on a motion vector generally causes block distortion due to poor matching of the motion-compensated predicted image with an adjacent block at a block end. At this time, since the first block and the second block are separated from each other in the vertical and horizontal half block size phases, the above-described block distortion also occurs when the half block size phase is shifted. Will be. Focusing on this feature, weighting processing is performed to reduce the weight of the predicted value corresponding to each block end of the first block and the second block. Thereby, the block distortion can be reduced.
また、 前述のように、 第 1, 第 2ブロックの位置を互いに縦横に 2だけずらして、 第 1プロックに対する動きべク トルと第 2プロックに 対する動きベク トルとを検出すると、 大きさ (N Z 2 ) X ( N / 2 ) の 一段階小さな領域毎に、 2種類の動きべク トルが得られることになるの で、 ブロック毎に、 前記絶対値和 S i iの最小値 S j · によって得ら れる 2種類の動きべク トルのうち、 最小値 S j ' の小さい方の動きべ ク トル (相対的に精度の高い動きベク トル) を選択して、 これを動き補 償予測画像の作成に用いることにより、 予測誤差を小きくできるので、 精度の髙ぃ画像を復号化することが可能になる。 Also, as described above, the positions of the first and second blocks are shifted vertically and horizontally by two to detect the motion vector for the first block and the motion vector for the second block. 2) Two types of motion vectors can be obtained for each smaller area of X (N / 2). In each block, of the two types of motion vectors obtained by the minimum value S j · of the sum of absolute values S ii, the motion vector having the smaller minimum value S j ′ (relative accuracy By selecting a motion vector with a high degree of motion and using it to create a motion-compensated prediction image, the prediction error can be reduced, so that it is possible to decode an accurate 髙 ぃ image.
以下、 上述の原理的な説明に対応される実施例について説明する。 第 3図には、 本発明にかかる動画像処理装置の一実施例である T V電 話システムにおける動画像通信装置が示される。  Hereinafter, an embodiment corresponding to the above-described principle will be described. FIG. 3 shows a moving image communication device in a TV telephone system which is an embodiment of the moving image processing device according to the present invention.
この動画像通信装置は、 動画像データを送信するための送信装置 S E Nと、 通信回線 1 5によって上記送信装置 S E Nと結合され、 上記送信 装置 S E Nから送信された動画像データを受信するための受信装置 R E Cとを舍む。 通信回線 1 5は、 特に制限されないが、 I S D Nとされる。 上記送信装置 S E Nは、 例えば次のように構成される。 動画像を入力 するための T Vカメラなどの受像部 1が設けられ、 その後段に、 受像部 1からの動画像データをディジタル信号に変換するための A Z D (アナ ログ ディジタル) 変換器 2が設けられている。 この A Z D変換器 2の 後段には、 上記 A Z D変換器 2からのディジタル信号を記憧するための フレームメモリ 3が設けられている。 このフレームメモリ 3は、 少なく ても画像 1 フレーム分の記憶容量を有し、 符号化すべき現フレームが記 憶される。 このフレームメモリ 3の後段には、 フレーム間予測符号化処 理を行うための符号化系予測処理部 2 6 (詳細は後述する) が設けられ る。 また、 上記フレームメモリ 3から出力される画像情報 Xと、 上記符 号化系予測処理部 2 6から出力される予測値 B X oとの減算処理により 予測誤差 f を求めるための減算器 4が設けられ、 さらに、 この減算器 4 から出力される予測誤差 ε と、 上記フレームメモリ 3からの画像情報 X とを選択的に、 後段の量子化部 6に伝達するためのスィツチ 5が設けら れている。 The moving image communication device includes a transmitting device SEN for transmitting moving image data, a receiving device for receiving the moving image data transmitted from the transmitting device SEN, which is coupled to the transmitting device SEN by a communication line 15. The equipment REC is established. The communication line 15 is ISDN, though not particularly limited. The transmission device SEN is configured as follows, for example. An image receiving unit 1 such as a TV camera for inputting a moving image is provided, and an AZD (analog digital) converter 2 for converting the moving image data from the image receiving unit 1 into a digital signal is provided at a subsequent stage. ing. At the subsequent stage of the AZD converter 2, a frame memory 3 for storing digital signals from the AZD converter 2 is provided. The frame memory 3 has a storage capacity of at least one frame of an image, and stores a current frame to be encoded. At the subsequent stage of the frame memory 3, an encoding prediction processing unit 26 (to be described in detail later) for performing inter-frame prediction encoding processing is provided. Further, a subtracter 4 for obtaining a prediction error f by subtracting the image information X output from the frame memory 3 and the predicted value BXo output from the coding prediction processing unit 26 is provided. Further, a switch 5 for selectively transmitting the prediction error ε output from the subtractor 4 and the image information X from the frame memory 3 to the subsequent quantization section 6 is provided. Have been.
量子化部 6では、 上記スィツチ 5によって画像情報 Xが選択された場 合には画像情報 Xの量子化が行われ、 上記スィツチ 5によって予測誤差 εが選択された場合には、 予測誤差 εの量子化が行われる。 量子化部 6 から出力される量子化値は qで示される。 この量子化部 6の後段には、 量子化値 qの逆量子化を行うための逆量子化部 7が設けられている。 逆 量子化部 7は、 画像信号 Xに対しては復号画像信号 X ' を出力し、 また、 予測誤差 £ に対しては予測誤差 f ' を出力する。 上記符号化系予測処理 部 2 6から出力される予測値 B X oを選択するためのスィツチ 2 5が設 けられ、 この予測値 B X o (フレーム間予測符号化時) 又は 0値 (フレ ーム内符号化時) と逆量子化部 7の出力とを加算するための加算器 8が 設けられる。 フレーム間予測符号化を用いるか、 フレーム内符号化を用 いるかを制御するための符号化制御部 1 2が設けられ、 この符号化制御 部 1 2から出力される符号化制御信号 pによって、 上記スィ ッチ 5, 2 5の動作が制御されるようになっている。 つまり、 符号化制御部 1 2に よってフレーム間予測化が選択される場合、 符号化制御信号 pがハイレ ベルとされて、 スィッチ 5により予測誤差 εが選択的に量子化部 6に伝 達される。 また、 このときスィッチ 2 5を介して予測値 Β Χ οが加算器 8に伝達され、 上記逆量子化部 7からの出力値である予測誤差 f ' との 加算処理が行われる。 その加算結果は復号画像情報 X ' とされ、 前記符 号化系予測処理部 2 6に入力されるようになっている。 符号化系予測処 理部 2 6からは、 動きベク トル V I, V 2が求められ、 それらが、 上記 符号化制御部 1 2からの符号化制御信号 pや、 上 己量子化部 6からの量 子化値 qとともに、 後段の信号多重部 1 3で多重化された後に、 後段の 送信部 1 4を介して通信回線 1 5に送信されるようになっている。 尚、 制御信号 qによってフレーム内符号化が指定される場合 (q =ローレべ ル) 、 スィッチ 5により画像情報 Xが量子化部 6に与えられ、 スィッチ 2 5からは 0値が加算器 8に供給され、 加算器 8の出力は逆量子化部 Ί の出力である復号画像情報 X ' とされ、 それらが符号化系予測処理部 2 6に供給される。 符号化系予測処理部 2 6に供給される復号画像情報 X ' は、 後の処理で、 送信側における前フレームの情報として取り扱われる。 前記受信装置 R E Cは例えば次のように構成される。 通信回線 1 5を 介して入力される動画像データを取込むための受信部 1 6が設けられ、 この受信部 1 6によって受信された動画像データが、 後段の信号分 «I部 1 7に伝達されるようになっている。 信号分離部 1 7は、 上記送信部 S E Nにおける信号多重部 1 3に対応して設けられたもので、 上記受信部 1 6から伝達された動画像データから、 量子化値 q、 動きベク トル V I, V 2、 及び符号化制御信号 pを分離する。 信号分離部 1 7の後段には、 逆量子化部 1 8が配置され、 信号分離部 1 7から伝達された量子化値 q の逆量子化により、 予測誤差 (フレーム閒予測符号化時) 、 あるい は復号画像情報 X ' (フレーム内符号化時) が得られる。 In the quantization unit 6, when the image information X is selected by the switch 5, the quantization of the image information X is performed, and when the prediction error ε is selected by the switch 5, the prediction error ε is calculated. Quantization is performed. The quantization value output from the quantization unit 6 is denoted by q. At the subsequent stage of the quantization unit 6, an inverse quantization unit 7 for performing inverse quantization of the quantization value q is provided. The inverse quantization unit 7 outputs a decoded image signal X ′ for the image signal X, and outputs a prediction error f ′ for the prediction error £. A switch 25 for selecting a predicted value BXo output from the encoding system prediction processing unit 26 is provided, and the predicted value BXo (at the time of inter-frame predictive encoding) or 0 value (frame) is provided. An adder 8 is provided for adding the output of the inverse quantization unit 7 and the output of the inverse quantization unit 7. An encoding control unit 12 for controlling whether to use inter-frame predictive encoding or intra-frame encoding is provided, and the encoding control signal p output from the encoding control unit 12 provides The operation of switches 5 and 25 is controlled. That is, when inter-frame prediction is selected by the coding control unit 12, the coding control signal p is set to the high level, and the prediction error ε is selectively transmitted to the quantization unit 6 by the switch 5. You. Further, at this time, the predicted value Β ο ο is transmitted to the adder 8 via the switch 25, and is added to the prediction error f ′ which is the output value from the inverse quantization unit 7. The result of the addition is used as decoded image information X ′, which is input to the encoding prediction processing unit 26. The motion vectors VI and V 2 are obtained from the coding prediction processing unit 26, and these are used as the coding control signal p from the coding control unit 12 and the motion vector VI and V 2 from the self quantization unit 6. After being multiplexed together with the quantized value q by the signal multiplexing unit 13 at the subsequent stage, it is transmitted to the communication line 15 via the transmission unit 14 at the subsequent stage. In addition, when the intra-frame encoding is specified by the control signal q (q = low level ), The image information X is given to the quantization unit 6 by the switch 5, the 0 value is supplied from the switch 25 to the adder 8, and the output of the adder 8 is the decoded image which is the output of the inverse quantization unit Ί. Information X ′ is supplied to the encoding system prediction processing unit 26. The decoded image information X ′ supplied to the encoding system prediction processing unit 26 is handled as information of a previous frame on the transmission side in a later process. The receiving device REC is configured as follows, for example. A receiving unit 16 for capturing moving image data input via the communication line 15 is provided, and the moving image data received by the receiving unit 16 is transmitted to a subsequent signal unit I 17. To be transmitted. The signal separating section 17 is provided corresponding to the signal multiplexing section 13 in the transmitting section SEN. The moving image data transmitted from the receiving section 16 has a quantization value q and a motion vector VI. , V 2, and the coding control signal p. At the subsequent stage of the signal separation unit 17, an inverse quantization unit 18 is arranged. By inverse quantization of the quantization value q transmitted from the signal separation unit 17, a prediction error (at the time of frame 閒 prediction encoding), Alternatively, decoded image information X '(at the time of intra-frame encoding) is obtained.
また、 上記信号分離部 1 7からの動きベクトル V 1 , V 2に基づいて、 動き補償のための予測値 Β Χ οを得るための復号化系予測処理部 2 7や、 上記信号分離部 1 7からの符号化制御信号 ρによって動作制御されるス イッチ 2 2が設けられ、 このスィッチ 2 2により、 上記復号化系予測処 理部 2 7からの予測値 Β Χ ο (フレーム間予測符号化時) 又は 0値 (フ レーム内符号化時) が選択的に加算器 1 9に伝達されるようになってい る。 この加算器 1 9は、 フレーム間予測符号化時には、 上記逆量子化部 1 8から伝達された予測誤差 f ' と復号化系予測処理部 2 7から伝達さ れた予測値 B X ο ·との加算処理を行い、 フレーム内符号化時には、 復号 画像信号 X, と 0値との加算処理を行う。 加算器 1 9から出力された復 号画像情報 X ' は復号化系予測処理回路 2 7に供給される。 当該復号化 系予測処理部 2 7に供給される復号画像情報 X ' は、 後の処理で、 受信 側における前フレームの情報として取り扱われる。 Also, based on the motion vectors V 1 and V 2 from the signal separation unit 17, a decoding system prediction processing unit 27 for obtaining a prediction value 動 き Χ ο for motion compensation, the signal separation unit 1 A switch 22 whose operation is controlled by an encoding control signal ρ from the decoding control signal ρ from the decoding system prediction processing unit 27. ) Or 0 value (in intra-frame encoding) is selectively transmitted to the adder 19. During the inter-frame prediction encoding, the adder 19 calculates the prediction error f ′ transmitted from the inverse quantization unit 18 and the prediction value BX ο transmitted from the decoding prediction processing unit 27. Addition processing is performed, and at the time of intra-frame encoding, addition processing of the decoded image signal X, and the 0 value is performed. The decoded image information X ′ output from the adder 19 is supplied to a decoding prediction processing circuit 27. The decryption The decoded image information X ′ supplied to the system prediction processing unit 27 is handled as information of the previous frame on the receiving side in a later process.
さらに、 上記加算器 1 9の後段には、 上記加算器 1 9の出力信号をァ ナログ信号に変換するための A Z D変換器 2 3が設けられ、 その変換出 力が、 後段の T Vモニタ 2 4に表示されるようになっている。  Further, an AZD converter 23 for converting the output signal of the adder 19 into an analog signal is provided at a stage subsequent to the adder 19, and the converted output is provided to a TV monitor 24 at the subsequent stage. Is displayed.
第 1図には上記符号化系予測処理部 2 6の詳細な構成例が示される。 同図に示される内容は、 特にフレーム間予測符号化に着目したものであ る。  FIG. 1 shows a detailed configuration example of the coding system prediction processing unit 26. The content shown in the figure focuses on inter-frame predictive coding.
第 1図に示されるように、 符号化系予測処理部 2 6は、 特に制限され ないが、 フレームメモリ 5 0、 動きベク トル検出部 3 7, 3 8、 動き補 償部 9, 1 0、 及び合成部 1 1 を含んで成る。  As shown in FIG. 1, although the coding system prediction processing unit 26 is not particularly limited, the frame memory 50, the motion vector detection units 37, 38, the motion compensation units 9, 10, And a combining unit 11.
フレームメモリ 5 0には、 前記加算器 8から出力された復号画像情報 X, が格納される。 この復号画像情報 X ' は、 後の処理で、 前フレーム の画像情報として取扱われる。 このフレームメモリ 5 0の記憶データは、 動きベク トル検出部 3 7, 3 8、 及び動き補償部 9, 1 0に伝達可能と される。 動きべク トル検出部 3 7は、 第 4図 (A ) に示される第 1プロッ クを用いて、 入力画像情報 Xとフレームメモリ 5 0内の前フレームの画 像情報とを比較して入力画像のプロック毎の動きべク トル V 1の検出を 行う。 動きべク トル検出部 3 8は、 第 4図 (B ) に示される第 2ブロッ クを用いて、 入力画像情報 Xとフレームメモリ 5 0内の前フレームの画 像情報とを比較して入力画像のブロック毎の動きべク トル V 2の検出を 行う。 動き補償部 9は、 検出された動きべク トル V 1によって、 フレー ムメモリ 5 0から供給される前フレームの位置を動かして予測値 B X 1 を発生させる。 動き補償部 1 0は、 検出された動きべク トル V 2によつ て、 フレームメモリ 5 0から供給される前フレームの位置を動かして予 測値 B X 2を発生させる。 合成部 1 1では、 特に制限されないが、 上記 動き補償部 9, 1 0から出力される予測値 B X 1と予測値 B X 2に対し てそれぞれ三角関数を利用した重み付け処理 (詳細は後述する) を施し た後に、 それらを合成することによって、 最終的な予測値 B X oを得る。 この予測値 B X oは、 第 3図に示される前記滅算器 4ゃスィツチ 2 5に 伝達される。 The frame memory 50 stores the decoded image information X, output from the adder 8. This decoded image information X ′ is handled as image information of the previous frame in a later process. The data stored in the frame memory 50 can be transmitted to the motion vector detection units 37 and 38 and the motion compensation units 9 and 10. The motion vector detector 37 compares the input image information X with the image information of the previous frame in the frame memory 50 using the first block shown in FIG. The motion vector V1 is detected for each block of the image. The motion vector detector 38 compares the input image information X with the image information of the previous frame in the frame memory 50 using the second block shown in FIG. The motion vector V2 is detected for each block of the image. The motion compensating unit 9 generates a predicted value BX 1 by moving the position of the previous frame supplied from the frame memory 50 by using the detected motion vector V 1. The motion compensating unit 10 generates the predicted value BX2 by moving the position of the previous frame supplied from the frame memory 50 using the detected motion vector V2. In the synthesizing unit 11, although not particularly limited, After performing weighting processing using a trigonometric function on each of the predicted values BX1 and BX2 output from the motion compensation units 9 and 10 (details will be described later), the final values are synthesized by combining them. The predicted value BX o. The predicted value BXo is transmitted to the above-mentioned subtractor 4 switch 25 shown in FIG.
第 2図には、 上記復号化系予測処理部 2 7の詳細な構成例が示される。 同図に示される内容は、 特にフレーム間予測符号化に着目したものであ る。  FIG. 2 shows a detailed configuration example of the decoding system prediction processing unit 27. The content shown in the figure focuses on inter-frame predictive coding.
第 2図に示されるように、 復号化系予測処理部 2 7は、 特に制限され ないが、 フレームメモリ 5 1、 動き補償部 3 9, 4 0、 及び合成部 5 2 を含んで成る。  As shown in FIG. 2, the decoding system prediction processing unit 27 includes, but is not limited to, a frame memory 51, motion compensation units 39 and 40, and a synthesis unit 52.
フレームメモリ 5 1 には、 前記加算器 1 9から出力される復号画像情 報 X ' が格納される。 フレームメモリ 5 1 に格納された復号画像情報 X ' は、 受信側において前フレームの画像情報として取り扱われる。 このフ レームメモリ 5 1の記傢データは、 勐き補償部 3 9, 4 0に伝達可能と される。 動き補償部 3 9は、 信号分離部 1 7から伝達された動きべク ト ル V I によって、 フレームメモリ 5 1から供給される前フレームの位置 を動かして予測値 B X 1を発生させる。 動き補償部 4 0は、 信号分離部 1 7から伝達された動きべク トル V 2によって、 フレームメモリ 5 1か ら供給される前フレームの位置を動かして予測値 B X 2を発生させる。 合成部 5 2では、 上記動き補償部 3 9, 4 0からの予測値 B X 1 と予測 値 B X 2に対してそれぞれ所定の重み付け処理を施した後に、 それらを 合成することによって、 最終的な予測値 B X oを得る。 この予測値 B X 0は、 第 3図に示される前記スィッチ 2 2に伝達される。 つまり、 復号 化系予測処理部 2 7では、 上記した符号化系予測処理部 2 6における動 き補償部 9 , 1 0、 及び合成部 1 1による一連の処理と同様の処理が行 われ、 それによつて受信画像の復号化のための処理が行われるようになつ ている。 The decoded image information X ′ output from the adder 19 is stored in the frame memory 51. The decoded image information X ′ stored in the frame memory 51 is handled as the image information of the previous frame on the receiving side. The data stored in the frame memory 51 can be transmitted to the free compensators 39 and 40. The motion compensator 39 moves the position of the previous frame supplied from the frame memory 51 by the motion vector VI transmitted from the signal separator 17 to generate a predicted value BX1. The motion compensator 40 moves the position of the previous frame supplied from the frame memory 51 by using the motion vector V2 transmitted from the signal separator 17, and generates a predicted value BX2. The combining unit 52 performs a predetermined weighting process on the predicted value BX1 and the predicted value BX2 from the motion compensation units 39 and 40, and then combines them to obtain the final predicted value. Get the value BX o. The predicted value BX0 is transmitted to the switch 22 shown in FIG. That is, the decoding system prediction processing unit 27 performs the same processing as the series of processing by the motion compensation units 9 and 10 and the synthesis unit 11 in the coding system prediction processing unit 26 described above. Accordingly, processing for decoding the received image is performed.
次に、 本実施例装置における符号化処理について詳細に説明する。 第 8図〜第 1 0図には前記 2通りのブロック切り分けの様子が示され ている。 前記動きベク トル検出部 3 7, 3 8での処理においては、 第 8 図に示されるように、 実線により切り分けられた 3 2 X 3 2画素のプロッ ク単位で動きべク トルの検出処理が行われ、 それ以外は、 1 6 X 1 6画 素のブロック (以下基準ブロックと称する) 単位で処理される。  Next, the encoding process in the present embodiment will be described in detail. FIGS. 8 to 10 show the above-described two types of block division. In the processing by the motion vector detection sections 37 and 38, as shown in FIG. 8, the detection processing of the motion vector is performed in blocks of 32 × 32 pixels separated by a solid line. Otherwise, the processing is performed in units of 16 × 16 pixel blocks (hereinafter referred to as reference blocks).
第 9図に示される実線で切り分け他第 1のブロック (第 4図 (A ) に 対応) は、 動きベク トル検出部 3 7で使用される。 第 1 0図に示される 実線で切り分けられた第 2ブロック (第 4図 (B ) に対応) は、 動きべ ク トル検出部 3 8で使用される。 第 9図及び第 1 0図において、 基準ブ ロックを X ( p , q ) と表記し、 第 1ブロックを L I ( x, y ) と表記 し、 第 2ブロックを L 2 ( X , y ) と表記している。  The first block (corresponding to FIG. 4 (A)), which is cut off by the solid line shown in FIG. 9, is used by the motion vector detection unit 37. The second block (corresponding to FIG. 4 (B)) separated by a solid line shown in FIG. 10 is used by the motion vector detection unit 38. 9 and 10, the reference block is denoted by X (p, q), the first block is denoted by LI (x, y), and the second block is denoted by L 2 (X, y). Notation.
第 1 1図及び第 1 2図には、 本実施例装置を利用した複号化処理のフ ローチャートが示される。 尚、 第 1 1図に示される記号 # 1, # 2と第 1 2図に示された記号 # 1 , # 2とは、 対応する記号同士で処理が連綾 していることを示している。  11 and 12 show flow charts of the decoding process using the apparatus of the present embodiment. The symbols # 1 and # 2 shown in Fig. 11 and the symbols # 1 and # 2 shown in Fig. 12 indicate that the processing is repeated between the corresponding symbols. .
説明の便宜上、 画像のサイズを、 横が N個の基準ブロック、 縦が M個 の基準ブロックによって規定されるサイズ ( 1 6 N画素 X 1 6 M画素) とする。 第 1 1図及び第 1 2図に示されるフローチャートでは、 画像の 左上部から右下部へ横方向に、 基準プロック毎にスキャンをしながら処 理を行っていく。 尚、 以下の処理では 2による除算 ( 2 ) が行われる 力 その結果において小数点以下を切り捨てるものとする。  For convenience of explanation, the size of the image is assumed to be a size (16 N pixels X 16 M pixels) defined by N reference blocks in the horizontal direction and M reference blocks in the vertical direction. In the flowcharts shown in FIG. 11 and FIG. 12, the processing is performed while scanning for each reference block from the upper left to the lower right of the image in the horizontal direction. In the following processing, division by 2 (2) is performed.
先ず、 p == q = 0として (ステップ S 1 ) 、 画像の左上部から処理を 開始する。 ステップ S 2 A〜 S 5 Aまでの処理は、 第 1ブロックによる 動きベク トル検出に関する処理であり、 この処理は、 動きベク トル検出 部 3 7及び動き補償部 9によって行われる。 また、 ステップ S 2 B〜S 5 Bまでの処理は、 第 2ブロックによる動きべク トル検出に関する処理 であり、 この処理は、 動きべク トル検出部 38及び動き補償部 1 0によつ て行われる。 First, assuming that p == q = 0 (step S1), the processing is started from the upper left of the image. The processing of steps S2A to S5A depends on the first block. This is processing related to motion vector detection, and this processing is performed by the motion vector detection unit 37 and the motion compensation unit 9. The processing of steps S2B to S5B is processing related to motion vector detection by the second block, and this processing is performed by the motion vector detection unit 38 and the motion compensation unit 10. Done.
次に、 これから符号化されるべき基準プロックが第 1ブロック又は第 2ブロックの左上部に位置する基準プロックであるか否かの判定が行わ れる (ステップ S 2 A, S 2 B) 。 即ち、 動きべク トル検出部 3 7にお いて、 これから符号化されるべき基準ブロック X ( p , q ) について、 (p =偶数、 且つ、 q =偶数) が成立するか否かの判別が行われる (ス テツプ S 2 A) 。 0は偶数として扱う。 また、 動きべク トル検出部 3 8 においては、 これから符号化されるべき基準ブロック X ( p, q ) につ いて、 (p = 0、 且つ、 q = 0) 、 (p = 0、 且つ、 q =奇数) 、 (p =奇数、 且つ、 q = 0) 、 又は (p =奇数、 且つ、 q =奇数) のいずれ かが成立するか否かの判別が行われる (ステップ S 2 B) 。 Next, it is determined whether or not the reference block to be encoded is the reference block located at the upper left of the first block or the second block (steps S2A and S2B). That is, the motion vector detection unit 37 determines whether or not (p = even number and q = even number) holds for the reference block X (p, q) to be coded. (Step S2A). 0 is treated as an even number. In addition, the motion vector detection unit 38 calculates (p = 0, q = 0), (p = 0, and 0) for the reference block X (p, q) to be encoded from now on. It is determined whether any of the following holds: (q = odd number), (p = odd number and q = 0), or ( p = odd number and q = odd number) (step S2B).
上記ステップ S 2 Aの判別において、 y e s と判断された場合、 つま り、 (P=偶数、 且つ、 q =偶数) が成立する、 と判断された場合には、 それは、 これから符号化処理される基準ブロック X ( p , q ) 力 第 1 プロックの左上部に位置していることを意味する。 このことは第 9図か ら明らかである。 その場合には、 動きベク トル検出部 3 7により、 フレ ームメモリ 5 0がサーチされ、 第 1ブロック L I ( p / 2 , q / 2 ) の 動きべク トル V 1が求められ、 その検出結果が内部のレジスタにラッチ されて動き補償部 9に伝達されるとともに、 信号多重化のため信号多重 部 1 3に送出される (ステップ S 3 A, S 5 A) 。 動き補償部 9では、 fe送された動きベク トル V 1に基づいて、 フレームメモリ 5 0内の前フ レームから動き補償予測画像情報 BX 1が作成される (ステップ S 5 A) 。 この動き補償予測画像情報 BX 1は一つの基準プロックのサイズを有す る。 また、 上記ステップ S 2 Aの判別において、 n oと判断された場合、 つまり、 (p =偶数、 且つ、 q =偶数) が成立しない、 と判断された場 合には、 そのときの第 1プロックについて、 動きべク トル検出部 3 7内 めレジスタに現在ラッチされている動きベク トル V 1に基づいて、 基準 プロックサイズの動き補償予測画像情報 B X 1が作成される。 すなわち、 一つの第 1ブロックに対する動きべク トルの検出は、 当該第 1ブロック の左上部に位置する基準プロックの画像情報に基づいて行われ、 当該第 1プロックに舍まれる 4個の基準プロックに対するそれぞれの動き補償 予測画像情報は、 上記左上部に位置する基準ブロックに基づいて検出さ れた動きべク トルを用いて生成されることになる。 If it is determined in the above step S 2 A that the answer is yes, that is, if it is determined that (P = even number and q = even number) holds, it is coded from now on Reference block X (p, q) force Means that it is located at the upper left of the first block. This is clear from FIG. In this case, the motion vector detection unit 37 searches the frame memory 50, and the motion vector V1 of the first block LI (p / 2, q / 2) is obtained. The signal is latched by an internal register and transmitted to the motion compensator 9, and is also transmitted to the signal multiplexer 13 for signal multiplexing (steps S3A and S5A). The motion compensator 9 creates motion-compensated predicted image information BX1 from the previous frame in the frame memory 50 based on the motion vector V1 sent by fe (step S5A). This motion compensated prediction image information BX1 has the size of one reference block. If it is determined as no in the determination in step S 2 A, that is, if it is determined that (p = even number and q = even number) is not satisfied, the first block at that time is determined. , A motion-compensated predicted image information BX 1 of the reference block size is created based on the motion vector V 1 currently latched in the register in the motion vector detector 37. That is, the detection of the motion vector for one first block is performed based on the image information of the reference block located at the upper left of the first block, and the four reference blocks included in the first block are detected. The motion compensation prediction image information for each is generated using the motion vector detected based on the reference block located at the upper left corner.
上記ステップ S 2 Bの判別において、 y e s と判断された場合、 つま り、 (p = 0、 且つ、 q = 0) 、 (p = 0、 且つ、 q =奇数) 、 (p = 奇数、 且つ、 q = 0) 、 又は (p =奇数、 且つ、 q =奇数) のいずれか が成立する、 と判断された場合には、 それは、 これから符号化処理され る基準ブロック X ( p, q ) が、 第 2ブロックの左上部に位置している ことを意味する。 このことは第 1 0図から明らかである。 その場合には、 動きベク トル検出部 3 8により、 フレームメモリ 5 0がサーチされ、 第 2ブロックの動きベクトル V 2が作成される。 このとき、 (p =q = 0) が成立する場合には、 L 2 (0、 0) の動きベク トル V 2が検出され、 (p = 0、 且つ、 q =奇数) が成立する場合には、 L 2 (0、 q / 2 + 1 ) の動きべク トル V 2が検出され、 ( p =奇数、 且つ、 q = 0 ) が 成立する場合には、 L 2 (pノ 2+ 1、 0) の動きベク トル V 2が検出 され、 (p =奇数、 且つ、 q =奇数) が成立する場合には、 L 2 (p/ 2 + 1、 q / 2 + l ) の動きベク トル V 2が検出される。 そして、 その 検出結果が内部のレジスタにラッチされて動き補償部 1 0に伝達される とともに、 信号多重化のため信号多重部 1 3に送出される (ステップ S 4 B) 。 動き補償部 1 0では、 転送された動きベク トル V2に基づいて、 フレームメモリ 5 0内の前フレームから動き補償予測画像 BX 2が作成 される (ステップ S 5 B) 。 この動き補償予測画像情報 BX 2は一つの 基準ブロックのサイズを有する。 また、 上記ステップ S 2 Bの判別にお いて、 n oと判断された場合、 つまり、 (p = 0、 且つ、 q = 0) 、If it is determined to be yes in the determination in step S 2 B, that is, (p = 0 and q = 0), (p = 0 and q = odd), (p = odd and If it is determined that either of (q = 0) or (p = odd and q = odd) is satisfied, it means that the reference block X (p, q) to be coded is It means that it is located at the upper left of the second block. This is clear from FIG. In that case, the motion vector detection unit 38 searches the frame memory 50 to create a motion vector V2 of the second block. At this time, if (p = q = 0) holds, the motion vector V 2 of L 2 (0, 0) is detected, and if (p = 0 and q = odd number) holds, Is that if a motion vector V 2 of L 2 (0, q / 2 + 1) is detected and (p = odd and q = 0), then L 2 (p 2 + 1 , 0) is detected, and if (p = odd number and q = odd number) is satisfied, the motion vector of L 2 (p / 2 + 1, q / 2 + l) is obtained. V 2 is detected. Then, the detection result is latched in an internal register and transmitted to the motion compensation unit 10. At the same time, the signal is sent to the signal multiplexing unit 13 for signal multiplexing (step S4B). The motion compensation unit 10 creates a motion-compensated predicted image BX2 from the previous frame in the frame memory 50 based on the transferred motion vector V2 (step S5B). This motion compensated prediction image information BX2 has the size of one reference block. Further, when it is determined to be no in the determination in step S 2 B, that is, (p = 0 and q = 0),
(p = 0、 且つ、 q =奇数) 、 (p =奇数、 且つ、 q = 0) 、 又は (p =奇数、 且つ、 q =奇数) のいずれも成立しない、 と判断された場合に は、 そのときの第 2ブロックについて、 動きベク トル検出部 3 8内のレ ジスタに現在ラッチされている動きベク トル V 2に基づいて、 基準ブロッ クサイズの動き補償予測画像情報 BX 2が作成される。 すなわち、 一つ の第 2プロックに対する動きべク トルの検出は、 当該第 2ブロックの左 上部に位置する基準プロックの画像情報に基づいて行い、 当該第 2プロッ クに舍まれる 4個の基準プロックに対するそれぞれの動き補償予測画像 情報は、 上記左上部に位置する基準ブロックに基づいて検出された動き べク トルを用いて生成されることになる。 If it is determined that none of (p = 0 and q = odd), (p = odd and q = 0), or (p = odd and q = odd) is not satisfied, For the second block at that time, motion-compensated predicted image information BX2 of the reference block size is created based on the motion vector V2 currently latched in the register in the motion vector detection unit 38. That is, the detection of the motion vector for one second block is performed based on the image information of the reference block located at the upper left of the second block, and the four reference blocks included in the second block are detected. The respective motion-compensated prediction image information for the block is generated using the motion vector detected based on the reference block located at the upper left.
上記ステップ S 5 A, S 5 Bで作成された動き補償予測画像情報 BX 1 , BX 2は、 合成部 1 1に伝達され、 この合成部 1 1において、 動き 補償予測画像情報 BX 1, BX 2に対して、 第 6図及び第 7図に示され るような三角関数による重み付け処理が行われて合成されることにより、 動き補償予測画像情報 BX oが作成される (ステップ S 6) 。  The motion-compensated predicted image information BX 1 and BX 2 created in the above steps S 5 A and S 5 B are transmitted to the synthesizing unit 11, where the motion-compensated predicted image information BX 1 and BX 2 Then, a weighting process using a trigonometric function as shown in FIGS. 6 and 7 is performed and synthesized to create motion-compensated predicted image information BXo (step S6).
上記重み付けは、 プロック端画素の重みを滅ずるような処理とされる。 すなわち、 動きベク トルを基に作成される動き補償予測画像情報は、 一 般的に、 プロック端での隣接プロックとの間で動き補償予測画像の整合 不良によるブロック歪みを生ずることになる。 このとき、 第 1ブロック と第 2プロックの切り分けは夫々縦横半プロックサイズ位相のずれたも のであるため、 上記プロック歪みも半プロックサイズ位相がずれたとこ ろに、 それぞれ発生することになる。 この特徴に着目し、 第 1ブロック と第 2プロックのそれぞれのプロック端に対応される動き補償予測画像 情報 (予測値) の重みを減ずるような重み付け処理を行う。 ここでの重 み付けは、 第 1ブロックに関しては第 6図に示されるように縦方向と横 方向の成分を考慮して、 sin2 (πΧノ N) sin2 (π Y/N) とされ、 第 2プロックに関しては第 7図に示されるように縦方向と横方向の成分 を考慮して、 cos2 ( jr X/N) Xcos2 (π Y/N) とされる。 上記重み 付けの関数は、 基準ブロックの縦横が夫々周期 2とされる s i n2 と c o s 2の関数である。 前記三角関数を用いる理由は次の通りである。 第 6図と第 7図を見比べれば明らかなように、 第 1ブロック、 第 2ブロッ クのそれぞれにおいてプロック端ほど重みが滅じられ、 それら重み付け 処理が行われた第 1プロックと第 2プロックに関する予測値を合わせた (加算合成された) 状態に着目すれば、 第 1ブロックと第 2ブロックは、 上記重み付け関数における π / 2の位相のずれがあるから、 合成された 値は、 基準ブロックのサイズにおいて、 ブロック歪みが軽減されること になる。 例えば、 第 6図のハッチングを施した第 1ブロック L 1 ( X , y ) に着目すると、 上記重み付け関数にて当該ブロック端の値に対して その重みが滅じられている。 第 7図において上記第 1ブロック L 1 ( X , y ) の位置は波線で示された位置になる。 夫々の第 2ブロックについて も上記重み付け関数にてプロック端の値の重みが滅じられている。 した がって、 一つの基準ブロック X ( p , q ) に着目すれば、 当該基準ブロッ ク X ( p, q ) のブロック端でのブロック歪みが軽減されることになる。 そして、 そのような重み付け処理を経て台成された上記動き補償予測 画像情報 BX oは、 減算器 4に伝達される。 減算器 4は、 フレームメモ リ 3から出力される画像情報 Xと、 上記動き補償予測画像情報 (予測値) BX oとの滅算処理により予測誤差 εを抽出する (ステップ S 7) 。 減算器 4で予測誤差 εが抽出されると、 量子化部 6により予測誤差 ε が量子化され、 量子化値 qが信号多重部 1 3、 及び逆量子化部 7に送出 される (ステップ S 8) 。 そして、 逆量子化部 7において量子化値 qが 逆量子化され、 それが加算器 8で動き補償予測画像 BX oと加算される ことにより、 次の符号化処理に使用される復号画像情報 (参照フレーム とも記す) X, の作成が行われる (ステップ S 9) 。 この参照フレーム X, は、 フレームメモリ 5 0に格納される (ステップ S 1 0) 。 The weighting is performed so as to lose the weight of the block end pixel. That is, the motion-compensated predicted image information created based on the motion vector generally causes block distortion due to poor matching of the motion-compensated predicted image with an adjacent block at a block end. At this time, the first block and the second block are separated from each other by a vertical and horizontal half block size phase shift. Therefore, the above-described block distortion also occurs when the half-block size phase is shifted. Focusing on this feature, weighting processing is performed to reduce the weight of the motion-compensated predicted image information (predicted value) corresponding to each block end of the first block and the second block. The weight here is sin 2 (πΧN) sin 2 (π Y / N) for the first block, taking into account the vertical and horizontal components as shown in Fig. 6. The second block is cos 2 (jr X / N) Xcos 2 (π Y / N) in consideration of the vertical and horizontal components as shown in FIG. The weighting function is a function of sin 2 and cos 2 in which the vertical and horizontal directions of the reference block have a period of 2 respectively. The reason for using the trigonometric function is as follows. As is clear from comparison of Figs. 6 and 7, the weight of the first block and the second block decreases at the end of the block, and the weights of the first block and the second block are reduced. Paying attention to the state in which the predicted values for (the summation and synthesis) are combined, the first block and the second block have a phase shift of π / 2 in the above weighting function. In this size, the block distortion is reduced. For example, paying attention to the hatched first block L 1 (X, y) in FIG. 6, the weight of the block end value is lost by the weighting function. In FIG. 7, the position of the first block L 1 (X, y) is a position indicated by a broken line. For each of the second blocks as well, the weight of the value at the block end is eliminated by the weighting function. Therefore, focusing on one reference block X (p, q), the block distortion at the block end of the reference block X (p, q) is reduced. Then, the motion-compensated predicted image information BXo formed through such weighting processing is transmitted to the subtractor 4. The subtracter 4 calculates the image information X output from the frame memory 3 and the motion-compensated predicted image information (predicted value). The prediction error ε is extracted by subtraction processing with BX o (step S7). When the prediction error ε is extracted by the subtractor 4, the prediction error ε is quantized by the quantization unit 6 and the quantized value q is sent to the signal multiplexing unit 13 and the inverse quantization unit 7 (step S 8) Then, the quantized value q is inversely quantized by the inverse quantizer 7 and added to the motion compensated prediction image BXo by the adder 8, so that the decoded image information ( X and are created (Step S9). This reference frame X, is stored in the frame memory 50 (step S10).
上記の処理は、 動きベク トルの検出以外、 基準ブロック単位で行われ るため、 上記ステップ S 1 0の処理後に、 基準ブロックのアドレスが更 新され、 更新されたァドレスの基準ブロックについて上記ステップ S 2 A, S 2 B〜S 1 0の処理が行われる (ステップ S 1 1 ) 。 すなわち、 p <N— 1が成立するか否かの判別が行われ (ステップ S 1 1 1) 、 こ の判別において、 p <N— 1が成立する (y e s ) と判断された場合に は、 pがインクリメントされて (ステップ S 1 1 4) から、 再び上記ス テツプ S 2 A, S 2 Bの判別が行われる。 また、 上記ステップ S 1 1 1 の判別において、 pく N— 1が成立しない (n o) と判断された場合に は、 pの値を 0とした後に、 今度は q <M— 1が成立するか否かの判別 が行われる (ステップ S 1 1 2, S 1 1 3) 。 この判別において、 q < M— 1が成立する (y e s ) と判断された場合には、 qがインクリメン 卜されて (ステップ S 1 1 5 ) から、 再び上記ステップ S 2 A, S 2 B の判別が行われる。 上記ステップ S.1 1 3の判別において、 q <M— 1 が成立しない (n o) と判断された場合には、 符号化処理の対象とされ る複数の基準ブロックのうちの最後の基準ブロックについての処理が完 了されているから、 現フレームについての符号化処理が終了される。 次に、 コンピュータによるシミュレーション結果について説明する。 画像データは、 1 6 0 X 9 6画素のものを使用し、 ブロックサイズは 1 6 X 1 6画素、 動きべク トル検出の為のサーチ領域は一 1 5〜十 1 5 画素とした。 Since the above processing is performed in units of the reference block except for the detection of the motion vector, the address of the reference block is updated after the processing in step S10, and the step S10 is performed on the reference block of the updated address. The processing of 2A, S2B to S10 is performed (step S11). That is, it is determined whether or not p <N-1 is satisfied (step S111). If it is determined in this determination that p <N-1 is satisfied (yes), then After p is incremented (step S114), the above steps S2A and S2B are discriminated again. If it is determined in step S 1 1 1 that p−N−1 does not hold (no), the value of p is set to 0, and then q <M−1 holds. It is determined whether or not this is the case (steps S112, S113). In this determination, if it is determined that q <M—1 holds (yes), q is incremented (step S115), and the determination in steps S2A and S2B is performed again. Is performed. If it is determined that q <M—1 does not hold (no) in the determination in step S.113, the last reference block of the plurality of reference blocks to be encoded is processed. Since the processing of has been completed, the encoding processing for the current frame is terminated. Next, the results of simulation by a computer will be described. The image data used was 160 x 96 pixels, the block size was 16 x 16 pixels, and the search area for motion vector detection was 115 to 15 pixels.
第 4図 (A) 及び (B) に示される第 1ブロック、 及び第 2ブロック について、 それぞれ第 1動きベク トル、 及び第 2動きベク トルを検出す る。 この動きベク トルを基に、 それぞれの動き補償予測画像 C 1 (X, Y) , C 2 (X, Y) を作成する。 次に、 動き補償予測画像 C I (X, Y) , C 2 (X, Y) に対して、 第 6図、 及び第 7図に示されるような 三角関数による重み付け処理を施してから合成することによって、 最終 的な動き補償予測画像 C (X, Y) を求める。 この最終的な動き補償予 測画像 C (X, Y) は、 次式のように示される。  The first motion vector and the second motion vector are detected for the first block and the second block shown in FIGS. 4 (A) and (B), respectively. Based on these motion vectors, motion-compensated predicted images C 1 (X, Y) and C 2 (X, Y) are created. Next, the motion-compensated predicted images CI (X, Y) and C 2 (X, Y) are subjected to weighting processing using trigonometric functions as shown in Figs. 6 and 7, and then synthesized. To obtain the final motion-compensated predicted image C (X, Y). The final motion-compensated predicted image C (X, Y) is represented by the following equation.
C(X, Y)= C 1 (X, Y)xsin2( XZN)Xsin2( Υ Ν) C (X, Y) = C 1 (X, Y) xsin 2 (XZN) Xsin 2 (Υ Ν)
+ C 2(X, Y ) cos2( π X / N ) x cos2( π Y / N ) + C 2 (X, Y) cos 2 (π X / N) x cos 2 (π Y / N)
この最終的な動き予測画像 C (X, Y) を用いて予測を行い、 得られ た予測誤差を符号化する。 このようなシミ ュレーションにより、 動きべ ク トルの情報量低減とプロック歪みの低減が同時に得られることが確認 された。  Prediction is performed using this final motion prediction image C (X, Y), and the obtained prediction error is encoded. It has been confirmed that such a simulation can simultaneously reduce the amount of motion vector information and block distortion.
上記実施例によれば、 以下の作用効果を得ることができる。  According to the above embodiment, the following effects can be obtained.
〔 1〕 動きべク トル検出部 3 8は、 動きべク トル検出部 3 7での処理 とは別に、 第 1ブロックに対してフレームの縦横方向に半ブロック分ず れるように複数画素毎の第 2プロックに切り分け、 切り分けられたプロッ クのそれぞれについて動きベク トルを検出する。 このように、 互いに半 プロック分ずれるように 2系統のブロック切り分けを行い、 切り分けら れたブロックのそれぞれについて動きべク トルを取得して動き補償画像 情報を生成し、 それを合成することにより、 ブロックサイズを 1段階小 さくした場合とほぼ同等の精度をもって予測符号化処理を行うことがで きる。 更に、 前記一段階小さなサイズでブロック切り分けを行った場合 の 1 2程度まで、 動きべク トル情報量を低減することができる。 [1] The motion vector detection unit 38, apart from the processing in the motion vector detection unit 37, performs a multi-pixel process so that the first block is divided by half a block in the vertical and horizontal directions of the frame. The block is cut into the second block, and the motion vector is detected for each of the cut blocks. In this way, two systems of block segmentation are performed so as to be shifted from each other by half a block, a motion vector is obtained for each of the segmented blocks, motion-compensated image information is generated, and the motion-compensated image information is synthesized. Predictive coding can be performed with almost the same accuracy as when the block size is reduced by one level. Wear. Furthermore, the amount of motion vector information can be reduced to about 12 in the case where the block division is performed in the one-step smaller size.
〔 2〕 動きベク トル検出部 3 7の検出結果に基づき動き補償部に 9に て生成される動き補償予測画像と、 動きべク トル検出部 3 8の検出結果 に基づき動き補償部 1 0にて生成される動き補償予測画像とのそれぞれ に対し、 ブロック端画素の重みを減ずるような重み付け処理を行ってか らそれらを合成する合成部 1 1を採用するので、 ブロック歪みを低滅す ることができ、 動き補償予測画像の客観的評価を高めることができる。 それにより、 予測誤差のしきい値を高く設定することができるので、 動 画像通信装置において、 誤差信号の大幅な削滅が可能となる。  [2] The motion compensation prediction image generated by the motion compensation unit 9 based on the detection result of the motion vector detection unit 37 and the motion compensation unit 10 based on the detection result of the motion vector detection unit 38. The weighting process to reduce the weight of the block edge pixels is performed on each of the motion-compensated prediction images generated by the above, and the combining unit 11 that combines them is adopted. Therefore, the objective evaluation of the motion compensated prediction image can be enhanced. As a result, the threshold value of the prediction error can be set high, so that the error signal can be largely eliminated in the moving image communication device.
〔 3〕 上記の作用効果により、 勁きベク トル情報量の低滅や、 ブロッ ク歪みの低滅が達成されるので、 T V電話システムにおいて、 良好な動 画像伝達が可能とされる。  [3] Due to the above-mentioned effects, a reduction in the amount of vector information and a reduction in block distortion are achieved, so that a good video transmission can be achieved in a TV telephone system.
次に、 本発明の第 2の実施例について説明する。  Next, a second embodiment of the present invention will be described.
第 1 3図には、 第 3図に示される符号化系予測処理部 2 6の他の構成 例が示される。 同図において、 符号化予測処理部 2 6は、 第 1動きべク トル検出部 3 つ、 第 2動きべク トル検出部 3 8、 比較器 3 1 、 スィッチ 3 2、 動き補償部 3 3、 及びフレームメモリ 5 0を含んで構成される。 第 1動きべク トル検出部 3 7は、 第 4図 (A ) に示される第 1プロッ クを用いて入力画像情報 Xと、 フレームメモリ 5 0内の前フレームとを 比較して、 入力画像のブロックの動きべク トル V 1を得る機能を有する。 第 2動きべク トル検出部 3 8は、 第 4図 (B ) に示される第 2プロック を用いて入力画像情報 Xと、 フレームメモリ 5 0内の前フレームとを比 较して、 入力画像のプロックの動きべク トル V 2を得る機能を有する。 比較器 3 1は、 前記差分の絶対値和 S i j の最小値の比較を行う機能を 有する。 つまり、 動きべク トル検出部 3 7で得られる差分の絶対値和 S , 3 の最小値 ( S i j · と記す) と、 勒きべク トル検出部 3 8で得ら れる差分の絶対値和 S : jの最小値 (S 2 ' と記す) との比較を行 う。 この比较結果の情報 gは、 動きべク トル V 1, V 2 とともに、 信号 多重部 1 3で多重化され、 送信部 1 4を介して通信回線 1 5に送出され る。 また、 上記比较器 3 1の比较結果情報 gによって、 スィッチ 3 2の 動作が制御されるようになっている。 もし、 動きベク トル検出部 3 7で 得られる差分の絶対値和 S ! jの最小値 S 1 j ' のほうが、 動きべク トル検出部 3 8で得られる差分の絶対値和 S , jの最小値 S 2 よ りも小さい場合には、 スィッチ 3 2により、 動きベク トル検出部 3 7の 出力が選択されて、 後段の動き補償部 3 3に伝達される。 それに対して、 動きべク トル検出部 3 8で得られる差分の絶対値和 S i jの最小値 S 2 厂 のほう力 S、 動きベク トル検出部 3 7で得られる差分の絶対値和 S . Jの最小値 S 1 Γ よりも小さい場合には、 動きべク トル検出部 3 8の出力が選択されて、 後段の動き補償部 3 3に伝達される。 即ち、 精 度の高い方の動きべク トルが選択されて動き補償部 3 3に供給される。 動き補償部 3 3は、 上記スィツチ 3 2を介して伝達された動きべク トル に基づいて、 フレームメモリ 5 0に格納されている前フレームの位置を 動かして予測値 B X oを生成する機能を有する。 この予測値 B X oは、 第 3図に基づいて説明した前記スィツチ 2 5や減算器 4に伝達される。 第 1 4図には、 第 3図に示される復号化系予測処理部 2 7の他の構成 例が示される。 第 1 4図に示されるように、 信号分離部 1 7から伝達さ れた動きべク トル V 1をラツチするためのべク トルラッチ 4 1、 及び信 号分離部 1 7から伝達された動きべク トル V 2をラッチするためのべク トルラッチ 4 2が設けられ、 このベク トルラッチ 4 1 , 4 2の出力が、 後段のスィツチ 4 3を介して動き補償部 4 4に選択的に伝達されるよう になっている。 上記スィッチ 4 3は、 信号分離部 1 7から伝達された比 較結果情報 gによって動作制御されるようになっている。 つまり、 第 1 3図に示される比較器 3 1での比較結果に対応して、 動き補償部 4 4で の処理に用いられる動きべク トル V 1, V 2が選択されるようになつて いる。 上記動き補償部 4 4では、 伝達された動きベク トルによって、 フ レームメモリ 5 1からの前フレームを動かして予測値 B X oを生成する。 この予測値 B X oは、 前記スィツチ 2 2を介して加算器 1 9に伝達可能 とされる。 FIG. 13 shows another configuration example of the encoding system prediction processing unit 26 shown in FIG. In the figure, the coding prediction processing unit 26 includes three first motion vector detection units, a second motion vector detection unit 38, a comparator 31, a switch 32, a motion compensation unit 33, And a frame memory 50. The first motion vector detection unit 37 compares the input image information X with the previous frame in the frame memory 50 using the first block shown in FIG. It has a function to obtain the motion vector V1 of the block. The second motion vector detection unit 38 compares the input image information X with the previous frame in the frame memory 50 by using the second block shown in FIG. It has the function of obtaining the motion vector V2 of the block. The comparator 31 has a function of comparing the minimum value of the absolute value sum S ij of the difference. That is, the sum of absolute values S of the differences obtained by the motion vector detection unit 37 , 3 and the sum of the absolute values of the differences S: j obtained by the bridle vector detector 38 (compared as S 2 ′). U. The information g of this comparison result is multiplexed together with the motion vectors V 1 and V 2 by the signal multiplexing unit 13, and transmitted to the communication line 15 via the transmission unit 14. Further, the operation of the switch 32 is controlled by the comparison result information g of the comparator 31. If the sum of the absolute values of the differences obtained by the motion vector detector 37 is S! If the minimum value S 1 j ′ of j is smaller than the absolute value sum S, j of the differences obtained by the motion vector detection unit 38, the minimum value S 2 of j, the switch 32 The output of the torque detector 37 is selected and transmitted to the subsequent motion compensator 33. On the other hand, the absolute value sum S ij of the difference obtained by the motion vector detector 38 is the minimum value S ij of the difference S ij, and the sum S of the difference obtained by the motion vector detector 37. If it is smaller than the minimum value S 1 J of J, the output of the motion vector detection unit 38 is selected and transmitted to the subsequent stage motion compensation unit 33. That is, the motion vector with the higher accuracy is selected and supplied to the motion compensator 33. The motion compensator 33 has a function of generating a predicted value BXo by moving the position of the previous frame stored in the frame memory 50 based on the motion vector transmitted via the switch 32. Have. The predicted value BXo is transmitted to the switch 25 and the subtractor 4 described with reference to FIG. FIG. 14 shows another configuration example of the decoding-based prediction processing unit 27 shown in FIG. As shown in FIG. 14, the motion vector transmitted from the signal separator 17 and the motion vector transmitted from the signal separator 17 for latching the motion vector V1 are shown. A vector latch 42 for latching the vector V 2 is provided, and the outputs of the vector latches 41 and 42 are selectively transmitted to the motion compensator 44 via a switch 43 at the subsequent stage. It is as follows. The above switch 43 is the ratio transmitted from the signal separation unit 17. The operation is controlled by the comparison result information g. That is, the motion vectors V 1 and V 2 used for the processing in the motion compensator 44 are selected in accordance with the comparison result in the comparator 31 shown in FIG. I have. The motion compensator 44 moves the previous frame from the frame memory 51 using the transmitted motion vector to generate a predicted value BXo. The predicted value BXo can be transmitted to the adder 19 via the switch 22.
第 1 5図及び第 1 6図には、 本実施例装置における符号化処理のフロ 一チャートが示される。 尚、 第 1 5図及び第 1 6図に示される記号 # 3, # 4, # 5と第 1 6図に示される記号 # 3, # 4, # 5 とは、 対応する 記号同士で処理が連続していることを示している。 また、 第 1 5図及び 第 1 6図に示される処理は、 上記実施例の場合と同様に、 画像のサイズ を横 N基準ブロック X縦 M基準ブロック ( 1 6 N画素 X 1 6 M画素) と し、 画像の左上部から右下部へ横方向に、 基準ブロック毎にスキャンを 行って処理が進められるものとされる。  FIGS. 15 and 16 show flowcharts of the encoding process in the apparatus of this embodiment. The symbols # 3, # 4, and # 5 shown in Figs. 15 and 16 and the symbols # 3, # 4, and # 5 shown in Fig. 16 are processed by the corresponding symbols. It indicates that they are continuous. The processing shown in FIGS. 15 and 16 is similar to that of the embodiment described above, except that the image size is determined by the horizontal N reference block X the vertical M reference block (16 N pixels X 16 M pixels) Then, it is assumed that scanning is performed for each reference block in the horizontal direction from the upper left of the image to the lower right, and the processing is advanced.
先ず、 p = q = 0として (ステップ S 1 1 ) 、 画像の左上部から処理 を開始していく。 ステップ S 1 2 A〜S 1 4 Aまでの処理は、 第 1ブロッ クによる動きベク トル検出に関する処理であり、 この処理は、 動きべク トル検出部 3 7によって行われる。 また、 ステップ S 1 2 B〜S 1 4 B までの処理は、 第 2ブロックによる動きベク トル検出に関する処理であ り、 この処理は、 動きベク トル検出部 3 8によって行われる。  First, assuming that p = q = 0 (step S11), the processing is started from the upper left of the image. The processing of steps S12A to S14A is processing relating to the motion vector detection by the first block, and this processing is performed by the motion vector detection unit 37. The processing of steps S12B to S14B is processing related to the motion vector detection by the second block, and this processing is performed by the motion vector detection unit 38.
次に、 これから符号化されるべき基準ブロックが第 1プロック又は第 2プロックの左上部に位置する基準プロックであるか否かの判定が行わ れる (ステップ S 1 2 A, S 1 2 B ) 。 即ち、 動きべク トル検出部 3 7 において、 これから符号化されるべき基準ブロック X ( p , q ) につい て、 (P =偶数、 且つ、 q =偶数) が成立するか否かの判別が行われる (ステップ S 1 2 A) 。 また、 動きべク トル検出部 3 8においては、 こ れから符号化されるべき基準ブロックについて、 (p = 0、 且つ、 q = 0) 、 または (p = 0、 且つ、 q =奇数) 、 または (p =奇数、 且つ、 q = 0) , または (p =奇数、 且つ、 q =奇数) のいずれかが成立する か否かの判別が行われる (ステップ S 1 2 B) 。 Next, it is determined whether or not the reference block to be encoded is a reference block located at the upper left of the first block or the second block (steps S12A and S12B). That is, the motion vector detection unit 37 determines whether or not (P = even number and q = even number) is satisfied for the reference block X (p, q) to be coded. Be (Step S 1 2 A). In addition, the motion vector detection unit 38 calculates (p = 0 and q = 0), or (p = 0 and q = odd) for a reference block to be coded from now on. It is determined whether or not (p = odd number and q = 0), or (p = odd number and q = odd number) is satisfied (step S12B).
上記ステップ S 1 2 Aの判別において、 y e s と判断された場合、 つ まり、 (p =偶数、 且つ、 q =偶数) が成立する、 と判断された場合に は、 それは、 これから符号化処理される基準ブロック X ( p, q ) 力 第 1プロックの左上部に位置していることを意味する。 このことは第 9 図から明らかである。 その場合には、 動きベク トル検出部 3 7により、 フレームメモリ 5 0がサーチされ、 第 1ブロック L I (pZ2、 q / 2 ) の動きべク 卜ノレ V 1が求められ、 その検出結果が内部のレジスタにラッ チされ、 信号多重化のため信号多重部 1 3に送出される (ステップ S 1 3 A, S 1 4 A) 。  If it is determined in the above step S12A that the answer is yes, that is, if it is determined that (p = even number and q = even number) is satisfied, it is coded from now on. The reference block X (p, q) is located at the upper left of the first block. This is clear from FIG. In this case, the motion vector detection unit 37 searches the frame memory 50 to find the motion vector V1 of the first block LI (pZ2, q / 2), and the detection result is stored in the internal memory. And sent to the signal multiplexing unit 13 for signal multiplexing (steps S13A and S14A).
上記ステップ S 1 2 Bの判別において、 y e s と判断された場合、 つ まり、 (p = 0、 且つ、 q = 0) 、 ( p = 0、 且つ、 q =奇数) 、 ( P =奇数、 且つ、 q = 0) 、 又は (p =奇数、 且つ、 q =奇数) のいずれ かが成立する、 と判断された場合には、 それは、 これから符号化処理さ れる基準ブロック X ( p , q ) 力 第 2ブロックの左上部に位置してい ることを意味する。 このことは第 1 0図から明らかである。 その場合に は、 動きべク トル検出部 3 8により、 フレームメモリ 5 0がサーチされ、 第 2ブロックの動きベク トル V 2が作成される。 このとき、 (p = q = 0) が成立する場合には、 L 2 (0、 0 ) の動きベク トル V 2が検出さ れ、 (p = 0、 且つ、 q =奇数) が成立する場合には、 L 2 (0、 q / 2 + 1 ) の動きベク トル V 2が検出され、 (p =奇数、 且つ、 q = 0 ) が成立する場合には、 L 2 ( p / 2 + 1 , 0) の動きベク トル V 2が検 出され、 (p =奇数、 且つ、 Q =奇数) が成立する場合には、 L 2 (p 2 + 1、 q / 2 + 1 ) の動きベク トル V 2が検出される。 そして、 そ の検出結果が内部のレジスタにラッチされて、 信号多重化のため信号多 重部 1 3に送出される (ステップ S 1 4 B) 。 If it is determined yes in the above-described step S12B, that is, (p = 0 and q = 0), (p = 0 and q = odd), (P = odd and , Q = 0) or (p = odd and q = odd), it is determined that the reference block X (p, q) power to be coded from now on It means that it is located at the upper left of the second block. This is clear from FIG. In this case, the motion vector detection unit 38 searches the frame memory 50 to create the motion vector V2 of the second block. At this time, if (p = q = 0) holds, the motion vector V 2 of L 2 (0, 0) is detected, and (p = 0 and q = odd number) holds. , A motion vector V 2 of L 2 (0, q / 2 + 1) is detected, and if (p = odd number and q = 0) holds, then L 2 (p / 2 + 1) , 0) is detected. When (p = odd number and Q = odd number) holds, the motion vector V 2 of L 2 (p 2 +1, q / 2 + 1) is detected. Then, the detection result is latched in an internal register and sent to the signal multiplexing section 13 for signal multiplexing (step S14B).
その後、 動きベク トル検出部 3 7, 3 8において、 前記演算された最 小値 S 1 j ' と S 2 i ' の比較が行われる (ステップ S 1 5 ) 。 ま た、 上記ステップ S 1 2 A、 及び S 1 2 Bの判別において、 n oと判断 された場合にも、 上記ステップ S 1 5の判別が行われる。 ステップ S 1 5の比较において、 S i 厂 〉 S 2 jが成立する (y e s ) と判 断された場合には、 比較器 3 1から出力される比較結果情報 gがレベル" 1 " とされ (ステップ S 1 6 A) 、 動きべク トル検出部 3 7から出力さ れる動きべク トル V 1がスィツチ 3 2を介して動き補償部 3 3に伝達さ れ、 この動き補償部 3 3において、 予測値 BX oが作成される (ステツ ブ S 1 7 A) 。 上記ステップ S 1 5の比較において、 S 1 』 ' > S 2 に jが成立しない (n o) と判断された場合には、 比較器 3 1から出 力される比较結果情報 gがレベル" 0" とされ (ステップ S 1 6 B) 、 動きべク トル検出部 3 8から出力される動きべク トル V 2がスィ ッチ 3 2を介して動き補償部 3 3に伝達され、 この動き補償部 3 3において、 動き補償予測画像情報 (予測値) BX oが作成される (ステップ S 1 7 B  Thereafter, the motion vector detectors 37 and 38 compare the calculated minimum value S 1 j ′ with S 2 i ′ (step S 15). Also, in the determination of the above steps S12A and S12B, when it is determined to be no, the determination of the above step S15 is also performed. If it is determined in the comparison of step S 15 that S i >> S 2 j is satisfied (yes), the comparison result information g output from the comparator 31 is set to level “1” ( Step S16A), the motion vector V1 output from the motion vector detection unit 37 is transmitted to the motion compensation unit 33 via the switch 32, and the motion compensation unit 33 A predicted value BXo is created (step S17A). In the comparison in step S15, if it is determined that j is not satisfied (no) in S1 "'> S2, the ratio 较 result information g output from the comparator 31 is at level" 0 ". (Step S16B), the motion vector V2 output from the motion vector detection unit 38 is transmitted to the motion compensation unit 33 via the switch 32, and the motion compensation unit 33 In step 3, motion-compensated prediction image information (prediction value) BXo is created (step S17B
そして、 上記実施例の場合と同様に、 上記ステップ S 1 7八又は5 1 7 Bで作成された予測値 BX 0が滅算器 4に伝達され、 この減算器 4に おいて、 フレームメモリ 3から出力される画像情報 Xと、 上記予測値 B X oとの減算処理により予測誤差 εが抽出される (ステップ S 1 8) 。 さらに、 減算器 4で予測誤差 εが抽出されると、 量子化部 6により予測 誤差 εが量子化され、 量子化値 qが信号多重部 1 3、 及び逆量子化部 7 に送出される (ステップ S 1 9) 。 そして、 逆量子化部 7において量子 化値 qが逆量子化され、 それが加算器 8で動き補償予測画像 BX oと加 算されることにより、 次の符号化処理に使用される参照フレーム X' の 作成が行われる (ステップ S 2 0) 。 この参照フレーム X' は、 フレー 厶メモリ 5 0に格納される (ステップ S 2 1 ) 。 Then, as in the case of the above-described embodiment, the predicted value BX 0 created in the above step S 178 or S 177 B is transmitted to the subtractor 4, and in the subtracter 4, the frame memory 3 A prediction error ε is extracted by a subtraction process between the image information X output from and the predicted value BXo (step S18). Further, when the prediction error ε is extracted by the subtracter 4, the prediction error ε is quantized by the quantization unit 6, and the quantized value q is converted into the signal multiplexing unit 13 and the inverse quantization unit 7. (Step S19). Then, the quantized value q is inversely quantized by the inverse quantizer 7 and added to the motion-compensated prediction image BXo by the adder 8 to obtain the reference frame X used for the next encoding process. 'Is created (step S20). This reference frame X 'is stored in the frame memory 50 (step S21).
上記の処理は、 動きベク トルの検出以外、 基準ブロック単位で行われ るため、 上記ステップ S 2 1の処理後に、 基準ブロックのアドレスが更 新され、 更新されたア ドレスの基準ブロックについて上記ステップ S 1 2 A, S 1 2 B〜S 2 1の処理が行われる (ステップ S 2 2 ) 。 すなわ ち、 p <N— 1が成立するか否かの判別が行われ (ステップ S 22 1 ) 、 この判別において、 p <N— 1が成立する (y e s ) と判断された場合 には、 pがインクリメン卜されて (ステップ S 2 2 4 ) から、 再び上記 ステップ S 1 2 A, S 1 2 Bの判別が行われる。 また、 上記ステップ S 2 2 1の判別において、 p <N— 1が成立しない (n 0 ) と判断された 場合には、 pの値を 0とした後に、 今度は q <M— 1が成立するか否か の判別が行われる (ステップ S 2 2 2, S 22 3 ) 。 この判別において、 qく M— 1が成立する (y e s ) と判断された場合には、 qがインク リ メン卜されて (ステップ S 2 2 5 ) から、 再び上記ステップ S 1 2 A, S 1 2 Bの判別が行われる。 上記ステップ S 2 2 3の判別において、 q <M— 1が成立しない (n o) と判断された場合には、 それは符号化処 理の対象とされる複数の基準プロックのうちの最後の基準プロックにつ いての処理が完了されているから、 現フレームについての符号化処理が 終了される。  Since the above processing is performed for each reference block except for the detection of the motion vector, the address of the reference block is updated after the processing of step S21, and the above steps are performed for the reference block of the updated address. The processing of S12A, S12B to S21 is performed (step S22). That is, it is determined whether or not p <N—1 is satisfied (step S221). If it is determined in this determination that p <N—1 is satisfied (yes), After p is incremented (step S224), the above-mentioned steps S12A and S12B are discriminated again. If it is determined in step S 2 21 that p <N—1 does not hold (n 0), the value of p is set to 0, and then q <M—1 holds. It is determined whether or not to perform (steps S22, S223). In this discrimination, if it is determined that q−M−1 is satisfied (yes), q is incremented (step S 2 25), and the above steps S 12 A, S 1 2 B is determined. If it is determined that q <M—1 does not hold (no) in the determination in step S22.3, it is determined that the last reference block of the plurality of reference blocks to be encoded is processed. Since the processing for has been completed, the encoding processing for the current frame is terminated.
このように、 基準ブロック毎に、 2種類の動きベク トルを持ち、 動き べク トル検出の際に、 前記差分の最小値 S 1 j · と S 2 jとの比較 により、 その最小値の小さい方の動きべク トル即ち精度の高い方の勦き ベク トルを、 選択することにより、 予測誤差の低減を図ることができる ので、 受信装置 R E Cでは、 精度の良い画像を復号化することができる。 尚、 この実施例では、 動きベクトルの他に、 基準ブロック毎に、 比較 結果情報 gを生成し、 それを送出する必要があるが、 この比較結果情報 gは、 1ビッ トのデータ量であるから、 情報量増加は問題にはならない。 以上本発明者によってなされた発明を実施例に基づいて具体的に説明 したが、 本発明はそれに限定されるものではなく、 その要旨を逸脱しな い範囲において種々変更可能であることは言うまでもない。 Thus, each reference block has two types of motion vectors, and when detecting a motion vector, the minimum value of the difference is smaller by comparing the minimum value S 1 j and S 2 j of the difference. Movement vector, that is, the more accurate killing Since the prediction error can be reduced by selecting the vector, the receiving apparatus REC can decode an accurate image. In this embodiment, in addition to the motion vector, it is necessary to generate comparison result information g for each reference block and transmit it, but this comparison result information g is a 1-bit data amount. Therefore, increasing the amount of information is not a problem. Although the invention made by the inventor has been specifically described based on the embodiments, the present invention is not limited thereto, and it is needless to say that various modifications can be made without departing from the gist of the invention. .
例えば、 上記実施例では三角関数を用いて動き補償予測画像の重み付 け処理を行うようにしたが、 三角関数の他に、 三角形状を有するような 一次関数、 半円形状を有するような二次関数、 さらには矩形関数など、 種々の関数を用いることができる。 また、 基準ブロックのサイズは上記 実施例で説明したサイズに限定されず、 それよりも小さなサイズにする ことは可能であるが、 能率的なデータ処理という観点では上記実施例の サイズが好適である。 産業上の利用可能性  For example, in the above embodiment, weighting processing of a motion-compensated prediction image is performed using a trigonometric function. However, in addition to the trigonometric function, a linear function having a triangular shape and a bilinear function having a semicircular shape are used. Various functions such as the following function and even the rectangle function can be used. Further, the size of the reference block is not limited to the size described in the above embodiment, and may be smaller, but the size of the above embodiment is preferable from the viewpoint of efficient data processing. . Industrial applicability
以上の説明では主として本発明者によってなされた発明をその背景 となった利用分野である T V電話システムに適用した場合について説明 したが、 本発明はそれに限定されるものではなく、 T V会議システムや、 マルチメディアシステムなどに広く適用することができる。  In the above description, the case where the invention made by the inventor is mainly applied to the videophone system which is the background of use has been described. However, the present invention is not limited to this. It can be widely applied to multimedia systems and the like.

Claims

請 求 の 範 囲 The scope of the claims
1 . 入力画像情報を複数画素毎のブロックに分け、 前フレームの情報か ら、 現フレームの中の着目ブロックと類似の画像情報を有する領域の位 置を判定することにより、 前記前フレームの情報に基づく入力画像情報 の予測符号化のための動きべク トルを検出する方法において、 1. The input image information is divided into blocks of a plurality of pixels, and the position of a region having image information similar to the block of interest in the current frame is determined from the information of the previous frame, thereby obtaining the information of the previous frame. In a method for detecting a motion vector for predictive coding of input image information based on
一つのフレームにっき、 これを複数個の第 1ブロックと、 前記第 1ブ 口ックを縦横方向に半プロックずらした配置の複数個の第 2プロックと に切り分けを行い、 前記第 1ブロックと第 2プロックの夫々について前 記動きべク トルを検出することを特徴とする動きべク トル検出方法。  One frame is divided into a plurality of first blocks, and a plurality of second blocks arranged so that the first blocks are shifted half a block in the vertical and horizontal directions. A motion vector detection method characterized by detecting the motion vector described above for each of the two blocks.
2 . 入力画像情報を複数画素毎の第 1ブロックに分け、 前フレームの情 報から、 現フレームの中の着目第 1ブロックと類似の画像情報を有する 領域の位置を判定することにより、 前記前フレームの情報に基づく入力 画像情報の予測符号化のための第 1動きべクトルを検出するステップと、 前記入力画像情報を、 前記第 1ブロックを縦横方向に半ブロックずら した配置の第 2ブロックに分け、 前フレームの情報から、 現フレームの 中の着目第 2ブロックと類似の画像情報を有する領域の位置を判定する ことにより、 前記前フレームの情報に基づく入力画像情報の予測符号化 のための第 2動きべク トルを検出するステップと、  2. Dividing the input image information into a first block of a plurality of pixels, and determining the position of an area having image information similar to the first block of interest in the current frame from the information of the previous frame, Detecting a first motion vector for predictive encoding of input image information based on frame information, and converting the input image information into a second block in which the first block is shifted half a block vertically and horizontally. By determining the position of an area having image information similar to the second block of interest in the current frame from the information of the previous frame, predictive coding of input image information based on the information of the previous frame is performed. Detecting a second motion vector;
前記第 1プロックの第 1動きべク トルと前フレームの画像情報とを利 用して当該第 1プロックに係る動き補償予測画像情報を作成するステツ プと、  Using the first motion vector of the first block and the image information of the previous frame to create motion-compensated predicted image information related to the first block;
前記第 2ブロ ックの第 2動きべク トルと前フレームの画像情報とを利 用して当該第 2ブロックに係る動き補償予測画像情報を作成するステッ プと、  Using the second motion vector of the second block and the image information of the previous frame to create motion-compensated predicted image information for the second block;
前記第 1プロックに係る動き補償予測画像情報と前記第 2ブロックに 係る動き補償予測画像情報とに対して、 プロック端画素の重みを滅ずる ための重み付け処理を行ってそれらを合成するステップと、 を舍むこと を特撖とする画像情報の予測符号化方式。 The motion-compensated prediction image information related to the first block and the second block A step of performing a weighting process on the motion-compensated predicted image information to reduce the weight of the block edge pixels and combining them with each other, and a step of combining the motion-compensated predicted image information with the motion-compensated predicted image information.
3 . 前記動き補償予測画像情報の作成を、 縦横夫々が前記半ブロックの 大きさを有する基準プロック毎に行うことを特徴とする請求の範囲第 2 項記載の画像情報の予測符号化方法。  3. The predictive encoding method for image information according to claim 2, wherein the motion compensated prediction image information is created for each reference block having the size of the half block in each of the vertical and horizontal directions.
4 . 前記重み付け処理は、 前記第 1ブロックと第 2ブロックの内の何れ か一方に係る前記基準プロックの動き補償予測画像情報に対してはその 基準ブロックの縦横に対して夫々周期 π Ζ 2とされる s i n 2の関数を 乗算して行い、 前記第 1ブロックと第 2ブロックの内の何れか他方に係 る前記基準プロックの動き補償予測画像情報に対してはその基準プロッ クの縦横に対して夫々周期 π Ζ 2とされる c o s 2の関数を乗算して行 うことを特徴とする請求の範囲第 3項記載の画像情報の予測符号化方法。 4. The weighting process is performed on the motion-compensated prediction image information of the reference block relating to one of the first block and the second block, with a period πΖ2 with respect to the length and width of the reference block. Multiplied by the function of sin 2 to be performed, and for the motion-compensated predicted image information of the reference block relating to one of the first block and the second block, the vertical and horizontal directions of the reference block are used. 4. The predictive encoding method for image information according to claim 3, wherein the predictive encoding is performed by multiplying by a function of cos 2 having a period of πΖ2.
5 . 前記合成するステップにて得られた動き補償予測画像情報と現フレ ームの対応画像情報とを滅算して予測誤差情報を取得するステツプを更 に舍むことを特徴とする請求の範囲第 3項記載の画像情報の予測符号化 方法。  5. A step of obtaining the prediction error information by subtracting the motion-compensated predicted image information obtained in the synthesizing step and the corresponding image information of the current frame is further provided. The predictive coding method for image information according to item 3 of the range.
6 . 入力画像情報を複数画素毎の第 1ブロックに分け、 前フレームの情 報から、 現フレームの中の着目第 1ブロックと類似の画像情報を有する 領域の位置を判定することにより、 前記前フレームの情報に基づく入力 画像情報の予測符号化のための第 1動きべクトルを検出するステップと、 前記入力画像情報を、 前記第 1プロックを縦横方向に半ブロックずら した配置の第 2プロックに分け、 前フレームの情報から、 現フレームの 中の着目第 2プロックと類似の画像情報を有する領域の位置を判定する ことにより、 前記前フレームの情報に基づく入力画像情報の予測符号化 のための第 2動きべク トルを検出するステップと、 前記検出された第 1動きべク トルと第 2動きべク トルの内、 精度の髙 い方の動きべク トルを選択するステップと、 6. The input image information is divided into a first block of a plurality of pixels, and the position of an area having image information similar to the first block of interest in the current frame is determined from the information of the previous frame. Detecting a first motion vector for predictive encoding of input image information based on frame information, and converting the input image information to a second block arranged by shifting the first block by half a block vertically and horizontally. By determining the position of an area having image information similar to the second block of interest in the current frame from information of the previous frame, predictive coding of input image information based on the information of the previous frame is performed. Detecting a second motion vector; Selecting a motion vector with higher accuracy from the detected first motion vector and second motion vector,
選択された動きべク トルを利用して動き補償予測画像情報を作成する ステップと、 を舍むことを特徴とする画像情報の予測符号化方法。  Generating a motion-compensated prediction image information using the selected motion vector. A method for predictive encoding of image information, comprising:
7 . 前記動きベク トルの選択と前記動き補償予測画像情報の作成を、 縱 横夫々が前記半プロックの大きさを有する基準プロック毎に行うことを 特徴とする請求の範囲第 6項記載の画像情報の予測符号化方法。 7. The image according to claim 6, wherein the selection of the motion vector and the creation of the motion compensated prediction image information are performed for each reference block having the size of the half block in each of the vertical and horizontal directions. A predictive encoding method for information.
8 . 入力画像情報を複数画素毎の第 1ブロックに分け、 前フレームの情 報から、 現フレームの中の着目第 1プロックと類似の画像情報を有する 領域の位置を判定することにより、 前記前フレームの情報に基づく入力 画像情報の予測符号化のための第 1動きべク トルを検出する第 1動きべ ク トル検出手段と、 8. The input image information is divided into first blocks of a plurality of pixels, and the position of an area having image information similar to the first block of interest in the current frame is determined from the information of the previous frame. First motion vector detecting means for detecting a first motion vector for predictive encoding of input image information based on frame information,
前記入力画像情報を、 前記第 1プロックを縦横方向に半プロックずら した配置の第 2ブロックに分け、 前フレームの情報から、 現フレームの 中の着目第 2ブロックと類似の画像情報を有する領域の位置を判定する ことにより、 前記前フレームの情報に基づく入力画像情報の予測符号化 のための第 2動きべク トルを検出する第 2動きべク トル検出手段と、 前記第 1ブロックの第 1動きべク トルと前フレームの画像情報とを利 用して当該第 1プロックに係る動き補償予測画像情報を作成する第 1動 き補償手段と、  The input image information is divided into a second block in which the first block is displaced by half a block in the vertical and horizontal directions, and from the information of the previous frame, a region having image information similar to the second block of interest in the current frame is determined. Determining a position to detect a second motion vector for predictive encoding of the input image information based on the information of the previous frame; and a first motion vector detecting means for detecting a first motion vector of the first block. First motion compensating means for creating motion-compensated predicted image information relating to the first block using the motion vector and image information of the previous frame;
前記第 2プロ ックの第 2動きべク トルと前フレームの画像情報とを利 用して当該第 2ブロックに係る動き補償予測画像情報を作成する第 2動 き補償手段と、  A second motion compensation unit that creates motion-compensated predicted image information for the second block using the second motion vector of the second block and the image information of the previous frame;
前記第 1動き補償手段にて作成された前記動き補償予測画像情報と前 記第 2動き補償手段にて作成された前記動き補償予測画像情報とを合成 した動き補償予測画像情報を作成する第 1合成手段と、 前記合成された動き補償予測画像情報と現フレームの対応画像情報と を減算して予測誤差情報を取得する减算手段と、 を備えて成るものであ ることを特徴とする動画像処理装置。 A first method of creating motion-compensated predicted image information by combining the motion-compensated predicted image information created by the first motion compensating means with the motion-compensated predicted image information created by the second motion compensating means. Combining means; Calculating means for subtracting the synthesized motion-compensated predicted image information and the corresponding image information of the current frame to obtain prediction error information, the moving image processing apparatus comprising:
9 . 前記合成手段は、 前記第 1ブロックに係る動き補僂予測画像情報と 前記第 2ブロックに係る動き補償予測画像情報とに対して、 ブロック端 画素の重みを減ずるための重み付け処理を行ってそれらを合成するもの であることを特徴とする請求の範囲第 8項記載の動画像処理装置。  9. The combining means performs a weighting process on the motion-compensated predicted image information related to the first block and the motion-compensated predicted image information related to the second block to reduce the weight of the block end pixel. 9. The moving image processing apparatus according to claim 8, wherein the moving image processing apparatus synthesizes them.
1 0 . 前記動き補償手段及び合成手段は、 縦横夫々が前記半ブロックの 大きさを有する基準プロック単位で情報作成を行い、  10. The motion compensating means and the synthesizing means perform information creation in units of reference blocks each having the size of the half block vertically and horizontally,
更に前記合成手段は、 前記第 1ブロックと第 2ブロックの内の何れか 一方に係る前記基準プロックの動き補償予測画像情報に対してはその基 準ブロックの縱横に対して夫々周期 π Ζ 2とされる s i n 2の関数を乗 算して前記重み付け処理を行い、 前記第 1プロックと第 2プロックの内 の何れか他方に係る前記基準プロックの動き補償予測画像情報に対して はその基準プロックの縦横に対して夫々周期 π Ζ 2とされる c o s 2の 関数を乗算して重み付け処理を行うものであることを特徴とする請求の 範囲第 9項記載の動画像処理装置。 Further, the synthesizing means includes a period π Ζ 2 for the motion compensated prediction image information of the reference block according to one of the first block and the second block with respect to the length and width of the reference block. The weighting process is performed by multiplying the function of sin 2 to be performed, and the motion compensation prediction image information of the reference block related to one of the first block and the second block is used as the reference block. 10. The moving image processing apparatus according to claim 9, wherein the weighting process is performed by multiplying the height and width by a function of cos 2 having a period of πΖ2.
1 1 . 前記現フレームの画像情報を保持するための第 1の記憧手段と、 前記滅算手段で生成された予測誤差情報に前記合成された勦き補償予 測画像情報を加算する第 1加算手段と、  1. A first memory for holding the image information of the current frame, and a first memory for adding the synthesized dead compensation predicted image information to the prediction error information generated by the subtraction unit. Addition means;
前記第 1加算手段にて得られた画像情報を前フレームの画像情報とし て保持するための第 2の記憶手段と、 を更に備えて成るものであること を特徴とする請求の範囲第 8項記載の動画像処理装置。  9. The image processing apparatus according to claim 8, further comprising: a second storage unit for holding the image information obtained by said first adding unit as image information of a previous frame. A moving image processing apparatus according to claim 1.
1 2 . 前記予測誤差情報と第 1及び第 2動きべク トルとを伝送する手段 を更に備えて成るものであることを特徴とする請求の範囲第 1 1項記载 の動画像処理装置。 12. The moving picture processing device according to claim 11, further comprising means for transmitting the prediction error information and first and second motion vectors.
1 3 . 前記伝送する手段に結合され、 前記予測誤差情報と第 1及び第 2 動きべク トルを受信する手段と、 13. A means coupled to the transmitting means for receiving the prediction error information and the first and second motion vectors.
受信された第 1動きべク トルと受信側前フレームの画像情報とを利用 して動き補償予測画像情報を作成する第 3動き補償手段と、  Third motion compensation means for creating motion-compensated predicted image information using the received first motion vector and image information of the previous frame on the receiving side;
受信された第 2動きべク トルと受信側前フレームの画像情報とを利用 して動き補償予測画像情報を作成する第 4動き補償手段と、  Fourth motion compensation means for creating motion-compensated predicted image information using the received second motion vector and the image information of the previous frame on the receiving side;
前記第 3動き補償手段にて作成された前記動き補償予測画像情報と前 記第 4動き補償手段にて作成された前記動き補償予測画像情報とを合成 した動き補償予測画像情報を作成する第 2合成手段と、  A second step of creating motion-compensated predicted image information by combining the motion-compensated predicted image information created by the third motion compensating unit with the motion-compensated predicted image information created by the fourth motion compensating unit; Combining means;
前記合成された動き補償予測画像情報と受信された予測誤差情報とを 加算して復号化画像情報を取得する第 2加算手段と、  Second adding means for adding the combined motion-compensated predicted image information and the received prediction error information to obtain decoded image information;
前記第 2加算手段にて得られた画像情報を前記受信側前フレームの画 像情報として保持するための第 3の記憶手段と、 を更に備えて成るもの であることを特徴とする請求野範囲第 1 2項記載の動画像処理装置。  A third storage unit for holding the image information obtained by the second addition unit as image information of the previous frame on the receiving side, and a third storage unit. 13. The moving image processing device according to item 12.
1 4 . 入力画像情報を複数画素毎の第 1ブロックに分け、 前フレームの 情報から、 現フレームの中の着目第 1プロックと類似の画像情報を有す る領域の位置を判定することにより、 前記前フレームの情報に基づく入 力画像情報の予測符号化のための第 1動きべク トルを検出する第 1動き べク トル検出手段と、 14. The input image information is divided into first blocks of a plurality of pixels, and from the information of the previous frame, the position of a region having image information similar to the first block of interest in the current frame is determined. First motion vector detecting means for detecting a first motion vector for predictive encoding of input image information based on the information of the previous frame,
前記入力画像情報を、 前記第 1プロックを縦横方向に半プロックずら した配置の第 2ブロックに分け、 前フレームの情報から、 現フレームの 中の着目第 2プロックと類似の画像情報を有する領域の位置を判定する ことにより、 前記前フレームの情報に基づく入力画像情報の予測符号化 のための第 2動きべク トルを検出する第 2動きべク トル検出手段と、 前記検出された第 1動きベク トルと第 2動きベク トルの内、 精度の髙 い方の動きべク トルを選択する第 1選択手段と、 選択された動きべク トルと前フレームの画像情報とを利用して当該選 択された動きべク トルに係る動き補償予測画像情報を作成する第 1動き 補償手段と、 The input image information is divided into a second block in which the first block is shifted by half a block in the vertical and horizontal directions. A second motion vector detecting means for detecting a position to detect a second motion vector for predictive encoding of input image information based on the information of the previous frame; and the detected first motion. A first selecting means for selecting a motion vector having a higher accuracy from the vector and the second motion vector; First motion compensation means for creating motion-compensated predicted image information related to the selected motion vector using the selected motion vector and image information of the previous frame;
前記第 1動き補償手段にて作成された動き補償予測画像情報と現フレ ームの対応画像情報とを減算して予測誤差情報を取得する減算手段と、 を備えて成るものであることを特徴とする動画像処理装置。  Subtraction means for subtracting the motion-compensated predicted image information created by the first motion compensation means from the corresponding image information of the current frame to obtain prediction error information. Moving image processing apparatus.
1 5 . 前記現フレームの画像情報を保持するための第 1の記憧丰段と、 前記減算手段で生成された予測誤差情報に、 前記第 1動き補償手段で 生成された動き補償予測画像情報を加算する第 1加算手段と、  15. A first storage unit for holding the image information of the current frame, and the prediction error information generated by the subtraction unit, the motion compensated prediction image information generated by the first motion compensation unit. First adding means for adding
前記加算手段にて得られた画像情報を前フレームの画像情報として保 持するための第 2の記憶手段と、  A second storage unit for holding the image information obtained by the adding unit as image information of a previous frame;
前記予測誤差情報、 第 1助きベク トル、 第 2動きベク トル、 及び前記 第 1選択手段にて選択された動きべク トルを指定するための制御情報を 伝送する手段と、  Means for transmitting the prediction error information, a first helper vector, a second movement vector, and control information for designating the movement vector selected by the first selection means;
前記伝送する手段に結合された受信手段と、  Receiving means coupled to the transmitting means;
受信された第 1動きべク トル及び第 2動きべク トルの中から前記制御 情報で指定される動きべク トルを選択する第 2選択手段と、  Second selecting means for selecting a motion vector specified by the control information from the received first motion vector and second motion vector,
前記第 2選択手段で選択された動きべク トルと受信側前フレームの画 像情報とを利用して動き補償予測画像情報を作成する第 2動き補償手段 と、  Second motion compensating means for creating motion-compensated predicted image information using the motion vector selected by the second selecting means and image information of the previous frame on the receiving side;
前記第 2動き補償手段で形成された動き補償予測画像情報と受信され た予測誤差情報とを加算して復号化画像情報を取得する第 2加算手段と、 前記第 2加算手段にて得られた画像情報を受信側前フレームの画像情 報として保持するための第 3の記憧手段と、 を更に備えて成るものであ ることを特徴とする請求の範囲第 1 4項記載の動画像処理装置。  A second adding unit that adds the motion-compensated predicted image information formed by the second motion compensating unit and the received prediction error information to obtain decoded image information; 15. The moving image processing according to claim 14, further comprising: a third storage unit for storing image information as image information of a previous frame on the receiving side. apparatus.
PCT/JP1995/001952 1995-01-18 1995-09-27 Predictive encoding method for picture information WO1996022656A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2473295 1995-01-18
JP7/24732 1995-01-18

Publications (1)

Publication Number Publication Date
WO1996022656A1 true WO1996022656A1 (en) 1996-07-25

Family

ID=12146332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/001952 WO1996022656A1 (en) 1995-01-18 1995-09-27 Predictive encoding method for picture information

Country Status (2)

Country Link
TW (1) TW312887B (en)
WO (1) WO1996022656A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19825042C2 (en) * 1997-09-12 2002-07-04 Lg Electronics Inc Motion vector coding method in MPEG-4

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01319382A (en) * 1988-06-20 1989-12-25 Mitsubishi Electric Corp Moving vector detector
JPH0530411A (en) * 1991-07-24 1993-02-05 Matsushita Electric Ind Co Ltd Picture motion vector detector and picture jiggling correction device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01319382A (en) * 1988-06-20 1989-12-25 Mitsubishi Electric Corp Moving vector detector
JPH0530411A (en) * 1991-07-24 1993-02-05 Matsushita Electric Ind Co Ltd Picture motion vector detector and picture jiggling correction device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19825042C2 (en) * 1997-09-12 2002-07-04 Lg Electronics Inc Motion vector coding method in MPEG-4

Also Published As

Publication number Publication date
TW312887B (en) 1997-08-11

Similar Documents

Publication Publication Date Title
EP0734165B1 (en) Image processing system using pixel-by-pixel motion estimation and frame decimation
EP0630157B1 (en) Systems and methods for coding alternate fields of interlaced video sequences
US5210605A (en) Method and apparatus for determining motion vectors for image sequences
US5398068A (en) Method and apparatus for determining motion vectors for image sequences
US5701164A (en) Macroblock coding including difference between motion vectors
US5347309A (en) Image coding method and apparatus
US5703966A (en) Block selection using motion estimation error
KR100788569B1 (en) Motion picture decoding device and method thereof
KR100209793B1 (en) Apparatus for encoding/decoding a video signals by using feature point based motion estimation
EP0634874B1 (en) Determination of motion vectors in a frame decimating video encoder
US20050002458A1 (en) Spatial scalable compression
EP0689359A2 (en) Motion compensation encoding method and apparatus adaptive to motion amount
EP0637893A1 (en) Transcoding device
KR910019454A (en) Method and apparatus for adaptively compressing consecutive blocks of digital video
WO1998026601A1 (en) Picture encoder and picture decoder
WO1999029113A1 (en) Transcoding
JPS58197984A (en) Adaptive forecasting encoding device of television signal
KR100415494B1 (en) Image encoding method and apparatus, recording apparatus, video signal encoding apparatus, processing apparatus and method, video data processing apparatus and method
US5394190A (en) Video signal encoding apparatus
US6061401A (en) Method and apparatus for selectively encoding/decoding a video signal
WO1996022656A1 (en) Predictive encoding method for picture information
JPH11122620A (en) Motion vector coder
JP3867697B2 (en) Image signal generation apparatus and generation method
JP3906770B2 (en) Digital image signal processing apparatus and method
JPS59128881A (en) Encoder of inter-field and interframe with dynamic compensation

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase