KR20050018728A - Motion vector derivation method, moving picture coding method, and moving picture decoding method - Google Patents

Motion vector derivation method, moving picture coding method, and moving picture decoding method

Info

Publication number
KR20050018728A
KR20050018728A KR10-2003-7013520A KR20037013520A KR20050018728A KR 20050018728 A KR20050018728 A KR 20050018728A KR 20037013520 A KR20037013520 A KR 20037013520A KR 20050018728 A KR20050018728 A KR 20050018728A
Authority
KR
South Korea
Prior art keywords
motion vector
parameter
picture
target block
predetermined value
Prior art date
Application number
KR10-2003-7013520A
Other languages
Korean (ko)
Other versions
KR100956910B1 (en
Inventor
가도노신야
곤도사토시
하가이마코토
아베기요후미
Original Assignee
마쯔시다덴기산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=30112273&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20050018728(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 마쯔시다덴기산교 가부시키가이샤 filed Critical 마쯔시다덴기산교 가부시키가이샤
Publication of KR20050018728A publication Critical patent/KR20050018728A/en
Application granted granted Critical
Publication of KR100956910B1 publication Critical patent/KR100956910B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/02Digital function generators
    • G06F1/03Digital function generators working, at least partly, by table look-up
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2101/00Indexing scheme relating to the type of digital function generated
    • G06F2101/12Reciprocal functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

움직임 벡터 도출부(11)는, 참조 벡터에 관한 파라미터(TR1)가 미리 정해진 소정값을 넘는지 여부를 비교하는 비교부(20), 비교부(20)의 비교 결과에 따라 미리 기억되어 있는 파라미터(TR)의 최대값을 선택할지 파라미터(TR1)를 선택할지를 전환하는 전환부(21), 승수 파라미터 테이블(승수용)(22), 및 파라미터(TR1)와 이 파라미터(TR1)의 역수(1/TRl)에 근사된 값을 대응시키는 승수 파라미터 테이블(제수용)(24)을 구비한다.The motion vector derivation unit 11 compares whether or not the parameter TR1 related to the reference vector exceeds a predetermined value, and the parameter stored in advance according to the comparison result of the comparison unit 20 and the comparison unit 20. Switching section 21 for switching between selecting the maximum value of TR or selecting parameter TR1, multiplier parameter table (for multipliers) 22, and parameter TR1 and the reciprocal of this parameter TR1 (1) Multiplier parameter table (for dividing) 24 corresponding to the value approximated by "

Description

움직임 벡터 도출 방법, 동화상 부호화 방법, 및 동화상 복호화 방법{MOTION VECTOR DERIVATION METHOD, MOVING PICTURE CODING METHOD, AND MOVING PICTURE DECODING METHOD}Motion vector derivation method, moving picture coding method, and moving picture decoding method {MOTION VECTOR DERIVATION METHOD, MOVING PICTURE CODING METHOD, AND MOVING PICTURE DECODING METHOD}

본 발명은 화상 사이에서 블록 단위의 움직임을 나타내는 움직임 벡터를 도출하는 움직임 벡터 도출 방법, 도출된 움직임 벡터를 이용하여 움직임 보상을 수반하는 픽처간 예측 부호화에 의하여 동화상의 부호화를 행하는 동화상 부호화 방법 및 동화상 복호화 방법에 관한 것이다.The present invention provides a motion vector derivation method for deriving a motion vector representing a motion in a block unit between images, a moving picture encoding method for encoding a moving picture by inter-picture prediction encoding with motion compensation using the derived motion vector, and a moving picture. It relates to a decoding method.

최근, 멀티미디어 애플리케이션의 발전에 따라, 화상 ·음성 ·텍스트 등, 모든 미디어 정보를 통일적으로 취급하는 것이 일반적으로 되어 있다. 이 때, 모든 미디어를 디지털화함으로써 통일적으로 미디어를 취급하는 것이 가능하게 된다. 그러나, 디지탈화된 화상은 방대한 데이터량을 가지므로, 축적 ·전송을 위해서는 화상의 정보 압축 기술이 불가결하다. 한편으로, 압축된 화상 데이터를 상호 운용하기 위해서는, 압축 기술의 표준화도 중요하다. 화상 압축 기술의 표준 규격으로는, ITU-T(국제 전기 통신 연합 전기 통신 표준화 부문)의 H.261, H.263, ISO(국제 표준화 기구)의 MPEG(Moving Picture Experts Group)-1, MPEG-2, MPEG-4 등이 있다.In recent years, with the development of multimedia applications, it has become common to deal with all media information such as images, audio, text, and the like. At this time, by digitizing all media, it becomes possible to handle media uniformly. However, since digitalized images have a huge amount of data, information compression techniques of images are indispensable for accumulation and transfer. On the other hand, in order to interoperate compressed image data, standardization of compression techniques is also important. Standard standards for image compression technology include H.261, H.263 of the International Telecommunication Union Telecommunication Standardization Division (ITU-T), Moving Picture Experts Group (MPEG) -1 and MPEG- of the International Organization for Standardization (ISO). 2, MPEG-4 and the like.

이들 동화상 부호화 방식에 공통의 기술로서 움직임 보상을 수반하는 픽처간 예측이 있다. 이들 동화상 부호화 방식의 움직임 보상에서는, 입력 화상을 구성하는 각 픽처를 소정 사이즈의 직사각형(이하, 블록이라고 함)으로 분할하고, 각 블록마다 픽처간 움직임을 나타내는 움직임 벡터로부터 부호화 및 복호화에서 참조하는 예측 화상을 생성한다.As a technique common to these moving picture coding methods, there is inter picture prediction with motion compensation. In the motion compensation of these moving picture coding methods, each picture constituting the input image is divided into a rectangle of a predetermined size (hereinafter referred to as a block), and prediction is referred to by encoding and decoding from a motion vector representing inter picture motion for each block. Create an image.

움직임 벡터의 검출은 블록마다 혹은 블록을 분할한 영역마다 행해진다. 부호화의 대상으로 하고 있는 픽처에 대해, 화상의 표시 순서에 따라서 전방 또는 후방(이하, 간단히 전방, 후방이라고 함)에 위치하는 부호화 완료의 픽처를 참조 픽처로 한다. 움직임 검출에서는, 참조 픽처 중에서 부호화 대상 블록을 가장 적절하게 예측할 수 있는 블록(영역)을 선정하여, 그 블록의 부호화 대상 블록에 대한 상대 위치를 최적의 움직임 벡터로 한다. 동시에, 참조 가능한 픽처 중에서 가장 적절하게 예측할 수 있는 예측 방법을 특정하는 정보인 예측 모드가 결정된다.The motion vector is detected for each block or for each divided area. For a picture to be encoded, a reference picture is a coded picture that is located forward or backward (hereinafter, simply referred to as front and rear) according to the display order of the image. In motion detection, a block (region) that can most appropriately predict a block to be encoded is selected from the reference pictures, and the relative position of the block with respect to the block to be encoded is an optimal motion vector. At the same time, a prediction mode that is information specifying a prediction method that can be most appropriately predicted from the referenceable pictures is determined.

예측 모드로서는, 예를 들면, 표시 시간적으로 전방 또는 후방에 있는 픽처를 참조하여 픽처간 예측 부호화를 행하는 직접 모드가 있다(예를 들면, ISO/IEC MPEG and ITU-T VCEG Working Draft Number 2, Revision 22002-03-15 P.64 7.4.2 Motion vectors in direct mode 참조). 직접 모드에서는, 움직임 벡터는 명시적으로 부호화 데이터로서 부호화되지 않고, 이미 부호화된 움직임 벡터로부터 도출된다. 즉, 부호화 대상의 픽처에 대해 근방에 있는 부호화 완료 픽처 내에서, 부호화 대상 픽처의 블록과 픽처 내의 동일한 좌표 위치(공간 위치)에 있는 블록(이하, 참조 블록이라고 함)의 움직임 벡터를 참조함으로써, 부호화 대상 블록의 움직임 벡터를 산출한다. 그리고, 이 산출된 움직임 벡터에 기초하여 예측 화상(움직임 보상 데이터)이 생성된다. 또한, 복호화일 때는, 동일하게 하여 이미 복호화된 움직임 벡터로부터 직접 모드의 움직임 벡터가 도출된다.As a prediction mode, for example, there is a direct mode in which inter picture prediction encoding is performed by referring to a picture that is forward or backward in display time (for example, ISO / IEC MPEG and ITU-T VCEG Working Draft Number 2, Revision). 22002-03-15 P.64 7.4.2 Motion vectors in direct mode). In the direct mode, the motion vector is not explicitly encoded as encoded data, but is derived from the already encoded motion vector. That is, by referring to a motion vector of a block of a picture to be encoded and a block (hereinafter referred to as a reference block) at the same coordinate position (spatial position) within the picture within a coded picture in the vicinity of the picture to be encoded, The motion vector of the block to be encoded is calculated. Then, a predictive image (motion compensation data) is generated based on this calculated motion vector. In the case of decoding, the motion vector of the direct mode is derived from the motion vectors which have been similarly and already decoded.

여기서, 구체적으로, 직접 모드에서의 움직임 벡터의 산출에 대해서 설명한다. 도 1은 직접 모드에서의 움직임 벡터의 설명도이다. 도 1에서, 픽처(1200), 픽처(1201), 픽처(1202) 및 픽처(1203)가 표시 순으로 배치되어 있다. 픽처(1202)가 부호화 대상인 픽처이고, 블록(MB1)은 부호화 대상의 블록이다. 도 1에서는, 픽처(1200)와 픽처(1203)를 참조 픽처로 하여, 픽처(1202)의 블록(MB1)의 다수 픽처간 예측이 행해지는 경우가 도시되어 있다. 또한, 이하에서는 설명을 간단히 하기 위해서 픽처(1203)가 픽처(1202)의 후방, 픽처(1200)가 픽처(1202)의 전방으로서 설명하지만, 반드시 픽처(1203) 및 픽처(1200)가 이 순서로 나열되어 있을 필요는 없다.Here, the calculation of the motion vector in direct mode is demonstrated concretely. 1 is an explanatory diagram of a motion vector in the direct mode. In Fig. 1, the picture 1200, the picture 1201, the picture 1202, and the picture 1203 are arranged in the display order. The picture 1202 is a picture to be encoded, and the block MB1 is a block to be encoded. In FIG. 1, a case where multiple inter prediction is performed on a block MB1 of a picture 1202 is performed by using a picture 1200 and a picture 1203 as a reference picture. In the following description, for the sake of simplicity, the picture 1203 is described as the rear of the picture 1202 and the picture 1200 as the front of the picture 1202. However, the picture 1203 and the picture 1200 are always in this order. It does not have to be listed.

픽처(1202)보다 후방에 있는 참조 픽처인 픽처(1203)가, 전방에 있는 픽처(1200)를 참조하는 움직임 벡터를 갖고 있다. 그래서, 부호화 대상의 픽처(1202)의 후방에 위치하는 픽처(1203)의 참조 블록(MB2)이 갖는 움직임 벡터(MV1)를 이용하여, 부호화 대상 블록(MB1)의 움직임 벡터를 결정한다. 구하는 2개의 움직임 벡터(MVf, MVb)는 이하의 식 1(a) 및 식 1(b)을 이용하여 산출된다.The picture 1203, which is a reference picture behind the picture 1202, has a motion vector that refers to the picture 1200 in front. Therefore, the motion vector of the encoding target block MB1 is determined using the motion vector MV1 included in the reference block MB2 of the picture 1203 positioned behind the encoding target picture 1202. The two motion vectors MVf and MVb obtained are calculated using the following equations (a) and (b).

MVf = MV1 ×TRf/TR1 … 식 1(a)MVf = MV1 x TRf / TR1... Equation 1 (a)

MVb = -MV1 ×TRb/TR1 … 식 1(b)MVb = -MV1 x TRb / TR1... Equation 1 (b)

여기서, MVf는 부호화 대상 블록(MB1)의 전(前) 방향 움직임 벡터, MVb는 부호화 대상 블록(MB1)의 후(後) 방향 움직임 벡터, TR1는 픽처(1200)와 픽처(1203)의 시간 간격(움직임 벡터(MV1)의 참조처 픽처까지의 시간 간격), TRf는 픽처(1200)와 픽처(1202)의 시간 간격(움직임 벡터(MVf)의 참조처 픽처까지의 시간 간격), TRb는 픽처(1202)와 픽처(1203)의 시간 간격(움직임 벡터(MVb)의 참조처 픽처까지의 시간 간격)이다. 또한, TR1, TRf, TRb에 대해서는, 픽처간의 시간 간격에 한정되지 않고, 예를 들면 픽처마다 할당되는 픽처 번호의 차이를 이용한 데이터, 픽처의 표시 순서(또는 픽처의 표시 순서를 나타내는 정보)의 차이를 이용한 데이터, 픽처간 매수를 이용한 데이터 등, 픽처간의 표시 순서에서의 시간적인 간격을 인식할 수 있고, 움직임 벡터의 스케일링에서 이용되는 지표가 되는 데이터(스트림 중에서 명시적 또는 암시적으로 포함되어 있는 데이터, 또는 스트림에 관련지어져 있는 데이터)이면 된다.Here, MVf is a forward motion vector of the encoding target block MB1, MVb is a backward motion vector of the encoding target block MB1, and TR1 is a time interval between the picture 1200 and the picture 1203. (Time interval to the reference picture of the motion vector MV1), TRf is the time interval between the picture 1200 and the picture 1202 (Time interval to the reference picture of the motion vector MVf), and TRb is the picture ( 1202) and the time interval between the picture 1203 (time interval up to the reference picture of the motion vector MVb). In addition, TR1, TRf, and TRb are not limited to the time interval between pictures, for example, the difference between the data using the difference in picture numbers allocated to each picture and the display order (or information indicating the display order of pictures) of the pictures. Temporal intervals in the display order between the pictures, such as data using the data and data using the number of pictures, and are used as indicators used in the scaling of motion vectors (either explicitly or implicitly included in the stream). Data or data associated with a stream).

다음에, 움직임 벡터를 구하는 처리의 흐름에 대해서 설명한다. 도 2는 움직임 벡터를 구하는 처리의 흐름을 도시하는 플로 차트이다. 먼저, 참조 블록(MB2)이 갖는 움직임 벡터의 정보가 취득된다(단계 S1301). 도 1의 예에서는, 움직임 벡터(MV1)의 정보가 취득된다. 다음에, 부호화 대상 블록(MB1)의 움직임 벡터를 도출하기 위한 파라미터가 취득된다(단계 S1302). 부호화 대상 블록(MB1)의 움직임 벡터를 도출하기 위한 파라미터란, 단계 S1301에서 취득된 움직임 벡터를 스케일링할 때에 이용되는 스케일링 계수 데이터이다. 구체적으로는, 식 1(a) 및 식 1(b)에서의 TR1, TRf, TRb가 해당한다. 다음에, 이들 파라미터에 의해 전술의 식 1(a) 및 식 1(b)을 이용하여 승제산(乘除算)하며, 단계 S1301에서 취득된 움직임 벡터를 스케일링하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVf 및 MVb)를 도출한다(단계 S1303).Next, a flow of processing for obtaining a motion vector will be described. 2 is a flowchart showing the flow of processing to find a motion vector. First, information on the motion vector of the reference block MB2 is obtained (step S1301). In the example of FIG. 1, the information of the motion vector MV1 is acquired. Next, a parameter for deriving the motion vector of the encoding target block MB1 is obtained (step S1302). The parameter for deriving the motion vector of the encoding target block MB1 is scaling coefficient data used when scaling the motion vector acquired in step S1301. Specifically, TR1, TRf, and TRb in Formula 1 (a) and Formula 1 (b) correspond. Subsequently, these parameters are used to multiply using equations (1) and (1), and the motion vector obtained in step S1301 is scaled to move the encoding target block MB1. The vectors MVf and MVb are derived (step S1303).

상기 식 1(a) 및 식 1(b)에 나타내어지는 바와 같이 움직임 벡터를 도출하기 위해서는 제산 처리가 필요해진다. 그러나, 제1 과제로서, 제산 처리는 가산이나 승산이라는 연산과 비교해 연산 처리에 많은 시간이 걸린다. 이것으로는 휴대 전화 등의 저 소비 전력이 요구되는 기기에는, 저 소비 전력 사양으로 연산 능력이 낮은 연산 장치가 사용되는 것을 감안하면 바람직하지 않다.As shown in Equations 1 (a) and 1 (b), a division process is required to derive a motion vector. However, as a first subject, the division process takes a lot of time for the calculation process as compared with the calculation of addition or multiplication. This is not preferable in view of the fact that a low power consumption specification device is used for a device that requires low power consumption such as a mobile phone.

그래서, 제산 처리를 피하기 위해, 제수(除數)에 대응하는 승수(乘數) 파라미터를 참조하여, 승산 처리에 의해 움직임 벡터를 도출하는 것을 생각할 수 있다. 이것에 의해, 제산 대신에 보다 연산량이 적은 승산으로 연산이 가능해져, 스케일링의 연산을 간단화할 수 있다.Therefore, in order to avoid the division process, it is conceivable to derive the motion vector by the multiplication process with reference to the multiplier parameter corresponding to the divisor. As a result, the calculation can be performed by multiplication with less calculation amount instead of division, and the calculation of scaling can be simplified.

그러나, 제2 과제로서 움직임 벡터를 도출하기 위한 파라미터는, 참조 픽처와 대상 블록의 픽처의 간격에 의해서 다양한 값이 적용되므로, 그 파라미터가 취할 수 있는 값은 많다. 즉, 모든 제수에 대응하는 승수 파라미터를 준비하면 방대한 파라미터 수를 준비하지 않으면 안되어, 많은 메모리가 필요해진다.However, as a parameter for deriving the motion vector as the second task, various values are applied depending on the distance between the reference picture and the picture of the target block, and thus, the parameter can take many values. In other words, if a multiplier parameter corresponding to all divisors is prepared, a large number of parameters must be prepared, which requires a lot of memory.

그래서, 상기 제1 과제와 제2 과제를 해결하기 위해, 본 발명은, 적은 연산량으로, 움직임 벡터를 도출하는 움직임 벡터 도출 방법, 동화상 부호화 방법, 및 동화상 복호화 방법을 제공하는 것을 목적으로 한다.Therefore, in order to solve the said 1st subject and the 2nd subject, an object of this invention is to provide the motion vector derivation method, the moving image coding method, and the moving image decoding method which derive a motion vector with little calculation amount.

도 1은 움직임 벡터의 설명도,1 is an explanatory diagram of a motion vector;

도 2는 종래의 움직임 벡터를 구하는 처리의 흐름을 도시하는 흐름도,2 is a flowchart showing a flow of a process for obtaining a conventional motion vector;

도 3은 본 발명의 동화상 부호화 장치의 구성을 도시하는 블록도,3 is a block diagram showing the structure of a video encoding apparatus of the present invention;

도 4는 본 발명의 움직임 벡터 도출부의 구성을 도시하는 블록도,4 is a block diagram showing the configuration of a motion vector derivation unit according to the present invention;

도 5는 본 발명의 승수 파라미터 테이블을 도시하는 도면,5 is a diagram showing a multiplier parameter table of the present invention;

도 6은 본 발명의 움직임 벡터를 도출하는 방법을 도시하는 흐름도,6 is a flowchart illustrating a method of deriving a motion vector of the present invention;

도 7은 본 발명의 움직임 벡터의 설명도,7 is an explanatory diagram of a motion vector of the present invention;

도 8은 본 발명의 움직임 벡터 도출부의 구성을 도시하는 블록도,8 is a block diagram showing the configuration of a motion vector derivation unit according to the present invention;

도 9는 본 발명의 움직임 벡터를 도출하는 방법을 도시하는 흐름도,9 is a flowchart illustrating a method of deriving a motion vector of the present invention;

도 10은 본 발명의 움직임 벡터의 설명도,10 is an explanatory diagram of a motion vector of the present invention;

도 11은 본 발명의 움직임 벡터의 설명도,11 is an explanatory diagram of a motion vector of the present invention;

도 12는 본 발명의 움직임 벡터 도출부의 구성을 도시하는 블록도,12 is a block diagram showing the configuration of a motion vector derivation unit according to the present invention;

도 13은 본 발명의 동화상 복호화 장치의 구성을 도시하는 블록도,13 is a block diagram showing the structure of a moving picture decoding apparatus of the present invention;

도 14는, 각 실시 형태의 동화상 부호화 방법 및 동화상 복호화 방법을 컴퓨터 시스템에 의해 실현하기 위한 프로그램을 격납하기 위한 기록 매체에 대한 설명도로서, (a)기록 매체 본체인 플렉시블 디스크의 물리 포맷의 예를 도시한 설명도, (b)플렉시블 디스크의 정면에서 본 외관, 단면 구조, 및 플렉시블 디스크를 도시한 설명도, (c)플렉시블 디스크(FD)에 상기 프로그램의 기록 재생을 행하기 위한 구성을 도시한 설명도,FIG. 14 is an explanatory diagram of a recording medium for storing a program for realizing the moving picture coding method and the moving picture decoding method of each embodiment by a computer system, and (a) an example of a physical format of a flexible disk as a main body of a recording medium. An explanatory diagram showing the appearance of a flexible disk, (b) an appearance, a cross-sectional structure, and a flexible disk as viewed from the front of the flexible disk, and (c) a configuration for recording and reproducing the program on the flexible disk FD. One diagram,

도 15는 콘텐츠 공급 시스템의 전체 구성을 도시하는 블록도,15 is a block diagram showing an overall configuration of a content supply system;

도 16은 휴대 전화의 예를 도시하는 개략도,16 is a schematic diagram showing an example of a mobile phone;

도 17은 휴대 전화의 구성을 도시하는 블록도,17 is a block diagram showing the configuration of a mobile telephone;

도 18은 디지털 방송용 시스템의 예를 도시하는 도면이다.18 is a diagram illustrating an example of a system for digital broadcasting.

상기 목적을 달성하기 위해, 본 발명에 관한 움직임 벡터 도출 방법은, 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법으로서, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와, 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와, 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와, 상기 제1 파라미터가 미리 설정된 소정 범위에 포함되는지 여부를 판단하는 판단 단계와, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 소정 범위에 포함되지 않는 경우, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하고, 한편, 상기 제1 파라미터가 상기 소정 범위에 포함되는 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a motion vector derivation method according to the present invention is a motion vector derivation method for deriving a motion vector of a block constituting a picture, the reference for obtaining a reference motion vector for deriving a motion vector of a target block A motion parameter acquiring step, a first parameter acquiring step for acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector, a picture including the target block, and the target A second parameter acquiring step of acquiring at least one second parameter corresponding to an interval of a picture referred to by the block, a determining step of determining whether the first parameter is within a predetermined range, and in the determining step As a result of the determination, if the first parameter is not included in the predetermined range, The reference motion vector is scaled based on a first predetermined value and the second parameter to derive a motion vector of the target block. Meanwhile, when the first parameter is included in the predetermined range, the first parameter and the And a motion vector derivation step of deriving a motion vector of the target block by scaling the reference motion vector based on a second parameter.

또, 본 발명에 관한 움직임 벡터 도출 방법은, 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법으로서, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와, 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와, 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와, 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 단계와, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 한다.The motion vector derivation method according to the present invention is a motion vector derivation method for deriving a motion vector of a block constituting a picture, comprising: a reference motion vector acquisition step of acquiring a reference motion vector for deriving a motion vector of a target block; And a first parameter obtaining step of acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector, a picture including the target block, and a picture referenced by the target block. A second parameter acquiring step of acquiring at least one second parameter corresponding to the interval of the second step; a determination step of determining whether the first parameter is equal to or greater than a first predetermined value; and a result of the determination in the determination step When the first parameter is equal to or greater than the first predetermined value, the first parameter is based on the first predetermined value and the second parameter. First, the reference motion vector is scaled to derive a motion vector of the target block. Meanwhile, when the first parameter is less than the predetermined value, the reference motion vector is scaled based on the first parameter and the second parameter. And a motion vector derivation step of deriving a motion vector of the target block.

여기서, 상기 판단 단계에서는, 상기 제1 파라미터가 미리 설정된 상기 제1 소정값보다 작은 값인 제2 소정값 이하인지 여부를 더 판단하고, 상기 움직임 벡터 도출 단계에서는, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제2 소정값 이하이면, 상기 제2 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출해도 된다.Here, in the determining step, it is further determined whether or not the first parameter is less than or equal to a second predetermined value, which is a value smaller than the predetermined first predetermined value.In the motion vector derivation step, as a result of the determination in the determining step, If the first parameter is equal to or less than the second predetermined value, the motion vector of the target block may be derived by scaling the reference motion vector based on the second predetermined value and the second parameter.

또, 상기 움직임 벡터 도출 방법은, 상기 제1 파라미터와 상기 제1 파라미터에 대한 역수의 값과의 관계를 나타내는 승수 파라미터 테이블을 참조하여, 상기 취득된 제1 파라미터를 상기 역수의 값으로 변환하고, 얻어진 값을 제3 파라미터로서 취득하는 변환 단계를 더 포함하는 것이 바람직하다.In addition, the motion vector derivation method, with reference to a multiplier parameter table indicating the relationship between the first parameter and the value of the reciprocal of the first parameter, converts the obtained first parameter to the value of the reciprocal, Preferably, the method further includes a conversion step of acquiring the obtained value as a third parameter.

또, 상기 움직임 벡터 도출 단계에서는, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링할 때, 상기 참조 움직임 벡터, 상기 제2 파라미터, 및 상기 제3 파라미터를 승산하여 상기 대상 블록의 움직임 벡터를 도출하는 것이 바람직하다.In the motion vector deriving step, the reference motion vector, the second parameter, and the third parameter are multiplied when the reference motion vector is scaled based on the first parameter and the second parameter. It is desirable to derive the motion vector of the block.

이것에 의해, 참조 움직임 벡터를 스케일링할 때에 필요하게 되는 제산 처리를 승산 처리로 행할 수 있고, 또한 참조 움직임 벡터를 스케일링할 때에 사용하는 파라미터의 값을 소정 범위로 제한함으로써, 메모리 상에 격납하는 승수 파라미터 테이블을 삭감할 수 있다. 또, 부호화 처리와 복호화 처리에서 연산 오차에 의한 결과의 불일치가 발생하는 것을 방지할 수 있다.As a result, the division process required when scaling the reference motion vector can be performed by multiplication processing, and the multiplier stored in the memory by limiting the value of a parameter used when scaling the reference motion vector to a predetermined range. You can reduce the parameter table. In addition, it is possible to prevent the inconsistency of the result due to the operation error in the encoding process and the decoding process.

또, 본 발명에 관한 움직임 벡터 도출 방법은, 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법으로서, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와, 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와, 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와, 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 단계와, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 참조 움직임 벡터를 상기 대상 블록의 움직임 벡터로서 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 한다.The motion vector derivation method according to the present invention is a motion vector derivation method for deriving a motion vector of a block constituting a picture, comprising: a reference motion vector acquisition step of acquiring a reference motion vector for deriving a motion vector of a target block; And a first parameter obtaining step of acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector, a picture including the target block, and a picture referenced by the target block. A second parameter acquiring step of acquiring at least one second parameter corresponding to the interval of the second step; a determining step of determining whether the first parameter is equal to or greater than a first predetermined value; If the first parameter is equal to or greater than the first predetermined value, the reference motion vector is converted into the target block. Derived as a motion vector, and when the first parameter is less than the predetermined value, a motion vector derivation that derives a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter. Characterized in that it comprises a step.

여기서, 상기 판단 단계에서는, 상기 제1 파라미터가 미리 설정된 상기 제1 소정값보다 작은 값인 제2 소정값 이하인지 여부를 더 판단하고, 상기 움직임 벡터 도출 단계에서는, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제2 소정값 이하이면, 상기 참조 움직임 벡터를 상기 대상 블록의 움직임 벡터로서 도출해도 된다.Here, in the determining step, it is further determined whether or not the first parameter is less than or equal to a second predetermined value, which is a value smaller than the predetermined first predetermined value.In the motion vector derivation step, as a result of the determination in the determining step, If the first parameter is equal to or less than the second predetermined value, the reference motion vector may be derived as the motion vector of the target block.

이것에 의해, 참조 움직임 벡터가 참조하는 픽처와 참조 움직임 벡터를 갖는 픽처의 간격이 소정 범위 이외일 때, 움직임 벡터의 도출을 간략화할 수 있다.This can simplify the derivation of the motion vector when the distance between the picture referenced by the reference motion vector and the picture having the reference motion vector is outside the predetermined range.

또, 본 발명에 관한 동화상 부호화 방법은, 동화상을 구성하는 각 픽처를 블록 단위로 부호화하는 동화상 부호화 방법으로서, 본 발명에 관한 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 부호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 단계와, 상기 움직임 보상 화상을 이용하여 상기 부호화 대상 블록을 부호화하는 부호화 단계를 포함하는 것을 특징으로 한다.The moving picture coding method according to the present invention is a moving picture coding method for coding each picture constituting a moving picture in block units, and using the motion vector derived by the motion vector derivation method according to the present invention, the motion of a block to be encoded. And a motion compensation step of generating a compensation image, and an encoding step of encoding the encoding target block by using the motion compensation image.

또, 본 발명에 관한 동화상 복호화 방법은, 동화상을 구성하는 각 픽처가 블록 단위로 부호화된 동화상 부호화 데이터를 복호화하는 동화상 복호화 방법으로서, 본 발명에 관한 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 복호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 단계와, 상기 움직임 보상 화상을 이용하여 상기 복호화 대상 블록을 복호화하는 복호화 단계를 포함하는 것을 특징으로 한다.The moving picture decoding method according to the present invention is a moving picture decoding method for decoding moving picture coded data in which each picture constituting a moving picture is coded in block units, using a motion vector derived by the motion vector derivation method according to the present invention. And a motion compensation step of generating a motion compensation image of the decoding object block, and a decoding step of decoding the decoding object block by using the motion compensation image.

또한, 본 발명은, 이러한 움직임 벡터 도출 방법, 동화상 부호화 방법 및 동화상 복호화 방법으로서 실현할 수 있을 뿐만 아니라, 이러한 움직임 벡터 도출 방법, 동화상 부호화 방법 및 동화상 복호화 방법이 포함하는 특징적인 단계를 수단으로서 구비하는 움직임 벡터 도출 장치, 동화상 부호화 장치 및 동화상 복호화 장치로서 실현하거나, 이들 단계를 컴퓨터에 실행시키는 프로그램으로서 실현하거나 할 수도 있다. 그리고, 이와 같은 프로그램은, CD-ROM 등의 기록 매체나 인터넷 등의 전송 매체를 통해 배송할 수 있는 것은 말할 필요도 없다.In addition, the present invention can be realized as such a motion vector derivation method, moving picture coding method and moving picture decoding method, and includes as a means the characteristic steps included in such a motion vector deriving method, moving picture coding method and moving picture decoding method. It may be realized as a motion vector deriving apparatus, a moving picture coding apparatus, and a moving picture decoding apparatus, or as a program for causing these steps to be executed by a computer. It goes without saying that such a program can be delivered via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

이하, 본 발명의 실시 형태에 대해서 도면을 참조하면서 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described, referring drawings.

(실시 형태 1)(Embodiment 1)

도 3은 본 실시 형태에 관한 동화상 부호화 장치의 구성을 도시하는 블록도이다. 도 3의 처리에서, 이미 종래의 기술에서 도 1을 이용하여 설명한 용어에 대해서는 도 1에서의 부호와 동일한 부호를 이용하여 설명한다. 본 실시 형태가 종래 기술과 다른 점은, 부호화 대상 픽처(1202)의 움직임 벡터 도출을 위해 이용되는 파라미터의 수치 폭을 소정 범위로 제한한 것이다.3 is a block diagram showing a configuration of a video encoding apparatus according to the present embodiment. In the process of FIG. 3, the terms already described with reference to FIG. 1 in the prior art will be described using the same reference numerals as in FIG. 1. The present embodiment differs from the prior art in that the numerical width of the parameter used for deriving the motion vector of the picture to be encoded 1202 is limited to a predetermined range.

동화상 부호화 장치는, 도 3에 도시하는 바와 같이 움직임 벡터 부호화부(10), 움직임 벡터 도출부(11), 메모리(12), 감산기(13), 직교 변환부(14), 양자화부(15), 역 양자화부(16), 역 직교 변환부(17), 가산기(18), 및 가변 길이 부호화부(19)를 구비하고 있다.As shown in FIG. 3, the moving picture encoding apparatus includes a motion vector encoder 10, a motion vector derivation unit 11, a memory 12, a subtractor 13, an orthogonal transform unit 14, and a quantization unit 15. And an inverse quantizer 16, an inverse orthogonal transform unit 17, an adder 18, and a variable length encoder 19.

움직임 벡터 부호화부(10)는, 각 픽처의 움직임 벡터(MV1 등)를 부호화하여, 움직임 벡터 스트림으로서 출력한다. 움직임 벡터 도출부(11)는, 참조 블록(MB2)의 움직임 벡터(MVtar)(MV1), 파라미터(TRtar) 및 파라미터(TR1)를 이용하여 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)(MVb 및 MVf)를 도출한다. 여기에서는 이미 설명한 식 1(a) 및 식 1(b)에 기초하여 참조 블록(MB2)의 움직임 벡터를 스케일링한다. 파라미터(TRtar)는 이미 설명한 TRb 또는 TRf에 상당한다.The motion vector encoder 10 encodes a motion vector (MV1 or the like) of each picture and outputs it as a motion vector stream. The motion vector derivation unit 11 uses the motion vectors MVtar (MV1), the parameters TRtar, and the parameters TR1 of the reference block MB2, and the motion vectors MVscl and MVb of the encoding target block MB1. And MVf). Here, the motion vector of the reference block MB2 is scaled based on Equations 1 (a) and 1 (b). The parameter TRtar corresponds to TRb or TRf already described.

메모리(12)는, 참조 픽처의 화상 데이터와 움직임 벡터 도출부(11)에서 도출한 부호화 대상 픽처(1202)의 움직임 벡터(MVscl)를 기억한다. 또, 이 메모리(12)에서는, 참조 픽처의 화상 데이터와 부호화 대상 픽처(1202)의 움직임 벡터(MVscl)에 기초하여, 움직임 보상 데이터가 생성된다. 감산기(13)는, 입력 화상 데이터와 메모리(12)에서 입력된 움직임 보상 데이터의 차분을 계산하여, 차분값을 얻는다. 직교 변환부(14)는, 차분값을 DCT 변환하여, DCT 계수를 출력한다. 양자화부(15)는 DCT 계수를 양자화 단계를 이용하여 양자화한다. 역 양자화부(16)는, 양자화된 DCT 계수를 양자화 단계를 이용하여 역 양자화하고, 원래의 DCT 계수로 되돌린다. 역 직교 변환부(17)는 DCT 계수를 역 직교 변환하여 차분 화상 데이터(차분값)를 출력한다.The memory 12 stores the image data of the reference picture and the motion vector MVscl of the picture to be encoded 1202 derived from the motion vector derivation unit 11. In this memory 12, motion compensation data is generated based on the image data of the reference picture and the motion vector MVscl of the picture to be encoded 1202. The subtractor 13 calculates a difference between the input image data and the motion compensation data input from the memory 12 to obtain a difference value. The orthogonal transform unit 14 DCT transforms the difference value and outputs a DCT coefficient. The quantization unit 15 quantizes the DCT coefficients using a quantization step. The inverse quantization unit 16 inverse quantizes the quantized DCT coefficients using the quantization step, and returns the original DCT coefficients. The inverse orthogonal transform unit 17 inversely orthogonally transforms the DCT coefficients and outputs differential image data (differential values).

가산기(18)는, 역 직교 변환부(17)로부터의 차분 화상 데이터(차분값)와 메모리(12)에 기억되어 있는 참조 픽처의 화상 데이터를 가산하여, 부호화 대상 픽처(1202)의 입력 화상 데이터(원래의 입력 화상 데이터)에 대응하는 복호 화상 데이터를 얻는다. 이 복호 화상 데이터는 부호화 대상 픽처(1202)보다 후에 부호화되는 부호화 대상 픽처의 부호화시에 참조하기 위한 화상 데이터로서 메모리(12)에 기억된다. 가변 길이 부호화부(19)는 양자화부(15)에서 양자화된 DCT 계수를 가변 길이 부호화한다.The adder 18 adds the differential image data (differential value) from the inverse orthogonal transform unit 17 and the image data of the reference picture stored in the memory 12 to input the image data of the encoding target picture 1202. Decoded image data corresponding to (original input image data) is obtained. The decoded image data is stored in the memory 12 as image data for reference at the time of encoding of the encoding target picture encoded after the encoding target picture 1202. The variable length encoder 19 performs variable length encoding on the DCT coefficients quantized by the quantizer 15.

다음에 상기한 바와 같이 구성된 동화상 부호화 장치에서 직접 모드에 의해서 부호화할 때의 움직임에 대해서 도 3을 이용하여 설명한다.Next, the motion at the time of encoding by the direct mode in the moving picture coding apparatus configured as described above will be described with reference to FIG.

각 픽처의 움직임 벡터는 움직임 벡터 부호화부(10)에서 부호화되어 움직임 벡터 스트림으로서 출력된다.The motion vector of each picture is encoded by the motion vector encoder 10 and output as a motion vector stream.

움직임 벡터 도출부(11)에서는, 참조 블록(MB2)의 움직임 벡터(MVtar)(MV1)를 파라미터(TRtar 및 TR1)에 의해 스케일링하여 부호화 대상 블록(MB1)의 움직임 벡터를 도출한다. 메모리(12)는, 기억된 참조 픽처의 화상 데이터 중에서, 움직임 벡터 도출부(11)에서 도출한 움직임 벡터로 표시되는 화상을 추출하여, 움직임 보상 데이터로서 출력한다.The motion vector derivation unit 11 derives the motion vector of the encoding target block MB1 by scaling the motion vectors MVtar and MV1 of the reference block MB2 by the parameters TRtar and TR1. The memory 12 extracts, from the image data of the stored reference picture, the image represented by the motion vector derived by the motion vector derivation unit 11 and outputs it as motion compensation data.

감산기(13)에 의해, 입력 화상 데이터와 메모리(12)로부터 출력된 움직임 보상 데이터의 차분이 계산되어, 차분값인 차분 화상 데이터가 구해진다. 차분값은 직교 변환부(14)에서 직교 변환되어 DCT 계수로 변환된다. DCT 계수는 양자화부(15)에서 양자화되고, 역 양자화부(16)에서 원래의 DCT 계수로 역 양자화되어 복원된다. DCT 계수는 역 직교 변환부(17)에서 차분 화상 데이터(차분값)에 역 직교 변환하여 복원되고, 이 차분 화상 데이터(차분값)는, 가산기(18)에서, 메모리(12)로부터 출력된 움직임 보상 데이터와 가산되어 원래의 입력 화상 데이터에 대응하는 복호 화상 데이터가 얻어진다. 얻어진 입력 화상 데이터는 다음 부호화 대상 픽처 부호화시에 참조하기 위한 화상 데이터로서 메모리(12)에 기억된다.The subtractor 13 calculates the difference between the input image data and the motion compensation data output from the memory 12, and obtains the difference image data that is the difference value. The difference value is orthogonally transformed by the orthogonal transform unit 14 and converted into DCT coefficients. The DCT coefficients are quantized in the quantization unit 15 and inversely quantized to the original DCT coefficients in the inverse quantization unit 16 and restored. The DCT coefficients are inversely orthogonally transformed into differential image data (differential values) by the inverse orthogonal transform unit 17, and the differential image data (differential values) are added to the motions output from the memory 12 by the adder 18. The decoded image data corresponding to the original input image data is obtained by adding the compensation data. The obtained input image data is stored in the memory 12 as image data for reference at the time of encoding of the next encoding target picture.

또, 양자화부(15)에서 양자화된 DCT 계수는, 가변 길이 부호화부(19)에서 가변 길이 부호화되어, 스트림으로서 출력된다.In addition, the DCT coefficients quantized by the quantization unit 15 are variable length coded by the variable length encoding unit 19 and output as a stream.

다음에 파라미터의 수치 폭(크기)을 소정 범위로 제한하여 움직임 벡터를 스케일링하는 구성에 대해서 도 4를 이용하여 설명한다.Next, a configuration of scaling the motion vector by limiting the numerical width (size) of the parameter to a predetermined range will be described with reference to FIG.

도 4는 도 3의 움직임 벡터 도출부(11)의 구성을 도시하는 블록도이다.4 is a block diagram showing the configuration of the motion vector derivation unit 11 of FIG.

움직임 벡터 도출부(11)는, 도 4에 도시하는 바와 같이 비교부(20), 전환부(21), 승수 파라미터 테이블(승수용)(22), 승산기(23, 25), 및 승수 파라미터 테이블(제수용)(24)을 구비하고 있다.As shown in Fig. 4, the motion vector derivation unit 11 includes a comparator 20, a switching unit 21, a multiplier parameter table (for multipliers) 22, multipliers 23 and 25, and a multiplier parameter table. (For dividing) 24 is provided.

비교부(20)는, 참조 블록(MB2)의 움직임 벡터(MVtar)(MV1)에 관한 파라미터(TR1)가 미리 정해진 소정값을 넘는지 여부를 비교한다. 전환부(21)는, 비교부(20)의 비교 결과에 따라 미리 기억되어 있는 파라미터(TR)의 최대값을 선택할지 파라미터(TR1)를 선택할지를 전환한다. 승수 파라미터 테이블(22)은 파라미터(TRtar)(TRb 또는 TRf)와 승수(승산값)의 대응을 나타내고 있다. 승산기(23)는 승수 파라미터 테이블(22)로부터 출력된 승수 파라미터를 참조 블록(MB2)의 움직임 벡터(MVtar)(MV1)에 곱한다.The comparison unit 20 compares whether the parameter TR1 relating to the motion vector MVtar MV1 of the reference block MB2 exceeds a predetermined value. The switching unit 21 switches between selecting the maximum value of the parameter TR stored in advance or selecting the parameter TR1 according to the comparison result of the comparing unit 20. The multiplier parameter table 22 shows the correspondence between the parameter TRtar (TRb or TRf) and the multiplier (multiplication value). The multiplier 23 multiplies the multiplier parameter output from the multiplier parameter table 22 by the motion vector MVtar MV1 of the reference block MB2.

승수 파라미터 테이블(24)은 전환부(21)의 출력값과 승산값의 대응을 나타내고 있다. 승산기(25)는 승수 파라미터 테이블(24)로부터 출력되는 파라미터를 승산기(23)의 출력값에 곱한다.The multiplier parameter table 24 shows the correspondence between the output value of the switching unit 21 and the multiplication value. The multiplier 25 multiplies the output value of the multiplier 23 by the parameter output from the multiplier parameter table 24.

이하, 도 4를 이용하여 동작에 대해서 설명한다. 이 도 4에 도시하는 움직임 벡터 도출부(11A)는, 도 3에 도시하는 동화상 부호화 장치의 블록도에서의 움직임 벡터 도출부(11)를 나타내고 있다.Hereinafter, the operation will be described with reference to FIG. 4. The motion vector derivation part 11A shown in FIG. 4 shows the motion vector derivation part 11 in the block diagram of the moving picture coding apparatus shown in FIG.

참조 블록(MB2)의 움직임 벡터(MVtar)(MV1)에 관한 파라미터(TR1)는, 비교부(20)에서 미리 정해진 소정값을 넘는지 여부가 비교된다. 이 결과, 파라미터(TR1)가 소정값을 넘지 않는 경우에는, 전환부(21)는 해당 파라미터(TR1)를 그대로 선택한다. 한편, 파라미터(TR1)가 소정값을 넘는 경우에는, 전환부(21)는 미리 정해진 소정값(TR의 최대값)을 선택한다.The parameter TR1 relating to the motion vector MVtar MV1 of the reference block MB2 is compared whether or not the predetermined value predetermined by the comparison unit 20 is exceeded. As a result, when the parameter TR1 does not exceed the predetermined value, the switching unit 21 selects the parameter TR1 as it is. On the other hand, when the parameter TR1 exceeds a predetermined value, the switching unit 21 selects a predetermined predetermined value (maximum value of TR).

또, 부호화 대상 블록의 움직임 벡터(MVscl)(MVb 또는 MVf)의 파라미터(TRtar)(TRb 또는 TRf)는 승수 파라미터 테이블(22)에서 대응하는 승수 파라미터가 선택되고, 선택된 승수 파라미터가 승산기(23)에 의해서 참조 블록(MB2)의 움직임 벡터(MVtar)에 곱해진다.The multiplier parameter corresponding to the parameter TRtar (TRb or TRf) of the motion vector MVscl (MVb or MVf) of the encoding target block is selected from the multiplier parameter table 22, and the selected multiplier parameter is multiplier 23. Is multiplied by the motion vector MVtar of the reference block MB2.

승수 파라미터 테이블(24)에서는 전환부(21)에서 선택된 파라미터에 대응하는 승수 파라미터가 선택되고, 선택된 승수 파라미터가 승산기(25)에 의해서 승산기(23)의 출력에 곱해진다.In the multiplier parameter table 24, a multiplier parameter corresponding to the parameter selected by the switching unit 21 is selected, and the selected multiplier parameter is multiplied by the multiplier 25 to the output of the multiplier 23.

이와 같이 하여, 참조 블록(MB2)의 움직임 벡터(MVtar)에 승산기(23) 및 승산기(25)에서 각각 승산 파라미터를 곱한 값(스케일링된 값)이 부호화 대상 픽처(1202)의 움직임 벡터(MVscl)로 된다.In this way, the value obtained by multiplying the multiplication parameter in the multiplier 23 and the multiplier 23 by the motion vector MVtar of the reference block MB2 (scaled value) is the motion vector MVscl of the picture 1202 to be encoded. It becomes

도 5는 승수 파라미터 테이블의 일례를 도시하는 도면이고, 이 예에서는 도 4의 승수 파라미터 테이블(24)에 상당한다.FIG. 5 shows an example of the multiplier parameter table, which corresponds to the multiplier parameter table 24 of FIG. 4.

도 5에 도시하는 가장 좌측의 란이 이 테이블에 입력되는 파라미터(TR1)(제수)를 나타내고 있고, 이 파라미터(TR1)는 「1」부터「8」까지의 소정 범위로 제한되어 있다. 한가운데 난은 파라미터의 역수(1/TR1)를 나타내고 있다. 가장 우측의 난은 승수 파라미터(Tscl)를 나타내고 있고, 한가운데 난에 표시하는 파라미터의 역수(1/TR1)에 근사된 값을 나타내고 있다. 실제의 계산에서는 가장 우측의 승산 파라미터(Tscl)가 부호화 대상 픽처(1202)의 움직임 벡터(MVscl)의 도출을 위한 값으로서 사용되므로, 계산이 간단하게 된다.The leftmost column shown in FIG. 5 represents the parameter TR1 (divisor) input to this table, and this parameter TR1 is limited to a predetermined range from "1" to "8". The middle column shows the inverse of the parameter (1 / TR1). The rightmost column represents a multiplier parameter Tscl and a value approximated to the reciprocal of the parameter (1 / TR1) displayed in the middle column. In the actual calculation, since the rightmost multiplication parameter Tscl is used as a value for deriving the motion vector MVscl of the picture 1202 to be encoded, the calculation is simplified.

즉, 예를 들면 도 1에 도시하는 부호화 대상 블록(MB1)의 2개의 움직임 벡터(MVf, MVb)는 이하의 식 2(a) 및 식 2(b)을 이용하여 산출되게 된다.That is, for example, two motion vectors MVf and MVb of the encoding target block MB1 shown in FIG. 1 are calculated using the following equations (a) and (b).

MVf = MV1 ×TRf ×Tscl … 식 2(a)MVf = MV1 x TRf x Tscl... Equation 2 (a)

MVb = -MV1 ×TRb ×Tscl … 식 2(b)MVb = -MV1 x TRb x Tscl... Equation 2 (b)

여기서, MVf는 부호화 대상 블록(MB1)의 전 방향 움직임 벡터, MVb는 부호화 대상 블록(MB1)의 후 방향 움직임 벡터, Tscl은 픽처(1200)와 픽처(1203)의 간격의 역수에 대응하는 승수 파라미터, 즉 1/TR1이고, TRf는 픽처(1200)와 픽처(1702)의 간격, TRb는 픽처(1202)와 픽처(1203)의 간격이다.Here, MVf is a forward motion vector of the encoding target block MB1, MVb is a backward motion vector of the encoding target block MB1, and Tscl is a multiplier parameter corresponding to the inverse of the interval between the picture 1200 and the picture 1203. That is, 1 / TR1, TRf is the interval between the picture 1200 and the picture 1702, and TRb is the interval between the picture 1202 and the picture 1203.

다음에, 도 6을 이용하여 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 구하는 처리를 설명한다.Next, a process of obtaining the motion vector MVscl of the encoding target block MB1 will be described with reference to FIG. 6.

도 6은 움직임 벡터(MVscl)를 구하는 처리 순서를 도시하는 플로 차트이다. 움직임 벡터 도출부(11A)는, 참조 블록(MB2)이 갖는 움직임 벡터(MVtar)의 정보를 취득한다(단계 S401). 이 움직임 벡터(MVtar)는 식 1(a), 식 1(b)에서의 MV1에 상당한다. 다음에, 움직임 벡터 도출부(11A)는 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출하기 위한 파라미터(TRtar) 및 파라미터(TR1)를 취득한다(단계 S402). 이 파라미터(TRtar)는 식 1(a), 식 1(b)에서의 TRf 및 TRb에 해당한다.6 is a flowchart showing a processing procedure for obtaining a motion vector MVscl. The motion vector derivation part 11A acquires the information of the motion vector MVtar which the reference block MB2 has (step S401). This motion vector MVtar corresponds to MV1 in Expressions 1 (a) and 1 (b). Next, the motion vector derivation unit 11A obtains a parameter TRtar and a parameter TR1 for deriving the motion vector MVscl of the encoding target block MB1 (step S402). This parameter TRtar corresponds to TRf and TRb in Equations 1 (a) and 1 (b).

다음에, 비교부(20)는 제수에 대응하는 파라미터(TR1)가 미리 정해진 소정값 이상인지 여부를 판단한다(단계 S403). 판단의 결과, 파라미터(TR1)가 소정값 이상이면, 전환부(21)는 최대 제수에 대응하는 파라미터(도 5의 예에서는 TR1의 최대값「8」)를 선택한다. 이에 따라, 움직임 벡터 도출부(11A)는, 최대 제수에 대응하는 파라미터를 이용하여, 단계 S401에서 취득된 움직임 벡터(MVtar)를 스케일링하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출한다(단계 S405). 한편, 취득된 파라미터(TR1)가 소정값 미만이면, 전환부(21)는 제수에 대응하는 파라미터를 선택한다. 이에 따라, 움직임 벡터 도출부(11A)는, 제수에 대응하는 파라미터를 이용하여 동일한 스케일링을 행하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 산출한다(단계 S404).Next, the comparing unit 20 determines whether or not the parameter TR1 corresponding to the divisor is equal to or greater than a predetermined value (step S403). As a result of the determination, if the parameter TR1 is equal to or larger than the predetermined value, the switching unit 21 selects a parameter corresponding to the maximum divisor (the maximum value "8" of TR1 in the example of FIG. 5). Accordingly, the motion vector derivation unit 11A derives the motion vector MVscl of the encoding target block MB1 by scaling the motion vector MVtar obtained in step S401 using the parameter corresponding to the maximum divisor. (Step S405). On the other hand, if the acquired parameter TR1 is less than the predetermined value, the switching unit 21 selects a parameter corresponding to the divisor. Accordingly, the motion vector derivation unit 11A performs the same scaling using the parameter corresponding to the divisor to calculate the motion vector MVscl of the block to be encoded MB1 (step S404).

이상과 같이, 본 실시 형태에 의하면, 참조 블록의 움직임 벡터를 스케일링할 때에 사용하는 파라미터의 값을 소정값 이하로 제한함으로써, 메모리 상에 격납하는 제수에 대응하는 승수 파라미터 테이블을 삭감할 수 있고, 또, 부호화 처리와 복호화 처리에서 연산 오차에 의한 결과의 불일치가 발생하는 것을 방지할 수 있다는 효과도 갖는다.As described above, according to the present embodiment, by limiting the value of a parameter used when scaling the motion vector of the reference block to a predetermined value or less, the multiplier parameter table corresponding to the divisor stored in the memory can be reduced. In addition, there is an effect that the inconsistency of the result due to the operation error can be prevented in the encoding process and the decoding process.

또한, 본 실시 형태에서는, 상기 판단(단계 S403)에서 파라미터(TR1)가 미리 정해진 소정값 이상인지 여부를 판단하는데, 이것에 한정되지 않고, 파라미터(TR1)가 미리 정해진 소정 범위에 포함되는지 여부를 판단해도 상관없다. 예를 들면, 도 7에 도시하는 바와 같이 참조 블록(MB2)이 갖는 움직임 벡터(MV1)가 후방에 있는 픽처를 참조하는 경우, 파라미터(TR1)(제수) 및 파라미터(TR1)에 대응하는 승수 파라미터(Tscl)는 다음과 같이 부(負)의 값으로 된다. 도 7에서, 픽처(1500), 픽처(1501), 픽처(1502) 및 픽처(1503)가 표시 순으로 배치되어 있다. 픽처(1501)가 부호화 대상인 픽처이고, 블록(MB1)은 부호화 대상의 블록이다. 도 7에서는, 픽처(1500)와 픽처(1503)를 참조 픽처로 하여, 픽처(1501)의 블록(MB1)의 2방향 예측이 행해지는 경우를 나타내고 있다.In the present embodiment, the determination (step S403) determines whether the parameter TR1 is equal to or greater than a predetermined value, but is not limited to this, and it is determined whether the parameter TR1 falls within a predetermined predetermined range. You can judge. For example, when the motion vector MV1 included in the reference block MB2 refers to a picture behind, as shown in FIG. 7, a multiplier parameter corresponding to the parameter TR1 (divisor) and the parameter TR1. (Tscl) becomes a negative value as follows. In Fig. 7, the picture 1500, the picture 1501, the picture 1502, and the picture 1503 are arranged in the display order. The picture 1501 is a picture to be encoded, and the block MB1 is a block to be encoded. In FIG. 7, the bidirectional prediction of the block MB1 of the picture 1501 is performed using the picture 1500 and the picture 1503 as the reference picture.

픽처(1501)보다 전방에 있는 참조 픽처인 픽처(1500)가, 후방에 있는 픽처(1503)를 참조하는 움직임 벡터를 갖고 있다. 그래서, 부호화 대상의 픽처(1501)의 전방에 위치하는 픽처(1500)의 참조 블록(MB2)이 갖는 움직임 벡터(MV1)를 이용하여, 부호화 대상 블록(MB1)의 움직임 벡터를 결정한다. 구하는 2개의 움직임 벡터(MVf, MVb)는 상기 식2(a) 및 식2(b)을 이용하여 산출된다. 이와 같이 참조 블록(MB2)이 갖는 움직임 벡터(MV1)가 후방에 있는 픽처를 참조하는 경우, 파라미터(TR1)(제수) 및 파라미터(TR1)에 대응하는 승수 파라미터(Tscl)는 부의 값으로 된다.The picture 1500 that is a reference picture in front of the picture 1501 has a motion vector that refers to the picture 1503 in the back. Therefore, the motion vector of the encoding target block MB1 is determined using the motion vector MV1 of the reference block MB2 of the picture 1500 positioned in front of the picture 1501 to be encoded. The two motion vectors MVf and MVb obtained are calculated by using Equations 2 (a) and 2 (b). In this way, when the motion vector MV1 included in the reference block MB2 refers to the picture behind, the multiplier parameter Tscl corresponding to the parameter TR1 (divisor) and the parameter TR1 becomes negative.

따라서, 파라미터(TR1)가 미리 정해진 제1 소정값 이상인지 여부 및 파라미터(TR1)가 미리 정해진 제2 소정값 이하인지 여부를 판단한다. 이 판단의 결과, 파라미터(TR1)가 제1 소정값 이상인 경우, 최대 제수에 대응하는 파라미터를 이용하여 움직임 벡터(MVtar)를 스케일링하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출한다. 또, 파라미터(TR1)가 제2 소정값 이하인 경우, 최소 제수에 대응하는 파라미터를 이용하여 움직임 벡터(MVtar)를 스케일링하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출한다. 또한, 파라미터(TR1)가 제1 소정값 미만, 또한 제2 소정값보다 큰 경우, 파라미터(TR1)를 이용하여 움직임 벡터(MVtar)를 스케일링하여, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출한다.Therefore, it is determined whether the parameter TR1 is equal to or greater than the first predetermined value and whether the parameter TRl is equal to or less than the second predetermined value. As a result of this determination, when the parameter TR1 is equal to or larger than the first predetermined value, the motion vector MVtar is scaled using the parameter corresponding to the maximum divisor to derive the motion vector MVscl of the encoding target block MB1. . If the parameter TR1 is equal to or less than the second predetermined value, the motion vector MVtar is scaled using a parameter corresponding to the minimum divisor to derive the motion vector MVscl of the encoding target block MB1. Further, when the parameter TR1 is less than the first predetermined value and larger than the second predetermined value, the motion vector MVtar is scaled using the parameter TR1, and the motion vector MVscl of the encoding target block MB1 is scaled. To derive

또한, 종래 기술에서도 설명했지만, 본 실시 형태에서, 파라미터(TR1 및 TRtar)의 픽처 간격은, 픽처간 시간 간격에 한정되지 않고, 예를 들면 픽처마다 할당되는 픽처 번호의 차이를 이용한 데이터, 픽처의 표시 순서(또는 픽처의 표시 순서를 표시하는 정보)의 차이를 이용한 데이터, 픽처간 매수를 이용한 데이터 등, 픽처간 표시 순서에서의 시간적인 간격을 인식할 수 있고, 움직임 벡터의 스케일링에서 이용되는 지표가 되는 데이터이면 어떠한 것이어도 된다.In addition, although it was demonstrated also in the prior art, in this embodiment, the picture interval of the parameters TR1 and TRtar is not limited to the time interval between pictures, For example, the data and the picture using the difference of the picture number allocated to each picture are used. An index used for scaling a motion vector and recognizing temporal intervals in the display order between pictures, such as data using a difference in display order (or information indicating a display order of pictures) and data using a number of pictures between pictures. Any data may be used.

또, 제수를 소정의 범위로 제한하는 것을 하지 않으면 제수에 대응하는 승수의 파라미터는 무한개로 되기 때문에, 제수에 대응하는 파라미터 테이블이 실현 불가능하고, 제산을 승산으로 실현한다는 구조 자체를 실현할 수 없다.If the divisor is not limited to a predetermined range, the parameters of the multiplier corresponding to the divisor are infinite, so that the parameter table corresponding to the divisor cannot be realized and the structure itself of realizing the division by multiplication cannot be realized.

또한, 파라미터(TR1)가 미리 정해진 소정 범위에 포함되는지 여부를 판단하는 일례로서, 도 6에 도시한 바와 같이, 「소정값 이상」인지 여부를 기술했는데, 「소정값을 넘음」또는「소정값 미만」등의 조건이어도 된다.In addition, as an example of judging whether the parameter TR1 is included in a predetermined predetermined range, as illustrated in FIG. 6, it is described whether or not it is "above a predetermined value", but "over a predetermined value" or "predetermined value". Under "conditions may be sufficient.

(실시 형태 2)(Embodiment 2)

상기 실시 형태 1에서는, 참조하는 움직임 벡터인 움직임 벡터(MVtar)를 스케일링하여 움직임 벡터(MVscl)를 도출할 때, 파라미터(TR1)와 승수 파라미터 테이블이 갖는 제수의 상한값을 비교하여, TR1가 상한값 이상일 때에 승수 파라미터 테이블이 갖는 최대의 제수에 대응하는 값을, 입력된 파라미터(TR1)에 대응하는 승수 파라미터로서 이용했다. 본 실시 형태 2에서는, 파라미터(TR1)와 승수 파라미터 테이블이 갖는 제수의 상한값을 비교하여, TR1가 상한값 이상일 때에 움직임 벡터(MVtar)를 스케일링에 의해 도출하지 않고, 입력된 MVtar를 그대로 움직임 벡터(MVscl)로 한다. 이것에 의해, 상한값 이상일 때의 움직임 벡터(MVscl)의 도출 처리가 간략화된다. 이하, 본 발명의 실시 형태 2에 대해서 도면을 참조하면서 설명한다.In the first embodiment, when deriving the motion vector MVscl by scaling the motion vector MVtar, which is a reference motion vector, the upper limit value of the divisor of the parameter TR1 and the multiplier parameter table is compared, and TR1 is equal to or greater than the upper limit value. At this time, the value corresponding to the largest divisor of the multiplier parameter table was used as the multiplier parameter corresponding to the input parameter TR1. In the second embodiment, the upper limit value of the divisor of the parameter TR1 and the multiplier parameter table are compared, and when the TR1 is equal to or larger than the upper limit value, the motion vector MVtar is not derived by scaling, and the input MVtar is used as the motion vector MVscl. ) Thereby, the derivation process of the motion vector MVscl when it is more than an upper limit is simplified. EMBODIMENT OF THE INVENTION Hereinafter, Embodiment 2 of this invention is described, referring drawings.

도 8은 본 실시 형태 2에 관한 움직임 벡터 도출부의 구성을 도시하는 블록도이다. 이 도 8에 도시하는 움직임 벡터 도출부(11B)는, 도 3에 도시하는 화상 부호화 장치의 블록도에서의 움직임 벡터 도출부(11)를 나타내고 있다. 또한, 도 3에 도시하는 화상 부호화 장치의 블록도에서의 움직임 벡터 도출부(11) 이외의 구성은 실시 형태 1에서 설명한 바와 같다. 따라서, 도 8에 도시하는 움직임 벡터 도출부(11B)에 대해서, 도 5 및 도 1을 참조하면서 설명한다.8 is a block diagram showing the configuration of a motion vector derivation unit according to the second embodiment. The motion vector derivation part 11B shown in FIG. 8 has shown the motion vector derivation part 11 in the block diagram of the image coding apparatus shown in FIG. The configuration other than the motion vector derivation unit 11 in the block diagram of the picture coding apparatus shown in FIG. 3 is as described in the first embodiment. Therefore, the motion vector derivation part 11B shown in FIG. 8 is demonstrated, referring FIG. 5 and FIG.

움직임 벡터 도출부(11B)는, 도 8에 도시하는 바와 같이 승수 파라미터 테이블(승수용)(50), 승수 파라미터 테이블(제수용)(51), 비교부(52), 승산기(53, 54), 및 전환부(55)를 구비하고 있다.As shown in Fig. 8, the motion vector derivation unit 11B includes a multiplier parameter table (for multipliers) 50, a multiplier parameter table (for divisors) 51, a comparator 52, and multipliers 53, 54. , And a switching unit 55 is provided.

이 움직임 벡터 도출부(11B)는, 도 1에 도시하는 참조 블록(MB2)의 움직임 벡터(MVtar)(MV1), 파라미터(TRtar)(TRf 및 TRb) 및 파라미터(TR1)를 이용하여 부호화 대상 블록(MB1)의 움직임 벡터(MVb 및 MVf)를 도출한다. 여기에서는 이미 설명한 상기 식 2(a) 및 식 2(b)을 이용하여 참조 블록(MB2)의 움직임 벡터(MVtar)를 스케일링한다. 파라미터(TRtar)는 이미 설명한 TRb 또는 TRf에 상당한다.This motion vector derivation unit 11B uses a motion vector MVtar (MV1), parameters TRtar (TRf and TRb), and parameter TR1 of the reference block MB2 shown in FIG. 1 to encode a block to be encoded. The motion vectors MVb and MVf of MB1 are derived. Here, the motion vectors MVtar of the reference block MB2 are scaled using the above-described equations 2 (a) and 2 (b). The parameter TRtar corresponds to TRb or TRf already described.

비교부(52)는 참조 블록(MB2)의 움직임 벡터(MVtar)에 관한 파라미터(TR1)가 미리 정해진 소정값을 넘는지 여부를 비교한다. 여기서, 미리 정해진 소정값이란, 예를 들면 도 5에 도시하는 승수 파라미터 테이블이 갖는 제수의 최대값인 「8」이다. 전환부(55)는 비교부(52)의 비교 결과에 따라 승산기(54)의 출력(처리 57) 또는 입력된 참조 블록(MB2)의 움직임 벡터(MVtar)(처리 58)를 선택한다.The comparing unit 52 compares whether the parameter TR1 regarding the motion vector MVtar of the reference block MB2 exceeds a predetermined value. Here, a predetermined predetermined value is "8" which is the maximum value of the divisor which the multiplier parameter table shown in FIG. 5 has, for example. The switching unit 55 selects the output (process 57) of the multiplier 54 or the motion vector MVtar (process 58) of the input reference block MB2 according to the comparison result of the comparing unit 52.

승수 파라미터 테이블(승수용)(50)은 파라미터(TRtar)(TRb 또는 TRf)와 승수(승산값)와의 대응을 나타내고 있다. 승수 파라미터 테이블(제수용)(51)은 TR1과 승수(제수)와의 대응을 나타내고 있다. 또한, 본 실시 형태 2에서는 승수 파라미터 테이블(50)에 입력되는 TRtar를 그대로 승산기(53)에의 입력으로 하는데, 이것에 한정되지 않고, 승수 파라미터 테이블(50)에서 필요에 따라 산술 처리를 행하도록 해도 된다.The multiplier parameter table (for multipliers) 50 indicates the correspondence between the parameter TRtar (TRb or TRf) and the multiplier (multiplication value). The multiplier parameter table (for divisor) 51 shows the correspondence between TR1 and the multiplier (divisor). In the second embodiment, the TRtar input to the multiplier parameter table 50 is input to the multiplier 53 as it is, but not limited to this, the arithmetic processing may be performed in the multiplier parameter table 50 as necessary. do.

승산기(53)는 승수 파라미터 테이블(승수용)(50)로부터 출력된 승수 파라미터를 참조 픽처(1203)의 움직임 벡터(MVtar)(MV 1)에 곱한다. 승산기(54)는 승수 파라미터 테이블(제수용)(51)로부터 출력된 승수 파라미터를 승산기(53)의 출력값에 곱한다. 또한, 승산기(53)와 승산기(54)의 승산 처리의 순서는 반대로 되어도 된다.The multiplier 53 multiplies the multiplier parameter output from the multiplier parameter table (for multipliers) 50 by the motion vector MVtar MV 1 of the reference picture 1203. The multiplier 54 multiplies the output value of the multiplier 53 by the multiplier parameter output from the multiplier parameter table (for dividing) 51. In addition, the order of the multiplication process of the multiplier 53 and the multiplier 54 may be reversed.

다음에, 도 9를 이용하여 도 8에 도시하는 움직임 벡터 도출부(11B)의 움직임에 대해서 설명한다. 도 9는 움직임 벡터(MVscl)를 구하는 처리 순서를 도시하는 플로 차트이다.Next, the motion of the motion vector derivation part 11B shown in FIG. 8 is demonstrated using FIG. 9 is a flowchart showing a processing procedure for obtaining a motion vector MVscl.

먼저, 참조 블록(MB2)의 움직임 벡터(MVtar)를 취득한다(단계 S601). 다음에, 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 도출하기 위한 파라미터(TR1 및 TRtar)를 취득한다(단계 S602).First, a motion vector MVtar of the reference block MB2 is obtained (step S601). Next, the parameters TR1 and TRtar for deriving the motion vector MVscl of the encoding target block MB1 are obtained (step S602).

다음에, 상기 취득한 제수에 대응하는 파라미터(TR1)가 미리 정해진 소정값 이상인지 여부를 판단한다(단계 S603). 판단의 결과, 제수에 대응하는 파라미터(TR1)가 소정값 이상이면 전환부(55)에 의해 처리 58이 선택된다. 한편, 제수에 대응하는 파라미터(TR1)가 소정값 이상이 아니면 전환부(55)에 의해 처리 57이 선택된다.Next, it is determined whether or not the parameter TR1 corresponding to the acquired divisor is equal to or larger than a predetermined value (step S603). As a result of the determination, if the parameter TR1 corresponding to the divisor is a predetermined value or more, the processing 58 is selected by the switching unit 55. On the other hand, if the parameter TR1 corresponding to the divisor is not greater than or equal to the predetermined value, the processing 57 is selected by the switching unit 55.

전환부(55)에 의해 처리 58이 선택되면, 단계 601에서 취득된 참조하는 움직임 벡터(MVTar)를 그대로 움직임 벡터(MVscl)로 한다(단계 S605). 한편, 전환부(55)에 의해 처리 57이 선택되면, 제수(TR1)에 대응하는 파라미터를 이용하여 움직임 벡터(MVscl)가 도출된다(단계 S604). 즉, 승산기(53)와 승산기(54)의 승산 처리의 결과가 움직임 벡터(MVscl)로 된다.When the processing 58 is selected by the switching unit 55, the motion vector MVTar referred to in step 601 is used as the motion vector MVscl (step S605). On the other hand, when the process 57 is selected by the switching unit 55, the motion vector MVscl is derived using the parameter corresponding to the divisor TR1 (step S604). That is, the result of the multiplication process of the multiplier 53 and the multiplier 54 becomes a motion vector MVscl.

도 1에 도시하는 부호화 대상 픽처(1202)는 전후 2개의 움직임 벡터(MVf와 MVb)를 가지므로, 각각에 대해 도 9의 처리가 이루어진다. 즉, 움직임 벡터(MVscl)로서 움직임 벡터(MVf)를 산출하기 위해서는, 단계 S602에서 취득하는 파라미터(TRtar)는 파라미터(TRf)이고, 움직임 벡터(MVscl)로서 움직임 벡터(MVb)를 산출하기 위해서는, 단계 S602에서 취득하는 파라미터(TRtar)는 파라미터(TRb)이다.Since the picture to be encoded 1202 shown in FIG. 1 has two motion vectors MVf and MVb before and after, the processing shown in FIG. 9 is performed for each. That is, in order to calculate the motion vector MVf as the motion vector MVscl, the parameter TRtar obtained in step S602 is the parameter TRf, and in order to calculate the motion vector MVb as the motion vector MVscl, The parameter TRtar obtained in step S602 is a parameter TRb.

이상과 같이, 본 실시 형태 2에 의하면, 참조 블록의 움직임 벡터를 스케일링할 때에 이용하는 파라미터의 값을 소정 범위로 제한하고, 또한, 상한값을 넘을 때, 움직임 벡터(MVtar)를 스케일링하지 않고, 입력된 MVtar를 그대로 움직임 벡터(MVscl)로 하는 일정한 처리 순서를 정함으로써, 부호화 처리와 복호화 처리에서 연산 오차에 의한 결과의 불일치가 발생하는 것을 방지할 수 있다. 또, 움직임 벡터를 도출하기 위한 처리량을 줄일 수 있다. 또, 메모리 상에 격납하는 승수 파라미터 테이블을 삭감할 수 있다.As described above, according to the second embodiment, the parameter value used when scaling the motion vector of the reference block is limited to a predetermined range, and when exceeding the upper limit value, the input value is input without scaling the motion vector MVtar. By determining a certain processing order in which MVtar is used as the motion vector MVscl, it is possible to prevent the inconsistency of the result due to an operation error in the encoding process and the decoding process. In addition, the throughput for deriving a motion vector can be reduced. In addition, the multiplier parameter table stored in the memory can be reduced.

또한, 종래 기술에서도 설명했지만, 본 실시 형태 2에서 파라미터(TR1 및 TRtar)는, 시간 데이터에 한정되지 않고, 픽처마다 할당되는 픽처 번호의 차이를 이용한 데이터(예를 들면 도 1에서 픽처(1200)의 픽처 번호가 1200, 픽처(1203)의 픽처 번호가 1203인 경우, 1203에서 1200를 빼서 얻어지는 3), 부호화 대상 픽처와 참조 픽처 사이에 있는 픽처 매수를 이용한 데이터(예를 들면 도 1의 경우, TR1로서 픽처(1200)와 픽처(1203)의 사이에 있는 픽처 매수는 2매인데, 픽처 간격은 2+1=3으로 함) 등, 픽처간 표시 순서에서의 시간적인 간격을 정량적으로 정할 수 있는 데이터이면 어떠한 것이라도 된다.In addition, although it demonstrated also in the prior art, in this Embodiment 2, the parameters TR1 and TRtar are not limited to time data, but data using the difference of the picture number allocated to each picture (for example, the picture 1200 in FIG. 1). If the picture number of 1200 is 1200 and the picture number of the picture 1203 is 1203, 3 obtained by subtracting 1200 from 1203, data using the number of pictures between the picture to be encoded and the reference picture (for example, in FIG. As TR1, the number of pictures between the picture 1200 and the picture 1203 is two, and the picture interval is 2 + 1 = 3). Any data can be used.

또, 본 실시 형태 2에서는, 파라미터(TR1)와 승수 파라미터 테이블이 갖는 제수의 상한값을 비교하여, TR1가 상한값을 넘지 않을 때에, 승수 파라미터 테이블(51)을 이용하여 승산부(54)에서 승산 처리를 행하는 예에 대해서 설명했는데, 도 12에 도시하는 바와 같이 제수 파라미터 테이블(91)을 이용하여 제수부(94)에서 제산 처리를 행하도록 해도 된다. 이 도 12에 도시하는 움직임 벡터 도출부(11C)는 도 3에 도시하는 화상 부호화 장치의 구성도에서의 움직임 벡터 도출부(11)를 나타내고 있다. 또한, 도 3에 도시하는 동화상 부호화 장치의 블록도에서의 움직임 벡터 도출부(11) 이외의 구성은 실시 형태 1에서 설명한 바와 같다. 또, 도 12에서 도 8과 동일한 구성에 대해서는 도 8에서 이용한 부호와 동일한 부호를 이용했다.In the second embodiment, multiplication processing is performed by the multiplication unit 54 using the multiplier parameter table 51 when the upper limit value of the divisor of the parameter TR1 and the multiplier parameter table are not exceeded and the TR1 does not exceed the upper limit value. 12, the dividing unit 94 may perform the division process using the divisor parameter table 91. As shown in FIG. The motion vector derivation part 11C shown in this FIG. 12 shows the motion vector derivation part 11 in the block diagram of the image coding apparatus shown in FIG. In addition, the structure other than the motion vector derivation part 11 in the block diagram of the moving picture coding apparatus shown in FIG. 3 is as having demonstrated in Embodiment 1. As shown in FIG. 12, the same code | symbol as the code | symbol used in FIG. 8 was used for the structure similar to FIG.

또, 상기 실시 형태 1 및 실시 형태 2에서는 식 2(a) 및 식 2(b)를 이용하여 도 1에 도시하는 움직임 벡터를 도출하는 경우에 대해서 설명했는데, 도 10이나 도 11에 도시하는 움직임 벡터를 도출하는 경우라도, 본원 명세서에 기재의 발명을 이용할 수 있다.In the first and second embodiments described above, a case in which the motion vector shown in FIG. 1 is derived using the equations 2 (a) and 2 (b) is described. Even when a vector is derived, the invention described in the present specification can be used.

먼저, 도 10에 도시하는 직접 모드에서의 움직임 벡터의 도출 방법에 대해 설명한다. 도 10에서, 픽처(1700), 픽처(1701), 픽처(1702) 및 픽처(1703)가 표시순으로 배치되어 있고, 블록(MB1)은 부호화 대상 블록이다. 도 10에서는, 픽처(1700)와 픽처(1703)를 참조 픽처로 하여, 부호화 대상 블록(MB1)을 쌍방향 예측하는 예를 도시한다.First, a method of deriving the motion vector in the direct mode shown in FIG. 10 will be described. In Fig. 10, the picture 1700, the picture 1701, the picture 1702 and the picture 1703 are arranged in the display order, and the block MB1 is a block to be encoded. In FIG. 10, an example of bidirectionally predicting the encoding target block MB1 using the picture 1700 and the picture 1703 as a reference picture is shown.

부호화 대상 블록(MB1)의 움직임 벡터(MVf 및 MVb1)는, 부호화 대상 블록(MB1)보다 표시 시간에서 후방에 위치하는 참조 블록(MB2)이 갖는 움직임 벡터(MV1)를 이용하여, 상기의 식 2(a)와 식 2(b)에 의해 도출할 수 있다.The motion vectors MVf and MVb1 of the encoding target block MB1 are represented by Equation 2 using the motion vector MV1 of the reference block MB2 located later than the encoding target block MB1 in the display time. It can be derived by (a) and equation (2).

여기서, MVf는 부호화 대상 블록(MB1)의 전 방향 움직임 벡터, MVb는 부호화 대상 블록(MB1)의 후 방향 움직임 벡터, Tscl은 픽처(1700)와 픽처(1703)의 간격의 역수에 대응하는 승수 파라미터, 즉 1/TR1이고, TRf는 픽처(1701)와 픽처(1702)의 간격, TRb는 픽처(1702)와 픽처(1703)의 간격이다.Here, MVf is a forward motion vector of the encoding target block MB1, MVb is a backward motion vector of the encoding target block MB1, and Tscl is a multiplier parameter corresponding to the inverse of the interval between the picture 1700 and the picture 1703. That is, 1 / TR1, TRf is the interval between the picture 1701 and the picture 1702, and TRb is the interval between the picture 1702 and the picture 1703.

또한, TR1, TRf, TRb에 대해서는, 상기에서 설명한 바와 같이 픽처 간격을 정량적으로 정할 수 있는 데이터이면 어느 것이어도 된다. 또, 움직임 벡터(MVf)나 움직임 벡터(MVb)를 구하는 처리의 흐름에 대해서는 도 6 또는 도 9에서 설명한 바와 같다.In addition, TR1, TRf, and TRb may be any data as long as it can quantitatively determine the picture interval as described above. The flow of processing for obtaining the motion vector MVf or the motion vector MVb is as described with reference to FIG. 6 or 9.

다음에, 도 11에 도시하는 움직임 벡터의 도출 방법에 대해서 설명한다. 도 11에서, 픽처(1800), 픽처(1801) 및 픽처(1802)가 표시 순으로 배치되어 있고, 블록(MB1)은 부호화 대상 블록이다. 도 11에서는, 부호화 대상 블록(MB1)은 픽처(1800)와 픽처(1801)가 참조 픽처로서 예측되고, 움직임 벡터(MV1)와 움직임 벡터(MV2)를 갖는다. 또, 움직임 벡터(MV2)는 움직임 벡터(MV1)를 이하와 같이 스케일링한 움직임 벡터(MVscl)를 이용하여 예측 부호화된다.Next, a method of deriving the motion vector shown in FIG. 11 will be described. In Fig. 11, the picture 1800, the picture 1801 and the picture 1802 are arranged in the display order, and the block MB1 is the encoding target block. In FIG. 11, in the encoding target block MB1, a picture 1800 and a picture 1801 are predicted as a reference picture, and have a motion vector MV1 and a motion vector MV2. The motion vector MV2 is predictively encoded using the motion vector MVscl obtained by scaling the motion vector MV1 as follows.

먼저, 부호화 대상 블록(MB1)으로부터, 움직임 벡터(MV2)가 참조하는 픽처(1800)에의 벡터인 움직임 벡터(MVscl)가 이하의 식을 이용하여 도출된다. 또한, 부호화되는 움직임 벡터(MV2) 자체는 소정의 방법으로 도출되어 있는 것으로 한다. 식 3(a) 및 식 3(b)은 실시 형태 1에서 나타낸 경우에 적용할 수 있고, 식 4(a) 및 식 4(b)은 실시 형태 2에서 나타낸 경우에 적용할 수 있다.First, the motion vector MVscl, which is a vector from the encoding target block MB1 to the picture 1800 referenced by the motion vector MV2, is derived using the following equation. In addition, it is assumed that the motion vector MV2 to be encoded is derived by a predetermined method. Equations 3 (a) and 3 (b) can be applied to the case shown in Embodiment 1, and Equations 4 (a) and 4 (b) can be applied to the case shown in Embodiment 2.

MVscl = MV1 ×TR3 ×Tscl(TR1 < 상한값) 식3(a)MVscl = MV1 × TR3 × Tscl (TR1 <upper limit) Equation 3 (a)

MVscl = MV1 ×TR3 ×TsclMin(TR1 ≥상한값) 식3(b)MVscl = MV1 × TR3 × TsclMin (TR1 ≥ upper limit) Equation 3 (b)

MVscl = MV1 ×TR3 ×Tscl(TR1 < 상한값) 식4(a)MVscl = MV1 × TR3 × Tscl (TR1 <upper limit) Equation 4 (a)

MVscl = MV1(TR1 ≥상한값) 식4(b)MVscl = MV1 (TR1 ≥ upper limit) Equation 4 (b)

여기서, Tscl은 TR1을 픽처(1801)와 픽처(1802)의 간격으로 했을 때의 TR1의 역수, 상한값이란 승수 파라미터 테이블(51)(제수용)에서의 최대의 제수(도 5에서는 「8」), TsclMin은 승수 파라미터 테이블(51)(제수용)에서의 최대의 제수(TR1)에 대응하는 승수 파라미터, TR3는 픽처(1800)와 픽처(1802)의 간격, TR1은 픽처(1801)와 픽처(1802)의 간격이다.Here, Tscl is the reciprocal of TR1 when the TR1 is the interval between the picture 1801 and the picture 1802, and the upper limit is the maximum divisor ("8" in FIG. 5) in the multiplier parameter table 51 (for dividing). , TsclMin is a multiplier parameter corresponding to the largest divisor (TR1) in the multiplier parameter table 51 (for dividing), TR3 is the interval between the picture 1800 and the picture 1802, TR1 is the picture 1801 and the picture ( 1802 intervals.

다음에, 움직임 벡터(MV2)를 부호화하기 위해서는, 움직임 벡터(MV2) 자체를 부호화하지 않고, 식 3(a) 내지 식 4(b) 중 어느 하나를 이용하여 도출된 움직임 벡터(MVscl)와 소정의 방법으로 도출되어 있는 움직임 벡터(MV2)의 차이(차분 벡터)만을 부호화하여, 복호화 처리에서, 부호화된 차분 벡터와 움직임 벡터(MV1)를 스케일링한 MVscl을 이용하여 움직임 벡터(MV2)가 도출되게 된다.Next, in order to encode the motion vector MV2, the motion vector MVscl derived from any one of Equations 3 (a) to 4 (b) and a predetermined value are used without encoding the motion vector MV2 itself. Only the difference (difference vector) of the motion vector MV2 derived by the method is encoded, and in the decoding process, the motion vector MV2 is derived using MVscl which scales the encoded difference vector and the motion vector MV1. do.

또한, TR1, TR3에 대해서는, 상기에서 설명한 바와 같이 픽처간 표시 순서에서의 시간적인 간격을 정량적으로 정할 수 있는 데이터이면 어느 것이어도 된다. 또, 움직임 벡터(MVscl)를 구하는 처리의 흐름에 대해서는 도 6 또는 도 9에서 설명한 바와 같다. 또, 도 5에서 도시한 승수 파라미터 테이블은, 상한값을「8」로 하고 있는데, 이것에 한정되지 않고, 「16」이나「32」로 해도 된다. 단, 제수가 커지면, 제수에 대응하는 역수의 변화가 작아지므로, 상한값을 크게 설정하여 작성한 승수 파라미터를 이용해도 도출되는 움직임 벡터의 오차는 매우 작다.As described above, TR1 and TR3 may be any data as long as the data can quantitatively determine the temporal interval in the inter-picture display order. The flow of processing for obtaining the motion vector MVscl is as described with reference to FIG. 6 or 9. In addition, in the multiplier parameter table shown in FIG. 5, although the upper limit is made into "8", it is not limited to this, It is good also as "16" and "32". However, if the divisor is large, the change in the reciprocal of the divisor is small. Therefore, even if the multiplier parameter created by setting the upper limit value is large, the error of the motion vector derived is very small.

(실시 형태 3)(Embodiment 3)

도 13은 본 실시 형태에 관한 동화상 복호화 장치의 구성을 도시하는 블록도이다.Fig. 13 is a block diagram showing the structure of a moving picture decoding apparatus according to the present embodiment.

동화상 복호화 장치는, 도 13에 도시하는 바와 같이 가변 길이 복호화부(1000), 역 양자화부(1001), 역 직교 변환부(1002), 가산 연산부(1003), 움직임 벡터용 복호화부(1004), 움직임 벡터 도출부(1005), 및 메모리(1006)를 구비하고 있다. 또한, 움직임 벡터 도출부(1005)의 구성 및 움직임에 대해서는 상기 실시 형태 1 및 실시 형태 2와 동일하므로 상세한 설명을 생략한다.The moving picture decoding apparatus includes a variable length decoding unit 1000, an inverse quantization unit 1001, an inverse orthogonal transform unit 1002, an add operation unit 1003, a motion vector decoder 1004, A motion vector derivation unit 1005 and a memory 1006 are provided. In addition, since the structure and the motion of the motion vector derivation part 1005 are the same as that of Embodiment 1 and Embodiment 2, detailed description is abbreviate | omitted.

가변 길이 복호화부(1000)는, 상기한 각 실시 형태에 관한 동화상 부호화 장치로부터 출력된 부호화 완료 데이터 스트림에 가변 길이 복호화 처리를 실행하여 역 양자화부(1001)에 예측 오차 부호화 데이터를 출력하는 동시에, 움직임 벡터 도출 파라미터(TRtar, TR1)를 움직임 벡터 도출부(1005)에 출력한다. 역 양자화부(1001)는 입력된 예측 오차 부호화 데이터를 역 양자화한다. 역 직교 변환부(1002)는, 역 양자화된 예측 오차 부호화 데이터를 역 직교 변환하여, 차분 화상 데이터를 출력한다.The variable length decoding unit 1000 executes a variable length decoding process on the encoded data stream output from the video encoding apparatus according to each of the above embodiments, and outputs prediction error coded data to the inverse quantization unit 1001. The motion vector derivation parameters TRtar and TR1 are output to the motion vector derivation unit 1005. The inverse quantizer 1001 inversely quantizes the input prediction error encoded data. The inverse orthogonal transform unit 1002 inversely orthogonally transforms the inverse quantized prediction error coded data, and outputs differential image data.

움직임 벡터용 복호화부(1004)는, 입력된 움직임 벡터 스트림을 복호화하여, 움직임 벡터의 정보를 추출한다. 움직임 벡터 도출부(1005)는, 참조 블록(MB2)의 움직임 벡터(MVtar), 파라미터(TRtar) 및 파라미터(TR1)를 이용하여 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)(MVb 및 MVf)를 도출한다. 메모리(1006)는 참조 픽처의 화상 데이터와 움직임 벡터 도출부(1005)에서 도출된 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)를 기억한다. 또, 메모리(1006)는, 참조 픽처의 화상 데이터와 부호화 대상 블록(MB1)의 움직임 벡터(MVscl)에 기초하여, 움직임 보상 데이터를 생성한다. 가산 연산부(1003)는, 입력된 차분 화상 데이터와 움직임 보상 데이터를 가산하여, 복호화 화상이 생성되어 출력된다.The motion vector decoding unit 1004 decodes the input motion vector stream and extracts information of the motion vector. The motion vector derivation unit 1005 uses the motion vector MVtar, the parameter TRtar, and the parameter TR1 of the reference block MB2 to obtain the motion vectors MVscl (MVb and MVf) of the encoding target block MB1. To derive The memory 1006 stores the image data of the reference picture and the motion vector MVscl of the encoding target block MB1 derived from the motion vector derivation unit 1005. The memory 1006 generates motion compensation data based on the image data of the reference picture and the motion vector MVscl of the encoding target block MB1. The addition calculating unit 1003 adds the input difference image data and the motion compensation data, and generates and outputs a decoded image.

다음에, 상기한 바와 같이 구성된 동화상 복호화 장치에서 직접 모드에 의해 복호화할 때의 움직임에 대해서 설명한다.Next, a description will be given of the motion when decoding by the direct mode in the moving picture decoding apparatus configured as described above.

동화상 부호화 장치로부터 출력된 부호화 완료 데이터 스트림은 가변 길이 복호화부(1000)에 입력된다. 가변 길이 복호화부(1000)는, 부호화 완료 데이터 스트림에 가변 길이 복호화 처리를 실행하여 역 양자화부(1001)에 차분 부호화 데이터를 출력하는 동시에, 파라미터(TRtar, TR1)를 움직임 벡터 도출부(1005)에 출력한다. 역 양자화부(1001)에 입력된 차분 부호화 데이터는 역 양자화된 후, 역 직교 변환부(1002)에서 역 직교 변환되어 차분 화상 데이터로서 가산 연산부(1003)에 출력된다.The encoded data stream output from the video encoding apparatus is input to the variable length decoder 1000. The variable length decoder 1000 performs variable length decoding on the encoded data stream, outputs differential coded data to the inverse quantizer 1001, and simultaneously outputs the parameters TRtar and TR1 to the motion vector derivation unit 1005. Output to. The differential coded data input to the inverse quantization unit 1001 is inversely quantized and then inversely orthogonally transformed by the inverse orthogonal transformation unit 1002 and output to the add operation unit 1003 as differential image data.

또, 본 실시 형태에 관한 동화상 복호화 장치에 입력된 움직임 벡터 스트림은 움직임 벡터용 복호화부(1004)에 입력되어, 움직임 벡터의 정보가 추출된다. 구체적으로는, 움직임 벡터용 복호화부(1004)는, 움직임 벡터 스트림을 복호화하여, 움직임 벡터 도출 파라미터(MVtar)를 움직임 벡터 도출부(1005)에 출력한다. 계속해서, 움직임 벡터 도출부(1005)에서는, 움직임 벡터(MVtar), 파라미터(TRtar 및 TR1)를 이용하여 부호화 대상 블록의 움직임 벡터(MVscl)(MVb 및 MVf)를 도출한다. 그리고, 메모리(1006)는, 기억하고 있는 참조 픽처의 화상 데이터 중에서, 움직임 벡터 도출부(1005)에서 도출된 움직임 벡터로 나타내어지는 화상을 추출하여, 움직임 보상 데이터로서 출력한다. 가산 연산부(1003)는, 입력된 차분 화상 데이터와 움직임 보상 데이터를 가산하고, 복호 화상 데이터를 생성하여 최종적으로 재생 화상으로서 출력한다.The motion vector stream input to the moving picture decoding apparatus according to the present embodiment is input to the motion vector decoding unit 1004 to extract the motion vector information. Specifically, the motion vector decoding unit 1004 decodes the motion vector stream and outputs a motion vector derivation parameter MVtar to the motion vector derivation unit 1005. Subsequently, the motion vector derivation unit 1005 derives the motion vectors MVscl (MVb and MVf) of the encoding target block using the motion vectors MVtar and the parameters TRtar and TR1. The memory 1006 then extracts, from the image data of the stored reference picture, the image represented by the motion vector derived from the motion vector derivation unit 1005 and outputs it as motion compensation data. The addition calculating unit 1003 adds the input difference image data and the motion compensation data, generates decoded image data, and finally outputs it as a reproduced image.

(실시 형태 4)(Embodiment 4)

또한, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 동화상 복호화 방법의 구성을 실현하기 위한 프로그램을, 플렉시블 디스크 등의 기억 매체에 기록하도록 함으로써, 상기 각 실시 형태에서 나타낸 처리를, 독립된 컴퓨터 시스템에서 간단하게 실시하는 것이 가능해진다.In addition, a program for realizing the configuration of the moving picture coding method or the moving picture decoding method shown in each of the above embodiments is recorded on a storage medium such as a flexible disk, so that the processing shown in each of the above embodiments can be easily performed by an independent computer system. It becomes possible to carry out.

도 14는 실시 형태 1∼실시 형태 3의 동화상 부호화 방법 및 동화상 복호화 방법을 컴퓨터 시스템에 의해 실현하기 위한 프로그램을 격납하기 위한 기억 매체에 대한 설명도이다.14 is an explanatory diagram of a storage medium for storing a program for realizing the video encoding method and the video decoding method of the first to third embodiments by a computer system.

도 14(b)는 플렉시블 디스크의 정면에서 본 외관, 단면 구조, 및 플렉시블 디스크를 도시하고, 도 14(a)는 기록 매체 본체인 플렉시블 디스크의 물리 포맷의 예를 도시하고 있다. 플렉시블 디스크(FD)는 케이스(F) 내에 내장되고, 이 디스크의 표면에는, 동심 원상으로 외주로부터 내주를 향해 다수의 트랙(Tr)이 형성되고, 각 트랙은 각도 방향으로 16의 섹터(Se)로 분할되어 있다. 따라서, 상기 프로그램을 격납한 플렉시블 디스크에서는, 상기 플렉시블 디스크(FD) 상에 할당된 영역에, 상기 프로그램으로서의 동화상 부호화 방법이 기록되어 있다.Fig. 14 (b) shows the external appearance, the cross-sectional structure, and the flexible disk as seen from the front of the flexible disk, and Fig. 14 (a) shows an example of the physical format of the flexible disk as the main body of the recording medium. The flexible disk FD is built in the case F. On the surface of the disk, a plurality of tracks Tr are formed on the surface of the disk from the outer circumference to the inner circumference, and each track has 16 sectors Se in the angular direction. It is divided into Therefore, in the flexible disk which stores the said program, the moving picture coding method as the said program is recorded in the area | region allocated on the said flexible disk FD.

또, 도 14(c)는 플렉시블 디스크(FD)에 상기 프로그램의 기록 재생을 하기 위한 구성을 도시한다. 상기 프로그램을 플렉시블 디스크(FD)에 기록하는 경우는, 컴퓨터 시스템(Cs)으로부터 상기 프로그램으로서의 동화상 부호화 방법 또는 동화상 복호화 방법을 플렉시블 디스크 드라이브(FDD)를 통해 기입한다. 또, 플렉시블 디스크 내의 프로그램에 의해 상기 동화상 부호화 방법을 컴퓨터 시스템안에 구축하는 경우는, 플렉시블 디스크 드라이브에 의해 프로그램을 플렉시블 디스크로부터 독출하여, 컴퓨터 시스템에 전송한다.Fig. 14C shows a configuration for recording and reproducing the program on the flexible disk FD. When the program is recorded on the flexible disk FD, the moving picture coding method or the moving picture decoding method as the program is written from the computer system Cs via the flexible disk drive FDD. When the moving picture coding method is built in the computer system by the program in the flexible disk, the program is read out from the flexible disk by the flexible disk drive and transferred to the computer system.

또한, 상기 설명에서는, 기록 매체로서 플렉시블 디스크를 사용하여 설명을 했는데, 광 디스크를 사용해도 동일하게 행할 수 있다. 또, 기록 매체는 이것에 한정되지 않고, IC 카드, ROM 카세트 등, 프로그램을 기록할 수 있는 것이면 동일하게 실시할 수 있다.In the above description, the description has been made using a flexible disk as a recording medium, but the same can be done using an optical disk. The recording medium is not limited to this, and any recording medium such as an IC card, a ROM cassette, or the like can be implemented.

또한 여기서, 상기 실시 형태에서 나타낸 동화상 부호화 방법이나 동화상 복호화 방법의 응용예와 이것을 이용한 시스템을 설명한다.Here, an application example of the video encoding method and the video decoding method shown in the above embodiment and a system using the same will be described.

도 15는 콘텐츠 배송 서비스를 실현하는 콘텐츠 공급 시스템(ex100)의 전체구성을 도시하는 블록도이다. 통신 서비스의 제공 영역을 소망의 크기로 분할하고, 각 셀 내에 각각 고정 무선국인 기지국(ex107∼ex110)이 설치되어 있다.15 is a block diagram showing the overall configuration of a content supply system ex100 for realizing a content delivery service. The area for providing communication service is divided into cells of desired size, and base stations ex107 to ex110 which are fixed wireless stations are provided in respective cells.

이 콘텐츠 공급 시스템(ex100)은, 예를 들면, 인터넷(ex101)에 인터넷 서비스 프러바이더(ex102) 및 전화망(ex104), 및 기지국(ex107∼ex110)을 통해, 컴퓨터(ex111), PDA(personal digital assistant)(ex112), 카메라(ex113), 휴대 전화(ex114), 카메라 부착 휴대 전화(ex115) 등의 각 기기가 접속된다.This content supply system ex100 is, for example, a computer ex111 and a PDA (personal digital) through the Internet service provider ex102 and the telephone network ex104 and the base stations ex107 to ex110 on the Internet ex101. Each device such as an assistant ex112, a camera ex113, a mobile phone ex114, a mobile phone with a camera ex115, and the like are connected.

그러나, 콘텐츠 공급 시스템(ex100)은 도 15와 같은 조합에 한정되지 않고, 어느 하나를 조합하여 접속해도 된다. 또, 고정 무선국인 기지국(exl07∼ex110)을 통하지 않고, 각 기기가 전화망(ex104)에 직접 접속되어도 된다.However, the content supply system ex100 is not limited to the combination as shown in Fig. 15, and may be connected in any combination. Further, each device may be directly connected to the telephone network ex104 without passing through the base stations exl07 to ex110 which are fixed wireless stations.

카메라(ex113)는 디지털 비디오 카메라 등의 동화상 촬영이 가능한 기기이다. 또, 휴대 전화는, PDC(Personal Digital Communications) 방식, CDMA(Code Division Multiple Access) 방식, W-CDMA(Wideband-Code Division Multiple Access) 방식, 혹은 GSM(Global System for Mobile Communications) 방식의 휴대 전화기, 또는 PHS(Personal Handyphone System) 등으로, 어느 것이라도 상관없다.The camera ex113 is a device capable of shooting video such as a digital video camera. In addition, the cellular phone may be a personal digital communications (PDC) system, a code division multiple access (CDMA) system, a wideband-code division multiple access (W-CDMA) system, a global system for mobile communications (GSM) system, Or PHS (Personal Handyphone System).

또, 스트리밍 서버(ex103)는, 카메라(ex113)로부터 기지국(ex109), 전화망(ex104)을 통해 접속되어 있고, 카메라(ex113)를 이용하여 사용자가 송신하는 부호화 처리된 데이터에 기초한 라이브 배송 등이 가능해진다. 촬영한 데이터의 부호화 처리는 카메라(ex113)에서 행해도 데이터의 송신 처리를 하는 서버 등에서 행해도 된다. 또, 카메라(ex116)로 촬영한 동화상 데이터는 컴퓨터(ex111)를 통해 스트리밍 서버(ex103)에 송신되어도 된다. 카메라(ex116)는 디지털 카메라 등의 정지화상, 동화상이 촬영 가능한 기기이다. 이 경우, 동화상 데이터의 부호화는 카메라(ex116)에서 행하거나 컴퓨터(ex111)에서 행하거나 어느쪽이어도 된다. 또, 부호화 처리는 컴퓨터(ex111)나 카메라(ex116)가 갖는 LSI(ex117)에서 처리하게 된다. 또한, 동화상 부호화 ·복호화용의 소프트웨어를 컴퓨터(ex111) 등에서 독출 가능한 기록 매체인 어떠한 축적 미디어(CD-ROM, 플렉시블 디스크, 하드 디스크 등)에 장착해도 된다. 또한, 카메라 부착 휴대 전화(ex115)에서 동화상 데이터를 송신해도 된다. 이 때의 동화상 데이터는 휴대 전화(ex115)가 갖는 LSI에서 부호화 처리된 데이터이다.The streaming server ex103 is connected from the camera ex113 via the base station ex109 and the telephone network ex104, and live delivery based on the encoded data transmitted by the user using the camera ex113 is performed. It becomes possible. The encoding process of the photographed data may be performed by the camera ex113, or may be performed by a server or the like which performs the data transmission process. The moving picture data shot by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111. The camera ex116 is a device capable of capturing still images and moving images such as digital cameras. In this case, the encoding of the moving image data may be performed by the camera ex116 or by the computer ex111. The encoding process is performed by the LSI ex117 included in the computer ex111 or the camera ex116. Furthermore, software for moving picture coding / decoding may be mounted on any storage medium (CD-ROM, flexible disk, hard disk, etc.) that is a recording medium that can be read by a computer ex111 or the like. The moving picture data may also be transmitted from the mobile phone with the camera ex115. The moving picture data at this time is data encoded by the LSI included in the cellular phone ex115.

이 콘텐츠 공급 시스템(ex100)에서는, 사용자가 카메라(ex113), 카메라(ex116) 등으로 촬영하고 있는 콘텐츠(예를 들면, 음악 라이브를 촬영한 영상 등)를 상기 실시 형태와 동일하게 부호화 처리하여 스트리밍 서버(ex103)에 송신하는 한편, 스트리밍 서버(ex103)는 요구가 있었던 클라이언트에 대해 상기 콘텐츠 데이터를 스트림 배송한다. 클라이언트로서는, 상기 부호화 처리된 데이터를 복호화하는 것이 가능한, 컴퓨터(ex111), PDA(ex112), 카메라(ex113), 휴대 전화(ex114) 등이 있다. 이와 같이 함으로써 콘텐츠 공급 시스템(ex100)은, 부호화된 데이터를 클라이언트에서 수신하여 재생할 수 있고, 또한 클라이언트에서 실시간으로 수신하여 복호화하여, 재생함으로써, 개인 방송도 실현 가능하게 되는 시스템이다.In the content supply system ex100, the content (for example, a video shot of music live or the like) shot by the user of the camera ex113, the camera ex116, or the like is encoded and streamed in the same manner as in the above embodiment. While transmitting to the server ex103, the streaming server ex103 streams the content data to the client that made the request. As the client, there are a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114 and the like which can decode the encoded data. In this way, the content supply system ex100 can receive and reproduce the encoded data at the client, and can receive and decode and reproduce the encoded data in real time at the client, thereby realizing personal broadcasting.

이 시스템을 구성하는 각 기기의 부호화, 복호화에는 상기 각 실시 형태에서 나타낸 동화상 부호화 장치 혹은 동화상 복호화 장치를 사용하도록 하면 된다.What is necessary is just to use the moving picture coding apparatus or the moving picture decoding apparatus shown in each said embodiment for the encoding and decoding of each apparatus which comprises this system.

그 일례로서 휴대 전화에 대해서 설명한다.As an example, a mobile phone will be described.

도 16은, 상기 실시 형태에서 설명한 동화상 부호화 방법과 동화상 복호화 방법을 이용한 휴대 전화(ex115)를 도시하는 도면이다. 휴대 전화(ex115)는, 기지국(ex110)과의 사이에서 전파를 송수신하기 위한 안테나(ex201), CCD 카메라 등의 영상, 정지화상을 촬영하는 것이 가능한 카메라부(ex203), 카메라부(ex203)에서 촬영한 영상, 안테나(ex201)에서 수신한 영상 등이 복호화된 데이터를 표시하는 액정 디스플레이 등의 표시부(ex202), 조작 키(ex204)군으로 구성되는 본체부, 음성 출력을 하기 위한 스피커 등의 음성 출력부(ex208), 음성 입력을 하기 위한 마이크 등의 음성 입력부(ex205), 촬영한 동화상 또는 정지화상의 데이터, 수신한 메일의 데이터, 동화상의 데이터 또는 정지화상의 데이터 등, 부호화된 데이터 또는 복호화된 데이터를 보존하기 위한 기록 미디어(ex207), 휴대 전화(ex115)에 기록 미디어(ex207)를 장착 가능하게 하기 위한 슬롯부(ex206)를 갖고 있다. 기록 미디어(ex207)는 SD 카드 등의 플라스틱 케이스 내에 전기적으로 고쳐쓰기나 소거가 가능한 불휘발성 메모리인 EEPR0M(Electrically Erasable and Programmable Read Only Memory)의 일종인 플래시 메모리 소자를 격납한 것이다.Fig. 16 is a diagram showing the cell phone ex115 using the moving picture coding method and the moving picture decoding method explained in the above embodiments. The cellular phone ex115 includes an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a camera unit ex203 and a camera unit ex203 capable of capturing a still image and a video such as a CCD camera. A display unit ex202 such as a liquid crystal display for displaying the decoded data such as the captured image, the image received from the antenna ex201, a main body composed of a group of operation keys ex204, and audio such as a speaker for audio output. Encoded data or decoding such as an output unit ex208, an audio input unit ex205 such as a microphone for voice input, data of a captured moving image or still image, data of a received mail, data of a moving image or still image The recording medium ex207 for storing the old data and the slot ex206 for mounting the recording medium ex207 on the mobile phone ex115 are provided. The recording medium ex207 stores a flash memory device which is a kind of electrically erasable and programmable read only memory (EEPR0M), which is a nonvolatile memory that can be electrically rewritten or erased in a plastic case such as an SD card.

또한, 휴대 전화(ex115)에 대해서 도 17을 이용하여 설명한다. 휴대 전화(ex115)는 표시부(ex202) 및 조작 키(ex204)를 구비한 본체부의 각 부를 통괄적으로 제어하도록 이루어진 주 제어부(ex311)에 대해, 전원 회로부(ex310), 조작 입력 제어부(ex304), 화상 부호화부(ex312), 카메라 인터페이스부(ex303), LCD(Liquid Crystal Display) 제어부(ex302), 화상 복호화부(ex309), 다중 분리부(ex308), 기록 재생부(ex307), 변복조 회로부(ex306) 및 음성 처리부(ex305)가 동기 버스(ex313)를 통해 서로 접속되어 있다.The mobile telephone ex115 will be described with reference to FIG. 17. The cellular phone ex115 controls the power supply unit ex310, the operation input control unit ex304, and the power control unit ex310 to the main control unit ex311 configured to collectively control each unit of the main body unit including the display unit ex202 and the operation key ex204. An image coding unit ex312, a camera interface unit ex303, an LCD (Liquid Crystal Display) control unit ex302, an image decoding unit ex309, a multiple separation unit ex308, a recording / reproducing unit ex307, a modulation / demodulation circuit unit ex306 ) And the voice processing unit ex305 are connected to each other via the synchronization bus ex313.

전원 회로부(ex310)는, 사용자의 조작에 의해 통화 종료 및 전원 키가 온 상태로 되면, 배터리 팩으로부터 각 부에 대해 전력을 공급함으로써 카메라 부착 디지털 휴대 전화(ex115)를 동작 가능한 상태로 기동시킨다.When the call termination and the power key are turned on by the user's operation, the power supply circuit unit ex310 activates the digital mobile phone with the camera ex115 in an operable state by supplying power to each unit from the battery pack.

휴대 전화(ex115)는, CPU, ROM 및 RAM 등으로 이루어지는 주 제어부(ex311)의 제어에 기초하여, 음성 통화 모드시에 음성 입력부(ex205)에서 집음(集音)한 음성 신호를 음성 처리부(ex305)에 의해서 디지털 음성 데이터로 변환하고, 이것을 변복조 회로부(ex306)에서 스펙트럼 확산 처리하며, 송수신 회로부(ex301)에서 디지털 아날로그 변환처리 및 주파수 변환처리를 실시한 후에 안테나(ex201)를 통해 송신한다. 또 휴대 전화기(ex115)는, 음성 통화 모드시에 안테나(ex201)에서 수신한 수신 데이터를 증폭하여 주파수 변환 처리 및 아날로그 디지털 변환 처리를 실시하고, 변복조 회로부(ex306)에서 스펙트럼 역 확산 처리하여, 음성 처리부(ex305)에 의해서 아날로그 음성 데이터로 변환한 후, 이것을 음성 출력부(ex208)를 통해서 출력한다.The cellular phone ex115 receives the voice signal collected by the voice input unit ex205 in the voice call mode under the control of the main control unit ex311 including the CPU, ROM, RAM, and the like. Is converted into digital voice data, and the spectrum demodulation process is performed by the modulation / demodulation circuit unit ex306, and the digital analog conversion process and the frequency conversion process are performed by the transmission / reception circuit unit ex301 and then transmitted via the antenna ex201. The cellular phone ex115 amplifies the received data received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog digital conversion processing, and performs a spectrum despreading process by the demodulation circuit unit ex306. After converting the analog audio data by the processing unit ex305, this is output through the audio output unit ex208.

또한, 데이터 통신 모드시에 전자 메일을 송신하는 경우, 본체부의 조작 키(ex204)의 조작에 의해서 입력된 전자 메일의 텍스트 데이터는 조작 입력 제어부(ex304)를 통해 주 제어부(ex311)에 송출된다. 주 제어부(ex311)는, 텍스트 데이터를 변복조 회로부(ex306)에서 스펙트럼 확산 처리하며, 송수신 회로부(ex301)에서 디지털 아날로그 변환 처리 및 주파수 변환 처리를 실시한 후에 안테나(ex201)를 통해 기지국(ex110)으로 송신한다.In addition, when the electronic mail is transmitted in the data communication mode, the text data of the electronic mail input by the operation of the operation key ex204 of the main body is sent out to the main control unit ex311 via the operation input control unit ex304. The main control unit ex311 spreads out the spectrum data by the modulation and demodulation circuit unit ex306, and transmits the digital data to the base station ex110 through the antenna ex201 after performing the digital analog conversion process and the frequency conversion process by the transmission / reception circuit unit ex301. do.

데이터 통신 모드시에 화상 데이터를 송신하는 경우, 카메라부(ex203)에서 촬영된 화상 데이터를 카메라 인터페이스부(ex303)를 통해 화상 부호화부(ex312)에 공급한다. 또, 화상 데이터를 송신하지 않는 경우에는, 카메라부(ex203)에서 촬영한 화상 데이터를 카메라 인터페이스부(ex303) 및 LCD 제어부(ex302)를 통해서 표시부(ex202)에 직접 표시하는 것도 가능하다.When image data is transmitted in the data communication mode, the image data shot by the camera unit ex203 is supplied to the image coding unit ex312 via the camera interface unit ex303. When the image data is not transmitted, it is also possible to display the image data shot by the camera unit ex203 directly on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.

화상 부호화부(ex312)는, 본원 발명에서 설명한 동화상 부호화 장치를 구비한 구성으로, 카메라부(ex203)로부터 공급된 화상 데이터를 상기 실시 형태에서 나타낸 동화상 부호화 장치에 이용한 부호화 방법에 의해서 압축 부호화함으로써 부호화 화상 데이터로 변환하고, 이것을 다중 분리부(ex308)에 송출한다. 또, 이 때 동시에 휴대 전화기(ex115)는, 카메라부(ex203)에서 촬영 중에 음성 입력부(ex205)에서 집음한 음성을 음성 처리부(ex305)를 통해서 디지털의 음성 데이터로서 다중 분리부(ex308)에 송출한다.The image encoding unit ex312 is a configuration including the moving image encoding apparatus described in the present invention, and is encoded by compression encoding the image data supplied from the camera unit ex203 by the encoding method used in the moving image encoding apparatus shown in the above embodiments. The image data is converted into image data and sent to the multiple separation unit ex308. At this time, the cellular phone ex115 simultaneously transmits the voices collected by the voice input unit ex205 while shooting by the camera unit ex203 as digital voice data to the multiplexing unit ex308 via the voice processing unit ex305. do.

다중 분리부(ex308)는, 화상 부호화부(ex312)로부터 공급된 부호화 화상 데이터와 음성 처리부(ex305)로부터 공급된 음성 데이터를 소정의 방식으로 다중화하고, 그 결과 얻어지는 다중화 데이터를 변복조 회로부(ex306)에서 스펙트럼 확산 처리하며, 송수신 회로부(ex301)에서 디지털 아날로그 변환 처리 및 주파수 변환 처리를 실시한 후에 안테나(ex201)를 통해 송신한다.The multiplexer ex308 multiplexes the encoded image data supplied from the image encoder ex312 and the audio data supplied from the voice processor ex305 in a predetermined manner, and modulates and demodulates the circuit demodulated circuit ex306 the resultant multiplexed data. The spectrum spreading process is performed at, and the transmission / reception circuit unit ex301 performs digital analog conversion processing and frequency conversion processing, and then transmits the data through the antenna ex201.

데이터 통신 모드시에 홈 페이지 등에 링크된 동화상 파일의 데이터를 수신하는 경우, 안테나(ex201)를 통해 기지국(ex110)으로부터 수신한 수신 데이터를 변복조 회로부(ex306)에서 스펙트럼 역 확산 처리하고, 그 결과 얻어지는 다중화 데이터를 다중 분리부(ex308)에 송출한다.In the case of receiving data of a moving picture file linked to a home page or the like in the data communication mode, spectrum demodulation processing is performed by the demodulation circuit section ex306 by receiving the received data received from the base station ex110 via the antenna ex201. The multiplexed data is sent to the multiple separation unit ex308.

또, 안테나(ex201)를 통해서 수신된 다중화 데이터를 복호화하기 위해서는, 다중 분리부(ex308)는, 다중화 데이터를 분리함으로써 화상 데이터의 비트 스트림과 음성 데이터의 비트 스트림으로 나누고, 동기 버스(ex313)를 통해 해당 부호화 화상 데이터를 화상 복호화부(ex309)에 공급하는 동시에 해당 음성 데이터를 음성 처리부(ex305)에 공급한다.In order to decode the multiplexed data received through the antenna ex201, the multiplexer ex308 divides the multiplexed data into a bit stream of image data and a bit stream of audio data, and divides the synchronization bus ex313. The coded image data is supplied to the picture decoding unit ex309 via the voice data to the voice processing unit ex305.

다음에, 화상 복호화부(ex309)는, 본원 발명에서 설명한 동화상 복호화 장치를 구비한 구성으로, 화상 데이터의 비트 스트림을 상기 실시 형태에서 나타낸 부호화 방법에 대응한 복호화 방법으로 복호화함으로써 재생 동화상 데이터를 생성하고, 이것을 LCD 제어부(ex302)를 통해서 표시부(ex202)에 공급하고, 이것에 의해, 예를 들면 홈 페이지에 링크된 동화상 파일에 포함되는 동화상 데이터가 표시된다. 이 때 동시에 음성 처리부(ex305)는, 음성 데이터를 아날로그 음성 데이터로 변환한 후, 이것을 음성 출력부(ex208)에 공급하고, 이것에 의해, 예를 들면 홈 페이지에 링크된 동화상 파일에 포함되는 음성 데이터가 재생된다.Next, the image decoding unit ex309 is provided with the moving picture decoding apparatus described in the present invention, and generates the reproduced moving picture data by decoding the bit stream of the image data by the decoding method corresponding to the encoding method shown in the above embodiment. This is supplied to the display unit ex202 via the LCD control unit ex302, whereby, for example, moving image data included in the moving image file linked to the home page is displayed. At this time, the audio processing unit ex305 converts the audio data into analog audio data, and then supplies it to the audio output unit ex208, whereby the audio included in the moving image file linked to the home page, for example. The data is played back.

또한, 상기 시스템의 예에 한정되지 않고, 최근에는 위성, 지상파에 의한 디지털 방송이 화제가 되고 있고, 도 18에 도시하는 바와 같이 디지털 방송용 시스템에도 상기 실시 형태의 적어도 동화상 부호화 장치 또는 동화상 복호화 장치 중 어느 하나를 장착할 수 있다. 구체적으로는, 방송국(ex409)에서는 영상 정보의 비트 스트림이 전파를 통해서 통신 또는 방송 위성(ex410)에 전송된다. 이것을 받은 방송 위성(ex410)은, 방송용의 전파를 발신하고, 이 전파를 위성 방송 수신 설비를 갖춘 가정의 안테나(ex406)로 수신하여, 텔레비전(수신기)(ex401) 또는 셋탑박스(STB)(ex407) 등의 장치에 의해 비트 스트림을 복호화하여 이것을 재생한다. 또, 기록 매체인 CD나 DVD 등의 축적 미디어(ex402)에 기록한 비트 스트림을 독출하여, 복호화할 재생장치(ex403)에도 상기 실시 형태에서 나타낸 동화상 복호화 장치를 실장하는 것이 가능하다. 이 경우, 재생된 영상 신호는 모니터(ex404)에 표시된다. 또, 케이블 텔레비전용의 케이블(ex405) 또는 위성/지상파 방송의 안테나(ex406)에 접속된 셋탑박스(ex407) 내에 동화상 복호화 장치를 실장하고, 이것을 텔레비전의 모니터(ex408)에서 재생하는 구성도 생각할 수 있다. 이 때 셋탑박스가 아니라, 텔레비전 내에 동화상 복호화 장치를 장착해도 된다. 또, 안테나(ex411)를 갖는 차(ex412)에서 위성(ex410)으로부터 또는 기지국(ex107) 등으로부터 신호를 수신하여, 차(ex412)가 갖는 카 내비게이션(ex413) 등의 표시 장치에 동화상을 재생하는 것도 가능하다.In addition, the present invention is not limited to the above-described system. Recently, digital broadcasting by satellites and terrestrial waves has been a hot topic, and as shown in FIG. Either one can be attached. Specifically, the broadcast station ex409 transmits the bit stream of the video information to the communication or broadcast satellite ex410 via radio waves. The broadcast satellite ex410 which has received this transmits a radio wave for broadcast, and receives the radio wave by an antenna ex406 of a home equipped with a satellite broadcast receiving facility, thereby receiving a television (receiver) ex401 or a set-top box (STB) ex407. Device to decode the bit stream and reproduce it. In addition, it is possible to mount the moving picture decoding apparatus shown in the above embodiment to the reproducing apparatus ex403 to read and decode the bit stream recorded on the storage medium ex402 such as a CD or DVD as a recording medium. In this case, the reproduced video signal is displayed on the monitor ex404. Also, a configuration in which a moving picture decoding apparatus is mounted in a set-top box ex407 connected to a cable ex405 for cable television or an antenna ex406 for satellite / terrestrial broadcasting, and reproduced by a television monitor ex408 is also conceivable. have. The moving picture decoding apparatus may be incorporated into the television, not in the set top box. In addition, the signal ex412 having the antenna ex411 is used to receive a signal from the satellite ex410, the base station ex107, or the like to reproduce a moving image on a display device such as a car navigation system ex413 included in the car ex412. It is also possible.

또한, 화상 신호를 상기 실시 형태에서 나타낸 동화상 부호화 장치에서 부호화하여, 기록 매체에 기록할 수도 있다. 구체예로서는, DVD 디스크(ex421)에 화상 신호를 기록하는 DVD 리코더나, 하드 디스크에 기록하는 디스크 리코더 등의 리코더(ex420)가 있다. 또한, SD 카드(ex422)에 기록할 수도 있다. 리코더(ex420)가 상기 실시 형태에서 나타낸 동화상 복호화 장치를 구비하고 있으면, DVD 디스크(ex421)나 SD 카드(ex422)에 기록한 화상 신호를 재생하여, 모니터(ex408)에서 표시할 수 있다.The image signal can also be coded by the moving picture coding apparatus shown in the above embodiment and recorded on the recording medium. As a specific example, there is a recorder ex420 such as a DVD recorder for recording an image signal on a DVD disk ex421 or a disk recorder for recording on a hard disk. It is also possible to record to the SD card ex422. If the recorder ex420 includes the moving picture decoding apparatus shown in the above embodiments, the picture signals recorded on the DVD disk ex421 or the SD card ex422 can be reproduced and displayed on the monitor ex408.

또, 카 내비게이션(ex413)의 구성은 예를 들면 도 17에 도시하는 구성 중, 카메라부(ex203)와 카메라 인터페이스부(ex303), 화상 부호화부(ex312)를 제외한 구성을 생각할 수 있고, 동일한 것이 컴퓨터(ex111)나 텔레비전(수신기)(ex401) 등에서도 생각될 수 있다.In addition, the structure of the car navigation | truck ex413 can consider the structure except the camera part ex203, the camera interface part ex303, and the image coding part ex312 among the structures shown, for example in FIG. It may also be considered in the computer ex111, the television (receiver) ex401 and the like.

또, 상기 휴대 전화(ex114) 등의 단말은, 부호화기 ·복호화기를 모두 가지는 송수신형의 단말 외에, 부호화기만의 송신 단말, 복호화기만의 수신 단말의 3가지의 실장 형식을 생각할 수 있다.In addition, the terminal of the mobile telephone ex114 or the like can consider three types of implementations: a transmitting terminal only with an encoder and a receiving terminal only with a decoder, in addition to a transmitting / receiving terminal having both an encoder and a decoder.

이와 같이, 상기 실시 형태에서 나타낸 동화상 부호화 방법 혹은 동화상 복호화 방법을 상술한 어느 하나의 기기 ·시스템에 이용하는 것이 가능하고, 그렇게 함으로써, 상기 실시 형태에서 설명한 효과를 얻을 수 있다.In this manner, the moving picture coding method or the moving picture decoding method shown in the above embodiments can be used for any one of the above-described apparatuses and systems, whereby the effects described in the above embodiments can be obtained.

또한, 본 발명은 이러한 상기 실시 형태에 한정되는 것이 아니라, 본 발명의 범위를 일탈하지 않고 다양한 변형 또는 수정이 가능하다.In addition, this invention is not limited to such said embodiment, A various deformation | transformation or correction is possible without deviating from the range of this invention.

이상의 설명에서 명백한 바와 같이, 본 발명에 관한 움직임 벡터 도출 방법에 의하면, 참조 움직임 벡터를 스케일링할 때에 필요하게 되는 제산 처리를 승산 처리로 행할 수 있으므로, 적은 연산량으로 움직임 벡터를 도출할 수 있다. 또, 참조 움직임 벡터를 스케일링할 때에 사용하는 파라미터의 값을 소정 범위로 제한함으로써, 메모리 상에 격납하는 승수 파라미터 테이블을 삭감할 수 있다. 따라서, 움직임 벡터를 도출할 때의 처리 부하가 작기 때문에, 처리 능력이 낮은 기기라도 처리 가능하여, 그 실용적 가치는 크다.As is apparent from the above description, according to the motion vector derivation method according to the present invention, the division process required when scaling the reference motion vector can be performed by the multiplication process, so that the motion vector can be derived with a small amount of computation. In addition, by limiting the value of the parameter used when scaling the reference motion vector to a predetermined range, the multiplier parameter table stored on the memory can be reduced. Therefore, since the processing load at the time of deriving the motion vector is small, even a device with low processing capacity can be processed, and its practical value is large.

이상과 같이, 본 발명에 관한 움직임 벡터 도출 방법, 동화상 부호화 방법 및 동화상 복호화 방법은, 예를 들면 휴대 전화, DVD 장치, 및 퍼스널 컴퓨터 등에서, 입력 화상을 구성하는 각 픽처를 부호화하여, 동화상 부호화 데이터로서 출력하거나, 이 동화상 부호화 데이터를 복호화하기 위한 방법으로서 유용하다.As described above, the motion vector deriving method, the moving picture coding method, and the moving picture decoding method according to the present invention encode, for example, each picture constituting an input image by using a mobile phone, a DVD device, a personal computer, and the like, and the moving picture coded data. It is useful as a method for outputting as a video data or decoding the video encoded data.

Claims (19)

픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법에 있어서,In the motion vector derivation method for deriving the motion vector of the blocks constituting the picture, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와,A reference motion vector acquiring step of acquiring a reference motion vector for deriving a motion vector of the target block; 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와,A first parameter acquiring step of acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector; 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와,A second parameter acquiring step of acquiring at least one second parameter corresponding to an interval between a picture including the target block and a picture referenced by the target block; 상기 제1 파라미터가 미리 설정된 소정 범위에 포함되는지 여부를 판단하는 판단 단계와,A determination step of determining whether the first parameter is included in a predetermined range; 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 소정 범위에 포함되지 않는 경우, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하고, 한편, 상기 제1 파라미터가 상기 소정 범위에 포함되는 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 하는 움직임 벡터 도출 방법.As a result of the determination in the determining step, when the first parameter is not included in the predetermined range, the reference motion vector is scaled based on the first predetermined value and the second parameter to determine a motion vector of the target block. And a motion vector derivation step of deriving a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter when the first parameter is included in the predetermined range. Motion vector derivation method comprising a. 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법에 있어서,In the motion vector derivation method for deriving the motion vector of the blocks constituting the picture, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와,A reference motion vector acquiring step of acquiring a reference motion vector for deriving a motion vector of the target block; 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와,A first parameter acquiring step of acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector; 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와,A second parameter acquiring step of acquiring at least one second parameter corresponding to an interval between a picture including the target block and a picture referenced by the target block; 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 단계와,A determination step of determining whether the first parameter is equal to or greater than a first predetermined value; 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 하는 움직임 벡터 도출 방법.As a result of the determination in the determining step, when the first parameter is equal to or greater than the first predetermined value, the motion vector of the target block is derived by scaling the reference motion vector based on the first predetermined value and the second parameter. And a motion vector derivation step of deriving a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter when the first parameter is less than the predetermined value. Motion vector derivation method, characterized in that. 제2항에 있어서,The method of claim 2, 상기 판단 단계에서는, 상기 제1 파라미터가 미리 설정된 상기 제1 소정값보다 작은 값인 제2 소정값 이하인지 여부를 더 판단하고,In the determining step, it is further determined whether or not the first parameter is equal to or less than a second predetermined value, which is a value smaller than the first predetermined value. 상기 움직임 벡터 도출 단계에서는, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제2 소정값 이하이면, 상기 제2 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 것을 특징으로 하는 움직임 벡터 도출 방법.In the motion vector deriving step, if the first parameter is equal to or less than the second predetermined value as a result of the determination in the determining step, the reference motion vector is scaled based on the second predetermined value and the second parameter. A motion vector derivation method comprising deriving a motion vector of a target block. 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 상기 움직임 벡터 도출 방법은, 상기 제1 파라미터와 상기 제1 파라미터에 대한 역수의 값과의 관계를 나타내는 승수 파라미터 테이블을 참조하여, 상기 취득된 제1 파라미터를 상기 역수의 값으로 변환하고, 얻어진 값을 제3 파라미터로서 취득하는 변환 단계를 더 포함하는 것을 특징으로 하는 움직임 벡터 도출 방법.The method for deriving the motion vector comprises converting the obtained first parameter into the value of the inverse by referring to a multiplier parameter table indicating a relationship between the first parameter and the value of the inverse of the first parameter. And a transforming step of obtaining H as a third parameter. 제4항에 있어서,The method of claim 4, wherein 상기 움직임 벡터 도출 단계에서는,In the motion vector derivation step, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링할 때, 상기 참조 움직임 벡터, 상기 제2 파라미터, 및 상기 제3 파라미터를 승산하여 상기 대상 블록의 움직임 벡터를 도출하는 것을 특징으로 하는 움직임 벡터 도출 방법.When the reference motion vector is scaled based on the first parameter and the second parameter, the motion vector of the target block is derived by multiplying the reference motion vector, the second parameter, and the third parameter. Motion vector derivation method. 제4항에 있어서,The method of claim 4, wherein 상기 제1 소정값은, 상기 승수 파라미터 테이블에서의 제1 파라미터의 최대값인 것을 특징으로 하는 움직임 벡터 도출 방법.And wherein the first predetermined value is a maximum value of a first parameter in the multiplier parameter table. 제6항에 있어서,The method of claim 6, 상기 움직임 벡터 도출 단계에서는,In the motion vector derivation step, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링할 때, 상기 승수 파라미터 테이블을 참조하여 상기 제1 소정값을 상기 제1 파라미터의 최대값에 대한 상기 역수의 값으로 변환하고, 상기 참조 움직임 벡터, 상기 역수의 값 및 상기 제2 파라미터를 승산하여 상기 대상 블록의 움직임 벡터를 도출하는 것을 특징으로 하는 움직임 벡터 도출 방법.When scaling the reference motion vector based on the first predetermined value and the second parameter, converting the first predetermined value to the value of the reciprocal of the maximum value of the first parameter by referring to the multiplier parameter table. And multiplying the reference motion vector, the reciprocal value, and the second parameter to derive a motion vector of the target block. 제4항에 있어서,The method of claim 4, wherein 상기 제2 소정값은, 상기 승수 파라미터 테이블에서의 제1 파라미터의 최소값인 것을 특징으로 하는 움직임 벡터 도출 방법.And the second predetermined value is a minimum value of a first parameter in the multiplier parameter table. 제8항에 있어서,The method of claim 8, 상기 움직임 벡터 도출 단계에서는,In the motion vector derivation step, 상기 제2 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링할 때, 상기 승수 파라미터 테이블을 참조하여 상기 제2 소정값을 상기 제1 파라미터의 최소값에 대한 상기 역수의 값으로 변환하고, 상기 참조 움직임 벡터, 상기 역수의 값 및 상기 제2 파라미터를 승산하여 상기 대상 블록의 움직임 벡터를 도출하는 것을 특징으로 하는 움직임 벡터 도출 방법.When scaling the reference motion vector based on the second predetermined value and the second parameter, converting the second predetermined value to the value of the reciprocal of the minimum value of the first parameter by referring to the multiplier parameter table; And a motion vector of the target block is derived by multiplying the reference motion vector, the inverse value, and the second parameter. 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법에 있어서,In the motion vector derivation method for deriving the motion vector of the blocks constituting the picture, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 단계와,A reference motion vector acquiring step of acquiring a reference motion vector for deriving a motion vector of the target block; 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 단계와,A first parameter acquiring step of acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector; 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 단계와,A second parameter acquiring step of acquiring at least one second parameter corresponding to an interval between a picture including the target block and a picture referenced by the target block; 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 단계와,A determination step of determining whether the first parameter is equal to or greater than a first predetermined value; 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 참조 움직임 벡터를 상기 대상 블록의 움직임 벡터로서 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 단계를 포함하는 것을 특징으로 하는 움직임 벡터 도출 방법.As a result of the determination in the determination step, when the first parameter is equal to or greater than the first predetermined value, the reference motion vector is derived as a motion vector of the target block, while when the first parameter is less than the predetermined value, And a motion vector derivation step of deriving a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter. 제10항에 있어서,The method of claim 10, 상기 판단 단계에서는, 상기 제1 파라미터가 미리 설정된 상기 제1 소정값보다 작은 값인 제2 소정값 이하인지 여부를 더 판단하고,In the determining step, it is further determined whether or not the first parameter is equal to or less than a second predetermined value, which is a value smaller than the first predetermined value. 상기 움직임 벡터 도출 단계에서는, 상기 판단 단계에서의 판단의 결과, 상기 제1 파라미터가 상기 제2 소정값 이하이면, 상기 참조 움직임 벡터를 상기 대상 블록의 움직임 벡터로서 도출하는 것을 특징으로 하는 움직임 벡터 도출 방법.In the motion vector derivation step, if the first parameter is less than or equal to the second predetermined value as a result of the determination in the determination step, the reference motion vector is derived as a motion vector of the target block. Way. 제2항 또는 제10항에 있어서,The method of claim 2 or 10, 상기 픽처와 픽처의 간격은, 상기 픽처와 픽처의 표시 순서에서의 시간적인 간격이고, 상기 픽처간 시간 간격, 또는 상기 픽처와 픽처에 할당되어 있는 픽처 번호의 차이, 또는 상기 픽처간에 존재하는 픽처의 매수에 기초하는 간격인 것을 특징으로 하는 움직임 벡터 도출 방법.The interval between the picture and the picture is a temporal interval in the display order of the picture and the picture, and a time interval between the pictures or a difference between a picture number assigned to the picture and the picture or a picture existing between the pictures. Motion vector derivation method, characterized in that the interval based on the number of sheets. 동화상을 구성하는 각 픽처를 블록 단위로 부호화하는 동화상 부호화 방법에 있어서,In the video encoding method for encoding each picture constituting a video in block units, 제2항 내지 제12항 중 어느 한 항의 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 부호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 단계와,A motion compensation step of generating a motion compensation image of the encoding object block by using the motion vector derived by the motion vector derivation method of any one of claims 2 to 12; 상기 움직임 보상 화상을 이용하여 상기 부호화 대상 블록을 부호화하는 부호화 단계를 포함하는 것을 특징으로 하는 동화상 부호화 방법.And an encoding step of encoding the encoding target block by using the motion compensation image. 동화상을 구성하는 각 픽처가 블록 단위로 부호화된 동화상 부호화 데이터를 복호화하는 동화상 복호화 방법에 있어서,In the moving picture decoding method of decoding moving picture coded data in which each picture constituting a moving picture is coded in block units, 제2항 내지 제12항 중 어느 한 항의 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 복호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 단계와,A motion compensation step of generating a motion compensation image of the decoding object block by using the motion vector derived by the motion vector deriving method of any one of claims 2 to 12; 상기 움직임 보상 화상을 이용하여 상기 복호화 대상 블록을 복호화하는 복호화 단계를 포함하는 것을 특징으로 하는 동화상 복호화 방법.And a decoding step of decoding the decoding object block using the motion compensation image. 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 장치에 있어서,In the motion vector derivation device for deriving the motion vector of the block constituting the picture, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 수단과,Reference motion vector obtaining means for obtaining a reference motion vector for deriving a motion vector of the target block; 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득수단과,First parameter acquiring means for acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector; 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 수단과,Second parameter acquiring means for acquiring at least one second parameter corresponding to an interval between a picture including the target block and a picture referred to by the target block; 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 수단과,Determination means for determining whether the first parameter is equal to or greater than a first predetermined value; 상기 판단 수단에 의한 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 제1 소정값 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 수단을 구비하는 것을 특징으로 하는 움직임 벡터 도출 장치.As a result of the determination by the determining means, when the first parameter is equal to or greater than the first predetermined value, the motion vector of the target block is derived by scaling the reference motion vector based on the first predetermined value and the second parameter. And a motion vector derivation means for deriving a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter when the first parameter is less than the predetermined value. Motion vector derivation device, characterized in that. 픽처를 구성하는 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 장치에 있어서,In the motion vector derivation device for deriving the motion vector of the block constituting the picture, 대상 블록의 움직임 벡터를 도출하기 위한 참조 움직임 벡터를 취득하는 참조 움직임 벡터 취득 수단과,Reference motion vector obtaining means for obtaining a reference motion vector for deriving a motion vector of the target block; 상기 참조 움직임 벡터를 갖는 픽처와 상기 참조 움직임 벡터가 참조하는 픽처의 간격에 대응하는 제1 파라미터를 취득하는 제1 파라미터 취득 수단과,First parameter acquiring means for acquiring a first parameter corresponding to an interval between a picture having the reference motion vector and a picture referenced by the reference motion vector; 상기 대상 블록을 포함하는 픽처와 상기 대상 블록이 참조하는 픽처의 간격에 대응하는 적어도 1개의 제2 파라미터를 취득하는 제2 파라미터 취득 수단과,Second parameter acquiring means for acquiring at least one second parameter corresponding to an interval between a picture including the target block and a picture referred to by the target block; 상기 제1 파라미터가 미리 설정된 제1 소정값 이상인지 여부를 판단하는 판단 수단과,Determination means for determining whether the first parameter is equal to or greater than a first predetermined value; 상기 판단 수단에 의한 판단의 결과, 상기 제1 파라미터가 상기 제1 소정값 이상인 경우, 상기 참조 움직임 벡터를 상기 대상 블록의 움직임 벡터로서 도출하고, 한편, 상기 제1 파라미터가 상기 소정값 미만인 경우, 상기 제1 파라미터 및 상기 제2 파라미터에 기초하여 상기 참조 움직임 벡터를 스케일링하여 상기 대상 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 수단을 구비하는 것을 특징으로 하는 움직임 벡터 도출 장치.As a result of the determination by the determining means, when the first parameter is equal to or greater than the first predetermined value, the reference motion vector is derived as a motion vector of the target block, while when the first parameter is less than the predetermined value, And a motion vector derivation means for deriving a motion vector of the target block by scaling the reference motion vector based on the first parameter and the second parameter. 동화상을 구성하는 각 픽처를 블록 단위로 부호화하는 동화상 부호화 장치에 있어서,In the moving picture encoding apparatus for encoding each picture constituting the moving picture in block units, 제2항 내지 제12항 중 어느 한 항의 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 부호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 수단과,Motion compensation means for generating a motion compensation image of the encoding object block by using the motion vector derived by the motion vector derivation method of any one of claims 2 to 12; 상기 움직임 보상 화상을 이용하여 상기 부호화 대상 블록을 부호화하는 부호화 수단을 구비하는 것을 특징으로 하는 동화상 부호화 장치.And encoding means for encoding the encoding object block by using the motion compensation image. 동화상을 구성하는 각 픽처가 블록 단위로 부호화된 동화상 부호화 데이터를 복호화하는 동화상 복호화 장치에 있어서,In a moving picture decoding apparatus for decoding moving picture coded data in which each picture constituting a moving picture is coded in block units, 제2항 내지 제12항 중 어느 한 항의 움직임 벡터 도출 방법에 의해 도출된 움직임 벡터를 이용하여 복호화 대상 블록의 움직임 보상 화상을 생성하는 움직임 보상 수단과,Motion compensation means for generating a motion compensation image of the decoding object block by using the motion vector derived by the motion vector deriving method of any one of claims 2 to 12; 상기 움직임 보상 화상을 이용하여 상기 복호화 대상 블록을 복호화하는 복호화 수단을 구비하는 것을 특징으로 하는 동화상 복호화 장치.And decoding means for decoding the decoding object block by using the motion compensation image. 픽처를 구성하는 블록의 움직임 벡터를 도출하기 위한 프로그램에 있어서,In the program for deriving the motion vector of the blocks constituting the picture, 제2항 내지 제2항 중 어느 한 항의 움직임 벡터 도출 방법에 포함되는 단계를 컴퓨터에 실행시키는 것을 특징으로 하는 프로그램.A program comprising causing a computer to perform the steps included in the method for deriving the motion vector of claim 2.
KR1020037013520A 2002-07-02 2003-04-28 Motion vector derivation method, moving picture coding method, and moving picture decoding method KR100956910B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002193028 2002-07-02
JPJP-P-2002-00193028 2002-07-02
PCT/JP2003/005418 WO2004006585A1 (en) 2002-07-02 2003-04-28 Motion vector deriving method, dynamic image encoding method, and dynamic image decoding method

Publications (2)

Publication Number Publication Date
KR20050018728A true KR20050018728A (en) 2005-02-28
KR100956910B1 KR100956910B1 (en) 2010-05-11

Family

ID=30112273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037013520A KR100956910B1 (en) 2002-07-02 2003-04-28 Motion vector derivation method, moving picture coding method, and moving picture decoding method

Country Status (10)

Country Link
US (16) US7327788B2 (en)
EP (2) EP1408696A4 (en)
KR (1) KR100956910B1 (en)
CN (1) CN100367802C (en)
BR (2) BRPI0303336B8 (en)
CA (1) CA2450309C (en)
MX (1) MXPA03010114A (en)
MY (1) MY139995A (en)
TW (1) TWI272013B (en)
WO (1) WO2004006585A1 (en)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0303336B8 (en) * 2002-07-02 2020-06-02 Matsushita Electric Ind Co Ltd motion vector derivation method, animated image encoding method and animated image decoding method
EP2309758B1 (en) 2002-11-20 2014-07-30 Panasonic Intellectual Property Corporation of America Moving image predicting method, moving image encoding method and device, and moving image decoding method and device
CN1321534C (en) * 2003-12-31 2007-06-13 中国科学院计算技术研究所 Method of obtaining image reference block under fixed reference frame number coding mode
JP4879558B2 (en) * 2005-11-02 2012-02-22 パナソニック株式会社 Motion vector detection device
CN101222604B (en) * 2007-04-04 2010-06-09 晨星半导体股份有限公司 Operation mobile estimation value and method for estimating mobile vector of image
WO2008153262A1 (en) * 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
US8526499B2 (en) * 2007-06-15 2013-09-03 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording medium
CN101119493B (en) * 2007-08-30 2010-12-01 威盛电子股份有限公司 Coding method and device for block type digital coding image
KR101228020B1 (en) * 2007-12-05 2013-01-30 삼성전자주식회사 Video coding method and apparatus using side matching, and video decoding method and appartus thereof
KR101452859B1 (en) 2009-08-13 2014-10-23 삼성전자주식회사 Method and apparatus for encoding and decoding motion vector
KR101348613B1 (en) * 2009-12-23 2014-01-10 한국전자통신연구원 Apparatus and method for image incoding/decoding
US9635383B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for computing a motion vector
CN106878742B (en) 2011-01-12 2020-01-07 太阳专利托管公司 Moving picture encoding and decoding device
JP6108309B2 (en) * 2011-02-22 2017-04-05 サン パテント トラスト Moving picture encoding method, moving picture encoding apparatus, moving picture decoding method, and moving picture decoding apparatus
JP5358746B2 (en) 2011-03-03 2013-12-04 パナソニック株式会社 Moving picture coding method, moving picture coding apparatus, and program
CN107105286B (en) * 2011-03-14 2020-01-21 寰发股份有限公司 Method and apparatus for deriving motion vector predictor
KR102083012B1 (en) 2011-06-28 2020-02-28 엘지전자 주식회사 Method for setting motion vector list and apparatus using same
EP2740271B1 (en) * 2011-11-07 2020-07-15 HFI Innovation Inc. Method and apparatus for mv scaling with increased effective scaling ratio
TWI559747B (en) * 2011-12-28 2016-11-21 Jvc Kenwood Corp A dynamic image coding apparatus, a motion picture coding method, and a motion picture decoding apparatus, a motion picture decoding method, and a motion picture decoding program
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
US10469869B1 (en) * 2018-06-01 2019-11-05 Tencent America LLC Method and apparatus for video coding
EP3667617A1 (en) * 2018-12-14 2020-06-17 Koninklijke Philips N.V. Imaging system and imaging method
US11895416B2 (en) 2019-07-30 2024-02-06 Dolby Laboratories Licensing Corporation Electro-optical transfer function conversion and signal legalization
CN111309151B (en) * 2020-02-28 2022-09-16 桂林电子科技大学 Control method of school monitoring equipment
BR112022020770A2 (en) * 2020-04-14 2022-11-29 Op Solutions Llc VIDEO CODING METHODS AND SYSTEMS USING REFERENCE REGIONS

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0466814A4 (en) * 1989-04-10 1993-02-24 Motorola Inc. Integer divider circuit
CN1075323C (en) * 1993-03-24 2001-11-21 索尼公司 Method and apparatus for coding/decoding motion vector, and method and apparatus for coding/decoding image signal
TW301098B (en) * 1993-03-31 1997-03-21 Sony Co Ltd
JPH0723389A (en) * 1993-06-28 1995-01-24 Toshiba Corp Picture processor
DE4344924A1 (en) * 1993-12-30 1995-08-10 Thomson Brandt Gmbh Method and device for motion estimation
US5650829A (en) * 1994-04-21 1997-07-22 Sanyo Electric Co., Ltd. Motion video coding systems with motion vector detection
EP1274252A3 (en) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
US5963673A (en) * 1995-12-20 1999-10-05 Sanyo Electric Co., Ltd. Method and apparatus for adaptively selecting a coding mode for video encoding
JP3263807B2 (en) * 1996-09-09 2002-03-11 ソニー株式会社 Image encoding apparatus and image encoding method
ATE292622T1 (en) * 1997-01-22 2005-04-15 Aventis Pharma Inc SUBSTITUTED BETA-THIOCARBONIC ACIDS
CN1297147C (en) * 1997-03-07 2007-01-24 通用仪器公司 Prediction and coding of BI-directionally predicted video object planes for interlaced digital video
JP3351705B2 (en) * 1997-04-25 2002-12-03 日本ビクター株式会社 Motion compensation coding apparatus, motion compensation coding method, and recording method on recording medium
JPH10304381A (en) * 1997-05-01 1998-11-13 Fujitsu Ltd Moving image encoding device/method
JP3226020B2 (en) * 1997-05-28 2001-11-05 日本電気株式会社 Motion vector detection device
JP2891253B1 (en) * 1997-12-10 1999-05-17 日本電気株式会社 Image compression processor
JP3352931B2 (en) * 1997-12-26 2002-12-03 沖電気工業株式会社 Motion vector detection device
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
JP3957915B2 (en) * 1999-03-08 2007-08-15 パイオニア株式会社 Fade detection device and information encoding device
JP2000278688A (en) * 1999-03-24 2000-10-06 Sony Corp Motion vector detector, its method and image processor
JP2001086508A (en) * 1999-09-13 2001-03-30 Victor Co Of Japan Ltd Method and device for moving image decoding
US6876703B2 (en) * 2000-05-11 2005-04-05 Ub Video Inc. Method and apparatus for video coding
US6757330B1 (en) * 2000-06-01 2004-06-29 Hewlett-Packard Development Company, L.P. Efficient implementation of half-pixel motion prediction
BRPI0303336B8 (en) * 2002-07-02 2020-06-02 Matsushita Electric Ind Co Ltd motion vector derivation method, animated image encoding method and animated image decoding method
EP2309758B1 (en) * 2002-11-20 2014-07-30 Panasonic Intellectual Property Corporation of America Moving image predicting method, moving image encoding method and device, and moving image decoding method and device
JP4023324B2 (en) * 2003-02-04 2007-12-19 株式会社日立製作所 Watermark embedding and image compression unit
KR101772459B1 (en) * 2010-05-17 2017-08-30 엘지전자 주식회사 New intra prediction modes
US8879619B2 (en) * 2010-07-15 2014-11-04 Sharp Laboratories Of America, Inc. Method of parallel video coding based on scan order

Also Published As

Publication number Publication date
BR0303336A (en) 2004-04-27
US7649945B2 (en) 2010-01-19
US20090207917A1 (en) 2009-08-20
US20040233988A1 (en) 2004-11-25
WO2004006585A1 (en) 2004-01-15
US8948265B2 (en) 2015-02-03
BRPI0303336B1 (en) 2019-06-04
US20080069234A1 (en) 2008-03-20
BRPI0303336B8 (en) 2020-06-02
US20170078691A1 (en) 2017-03-16
US10659808B2 (en) 2020-05-19
AU2003234762A1 (en) 2004-01-23
TWI272013B (en) 2007-01-21
US20150110196A1 (en) 2015-04-23
US10659807B2 (en) 2020-05-19
US7327788B2 (en) 2008-02-05
US20120140828A1 (en) 2012-06-07
US20190200037A1 (en) 2019-06-27
US10986362B2 (en) 2021-04-20
US20160119640A1 (en) 2016-04-28
US9264733B2 (en) 2016-02-16
CA2450309A1 (en) 2004-01-02
US7649944B2 (en) 2010-01-19
US20080069233A1 (en) 2008-03-20
US20200162755A1 (en) 2020-05-21
US9277236B2 (en) 2016-03-01
CN100367802C (en) 2008-02-06
CN1692652A (en) 2005-11-02
US10194166B2 (en) 2019-01-29
US10250903B2 (en) 2019-04-02
US9538196B2 (en) 2017-01-03
KR100956910B1 (en) 2010-05-11
US10194165B2 (en) 2019-01-29
US20080063076A1 (en) 2008-03-13
US20170078692A1 (en) 2017-03-16
EP1408696A4 (en) 2008-04-09
CA2450309C (en) 2012-08-21
EP2227018A1 (en) 2010-09-08
TW200401564A (en) 2004-01-16
US20170078689A1 (en) 2017-03-16
MXPA03010114A (en) 2004-03-10
EP1408696A1 (en) 2004-04-14
US20190200036A1 (en) 2019-06-27
US8139644B2 (en) 2012-03-20
US20170078690A1 (en) 2017-03-16
MY139995A (en) 2009-11-30
US20150117542A1 (en) 2015-04-30
US10264278B2 (en) 2019-04-16

Similar Documents

Publication Publication Date Title
KR100956910B1 (en) Motion vector derivation method, moving picture coding method, and moving picture decoding method
KR100985366B1 (en) Motion compensating method, picture encoding method and picture decoding method
JP5631478B2 (en) Image encoding / decoding device
KR100944853B1 (en) Moving picture encoding method and moving picture decoding method
KR100557911B1 (en) Image encoding method and image decoding method
JP3824268B2 (en) Motion vector deriving method and motion vector deriving device
JP4178088B2 (en) Moving picture decoding method and apparatus, and data storage medium
JP4481968B2 (en) Image coding method, image coding apparatus, and data storage medium
JP2005142986A (en) Moving image encoding method, moving image encoding apparatus and moving image encoding program
JP2005341545A (en) Moving image coding method,device, and program, and moving image decoding method,device, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20160318

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170322

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180316

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 10