JP2004215229A - Motion picture encoding method and motion picture decoding method - Google Patents

Motion picture encoding method and motion picture decoding method Download PDF

Info

Publication number
JP2004215229A
JP2004215229A JP2003343325A JP2003343325A JP2004215229A JP 2004215229 A JP2004215229 A JP 2004215229A JP 2003343325 A JP2003343325 A JP 2003343325A JP 2003343325 A JP2003343325 A JP 2003343325A JP 2004215229 A JP2004215229 A JP 2004215229A
Authority
JP
Japan
Prior art keywords
motion vector
picture
mode
encoding
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003343325A
Other languages
Japanese (ja)
Other versions
JP3878591B2 (en
Inventor
Seishi Abe
清史 安倍
Shinya Sumino
眞也 角野
Toshiyuki Kondo
敏志 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003343325A priority Critical patent/JP3878591B2/en
Publication of JP2004215229A publication Critical patent/JP2004215229A/en
Application granted granted Critical
Publication of JP3878591B2 publication Critical patent/JP3878591B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion picture encoding method, a motion picture decoding method and the like with which a motion vector can be surely obtained even when a direct mode is selected in the case of performing field encoding and decoding of a motion picture. <P>SOLUTION: A motion picture encoding apparatus is equipped with a motion compensation encoding part 107 for determining an encoding mode of an encoding target block and generating predictive image data based upon the encoding mode, and a direct mode possibility judging part 109 for judging whether or not scaling processing can be performed when the encoding mode determined by the motion compensation encoding part 107 is a temporal direct mode. When it is judged that scaling processing can not be performed, motion compensation is performed by using the other encoding mode or without performing scaling. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化および復号化を行う動画像符号化方法および動画像復号化方法、動画像符号化装置、動画像復号化装置、およびそれをソフトウェアで実施するためのプログラムに関する。   The present invention relates to a moving image encoding method, a moving image decoding method, a moving image encoding device, a moving image decoding device, and a method for encoding and decoding each picture constituting a moving image with a frame structure or a field structure, and It relates to a program for implementing it in software.

動画像符号化においては、一般に動画像が有する空間方向および時間方向の冗長性を利用して情報量の圧縮を行う。ここで、時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対象のピクチャとの差分値に対して空間方向の冗長度を取り除くことにより情報量の圧縮を行う。   In moving picture coding, the amount of information is generally compressed using redundancy in the spatial direction and temporal direction of a moving picture. Here, inter-picture predictive coding is used as a method of using temporal redundancy. In inter-picture predictive coding, when a certain picture is coded, a picture that is forward or backward in display time order is used as a reference picture. Then, the amount of motion from the reference picture is detected, and the amount of information is compressed by removing the redundancy in the spatial direction for the difference value between the motion compensated picture and the picture to be encoded.

現在標準化中のH.264と呼ばれる動画像符号化方式では、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ここでピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位を意味する。また、既に処理済みの1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと呼び、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼ぶ。   H. currently being standardized. In a moving picture coding scheme called H.264, a picture that is subjected to intra-picture prediction coding using only a picture to be coded without having a reference picture is called an I picture. Here, a picture means one encoding unit that includes both a frame and a field. Also, a picture that is inter-picture prediction encoded with reference to one already processed picture is called a P picture, and a picture that is inter-picture predictively encoded with reference to two already processed pictures at the same time is called a B picture. Call it.

図17は、上記の動画像符号化方式における各ピクチャの予測関係を示す模式図である。図17において、縦線は1枚のピクチャを示しており、各ピクチャの右下にピクチャタイプ(I、P、B)を示している。また図17中の矢印は、矢印の始端にあるピクチャが、矢印の終端にあるピクチャを参照ピクチャとして用いてピクチャ間予測符号化することを示している。例えば、先頭から2枚目のBピクチャは、先頭のIピクチャと先頭から4枚目のPピクチャを参照ピクチャとして用いることにより符号化する。   FIG. 17 is a schematic diagram showing the prediction relationship of each picture in the moving picture coding method. In FIG. 17, the vertical line indicates one picture, and the picture type (I, P, B) is shown at the lower right of each picture. In addition, the arrows in FIG. 17 indicate that the picture at the start of the arrow performs inter-picture predictive encoding using the picture at the end of the arrow as a reference picture. For example, the second B picture from the beginning is encoded by using the first I picture and the fourth P picture from the beginning as reference pictures.

H.264方式では、Bピクチャの符号化において、ダイレクトモードという符号化モードを選択することができる。このダイレクトモードには、時間的方法と空間的方法との2種類の方法がある。時間的ダイレクトモードでは、符号化対象ブロック自体は動きベクトルを持たず、符号化済みの他のピクチャの動きベクトルを参照動きベクトルとして、ピクチャ間の表示時間的位置関係に基づいてスケーリング処理を行うことによって、符号化対象ブロックで用いる動きベクトルを予測して生成している(例えば、特許文献1参照)。   H. In the H.264 system, an encoding mode called a direct mode can be selected for encoding a B picture. This direct mode has two types of methods, a temporal method and a spatial method. In temporal direct mode, the current block itself does not have a motion vector, and the motion vector of another encoded picture is used as a reference motion vector, and scaling processing is performed based on the display temporal positional relationship between pictures. Thus, the motion vector used in the encoding target block is predicted and generated (see, for example, Patent Document 1).

図18は、時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図であり、PはPピクチャ、BはBピクチャを示し、ピクチャタイプに付している数字は各ピクチャの表示順を示している。また、各ピクチャP1、B2、B3、P4は、それぞれ表示順情報T1、T2、T3、T4を有している。ここでは、図18に示すピクチャB3のブロックBL0を時間的ダイレクトモードで符号化する場合について説明する。   FIG. 18 is a schematic diagram showing a motion vector prediction generation method in the temporal direct mode, where P is a P picture, B is a B picture, and numbers attached to picture types indicate the display order of the pictures. ing. Each picture P1, B2, B3, and P4 has display order information T1, T2, T3, and T4, respectively. Here, a case where the block BL0 of the picture B3 shown in FIG. 18 is encoded in the temporal direct mode will be described.

この場合、ピクチャB3の表示時間的に近傍に位置する既に符号化済みピクチャであるピクチャP4中の、ブロックBL0と同じ位置にあるブロックBL1の動きベクトルMV1を利用する。この動きベクトルMV1は、ブロックBL1が符号化された際に用いられた動きベクトルであり、ピクチャP1を参照している。この場合にブロックBL0を符号化する際に用いる動きベクトルは、ピクチャP1に対しては動きベクトルMV_F、ピクチャP4に対しては動きベクトルMV_Bとなる。この際、動きベクトルMV1の大きさをMV、動きベクトルMV_Fの大きさをMVf、動きベクトルMV_Bの大きさをMVbとすると、MVf、MVbはそれぞれ式1a、式1bによって得られる。
MVf=(T3−T1)/(T4−T1)×MV … (式1a)
MVb=(T3−T4)/(T4−T1)×MV … (式1b)
In this case, the motion vector MV1 of the block BL1 in the same position as the block BL0 in the picture P4 that is an already encoded picture located near the display time of the picture B3 is used. The motion vector MV1 is a motion vector used when the block BL1 is encoded, and refers to the picture P1. In this case, the motion vector used when coding the block BL0 is the motion vector MV_F for the picture P1 and the motion vector MV_B for the picture P4. At this time, assuming that the magnitude of the motion vector MV1 is MV, the magnitude of the motion vector MV_F is MVf, and the magnitude of the motion vector MV_B is MVb, MVf and MVb are obtained by Expression 1a and Expression 1b, respectively.
MVf = (T3-T1) / (T4-T1) × MV (Formula 1a)
MVb = (T3-T4) / (T4-T1) × MV (Formula 1b)

このように動きベクトルMV1からスケーリング処理を行うことによって得られた動きベクトルMV_F、動きベクトルMV_Bを用いて、参照ピクチャであるピクチャP1とピクチャP4からブロックBL0の動き補償を行う。   Using the motion vector MV_F and the motion vector MV_B obtained by performing the scaling process from the motion vector MV1 in this way, motion compensation of the block BL0 is performed from the picture P1 and the picture P4 which are reference pictures.

一方、空間的ダイレクトモードでは、時間的ダイレクトモードと同様に符号化対象ブロック自体は動きベクトルを持たず、符号化対象ブロックの空間的に周辺に位置する符号化済みブロックの持つ動きベクトルを参照し、それを用いて符号化を行っている。
図19は、空間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図であり、PはPピクチャ、BはBピクチャを示し、ピクチャタイプに付している数字は各ピクチャの表示順を示している。ここでは、図19に示すピクチャB3のブロックBL0を空間的ダイレクトモードで符号化する場合について説明する。
On the other hand, in the spatial direct mode, the encoding target block itself does not have a motion vector as in the temporal direct mode, and refers to the motion vector of the encoded block located spatially around the encoding target block. , Encoding is performed using it.
FIG. 19 is a schematic diagram showing a motion vector prediction generation method in the spatial direct mode, where P is a P picture, B is a B picture, and the numbers attached to the picture types indicate the display order of each picture. ing. Here, a case where the block BL0 of the picture B3 shown in FIG. 19 is encoded in the spatial direct mode will be described.

この場合、符号化対象であるブロックBL0の周辺の3画素A、B、Cを含む符号化済みのブロックのそれぞれの動きベクトルMVA1、MVB1、MVC1のうち、符号化対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルを、符号化対象ブロックの動きベクトルの候補として決定する。この決定した動きベクトルが3つである場合には、それらの中央値を符号化対象ブロックの動きベクトルとして選択する。また、2つである場合には、それらの平均値を求め、符号化対象ブロックの動きベクトルとする。また、1つだけである場合には、その動きベクトルを符号化対象ブロックの動きベクトルとする。図19に示す例では、動きベクトルMVA1、MVC1はピクチャP2を参照して求められ、動きベクトルMVB1はピクチャP1を参照して求められている。よって、符号化対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャであるピクチャP2を参照した動きベクトルMVA1、MVC1の平均値を求め、符号化対象ブロックの1つめの動きベクトルであるMV_Fとする。2つめの動きベクトルであるMV_Bを求める場合も同様である。
特開平11−75191号公報
In this case, among the motion vectors MVA1, MVB1, and MVC1 of the encoded block including the three pixels A, B, and C around the block BL0 that is the encoding target, the most in display time from the encoding target picture. A motion vector that refers to a nearby already encoded picture is determined as a motion vector candidate for the encoding target block. If there are three determined motion vectors, the median value is selected as the motion vector of the encoding target block. If there are two, the average value of them is obtained and used as the motion vector of the encoding target block. If there is only one, the motion vector is used as the motion vector of the encoding target block. In the example shown in FIG. 19, the motion vectors MVA1 and MVC1 are obtained with reference to the picture P2, and the motion vector MVB1 is obtained with reference to the picture P1. Therefore, the average value of the motion vectors MVA1 and MVC1 that refer to the picture P2, which is the already encoded picture closest to the encoding target picture, is obtained, and the first motion vector of the encoding target block is obtained. Let it be a certain MV_F. The same applies to obtaining MV_B, which is the second motion vector.
Japanese Patent Laid-Open No. 11-75191

ところで、H.264の符号化方式では、プログレッシブ画像について、1枚のピクチャをフレームのままでフレーム符号化することに加えて、インターレース画像に対して使用される1枚のピクチャをトップフィールド、ボトムフィールドの2枚のフィールドに分けて符号化するフィールド符号化を使用することが許されている。
図20は、インターレース画像およびプログレッシブ画像におけるフィールドが有する表示順情報を示す模式図であり、同じフレーム番号を有する2本の縦線はそれぞれフィールドを示している。インターレース画像では、図20(a) に示すようにトップフィールドとボトムフィールドは等間隔になるように表示順情報が割り当てられる。一方、プログレッシブ画像では、図20(b) に示すように2枚のフィールドは同じ表示順情報を持たせることにより、正確な表示順関係を表現することが可能となる。以下では同じフレームに属する2枚のフィールドが同じ表示順情報をもつ画像をプログレッシブ画像、そうでない画像をインターレース画像と呼ぶが、これに限ったものでなく、どのような画像に対しても同じフレームに属する2枚のフィールドに同じ表示順情報を持たせることは可能である。
H. In the H.264 encoding method, in addition to encoding a single picture with a frame as it is for a progressive picture, one picture used for an interlaced picture has two pictures, a top field and a bottom field. It is permissible to use field coding that divides the field into a number of fields.
FIG. 20 is a schematic diagram illustrating display order information included in fields in an interlaced image and a progressive image, and two vertical lines having the same frame number indicate fields. In an interlaced image, display order information is assigned so that the top field and the bottom field are equally spaced as shown in FIG. On the other hand, in the progressive image, as shown in FIG. 20B, the two fields have the same display order information, so that an accurate display order relationship can be expressed. In the following, an image in which two fields belonging to the same frame have the same display order information is referred to as a progressive image, and an image other than that is referred to as an interlaced image. It is possible to give the same display order information to two fields belonging to.

そこで、インターレース画像およびプログレッシブ画像でフィールド符号化を行った場合、時間的ダイレクトモードが選択されると、各フィールドが有する表示順情報を用いて背景技術で説明した方法を用いて動きベクトルをスケーリングすることになる。このとき、参照する2枚のピクチャが同じフレームに属するトップフィールドとボトムフィールドとなる場合が存在する。この場合について、インターレース画像およびプログレッシブ画像それぞれの場合に分けて、以下説明する。   Therefore, when field coding is performed with interlaced images and progressive images, when the temporal direct mode is selected, the motion vector is scaled using the method described in the background art using the display order information of each field. It will be. At this time, there are cases where two pictures to be referred to become a top field and a bottom field belonging to the same frame. This case will be described below separately for each case of an interlaced image and a progressive image.

図21は、インターレース画像での時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図であり、PはPピクチャ、BはBピクチャを示し、ピクチャタイプに付している数字は各ピクチャの表示順を示している。ここでは、図21に示すピクチャB2のブロックBL0を時間的ダイレクトモードでフィールド符号化する場合について説明する。   FIG. 21 is a schematic diagram showing a motion vector prediction generation method in the temporal direct mode for interlaced images, where P is a P picture, B is a B picture, and the number attached to the picture type is the number of each picture. The display order is shown. Here, a case will be described in which block BL0 of picture B2 shown in FIG. 21 is field-encoded in the temporal direct mode.

この場合、ピクチャB2の後方参照ピクチャであるピクチャP3中の、ブロックBL0と同じ位置にあるブロックBL1の動きベクトルMV1を利用する。この動きベクトルMV1は、ブロックBL1が符号化された際に用いられた動きベクトルであり、同じピクチャP3のトップフィールドを参照している。この場合にブロックBL0を符号化する際に用いる動きベクトルMV_F、動きベクトルMV_Bは上記式1a、式1bによって以下のように求めることができる。
MVf=(4−5)/(6−5)×MV=−MV
MVb=(4−6)/(6−5)×MV=−2MV
In this case, the motion vector MV1 of the block BL1 in the same position as the block BL0 in the picture P3 that is the backward reference picture of the picture B2 is used. This motion vector MV1 is a motion vector used when the block BL1 is encoded, and refers to the top field of the same picture P3. In this case, the motion vector MV_F and the motion vector MV_B used when the block BL0 is encoded can be obtained as follows using the above equations 1a and 1b.
MVf = (4-5) / (6-5) × MV = −MV
MVb = (4-6) / (6-5) × MV = −2MV

図22は、プログレッシブ画像での時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図であり、PはPピクチャ、BはBピクチャを示し、ピクチャタイプに付している数字は各ピクチャの表示順を示している。ここでは、図22に示すピクチャB2のブロックBL0を時間的ダイレクトモードでフィールド符号化する場合について説明する。   FIG. 22 is a schematic diagram showing a motion vector prediction generation method in a temporal direct mode in a progressive image, where P is a P picture, B is a B picture, and the number attached to the picture type is the number of each picture. The display order is shown. Here, a case will be described in which block BL0 of picture B2 shown in FIG. 22 is field-encoded in the temporal direct mode.

この場合、ピクチャB2の後方参照ピクチャであるピクチャP3中の、ブロックBL0と同じ位置にあるブロックBL1の動きベクトルMV1を利用する。この動きベクトルMV1は、ブロックBL1が符号化された際に用いられた動きベクトルであり、同じピクチャP3のトップフィールドを参照している。この場合にブロックBL0を符号化する際に用いる動きベクトルMV_F、動きベクトルMV_Bは上記式1a、式1bでは以下のように分母が0になってしまい、求めることができない。
MVf=(3−5)/(5−5)×MV 演算不可
MVb=(3−5)/(5−5)×MV 演算不可
In this case, the motion vector MV1 of the block BL1 in the same position as the block BL0 in the picture P3 that is the backward reference picture of the picture B2 is used. This motion vector MV1 is a motion vector used when the block BL1 is encoded, and refers to the top field of the same picture P3. In this case, the motion vector MV_F and the motion vector MV_B used when the block BL0 is encoded cannot be obtained in the above equations 1a and 1b because the denominator becomes 0 as follows.
MVf = (3-5) / (5-5) × MV calculation impossible MVb = (3-5) / (5-5) × MV calculation impossible

このように、プログレッシブ画像でフィールド符号化を行った場合、時間的ダイレクトモードが選択され、参照する2枚のピクチャが同じフレームに属するトップフィールドとボトムフィールドであった場合には、スケーリング処理により動きベクトルを予測して生成することができない。   As described above, when field coding is performed with a progressive image, the temporal direct mode is selected, and if the two pictures to be referenced are the top field and the bottom field belonging to the same frame, the motion is caused by the scaling process. The vector cannot be predicted and generated.

同様に、インターレース画像およびプログレッシブ画像でフィールド符号化を行った場合、空間的ダイレクトモードが選択されると、各フィールドが有する表示順情報を用いて上記のように符号化対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルを、符号化対象ブロックの動きベクトルの候補として決定することになる。このとき、動きベクトルが参照するピクチャが同じフレームに属するトップフィールドとボトムフィールドとなる場合が存在する。   Similarly, when field coding is performed on an interlaced image and progressive image, when the spatial direct mode is selected, the display order information of each field is used to display from the encoding target picture as described above. The motion vector that refers to the closest encoded picture that is closest is determined as a motion vector candidate of the encoding target block. At this time, there is a case where the picture referred to by the motion vector becomes a top field and a bottom field belonging to the same frame.

図23は、プログレッシブ画像での空間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図であり、PはPピクチャ、BはBピクチャを示し、ピクチャタイプに付している数字は各ピクチャの表示順を示し、最後に付しているTはトップフィールド、Bはボトムフィールドを示している。ここでは、図23に示すピクチャB3_TのブロックBL0を空間的ダイレクトモードでフィールド符号化する場合について説明する。   FIG. 23 is a schematic diagram illustrating a motion vector prediction generation method in a spatial direct mode in a progressive image, where P is a P picture, B is a B picture, and the number attached to the picture type is the number of each picture. The display order is shown, and T at the end indicates a top field and B indicates a bottom field. Here, a case will be described in which block BL0 of picture B3_T shown in FIG. 23 is field-encoded in the spatial direct mode.

この場合、符号化対象であるブロックBL0の周辺の3画素A、B、Cを含む符号化済みのブロックのそれぞれの動きベクトルMVA1、MVB1、MVC1はそれぞれフィールドP2_T、P1_B、P2_Bを参照している。このうちフィールドP2_T、P2_Bは、同じフレームに属するトップフィールドとボトムフィールドであるので、同じ表示順情報を持っている。よって、フィールドP2_T、P2_Bのうちどちらが符号化対象ピクチャから表示時間的に最も近くにあるかを特定することができない。したがって、符号化対象ブロックの動きベクトルを予測して生成することができない。   In this case, the motion vectors MVA1, MVB1, and MVC1 of the encoded block including the three pixels A, B, and C around the block BL0 to be encoded refer to the fields P2_T, P1_B, and P2_B, respectively. . Of these, the fields P2_T and P2_B are the top field and the bottom field belonging to the same frame, and thus have the same display order information. Therefore, it is impossible to specify which of the fields P2_T and P2_B is closest to the encoding target picture in terms of display time. Therefore, the motion vector of the encoding target block cannot be predicted and generated.

そこで、本発明は上記の事情に鑑みてなされたものであり、動画像をフィールド符号化および復号化を行う場合に、ダイレクトモードが選択されても確実に動きベクトルを求めることができる動画像符号化方法および動画像復号化方法等を提供することを目的とする。   Therefore, the present invention has been made in view of the above circumstances, and when performing field encoding and decoding of a moving image, a moving image code capable of reliably obtaining a motion vector even when the direct mode is selected. An object of the present invention is to provide a conversion method and a moving image decoding method.

上記目的を達成するために、本発明に係る動画像符号化方法は、動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する方法であって、既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの符号化モードを決定するモード決定ステップと、前記モード決定ステップで決定された符号化モードが、表示時間的に近傍にある符号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する符号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、前記スケーリング判定ステップの判定結果に基づいて、前記モード決定ステップで決定された符号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップとを含むことを特徴とする。   In order to achieve the above object, a moving picture coding method according to the present invention is a method of coding each picture constituting a moving picture with a frame structure or a field structure, and refers to an already coded picture. A motion vector calculation step for calculating a motion vector for each block constituting the picture, a mode determination step for determining the encoding mode of the block to be processed, and the encoding mode determined in the mode determination step are displayed in display time. The motion vector of the block to be processed is obtained by performing the scaling process of the reference motion vector based on the display temporal positional relationship between the reference pictures, using the motion vector of the encoded picture in the vicinity as a reference motion vector. If the encoding mode is predicted and generated, the motion of the processing target block Scaling determination step for determining whether or not it is possible to predict and generate a Kuttle, and based on the determination result of the scaling determination step, the encoding mode determined in the mode determination step is used as it is or after being updated And a motion compensation step for performing motion compensation.

これによって、表示時間的に近傍にある符号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて参照動きベクトルのスケーリング処理を行うことによって処理対象ブロックの動きベクトルを予測して生成する時間的ダイレクトモードにより符号化を行う場合に、スケーリング処理が可能でなくても、符号化モードを変更する等の処理を行って処理対象ブロックを符号化することができる。   As a result, the motion vector of an encoded picture that is close in display time is used as a reference motion vector, and the reference motion vector is scaled based on the display temporal positional relationship between the reference pictures to thereby process the block to be processed. When encoding is performed in a temporal direct mode in which motion vectors are predicted and generated, even if scaling processing is not possible, processing such as changing the encoding mode may be performed to encode the processing target block it can.

また、本発明に係る動画像符号化方法は、動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する方法であって、既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの空間的周辺に位置する既に符号化されたブロックの有する動きベクトルのうち、処理対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測生成して符号化する場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定する予測判定ステップと、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ピクチャから最も近いとするピクチャを表示順情報以外の情報を用いて決定する最近ピクチャ決定ステップとを含むことを特徴とする。   The moving picture coding method according to the present invention is a method of coding each picture constituting a moving picture with a frame structure or a field structure, and constructs a picture by referring to an already coded picture. A motion vector calculation step for calculating a motion vector for each block, and a motion vector of an already encoded block located in the spatial periphery of the processing target block, is already closest to the processing target picture in display time. Whether or not the motion vector of the processing target block can be predicted and generated when predicting and generating the motion vector of the processing target block based on the motion vector referring to the encoded picture The motion vector cannot be generated in the prediction determination step for determining If it is determined, characterized in that it comprises a recent picture determination step of determining by using information other than display order information picture to closest to the target picture.

これによって、処理対象ブロックの空間的周辺に位置する既に符号化されたブロックの有する動きベクトルのうち、処理対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルに基づいて、処理対象ブロックの動きベクトルを予測生成する空間的ダイレクトモードにより符号化を行う場合に、ピクチャの有する表示順情報に基づいて動きベクトルを予測して生成することが可能でなくても、符号化対象ピクチャから最も近くにあるピクチャを決定する処理を行って、動きベクトルを予測して生成し、処理対象ブロックを符号化することができる。   As a result, among the motion vectors of the already encoded block located in the spatial periphery of the processing target block, the motion vector that refers to the already encoded picture that is closest in display time from the processing target picture. Based on the display order information of the picture, when encoding is performed in the spatial direct mode for predicting and generating the motion vector of the processing target block, it is not possible to generate and predict the motion vector. It is possible to encode a processing target block by predicting and generating a motion vector by performing a process of determining a picture closest to the encoding target picture.

また、本発明に係る動画像復号化方法は、動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する方法であって、既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの復号化モードを抽出するモード抽出ステップと、前記モード抽出ステップで抽出された復号化モードが、表示時間的に近傍にある復号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する復号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、前記スケーリング判定ステップの判定結果に基づいて、前記モード抽出ステップで抽出された復号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップとを含むことを特徴とする。   The moving picture decoding method according to the present invention is a method for decoding each picture constituting a moving picture with a frame structure or a field structure, and constructs a picture by referring to an already decoded picture. A motion vector calculation step for calculating a motion vector for each block, a mode extraction step for extracting the decoding mode of the processing target block, and a decoding mode in which the decoding mode extracted in the mode extraction step is close in display time Decoding by predicting and generating a motion vector of the processing target block by performing a scaling process of the reference motion vector based on a display temporal positional relationship between reference pictures, using a motion vector of a converted picture as a reference motion vector In the normalization mode, the motion vector of the target block is predicted and generated. A scaling determination step for determining whether or not it can be performed, and motion compensation is performed by using the decoding mode extracted in the mode extraction step as it is or based on the determination result of the scaling determination step. And a motion compensation step to be performed.

これによって、抽出した符号化時の符号化モードが時間的ダイレクトモードであるにもかかわらず、スケーリング処理が可能でない場合に、復号化モードを変更する等の処理を行って処理対象ブロックを復号化することができる。
また、本発明に係る動画像復号化方法は、動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する方法であって、既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの空間的周辺に位置する既に復号化されたブロックの有する動きベクトルのうち、処理対象ピクチャから表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測生成して復号化する場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定する予測判定ステップと、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ピクチャから最も近いとするピクチャを表示順情報以外の情報を用いて決定する最近ピクチャ決定ステップとを含むことを特徴とする。
As a result, when the extracted encoding mode is the temporal direct mode and the scaling process is not possible, the decoding target block is decoded by performing a process such as changing the decoding mode. can do.
The moving picture decoding method according to the present invention is a method for decoding each picture constituting a moving picture with a frame structure or a field structure, and constructs a picture by referring to an already decoded picture. A motion vector calculation step for calculating a motion vector for each block and a motion vector of an already decoded block located in the spatial periphery of the processing target block, which is already closest to the processing target picture in display time Whether or not the motion vector of the processing target block can be predicted and generated when the motion vector of the processing target block is predicted and generated based on the motion vector referring to the decoded picture. The motion vector cannot be generated in the prediction determination step for determining If it is determined, characterized in that it comprises a recent picture determination step of determining by using information other than display order information picture to closest to the target picture.

これによって、空間的ダイレクトモードにより復号化を行う場合に、ピクチャの有する表示順情報に基づいて動きベクトルを予測して生成することが可能でなくても、復号化対象ピクチャから最も近くにあるピクチャを決定する処理を行って、動きベクトルを予測して生成し、処理対象ブロックを復号化することができる。   As a result, when decoding is performed in the spatial direct mode, even if the motion vector cannot be predicted and generated based on the display order information of the picture, the picture closest to the decoding target picture The motion block is decoded by predicting and generating a motion vector.

さらに、本発明は、このような動画像符号化方法および動画像復号化方法として実現することができるだけでなく、このような動画像符号化方法および動画像復号化方法が含む特徴的なステップを手段として備える動画像符号化装置および動画像復号化装置として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。   Furthermore, the present invention can be realized not only as such a moving image encoding method and a moving image decoding method, but also includes the characteristic steps included in such a moving image encoding method and a moving image decoding method. It can also be realized as a moving image encoding device and a moving image decoding device provided as means, or as a program for causing a computer to execute these steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

また、本発明の動画像符号化方法は、以下の(1)〜(11)の何れかの構成とすることができる。
(1)動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する方法であって、既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの符号化モードを決定するモード決定ステップと、前記モード決定ステップで決定された符号化モードが、表示時間的に近傍にある符号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する符号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、前記スケーリング判定ステップの判定結果に基づいて、前記モード決定ステップで決定された符号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップを有する。
(2)前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが有する表示順情報が同じ場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(3)前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが、同一フレームに属するトップフィールドとボトムフィールドであり前記2つのフィールドが共に同じ表示順情報を有していた場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(4)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記動きベクトル算出ステップで算出した当該処理対象ブロックの動きベクトルを用いて符号化する符号化モードに変更して動き補償を行う。
(5)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルをあらかじめ設定された所定の値のベクトルとして、前記モード決定ステップで決定された符号化モードを用いて動き補償を行う。
(6)前記所定のベクトルの少なくとも1つは0ベクトルであり、前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルの少なくとも1つを0ベクトルとして、前記モード決定ステップで決定された符号化モードを用いて動き補償を行う。
(7)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ブロックの空間的周辺に位置する既に符号化されたブロックの有する動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測して生成し符号化する符号化モードに変更して動き補償を行う。
(8)動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する方法であって、既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの空間的周辺に位置する既に符号化されたブロックの有する動きベクトルのうち、処理対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測生成して符号化する場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定する予測判定ステップと、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ピクチャから最も近いとするピクチャを表示順情報以外の情報を用いて決定する最近ピクチャ決定ステップとを有する。
(9)前記予測判定ステップでは、前記既に符号化されたブロックのそれぞれの動きベクトルのうち、当該処理対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同一フレームに属するトップフィールドとボトムフィールドであり、かつ、前記2つのフィールドが共に同じ表示順情報を有していた場合に、当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(10)前記最近ピクチャ決定ステップでは、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記同一フレームに属し同じ表示順情報を有するトップフィールドとボトムフィールドのうち、当該処理対象フィールドと同じ属性であるフィールドを、当該処理対象フィールドから最も近くにあるフィールドと決定する。
(11)前記最近ピクチャ決定ステップでは、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記同一フレームに属し同じ表示順情報を有するトップフィールドとボトムフィールドのうち、後で符号化されたフィールドを、当該処理対象フィールドから最も近くにあるフィールドと決定する。
In addition, the moving image encoding method of the present invention can have any one of the following configurations (1) to (11).
(1) A method of encoding each picture constituting a moving picture with a frame structure or a field structure, and calculating a motion vector for each block constituting the picture with reference to the already coded picture A calculation step, a mode determination step for determining the encoding mode of the block to be processed, and the motion mode of an encoded picture whose encoding mode determined in the mode determination step is close in display time as a reference motion As a vector, in the case of an encoding mode in which the motion vector of the processing target block is predicted and generated by performing scaling processing of the reference motion vector based on the display temporal positional relationship between reference pictures, the processing target block Whether or not a motion vector can be predicted and generated A scaling judgment step, based on the scaling judgment step of judging the result, the motion compensation step of performing motion compensation by using the coding mode determined by said mode determining step it is or Update.
(2) In the scaling determination step, when the display order information included in the two pictures referred to in the scaling process is the same, the scaling process is performed to predict and generate a motion vector of the processing target block. Judge that it is not possible.
(3) In the scaling determination step, when the two pictures referred to in the scaling process are a top field and a bottom field belonging to the same frame, and both the two fields have the same display order information, It is determined that the motion vector of the processing target block cannot be predicted and generated by performing the scaling process.
(4) In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, encoding is performed using the motion vector of the processing target block calculated in the motion vector calculation step. Change to the encoding mode to perform motion compensation.
(5) In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the prediction is generated for the processing target block without performing the scaling processing. Motion compensation is performed using the coding mode determined in the mode determination step as a vector of a predetermined value set in advance.
(6) When at least one of the predetermined vectors is a 0 vector, and the motion compensation step determines that the motion vector cannot be generated in the scaling determination step, the scaling processing is not performed. In addition, at least one of the motion vectors generated by the prediction of the processing target block is set as a 0 vector, and motion compensation is performed using the coding mode determined in the mode determination step.
(7) In the motion compensation step, when it is determined in the scaling determination step that the motion vector cannot be generated, the motion of an already encoded block located in the spatial periphery of the processing target block Based on the vector, motion compensation is performed by changing to a coding mode in which the motion vector of the processing target block is predicted and generated and coded.
(8) A method of encoding each picture constituting a moving picture with a frame structure or a field structure, and calculating a motion vector for each block constituting the picture with reference to the already coded picture A motion vector referring to an already encoded picture that is closest to the processing target picture in display time among the motion vectors of the already encoded block located in the spatial vicinity of the processing target block A prediction determination step for determining whether or not the motion vector of the processing target block can be predicted and generated when the motion vector of the processing target block is generated based on the prediction, and the prediction If it is determined in the determination step that the motion vector cannot be generated, the processing target And a recent picture determination step of determining by using information other than display order information picture to nearest from puncturing.
(9) In the prediction determination step, among the motion vectors of the already encoded block, there are a plurality of motion vectors referring to an already encoded picture that is closest in display time from the processing target picture. The motion of the processing target block when there are a top field and a bottom field belonging to the same frame, and both of the two fields have the same display order information. It is determined that a vector cannot be predicted and generated.
(10) In the nearest picture determination step, when it is determined in the prediction determination step that the motion vector cannot be generated, among the top field and the bottom field belonging to the same frame and having the same display order information, A field having the same attribute as the processing target field is determined as a field closest to the processing target field.
(11) In the nearest picture determination step, when it is determined in the prediction determination step that the motion vector cannot be generated, among the top field and the bottom field belonging to the same frame and having the same display order information, A field encoded later is determined as a field closest to the processing target field.

また、本発明の動画像復号化方法は、以下の(12)〜(22)の何れかの構成とすることができる。
(12)動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する方法であって、既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの復号化モードを抽出するモード抽出ステップと、前記モード抽出ステップで抽出された復号化モードが、表示時間的に近傍にある復号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する復号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、前記スケーリング判定ステップの判定結果に基づいて、前記モード抽出ステップで抽出された復号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップとを有する。
(13)前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが有する表示順情報が同じ場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(14)前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが、同一フレームに属するトップフィールドとボトムフィールドであり前記2つのフィールドが共に同じ表示順情報を有していた場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(15)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記動きベクトル算出ステップで算出した当該処理対象ブロックの動きベクトルを用いて復号化する復号化モードに変更して動き補償を行う。
(16)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルをあらかじめ設定された所定の値のベクトルとして、前記モード抽出ステップで抽出された復号化モードを用いて動き補償を行う。
(17)前記所定のベクトルの少なくとも1つは0ベクトルであり、前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルの少なくとも1つを0ベクトルとして、前記モード抽出ステップで抽出された復号化モードを用いて動き補償を行う。
(18)前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ブロックの空間的周辺に位置する既に復号化されたブロックの有する動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測して生成し復号化する復号化モードに変更して動き補償を行う。
(19)動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する方法であって、既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、処理対象ブロックの空間的周辺に位置する既に復号化されたブロックの有する動きベクトルのうち、処理対象ピクチャから表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測生成して復号化する場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定する予測判定ステップと、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ピクチャから最も近いとするピクチャを表示順情報以外の情報を用いて決定する最近ピクチャ決定ステップとを有する。
(20)前記予測判定ステップでは、前記既に復号化されたブロックのそれぞれの動きベクトルのうち、当該処理対象ピクチャから表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同一フレームに属するトップフィールドとボトムフィールドであり、かつ、前記2つのフィールドが共に同じ表示順情報を有していた場合に、当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する。
(21)前記最近ピクチャ決定ステップでは、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記同一フレームに属し、同じ表示順情報を有するトップフィールドとボトムフィールドのうち、当該処理対象フィールドと同じ属性であるフィールドを、当該処理対象フィールドから最も近くにあるフィールドと決定する。
(22)前記最近ピクチャ決定ステップでは、前記予測判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記同一フレームに属し、同じ表示順情報を有するトップフィールドとボトムフィールドのうち、後で復号化されたフィールドを、当該処理対象フィールドから最も近くにあるフィールドと決定する。
Further, the moving picture decoding method of the present invention can have any one of the following configurations (12) to (22).
(12) A method of decoding each picture constituting a moving picture with a frame structure or a field structure, wherein a motion vector is calculated for each block constituting the picture with reference to the already decoded picture A calculation step, a mode extraction step for extracting a decoding mode of the block to be processed, and a decoding mode extracted in the mode extraction step with reference to a motion vector of a decoded picture that is close in display time As a vector, when the decoding target mode predicts and generates a motion vector of the processing target block by performing scaling processing of the reference motion vector based on a display temporal positional relationship between reference pictures, the processing target block Whether the motion vector can be predicted and generated And scaling determining step that, based on the scaling judgment step of determination results, and a motion compensation step of performing motion compensation by using the decoding mode extracted in the mode extraction step as it is or Update.
(13) In the scaling determination step, when the display order information included in the two pictures referred to in the scaling processing is the same, the scaling processing is performed to predict and generate a motion vector of the processing target block. Judge that it is not possible.
(14) In the scaling determination step, when the two pictures referred to in the scaling process are a top field and a bottom field belonging to the same frame, and both the two fields have the same display order information, It is determined that the motion vector of the processing target block cannot be predicted and generated by performing the scaling process.
(15) In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, decoding is performed using the motion vector of the processing target block calculated in the motion vector calculation step. Change to the decoding mode to perform motion compensation.
(16) In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the prediction is generated for the processing target block without performing the scaling processing. Motion compensation is performed using the decoding mode extracted in the mode extraction step as a vector having a predetermined value set in advance.
(17) At least one of the predetermined vectors is a zero vector, and the scaling process is not performed in the motion compensation step when it is determined in the scaling determination step that the motion vector cannot be generated. Furthermore, motion compensation is performed using the decoding mode extracted in the mode extraction step with at least one of the motion vectors predicted and generated for the processing target block as a 0 vector.
(18) In the motion compensation step, when it is determined in the scaling determination step that the motion vector cannot be generated, the motion of an already decoded block located in the spatial periphery of the processing target block Based on the vector, motion compensation is performed by changing to a decoding mode in which a motion vector of the processing target block is predicted and generated and decoded.
(19) A method of decoding each picture constituting a moving picture with a frame structure or a field structure, wherein a motion vector is calculated for each block constituting the picture with reference to the already decoded picture Of the motion vectors of the already decoded block located in the spatial vicinity of the processing target block and the calculation target block, the motion vector referring to the already decoded picture that is closest in display time from the processing target picture A prediction determination step for determining whether or not the motion vector of the processing target block can be predicted and generated when the motion vector of the processing target block is generated based on the prediction, and the prediction When it is determined in the determination step that the motion vector cannot be generated, the processing pair Recent determined using information other than display order information picture to nearest from the picture and a picture determining step.
(20) In the prediction determination step, among the motion vectors of the already decoded block, there are a plurality of motion vectors referring to the already decoded picture that is closest in display time to the processing target picture. The motion of the processing target block when there are a top field and a bottom field belonging to the same frame, and both of the two fields have the same display order information. It is determined that a vector cannot be predicted and generated.
(21) In the nearest picture determination step, when it is determined in the prediction determination step that the motion vector cannot be generated, a top field and a bottom field belonging to the same frame and having the same display order information The field having the same attribute as the processing target field is determined as the field closest to the processing target field.
(22) In the nearest picture determination step, when it is determined in the prediction determination step that the motion vector cannot be generated, a top field and a bottom field belonging to the same frame and having the same display order information The field decoded later is determined as the field closest to the processing target field.

以上の説明から明らかなように、本発明に係る動画像符号化方法によれば、時間的ダイレクトモードまたは空間的ダイレクトモードにより符号化を行う場合に、確実に動きベクトルを生成して処理対象ブロックを符号化することができる。
また、本発明に係る動画像復号化方法によれば、時間的ダイレクトモードまたは空間的ダイレクトモードにより復号化を行う場合に、確実に動きベクトルを生成して処理対象ブロックを復号化することができる。
As is apparent from the above description, according to the moving picture encoding method of the present invention, when encoding is performed in the temporal direct mode or the spatial direct mode, a motion vector is reliably generated and a processing target block is generated. Can be encoded.
Further, according to the moving picture decoding method according to the present invention, when decoding is performed in the temporal direct mode or the spatial direct mode, it is possible to reliably generate a motion vector and decode the processing target block. .

本発明の実施の形態について、図面を参照して説明する。
(実施の形態1)
図1は、本発明に係る動画像符号化方法を用いた動画像符号化装置の一実施の形態の構成を示すブロック図である。
動画像符号化装置は、図1に示すようにピクチャメモリ101、予測残差符号化部102、符号列生成部103、予測残差復号化部104、ピクチャメモリ105、動きベクトル検出部106、動き補償符号化部107、動きベクトル記憶部108、ダイレクトモード可否判定部109、差分演算部110、加算演算部111、およびスイッチ112、113を備えている。
Embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an embodiment of a moving picture coding apparatus using a moving picture coding method according to the present invention.
As shown in FIG. 1, the moving image encoding apparatus includes a picture memory 101, a prediction residual encoding unit 102, a code sequence generation unit 103, a prediction residual decoding unit 104, a picture memory 105, a motion vector detection unit 106, a motion A compensation encoding unit 107, a motion vector storage unit 108, a direct mode availability determination unit 109, a difference calculation unit 110, an addition calculation unit 111, and switches 112 and 113 are provided.

ピクチャメモリ101は、表示時間順にピクチャ単位で入力された動画像を格納する。動きベクトル検出部106は、符号化済みの再構築画像データを参照ピクチャとして用いて、そのピクチャ内の探索領域において最適と予測される位置を示す動きベクトルの検出を行う。動き補償符号化部107は、動きベクトル検出部106で検出された動きベクトルを用いてブロックの符号化モードを決定し、この符号化モードに基づいて予測画像データを生成する。この符号化モードとは、マクロブロックをどのような方法で符号化するかを示すものである。   The picture memory 101 stores moving images input in units of pictures in order of display time. The motion vector detection unit 106 uses the encoded reconstructed image data as a reference picture, and detects a motion vector indicating a position predicted to be optimal in the search area in the picture. The motion compensation encoding unit 107 determines a block encoding mode using the motion vector detected by the motion vector detection unit 106, and generates predicted image data based on the encoding mode. This encoding mode indicates how the macroblock is encoded.

動きベクトル記憶部108は、動きベクトル検出部106で検出された動きベクトルを記憶する。ダイレクトモード可否判定部109は、動き補償符号化部107により決定された符号化モードが時間的ダイレクトモードである場合に、スケーリング処理を行うことができるか否かの判定を行い、符号化モードの確定を行う。また、ダイレクトモード可否判定部109は、符号化モードが空間的ダイレクトモードである場合に、符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かの判定を行う。差分演算部110は、ピクチャメモリ101より読み出された画像データと、動き補償符号化部107より入力された予測画像データとの差分を演算し、予測残差画像データを生成する。   The motion vector storage unit 108 stores the motion vector detected by the motion vector detection unit 106. The direct mode enable / disable determining unit 109 determines whether or not the scaling process can be performed when the encoding mode determined by the motion compensation encoding unit 107 is the temporal direct mode. Confirm. Further, the direct mode availability determination unit 109 determines whether or not a motion vector used in an encoding target block can be predicted and generated when the encoding mode is a spatial direct mode. The difference calculation unit 110 calculates a difference between the image data read from the picture memory 101 and the prediction image data input from the motion compensation encoding unit 107, and generates prediction residual image data.

予測残差符号化部102は、入力された予測残差画像データに対して周波数変換や量子化等の符号化処理を行い、符号化データを生成する。符号列生成部103は、入力された符号化データに対して可変長符号化等を行い、さらに動き補償符号化部107から入力された動きベクトルの情報、および符号化モードの情報等を付加することにより符号列を生成する。   The prediction residual encoding unit 102 performs encoding processing such as frequency conversion and quantization on the input prediction residual image data to generate encoded data. The code string generation unit 103 performs variable-length encoding or the like on the input encoded data, and adds motion vector information input from the motion compensation encoding unit 107, encoding mode information, and the like. Thus, a code string is generated.

予測残差復号化部104は、入力された符号化データに対して逆量子化や逆周波数変換等の復号化処理を行い、復号化差分画像データを生成する。加算演算部111は、予測残差復号化部104より入力された復号化差分画像データと、動き補償符号化部107より入力された予測画像データとを加算し、再構築画像データを生成する。ピクチャメモリ105は、生成された再構築画像データを格納する。   The prediction residual decoding unit 104 performs decoding processing such as inverse quantization and inverse frequency transform on the input encoded data, and generates decoded differential image data. The addition operation unit 111 adds the decoded differential image data input from the prediction residual decoding unit 104 and the predicted image data input from the motion compensation encoding unit 107 to generate reconstructed image data. The picture memory 105 stores the generated reconstructed image data.

次に、上記のように構成された動画像符号化装置の動作について説明する。
図2は、ピクチャメモリ101におけるピクチャの順序を示す説明図であり、(a) 入力された順序、(b) 並び替えられた順序を示す説明図である。ここで、縦線はピクチャを示し、各ピクチャの右下に示す記号は1文字目のアルファベットがピクチャタイプ(I、P、またはB)を、2文字目以降の数字が表示時間順のピクチャ番号を示している。また、Pピクチャは、表示時間順で前方にある近傍のIピクチャまたはPピクチャを参照ピクチャとし、Bピクチャは、表示時間順で前方にある近傍のIピクチャまたはPピクチャと、表示時間順で後方にある近傍1枚のIピクチャまたはPピクチャとを参照ピクチャとして用いるものとしている。
Next, the operation of the moving picture coding apparatus configured as described above will be described.
FIG. 2 is an explanatory diagram showing the order of pictures in the picture memory 101, and is an explanatory diagram showing (a) the input order and (b) the rearranged order. Here, the vertical line indicates a picture, and the symbol shown at the lower right of each picture is that the first alphabet is the picture type (I, P, or B), and the second and subsequent numbers are picture numbers in display time order. Is shown. A P picture uses a neighboring I picture or P picture in front in display time order as a reference picture, and a B picture has a neighboring I picture or P picture in front in display time order and rear in display time order. One neighboring I picture or P picture is used as a reference picture.

入力画像は、例えば図2(a) に示すように表示時間順にピクチャ単位でピクチャメモリ101に入力される。ピクチャメモリ101に入力された各ピクチャは、符号化するピクチャタイプが決定されると、例えば図2(b) に示すように符号化が行われる順に並び替えられる。この符号化順への並び替えは、ピクチャ間予測符号化における参照関係に基づいて行われ、参照ピクチャとして用いられるピクチャが、参照ピクチャとして用いるピクチャよりも先に符号化されるように並び替えられる。   For example, as shown in FIG. 2A, the input image is input to the picture memory 101 in picture units in order of display time. When the picture type to be encoded is determined, the pictures input to the picture memory 101 are rearranged in the order of encoding as shown in FIG. 2B, for example. This rearrangement to the coding order is performed based on the reference relationship in the inter-picture predictive coding, and the picture used as the reference picture is rearranged so that it is coded before the picture used as the reference picture. .

ピクチャメモリ101で並び替えが行われた各ピクチャは、例えば水平16×垂直16画素のグループに分割されたマクロブロック単位で読み出される。また、動き補償および動きベクトルの検出は、例えば水平8×垂直8画素のグループに分割されたブロック単位で行っている。
以降の動作については、符号化対象のピクチャがBピクチャである場合について説明する。
Each picture that has been rearranged in the picture memory 101 is read in units of macroblocks divided into groups of horizontal 16 × vertical 16 pixels, for example. Also, motion compensation and motion vector detection are performed in units of blocks divided into groups of, for example, horizontal 8 × vertical 8 pixels.
The subsequent operation will be described in the case where the picture to be encoded is a B picture.

Bピクチャでは、2方向参照を用いたピクチャ間予測符号化を行っている。例えば、図2(a) に示す例でピクチャB11の符号化処理を行う場合、表示時間順で前方にある参照ピクチャはピクチャP10、P7、P4、表示時間順で後方にある参照ピクチャはピクチャP13となる。ここでは、Bピクチャが他のピクチャの符号化時に、参照ピクチャとして用いられない場合を考える。   For B pictures, inter-picture prediction coding using two-way reference is performed. For example, when encoding the picture B11 in the example shown in FIG. 2 (a), the reference pictures ahead in the display time order are the pictures P10, P7, P4, and the reference pictures behind the display time order are the picture P13. It becomes. Here, consider a case where a B picture is not used as a reference picture when another picture is encoded.

ピクチャメモリ101より読み出されたピクチャB11のマクロブロックは、動きベクトル検出部106および差分演算部110に入力される。
動き補償符号化部107は、マクロブロック内の各ブロックをフレーム構造で符号化するか、またはフィールド構造で符号化するかを決定する。フレーム構造またはフィールド構造のいずれで符号化するかは、例えば、ブロック内の画素値の分散をフレーム構造とフィールド構造とで求め、分散の小さい方を選択する方法がある。なお、各ピクチャをピクチャ単位でフレーム構造またはフィールド構造のいずれかで符号化することもできる。
The macroblock of the picture B11 read from the picture memory 101 is input to the motion vector detection unit 106 and the difference calculation unit 110.
The motion compensation encoding unit 107 determines whether each block in the macroblock is encoded with a frame structure or a field structure. For encoding with the frame structure or the field structure, for example, there is a method of obtaining the variance of the pixel values in the block between the frame structure and the field structure and selecting the one with the smaller variance. Each picture can be encoded in either a frame structure or a field structure in units of pictures.

動きベクトル検出部106は、決定されたフレーム構造での符号化またはフィールド構造での符号化に応じて、ピクチャメモリ105に格納された参照ピクチャをフレーム単位またはフィールド単位として、マクロブロック内の各ブロックに対して、前方動きベクトルと後方動きベクトルとの検出を行う。ここでは、ピクチャメモリ105に格納されたピクチャP10、P7、P4の再構築画像データを前方参照ピクチャとして、ピクチャP13の再構築画像データを後方参照ピクチャとして用いることになる。動きベクトル検出部106は、検出した動きベクトルを動き補償符号化部107に対して出力する。   The motion vector detection unit 106 uses each reference picture stored in the picture memory 105 as a frame unit or a field unit according to the determined frame structure encoding or field structure encoding, and blocks each block in the macroblock. In contrast, a forward motion vector and a backward motion vector are detected. Here, the reconstructed image data of the pictures P10, P7, and P4 stored in the picture memory 105 is used as a forward reference picture, and the reconstructed image data of the picture P13 is used as a backward reference picture. The motion vector detection unit 106 outputs the detected motion vector to the motion compensation encoding unit 107.

動き補償符号化部107は、動きベクトル検出部106で検出された動きベクトルを用いて、マクロブロックの符号化モードを決定する。ここで、Bピクチャの符号化モードは、例えばピクチャ内符号化、前方動きベクトルを用いたピクチャ間予測符号化、後方動きベクトルを用いたピクチャ間予測符号化、双方向動きベクトルを用いたピクチャ間予測符号化、ダイレクトモードの中から、いずれの方法で符号化するかを選択することができるものとする。また、ダイレクトモードについては、あらかじめ時間的ダイレクトモードまたは空間的ダイレクトモードが指定されているものとする。なお、符号化モードの決定においては、一般的には少ないビット量でより符号化誤差が小さくなる方法を選択する。   The motion compensation encoding unit 107 determines a macroblock encoding mode using the motion vector detected by the motion vector detection unit 106. Here, the encoding mode of the B picture is, for example, intra-picture encoding, inter-picture predictive encoding using a forward motion vector, inter-picture predictive encoding using a backward motion vector, and inter-picture using a bi-directional motion vector. It is assumed that it is possible to select which method to encode from predictive encoding and direct mode. As for the direct mode, it is assumed that the temporal direct mode or the spatial direct mode is designated in advance. In determining the encoding mode, generally, a method is selected in which the encoding error is reduced with a small amount of bits.

次に、ダイレクトモードで符号化することが選択された場合に行うダイレクトモード可否判定部109による符号化モードの確定の動作について説明する。この符号化モードの確定の動作は、以下に説明する方法1〜3のいずれかによって行うことができる。   Next, an operation of determining the encoding mode by the direct mode availability determination unit 109 performed when encoding in the direct mode is selected will be described. The operation of determining the encoding mode can be performed by any one of methods 1 to 3 described below.

(方法1)
図3は方法1による符号化モードの確定の動作を示すフロー図である。動き補償符号化部107は、ダイレクトモードで符号化することを選択すると、その旨をダイレクトモード可否判定部109に通知する。通知を受けたダイレクトモード可否判定部109は、まず、時間的ダイレクトモードが指定されているか否かを判定する(ステップS101)。この結果、時間的ダイレクトモードであると判定した場合、ダイレクトモード可否判定部109は、フィールド符号化が選択されているか否かを判定する(ステップS102)。この結果、フィールド符号化が選択されていないと判定した場合には、ダイレクトモード可否判定部109は、動き補償符号化部107に対して時間的ダイレクトモードでの符号化を指示する(ステップS103)。一方、フィールド符号化が選択されていると判定した場合には、ダイレクトモード可否判定部109は、スケーリング処理によって符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS104)。すなわち、参照する2枚のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドであるか否かを判定している。この結果、スケーリング処理が可能である場合(ステップS104の条件判定がNOの場合)、ダイレクトモード可否判定部109は、動き補償符号化部107に対して時間的ダイレクトモードでの符号化を指示する(ステップS103)。一方、スケーリング処理が可能でない場合(ステップS104の条件判定がYESの場合)、ダイレクトモード可否判定部109は、動き補償符号化部107に対してダイレクトモード以外での符号化を指示する(ステップS105)。
(Method 1)
FIG. 3 is a flowchart showing the operation of determining the encoding mode by the method 1. When the motion compensation encoding unit 107 selects to perform encoding in the direct mode, the motion compensation encoding unit 107 notifies the direct mode availability determination unit 109 to that effect. The direct mode availability determination unit 109 that has received the notification first determines whether or not the temporal direct mode is designated (step S101). As a result, when it is determined that the temporal direct mode is selected, the direct mode availability determination unit 109 determines whether or not field coding is selected (step S102). As a result, when it is determined that field coding is not selected, the direct mode availability determination unit 109 instructs the motion compensation coding unit 107 to perform coding in the temporal direct mode (step S103). . On the other hand, if it is determined that the field encoding is selected, the direct mode availability determination unit 109 determines whether the motion vector used in the encoding target block can be predicted and generated by the scaling process. (Step S104). That is, it is determined whether or not two pictures to be referenced belong to the same frame and are a top field and a bottom field having the same display order information. As a result, when scaling processing is possible (when the condition determination in step S104 is NO), the direct mode availability determination unit 109 instructs the motion compensation encoding unit 107 to perform encoding in the temporal direct mode. (Step S103). On the other hand, when the scaling process is not possible (when the condition determination in step S104 is YES), the direct mode availability determination unit 109 instructs the motion compensation encoding unit 107 to perform encoding in a mode other than the direct mode (step S105). ).

また、上記判定(ステップS101)の結果、時間的ダイレクトモードでない(すなわち、空間的ダイレクトモードである)と判定した場合も、ダイレクトモード可否判定部109は、フィールド符号化が選択されているか否かを判定する(ステップS106)。この結果、フィールド符号化が選択されていないと判定した場合には、ダイレクトモード可否判定部109は、動き補償符号化部107に対して空間的ダイレクトモードでの符号化を指示する(ステップS107)。   Also, as a result of the determination (step S101), even when it is determined that the mode is not the temporal direct mode (that is, the spatial direct mode), the direct mode availability determination unit 109 determines whether or not field coding is selected. Is determined (step S106). As a result, when it is determined that the field encoding is not selected, the direct mode availability determination unit 109 instructs the motion compensation encoding unit 107 to perform encoding in the spatial direct mode (step S107). .

上記判定(ステップS106)の結果、フィールド符号化が選択されていると判定した場合には、ダイレクトモード可否判定部109は、空間的ダイレクトモードによりピクチャの有する表示順情報に基づいて、符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS108)。すなわち、符号化対象であるブロックの周辺の3画素を含む符号化済みの3ブロックのそれぞれの動きベクトルのうち、符号化対象ピクチャ(フィールド)から表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドであるか否かを判定している。このとき、上記条件を満たした場合に、動きベクトルを予測して生成することが可能でないと判定する。   As a result of the determination (step S106), when it is determined that field encoding is selected, the direct mode availability determination unit 109 performs encoding based on the display order information of the picture in the spatial direct mode. It is determined whether or not the motion vector used in the block can be predicted and generated (step S108). That is, of the motion vectors of the three encoded blocks including the three pixels around the block to be encoded, the motion vectors closest to the encoding target picture (field) in terms of display time have already been encoded. It is determined whether or not there are a plurality of motion vectors referring to a picture, and the plurality of referenced pictures belong to the same frame and are a top field and a bottom field having the same display order information. At this time, when the above condition is satisfied, it is determined that a motion vector cannot be predicted and generated.

上記判定(ステップS108)の結果、動きベクトルを予測して生成することが可能であると判定した場合(ステップS108の条件判定がNOの場合)、ダイレクトモード可否判定部109は、動き補償符号化部107に対して空間的ダイレクトモードでの符号化を指示する(ステップS107)。
一方、動きベクトルを予測して生成することが可能でないと判定した場合(ステップS108の条件判定がYESの場合)、ダイレクトモード可否判定部109は、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、符号化対象フィールドと同じ属性であるフィールドを、符号化対象フィールドから表示時間的に最も近くにあるフィールドとするように、動き補償符号化部107に対して指示する(ステップS109)。ここで、同じ属性であるフィールドとは、符号化対象フィールドがトップフィールドであればトップフィールド、符号化対象フィールドがボトムフィールドであればボトムフィールドである。その上で、ダイレクトモード可否判定部109は、動き補償符号化部107に対して空間的ダイレクトモードでの符号化を指示する(ステップS107)。
As a result of the determination (step S108), when it is determined that a motion vector can be predicted and generated (when the condition determination in step S108 is NO), the direct mode propriety determination unit 109 performs motion compensation encoding. The unit 107 is instructed to encode in the spatial direct mode (step S107).
On the other hand, when it is determined that the motion vector cannot be predicted and generated (when the condition determination in step S108 is YES), the direct mode availability determination unit 109 determines whether the top field and the bottom field having the same display order information are included. Of these, the motion compensation encoding unit 107 is instructed to set the field having the same attribute as the encoding target field to be the field closest to the encoding target field in display time (step S109). Here, the field having the same attribute is a top field if the encoding target field is a top field, and a bottom field if the encoding target field is a bottom field. In addition, the direct mode availability determination unit 109 instructs the motion compensation encoding unit 107 to perform encoding in the spatial direct mode (step S107).

(方法2)
図4は方法2による符号化モードの確定の動作を示すフロー図である。なお、フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でないと判定された場合の処理以外(ステップS201〜S204、S206〜S209)は、方法1と同様であるので説明を省略する。
(Method 2)
FIG. 4 is a flowchart showing the operation of determining the encoding mode by the method 2. Note that, since it is determined that the field coding is selected and the processing other than the case where it is determined that the scaling processing is not possible (steps S201 to S204, S206 to S209), the description is omitted. To do.

フィールド符号化が選択されていると判定し、さらにスケーリング処理が可能でないと判定した場合、ダイレクトモード可否判定部109は、動き補償符号化部107に対して動きベクトルを「0」とした時間的ダイレクトモードでの符号化を指示する(ステップS205)。   If it is determined that the field coding is selected and further scaling processing is not possible, the direct mode availability determination unit 109 sets the motion vector to “0” with respect to the motion compensation encoding unit 107. The encoding in the direct mode is instructed (step S205).

(方法3)
図5は方法3による符号化モードの確定の動作を示すフロー図である。なお、フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でないと判定された場合の処理以外(ステップS301〜S306、S308)は、方法1と同様であるので説明を省略する。
(Method 3)
FIG. 5 is a flowchart showing the operation of determining the coding mode by the method 3. Since processes other than the process in the case where it is determined that field coding is selected and it is further determined that the scaling process is not possible (steps S301 to S306 and S308) are the same as method 1, the description thereof is omitted.

フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でない場合、ダイレクトモード可否判定部109は、空間的ダイレクトモードにより符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS307)。それ以降の動作に関しては方法1と同様である。
また、上記方法1〜3における、空間的ダイレクトモードで動きベクトルを予測して生成することが可能でないと判定された場合の上記処理(ステップS109、S209、S308)については、次のように処理を行って方法1’〜3’とすることもできる。図6は方法1’による符号化モードの確定の動作を示すフロー図である。なお、方法2’〜3’については、方法1’と同様であるので説明および図は省略する。
When it is determined that field coding is selected and further scaling processing is not possible, the direct mode availability determination unit 109 can predict and generate a motion vector used in a block to be encoded in the spatial direct mode. It is determined whether or not (step S307). Subsequent operations are the same as those in Method 1.
In the above methods 1 to 3, when it is determined that the motion vector cannot be predicted and generated in the spatial direct mode (steps S109, S209, and S308), the following processing is performed. To obtain the methods 1 ′ to 3 ′. FIG. 6 is a flowchart showing the operation of determining the encoding mode by the method 1 ′. Since the methods 2 ′ to 3 ′ are the same as the method 1 ′, the description and illustration are omitted.

(方法1’)
ダイレクトモード可否判定部109は、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、後で符号化されたフィールド(すなわち、符号化対象フィールドから時間的に最も近くに符号化されたフィールド)を、符号化対象フィールドから表示時間的に最も近くにあるフィールドとするように、動き補償符号化部107に対して指示する(図6、ステップS110)。
(Method 1 ')
The direct mode propriety determination unit 109 selects a field encoded later among the top field and the bottom field having the same display order information (that is, a field encoded closest in time from the encoding target field). The motion compensation encoding unit 107 is instructed to set the field closest to the display time from the encoding target field (FIG. 6, step S110).

次に、動き補償符号化部107は、上記のようにダイレクトモード可否判定部109が確定した符号化モードにより、予測画像データを生成する。以下、この確定した符号化モード毎にそれぞれ動作について説明する。   Next, the motion compensation encoding unit 107 generates predicted image data in the encoding mode determined by the direct mode availability determination unit 109 as described above. The operation will be described below for each determined encoding mode.

(通常の時間的ダイレクトモードでの符号化)
この場合、動き補償符号化部107は、背景技術において図18を用いて説明した時間的ダイレクトモードと全く同様の方法を用いて動き補償を行う。すなわち、符号化済みピクチャの中の、符号化対象のブロックと同じ位置にあるブロックの動きベクトルを参照動きベクトルとして利用し、動き補償符号化部107は、この参照動きベクトルを動きベクトル記憶部108より読み出し、この参照動きベクトルおよびピクチャ間の表示時間的位置関係に基づいてスケーリング処理を行って符号化対象ブロックで用いる動きベクトルを予測して生成する。そして、この動きベクトルを用いて、動き補償符号化部107は2枚の参照ピクチャから2方向予測を行って、予測画像データを生成する。
(Encoding in normal temporal direct mode)
In this case, the motion compensation encoding unit 107 performs motion compensation using the same method as in the temporal direct mode described with reference to FIG. 18 in the background art. That is, a motion vector of a block at the same position as the block to be encoded in the encoded picture is used as a reference motion vector, and the motion compensation encoding unit 107 uses the reference motion vector as a motion vector storage unit 108. More specifically, a scaling process is performed based on the reference motion vector and the display temporal positional relationship between pictures to predict and generate a motion vector to be used in the encoding target block. Then, using this motion vector, the motion compensation encoding unit 107 performs bi-directional prediction from two reference pictures to generate predicted image data.

(動きベクトルを「0」とした時間的ダイレクトモードでの符号化)
動き補償符号化部107は、スケーリング処理による動きベクトルの予測生成を行わずに、直接動きベクトルとして「0」を用いて2枚の参照ピクチャから2方向予測を行って、予測画像データを生成する。
このとき使用する動きベクトルの値は「0」に限られたものではなく、スケーリングを必要としないで決定することのできる所定の値とすればよい。上記の例では、2枚の参照ピクチャに対する動きベクトルを2つとも「0」として説明しているが、これに限られるものではなく、2枚の参照ピクチャに対する動きベクトルの少なくとも1つを「0」としてもよい。
(Encoding in temporal direct mode with motion vector set to “0”)
The motion compensation encoding unit 107 generates prediction image data by performing bi-directional prediction from two reference pictures using “0” as a direct motion vector without performing motion vector prediction generation by scaling processing. .
The value of the motion vector used at this time is not limited to “0”, and may be a predetermined value that can be determined without requiring scaling. In the above example, both motion vectors for two reference pictures are described as “0”. However, the present invention is not limited to this, and at least one of the motion vectors for two reference pictures is “0”. It is good also as.

(ダイレクトモード以外での符号化)
動き補償符号化部107は、動きベクトル検出部106で検出された動きベクトルを用いて、2枚の参照ピクチャから2方向予測を行って、予測画像データを生成する。
(Encoding in other than direct mode)
The motion compensation encoding unit 107 performs bi-directional prediction from two reference pictures using the motion vector detected by the motion vector detection unit 106 to generate predicted image data.

(空間的ダイレクトモードでの符号化)
この場合、動き補償符号化部107は、背景技術において図19を用いて説明した空間的ダイレクトモードと全く同様の方法を用いて動き補償を行う。すなわち、符号化対象であるブロックの周辺の3画素を含む符号化済みの3ブロックのそれぞれの動きベクトルのうち、符号化対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルを使用して、符号化対象ブロックで用いる動きベクトルを予測して生成する。
(Encoding in spatial direct mode)
In this case, the motion compensation encoding unit 107 performs motion compensation using the same method as the spatial direct mode described with reference to FIG. 19 in the background art. That is, among the motion vectors of the three encoded blocks including the three pixels around the block to be encoded, refer to the already encoded picture that is closest in display time from the encoding target picture. The motion vector used in the encoding target block is predicted and generated using the motion vector.

このとき、上記3ブロックのそれぞれの動きベクトルのうち、符号化対象ピクチャ(フィールド)から表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドである場合、動き補償符号化部107は、ダイレクトモード可否判定部109からの指示に基づいて、同じ表示順情報を持つトップフィールドとボトムフィールドのうち1つを、符号化対象フィールドから表示時間的に最も近くにあるフィールドとする。   At this time, among the motion vectors of the three blocks, there are a plurality of motion vectors that refer to already encoded pictures that are closest in display time from the encoding target picture (field), and the reference When the plurality of pictures belong to the same frame and are the top field and the bottom field having the same display order information, the motion compensation encoding unit 107 uses the same display order information based on an instruction from the direct mode availability determination unit 109 One of the top field and the bottom field having the field is the field closest to the encoding target field in terms of display time.

すなわち、ダイレクトモード可否判定部109からの指示が、上記方法1〜3に説明した指示である場合には、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、符号化対象フィールドと同じ属性であるフィールドを、符号化対象フィールドから表示時間的に最も近くにあるフィールドとする。例えば、図23に示す例では、同じ表示順情報を持っているフィールドP2_T、P2_Bのうち、符号化対象フィールドB3_Tと同じトップフィールドであるフィールドP2_Tを符号化対象フィールドから表示時間的に最も近くにあるフィールドとする。よって、フィールドP2_Tを参照している動きベクトルMVA1を、符号化対象ブロックの1つめの動きベクトルの候補として決定する。   That is, when the instruction from the direct mode availability determination unit 109 is the instruction described in the methods 1 to 3, the same attribute as that of the encoding target field among the top field and the bottom field having the same display order information is used. A certain field is a field closest to the encoding target field in display time. For example, in the example shown in FIG. 23, the field P2_T that is the same top field as the encoding target field B3_T among the fields P2_T and P2_B having the same display order information is closest to the encoding target field in terms of display time. A field is assumed. Therefore, the motion vector MVA1 referring to the field P2_T is determined as the first motion vector candidate of the encoding target block.

また、ダイレクトモード可否判定部109からの指示が、上記方法1’〜3’に説明した指示である場合には、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、後で符号化されたフィールドを、符号化対象フィールドから表示時間的に最も近くにあるフィールドとする。例えば、図23に示す例でフィールドP2_T、P2_BのうちフィールドP2_Bが後で符号化されたとすると、同じ表示順情報を持っているフィールドP2_T、P2_Bのうち、後に符号化されたフィールドP2_Bを符号化対象フィールドから表示時間的に最も近くにあるフィールドとする。よって、フィールドP2_Bを参照している動きベクトルMVC1を、符号化対象ブロックの1つめの動きベクトルMV_Fの候補として決定する。2つめの動きベクトルであるMV_Bを求める場合も同様である。   In addition, when the instruction from the direct mode availability determination unit 109 is the instruction described in the methods 1 ′ to 3 ′, the top field and the bottom field having the same display order information are encoded later. The field is the field closest to the encoding target field in terms of display time. For example, in the example shown in FIG. 23, if the field P2_B among the fields P2_T and P2_B is encoded later, the field P2_B encoded later among the fields P2_T and P2_B having the same display order information is encoded. The field closest to the target field in terms of display time. Therefore, the motion vector MVC1 referring to the field P2_B is determined as a candidate for the first motion vector MV_F of the encoding target block. The same applies to obtaining MV_B, which is the second motion vector.

このように決定した動きベクトルが3つである場合には、それらの中央値を符号化対象ブロックの動きベクトルとして選択する。また、2つである場合には、それらの平均値を求め、符号化対象ブロックの動きベクトルとする。また、1つだけである場合(図23に示す例)には、その動きベクトルを符号化対象ブロックの動きベクトルとする。このようにして求めた動きベクトルを用いて、動き補償符号化部107は、参照ピクチャから動き補償を行って、予測画像データを生成する。   When there are three motion vectors determined in this way, the median value is selected as the motion vector of the encoding target block. If there are two, the average value of them is obtained and used as the motion vector of the encoding target block. If there is only one (example shown in FIG. 23), the motion vector is set as the motion vector of the encoding target block. Using the motion vector obtained in this way, the motion compensation encoding unit 107 performs motion compensation from the reference picture to generate predicted image data.

次に、動き補償符号化部107は、上記のように生成した予測画像データを差分演算部110と加算演算部111とに出力する。なお、動き補償符号化部107がピクチャ内符号化を選択した場合には、予測画像データは出力しない。また、動き補償符号化部107は、ピクチャ内符号化を選択した場合には、スイッチ112をピクチャメモリ101より直接信号が入力される側に接続し、ピクチャ間予測符号化を選択した場合には、スイッチ112を差分演算部110より信号が入力される側に接続するように制御する。また、動き補償符号化部107は、決定した符号化モードを符号列生成部103に対して出力する。   Next, the motion compensation encoding unit 107 outputs the predicted image data generated as described above to the difference calculation unit 110 and the addition calculation unit 111. Note that, when the motion compensation encoding unit 107 selects intra-picture encoding, the predicted image data is not output. The motion compensation encoding unit 107 connects the switch 112 to the side to which the signal is directly input from the picture memory 101 when the intra-picture encoding is selected, and when the inter-picture predictive encoding is selected. The switch 112 is controlled to be connected to the signal input side from the difference calculation unit 110. In addition, the motion compensation encoding unit 107 outputs the determined encoding mode to the code string generation unit 103.

動き補償符号化部107より予測画像データが入力された差分演算部110は、この予測画像データと、ピクチャメモリ101より読み出されたピクチャB11のマクロブロックの画像データとの差分を演算し、予測残差画像データを生成して予測残差符号化部102へ出力する。
予測残差画像データが入力された予測残差符号化部102は、この予測残差画像データに対して周波数変換や量子化等の符号化処理を行い、符号化データを生成して符号列生成部103へ出力する。符号化データが入力された符号列生成部103は、この符号化データに対して可変長符号化等を行い、さらに動き補償符号化部107から入力された動きベクトルの情報、符号化モードの情報等を付加することにより符号列を生成し、出力する。なお、ダイレクトモードで符号化されたマクロブロックについては、動きベクトルの情報は符号化列には付加しない。
The difference calculation unit 110 to which the prediction image data is input from the motion compensation encoding unit 107 calculates a difference between the prediction image data and the image data of the macroblock of the picture B11 read from the picture memory 101, and performs prediction. Residual image data is generated and output to the prediction residual encoding unit 102.
The prediction residual encoding unit 102 to which the prediction residual image data is input performs encoding processing such as frequency conversion and quantization on the prediction residual image data, generates encoded data, and generates a code string. Output to the unit 103. The code string generation unit 103 to which the encoded data is input performs variable-length encoding or the like on the encoded data, and further, motion vector information and encoding mode information input from the motion compensation encoding unit 107 Etc., a code string is generated and output. For macroblocks encoded in the direct mode, motion vector information is not added to the encoded sequence.

以降同様の処理により、ピクチャB11の残りのマクロブロックについても符号化処理を行う。
以上のように、フィールド符号化が選択されており、時間的ダイレクトモードにより符号化を行う場合に、スケーリング処理が可能であるか否かの判定を行っている。そして、スケーリング処理が可能でないと判定された場合に、符号化モードを変更する等の処理を行っているので、スケーリング処理ができずに符号化を行うことができないということがない。
Thereafter, the same processing is performed for the remaining macroblocks of the picture B11.
As described above, when field encoding is selected and encoding is performed in the temporal direct mode, it is determined whether or not scaling processing is possible. When it is determined that the scaling process is not possible, the process such as changing the encoding mode is performed, so that the scaling process cannot be performed and the encoding cannot be performed.

また、フィールド符号化が選択されており、空間的ダイレクトモードにより符号化を行う場合に、ピクチャの有する表示順情報に基づいて符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かの判定を行っている。そして、動きベクトルを予測して生成することが可能でないと判定された場合に、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、どちらのフィールドを符号化対象フィールドから表示時間的に最も近くにあるフィールドとするかを規定する処理を行っているので、動きベクトルを予測して生成することができずに符号化を行えないということがない。   In addition, when field coding is selected and coding is performed in the spatial direct mode, can a motion vector used in a block to be coded be predicted and generated based on display order information of a picture? Judgment of whether or not. If it is determined that a motion vector cannot be predicted and generated, which of the top field and the bottom field having the same display order information is closest to the encoding target field in terms of display time. Therefore, there is no possibility that a motion vector cannot be predicted and generated and encoding cannot be performed.

図7は、本発明に係る動画像復号化方法を用いた動画像復号化装置の一実施の形態の構成を示すブロック図である。
動画像復号化装置は、符号列解析部201、予測残差復号化部202、ピクチャメモリ203、動き補償復号化部204、動きベクトル記憶部205、ダイレクトモード可否判定部206、加算演算部207、およびスイッチ208を備えている。
FIG. 7 is a block diagram showing a configuration of an embodiment of a moving picture decoding apparatus using the moving picture decoding method according to the present invention.
The moving picture decoding apparatus includes a code stream analysis unit 201, a prediction residual decoding unit 202, a picture memory 203, a motion compensation decoding unit 204, a motion vector storage unit 205, a direct mode availability determination unit 206, an addition operation unit 207, And a switch 208.

符号列解析部201は、入力された符号列より復号化モードの情報、および符号化時に用いられた動きベクトルの情報等の各種データの抽出を行う。予測残差復号化部202は、入力された予測残差符号化データの復号化を行い、予測残差画像データを生成する。動き補償復号化部204は、復号化モードの情報、および動きベクトルの情報等に基づいて、動き補償画像データを生成する。動きベクトル記憶部205は、符号列解析部201により抽出された動きベクトルを記憶する。   The code string analysis unit 201 extracts various data such as decoding mode information and motion vector information used at the time of coding from the input code string. The prediction residual decoding unit 202 decodes the input prediction residual encoded data, and generates prediction residual image data. The motion compensation decoding unit 204 generates motion compensated image data based on decoding mode information, motion vector information, and the like. The motion vector storage unit 205 stores the motion vector extracted by the code string analysis unit 201.

ダイレクトモード可否判定部206は、符号列解析部201で抽出された復号化モードが時間的ダイレクトモードである場合に、スケーリング処理を行うことができるか否かの判定を行い、復号化モードの確定を行う。また、ダイレクトモード可否判定部206は、復号化モードが空間的ダイレクトモードである場合に、復号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かの判定を行う。加算演算部207は、予測残差復号化部202より入力された予測残差画像データと、動き補償復号化部204より入力された動き補償画像データとを加算し、復号化画像データを生成する。ピクチャメモリ203は、生成された復号化画像データを格納する。   The direct mode availability determination unit 206 determines whether or not the scaling process can be performed when the decoding mode extracted by the code stream analysis unit 201 is the temporal direct mode, and determines the decoding mode. I do. In addition, the direct mode availability determination unit 206 determines whether or not a motion vector used in a decoding target block can be predicted and generated when the decoding mode is a spatial direct mode. The addition operation unit 207 adds the prediction residual image data input from the prediction residual decoding unit 202 and the motion compensated image data input from the motion compensation decoding unit 204 to generate decoded image data. . The picture memory 203 stores the generated decoded image data.

次に、上記のように構成された動画像復号化装置の動作について説明する。なお、ピクチャの順序については図2を用いて説明する。ここで、Pピクチャは、表示時間順で前方にある近傍のIピクチャまたはPピクチャを参照ピクチャとし、Bピクチャは、表示時間順で前方にある近傍のIピクチャまたはPピクチャと、表示時間順で後方にある近傍1枚のIピクチャまたはPピクチャとを参照ピクチャとして用いて符号化されているものとする。   Next, the operation of the moving picture decoding apparatus configured as described above will be described. Note that the order of pictures will be described with reference to FIG. Here, a P picture uses a neighboring I picture or P picture ahead in display time order as a reference picture, and a B picture has a neighboring I picture or P picture ahead in display time order and display time order. It is assumed that encoding is performed using one I picture or P picture in the back as a reference picture.

符号列は、図2(b) に示すようなピクチャ順で符号列解析部201に入力される。符号列解析部201は、入力された符号列より復号化モードの情報、および動きベクトルの情報等の各種データの抽出を行う。符号列解析部201は、抽出した復号化モードの情報を動き補償復号化部204へ、動きベクトルの情報を動きベクトル記憶部205へ出力する。   The code sequence is input to the code sequence analysis unit 201 in the picture order as shown in FIG. The code string analysis unit 201 extracts various data such as decoding mode information and motion vector information from the input code string. The code string analysis unit 201 outputs the extracted decoding mode information to the motion compensation decoding unit 204 and the motion vector information to the motion vector storage unit 205.

また、符号列解析部201は、抽出した予測残差符号化データを予測残差復号化部202へ出力する。予測残差符号化データが入力された予測残差復号化部202は、この予測残差符号化データの復号化を行い、予測残差画像データを生成し、加算演算部207へ出力する。
以降の動作については、復号化対象のピクチャがBピクチャであり、符号列解析部201で抽出された復号化モードがダイレクトモードである場合について説明する。
Further, the code string analysis unit 201 outputs the extracted prediction residual encoded data to the prediction residual decoding unit 202. The prediction residual decoding unit 202 to which the prediction residual encoded data is input decodes the prediction residual encoded data, generates prediction residual image data, and outputs the prediction residual image data to the addition calculation unit 207.
Regarding the subsequent operations, a case will be described in which the picture to be decoded is a B picture and the decoding mode extracted by the code stream analysis unit 201 is the direct mode.

符号列解析部201より復号化モードの情報が入力された動き補償復号化部204は、復号化対象のブロックをダイレクトモードで復号化するかどうかを判定し、ダイレクトモードである場合にダイレクトモード可否判定部206に通知する。
次に、復号化モードがダイレクトモードである場合に行うダイレクトモード可否判定部206による復号化モードの確定の動作について説明する。この復号化モードの確定の動作は、以下に説明する方法1〜3のいずれかによって行うことができる。
The motion compensation decoding unit 204 to which the decoding mode information is input from the code stream analysis unit 201 determines whether or not to decode the decoding target block in the direct mode. The determination unit 206 is notified.
Next, the operation of determining the decoding mode by the direct mode availability determination unit 206 performed when the decoding mode is the direct mode will be described. The operation of determining the decoding mode can be performed by any one of methods 1 to 3 described below.

(方法1)
図8は方法1による復号化モードの確定の動作を示すフロー図である。ダイレクトモード可否判定部206は、まず、時間的ダイレクトモードが指定されているか否かを判定する(ステップS401)。この結果、時間的ダイレクトモードであると判定した場合、ダイレクトモード可否判定部206は、フィールド符号化が行われているか否かを判定する(ステップS402)。この結果、フィールド符号化が行われていないと判定した場合には、ダイレクトモード可否判定部206は、動き補償復号化部204に対して時間的ダイレクトモードでの復号化を指示する(ステップS403)。一方、フィールド符号化が選択されていると判定した場合には、ダイレクトモード可否判定部206は、スケーリング処理によって復号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS404)。すなわち、参照する2枚のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドであるか否かを判定している。この結果、スケーリング処理が可能である場合(ステップS404の条件判定がNOの場合)、ダイレクトモード可否判定部206は、動き補償復号化部204に対して時間的ダイレクトモードでの復号化を指示する(ステップS403)。一方、スケーリング処理が可能でない場合(ステップS404の条件判定がYESの場合)、ダイレクトモード可否判定部206は、動き補償復号化部204に対してダイレクトモード以外での復号化を指示する(ステップS405)。
(Method 1)
FIG. 8 is a flowchart showing the operation of determining the decoding mode by the method 1. First, the direct mode availability determination unit 206 determines whether or not the temporal direct mode is designated (step S401). As a result, when it is determined that the temporal direct mode is selected, the direct mode availability determination unit 206 determines whether or not field coding is performed (step S402). As a result, if it is determined that field coding is not performed, the direct mode availability determination unit 206 instructs the motion compensation decoding unit 204 to perform decoding in the temporal direct mode (step S403). . On the other hand, when it is determined that the field coding is selected, the direct mode availability determination unit 206 determines whether or not the motion vector used in the decoding target block can be predicted and generated by the scaling process. (Step S404). That is, it is determined whether or not two pictures to be referenced belong to the same frame and are a top field and a bottom field having the same display order information. As a result, when scaling processing is possible (when the condition determination in step S404 is NO), the direct mode availability determination unit 206 instructs the motion compensation decoding unit 204 to perform decoding in the temporal direct mode. (Step S403). On the other hand, when the scaling process is not possible (when the condition determination in step S404 is YES), the direct mode availability determination unit 206 instructs the motion compensation decoding unit 204 to perform decoding in a mode other than the direct mode (step S405). ).

また、上記判定(ステップS401)の結果、時間的ダイレクトモードでない(すなわち、空間的ダイレクトモードである)と判定した場合も、ダイレクトモード可否判定部206は、フィールド符号化が行われているか否かを判定する(ステップS406)。この結果、フィールド符号化が選択されていないと判定した場合には、ダイレクトモード可否判定部206は、動き補償復号化部204に対して空間的ダイレクトモードでの復号化を指示する(ステップS407)。   Also, as a result of the determination (step S401), if it is determined that the mode is not the temporal direct mode (that is, the spatial direct mode), the direct mode propriety determination unit 206 determines whether or not field encoding is performed. Is determined (step S406). As a result, when it is determined that field coding is not selected, the direct mode availability determination unit 206 instructs the motion compensation decoding unit 204 to perform decoding in the spatial direct mode (step S407). .

上記判定(ステップS406)の結果、フィールド符号化が選択されていると判定した場合には、ダイレクトモード可否判定部206は、空間的ダイレクトモードによりピクチャの有する表示順情報に基づいて、復号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS408)。すなわち、復号化対象であるブロックの周辺の3画素を含む復号化済みの3ブロックのそれぞれの動きベクトルのうち、復号化対象ピクチャ(フィールド)から表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドであるか否かを判定している。このとき、上記条件を満たした場合に、動きベクトルを予測して生成することが可能でないと判定する。   As a result of the determination (step S406), if it is determined that field coding is selected, the direct mode availability determination unit 206 performs decoding based on the display order information of the pictures in the spatial direct mode. It is determined whether or not the motion vector used in the block can be predicted and generated (step S408). That is, among the motion vectors of the three decoded blocks including the three pixels around the block that is the decoding target, the motion vectors that are closest to the decoding target picture (field) in terms of display time have already been decoded. It is determined whether or not there are a plurality of motion vectors referring to a picture, and the plurality of referenced pictures belong to the same frame and are a top field and a bottom field having the same display order information. At this time, when the above condition is satisfied, it is determined that a motion vector cannot be predicted and generated.

上記判定(ステップS408)の結果、動きベクトルを予測して生成することが可能であると判定した場合(ステップS408の条件判定がNOの場合)、ダイレクトモード可否判定部206は、動き補償復号化部204に対して空間的ダイレクトモードでの復号化を指示する(ステップS407)。
一方、動きベクトルを予測して生成することが可能でないと判定した場合(ステップS408の条件判定がYESの場合)、ダイレクトモード可否判定部206は、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、復号化対象フィールドと同じ属性であるフィールドを、復号化対象フィールドから表示時間的に最も近くにあるフィールドとするように、動き補償復号化部204に対して指示する(ステップS409)。ここで、同じ属性であるフィールドとは、復号化対象フィールドがトップフィールドであればトップフィールド、復号化対象フィールドがボトムフィールドであればボトムフィールドである。その上で、ダイレクトモード可否判定部206は、動き補償復号化部204に対して空間的ダイレクトモードでの復号化を指示する(ステップS407)。
As a result of the determination (step S408), when it is determined that a motion vector can be predicted and generated (when the condition determination in step S408 is NO), the direct mode availability determination unit 206 performs motion compensation decoding. The unit 204 is instructed to perform decoding in the spatial direct mode (step S407).
On the other hand, when it is determined that the motion vector cannot be predicted and generated (when the condition determination in step S408 is YES), the direct mode availability determination unit 206 determines whether the top field and the bottom field have the same display order information. Of these, the motion compensation decoding unit 204 is instructed so that the field having the same attribute as the decoding target field is the field closest to the decoding target field in display time (step S409). Here, the field having the same attribute is a top field if the decoding target field is a top field, and a bottom field if the decoding target field is a bottom field. After that, the direct mode availability determination unit 206 instructs the motion compensation decoding unit 204 to perform decoding in the spatial direct mode (step S407).

(方法2)
図9は方法2による復号化モードの確定の動作を示すフロー図である。なお、フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でないと判定された場合の処理以外(ステップS501〜S504、S506〜S509)は、方法1と同様であるので説明を省略する。
(Method 2)
FIG. 9 is a flowchart showing the operation of determining the decoding mode by the method 2. Note that the processing other than the processing when it is determined that field coding is selected and further scaling processing is not possible (steps S501 to S504 and S506 to S509) is the same as method 1, and thus the description thereof is omitted. To do.

フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でないと判定された場合、ダイレクトモード可否判定部206は、動き補償復号化部204に対して動きベクトルを「0」とした時間的ダイレクトモードでの復号化を指示する(ステップS505)。   When it is determined that the field coding is selected and it is further determined that the scaling process is not possible, the direct mode availability determination unit 206 sets the motion vector to “0” for the motion compensation decoding unit 204. Is instructed to be decrypted in a direct mode (step S505).

(方法3)
図10は方法3による復号化モードの確定の動作を示すフロー図である。なお、フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でないと判定された場合の処理以外(ステップS601〜S606、S608)は、方法1と同様であるので説明を省略する。
(Method 3)
FIG. 10 is a flowchart showing the operation of determining the decoding mode by the method 3. Since processes other than the process when it is determined that the field encoding is selected and the scaling process is not possible (steps S601 to S606 and S608) are the same as the method 1, the description thereof is omitted.

フィールド符号化が選択されていると判定され、さらにスケーリング処理が可能でない場合、ダイレクトモード可否判定部206は、空間的ダイレクトモードにより復号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かを判定する(ステップS607)。それ以降の動作に関しては方法1と同様である。
また、上記方法1〜3における、空間的ダイレクトモードで動きベクトルを予測して生成することが可能でないと判定された場合の上記処理(ステップS409、S509、S608)については、次のように処理を行って方法1’〜3’とすることもできる。図11は方法1’による復号化モードの確定の動作を示すフロー図である。なお、方法2’〜3’については、方法1’と同様であるので説明および図は省略する。
If it is determined that field coding is selected and further scaling processing is not possible, the direct mode availability determination unit 206 can predict and generate a motion vector used in the decoding target block in the spatial direct mode. It is determined whether or not (step S607). Subsequent operations are the same as those in Method 1.
In addition, in the above methods 1 to 3, when it is determined that a motion vector cannot be predicted and generated in the spatial direct mode (steps S409, S509, and S608), the following processing is performed. To obtain the methods 1 ′ to 3 ′. FIG. 11 is a flowchart showing the operation of determining the decoding mode by the method 1 ′. Since the methods 2 ′ to 3 ′ are the same as the method 1 ′, the description and illustration are omitted.

(方法1’)
ダイレクトモード可否判定部206は、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、後で復号化されたフィールド(すなわち、復号化対象フィールドから時間的に最も近くに復号化されたフィールド)を、復号化対象フィールドから表示時間的に最も近くにあるフィールドとするように、動き補償復号化部204に対して指示する(図11、ステップS410)。
(Method 1 ')
The direct mode propriety determination unit 206 selects a field that is decoded later (that is, a field that is decoded closest in time from the decoding target field) among the top field and the bottom field that have the same display order information. The motion compensation decoding unit 204 is instructed to set the field closest to the display time from the field to be decoded (step S410 in FIG. 11).

次に、動き補償復号化部204は、上記のようにダイレクトモード可否判定部206が確定した復号化モードにより、動き補償画像データを生成する。以下、この確定した復号化モード毎にそれぞれ動作について説明する。   Next, the motion compensation decoding unit 204 generates motion compensation image data in the decoding mode determined by the direct mode availability determination unit 206 as described above. The operation will be described below for each determined decoding mode.

(通常の時間的ダイレクトモードでの復号化)
この場合、動き補償復号化部204は、背景技術において図18を用いて説明した時間的ダイレクトモードと全く同様の方法を用いて動き補償を行う。すなわち、復号化済みピクチャの中の、復号化対象のブロックと同じ位置にあるブロックの動きベクトルを参照動きベクトルとして利用し、動き補償復号化部204は、この参照動きベクトルを動きベクトル記憶部205より読み出し、この参照動きベクトルおよびピクチャ間の表示時間的位置関係に基づいてスケーリング処理を行って復号化対象ブロックで用いる動きベクトルを予測して生成する。そして、この動きベクトルを用いて、動き補償復号化部204は2枚の参照ピクチャから2方向予測を行って、動き補償画像データを生成する。
(Decryption in normal temporal direct mode)
In this case, the motion compensation decoding unit 204 performs motion compensation using the same method as in the temporal direct mode described with reference to FIG. 18 in the background art. That is, a motion vector of a block in the same position as the decoding target block in the decoded picture is used as a reference motion vector, and the motion compensation decoding unit 204 uses this reference motion vector as a motion vector storage unit 205. More specifically, a scaling process is performed on the basis of the reference motion vector and the display temporal positional relationship between pictures, and a motion vector used in the decoding target block is predicted and generated. Then, using this motion vector, the motion compensation decoding unit 204 performs bidirectional prediction from two reference pictures to generate motion compensated image data.

(動きベクトルを「0」とした時間的ダイレクトモードでの復号化)
動き補償復号化部204は、スケーリング処理による動きベクトルの予測生成を行わずに、直接動きベクトルとして「0」を用いて2枚の参照ピクチャから2方向予測を行って、予測画像データを生成する。
このとき使用する動きベクトルの値は「0」に限られたものではなく、スケーリングを必要としないで決定することのできる所定の値とすればよい。上記の例では、2枚の参照ピクチャに対する動きベクトルを2つとも「0」として説明しているが、これに限られるものではなく、2枚の参照ピクチャに対する動きベクトルの少なくとも1つを「0」としてもよい。
(Decoding in temporal direct mode with motion vector set to “0”)
The motion compensation decoding unit 204 generates prediction image data by performing bi-directional prediction from two reference pictures using “0” as a direct motion vector without performing motion vector prediction generation by scaling processing. .
The value of the motion vector used at this time is not limited to “0”, and may be a predetermined value that can be determined without requiring scaling. In the above example, both motion vectors for two reference pictures are described as “0”. However, the present invention is not limited to this, and at least one of the motion vectors for two reference pictures is “0”. It is good also as.

(ダイレクトモード以外での復号化)
動き補償復号化部204は、動きベクトル記憶部205から符号化時に用いられた動きベクトルを読み出し、この動きベクトルを用いて2枚の参照ピクチャから2方向予測を行って、動き補償画像データを生成する。
(Decryption in non-direct mode)
The motion compensation decoding unit 204 reads out the motion vector used at the time of encoding from the motion vector storage unit 205, performs bi-directional prediction from two reference pictures using this motion vector, and generates motion compensated image data To do.

(空間的ダイレクトモードでの復号化)
この場合、動き補償復号化部204は、背景技術において図19を用いて説明した空間的ダイレクトモードと全く同様の方法を用いて動き補償を行う。すなわち、復号化対象であるブロックの周辺の3画素を含む復号化済みの3ブロックのそれぞれの動きベクトルのうち、復号化対象ピクチャから表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルを使用して、符号化対象ブロックで用いる動きベクトルを予測して生成する。
(Decryption in spatial direct mode)
In this case, the motion compensation decoding unit 204 performs motion compensation using the same method as that in the spatial direct mode described with reference to FIG. 19 in the background art. That is, refer to the already decoded picture that is closest to the decoding target picture in display time among the motion vectors of the three decoded blocks including the three pixels around the decoding target block. The motion vector used in the encoding target block is predicted and generated using the motion vector.

このとき、上記3ブロックのそれぞれの動きベクトルのうち、復号化対象ピクチャ(フィールド)から表示時間的に最も近くにある既に復号化されたピクチャを参照した動きベクトルが複数存在し、かつ、その参照する複数のピクチャが同じフレームに属し、同じ表示順情報を持つトップフィールドとボトムフィールドである場合、動き補償復号化部204は、ダイレクトモード可否判定部206からの指示に基づいて、同じ表示順情報を持つトップフィールドとボトムフィールドのうち1つを、復号化対象フィールドから表示時間的に最も近くにあるフィールドとする。   At this time, among the motion vectors of the three blocks, there are a plurality of motion vectors that refer to already decoded pictures that are closest in display time to the decoding target picture (field), and the reference When a plurality of pictures belong to the same frame and are a top field and a bottom field having the same display order information, the motion compensation decoding unit 204 uses the same display order information based on an instruction from the direct mode availability determination unit 206 One of the top field and the bottom field having a field is the field closest to the decoding target field in terms of display time.

すなわち、ダイレクトモード可否判定部206からの指示が、上記方法1〜3に説明した指示である場合、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、復号化対象フィールドと同じ属性であるフィールドを、復号化対象フィールドから表示時間的に最も近くにあるフィールドとする。例えば、図23に示す例では、同じ表示順情報を持っているフィールドP2_T、P2_Bのうち、復号化対象フィールドB3_Tと同じトップフィールドであるフィールドP2_Tを復号化対象フィールドから表示時間的に最も近くにあるフィールドとする。よって、フィールドP2_Tを参照している動きベクトルMVA1を、復号化対象ブロックの1つめの動きベクトルの候補として決定する。   That is, when the instruction from the direct mode availability determination unit 206 is the instruction described in the above methods 1 to 3, the field having the same attribute as the decoding target field among the top field and the bottom field having the same display order information. Is the field closest to the decoding target field in terms of display time. For example, in the example shown in FIG. 23, the field P2_T that is the same top field as the decoding target field B3_T among the fields P2_T and P2_B having the same display order information is closest to the decoding target field in terms of display time. A field is assumed. Therefore, the motion vector MVA1 referring to the field P2_T is determined as the first motion vector candidate of the decoding target block.

また、ダイレクトモード可否判定部206からの指示が、上記方法1’〜3’に説明した指示である場合、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、後で復号化されたフィールドを、復号化対象フィールドから表示時間的に最も近くにあるフィールドとする。例えば、図23に示す例でフィールドP2_T、P2_BのうちフィールドP2_Bが後で復号化されたとすると、同じ表示順情報を持っているフィールドP2_T、P2_Bのうち、後に復号化されたフィールドP2_Bを復号化対象フィールドから表示時間的に最も近くにあるフィールドとする。よって、フィールドP2_Bを参照している動きベクトルMVC1を、復号化対象ブロックの1つめの動きベクトルMV_Fの候補として決定する。2つめの動きベクトルであるMV_Bを求める場合も同様である。   In addition, when the instruction from the direct mode availability determination unit 206 is the instruction described in the methods 1 ′ to 3 ′, a field decoded later among the top field and the bottom field having the same display order information is displayed. The field closest to the decoding target field in terms of display time. For example, in the example shown in FIG. 23, if the field P2_B of the fields P2_T and P2_B is decoded later, the decoded field P2_B of the fields P2_T and P2_B having the same display order information is decoded. The field closest to the target field in terms of display time. Therefore, the motion vector MVC1 referring to the field P2_B is determined as a candidate for the first motion vector MV_F of the decoding target block. The same applies to obtaining MV_B, which is the second motion vector.

このように決定した動きベクトルが3つである場合には、それらの中央値を復号化対象ブロックの動きベクトルとして選択する。また、2つである場合には、それらの平均値を求め、復号化対象ブロックの動きベクトルとする。また、1つだけである場合(図23に示す例)には、その動きベクトルを復号化対象ブロックの動きベクトルとする。このようにして求めた動きベクトルを用いて、動き補償復号化部204は、参照ピクチャから動き補償を行って、動き補償画像データを生成する。   When there are three motion vectors determined in this way, the median value is selected as the motion vector of the decoding target block. If there are two, the average value of them is obtained and used as the motion vector of the decoding target block. If there is only one (example shown in FIG. 23), the motion vector is set as the motion vector of the decoding target block. Using the motion vector obtained in this way, the motion compensation decoding unit 204 performs motion compensation from the reference picture to generate motion compensated image data.

次に、動き補償復号化部204は、上記のように生成した動き補償画像データ(ブロック)を加算演算部207へ出力する。加算演算部207は、動き補償画像データと、予測残差復号化部202より入力された予測残差画像データとを加算し、復号化画像データを生成してピクチャメモリ203に格納する。
以降同様の処理により、ピクチャB11の残りのマクロブロックについても復号化処理を行う。そして、図2(b) に示す例では、ピクチャB11のすべてのマクロブロックについて処理が終了すると、次にピクチャB12の復号化処理を行う。以上のように復号化処理されたピクチャは、図2(a) に示すように順次出力画像としてピクチャメモリ203から出力される。
Next, the motion compensation decoding unit 204 outputs the motion compensated image data (block) generated as described above to the addition operation unit 207. The addition operation unit 207 adds the motion compensated image data and the prediction residual image data input from the prediction residual decoding unit 202, generates decoded image data, and stores the decoded image data in the picture memory 203.
Thereafter, the decoding process is performed for the remaining macroblocks of the picture B11 by the same process. In the example shown in FIG. 2 (b), when all the macroblocks of the picture B11 are processed, the decoding process of the picture B12 is performed next. The pictures decoded as described above are sequentially output from the picture memory 203 as output images as shown in FIG.

以上のように、フィールド符号化が選択されており、抽出した復号化モードが時間的ダイレクトモードである場合に、スケーリング処理が可能であるか否かの判定を行っている。そして、スケーリング処理が可能でないと判定された場合に、復号化モードを変更する等の処理を行っているので、スケーリング処理ができずに復号化を行うことができないということがない。   As described above, when field coding is selected and the extracted decoding mode is the temporal direct mode, it is determined whether or not the scaling process is possible. When it is determined that the scaling process is not possible, the process such as changing the decoding mode is performed, so that the scaling process cannot be performed and the decoding cannot be performed.

また、フィールド符号化が選択されており、抽出した復号化モードが空間的ダイレクトモードである場合に、ピクチャの有する表示順情報に基づいて符号化対象ブロックで用いる動きベクトルを予測して生成することができるか否かの判定を行っている。そして、動きベクトルを予測して生成することが可能でないと判定された場合に、同じ表示順情報を持つトップフィールドとボトムフィールドのうち、どちらのフィールドを復号化対象フィールドから表示時間的に最も近くにあるフィールドとするかを規定する処理を行っているので、動きベクトルを予測して生成することができずに復号化を行えないということがない。   In addition, when field coding is selected and the extracted decoding mode is the spatial direct mode, a motion vector used in the block to be encoded is predicted and generated based on the display order information of the picture. It is determined whether or not If it is determined that the motion vector cannot be predicted and generated, which of the top field and the bottom field having the same display order information is closest to the decoding target field in terms of display time. Therefore, there is no possibility that a motion vector cannot be predicted and generated and decoding cannot be performed.

なお、本実施の形態においては、空間的ダイレクトモードでの符号化時に、動き補償符号化部107は、符号化対象であるブロックの周辺の3画素を含む符号化済みの3ブロックのそれぞれの動きベクトルのうちから、符号化対象ブロックの動きベクトルの候補を決定する際に、符号化対象ピクチャから表示時間的に最も近くにある既に符号化されたピクチャを参照した動きベクトルを候補として決定しているが、これに限られるものではない。例えば、フィールド符号化時に、符号化対象フィールドと同じ属性であるフィールドのうちから、符号化対象フィールドから表示時間的に最も近くにあるフィールドを参照した動きベクトルを候補として決定しても構わない。この場合、本実施の形態がまず表示順情報に基づいて候補を決定しているのに対して、まず同じ属性であるフィールドであることを優先させて候補を決定していることになる。また、復号化時の動き補償復号化部204での動作についても、同様である。   In this embodiment, at the time of encoding in the spatial direct mode, the motion compensation encoding unit 107 performs the motion of each of the three encoded blocks including the three pixels around the block to be encoded. Among the vectors, when determining motion vector candidates for the encoding target block, a motion vector that refers to an already encoded picture that is closest in display time to the encoding target picture is determined as a candidate. However, it is not limited to this. For example, at the time of field encoding, a motion vector that refers to a field that is closest to the encoding target field in terms of display time from among the fields having the same attributes as the encoding target field may be determined as a candidate. In this case, the present embodiment first determines candidates based on the display order information, but first determines the candidates by giving priority to fields having the same attributes. The same applies to the operation of the motion compensation decoding unit 204 at the time of decoding.

また、本実施の形態においては、各ピクチャは、フレーム構造またはフィールド構造のいずれかを用いて適応的に符号化、復号化処理されるとして説明したが、これは例えばブロック単位でフレーム構造またはフィールド構造のいずれかを用いて適応的に符号化、復号化処理されるとしても、本発明と同様の処理により実施することが可能であり、同様の効果が得られる。   In the present embodiment, each picture has been described as being adaptively encoded and decoded using either a frame structure or a field structure. Even if encoding or decoding processing is adaptively performed using any of the structures, it can be performed by processing similar to the present invention, and the same effect can be obtained.

また、本実施の形態においては、Pピクチャは前方1方向のピクチャを参照して処理され、Bピクチャは前方および後方の2方向のピクチャを参照して処理されるピクチャとして説明したが、これらのPピクチャは後方1方向のピクチャを参照して処理され、Bピクチャは前方2方向または後方2方向のピクチャを参照して処理されるとしても、同様の効果が得られる。   In the present embodiment, the P picture has been described as a picture that is processed with reference to a picture in one front direction, and the B picture has been described as a picture that is processed with reference to two pictures in the front and rear directions. Even if the P picture is processed with reference to a picture in one backward direction and the B picture is processed with reference to a picture in two forward or two backward directions, the same effect can be obtained.

なお、本発明の実施の形態における表示順情報は、表示の順番に限定されるものではなく、実際の表示時間や、表示時間の値が大きくなるのに伴って値が大きくなる所定のピクチャを基準とした各ピクチャの相対順序であっても良い。   Note that the display order information in the embodiment of the present invention is not limited to the display order, but the actual display time or a predetermined picture whose value increases as the display time value increases. The relative order of each picture as a reference may be used.

(実施の形態2)
さらに、上記実施の形態1で示した画像符号化方法または画像復号化方法の構成を実現するためのプログラムを、フレキシブルディスク等の記憶媒体に記録するようにすることにより、上記実施の形態1で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
(Embodiment 2)
Further, the program for realizing the configuration of the image encoding method or the image decoding method shown in the first embodiment is recorded on a storage medium such as a flexible disk, so that the first embodiment can be used. The illustrated processing can be easily performed in an independent computer system.

図12は、上記実施の形態1の画像符号化方法または画像復号化方法を格納したフレキシブルディスクを用いて、コンピュータシステムにより実施する場合の説明図である。
図12(b)は、フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスクを示し、図12(a)は、記録媒体本体であるフレキシブルディスクの物理フォーマットの例を示している。フレキシブルディスクFDはケースF内に内蔵され、該ディスクの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックは角度方向に16のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスクでは、上記フレキシブルディスクFD上に割り当てられた領域に、上記プログラムとしての画像符号化方法が記録されている。
FIG. 12 is an explanatory diagram in the case of implementing by a computer system using a flexible disk storing the image encoding method or image decoding method of the first embodiment.
FIG. 12B shows an appearance, a cross-sectional structure, and a flexible disk as seen from the front of the flexible disk, and FIG. 12A shows an example of a physical format of the flexible disk that is a recording medium body. The flexible disk FD is built in the case F, and on the surface of the disk, a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery, and each track is divided into 16 sectors Se in the angular direction. ing. Therefore, in the flexible disk storing the program, an image encoding method as the program is recorded in an area allocated on the flexible disk FD.

また、図12(c)は、フレキシブルディスクFDに上記プログラムの記録再生を行うための構成を示す。上記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムとしての画像符号化方法または画像復号化方法をフレキシブルディスクドライブを介して書き込む。また、フレキシブルディスク内のプログラムにより上記画像符号化方法をコンピュータシステム中に構築する場合は、フレキシブルディスクドライブによりプログラムをフレキシブルディスクから読み出し、コンピュータシステムに転送する。   FIG. 12C shows a configuration for recording and reproducing the program on the flexible disk FD. When recording the program on the flexible disk FD, the image encoding method or the image decoding method as the program is written from the computer system Cs via the flexible disk drive. When the image encoding method is built in a computer system by a program in a flexible disk, the program is read from the flexible disk by a flexible disk drive and transferred to the computer system.

なお、上記説明では、記録媒体としてフレキシブルディスクを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
さらにここで、上記実施の形態で示した動画像符号化方法や動画像復号化方法の応用例とそれを用いたシステムを説明する。
In the above description, a flexible disk is used as the recording medium, but the same can be done using an optical disk. Further, the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette capable of recording a program can be similarly implemented.
Furthermore, application examples of the moving picture coding method and the moving picture decoding method shown in the above embodiment and a system using the same will be described.

図13は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex107〜ex110が設置されている。
このコンテンツ供給システムex100は、例えば、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex107〜ex110を介して、コンピュータex111、PDA(personal digital assistant)ex112、カメラex113、携帯電話ex114、カメラ付きの携帯電話ex115などの各機器が接続される。
FIG. 13 is a block diagram showing an overall configuration of a content supply system ex100 that implements a content distribution service. The communication service providing area is divided into desired sizes, and base stations ex107 to ex110, which are fixed radio stations, are installed in each cell.
The content supply system ex100 includes, for example, a computer ex111, a PDA (personal digital assistant) ex112, a camera ex113, a mobile phone ex114, a camera via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex107 to ex110. Each device such as the attached mobile phone ex115 is connected.

しかし、コンテンツ供給システムex100は図13のような組合せに限定されず、いずれかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex107〜ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。
カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器である。また、携帯電話は、PDC(Personal Digital Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband-Code Division Multiple Access)方式、若しくはGSM(Global System for Mobile Communications)方式の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
However, the content supply system ex100 is not limited to the combination as shown in FIG. 13, and any of the combinations may be connected. Further, each device may be directly connected to the telephone network ex104 without going through the base stations ex107 to ex110 which are fixed wireless stations.
The camera ex113 is a device capable of shooting a moving image such as a digital video camera. The mobile phone is a PDC (Personal Digital Communications) system, a CDMA (Code Division Multiple Access) system, a W-CDMA (Wideband-Code Division Multiple Access) system, or a GSM (Global System for Mobile Communications) system mobile phone, Alternatively, PHS (Personal Handyphone System) or the like may be used.

また、ストリーミングサーバex103は、カメラex113から基地局ex109、電話網ex104を通じて接続されており、カメラex113を用いてユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる。撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするサーバ等で行ってもよい。また、カメラex116で撮影した動画データはコンピュータex111を介してストリーミングサーバex103に送信されてもよい。カメラex116はデジタルカメラ等の静止画、動画が撮影可能な機器である。この場合、動画データの符号化はカメラex116で行ってもコンピュータex111で行ってもどちらでもよい。また、符号化処理はコンピュータex111やカメラex116が有するLSIex117において処理することになる。なお、動画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な記録媒体である何らかの蓄積メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込んでもよい。さらに、カメラ付きの携帯電話ex115で動画データを送信してもよい。このときの動画データは携帯電話ex115が有するLSIで符号化処理されたデータである。   In addition, the streaming server ex103 is connected from the camera ex113 through the base station ex109 and the telephone network ex104, and live distribution or the like based on the encoded data transmitted by the user using the camera ex113 becomes possible. The encoded processing of the captured data may be performed by the camera ex113 or may be performed by a server or the like that performs data transmission processing. Further, the moving image data shot by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111. The camera ex116 is a device that can shoot still images and moving images, such as a digital camera. In this case, the encoding of the moving image data may be performed by the camera ex116 or the computer ex111. The encoding process is performed in the LSI ex117 included in the computer ex111 and the camera ex116. Note that moving image encoding / decoding software may be incorporated in any storage medium (CD-ROM, flexible disk, hard disk, or the like) that is a recording medium readable by the computer ex111 or the like. Furthermore, you may transmit moving image data with the mobile telephone ex115 with a camera. The moving image data at this time is data encoded by the LSI included in the mobile phone ex115.

このコンテンツ供給システムex100では、ユーザがカメラex113、カメラex116等で撮影しているコンテンツ(例えば、音楽ライブを撮影した映像等)を上記実施の形態同様に符号化処理してストリーミングサーバex103に送信する一方で、ストリーミングサーバex103は要求のあったクライアントに対して上記コンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114等がある。このようにすることでコンテンツ供給システムex100は、符号化されたデータをクライアントにおいて受信して再生することができ、さらにクライアントにおいてリアルタイムで受信して復号化し、再生することにより、個人放送をも実現可能になるシステムである。   In this content supply system ex100, the content (for example, video shot of music live) captured by the user with the camera ex113, camera ex116, etc. is encoded and transmitted to the streaming server ex103 as in the above embodiment. On the other hand, the streaming server ex103 distributes the content data to the requested client. Examples of the client include a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114, and the like that can decode the encoded data. In this way, the content supply system ex100 can receive and reproduce the encoded data at the client, and also realize personal broadcasting by receiving, decoding, and reproducing in real time at the client. It is a system that becomes possible.

このシステムを構成する各機器の符号化、復号化には上記各実施の形態で示した動画像符号化装置あるいは動画像復号化装置を用いるようにすればよい。
その一例として携帯電話について説明する。
図14は、上記実施の形態で説明した動画像符号化方法と動画像復号化方法を用いた携帯電話ex115を示す図である。携帯電話ex115は、基地局ex110との間で電波を送受信するためのアンテナex201、CCDカメラ等の映像、静止画を撮ることが可能なカメラ部ex203、カメラ部ex203で撮影した映像、アンテナex201で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex202、操作キーex204群から構成される本体部、音声出力をするためのスピーカ等の音声出力部ex208、音声入力をするためのマイク等の音声入力部ex205、撮影した動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静止画のデータ等、符号化されたデータまたは復号化されたデータを保存するための記録メディアex207、携帯電話ex115に記録メディアex207を装着可能とするためのスロット部ex206を有している。記録メディアex207はSDカード等のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものである。
For the encoding and decoding of each device constituting this system, the moving image encoding device or the moving image decoding device described in the above embodiments may be used.
A mobile phone will be described as an example.
FIG. 14 is a diagram illustrating the mobile phone ex115 that uses the moving picture coding method and the moving picture decoding method described in the above embodiment. The cellular phone ex115 includes an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a camera such as a CCD camera, a camera unit ex203 capable of taking a still image, a video shot by the camera unit ex203, and an antenna ex201. A display unit ex202 such as a liquid crystal display that displays data obtained by decoding received video and the like, a main body unit composed of a group of operation keys ex204, an audio output unit ex208 such as a speaker for audio output, and audio input To store encoded data or decoded data such as a voice input unit ex205 such as a microphone, captured video or still image data, received mail data, video data or still image data, etc. Recording medium ex207, and slot portion ex20 for enabling recording medium ex207 to be attached to mobile phone ex115 The it has. The recording medium ex207 stores a flash memory element which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory) which is a nonvolatile memory that can be electrically rewritten and erased in a plastic case such as an SD card.

さらに、携帯電話ex115について図15を用いて説明する。携帯電話ex115は表示部ex202及び操作キーex204を備えた本体部の各部を統括的に制御するようになされた主制御部ex311に対して、電源回路部ex310、操作入力制御部ex304、画像符号化部ex312、カメラインターフェース部ex303、LCD(Liquid Crystal Display)制御部ex302、画像復号化部ex309、多重分離部ex308、記録再生部ex307、変復調回路部ex306及び音声処理部ex305が同期バスex313を介して互いに接続されている。   Further, the cellular phone ex115 will be described with reference to FIG. The cellular phone ex115 controls the power supply circuit ex310, the operation input control unit ex304, and the image coding for the main control unit ex311 which is configured to control the respective units of the main body unit including the display unit ex202 and the operation key ex204. Unit ex312, camera interface unit ex303, LCD (Liquid Crystal Display) control unit ex302, image decoding unit ex309, demultiplexing unit ex308, recording / reproducing unit ex307, modulation / demodulation circuit unit ex306, and audio processing unit ex305 via a synchronization bus ex313 Are connected to each other.

電源回路部ex310は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付ディジタル携帯電話ex115を動作可能な状態に起動する。
携帯電話ex115は、CPU、ROM及びRAM等でなる主制御部ex311の制御に基づいて、音声通話モード時に音声入力部ex205で集音した音声信号を音声処理部ex305によってディジタル音声データに変換し、これを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して送信する。また携帯電話機ex115は、音声通話モード時にアンテナex201で受信した受信データを増幅して周波数変換処理及びアナログディジタル変換処理を施し、変復調回路部ex306でスペクトラム逆拡散処理し、音声処理部ex305によってアナログ音声データに変換した後、これを音声出力部ex208を介して出力する。
When the end call and power key are turned on by a user operation, the power supply circuit ex310 activates the camera-equipped digital mobile phone ex115 by supplying power from the battery pack to each unit. .
The mobile phone ex115 converts the voice signal collected by the voice input unit ex205 in the voice call mode into digital voice data by the voice processing unit ex305 based on the control of the main control unit ex311 including a CPU, a ROM, a RAM, and the like. The modulation / demodulation circuit unit ex306 performs spread spectrum processing, and the transmission / reception circuit unit ex301 performs digital analog conversion processing and frequency conversion processing, and then transmits the result via the antenna ex201. In addition, the cellular phone ex115 amplifies the received data received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex306, and analog audio by the voice processing unit ex305. After the data is converted, it is output via the audio output unit ex208.

さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex204の操作によって入力された電子メールのテキストデータは操作入力制御部ex304を介して主制御部ex311に送出される。主制御部ex311は、テキストデータを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して基地局ex110へ送信する。   Further, when an e-mail is transmitted in the data communication mode, text data of the e-mail input by operating the operation key ex204 of the main body is sent to the main control unit ex311 via the operation input control unit ex304. The main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits the text data to the base station ex110 via the antenna ex201.

データ通信モード時に画像データを送信する場合、カメラ部ex203で撮像された画像データをカメラインターフェース部ex303を介して画像符号化部ex312に供給する。また、画像データを送信しない場合には、カメラ部ex203で撮像した画像データをカメラインターフェース部ex303及びLCD制御部ex302を介して表示部ex202に直接表示することも可能である。   When transmitting image data in the data communication mode, the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303. When image data is not transmitted, the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.

画像符号化部ex312は、本願発明で説明した動画像符号化装置を備えた構成であり、カメラ部ex203から供給された画像データを上記実施の形態で示した動画像符号化装置に用いた符号化方法によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex308に送出する。また、このとき同時に携帯電話機ex115は、カメラ部ex203で撮像中に音声入力部ex205で集音した音声を音声処理部ex305を介してディジタルの音声データとして多重分離部ex308に送出する。   The image encoding unit ex312 is configured to include the moving image encoding device described in the present invention, and the image data supplied from the camera unit ex203 is a code used in the moving image encoding device described in the above embodiment. The encoded image data is converted into encoded image data by compression encoding using the encoding method, and is sent to the demultiplexing unit ex308. At the same time, the cellular phone ex115 sends the sound collected by the audio input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 as digital audio data via the audio processing unit ex305.

多重分離部ex308は、画像符号化部ex312から供給された符号化画像データと音声処理部ex305から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex201を介して送信する。   The demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the multiplexed data obtained as a result is a modulation / demodulation circuit unit A spectrum spread process is performed in ex306, a digital analog conversion process and a frequency conversion process are performed in the transmission / reception circuit unit ex301, and then the signal is transmitted through the antenna ex201.

データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナex201を介して基地局ex110から受信した受信データを変復調回路部ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex308に送出する。
また、アンテナex201を介して受信された多重化データを復号化するには、多重分離部ex308は、多重化データを分離することにより画像データのビットストリームと音声データのビットストリームとに分け、同期バスex313を介して当該符号化画像データを画像復号化部ex309に供給すると共に当該音声データを音声処理部ex305に供給する。
When data of a moving image file linked to a homepage or the like is received in the data communication mode, the received data received from the base station ex110 via the antenna ex201 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex306, and the resulting multiplexing is obtained. Is sent to the demultiplexing unit ex308.
In addition, in order to decode multiplexed data received via the antenna ex201, the demultiplexing unit ex308 separates the multiplexed data into a bit stream of image data and a bit stream of audio data, and synchronizes them. The encoded image data is supplied to the image decoding unit ex309 via the bus ex313, and the audio data is supplied to the audio processing unit ex305.

次に、画像復号化部ex309は、本願発明で説明した動画像復号化装置を備えた構成であり、画像データのビットストリームを上記実施の形態で示した符号化方法に対応した復号化方法で復号化することにより再生動画像データを生成し、これをLCD制御部ex302を介して表示部ex202に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処理部ex305は、音声データをアナログ音声データに変換した後、これを音声出力部ex208に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まる音声データが再生される。   Next, the image decoding unit ex309 is configured to include the moving image decoding apparatus described in the present invention, and a bit stream of image data is decoded by a decoding method corresponding to the encoding method described in the above embodiment. Reproduction moving image data is generated by decoding, and this is supplied to the display unit ex202 via the LCD control unit ex302, thereby displaying, for example, moving image data included in the moving image file linked to the homepage. . At the same time, the audio processing unit ex305 converts the audio data into analog audio data, and then supplies the analog audio data to the audio output unit ex208. Thus, for example, the audio data included in the moving image file linked to the home page is reproduced. The

なお、上記システムの例に限られず、最近は衛星、地上波によるディジタル放送が話題となっており、図16に示すようにディジタル放送用システムにも上記実施の形態の少なくとも動画像符号化装置または動画像復号化装置のいずれかを組み込むことができる。具体的には、放送局ex409では映像情報のビットストリームが電波を介して通信または放送衛星ex410に伝送される。これを受けた放送衛星ex410は、放送用の電波を発信し、この電波を衛星放送受信設備をもつ家庭のアンテナex406で受信し、テレビ(受信機)ex401またはセットトップボックス(STB)ex407などの装置によりビットストリームを復号化してこれを再生する。また、記録媒体であるCDやDVD等の蓄積メディアex402に記録したビットストリームを読み取り、復号化する再生装置ex403にも上記実施の形態で示した動画像復号化装置を実装することが可能である。この場合、再生された映像信号はモニタex404に表示される。また、ケーブルテレビ用のケーブルex405または衛星/地上波放送のアンテナex406に接続されたセットトップボックスex407内に動画像復号化装置を実装し、これをテレビのモニタex408で再生する構成も考えられる。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでも良い。また、アンテナex411を有する車ex412で衛星ex410からまたは基地局ex107等から信号を受信し、車ex412が有するカーナビゲーションex413等の表示装置に動画を再生することも可能である。   Note that the present invention is not limited to the above-described system, and recently, digital broadcasting using satellites and terrestrial waves has become a hot topic. As shown in FIG. 16, the digital broadcasting system also includes at least the moving image encoding device of the above embodiment or Any of the video decoding devices can be incorporated. Specifically, in the broadcasting station ex409, a bit stream of video information is transmitted to a communication or broadcasting satellite ex410 via radio waves. Receiving this, the broadcasting satellite ex410 transmits a radio wave for broadcasting, and receives the radio wave with a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407. The device decodes the bitstream and reproduces it. In addition, the moving picture decoding apparatus described in the above embodiment can also be implemented in a playback apparatus ex403 that reads and decodes a bitstream recorded on a storage medium ex402 such as a CD or DVD as a recording medium. . In this case, the reproduced video signal is displayed on the monitor ex404. A configuration is also possible in which a video decoding device is mounted in a set-top box ex407 connected to a cable ex405 for cable television or an antenna ex406 for satellite / terrestrial broadcasting, and this is reproduced on a monitor ex408 on the television. At this time, the moving picture decoding apparatus may be incorporated in the television instead of the set top box. It is also possible to receive a signal from the satellite ex410 or the base station ex107 by the car ex412 having the antenna ex411 and reproduce a moving image on a display device such as the car navigation ex413 that the car ex412 has.

更に、画像信号を上記実施の形態で示した動画像符号化装置で符号化し、記録媒体に記録することもできる。具体例としては、DVDディスクex421に画像信号を記録するDVDレコーダや、ハードディスクに記録するディスクレコーダなどのレコーダex420がある。更にSDカードex422に記録することもできる。レコーダex420が上記実施の形態で示した動画像復号化装置を備えていれば、DVDディスクex421やSDカードex422に記録した画像信号を再生し、モニタex408で表示することができる。   Furthermore, the image signal can be encoded by the moving image encoding apparatus shown in the above embodiment and recorded on a recording medium. As a specific example, there is a recorder ex420 such as a DVD recorder that records an image signal on a DVD disk ex421 or a disk recorder that records on a hard disk. Further, it can be recorded on the SD card ex422. If the recorder ex420 includes the moving picture decoding apparatus shown in the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be reproduced and displayed on the monitor ex408.

なお、カーナビゲーションex413の構成は例えば図15に示す構成のうち、カメラ部ex203とカメラインターフェース部ex303、画像符号化部ex312を除いた構成が考えられ、同様なことがコンピュータex111やテレビ(受信機)ex401等でも考えられる。
また、上記携帯電話ex114等の端末は、符号化器・復号化器を両方持つ送受信型の端末の他に、符号化器のみの送信端末、復号化器のみの受信端末の3通りの実装形式が考えられる。
For example, the configuration of the car navigation ex413 in the configuration shown in FIG. 15 excluding the camera unit ex203, the camera interface unit ex303, and the image encoding unit ex312 can be considered, and the same applies to the computer ex111 and the television (receiver). ) Ex401 can also be considered.
In addition to the transmission / reception type terminal having both the encoder and the decoder, the terminal such as the mobile phone ex114 has three mounting formats: a transmitting terminal having only an encoder and a receiving terminal having only a decoder. Can be considered.

このように、上記実施の形態で示した動画像符号化方法あるいは動画像復号化方法を上述したいずれの機器・システムに用いることは可能であり、そうすることで、上記実施の形態で説明した効果を得ることができる。
また、本発明はかかる上記実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
As described above, the moving picture encoding method or the moving picture decoding method described in the above embodiment can be used in any of the above-described devices and systems, and as a result, the above-described embodiment has been described. An effect can be obtained.
In addition, the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the present invention.

以上のように、本発明に係る動画像符号化方法および動画像復号化方法は、例えば携帯電話、DVD装置、およびパーソナルコンピュータ等で、動画像を構成する各ピクチャを符号化して符号列を生成したり、生成された符号列を復号化したりするための方法として有用である。   As described above, the moving image encoding method and the moving image decoding method according to the present invention generate a code string by encoding each picture constituting a moving image by, for example, a mobile phone, a DVD device, and a personal computer. Or a method for decoding the generated code string.

本発明に係る動画像符号化装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the moving image encoder which concerns on this invention. ピクチャメモリにおけるピクチャの順序を示す説明図であり、(a) 入力された順序、(b) 並び替えられた順序を示す説明図である。It is explanatory drawing which shows the order of the picture in a picture memory, (a) The input order, (b) It is explanatory drawing which shows the rearranged order. ダイレクトモード可否判定部での方法1による符号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the determination of the encoding mode by the method 1 in a direct mode availability determination part. ダイレクトモード可否判定部での方法2による符号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the determination of the encoding mode by the method 2 in the direct mode availability determination part. ダイレクトモード可否判定部での方法3による符号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the determination of the encoding mode by the method 3 in the direct mode availability determination part. ダイレクトモード可否判定部での方法1’による符号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of determination of the encoding mode by the method 1 'in a direct mode availability determination part. 本発明に係る動画像復号化装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the moving image decoding apparatus which concerns on this invention. ダイレクトモード可否判定部での方法1による復号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of determination of the decoding mode by the method 1 in a direct mode availability determination part. ダイレクトモード可否判定部での方法2による復号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of determination of the decoding mode by the method 2 in the direct mode availability determination part. ダイレクトモード可否判定部での方法3による復号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of determination of the decoding mode by the method 3 in the direct mode availability determination part. ダイレクトモード可否判定部での方法1’による復号化モードの確定の動作を示すフロー図である。It is a flowchart which shows the operation | movement of determination of the decoding mode by the method 1 'in a direct mode availability determination part. 実施の形態1の動画像符号化方法および動画像復号化方法をコンピュータシステムにより実現するためのプログラムを格納するための記録媒体についての説明図であり、(a) 記録媒体本体であるフレキシブルディスクの物理フォーマットの例を示した説明図、(b) フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスクを示した説明図、(c) フレキシブルディスクFDに上記プログラムの記録再生を行うための構成を示した説明図である。It is explanatory drawing about the recording medium for storing the program for implement | achieving the moving image encoding method and moving image decoding method of Embodiment 1 by a computer system, (a) Of the flexible disk which is a recording medium main body An explanatory diagram showing an example of a physical format, (b) an external view from the front of the flexible disk, a sectional structure, and an explanatory diagram showing the flexible disk, and (c) a configuration for recording and reproducing the program on the flexible disk FD It is explanatory drawing which showed. コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the content supply system which implement | achieves a content delivery service. 携帯電話の一例を示す図である。It is a figure which shows an example of a mobile telephone. 携帯電話の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a mobile telephone. ディジタル放送用システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the system for digital broadcasting. 従来の動画像符号化方式における各ピクチャの予測関係を示す模式図である。It is a schematic diagram which shows the prediction relationship of each picture in the conventional moving image encoding system. 時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図である。It is a schematic diagram which shows the prediction production | generation method of the motion vector in temporal direct mode. 空間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図である。It is a schematic diagram which shows the prediction production | generation method of the motion vector in spatial direct mode. インターレース画像およびプログレッシブ画像におけるフィールドが有する表示順情報を示す模式図である。It is a schematic diagram which shows the display order information which the field in an interlace image and a progressive image has. インターレース画像での時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図である。It is a schematic diagram which shows the prediction production | generation method of the motion vector in the temporal direct mode in an interlaced image. プログレッシブ画像での時間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図である。It is a schematic diagram which shows the prediction production | generation method of the motion vector in the temporal direct mode in a progressive image. プログレッシブ画像での空間的ダイレクトモードにおける動きベクトルの予測生成方法を示す模式図である。It is a schematic diagram which shows the prediction production | generation method of the motion vector in the spatial direct mode in a progressive image.

符号の説明Explanation of symbols

101、105、203 ピクチャメモリ
102 予測残差符号化部
103 符号列生成部
104 予測残差復号化部
106 動きベクトル検出部
107 動き補償符号化部
108 動きベクトル記憶部
109 ダイレクトモード可否判定部
110 差分演算部
111 加算演算部
112、113、208 スイッチ
201 符号列解析部
202 予測残差復号化部
204 動き補償復号化部
205 動きベクトル記憶部
206 ダイレクトモード可否判定部
207 加算演算部

101, 105, 203 Picture memory 102 Prediction residual encoding unit 103 Code sequence generation unit 104 Prediction residual decoding unit 106 Motion vector detection unit 107 Motion compensation encoding unit 108 Motion vector storage unit 109 Direct mode availability determination unit 110 Difference Calculation unit 111 Addition calculation unit 112, 113, 208 Switch 201 Code sequence analysis unit 202 Prediction residual decoding unit 204 Motion compensation decoding unit 205 Motion vector storage unit 206 Direct mode availability determination unit 207 Addition calculation unit

Claims (18)

動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する方法であって、
既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、
処理対象ブロックの符号化モードを決定するモード決定ステップと、
前記モード決定ステップで決定された符号化モードが、表示時間的に近傍にある符号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する符号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、
前記スケーリング判定ステップの判定結果に基づいて、前記モード決定ステップで決定された符号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップと
を含むことを特徴とする動画像符号化方法。
A method of encoding each picture constituting a moving image with a frame structure or a field structure,
A motion vector calculating step of referring to an already encoded picture and calculating a motion vector for each block constituting the picture;
A mode determining step for determining a coding mode of the processing target block;
The reference motion vector based on the display temporal positional relationship between reference pictures, with the encoding mode determined in the mode determining step being a motion vector of an encoded picture that is close in display time as a reference motion vector Scaling that determines whether or not the motion vector of the processing target block can be predicted and generated in the encoding mode in which the motion vector of the processing target block is predicted and generated by performing the scaling process A determination step;
A motion compensation step for performing motion compensation by using the coding mode determined in the mode determination step as it is or after updating based on the determination result in the scaling determination step. Method.
前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが有する表示順情報が同じ場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する
ことを特徴とする請求項1記載の動画像符号化方法。
In the scaling determination step, when the display order information of the two pictures referred to in the scaling process is the same, it is determined that the motion vector of the processing target block cannot be predicted and generated by performing the scaling process The moving picture encoding method according to claim 1, wherein:
前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが、同一フレームに属するトップフィールドとボトムフィールドであり前記2つのフィールドが共に同じ表示順情報を有していた場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する
ことを特徴とする請求項1記載の動画像符号化方法。
In the scaling determination step, when the two pictures to be referred to in the scaling process are a top field and a bottom field belonging to the same frame, and both the two fields have the same display order information, the scaling process is performed. The moving image encoding method according to claim 1, wherein it is determined that the motion vector of the processing target block cannot be predicted and generated.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記動きベクトル算出ステップで算出した当該処理対象ブロックの動きベクトルを用いて符号化する符号化モードに変更して動き補償を行う
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の動画像符号化方法。
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, encoding is performed using the motion vector of the processing target block calculated in the motion vector calculation step. The moving image encoding method according to claim 1, wherein motion compensation is performed by changing to a mode.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルをあらかじめ設定された所定の値のベクトルとして、前記モード決定ステップで決定された符号化モードを用いて動き補償を行う
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の動画像符号化方法。
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the motion vector generated by the prediction of the processing target block is performed without performing the scaling process. The moving image according to any one of claims 1 to 3, wherein motion compensation is performed using a coding mode determined in the mode determination step as a vector of a predetermined value set in advance. Image coding method.
前記所定のベクトルの少なくとも1つは0ベクトルであり、
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルの少なくとも1つを0ベクトルとして、前記モード決定ステップで決定された符号化モードを用いて動き補償を行う
ことを特徴とする請求項5記載の動画像符号化方法。
At least one of the predetermined vectors is a zero vector;
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the prediction of the motion vector generated by the prediction of the processing target block is performed without performing the scaling process. 6. The moving picture coding method according to claim 5, wherein motion compensation is performed using at least one of the 0 vectors as a coding mode determined in the mode determination step.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ブロックの空間的周辺に位置する既に符号化されたブロックの有する動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測して生成し符号化する符号化モードに変更して動き補償を行う
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の動画像符号化方法。
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the motion compensation step is based on a motion vector of an already encoded block located in the spatial periphery of the processing target block. 4. The moving image according to claim 1, wherein the motion compensation is performed by changing to an encoding mode in which a motion vector of the processing target block is predicted, generated, and encoded. Image coding method.
動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する方法であって、
既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出ステップと、
処理対象ブロックの復号化モードを抽出するモード抽出ステップと、
前記モード抽出ステップで抽出された復号化モードが、表示時間的に近傍にある復号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する復号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定ステップと、
前記スケーリング判定ステップの判定結果に基づいて、前記モード抽出ステップで抽出された復号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償ステップと
を含むことを特徴とする動画像復号化方法。
A method of decoding each picture constituting a moving image by a frame structure or a field structure,
A motion vector calculating step of referring to an already decoded picture and calculating a motion vector for each block constituting the picture;
A mode extraction step of extracting a decoding mode of the processing target block;
The reference motion vector based on the display temporal positional relationship between reference pictures, with the decoding mode extracted in the mode extraction step being a motion vector of a decoded picture that is close in display time as a reference motion vector Scaling that determines whether the motion vector of the processing target block can be predicted and generated in the decoding mode in which the motion vector of the processing target block is predicted and generated by performing the scaling processing of A determination step;
A motion compensation step for performing motion compensation by using the decoding mode extracted in the mode extraction step as it is or after updating based on the determination result of the scaling determination step. Method.
前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが有する表示順情報が同じ場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する
ことを特徴とする請求項8記載の動画像復号化方法。
In the scaling determination step, when the display order information of the two pictures referred to in the scaling process is the same, it is determined that the motion vector of the processing target block cannot be predicted and generated by performing the scaling process The moving picture decoding method according to claim 8, wherein:
前記スケーリング判定ステップでは、前記スケーリング処理で参照する2つのピクチャが、同一フレームに属するトップフィールドとボトムフィールドであり前記2つのフィールドが共に同じ表示順情報を有していた場合に、前記スケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成することができないと判定する
ことを特徴とする請求項8記載の動画像復号化方法。
In the scaling determination step, when the two pictures to be referred to in the scaling process are a top field and a bottom field belonging to the same frame, and both the two fields have the same display order information, the scaling process is performed. 9. The moving picture decoding method according to claim 8, wherein it is determined that the motion vector of the processing target block cannot be predicted and generated by performing.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記動きベクトル算出ステップで算出した当該処理対象ブロックの動きベクトルを用いて復号化する復号化モードに変更して動き補償を行う
ことを特徴とする請求項8〜請求項10のいずれか1項に記載の動画像復号化方法。
In the motion compensation step, decoding is performed using the motion vector of the processing target block calculated in the motion vector calculation step when it is determined in the scaling determination step that the motion vector cannot be generated. The moving image decoding method according to claim 8, wherein motion compensation is performed by changing to a mode.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルをあらかじめ設定された所定の値のベクトルとして、前記モード抽出ステップで抽出された復号化モードを用いて動き補償を行う
ことを特徴とする請求項8〜請求項10のいずれか1項に記載の動画像復号化方法。
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the motion vector generated by the prediction of the processing target block is performed without performing the scaling process. The motion compensation according to any one of claims 8 to 10, wherein motion compensation is performed using a decoding mode extracted in the mode extraction step as a vector of a predetermined value set in advance. Image decoding method.
前記所定のベクトルの少なくとも1つは0ベクトルであり、
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、前記スケーリング処理を行わずに、当該処理対象ブロックの前記予測して生成される動きベクトルの少なくとも1つを0ベクトルとして、前記モード抽出ステップで抽出された復号化モードを用いて動き補償を行う
ことを特徴とする請求項12記載の動画像復号化方法。
At least one of the predetermined vectors is a zero vector;
In the motion compensation step, when it is determined that the motion vector cannot be generated in the scaling determination step, the prediction of the motion vector generated by the prediction of the processing target block is performed without performing the scaling process. The moving picture decoding method according to claim 12, wherein motion compensation is performed using at least one of the 0 vectors as a decoding mode extracted in the mode extraction step.
前記動き補償ステップでは、前記スケーリング判定ステップで前記動きベクトルを生成することができないと判定された場合に、当該処理対象ブロックの空間的周辺に位置する既に復号化されたブロックの有する動きベクトルに基づいて、当該処理対象ブロックの動きベクトルを予測して生成し復号化する復号化モードに変更して動き補償を行う
ことを特徴とする請求項8〜請求項10のいずれか1項に記載の動画像復号化方法。
In the motion compensation step, when it is determined in the scaling determination step that the motion vector cannot be generated, the motion compensation step is based on a motion vector of an already decoded block located in the spatial periphery of the processing target block. 11. The moving image according to claim 8, wherein motion compensation is performed by changing to a decoding mode for predicting, generating, and decoding a motion vector of the processing target block. Image decoding method.
動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化する動画像符号化装置であって、
既に符号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出手段と、
処理対象ブロックの符号化モードを決定するモード決定手段と、
前記モード決定手段で決定された符号化モードが、表示時間的に近傍にある符号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する符号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定手段と、
前記スケーリング判定手段の判定結果に基づいて、前記モード決定手段で決定された符号化モードをそのままもしくは更新して使用することにより動き補償を行う動き補償手段と
を備えることを特徴とする動画像符号化装置。
A moving picture coding apparatus for coding each picture constituting a moving picture with a frame structure or a field structure,
Motion vector calculation means for referring to an already encoded picture and calculating a motion vector for each block constituting the picture;
Mode determining means for determining the encoding mode of the processing target block;
The reference motion vector based on the display temporal positional relationship between reference pictures, with the encoding mode determined by the mode determining means being a motion vector of an encoded picture that is close in display time as a reference motion vector Scaling that determines whether or not the motion vector of the processing target block can be predicted and generated in the encoding mode in which the motion vector of the processing target block is predicted and generated by performing the scaling process A determination means;
And a motion compensation unit that performs motion compensation by using the coding mode determined by the mode determination unit as it is or after updating based on the determination result of the scaling determination unit. Device.
動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化する動画像復号化装置であって、
既に復号化されたピクチャを参照して、ピクチャを構成するブロックごとに動きベクトルを算出する動きベクトル算出手段と、
処理対象ブロックの復号化モードを抽出するモード抽出手段と、
前記モード抽出手段で抽出された復号化モードが、表示時間的に近傍にある復号化済みピクチャの有する動きベクトルを参照動きベクトルとして、参照ピクチャ間の表示時間的位置関係に基づいて前記参照動きベクトルのスケーリング処理を行うことによって当該処理対象ブロックの動きベクトルを予測して生成する復号化モードである場合、当該処理対象ブロックの動きベクトルを予測して生成することができるか否かを判定するスケーリング判定手段と、
前記スケーリング判定手段の判定結果に基づいて、前記モード抽出手段で抽出された復号化モードを用いて動き補償を行う動き補償手段と
を備えることを特徴とする動画像復号化装置。
A moving picture decoding apparatus for decoding each picture constituting a moving picture with a frame structure or a field structure,
Motion vector calculating means for calculating a motion vector for each block constituting the picture with reference to the already decoded picture;
Mode extraction means for extracting the decoding mode of the block to be processed;
The reference motion vector based on the display temporal positional relationship between reference pictures, with the decoding mode extracted by the mode extraction means as a reference motion vector that is a motion vector of a decoded picture that is close in display time Scaling that determines whether the motion vector of the processing target block can be predicted and generated in the decoding mode in which the motion vector of the processing target block is predicted and generated by performing the scaling processing of A determination means;
A moving picture decoding apparatus comprising: motion compensation means for performing motion compensation using the decoding mode extracted by the mode extraction means based on the determination result of the scaling determination means.
動画像を構成する各ピクチャをフレーム構造またはフィールド構造により符号化するためのプログラムであって、
請求項1〜請求項7のいずれか1項に記載の動画像符号化方法に含まれるステップをコンピュータに実行させる
ことを特徴とするプログラム。
A program for encoding each picture constituting a moving image with a frame structure or a field structure,
A program that causes a computer to execute the steps included in the moving picture encoding method according to claim 1.
動画像を構成する各ピクチャをフレーム構造またはフィールド構造により復号化するためのプログラムであって、
請求項8〜請求項14のいずれか1項に記載の動画像復号化方法に含まれるステップをコンピュータに実行させる
ことを特徴とするプログラム。

A program for decoding each picture constituting a moving image by a frame structure or a field structure,
A program for causing a computer to execute the steps included in the moving picture decoding method according to any one of claims 8 to 14.

JP2003343325A 2002-11-01 2003-10-01 Video encoding method and video decoding method Expired - Lifetime JP3878591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003343325A JP3878591B2 (en) 2002-11-01 2003-10-01 Video encoding method and video decoding method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002320458 2002-11-01
JP2002344580 2002-11-27
JP2002370600 2002-12-20
JP2003343325A JP3878591B2 (en) 2002-11-01 2003-10-01 Video encoding method and video decoding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006272296A Division JP3884472B2 (en) 2002-11-01 2006-10-03 Video encoding method and video decoding method

Publications (2)

Publication Number Publication Date
JP2004215229A true JP2004215229A (en) 2004-07-29
JP3878591B2 JP3878591B2 (en) 2007-02-07

Family

ID=32831014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003343325A Expired - Lifetime JP3878591B2 (en) 2002-11-01 2003-10-01 Video encoding method and video decoding method

Country Status (1)

Country Link
JP (1) JP3878591B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007504760A (en) * 2003-09-07 2007-03-01 マイクロソフト コーポレーション Innovations in encoding and decoding macroblocks and motion information for interlaced and progressive video
JP2007251497A (en) * 2006-03-15 2007-09-27 Fujitsu Ltd Method, device, and program for encoding moving picture
JP2009055519A (en) * 2007-08-29 2009-03-12 Sony Corp Encoding processing apparatus, encoding processing method, decoding processing apparatus, and decoding processing method
JP2009522978A (en) * 2006-01-09 2009-06-11 エルジー エレクトロニクス インコーポレイティド Interlayer prediction method for video signals
US7924920B2 (en) 2003-09-07 2011-04-12 Microsoft Corporation Motion vector coding and decoding in interlaced frame coded pictures
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
WO2012096164A1 (en) * 2011-01-12 2012-07-19 パナソニック株式会社 Image encoding method, image decoding method, image encoding device, and image decoding device
US8270492B2 (en) 2006-05-12 2012-09-18 Panasonic Corporation Moving picture decoding device
CN103039076A (en) * 2010-09-24 2013-04-10 松下电器产业株式会社 Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus
JP2013236370A (en) * 2012-05-02 2013-11-21 Panasonic Corp Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus
US8687697B2 (en) 2003-07-18 2014-04-01 Microsoft Corporation Coding of motion vector information

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9148668B2 (en) 2003-07-18 2015-09-29 Microsoft Technology Licensing, Llc Coding of motion vector information
US8917768B2 (en) 2003-07-18 2014-12-23 Microsoft Corporation Coding of motion vector information
US8687697B2 (en) 2003-07-18 2014-04-01 Microsoft Corporation Coding of motion vector information
JP4921971B2 (en) * 2003-09-07 2012-04-25 マイクロソフト コーポレーション Innovations in encoding and decoding macroblocks and motion information for interlaced and progressive video
US8625669B2 (en) 2003-09-07 2014-01-07 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
JP2007504760A (en) * 2003-09-07 2007-03-01 マイクロソフト コーポレーション Innovations in encoding and decoding macroblocks and motion information for interlaced and progressive video
US7924920B2 (en) 2003-09-07 2011-04-12 Microsoft Corporation Motion vector coding and decoding in interlaced frame coded pictures
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US8494042B2 (en) 2006-01-09 2013-07-23 Lg Electronics Inc. Inter-layer prediction method for video signal
US8457201B2 (en) 2006-01-09 2013-06-04 Lg Electronics Inc. Inter-layer prediction method for video signal
US9497453B2 (en) 2006-01-09 2016-11-15 Lg Electronics Inc. Inter-layer prediction method for video signal
US8264968B2 (en) 2006-01-09 2012-09-11 Lg Electronics Inc. Inter-layer prediction method for video signal
US8792554B2 (en) 2006-01-09 2014-07-29 Lg Electronics Inc. Inter-layer prediction method for video signal
US8345755B2 (en) 2006-01-09 2013-01-01 Lg Electronics, Inc. Inter-layer prediction method for video signal
JP2009522978A (en) * 2006-01-09 2009-06-11 エルジー エレクトロニクス インコーポレイティド Interlayer prediction method for video signals
US8401091B2 (en) 2006-01-09 2013-03-19 Lg Electronics Inc. Inter-layer prediction method for video signal
JP2009522983A (en) * 2006-01-09 2009-06-11 エルジー エレクトロニクス インコーポレイティド Video signal encoding / decoding method
US8619872B2 (en) 2006-01-09 2013-12-31 Lg Electronics, Inc. Inter-layer prediction method for video signal
US8494060B2 (en) 2006-01-09 2013-07-23 Lg Electronics Inc. Inter-layer prediction method for video signal
JP4527677B2 (en) * 2006-03-15 2010-08-18 富士通株式会社 Moving picture coding method, moving picture coding apparatus, moving picture coding program
JP2007251497A (en) * 2006-03-15 2007-09-27 Fujitsu Ltd Method, device, and program for encoding moving picture
US8144776B2 (en) 2006-03-15 2012-03-27 Fujitsu Limited Direct mode video coding using variable selection criterion
US8270492B2 (en) 2006-05-12 2012-09-18 Panasonic Corporation Moving picture decoding device
JP2009055519A (en) * 2007-08-29 2009-03-12 Sony Corp Encoding processing apparatus, encoding processing method, decoding processing apparatus, and decoding processing method
US8379726B2 (en) 2007-08-29 2013-02-19 Sony Corporation Coding apparatus, coding method, decoding apparatus, and decoding method
CN103039076A (en) * 2010-09-24 2013-04-10 松下电器产业株式会社 Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus
CN103039076B (en) * 2010-09-24 2016-03-16 松下电器(美国)知识产权公司 Method for encoding images, picture decoding method, picture coding device and picture decoding apparatus
US9392298B2 (en) 2010-09-24 2016-07-12 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US9621915B2 (en) 2010-09-24 2017-04-11 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US9930334B2 (en) 2010-09-24 2018-03-27 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US10298926B2 (en) 2010-09-24 2019-05-21 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US10798381B2 (en) 2010-09-24 2020-10-06 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US11166018B2 (en) 2010-09-24 2021-11-02 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US11895293B2 (en) 2010-09-24 2024-02-06 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US9300943B2 (en) 2011-01-12 2016-03-29 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
JP6004271B2 (en) * 2011-01-12 2016-10-05 サン パテント トラスト Image encoding method, image decoding method, image encoding device, and image decoding device
WO2012096164A1 (en) * 2011-01-12 2012-07-19 パナソニック株式会社 Image encoding method, image decoding method, image encoding device, and image decoding device
JP2013236370A (en) * 2012-05-02 2013-11-21 Panasonic Corp Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus

Also Published As

Publication number Publication date
JP3878591B2 (en) 2007-02-07

Similar Documents

Publication Publication Date Title
KR100967237B1 (en) Motion picture encoding method and motion picture decoding method
KR100948714B1 (en) Method for encoding and decoding of moving picture
JP4130783B2 (en) Motion vector encoding method and motion vector decoding method
KR100961313B1 (en) Moving image predicting method, moving image encoding method and device, and moving image decoding method and device
JP4672751B2 (en) Motion vector decoding method
JP3878591B2 (en) Video encoding method and video decoding method
JP2004048711A (en) Method for coding and decoding moving picture and data recording medium
JP3884472B2 (en) Video encoding method and video decoding method
JP4406239B2 (en) Motion compensation method and motion compensation device
JP2006187039A (en) Motion picture coding method and motion picture decoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060620

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20060620

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3878591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091110

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131110

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313135

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z02

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313135

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313135

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term