JP2012120108A - Interpolation image generating apparatus and program, and moving image decoding device and program - Google Patents
Interpolation image generating apparatus and program, and moving image decoding device and program Download PDFInfo
- Publication number
- JP2012120108A JP2012120108A JP2010270545A JP2010270545A JP2012120108A JP 2012120108 A JP2012120108 A JP 2012120108A JP 2010270545 A JP2010270545 A JP 2010270545A JP 2010270545 A JP2010270545 A JP 2010270545A JP 2012120108 A JP2012120108 A JP 2012120108A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vector
- accuracy
- generating
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、補間画像生成装置及びプログラム、並びに、動画像復号装置及びプログラムに関し、例えば、分散映像符号化方式(Distributed Video Coding:以下、DVC方式と呼ぶ)を用いたものに適用し得るものである。 The present invention relates to an interpolated image generation device and program, and a moving image decoding device and program, and can be applied to, for example, those using a distributed video coding method (hereinafter referred to as a DVC method). is there.
従来、動画像の符号化方式として、DVC方式がある。DVC方式では、まず、動画像における映像フレームのシーケンスを、キーフレーム(Keyフレーム)とWyner−Ziv(以下「WZ」という)フレームに分ける。そして、DVC方式では、キーフレームについては、例えば、従来のMPEGや、H.264/AVC等におけるフレーム内符号化を行う。 Conventionally, there is a DVC method as a moving image encoding method. In the DVC method, first, a sequence of video frames in a moving image is divided into a key frame (Key frame) and a Wyner-Ziv (hereinafter referred to as “WZ”) frame. In the DVC system, the key frame is, for example, conventional MPEG, H.264, or the like. Intraframe coding in H.264 / AVC or the like is performed.
また、DVC方式では、WZフレームについては、Slepian−Wolf定理及びWyner−Ziv定理等の誤り訂正符号技術を応用した符号化を行う。具体的には、WZフレームについて符号化する符号化装置側では、符号化するべき原画像に対して、Slepian−Wolf符号化処理を行う。そして、符号化データを復号する復号装置側では、復号された複数のキーフレームからキーフレーム間のWZフレームの画像を予測して、それを元にWZ復号のためのサイドインフォメーション(副次情報;Side lnformation)を生成する。そして、復号装置側では、符号化データと、サイドインフォメーションとをもとにSlepian−Wolf復号を行って、WZフレームの復号画像を得る。 In the DVC method, the WZ frame is encoded by applying an error correction code technique such as the Slepian-Wolf theorem or the Wyner-Ziv theorem. Specifically, on the side of the encoding device that encodes the WZ frame, the Slepian-Wolf encoding process is performed on the original image to be encoded. On the decoding device side that decodes the encoded data, the WZ frame image between the key frames is predicted from the decoded key frames, and side information (sub-information; sub information; WZ decoding) is based on the predicted image. Side information) is generated. Then, on the decoding device side, Slepian-Wolf decoding is performed based on the encoded data and the side information to obtain a decoded image of the WZ frame.
復号装置側で、キーフレーム間のWZフレームの画像を推定する技術としては、従来、非特許文献1の記載技術がある。非特許文献1では、WZフレームの予測画像を生成する際に、双方向動き推定(bidirectional ME)と、動き補償補間(Motion Compensated lnterpolation)を利用している。 Conventionally, as a technique for estimating a WZ frame image between key frames on the decoding device side, there is a technique described in Non-Patent Document 1. In Non-Patent Document 1, bi-directional motion estimation (bidirectional ME) and motion compensated interpolation (Motion Compensated interpolation) are used when generating a predicted image of a WZ frame.
非特許文献1における双方向動き推定では、予測対象のWZフレームから、時系列上で前後のフレームへの画像の動きベクトル(以下では、単に「ベクトル」とも呼ぶものとする)が、対称となることを仮定して、キーフレーム間の候補動きベクトルを、参照されるキーフレーム間のMAD(Mean Absolute Difference)等の基準で選択している。そして、非特許文献1の記載技術では、得られた動きベクトルを用いて、WZフレームの予測画像を生成している。 In the bi-directional motion estimation in Non-Patent Document 1, the motion vector of an image (hereinafter, also simply referred to as “vector”) from the WZ frame to be predicted to the previous and subsequent frames in time series is symmetric. Assuming this, candidate motion vectors between key frames are selected based on criteria such as MAD (Mean Absolute Difference) between referenced key frames. In the technique described in Non-Patent Document 1, a predicted image of the WZ frame is generated using the obtained motion vector.
また、非特許文献1の記載技術では、WZフレームの予測画像を生成する際に、動画像を構成する一連のフレーム(予測対象となるWZフレーム及びキーフレーム)における画素位置精度よりも詳細な画素位置精度(以下、「サブピクセル精度」ともいう)での動き推定(半画素精度動き推定)を行っている。 Further, in the technique described in Non-Patent Document 1, when generating a predicted image of a WZ frame, a pixel that is more detailed than the pixel position accuracy in a series of frames (a WZ frame and a key frame to be predicted) constituting a moving image. Motion estimation (half-pixel accuracy motion estimation) with position accuracy (hereinafter also referred to as “sub-pixel accuracy”) is performed.
非特許文献1に記載されている、動き補償予測画像生成では、キーフレーム間のベクトルとして、キーフレームにおける画素位置精度でのベクトルを探索・選択する場合でも、キーフレーム間の動きベクトルを、参照キーフレームとWZフレームとの時間間隔にスケールすると、サブピクセル精度でキーフレームを参照することが必要になる。そのため、非特許文献1の記載技術では、サブピクセル精度でのデータ処理が必要になり、処理負荷とメモリの使用量が増大する場合があった。 In motion compensated prediction image generation described in Non-Patent Document 1, reference is made to a motion vector between key frames, even when searching and selecting a vector with pixel position accuracy in a key frame as a vector between key frames. When scaling to a time interval between a key frame and a WZ frame, it is necessary to refer to the key frame with sub-pixel accuracy. For this reason, the technique described in Non-Patent Document 1 requires data processing with sub-pixel accuracy, which may increase the processing load and memory usage.
また、従来技術では、画素位置精度での参照となるよう(サブピクセル精度での動き推定処理が発生しないよう)、キーフレーム間ベクトルとして、時間間隔倍の画素位置精度よりも粗いベクトルのみを(例えば2画素間隔等で)探索・選択する方法もあるが、この場合、有効なベクトルを選択できない場合が生じ、画質が劣化してしまうという問題があった。 Further, in the prior art, only a vector coarser than the pixel position accuracy multiplied by the time interval is used as an inter-key frame vector so that the reference is made with pixel position accuracy (so that motion estimation processing with sub-pixel accuracy does not occur). There is a method of searching and selecting (for example, at intervals of two pixels). However, in this case, there is a case where an effective vector cannot be selected, and there is a problem that the image quality deteriorates.
そこで、上述のような問題点に鑑みて、動画像の時系列上で、第1の参照画像と第2の参照画像の間(例えば、キーフレーム間)を補間する補間画像(例えば、WZフレーム)を生成する処理において、処理量を低減しても、生成した画像の品質劣化を抑制することができる補間画像生成装置及びプログラム、並びに、動画像復号装置及びプログラムが望まれている。 In view of the above-described problems, an interpolated image (for example, a WZ frame) that interpolates between the first reference image and the second reference image (for example, between key frames) on the time series of moving images. ), An interpolated image generating device and program, and a moving image decoding device and program that can suppress the quality degradation of the generated image even if the processing amount is reduced are desired.
第1の本発明は、動画像の時系列上で第1の参照画像と第2の参照画像との間を補間する補間画像を生成する補間画像生成装置において、(1)上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、(2)上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、(3)上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、(4)候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、(5)上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、(6)上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段とを有することを特徴とする。 According to a first aspect of the present invention, there is provided an interpolated image generating apparatus for generating an interpolated image for interpolating between a first reference image and a second reference image on a time series of moving images. (1) Processing of the interpolated image For each unit region, motion vector candidate generation means for generating one or more candidate vectors as motion vector candidates between the first reference image and the second reference image that pass through the processing unit region; 2) For each candidate vector generated by the motion vector candidate generation means, a first reference vector scaled from the interpolated image to the first reference image, and the interpolated image to the second reference image Reference vector generation means for generating a second reference vector scaled into a vector to (3), and (3) a first reference vector and a second reference vector generated by the reference vector. (4) Reference vector accuracy adjusting means for adjusting the common pixel position accuracy common to each image constituting the moving image to generate a first accuracy adjusted reference vector and a second accuracy adjusted reference vector; A vector evaluation unit that performs evaluation using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector generated by the reference vector accuracy adjustment unit based on the candidate vector for each candidate vector; 5) vector selection means for selecting any candidate vector based on the evaluation result of the vector evaluation means; (6) a first accuracy-adjusted reference vector based on the candidate vector selected by the vector selection means; Interpolated image generating means for generating an image for each processing unit area of the interpolated image using the accuracy-adjusted reference vector of 2. To.
第2の本発明は、動画像のフレーム系列から分離したキーフレームの符号化データについて復号するキーフレーム復号手段と、上記キーフレームに係る情報から、上記フレーム系列から分離した非キーフレームについての予測画像を、動画像の時系列上で第1の参照画像と第2の参照画像との間を補間する補間画像を生成する補間画像生成装置を用いて生成する予測画像生成手段と、上記予測画像生成手段が生成した予測画像を利用して、上記非キーフレームの符号化データを復号するSlepian−Wolf復号手段とを有する動画像復号装置において、上記補間画像生成装置として、第1の本発明を用いたことを特徴とする。 According to a second aspect of the present invention, there is provided a key frame decoding means for decoding encoded data of a key frame separated from a frame sequence of a moving image, and a prediction for a non-key frame separated from the frame sequence from information relating to the key frame. Predicted image generating means for generating an image using an interpolation image generating device for generating an interpolated image for interpolating between a first reference image and a second reference image on a time series of moving images, and the predicted image In the moving picture decoding apparatus having the Slepian-Wolf decoding means for decoding the encoded data of the non-key frame using the prediction image generated by the generation means, the first aspect of the present invention is used as the interpolation image generation apparatus. It is used.
第3の本発明の補間画像生成プログラムは、動画像の時系列上で第1の参照画像と第2の参照画像との間を補間する補間画像を生成する補間画像生成装置に搭載されたコンピュータを、(1)上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、(2)上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、(3)上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、(4)候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、(5)上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、(6)上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段として機能させることを特徴とする。 A computer program installed in an interpolation image generation apparatus for generating an interpolation image for interpolating between a first reference image and a second reference image on a time series of moving images. (1) For each processing unit region of the interpolated image, one or more candidate vectors serving as motion vector candidates between the first reference image and the second reference image passing through the processing unit region (2) a first reference vector scaled to a vector from the interpolated image to the first reference image for each of the candidate vectors generated by the motion vector candidate generating unit; A reference vector generating means for generating a second reference vector scaled into a vector from the interpolated image to the second reference image; and (3) a first generated by the reference vector. The reference vector and the second reference vector are adjusted to the common pixel position accuracy common to the images constituting the moving image, and the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector are generated. A reference vector accuracy adjusting means, and (4) for each candidate vector, the first accuracy adjusted reference vector and the second accuracy adjusted reference vector generated by the reference vector accuracy adjusting means based on the candidate vector are used. Vector evaluation means for performing evaluation, (5) vector selection means for selecting one of the candidate vectors based on the evaluation result of the vector evaluation means, and (6) a first number based on the candidate vector selected by the vector selection means. An image for each processing unit area of the interpolated image is generated using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector. Characterized in that to function as an interpolation image generating means for.
第4の本発明の動画像復号プログラムは、コンピュータを、(1)動画像のフレーム系列から分離したキーフレームの符号化データについて復号するキーフレーム復号手段と、(2)上記キーフレームに係る情報から、上記フレーム系列から分離した非キーフレームについての予測画像を、動画像の時系列上で第1の参照画像と第2の参照画像との間を補間する補間画像を生成する補間画像生成装置を用いて生成する予測画像生成手段と、(3)上記予測画像生成手段が生成した予測画像を利用して、上記非キーフレームの符号化データを復号するSlepian−Wolf復号手段として機能させると共に、(4)上記補間画像生成装置として機能するプログラム部分が、(4−1)上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、(4−2)上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、(4−3)上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、当該第1の参照ベクトルを、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、(4−4)候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、(4−5)上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、(4−6)上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段とを有することを特徴とする。 A moving picture decoding program according to a fourth aspect of the present invention includes: (1) key frame decoding means for decoding encoded data of a key frame separated from a frame sequence of moving pictures; and (2) information relating to the key frame. To generate an interpolated image for interpolating between the first reference image and the second reference image, on the time series of the moving image, the predicted image for the non-key frame separated from the frame sequence (3) using the predicted image generated by the predicted image generating means, and functioning as a Slepian-Wolf decoding means for decoding the encoded data of the non-key frame, (4) The program part functioning as the interpolation image generation device is (4-1) for each processing unit area of the interpolation image, the processing unit area Motion vector candidate generation means for generating one or more candidate vectors as motion vector candidates between the first reference image and the second reference image that pass through; and (4-2) the motion vector candidate generation means. For each of the candidate vectors generated by the first reference vector scaled to a vector from the interpolated image to the first reference image, and a second scaled to a vector from the interpolated image to the second reference image. (4-3) Concerning the first reference vector and the second reference vector generated by the reference vector, the first reference vector is configured as the moving image. A reference vector that generates a first accuracy-adjusted reference vector and a second accuracy-adjusted reference vector by adjusting the common pixel position accuracy common to the images to be processed. And (4-4) for each candidate vector, the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector generated by the reference vector accuracy adjusting unit based on the candidate vector are used. (4-5) a vector selection unit for selecting any candidate vector based on the evaluation result of the vector evaluation unit, and (4-6) the vector selection unit selected. Interpolation image generation means for generating an image for each processing unit region of the interpolation image using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector based on the candidate vector, To do.
本発明によれば、動画像の時系列上で、第1の参照画像と第2の参照画像の間を補間する補間画像を生成する処理において、処理量を低減しても、生成した画像の品質劣化を抑制することができる According to the present invention, in the process of generating an interpolated image that interpolates between the first reference image and the second reference image on the time series of moving images, even if the processing amount is reduced, the generated image Can suppress quality degradation
(A)第1の実施形態
以下、本発明による補間画像生成装置及びプログラム、並びに、動画像復号装置及びプログラムの第1の実施形態を、図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, a first embodiment of an interpolated image generation apparatus and program, and a moving image decoding apparatus and program according to the present invention will be described in detail with reference to the drawings.
(A−1)第1の実施形態の構成
図2は、第1の実施形態の動画像配信システム1の全体構成を示すブロック図である。
(A-1) Configuration of the First Embodiment FIG. 2 is a block diagram showing the overall configuration of the moving image distribution system 1 of the first embodiment.
動画像配信システム1には、動画像符号化装置2及び動画像復号装置3が配置されている。
In the moving image distribution system 1, a moving image encoding device 2 and a moving
まず、動画像符号化装置2について説明する。 First, the moving image encoding device 2 will be described.
動画像符号化装置2は、Distributedエンコーダ21及びキーフレームエンコーダ22を有している。なお、動画像符号化装置2は、既存のDVC方式で動画像データの符号化データを生成する動画像符号化装置と同様の構成を適用することができるため、ここでは、詳しい説明については省略する。
The moving image encoding device 2 includes a
動画像符号化装置2では、入力動画像のフレームが、WZフレーム又はキーフレームに分類される。そして、キーフレームについては、キーフレームエンコーダ22により、所定のフレーム内符号化で符号化され、復号側(動画像復号装置3)に送信される。
In the moving image encoding device 2, the frame of the input moving image is classified into a WZ frame or a key frame. The key frame is encoded by a predetermined intra-frame encoding by the
一方、WZフレームについては、Distributedエンコーダ21により符号化され、その符号化されたデータが、復号側(動画像復号装置3)に送信される。
On the other hand, the WZ frame is encoded by the distributed
Distributedエンコーダ21は、ここでは、例えば、符号化するべきWZフレームを変換係数領域(周波数領域)に変換(DCT等)した後、変換係数領域における成分毎に、量子化し、その量子化値をビット列コードに変換し、各ビットの情報を、例えば、1フレーム分集めた情報(ビットプレーン)毎にSlepian−Wolf符号化を行い、その結果のうち、所定量のパリティビット等を符号化データとして、復号側に送信するものとする。
Here, for example, the distributed
次に、動画像復号装置3の構成について説明する。
Next, the configuration of the
動画像復号装置3は、符号化側(動画像符号化装置2)から受信した動画像データ(DVC方式を用いて符号化されたデータ)を復号する装置である。
The moving
動画像復号装置3は、Distributedデコータ31、キーフレームデコーダ32、フレームバッファ33、サイドインフォメーション生成部34、及び補間画像生成装置35を有している。なお、動画像復号装置3では、後述する補間画像生成装置35以外の構成については、既存のDVC方式により符号化された符号化データを復号する動画像復号装置と同様のものを適用することができるため詳しい説明を省略する。
The moving
動画像復号装置3は、ハードウェア的に各種回路を接続して構築されても良く、また、CPU、ROM、RAMなどを有する汎用的な装置が動画像復号プログラムを実行することで動画像復号装置としての機能を実現するように構築されても良い。いずれの構築方法を適用した場合であっても、動画像復号装置3の機能的構成は、図2で表すことができる。
The moving
Distributedデコータ31は、動画像復号装置3に入力された符号化データのうち、WZフレームの符号化データについて、サイドインフォメーション生成部34から供給されるサイドインフォメーション(WZフレームの予測画像に基づくデータ)を用いて、復号(Slepian−Wolf復号処理)を行うものである。Distributedデコータ31による復号処理には、例えば、既存のDVC方式により符号化された符号化データを復号する処理を適用することができる。
The distributed
具体的には、Distributedデコータ31は、ビットプレーンごとの符号化データ(パリティビット等)を受信すると、その符号化データと、サイドインフォメーション生成部34で生成されたサイドインフォメーションからSlepian−Wolf復号処理を行ってWZフレームの復号画像を生成する。
Specifically, when the distributed
キーフレームデコーダ32は、動画像復号装置3に入力された動画像データのうち、キーフレームの符号化データを復号して復号画像を得るものである。なお、Distributedデコータ31は、WZフレームの復号画像のデータを、フレームバッファ33に与えて記憶させるようにしても良い。
The
フレームバッファ33は、キーフレームデコーダ32が復号したキーフレームの復号画像を記憶するとともに、記憶するキーフレームの復号画像を出力するものである。
The
サイドインフォメーション生成部34は、フレームバッファ33に記憶している復号画像に基づいて、WZフレームの予測画像を生成し、その予測画像に基づくデータをサイドインフォメーションとしてDistributedデコータ31に供給する。サイドインフォメーション生成部34は、補間画像生成装置35を用いて、WZフレームの予測画像を生成する。
The side
補間画像生成装置35は、上述の通り、サイドインフォメーション生成部34において、WZフレームの予測画像の生成に用いられる装置であり、動画像における2つの参照画像が入力されると、動画像の時系列上でその2つの参照画像の間を補間する補間画像を生成するものである。補間画像生成装置35では、補間対象画像をWZフレームとし、補間対象画像の生成に際して参照する参照画像として、例えば、WZフレームの前後のキーフレームの復号画像を用いるものとする。なお、補間画像生成装置35の詳細については後述する。
As described above, the interpolated
サイドインフォメーション生成部34は、補間画像生成装置35が生成したWZフレームの予測画像(補間画像)を、そのままDistributedデコータ31に供給するようにしても良いし、Distributedデコータ31で必要とする形式(例えば、DCT変換してビットプレーンに分割した形式)に加工したものを供給するようにしても良い。なお、WZフレームの予測画像(補間画像)を、Distributedデコータ31における復号処理で必要とする形式に変換する処理は、Distributedデコータ31側で行っても良いし、サイドインフォメーション生成部34側で行っても良く、分担の仕方は限定されないものである。
The side
動画像復号装置3による復号画像の出力形式は限定されないものであり、例えば、復号画像に基づく動画像データ(例えば、MPEG形式のデータ)を出力するようにしても良いし、所定の形式の映像信号(例えば、ディスプレイに供給可能な映像信号)として出力しても良い。
The output format of the decoded image by the moving
次に、補間画像生成装置35の詳細について説明する。
Next, details of the interpolated
図1は、補間画像生成装置35の機能的構成について示したブロック図である。
FIG. 1 is a block diagram showing a functional configuration of the interpolated
補間画像生成装置35は、第1の参照画像記憶部351、第2の参照画像記憶部352、動きベクトル候補生成部353、第1の参照ベクトル精度調整部354、第2の参照ベクトル精度調整部355、動きベクトル選択部356、及び補間画像生成部357を有している。
The interpolated
補間画像生成装置35は、ハードウェア的に各種回路を接続して構築されても良く、また、CPU、ROM、RAMなどを有する汎用的な装置(動画像復号装置3内の他の構成要素と共用であっても良い)が予測画像生成プログラムを実行することで補間画像生成装置としての機能を実現するように構築されても良い。いずれの構築方法を適用した場合であっても、補間画像生成装置35の機能的構成は、図1で表すことができる。
The interpolated
第1の参照画像記憶部351と第2の参照画像記憶部352は、補間画像生成装置35がWZフレームの予測画像を生成する際に参照するキーフレームの復号画像のデータを記憶する記憶手段(メモリ)である。
The first reference
ここでは、第1の参照画像記憶部351は、補間画像生成装置35が補間画像を生成する対象のWZフレームよりも時系列上で前方(WZフレームに対して過去)のキーフレームの復号画像のデータを記憶するものとする。そして、第2の参照画像記憶部352は、補間画像生成装置35が補間画像を生成する対象のWZフレームよりも時系列上で後方(WZフレームに対して未来)のキーフレームの復号画像のデータを記憶するものとする。
Here, the first reference
ここでは、第1の参照画像記憶部351には当該WZフレームの直前のキーフレームの画像データを記憶させ、第2の参照画像記憶部352には当該WZフレームの直後のキーフレームの画像データを記憶させるものとして説明するが、参照画像として用いる画像はこれに限定されないものである。また、図1では、補間画像生成装置35内に、第1の参照画像記憶部351及び第2の参照画像記憶部352を設けて、キーフレームの画像のデータを保持しているが、これらの記憶手段を省略し、単に、フレームバッファ33内のデータを参照するだけの構成としても良い。
Here, the first reference
なお、以下では、第1の参照画像記憶部351に記憶させるキーフレームを「第1の参照画像」と呼び、第2の参照画像記憶部352に記憶させるキーフレームを「第2の参照画像」と呼ぶものとする。
Hereinafter, a key frame stored in the first reference
動きベクトル候補生成部353は、補間対象画像の処理ブロック単位(例えば、M×Nの矩形ブロック単位)に、その処理ブロックの領域を通過する第1と第2の参照画像間の動きベクトルの候補を、参照画像の画素位置精度で1つ以上生成するものである。
The motion vector
具体的には、動きベクトル候補生成部353は、補間対象画像の処理ブロック単位に、第1の参照画像から第2の参照画像へのベクトル(当該処理ブロックの領域を通過するもの)の候補を生成して、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355に供給する。
Specifically, the motion vector
第1の参照ベクトル精度調整部354は、動きベクトル候補生成部353から供給されたベクトル(参照画像間のベクトル)を、補間対象画像から第1の参照画像へのベクトルにスケールしたベクトルを生成し、さらにそのベクトルについて参照画像の画素位置精度に調整して、動きベクトル選択部356に供給する。
The first reference vector
第2の参照画像記憶部352は、動きベクトル候補生成部353から供給されたベクトル(参照画像間のベクトル)を、補間対象画像から第2の参照画像へのベクトルにスケールしたベクトルを生成し、さらにそのベクトルについて参照画像の画素位置精度に調整して、動きベクトル選択部356に供給する。
The second reference
なお、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355の処理の詳細については後述する。
Details of the processes of the first reference vector
動きベクトル選択部356は、動きベクトル候補生成部353により生成された候補のベクトルのそれぞれについて、所定の評価基準で評価して、処理ブロックごとに、補間対象画像の生成に適当なベクトルを選択する。具体的には、動きベクトル選択部356は、補間対象画像の処理ブロックごとに、第1の参照ベクトル精度調整部354から供給されたベクトルにより参照される第1の参照画像の領域の画像、及び、第2の参照ベクトル精度調整部355から供給されたベクトルにより参照される第2の参照画像の領域の画像を所定の評価基準で評価する処理を行うようにしても良い。
The motion
補間画像生成部357は、動きベクトル選択部356により選択されたベクトルと、第1及び第2の参照画像とを用いて、補間対象画像(WZフレームの予測画像)を生成する。具体的には、補間画像生成部357は、補間対象画像の処理ブロックごとに、動きベクトル選択部356により選択されたベクトルで指定される第1及び第2の参照画像の領域の画像を用いた画像が生成される。
The interpolation
(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態の動画像復号装置3における補間画像生成装置35の動作を説明する。動画像復号装置3において、補間画像生成装置35以外の動作については、既存の動画像復号処理と同様の処理を適用することができるので、詳しい説明は省略する。
(A-2) Operation of the First Embodiment Next, the operation of the interpolated
図3は、補間画像生成装置35の動作について示したフローチャートである。
FIG. 3 is a flowchart showing the operation of the interpolated
図3では、補間画像生成装置35に対して、予め、任意の補間対象画像(WZフレームの予測画像)の生成に用いる参照画像(第1及び第2の参照画像)が、サイドインフォメーション生成部34により入力設定されているものとする。そして、補間画像生成装置35では、補間対象画像の処理ブロック単位で、図3に示すフローチャートの処理が行われる。
In FIG. 3, reference images (first and second reference images) used for generating an arbitrary interpolation target image (predicted image of a WZ frame) in advance for the interpolated
まず、補間画像生成装置35では、補間対象画像に対する動きベクトルVを初期化する(例えば、零ベクトル(V=0)とする)(S101)。
First, the interpolation
次に、動きベクトル候補生成部353により、複数の動きベクトル探索戦略処理(予め定められた方式であるものとする)に基づいて、参照画像間の動きベクトル(第2から第1の参照画像への動きベクトル)の候補を順次生成して、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355に供給する(S102)。この時点では、動きベクトル候補生成部353において、参照画像間のベクトルとしては、画素位置精度よりも粗いベクトルのみとするような制限は設けないものとする。動きベクトル候補生成部353による動きベクトルの生成については、公知の種々の動画像の動きベクトルの探索処理を適用することができるため、個々の探索処理の内容については説明を省略する。
Next, based on a plurality of motion vector search strategy processes (assuming a predetermined method), a motion vector between reference images (from the second to the first reference image) is generated by the motion vector
なお、以下では、動きベクトル候補生成部353が、補間対象画像の任意の処理ブロックに対して生成したベクトル(第2から第1の参照画像への動きベクトル)の任意の候補をベクトルUと表わすものとする。
In the following, an arbitrary candidate of a vector (motion vector from the second to the first reference image) generated by the motion vector
そして、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355により、ベクトルUについて、補間対象画像からそれぞれの参照画像へのベクトルにスケールしたベクトルが生成され、さらに、それらのベクトルが、参照画像の画像位置精度に調整される(S103)。
Then, the first reference vector
以下では、第1の参照画像記憶部351がベクトルUに基づいて生成して精度調整したベクトルをベクトルV1と表わすものとする。また、第2の参照ベクトル精度調整部355が、ベクトルUに基づいて生成して精度調整したベクトルをベクトルV2と表わすものとする。ステップS103では、調整されたベクトルV1、V2を合成したベクトルが、ベクトルUとなる(U=V1−V2)ように、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355で処理されることが望ましい。
Hereinafter, a vector generated by the first reference
例えば、補間対象画像が参照画像の中間に位置する場合、参照画像間ベクトルを1/2倍にスケールしたベクトルU/2、−U/2が、第1、第2それぞれの参照画像への参照ベクトルとなり、以下の(1)式及び(2)式の様に、ベクトルの各成分の値を画素位置精度に丸めたベクトルV1、V2を求めることができる。ただし、以下の(1)式及び(2)式において、関数roundはベクトルの各成分の精度を丸める関数であるものとし、例えば、切り捨て、切り上げ、四捨五入等、U=V1−V2を満たすような様々な関数が利用可能である。また、関数roundにおける、「切り捨て」や「切り上げ」等は、補間対象画像から、ベクトルV1、V2を用いて参照画像を参照する際に、その参照画像における画素位置精度にグリッドされた位置(画素)を参照し、サブピクセル精度とならないようになされる必要がある。 For example, when the interpolation target image is located in the middle of the reference image, the vectors U / 2 and -U / 2 obtained by scaling the inter-reference image vector by 1/2 are referred to the first and second reference images, respectively. It becomes a vector, and vectors V 1 and V 2 obtained by rounding the value of each component of the vector to the pixel position accuracy can be obtained as in the following expressions (1) and (2). However, in the following formulas (1) and (2), the function round is assumed to be a function for rounding the precision of each component of the vector, and for example, round-off, round-up, round-off, etc. satisfy U = V 1 −V 2 Various functions are available. In addition, “round down”, “round up”, and the like in the function “round” are positions that are gridded to the pixel position accuracy in the reference image when referring to the reference image from the interpolation target image using the vectors V 1 and V 2. It is necessary to refer to (pixel) and avoid sub-pixel accuracy.
V1=round(U/2) …(1)
V2=round(−U/2) …(2)
図4は、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355においてベクトルV1、V2を調整する例について示した説明図である。
V 1 = round (U / 2) (1)
V 2 = round (−U / 2) (2)
FIG. 4 is an explanatory diagram showing an example in which the vectors V 1 and V 2 are adjusted in the first reference vector
図4において、ベクトルU1は、ベクトルV1の補正前のベクトルであり、ベクトルU2は、ベクトルV2の補正前のベクトルである。図4に示すようにベクトルV1、V2は、調整された結果必ずしも対称なベクトルとはならないが、これによって参照される参照画像の位置は、サブピクセル精度を必要としなくなる。 In FIG. 4, a vector U 1 is a vector before correction of the vector V 1 , and a vector U 2 is a vector before correction of the vector V 2 . As shown in FIG. 4, the vectors V 1 and V 2 are not necessarily symmetric vectors as a result of the adjustment, but the position of the reference image referenced thereby does not require subpixel accuracy.
次に、動きベクトル選択部356において、参照画像間のベクトルU(ベクトルV1、V2)を、所定の評価基準で評価する(S104)。
Next, the motion
例えば、以下の(3)式で表されるようなSAD(Sum of Absolute Difference)や、SAD等の画像の相違度基準にベクトルの大きさに関するようなペナルティ項を追加した評価方法等を用いることができる。ただし、(3)式において、Pは補間対象画像における画素位置、Σpは当該処理ブロックに関する和を表す。また、l1、l2はそれぞれ第1、第2の参照画像の画素値を表す。 For example, SAD (Sum of Absolute Difference) represented by the following formula (3), an evaluation method in which a penalty term related to the magnitude of a vector is added to the image dissimilarity criterion, such as SAD, or the like is used. Can do. However, in (3), P is the pixel position in the interpolated image, sigma p represents the sum concerning the processing block. Further, l 1 and l 2 represent pixel values of the first and second reference images, respectively.
SAD=Σp|l1(P+V1)−l2(P+V2)| …(3)
すなわち、動きベクトル選択部356において、上記の(3)式で表わされるSADを用いてベクトルUを評価した場合、評価値が小さいほど評価が良好(上位)であることになる。
SAD = Σ p | l 1 (P + V 1 ) −l 2 (P + V 2 ) | (3)
That is, when the vector U is evaluated using the SAD expressed by the above equation (3) in the motion
次に、動きベクトル選択部356では、最新に評価されたベクトルUに対する評価値が、それまでの候補の中で最小値であるか否かが判定され(S105)、最小値であると判定された場合には、ベクトルVが最新に評価されたベクトルUに更新(V=U)される(S108)。なお、ステップS108において、動きベクトル選択部356は、ベクトルVを最新に評価されたベクトルUに更新する場合には、そのベクトルUに基づくベクトルV1、V2を保持するようにしても良い。
Next, the motion
次に、補間画像生成装置35では、動きベクトル候補生成部353により、まだ動きベクトル選択部356による評価が行われていないベクトルUの有無が確認され(S106)、未評価のベクトルUがあった場合には、上述のステップS102に戻って、未評価のベクトルUについて同様の処理が行われる。
Next, in the interpolated
一方、上述のステップS106において、未評価のベクトルUがないと判定された場合(全てのベクトルUについて評価値が求められた場合)には、動きベクトル選択部356では、最終的なベクトルV(候補の中で評価値が最小となるベクトルU)と、それに対応する参照ベクトルV1、V2が求まり、選択結果となる。
On the other hand, when it is determined in step S106 that there is no unevaluated vector U (when evaluation values are obtained for all vectors U), the motion
次に、補間画像生成部357では、動きベクトル選択部356で選択されたベクトル(ベクトルV1、V2)を用いて、補間対象画像の画素Pごとに、第1及び第2の参照画像を参照しつつ画素値を決定し、補間対象画像における当該処理ブロックの画像を生成する(S107)。画素Pの画素値を求める方法は限定されないものであるが、例えば、第1及び第2の参照画像で該当する画素の平均画素値を用いたり、加重平均等を用いたりするようにしても良い。
Next, the interpolation
補間画像生成装置35では、補間対象画像の処理ブロックごとに、上述のステップS101〜S108の処理を行い、補間対象画像全体を生成し、出力する。そして、サイドインフォメーション生成部34では、補間画像生成装置35により生成された画像をWZフレームの予測画像として用いて、サイドインフォメーションを生成する。
The interpolation
(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of First Embodiment According to the first embodiment, the following effects can be achieved.
補間画像生成装置35では、動きベクトル選択部356による参照画像間ベクトル(ベクトルU)選択のための評価時、及び、補間画像生成部357による予測画像の生成時に参照される参照画像領域が、参照画像の画素位置精度に調整されている。これにより、補間画像生成装置35では、従来技術のように、参照画像間ベクトル選択のための評価時、及び、予測画像の生成時に、サブピクセル精度の画像生成処理が不要となり、補間画像の生成処理に必要な処理量やメモリ量等のリソースを低減することができる。
In the interpolated
さらに、補間画像生成装置35では、従来技術のように、参照画像間ベクトルとしてのベクトルの精度を下げてベクトル探索の選択肢を制限しなくても、上述のように、補間画像の生成処理に必要なリソースを低減するができるため、動きベクトルの推定精度が向上し、補間画像の画質を向上させることができる。
Furthermore, the interpolated
(B)第2の実施形態
以下、本発明による補間画像生成装置及びプログラム、並びに、動画像復号装置及びプログラムの第2の実施形態を、図面を参照しながら詳述する。
(B) Second Embodiment Hereinafter, a second embodiment of an interpolated image generation apparatus and program, and a moving image decoding apparatus and program according to the present invention will be described in detail with reference to the drawings.
(B−1)第2の実施形態の構成
第2の実施形態の動画像配信システム1Aの全体構成も第1の実施形態と同様に図2を用いて説明することができる。以下、第2の実施形態について、第1の実施形態との差異を説明する。
(B-1) Configuration of the Second Embodiment The overall configuration of the moving image distribution system 1A of the second embodiment can also be described using FIG. 2 as in the first embodiment. Hereinafter, the difference between the second embodiment and the first embodiment will be described.
動画像配信システム1Aでは、動画像復号装置3が動画像復号装置3Aに置き換えられている点で、第1の実施形態と異なっている。
The moving image distribution system 1A is different from the first embodiment in that the moving
また、動画像復号装置3Aでは、補間画像生成装置35が、補間画像生成装置35Aに置き換わっている点で第1の実施形態と異なっている。
Further, the moving
次に、補間画像生成装置35Aの内部構成について説明する。
Next, the internal configuration of the interpolation
図5は、第2の実施形態における補間画像生成装置35Aの機能的構成について示したブロック図である。
FIG. 5 is a block diagram illustrating a functional configuration of the interpolated
補間画像生成装置35Aでは、第1のサブピクセル生成部358及び第2のサブピクセル生成部359が追加されており、さらに、補間画像生成部357が補間画像生成部357Aに置き換わっている点で、第1の実施形態と異なっている。
In the interpolation
補間画像生成装置35Aでは、動きベクトル選択部356による、ベクトルUの評価時には、第1の実施形態と同様に、精度調整されたベクトルV1、V2が用いられる。一方、補間画像生成部357Aによる、予測画像の生成には、ベクトルV1、V2が精度調整される前のベクトルが用いられる。
In the interpolated
なお、第2の実施形態でも、上述と同様に、ベクトルV1、V2が精度調整される前のベクトルを、それぞれベクトルU1、U2と表わすものとする。 In the second embodiment as well, the vectors before the vectors V 1 and V 2 are adjusted in precision are represented as vectors U 1 and U 2 , respectively.
そして、補間画像生成部357Aは、ベクトルU1、U2を用いて予測画像を生成する際に、参照画像をサブピクセル精度で表わした画像が必要となった場合には、第1のサブピクセル生成部358又は第2のサブピクセル生成部359に、必要な領域についてサブピクセル精度の画像生成を要求する。補間画像生成部357Aの処理については、後述する動作説明において詳述する。
Then, when the predicted image is generated using the vectors U 1 and U 2 , the interpolated
第1のサブピクセル生成部358は、補間画像生成部357Aの要求に応じて、第1の参照画像について、要求された領域のサブピクセル精度の画像を生成する。第2のサブピクセル生成部359は、補間画像生成部357Aの要求に応じて、第2の参照画像について、要求された領域のサブピクセル精度の画像を生成する。
The first
第1のサブピクセル生成部358及び第2のサブピクセル生成部359において、参照画像から、サブピクセル精度の画像を生成する処理としては、既存の種々の方法が利用可能であるが、例えば、既存の補間フィルタを用いることができる。例えば、キーフレームデコーダ32で、キーフレームのサブピクセル精度の画像を生成することができる補間フィルタを備えている場合には、それを流用するようにしても良い。
In the first
(B−2)第2の実施形態の動作
次に、以上のような構成を有する第2の実施形態の動画像配信システム1Aにおける補間画像生成装置35Aの動作を説明する。
(B-2) Operation | movement of 2nd Embodiment Next, operation | movement of the interpolation
図6は、補間画像生成装置35Aの動作について示したフローチャートである。
FIG. 6 is a flowchart showing the operation of the interpolated
ステップS201〜S206、S208の動作は、それぞれ第1の実施形態における上述のステップS101〜S106、S108の動作とほぼ同様であるので詳しい説明を省略する。 Since the operations of steps S201 to S206 and S208 are substantially the same as the operations of steps S101 to S106 and S108 described above in the first embodiment, detailed description thereof will be omitted.
ただし、ステップS203(第1の実施形態における上述のステップS103に相当)において、ベクトルUを、補間対象画像からそれぞれの参照画像へのベクトルにスケールしたベクトルが生成されるが、このとき生成されるベクトルを、上述の通り、ベクトルU1、U2と表わすものとする。そして、このベクトルU1、U2が精度調整されたものが、ベクトルV1、V2となる。 However, in step S203 (corresponding to step S103 described above in the first embodiment), a vector obtained by scaling the vector U to a vector from the interpolation target image to each reference image is generated. The vectors are represented as vectors U 1 and U 2 as described above. The vectors U 1 and U 2 that have been adjusted in precision become vectors V 1 and V 2 .
そして、補間対象画像が参照画像の中間に位置する場合、ベクトルU1、U2は、参照画像間の動きベクトルUを、1/2倍にスケールしたものとなり、ベクトルU1、U2、V1、V2は、それぞれ、以下の(4)式〜(7)式のように表わすことができる。ただし、以下の(6)式、(7)式における、関数roundは、上記の(1)式、(2)式と同様のものであるので説明を省略する。 When the interpolation target image is located in the middle of the reference image, the vectors U 1 and U 2 are obtained by scaling the motion vector U between the reference images to ½ times, and the vectors U 1 , U 2 , V 1 and V 2 can be expressed by the following equations (4) to (7), respectively. However, since the function round in the following formulas (6) and (7) is the same as the above formulas (1) and (2), description thereof is omitted.
U1=U/2 …(4)
U2=−U/2 …(5)
V1=round(U1) …(6)
V2=round(U2) …(7)
そして、ステップS201〜S206、S208の処理により、動きベクトル選択部356において、ベクトルVが選択(評価値が最良となるベクトルUが選択)されると、補間画像生成部357Aは、まず、そのベクトルVに対応するベクトルU1、U2が、参照画像のサブピクセル精度で参照しているかどうかを判定する(S209)。
U 1 = U / 2 (4)
U 2 = −U / 2 (5)
V 1 = round (U 1 ) (6)
V 2 = round (U 2 ) (7)
When the motion
上述のステップS209で、ベクトルU1、U2が、参照画像をサブピクセル精度で参照していると判定された場合には、補間画像生成部357Aは、第1のサブピクセル生成部358及び又は第2のサブピクセル生成部359に、該当する領域(当該処理ブロックから、ベクトルU1、U2により参照される領域)のサブピクセル精度の画像生成を要求して取得する(S210)。第1のサブピクセル生成部358及び又は第2のサブピクセル生成部359が生成するサブピクセル精度の画像は、例えば、参照画像の画素位置精度に対して半画素の精度としてもよいし、それよりも詳細な精度としても良い。また、第1のサブピクセル生成部358及び又は第2のサブピクセル生成部359による画像生成の精度は、固定精度としなくても良い。例えば、当該処理ブロックから、ベクトルU1、U2により参照される画像の精度に応じて、画像生成する詳細度を決定するようにしても良い。
If it is determined in step S209 that the vectors U 1 and U 2 refer to the reference image with sub-pixel accuracy, the interpolated
そして、補間画像生成部357は、補間対象画像における当該処理ブロックの画像を生成する(S207)。
Then, the interpolation
上述のステップS209で、ベクトルU1、U2が、参照画像をサブピクセル精度で参照していると判定されていた場合には、補間画像生成部357は、ベクトルU1、U2と、上述のステップS210で生成したサブピクセル精度の参照画像とを用いて、補間対象画像における当該処理ブロックの画像を生成する。
If it is determined in step S209 that the vectors U 1 and U 2 refer to the reference image with sub-pixel accuracy, the interpolated
一方、上述のステップS209で、ベクトルU1、U2が、参照画像のサブピクセルを参照していないと判定された場合には、補間画像生成部357は、上述のステップS107と同様の処理により、動きベクトル選択部356で選択されたベクトル(ベクトルV1、V2)を用いて、補間対象画像における当該処理ブロックの画像を生成する。
On the other hand, when it is determined in step S209 described above that the vectors U 1 and U 2 do not refer to the sub-pixels of the reference image, the interpolated
そして、補間画像生成装置35Aでは、補間対象画像の処理ブロック単位で、上述のステップS201〜S210の処理を行い、補間対象画像の予測画像全体を生成し、出力する。そして、サイドインフォメーション生成部34では、補間画像生成装置35Aにより生成された画像を用いて、サイドインフォメーションを生成する。
Then, the interpolated
(B−3)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-3) Effects of Second Embodiment According to the second embodiment, the following effects can be achieved.
第2の実施形態では、動きベクトル選択部356による参照画像間ベクトル選択のための評価(ベクトルUの評価)については、第1の実施形態と同様の効果を奏する。
In the second embodiment, the evaluation for selecting a vector between reference images (evaluation of the vector U) by the motion
また、第2の実施形態では、補間画像生成部357Aによる補間画像の生成処理には、一部の処理ブロックについて、サブピクセル精度の参照画像及びベクトル用いるようにしたので、第1の実施形態と比較して、補間画像の画質を向上させることができる。
In the second embodiment, the interpolation image generation process by the interpolation
さらに、第2の実施形態では、第1の参照ベクトル精度調整部354及び第2の参照ベクトル精度調整部355により生成された、精度調整前のベクトル(ベクトルU1、U2)の内容に応じて、当該処理ブロックのサブピクセル精度の参照画像及びベクトルの要否を判定し、不要と判定された処理ブロックについては第1の実施形態と同様に参照画像をそのまま用いて補間画像を生成している。これにより、補間画像生成装置35Aでは、生成する補間画像の画質を、全てサブピクセル精度の参照画像を用いた処理と同程度に向上させつつ、処理量を低減することができる。
Furthermore, in the second embodiment, the first reference vector
(C)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(C) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.
(C−1)上記の各実施形態では、本発明の補間画像生成装置を、DVC方式を採用した動画像復号において、サイドインフォメーション生成のための予測画像生成に利用する場合について記述したが、本発明は、DVC方式の場合に限定されず、複数の画像からそれらの予測画像を生成するような様々な目的に利用可能である。 (C-1) In each of the above embodiments, a case has been described in which the interpolated image generation apparatus of the present invention is used for predictive image generation for side information generation in video decoding employing the DVC method. The invention is not limited to the case of the DVC system, and can be used for various purposes such as generating predicted images from a plurality of images.
(C−2)上記の各実施形態では、第1及び第2の参照画像として、キーフレームを用いる場合について説明したが、キーフレームだけでなく復号済みのWZフレームの画像を用いるようにしても良い。 (C-2) In each of the above embodiments, the case where key frames are used as the first and second reference images has been described. However, not only key frames but also decoded WZ frame images may be used. good.
(C−3)上記の各実施形態では、動きベクトルの選択について、処理ブロックごとに求める例を示したが、例えば16×16サイズの領域でベクトル候補を絞り込み、8×8サイズのベクトル候補を選択するなど、動きベクトル生成部、参照ベクトル精度調整部、動きベクトル選択部を対象領域のサイズを変えながら繰り返し使用して、得られた動きベクトルによる補間画像生成を行うような処理手順とするようにしても良い。 (C-3) In each of the above embodiments, an example of obtaining motion vectors for each processing block has been shown. However, for example, vector candidates are narrowed down in an area of 16 × 16 size, and vector candidates of 8 × 8 size are selected. The processing procedure is such that the motion vector generation unit, the reference vector accuracy adjustment unit, and the motion vector selection unit are repeatedly used while changing the size of the target region, and the interpolated image is generated using the obtained motion vector. Anyway.
(C−4)上記の各実施形態では、動画像符号化装置及び動画像復号装置におけるWZフレームの符号化単位は、1フレーム分の画像として説明したが、1フレーム分の画像を複数の処理ブロック単位(例えば、M×Nの矩形ブロック単位)に分けて符号化及び復号を行うようにしても良い。この場合、動画像復号装置において、サイドインフォメーション生成部では、補間画像生成装置が生成したWZフレームの予測画像を、処理ブロック単位に分割した画像(又は、その画像を所定の処理によりさらにビットプレーンに分割したデータ)を、Distributedデコータに与えるようにしても良い。 (C-4) In each of the above embodiments, the encoding unit of the WZ frame in the moving image encoding device and the moving image decoding device has been described as an image for one frame. Encoding and decoding may be performed in block units (for example, M × N rectangular block units). In this case, in the video decoding device, the side information generation unit generates an image obtained by dividing the predicted image of the WZ frame generated by the interpolation image generation device into processing block units (or the image is further converted into a bit plane by a predetermined process). (Divided data) may be given to the distributed decoder.
また、上記の各実施形態では、WZフレームについて変換係数領域(周波数領域)に変換して処理するものを示したが、周波数領域に変換することなく、画素領域のまま処理(符号化処理及び復号処理)するようにしても良い。例えば、画素値を量子化した後、所定のビット列コードに変換し、ビットプレーンを構成して処理するようにしても良い。例えば、WZフレームの画像を構成する画素の画素値について、最上位ビットばかりを集めたビットプレーン、2ビット目ばかりを集めたビットプレーンのように、ビットプレーンを生成して、以降の処理は、上記の各実施形態と同様の処理を適用するようにしても良い。 In each of the above embodiments, the WZ frame is converted into the transform coefficient region (frequency region) and processed. However, the pixel region is processed without being converted into the frequency region (encoding processing and decoding). Processing). For example, after quantizing the pixel value, it may be converted into a predetermined bit string code, and a bit plane may be configured and processed. For example, with respect to the pixel values of the pixels constituting the image of the WZ frame, a bit plane is generated like a bit plane in which only the most significant bits are collected, and a bit plane in which only the second bit is collected. You may make it apply the process similar to said each embodiment.
(C−5)上記の各実施形態において、符号化及び復号する処理ブロック単位と、補間画像生成装置が生成及び選択する動きベクトルの処理ブロック単位を一致させ、さらに、動画像復号装置で復号する際に、サイドインフォメーションの品質が所定以下の処理ブロックについては、当該処理ブロックについてのみ、サイドインフォメーションを再生成するようにしても良い。 (C-5) In each of the above embodiments, the processing block unit to be encoded and decoded matches the processing block unit of the motion vector generated and selected by the interpolated image generation device, and further decoded by the moving image decoding device. At this time, for a processing block whose quality of side information is not more than a predetermined value, the side information may be regenerated only for the processing block.
具体的には、Distributedデコータにおいて、WZフレームの処理ブロック単位に、上位のビットプレーンから復号を行う際に、所定以上の誤り訂正の発生した処理ブロックに係るサイドインフォメーションについて、品質が所定以下と判定するようにしても良い。例えば、Distributedデコータにおいて、誤りビットの累積数や、誤りビットの発生確率が所定以上発生した処理ブロックに係るサイドインフォメーションについては、元となる予測画像(補間画像)が、原画像と乖離していると推定される。 Specifically, in the distributed decoder, when decoding from the upper bit plane for each processing block of the WZ frame, it is determined that the quality of the side information related to the processing block in which the error correction has exceeded a predetermined level is lower than the predetermined level. You may make it do. For example, in the distributed decoder, the side prediction information (interpolated image) is different from the original image for the side information related to the processing block in which the cumulative number of error bits and the occurrence probability of error bits exceed a predetermined value. It is estimated to be.
そして、サイドインフォメーション生成部では、補間画像生成装置を用いて、品質が所定以下と判定された処理ブロックについてだけ、再度予測画像(補間画像)を生成する。補間画像生成装置では、各処理ブロックについて、当初予測画像(補間画像)を生成する際に、動きベクトル選択部で評価されたベクトルのうち、評価が上位のベクトルを予め複数保持しておき、当該処理ブロックについて、予測画像(補間画像)を再生成する際には、未選択のベクトルのうち、評価が上位のベクトルを順次使用するようにしても良い。例えば、補間画像生成装置で、当該処理ブロックについて、1回目の再生成を行う場合(すなわち、2回目の補間画像生成を行う場合)には、動きベクトル選択部で評価値が上位から2番目のベクトルを選択し、補間画像生成部でそのベクトルを用いた画像生成を行うようにしても良い。 Then, the side information generation unit generates the predicted image (interpolated image) again only for the processing block whose quality is determined to be equal to or lower than the predetermined value using the interpolation image generation device. In the interpolated image generation device, when generating an initial predicted image (interpolated image) for each processing block, among the vectors evaluated by the motion vector selection unit, a plurality of vectors having higher evaluations are held in advance, When a predicted image (interpolated image) is regenerated for a processing block, a vector having a higher evaluation among unselected vectors may be sequentially used. For example, when the interpolation image generation apparatus performs the first regeneration for the processing block (that is, when the second interpolation image generation is performed), the motion vector selection unit has the second highest evaluation value from the top. A vector may be selected, and an image generation using the vector may be performed by the interpolation image generation unit.
一つの処理ブロックについて、サイドインフォメーション生成部(補間画像生成装置)にサイドインフォメーションを再生成させる回数については限定されないものであるが、例えば、所定の回数を上限として上述の所定の品質を満たすまで再生成をさせるようにしても良い。また、当該処理ブロックについて、サイドインフォメーションを1又は複数回再生成させた結果、どのサイドインフォメーションも上述の所定の品質を満たすことができない場合には、複数のサイドインフォメーションのうち、最も品質が良いものを最終的な復号結果に使用するようにしても良い。 For one processing block, the number of times the side information generation unit (interpolated image generation device) regenerates the side information is not limited, but for example, playback is performed until the above predetermined quality is satisfied with the predetermined number of times being the upper limit. You may make it make it complete. In addition, as a result of regenerating the side information one or more times for the processing block, when none of the side information satisfies the above-mentioned predetermined quality, the one having the best quality among the plurality of side information May be used for the final decoding result.
1…動画像配信システム、2…動画像符号化装置、21…Distributedエンコーダ、22…キーフレームエンコーダ、3…動画像復号装置、31…Distributedデコータ、32…キーフレームデコーダ、33…フレームバッファ、34…サイドインフォメーション生成部、35…補間画像生成装置、351…第1の参照画像記憶部、352…第2の参照画像記憶部、353…動きベクトル候補生成部、354…第1の参照ベクトル精度調整部、355…第2の参照ベクトル精度調整部、356…動きベクトル選択部、357…補間画像生成部。
DESCRIPTION OF SYMBOLS 1 ... Moving image delivery system, 2 ... Moving image encoding device, 21 ... Distributed encoder, 22 ... Key frame encoder, 3 ... Moving image decoding device, 31 ... Distributed decoder, 32 ... Key frame decoder, 33 ... Frame buffer, 34 ... Side
Claims (6)
上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、
上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、
上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、
候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、
上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、
上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段と
を有することを特徴とする補間画像生成装置。 In an interpolated image generating apparatus for generating an interpolated image for interpolating between a first reference image and a second reference image on a time series of moving images,
Motion vector candidates for generating one or more candidate vectors as motion vector candidates between the first reference image and the second reference image that pass through the processing unit region for each processing unit region of the interpolation image Generating means;
For each of the candidate vectors generated by the motion vector candidate generation means, a first reference vector scaled to a vector from the interpolated image to the first reference image, and from the interpolated image to the second reference image Reference vector generation means for generating a second reference vector scaled into a vector;
The first reference vector and the second reference vector generated by the reference vector are adjusted to the common pixel position accuracy common to the images constituting the moving image, and the first accuracy-adjusted reference vector and the second reference vector are adjusted. Reference vector accuracy adjusting means for generating a reference vector after accuracy adjustment of
For each candidate vector, vector evaluation means for performing evaluation using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector generated by the reference vector accuracy adjustment means based on the candidate vector;
Vector selection means for selecting any candidate vector based on the evaluation result of the vector evaluation means;
Interpolated image generating means for generating an image for each processing unit region of the interpolated image using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector based on the candidate vector selected by the vector selecting means An interpolated image generating apparatus characterized by comprising:
上記第1の参照画像又は上記第2の参照画像のうち設定された領域の画像を、上記共通画素位置精度よりも詳細な画素位置精度の位置の画像を生成するサブピクセル画像生成部を備え、
上記ベクトル選択手段が、当該処理単位領域について選択した候補ベクトルに対応する第1の参照ベクトル及び又は第2の参照ベクトルが、上記共通画素位置精度よりも詳細な画素位置精度で示される場合には、上記第1の参照画像及び又は上記第2の参照画像のうち、上記第1の参照ベクトル及び又は上記第2の参照ベクトルにより参照される領域について、上記サブピクセル画像生成部を用いて生成した画像を得て、当該処理単位領域の画像生成に用いる
ことを特徴とする請求項1に記載の補間画像生成装置。 The interpolation image generation means includes
A sub-pixel image generation unit that generates an image of a set region of the first reference image or the second reference image with a pixel position accuracy that is more detailed than the common pixel position accuracy;
When the first reference vector and / or the second reference vector corresponding to the candidate vector selected for the processing unit region by the vector selection unit is indicated with a pixel position accuracy that is more detailed than the common pixel position accuracy. Of the first reference image and / or the second reference image, the region referred to by the first reference vector and / or the second reference vector is generated using the sub-pixel image generation unit. The interpolated image generation apparatus according to claim 1, wherein an image is obtained and used to generate an image of the processing unit region.
上記補間画像生成装置として、請求項1又は2に記載の補間画像生成装置を用いたこと
を特徴とする動画像復号装置。 A key frame decoding means for decoding the encoded data of the key frame separated from the frame sequence of the moving image, and a predicted image for the non-key frame separated from the frame sequence from the information related to the key frame A predicted image generated by using an interpolated image generating device that generates an interpolated image for interpolating between the first reference image and the second reference image on the sequence, and a predicted image generated by the predicted image generating unit In the video decoding device having the Slepian-Wolf decoding means for decoding the encoded data of the non-key frame using
A moving image decoding apparatus using the interpolated image generating apparatus according to claim 1 or 2 as the interpolated image generating apparatus.
上記予測画像生成手段は、上記画像評価手段により所定以下の品質と評価された低品質の処理単位領域の画像について、再度補間画像生成装置を用いて予測画像を生成し、
上記Slepian−Wolf復号手段は、上記予測画像生成手段により予測画像の再生成が行われた処理単位領域があった場合には、当該処理単位領域に対応する符号化データについては、再生成された予測画像を利用して復号し、
上記補間画像生成装置が、上記予測画像生成手段から、いずれかの処理単位領域について画像の再生成を指示された場合に、
上記ベクトル選択手段が、当該処理単位領域に係る候補ベクトルのうち、いずれかの候補ベクトルを再選択し、
上記補間画像生成手段が、再選択された候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、当該処理単位領域の画像を再生成する
ことを特徴とする請求項3に記載の動画像復号装置。 The moving image decoding apparatus further includes image evaluation means for evaluating the quality of the predicted image generated by the predicted image generation means for each processing unit region,
The predicted image generation means generates a predicted image again using an interpolation image generation device for an image of a low quality processing unit region evaluated as a predetermined quality or lower by the image evaluation means,
When there is a processing unit area in which the predicted image has been regenerated by the predicted image generating means, the above-mentioned Slepian-Wolf decoding means has regenerated the encoded data corresponding to the processing unit area. Decode using the predicted image,
When the interpolated image generation device is instructed by the predicted image generation means to regenerate an image for any processing unit region,
The vector selection means reselects one of the candidate vectors related to the processing unit region,
The interpolated image generation means regenerates an image of the processing unit region using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector based on the reselected candidate vector. The moving picture decoding apparatus according to claim 3.
上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、
上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、
上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、
候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、
上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、
上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段と
して機能させることを特徴とする補間画像生成プログラム。 A computer mounted on an interpolation image generation device that generates an interpolation image for interpolating between a first reference image and a second reference image on a time series of moving images,
Motion vector candidates for generating one or more candidate vectors as motion vector candidates between the first reference image and the second reference image that pass through the processing unit region for each processing unit region of the interpolation image Generating means;
For each of the candidate vectors generated by the motion vector candidate generation means, a first reference vector scaled to a vector from the interpolated image to the first reference image, and from the interpolated image to the second reference image Reference vector generation means for generating a second reference vector scaled into a vector;
The first reference vector and the second reference vector generated by the reference vector are adjusted to the common pixel position accuracy common to the images constituting the moving image, and the first accuracy-adjusted reference vector and the second reference vector are adjusted. Reference vector accuracy adjusting means for generating a reference vector after accuracy adjustment of
For each candidate vector, vector evaluation means for performing evaluation using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector generated by the reference vector accuracy adjustment means based on the candidate vector;
Vector selection means for selecting any candidate vector based on the evaluation result of the vector evaluation means;
Interpolated image generating means for generating an image for each processing unit region of the interpolated image using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector based on the candidate vector selected by the vector selecting means An interpolated image generation program characterized by functioning as a program.
動画像のフレーム系列から分離したキーフレームの符号化データについて復号するキーフレーム復号手段と、
上記キーフレームに係る情報から、上記フレーム系列から分離した非キーフレームについての予測画像を、動画像の時系列上で第1の参照画像と第2の参照画像との間を補間する補間画像を生成する補間画像生成装置を用いて生成する予測画像生成手段と、
上記予測画像生成手段が生成した予測画像を利用して、上記非キーフレームの符号化データを復号するSlepian−Wolf復号手段として機能させると共に、
上記補間画像生成装置として機能するプログラム部分が、
上記補間画像の処理単位領域ごとに、当該処理単位領域を通過する上記第1の参照画像と上記第2の参照画像間の動きベクトルの候補となる候補ベクトルを、1つ以上生成する動きベクトル候補生成手段と、
上記動きベクトル候補生成手段が生成した候補ベクトルのそれぞれについて、上記補間画像から上記第1の参照画像へのベクトルにスケールした第1の参照ベクトルと、上記補間画像から上記第2の参照画像へのベクトルにスケールした第2の参照ベクトルとを生成する参照ベクトル生成手段と、
上記参照ベクトルが生成した第1の参照ベクトル及び第2の参照ベクトルについて、当該第1の参照ベクトルを、上記動画像を構成する各画像で共通する共通画素位置精度に調整して、第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを生成する参照ベクトル精度調整手段と、
候補ベクトルごとに、当該候補ベクトルに基づいて上記参照ベクトル精度調整手段が生成した第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用した評価を行うベクトル評価手段と、
上記ベクトル評価手段の評価結果に基づいて、いずれかの候補ベクトルを選択するベクトル選択手段と、
上記ベクトル選択手段が選択した候補ベクトルに基づく第1の精度調整後参照ベクトル及び第2の精度調整後参照ベクトルを利用して、上記補間画像の処理単位領域ごとの画像を生成する補間画像生成手段とを有する
ことを特徴とする動画像復号プログラム。 Computer
Key frame decoding means for decoding the encoded data of the key frame separated from the frame sequence of the moving image;
An interpolated image for interpolating between the first reference image and the second reference image on the time sequence of the moving image of the predicted image for the non-key frame separated from the frame sequence from the information related to the key frame Predicted image generation means for generating using the generated interpolated image generation device;
Using the predicted image generated by the predicted image generating means, the non-keyframe encoded data is decoded and functioned as a Slepian-Wolf decoding means,
The program part that functions as the interpolation image generation device is
Motion vector candidates for generating one or more candidate vectors as motion vector candidates between the first reference image and the second reference image that pass through the processing unit region for each processing unit region of the interpolation image Generating means;
For each of the candidate vectors generated by the motion vector candidate generation means, a first reference vector scaled to a vector from the interpolated image to the first reference image, and from the interpolated image to the second reference image Reference vector generation means for generating a second reference vector scaled into a vector;
For the first reference vector and the second reference vector generated by the reference vector, the first reference vector is adjusted to a common pixel position accuracy common to each image constituting the moving image, Reference vector accuracy adjusting means for generating an accuracy adjusted reference vector and a second accuracy adjusted reference vector;
For each candidate vector, vector evaluation means for performing evaluation using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector generated by the reference vector accuracy adjustment means based on the candidate vector;
Vector selection means for selecting any candidate vector based on the evaluation result of the vector evaluation means;
Interpolated image generating means for generating an image for each processing unit region of the interpolated image using the first accuracy-adjusted reference vector and the second accuracy-adjusted reference vector based on the candidate vector selected by the vector selecting means A moving picture decoding program characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010270545A JP2012120108A (en) | 2010-12-03 | 2010-12-03 | Interpolation image generating apparatus and program, and moving image decoding device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010270545A JP2012120108A (en) | 2010-12-03 | 2010-12-03 | Interpolation image generating apparatus and program, and moving image decoding device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012120108A true JP2012120108A (en) | 2012-06-21 |
Family
ID=46502423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010270545A Pending JP2012120108A (en) | 2010-12-03 | 2010-12-03 | Interpolation image generating apparatus and program, and moving image decoding device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012120108A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014027600A (en) * | 2012-07-30 | 2014-02-06 | Oki Electric Ind Co Ltd | Moving image decoding apparatus and program, and moving image encoding system |
JP2015159442A (en) * | 2014-02-24 | 2015-09-03 | 日本放送協会 | Frame thinning-out device, frame interpolation device, a video encoding device, video decoding device and program therefor |
-
2010
- 2010-12-03 JP JP2010270545A patent/JP2012120108A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014027600A (en) * | 2012-07-30 | 2014-02-06 | Oki Electric Ind Co Ltd | Moving image decoding apparatus and program, and moving image encoding system |
US9729871B2 (en) | 2012-07-30 | 2017-08-08 | Oki Electric Industry Co., Ltd. | Video image decoding apparatus and video image encoding system |
JP2015159442A (en) * | 2014-02-24 | 2015-09-03 | 日本放送協会 | Frame thinning-out device, frame interpolation device, a video encoding device, video decoding device and program therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2608264C2 (en) | Method and device for motion vector encoding/decoding | |
JP5580453B2 (en) | Direct mode encoding and decoding apparatus | |
US11902563B2 (en) | Encoding and decoding method and device, encoder side apparatus and decoder side apparatus | |
JP5373626B2 (en) | Method, apparatus, encoder, decoder, and decoding method for estimating a motion vector using a plurality of motion vector predictors | |
JP2019115060A (en) | Encoder, encoding method, decoder, decoding method and program | |
JP5367098B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
JP5367097B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
JP5306485B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
CN111201795B (en) | Memory access window and padding for motion vector modification | |
CN111567047B (en) | Memory access window for sub-prediction block motion vector derivation | |
US20180192070A1 (en) | Method of image encoding and facility for the implementation of the method | |
CN112087628A (en) | Encoding video using two-level intra search | |
JP2012142886A (en) | Image coding device and image decoding device | |
CN108924551B (en) | Method for predicting video image coding mode and related equipment | |
KR20170126934A (en) | Content-Adaptive B-Picture Pattern Video Encoding | |
KR20050041293A (en) | Apparatus and method for estimating motion | |
JP4957780B2 (en) | Motion compensated predictive coding apparatus, motion compensated predictive coding method, and program | |
JP2012120108A (en) | Interpolation image generating apparatus and program, and moving image decoding device and program | |
JP2024508193A (en) | Decoding method, encoding method, apparatus, device and storage medium | |
JP2007110409A (en) | Image processing device and program for making computer perform image processing method | |
JP5358485B2 (en) | Image encoding device | |
JP2006324888A (en) | Dynamic-image coding equipment | |
KR101841352B1 (en) | Reference frame selection method and apparatus | |
JP4438949B2 (en) | Motion compensated predictive coding apparatus, motion compensated predictive coding method, and program | |
JP4571956B2 (en) | Scalable video encoding method, apparatus, program and recording medium |