JP4628374B2 - Encoding device and program - Google Patents

Encoding device and program Download PDF

Info

Publication number
JP4628374B2
JP4628374B2 JP2007009052A JP2007009052A JP4628374B2 JP 4628374 B2 JP4628374 B2 JP 4628374B2 JP 2007009052 A JP2007009052 A JP 2007009052A JP 2007009052 A JP2007009052 A JP 2007009052A JP 4628374 B2 JP4628374 B2 JP 4628374B2
Authority
JP
Japan
Prior art keywords
frame
pixel
pixel value
frames
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007009052A
Other languages
Japanese (ja)
Other versions
JP2008177834A (en
Inventor
慎一 境田
和久 井口
清一 合志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2007009052A priority Critical patent/JP4628374B2/en
Publication of JP2008177834A publication Critical patent/JP2008177834A/en
Application granted granted Critical
Publication of JP4628374B2 publication Critical patent/JP4628374B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、符号化装置、及びプログラムに関する。   The present invention relates to an encoding device and a program.

動画像データの情報量を圧縮するための符号化技術として、ISO(International Organization for Standardization)/IEC(International Electrotechnical Commission) JTC1/SC29/WG11(MPEG)で規格化されたMPEG−2方式(例えば、非特許文献1参照。)や、MPEGとITU−T(International Telecommunication Union Telecommunication Standardization Sector)で規格化されたH.264/MPEG−4 AVC(Advanced Video Coding)方式(例えば、非特許文献2参照。)が知られている。   As an encoding technique for compressing the information amount of moving image data, an MPEG-2 system (for example, standardized by ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) JTC1 / SC29 / WG11 (MPEG)) (for example, Non-Patent Document 1) and H.264 standardized by MPEG and ITU-T (International Telecommunication Union Telecommunication Standardization Sector). An H.264 / MPEG-4 AVC (Advanced Video Coding) system (see, for example, Non-Patent Document 2) is known.

いずれの方式においても、動画像データは一連の静止画像(以下、フレームという。)から構成されており、各フレームの符号化により、上記圧縮が実現されている。   In any method, the moving image data is composed of a series of still images (hereinafter referred to as frames), and the above-described compression is realized by encoding each frame.

この符号化では、各フレームが所定サイズの複数ブロックに分割され、ブロックごとに、予測符号化、直交変換、及び量子化の各処理が行われる。また、符号化にはイントラ符号化とインター符号化の2種類があり、インター符号化では、上記各処理に加えて動き予測処理が行われる。なお、以下では、イントラ符号化の対象であるフレームをイントラフレームと称し、インター符号化の対象であるフレームをインターフレームと称する。   In this encoding, each frame is divided into a plurality of blocks of a predetermined size, and each process of predictive encoding, orthogonal transform, and quantization is performed for each block. In addition, there are two types of encoding, intra encoding and inter encoding. In inter encoding, motion prediction processing is performed in addition to the above processes. Hereinafter, a frame that is a target of intra coding is referred to as an intra frame, and a frame that is a target of inter coding is referred to as an inter frame.

あるブロックを符号化する場合、符号化装置は、いくつかの予測画像生成方法の中から選択される予測画像生成方法に基づき、動画像データの他の部分(以下、予測基礎部分と称する。符号化対象ブロックがイントラフレームに含まれるブロックである場合には、同一フレーム内の他の部分のうちの少なくとも一部が予測基礎部分となる。インターフレームに含まれるブロックである場合には、同一又は他のフレーム内の他の部分のうちの少なくとも一部が予測基礎部分となる。)を用いて予測画像を生成し、さらに、該予測画像と該ブロックにかかる画像との差分を示す差分データを取得する(予測符号化処理)。そして、取得した差分データに、直交変換及び量子化の各処理を施す。予測画像生成方法と予測基礎部分の選び方との組み合わせは予め数通り定められており、それぞれ予測モードと呼ばれる。   When a certain block is encoded, the encoding apparatus refers to another part of the moving image data (hereinafter referred to as a prediction basic part) based on a prediction image generation method selected from several prediction image generation methods. If the target block is a block included in an intra frame, at least a part of other parts in the same frame is a prediction basic part. A prediction image is generated using at least a part of other portions in other frames as a prediction basic portion. Further, difference data indicating a difference between the prediction image and an image related to the block is generated. Obtain (predictive coding process). Then, each process of orthogonal transform and quantization is performed on the acquired difference data. Several combinations of the predicted image generation method and the selection method of the prediction basic part are determined in advance, and each is called a prediction mode.

ここで、イントラ符号化にかかる予測モードについて、詳細に説明しておく。符号化装置は、フレームを構成する各ブロックを、フレームの左上から右方向に向かって順次符号化していき、右端に達したら1段下がってまた右方向に向かって順次符号化していく。イントラ符号化においては、符号化装置は、あるブロックの予測符号化を行う際、同一フレーム内の既に符号化済みの他のブロックに含まれる画像の中から予測基礎部分を取得する。   Here, the prediction mode concerning intra coding will be described in detail. The encoding device sequentially encodes each block constituting the frame from the upper left of the frame in the right direction, and when reaching the right end, it sequentially encodes down one step and toward the right. In intra coding, when performing predictive coding of a certain block, the coding apparatus acquires a prediction base portion from images included in other blocks that have already been coded in the same frame.

より具体的な例では、上記ブロックは通常、16×16画素又は4×4画素の領域により構成されており、1ブロックが16×16画素の領域により構成される場合には、該ブロックの上側及び左側に隣接する符号化済みのブロックが予測基礎部分の選択対象となる。そして、予測モードには、予測画像生成方法と予測基礎部分の選び方との組み合わせの組み合わせにより、水平方向予測、垂直方向予測、DC(直流)予測、プレーン予測と呼ばれる4通りがあり、符号化装置は、各予測モードにより差分データを一旦仮に生成した上で、各差分データのうち、符号化効率が最も良いものを、予測符号化処理の出力とする(例えば、特許文献1の図3参照。)。一方、1ブロックが4×4画素の領域により構成される場合には、該ブロックの上側及び左側に隣接する符号化済みのブロックに加え、該ブロックの右斜め上方の符号化済みのブロックも予測基礎部分の選択対象となる。そして、予測モードには、予測基礎部分の選び方及び予測画像生成方法の組み合わせにより、水平方向予測、垂直方向予測、DC(直流)予測、対角左下方向予測、対角右下方向予測、垂直右方向予測、水平下方向予測、垂直左方向予測、水平上方向予測と呼ばれる9通りがあり、符号化装置は、各予測モードにより差分データを一旦仮に生成した上で、各差分データのうち、符号化効率が最も良いものを、予測符号化処理の出力とする(例えば、特許文献1の図5参照。)。   In a more specific example, the block is usually composed of an area of 16 × 16 pixels or 4 × 4 pixels. When one block is composed of an area of 16 × 16 pixels, the upper side of the block is The encoded block adjacent to the left side is a selection target of the prediction basic part. There are four types of prediction modes, called horizontal prediction, vertical prediction, DC (direct current) prediction, and plane prediction, depending on the combination of the combination of the predicted image generation method and the selection of the prediction basic part. After temporarily generating difference data in each prediction mode, the difference data having the highest encoding efficiency is used as the output of the prediction encoding process (see, for example, FIG. 3 of Patent Document 1). ). On the other hand, when one block is composed of a 4 × 4 pixel area, in addition to the encoded blocks adjacent to the upper and left sides of the block, the encoded block diagonally above and to the right of the block is also predicted. It becomes the selection target of the basic part. The prediction mode includes horizontal direction prediction, vertical direction prediction, DC (direct current) prediction, diagonal lower left direction prediction, diagonal lower right direction prediction, vertical right direction, depending on the combination of the selection of the prediction basic part and the predicted image generation method. There are nine methods called direction prediction, horizontal downward prediction, vertical left prediction, and horizontal upward prediction. The encoding device temporarily generates difference data in each prediction mode, The one having the highest conversion efficiency is used as the output of the predictive encoding process (see, for example, FIG. 5 of Patent Document 1).

なお、符号化効率が最も良い差分データ(予測モード)の判定方法としては、レート歪み(RD:Rate Distortion)を用いるレート歪み最適化モード決定方法と、レート歪みを用いないモード決定方法と、が知られている。   Note that the differential data (prediction mode) determination method with the best coding efficiency includes a rate distortion optimization mode determination method using rate distortion (RD: Rate Distortion) and a mode determination method that does not use rate distortion. Are known.

16×16画素のブロックに関しては、レート歪みを用いないモード決定方法が用いられる。すなわち、4種類の予測モードのうち、予測画像と原画像(符号化対象ブロックにかかる画像)との誤差(D:Distortion)が最も少なくなる予測モードが、符号化効率が最も良い予測モードであると判定される。   For a block of 16 × 16 pixels, a mode decision method that does not use rate distortion is used. That is, among the four types of prediction modes, the prediction mode in which the error (D: Distortion) between the predicted image and the original image (the image related to the encoding target block) is the smallest is the prediction mode with the highest encoding efficiency. It is determined.

一方、4×4画素のブロックに関しては、上記いずれのモード決定方法も用いられる。レート歪み最適化モード決定方法を用いる場合、9種類の予測モードのうち、予測画像と原画像との誤差(D:Distortion)と、その予測モードを選択した場合に発生する情報量(R:Rate)と、の線形和であるD+λRをコストと定義して算出し、これが最も小さくなる予測モードが、符号化効率が最も良い予測モードであると判定される。ここで、λはラグランジェ係数と呼ばれ、量子化処理にかかる量子化パラメータQpの関数で定義されている。レート歪みを用いないモード決定方法を用いる場合には、予測画像と原画像との誤差から計算される量と、同一フレーム内でこれまでに発生した予測モードか否かに基づいて決定される量と、の和をコストとして、この値の小さい予測モードが、符号化効率が最も良い予測モードであると判定される。   On the other hand, for the 4 × 4 pixel block, any of the above mode determination methods is used. When the rate distortion optimization mode determination method is used, an error (D: Distortion) between a predicted image and an original image among nine types of prediction modes and an amount of information generated when the prediction mode is selected (R: Rate) ) And D + λR, which is defined as a cost, is calculated, and the prediction mode with the smallest value is determined to be the prediction mode with the best coding efficiency. Here, λ is called a Lagrangian coefficient and is defined by a function of a quantization parameter Qp related to the quantization process. When using a mode determination method that does not use rate distortion, an amount calculated from the error between the predicted image and the original image and an amount determined based on whether or not the prediction mode has occurred in the same frame so far As a cost, it is determined that a prediction mode with a small value is the prediction mode with the best coding efficiency.

なお、符号化装置は、16×16画素のブロックを符号化するにあたり、16×16画素のブロックにかかる予測モードを用いるか、それともさらに4分割して4×4画素のブロックにかかる予測モードを用いるか、という点についても判定する。この判定においても、上記レート歪み最適化モード決定方法又はレート歪みを用いないモード決定方法のいずれかが用いられる。   Note that the encoding device uses a prediction mode for a 16 × 16 pixel block or encodes a prediction mode for a 4 × 4 pixel block by dividing the block into 4 × 4 pixels when encoding a 16 × 16 pixel block. Whether or not to use is also determined. In this determination, either the rate distortion optimization mode determination method or the mode determination method that does not use rate distortion is used.

以上、イントラ符号化にかかる予測モードについて説明した。   In the above, the prediction mode concerning intra coding was demonstrated.

ところで、上記予測符号化処理では、どの予測モードを用いるかによって、同じ符号化対象ブロックについての差分データであっても、その値が異なることとなる。そして、この差分データの値の差が復号後の出力画像において大きな差となって現れてしまう場合がある。フリッカと呼ばれる現象である。   By the way, in the predictive encoding process, even if it is differential data for the same encoding target block, the value differs depending on which prediction mode is used. Then, the difference between the values of the difference data may appear as a large difference in the output image after decoding. This phenomenon is called flicker.

フリッカについて詳しく説明する。予測符号化処理の結果得られる差分データは、上述のように、直交変換され、さらに量子化されて出力されるのであるが、その値が異なる2つの差分データにそれぞれ直交変換を施した場合、直交変換の結果得られる変換係数データにも、差分データの値の差を反映した差が現れる。そして、この差は、場合により、量子化処理によって増幅される。一旦増幅された差は、復号しても元には戻らないので、復号後の出力画像において大きな差が生じてしまう。   The flicker will be described in detail. As described above, the difference data obtained as a result of the predictive encoding process is orthogonally transformed and further quantized and output, but when two difference data having different values are orthogonally transformed, Also in the transform coefficient data obtained as a result of the orthogonal transform, a difference reflecting the difference value of the difference data appears. This difference is amplified in some cases by quantization processing. Once the difference is amplified, it does not return to the original value even after decoding, so a large difference occurs in the output image after decoding.

フリッカが問題となるのは、特に時間的にほとんど変化しない動画像データ又はその一部分についてである。時間的に大きく変化しているブロックについては、再生された動画像データの観察者がフリッカを感じ取れないため問題とはならないが、時間的に変化がほとんどない場合には、観察者はフリッカを敏感に感じ取ってしまい、画質劣化として大きな問題となるのである。   The problem of flicker is particularly with respect to moving image data or a portion thereof that hardly changes with time. For blocks that change greatly in time, this is not a problem because the viewer of the reproduced moving image data cannot feel flicker, but if there is almost no change in time, the viewer is sensitive to flicker. This is a big problem as image quality degradation.

フリッカは、イントラフレームと、その直前のフレームと、の間で特に発生しやすくなっている。すなわち、イントラフレームにかかるブロックは同一イントラフレーム内の他の部分の情報を用いて符号化されるため、符号化対象ブロックにかかる画像が、過去のフレーム内の同一位置のブロックにかかる画像とほとんど変わらない場合であっても、他の部分に大きな変化があれば、予測モードは異なるものとなる。予測モードが異なると、上述のように差分データに差が生ずる。その結果、出力画像に大きな差が生じ得るが、符号化対象ブロックにかかる部分には時間的な変化がほとんどないので、再生された動画像データの観察者は、変化がないことを期待する。にも関わらず、出力画像に大きな差が生じてしまっているので、結果として、観察者はフリッカの発生を感じ取ってしまうのである。   Flicker is particularly likely to occur between an intra frame and the immediately preceding frame. That is, since a block related to an intra frame is encoded using information of another part in the same intra frame, an image related to the encoding target block is almost the same as an image related to a block at the same position in a past frame. Even if it does not change, the prediction mode will be different if there are significant changes in other parts. When the prediction mode is different, a difference occurs in the difference data as described above. As a result, a large difference may occur in the output image, but since there is almost no temporal change in the portion related to the encoding target block, the observer of the reproduced moving image data expects no change. Nevertheless, a large difference has occurred in the output image, and as a result, the observer perceives the occurrence of flicker.

イントラフレームは、早送りや巻戻しといったランダムアクセスを実現するため、定期的(通常は0.5秒〜2秒に1回程度の間隔)に挿入される必要がある。このため、定期的にフリッカが生じやすくなっており、フリッカの発生を抑制することが望まれている。   Intraframes must be inserted periodically (usually at intervals of about once every 0.5 to 2 seconds) to achieve random access such as fast forward and rewind. For this reason, flicker tends to occur regularly, and it is desired to suppress the occurrence of flicker.

特許文献2に開示される技術は、フリッカの発生を抑制するための技術の1つである。この技術にかかる符号化装置は、イントラフレームの各ブロックの予測モードを決定する際、上述の符号化効率だけでなく、過去のフレームとの差分も考慮に入れた評価を行った上で、予測モードを決定する。具体的には、時間方向の差分を示す時間差分情報(特許文献2の第0066段落及び第0067段落参照。)を用いて、予測モードの評価を行っている。   The technique disclosed in Patent Document 2 is one of the techniques for suppressing the occurrence of flicker. When determining the prediction mode of each block of an intra frame, the encoding apparatus according to this technique performs not only the above-described encoding efficiency but also an evaluation that takes into consideration a difference from a past frame, and then performs prediction. Determine the mode. Specifically, the prediction mode is evaluated using time difference information (see paragraphs 0066 and 0067 of Patent Document 2) indicating a difference in the time direction.

また、非特許文献3,4、特許文献3乃至6にも、フリッカの発生を抑制するための技術が記載されている。   Non-Patent Documents 3 and 4 and Patent Documents 3 to 6 also describe techniques for suppressing the occurrence of flicker.

なお、非特許文献2には、重み付け予測と呼ばれる処理についての記載がある。この処理は、符号化時にフェードイン/フェードアウトなどを実現するための処理であり、具体的には、フェードイン(フェードアウト)開始時の輝度値と、フェードイン(フェードアウト)終了時の輝度値と、を内挿することにより重みを算出し、その間の輝度値については、本来の輝度値に重みを乗算した上で符号化するというものである。
特開2005−39321号公報 特開2005−318468号公報 特開2005−217943号公報 特開2005−348008号公報 特開2006−94081号公報 特開2006−191287号公報 「ISO(国際標準化機構)/IEC(国際電気標準会議) 13818−2」、1994年 「ITU−T(国際電気通信連合電気通信標準化部門) Rec.(勧告) H.264|ISO(国際標準化機構)/IEC(国際電気標準会議) 14496−10 Advanced Video Coding(アドバンスドビデオコーディング)」、2005年 蝶野他、「デテント付き量子化制御によるIピクチャフリッカの低減方法」、PCSJ(画像符号化シンポジウム)2005、2005年、P−4.02 清水他、「H.264/AVCにおけるイントラ符号化フレームのフリッカ低減方法」、PCSJ(画像符号化シンポジウム)2005、2005年、P−4.03
Note that Non-Patent Document 2 describes a process called weighted prediction. This processing is processing for realizing fade-in / fade-out at the time of encoding. Specifically, the luminance value at the start of fade-in (fade-out), the luminance value at the end of fade-in (fade-out), Is calculated by multiplying the original luminance value by the weight and then encoding the luminance value.
JP 2005-39321 A JP 2005-318468 A Japanese Patent Laid-Open No. 2005-217743 JP 2005-348008 A JP 2006-94081 A JP 2006-191287 A "ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) 13818-2", 1994 “ITU-T (International Telecommunication Union Telecommunication Standardization Sector) Rec. (Recommendation) H.264 | ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) 14496-10 Advanced Video Coding (Advanced Video Coding)”, 2005 Chono et al., “Method of reducing I-picture flicker by quantization control with detent”, PCSJ (Image Coding Symposium) 2005, 2005, P-4.02. Shimizu et al., “Flicker reduction method for intra-coded frames in H.264 / AVC”, PCSJ (Image Coding Symposium) 2005, 2005, P-4.03.

しかしながら、上記特許文献2に開示される技術では、符号化効率だけでなく、過去のフレームとの差分も考慮に入れた評価を行った上で予測モードを決定するため、決定された予測モードを用いて予測符号化を行った場合、過去のフレームとの差分を考慮に入れない評価を行った上で決定される予測モードを用いる場合に比べ、イントラフレームの符号化効率が悪化するという問題がある。   However, in the technique disclosed in Patent Document 2, in order to determine the prediction mode after performing an evaluation taking into consideration not only the encoding efficiency but also the difference from the past frame, the determined prediction mode is When predictive encoding is used, there is a problem that the intra-frame encoding efficiency deteriorates compared to the case of using a prediction mode determined after performing an evaluation that does not take into account the difference from the past frame. is there.

従って、本発明の課題の一つは、フリッカの発生を抑制しつつ、イントラフレームの符号化効率の悪化も抑えることのできる符号化装置、符号化方法、及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide an encoding device, an encoding method, and a program that can suppress the occurrence of flicker and also suppress the deterioration of the encoding efficiency of an intra frame.

上記課題を解決するための本発明にかかる符号化装置は、動画像データを構成するn個(n≧3)のフレームからなり、n番目のフレームがイントラ符号化の対象である一連のフレームを順次取得するフレーム取得手段と、2番目からn−1番目の各フレームを構成する各画素の少なくとも一部について、1番目のフレームを構成する各画素の少なくとも一部の画素値と、n番目のフレームを構成する各画素の少なくとも一部の画素値と、に基づき、その画素値を決定する画素値決定手段と、前記画素値決定手段により決定された画素値を用いて、前記2番目からn−1番目の各フレームを符号化する符号化手段と、を含むことを特徴とする。   An encoding apparatus according to the present invention for solving the above-described problems is composed of n frames (n ≧ 3) constituting moving image data, and the n-th frame is a series of frames to be intra-encoded. Frame acquisition means for sequentially acquiring, at least a part of each pixel constituting each of the 2nd to (n-1) th frames, a pixel value of at least a part of each pixel constituting the first frame, and the nth Based on at least a part of pixel values of each pixel constituting the frame, pixel value determining means for determining the pixel value, and using the pixel values determined by the pixel value determining means, the second to n And encoding means for encoding each first frame.

これによれば、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値とに基づき、2番目からn−1番目の各フレームを構成する画素の画素値を決定できるので、例えばその間を滑らかにつなぐことができ、イントラフレームであるn番目のフレームにおいてフリッカが発生することを抑制することができる。また、このフリッカの発生の抑制処理はn番目のフレームの予測モードを変更する処理を要しないので、イントラフレームの符号化効率の悪化も抑えられる。   According to this, based on the pixel value of the pixel constituting the first frame and the pixel value of the pixel constituting the nth frame, the pixel value of the pixel constituting each of the second to (n-1) th frames is determined. Since it can be determined, for example, the interval between them can be smoothly connected, and the occurrence of flicker can be suppressed in the nth frame which is an intra frame. In addition, since the flicker generation suppressing process does not require a process for changing the prediction mode of the nth frame, it is possible to suppress the deterioration of the intra-frame coding efficiency.

また、上記符号化装置において、前記画素値決定手段は、2番目からn−1番目の各フレームを構成する各画素のうちの1つについて、1番目のフレームを構成する各画素のうちの1つの画素値と、n番目のフレームを構成する各画素のうちの1つの画素値と、を内挿してなる内挿線に基づき、その画素値を決定する、こととしてもよい。   In the encoding apparatus, the pixel value determining unit may include one of the pixels constituting the first frame with respect to one of the pixels constituting the second to (n-1) th frames. The pixel value may be determined based on an interpolation line formed by interpolating one pixel value and one pixel value of each pixel constituting the nth frame.

これによれば、内挿線により、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値との間を滑らかにつなぐことができるようになる。   According to this, it becomes possible to smoothly connect between the pixel value of the pixel constituting the first frame and the pixel value of the pixel constituting the nth frame by interpolation.

また、上記各符号化装置において、前記n番目のフレームを複数のブロックに分割する分割手段と、1番目からn−1番目の各フレームそれぞれについて、前記各ブロックのうちの1つである注目ブロックに対応する部分を取得する対応部分取得手段と、を含み、前記画素値決定手段は、前記注目ブロックを構成する各画素の少なくとも一部の画素値と、前記1番目のフレームのうち前記対応部分取得手段により取得された部分を構成する各画素の少なくとも一部の画素値と、に基づき、前記2番目からn−1番目の各フレームのうち前記対応部分取得手段により取得された各部分を構成する各画素の少なくとも一部の画素値を決定する、こととしてもよい。   In each of the encoding devices, a dividing unit that divides the n-th frame into a plurality of blocks and a target block that is one of the blocks for each of the first to n−1th frames. A corresponding part acquiring means for acquiring a part corresponding to the at least one pixel value, and the pixel value determining means includes at least a part of pixel values of each pixel constituting the target block and the corresponding part of the first frame. Based on at least some pixel values of each pixel constituting the part acquired by the acquisition means, each part acquired by the corresponding part acquisition means among the second to (n-1) th frames is configured. It is good also as determining the pixel value of at least one part of each pixel to perform.

これによれば、注目ブロックと各部分との対応関係により、画素値を決定する画素を適切に決定することができるようになる。   According to this, the pixel for determining the pixel value can be appropriately determined based on the correspondence between the block of interest and each part.

また、この符号化装置において、前記注目ブロックの画像内容と、前記対応部分取得手段により前記1番目からn−1番目の各フレームのうち少なくとも一部それぞれについて取得された各部分の画像内容と、の類似度を算出する類似度算出手段と、前記類似度算出手段により算出された類似度に応じて、前記注目ブロックについて前記画素値決定手段による画素値決定を行うか否かを決定する決定手段と、を含み、前記画素値決定手段は、前記決定手段により前記注目ブロックについての画素値決定を行うと決定された場合に、前記注目ブロックを構成する各画素の少なくとも一部と、前記1番目のフレームのうち前記対応部分取得手段により取得された部分を構成する各画素の少なくとも一部と、に基づき、前記2番目からn−1番目の各フレームのうち前記対応部分取得手段により取得された各部分を構成する各画素の少なくとも一部の画素値を決定する、こととしてもよい。   Further, in this encoding apparatus, the image content of the block of interest, the image content of each part acquired for at least a part of each of the first to n−1 frames by the corresponding part acquisition unit, A similarity calculation means for calculating the similarity of the image, and a determination means for determining whether or not to perform pixel value determination by the pixel value determination means for the block of interest according to the similarity calculated by the similarity calculation means And the pixel value determining means includes at least a part of each pixel constituting the target block and the first value when the pixel value is determined by the determining means to determine the pixel value for the target block. And from the second to the (n−1) th frame based on at least a part of each pixel constituting the portion acquired by the corresponding portion acquisition means Determining at least part of the pixel values of the pixels constituting the respective portions obtained by the corresponding portion acquisition unit of the frame, it is also possible.

本発明によれば、2番目からn−1番目の各フレームを構成する画素の画素値は、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値とに基づいて決定されてしまうので、場合によっては、元の画素値と懸け離れたものとなってしまう虞がある。上記符号化装置によれば、注目ブロックと各対応部分のうちの少なくとも一部との類似度に基づいて画素値決定手段による画素値決定の当否を決定しているので、例えば類似していない場合に画素値決定手段による画素値決定を行わないようにすることができる。その結果、2番目からn−1番目の各フレームを構成する画素の画素値が、元の画素値と懸け離れたものとなってしまうことを防止できる。   According to the present invention, the pixel values of the pixels constituting each of the second to (n-1) th frames are set to the pixel value of the pixels constituting the first frame and the pixel value of the pixels constituting the nth frame. Therefore, in some cases, the pixel value may be far from the original pixel value. According to the above encoding device, whether or not to determine the pixel value by the pixel value determination unit is determined based on the similarity between the target block and at least a part of each corresponding part. It is possible to prevent the pixel value determination by the pixel value determination means. As a result, it is possible to prevent the pixel values of the pixels constituting the second to (n-1) th frames from being far from the original pixel values.

また、上記各符号化装置において、前記対応部分取得手段は、前記1番目からn−1番目の各フレームそれぞれにおいて、前記n番目のフレーム内における前記注目ブロックの位置と同じ位置にある部分を、前記注目ブロックに対応する部分として取得する、こととしてもよい。   Further, in each of the encoding devices, the corresponding portion acquisition unit may include a portion at the same position as the position of the block of interest in the nth frame in each of the first to (n−1) th frames. It is good also as acquiring as a part corresponding to the said attention block.

これによれば、対応部分として、各フレーム内において、注目ブロックと同じ位置にある部分を用いることができる。   According to this, as a corresponding portion, a portion at the same position as the target block can be used in each frame.

また、上記各符号化装置において、前記対応部分取得手段は、前記注目ブロックに含まれる画像の内容について、前記1番目からn−1番目の各フレーム内におけるその位置を示す動きベクトルを取得する動きベクトル取得手段、を含み、前記動きベクトルに基づき、前記1番目からn−1番目の各フレームそれぞれについて、前記注目ブロックに対応する部分を取得する、こととしてもよい。   Further, in each of the encoding devices, the corresponding part acquisition unit acquires a motion vector indicating a position in each of the first to (n-1) th frames for the content of the image included in the block of interest. A vector acquisition unit may be included, and a portion corresponding to the block of interest may be acquired for each of the first to (n-1) th frames based on the motion vector.

これによれば、注目ブロックに含まれる画像が、フレーム内において経時的に移動しているような場合であっても、対応部分取得手段は、適切な対応部分を取得することができるようになる。   According to this, even when the image included in the block of interest moves over time in the frame, the corresponding part acquisition unit can acquire an appropriate corresponding part. .

また、本発明にかかるプログラムは、動画像データを構成するn個(n≧3)のフレームを順次取得するフレーム取得手段、2番目からn−1番目の各フレームを構成する各画素の少なくとも一部について、1番目のフレームを構成する各画素の少なくとも一部の画素値と、n番目のフレームを構成する各画素の少なくとも一部の画素値と、に基づき、その画素値を決定する画素値決定手段、及び前記画素値決定手段により決定された画素値を用いて、前記2番目からn−1番目の各フレームを予測符号化する予測符号化手段、としてコンピュータを機能させるためのプログラムである。   The program according to the present invention is a frame acquisition means for sequentially acquiring n (n ≧ 3) frames constituting moving image data, and at least one of the pixels constituting each of the 2nd to (n-1) th frames. Pixel values for determining pixel values based on at least some pixel values of each pixel constituting the first frame and at least some pixel values of each pixel constituting the nth frame A program for causing a computer to function as a determination unit and a prediction encoding unit that predictively encodes each of the second to (n-1) th frames using the pixel value determined by the pixel value determination unit. .

本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described with reference to the drawings.

図1は、本実施の形態にかかる符号化装置1のシステム構成及び機能ブロックを示す概略ブロック図である。同図に示すように、符号化装置1は、イントラ/インター画像決定部10、マクロブロック分割部12、フレームディレイ部14、対応部分取得部16、処理対象判定部18、通常符号化処理部20、出力部22、イントラ画像用フレームメモリ部24、インター画像用フレームメモリ部26、インター符号化目標画像設定部28、インター画像符号化部30を含んで構成される。また、対応部分取得部16は、その内部にイントラマクロブロック類似度比較部160及びインターマクロブロック類似度比較部161を含んで構成され、インター符号化目標画像設定部28は、その内部に画素値取得部280及び画素値決定部281を含んで構成される。   FIG. 1 is a schematic block diagram showing a system configuration and functional blocks of an encoding apparatus 1 according to the present embodiment. As shown in the figure, the encoding apparatus 1 includes an intra / inter image determination unit 10, a macroblock division unit 12, a frame delay unit 14, a corresponding portion acquisition unit 16, a processing target determination unit 18, and a normal encoding processing unit 20. , An output unit 22, an intra image frame memory unit 24, an inter image frame memory unit 26, an inter encoding target image setting unit 28, and an inter image encoding unit 30. The corresponding portion acquisition unit 16 includes an intra macroblock similarity comparison unit 160 and an inter macroblock similarity comparison unit 161 therein, and the inter coding target image setting unit 28 includes a pixel value therein. An acquisition unit 280 and a pixel value determination unit 281 are included.

イントラ/インター画像決定部10は、動画像データを構成する一連のフレーム(入力画像)を順次取得する。そして、各フレームをイントラフレームとインターフレームのいずれかに分類する。すなわち、各フレームについて、イントラ符号化及びインター符号化のうちいずれの対象とするかを決定する。   The intra / inter image determination unit 10 sequentially acquires a series of frames (input images) constituting moving image data. Then, each frame is classified into either an intra frame or an inter frame. That is, for each frame, it is determined which of the intra coding and inter coding is to be used.

一例では、イントラ/インター画像決定部10は、ある決まった周期で、取得したフレームをイントラフレームに分類する。この場合、イントラ/インター画像決定部10にはイントラフレーム挿入周期が予め設定される。イントラ/インター画像決定部10は、設定されたイントラフレーム挿入周期に基づき、各フレームをイントラ符号化の対象とするか、インター符号化の対象とするか、決定する。   In one example, the intra / inter image determination unit 10 classifies the acquired frames into intra frames at a predetermined cycle. In this case, an intra frame insertion period is preset in the intra / inter image determination unit 10. The intra / inter image determination unit 10 determines whether each frame is a target of intra coding or a target of inter coding based on the set intra frame insertion period.

また、他の一例では、イントラ/インター画像決定部10は、連続する2つのフレーム(第1フレームと第2フレームとする。)間において大きくその画像内容が変化したこと(シーンチェンジなど)の検出を行う。そして、該変化を検出した場合に、イントラ/インター画像決定部10は、第2フレームにつき、イントラ符号化の対象とすることを決定する。なお、イントラ/インター画像決定部10は、各フレームを構成する各画素の画素値(輝度又は色差を示す値)のフレーム内平均値を算出し、該フレーム内平均値に基づいて上記検出を行うようにすることが好適である。   In another example, the intra / inter image determination unit 10 detects that the image content has greatly changed (scene change or the like) between two consecutive frames (referred to as a first frame and a second frame). I do. When the change is detected, the intra / inter image determination unit 10 determines that the second frame is a target of intra encoding. The intra / inter image determination unit 10 calculates an average value within a frame of pixel values (values indicating luminance or color difference) of each pixel constituting each frame, and performs the above detection based on the average value within the frame. It is preferable to do so.

以下では、イントラ/インター画像決定部10が取得する一連のフレームのうち、n個(n≧3)に着目して説明を進める。ここで、n個のフレームのうち、1番目のフレーム及びn番目のフレームはいずれもイントラフレームであり、2番目からn−1番目の各フレームはいずれもインターフレームであるとする。   In the following, the description will be focused on n frames (n ≧ 3) out of a series of frames acquired by the intra / inter image determination unit 10. Here, of the n frames, the first frame and the nth frame are both intra frames, and the second to (n-1) th frames are all inter frames.

マクロブロック分割部12は、イントラ/インター画像決定部10においてイントラフレームとインターフレームのいずれかに分類された各フレームを、それぞれ複数のブロックに分割する。そして、分割後の各フレームを、フレームディレイ部14に順次出力する。なお、ここでは、このブロックは16×16画素の大きさのブロック(マクロブロックという。)であるとする。ただし、これはあくまで便宜的なものであり、この大きさに限られるものではない。   The macroblock division unit 12 divides each frame classified into either an intra frame or an inter frame by the intra / inter image determination unit 10 into a plurality of blocks. Then, the divided frames are sequentially output to the frame delay unit 14. Here, it is assumed that this block is a block (referred to as a macro block) having a size of 16 × 16 pixels. However, this is for convenience only and is not limited to this size.

フレームディレイ部14は、マクロブロック分割部12から、各フレームの入力を順次受け付ける。そして、入力された各フレームについて、イントラ/インター画像決定部10によりイントラフレームとインターフレームのいずれに分類されたものであるかを判定する。ある時点で入力されたフレームをイントラフレームに分類されたものと判定した場合、フレームディレイ部14は、次にイントラフレームが入力されるまでの間に入力される各フレーム(画像)を、インター画像用フレームメモリ部26に記憶させる。また、フレームディレイ部14は、イントラフレームに分類されたものと判定した各フレームを、対応部分取得部16に順次出力する。   The frame delay unit 14 sequentially receives input of each frame from the macroblock division unit 12. Then, for each input frame, the intra / inter image determination unit 10 determines whether the frame is classified into an intra frame or an inter frame. When it is determined that a frame input at a certain time is classified as an intra frame, the frame delay unit 14 converts each frame (image) input until the next intra frame is input into an inter image. The data is stored in the frame memory unit 26. Further, the frame delay unit 14 sequentially outputs each frame determined to be classified as an intra frame to the corresponding part acquisition unit 16.

ここでは、フレームディレイ部14は、1番目のフレーム及びn番目のフレームを対応部分取得部16に出力し、2番目からn−1番目の各フレームをインター画像用フレームメモリ部26に記憶させる。   Here, the frame delay unit 14 outputs the first frame and the n-th frame to the corresponding portion acquisition unit 16 and causes the inter-image frame memory unit 26 to store the second to n−1th frames.

対応部分取得部16は、フレームディレイ部14から入力されたn番目のフレームを構成する上記各ブロックに順次注目する。そして、1番目からn−1番目の各フレームそれぞれについて、注目ブロックに対応する部分を取得する。なお、この部分は、注目ブロックと同じ形状であることが望ましい。   The corresponding part acquisition unit 16 sequentially pays attention to each of the blocks constituting the nth frame input from the frame delay unit 14. Then, for each of the first to n−1th frames, a portion corresponding to the block of interest is acquired. It is desirable that this part has the same shape as the target block.

具体的な例では、対応部分取得部16は、1番目からn−1番目の各フレームそれぞれにおいて、n番目のフレーム内における注目ブロックの位置と同じ位置にある部分を、注目ブロックに対応する部分として取得する。   In a specific example, the corresponding part acquisition unit 16 corresponds to a part corresponding to a target block in each of the first to (n−1) th frames at a position that is the same as the position of the target block in the nth frame. Get as.

図2は、この例において、対応部分取得部16により取得される対応部分の具体的な例を示す図である。同図には、n=4の例を示している。フレームF1,F2,F3,F4はそれぞれ1番目、2番目、3番目、4番目のフレームであり、フレームF1及びフレームF4がイントラフレーム、フレームF2及びフレームF3がインターフレームである。また、フレームF4内には、注目ブロックBを示している。   FIG. 2 is a diagram illustrating a specific example of the corresponding part acquired by the corresponding part acquisition unit 16 in this example. In the figure, an example of n = 4 is shown. The frames F1, F2, F3, and F4 are the first, second, third, and fourth frames, respectively, the frames F1 and F4 are intra frames, and the frames F2 and F3 are inter frames. In addition, the target block B is shown in the frame F4.

図2に示すように、対応部分取得部16は、フレームF1,F2,F3それぞれにおいて、フレームF4内における注目ブロックBの位置と同じ位置にある部分P1a,P2a,P3aを、注目ブロックBに対応する部分として取得する。   As shown in FIG. 2, the corresponding part acquisition unit 16 corresponds to the target block B with the parts P1a, P2a, and P3a at the same position as the target block B in the frame F4 in each of the frames F1, F2, and F3. Get as part to do.

また、別の例では、対応部分取得部16は、注目ブロックに含まれる画像の内容について、1番目からn−1番目の各フレーム内におけるその位置を示す動きベクトルを取得する。そして、取得した動きベクトルに基づき、1番目からn−1番目の各フレームそれぞれについて、注目ブロックに対応する部分を取得する。   In another example, the corresponding part acquisition unit 16 acquires a motion vector indicating the position in each of the 1st to (n-1) th frames of the content of the image included in the block of interest. Then, based on the acquired motion vector, a portion corresponding to the block of interest is acquired for each of the first to n−1th frames.

図3は、この例において、対応部分取得部16により取得される対応部分の具体的な例を示す図である。同図には、図2と同様、n=4の例を示している。フレームF1,F2,F3,F4はそれぞれ1番目、2番目、3番目、4番目のフレームであり、フレームF1及びフレームF4がイントラフレーム、フレームF2及びフレームF3がインターフレームである。また、フレームF4内には、注目ブロックBを示している。   FIG. 3 is a diagram illustrating a specific example of the corresponding part acquired by the corresponding part acquisition unit 16 in this example. This figure shows an example of n = 4 as in FIG. The frames F1, F2, F3, and F4 are the first, second, third, and fourth frames, respectively, the frames F1 and F4 are intra frames, and the frames F2 and F3 are inter frames. In addition, the target block B is shown in the frame F4.

図3に示すように、対応部分取得部16は、注目ブロックBに含まれる画像の内容C4について、フレームF1,F2,F3内におけるその位置C1,C2,C3を示す動きベクトルを取得する。こうして取得される動きベクトルは、注目ブロックBに含まれる画像の内容C4が時間的にフレーム内を移動した場合の、各フレームにおける位置からの動きの量を表すものである。対応部分取得部16は、取得した動きベクトルに基づき、フレームF1,F2,F3それぞれについて、注目ブロックBに対応する部分P1b,P2b,P3bを取得する。   As illustrated in FIG. 3, the corresponding portion acquisition unit 16 acquires a motion vector indicating the positions C1, C2, and C3 in the frames F1, F2, and F3 for the content C4 of the image included in the block of interest B. The motion vector acquired in this way represents the amount of motion from the position in each frame when the image content C4 included in the block of interest B moves within the frame in terms of time. The corresponding part acquisition unit 16 acquires the parts P1b, P2b, and P3b corresponding to the block of interest B for each of the frames F1, F2, and F3 based on the acquired motion vector.

イントラマクロブロック類似度比較部160は、注目ブロックの画像内容と、対応部分取得部16により1番目のフレームについて取得された部分の画像内容と、の類似度を算出する。この場合において、イントラマクロブロック類似度比較部160は、後述するイントラ画像用フレームメモリ部24において1番目のフレームについて記憶される画像に基づいて、1番目のフレームの画像内容を取得するようにすることが望ましい。   The intra macroblock similarity comparison unit 160 calculates the similarity between the image content of the block of interest and the image content of the part acquired for the first frame by the corresponding part acquisition unit 16. In this case, the intra macroblock similarity comparison unit 160 acquires the image content of the first frame based on the image stored for the first frame in the intra image frame memory unit 24 described later. It is desirable.

以下、類似度算出の具体的な例について説明する。1つの例では、イントラマクロブロック類似度比較部160は、画素ごとに、注目ブロック内の各画素の画素値と対応部分内の各画素の画素値との差分を算出する。そして、その総和と予め決められた閾値とを比較することにより、上記類似度を算出する。この場合、上記類似度は、総和が閾値以上である場合に非類似を示し、総和が閾値未満である場合に類似を示す。   Hereinafter, a specific example of similarity calculation will be described. In one example, the intra macroblock similarity comparison unit 160 calculates, for each pixel, the difference between the pixel value of each pixel in the target block and the pixel value of each pixel in the corresponding portion. Then, the similarity is calculated by comparing the sum with a predetermined threshold. In this case, the similarity indicates dissimilarity when the sum is equal to or greater than the threshold, and indicates similarity when the sum is less than the threshold.

また、別の例では、イントラマクロブロック類似度比較部160は、注目ブロック内の各画素の画素値の合計と、対応部分内の各画素の画素値の合計と、を算出し、さらにその差分を算出する。そして、算出した差分と予め決められた閾値とを比較することにより、上記類似度を算出する。この場合、上記類似度は、差分が閾値以上である場合に非類似を示し、差分が閾値未満である場合に類似を示す。   In another example, the intra macroblock similarity comparison unit 160 calculates the sum of the pixel values of each pixel in the target block and the sum of the pixel values of each pixel in the corresponding portion, and further calculates the difference. Is calculated. Then, the similarity is calculated by comparing the calculated difference with a predetermined threshold. In this case, the similarity indicates dissimilarity when the difference is greater than or equal to a threshold, and indicates similarity when the difference is less than the threshold.

インターマクロブロック類似度比較部161は、注目ブロックの画像内容と、対応部分取得部16により2番目からn−1番目の各フレームについて取得された部分の画像内容と、の類似度を算出する。具体的には、インターマクロブロック類似度比較部161は、イントラマクロブロック類似度比較部160による類似度算出処理と同様な処理により、2番目からn−1番目の各フレームそれぞれについて、類似度を算出する。なお、この場合において、イントラマクロブロック類似度比較部160は、インター画像用フレームメモリ部26において記憶される画像に基づいて、2番目からn−1番目の各フレームの画像内容を取得するようにすることが望ましい。   The inter macroblock similarity comparison unit 161 calculates the similarity between the image content of the block of interest and the image content of the portion acquired for each of the second to n−1 frames by the corresponding portion acquisition unit 16. Specifically, the inter-macroblock similarity comparing unit 161 calculates the similarity for each of the second to n−1th frames by the same process as the similarity calculating process by the intra-macroblock similarity comparing unit 160. calculate. In this case, the intra macroblock similarity comparison unit 160 acquires the image contents of the second to n−1th frames based on the image stored in the inter image frame memory unit 26. It is desirable to do.

処理対象判定部18は、イントラマクロブロック類似度比較部160及びインターマクロブロック類似度比較部161により算出された類似度に応じ、n番目のフレームを構成する各ブロックについて、後述する画素値決定部281による画素値決定を行うか否かを決定する。   The processing target determination unit 18 is a pixel value determination unit to be described later for each block constituting the nth frame according to the similarity calculated by the intra macroblock similarity comparison unit 160 and the inter macroblock similarity comparison unit 161. It is determined whether or not the pixel value is determined according to H.281.

すなわち、処理対象判定部18は、あるブロックについて、1番目からn−1番目の各フレームのうち1つでも非類似を示す類似度が算出されているものがある場合、該ブロックについては後述する画素値決定部281による画素値決定を行わないと決定する。一方、処理対象判定部18は、あるブロックについて、1番目からn−1番目の各フレームの全てについて類似を示す類似度が算出されている場合、該ブロックについては後述する画素値決定部281による画素値決定を行うと決定する。   In other words, the processing target determination unit 18, when there is one for which a similarity degree indicating dissimilarity is calculated in any one of the first to n−1th frames for a certain block, will be described later. It is determined that the pixel value determination unit 281 does not determine the pixel value. On the other hand, when the similarity indicating similarity is calculated for all of the first to (n−1) th frames for a certain block, the processing target determination unit 18 uses a pixel value determination unit 281 described later for the block. It is determined that the pixel value is determined.

通常符号化処理部20は、全てのイントラフレームについて、ブロックごとに、上述した予測符号化、直交変換、及び量子化の各処理を含む符号化処理を施す。また、インターフレームのうち、処理対象判定部18により画素値決定を行わないことが決定されたブロックに対応する部分を含むブロックについて、上述した予測符号化、直交変換、量子化、及び動き予測の各処理を含む符号化処理を施す。通常符号化処理部20は、符号化処理が完了すると、符号化後の各ブロックを出力部22に出力する。   The normal encoding processing unit 20 performs an encoding process including the above-described prediction encoding, orthogonal transform, and quantization processes on all intra frames for each block. In addition, for the block including the portion corresponding to the block determined not to determine the pixel value by the processing target determination unit 18 in the inter frame, the prediction encoding, the orthogonal transformation, the quantization, and the motion prediction described above are performed. Encoding processing including each processing is performed. When the encoding process is completed, the normal encoding processing unit 20 outputs each block after encoding to the output unit 22.

また、通常符号化処理部20は、各イントラフレームにかかる符号化後の各ブロックを一旦復号し、復号後の画像をイントラ画像用フレームメモリ部24に記憶させる。   Further, the normal encoding processing unit 20 once decodes each block after encoding related to each intra frame, and stores the decoded image in the intra image frame memory unit 24.

インター符号化目標画像設定部28は、2番目からn−1番目の各フレームを構成する各画素の少なくとも一部について、1番目のフレームを構成する各画素の少なくとも一部の画素値と、n番目のフレームを構成する各画素の少なくとも一部の画素値と、に基づき、その画素値を決定する。そして、決定した各画素値に基づき、インター符号化目標画像を生成する。以下、具体的に説明する。   The inter-coding target image setting unit 28 has at least some pixel values of each pixel constituting the first frame, at least part of each pixel constituting each of the 2nd to (n-1) th frames, and n The pixel value is determined based on at least a part of the pixel values of each pixel constituting the th frame. Then, based on each determined pixel value, an inter-coding target image is generated. This will be specifically described below.

画素値取得部280は、イントラ画像用フレームメモリ部24から、1番目のフレームを構成する各画素の画素値と、n番目のフレームを構成する各画素の画素値と、を取得し、画素値決定部281に出力する。   The pixel value acquisition unit 280 acquires, from the intra image frame memory unit 24, the pixel value of each pixel constituting the first frame and the pixel value of each pixel constituting the nth frame, and the pixel value The data is output to the determination unit 281.

画素値決定部281は、処理対象判定部18により画素値決定を行うと決定された複数のブロックに順次注目する。そして、注目ブロックを構成する各画素の少なくとも一部と、1番目のフレームのうち対応部分取得部16により取得された部分を構成する各画素の少なくとも一部と、に基づき、2番目からn−1番目の各フレームのうち対応部分取得部16により取得された各部分を構成する各画素の少なくとも一部の画素値を決定する。   The pixel value determination unit 281 sequentially pays attention to a plurality of blocks determined when the pixel value determination is performed by the processing target determination unit 18. Based on at least a part of each pixel constituting the target block and at least a part of each pixel constituting the part acquired by the corresponding part acquisition unit 16 in the first frame, the second to n− Among the first frames, the pixel values of at least a part of the pixels constituting each part acquired by the corresponding part acquisition unit 16 are determined.

より具体的には、画素値決定部281は、注目ブロックを構成する複数の画素を、1つずつ順次取得する。そして、対応部分取得部16により取得された、1番目からn−1番目の各フレームそれぞれについての上記注目ブロックに対応する部分に基づいて、順次取得した注目ブロック内の各画素にそれぞれ対応する、1番目からn−1番目の各フレームそれぞれ内の画素を取得する。   More specifically, the pixel value determining unit 281 sequentially acquires a plurality of pixels that constitute the target block one by one. Then, based on the portion corresponding to the target block for each of the 1st to (n-1) th frames acquired by the corresponding portion acquisition unit 16, each corresponding to each pixel in the target block acquired sequentially, Pixels in each of the 1st to (n-1) th frames are acquired.

画素値決定部281は、こうして取得した2番目からn−1番目の各フレーム内の画素について、1番目のフレームについて選択した画素の画素値と、上記取得した注目ブロック内の画素の画素値と、を内挿してなる内挿線に基づき、その画素値を決定する。具体的には、画素値決定部281は、フレーム間の時間間隔と、上記内挿線と、に基づいて、その画素値を決定する。   The pixel value determining unit 281 determines the pixel value of the pixel selected for the first frame, the pixel value of the pixel in the acquired target block, and the pixel value in the acquired target block for the pixels in the second to n−1th frames acquired in this way. The pixel value is determined based on the interpolation line formed by interpolating. Specifically, the pixel value determination unit 281 determines the pixel value based on the time interval between frames and the interpolation line.

1番目からn−1番目の各フレームそれぞれ内の画素の取得について、再度図2及び図3を参照しながら、詳細に説明する。   Acquisition of pixels in each of the first to (n-1) th frames will be described in detail with reference to FIGS. 2 and 3 again.

図2の例では、画素値決定部281は、注目ブロックBに含まれる画素G4に対応する1番目からn−1番目の各フレームそれぞれ内の画素として、注目ブロックBに対応する部分P1a,P2a,P3aそれぞれ内の画素G1a、G2a,G3aを取得する。画素G1a、G2a,G3aは、それぞれ部分P1a,P2a,P3a内において、注目ブロックB内における画素G4の位置と同じ位置にある画素である。   In the example of FIG. 2, the pixel value determination unit 281 includes the portions P1a and P2a corresponding to the target block B as pixels in the first to n−1th frames corresponding to the pixel G4 included in the target block B. , P3a, the pixels G1a, G2a, G3a are obtained. The pixels G1a, G2a, and G3a are pixels that are in the same position as the position of the pixel G4 in the target block B in the portions P1a, P2a, and P3a, respectively.

図3の例では、画素値決定部281は、注目ブロックBに含まれる画素G4に対応する1番目からn−1番目の各フレームそれぞれ内の画素として、注目ブロックBに対応する部分P1b,P2b,P3bそれぞれ内の画素G1b、G2b,G3bを取得する。画素G1b、G2b,G3bは、それぞれ部分P1b,P2b,P3b内において、注目ブロックB内における画素G4の位置と同じ位置にある画素である。結果的に、各フレーム内における画素G1a、G2a,G3aの位置と、各フレーム内における画素G1b、G2b,G3bの位置と、は必ずしも同じ位置とはならない。   In the example of FIG. 3, the pixel value determination unit 281 includes the portions P1b and P2b corresponding to the target block B as pixels in the first to n−1th frames corresponding to the pixel G4 included in the target block B. , P3b, pixels G1b, G2b, G3b are obtained. The pixels G1b, G2b, and G3b are pixels that are in the same position as the position of the pixel G4 in the block of interest B in the portions P1b, P2b, and P3b, respectively. As a result, the positions of the pixels G1a, G2a, G3a in each frame and the positions of the pixels G1b, G2b, G3b in each frame are not necessarily the same position.

次に、内挿について、図4乃至図6を参照しながら、詳細に説明する。   Next, the interpolation will be described in detail with reference to FIGS.

図4は、n=6の場合における、6番目のフレーム内のある画素の画素値と、該画素に対応する1番目から5番目までの各フレーム内の各画素の画素値と、の例を示す図である。同図では、1つの縦線が1つの画素を示しており、各画素H1,H2,H3,H4,H5,H6は、それぞれ1番目,2番目,3番目,4番目,5番目,6番目の各フレームに含まれる画素である。なお、同図中、縦線は実線又は点線で示されているが、実線で示した画素はイントラフレームに含まれる画素であり、点線で示した画素はインターフレームに含まれる画素である。同図に示した各画素H1,H2,H3,H4,H5は、画素H6に対応する画素として、画素値決定部281が取得したものである。   FIG. 4 shows an example of a pixel value of a certain pixel in the sixth frame and a pixel value of each pixel in each of the first to fifth frames corresponding to the pixel when n = 6. FIG. In the figure, one vertical line represents one pixel, and each pixel H1, H2, H3, H4, H5, H6 is the first, second, third, fourth, fifth, sixth, respectively. Pixels included in each frame. In the figure, the vertical line is indicated by a solid line or a dotted line, but the pixel indicated by the solid line is a pixel included in the intra frame, and the pixel indicated by the dotted line is a pixel included in the inter frame. Each pixel H1, H2, H3, H4, and H5 shown in the figure is acquired by the pixel value determining unit 281 as a pixel corresponding to the pixel H6.

また、図4中の各輝度レベルK1,K2,K3,K4,K5,K6は、それぞれ画素H1,H2,H3,H4,H5,H6の画素値を示している。同図に示すように、各輝度レベルK1,K2,K3,K4,K5,K6は、少しずつ異なっている。   In addition, the luminance levels K1, K2, K3, K4, K5, and K6 in FIG. 4 indicate the pixel values of the pixels H1, H2, H3, H4, H5, and H6, respectively. As shown in the figure, the brightness levels K1, K2, K3, K4, K5, and K6 are slightly different.

図5は、図4に示した例において、画素値決定部281が、画素H1の輝度レベルK1と、画素H6の輝度レベルK6と、を内挿してなる内挿線に基づいて決定した画素H2,H3,H4,H5の輝度レベルK2α,K3α,K4α,K5αを示したものである。同図では、内挿線として直線を使用している。図5に示すように、画素値決定部281は、内挿線上の輝度レベルを、画素H2,H3,H4,H5の輝度レベルとしている。   FIG. 5 illustrates a pixel H2 determined by the pixel value determination unit 281 based on an interpolation line obtained by interpolating the luminance level K1 of the pixel H1 and the luminance level K6 of the pixel H6 in the example illustrated in FIG. , H3, H4, and H5 luminance levels K2α, K3α, K4α, and K5α. In the figure, straight lines are used as interpolation lines. As shown in FIG. 5, the pixel value determination unit 281 sets the luminance level on the interpolation line as the luminance level of the pixels H2, H3, H4, and H5.

図6は、図4に示した例において、画素値決定部281が、画素H1の輝度レベルK1と、画素H6の輝度レベルK6と、を内挿してなる別の内挿線に基づいて決定した画素H2,H3,H4,H5の輝度レベルK2β,K3β,K4β,K5βを示したものである。同図では、内挿線として曲線を使用している。   FIG. 6 shows that the pixel value determination unit 281 in the example shown in FIG. 4 determines based on another interpolation line formed by interpolating the luminance level K1 of the pixel H1 and the luminance level K6 of the pixel H6. The luminance levels K2β, K3β, K4β, and K5β of the pixels H2, H3, H4, and H5 are shown. In the figure, a curve is used as an interpolation line.

図6の例では、画素値決定部281は、インター画像用フレームメモリ部26に記憶される画像に基づいて、2番目からn−1番目の各画素の輝度レベル(画素値)を取得する。そして、取得した輝度レベル(画素値)に基づき、例えば最小自乗法により最適な内挿線を決定し、決定した内挿線上の輝度レベル(画素値)を、2番目からn−1番目の各画素の輝度レベル(画素値)として決定する。   In the example of FIG. 6, the pixel value determination unit 281 acquires the luminance level (pixel value) of each of the second to n−1th pixels based on the image stored in the inter image frame memory unit 26. Then, based on the acquired luminance level (pixel value), an optimum interpolation line is determined by, for example, the least square method, and the luminance level (pixel value) on the determined interpolation line is changed from the second to the (n−1) th. It is determined as the luminance level (pixel value) of the pixel.

その結果、図6に示すように、輝度レベルK2β,K3β,K4β,K5βは、図5に示す輝度レベルK2α,K3α,K4α,K5αに比べ、元の輝度レベルK2,K3,K4,K5に近い値となっている。なお、元の画素値に近くし過ぎるとフリッカの発生を抑制する効果が減じられるので、適宜最適な内挿線を選択するようにすることが必要である。   As a result, as shown in FIG. 6, the luminance levels K2β, K3β, K4β, and K5β are closer to the original luminance levels K2, K3, K4, and K5 than the luminance levels K2α, K3α, K4α, and K5α shown in FIG. It is a value. Note that if the value is too close to the original pixel value, the effect of suppressing the occurrence of flicker is reduced, so it is necessary to select an optimal interpolation line as appropriate.

インター符号化目標画像設定部28は、以上のようにして決定した各画素値に基づいてインター符号化目標画像を生成し、生成したインター符号化目標画像をインター画像符号化部30に出力する。   The inter encoding target image setting unit 28 generates an inter encoding target image based on each pixel value determined as described above, and outputs the generated inter encoding target image to the inter image encoding unit 30.

インター画像符号化部30は、入力されたインター符号化目標画像(画素値決定部281により決定された画素値の画素により構成される画像)を用いて、2番目からn−1番目の各フレームを符号化する。具体的には、インターフレームのうち、処理対象判定部18により画素値決定を行わないことが決定されたブロックに対応する部分を含まないブロックについて、上述した予測符号化、直交変換、量子化、及び動き予測の各処理を含む符号化処理を施す。インター画像符号化部30は、符号化処理が完了すると、符号化後の各ブロックを出力部22に出力する。   The inter image encoding unit 30 uses the input inter encoding target image (image composed of pixels having the pixel value determined by the pixel value determining unit 281) to each of the 2nd to n−1th frames. Is encoded. Specifically, for the block that does not include a portion corresponding to a block that is determined not to perform pixel value determination by the processing target determination unit 18 in the inter frame, the above-described predictive encoding, orthogonal transform, quantization, And an encoding process including each process of motion prediction. When the encoding process is completed, the inter image encoding unit 30 outputs the encoded blocks to the output unit 22.

出力部22は、通常符号化処理部20及びインター画像符号化部30からそれぞれ入力されたブロックに基づいて一連の符号化ブロックを取得し、順次出力する。こうして出力された各符号化ブロックは記憶媒体(不図示)に記憶され、再生する場合などに復号される。   The output unit 22 acquires a series of encoded blocks based on the blocks respectively input from the normal encoding processing unit 20 and the inter image encoding unit 30 and sequentially outputs them. Each encoded block output in this way is stored in a storage medium (not shown) and decoded when it is reproduced.

以上説明したように、符号化装置1によれば、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値とに基づき、2番目からn−1番目の各フレームを構成する画素の画素値を決定できるので、例えばその間を滑らかにつなぐことができ、イントラフレームであるn番目のフレームにおいてフリッカが発生することを抑制することができる。また、このフリッカの発生の抑制処理はn番目のフレームの予測モードを変更する処理を要しないので、イントラフレームの符号化効率の悪化も抑えられる。   As described above, according to the encoding device 1, each of the 2nd to (n-1) th pixels is based on the pixel value of the pixel constituting the first frame and the pixel value of the pixel constituting the nth frame. Since the pixel values of the pixels constituting the frame can be determined, for example, the interval between them can be smoothly connected, and the occurrence of flicker can be suppressed in the nth frame that is an intra frame. In addition, since the flicker generation suppressing process does not require a process for changing the prediction mode of the nth frame, it is possible to suppress the deterioration of the intra-frame coding efficiency.

また、符号化装置1によれば、直線又は任意の曲線である内挿線により、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値との間を滑らかにつなぐことができるようになる。   Also, according to the encoding device 1, a smooth line between the pixel value of the pixel constituting the first frame and the pixel value of the pixel constituting the nth frame is obtained by an interpolation line which is a straight line or an arbitrary curve. It will be possible to connect to.

さらに、符号化装置1によれば、注目ブロックと各部分との対応関係により、画素値を決定する画素を適切に決定することができるようになる。   Furthermore, according to the encoding device 1, the pixel for determining the pixel value can be appropriately determined based on the correspondence between the block of interest and each part.

また、符号化装置1によれば、2番目からn−1番目の各フレームを構成する画素の画素値は、1番目のフレームを構成する画素の画素値とn番目のフレームを構成する画素の画素値とに基づいて決定されてしまうので、場合によっては、元の画素値と懸け離れたものとなってしまう虞があるところ、処理対象判定部18は、注目ブロックと各対応部分との類似度に基づいて画素値決定部281による画素値決定の当否を決定しているので、例えば類似していない場合に画素値決定部281による画素値決定を行わないようにすることができる。その結果、2番目からn−1番目の各フレームを構成する画素の画素値が、元の画素値と懸け離れたものとなってしまうことを防止できる。   Further, according to the encoding device 1, the pixel values of the pixels constituting the second to (n-1) th frames are the pixel values of the pixels constituting the first frame and the pixels constituting the nth frame. Since the pixel value is determined based on the pixel value, in some cases, there is a possibility that the processing target determination unit 18 may be far from the original pixel value. Since the determination of whether or not the pixel value is determined by the pixel value determining unit 281 is determined based on the above, it is possible to prevent the pixel value determining unit 281 from determining the pixel value when they are not similar, for example. As a result, it is possible to prevent the pixel values of the pixels constituting the second to (n-1) th frames from being far from the original pixel values.

また、符号化装置1によれば、上記対応部分として、各フレーム内において、注目ブロックと同じ位置にある部分を用いることができる。或いは、動きベクトルに基づいて対応部分を取得することもでき、その場合には、注目ブロックに含まれる画像が、フレーム内において経時的に移動しているような場合であっても、対応部分取得部16は、適切な対応部分を取得することができるようになる。   Further, according to the encoding device 1, as the corresponding portion, a portion in the same position as the target block can be used in each frame. Alternatively, the corresponding part can be acquired based on the motion vector, and in this case, even if the image included in the block of interest moves over time in the frame, the corresponding part is acquired. The unit 16 can acquire an appropriate corresponding part.

さらに、符号化装置1によれば、色差方式において用いられる輝度と色差(赤の色差と青の色差)のいずれについても、フリッカの発生を抑制することが可能となる。   Furthermore, according to the encoding device 1, it is possible to suppress the occurrence of flicker for both luminance and color difference (red color difference and blue color difference) used in the color difference method.

なお、本発明は上記実施の形態に限定されるものではない。例えば、符号化装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上記符号化装置1の各処理を行ってもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、この「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに、「コンピュータ読み取り可能な記録媒体」には、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
さらに、上記プログラムは、上述した各機能の一部を実現するためのものであってもよい。さらに、上述した各機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The present invention is not limited to the above embodiment. For example, by recording a program for realizing the function of the encoding device 1 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, the encoding device described above Each process of 1 may be performed.
Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
Furthermore, the “computer-readable recording medium” includes a volatile memory (for example, DRAM (DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Dynamic Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve each function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

本発明の実施の形態にかかる符号化装置のシステム構成及び機能ブロックを示す概略ブロック図である。It is a schematic block diagram which shows the system configuration | structure and functional block of the encoding apparatus concerning embodiment of this invention. 本発明の実施の形態にかかる対応部分取得部により取得される対応部分の具体的な例を示す図である。It is a figure which shows the specific example of the corresponding | compatible part acquired by the corresponding | compatible part acquisition part concerning embodiment of this invention. 本発明の実施の形態にかかる対応部分取得部により取得される対応部分の具体的な例を示す図である。It is a figure which shows the specific example of the corresponding | compatible part acquired by the corresponding | compatible part acquisition part concerning embodiment of this invention. 本発明の実施の形態において、n=6の場合における、6番目のフレームのある画素の画素値と、該画素に対応する1番目から5番目までの各フレーム内の各画素の画素値と、の例を示す図である。In the embodiment of the present invention, when n = 6, the pixel value of a pixel in the sixth frame, the pixel value of each pixel in each of the first to fifth frames corresponding to the pixel, It is a figure which shows the example of. 本発明の実施の形態にかかる画素値決定部による内挿の例を示す図である。同図では、内挿線として直線を用いている。It is a figure which shows the example of the interpolation by the pixel value determination part concerning embodiment of this invention. In the figure, straight lines are used as interpolation lines. 本発明の実施の形態にかかる画素値決定部による内挿の例を示す図である。同図では、内挿線として曲線を用いている。It is a figure which shows the example of the interpolation by the pixel value determination part concerning embodiment of this invention. In the figure, a curve is used as an interpolation line.

符号の説明Explanation of symbols

1 符号化装置、
10 イントラ/インター画像決定部、
12 マクロブロック分割部、
14 フレームディレイ部、
16 対応部分取得部、
18 処理対象判定部、
20 通常符号化処理部、
22 出力部、
24 イントラ画像用フレームメモリ部、
26 インター画像用フレームメモリ部、
28 インター符号化目標画像設定部、
30 インター画像符号化部、
160 イントラマクロブロック類似度比較部、
161 インターマクロブロック類似度比較部、
280 画素値取得部、
281 画素値決定部。
1 encoding device,
10 Intra / inter image determination unit,
12 Macroblock division part,
14 frame delay section,
16 Corresponding part acquisition unit,
18 processing object judgment part,
20 normal encoding processing unit,
22 output section,
24 Intra-image frame memory unit,
26 Inter image frame memory,
28 inter-coding target image setting unit,
30 Inter image encoding unit,
160 Intra macroblock similarity comparison unit,
161 Inter-macroblock similarity comparison unit,
280 pixel value acquisition unit,
281 Pixel value determination unit.

Claims (7)

動画像データを構成するn個(n≧3)のフレームからなり、n番目のフレームがイントラ符号化の対象である一連のフレームを順次取得するフレーム取得手段と、
2番目からn−1番目の各フレームを構成する各画素の少なくとも一部について、1番目のフレームを構成する各画素の少なくとも一部の画素値と、n番目のフレームを構成する各画素の少なくとも一部の画素値と、に基づき、その画素値を決定する画素値決定手段と、
前記画素値決定手段により決定された画素値を用いて、前記2番目からn−1番目の各フレームを符号化する符号化手段と、
を含むことを特徴とする符号化装置。
Frame acquisition means for sequentially acquiring a series of frames, which are composed of n frames (n ≧ 3) constituting the moving image data, and the nth frame is an object of intra coding;
For at least some of the pixels constituting each of the 2nd to (n-1) th frames, at least some pixel values of each of the pixels constituting the first frame and at least each of the pixels constituting the nth frame A pixel value determining means for determining the pixel value based on the partial pixel value;
Encoding means for encoding each of the second to (n-1) th frames using the pixel value determined by the pixel value determining means;
An encoding device comprising:
請求項1に記載の符号化装置において、
前記画素値決定手段は、2番目からn−1番目の各フレームを構成する各画素のうちの1つについて、1番目のフレームを構成する各画素のうちの1つの画素値と、n番目のフレームを構成する各画素のうちの1つの画素値と、を内挿してなる内挿線に基づき、その画素値を決定する、
ことを特徴とする符号化装置。
The encoding device according to claim 1, wherein
The pixel value determining means includes one pixel value of each pixel constituting the first frame and one of the pixels constituting the second to (n-1) th frames, and the nth Determining the pixel value based on an interpolation line formed by interpolating one pixel value of each pixel constituting the frame;
An encoding apparatus characterized by that.
請求項1又は2に記載の符号化装置において、
前記n番目のフレームを複数のブロックに分割する分割手段と、
1番目からn−1番目の各フレームそれぞれについて、前記各ブロックのうちの1つである注目ブロックに対応する部分を取得する対応部分取得手段と、
を含み、
前記画素値決定手段は、前記注目ブロックを構成する各画素の少なくとも一部の画素値と、前記1番目のフレームのうち前記対応部分取得手段により取得された部分を構成する各画素の少なくとも一部の画素値と、に基づき、前記2番目からn−1番目の各フレームのうち前記対応部分取得手段により取得された各部分を構成する各画素の少なくとも一部の画素値を決定する、
ことを特徴とする符号化装置。
The encoding device according to claim 1 or 2,
Dividing means for dividing the nth frame into a plurality of blocks;
Corresponding part acquisition means for acquiring a part corresponding to the target block, which is one of the blocks, for each of the 1st to (n-1) th frames;
Including
The pixel value determining means includes at least a part of pixel values of each pixel constituting the block of interest and at least a part of each pixel constituting the part obtained by the corresponding part obtaining means in the first frame. And at least a part of pixel values constituting each part acquired by the corresponding part acquisition means among the second to (n-1) th frames, based on the pixel value of
An encoding apparatus characterized by that.
請求項3に記載の符号化装置において、
前記注目ブロックの画像内容と、前記対応部分取得手段により前記1番目からn−1番目の各フレームのうち少なくとも一部それぞれについて取得された各部分の画像内容と、の類似度を算出する類似度算出手段と、
前記類似度算出手段により算出された類似度に応じて、前記注目ブロックについて前記画素値決定手段による画素値決定を行うか否かを決定する決定手段と、
を含み、
前記画素値決定手段は、前記決定手段により前記注目ブロックについての画素値決定を行うと決定された場合に、前記注目ブロックを構成する各画素の少なくとも一部と、前記1番目のフレームのうち前記対応部分取得手段により取得された部分を構成する各画素の少なくとも一部と、に基づき、前記2番目からn−1番目の各フレームのうち前記対応部分取得手段により取得された各部分を構成する各画素の少なくとも一部の画素値を決定する、
ことを特徴とする符号化装置。
The encoding device according to claim 3,
Similarity for calculating the similarity between the image content of the block of interest and the image content of each part acquired for at least part of each of the first to (n-1) -th frames by the corresponding part acquisition unit A calculation means;
Determining means for determining whether to perform pixel value determination by the pixel value determining means for the block of interest according to the similarity calculated by the similarity calculating means;
Including
The pixel value determining unit, when the determining unit determines to determine a pixel value for the block of interest, at least a part of each pixel constituting the block of interest and the first frame of the first frame Based on at least a part of each pixel constituting the part acquired by the corresponding part acquisition unit, each part acquired by the corresponding part acquisition unit among the second to (n-1) th frames is configured. Determining a pixel value of at least a portion of each pixel;
An encoding apparatus characterized by that.
請求項3又は4に記載の符号化装置において、
前記対応部分取得手段は、前記1番目からn−1番目の各フレームそれぞれにおいて、前記n番目のフレーム内における前記注目ブロックの位置と同じ位置にある部分を、前記注目ブロックに対応する部分として取得する、
ことを特徴とする符号化装置。
In the encoding device according to claim 3 or 4,
The corresponding part acquisition unit acquires, as a part corresponding to the target block, a part at the same position as the target block in the nth frame in each of the first to (n-1) th frames. To
An encoding apparatus characterized by that.
請求項3又は4に記載の符号化装置において、
前記対応部分取得手段は、
前記注目ブロックに含まれる画像の内容について、前記1番目からn−1番目の各フレーム内におけるその位置を示す動きベクトルを取得する動きベクトル取得手段、
を含み、前記動きベクトルに基づき、前記1番目からn−1番目の各フレームそれぞれについて、前記注目ブロックに対応する部分を取得する、
ことを特徴とする符号化装置。
In the encoding device according to claim 3 or 4,
The corresponding part acquisition means includes
Motion vector acquisition means for acquiring a motion vector indicating the position in each of the first to (n-1) th frames of the content of the image included in the block of interest;
A portion corresponding to the block of interest is obtained for each of the first to (n-1) th frames based on the motion vector.
An encoding apparatus characterized by that.
動画像データを構成するn個(n≧3)のフレームを順次取得するフレーム取得手段、
2番目からn−1番目の各フレームを構成する各画素の少なくとも一部について、1番目のフレームを構成する各画素の少なくとも一部の画素値と、n番目のフレームを構成する各画素の少なくとも一部の画素値と、に基づき、その画素値を決定する画素値決定手段、及び
前記画素値決定手段により決定された画素値を用いて、前記2番目からn−1番目の各フレームを符号化する符号化手段、
としてコンピュータを機能させるためのプログラム。
Frame acquisition means for sequentially acquiring n (n ≧ 3) frames constituting the moving image data;
For at least some of the pixels constituting each of the 2nd to (n-1) th frames, at least some pixel values of each of the pixels constituting the first frame and at least each of the pixels constituting the nth frame Based on a part of the pixel values, pixel value determining means for determining the pixel values, and using the pixel values determined by the pixel value determining means, the second to n−1th frames are encoded Encoding means for
As a program to make the computer function.
JP2007009052A 2007-01-18 2007-01-18 Encoding device and program Expired - Fee Related JP4628374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007009052A JP4628374B2 (en) 2007-01-18 2007-01-18 Encoding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007009052A JP4628374B2 (en) 2007-01-18 2007-01-18 Encoding device and program

Publications (2)

Publication Number Publication Date
JP2008177834A JP2008177834A (en) 2008-07-31
JP4628374B2 true JP4628374B2 (en) 2011-02-09

Family

ID=39704524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007009052A Expired - Fee Related JP4628374B2 (en) 2007-01-18 2007-01-18 Encoding device and program

Country Status (1)

Country Link
JP (1) JP4628374B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5254122B2 (en) * 2009-04-24 2013-08-07 パナソニック株式会社 Camera, video transmission device, video reception device, and video communication system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06292188A (en) * 1992-01-22 1994-10-18 Matsushita Electric Ind Co Ltd Method and device for encoding image
JPH07177514A (en) * 1993-12-17 1995-07-14 Casio Comput Co Ltd Dynamic image compressor
JP2005318468A (en) * 2004-04-30 2005-11-10 Nippon Hoso Kyokai <Nhk> In-screen predictive coding device, its method, and its program
JP2005348008A (en) * 2004-06-02 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> Moving picture coding method, moving picture coder, moving picture coding program and computer-readable recording medium with record of the program
JP2006191287A (en) * 2005-01-05 2006-07-20 Matsushita Electric Ind Co Ltd Image coding device, image coding method and image coding program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101091393B (en) * 2004-12-28 2012-03-07 日本电气株式会社 Moving picture encoding method, device using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06292188A (en) * 1992-01-22 1994-10-18 Matsushita Electric Ind Co Ltd Method and device for encoding image
JPH07177514A (en) * 1993-12-17 1995-07-14 Casio Comput Co Ltd Dynamic image compressor
JP2005318468A (en) * 2004-04-30 2005-11-10 Nippon Hoso Kyokai <Nhk> In-screen predictive coding device, its method, and its program
JP2005348008A (en) * 2004-06-02 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> Moving picture coding method, moving picture coder, moving picture coding program and computer-readable recording medium with record of the program
JP2006191287A (en) * 2005-01-05 2006-07-20 Matsushita Electric Ind Co Ltd Image coding device, image coding method and image coding program

Also Published As

Publication number Publication date
JP2008177834A (en) 2008-07-31

Similar Documents

Publication Publication Date Title
US8165195B2 (en) Method of and apparatus for video intraprediction encoding/decoding
JP4542447B2 (en) Image encoding / decoding device, encoding / decoding program, and encoding / decoding method
US7778459B2 (en) Image encoding/decoding method and apparatus
US8588301B2 (en) Image coding apparatus, control method therefor and computer program
US20100260261A1 (en) Image encoding apparatus, image encoding method, and computer program
KR20170021337A (en) Encoder decisions based on results of hash-based block matching
JP2005524319A (en) Image and image sequence compression through adaptive parcels
JP5037938B2 (en) Image encoding / decoding device, encoding / decoding program, and encoding / decoding method
JP6149707B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, and moving picture photographing apparatus
JP4774315B2 (en) Image decoding apparatus and image decoding method
KR20060008523A (en) Method and apparatus for intra prediction of video data
JP5178616B2 (en) Scene change detection device and video recording device
JP2006100871A (en) Coder, coding method, program of coding method, and recording medium with the program recorded thereon
JP2001128179A (en) Device and method for encoding moving picture
JP4628374B2 (en) Encoding device and program
JP2008283599A (en) Method, apparatus and program for encoding parameter selection, and recording medium for the program
JP4290972B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, recording medium on which image encoding program is recorded, and recording medium on which image decoding program is recorded
JP2005518728A (en) Image processing method and apparatus
KR101583870B1 (en) Image encoding system, image decoding system and providing method thereof
WO2022196133A1 (en) Encoding device and method
KR20150096353A (en) Image encoding system, image decoding system and providing method thereof
JP6348562B2 (en) Decoding device and decoding method
JP6222756B2 (en) Decryption method
JP4429516B2 (en) Image encoding device
JP6096871B2 (en) Decoding device and decoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees