JP2009207071A - Method, apparatus and program for estimating motion estimation accuracy and computer-readable recording medium with the program recorded thereon - Google Patents

Method, apparatus and program for estimating motion estimation accuracy and computer-readable recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2009207071A
JP2009207071A JP2008049750A JP2008049750A JP2009207071A JP 2009207071 A JP2009207071 A JP 2009207071A JP 2008049750 A JP2008049750 A JP 2008049750A JP 2008049750 A JP2008049750 A JP 2008049750A JP 2009207071 A JP2009207071 A JP 2009207071A
Authority
JP
Japan
Prior art keywords
motion estimation
estimation accuracy
frame rate
frame
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008049750A
Other languages
Japanese (ja)
Other versions
JP4824712B2 (en
Inventor
Yukihiro Bando
幸浩 坂東
Kazuya Hayase
和也 早瀬
Masayuki Takamura
誠之 高村
Kazuto Kamikura
一人 上倉
Yoshiyuki Yajima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008049750A priority Critical patent/JP4824712B2/en
Publication of JP2009207071A publication Critical patent/JP2009207071A/en
Application granted granted Critical
Publication of JP4824712B2 publication Critical patent/JP4824712B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new technology for achieving efficient encoding to a high frame rate video. <P>SOLUTION: Four model parameters are input which are described in a function to be used for estimating prediction error power in inter-frame prediction when performing encoding at a certain frame rate and on the basis of these model parameters, a secondary function is determined, with the inverse of the frame rate as a parameter, that is used for estimating motion estimation accuracy to minimize the amount of codes to be generated by encoding for fixing a distortion amount. A value of the frame rate to be processed is then substituted to the secondary function, thereby estimating motion estimation accuracy. An analytic theoretical model is constructed which represents a relationship between the frame rate and motion estimation accuracy, and suitable motion estimation accuracy for each frame rate is estimated using the model, thereby achieving efficient encoding to a high frame rate video. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、高フレームレート映像に対する効率的な符号化を実現する映像符号化で用いられる動き推定精度推定方法およびその装置と、その動き推定精度推定方法の実現に用いられる動き推定精度推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。   The present invention relates to a motion estimation accuracy estimation method and apparatus used in video encoding that realizes efficient encoding for high frame rate video, a motion estimation accuracy estimation program used to realize the motion estimation accuracy estimation method, and The present invention relates to a computer-readable recording medium on which the program is recorded.

近年、臨場感あふれる大画面のスポーツ映像やデジタルシネマに代表される超高画質映像への期待が高まっている。これを受けて、映像の高画質化に関する研究が精力的に行われている。   In recent years, there are growing expectations for super-high-quality images such as large-screen sports images and digital cinema that are full of realism. In response to this, research on high-quality video has been vigorously conducted.

超高画質映像の実現には次の四要素が必要である。すなわち、空間解像度、画素値深度、色再現性、時間解像度である。これを受けて、前者の三要素については、デジタルシネマ等の応用およびナチュラルビジョンプロジェクトにおいて検討が進められている。   The following four elements are necessary to realize super high-quality video. That is, spatial resolution, pixel value depth, color reproducibility, and temporal resolution. In response, the former three elements are being studied in applications such as digital cinema and natural vision projects.

しかし、被写体の自然な動きを表現するために不可欠な時間解像度の向上、即ち、映像の高フレームレート化については、充分な検討がなされていない。   However, sufficient studies have not been made on improving the temporal resolution, that is, increasing the frame rate of an image, which is indispensable for expressing the natural movement of the subject.

Spillmannらによれば、網膜の出力細胞である神経節細胞が出力するパルス数の上限は毎秒300〜400個程度であるとする生理学的な知見が示されている。このため、人の視覚系は最も短くて1/150〜1/200秒程度までの発光の違いを知覚できると推察される。これは、知覚可能なフレームレートの検知限が150〜200[フレーム/秒]であることを意味する。現行映像のフレームレートである30,60[フレーム/秒]は、フリッカーの検知限から定められたものであり、自然な動きを表現するに十分な値ではない。   According to Spillmann et al., Physiological knowledge is shown that the upper limit of the number of pulses output by ganglion cells, which are output cells of the retina, is about 300 to 400 pulses per second. For this reason, it is presumed that the human visual system is the shortest and can perceive the difference in light emission up to 1/150 to 1/200 second. This means that the perceivable frame rate detection limit is 150 to 200 [frames / second]. The current video frame rate of 30, 60 [frame / second] is determined from the flicker detection limit, and is not a sufficient value to express natural motion.

一方、映像の超高画質化はデータ量の爆発的な増加を招くため、ネットワークの帯域制限等の理由により符号量が制限される場合には、効率的な符号化方法が必要となる。   On the other hand, since the super high image quality of the video causes an explosive increase in the amount of data, an efficient encoding method is required when the code amount is limited due to network bandwidth limitations or the like.

高フレームレート映像の場合、フレーム間相関が増加することから、動き補償によるフレーム間予測が効果的である。動き補償のパラメータの一つに動き推定精度がある。例えば、MPEG−2準拠の符号化器における動き推定精度は1/2画素精度となる。   In the case of a high frame rate video, since inter-frame correlation increases, inter-frame prediction by motion compensation is effective. One parameter of motion compensation is motion estimation accuracy. For example, the motion estimation accuracy in an MPEG-2 compliant encoder is ½ pixel accuracy.

高フレームレート映像の場合、フレーム間隔が短くなることから、変移量に高い精度が求められるため、フレームレートと動き推定精度との関係を把握することが重要となる。直感的には、フレームレートの増加に伴い、高い動き推定精度が必要となることが予想される。   In the case of a high frame rate video, since the frame interval is shortened, high accuracy is required for the shift amount. Therefore, it is important to grasp the relationship between the frame rate and the motion estimation accuracy. Intuitively, it is expected that higher motion estimation accuracy is required as the frame rate increases.

しかし、従来の研究では、フレームレートの影響は考慮されておらず、フレームレートと動き推定精度との関係についての定量的な性質は把握されていない(例えば、非特許文献1参照)。このため、アドホックな方法で動き推定精度を設定することになり、動き推定精度が不足した場合、符号化効率が低下する。   However, in the conventional research, the influence of the frame rate is not considered, and the quantitative property regarding the relationship between the frame rate and the motion estimation accuracy is not grasped (for example, refer to Non-Patent Document 1). For this reason, the motion estimation accuracy is set by an ad hoc method. When the motion estimation accuracy is insufficient, the coding efficiency is lowered.

一方、設定可能な範囲における動き推定精度に対して、総当りで符号化を行い、最も符号化効率の高い動き推定精度を選択する方法もある。しかし、この場合には、符号化処理の時間が増大してしまう。
J.Ribas-Corbera and D.L.Neuhoff. Optimizing motion-vector accuracy in block-based video coding. IEEE CSVT, Vol.11, No.4, pp.497-511, 2001.
On the other hand, there is also a method in which the motion estimation accuracy in a settable range is encoded with brute force and the motion estimation accuracy with the highest encoding efficiency is selected. However, in this case, the encoding processing time increases.
J.Ribas-Corbera and DLNeuhoff.Optimizing motion-vector accuracy in block-based video coding.IEEE CSVT, Vol.11, No.4, pp.497-511, 2001.

前述したように、被写体の自然な動きを表現するためには、映像の高フレームレート化を実現する必要がある。   As described above, in order to express the natural movement of the subject, it is necessary to realize a high frame rate of the video.

映像の高フレームレート化を実現するためには、フレーム間隔が短くなることから、変移量に高い精度が求められるため、フレームレートと動き推定精度との関係を把握することが重要となる。   In order to realize a high frame rate of video, since the frame interval is shortened, high accuracy is required for the shift amount, and therefore it is important to grasp the relationship between the frame rate and the motion estimation accuracy.

しかし、従来の研究では、フレームレートと動き推定精度との関係についての定量的な性質は把握されておらず、アドホックな方法で動き推定精度を設定するようにしているのが実情である。   However, in the conventional research, the quantitative property about the relationship between the frame rate and the motion estimation accuracy is not grasped, and the actual situation is that the motion estimation accuracy is set by an ad hoc method.

これから、従来技術に従っていると、高フレームレート映像を符号化するときに、動き推定精度が不足した場合には、符号化効率が低下するという問題があった。   Thus, according to the prior art, when encoding a high frame rate video, if the motion estimation accuracy is insufficient, there is a problem that the encoding efficiency decreases.

本発明はかかる事情に鑑みてなされたものであって、高フレームレート映像に対する符号化処理において、フレームレートと動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレート毎の適切な動き推定精度を推定することで、高フレームレート映像に対する効率的な符号化を実現する新たな動き推定精度推定技術を確立することを目的とする。   The present invention has been made in view of such circumstances. In an encoding process for a high frame rate video, an analytical theoretical model representing the relationship between the frame rate and motion estimation accuracy is constructed, and the theoretical model is It is an object of the present invention to establish a new motion estimation accuracy estimation technique that realizes efficient encoding for a high frame rate video by estimating an appropriate motion estimation accuracy for each frame rate.

この目的を達成するために、本発明の動き推定精度推定装置は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定することを実現するために、(イ)フレームレートを入力するフレームレート入力手段と、(ロ)あるフレームレートで符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述される4個のモデルパラメータを入力するモデルパラメータ入力手段と、(ハ)モデルパラメータ入力手段の入力した4個のモデルパラメータに基づいて、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる、フレームレートの逆数を変数とする二次関数を決定する決定手段と、(ニ)決定手段の決定した二次関数に対して、フレームレート入力手段の入力したフレームレートの値を代入することで、フレームレート入力手段の入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、(ホ)推定手段の推定した動き推定精度を出力する出力手段とを備えるように構成する。   In order to achieve this object, the motion estimation accuracy estimation apparatus of the present invention is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. In order to realize the estimation of motion estimation accuracy that minimizes the amount of code that will be generated in the encoding under the condition that the encoding is constant, (a) the frame rate input to input the frame rate And (b) model parameter input means for inputting four model parameters described in a function used for estimation of prediction error power of inter-frame prediction when encoding is performed at a certain frame rate, and (c) Based on the four model parameters input by the model parameter input means, a code that is generated by the encoding under the condition of the encoding with a constant distortion amount Determining means for determining a quadratic function using a reciprocal of the frame rate as a variable, and (d) a frame rate input means for the quadratic function determined by the determining means. Substituting the value of the input frame rate to estimate the motion estimation accuracy for minimizing the amount of code that will occur when encoding is performed on the frame input by the frame rate input means; And (e) output means for outputting the motion estimation accuracy estimated by the estimation means.

以上の各処理手段が動作することで実現される本発明の動き推定精度推定方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The motion estimation accuracy estimation method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on an appropriate computer-readable recording medium. Alternatively, the present invention is realized by being provided via a network, installed when the present invention is carried out, and operating on a control means such as a CPU.

このように構成される本発明の動き推定精度推定装置では、処理対象となるフレームレートを入力すると、続いて、例えば、(1)参照フレームにおける隣接画素間の差分値の二乗和から導出されるモデルパラメータα1 と、(2)フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出されるモデルパラメータα2 と、(3)原信号に重畳している雑音と参照フレームにおける補間誤差との和の二乗和の近似値から導出されるモデルパラメータα3 と、(4)フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出されるモデルパラメータα4 という4個のモデルパラメータを入力する。 In the motion estimation accuracy estimation apparatus of the present invention configured as described above, when the frame rate to be processed is input, subsequently, for example, (1) derived from the sum of squares of the difference values between adjacent pixels in the reference frame. Model parameter α 1 , (2) model parameter α 2 derived from the sum of the product of the approximation error of Taylor expansion for inter-frame prediction error and the difference value between adjacent pixels in the reference frame, and (3) superposition on the original signal Model parameter α 3 derived from the approximate value of the sum of squares of the sum of the noise and the interpolation error in the reference frame, and (4) a model derived from the approximate sum of squares of the Taylor expansion approximation error for the inter-frame prediction error to enter the four model parameters of that parameter α 4.

ここで、4個のモデルパラメータを入力してから、処理対象となるフレームレートを入力することもある。   Here, after the four model parameters are input, the frame rate to be processed may be input.

続いて、フレームレートをFで表し、動き補償の単位となるセグメントの数をMで表し、係数をκで表すならば、入力した4個のモデルパラメータα1,α2,α3,α4 に基づいて、例えば、
(α1 -2+α2 -1+α3 +α4 )/κα1(M−1)
という関数を決定することで、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる、フレームレートの逆数を変数とする二次関数を決定する。
Subsequently, if the frame rate is represented by F, the number of segments as a unit of motion compensation is represented by M, and the coefficient is represented by κ, the input four model parameters α 1, α 2, α 3, α 4 For example, based on
1 F −2 + α 2 F −1 + α 3 + α 4 ) / κα 1 (M−1)
By determining the function, the reciprocal of the frame rate used to estimate the motion estimation accuracy that minimizes the amount of code that will be generated by the coding under the condition of coding with a constant amount of distortion. Determine a quadratic function as a variable.

この二次関数が、フレームレートとそのフレームレートで符号化を行う場合に発生することになる符号量を最小化する動き推定精度との関係について記述するモデルとなる。   This quadratic function is a model that describes the relationship between the frame rate and the motion estimation accuracy that minimizes the amount of code that occurs when encoding is performed at that frame rate.

これから、続いて、決定した二次関数に対して、入力したフレームレートの値を代入することで、前記入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定して、その推定した動き推定精度を出力する。   Next, motion estimation that minimizes the amount of code that will occur when encoding is performed on the input frame by substituting the value of the input frame rate for the determined quadratic function. The accuracy is estimated, and the estimated motion estimation accuracy is output.

本発明によれば、フレームレートが与えられた場合に、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度を推定することができるようになる。   According to the present invention, it is possible to estimate the motion estimation accuracy that minimizes the code amount when the distortion amount is constant (quantization step width is fixed) when the frame rate is given.

すなわち、本発明によれば、フレームレートに応じた適切な動き推定精度を設定することが可能となり、動き推定精度の不足に伴う符号化効率の低下を回避できるようになる。また、一般に、高い動き推定精度が必要とされる高フレームレート映像の符号化において、適切な動き推定精度を予め見積もることが可能となり、符号化処理を高速化できることが見込める。   That is, according to the present invention, it is possible to set an appropriate motion estimation accuracy according to the frame rate, and it is possible to avoid a decrease in coding efficiency due to a lack of motion estimation accuracy. In general, in encoding of a high frame rate video that requires high motion estimation accuracy, it is possible to estimate appropriate motion estimation accuracy in advance, and it is expected that the encoding process can be speeded up.

以下、実施の形態に従って本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments.

前述したように、本発明では、高フレームレート映像に対する符号化処理において、フレームレートと動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレート毎の適切な動き推定精度を推定することで、高フレームレート映像に対する効率的な符号化を実現するものである。   As described above, in the present invention, in an encoding process for a high frame rate video, an analytical theoretical model representing the relationship between the frame rate and the motion estimation accuracy is constructed, and the frame model is used for each frame rate using the theoretical model. By estimating the appropriate motion estimation accuracy, efficient coding for a high frame rate video is realized.

次に、まず最初に、『[1]フレームレートとフレーム間予測誤差電力との関係』で、フレームレートとフレーム間予測誤差電力との関係について説明し、続いて、『[2]パラメータ推定』で、フレームレートとフレーム間予測誤差電力との関係に記述されるパラメータの推定について説明し、続いて、『[3]変移量推定誤差とフレームレートとの関係』で、フレームレートとフレーム間予測誤差電力との関係の導出にあたって必要となる変移量推定誤差とフレームレートとの関係について説明し、最後に、『[4]動き推定精度の最適化』で、フレームレートと動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレート毎の適切な動き推定精度を推定する構成について説明する。   Next, first, “[1] Relationship between frame rate and inter-frame prediction error power” explains the relationship between frame rate and inter-frame prediction error power, followed by “[2] Parameter estimation”. The parameter estimation described in the relationship between the frame rate and the inter-frame prediction error power will be described, and then, “[3] Relationship between the displacement estimation error and the frame rate” will be described. The relationship between the shift amount estimation error and the frame rate necessary for deriving the relationship with the error power will be explained. Finally, in [4] Optimization of motion estimation accuracy, the relationship between the frame rate and motion estimation accuracy. A configuration is described in which an analytical theoretical model representing the above is constructed and appropriate motion estimation accuracy for each frame rate is estimated using the theoretical model.

[1]フレームレートとフレーム間予測誤差電力との関係
フレームレートとフレーム間予測誤差電力との関係を解析的に導出する。ここでは、簡単のため1次元信号を例にとり説明する。
[1] Relationship between frame rate and inter-frame prediction error power The relationship between frame rate and inter-frame prediction error power is analytically derived. Here, for simplicity, a one-dimensional signal will be described as an example.

Xサンプルを有する時刻tの位置xにおける観測信号をgt (x)(0≦x≦X−1)として、LサンプルからなるセグメントB[i](i=1,2,... ,X/L)を単位として動き補償(推定変位量^d[i])を行い、そのセグメント内の動き補償後の予測誤差を評価する。 An observation signal at position x at time t having X samples is represented by g t (x) (0 ≦ x ≦ X−1), and segment B [i] (i = 1, 2,. / L) as a unit, motion compensation (estimated displacement ^ d [i]) is performed, and the prediction error after motion compensation in the segment is evaluated.

ここで、観測信号gt (x)は、画像信号ft (x)に雑音nt (x)が重畳して構成されているものとする。すなわち、
t (x)=ft (x)+nt (x)
とする。
Here, it is assumed that the observation signal g t (x) is configured by superimposing noise n t (x) on the image signal f t (x). That is,
g t (x) = ft (x) + nt (x)
And

なお、以下の表記において、「^X」(Xは文字)における記号^は、「X」の上に付く記号を示している。また、以下では、位置xにおける真の変位量をd(x)としている。   In the following notation, the symbol ^ in “^ X” (where X is a letter) indicates a symbol attached to “X”. In the following, the true displacement amount at the position x is d (x).

推定変移量^d[i]が小数画素精度の場合、参照画素値を補間処理により生成する。補間対象の信号をst (x)とすると、補間処理は下記の式(1)で表されるフィルタリングとなる。なお、以下では、下記の式(1)式の左辺の演算子を「I」で表記することがある。 When the estimated shift amount ^ d [i] has decimal pixel accuracy, a reference pixel value is generated by interpolation processing. When a signal to be interpolated and s t (x), the interpolation processing is filtering represented by the following formula (1). In the following, the operator on the left side of the following formula (1) may be expressed as “I”.

Figure 2009207071
Figure 2009207071

ここで、δは動き推定の精度である。例えば、MPEG−2準拠の符号化器の場合、δ=1/2に設定される。また、補間係数ψj [k]は下記の式(2)を満たすものとする。 Here, δ is the accuracy of motion estimation. For example, in the case of an MPEG-2 compliant encoder, δ = 1/2 is set. The interpolation coefficient ψ j [k] satisfies the following expression (2).

Figure 2009207071
Figure 2009207071

前述の補間フィルタを用いて、参照位置の画素値は、I(〜gt-1 (x+^d[i])(q) )として近似される。 Using the above-described interpolation filter, the pixel value at the reference position is approximated as I (˜gt 1 (x + ^ d [i]) (q) ).

なお、以下の表記において、「〜X」(Xは文字)における記号〜は、「X」の上に付く記号を示している。   In the following notation, the symbol “˜X” (where X is a letter) indicates a symbol attached to “X”.

ここで、〜gt-1 (x+^d[i])(q) は、gt-1 (x+^d[i])に対して、量子化ステップ幅qでの量子化を行った場合の復号信号であり、下記の式(3)のように表せる。 Here, ~ gt -1 (x + ^ d [i]) (q) is a case where quantization with a quantization step width q is performed on gt -1 (x + ^ d [i]). And is expressed as the following equation (3).

Figure 2009207071
Figure 2009207071

この式(3)におけるvt-1 (x+^d[i])qは、量子化に伴い発生する誤差を表しており、vt-1 (x+^d[i])は信号ft-1 (x+^d[i])に依存するパラメータである。 In this equation (3), v t-1 (x + ^ d [i]) q represents an error caused by quantization, and v t-1 (x + ^ d [i]) represents the signal f t- 1 This parameter depends on (x + ^ d [i]).

参照位置の画素値ft-1 (x+^d[i])と補間により生成した値Ι(〜gt-1 (x+^d[i])(q) )との差は、前述の式(3)を使い、下記の式(4)のように表せる。 The difference between the pixel value f t-1 (x + ^ d [i]) at the reference position and the value Ι (˜gt 1 (x + ^ d [i]) (q) ) generated by interpolation is the above-described equation. Using (3), it can be expressed as the following equation (4).

Figure 2009207071
Figure 2009207071

ここで、et-1 int (x+^d[i])は、
t-1 int (x+^d[i])
=ft-1 (x+^d[i])−I(ft-1 (x+^d[i]))
の通りである。
Here, e t-1 int (x + ^ d [i]) is
e t-1 int (x + ^ d [i])
= Ft-1 (x + ^ d [i])-I ( ft-1 (x + ^ d [i]))
It is as follows.

このとき、セグメント内の動き補償後の予測誤差は、“gt (x)=ft (x)+nt (x)”と前述の式(3)とを使うことで、下記の式(5)のように表せる。 In this case, the prediction error after motion compensation in a segment, "g t (x) = f t (x) + n t (x)" and the above equations (3) and by using the equation below (5 ).

Figure 2009207071
Figure 2009207071

ここで、φ(x)は、テイラー展開の2次以降の項である。   Here, φ (x) is the second and subsequent terms of Taylor expansion.

また、N(x)は、参照フレームにおける補間誤差Nt-1 ref (x)と原信号に重畳している雑音nt (x)との和であり、
N(x)=nt (x)−I(nt-1 (x+^d[i]))
+et-1 int (x+^d[i])−I(vt-1 (x+^d[i]))q
のように表せる。
N (x) is the sum of the interpolation error N t-1 ref (x) in the reference frame and the noise n t (x) superimposed on the original signal,
N (x) = nt (x) -I ( nt-1 (x + ^ d [i]))
+ Et-1 int (x + ^ d [i])-I (vt -1 (x + ^ d [i])) q
It can be expressed as

また、ζ[i](x)は、推定変移量^d[i]とxにおける真の変移量d[i](x)との推定誤差であり、
ζ[i](x)=d[i](x)−^d[i]
のように表せる。
Further, ζ [i] (x) is an estimation error between the estimated shift amount ^ d [i] and the true shift amount d [i] (x) at x.
ζ [i] (x) = d [i] (x) − ^ d [i]
It can be expressed as

後述する『[3]変移量推定誤差とフレームレートとの関係』で説明するように、変移量推定誤差をフレームレートFの関数として、下記の式(6)(7)ように近似できる。   As will be described later in “[3] Relationship between shift amount estimation error and frame rate”, the shift amount estimation error can be approximated as a function of frame rate F as shown in the following equations (6) and (7).

Figure 2009207071
Figure 2009207071

ここで、κ1 ,κ1 ’およびκ2 は映像信号に依存する定数である。また、δは動き推定の精度である。例えば、MPEG−2準拠の符号化器の場合、δ=1/2に設定される。 Here, κ 1 , κ 1 ′ and κ 2 are constants depending on the video signal. Also, δ is the accuracy of motion estimation. For example, in the case of an MPEG-2 compliant encoder, δ = 1/2 is set.

全セグメント(B[i](i=1,2,... ,X/L))に対するσ[i]2 の和を算出する。このとき、N(x)の各項の独立性を仮定することで、下記の式(8)に示すような近似式を得る。 The sum of σ [i] 2 is calculated for all segments (B [i] (i = 1, 2,..., X / L)). At this time, by assuming the independence of each term of N (x), an approximate expression as shown in the following expression (8) is obtained.

Figure 2009207071
Figure 2009207071

ここで、〜N(x)2 は下記の式(9)に示す通りである。 Here, ~ N (x) 2 is as shown in the following formula (9).

Figure 2009207071
Figure 2009207071

さらに、変移量推定誤差ζ[i](x)と画素値の微分値とが統計的に独立だと仮定して、式(6)および式(7)を式(8)に代入すると、予測誤差電力について下記の式(10)に示す近似式を得る。   Further, assuming that the displacement estimation error ζ [i] (x) and the differential value of the pixel value are statistically independent, substituting Equation (6) and Equation (7) into Equation (8) gives the prediction For the error power, an approximate expression shown in the following expression (10) is obtained.

Figure 2009207071
Figure 2009207071

ここで、モデルパラメータα1,α2,α3,α4,α5 は、それぞれ下記の式(11)の通りである。 Here, the model parameters α 1, α 2, α 3, α 4, and α 5 are respectively expressed by the following formula (11).

Figure 2009207071
Figure 2009207071

この式から分かるように、モデルパラメータα1 は、参照フレームにおける隣接画素間の差分値の二乗和から導出されることになる。また、モデルパラメータα2 は、フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出されることになる。また、モデルパラメータα3 は、原信号に重畳している雑音nt (x)と参照フレームにおける補間誤差Nt-1 ref (x)との和として定義されるN(x)の二乗値の近似値として導出されることになる。また、モデルパラメータα4 は、フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出されることになる。 As can be seen from this equation, the model parameter α 1 is derived from the sum of squares of the difference values between adjacent pixels in the reference frame. Further, the model parameter α 2 is derived from the sum of products of the approximation error of Taylor expansion with respect to the inter-frame prediction error and the difference value between adjacent pixels in the reference frame. The model parameter α 3 is a square value of N (x) defined as the sum of the noise n t (x) superimposed on the original signal and the interpolation error N t-1 ref (x) in the reference frame. It will be derived as an approximate value. The model parameter α 4 is derived from the sum of squares of approximation errors of Taylor expansion with respect to interframe prediction errors.

[2]パラメータの推定
次に、モデルパラメータα3 を定義する前述の式(9)の推定について説明する。前述の式(9)の各項は以下のように推定する。
[2] Parameter Estimation Next, estimation of the above-described equation (9) that defines the model parameter α 3 will be described. Each term of the above equation (9) is estimated as follows.

前述の式(9)の第一項のnt (x)2 は、カメラの熱雑音等に起因する雑音成分の電力である。 N t (x) 2 in the first term of the above equation (9) is the power of the noise component due to the thermal noise of the camera.

この推定には、まず、フレーム内の静止領域を同定する。静止領域の同定方法については外部から与えられる。例えば、フレームをブロックに分割し、ブロック毎に動き推定を行い動きベクトルを求め、その動きベクトルがゼロベクトルとなった領域を静止領域とする。静止領域と同定されたブロックに対して、フレーム間差分を求める。そのフレーム間差分信号の二乗和を求め、その二乗和の画素平均値nt (x)2 を推定値とする。 For this estimation, first, a still region in a frame is identified. The method for identifying the static region is given from the outside. For example, a frame is divided into blocks, motion estimation is performed for each block to obtain a motion vector, and a region where the motion vector becomes a zero vector is set as a still region. An inter-frame difference is obtained for a block identified as a still region. The square sum of the inter-frame difference signal is obtained, and the pixel average value n t (x) 2 of the square sum is used as the estimated value.

前述の式(9)の第二項のI(nt-1 (x+^d[i]))2 は、補間フィルタ通過後の雑音成分の電力である。 I (n t-1 (x + ^ d [i])) 2 of the second term of the above-described equation (9) is the power of the noise component after passing through the interpolation filter.

雑音成分nt (x)2 が無相関であると仮定し、jδ(j=1,... ,δ-1−1)画素位置での補間フィルタ通過後の雑音電力を下記の式(12)のように近似する。 Assuming that the noise component n t (x) 2 is uncorrelated, the noise power after passing through the interpolation filter at jδ (j = 1,..., Δ −1 −1) pixel position is expressed by the following equation (12): ).

Figure 2009207071
Figure 2009207071

さらに、jδ(j=1,... ,δ-1−1)画素位置での補間フィルタ処理が、ほぼ同程度の頻度で行われたと仮定すると、I(nt-1 (x+^d[i]))2 は下記の式(13)のように近似できる。 Further, assuming that the interpolation filter processing at the jδ (j = 1,..., Δ −1 −1) pixel position is performed at substantially the same frequency, I ( nt−1 (x + ^ d [ i])) 2 can be approximated by the following equation (13).

Figure 2009207071
Figure 2009207071

前述の式(9)の第三項のet-1 int (x+^d[i])2 は、小数画素位置の画素値の補間に伴う推定誤差である。 The third term e t-1 int (x + ^ d [i]) 2 in the above equation (9) is an estimation error accompanying interpolation of the pixel value at the decimal pixel position.

t (x)に対して、ダウンサンプリング処理を行い、解像度をδに縮小した画像信号ht (x)を得る。ダウンサンプリング処理に用いるフィルタは外部から与えられるものとする。例えば、前述の補間フィルタの逆フィルタ、あるいは、sinc関数に基づく帯域制限フィルタ等が考えられる。このht (x)に対して、前述の補間フィルタにより、解像度をδ-1倍に拡大した信号ft (x)’を得る。同補間フィルタに伴う補間誤差の推定値として、下記の式(14)により近似する。 A downsampling process is performed on f t (x) to obtain an image signal h t (x) with a resolution reduced to δ. It is assumed that the filter used for the downsampling process is given from the outside. For example, an inverse filter of the above-described interpolation filter or a band limiting filter based on the sinc function can be considered. For this h t (x), a signal f t (x) ′ whose resolution is enlarged δ −1 times is obtained by the interpolation filter described above. The estimated value of the interpolation error associated with the interpolation filter is approximated by the following equation (14).

Figure 2009207071
Figure 2009207071

前述の式(9)の第四項のI(vt-1 (x+^d[i]))2 2 は、参照信号の量子化に伴う誤差である。 I (v t-1 (x + ^ d [i])) 2 q 2 in the fourth term of the above equation (9) is an error accompanying quantization of the reference signal.

参照信号として原信号を用いた場合の予測誤差電力と参照信号として量子化・逆量子化により得られる復号信号を用いた場合の予測誤差電力との差分値(画素平均)を、vt-1 (x+^d[i])2 2 の推定値“−εq ”とする。ここで、“−εq ”における記号“−”は“εq ”の上に付く記号を示している。さらに、この推定値“−εq ”を用いて、I(vt-1 (x+^d[i]))2 2 を下記の式(15)のように近似する。 The difference value (pixel average) between the prediction error power when the original signal is used as the reference signal and the prediction error power when the decoded signal obtained by quantization / inverse quantization is used as the reference signal is represented by v t−1. Let (x + ^ d [i]) 2 q 2 be an estimated value “−ε q ”. Here, - symbols in "ε q" "-" indicates the symbols attached to the top of the "epsilon q". Further, using this estimated value “−ε q ”, I (v t−1 (x + ^ d [i])) 2 q 2 is approximated as in the following equation (15).

Figure 2009207071
Figure 2009207071

[3]変移量推定誤差とフレームレートとの関係
次に、前述の式(6)(7)が成立することについて説明する。
[3] Relationship between Transition Amount Estimation Error and Frame Rate Next, the fact that the above-described equations (6) and (7) are established will be described.

[3−1]式(6)の導出
連続値として表した場合の変移量^dF [i]を離散した場合の離散値を〜dF [i]とする。このときの離散化誤差をε[i]とすると、〜dF [i]は下記の式(16)のようにあらわせる。
[3-1] Derivation of Equation (6) A discrete value when the amount of change ^ d F [i] expressed as a continuous value is discrete is denoted by ˜d F [i]. Assuming that the discretization error at this time is ε [i], ˜d F [i] is expressed by the following equation (16).

Figure 2009207071
Figure 2009207071

ε[i]は平均が零値、分散が動き推定精度の二乗値に比例する一様分布に従うものと仮定する。二乗誤差規範に基づくブロックマッチングでは、各ブロックに対する推定変移量は、ブロック中央位置の画素の変移量を用いて近似的にあらわすことができる。xc [i]をセグメントB[i]の中央位置の座標とすると、これにより、フレームレートF=F0 の場合の推定変移量は下記の式(17)のように近似できる。 It is assumed that ε [i] follows a uniform distribution in which the mean is zero and the variance is proportional to the square value of motion estimation accuracy. In block matching based on the square error criterion, the estimated shift amount for each block can be approximately expressed using the shift amount of the pixel at the block center position. Assuming that x c [i] is the coordinates of the center position of the segment B [i], the estimated shift amount when the frame rate F = F 0 can be approximated as in the following equation (17).

Figure 2009207071
Figure 2009207071

さらに、^xにおける変移量と^x’における変移量との差分は平均がゼロ、分散が両座標位置の差分値に比例する正規分布としてモデル化できる。ここで、^xおよび^x’は、セグメントB[i](i=1,2,... ,X/L)内での座標位置を示す。つまり、下記の式(18)のような近似が可能となる。   Further, the difference between the shift amount at ^ x and the shift amount at ^ x 'can be modeled as a normal distribution in which the average is zero and the variance is proportional to the difference value between the two coordinate positions. Here, {circumflex over (x)} and {circumflex over (x)} ′ denote coordinate positions in the segment B [i] (i = 1, 2,..., X / L). That is, approximation as shown in the following equation (18) is possible.

Figure 2009207071
Figure 2009207071

ここで、E[・]は期待値演算を表し、^ch は信号依存のパラメータである。同モデルは、全セグメントB[i](i=1,2,... ,X/L)における変移量の差分値(dF0[i](^x)−dF0[i](^x’))に対する集合平均の良好な近似値を与える。 Here, E [·] denotes the expectation operation, ^ c h is a parameter of the signal-dependent. The model is the difference value (d F0 [i] (^ x) −d F0 [i] (^ x) of the transition amount in all segments B [i] (i = 1, 2,..., X / L). Give a good approximation of the set average for ')).

式(17)(18)により、下記の式(19)を得る。   The following equation (19) is obtained from the equations (17) and (18).

Figure 2009207071
Figure 2009207071

ここで、ch 2 =(X/L)^ch 2 である。ξはセグメントB[i]の中央位置を原点とする座標系での座標値であり、ξはx−x0 [i]と表すことができる。つまり、ξはセグメントB[i]の中央位置からの距離である。 Here, c h 2 = (X / L) ^ c h 2 . ξ is a coordinate value in a coordinate system with the center position of the segment B [i] as the origin, and ξ can be expressed as xx 0 [i]. That is, ξ is a distance from the center position of the segment B [i].

異なるフレームレートにおける2つの変移量の関係を導く。隣接フレーム間での物体の移動は、等速運動に従うものと仮定する。この場合、物体の変移量はフレーム間隔に比例する。つまり、変移量はフレームレートに反比例するといえる。これにより、下記の式(20)の関係を得る。   Deriving the relationship between two shifts at different frame rates. It is assumed that the movement of the object between adjacent frames follows a uniform motion. In this case, the amount of displacement of the object is proportional to the frame interval. That is, it can be said that the shift amount is inversely proportional to the frame rate. Thereby, the relationship of the following formula | equation (20) is obtained.

Figure 2009207071
Figure 2009207071

式(16)、式(20)およびε[i]がフレームレートに依存しないという仮定を用いて、下記の式(21)を得る。   Using equation (16), equation (20) and the assumption that ε [i] does not depend on the frame rate, the following equation (21) is obtained.

Figure 2009207071
Figure 2009207071

式(21)およびε[i]が統計的に変移量と独立であるとする仮定を用いることで、下記の式(22)を得る。   By using the assumption that the equation (21) and ε [i] are statistically independent of the shift amount, the following equation (22) is obtained.

Figure 2009207071
Figure 2009207071

ここで、ξ=x−xc [i]、また、δは動き推定精度を表す。例えば、MPEG−2の符号化器の場合、δ=1/2に設定され、MPEG−4ASP(Advanced Simple Profile) の符号化器の場合、δ=1/4に設定される。 Here, ξ = x−x c [i], and δ represents the motion estimation accuracy. For example, in the case of an MPEG-2 encoder, δ is set to 1/2, and in the case of an MPEG-4 ASP (Advanced Simple Profile) encoder, δ is set to ¼.

式(22)において、F0 2h 2 Σξ2 をκ1 と表し、XY/12をκ1'と表すことにより、式(6)を得る。 In the formula (22), it represents a F 0 2 c h 2 Σξ 2 κ 1 and, by the XY / 12 expressed as kappa 1 ', to obtain a formula (6).

[3−2]式(7)の導出
ε[i]がゼロ平均の一様分布に従うと仮定すると、下記の式(23)を得る。
[3-2] Derivation of Equation (7) Assuming that ε [i] follows a zero-average uniform distribution, the following Equation (23) is obtained.

Figure 2009207071
Figure 2009207071

ζF [i](x)を、
ζF [i](x)=dF [i](x)−^dF [i]
のように定義する変移量の推定誤差とする。
ζ F [i] (x)
ζ F [i] (x) = d F [i] (x) − ^ d F [i]
It is assumed that the deviation estimation error is defined as follows.

このとき、{ΣΣζF [i](x)}2 について、下記の式(24)の通り表すことができる。 At this time, {ΣΣζ F [i] (x)} 2 can be expressed as the following equation (24).

Figure 2009207071
Figure 2009207071

式(24)の第一項は、式(22)により近似することができる。また、第二項はシュワルツの不等式より下記の式(25)の関係をみたす。   The first term of equation (24) can be approximated by equation (22). The second term satisfies the following equation (25) from the Schwarz inequality.

Figure 2009207071
Figure 2009207071

ここで、ξ=x−xc [i]、ξ’=x’−xc [i]である。この式(25)の不等式により、下記の式(26)の近似式を得る。 Here, ξ = x−x c [i] and ξ ′ = x′−x c [i]. The approximate expression of the following expression (26) is obtained from the inequality of the expression (25).

Figure 2009207071
Figure 2009207071

ここで、βは−1から1の範囲の値をとるパラメータである。式(26)および式(22)を式(24)に代入することにより下記の式(27)を得る。   Here, β is a parameter that takes a value in the range of −1 to 1. By substituting Equation (26) and Equation (22) into Equation (24), the following Equation (27) is obtained.

Figure 2009207071
Figure 2009207071

したがって、下記の式(28)を得る。   Therefore, the following equation (28) is obtained.

Figure 2009207071
Figure 2009207071

ここで、γは1か−1である。式(28)に記述される下記の式(29)をκ2 とおくことにより、式(7)を得る。 Here, γ is 1 or -1. Formula (7) is obtained by setting the following formula (29) described in formula (28) as κ 2 .

Figure 2009207071
Figure 2009207071

[4]動き推定精度の最適化
歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を評価関数として考える。以下では、量子化ステップ幅が与えられた場合に、その評価関数を最小化する動き推定精度を算出する方法について詳述する。
[4] Optimization of motion estimation accuracy Consider the code amount when the distortion amount is constant (quantization step width is fixed) as an evaluation function. Hereinafter, a method of calculating motion estimation accuracy that minimizes the evaluation function when a quantization step width is given will be described in detail.

量子化ステップ幅q、フレームレートF、動き推定精度δが与えられた場合、フレーム間予測誤差の符号量は、
c (q,F,δ)=(1/2)log2 γc (P(F,δ)/q2
・・・ 式(30)
のようにモデル化できる。
When the quantization step width q, the frame rate F, and the motion estimation accuracy δ are given, the code amount of the inter-frame prediction error is
R c (q, F, δ) = (1/2) log 2 γ c (P (F, δ) / q 2 )
... Formula (30)
Can be modeled as follows.

ここで、γc は信号依存の定数パラメータである。また、P(F,δ)は、
P(F,δ)=Σσ[i]2 但し、Σはi=1〜X/Lについての総和
であり、フレーム内の予測誤差電力和を示す。
Here, γ c is a signal-dependent constant parameter. P (F, δ) is
P (F, δ) = Σσ [i] 2 where Σ is the sum for i = 1 to X / L and represents the prediction error power sum in the frame.

一方、フレームレートF、動き推定精度δが与えられた場合、変移量の符号量は、
mv(F,δ)=(X/L)log2 (2U(F)/δ) ・・・ 式(31)
のようにモデル化できる。
On the other hand, when the frame rate F and the motion estimation accuracy δ are given, the code amount of the shift amount is
R mv (F, δ) = (X / L) log 2 (2U (F) / δ) (31)
Can be modeled as follows.

ここで、U(F)はフレームレートがFの場合の動き推定の探索範囲を表しており、変移量^dは−U(F)≦^d≦U(F)−1の範囲をとりうるものとする。したがって、2U(F)/δは探索範囲内における推定変移量の候補数を表す。   Here, U (F) represents a motion estimation search range when the frame rate is F, and the shift amount ^ d can take a range of -U (F) ≤ ^ d≤U (F) -1. Shall. Therefore, 2U (F) / δ represents the number of candidates for the estimated shift amount within the search range.

変移量はフレーム間隔に比例して減少するため、符号量削減の観点から、U(F)はFに反比例するように、
U(F)=U0 0 /F
というように設定する。ここで、U0 はフレームレートがF0 の場合の動き推定の範囲を表すパラメータである。
Since the shift amount decreases in proportion to the frame interval, U (F) is inversely proportional to F from the viewpoint of code amount reduction.
U (F) = U 0 F 0 / F
And so on. Here, U 0 is a parameter representing the range of motion estimation when the frame rate is F 0 .

このとき、予測誤差信号と変移量の符号量の総和は、
R(q,F,δ)=Rc (q,F,δ)+Rmv(F,δ) ・・・ 式(32)
となる。
At this time, the sum of the code amount of the prediction error signal and the shift amount is
R (q, F, δ) = R c (q, F, δ) + R mv (F, δ) (32)
It becomes.

この式(32)が歪み量を一定(量子化ステップ幅qを固定)とした場合の符号量を与えている。   This equation (32) gives the code amount when the distortion amount is constant (quantization step width q is fixed).

このようにフレームレートF、量子化ステップ幅qが与えられた場合に、R(q,F,δ)を最小化する動き推定精度δ* (F)を算出する。求めるべきδ* (F)は、
∂R(q,F,δ)/∂δ
=∂Rc (q,F,δ)/∂δ+∂Rmv(F,δ)/∂δ=0
・・・ 式(33)
という式を満たす。
In this way, when the frame rate F and the quantization step width q are given, the motion estimation accuracy δ * (F) that minimizes R (q, F, δ) is calculated. Δ * (F) to be obtained is
∂R (q, F, δ) / ∂δ
= ∂R c (q, F, δ) / ∂δ + ∂R mv (F, δ) / ∂δ = 0
... Formula (33)
The following expression is satisfied.

この式(33)を満たすδ* (F)は、下記の式(34)のように表せる。 Δ * (F) satisfying the expression (33) can be expressed as the following expression (34).

Figure 2009207071
Figure 2009207071

ここで、この式(34)の値は、下記の式(35)および式(36)の関係を満足する。   Here, the value of the equation (34) satisfies the relationship of the following equations (35) and (36).

Figure 2009207071
Figure 2009207071

式(35)は、フレームレートの増加と共に動き推定精度を小さくする必要があることを示している。さらに、式(36)は、フレームレートが極限まで大きくなると、動き推定精度の減少は収束することを示している。なお、ここでは、モデルパラメータα4 はF-1の4次以上の項からなることを考慮している。 Equation (35) indicates that the motion estimation accuracy needs to be reduced as the frame rate increases. Furthermore, equation (36) indicates that the decrease in motion estimation accuracy converges when the frame rate increases to the limit. Here, it is considered that the model parameter α 4 includes a fourth-order or higher term of F −1 .

モデルパラメータα3 における〜N(x)は、推定変移量^dが小数画素精度の場合、参照に必要な補間位置の画素値を生成することに伴う誤差、撮像系の熱雑音等に起因する成分からなる誤差項である。フレームレートが極限まで大きくなり、フレーム間隔が極限まで小さくなると、フレーム間予測誤差内において、その誤差項に起因する成分が支配的になる。こうした状況では、動き推定精度を高めても、それに見合う予測誤差の低減は得られない。このことを式(36)は示しており、映像信号の物理的な性質に符合する。 ~ N (x) in the model parameter α 3 is caused by an error accompanying generation of a pixel value at an interpolation position required for reference, thermal noise of the imaging system, etc., when the estimated shift amount ^ d is decimal pixel accuracy. It is an error term consisting of components. When the frame rate increases to the limit and the frame interval decreases to the limit, the component due to the error term becomes dominant in the inter-frame prediction error. In such a situation, even if the motion estimation accuracy is increased, a reduction in prediction error corresponding to the accuracy cannot be obtained. This is shown in equation (36), which matches the physical nature of the video signal.

このようにして、本発明によれば、フレームレートFが与えられた場合に、式(34)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出することができるようになる。 In this way, according to the present invention, when the frame rate F is given, the movement of minimizing the code amount when the distortion amount is constant (the quantization step width is fixed) according to the equation (34). The estimated accuracy δ * (F) can be calculated.

次に、本発明の実施例について説明する。   Next, examples of the present invention will be described.

図1に、本発明を具備する映像符号化装置1の装置構成を図示する。   FIG. 1 shows a device configuration of a video encoding device 1 having the present invention.

この図に示すように、本発明の映像符号化装置1は、符号化対象となる映像を格納する映像ファイル10と、非整数画素精度の動き推定を行うフレーム間予測を使って、映像ファイル10に格納される映像を符号化する符号化部11と、符号化部11がフレーム間予測を行う上で必要となる動き推定精度を算出して符号化部11に与える動き推定精度算出部12と、符号化部11の符号化した符号化データを格納する符号化データファイル13とを備える。   As shown in this figure, the video encoding device 1 of the present invention uses a video file 10 that stores video to be encoded and inter-frame prediction that performs motion estimation with non-integer pixel accuracy, and uses the video file 10. An encoding unit 11 that encodes the video stored in the video, a motion estimation accuracy calculation unit 12 that calculates the motion estimation accuracy necessary for the encoding unit 11 to perform inter-frame prediction, and provides the motion estimation accuracy to the encoding unit 11; And an encoded data file 13 for storing the encoded data encoded by the encoding unit 11.

図2および図3に、動き推定精度算出部12の実行するフローチャートを図示する。次に、このフローチャートに従って、本発明の実行する処理について詳細に説明する。   2 and 3 are flowcharts executed by the motion estimation accuracy calculation unit 12. Next, processing executed by the present invention will be described in detail according to this flowchart.

動き推定精度算出部12は、図2のフローチャートに示すように、まず最初に、ステップS101で、符号化対象フレームを読み込み、続くステップS102で、参照フレームを読み込む。   As shown in the flowchart of FIG. 2, the motion estimation accuracy calculation unit 12 first reads the encoding target frame in step S101, and then reads the reference frame in step S102.

続いて、ステップS103で、参照フレームにおける隣接画素間の差分値を算出する。すなわち、式(11)のα1 の定義式に記述される「d/dx(ft-1(x))」を算出するのである。 Subsequently, in step S103, a difference value between adjacent pixels in the reference frame is calculated. That is, “d / dx (f t−1 (x))” described in the definition formula of α 1 in Expression (11) is calculated.

続いて、ステップS104で、ステップS103で算出した隣接画素間差分値の二乗和を算出する。すなわち、式(11)のα1 の定義式に記述される「ΣΣ(d/dx(ft-1(x)))2 」を算出するのである。 Subsequently, in step S104, the sum of squares of the difference values between adjacent pixels calculated in step S103 is calculated. That is, “ΣΣ (d / dx (ft −1 (x))) 2 ” described in the definition formula of α 1 in Expression (11) is calculated.

続いて、ステップS105で、フレーム間予測誤差に対するテイラー展開の近似誤差を算出する。すなわち、式(11)のα2,α4 の定義式に記述される「φ(x)」を算出するのである。 Subsequently, in step S105, an approximation error of Taylor expansion with respect to the inter-frame prediction error is calculated. That is, “φ (x)” described in the definition formula of α 2 and α 4 in the equation (11) is calculated.

続いて、ステップS106で、ステップS105で算出したテイラー展開の近似誤差とステップS103で算出した隣接画素間差分値との積の和を算出する。すなわち、式(11)のα2 の定義式に記述される「ΣΣ(φ(x)×d/dx(ft-1(x)))」を算出するのである。 Subsequently, in step S106, the sum of the products of the approximation error of Taylor expansion calculated in step S105 and the difference value between adjacent pixels calculated in step S103 is calculated. That is, “ΣΣ (φ (x) × d / dx (ft -1 (x)))” described in the definition formula of α 2 in Expression (11) is calculated.

続いて、ステップS107で、ステップS105で算出したテイラー展開の近似誤差の二乗和を算出することでモデルパラメータα4 を算出する。すなわち、式(11)のα4 の定義式に記述される「ΣΣ(φ(x)2 )」を算出することで、モデルパラメータα4 を算出するのである。 Subsequently, at step S107, it calculates a model parameter alpha 4 by calculating the square sum of the approximation error of the Taylor expansion calculated in step S105. That is, the model parameter α 4 is calculated by calculating “ΣΣ (φ (x) 2 )” described in the definition formula of α 4 in the equation (11).

続いて、ステップS108で、式(11)のα3 の定義式に記述される「ΣΣ(〜N(x)2 )」を算出することでモデルパラメータα3 を算出する。このステップS108で実行するモデルパラメータα3 の算出処理の詳細については、図3のフローチャートで後述する。 Subsequently, at step S108, it calculates a model parameter alpha 3 by calculating the "ΣΣ (~N (x) 2)" described in the alpha 3 defining equation of the formula (11). Details of the calculation process of the model parameter α 3 executed in step S108 will be described later with reference to the flowchart of FIG.

一方、ステップS109で、フレームレートFを読み込み、続くステップS110で、読み込んだフレームレートの逆数F-1を算出し、続くステップS111で、算出したフレームレートの逆数の二乗値F-2を算出する。 On the other hand, in step S109, the frame rate F is read. In the subsequent step S110, the reciprocal number F −1 of the read frame rate is calculated. In the subsequent step S111, the square value F −2 of the reciprocal number of the calculated frame rate is calculated. .

続いて、ステップS112で、フレーム内の画素数Xを読み込み、続くステップS113で、セグメント内の画素数Lを読み込む。すなわち、『[1]フレームレートとフレーム間予測誤差電力との関係』で説明したXサンプルのXの値とLサンブルのLの値とを読み込むのである。   Subsequently, in step S112, the number of pixels X in the frame is read, and in step S113, the number of pixels L in the segment is read. That is, the X value of the X sample and the L value of the L sample described in “[1] Relationship between frame rate and inter-frame prediction error power” are read.

続いて、ステップS114で、ステップS112で読み込んだ画素数XをステップS113で読み込んだ画素数Lで除算することで、セグメント数(X/L)を算出する。   Subsequently, in step S114, the number of segments (X / L) is calculated by dividing the number of pixels X read in step S112 by the number of pixels L read in step S113.

このようにして、ステップS101〜ステップS114の処理を終了すると、続いて、ステップS115で、ステップS104の算出値にF-2と定数パラメータκ1 を乗じた値を算出することで、式(34)に記述されるα1 -2を算出する。 When the processing of step S101 to step S114 is completed in this way, subsequently, in step S115, a value obtained by multiplying the calculated value of step S104 by F −2 and the constant parameter κ 1 is calculated, thereby obtaining the equation (34 Α 1 F -2 described in ( 1 ) is calculated.

すなわち、ステップS104の算出値に定数パラメータκ1 を乗ずることで、式(11)のα1 の定義式に従ってモデルパラメータα1 を算出して、それにF-2を乗ずることで、式(34)に記述されるα1 -2を算出するのである。 That is, by multiplying the calculated value in step S104 by the constant parameter κ 1 , the model parameter α 1 is calculated in accordance with the definition formula of α 1 in equation (11), and multiplied by F −2 to obtain equation (34). Α 1 F -2 described in ( 1) is calculated.

続いて、ステップS116で、ステップS106の算出値にF-1と定数パラメータκ2 の2倍値(2×κ2 )を乗じた値を算出することで、式(34)に記述されるα2 -1を算出する。 Subsequently, in step S116, by calculating a value obtained by multiplying the calculated value of step S106 by F −1 and the double value (2 × κ 2 ) of the constant parameter κ 2 , α described in the equation (34) is obtained. 2 Calculate F- 1 .

すなわち、ステップS106の算出値に定数パラメータκ1 の2倍値(2×κ2 )を乗ずることで、式(11)のα2 の定義式に従ってモデルパラメータα2 を算出して、それにF-1を乗ずることで、式(34)に記述されるα2 -1を算出するのである。 That is, the model parameter α 2 is calculated according to the definition formula of α 2 in the equation (11) by multiplying the calculated value in step S106 by the double value (2 × κ 2 ) of the constant parameter κ 1 , and F By multiplying by 1 , α 2 F −1 described in the equation (34) is calculated.

続いて、ステップS117で、ステップS107,S108,S115,S116の算出値の和を算出することで、式(34)の分子の値を算出する。   Subsequently, in step S117, the numerator value of the equation (34) is calculated by calculating the sum of the calculated values in steps S107, S108, S115, and S116.

すなわち、ステップS107の算出値であるα4 と、ステップS108の算出値であるα3 と、ステップS115の算出値であるα1 -2と、ステップS116の算出値であるα2 -1との和を算出することで、式(34)の分子の値
α1 -2+α2 -1+α3 +α4
を算出するのである。
That is, α 4 that is the calculated value in step S107, α 3 that is the calculated value in step S108, α 1 F −2 that is the calculated value in step S115, and α 2 F −1 that is the calculated value in step S116. By calculating the sum of the numerator value α 1 F −2 + α 2 F −1 + α 3 + α 4 in equation (34).
Is calculated.

続いて、ステップS118で、ステップS114の算出値から1を減算した値にステップS104の算出値と定数パラメータκ1,κ1'を乗じた値を算出することで、式(34)の分母の値を算出する。 Subsequently, in step S118, a value obtained by subtracting 1 from the calculated value in step S114 is multiplied by the calculated value in step S104 and the constant parameters κ 1 and κ 1 ′, thereby calculating the denominator of the equation (34). Calculate the value.

すなわち、ステップS114の算出値から1を減算した値である(X/L−1)に、ステップS104の算出値である「ΣΣ(d/dx(ft-1(x))2 」と定数パラメータκ1 との乗算値として定義されるモデルパラメータα1 を乗じて、さらにそれに定数パラメータκ1'を乗ずることで、式(34)の分母の値
(X/L−1)α1 κ1'
を算出するのである。
That is, a value obtained by subtracting 1 from the calculated value in step S114 (X / L−1) is added to “ΣΣ (d / dx (ft -1 (x)) 2 ” that is the calculated value in step S104. By multiplying the model parameter α 1 defined as the product of the parameter κ 1 and further multiplying it by the constant parameter κ 1 ′, the value of the denominator (X / L−1) α 1 κ 1 in the equation (34) '
Is calculated.

続いて、ステップS119で、ステップS117の算出値をステップS118の算出値で除算した値を算出することで、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出する。 Subsequently, in step S119, by calculating a value obtained by dividing the calculated value in step S117 by the calculated value in step S118, the code amount when the distortion amount is constant (quantization step width is fixed) is minimized. The motion estimation accuracy δ * (F) is calculated.

すなわち、式(34)の定義に従い、ステップS117の算出値であるα1 -2+α2 -1+α3 +α4 を、ステップS118の算出値である(X/L−1)α1 κ1'で除算することで、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 That is, in accordance with the definition of Expression (34), α 1 F −2 + α 2 F −1 + α 3 + α 4 that is the calculated value in step S117 is (X / L−1) α 1 κ that is the calculated value in step S118. By dividing by 1 ′, the motion estimation accuracy δ * (F) that minimizes the code amount when the distortion amount is constant (quantization step width is fixed) is calculated.

このようにして、動き推定精度算出部12は、フレームレートが与えられた場合に、式(34)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 In this way, the motion estimation accuracy calculation unit 12 minimizes the code amount when the distortion amount is constant (the quantization step width is fixed) according to the equation (34) when the frame rate is given. The motion estimation accuracy δ * (F) is calculated.

次に、図3のフローチャートに従って、ステップS108で実行するモデルパラメータα3 の算出処理の詳細について説明する。 Next, details of the calculation process of the model parameter α 3 executed in step S108 will be described according to the flowchart of FIG.

ここで、モデルパラメータα3 は、式(11)に記載するように、式(9)で定義される〜N(x)2 の総和として定義されるものである。 Here, the model parameter α 3 is defined as a sum of ˜N (x) 2 defined by the equation (9) as described in the equation (11).

動き推定精度算出部12は、図2のフローチャートのステップS108の処理に入ると、図3のフローチャートに示すように、まず最初に、ステップS201で、符号化対象フレームを読み込み、続くステップS202で、参照フレームを読み込む。   When entering the process of step S108 in the flowchart of FIG. 2, the motion estimation accuracy calculation unit 12 first reads the encoding target frame in step S201 as shown in the flowchart of FIG. Read a reference frame.

続いて、ステップS203で、補間フィルタの伝達関数(前述の式(2)に記述される補間係数ψj [k])を算出する。 Subsequently, in step S203, a transfer function of the interpolation filter (interpolation coefficient ψ j [k] described in the above equation (2)) is calculated.

続いて、ステップS204で、原信号に重畳する雑音電力(式(9)の右辺の第一項)を推定する。   Subsequently, in step S204, the noise power superimposed on the original signal (the first term on the right side of Equation (9)) is estimated.

続いて、ステップS205で、補間フィルタ通過後の原信号に重畳する雑音電力(式(9)の右辺の第二項)を推定する。   Subsequently, in step S205, noise power (second term on the right side of Equation (9)) to be superimposed on the original signal after passing through the interpolation filter is estimated.

続いて、ステップS206で、補間位置の画素値の推定誤差電力(式(9)の右辺の第三項)を推定する。   Subsequently, in step S206, the estimated error power of the pixel value at the interpolation position (the third term on the right side of Equation (9)) is estimated.

一方、ステップS207で、量子化パラメータを読み込み、続くステップS208で、読み込んだ量子化パラメータに対応する量子化ステップ幅を算出する。   On the other hand, in step S207, the quantization parameter is read, and in the subsequent step S208, the quantization step width corresponding to the read quantization parameter is calculated.

続いて、ステップS209で、補間フィルタ通過後の参照画像の量子化誤差電力(式(9)の右辺の第四項)を推定する。   Subsequently, in step S209, the quantization error power of the reference image after passing through the interpolation filter (the fourth term on the right side of Equation (9)) is estimated.

このようにして、ステップS201〜ステップS209の処理を終了すると、最後に、ステップS210で、ステップS204,S205,S206,S209で求めた電力の和を算出することで、式(11)および式(9)で定義されるモデルパラメータα3 を算出して、図2のフローチャートのステップS108の処理を終了する。 When the processing of step S201 to step S209 is completed in this way, finally, in step S210, the sum of the powers obtained in steps S204, S205, S206, and S209 is calculated, so that equations (11) and ( The model parameter α 3 defined in 9) is calculated, and the process of step S108 in the flowchart of FIG.

図4に、以上に説明した処理を実行する動き推定精度算出部12の装置構成を図示する。   FIG. 4 illustrates a device configuration of the motion estimation accuracy calculation unit 12 that executes the processing described above.

動き推定精度算出部12は、この図に示すように、符号化対象フレーム記憶部101と、参照フレーム記憶部102と、画素間差分値算出部103と、画素間差分値記憶部104と、二乗和算出部105と、テイラー展開近似誤差算出部106と、テイラー展開近似誤差記憶部107と、積算値加算処理部108と、修正テイラー展開近似誤差記憶部109と、二乗和算出部110と、テイラー展開近似誤差二乗和記憶部111と、残差成分算出部112と、残差成分記憶部113と、フレームレート記憶部114と、逆数算出部115と、フレームレート逆数記憶部116と、二乗値算出部117と、フレームレート逆数二乗値記憶部118と、セグメント数算出部119と、セグメント数記憶部120と、減算処理部121と、セグメント数記憶部122と、パラメータ記憶部123と、パラメータ記憶部124と、積算処理部125と、画素間差分値二乗和記憶部126と、積算処理部127と、積算処理部128と、加算処理部129と、加算値記憶部130と、積算処理部131と、積算値記憶部132と、除算処理部133とを備える。   As shown in this figure, the motion estimation accuracy calculation unit 12 includes an encoding target frame storage unit 101, a reference frame storage unit 102, an inter-pixel difference value calculation unit 103, an inter-pixel difference value storage unit 104, and a square. Sum calculation unit 105, Taylor expansion approximation error calculation unit 106, Taylor expansion approximation error storage unit 107, integrated value addition processing unit 108, modified Taylor expansion approximation error storage unit 109, sum of squares calculation unit 110, Taylor Expanded approximation error sum of squares storage unit 111, residual component calculation unit 112, residual component storage unit 113, frame rate storage unit 114, reciprocal number calculation unit 115, frame rate reciprocal number storage unit 116, and square value calculation Unit 117, frame rate reciprocal square value storage unit 118, segment number calculation unit 119, segment number storage unit 120, subtraction processing unit 121, segment Number storage unit 122, parameter storage unit 123, parameter storage unit 124, integration processing unit 125, inter-pixel difference value square sum storage unit 126, integration processing unit 127, integration processing unit 128, and addition processing unit 129, an addition value storage unit 130, an integration processing unit 131, an integration value storage unit 132, and a division processing unit 133.

このように構成される動き推定精度算出部12では、符号化対象フレーム記憶部101は、符号化対象フレームを記憶する。参照フレーム記憶部102は、参照フレームを記憶する。   In the motion estimation accuracy calculation unit 12 configured as described above, the encoding target frame storage unit 101 stores the encoding target frame. The reference frame storage unit 102 stores a reference frame.

画素間差分値算出部103は、図2のフローチャートのステップS103の処理を実行するものであって、参照フレームにおける隣接画素間の差分値を算出する。画素間差分値記憶部104は、画素間差分値算出部103の算出した隣接画素間差分値を記憶する。二乗和算出部105は、図2のフローチャートのステップS104の処理を実行するものであって、画素間差分値算出部103の算出した隣接画素間差分値の二乗和を算出する。   The inter-pixel difference value calculation unit 103 executes the process of step S103 in the flowchart of FIG. 2, and calculates a difference value between adjacent pixels in the reference frame. The inter-pixel difference value storage unit 104 stores the adjacent inter-pixel difference value calculated by the inter-pixel difference value calculation unit 103. The square sum calculation unit 105 executes the process of step S104 in the flowchart of FIG. 2 and calculates the square sum of the difference values between adjacent pixels calculated by the inter-pixel difference value calculation unit 103.

テイラー展開近似誤差算出部106は、図2のフローチャートのステップS105の処理を実行するものであって、フレーム間予測誤差に対するテイラー展開の近似誤差を算出する。テイラー展開近似誤差記憶部107は、テイラー展開近似誤差算出部106の算出したテイラー展開の近似誤差を記憶する。   The Taylor expansion approximation error calculation unit 106 executes the processing of step S105 in the flowchart of FIG. 2 and calculates an approximation error of Taylor expansion with respect to the inter-frame prediction error. The Taylor expansion approximation error storage unit 107 stores the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 106.

積算値加算処理部108は、図2のフローチャートのステップS106の処理を実行するものであって、テイラー展開近似誤差算出部106の算出したテイラー展開の近似誤差と画素間差分値算出部103の算出した隣接画素間差分値との積の和を算出する。修正テイラー展開近似誤差記憶部109は、積算値加算処理部108の算出値(修正テイラー展開近似誤差と称している)を記憶する。   The integrated value addition processing unit 108 executes the process of step S106 in the flowchart of FIG. 2, and calculates the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 106 and the inter-pixel difference value calculation unit 103. The sum of the product with the difference value between adjacent pixels is calculated. The corrected Taylor expansion approximation error storage unit 109 stores the calculated value of the integrated value addition processing unit 108 (referred to as a corrected Taylor expansion approximation error).

二乗和算出部110は、図2のフローチャートのステップS107の処理を実行するものであって、テイラー展開近似誤差算出部106の算出したテイラー展開近似誤差の二乗和を算出することでモデルパラメータα4 を算出する。テイラー展開近似誤差二乗和記憶部111は、二乗和算出部110の算出したモデルパラメータα4 を記憶する。 The square sum calculation unit 110 executes the process of step S107 in the flowchart of FIG. 2 and calculates the model parameter α 4 by calculating the square sum of the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 106. Is calculated. The Taylor expansion approximate error square sum storage unit 111 stores the model parameter α 4 calculated by the square sum calculation unit 110.

残差成分算出部112は、図2のフローチャートのステップS108の処理を実行するものであって、図3のフローチャートの処理を実行することで、モデルパラメータα3 を算出する。残差成分記憶部113は、残差成分算出部112の算出したモデルパラメータα3 を記憶する。 Residual component calculating section 112 is for executing the process of step S108 in the flowchart of FIG. 2, by executing the processing in the flowchart of FIG. 3, model parameters are calculated alpha 3. The residual component storage unit 113 stores the model parameter α 3 calculated by the residual component calculation unit 112.

フレームレート記憶部114は、フレームレートFを記憶する。逆数算出部115は、図2のフローチャートのステップS110の処理を実行するものであって、フレームレートの逆数F-1を算出する。フレームレート逆数記憶部116は、逆数算出部115の算出したフレームレートの逆数F-1を記憶する。二乗値算出部117は、図2のフローチャートのステップS111の処理を実行するものであって、フレームレートの逆数の二乗値F-2を算出する。フレームレート逆数二乗値記憶部118は、二乗値算出部117の算出したフレームレートの逆数の二乗値F-2を記憶する。 The frame rate storage unit 114 stores the frame rate F. The reciprocal calculation unit 115 executes the process of step S110 in the flowchart of FIG. 2 and calculates a reciprocal F −1 of the frame rate. The frame rate reciprocal storage unit 116 stores the reciprocal F −1 of the frame rate calculated by the reciprocal calculation unit 115. The square value calculation unit 117 performs the process of step S111 in the flowchart of FIG. 2, and calculates a square value F −2 of the reciprocal of the frame rate. The frame rate reciprocal square value storage unit 118 stores the square value F −2 of the reciprocal of the frame rate calculated by the square value calculation unit 117.

セグメント数算出部119は、図2のフローチャートのステップS114の処理を実行するものであって、セグメント数X/Lを算出する。セグメント数記憶部120は、セグメント数算出部119の算出したセグメント数X/Lを記憶する。減算処理部121は、セグメント数算出部119の算出したセグメント数から1を減算した値(X/L−1)を算出する。セグメント数記憶部122は、減算処理部121の算出したセグメント数(X/L−1)を記憶する。   The segment number calculation unit 119 executes the process of step S114 in the flowchart of FIG. 2 and calculates the number of segments X / L. The segment number storage unit 120 stores the segment number X / L calculated by the segment number calculation unit 119. The subtraction processing unit 121 calculates a value (X / L−1) obtained by subtracting 1 from the number of segments calculated by the segment number calculation unit 119. The segment number storage unit 122 stores the number of segments (X / L−1) calculated by the subtraction processing unit 121.

パラメータ記憶部123は、定数パラメータκ1,κ1'を記憶する。パラメータ記憶部124は、定数パラメータκ2 を記憶する。 The parameter storage unit 123 stores constant parameters κ 1, κ 1 ′. Parameter storage unit 124 stores a constant parameter kappa 2.

積算処理部125は、二乗和算出部105の算出した隣接画素間差分値の二乗和と定数パラメータκ1 とを乗算することで、式(11)で定義されるモデルパラメータα1 を算出する。画素間差分値二乗和記憶部126は、積算処理部125の算出したモデルパラメータα1 を記憶する。 The integration processing unit 125 calculates the model parameter α 1 defined by Expression (11) by multiplying the square sum of the difference value between adjacent pixels calculated by the square sum calculation unit 105 and the constant parameter κ 1 . The inter-pixel difference value square sum storage unit 126 stores the model parameter α 1 calculated by the integration processing unit 125.

積算処理部127は、図2のフローチャートのステップS115の処理に相当する処理を実行するものであって、積算処理部125の算出したモデルパラメータα1 と二乗値算出部117の算出したフレームレートの逆数の二乗値F-2とを乗算することで、式(34)に記述されるα1 -2を算出する。 The integration processing unit 127 executes processing corresponding to the processing in step S115 in the flowchart of FIG. 2, and the model parameter α 1 calculated by the integration processing unit 125 and the frame rate calculated by the square value calculation unit 117 are calculated. Multiplying the reciprocal square value F -2 calculates α 1 F -2 described in the equation (34).

積算処理部128は、図2のフローチャートのステップS116の処理を実行するものであって、積算値加算処理部108の算出値と定数パラメータκ2 の2倍値と逆数算出部115の算出したフレームレートの逆数F-1とを乗算することで、式(34)に記述されるα2 -1を算出する。 The integration processing unit 128 executes the process of step S116 in the flowchart of FIG. 2, and includes the calculated value of the integrated value addition processing unit 108, the double value of the constant parameter κ 2 , and the frame calculated by the reciprocal calculation unit 115. Multiplying by the reciprocal rate F −1 , α 2 F −1 described in the equation (34) is calculated.

加算処理部129は、図2のフローチャートのステップS117の処理を実行するものであって、積算処理部127の算出したα1 -2と、積算処理部128の算出したα2 -1と、二乗和算出部110の算出したモデルパラメータα4 と、残差成分算出部112の算出したモデルパラメータα3 とを加算することで、式(34)の分子の値を算出する。加算値記憶部130は、加算処理部129の算出した値を記憶する。 The addition processing unit 129 executes the process of step S117 in the flowchart of FIG. 2 and includes α 1 F −2 calculated by the integration processing unit 127 and α 2 F −1 calculated by the integration processing unit 128. Then, by adding the model parameter α 4 calculated by the sum of squares calculation unit 110 and the model parameter α 3 calculated by the residual component calculation unit 112, the numerator value of the equation (34) is calculated. The addition value storage unit 130 stores the value calculated by the addition processing unit 129.

積算処理部131は、図2のフローチャートのステップS118の処理を実行するものであって、積算処理部125の算出したモデルパラメータα1 と、定数パラメータκ1'と、減算処理部121の算出したセグメント数(X/L−1)とを乗算することで、式(34)の分母の値を算出する。積算値記憶部132は、積算処理部131の算出値を記憶する。 The integration processing unit 131 executes the process of step S118 in the flowchart of FIG. 2. The integration processing unit 131 calculates the model parameter α 1 calculated by the integration processing unit 125, the constant parameter κ 1 ′, and the subtraction processing unit 121. By multiplying the number of segments (X / L-1), the value of the denominator of Equation (34) is calculated. The integrated value storage unit 132 stores the calculated value of the integrated processing unit 131.

除算処理部133は、図2のフローチャートのステップS119の処理を実行するものであって、加算処理部129の算出値を積算処理部131の算出値で除算することで、式(34)で定義される動き推定精度δ* (F)を算出する。 The division processing unit 133 executes the process of step S119 in the flowchart of FIG. 2, and is defined by Expression (34) by dividing the calculated value of the addition processing unit 129 by the calculated value of the integration processing unit 131. The calculated motion estimation accuracy δ * (F) is calculated.

このようにして、動き推定精度算出部12は、この図4に示す装置構成に従って、図2および図3のフローチャートを実行することで、フレームレートが与えられた場合に、式(34)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 In this way, the motion estimation accuracy calculation unit 12 executes the flowcharts of FIGS. 2 and 3 according to the apparatus configuration shown in FIG. 4, and when the frame rate is given, according to the equation (34), The motion estimation accuracy δ * (F) for minimizing the code amount when the distortion amount is constant (quantization step width is fixed) is calculated.

本発明は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化に適用できるものであり、本発明によれば、フレームレートが与えられた場合に、歪み量を一定とした場合の符号量を最小化する動き推定精度を推定することができるようになる。   The present invention can be applied to video coding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. According to the present invention, when the frame rate is given, the distortion amount is constant. It is possible to estimate the motion estimation accuracy that minimizes the code amount.

本発明の映像符号化装置の装置構成図である。It is an apparatus block diagram of the video coding apparatus of this invention. 動き推定精度算出部の実行するフローチャートである。It is a flowchart which a motion estimation precision calculation part performs. 動き推定精度算出部の実行するフローチャートである。It is a flowchart which a motion estimation precision calculation part performs. 動き推定精度算出部の装置構成図である。It is an apparatus block diagram of a motion estimation precision calculation part.

符号の説明Explanation of symbols

101 符号化対象フレーム記憶部
102 参照フレーム記憶部
103 画素間差分値算出部
104 画素間差分値記憶部
105 二乗和算出部
106 テイラー展開近似誤差算出部
107 テイラー展開近似誤差記憶部
108 積算値加算処理部
109 修正テイラー展開近似誤差記憶部
110 二乗和算出部
111 テイラー展開近似誤差二乗和記憶部
112 残差成分算出部
113 残差成分記憶部
114 フレームレート記憶部
115 逆数算出部
116 フレームレート逆数記憶部
117 二乗値算出部
118 フレームレート逆数二乗値記憶部
119 セグメント数算出部
120 セグメント数記憶部
121 減算処理部
122 セグメント数記憶部
123 パラメータ記憶部
124 パラメータ記憶部
125 積算処理部
126 画素間差分値二乗和記憶部
127 積算処理部
128 積算処理部
129 加算処理部
130 加算値記憶部
131 積算処理部
132 積算値記憶部
133 除算処理部
101 encoding target frame storage unit 102 reference frame storage unit 103 inter-pixel difference value calculation unit 104 inter-pixel difference value storage unit 105 square sum calculation unit 106 Taylor expansion approximation error calculation unit 107 Taylor expansion approximation error storage unit 108 integrated value addition processing 109 Modified Taylor expansion approximate error storage unit 110 Sum of squares calculation unit 111 Taylor expansion approximate error sum of squares storage unit 112 Residual component calculation unit 113 Residual component storage unit 114 Frame rate storage unit 115 Reciprocal number calculation unit 116 Frame rate reciprocal number storage unit 117 square value calculation unit 118 frame rate reciprocal square value storage unit 119 segment number calculation unit 120 segment number storage unit 121 subtraction processing unit 122 segment number storage unit 123 parameter storage unit 124 parameter storage unit 125 integration processing unit 126 inter-pixel difference value 2 Sum storage unit 127 integration processing unit 128 integration processing unit 129 adding unit 130 adds value storage unit 131 integration processing unit 132 integrated value storage unit 133 division processing unit

Claims (10)

フレーム間予測を伴う映像符号化で用いられる動き推定精度推定方法であって、
フレームレートを入力する過程と、
フレームレートとそのフレームレートで符号化を行う場合に発生することになる符号量を最小化する動き推定精度との関係について記述するモデルを使って、前記入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する過程と、
前記推定した動き推定精度を出力する過程とを備えることを、
特徴とする動き推定精度推定方法。
A motion estimation accuracy estimation method used in video encoding with inter-frame prediction,
The process of entering the frame rate;
Occurs when encoding with the input frame using a model that describes the relationship between the frame rate and the motion estimation accuracy that minimizes the amount of code that will occur when encoding at that frame rate. Estimating the motion estimation accuracy that minimizes the amount of code to be performed,
Outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation method.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定方法であって、
フレームレートを入力する過程と、
あるフレームレートで符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述される4個のモデルパラメータを入力する過程と、
前記入力した4個のモデルパラメータに基づいて、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる、フレームレートの逆数を変数とする二次関数を決定する過程と、
前記決定した二次関数に対して、前記入力したフレームレートの値を代入することで、前記入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する過程と、
前記推定した動き推定精度を出力する過程とを備えることを、
特徴とする動き推定精度推定方法。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy, and occurs when encoding video under encoding conditions with a constant amount of distortion. A motion estimation accuracy estimation method for estimating motion estimation accuracy that minimizes the amount of code to be
The process of entering the frame rate;
A process of inputting four model parameters described in a function used to estimate prediction error power of inter-frame prediction when encoding at a certain frame rate;
A frame used for estimation of motion estimation accuracy that minimizes the amount of code that will be generated by the encoding under the condition of encoding with a constant amount of distortion based on the four model parameters that are input. Determining a quadratic function with the inverse of the rate as a variable;
By substituting the value of the input frame rate for the determined quadratic function, motion estimation accuracy is estimated to minimize the amount of code that will be generated when encoding is performed on the input frame. The process of
Outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation method.
請求項2に記載の動き推定精度推定方法において、
前記入力する過程では、(1)参照フレームにおける隣接画素間の差分値の二乗和から導出されるモデルパラメータと、(2)フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出されるモデルパラメータと、(3)原信号に重畳している雑音と参照フレームにおける補間誤差との和の二乗和の近似値から導出されるモデルパラメータと、(4)フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出されるモデルパラメータという4個のモデルパラメータを入力することを、
特徴とする動き推定精度推定方法。
The motion estimation accuracy estimation method according to claim 2,
In the input process, (1) model parameters derived from the sum of squares of the difference values between adjacent pixels in the reference frame, and (2) an approximation error of Taylor expansion with respect to the inter-frame prediction error and the difference between adjacent pixels in the reference frame (3) a model parameter derived from an approximate value of a sum of squares of the sum of the noise superimposed on the original signal and the interpolation error in the reference frame; ) Inputting four model parameters, model parameters derived from the sum of squares of approximation errors of Taylor expansion for inter-frame prediction errors,
A characteristic motion estimation accuracy estimation method.
請求項2又は3に記載の動き推定精度推定方法において、
前記決定する過程では、フレームレートをFで表し、前記4個のモデルパラメータをα1,α2,α3,α4 で表し、動き補償の単位となるセグメントの数をMで表し、係数をκで表すならば、前記二次関数として、
(α1 -2+α2 -1+α3 +α4 )/κα1(M−1)
という関数を決定することを、
特徴とする動き推定精度推定方法。
The motion estimation accuracy estimation method according to claim 2 or 3,
In the process of the determining, represents the frame rate at F, the four model parameters α 1, α 2, α 3 , expressed as alpha 4, it represents the number of segments as a unit of motion compensation M, the coefficients If expressed by κ, the quadratic function is
1 F −2 + α 2 F −1 + α 3 + α 4 ) / κα 1 (M−1)
To determine the function
A characteristic motion estimation accuracy estimation method.
フレーム間予測を伴う映像符号化で用いられる動き推定精度推定装置であって、
フレームレートを入力する入力手段と、
フレームレートとそのフレームレートで符号化を行う場合に発生することになる符号量を最小化する動き推定精度との関係について記述するモデルを使って、前記入力手段の入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、
前記推定手段の推定した動き推定精度を出力する出力手段とを備えることを、
特徴とする動き推定精度推定装置。
A motion estimation accuracy estimation device used in video encoding with inter-frame prediction,
An input means for inputting a frame rate;
Using a model describing the relationship between the frame rate and the motion estimation accuracy that minimizes the amount of code that will occur when encoding at that frame rate, encoding is performed with the frame input by the input means Estimating means for estimating motion estimation accuracy that minimizes the amount of code that will occur in the case;
Output means for outputting the motion estimation accuracy estimated by the estimation means,
A characteristic motion estimation accuracy estimation apparatus.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定装置であって、
フレームレートを入力するフレームレート入力手段と、
あるフレームレートで符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述される4個のモデルパラメータを入力するモデルパラメータ入力手段と、
前記モデルパラメータ入力手段の入力した4個のモデルパラメータに基づいて、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる、フレームレートの逆数を変数とする二次関数を決定する決定手段と、
前記決定手段の決定した二次関数に対して、前記フレームレート入力手段の入力したフレームレートの値を代入することで、前記フレームレート入力手段の入力したフレームで符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、
前記推定手段の推定した動き推定精度を出力する出力手段とを備えることを、
特徴とする動き推定精度推定装置。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy, and occurs when encoding video under encoding conditions with a constant amount of distortion. A motion estimation accuracy estimation device that estimates motion estimation accuracy that minimizes the amount of code to be
A frame rate input means for inputting a frame rate;
Model parameter input means for inputting four model parameters described in a function used for estimating prediction error power of inter-frame prediction when encoding at a certain frame rate;
Based on the four model parameters input by the model parameter input means, the estimation of motion estimation accuracy that minimizes the amount of code that will occur in the encoding under the condition of the encoding with a constant distortion amount Determining means for determining a quadratic function using a reciprocal of the frame rate as a variable,
Occurs when encoding is performed with the frame input by the frame rate input means by substituting the value of the frame rate input by the frame rate input means for the quadratic function determined by the determining means. Estimating means for estimating the motion estimation accuracy that minimizes the amount of code to become,
Output means for outputting the motion estimation accuracy estimated by the estimation means,
A characteristic motion estimation accuracy estimation apparatus.
請求項6に記載の動き推定精度推定装置において、
前記モデルパラメータ入力手段は、(1)参照フレームにおける隣接画素間の差分値の二乗和から導出されるモデルパラメータと、(2)フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出されるモデルパラメータと、(3)原信号に重畳している雑音と参照フレームにおける補間誤差との和の二乗和の近似値から導出されるモデルパラメータと、(4)フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出されるモデルパラメータという4個のモデルパラメータを入力することを、
特徴とする動き推定精度推定装置。
The motion estimation accuracy estimation apparatus according to claim 6,
The model parameter input means includes (1) a model parameter derived from a sum of squares of a difference value between adjacent pixels in a reference frame, (2) an approximation error of Taylor expansion with respect to an inter-frame prediction error, and an adjacent pixel in a reference frame. (3) model parameters derived from the sum of squares of the sum of the noise superimposed on the original signal and the interpolation error in the reference frame; 4) Input four model parameters, model parameters derived from the sum of squares of approximation errors of Taylor expansion with respect to inter-frame prediction errors,
A characteristic motion estimation accuracy estimation apparatus.
請求項6又は7に記載の動き推定精度推定装置において、
前記決定手段は、フレームレートをFで表し、前記4個のモデルパラメータをα1,α2,α3,α4 で表し、動き補償の単位となるセグメントの数をMで表し、係数をκで表すならば、前記二次関数として、
(α1 -2+α2 -1+α3 +α4 )/κα1(M−1)
という関数を決定することを、
特徴とする動き推定精度推定装置。
The motion estimation accuracy estimation apparatus according to claim 6 or 7,
The determination means represents the frame rate as F, the four model parameters as α 1, α 2, α 3, α 4 , the number of segments as a unit of motion compensation as M, and the coefficient as κ. Is expressed as follows:
1 F −2 + α 2 F −1 + α 3 + α 4 ) / κα 1 (M−1)
To determine the function
A characteristic motion estimation accuracy estimation apparatus.
請求項1ないし4のいずれか1項に記載の動き推定精度推定方法をコンピュータに実行させるための動き推定精度推定プログラム。   A motion estimation accuracy estimation program for causing a computer to execute the motion estimation accuracy estimation method according to any one of claims 1 to 4. 請求項1ないし4のいずれか1項に記載の動き推定精度推定方法をコンピュータに実行させるための動き推定精度推定プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium having recorded thereon a motion estimation accuracy estimation program for causing a computer to execute the motion estimation accuracy estimation method according to claim 1.
JP2008049750A 2008-02-29 2008-02-29 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program Expired - Fee Related JP4824712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008049750A JP4824712B2 (en) 2008-02-29 2008-02-29 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008049750A JP4824712B2 (en) 2008-02-29 2008-02-29 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2009207071A true JP2009207071A (en) 2009-09-10
JP4824712B2 JP4824712B2 (en) 2011-11-30

Family

ID=41148860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008049750A Expired - Fee Related JP4824712B2 (en) 2008-02-29 2008-02-29 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4824712B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113366531A (en) * 2021-03-31 2021-09-07 华为技术有限公司 Method and device for determining image processing mode

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189934A (en) * 1999-07-27 2001-07-10 Sharp Corp Motion estimating method with motion precision having adaptability
JP2004289867A (en) * 1998-09-09 2004-10-14 Nippon Telegr & Teleph Corp <Ntt> Method for adjusting image quality, video communication apparatus using the method and recording medium with the method recorded thereon
JP2007067551A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating motion vector, and motion vector estimation program recording medium
JP2007096541A (en) * 2005-09-27 2007-04-12 Sanyo Electric Co Ltd Coding method
JP2007221354A (en) * 2006-02-15 2007-08-30 Kddi Corp Image processing device and pre-filter control device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289867A (en) * 1998-09-09 2004-10-14 Nippon Telegr & Teleph Corp <Ntt> Method for adjusting image quality, video communication apparatus using the method and recording medium with the method recorded thereon
JP2001189934A (en) * 1999-07-27 2001-07-10 Sharp Corp Motion estimating method with motion precision having adaptability
JP2007067551A (en) * 2005-08-29 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating motion vector, and motion vector estimation program recording medium
JP2007096541A (en) * 2005-09-27 2007-04-12 Sanyo Electric Co Ltd Coding method
JP2007221354A (en) * 2006-02-15 2007-08-30 Kddi Corp Image processing device and pre-filter control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113366531A (en) * 2021-03-31 2021-09-07 华为技术有限公司 Method and device for determining image processing mode

Also Published As

Publication number Publication date
JP4824712B2 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
US11546627B2 (en) Moving picture decoding method and moving picture encoding method
JP5521202B2 (en) Multi-view image encoding method, multi-view image decoding method, multi-view image encoding device, multi-view image decoding device, multi-view image encoding program, and multi-view image decoding program
TWI432034B (en) Multi-view video coding method, multi-view video decoding method, multi-view video coding apparatus, multi-view video decoding apparatus, multi-view video coding program, and multi-view video decoding program
RU2510944C2 (en) Method of encoding/decoding multi-view video sequence based on adaptive local adjustment of brightness of key frames without transmitting additional parameters (versions)
KR101342284B1 (en) adaptive motion search range
US7542623B2 (en) Image processing apparatus and method, and computer program and computer-readable storage medium
JP5416812B2 (en) Model parameter estimation for rate- or distortion-quantized model functions
JP4726047B2 (en) Image encoding device
JP5321439B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP5833757B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP2006313950A (en) Image coding apparatus, and image coding method
TW201306594A (en) Moving image coding apparatus, moving image decoding apparatus, moving imaged coding method, moving imaged decoding method, moving image coding program, and moving image decoding program
JP5237814B2 (en) Multi-stage link method for adaptive motion vector sampling in video compression
JP4695015B2 (en) Code amount estimation method, frame rate estimation method, code amount estimation device, frame rate estimation device, code amount estimation program, frame rate estimation program, and computer-readable recording medium recording those programs
JP4824712B2 (en) Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program
JP4785890B2 (en) Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program
TW201306593A (en) Moving image coding apparatus, moving image decoding apparatus, moving imaged coding method, moving imaged decoding method, moving image coding program, and moving image decoding program
JP2009509405A (en) Variable shape motion estimation in video sequences
RU2493668C1 (en) Method of encoding/decoding multi-view video sequence based on local adjustment of brightness and contract of reference frames without transmitting additional service data
JP2009033686A (en) Method, apparatus and program for setting numerical aperture, and computer readable recording medium with the program recorded thereon
JP2005217746A (en) Movement predicting information detector
KR20130029026A (en) Method for coding and reconstructing a pixel block and corresponding devices
JP2009111733A (en) Method, device and program for encoding image
JP2009232163A (en) Interpolation frame creating apparatus, interpolation frame creation method, and interpolation frame creation program
KR20150113565A (en) Method and apparatus for estimating motion in image compression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110908

R150 Certificate of patent or registration of utility model

Ref document number: 4824712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees