JP4785890B2 - Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program - Google Patents

Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program Download PDF

Info

Publication number
JP4785890B2
JP4785890B2 JP2008108861A JP2008108861A JP4785890B2 JP 4785890 B2 JP4785890 B2 JP 4785890B2 JP 2008108861 A JP2008108861 A JP 2008108861A JP 2008108861 A JP2008108861 A JP 2008108861A JP 4785890 B2 JP4785890 B2 JP 4785890B2
Authority
JP
Japan
Prior art keywords
motion estimation
estimation
estimation accuracy
aperture ratio
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008108861A
Other languages
Japanese (ja)
Other versions
JP2009260779A (en
Inventor
幸浩 坂東
和也 早瀬
誠之 高村
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008108861A priority Critical patent/JP4785890B2/en
Publication of JP2009260779A publication Critical patent/JP2009260779A/en
Application granted granted Critical
Publication of JP4785890B2 publication Critical patent/JP4785890B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、高フレームレート映像に対する効率的な符号化を実現する映像符号化で用いられる動き推定精度推定方法及びその装置と、その動き推定精度推定方法の実現に用いられる動き推定精度推定プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。   The present invention relates to a motion estimation accuracy estimation method and apparatus used in video encoding that realizes efficient encoding for high frame rate video, a motion estimation accuracy estimation program used to realize the motion estimation accuracy estimation method, and The present invention relates to a computer-readable recording medium on which the program is recorded.

近年、臨場感あふれる大画面のスポーツ映像やデジタルシネマに代表される超高画質映像への期待が高まっている。これを受けて、映像の高画質化に関する研究が精力的に行われている。   In recent years, there are growing expectations for super-high-quality images such as large-screen sports images and digital cinema that are full of realism. In response to this, research on high-quality video has been vigorously conducted.

超高画質映像の実現には次の四要素が必要である。すなわち、空間解像度、画素値深度、色再現性、時間解像度である。これを受けて、前者の三要素については、デジタルシネマ等の応用及びナチュラルビジョンプロジェクトにおいて検討が進められている。   The following four elements are necessary to realize super high-quality video. That is, spatial resolution, pixel value depth, color reproducibility, and temporal resolution. In response, the former three elements are being studied in applications such as digital cinema and natural vision projects.

しかし、被写体の自然な動きを表現するために不可欠な時間解像度の向上、すなわち、映像の高フレームレート化については、充分な検討がなされていない。   However, sufficient studies have not been made on the improvement of time resolution, that is, the increase of the video frame rate, which is indispensable for expressing the natural movement of the subject.

Spillmannらによれば、網膜の出力細胞である神経節細胞が出力するパルス数の上限は毎秒300〜400個程度であるとする生理学的な知見が示されている。このため、人の視覚系は最も短くて1/150〜1/200秒程度までの発光の違いを知覚できると推察される。これは、知覚可能なフレームレートの検知限が150〜200[フレーム/秒]であることを意味する。現行映像のフレームレートである30,60[フレーム/秒]は、フリッカーの検知限から定められたものであり、自然な動きを表現するに十分な値ではない。   According to Spillmann et al., Physiological knowledge is shown that the upper limit of the number of pulses output by ganglion cells, which are output cells of the retina, is about 300 to 400 pulses per second. For this reason, it is presumed that the human visual system is the shortest and can perceive the difference in light emission up to 1/150 to 1/200 second. This means that the perceivable frame rate detection limit is 150 to 200 [frames / second]. The current video frame rate of 30, 60 [frame / second] is determined from the flicker detection limit, and is not a sufficient value to express natural motion.

一方、映像の超高画質化はデータ量の爆発的な増加を招くため、ネットワークの帯域制限等の理由により符号量が制限される場合には、効率的な符号化方法が必要となる。   On the other hand, since the super high image quality of the video causes an explosive increase in the amount of data, an efficient encoding method is required when the code amount is limited due to network bandwidth limitations or the like.

高フレームレート映像の場合、フレーム間相関が増加することから、動き補償によるフレーム間予測が効果的である。動き補償のパラメータの一つに動き推定精度がある。例えば、MPEG−2準拠の符号化器における動き推定精度は1/2画素精度となる。   In the case of a high frame rate video, since inter-frame correlation increases, inter-frame prediction by motion compensation is effective. One parameter of motion compensation is motion estimation accuracy. For example, the motion estimation accuracy in an MPEG-2 compliant encoder is ½ pixel accuracy.

高フレームレート映像の場合、フレーム間隔が短くなることから、変移量に高い精度が求められるため、フレームレートと動き推定精度との関係を把握することが重要となる。直感的には、フレームレートの増加に伴い、高い動き推定精度が必要となることが予想される。   In the case of a high frame rate video, since the frame interval is shortened, high accuracy is required for the shift amount. Therefore, it is important to grasp the relationship between the frame rate and the motion estimation accuracy. Intuitively, it is expected that higher motion estimation accuracy is required as the frame rate increases.

しかし、従来の研究では、フレームレートの影響は考慮されておらず、フレームレートと動き推定精度との関係についての定量的な性質は把握されていない(例えば、非特許文献1参照)。このため、アドホックな方法で動き推定精度を設定することになり、動き推定精度が不足した場合、符号化効率が低下する。   However, in the conventional research, the influence of the frame rate is not considered, and the quantitative property regarding the relationship between the frame rate and the motion estimation accuracy is not grasped (for example, refer to Non-Patent Document 1). For this reason, the motion estimation accuracy is set by an ad hoc method. When the motion estimation accuracy is insufficient, the coding efficiency is lowered.

一方、設定可能な範囲における動き推定精度に対して、総当りで符号化を行い、最も符号化効率の高い動き推定精度を選択する方法もある。しかし、この場合には、符号化処理の時間が増大してしまう。   On the other hand, there is also a method in which the motion estimation accuracy in a settable range is encoded with brute force and the motion estimation accuracy with the highest encoding efficiency is selected. However, in this case, the encoding processing time increases.

さらに、映像信号の時間軸方向の特徴を説明するために必要なパラメータとして、フレームレートのほかに撮像系の開口率がある。撮像デバイスへの入射光量を確保するには、一定以上の開口率が必要となる。開口率の増加は、フレームスキップに起因するジャーキネス(同じ映像のフレームが続くこと)の低減に有効である。一方、開口率の増加は、撮像デバイス蓄積時の積分効果により動きボケを引き起こす。   Further, as a parameter necessary for explaining the characteristics of the video signal in the time axis direction, there is an aperture ratio of the imaging system in addition to the frame rate. In order to secure the amount of light incident on the imaging device, a certain aperture ratio is required. The increase in the aperture ratio is effective in reducing jerkiness (continuation of the same video frame) due to frame skipping. On the other hand, an increase in the aperture ratio causes motion blur due to an integration effect when accumulating the imaging device.

このように、開口率により、ジャーキネスと動きボケのトレードオフが制御可能である。また、開口率の増加に伴う積分効果は低域通過特性を示す。こうした撮像系の低域通過特性は映像信号の性質を変化させる。このため、映像信号に対するフレームレートの影響を考慮する際、開口率は重要な要素となる。
J.Ribas-Corbera and D.L.Neuhoff. Optimizing motion-vector accuracy in block-based video coding. IEEE CSVT, Vol.11, No.4, pp.497-511, 2001.
Thus, the trade-off between jerkiness and motion blur can be controlled by the aperture ratio. Further, the integration effect accompanying the increase in the aperture ratio shows a low-pass characteristic. Such low-pass characteristics of the imaging system change the properties of the video signal. Therefore, the aperture ratio is an important factor when considering the influence of the frame rate on the video signal.
J.Ribas-Corbera and DLNeuhoff.Optimizing motion-vector accuracy in block-based video coding.IEEE CSVT, Vol.11, No.4, pp.497-511, 2001.

前述したように、被写体の自然な動きを表現するためには、映像の高フレームレート化を実現する必要がある。   As described above, in order to express the natural movement of the subject, it is necessary to realize a high frame rate of the video.

映像の高フレームレート化を実現するためには、フレーム間隔が短くなることから、変移量に高い精度が求められるため、フレームレートと動き推定精度との関係を把握することが重要となる。   In order to realize a high frame rate of video, since the frame interval is shortened, high accuracy is required for the shift amount, and therefore it is important to grasp the relationship between the frame rate and the motion estimation accuracy.

しかし、従来の研究では、フレームレートと動き推定精度との関係についての定量的な性質は把握されておらず、アドホックな方法で動き推定精度を設定するようにしているのが実情である。しかも、この設定にあたって、開口率についてはまったく考慮していないというのが実情である。   However, in the conventional research, the quantitative property about the relationship between the frame rate and the motion estimation accuracy is not grasped, and the actual situation is that the motion estimation accuracy is set by an ad hoc method. Moreover, the fact is that the aperture ratio is not considered at all in this setting.

これから、従来技術に従っていると、高フレームレート映像を符号化するときに、動き推定精度が不足した場合には、符号化効率が低下するという問題があった。   Thus, according to the prior art, when encoding a high frame rate video, if the motion estimation accuracy is insufficient, there is a problem that the encoding efficiency decreases.

本発明はかかる事情に鑑みてなされたものであって、高フレームレート映像に対する符号化処理において、撮像系の開口時間に応じて発生する積分効果の影響を考慮した形で、フレームレートと動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレート毎の適切な動き推定精度を推定することで、高フレームレート映像に対する効率的な符号化を実現する新たな動き推定精度推定技術を確立することを目的とする。   The present invention has been made in view of such circumstances, and in the encoding process for a high frame rate video, the frame rate and the motion estimation are performed in consideration of the influence of the integration effect generated according to the aperture time of the imaging system. By constructing an analytical theoretical model that expresses the relationship with accuracy and estimating the appropriate motion estimation accuracy for each frame rate using the theoretical model, efficient coding for high frame rate video has been realized. The purpose is to establish a new motion estimation accuracy estimation technique.

[1]フレームレート及び撮像系の開口率を任意に設定可能とする場合の構成
前記の目的を達成するために、本発明の動き推定精度推定装置は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定することを実現するために、(イ)フレームレート及び開口率の値を入力する入力手段と、(ロ)フレームレート及び開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する決定手段と、(ハ)決定手段の決定した推定関数に対して、入力手段の入力したフレームレート及び開口率の値を代入することで、入力手段の入力したフレームレート及び開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、(ニ)推定手段の推定した動き推定精度を出力する出力手段とを備えるように構成する。
[1] Configuration in which frame rate and aperture ratio of imaging system can be set arbitrarily In order to achieve the above object, a motion estimation accuracy estimation apparatus of the present invention performs a frame estimation with non-integer pixel accuracy. Motion estimation that is used in video encoding with inter-prediction and minimizes the amount of code that will be generated in the encoding under the condition of constant distortion when encoding video In order to realize accuracy estimation, (b) input means for inputting frame rate and aperture ratio values, and (b) an estimation function using the frame rate and aperture ratio as variables, with a constant amount of distortion. Determining means for determining an estimation function used for estimation of motion estimation accuracy for minimizing the amount of code that will be generated under the encoding condition, and (c) the estimation determined by the determining means For functions The operation of minimizing the amount of code that will occur when encoding is performed with the frame rate and aperture ratio values input by the input means by substituting the frame rate and aperture ratio values input by the input means An estimation means for estimating the estimation accuracy and (d) an output means for outputting the motion estimation accuracy estimated by the estimation means are provided.

以上の各処理手段が動作することで実現される本発明の動き推定精度推定方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The motion estimation accuracy estimation method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on an appropriate computer-readable recording medium. Alternatively, the present invention is realized by being provided via a network, installed when the present invention is carried out, and operating on a control means such as a CPU.

[2]撮像系の開口率を固定とし、フレームレートを任意に設定可能とする場合の構成
前記の目的を達成するために、本発明の動き推定精度推定装置は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定することを実現するために、(イ)フレームレートの値を入力する入力手段と、(ロ)予め設定された開口率を定数としフレームレートを変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する決定手段と、(ハ)決定手段の決定した推定関数に対して、入力手段の入力したフレームレートの値を代入することで、入力手段の入力したフレームレートの値及び予め設定された開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、(ニ)推定手段の推定した動き推定精度を出力する出力手段とを備えるように構成する。
[2] Configuration in which the aperture ratio of the imaging system is fixed and the frame rate can be arbitrarily set To achieve the above object, the motion estimation accuracy estimation apparatus of the present invention performs motion estimation with non-integer pixel accuracy. Used in video encoding with inter-frame prediction, and when encoding video, minimizes the amount of code that will be generated in the encoding under constant encoding In order to realize the estimation accuracy of motion estimation, (b) input means for inputting a frame rate value, and (b) an estimation function having a preset aperture ratio as a constant and a frame rate as a variable. And (c) determining means for determining an estimation function used for estimating motion estimation accuracy that minimizes the amount of code that will be generated in the encoding under the condition of encoding with a constant distortion amount. Deciding on the decision means This occurs when encoding is performed using the frame rate value input by the input means and the preset aperture ratio value by substituting the frame rate value input by the input means for the estimated function. And (d) an output unit that outputs the motion estimation accuracy estimated by the estimation unit.

以上の各処理手段が動作することで実現される本発明の動き推定精度推定方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The motion estimation accuracy estimation method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on an appropriate computer-readable recording medium. Alternatively, the present invention is realized by being provided via a network, installed when the present invention is carried out, and operating on a control means such as a CPU.

[3]フレームレートを固定とし、撮像系の開口率を任意に設定可能とする場合の構成
前記の目的を達成するために、本発明の動き推定精度推定装置は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられて、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定することを実現するために、(イ)開口率の値を入力する入力手段と、(ロ)予め設定されたフレームレートを定数とし開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する決定手段と、(ハ)決定手段の決定した推定関数に対して、入力手段の入力した開口率の値を代入することで、入力手段の入力した開口率の値及び予め設定されたフレームレートの値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する推定手段と、(ニ)推定手段の推定した動き推定精度を出力する出力手段とを備えるように構成する。
[3] Configuration in which the frame rate is fixed and the aperture ratio of the imaging system can be arbitrarily set To achieve the above object, the motion estimation accuracy estimation apparatus of the present invention performs motion estimation with non-integer pixel accuracy. Used in video encoding with inter-frame prediction, and when encoding video, minimizes the amount of code that will be generated in the encoding under constant encoding In order to realize the estimation accuracy of motion estimation, (a) an input means for inputting an aperture ratio value, and (b) an estimation function having a preset frame rate as a constant and an aperture ratio as a variable. And (c) determining means for determining an estimation function used for estimating motion estimation accuracy that minimizes the amount of code that will be generated in the encoding under the condition of encoding with a constant distortion amount. Estimating function determined by the determining means This occurs when encoding is performed with the numerical aperture value input by the input means and the preset frame rate value by substituting the numerical aperture value input by the input means for the number. An estimation unit that estimates the motion estimation accuracy that minimizes the code amount and (d) an output unit that outputs the motion estimation accuracy estimated by the estimation unit are provided.

以上の各処理手段が動作することで実現される本発明の動き推定精度推定方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The motion estimation accuracy estimation method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on an appropriate computer-readable recording medium. Alternatively, the present invention is realized by being provided via a network, installed when the present invention is carried out, and operating on a control means such as a CPU.

[4]本発明の動き推定精度推定装置の処理
このように構成される本発明の動き推定精度推定装置では、入力値や予め設定された値に従って、動き推定精度の推定対象となるフレームレート及び開口率の値を設定すると、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する。
[4] Processing of Motion Estimation Accuracy Estimating Device of the Present Invention In the motion estimation accuracy estimating device of the present invention configured as described above, according to an input value or a preset value, a frame rate to be estimated for motion estimation accuracy and When the value of the aperture ratio is set, an estimation function used to estimate the motion estimation accuracy that minimizes the amount of code that will be generated by the encoding is determined under the encoding condition in which the distortion amount is constant.

この推定関数としては、例えば、フレームレートと、あるフレームレート及びある開口率で符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述されて、開口率によりその値を変えるモデルパラメータとで関数形が規定されるものを用いる。   As this estimation function, for example, it is described in a function used for estimation of prediction error power of inter-frame prediction when encoding is performed at a frame rate and a certain frame rate and a certain aperture ratio. The model parameter to be changed is defined by the function type.

例えば、フレームレートをFで表し、開口率をκで表し、モデルパラメータをα1', α2', α3', α4 , α5 で表すならば、
((α1'F-1+α2'F-1/2+α3'F+α4 +α5 )/α1')1/2
ただし、α1'∝1/κ,α2'∝1/κ1/2 ,α3'∝1/κ
に比例する推定関数を用いるのである。
For example, if the frame rate is represented by F, the aperture ratio is represented by κ, and the model parameters are represented by α 1 ′, α 2 ′, α 3 ′, α 4 , α 5 ,
((Α 1 'F -1 + α 2 ' F -1/2 + α 3 'F + α 4 + α 5 ) / α 1 ') 1/2
However, α 1 '∝1 / κ, α 2 ' ∝1 / κ 1/2 , α 3 '∝1 / κ
An estimation function proportional to is used.

ここで、(1)モデルパラメータα1'として、参照フレームにおける隣接画素間の差分値の二乗和から導出される開口率に依存するものを用い、(2)モデルパラメータα2'として、フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出される開口率に依存するものを用い、(3)モデルパラメータα3'として、原信号に重畳する雑音電力の推定値と補間フィルタ通過後の原信号に重畳する雑音電力の推定値との和から導出される開口率に依存するものを用い、(4)モデルパラメータα4 として、画素値の補間に伴う誤差電力の推定値と参照信号の量子化に伴う誤差電力の推定値との和から導出される開口率に依存しないものを用い、(5)モデルパラメータα5 として、フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出される開口率に依存しないものを用いることがある。 Here, (1) the model parameter α 1 ′ that depends on the aperture ratio derived from the square sum of the difference values between adjacent pixels in the reference frame is used, and (2) the model parameter α 2 ′ Use the one that depends on the aperture ratio derived from the sum of the product of the approximation error of Taylor expansion for the prediction error and the difference value between adjacent pixels in the reference frame, and (3) superimpose it on the original signal as the model parameter α 3 ′ Using a value that depends on the aperture ratio derived from the sum of the estimated value of noise power and the estimated value of noise power superimposed on the original signal after passing through the interpolation filter, (4) interpolation of pixel values as model parameter α 4 used does not depend on the aperture ratio derived from the sum of the estimated value of the error power due to the quantization of the reference signal and the estimated value of the error power due to (5) as a model parameter alpha 5, frame It may be used which does not depend on the aperture ratio derived from the sum of the squares of the approximation error of the Taylor expansion for between prediction error.

このようにして、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定すると、その推定関数に対して、設定したフレームレート及び開口率の値を代入することで、設定したフレームレート及び開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定して、その推定した動き推定精度を出力する。   In this way, when the estimation function used to estimate the motion estimation accuracy that minimizes the amount of code that will occur in the encoding under the condition of the encoding with a constant amount of distortion is determined, the estimation function On the other hand, by substituting the set frame rate and aperture ratio values, the motion estimation accuracy that minimizes the amount of code that occurs when encoding is performed with the set frame rate and aperture ratio values. The estimated motion estimation accuracy is output.

本発明によれば、フレームレート及び開口率が与えられた場合に、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度を推定することができるようになる。   According to the present invention, when a frame rate and an aperture ratio are given, it is possible to estimate a motion estimation accuracy that minimizes a code amount when a distortion amount is constant (a quantization step width is fixed). become.

すなわち、本発明によれば、フレームレート及び開口率に応じた適切な動き推定精度を設定することが可能となり、動き推定精度の不足に伴う符号化効率の低下を回避できるようになる。また、一般に、高い動き推定精度が必要とされる高フレームレート映像の符号化において、適切な動き推定精度を予め見積もることが可能となり、符号化処理を高速化できることが見込める。   That is, according to the present invention, it is possible to set an appropriate motion estimation accuracy according to the frame rate and the aperture ratio, and it is possible to avoid a decrease in coding efficiency due to a lack of motion estimation accuracy. In general, in encoding of a high frame rate video that requires high motion estimation accuracy, it is possible to estimate appropriate motion estimation accuracy in advance, and it is expected that the encoding process can be speeded up.

以下、実施の形態に従って本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments.

前述したように、本発明では、高フレームレート映像に対する符号化処理において、撮像系の開口時間に応じて発生する積分効果の影響を考慮した形で、フレームレートと動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレート毎の適切な動き推定精度を推定することで、高フレームレート映像に対する効率的な符号化を実現するものである。   As described above, in the present invention, the relationship between the frame rate and the motion estimation accuracy is expressed in consideration of the influence of the integration effect generated according to the aperture time of the imaging system in the encoding process for the high frame rate video. By constructing an analytical theoretical model and estimating an appropriate motion estimation accuracy for each frame rate using the theoretical model, efficient encoding for a high frame rate video is realized.

次に、まず最初に、『[1]フレームレートとフレーム間予測誤差電力との関係』で、フレームレート及び開口率に対するフレーム間予測誤差電力の関係を解析的に導出し、続いて、『[2]変移量推定誤差とフレームレートとの関係』で、フレームレート及び開口率とフレーム間予測誤差電力との関係の導出にあたって必要となる変移量推定誤差とフレームレートとの関係について説明し、続いて、『[3]動き推定精度の最適化』で、フレームレート及び開口率と動き推定精度との関係を表す解析的な理論モデルを構築して、その理論モデルを利用してフレームレートや開口率に応じた適切な動き推定精度を推定する構成について説明し、最後に、『[4]モデルパラメータの推定』で、フレームレート及び開口率と動き推定精度との関係を表す解析的な理論モデルを構成するモデルパラメータの推定について説明する。   Next, firstly, “[1] Relationship between frame rate and inter-frame prediction error power” is used to analytically derive the relationship between inter-frame prediction error power with respect to the frame rate and the aperture ratio. 2] Relationship between shift amount estimation error and frame rate "explains the relationship between the shift amount estimation error and the frame rate necessary for deriving the relationship between the frame rate and the aperture ratio and the inter-frame prediction error power. Then, in [3] Optimization of motion estimation accuracy, an analytical theoretical model that represents the relationship between the frame rate and aperture ratio and motion estimation accuracy is constructed, and the frame rate and aperture are calculated using the theoretical model. The configuration for estimating the appropriate motion estimation accuracy according to the rate will be described. Finally, in [4] Model parameter estimation, the relationship between the frame rate and the aperture ratio and the motion estimation accuracy will be described. Estimation of the model parameters is described which constitutes the analytical theoretical model representing the.

[1]フレームレートとフレーム間予測誤差電力との関係
フレームレート及び開口率に対するフレーム間予測誤差電力の関係を解析的に導出する。ここでは、簡単のため1次元信号を例にとり説明する。
[1] Relationship between frame rate and inter-frame prediction error power The relationship of inter-frame prediction error power to the frame rate and the aperture ratio is derived analytically. Here, for simplicity, a one-dimensional signal will be described as an example.

位置xにおいて、シャッターを時刻tからt+Δの間、開口して撮影した信号をgt (x,Δ)(0≦x≦X−1)とする。なお、同信号はXサンプルを有するものとする。また、観測信号gt (x,Δ)は画像信号ft (x,Δ)に雑音nt (x,Δ)が重畳して、次式のように構成されているものとする。 A signal obtained by opening the shutter from time t to t + Δ at the position x is taken as g t (x, Δ) (0 ≦ x ≦ X−1). The signal has X samples. Further, it is assumed that the observation signal g t (x, Δ) is configured as follows by superimposing noise n t (x, Δ) on the image signal f t (x, Δ).

t (x,Δ)=ft (x,Δ)+nt (x,Δ)
このとき、シャッターの開口時間をmΔ(mは自然数)に伸長した場合に得られる信号 -t (x,mΔ)は、gt (x,Δ)を用いて以下のように表せる。なお、以下の表記において、「 -Z」(Zは文字)における記号 -は、「Z」の上に付く記号を示している。
g t (x, Δ) = f t (x, Δ) + n t (x, Δ)
At this time, Emuderuta the shutter opening time (m is a natural number) signal obtained when stretched - g t (x, mΔ) can be expressed as follows using g t (x, Δ). In the following notation, "- Z" symbol in (Z character) - shows the symbols attached on the "Z".

Figure 0004785890
Figure 0004785890

この場合、フレーム間隔とシャッターの開口時間が一致しており、シャッターをフルオープンで撮影した場合のフレームが、これにあたる。これに対し、シャッターの開口時間を〜mΔとして、時刻mΔ≦t≦mΔ+〜mΔの間、部分的にシャッターを開口して撮影したフレームは以下のように表せる。なお、以下の表記において、「〜Z」(Zは文字)における記号〜は、「Z」の上に付く記号を示している。   In this case, the frame interval matches the opening time of the shutter, and this corresponds to the frame when the shutter is fully opened. On the other hand, a frame obtained by partially opening the shutter between times mΔ ≦ t ≦ mΔ + to mΔ, where the shutter opening time is −mΔ, can be expressed as follows. In the following notation, the symbol “˜Z” (Z is a letter) indicates a symbol attached on “Z”.

Figure 0004785890
Figure 0004785890

ここで、〜mは1≦〜m≦mの値をとる。つまり、フレームレートの変換に、シャッターの開口時間の変化が伴う場合は、式(2)に示す低域通過フィルタの影響を考慮する必要がある。なお、以下では、式(2)の各項を次式のように表記するものとする。   Here, ~ m takes a value of 1 ≦ m ≦ m. That is, when the change in the shutter opening time is accompanied with the conversion of the frame rate, it is necessary to consider the influence of the low-pass filter shown in the equation (2). In the following, each term of the formula (2) is expressed as the following formula.

Figure 0004785890
Figure 0004785890

観測信号 -t (x,mΔ)(0≦x≦X−1)に対して、LサンプルからなるセグメントB[i](i=1,2,... ,X/L)を単位として動き補償(推定変位量^d[i])を行い、そのセグメント内の動き補償後の予測誤差を評価する。なお、以下の表記において、「^Z」(Zは文字)における記号^は、「Z」の上に付く記号を示している。また、以下では、位置xにおける真の変位量をd(x)としている。 Observed signal - g t relative (x, mΔ) (0 ≦ x ≦ X-1), a segment B composed of L samples [i] (i = 1,2, ..., X / L) as a unit Motion compensation (estimated displacement ^ d [i]) is performed, and the prediction error after motion compensation in the segment is evaluated. In the following notation, the symbol “^” in “^ Z” (Z is a letter) indicates a symbol attached to “Z”. In the following, the true displacement amount at the position x is d (x).

推定変移量^d[i]が小数画素精度の場合、参照画素値を補間処理により生成する。補間対象の信号をst (x)とすると、補間処理は下記の式(5)で表されるフィルタリングとなる。なお、以下では、下記の式(5)式の左辺の演算子を「I」で表記することがある。 When the estimated shift amount ^ d [i] has decimal pixel accuracy, a reference pixel value is generated by interpolation processing. Assuming that the signal to be interpolated is st (x), the interpolation processing is filtering represented by the following equation (5). In the following, the operator on the left side of the following formula (5) may be expressed as “I”.

Figure 0004785890
Figure 0004785890

ここで、δは動き推定の精度である。例えば、MPEG−2準拠の符号化器の場合、δ=1/2に設定される。また、補間係数ψ[k]は下記の式(6)を満たすものとする。   Here, δ is the accuracy of motion estimation. For example, in the case of an MPEG-2 compliant encoder, δ = 1/2 is set. The interpolation coefficient ψ [k] satisfies the following formula (6).

Figure 0004785890
Figure 0004785890

前記の補間フィルタを用いて、参照位置の画素値は、I(〜 -t-1 (x+^d[i],〜mΔ)(q) )として近似される。 Using the interpolation filter, the pixel values of the reference position, I - is approximated as (~ g t-1 (x + ^ d [i], ~mΔ) (q)).

ここで、〜 -t-1 (x+^d[i],〜mΔ)(q) は、 -t-1 (x+^d[i],〜mΔ)に対して、量子化ステップ幅qでの量子化を行った場合の復号信号であり、下記の式(7)のように表せる。 Here, ~ - g t-1 ( x + ^ d [i], ~mΔ) (q) is, - g t-1 (x + ^ d [i], ~mΔ) relative to the quantization step size q This is a decoded signal when quantization is performed at, and can be expressed as in the following equation (7).

Figure 0004785890
Figure 0004785890

ここで、vt-1 (x+^d[i],〜mΔ)qは、量子化に伴い発生する誤差を表しており、vt-1 (x+^d[i],〜mΔ)は信号 -t-1 (x+^d[i],〜mΔ)に依存するパラメータである。 Here, v t-1 (x + ^ d [i], ~ mΔ) q represents an error caused by quantization, and v t-1 (x + ^ d [i], ~ mΔ) is a signal. - f t-1 (x + ^ d [i], ~mΔ) is a parameter that depends on.

参照位置の画素値 -t-1 (x+^d[i],〜mΔ)と補間により生成した値Ι(〜 -t-1 (x+^d[i],〜mΔ)(q) )との差は、下記の式(8)のように表せる。 Pixel values of the reference position - f t-1 (x + ^ d [i], ~mΔ) and the value generated by interpolation Ι (~ - g t-1 (x + ^ d [i], ~mΔ) (q)) Can be expressed as the following formula (8).

Figure 0004785890
Figure 0004785890

ここで、 -t-1 int (x+^d[i],〜mΔ)は下記の式(9)の通りである。 Here, - e t-1 int ( x + ^ d [i], ~mΔ) is as Equation (9) below.

Figure 0004785890
Figure 0004785890

このとき、セグメント内の動き補償後の予測誤差は、下記の式(10)のように表せる。   At this time, the prediction error after motion compensation in the segment can be expressed by the following equation (10).

Figure 0004785890
Figure 0004785890

ここで、式(10)におけるφ(x)は、テイラー展開の2次以降の項である。   Here, φ (x) in Equation (10) is a second-order term or later of Taylor expansion.

また、式(10)におけるN(x,〜mΔ)は、参照フレームにおける補間誤差Nt-1 ref (x,〜mΔ)と原信号に重畳している雑音 -t (x,〜mΔ)との和であり、下記の式(11)のように表せる。 Further, N in equation (10) (x, ~mΔ), the interpolation error N t-1 ref (x, ~mΔ) in the reference frame as the noise superimposed on the original signal - n t (x, ~mΔ) And can be expressed as the following equation (11).

Figure 0004785890
Figure 0004785890

また、式(10)におけるζ[i](x)は、推定変移量^d[i]とxにおける真の変移量d[i](x)との推定誤差であり、
ζ[i](x)=d[i](x)−^d[i]
のように表せる。
In addition, ζ [i] (x) in equation (10) is an estimation error between the estimated shift amount ^ d [i] and the true shift amount d [i] (x) in x.
ζ [i] (x) = d [i] (x) − ^ d [i]
It can be expressed as

後述する『[2]変移量推定誤差とフレームレートとの関係』で説明するように、変移量推定誤差ζ[i](x)をフレームレートFの関数として、下記の式(12)(13)ように近似できる。   As will be described later in “[2] Relationship between Transition Amount Estimation Error and Frame Rate”, the following formulas (12) and (13) are used with the transition amount estimation error ζ [i] (x) as a function of the frame rate F. ).

Figure 0004785890
Figure 0004785890

ここで、κ1 ,κ1 ’及びκ2 は映像信号に依存する定数である。また、δは動き推定の精度である。例えば、MPEG−2準拠の符号化器の場合、δ=1/2に設定される。 Here, κ 1 , κ 1 ′ and κ 2 are constants depending on the video signal. Also, δ is the accuracy of motion estimation. For example, in the case of an MPEG-2 compliant encoder, δ = 1/2 is set.

全セグメント(B[i](i=1,2,... ,X/L))に対するσ[i]2 の和を算出する。このとき、N(x,〜mΔ)の各項の独立性を仮定することで、下記の式(14)に示すような近似式を得る。 The sum of σ [i] 2 is calculated for all segments (B [i] (i = 1, 2,..., X / L)). At this time, by assuming the independence of each term of N (x, ˜mΔ), an approximate expression as shown in the following expression (14) is obtained.

Figure 0004785890
Figure 0004785890

ここで、〜N(x,〜mΔ)2 は下記の式(15)に示す通りである。 Here, ˜N (x, ˜mΔ) 2 is as shown in the following formula (15).

Figure 0004785890
Figure 0004785890

式(15)の第1項と第2項との和を〜N1(x,〜mΔ)2 と定義し、式(15)の第3項と第4項との和を〜N2(x,〜mΔ)2 と定義することで、〜N1(x,〜mΔ)2 、〜N2(x,〜mΔ)2 として、下記の式(16)(17)のように定義する。 The sum of the first term and the second term in Equation (15) is defined as ~ N 1 (x, ~ mΔ) 2 , and the sum of the third term and the fourth term in Equation (15) is defined as ~ N 2 ( By defining x, ˜mΔ) 2, they are defined as the following formulas (16) and (17) as ˜N 1 (x, ˜mΔ) 2 and ˜N 2 (x, ˜mΔ) 2 .

Figure 0004785890
Figure 0004785890

さらに、変移量推定誤差ζ[i](x)と画素値の微分値とが統計的に独立だと仮定して、式(12)及び式(13)を式(14)に代入すると、画素当たりの予測誤差電力について下記の式(18)に示す近似式を得る。   Further, assuming that the displacement estimation error ζ [i] (x) and the differential value of the pixel value are statistically independent, substituting Equation (12) and Equation (13) into Equation (14) yields a pixel The approximate formula shown in the following formula (18) is obtained for the predicted error power per hit.

Figure 0004785890
Figure 0004785890

ここで、モデルパラメータα123456 は、それぞれ下記の式(19)の通りである。 Here, the model parameters α 1 , α 2 , α 3 , α 4 , α 5 , α 6 are as shown in the following equation (19).

Figure 0004785890
Figure 0004785890

さらに、モデルパラメータα1 について計算すると、下記の式(20)のようになる。 Further, when the model parameter α 1 is calculated, the following equation (20) is obtained.

Figure 0004785890
Figure 0004785890

ここで、   here,

Figure 0004785890
Figure 0004785890

とおき、さらに、簡単のために、ft (x,Δ)をft (x)と略記すると、下記の式(22)の近似関係を得る。 Further, for the sake of simplicity, when f t (x, Δ) is abbreviated as f t (x), an approximate relationship of the following equation (22) is obtained.

Figure 0004785890
Figure 0004785890

ここで、この式(22)の近似では、以下の斉次モデルを用いた。   Here, in the approximation of the equation (22), the following homogeneous model was used.

Figure 0004785890
Figure 0004785890

さらに、以下の近似を用いた。   Furthermore, the following approximation was used.

Figure 0004785890
Figure 0004785890

ここで、 -i 及び -j は各々、di (x)及びdj (x)(x∈L)の平均値である。また、αi,j は平均変移量( -i -j )を用いた近似に対する補正パラメータである。 Here, - d i and - d j are each an average value of d i (x) and d j (x) (x∈L) . Further, α i, j is the average displacement amount is a correction parameter for approximation using the (- d j - d i, ).

ρは画像信号の自己相関のため、1以下であり、かつ、1に近い値とみなすことができる。このため、
(1−ρ)/ρ≪1
という不等式を得る。
ρ is 1 or less because of autocorrelation of the image signal, and can be regarded as a value close to 1. For this reason,
(1-ρ) / ρ << 1
To get the inequality.

この不等式を用いることで、式(22)は以下の通り近似できる。   By using this inequality, equation (22) can be approximated as follows.

Figure 0004785890
Figure 0004785890

シャッターの開口率κをmと〜mの比として、
〜m/m=κ(≦1)
のように定義する。さらに、mはダウンサンプルされたフレームレートFの最大フレームレートF0 に対する比であることを考慮すると、〜mは、
〜m=κm=κF0 /F
となる。
Let the shutter aperture ratio κ be the ratio of m to ~ m,
~ M / m = κ (≦ 1)
Define as follows. Further, considering that m is the ratio of the downsampled frame rate F to the maximum frame rate F 0 , ~ m is
~ M = κm = κF 0 / F
It becomes.

これらの式を用いて、式(20)から、モデルパラメータα1 について、下記の式(27)の近似式を得る。 Using these equations, an approximate equation of the following equation (27) is obtained for the model parameter α 1 from the equation (20).

Figure 0004785890
Figure 0004785890

モデルパラメータα2 について計算すると、以下のようになる。 The calculation for the model parameter α 2 is as follows.

Figure 0004785890
Figure 0004785890

ここで、次の近似関係を得る。   Here, the following approximate relationship is obtained.

Figure 0004785890
Figure 0004785890

ここで、γは1あるいは−1とする。なお、前記の式では、簡単のために、ft (x,Δ)をft (x)と略記している。 Here, γ is 1 or −1. In the above formula, f t (x, Δ) is abbreviated as f t (x) for simplicity.

これにより、モデルパラメータα2 について、下記の式(30)の近似式を得る。 Thereby, an approximate expression of the following expression (30) is obtained for the model parameter α 2 .

Figure 0004785890
Figure 0004785890

モデルパラメータα3 について計算すると、下記の式(31)の近似式を得る。 When the model parameter α 3 is calculated, an approximate expression of the following expression (31) is obtained.

Figure 0004785890
Figure 0004785890

ここで、n0 2は、下記の式(32)のように定義される雑音電力を表す。 Here, n 0 2 represents noise power defined as the following equation (32).

Figure 0004785890
Figure 0004785890

以上のようにして求められるモデルパラメータα123 を式(18)に代入して、下記の式(33)を得る。 By substituting the model parameters α 1 , α 2 , and α 3 obtained as described above into the equation (18), the following equation (33) is obtained.

Figure 0004785890
Figure 0004785890

ここで、モデルパラメータα1', α2', α3'は、それぞれ下記の式(34)の通りである。 Here, the model parameters α 1 ′, α 2 ′, α 3 ′ are as shown in the following formula (34), respectively.

なお、モデルパラメータα1', α2', α3'とモデルパラメータα123 との間には、
α1'=(1/F)×α1 , α2'=(1/F)1/2 ×α2 , α3'=(1/F)×α3
という関係が成立する。
Note that between the model parameters α 1 ′, α 2 ′, α 3 ′ and the model parameters α 1 , α 2 , α 3 ,
α 1 ′ = (1 / F) × α 1 , α 2 ′ = (1 / F) 1/2 × α 2 , α 3 ′ = (1 / F) × α 3
The relationship is established.

Figure 0004785890
Figure 0004785890

[2]変移量推定誤差とフレームレートとの関係
次に、前述の式(12)(13)が成立することについて説明する。
[2] Relationship between Transition Amount Estimation Error and Frame Rate Next, it will be described that the above equations (12) and (13) hold.

[2−1]式(12)の導出
連続値として表した場合の変移量^dF [i]を離散した場合の離散値を〜dF [i]とする。このときの離散化誤差をε[i]とすると、〜dF [i]は下記の式(35)のようにあらわせる。
[2-1] Formula discrete values in the case of discrete (12) displacement amount when expressed as derived successive values of ^ d F [i] and to d F [i]. Assuming that the discretization error at this time is ε [i], ˜d F [i] is expressed by the following equation (35).

Figure 0004785890
Figure 0004785890

ε[i]は平均が零値、分散が動き推定精度の二乗値に比例する一様分布に従うものと仮定する。二乗誤差規範に基づくブロックマッチングでは、各ブロックに対する推定変移量は、ブロック中央位置の画素の変移量を用いて近似的にあらわすことができる。xc [i]をセグメントB[i]の中央位置の座標とすると、これにより、フレームレートF=F0 の場合の推定変移量は下記の式(36)のように近似できる。 It is assumed that ε [i] follows a uniform distribution in which the mean is zero and the variance is proportional to the square value of motion estimation accuracy. In block matching based on the square error criterion, the estimated shift amount for each block can be approximately expressed using the shift amount of the pixel at the block center position. Assuming that x c [i] is the coordinates of the center position of the segment B [i], the estimated shift amount when the frame rate F = F 0 can be approximated as in the following equation (36).

Figure 0004785890
Figure 0004785890

さらに、^xにおける変移量と^x’における変移量との差分は平均がゼロ、分散が両座標位置の差分値に比例する正規分布としてモデル化できる。ここで、^x及び^x’は、セグメントB[i](i=1,2,... ,X/L)内での座標位置を示す。つまり、下記の式(37)のような近似が可能となる。   Further, the difference between the shift amount at ^ x and the shift amount at ^ x 'can be modeled as a normal distribution in which the average is zero and the variance is proportional to the difference value between the two coordinate positions. Here, {circumflex over (x)} and {circumflex over (x)} ′ indicate coordinate positions in the segment B [i] (i = 1, 2,..., X / L). That is, approximation as shown in the following equation (37) is possible.

Figure 0004785890
Figure 0004785890

ここで、E[・]は期待値演算を表し、^ch は信号依存のパラメータである。同モデルは、全セグメントB[i](i=1,2,... ,X/L)における変移量の差分値(dF0[i](^x)−dF0[i](^x’))に対する集合平均の良好な近似値を与える。 Here, E [·] denotes the expectation operation, ^ c h is a parameter of the signal-dependent. The model is the difference value (d F0 [i] (^ x) −d F0 [i] (^ x) of the transition amount in all segments B [i] (i = 1, 2,..., X / L). Give a good approximation of the set average for ')).

式(36)(37)により、下記の式(38)を得る。   The following equation (38) is obtained from the equations (36) and (37).

Figure 0004785890
Figure 0004785890

ここで、ch 2 =(X/L)^ch 2 である。ξはセグメントB[i]の中央位置を原点とする座標系での座標値であり、ξはx−x0 [i]と表すことができる。つまり、ξはセグメントB[i]の中央位置からの距離である。 Here, c h 2 = (X / L) ^ c h 2 . ξ is a coordinate value in a coordinate system with the center position of the segment B [i] as the origin, and ξ can be expressed as xx 0 [i]. That is, ξ is a distance from the center position of the segment B [i].

異なるフレームレートにおける2つの変移量の関係を導く。隣接フレーム間での物体の移動は、等速運動に従うものと仮定する。この場合、物体の変移量はフレーム間隔に比例する。つまり、変移量はフレームレートに反比例するといえる。これにより、下記の式(39)の関係を得る。   Deriving the relationship between two shifts at different frame rates. It is assumed that the movement of the object between adjacent frames follows a uniform motion. In this case, the amount of displacement of the object is proportional to the frame interval. That is, it can be said that the shift amount is inversely proportional to the frame rate. Thereby, the relationship of the following formula | equation (39) is obtained.

Figure 0004785890
Figure 0004785890

式(35)、式(39)及びε[i]がフレームレートに依存しないという仮定を用いて、下記の式(40)を得る。   Using Equation (35), Equation (39) and the assumption that ε [i] does not depend on the frame rate, Equation (40) below is obtained.

Figure 0004785890
Figure 0004785890

式(40)及びε[i]が統計的に変移量と独立であるとする仮定を用いることで、下記の式(41)を得る。   By using the assumption that the equation (40) and ε [i] are statistically independent of the shift amount, the following equation (41) is obtained.

Figure 0004785890
Figure 0004785890

ここで、ξ=x−xc [i]、また、δは動き推定精度を表す。例えば、MPEG−2の符号化器の場合、δ=1/2に設定され、MPEG−4ASP(Advanced Simple Profile) の符号化器の場合、δ=1/4に設定される。 Here, ξ = x−x c [i], and δ represents the motion estimation accuracy. For example, in the case of an MPEG-2 encoder, δ is set to 1/2, and in the case of an MPEG-4 ASP (Advanced Simple Profile) encoder, δ is set to ¼.

式(41)において、
κ1 =F0 2h 2 Σξ2 ただし、Σはξについての総和 ・・・ 式(42)
κ1'=XY/12 ・・・ 式(43)
と表すことにより、式(12)を得る。
In formula (41),
κ 1 = F 0 2 c h 2 Σξ 2 where Σ is the sum of ξ Equation (42)
κ 1 ′ = XY / 12 Formula (43)
Is expressed as (12).

[2−2]式(13)の導出
ε[i]がゼロ平均の一様分布に従うと仮定すると、下記の式(44)を得る。
[2-2] Derivation of Equation (13) Assuming that ε [i] follows a zero-average uniform distribution, the following Equation (44) is obtained.

Figure 0004785890
Figure 0004785890

ζF [i](x)を、
ζF [i](x)=dF [i](x)−^dF [i]
のように定義する変移量の推定誤差とする。
ζ F [i] (x)
ζ F [i] (x) = d F [i] (x) − ^ d F [i]
It is assumed that the deviation estimation error is defined as follows.

このとき、{ΣΣζF [i](x)}2 について、下記の式(45)の通り表すことができる。 At this time, {ΣΣζ F [i] (x)} 2 can be expressed as the following equation (45).

Figure 0004785890
Figure 0004785890

式(45)の第一項は、式(41)により近似することができる。また、第二項はシュワルツの不等式より下記の式(46)の関係をみたす。   The first term of equation (45) can be approximated by equation (41). The second term satisfies the following equation (46) from the Schwarz inequality.

Figure 0004785890
Figure 0004785890

ここで、ξ=x−xc [i]、ξ’=x’−xc [i]である。この式(46)の不等式により、下記の式(47)の近似式を得る。 Here, ξ = x−x c [i] and ξ ′ = x′−x c [i]. The approximate expression of the following expression (47) is obtained from the inequality of the expression (46).

Figure 0004785890
Figure 0004785890

ここで、βは−1から1の範囲の値をとるパラメータである。式(47)及び式(41)を式(45)に代入することにより、下記の式(48)を得る。   Here, β is a parameter that takes a value in the range of −1 to 1. By substituting Equation (47) and Equation (41) into Equation (45), the following Equation (48) is obtained.

Figure 0004785890
Figure 0004785890

したがって、下記の式(49)を得る。   Therefore, the following formula (49) is obtained.

Figure 0004785890
Figure 0004785890

ここで、γは1か−1である。式(49)に記述される下記の式(50)をκ2 とおくことにより、式(13)を得る。 Here, γ is 1 or -1. Formula (13) is obtained by setting the following formula (50) described in formula (49) as κ 2 .

Figure 0004785890
Figure 0004785890

[3]動き推定精度の最適化
歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を評価関数として考える。以下では、量子化ステップ幅が与えられた場合に、その評価関数を最小化する動き推定精度を算出する方法について詳述する。
[3] Optimization of motion estimation accuracy Consider the code amount when the distortion amount is constant (quantization step width is fixed) as an evaluation function. Hereinafter, a method of calculating motion estimation accuracy that minimizes the evaluation function when a quantization step width is given will be described in detail.

量子化ステップ幅q、フレームレートF、動き推定精度δが与えられた場合、フレーム間予測誤差の符号量は、
c (q,F,δ)=(1/2)log2 γc (P(F,δ)/q2
・・・ 式(51)
のようにモデル化できる。
When the quantization step width q, the frame rate F, and the motion estimation accuracy δ are given, the code amount of the inter-frame prediction error is
R c (q, F, δ) = (1/2) log 2 γ c (P (F, δ) / q 2 )
... Formula (51)
Can be modeled as follows.

ここで、γc は信号依存の定数パラメータである。また、P(F,δ)は、
P(F,δ)=Σσ[i]2 但し、Σはi=1〜X/Lについての総和
であり、フレーム内の予測誤差電力和を示す。
Here, γ c is a signal-dependent constant parameter. P (F, δ) is
P (F, δ) = Σσ [i] 2 where Σ is the sum for i = 1 to X / L and represents the prediction error power sum in the frame.

一方、フレームレートF、動き推定精度δが与えられた場合、変移量の符号量は、
mv(F,δ)=(X/L)log2 (2U(F)/δ) ・・・ 式(52)
のようにモデル化できる。
On the other hand, when the frame rate F and the motion estimation accuracy δ are given, the code amount of the shift amount is
R mv (F, δ) = (X / L) log 2 (2U (F) / δ) Expression (52)
Can be modeled as follows.

ここで、U(F)はフレームレートがFの場合の動き推定の探索範囲を表しており、変移量^dは−U(F)≦^d≦U(F)−1の範囲をとりうるものとする。したがって、2U(F)/δは探索範囲内における推定変移量の候補数を表す。   Here, U (F) represents a motion estimation search range when the frame rate is F, and the shift amount ^ d can take a range of -U (F) ≤ ^ d≤U (F) -1. Shall. Therefore, 2U (F) / δ represents the number of candidates for the estimated shift amount within the search range.

変移量はフレーム間隔に比例して減少するため、符号量削減の観点から、U(F)はFに反比例するように、
U(F)=U0 0 /F
というように設定する。ここで、U0 はフレームレートがF0 の場合の動き推定の範囲を表すパラメータである。
Since the shift amount decreases in proportion to the frame interval, U (F) is inversely proportional to F from the viewpoint of code amount reduction.
U (F) = U 0 F 0 / F
And so on. Here, U 0 is a parameter representing the range of motion estimation when the frame rate is F 0 .

このとき、予測誤差信号と変移量の符号量の総和は、
R(q,F,δ)=Rc (q,F,δ)+Rmv(F,δ) ・・・ 式(53)
となる。
At this time, the sum of the code amount of the prediction error signal and the shift amount is
R (q, F, δ) = R c (q, F, δ) + R mv (F, δ) (53)
It becomes.

この式(53)が歪み量を一定(量子化ステップ幅qを固定)とした場合の符号量を与えている。   This equation (53) gives the code amount when the distortion amount is constant (quantization step width q is fixed).

このようにフレームレートF、量子化ステップ幅qが与えられた場合に、R(q,F,δ)を最小化する動き推定精度δ* (F)を算出する。求めるべきδ* (F)は、
∂R(q,F,δ)/∂δ
=∂Rc (q,F,δ)/∂δ+∂Rmv(F,δ)/∂δ=0
・・・ 式(54)
という式を満たす。
In this way, when the frame rate F and the quantization step width q are given, the motion estimation accuracy δ * (F) that minimizes R (q, F, δ) is calculated. Δ * (F) to be obtained is
∂R (q, F, δ) / ∂δ
= ∂R c (q, F, δ) / ∂δ + ∂R mv (F, δ) / ∂δ = 0
... Formula (54)
The following expression is satisfied.

この式(54)を満たすδ* (F)は、下記の式(55)のように表せる。 Δ * (F) satisfying the equation (54) can be expressed as the following equation (55).

Figure 0004785890
Figure 0004785890

この式(55)に記載されるモデルパラメータα1', α2', α3'は、式(34)に記載するように、
α1'∝1/κ , α2'∝1/κ1/2 ,α3'∝1/κ
という形で、開口率κによりその値を変える性質を持つ。すなわち、式(55)に示すδ* (F)は、フレームレートF及び開口率κによりその関数形が規定されるという性質を持ち、変数を陽に示す形で記載するならばδ* (F,κ)となる。
The model parameters α 1 ′, α 2 ′, α 3 ′ described in the equation (55) are as described in the equation (34):
α 1 '∝1 / κ, α 2 ' ∝1 / κ 1/2 , α 3 '∝1 / κ
In this way, it has the property of changing its value by the aperture ratio κ. That is, δ * (F) shown in the equation (55) has a property that its function form is defined by the frame rate F and the aperture ratio κ, and δ * (F , Κ).

これから、開口率κが予め固定の値として与えられている場合に、フレームレートFが変数として与えられる場合には、その固定値として与えられる開口率κとその変数値として与えられるフレームレートFとを式(55)に代入することで、そのフレームレート及び開口率において、符号量を最小化する動き推定精度δ* (F,κ)を算出することができる。 From this, when the aperture ratio κ is given in advance as a fixed value, and the frame rate F is given as a variable, the aperture ratio κ given as the fixed value and the frame rate F given as the variable value Is substituted into the equation (55), the motion estimation accuracy δ * (F, κ) that minimizes the code amount can be calculated at the frame rate and the aperture ratio.

また、フレームレートFが予め固定の値として与えられている場合に、開口率κが変数として与えられる場合には、その固定値として与えられるフレームレートFとその変数値として与えられる開口率κとを式(55)に代入することで、そのフレームレート及び開口率において、符号量を最小化する動き推定精度δ* (F,κ)を算出することができる。 When the frame rate F is given as a fixed value in advance, and the aperture ratio κ is given as a variable, the frame rate F given as the fixed value and the aperture rate κ given as the variable value Is substituted into the equation (55), the motion estimation accuracy δ * (F, κ) that minimizes the code amount can be calculated at the frame rate and the aperture ratio.

そして、フレームレートFと開口率とが変数として与えられる場合には、その変数値として与えられるフレームレートFとその変数値として与えられる開口率とを式(55)に代入することで、そのフレームレート及び開口率において、符号量を最小化する動き推定精度δ* (F,κ)を算出することができる。 When the frame rate F and the aperture ratio are given as variables, the frame rate F given as the variable value and the aperture ratio given as the variable value are substituted into the equation (55), so that the frame In the rate and the aperture ratio, the motion estimation accuracy δ * (F, κ) that minimizes the code amount can be calculated.

[4]モデルパラメータの推定
次に、モデルパラメータα1', α2', α3', α4 , α5 の推定について説明する。
[4] Estimation of model parameters Next, estimation of model parameters α 1 ′, α 2 ′, α 3 ′, α 4 and α 5 will be described.

[4−1]モデルパラメータα1'の推定
モデルパラメータα1'は、式(34)のモデルパラメータα1'の定義式で定義されるものである。
[4-1] 'estimated model parameters alpha 1' of the model parameter alpha 1 is intended to be defined by the definition expression of the model parameters alpha 1 'of formula (34).

モデルパラメータα1'を構成する2σs 2(1−ρ)については、推定手段が外部から与えられるものとする。例えば、σs 2 がフレーム内の画素値の二乗和、ρが画素間の相関係数であることを考慮すると、2σs 2(1−ρ)は、隣接画素間の差分値の二乗和に対する近似値となっている。そこで、符号化対象フレームにおいて、隣接画素間の差分値の二乗和を求め、2σs 2(1−ρ)に対する近似値とする。 As for 2σ s 2 (1-ρ) constituting the model parameter α 1 ′, it is assumed that an estimation means is given from the outside. For example, considering that σ s 2 is the sum of squares of pixel values in a frame and ρ is a correlation coefficient between pixels, 2σ s 2 (1−ρ) is the sum of squares of the difference values between adjacent pixels. It is an approximate value. Therefore, in the encoding target frame, a sum of squares of the difference values between adjacent pixels is obtained and set as an approximate value for 2σ s 2 (1−ρ).

また、モデルパラメータα1'を構成するL,F0 ,κについては、符号化時のパラメータとして設定されているので(κについては変数として扱うことも可能である)、適宜、読み込むことができる。 Further, L, F 0 , and κ constituting the model parameter α 1 ′ are set as parameters at the time of encoding (κ can be handled as a variable), and therefore can be appropriately read. .

また、モデルパラメータα1'を構成するκ1 については、推定手段が外部から与えられるものとする。例えば、画素毎に動きベクトルを求め、2つの動きベクトル間の差分ベクトルの二乗ノルムと画素間の距離の二乗ノルムとの関係を測定し、両者の比を^ch 2 の推定値とする。κ1 の^ch 2 の構成要素については符号化時のパラメータとして設定されているので、式(42)に基づき、κ1 の推定値を得る。 Assume that an estimation means is given from the outside for κ 1 constituting the model parameter α 1 ′. For example, a motion vector is obtained for each pixel, and the relationship between the square norm of the difference vector between the two motion vectors and the square norm of the distance between the pixels is measured, and the ratio between the two is used as an estimated value of ^ c h 2 . Since the components of κ 1 ^ c h 2 are set as parameters at the time of encoding, an estimated value of κ 1 is obtained based on the equation (42).

そこで、以上の値を用いて、式(34)のモデルパラメータα1'の定義式に基づき、モデルパラメータα1'の推定値を得る。 Therefore, using the above values, an estimated value of the model parameter α 1 ′ is obtained based on the definition formula of the model parameter α 1 ′ in Expression (34).

[4−2]モデルパラメータα3'の推定
モデルパラメータα3'は、式(34)のモデルパラメータα3'の定義式で定義されるものである。
[4-2] 'estimated model parameters alpha 3' of the model parameter alpha 3 is intended to be defined by the definition expression of the model parameters alpha 3 'of formula (34).

モデルパラメータα3'を構成するn0 2については、推定手段が外部から与えられるものとする。例えば、以下のように行う。nt (x,δ)2 はカメラの熱雑音等に起因する雑音成分の電力である。まず、フレーム内の静止領域を同定する。静止領域の同定方法は外部から与えられる。例えば、フレームをブロックに分割し、ブロック毎に動き推定を行い、同動きベクトルがゼロベクトルとなった領域を静止領域とする。静止領域と同定されたブロックに対して、フレーム間差分を求める。同フレーム間差分信号の二乗和を求め、同二乗和をn0 2の推定値とする。 Assume that an estimation means is given from the outside for n 0 2 constituting the model parameter α 3 ′. For example, it is performed as follows. n t (x, δ) 2 is the power of the noise component due to the thermal noise of the camera. First, a still area in a frame is identified. A method for identifying a static region is given from the outside. For example, a frame is divided into blocks, motion estimation is performed for each block, and a region where the motion vector becomes a zero vector is set as a still region. An inter-frame difference is obtained for a block identified as a still region. The sum of squares of the inter-frame difference signal is obtained, and the sum of squares is set as an estimated value of n 0 2 .

モデルパラメータα3'を構成するκ,F0 ,ψ[k]については、符号化時のパラメータとして設定されているので(κについては変数として扱うことも可能である)、適宜、読み込むことができる。 Since κ, F 0 , and ψ [k] constituting the model parameter α 3 ′ are set as parameters at the time of encoding (κ can be handled as a variable), and can be appropriately read. it can.

そこで、以上の値を用いて、式(34)のモデルパラメータα3'の定義式に基づき、雑音電力の推定値n0 2と補間フィルタ通過後の雑音電力の推定値n0 2との和に従って、モデルパラメータα3'の推定値を得る。 Sum So, using the above values, based on the definition formula of the model parameters alpha 3 'of formula (34), an estimate of the noise power n 0 2 and the estimated value n 0 2 of the noise power after passing through the interpolation filter To obtain an estimate of the model parameter α 3 ′.

[4−3]モデルパラメータα4 の推定
モデルパラメータα4 は、式(19)のモデルパラメータα4 の定義式及び式(17)で定義されるものである。
[4-3] Estimation Model parameter alpha 4 model parameters alpha 4 are those defined by the formula (19) the model parameters alpha 4 defining equation and equation (17).

モデルパラメータα4 を構成する -t-1 int (x+^d[i],〜mΔ)2 は、小数画素位置の画素値の補間に伴う推定誤差である。 -t (x,〜mΔ)に対して、ダウンサンプリング処理を行い、解像度をδに縮小した画像信号 -t (x,〜mΔ)(δ)を得る。ダウンサンプリング処理に用いるフィルタは外部から与えられるものとする。例えば、前述の補間フィルタの逆フィルタ、あるいは、sinc関数に基づく帯域制限フィルタ等が考えられる。この -t (x,〜mΔ)(δ)に対して、前述の補間フィルタにより、解像度をδ-1倍に拡大した信号 -t (x,〜mΔ)’を得る。同補間フィルタに伴う補間誤差の推定値として、下記の式(56)により近似する。 Constitute the model parameters α 4 - e t-1 int (x + ^ d [i], ~mΔ) 2 is the estimated error due to interpolation of the pixel value of the decimal pixel position. - obtain f t (x, ~mΔ) and (δ) - f t (x , ~mΔ) against performs down-sampling processing, the image signals obtained by reducing the resolution to [delta]. It is assumed that the filter used for the downsampling process is given from outside. For example, an inverse filter of the above-described interpolation filter or a band limiting filter based on the sinc function can be considered. The - get f t (x, ~mΔ) a '- f t (x, ~mΔ ) relative ([delta]), by the aforementioned interpolation filter, enlarged signal the resolution to [delta] -1 times. The estimated value of the interpolation error associated with the interpolation filter is approximated by the following equation (56).

Figure 0004785890
Figure 0004785890

モデルパラメータα4 を構成するI(vt-1 (x+^d[i],〜mΔ))2 2 は、参照信号の量子化に伴う誤差である。参照信号として原信号を用いた場合の予測誤差電力と参照信号として量子化・逆量子化により得られる復号信号を用いた場合の予測誤差電力との差分値(画素平均)を、vt-1 (x+^d[i],〜mΔ)2 2 の推定値 -εq とする。さらに、同推定値 -εq を用いて、I(vt-1 (x+^d[i],〜mΔ))2 2 を、下記の式(57)のように近似する。 I (v t−1 (x + ^ d [i], ˜mΔ)) 2 q 2 constituting the model parameter α 4 is an error accompanying quantization of the reference signal. The difference value (pixel average) between the prediction error power when the original signal is used as the reference signal and the prediction error power when the decoded signal obtained by quantization / inverse quantization is used as the reference signal is represented by v t−1. (x + ^ d [i] , ~mΔ) estimate of the 2 q 2 - and epsilon q. Moreover, the estimate - using ε q, I (v t- 1 (x + ^ d [i], ~mΔ)) a 2 q 2, approximated as the following equation (57).

Figure 0004785890
Figure 0004785890

そこで、式(56)で求められる -t-1 int (x+^d[i],〜mΔ)2 の近似値と、式(57)で求められるI(vt-1 (x+^d[i],〜mΔ))2 2 の近似値との和に従って、モデルパラメータα4 の推定値を得る。 Therefore, it is given by equation (56) - e t-1 int (x + ^ d [i], ~mΔ) and approximation of 2, I obtained by the formula (57) (v t-1 (x + ^ d [ i], ˜mΔ)) 2 Estimate value of model parameter α 4 is obtained according to the sum of q 2 and approximate value.

[4−4]モデルパラメータα5 の推定
モデルパラメータα5 は、式(19)のモデルパラメータα5 の定義式で定義されるものである。なお、式(19)では明示的に記載していないが、式(19)のφ(x)には雑音n(〜m)が含まれるものである。
Estimating model parameters alpha 5 in the 4-4 model parameter alpha 5 is intended to be defined by the definition expression of the model parameters alpha 5 in the formula (19). In addition, although not explicitly described in Expression (19), φ (x) in Expression (19) includes noise n (˜m).

モデルパラメータα5 を構成するΣx {|φ(x)+n(〜m)|2 }≒Σx {φ(x)2 +n(〜m)2 }は、式(14)より、動き補償フレーム間予測に対する誤差電力和であることが分かる。 Σ x {| φ (x) + n (˜m) | 2 } ≈Σ x {φ (x) 2 + n (˜m) 2 } constituting the model parameter α 5 is a motion compensation frame from the equation (14). It can be seen that the error power sum for the inter prediction.

そこで、サンプルフレームに対して、同誤差信号の二乗和を求める。同二乗和のセグメント当たりの平均をΣx {φ(x)2 +〜N(x,〜mΔ)2 }の推定値とする。この推定値をフレーム間予測誤差電力と呼ぶ。フレーム間予測誤差電力から静止領域フレーム間差分電力を減じた値をモデルパラメータα5 の推定値とする。 Therefore, the sum of squares of the error signal is obtained for the sample frame. The average of the square sum per segment is taken as an estimated value of Σ x {φ (x) 2 + ˜N (x, ˜mΔ) 2 }. This estimated value is called interframe prediction error power. The value obtained by subtracting the inter-frame prediction error power from the inter-frame prediction error power is set as the estimated value of the model parameter α 5 .

[4−5]モデルパラメータα2'の推定
モデルパラメータα2'は、式(34)のモデルパラメータα2'の定義式で定義されるものである。
[4-5] 'estimation of the model parameters alpha 2' model parameter alpha 2 is intended to be defined by the definition expression of the model parameter alpha 2 'of formula (34).

モデルパラメータα2'を構成するφ(x)が白色雑音に近い性質を有する誤差信号だと仮定して、{Σx φ(x)}2 ≒Σx {|φ(x)|2 }とみなすと、Σx φ(x)≒[Σx {|φ(x)|2 }]1/2 =(α5 1/2 となる。 Assuming that φ (x) constituting the model parameter α 2 ′ is an error signal having a property close to white noise, {Σ x φ (x)} 2 ≈Σ x {| φ (x) | 2 } Considering this, Σ x φ (x) ≈ [Σ x {| φ (x) | 2 }] 1/2 = (α 5 ) 1/2 .

φ(x)の和のセグメント当たりの平均をΣx φ(x)の推定値として、この推定値をテイラー展開近似誤差と呼ぶ。このテイラー展開近似誤差にα1'を乗じた値の絶対値は、|α2'|に等しい。ただし、γが未定であり、符号に関して不確定さが残る。α2'の符号に関しては、式(55)により求まる値が負値あるいは1以上の値をとる場合には、対応するα2'は用いないものとする。それ以外の場合には、2つのα2'および、それに対応して式(55)により求まる2つのME精度を式(53)に代入して、算出される符号化コストの値が小さくなるα2'を用いる。 The average of the sum of φ (x) per segment is regarded as an estimated value of Σ x φ (x), and this estimated value is called a Taylor expansion approximation error. The absolute value of the value obtained by multiplying this Taylor expansion approximation error by α 1 ′ is equal to | α 2 ′ |. However, γ is undetermined, and uncertainty remains regarding the sign. Regarding the sign of α 2 ′, if the value obtained by the equation (55) is a negative value or a value of 1 or more, the corresponding α 2 ′ is not used. In other cases, two α 2 ′ and the corresponding two ME precisions obtained by the equation (55) are substituted into the equation (53), and the calculated encoding cost value becomes smaller. Use 2 '.

このようにして、本発明によれば、フレームレートF及び開口率κが与えられた場合に、式(55)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出することができるようになる。 Thus, according to the present invention, when the frame rate F and the aperture ratio κ are given, the code amount when the distortion amount is constant (the quantization step width is fixed) according to the equation (55). The motion estimation accuracy to be minimized δ * (F) can be calculated.

次に、本発明の実施例について説明する。   Next, examples of the present invention will be described.

図1に、本発明を具備する映像符号化装置1の装置構成を図示する。   FIG. 1 shows a device configuration of a video encoding device 1 having the present invention.

この図に示すように、本発明の映像符号化装置1は、符号化対象となる映像を格納する映像ファイル10と、非整数画素精度の動き推定を行うフレーム間予測を使って、映像ファイル10に格納される映像を符号化する符号化部11と、符号化部11がフレーム間予測を行う上で必要となる動き推定精度を算出して符号化部11に与える動き推定精度算出部12と、符号化部11の符号化した符号化データを格納する符号化データファイル13とを備える。   As shown in this figure, the video encoding device 1 of the present invention uses a video file 10 that stores video to be encoded and inter-frame prediction that performs motion estimation with non-integer pixel accuracy, and uses the video file 10. An encoding unit 11 that encodes the video stored in the video, a motion estimation accuracy calculation unit 12 that calculates the motion estimation accuracy necessary for the encoding unit 11 to perform inter-frame prediction, and provides the motion estimation accuracy to the encoding unit 11; And an encoded data file 13 for storing the encoded data encoded by the encoding unit 11.

図2〜図4に、動き推定精度算出部12の実行するフローチャートの一例を図示する。次に、これらのフローチャートに従って、本発明の実行する処理について詳細に説明する。なお、以下の説明では、説明の便宜上、開口率κについては予め設定された値であることを想定する。   2 to 4 show examples of flowcharts executed by the motion estimation accuracy calculation unit 12. Next, processing executed by the present invention will be described in detail according to these flowcharts. In the following description, it is assumed that the aperture ratio κ is a preset value for convenience of description.

動き推定精度算出部12は、図2のフローチャートに示すように、まず最初に、ステップS101で、シャッターの開口率κを読み込み、続くステップS102で、セグメント内の画素数Lを読み込む。   As shown in the flowchart of FIG. 2, the motion estimation accuracy calculation unit 12 first reads the shutter aperture ratio κ in step S101, and then reads the number of pixels L in the segment in step S102.

続いて、ステップS103で、符号化対象フレームを読み込み、続くステップS104で、参照フレームを読み込む。   Subsequently, in step S103, the encoding target frame is read, and in step S104, the reference frame is read.

続いて、ステップS105で、参照フレームにおける隣接画素間の差分値を算出し、続くステップS106で、その算出した隣接画素間差分値の二乗和を算出する。すなわち、式(34)に示すモデルパラメータα1'の定義式に記述される「2σs 2(1−ρ)」を算出するのである。 Subsequently, in step S105, a difference value between adjacent pixels in the reference frame is calculated, and in a subsequent step S106, a square sum of the calculated adjacent pixel difference values is calculated. That is, “2σ s 2 (1−ρ)” described in the definition formula of the model parameter α 1 ′ shown in the equation (34) is calculated.

続いて、ステップS107で、フレーム間予測誤差に対するテイラー展開の近似誤差を算出する。すなわち、式(34)に示すモデルパラメータα2'の定義式や、式(19)に示すモデルパラメータα5 の定義式に記述される「φ(x)」を算出するのである。 Subsequently, in step S107, an approximation error of Taylor expansion with respect to the inter-frame prediction error is calculated. That is, “φ (x)” described in the definition equation of the model parameter α 2 ′ shown in the equation (34) and the definition equation of the model parameter α 5 shown in the equation (19) is calculated.

続いて、ステップS108で、ステップS107で算出したテイラー展開の近似誤差とステップS106で算出した隣接画素間差分値の二乗和の平方根との積を算出する。すなわち、式(34)に示すモデルパラメータα2'の定義式に記述される「φ(x)(2σs 2(1−ρ))1/2 」を算出するのである。 Subsequently, in step S108, a product of the approximation error of Taylor expansion calculated in step S107 and the square root of the square sum of the difference value between adjacent pixels calculated in step S106 is calculated. That is, “φ (x) (2σ s 2 (1−ρ)) 1/2 ” described in the definition formula of the model parameter α 2 ′ shown in Expression (34) is calculated.

続いて、ステップS109で、ステップS107で算出したテイラー展開の近似誤差の二乗和を算出することでモデルパラメータα5 を算出する。すなわち、式(19)に示す定義式に従って、モデルパラメータα5 を算出するのである。 Subsequently, at step S109, it calculates a model parameter alpha 5 by calculating the square sum of the approximation error of the Taylor expansion calculated in step S107. That is, the model parameter α 5 is calculated according to the definition equation shown in equation (19).

続いて、ステップS110で、雑音信号に起因する誤差成分であるモデルパラメータα3'を算出する。このステップS110で実行するモデルパラメータα3'の算出処理の詳細については、図3のフローチャートで後述する。 Subsequently, in step S110, a model parameter α 3 ′ that is an error component due to the noise signal is calculated. Details of the calculation process of the model parameter α 3 ′ executed in step S110 will be described later with reference to the flowchart of FIG.

続いて、ステップS111で、補間フィルタ、量子化に起因する誤差成分であるモデルパラメータα4 を算出する。このステップS111で実行するモデルパラメータα4 の算出処理の詳細については、図4のフローチャートで後述する。 Subsequently, in step S111, the interpolation filter, to calculate a model parameter alpha 4 is an error component due to quantization. Details of the calculation process of the model parameter α 4 executed in step S111 will be described later with reference to the flowchart of FIG.

一方、ステップS112で、フレームレートFを読み込み、続くステップS113で、読み込んだフレームレートの逆数F-1を算出し、続くステップS114で、読み込んだフレームレートの逆数の平方根F-1/2を算出する。 On the other hand, in step S112, the frame rate F is read. In the subsequent step S113, the reciprocal number F −1 of the read frame rate is calculated. In the subsequent step S114, the square root F −1/2 of the reciprocal number of the read frame rate is calculated. To do.

このようにして、ステップS101〜ステップS111,ステップS112〜ステップS114の処理を終了すると、続いて、ステップS115で、ステップS106の算出値にF-1と定数パラメータκ1 /L・κ・F0 を乗じた値を算出することで、式(55)に記述されるα1'F-1を算出する。 In this way, when the processing of step S101 to step S111 and step S112 to step S114 is completed, subsequently, in step S115, the calculated value of step S106 is set to F −1 and the constant parameter κ 1 / L · κ · F 0. Α 1 'F -1 described in Expression (55) is calculated.

すなわち、ステップS106の算出値に定数パラメータκ1 /L・κ・F0 を乗ずることで、式(34)に示すモデルパラメータα1'の定義式に従ってモデルパラメータα1'を算出して、それにF-1を乗ずることで、式(55)に記述されるα1'F-1を算出するのである。 That is, by multiplying the constant parameters κ 1 / L · κ · F 0 to the calculated value of the step S106, to calculate the 'model parameters alpha 1 according to the definition formula of' model parameters alpha 1 shown in formula (34), it By multiplying by F −1 , α 1 ′ F −1 described in the equation (55) is calculated.

続いて、ステップS116で、ステップS108の算出値にF-1/2と定数パラメータ2κ2 ・2γ/L・(κ・F0 1/2 を乗じた値を算出することで、式(55)に記述されるα2'F-1/2を算出する。 Subsequently, in step S116, a value obtained by multiplying the calculated value of step S108 by F −1/2 and the constant parameter 2κ 2 · 2γ / L · (κ · F 0 ) 1/2 is calculated. Α 2 ′ F −1/2 described in ( 1) is calculated.

すなわち、ステップS108の算出値に定数パラメータ2κ2 ・2γ/L・(κ・F0 1/2 を乗ずることで、式(34)に示すモデルパラメータα2'の定義式に従ってモデルパラメータα2'を算出して、それにF-1/2を乗ずることで、式(55)に記述されるα2'F-1/2を算出するのである。 That is, by multiplying the calculated value in step S108 by the constant parameter 2κ 2 · 2γ / L · (κ · F 0 ) 1/2 , the model parameter α 2 according to the definition formula of the model parameter α 2 ′ shown in the equation (34). By calculating 'and multiplying it by F -1/2 , α 2 ' F -1/2 described in the equation (55) is calculated.

続いて、ステップS117で、ステップS110の算出値にFを乗じた値を算出することで、式(55)に記述されるα3'Fを算出する。 Subsequently, in step S117, α 3 'F described in the equation (55) is calculated by calculating a value obtained by multiplying the calculated value in step S110 by F.

すなわち、ステップS110でモデルパラメータα3'を算出しているので、その算出したα3'にFを乗じた値を算出することで、式(55)に記述されるα3'Fを算出するのである。 That is, 'since the calculated, the calculated alpha 3' model parameter alpha 3 in step S110 by calculating the value obtained by multiplying F to, to calculate the alpha 3 'F described in the equation (55) It is.

続いて、ステップS118で、ステップS115,ステップS116,ステップS117,ステップS111,ステップS109の算出値の和を算出することで、式(55)に示す算出式の平方根中の分子の値を算出する。   Subsequently, in step S118, by calculating the sum of the calculated values of step S115, step S116, step S117, step S111, and step S109, the value of the molecule in the square root of the calculation formula shown in formula (55) is calculated. .

すなわち、ステップS115の算出値であるα1'F-1と、ステップS116の算出値であるα2'F-1/2と、ステップS117の算出値であるα3'Fと、ステップS111の算出値であるα4 と、ステップS109の算出値であるα5 との和を算出することで、式(55)に示す算出式の平方根中の分子の値
α1'F-1+α2'F-1/2+α3'F+α4 +α5
を算出するのである。
That is, α 1 ′ F −1 that is the calculated value of step S115, α 2 ′ F −1/2 that is the calculated value of step S116, α 3 ′ F that is the calculated value of step S117, and By calculating the sum of α 4 that is the calculated value and α 5 that is the calculated value in step S109, the value of the molecule α 1 'F −1 + α 2 ' in the square root of the calculation formula shown in Formula (55) F -1/2 + α 3 'F + α 4 + α 5
Is calculated.

続いて、ステップS119で、(1−1/L)を算出し、その算出値とステップS106の算出値と定数パラメータκ1 /L・κ・F0 と定数パラメータκ1'との乗算値を算出することで、式(55)に示す算出式の平方根中の分母の値を算出する。 Subsequently, in step S119, (1-1 / L) is calculated, and the calculated value, the calculated value in step S106, the multiplication value of the constant parameter κ 1 / L · κ · F 0 and the constant parameter κ 1 ′ are calculated. By calculating, the value of the denominator in the square root of the calculation formula shown in Formula (55) is calculated.

すなわち、(1−1/L)を算出するとともに、ステップS106の算出値に定数パラメータκ1 /L・κ・F0 を乗ずることでモデルパラメータα1'を算出して、その算出した(1−1/L)とその算出したα1'と定数パラメータκ1'とを乗算した値を算出することで、式(55)に示す算出式の平方根中の分母の値
(1−1/L)・α1'・κ1'
を算出するのである。
That is, (1-1 / L) is calculated, and the model parameter α 1 ′ is calculated by multiplying the calculated value in step S106 by the constant parameter κ 1 / L · κ · F 0 to calculate (1 −1 / L) and the calculated α 1 ′ multiplied by the constant parameter κ 1 ′, the denominator value (1-1 / L) in the square root of the equation (55) is calculated. ) ・ Α 1 '・ κ 1 '
Is calculated.

続いて、ステップS120で、ステップS118の算出値をステップS119の算出値で除算した値である
(α1'F-1+α2'F-1/2+α3'F+α4 +α5 )/((1−1/L)・α1'・κ1')
を算出する。
Subsequently, in step S120, a value obtained by dividing the calculated value in step S118 by the calculated value in step S119 is (α 1 ′ F −1 + α 2 ′ F −1/2 + α 3 ′ F + α 4 + α 5 ) / (( 1-1 / L) ・ α 1 '・ κ 1 ')
Is calculated.

続いて、ステップS121で、ステップS120の算出値の平方根を算出することで、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出する。 Subsequently, in step S121, by calculating the square root of the calculated value in step S120, the motion estimation accuracy δ * (F) that minimizes the code amount when the distortion amount is constant (quantization step width is fixed). Is calculated.

すなわち、式(55)の定義に従い、ステップS120の算出値の平方根を算出することで、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 That is, according to the definition of Expression (55), by calculating the square root of the calculated value in step S120, the motion estimation accuracy δ * that minimizes the code amount when the distortion amount is constant (the quantization step width is fixed) . (F) is calculated.

このようにして、動き推定精度算出部12は、フレームレートF及び開口率κが与えられた場合に、式(55)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 In this way, the motion estimation accuracy calculation unit 12 uses the code when the distortion amount is constant (the quantization step width is fixed) according to the equation (55) when the frame rate F and the aperture ratio κ are given. The motion estimation accuracy δ * (F) that minimizes the amount is calculated.

次に、図3のフローチャートに従って、図2のフローチャートのステップS110で実行するモデルパラメータα3'の算出処理の詳細について説明する。 Next, details of the calculation process of the model parameter α 3 ′ executed in step S110 of the flowchart of FIG. 2 will be described according to the flowchart of FIG.

ここで、モデルパラメータα3'は、式(34)に示すモデルパラメータα3'の定義式で定義されるものである。 Here, the model parameter α 3 ′ is defined by the definition formula of the model parameter α 3 ′ shown in the equation (34).

動き推定精度算出部12は、図2のフローチャートのステップS110の処理に入ると、図3のフローチャートに示すように、まず最初に、ステップS201で、符号化対象フレームを読み込み、続くステップS202で、参照フレームを読み込む。   When entering the process of step S110 in the flowchart of FIG. 2, the motion estimation accuracy calculation unit 12 first reads the encoding target frame in step S201 as shown in the flowchart of FIG. Read a reference frame.

続いて、ステップS203で、隣接フレームとの動き推定を行い、動きベクトルがゼロベクトルとなる領域を特定することで静止領域を同定する。   Subsequently, in step S203, motion estimation with an adjacent frame is performed, and a still region is identified by specifying a region where the motion vector is a zero vector.

続いて、ステップS204で、静止領域におけるフレーム間差分電力を求め、それを原信号に重畳する雑音電力の推定値とする。すなわち、式(34)に示すモデルパラメータα3'の定義式に記述される雑音電力n0 2を推定するのである。 Subsequently, in step S204, the interframe differential power in the still region is obtained and used as an estimated value of the noise power superimposed on the original signal. That is, the noise power n 0 2 described in the definition equation of the model parameter α 3 ′ shown in the equation (34) is estimated.

続いて、ステップS205で、補間フィルタの伝達関数を算出する。すなわち、式(34)に示すモデルパラメータα3'の定義式に記述されるΣψ[k]2 を算出するのである。 Subsequently, in step S205, a transfer function of the interpolation filter is calculated. That is, Σψ [k] 2 described in the definition equation of the model parameter α 3 ′ shown in the equation (34) is calculated.

続いて、ステップS206で、補間フィルタの伝達関数から求まる帯域通過率とステップS204で求めた雑音電力とを乗算し、それを補間フィルタ通過後の原信号に重畳する雑音電力の推定値とする。すなわち、式(34)に示すモデルパラメータα3'の定義式に記述されるn0 2・Σψ[k]2 を算出するのである。 Subsequently, in step S206, the band pass rate obtained from the transfer function of the interpolation filter is multiplied by the noise power obtained in step S204 to obtain an estimated value of noise power to be superimposed on the original signal after passing through the interpolation filter. That is, n 0 2 · Σψ [k] 2 described in the definition formula of the model parameter α 3 ′ shown in the equation (34) is calculated.

続いて、ステップS207で、ステップS204で求めた原信号に重畳する雑音電力の推定値と、ステップS206で求めた補間フィルタ通過後の原信号に重畳する雑音電力の推定値との和を算出する。すなわち、式(34)に示すモデルパラメータα3'の定義式に記述される(1+Σψ[k]2 )n0 2を算出するのである。 Subsequently, in step S207, the sum of the estimated value of the noise power superimposed on the original signal obtained in step S204 and the estimated value of the noise power superimposed on the original signal after passing through the interpolation filter obtained in step S206 is calculated. . That is, (1 + Σψ [k] 2 ) n 0 2 described in the definition formula of the model parameter α 3 ′ shown in the equation (34) is calculated.

続いて、ステップS208で、最大フレームレートF0 と開口率κと画素数Xとの乗算値F0 ・κ・Xを算出する。 Subsequently, in step S208, a multiplication value F 0 · κ · X of the maximum frame rate F 0 , the aperture ratio κ, and the number of pixels X is calculated.

そして、最後に、ステップS209で、ステップS207で求めた電力値をステップS208の算出値で乗算した値を算出することで、式(34)に示すモデルパラメータα3'の定義式で定義されるモデルパラメータα3'を算出して、図2のフローチャートのステップS110の処理を終了する。 Finally, in step S209, a value obtained by multiplying the power value obtained in step S207 by the calculated value in step S208 is calculated, thereby being defined by the definition equation of the model parameter α 3 ′ shown in equation (34). The model parameter α 3 ′ is calculated, and the process of step S110 in the flowchart of FIG.

次に、図4のフローチャートに従って、図2のフローチャートのステップS111で実行するモデルパラメータα4 の算出処理の詳細について説明する。 Next, the details of the calculation process of the model parameter α 4 executed in step S111 of the flowchart of FIG. 2 will be described according to the flowchart of FIG.

ここで、モデルパラメータα4 は、式(19)のモデルパラメータα4 の定義式及び式(17)で定義されるものである。 Here, the model parameter alpha 4 are those defined by the formula (19) the model parameters alpha 4 defining equation and equation (17).

動き推定精度算出部12は、図2のフローチャートのステップS111の処理に入ると、図4のフローチャートに示すように、まず最初に、ステップS301で、参照フレームを読み込む。   When the process of step S111 in the flowchart of FIG. 2 starts, the motion estimation accuracy calculation unit 12 first reads a reference frame in step S301 as shown in the flowchart of FIG.

続いて、ステップS302で、補間フィルタのフィルタ係数(前述の式(6)に記述される補間係数ψ[k])を読み込む。   Subsequently, in step S302, the filter coefficient of the interpolation filter (interpolation coefficient ψ [k] described in the above equation (6)) is read.

続いて、ステップS306で、量子化パラメータを読み込み、続くステップS307で、その読み込んだ量子化パラメータに基づいて量子化ステップ幅qを算出する。   Subsequently, in step S306, the quantization parameter is read. In subsequent step S307, the quantization step width q is calculated based on the read quantization parameter.

続いて、ステップS308で、算出した量子化ステップ幅に基づいて量子化誤差電力を算出する。すなわち、式(57)に記載される -εq 2 を算出するのである。 Subsequently, in step S308, the quantization error power is calculated based on the calculated quantization step width. In other words, which are described in formulas (57) - it is to calculate the epsilon q 2.

続いて、ステップS309で、補間フィルタの伝達関数を算出し、帯域通過率を算出する。すなわち、式(57)に記載されるΣψ[k]2 を算出するのである。 Subsequently, in step S309, the transfer function of the interpolation filter is calculated, and the band pass rate is calculated. That is, Σψ [k] 2 described in the equation (57) is calculated.

続いて、ステップS310で、ステップS308の算出値とステップS309の算出値とを乗算し、補間フィルタ通過後の参照画像の量子化誤差に対する推定値とする。すなわち、式(57)の左辺に記載されるI(vt-1 (x+^d[i],〜mΔ))2 2 の推定値とするのである。 In step S310, the calculated value in step S308 and the calculated value in step S309 are multiplied to obtain an estimated value for the quantization error of the reference image after passing through the interpolation filter. That is, the estimated value of I (v t-1 (x + ^ d [i],... MΔ)) 2 q 2 described on the left side of the equation (57) is used.

一方、ステップS302の処理を終了すると、ステップS303で、参照フレームの原信号を縮小し、続くステップS304で、その縮小した画像を拡大する。   On the other hand, when the process of step S302 is completed, the original signal of the reference frame is reduced in step S303, and the reduced image is enlarged in the subsequent step S304.

続いて、ステップS305で、ステップS310の算出値とステップS304の算出値との差分信号の電力を求め、補間位置の画素値の推定誤差電力に対する推定値とする。すなわち、式(56)の左辺に記載される -t-1 int (x+^d[i],〜mΔ)2 の推定値とするのである。 Subsequently, in step S305, the power of the difference signal between the calculated value in step S310 and the calculated value in step S304 is obtained and used as an estimated value for the estimated error power of the pixel value at the interpolation position. That is, as described in the left side of the equation (56) - e t-1 int (x + ^ d [i], ~mΔ) is taken as the estimated value of 2.

そして、最後に、ステップS311で、ステップS305で求めた電力とステップS310で求めた電力との和を算出することで、式(19)のモデルパラメータα4 の定義式及び式(17)で定義されるモデルパラメータα4 を算出して、図2のフローチャートのステップS111の処理を終了する。 And, finally, defined at step S311, by calculating the sum of the power obtained by the power and the step S310 obtained in step S305, the model parameters alpha 4 defining equation and equation (17) in equation (19) The calculated model parameter α 4 is calculated, and the process of step S111 in the flowchart of FIG.

図5に、以上に説明した処理を実行する動き推定精度算出部12の装置構成の一例を図示する。   FIG. 5 illustrates an example of a device configuration of the motion estimation accuracy calculation unit 12 that performs the processing described above.

動き推定精度算出部12は、この図に示すように、符号化対象フレーム記憶部101と、参照フレーム記憶部102と、フレームレート記憶部103と、逆数算出部104と、フレームレート逆数記憶部105と、平方根算出部106と、フレームレート逆数平方根記憶部107と、セグメント数逆数算出部108と、セグメント数逆数記憶部109と、加算/減算処理部110と、乗数パラメータ記憶部111と、画素間差分値算出部112と、画素間差分値記憶部113と、二乗和算出部114と、積算処理部115と、パラメータ記憶部116と、画素間差分値二乗和記憶部117と、積算処理部118と、テイラー展開近似誤差算出部119と、テイラー展開近似誤差記憶部120と、積算値加算処理部121と、修正テイラー展開近似誤差和記憶部122と、積算処理部123と、パラメータ記憶部124と、フレーム重畳雑音電力推定部125と、フレーム重畳雑音電力記憶部126と、積算処理部127と、積算値記憶部128と、フレーム重畳雑音電力推定部129と、フレーム重畳雑音電力記憶部130と、二乗和算出部131と、テイラー展開近似誤差二乗和記憶部132と、加算処理部133と、加算値記憶部134と、積算処理部135と、積算値記憶部136と、除算処理部137と、平方根算出部138とを備える。   As shown in this figure, the motion estimation accuracy calculation unit 12 includes an encoding target frame storage unit 101, a reference frame storage unit 102, a frame rate storage unit 103, an inverse number calculation unit 104, and a frame rate inverse number storage unit 105. A square root calculation unit 106, a frame rate reciprocal square root storage unit 107, a segment number reciprocal number calculation unit 108, a segment number reciprocal number storage unit 109, an addition / subtraction processing unit 110, a multiplier parameter storage unit 111, and an inter-pixel The difference value calculation unit 112, the inter-pixel difference value storage unit 113, the square sum calculation unit 114, the integration processing unit 115, the parameter storage unit 116, the inter-pixel difference value square sum storage unit 117, and the integration processing unit 118. Taylor expansion approximation error calculation unit 119, Taylor expansion approximation error storage unit 120, integrated value addition processing unit 121, modified Taylor expansion Similar error sum storage unit 122, integration processing unit 123, parameter storage unit 124, frame superimposed noise power estimation unit 125, frame superimposed noise power storage unit 126, integration processing unit 127, and integrated value storage unit 128 Frame superimposed noise power estimation unit 129, frame superimposed noise power storage unit 130, sum of squares calculation unit 131, Taylor expansion approximate error sum of squares storage unit 132, addition processing unit 133, addition value storage unit 134, An integration processing unit 135, an integration value storage unit 136, a division processing unit 137, and a square root calculation unit 138 are provided.

このように構成される動き推定精度算出部12では、符号化対象フレーム記憶部101は、符号化対象フレームを記憶する。参照フレーム記憶部102は、参照フレームを記憶する。   In the motion estimation accuracy calculation unit 12 configured as described above, the encoding target frame storage unit 101 stores the encoding target frame. The reference frame storage unit 102 stores a reference frame.

フレームレート記憶部103は、フレームレートFを記憶する。逆数算出部104は、フレームレートの逆数F-1を算出する。フレームレート逆数記憶部105は、逆数算出部104の算出したフレームレートの逆数F-1を記憶する。平方根算出部106は、フレームレートの逆数の平方根F-1/2を算出する。フレームレート逆数平方根記憶部107は、平方根算出部106の算出したフレームレートの逆数の平方根F-1/2を記憶する。 The frame rate storage unit 103 stores the frame rate F. The reciprocal calculation unit 104 calculates the reciprocal F −1 of the frame rate. The frame rate reciprocal storage unit 105 stores the reciprocal F −1 of the frame rate calculated by the reciprocal calculation unit 104. The square root calculator 106 calculates the square root F −1/2 of the reciprocal of the frame rate. The frame rate reciprocal square root storage unit 107 stores the square root F −1/2 of the reciprocal of the frame rate calculated by the square root calculation unit 106.

セグメント数逆数算出部108は、セグメント内の画素数Lの逆数1/Lを算出する。セグメント数逆数記憶部109は、セグメント数逆数算出部108の算出した1/Lを記憶する。加算/減算処理部110は、1からセグメント数逆数算出部108の算出した1/Lを減算した値(1−1/L)を算出する。乗数パラメータ記憶部111は、加算/減算処理部110の算出した乗数パラメータ(1−1/L)を記憶する。   The reciprocal number calculation unit 108 calculates a reciprocal 1 / L of the number L of pixels in the segment. The segment number reciprocal storage unit 109 stores 1 / L calculated by the segment number reciprocal calculation unit 108. The addition / subtraction processing unit 110 calculates a value (1-1 / L) obtained by subtracting 1 / L calculated by the segment reciprocal number calculation unit 108 from 1. The multiplier parameter storage unit 111 stores the multiplier parameter (1-1 / L) calculated by the addition / subtraction processing unit 110.

画素間差分値算出部112は、参照フレームにおける隣接画素間の差分値を算出する。画素間差分値記憶部113は、画素間差分値算出部112の算出した隣接画素間差分値を記憶する。二乗和算出部114は、画素間差分値算出部112の算出した隣接画素間差分値の二乗和を算出する。   The inter-pixel difference value calculation unit 112 calculates a difference value between adjacent pixels in the reference frame. The inter-pixel difference value storage unit 113 stores the inter-pixel difference value calculated by the inter-pixel difference value calculation unit 112. The sum of squares calculation unit 114 calculates the sum of squares of the difference values between adjacent pixels calculated by the inter-pixel difference value calculation unit 112.

積算処理部115は、二乗和算出部114の算出した隣接画素間差分値の二乗和と定数パラメータとを乗算することで、式(34)で定義されるモデルパラメータα1'を算出する。パラメータ記憶部116は、積算処理部115などの必要とする定数パラメータを記憶する。画素間差分値二乗和記憶部117は、積算処理部115の算出したモデルパラメータα1'を記憶する。 The integration processing unit 115 calculates the model parameter α 1 ′ defined by Expression (34) by multiplying the square sum of the difference value between adjacent pixels calculated by the square sum calculation unit 114 and the constant parameter. The parameter storage unit 116 stores constant parameters required by the integration processing unit 115 and the like. The inter-pixel difference value square sum storage unit 117 stores the model parameter α 1 ′ calculated by the integration processing unit 115.

積算処理部118は、積算処理部115の算出したモデルパラメータα1'と逆数算出部104の算出したフレームレートの逆数F-1とを乗算することで、式(55)に記述されるα1'F-1を算出する。 The integration processing unit 118 multiplies the model parameter α 1 ′ calculated by the integration processing unit 115 by the reciprocal F −1 of the frame rate calculated by the reciprocal calculation unit 104, thereby α 1 described in the equation (55). 'F -1 is calculated.

テイラー展開近似誤差算出部119は、フレーム間予測誤差に対するテイラー展開の近似誤差を算出する。テイラー展開近似誤差記憶部120は、テイラー展開近似誤差算出部119の算出したテイラー展開の近似誤差を記憶する。   The Taylor expansion approximation error calculation unit 119 calculates an approximation error of Taylor expansion with respect to the inter-frame prediction error. The Taylor expansion approximation error storage unit 120 stores the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 119.

積算値加算処理部121は、テイラー展開近似誤差算出部119の算出したテイラー展開の近似誤差と画素間差分値算出部112の算出した隣接画素間差分値との積の和を算出する。修正テイラー展開近似誤差和記憶部122は、積算値加算処理部121の算出値(修正テイラー展開近似誤差と称している)を記憶する。   The integrated value addition processing unit 121 calculates the sum of products of the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 119 and the inter-pixel difference value calculated by the inter-pixel difference value calculation unit 112. The corrected Taylor expansion approximate error sum storage unit 122 stores the calculated value of the integrated value addition processing unit 121 (referred to as a corrected Taylor expansion approximate error).

積算処理部123は、積算値加算処理部121の算出した修正テイラー展開近似誤差と定数パラメータと平方根算出部106の算出したF-1/2とを乗算することで、式(55)に記述されるα2'F-1/2を算出する。パラメータ記憶部124は、積算処理部123の必要とする定数パラメータを記憶する。 The integration processing unit 123 is described in Expression (55) by multiplying the modified Taylor expansion approximation error calculated by the integration value addition processing unit 121 by the constant parameter and F −1/2 calculated by the square root calculation unit 106. Α 2 'F -1/2 is calculated. The parameter storage unit 124 stores constant parameters required by the integration processing unit 123.

フレーム重畳雑音電力推定部125は、符号化対象フレームと参照フレームとを入力として、原信号に重畳する雑音電力の推定値と補間フィルタ通過後の原信号に重畳する雑音電力の推定値との和から導出されるモデルパラメータα3'を推定する。フレーム重畳雑音電力記憶部126は、フレーム重畳雑音電力推定部125の推定したモデルパラメータα3'を記憶する。 The frame superimposed noise power estimation unit 125 receives the encoding target frame and the reference frame as input, and sums the estimated noise power value superimposed on the original signal and the estimated noise power value superimposed on the original signal after passing through the interpolation filter. The model parameter α 3 ′ derived from is estimated. The frame superimposed noise power storage unit 126 stores the model parameter α 3 ′ estimated by the frame superimposed noise power estimation unit 125.

積算処理部127は、フレーム重畳雑音電力推定部125の推定したモデルパラメータα3'とフレームレート記憶部103の記憶するフレームレートFとを乗算することで、式(55)に記述されるα3'Fを算出する。積算値記憶部128は、積算処理部127の算出したα3'Fを記憶する。 The integration processing unit 127 multiplies the model parameter α 3 ′ estimated by the frame superimposed noise power estimation unit 125 by the frame rate F stored in the frame rate storage unit 103, thereby α 3 described in Expression (55). 'F is calculated. The integrated value storage unit 128 stores α 3 ′ F calculated by the integration processing unit 127.

フレーム重畳雑音電力推定部129は、符号化対象フレームと参照フレームとを入力として、画素値の補間に伴う誤差電力の推定値と参照信号の量子化に伴う誤差電力の推定値との和から導出されるモデルパラメータα4 を推定する。フレーム重畳雑音電力記憶部130は、フレーム重畳雑音電力推定部129の推定したモデルパラメータα4 を記憶する。 The frame superimposed noise power estimation unit 129 receives the encoding target frame and the reference frame as input, and derives from the sum of the error power estimation value accompanying pixel value interpolation and the error power estimation value accompanying reference signal quantization. The model parameter α 4 to be estimated is estimated. The frame superimposed noise power storage unit 130 stores the model parameter α 4 estimated by the frame superimposed noise power estimation unit 129.

二乗和算出部131は、テイラー展開近似誤差算出部119の算出したテイラー展開近似誤差の二乗和を算出することでモデルパラメータα5 を算出する。テイラー展開近似誤差二乗和記憶部132は、二乗和算出部131の算出したモデルパラメータα5 を記憶する。 The square sum calculation unit 131 calculates the model parameter α 5 by calculating the square sum of the Taylor expansion approximation error calculated by the Taylor expansion approximation error calculation unit 119. The Taylor expansion approximate error square sum storage unit 132 stores the model parameter α 5 calculated by the square sum calculation unit 131.

加算処理部133は、積算処理部118の算出したα1'F-1と、積算処理部123の算出したα2'F-1/2と、積算処理部127の算出したα3'Fと、フレーム重畳雑音電力推定部129の算出したα4 と、二乗和算出部131の算出したα5 とを加算することで、式(55)に示す算出式の平方根中の分子の値であるα1'F-1+α2'F-1/2+α3'F+α4 +α5 を算出する。加算値記憶部134は、加算処理部133の算出したα1'F-1+α2'F-1/2+α3'F+α4 +α5 を記憶する。 The addition processing unit 133 includes α 1 ′ F −1 calculated by the integration processing unit 118, α 2 ′ F −1/2 calculated by the integration processing unit 123, and α 3 ′ F calculated by the integration processing unit 127. , and the calculated alpha 4 frames superimposed noise power estimation unit 129, by adding the calculated alpha 5 of square sum calculator 131 is a value of molecules in the square root calculation formula shown in equation (55) alpha 1 'F -1 + α 2' F -1/2 + α 3 'F + α 4 + α 5 is calculated. The addition value storage unit 134 stores α 1 ′ F −1 + α 2 ′ F −1/2 + α 3 ′ F + α 4 + α 5 calculated by the addition processing unit 133.

積算処理部135は、画素間差分値二乗和記憶部117の記憶するα1'と、パラメータ記憶部116の記憶する定数パラメータκ1'と、乗数パラメータ記憶部111の記憶する(1−1/L)とを乗算することで、式(55)に示す算出式の平方根中の分母の値である(1−1/L)α11'を算出する。積算値記憶部136は、積算処理部135の算出した(1−1/L)α11'を記憶する。 The integration processing unit 135 stores α 1 ′ stored in the inter-pixel difference value square sum storage unit 117, constant parameter κ 1 ′ stored in the parameter storage unit 116, and the multiplier parameter storage unit 111 (1-1 / L) is multiplied to calculate (1-1 / L) α 11 ', which is the value of the denominator in the square root of the calculation formula shown in Formula (55). The integrated value storage unit 136 stores (1-1 / L) α 11 ' calculated by the integration processing unit 135.

除算処理部137は、加算処理部133の算出値を積算処理部135の算出値で除算することで、
(α1'F-1+α2'F-1/2+α3'F+α4 +α5 )/((1−1/L)α11')
を算出する。
The division processing unit 137 divides the calculated value of the addition processing unit 133 by the calculated value of the integration processing unit 135,
1 'F -1 + α 2 ' F -1/2 + α 3 'F + α 4 + α 5 ) / ((1-1 / L) α 1 ' κ 1 ')
Is calculated.

平方根算出部138は、除算処理部137の算出した
(α1'F-1+α2'F-1/2+α3'F+α4 +α5 )/((1−1/L)α11')
の平方根を算出することで、式(55)に従って、 歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出する。
The square root calculation unit 138 calculates (α 1 ′ F −1 + α 2 ′ F −1/2 + α 3 ′ F + α 4 + α 5 ) / ((1-1 / L) α 1 ′ κ 1 calculated by the division processing unit 137. ')
The motion estimation accuracy δ * (F) that minimizes the code amount when the distortion amount is constant (quantization step width is fixed) is calculated according to the equation (55).

このようにして、動き推定精度算出部12は、この図5に示す装置構成に従って、図2〜図4のフローチャートを実行することで、フレームレートF及び開口率κが与えられた場合に、式(55)に従って、歪み量を一定(量子化ステップ幅を固定)とした場合の符号量を最小化する動き推定精度δ* (F)を算出するのである。 In this way, the motion estimation accuracy calculation unit 12 executes the flowcharts of FIGS. 2 to 4 according to the apparatus configuration shown in FIG. 5 to obtain the equation when the frame rate F and the aperture ratio κ are given. According to (55), the motion estimation accuracy δ * (F) that minimizes the code amount when the distortion amount is constant (quantization step width is fixed) is calculated.

本発明は、非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化に適用できるものであり、本発明によれば、フレームレート及び開口率が与えられた場合に、歪み量を一定とした場合の符号量を最小化する動き推定精度を推定することができるようになる。   The present invention can be applied to video coding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. According to the present invention, when a frame rate and an aperture ratio are given, the amount of distortion is constant. It is possible to estimate the motion estimation accuracy that minimizes the code amount.

本発明の映像符号化装置の装置構成図である。It is an apparatus block diagram of the video coding apparatus of this invention. 動き推定精度算出部の実行するフローチャートである。It is a flowchart which a motion estimation precision calculation part performs. 動き推定精度算出部の実行するフローチャートである。It is a flowchart which a motion estimation precision calculation part performs. 動き推定精度算出部の実行するフローチャートである。It is a flowchart which a motion estimation precision calculation part performs. 動き推定精度算出部の装置構成図である。It is an apparatus block diagram of a motion estimation precision calculation part.

符号の説明Explanation of symbols

101 符号化対象フレーム記憶部
102 参照フレーム記憶部
103 フレームレート記憶部
104 逆数算出部
105 フレームレート逆数記憶部
106 平方根算出部
107 フレームレート逆数平方根記憶部
108 セグメント数逆数算出部
109 セグメント数逆数記憶部
110 加算/減算処理部
111 乗数パラメータ記憶部
112 画素間差分値算出部
113 画素間差分値記憶部
114 二乗和算出部
115 積算処理部
116 パラメータ記憶部
117 画素間差分値二乗和記憶部
118 積算処理部
119 テイラー展開近似誤差算出部
120 テイラー展開近似誤差記憶部
121 積算値加算処理部
122 修正テイラー展開近似誤差和記憶部
123 積算処理部
124 パラメータ記憶部
125 フレーム重畳雑音電力推定部
126 フレーム重畳雑音電力記憶部
127 積算処理部
128 積算値記憶部
129 フレーム重畳雑音電力推定部
130 フレーム重畳雑音電力記憶部
131 二乗和算出部
132 テイラー展開近似誤差二乗和記憶部
133 加算処理部
134 加算値記憶部
135 積算処理部
136 積算値記憶部
137 除算処理部
138 平方根算出部
DESCRIPTION OF SYMBOLS 101 Encoding object frame memory | storage part 102 Reference frame memory | storage part 103 Frame rate memory | storage part 104 Reciprocal number calculation part 105 Frame rate reciprocal number memory | storage part 106 Square root calculation part 107 Frame rate reciprocal square root memory | storage part 108 Segment number reciprocal number calculation part 109 Segment number reciprocal number memory | storage part 110 Addition / Subtraction Processing Unit 111 Multiplier Parameter Storage Unit 112 Interpixel Difference Value Calculation Unit 113 Interpixel Difference Value Storage Unit 114 Square Sum Calculation Unit 115 Integration Processing Unit 116 Parameter Storage Unit 117 Interpixel Difference Value Square Sum Storage Unit 118 Integration Processing Unit 119 Taylor expansion approximation error calculation unit 120 Taylor expansion approximation error storage unit 121 integrated value addition processing unit 122 modified Taylor expansion approximation error sum storage unit 123 integration processing unit 124 parameter storage unit 125 frame superimposed noise power estimation unit 12 Frame superimposed noise power storage unit 127 Integration processing unit 128 Integrated value storage unit 129 Frame superimposed noise power estimation unit 130 Frame superimposed noise power storage unit 131 Sum of squares calculation unit 132 Taylor expansion approximate error square sum storage unit 133 Addition processing unit 134 Addition value Storage unit 135 Integration processing unit 136 Integration value storage unit 137 Division processing unit 138 Square root calculation unit

Claims (12)

非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定方法であって、
フレームレート及び開口率の値を入力する過程と、
フレームレート及び開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する過程と、
前記決定した推定関数に対して、前記入力したフレームレート及び開口率の値を代入することで、前記入力したフレームレート及び開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する過程と、
前記推定した動き推定精度を出力する過程とを備えることを、
特徴とする動き推定精度推定方法。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation method for estimating motion estimation accuracy that minimizes the amount of code,
Entering frame rate and aperture ratio values;
An estimation function that uses the frame rate and aperture ratio as variables, and is used to estimate the motion estimation accuracy that minimizes the amount of code that will be generated by the encoding under the condition of encoding with a constant amount of distortion. Determining the estimated function to be obtained,
By substituting the input frame rate and aperture ratio values for the determined estimation function, the amount of code that will be generated when encoding is performed using the input frame rate and aperture ratio values. Estimating the motion estimation accuracy to be minimized;
Outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation method.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定方法であって、
フレームレートの値を入力する過程と、
予め設定された開口率を定数としフレームレートを変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する過程と、
前記決定した推定関数に対して、前記入力したフレームレートの値を代入することで、前記入力したフレームレートの値及び前記予め設定された開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する過程と、
前記推定した動き推定精度を出力する過程とを備えることを、
特徴とする動き推定精度推定方法。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation method for estimating motion estimation accuracy that minimizes the amount of code,
The process of entering the frame rate value,
An estimation function that uses a preset aperture ratio as a constant and a frame rate as a variable, and is a motion that minimizes the amount of code that will be generated by the encoding under the encoding conditions with a constant amount of distortion A process of determining an estimation function used to estimate the estimation accuracy;
It occurs when encoding is performed with the input frame rate value and the preset aperture ratio value by substituting the input frame rate value into the determined estimation function. Estimating the motion estimation accuracy to minimize the amount of code
Outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation method.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定方法であって、
開口率の値を入力する過程と、
予め設定されたフレームレートを定数とし開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する過程と、
前記決定した推定関数に対して、前記入力した開口率の値を代入することで、前記入力した開口率の値及び前記予め設定されたフレームレートの値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する過程と、
前記推定した動き推定精度を出力する過程とを備えることを、
特徴とする動き推定精度推定方法。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation method for estimating motion estimation accuracy that minimizes the amount of code,
A process of inputting an aperture ratio value;
An estimation function that uses a preset frame rate as a constant and an aperture ratio as a variable, and is a motion that minimizes the amount of code that will be generated by the encoding under the encoding conditions with a constant amount of distortion. A process of determining an estimation function used to estimate the estimation accuracy;
It occurs when encoding is performed with the input aperture ratio value and the preset frame rate value by substituting the input aperture ratio value into the determined estimation function. Estimating the motion estimation accuracy to minimize the amount of code
Outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation method.
請求項1ないし3のいずれか1項に記載の動き推定精度推定方法において、
前記推定関数は、フレームレートと、あるフレームレート及びある開口率で符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述されて、開口率によりその値を変えるモデルパラメータとで関数形が規定されることを、
特徴とする動き推定精度推定方法。
The motion estimation accuracy estimation method according to any one of claims 1 to 3,
The estimation function is described in a function used for estimation of prediction error power of inter-frame prediction when encoding is performed at a frame rate and a certain frame rate and a certain aperture ratio, and a model parameter that changes its value depending on the aperture ratio. That the function form is defined by
A characteristic motion estimation accuracy estimation method.
請求項4に記載の動き推定精度推定方法において、
前記モデルパラメータとして、(1)参照フレームにおける隣接画素間の差分値の二乗和から導出される開口率に依存するモデルパラメータと、(2)フレーム間予測誤差に対するテイラー展開の近似誤差と参照フレームにおける隣接画素間差分値との積の和から導出される開口率に依存するモデルパラメータと、(3)原信号に重畳する雑音電力の推定値と補間フィルタ通過後の原信号に重畳する雑音電力の推定値との和から導出される開口率に依存するモデルパラメータと、(4)画素値の補間に伴う誤差電力の推定値と参照信号の量子化に伴う誤差電力の推定値との和から導出される開口率に依存しないモデルパラメータと、(5)フレーム間予測誤差に対するテイラー展開の近似誤差の二乗和から導出される開口率に依存しないモデルパラメータという5個のモデルパラメータを用いることを、
特徴とする動き推定精度推定方法。
The motion estimation accuracy estimation method according to claim 4,
As the model parameters, (1) model parameters depending on the aperture ratio derived from the sum of squares of the difference values between adjacent pixels in the reference frame, (2) an approximation error of Taylor expansion with respect to the inter-frame prediction error, and the reference frame Model parameters that depend on the aperture ratio derived from the sum of the products of the difference values between adjacent pixels, (3) the estimated noise power superimposed on the original signal, and the noise power superimposed on the original signal after passing through the interpolation filter Derived from the sum of the model parameter depending on the aperture ratio derived from the sum of the estimated value and (4) the estimated value of the error power accompanying the interpolation of the pixel value and the estimated value of the error power accompanying the quantization of the reference signal Model parameters that do not depend on the aperture ratio, and (5) a model that does not depend on the aperture ratio derived from the sum of squares of approximation errors of Taylor expansion for inter-frame prediction errors. The use of five model parameters as parameters,
A characteristic motion estimation accuracy estimation method.
請求項4又は5に記載の動き推定精度推定方法において、
フレームレートをFで表し、開口率をκで表し、前記モデルパラメータをα1', α2', α3', α4 , α5 で表すならば、前記推定関数として、
((α1'F-1+α2'F-1/2+α3'F+α4 +α5 )/α1')1/2
ただし、α1'∝1/κ,α2'∝1/κ1/2 ,α3'∝1/κ
に比例する関数を用いることを、
特徴とする動き推定精度推定方法。
The motion estimation accuracy estimation method according to claim 4 or 5,
If the frame rate is represented by F, the aperture ratio is represented by κ, and the model parameters are represented by α 1 ′, α 2 ′, α 3 ′, α 4 , α 5 ,
((Α 1 'F -1 + α 2 ' F -1/2 + α 3 'F + α 4 + α 5 ) / α 1 ') 1/2
However, α 1 '∝1 / κ, α 2 ' ∝1 / κ 1/2 , α 3 '∝1 / κ
To use a function proportional to
A characteristic motion estimation accuracy estimation method.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定装置であって、
フレームレート及び開口率の値を入力する手段と、
フレームレート及び開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する手段と、
前記決定した推定関数に対して、前記入力したフレームレート及び開口率の値を代入することで、前記入力したフレームレート及び開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する手段と、
前記推定した動き推定精度を出力する手段とを備えることを、
特徴とする動き推定精度推定装置。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation device that estimates motion estimation accuracy that minimizes the amount of code,
Means for inputting values of frame rate and aperture ratio;
An estimation function that uses the frame rate and aperture ratio as variables, and is used to estimate the motion estimation accuracy that minimizes the amount of code that will be generated by the encoding under the condition of encoding with a constant amount of distortion. Means for determining the estimated function to be obtained;
By substituting the input frame rate and aperture ratio values for the determined estimation function, the amount of code that will be generated when encoding is performed using the input frame rate and aperture ratio values. Means for estimating the motion estimation accuracy to be minimized;
Means for outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation apparatus.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定装置であって、
フレームレートの値を入力する手段と、
予め設定された開口率を定数としフレームレートを変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する手段と、
前記決定した推定関数に対して、前記入力したフレームレートの値を代入することで、前記入力したフレームレートの値及び前記予め設定された開口率の値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する手段と、
前記推定した動き推定精度を出力する手段とを備えることを、
特徴とする動き推定精度推定装置。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation device that estimates motion estimation accuracy that minimizes the amount of code,
Means for inputting a frame rate value;
An estimation function that uses a preset aperture ratio as a constant and a frame rate as a variable, and is a motion that minimizes the amount of code that will be generated by the encoding under the encoding conditions with a constant amount of distortion Means for determining an estimation function used to estimate the estimation accuracy;
It occurs when encoding is performed with the input frame rate value and the preset aperture ratio value by substituting the input frame rate value into the determined estimation function. Means for estimating motion estimation accuracy to minimize the amount of code
Means for outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation apparatus.
非整数画素精度の動き推定を行うフレーム間予測を伴う映像符号化で用いられ、映像を符号化する際に、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度を推定する動き推定精度推定装置であって、
開口率の値を入力する手段と、
予め設定されたフレームレートを定数とし開口率を変数とする推定関数であって、歪み量を一定とする符号化の条件下において、その符号化で発生することになる符号量を最小化する動き推定精度の推定に用いられる推定関数を決定する手段と、
前記決定した推定関数に対して、前記入力した開口率の値を代入することで、前記入力した開口率の値及び前記予め設定されたフレームレートの値で符号化を行う場合に発生することになる符号量を最小化する動き推定精度を推定する手段と、
前記推定した動き推定精度を出力する手段とを備えることを、
特徴とする動き推定精度推定装置。
It is used in video encoding with inter-frame prediction that performs motion estimation with non-integer pixel accuracy. When video is encoded, it occurs in the encoding under the condition of constant distortion. A motion estimation accuracy estimation device that estimates motion estimation accuracy that minimizes the amount of code,
Means for inputting the value of the aperture ratio;
An estimation function that uses a preset frame rate as a constant and an aperture ratio as a variable, and is a motion that minimizes the amount of code that will be generated by the encoding under the encoding conditions with a constant amount of distortion. Means for determining an estimation function used to estimate the estimation accuracy;
It occurs when encoding is performed with the input aperture ratio value and the preset frame rate value by substituting the input aperture ratio value into the determined estimation function. Means for estimating motion estimation accuracy to minimize the amount of code
Means for outputting the estimated motion estimation accuracy,
A characteristic motion estimation accuracy estimation apparatus.
請求項7ないし9のいずれか1項に記載の動き推定精度推定装置において、
前記推定関数は、フレームレートと、あるフレームレート及びある開口率で符号化を行う場合におけるフレーム間予測の予測誤差電力の推定に用いられる関数に記述されて、開口率によりその値を変えるモデルパラメータとで関数形が規定されることを、
特徴とする動き推定精度推定装置。
The motion estimation accuracy estimation apparatus according to any one of claims 7 to 9,
The estimation function is described in a function used for estimation of prediction error power of inter-frame prediction when encoding is performed at a frame rate and a certain frame rate and a certain aperture ratio, and a model parameter that changes its value depending on the aperture ratio. That the function form is defined by
A characteristic motion estimation accuracy estimation apparatus.
請求項1ないし6のいずれか1項に記載の動き推定精度推定方法をコンピュータに実行させるための動き推定精度推定プログラム。   A motion estimation accuracy estimation program for causing a computer to execute the motion estimation accuracy estimation method according to any one of claims 1 to 6. 請求項1ないし6のいずれか1項に記載の動き推定精度推定方法をコンピュータに実行させるための動き推定精度推定プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium in which a motion estimation accuracy estimation program for causing a computer to execute the motion estimation accuracy estimation method according to claim 1 is recorded.
JP2008108861A 2008-04-18 2008-04-18 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program Expired - Fee Related JP4785890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008108861A JP4785890B2 (en) 2008-04-18 2008-04-18 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008108861A JP4785890B2 (en) 2008-04-18 2008-04-18 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2009260779A JP2009260779A (en) 2009-11-05
JP4785890B2 true JP4785890B2 (en) 2011-10-05

Family

ID=41387609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008108861A Expired - Fee Related JP4785890B2 (en) 2008-04-18 2008-04-18 Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4785890B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014187580A (en) 2013-03-25 2014-10-02 Kddi Corp Video encoder, video decoder, video encoding method, video decoding method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096541A (en) * 2005-09-27 2007-04-12 Sanyo Electric Co Ltd Coding method
JP2007201975A (en) * 2006-01-30 2007-08-09 Nippon Telegr & Teleph Corp <Ntt> Code amount estimating method, frame rate estimating method, code amount estimating apparatus, frame rate estimating apparatus, code amount estimating program, frame rate estimating program, and computer readable storage medium for storing program
JP4695015B2 (en) * 2006-05-10 2011-06-08 日本電信電話株式会社 Code amount estimation method, frame rate estimation method, code amount estimation device, frame rate estimation device, code amount estimation program, frame rate estimation program, and computer-readable recording medium recording those programs
JP4616234B2 (en) * 2006-10-31 2011-01-19 日本電信電話株式会社 Code amount estimation method, frame rate estimation method, code amount estimation device, frame rate estimation device, code amount estimation program, frame rate estimation program, and computer-readable recording medium recording these programs
JP4833934B2 (en) * 2007-07-31 2011-12-07 日本電信電話株式会社 Aperture ratio setting method, aperture ratio setting device, aperture ratio setting program, and computer-readable recording medium recording the program

Also Published As

Publication number Publication date
JP2009260779A (en) 2009-11-05

Similar Documents

Publication Publication Date Title
US11546627B2 (en) Moving picture decoding method and moving picture encoding method
JP5521202B2 (en) Multi-view image encoding method, multi-view image decoding method, multi-view image encoding device, multi-view image decoding device, multi-view image encoding program, and multi-view image decoding program
JP6698077B2 (en) Perceptual optimization for model-based video coding
US7227896B2 (en) Method and apparatus for global motion estimation
JP5436458B2 (en) Multi-view image encoding method, multi-view image decoding method, multi-view image encoding device, multi-view image decoding device, multi-view image encoding program, and multi-view image decoding program
JP5416812B2 (en) Model parameter estimation for rate- or distortion-quantized model functions
JP5833757B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP2020522200A (en) Optical Flow Estimation for Motion Compensated Prediction in Video Coding
JP2006313950A (en) Image coding apparatus, and image coding method
TW201306594A (en) Moving image coding apparatus, moving image decoding apparatus, moving imaged coding method, moving imaged decoding method, moving image coding program, and moving image decoding program
JP4695015B2 (en) Code amount estimation method, frame rate estimation method, code amount estimation device, frame rate estimation device, code amount estimation program, frame rate estimation program, and computer-readable recording medium recording those programs
JP4785890B2 (en) Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program
JP2007201975A (en) Code amount estimating method, frame rate estimating method, code amount estimating apparatus, frame rate estimating apparatus, code amount estimating program, frame rate estimating program, and computer readable storage medium for storing program
JP4824712B2 (en) Motion estimation accuracy estimation method, motion estimation accuracy estimation device, motion estimation accuracy estimation program, and computer-readable recording medium recording the program
JP2008252225A (en) Motion picture encoding device and method
JP4833934B2 (en) Aperture ratio setting method, aperture ratio setting device, aperture ratio setting program, and computer-readable recording medium recording the program
JP2009194474A (en) Moving image encoder
JP4763241B2 (en) Motion prediction information detection device
RU2493668C1 (en) Method of encoding/decoding multi-view video sequence based on local adjustment of brightness and contract of reference frames without transmitting additional service data
KR100255634B1 (en) Motion detecting apparatus
JP2008113294A (en) Method and device for estimating coding amount, method and device for estimating frame rate, coding amount estimation program, frame rate estimation program and computer-readable recording medium with them recorded thereon
JP2009232163A (en) Interpolation frame creating apparatus, interpolation frame creation method, and interpolation frame creation program
KR20150113565A (en) Method and apparatus for estimating motion in image compression
JP2011223393A (en) Encoding device and method of controlling encoding device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110712

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees