JP6538619B2 - Video filtering method, video filtering apparatus and video filtering program - Google Patents

Video filtering method, video filtering apparatus and video filtering program Download PDF

Info

Publication number
JP6538619B2
JP6538619B2 JP2016126988A JP2016126988A JP6538619B2 JP 6538619 B2 JP6538619 B2 JP 6538619B2 JP 2016126988 A JP2016126988 A JP 2016126988A JP 2016126988 A JP2016126988 A JP 2016126988A JP 6538619 B2 JP6538619 B2 JP 6538619B2
Authority
JP
Japan
Prior art keywords
frame
video
filtering
filter
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016126988A
Other languages
Japanese (ja)
Other versions
JP2018006831A (en
Inventor
幸浩 坂東
幸浩 坂東
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016126988A priority Critical patent/JP6538619B2/en
Publication of JP2018006831A publication Critical patent/JP2018006831A/en
Application granted granted Critical
Publication of JP6538619B2 publication Critical patent/JP6538619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、映像フィルタリング方法、映像フィルタリング装置及び映像フィルタリングプログラムに関する。   The present invention relates to a video filtering method, a video filtering apparatus and a video filtering program.

昨今の半導体技術の進歩を受け、映像撮像機器の映像取得速度が大きく向上している。現状、高速度カメラにより取得された高フレームレート映像の用途は、映像再生時の高画質化と映像解析の高精度化に分類される。前者は、視覚系で検知可能(ディスプレイで表示可能)なフレームレートの上限に迫ることを目的としており、高フレームレート化により滑らかな動きを表現することを目的とする。このため、ディスプレイでのリアルタイム再生を前提としている。   In response to recent advances in semiconductor technology, the image acquisition speed of image pickup devices has been greatly improved. At present, applications of high frame rate video acquired by a high speed camera are classified into high image quality at the time of video reproduction and high accuracy of video analysis. The former aims to approach the upper limit of the frame rate that can be detected (displayed on display) by the visual system, and aims to express smooth motion by increasing the frame rate. For this reason, real-time reproduction on the display is assumed.

後者は、視覚の検知限を越えた高フレームレート映像を用いることにより、映像解析の高精度化を行うことを目的としている。スロー再生による高速移動物体(スポーツ映像、FA・検査、自動車等)の解析は代表的な応用例である。これは、映像の入力・出力システムのフレームレートの上限は非対称であることによる。現在、撮像系としては、10000[frame/sec(fps)] を超える高フレームレート映像を取得可能な高速度カメラが利用可能である。   The latter is intended to improve the accuracy of video analysis by using a high frame rate video beyond the detection limit of vision. Analysis of high-speed moving objects (sports video, FA, inspection, cars, etc.) by slow reproduction is a typical application example. This is because the upper limit of the frame rate of the video input / output system is asymmetric. At present, high-speed cameras capable of acquiring high frame rate video exceeding 10000 [frame / sec (fps)] are available as imaging systems.

一方、現行のディスプレイの上限は120−240[frame/sec]である。このため、こうした高速度カメラで撮影された映像は、スロー再生用途で用いられる。   On the other hand, the upper limit of the current display is 120-240 [frame / sec]. For this reason, an image captured by such a high speed camera is used in slow playback applications.

なお、先行技術として、毎秒30フレームまたは毎秒60フィールドで撮影された動画像を、動きに不自然さを感じさせない毎秒48フレームの動画像に変換する技術が知られている。これは、毎秒30フレームのプログレッシブ画像のフレームの一部を2回連続することにより、動きに不自然さを感じさせない毎秒48フレームの画像を生成するものである。または、毎秒60フィールドのインタレース画像を毎秒60フレームのプログレッシブ画像に変換し、フレームの1部を抜かすことにより、動きに不自然さを感じさせない毎秒48フレームの画像を生成するものである(例えば、特許文献1参照)。   As a prior art, there is known a technology for converting a moving image captured at 30 frames per second or 60 fields per second into a moving image at 48 frames per second without causing the motion to be unnatural. This is to generate an image of 48 frames per second without causing the motion to be unnatural by repeating a part of frames of a progressive image of 30 frames per second twice. Alternatively, an interlaced image of 60 fields per second is converted to a progressive image of 60 frames per second, and a part of the frames is omitted to generate an image of 48 frames per second without causing the motion to be unnatural (for example, , Patent Document 1).

特開2004−201165号公報JP, 2004-201165, A

ところで、視覚の検知限を越えた高フレームレート映像を用いることにより、映像符号化に対して親和性の高いリアルタイム再生用の映像信号を生成できる可能性がある。こうした高フレームレート映像には、時間方向に高密度でサンプリングされたフレーム群を含んでおり、撮影対象の時間軸方向の情報が高い時間分解能で取得されている。そこで、高密度時間サンプリングされたフレーム群(例:1000Hz) を用いて、リアルタイム再生用途の映像(例:30Hz)を生成すれば、高い時間分解能で映像の生成を制御可能となる。   By the way, there is a possibility that a video signal for real-time reproduction with high affinity to video coding can be generated by using a high frame rate video that exceeds the detection limit of vision. Such high frame rate video includes a frame group sampled at high density in the time direction, and information in the time axis direction of the imaging target is acquired with high time resolution. Therefore, if an image (for example, 30 Hz) for real-time reproduction is generated using a high-density time-sampled frame group (for example, 1000 Hz), the generation of the image can be controlled with high time resolution.

しかし、発生符号量の低減を目的とした映像符号化の前処理に関する従来手法は、再生フレームレートで映像を取得することが前提となっていた。このため、再生フレームレートより高い時間分解能でフレームをサンプリングすることは、対象外であった。   However, the conventional method related to the pre-processing of video coding for the purpose of reducing the amount of generated code has been premised on acquiring video at a reproduction frame rate. For this reason, sampling frames with a temporal resolution higher than the playback frame rate has not been addressed.

単純なフレーム間引き処理では、時間方向のエイリアシングに起因する画質劣化が問題となる。こうした問題を回避するためには、時間軸方向の帯域制限フィルタリングが必要である。一方、動き補償フレーム間予測を用いた符号化器の場合、時間方向のエイリアシングの低減は、予測誤差の低減とは直接的には結びつかない。   In simple frame decimation processing, image quality degradation caused by aliasing in the time direction becomes a problem. In order to avoid such problems, band limitation filtering in the time axis direction is required. On the other hand, in the case of an encoder using motion compensated inter-frame prediction, the reduction of aliasing in the time direction is not directly linked to the reduction of prediction error.

あわせて、高密度にサンプルされたフレームを十分に活用しきれておらず、時間フィルタとしての自由度が制約されていた。従来の30fps,60fpsのフレームレートの映像の場合、フィルタリングのための十分なサンプル(即ち、フレーム)が確保できないため、フィルタの特性を高精度に近似することが困難であった。例えば、60fpsの映像信号をフィルタリングして30fpsの映像信号を生成する場合、フィルタリングの対象フレームに重複を許さない条件下では、フィルタリングの対象となるフレームは2フレームに限定される。一方、高フレームレート映像の場合、フィルタ設計の自由度は拡張される。   At the same time, the frame sampled at high density was not fully utilized, and the degree of freedom as a time filter was restricted. In the case of a conventional 30 fps, 60 fps frame rate video, it is difficult to approximate the filter characteristics with high accuracy because sufficient samples (i.e., frames) for filtering can not be secured. For example, in the case where a video signal of 60 fps is filtered to generate a video signal of 30 fps, the frames to be filtered are limited to two frames under the condition that duplication of the frames to be filtered is not permitted. On the other hand, in the case of high frame rate video, the degree of freedom in filter design is extended.

例えば、1000fpsの映像信号をフィルタリングして、62.5fpsの映像信号を生成する場合、フィルタリングの対象フレームに重複を許さない条件下であっても、16 フレームをフィルタリングの対象とすることができる。つまり、高フレームレート映像を入力してフィルタリングにより低フレームレート映像を得る場合、フィルタリング設計の自由度が高まる。従って、この自由度の高さを利用することで、符号化効率向上を実現できる可能性があることから、時間方向フィルタに関して、符号化効率の観点から最適化の余地があることになる。   For example, in the case where a video signal of 1000 fps is filtered to generate a video signal of 62.5 fps, 16 frames can be subjected to the filtering even under conditions that do not allow duplication of the frames to be filtered. That is, when high frame rate video is input and low frame rate video is obtained by filtering, the degree of freedom in filtering design is increased. Therefore, there is a possibility that improvement in coding efficiency can be realized by using the high degree of freedom, and there is room for optimization of the time direction filter from the viewpoint of coding efficiency.

本発明は、このような事情に鑑みてなされたもので、時間フィルタリングの適性を保持した上で、演算量を低減することが可能になる映像フィルタリング方法、映像フィルタリング装置及び映像フィルタリングプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a video filtering method, a video filtering apparatus, and a video filtering program that can reduce the amount of computation while maintaining the suitability of temporal filtering. The purpose is

本発明の一態様は、入力された映像信号に対して、低フレームレート映像信号を生成するためのフレームレートのダウンサンプリング処理を行う映像フィルタリング装置が行う映像フィルタリング方法であって、フィルタリング後の低フレームレート映像信号における符号化対象フレームの発生符号量を算出する符号量算出ステップと、符号化対象フレームと、該符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの乖離度の加重和を算出する乖離度算出ステップと、前記発生符号量と前記乖離度の加重和とに基づき、フィルタ係数集合の中から、前記乖離度の加重和を最小化するフィルタ係数の候補を選択し、前記フィルタ係数の候補の中から、全フレームに対して該乖離度の加重和の累積値を最小化するフィルタ係数を選択するフィルタ係数選択ステップとを有する映像フィルタリング方法である。   One embodiment of the present invention is a video filtering method performed by a video filtering apparatus that performs frame rate downsampling processing for generating a low frame rate video signal with respect to an input video signal, which is low after filtering A code amount calculating step of calculating a generated code amount of a frame to be coded in a frame rate video signal; a frame to be coded; and a frame in the video signal before filtering corresponding to a time sampling position of the frame to be coded Candidates of filter coefficients for minimizing the weighted sum of the deviations from the set of filter coefficients based on the deviations calculation step of calculating the weighted sum of the deviations and the weighted sum of the generated code amount and the deviations Of the candidates of the filter coefficients, and accumulation of the weighted sum of the deviations for all frames. Which is the image filtering method and a filter coefficient selection step of selecting a filter coefficient to minimize.

本発明の一態様は、前記映像フィルタリング方法であって、前記乖離度算出ステップでは、前記乖離度の加重和を求める際に、フィルタリング後の低フレームレート映像信号における符号化対象フレームと予測フレームの差分値、及び符号化対象フレームと符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの差分値の加重和に基づき、前記乖離度に乗じる重み係数を決定する。   One embodiment of the present invention is the video filtering method, wherein, in the divergence calculation step, when obtaining a weighted sum of the divergence, a coding target frame and a prediction frame in a low frame rate video signal after filtering are obtained. A weighting factor to be multiplied by the degree of divergence is determined based on the difference value and the weighted sum of difference values between the encoding target frame and the frame in the video signal before filtering corresponding to the time sampling position of the encoding target frame.

本発明の一態様は、前記映像フィルタリング方法であって、前記乖離度をΦ[w,p]、wを第iフレームのフィルタ係数、pをフィルタ位置の補正パラメータ、Mを時間フィルタにより生成される映像のフレームレートを決定するパラメータ、δをフレーム間隔、xを画素位置、f()、^f()(^はfの上に付く)を画素値を得る関数としたとき、後述する式(6)によって前記乖離度を算出する。 One aspect of the present invention is the video filtering method, wherein the deviation degree is [[w i , p i ], w i is a filter coefficient of the ith frame, p i is a correction parameter of filter position, M is time The parameter that determines the frame rate of the image generated by the filter, δ t is the frame interval, x is the pixel position, f (), ^ f () (^ is attached to f) is a function to obtain the pixel value At this time, the degree of deviation is calculated by equation (6) described later.

本発明の一態様は、入力された映像信号に対して、低フレームレート映像信号を生成するためのフレームレートのダウンサンプリング処理を行う映像フィルタリング装置であって、フィルタリング後の低フレームレート映像信号における符号化対象フレームの発生符号量を算出する符号量算出部と、符号化対象フレームと、該符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの乖離度の加重和を算出する乖離度算出部と、前記発生符号量と前記乖離度の加重和とに基づき、フィルタ係数集合の中から、前記乖離度の加重和を最小化するフィルタ係数の候補を選択し、前記フィルタ係数の候補の中から、全フレームに対して該乖離度の加重和の累積値を最小化するフィルタ係数を選択するフィルタ係数選択部とを備える映像フィルタリング装置である。   One embodiment of the present invention is a video filtering apparatus that performs frame rate downsampling processing for generating a low frame rate video signal with respect to an input video signal, and in the low frame rate video signal after filtering. Weighted sum of the degree of deviation between a code amount calculation unit for calculating the generated code amount of the encoding target frame, the encoding target frame, and a frame in the video signal before filtering corresponding to the time sampling position of the encoding target frame From the set of filter coefficients, a candidate for a filter coefficient for minimizing the weighted sum of the divergence is selected from the set of filter coefficients based on the divergence calculation unit that calculates the and the generated code amount and the weighted sum of the divergence, From among the filter coefficient candidates, select a filter coefficient that minimizes the accumulated value of the weighted sum of the deviations for all frames. An image filtering apparatus and a data coefficient selector.

本発明の一態様は、コンピュータに、前記映像フィルタリング方法を実行させるための映像フィルタリングプログラムである。   One aspect of the present invention is a video filtering program for causing a computer to execute the video filtering method.

本発明によれば、映像符号化処理における時間フィルタを用いて、低フレームレート映像信号を生成するフィルタリングを行う際に、時間フィルタリングの適性を保持した上で、演算量を低減することが可能になるという効果が得られる。   According to the present invention, when performing filtering to generate a low frame rate video signal using a temporal filter in video encoding processing, it is possible to reduce the amount of computation while maintaining the suitability for temporal filtering. Effect is obtained.

本発明の実施形態による映像フィルタリング装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a video filtering device according to an embodiment of the present invention. 図1に示す映像フィルタリング装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging | video filtering apparatus shown in FIG. 図2に示すステップS3の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of step S3 shown in FIG. 図3に示すステップS20の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of step S20 shown in FIG. 図3に示すステップS21の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of step S21 shown in FIG.

以下、図面を参照して、本発明の一実施形態による映像フィルタリング装置を説明する。はじめに、高い時間解像度で映像が取得できた前提のもと、同映像を用いて符号化に適した映像を生成するための時間フィルタ設定処理について説明する。なお、以下では表記の簡略化のため、各フレームを一次元信号として表す。   Hereinafter, a video filtering apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, on the premise that a video can be acquired with high temporal resolution, time filter setting processing for generating a video suitable for encoding using the video will be described. In the following, each frame is represented as a one-dimensional signal for simplification of the notation.

(2Δ+1)タップの時間フィルタにより生成された第iフレームを次式で表す。

Figure 0006538619
iはダウサンプリング後のフレームを指定するインデックスであり、非負の整数値をとる。時間フィルタの入力信号のフレーム間隔をtとして、各フレームは、t=jδ(j=0,1,・・・) においてサンプリングされる。 The ith frame generated by the (2Δ + 1) tap time filter is expressed by the following equation.
Figure 0006538619
i is an index specifying a frame after Dow sampling, and takes a non-negative integer value. Each frame is sampled at t = jδ t (j = 0, 1,...), Where t is the frame interval of the input signal of the time filter.

f(x,t)(x=0,・・・,X−1)は第tフレームの位置xにおける画素値である。w[j]は参照フレームに対するフィルタ係数であり、次式の関係を満足する。

Figure 0006538619
f (x, t) (x = 0, ..., X-1) is a pixel value at the position x of the t-th frame. w i [j] is the filter coefficient for the reference frame, and satisfies the relationship of the following equation.
Figure 0006538619

また、wはフィルタ係数を要素とするベクトルw=(w[−Δ],・・・,w[Δ])であり、係数ベクトルと呼ぶ。p,pi−1はフィルタ位置を補正するパラメータである。Mは時間フィルタにより生成される映像のフレームレートを決定するパラメータであり、式(1)の場合、時間フィルタの出力する映像のフレームレートは1/Mδtである。なお、本実施形態では2Δ+1≦Mを前提とする。式(1)の特殊形として、フィルタ係数を一定値w[i]=1/(2Δ+1)とするフィルタを平均フィルタと呼ぶ。 Further, w i is a vector w i having a filter coefficient as an element w i = (w i [−Δ],..., W i [Δ]) and is called a coefficient vector. p i and p i-1 are parameters for correcting the filter position. M is a parameter for determining the frame rate of the video generated by the time filter. In the case of Equation (1), the frame rate of the video output from the time filter is 1 / Mδt. In the present embodiment, it is assumed that 2Δ + 1 ≦ M. As a special form of equation (1), a filter in which the filter coefficient is a fixed value w [i] = 1 / (2Δ + 1) is referred to as an average filter.

平均フィルタにより出力される第iフレームは次式となる。

Figure 0006538619
係数ベクトルとして選択する候補ベクトル(以後、係数候補ベクトルと呼ぶ)として、N種類の係数候補ベクトルγ=(γ[−Δ],・・・,γ[Δ]),(n=0,・・・,N−1)とする。さらに、これらのフィルタ係数を施す位置として、P通りの位置を選択可能とする。各フレームでは、これらN×P通りのN種類の係数候補ベクトルの中から、符号化フレームを生成するために最適な係数候補ベクトルを選択する。以下では、係数候補ベクトルの集合を辞書と呼び、表記を簡略する為に、N種類の係数候補ベクトルからなる辞書をΓ=(γ,・・・,γN−1)として表すこととする。 The i-th frame output by the averaging filter is expressed by the following equation.
Figure 0006538619
As candidate vectors to be selected as coefficient vectors (hereinafter referred to as coefficient candidate vectors), N types of coefficient candidate vectors γ n = (γ n [−Δ],..., Γ n [Δ]), (n = 0 , ..., N-1). Further, P positions can be selected as positions to which these filter coefficients are to be applied. In each frame, an optimal coefficient candidate vector for generating a coded frame is selected from the N × P N types of coefficient candidate vectors. In the following, a set of coefficient candidate vectors is referred to as a dictionary, and a dictionary consisting of N types of coefficient candidate vectors is represented as Γ N = (γ 0 ,..., Γ N-1 ) in order to simplify the notation. Do.

[フィルタ係数の最適化規準]
時間フィルタ設計における最適化規範として、時間フィルタにより生成されたフレームに対する発生符号量を用いる。同発生符号量は、動き補償予測(MC予測)を伴う可逆符号化器による得られるものとする。X画素からなるフレームをK分割して、分割区間毎に動き補償フレーム間予測を行う場合を考える。
[Optimization criteria for filter coefficients]
As an optimization criterion in the time filter design, the generated code amount for the frame generated by the time filter is used. The same code amount is assumed to be obtained by the lossless encoder with motion compensation prediction (MC prediction). A case will be considered in which a frame composed of X pixels is divided into K, and motion compensated interframe prediction is performed for each divided section.

フレーム^f(x,iMδ,w)(^は、後に続く文字の上に付く、以下同様)をサイズX/Kの区間B[k](k=0,1,・・・,K−1)に分割し、フレーム^f(x,(i−1)Mδ,wi−1)を参照フレームとして、各区間B[k](k=0,1,・・・,K−1)に対して動き補償(変位量d=(d[0],・・・,d[K−1])を行った場合、そのフレーム内の動き補償フレーム間予測誤差(以下、単に予測誤差と略記)は次のように表現できる。

Figure 0006538619
A frame ^ f (x, i M δ t , w i ) (^ is placed on the following character, and so on) is divided into sections B [k] (k = 0, 1, ..., K of size X / K) Divided into -1), and frame f f (x, (i-1) M δ t , w i-1 ) is a reference frame, and each section B [k] (k = 0, 1, ..., K- When motion compensation (displacement amount d i = (d i [0],..., D i [K−1]) is performed for 1), motion compensated inter-frame prediction error in that frame (hereinafter referred to as The prediction error (abbreviated simply) can be expressed as follows.
Figure 0006538619

この動き補償フレーム間予測誤差を符号化対象とする符号化器の発生符号量を以下のように表す。

Figure 0006538619
ここで、R(e(0,w,wi−1,p,pi−1),・・・,e(X−1,w,wi−1,p,pi−1))は動き補償フレーム間予測誤差に対する符号量、R(d[0],・・・, d[K − 1])は推定変位量di[0],・・・,di[K−1]に対する符号量、Rhは符号化器が生成するヘッダー情報の符号量である。前述の通り、可逆符号化器の発生符号量を用いるため、動き補償フレーム間予測誤差は符号化対象フレームおよび参照フレームのみに依存する。従って、式(5)における発生符号量Ψ()は、変位量およびヘッダ情報が定まれば、第iフレームに対するフィルタ係数ベクトルwフィルタ位置の補正パラメータpおよび第i−1フレームに対するフィルタ係数ベクトルwi−1、フィルタ位置の補正パラメータpi−1により定まる。 The amount of generated code of the encoder that encodes this motion compensated inter-frame prediction error is expressed as follows.
Figure 0006538619
Here, R e (e i (0, w i , w i−1 , p i , p i−1 ),..., E i (X−1, w i , w i−1 , p i , p i -1 )) is a code amount for motion compensation inter-frame prediction error, R d (d i [0], ..., d i [K-1]) is an estimated displacement amount di [0], ... , Di [K−1], and Rh is the code amount of header information generated by the encoder. As described above, in order to use the generated code amount of the lossless encoder, the motion compensated inter-frame prediction error depends only on the encoding target frame and the reference frame. Therefore, if the displacement amount and header information are determined, the generated code amount 係数 () in equation (5) is the filter coefficient vector w i for the i th frame, the correction parameter p i of the filter position and the filter coefficient for the i th −1 frame It is determined by the vector w i-1 and the correction parameter p i-1 of the filter position.

次に、フィルタリングにより生成された画像とサンプリングされた画像との乖離度として、次式の値を評価する。

Figure 0006538619
Next, the value of the following equation is evaluated as the degree of deviation between the image generated by the filtering and the sampled image.
Figure 0006538619

上記2種類の値の加重和として、次式の値をフィルタ設計の評価尺度とする。

Figure 0006538619
上記の尺度を最小化するようにフィルタを設計する。Ψ[w,wi−1,p,pi−1]を考慮することで、フィルタリング後の発生符号量を低減する効果を期待できる。また、Φ[w,p]の項を考慮することで、フィルタリング後の画像がサンプリングされた現画像と乖離することを抑止する効果が期待できる。 As a weighted sum of the above two types of values, the value of the following expression is used as an evaluation measure of the filter design.
Figure 0006538619
Design the filter to minimize the above scale. By considering Ψ [w i , w i-1 , p i , p i-1 ], it is possible to expect an effect of reducing the generated code amount after filtering. Further, by considering the term Φ [w i , p i ], it is possible to expect an effect of suppressing the separation of the image after filtering from the current image sampled.

式(7)のλは以下にて設定する。

Figure 0006538619
から、λを以下として定める。
Figure 0006538619
(7) is set as follows.
Figure 0006538619
From this, we define λ as
Figure 0006538619

このとき、

Figure 0006538619
および
Figure 0006538619
である。ここで、αは近似を補正する為の制御係数であり、外部から与えられる。 At this time,
Figure 0006538619
and
Figure 0006538619
It is. Here, α is a control coefficient for correcting the approximation, and is given from the outside.

上記2つの式を式(9)に代入して、以下を得る。

Figure 0006538619
Substituting the above two equations into equation (9) yields:
Figure 0006538619

[フィルタ係数の最適化]
発生符号量を最小化するフレームを生成するためには、式(5)の発生符号量をコスト関数として最小化問題を解き、次式を満たすJ/M組のフィルタ係数ベクトルを求める必要がある。

Figure 0006538619
N×P種類のフィルタ係数ベクトルを候補ベクトルとする場合、フィルタ係数ベクトルの取り得る組合せはNPJ/M通りとなり、最適なフィルタ係数ベクトル選択は、指数オーダの計算量が必要になる。このため、最適な組み合わせ(w ,・・・,w J/M−1,p ,・・・,p J/M−1)を総当りで探索するのは、計算量の観点から現実的ではない。 [Filter coefficient optimization]
In order to generate a frame that minimizes the amount of generated code, it is necessary to solve the minimization problem using the generated code amount of equation (5) as a cost function and to obtain J / M sets of filter coefficient vectors that satisfy the following equation .
Figure 0006538619
When N × P types of filter coefficient vectors are used as candidate vectors, possible combinations of filter coefficient vectors are NP J / M , and optimal filter coefficient vector selection requires computational complexity of exponential order. Therefore, searching for the optimum combination (w * 0 , ..., w * J / M-1 , p * 0 , ..., p * J / M-1 ) in a round-robin manner is a computational effort. It is not realistic from the point of view of

Ψ[w,wi−1,p,pi−1]がw,pおよびwi−1,pi−1のみに依存することに着目すれば、式(13)は単純マルコフ過程における最適化問題として定式化できる。同最適化問題は動的計画法に基づき、最適解を多項式オーダの計算量で求めることが可能である。以下、動的計画法を用いた解法を示す。まず、w,p(i=1,・・・,J/M−1)に対して、次式のS(w,p)を定義する。

Figure 0006538619
Focusing on that 単 純 [w i , w i−1 , p i , p i−1 ] depends only on w i , p i and w i−1 , p i−1 , equation (13) is simple It can be formulated as an optimization problem in the Markov process. The optimization problem is based on dynamic programming, and it is possible to find the optimal solution with polynomial order complexity. The following shows the solution method using dynamic programming. First, S i (w i , p i ) of the following equation is defined for w i and p i (i = 1,..., J / M−1).
Figure 0006538619

(w,p)は第iステージにおいて、pシフトさせたフィルタ係数wによりフレームを生成した状態に至る経路において最適なフィルタ係数ベクトルを用いた場合のコストの総和である。ここで、w,pを固定した場合、Ψ[w,wi−1,p,pi−1]がwi−1,pi−1のみに依存することに着目すると、
(w,p) は次式のような漸化式として表せる。

Figure 0006538619
S i (w i, p i) in the i-th stage, the cost of the total in the case of using the optimum filter coefficient vector in the path leading to the state that generated the frame by p i shifted filter coefficient w i was. Here, when w i and p i are fixed, focusing attention on the fact that Ψ [w i , w i−1 , p i , p i−1 ] depends only on w i−1 and p i−1 ,
S i (w i , p i ) can be expressed as a recurrence equation as follows.
Figure 0006538619

なお、Si−1(wi−1,pi−1)は、同様の漸化式を用いて算出済みであり、S(w,p)の算出時には参照可能な値としてレジスタに格納済みとする。この場合、式(15) の漸化関係より、S(w,p)の算出には、Ψ[w,wi−1,p,pi−1]+Si−1(wi−1,pi−1)を最小化する辞書Γの候補ベクトル、シフト量pを選択すれば十分である。wに対する候補ベクトルのインデックスnとすると、各nに対して、式(15)の最小値を与える候補ベクトルのインデックスを^ni−1(n,p)として格納し、同様に、シフト量を^pi−1(n,p)として格納し、後段の処理において参照可能にしておく。 Note that S i-1 (w i -1 , p i -1 ) has already been calculated using the same recurrence equation, and can be referred to as a referenceable value when calculating S i (w i , p i ) It has been stored in. In this case, from a recurrence relationship of equation (15), S i (w i, p i) For the calculation of, Ψ [w i, w i -1, p i, p i-1] + S i-1 ( It is sufficient to select the candidate vector of the dictionary Γ N and the shift amount p i which minimize w i -1 and p i -1 ). When the index n i of the candidate vectors for w i, and stores for each n i, wherein the index of the candidate vector giving the minimum value of (15) ^ n i-1 (n i, p i) as similar The shift amount is stored as ^ p i-1 (n i , p i ), and can be referred to in the subsequent processing.

式(15)の漸化式を再帰的に用いることで、式(13)の最小化問題は次式のように表せる。

Figure 0006538619
このように、式(15)の漸化式を用いる方法であれば、式(13)の最適解(w ,・・・,w J/M−1,p ,・・・,p J/M−1)は、(NP)J/M通りの中から最適解を探索する問題に帰着でき、多項式オーダの計算量で算出することが可能である。 By recursively using the recurrence equation of equation (15), the minimization problem of equation (13) can be expressed as the following equation.
Figure 0006538619
Thus, if it is a method using the recurrence formula of Formula (15), the optimal solution (w * 0 , ..., w * J / M-1 , p * 0 , ...) of Formula (13) , P * J / M-1 ) can be reduced to the problem of searching for an optimal solution among the (NP) 2 J / M ways, and can be calculated with the amount of computation in polynomial order.

ΣJ/M−1 i=1Ψ[w,wi−1,p,pi−1]の最小値を求めた後、最適解(w ,・・・,w J/M−1,p ,・・・,p J/M−1)は以下のバックトラック過程により得られる。式(17)を最小化するwJ/M−1,pJ/M−1を次式の通り、w J/M−1,p J/M−1とおく。

Figure 0006538619
Σ J / M-1 i = 1 Ψ [w i, w i-1, p i, p i-1] After obtaining the minimum value of, optimal solution (w * 0, ···, w * J / M-1 , p * 0 , ..., p * J / M-1 ) are obtained by the following backtracking process. Following equation w J / M-1, p J / M-1 that minimizes the equation (17), put the w * J / M-1, p * J / M-1.
Figure 0006538619

J/M−1を表す候補ベクトルのインデックスをnJ/M−1とする。第J/M−1フレームの候補ベクトルのインデックスをnJ/M−1、シフト量をpJ/M−1とした場合の第J/M−2 フレームに対する最適な候補ベクトルのインデックス、および同フレームに対するシフト量は^nJ/M−2(nJ/M−1,pJ/M−1),^pJ/M−2(nJ/M−1,pJ/M−1)として格納されている。 The index of the candidate vector representing w * J / M-1 is nJ / M-1 . The index of the candidate vector optimum for the J / M-2 frame when the index of the candidate vector of the J / M-1 frame is n J / M-1 and the shift amount is p J / M-1 , and the index The shift amount for the frame is ^ n J / M-2 (n J / M-1 , p J / M-1 ), ^ p J / M-2 (n J / M-1 , p J / M-1 ) As stored.

そこで、第J/M−2フレームのフィルタ係数ベクトルをw J/M−2=γ^nJ/M−2(nJ/M−1,pJ/M−1),p J/M−2=^pJ/M−2(nJ/M−1,pJ/M−1)として同定する。以下、同様の参照処理をw J/M−3=γ^nJ/M−3(nJ/M−2,pJ/M−2),p J/M−3=^pJ/M−3(nJ/M−2,pJ/M−2),・・・,w =γ^n(n,p),p =^p(n,p)として繰り返す。 Therefore, the filter coefficient vector of the J / M-2 frame is represented by w * J / M-2 = γ ^ n J / M-2 (nJ / M-1 , pJ / M-1 ), p * J / M-2 = ^ pJ / M-2 (nJ / M-1 , pJ / M-1 ). Hereinafter, the same reference processing is performed as w * J / M-3 = γ ^ n J / M-3 (nJ / M-2 , pJ / M-2 ), p * J / M-3 = ^ p J / M-3 (n J / M-2 , p J / M-2 ), ..., w * 0 = γ ^ n 0 (n 1 , p 1 ), p * 0 = ^ p 0 (n 1 , P 1 ) and repeat.

[フィルタ係数の辞書の更新]
フィルタ係数の辞書は、以下の反復処理により、収束条件を満たすまで更新し、辞書内の候補ベクトルを構成する。[フィルタ係数の最適化]のアルゴリズムにより、与えられた辞書を用いてフィルタ係数の最適解を求める。求められた最適解W (i=0,・・・,J/M−1)に対して、辞書内の候補ベクトルのヒストグラムh[n](n=0,・・・,N−1)を算出する。ここで、h[n](n=0,・・・,N−1)は、辞書内の候補ベクトルγが最適解として選択された度数を格納するものとする。
Filter Dictionary Dictionary Update
The filter coefficient dictionary is updated until convergence conditions are satisfied by the following iterative processing, and candidate vectors in the dictionary are constructed. According to the [filter coefficient optimization] algorithm, an optimal solution of filter coefficients is determined using a given dictionary. A histogram h [n] (n = 0,..., N-1) of candidate vectors in the dictionary with respect to the determined optimal solution W * i (i = 0,..., J / M-1) Calculate). Here, h [n] (n = 0, ..., N-1) stores the frequency with which the candidate vector γ n in the dictionary is selected as the optimum solution.

上記の辞書内の候補ベクトルの度数に基づき、以下の方針で辞書の更新を行う。最適解として選択された度数の低い候補ベクトルが辞書内に存在する場合、辞書から削除する。具体的には、h[n]≦θを満たす候補ベクトルは、辞書から削除する。ここで、θは、外部から与えられる閾値である。 Based on the frequencies of candidate vectors in the above dictionary, the dictionary is updated according to the following policy. If a low frequency candidate vector selected as the optimal solution exists in the dictionary, it is deleted from the dictionary. Specifically, candidate vectors satisfying h [n] ≦ θ 1 are deleted from the dictionary. Here, θ 1 is a threshold given from the outside.

最適解として選択された度数の高いの候補ベクトルが辞書内に存在する場合は、同候補ベクトルに修正を加えたフィルタ係数ベクトルを辞書に追加する。具体的には、h[n]≧θを満たす候補ベクトルに対して、ここで、θは、外部から与えられる閾値である。候補ベクトルの修正は以下の通りである。 If a high frequency candidate vector selected as the optimal solution exists in the dictionary, a filter coefficient vector obtained by modifying the candidate vector is added to the dictionary. Specifically, for a candidate vector that satisfies h [n] ≧ θ u , θ u is a threshold given from the outside. The correction of candidate vectors is as follows.

[候補ベクトルの修正方法1]
候補ベクトルγnの要素γn[j](j=−Δ,・・・,Δ−1)における最大値を同定する。

Figure 0006538619
[Method 1 for correcting candidate vectors]
The maximum value in the element γ n [j] (j = −Δ,..., Δ−1) of the candidate vector γ n is identified.
Figure 0006538619

γ[^j]をαγ[^j]へ修正する。ここで、α<1のパラメータとして設定される。さらに、^j=−Δ+1,・・・,Δ−2の場合、γn[^j+1]をγn[^j+1]+α/2γn[^j]に修正し、γn[^j−1]をγn[^j−1]+α/2γn[^j]に修正する。^j=Δ−1の場合、γn[^j−1]+αγn[^j] に修正する。^j=−Δの場合、γn[^j+1]+αγn[^j]に修正する。 To correct the γ n [^ j] to αγ n [^ j]. Here, it is set as a parameter of α <1. Furthermore, in the case of j j =-DELTA +1, ..., DELTA-2, γ n [j j +1] is corrected to n n [j j +1] + / 2/2 n n [j j], and γ n [j j -1] is γ n [ It is corrected to ^ j -1] + α / 2 γ n [^ j]. In the case of ^ j = Δ -1, it is corrected to γ n [^ j -1] + α γ n [^ j]. In the case of ^ j =-Δ, it is corrected to γ n [^ j + 1] + α γ n [^ j].

上述の候補ベクトルに対する削除、修正、追加を施して、辞書内の候補ベクトルを更新する。更新後の辞書を用いて、[フィルタ係数の最適化] のアルゴリズムに基づき、最適なフィルタ係数、および同フィルタ係数を用いた場合の発生符号量を求める。   The candidate vectors in the dictionary are updated by performing deletion, correction, and addition on the above-mentioned candidate vectors. Using the updated dictionary, the optimum filter coefficient and the generated code amount when using the same filter coefficient are determined based on the [filter coefficient optimization] algorithm.

辞書の更新前後を比較して、最適なフィルタ係数を用いた場合の発生符号量の差が十分小さくなった(所与の閾値以下)時点で、更新を終了する。なお、辞書内の候補ベクトルの本数が、予め定めた上限を超える場合、候補ベクトルの追加は中止し、更新処理を終了する。   Before and after the update of the dictionary, the update is ended when the difference between the generated code amounts when the optimum filter coefficient is used becomes sufficiently small (less than a given threshold). If the number of candidate vectors in the dictionary exceeds a predetermined upper limit, the addition of candidate vectors is discontinued, and the updating process is ended.

次に、フレームレートダウンサンプリング処理の動作について説明する。以下の説明における左端の数字は、処理のステップを識別するステップ番号である。「for」は、後に続く条件を満たしている間繰り返し処理を行うことを意味する。
1. 撮影された映像信号、そのフレーム数J、およびそのフレームレートを読み込む
2. ダウンサンプリング比Mを読み込む
3. for i=1,・・・,J/M−1
4. for W=Ψ,・・・,ΨN−1
5. for p=0,・・・,P−1
6. for Wi−1=Ψ,・・・,ΨN−1
7. for pi−1=0,・・・,P−1
8. 参照フレームを ̄f(x−d[k],(i−1)Mδt,Wi−1, pi−1)とする場合の ̄f(x,iMδt,Wi,pi)( ̄は後に続く文字の上に付く、以下同様)に対する動き補償予測誤差を最小化する動きベクトルを求める。動きベクトルの求め方は、外部から与えられる。例えば、探索範囲内の候補をしらみつぶしにあたる全探索法が適用できる。同動きベクトルを用いた場合の動き補償予測誤差をσ [W,Wi−1,p,pi−1]に格納する。
9. σ [W,Wi−1,p,pi−1]+Si−1(Wi−1,pi−1)の値を算出する。(i=1の場合は、σ [W,W,p,p]の値を算出する。)
10. σ [W,Wi−1,p,pi−1]+Si−1(Wi−1,pi−1)(Wi−1=Ψ,・・・,ΨN−1,pi−1=0,・・・,P−1)の中での最小値をS(W,p)に格納する。(i=1の場合は、σ [W,W,p,p](W = Ψ,・・・,ΨN−1,p=0・・・,P−1)の中での最小値をS(W,p)に格納する。)
11. S(W,p)を与えるWi−1,pi−1を^Wi−1(W,p),^pi−1(W,p)に格納する。
12. SJ/M−1(WJ/M−1,pJ/M−1)を最小化するWJ/M−1,pJ/M−1をW J/M−1,p J/M−1に格納する。
13. for i=J/M−2,・・・,1
14. W i−1=^Wi−1(W,p)を読み出す。
15. p i−1=^pi−1(W,p)を読み出す。
16. ダウンサンプリング後の第iフレームとして、 ̄f(x,iMδ,W ,p )(x=0,・・・,X−1)を格納する。
Next, the operation of the frame rate downsampling process will be described. The leftmost numeral in the following description is a step number for identifying the process step. "For" means performing iterative processing while satisfying the following conditions.
1. 1. Read the captured video signal, its frame number J, and its frame rate Read downsampling ratio M3. for i = 1, ..., J / M-1
4. for W i = Ψ 0 , ..., Ψ N-1
5. for p i = 0, ..., P-1
6. for W i-1 = Ψ 0 , ..., Ψ N-1
7. for p i-1 = 0, ..., P-1
8. If the reference frame is f (x-d i [k], (i-1) M δt, W i-1 , p i-1 ) f (x, i M δt, Wi, pi) ( Find a motion vector that minimizes motion compensated prediction errors for subsequent characters, and so on. The way of obtaining the motion vector is given from the outside. For example, a full search method can be applied which categorizes candidates within the search range. A motion compensation prediction error when using the same motion vector is stored in σ 2 i [W i , W i−1 , p i , p i−1 ].
9. The value of σ 2 i [W i , W i-1 , p i , p i-1 ] + S i-1 (W i-1 , p i-1 ) is calculated. (If i = 1, the value of σ 2 i [W 1 , W 0 , p 1 , p 0 ] is calculated.)
10. σ 2 i [W i , W i-1 , p i , p i-1 ] + S i-1 (W i-1 , p i-1 ) (W i-1 = Ψ 0 ,..., Ψ N The minimum value among -1 , p i-1 = 0, ..., P-1) is stored in S i (W i , p i ). (If i = 1, then σ 2 1 [W 1 , W 0 , p 1 , p 0 ] (W 0 = 0 0 ,..., Ψ N−1 , p 0 = 0..., P− The minimum value in 1 ) is stored in S 1 (W 1 , p 1 ).)
11. S i (W i , p i ) is given W i-1 and p i-1 are stored in ^ W i-1 (W i , p i ) and ^ p i-1 (W i , p i ).
12. S J / M-1 (W J / M-1, p J / M-1) W J / M-1 to minimize, p J / M-1 to W * J / M-1, p * J / M-1 is stored.
13. for i = J / M-2, ..., 1
14. W * i-1 = ^ Wi-1 ( Wi , pi ) is read.
15. Read p * i-1 = ^ pi-1 ( Wi , pi ).
16. As the i-th frame after the down-sampling, storing ¯f (x, iMδ t, W * i, p i) (x = 0, ···, X-1) a.

図1は同実施形態の映像フィルタリング装置の構成を示すブロック図である。この図において、符号1は、原画像を記憶する原画像記憶部である。符号2は、辞書を記憶する辞書記憶部である。符号3は、符号化画像を生成する符号化画像生成部である。符号4は、生成された画像を記憶する生成画像記憶部である。符号5は、参照画像を選択する参照画像選択部である。符号6は、画像の符号化を行う符号化処理部である。符号7は、主観歪量を算出する主観歪量算出部である。   FIG. 1 is a block diagram showing the configuration of the video filtering device of the embodiment. In the figure, reference numeral 1 denotes an original image storage unit which stores an original image. Reference numeral 2 is a dictionary storage unit that stores a dictionary. The code | symbol 3 is a coding image generation part which produces | generates a coding image. The code | symbol 4 is a produced | generated image storage part which memorize | stores the produced | generated image. Reference numeral 5 is a reference image selection unit that selects a reference image. The code | symbol 6 is an encoding process part which encodes an image. Reference numeral 7 denotes a subjective distortion amount calculation unit that calculates the subjective distortion amount.

符号8は、重み係数を算出する重み係数算出部である。符号9は、最適累積コストを算出する最適累積コスト算出部である。符号10は、算出した累積コストを記憶する累積コスト記憶部である。符号11は、フィルタ係数インデックスを記憶するフィルタ係数インデックス記憶部である。符号12は、最終レベルの判定を行う最終レベル判定部である。符号13は、フィルタ係数を更新するフィルタ係数更新部である。符号14は、フィルタ係数の更新を行うか否かを判定するフィルタ係数更新判定部である。符号15は、収束の判定を行う収束判定部である。符号16は、フィルタ処理を行うフィルタ処理部である。   Reference numeral 8 is a weighting factor calculation unit that calculates weighting factors. The code | symbol 9 is an optimal cumulative cost calculation part which calculates an optimal cumulative cost. Reference numeral 10 is a cumulative cost storage unit that stores the calculated cumulative cost. Reference numeral 11 denotes a filter coefficient index storage unit that stores a filter coefficient index. Reference numeral 12 denotes a final level determination unit that performs determination of the final level. Reference numeral 13 denotes a filter coefficient updating unit that updates filter coefficients. Reference numeral 14 denotes a filter coefficient update determining unit that determines whether to update the filter coefficient. The code | symbol 15 is a convergence determination part which determines convergence. The code | symbol 16 is a filter process part which performs a filter process.

次に、図1に示す映像フィルタリング装置の動作を説明する。図2は、図1に示す映像フィルタリング装置の動作を示すフローチャートである。まず、映像フィルタリング装置は外部からフィルタリング対象となる映像データと、フィルタリング後のフレームレートを決定するパラメータMを読み込む(ステップS1)。   Next, the operation of the video filtering apparatus shown in FIG. 1 will be described. FIG. 2 is a flowchart showing the operation of the video filtering device shown in FIG. First, the video filtering apparatus externally reads video data to be filtered and a parameter M for determining a frame rate after filtering (step S1).

次に、フィルタ係数更新部12は、フィルタリングに用いるフィルタ係数の辞書を読み込む(ステップS2)。続いて、映像フィルタリング装置は、フィルタリング対象となる映像データ、フィルタリング後のフレームレートを決定するパラメータM、フィルタ係数の辞書を入力として読み込み、符号化フレーム毎に最適なフィルタ係数を算出する(ステップS3)。ステップS3の具体的な処理は、後述する。   Next, the filter coefficient update unit 12 reads a dictionary of filter coefficients used for filtering (step S2). Subsequently, the video filtering apparatus reads video data to be filtered, a parameter M for determining a frame rate after filtering, and a dictionary of filter coefficients as input, and calculates an optimal filter coefficient for each coding frame (step S3). ). The specific process of step S3 will be described later.

次に、フィルタ係数更新部12は、フィルタリング対象となる映像データ、フィルタリング後のフレームレートを決定するパラメータM、フィルタ係数の辞書を入力として読み込み、辞書内の候補ベクトルを更新する(ステップS4)。   Next, the filter coefficient updating unit 12 reads as input the video data to be filtered, the parameter M for determining the frame rate after filtering, and the filter coefficient dictionary, and updates the candidate vectors in the dictionary (step S4).

次に、映像フィルタリング装置は、更新されたフィルタ係数が無いか否かを判定する(ステップS5)。ステップS4の処理の結果、辞書内に更新された候補ベクトルが無い場合、ステップS7の処理に移り、それ以外の場合、ステップS6の処理に移る。   Next, the video filtering device determines whether there is no updated filter coefficient (step S5). As a result of the process of step S4, when there is no updated candidate vector in the dictionary, the process proceeds to the process of step S7, and in other cases, the process proceeds to the process of step S6.

次に、フィルタ係数更新判定部13は、更新前後の辞書を用いた発生符号量の低減率が閾値未満か否かを判定し(ステップS6)、

Figure 0006538619
となる場合、ステップS7の処理に移り、それ以外の場合、ステップS8の処理に移る。 Next, the filter coefficient update determination unit 13 determines whether the reduction rate of the generated code amount using the dictionary before and after the update is less than a threshold (step S6).
Figure 0006538619
When it becomes, it moves to the process of step S7, and in other cases, it moves to the process of step S8.

次に、フィルタ処理部15は、フィルタリング対象となる映像データ、フィルタリング後のフレームレートを決定するパラメータM、フィルタ係数の辞書を入力として読み込み、辞書内のフィルタ係数を用いて、パラメータMで指定されたフレームレートとなるよう映像データを時間方向にフィルタリングし、フィルタリング後の映像データを出力する(ステップS7)。   Next, the filter processing unit 15 reads video data to be filtered, a parameter M for determining a frame rate after filtering, and a dictionary of filter coefficients as an input, and designates with parameter M using filter coefficients in the dictionary. The video data is filtered in the time direction so that the frame rate is reached, and the filtered video data is output (step S7).

一方、発生符号量の低減率が閾値未満でない場合、辞書記憶部2は、更新されたフィルタ係数を含む候補ベクトルを読み込み、辞書に追加し、更新した辞書を出力し(ステップS8)、ステップS2へ戻って処理を繰り返す。   On the other hand, when the reduction rate of the generated code amount is not less than the threshold, the dictionary storage unit 2 reads the candidate vector including the updated filter coefficient, adds it to the dictionary, and outputs the updated dictionary (step S8), step S2 Return to and repeat the process.

次に、図3を参照して、図2に示すステップS3の詳細な動作を説明する。図3は、図2に示すステップS3の詳細な動作を示すフローチャートである。まず、映像フィルタリング装置は、フィルタリング対象となる映像データ、フィルタリング後のフレームレートを決定するパラメータM、フィルタ係数の辞書を読み込む(ステップS11)。   Next, the detailed operation of step S3 shown in FIG. 2 will be described with reference to FIG. FIG. 3 is a flowchart showing the detailed operation of step S3 shown in FIG. First, the video filtering apparatus reads a dictionary of video data to be filtered, a parameter M for determining a frame rate after filtering, and a filter coefficient (step S11).

次に、映像フィルタリング装置は、ステップS12〜S28までの処理を符号化対象フレームを示すインデックスi=0,・・・,J/M−1に対して繰り返す(ステップS12)。続いて、映像フィルタリング装置は、ステップS13〜S27までの処理を符号化対象フレームのフィルタ係数w∈Γに対して繰り返す(ステップS13)。 Next, the video filtering apparatus repeats the processing of steps S12 to S28 for the index i = 0,..., J / M-1 indicating the encoding target frame (step S12). Subsequently, the video filtering device repeats the process of steps S13 to S27 with respect to the filter coefficient w i ∈Γ N of the encoding target frame (step S13).

次に、映像フィルタリング装置は、入力映像データを読み込み、フィルタ係数wを用いて、時間フィルタリング処理を行い、符号化対象フレームを生成する(ステップS14)。そして、映像フィルタリング装置は、ステップS15〜S26までの処理を参照フレームのフィルタ係数wi−1∈Γに対して繰り返す(ステップS15)。 Next, the video filtering apparatus reads input video data, performs temporal filtering processing using the filter coefficient w i , and generates a frame to be encoded (step S14). Then, the video filtering device repeats the processing of steps S15 to S26 with respect to the filter coefficient w i-1 ∈Γ N of the reference frame (step S15).

次に、フィルタ係数wi−1を用いた場合の第i−1ステージにおける累積コストS(bswi−1)を読み込む(ステップS16)。続いて、参照画像選択5は、フィルタ係数wi−1を用いて生成した第i−1ステージでの符号化対象フレームを第iステージでの参照フレームとして読み込む(ステップS17)。 Next, the accumulated cost S i (bswi -1 ) in the i-th-1 stage when the filter coefficient wi -1 is used is read (step S16). Subsequently, the reference image selection 5 reads the encoding target frame at the (i-1) -th stage generated using the filter coefficient w i-1 as a reference frame at the i-th stage (step S17).

次に、映像フィルタリング装置は、第iステージの原フレームf(x,(iM+k)δt)(k=0,・・・,M−1)を読み込む(ステップS18)。   Next, the video filtering apparatus reads an original frame f (x, (iM + k) δt) (k = 0,..., M−1) of the ith stage (step S18).

次に、符号化処理部6は、ステップS14で生成した符号化対象フレーム、ステップS17で読み込んだ参照フレームを入力として読込み、符号化処理を行い、発生符号量Ψ[w,wi−1]を算出する(ステップS19)。 Next, the encoding processing unit 6 reads the encoding target frame generated in step S14 and the reference frame read in step S17 as inputs, performs encoding processing, and generates the generated code amount Ψ [w i , w i -1. ] Is calculated (step S19).

次に、主観歪量算出部7は、第iステージ内の原フレームに対する符号化対象フレームの乖離量を算出する(ステップS20)。詳細は、後述する。続いて、重み係数算出部8は、ステップS20で算出する乖離量に対する重み係数を算出する(ステップS21)。詳細は、後述する。   Next, the subjective distortion amount calculation unit 7 calculates the deviation amount of the encoding target frame with respect to the original frame in the i-th stage (step S20). Details will be described later. Subsequently, the weighting factor calculation unit 8 calculates a weighting factor for the amount of divergence calculated in step S20 (step S21). Details will be described later.

次に、最適累積コスト算出部9は、参照フレームのフィルタ係数を数wi−1とし、符号化対象フレームのフィルタ係数を数wとした場合の第iステージにおける累積コストをΨ[w,wi−1]+Si−1(wi−1)として算出する(ステップS22)。 Next, the optimum cumulative cost calculation unit 9 sets the filter coefficient of the reference frame to the number w i−1, and sets the filter coefficient of the encoding target frame to the number w i as 累積 [w i , W i-1 ] + S i-1 (w i-1 ) (step S22).

次に、最適累積コスト算出部9は、算出した累積コストとS(w)の暫定値を比較して、前者が後者よりも小さい場合、ステップS24の処理に移り、そうでない場合、ステップS26の処理に移る(ステップS23)。 Next, the optimal accumulated cost calculation unit 9 compares the calculated accumulated cost with the provisional value of S i (w i ), and if the former is smaller than the latter, it proceeds to the process of step S24; otherwise, it proceeds to step The process proceeds to the process of S26 (step S23).

次に、最適累積コスト算出部9は、S(w)の暫定値を先に算出した累積コストにて更新する。ステップS23、S24の処理は、式(15)を実現するための処理である(ステップS24)。そして、フィルタ係数インデックス記憶部11は、フィルタ係数をwとした場合に、第iステージの累積コストの暫定最小値を与える参照フレームのフィルタ係数の候補ベクトルのインデックスを記憶する(ステップS25)。 Next, the optimal accumulated cost calculation unit 9 updates the provisional value of S i (w i ) with the previously calculated accumulated cost. The processes of steps S23 and S24 are processes for realizing equation (15) (step S24). Then, when the filter coefficient is w i , the filter coefficient index storage unit 11 stores the index of the candidate vector of the filter coefficient of the reference frame giving the temporary minimum value of the accumulated cost of the i-th stage (step S25).

次に、重み係数算出部8は、第J/M−1ステージにおける累積コストを最小化するフィルタ係数として、式(17)に示すw J/M−1を算出する(ステップS29)。 Next, the weighting factor calculation unit 8 calculates w * J / M-1 shown in Expression (17) as a filter factor that minimizes the accumulated cost in the J / M-1 stage (step S29).

次に、映像フィルタリング装置は、ステップS31の処理を符号化対象フレームを示すインデックスi=J/M−2,・・・,1に対して繰り返す(ステップS30)。   Next, the video filtering apparatus repeats the process of step S31 with respect to the index i = J / M-2,..., 1 indicating the encoding target frame (step S30).

次に、w を表す候補ベクトルのインデックスをnとすると、第iフレームの候補ベクトルのインデックスをnとした場合の第i−1フレームに対する最適な候補ベクトルのインデックスは^ni−1(n)として格納されている。そこで、最適累積コスト算出部8は、フィルタ係数をw を表す候補ベクトルのとした場合に、第iステージの最小累積コストを与える参照フレームのフィルタ係数(第i−1フレームのフィルタ係数)をw i−1=γ^ni−1(n)として同定する(ステップS31)。 Next, when the index of the candidate vector representing the w * i and n i, the index of the optimal candidate vector for the i-1 frame when the index of the candidate vectors of the i-th frame and the n i is ^ n i- It is stored as 1 (n i ). Therefore, when the filter coefficient is a candidate vector representing w * i , the optimum accumulated cost calculation unit 8 calculates the filter coefficient of the reference frame that gives the minimum accumulated cost of the i-th stage (filter coefficient of the (i-1) th frame) the identified as w * i-1 = γ ^ n i-1 (n i) ( step S31).

次に、図4を参照して、図3に示すステップS20の詳細な動作を説明する。図4は、図3に示すステップS20の詳細な動作を示すフローチャートである。まず、主観歪量算出部7は、第iステージの符号化対象フレーム^f(x,iMδ,w,p)を読み出す(ステップS41)。そして、主観歪量算出部7は、ステップS42〜S46までの処理を原フレームを指定するインデックスk=0,・・・,M−1に対して繰り返す(ステップS42)。 Next, with reference to FIG. 4, the detailed operation of step S20 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the detailed operation of step S20 shown in FIG. First, the subjective distortion amount calculation unit 7 reads out the encoding target frame f (x, iMδ t , w i , p i ) of the i-th stage (step S 41). Then, the subjective distortion amount calculation unit 7 repeats the processing of steps S42 to S46 with respect to the index k = 0,..., M-1 specifying the original frame (step S42).

次に、主観歪量算出部7は、第iステージ内の第k番目の原フレームf(x,(iM+k)δ)を読み出す(ステップS43)。続いて、主観歪量算出部7は、符号化対象フレームと原フレームとの乖離量として、以下の二乗誤差を算出する(ステップS44)。

Figure 0006538619
Next, the subjective distortion amount calculation unit 7 reads the k-th original frame f (x, (iM + k) δ t ) in the i-th stage (step S43). Subsequently, the subjective distortion amount calculation unit 7 calculates the following square error as the deviation amount between the encoding target frame and the original frame (step S44).
Figure 0006538619

次に、主観歪量算出部7は、符号化対象フレームとステージ内の原フレームとの乖離量の累積和を算出する(ステップS45)。
S=S+sk
ステップS42の繰返し処理の最終ステップにおいて、式(6)の値が求まる。
Next, the subjective distortion amount calculation unit 7 calculates a cumulative sum of deviation amounts between the encoding target frame and the original frame in the stage (step S45).
S = S + sk
In the final step of the iterative process of step S42, the value of equation (6) is obtained.

次に、図5を参照して、図3に示すステップS21の詳細な動作を説明する。図5は、図3に示すステップS21の詳細な動作を示すフローチャートである。まず、主観歪量算出部7は、第iステージの符号化対象フレーム^f(x,iMδ,w,p)を読み出す(ステップS51)。続いて、主観歪量算出部7は、第iステージの参照フレーム(FE2−07で読込)による予測フレーム^f(x−d[k],(i−1)Mδ,wi−1,pi−1)を読み出す(ステップS52)。 Next, with reference to FIG. 5, the detailed operation of step S21 shown in FIG. 3 will be described. FIG. 5 is a flowchart showing the detailed operation of step S21 shown in FIG. First, the subjective distortion amount calculation unit 7 reads out the encoding target frame f (x, iMδ t , w i , p i ) of the i-th stage (step S 51). Subsequently, the subjective distortion amount calculation unit 7 calculates a prediction frame f (x−d i [k], (i−1) M δ t , w i−1 by the reference frame of the i-th stage (read by FE2-07). , P i−1 ) (step S52).

次に、主観歪量算出部7は、符号化対象フレームと予測フレームとの差分和を算出する(ステップS53)。

Figure 0006538619
Next, the subjective distortion amount calculation unit 7 calculates the sum of differences between the encoding target frame and the prediction frame (step S53).
Figure 0006538619

次に、主観歪量算出部7は、ステップS54〜S58までの処理を原フレームを指定するインデックスk=0,・・・,M−1に対して繰り返す(ステップS54)。そして、主観歪量算出部7は、第iステージ内の第k 番目の原フレームf(x,(iM+k)δt) を読み出す(ステップS55)。主観歪量算出部7は、符号化対象フレームと原フレームとの差分和として、以下を算出する(ステップS56)。

Figure 0006538619
Next, the subjective distortion amount calculation unit 7 repeats the processing of steps S54 to S58 with respect to the index k = 0,..., M-1 specifying the original frame (step S54). Then, the subjective distortion amount calculation unit 7 reads the k-th original frame f (x, (iM + k) δt) in the i-th stage (step S55). The subjective distortion amount calculation unit 7 calculates the following as the sum of differences between the encoding target frame and the original frame (step S56).
Figure 0006538619

次に、主観歪量算出部7は、符号化対象フレームとステージ内の原フレームとの差分和の累積値を算出する(ステップS57)。
S=S+sk
ステップS54の繰返し処理の最終ステップにおいて、次式の値が求まる。

Figure 0006538619
Next, the subjective distortion amount calculation unit 7 calculates an accumulated value of the sum of differences between the encoding target frame and the original frame in the stage (step S57).
S = S + sk
In the final step of the iterative process of step S54, the value of the following equation is obtained.
Figure 0006538619

次に、主観歪量算出部7は、制御係数αを読み込む(ステップS59)。そして、主観歪量算出部7は、制御係数Rα、ステップS57で求めた値、ステップS53で求めた値を読み込み、制御係数RαとステップS57で求めた値を乗じ、さらに、ステップS53で求めた値で除算した結果を出力する(ステップS60)。この出力は、式(12)の値である。   Next, the subjective distortion amount calculation unit 7 reads the control coefficient α (step S59). Then, the subjective distortion amount calculation unit 7 reads the control coefficient Rα, the value obtained in step S57, and the value obtained in step S53, multiplies the control coefficient Rα by the value obtained in step S57, and further obtains it in step S53. The result divided by the value is output (step S60). This output is the value of equation (12).

以上説明したように、高密度にサンプルされた高フレームレート映像信号に対して、時間フィルタにより得られる低フレームレート映像信号を入力とする映像符号化処理において、同低フレームレート映像信号の全フレームの符号化効率を考慮した形で、低フレームレート映像信号を生成することができる。この構成によれば、係数ベクトルの辞書の動的更新を伴う時間フィルタリングにおいて、フィルタ係数の位置シフト量を適切に抑止可能となる共に、符号化効率の向上の観点から適切なフィルタ係数を映像に応じて設定可能となり、フィルタリング後の映像に対する主観画質の保持と発生符号量の低減が可能となる。   As described above, with respect to the high frame rate video signal sampled at high density, all the frames of the low frame rate video signal in the video encoding process using the low frame rate video signal obtained by the time filter as an input. The low frame rate video signal can be generated in consideration of the coding efficiency of According to this configuration, in time filtering involving dynamic updating of the coefficient vector dictionary, it is possible to appropriately suppress the position shift amount of the filter coefficient, and to convert the appropriate filter coefficient into an image from the viewpoint of improvement of coding efficiency. Accordingly, it becomes possible to set, and it becomes possible to maintain the subjective image quality of the image after filtering and to reduce the amount of generated code.

前述した実施形態における映像フィルタリング装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   All or part of the video filtering device in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer readable recording medium, and the program recorded in the recording medium may be read and executed by a computer system. Here, the “computer system” includes an OS and hardware such as peripheral devices. The term "computer-readable recording medium" refers to a storage medium such as a flexible disk, a magneto-optical disk, a ROM, a portable medium such as a ROM or a CD-ROM, or a hard disk built in a computer system. Furthermore, “computer-readable recording medium” dynamically holds a program for a short time, like a communication line in the case of transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include one that holds a program for a certain period of time, such as volatile memory in a computer system that becomes a server or a client in that case. Further, the program may be for realizing a part of the functions described above, or may be realized in combination with the program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   Although the embodiments of the present invention have been described above with reference to the drawings, it is apparent that the above embodiments are merely examples of the present invention, and the present invention is not limited to the above embodiments. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical spirit and scope of the present invention.

映像符号化処理における時間フィルタを用いて、低フレームレート映像信号を生成するフィルタリングを行うことが不可欠な用途にも適用できる。   The present invention can also be applied to applications where it is essential to perform filtering to generate a low frame rate video signal using a temporal filter in video coding processing.

1・・・原画像記憶部、2・・・辞書記憶部、3・・・符号化画像生成部、4・・・生成画像記憶部、5・・・参照画像選択部、6・・・符号化処理部、7・・・主観歪量算出部、8・・・重み係数算出部、9・・・最適累積コスト算出部、10・・・累積コスト記憶部、11・・・フィルタ係数インデックス記憶部、12・・・最終レベル判定部、13・・・フィルタ係数更新部、14・・・フィルタ係数更新判定部、15・・・収束判定部、16・・・フィルタ処理部   Reference Signs List 1: Original image storage unit 2: Dictionary storage unit 3: Coded image generation unit 4: Generated image storage unit 5. Reference image selection unit 6: Sign A processing unit 7, a subjective distortion amount calculation unit, a weighting coefficient calculation unit, an optimum cumulative cost calculation unit, a cumulative cost storage unit, and a filter coefficient index storage Unit 12, final level determination unit 13, filter coefficient update unit 14, filter coefficient update determination unit 15, convergence determination unit 16, filter processing unit

Claims (5)

入力された映像信号に対して、低フレームレート映像信号を生成するためのフレームレートのダウンサンプリング処理を行う映像フィルタリング装置が行う映像フィルタリング方法であって、
フィルタリング後の低フレームレート映像信号における符号化対象フレームの発生符号量を算出する符号量算出ステップと、
符号化対象フレームと、該符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの乖離度の加重和を算出する乖離度算出ステップと、
前記発生符号量と前記乖離度の加重和とに基づき、フィルタ係数集合の中から、前記乖離度の加重和を最小化するフィルタ係数の候補を選択し、前記フィルタ係数の候補の中から、全フレームに対して該乖離度の加重和の累積値を最小化するフィルタ係数を選択するフィルタ係数選択ステップと
を有する映像フィルタリング方法。
A video filtering method performed by a video filtering apparatus that performs frame rate downsampling processing to generate a low frame rate video signal with respect to an input video signal.
A code amount calculating step of calculating a generated code amount of a coding target frame in the low frame rate video signal after filtering;
A divergence degree calculating step of calculating a weighted sum of the degree of divergence between the encoding target frame and the frame in the video signal before filtering corresponding to the time sampling position of the encoding target frame;
Based on the generated code amount and the weighted sum of the degrees of divergence, candidate filter coefficients for minimizing the weighted sum of the degrees of divergence are selected from the set of filter coefficients, and all candidates for the filter coefficients are selected. A filter coefficient selection step of selecting a filter coefficient that minimizes an accumulated value of the weighted sum of the degree of deviation with respect to a frame.
前記乖離度算出ステップでは、前記乖離度の加重和を求める際に、
フィルタリング後の低フレームレート映像信号における符号化対象フレームと予測フレームの差分値、及び符号化対象フレームと符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの差分値の加重和に基づき、前記乖離度に乗じる重み係数を決定する請求項1に記載の映像フィルタリング方法。
In the deviation degree calculating step, when obtaining a weighted sum of the deviation degrees,
The difference value between the coding target frame and the prediction frame in the low frame rate video signal after filtering, and the difference value between the coding target frame and the frame in the video signal before filtering corresponding to the time sampling position of the coding target frame The video filtering method according to claim 1, wherein a weighting factor to be multiplied by the degree of divergence is determined based on a weighted sum.
前記乖離度をΦ[w,p]、wを第iフレームのフィルタ係数、pをフィルタ位置の補正パラメータ、Mを時間フィルタにより生成される映像のフレームレートを決定するパラメータ、δをフレーム間隔、xを画素位置、f()、^f()(^はfの上に付く)を画素値を得る関数としたとき、
Figure 0006538619
によって前記乖離度を算出する請求項1または2に記載の映像フィルタリング方法。
The deviation degree is [[w i , p i ], w i is the filter coefficient of the ith frame, p i is a correction parameter of the filter position, M is a parameter for determining the frame rate of the video generated by the time filter, δ Let t be a frame interval, x be a pixel position, f (), ^ f () (^ be on f) be a function to obtain pixel values,
Figure 0006538619
The video filtering method according to claim 1, wherein the divergence degree is calculated by
入力された映像信号に対して、低フレームレート映像信号を生成するためのフレームレートのダウンサンプリング処理を行う映像フィルタリング装置であって、
フィルタリング後の低フレームレート映像信号における符号化対象フレームの発生符号量を算出する符号量算出部と、
符号化対象フレームと、該符号化対象フレームの時間サンプリング位置に対応するフィルタリング前の映像信号内のフレームとの乖離度の加重和を算出する乖離度算出部と、
前記発生符号量と前記乖離度の加重和とに基づき、フィルタ係数集合の中から、前記乖離度の加重和を最小化するフィルタ係数の候補を選択し、前記フィルタ係数の候補の中から、全フレームに対して該乖離度の加重和の累積値を最小化するフィルタ係数を選択するフィルタ係数選択部と
を備える映像フィルタリング装置。
A video filtering device that performs frame rate downsampling processing for generating a low frame rate video signal on an input video signal, comprising:
A code amount calculation unit that calculates a generated code amount of a coding target frame in a low frame rate video signal after filtering;
A divergence degree calculation unit that calculates a weighted sum of the degree of divergence between the encoding target frame and the frame in the video signal before filtering that corresponds to the time sampling position of the encoding target frame;
Based on the generated code amount and the weighted sum of the degrees of divergence, candidate filter coefficients for minimizing the weighted sum of the degrees of divergence are selected from the set of filter coefficients, and all candidates for the filter coefficients are selected. And a filter coefficient selection unit that selects a filter coefficient that minimizes an accumulated value of the weighted sum of the degree of deviation with respect to a frame.
コンピュータに、請求項1から3のいずれか一項に記載の映像フィルタリング方法を実行させるための映像フィルタリングプログラム。   A video filtering program for causing a computer to execute the video filtering method according to any one of claims 1 to 3.
JP2016126988A 2016-06-27 2016-06-27 Video filtering method, video filtering apparatus and video filtering program Active JP6538619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126988A JP6538619B2 (en) 2016-06-27 2016-06-27 Video filtering method, video filtering apparatus and video filtering program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126988A JP6538619B2 (en) 2016-06-27 2016-06-27 Video filtering method, video filtering apparatus and video filtering program

Publications (2)

Publication Number Publication Date
JP2018006831A JP2018006831A (en) 2018-01-11
JP6538619B2 true JP6538619B2 (en) 2019-07-03

Family

ID=60949916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126988A Active JP6538619B2 (en) 2016-06-27 2016-06-27 Video filtering method, video filtering apparatus and video filtering program

Country Status (1)

Country Link
JP (1) JP6538619B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005074A (en) * 2018-06-26 2020-01-09 日本電信電話株式会社 Filter selection method, filter selection device and filter selection program
JP2020005081A (en) * 2018-06-27 2020-01-09 日本電信電話株式会社 Filter selection method, filter selection device and filter selection program
JP7181492B2 (en) * 2019-11-15 2022-12-01 日本電信電話株式会社 Decoding device, encoding device, decoding method, encoding method and program

Also Published As

Publication number Publication date
JP2018006831A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US6628711B1 (en) Method and apparatus for compensating for jitter in a digital video image
JP5144545B2 (en) Moving picture codec apparatus and method
US8184705B2 (en) Method and apparatus for motion compensated filtering of video signals
JP6538619B2 (en) Video filtering method, video filtering apparatus and video filtering program
JP2022530172A (en) Intercoding for adaptive resolution video coding
KR20070033345A (en) How to retrieve global motion vector
CN111526370A (en) Video encoding method, video decoding method, video encoding device, video decoding device and electronic equipment
JP5102174B2 (en) FRAME RATE CONVERSION METHOD, FRAME RATE CONVERSION DEVICE, FRAME RATE CONVERSION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP4557752B2 (en) Moving image processing apparatus, moving image processing method, and moving image processing program
JP6680633B2 (en) Video filtering method, video filtering device, and video filtering program
JP6611256B2 (en) Video filtering method, video filtering device, and video filtering program
JP5118087B2 (en) Frame rate conversion method, frame rate conversion device, and frame rate conversion program
US10666970B2 (en) Encoding apparatus, encoding method, and storage medium
JP5118005B2 (en) FRAME RATE CONVERSION METHOD, FRAME RATE CONVERSION DEVICE, FRAME RATE CONVERSION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP6595442B2 (en) Video filtering method, video filtering device, and computer program
JP2007201975A (en) Code amount estimating method, frame rate estimating method, code amount estimating apparatus, frame rate estimating apparatus, code amount estimating program, frame rate estimating program, and computer readable storage medium for storing program
JP2007306223A (en) Method and device for estimating coding amount, method and device for estimating frame rate, coding amount estimation program, frame rate estimation program, and computer-readable recording medium for recording the programs
WO2019150411A1 (en) Video encoding device, video encoding method, video decoding device, and video decoding method, and video encoding system
KR101500300B1 (en) Selective Low-Power Video Codec with Interaction Between Encoder and Decoder, and an Encoding/Decoding Method Thereof
JP5107879B2 (en) FRAME RATE CONVERSION METHOD, FRAME RATE CONVERSION DEVICE, FRAME RATE CONVERSION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JPH0262178A (en) Motion detection system for picture processor
WO2020003933A1 (en) Filter selection method, filter selection device, and filter selection program
JP4265482B2 (en) Image reproducing apparatus and image reproducing method
JP2018182435A (en) Motion vector prediction device and computer program
JP7181492B2 (en) Decoding device, encoding device, decoding method, encoding method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150