JP7291478B2 - Video encoding device and its program - Google Patents

Video encoding device and its program Download PDF

Info

Publication number
JP7291478B2
JP7291478B2 JP2018240512A JP2018240512A JP7291478B2 JP 7291478 B2 JP7291478 B2 JP 7291478B2 JP 2018240512 A JP2018240512 A JP 2018240512A JP 2018240512 A JP2018240512 A JP 2018240512A JP 7291478 B2 JP7291478 B2 JP 7291478B2
Authority
JP
Japan
Prior art keywords
intra
refresh
encoding
distortion
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018240512A
Other languages
Japanese (ja)
Other versions
JP2020102798A (en
Inventor
康孝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2018240512A priority Critical patent/JP7291478B2/en
Publication of JP2020102798A publication Critical patent/JP2020102798A/en
Application granted granted Critical
Publication of JP7291478B2 publication Critical patent/JP7291478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像符号化装置およびそのプログラムに関する。 The present invention relates to a video encoding device and its program.

従来から、動画像(映像)を放送波、通信回線等で伝送したり、記録媒体に保存したりするために、動画像を圧縮して符号化する動画像符号化方式の研究が行われている。
従来の動画像符号化方式としては、MPEG(Moving Picture Experts Group)-1、MPEG-2、MPEG-4、AVC(Advanced Video Coding)/ITU-T勧告H.264で規定されたAVC/H.264等がある。
また、現在最新の動画像符号化方式の国際標準化規格としては、HEVC(High Efficiency Video Coding)/ITU-T勧告H.265で規定されたHEVC/H.265がある(非特許文献1参照)。
また、次世代の国際標準化規格としては、JVET(Joint Video Exploration Team)で開発が進められているVVC(Versatile Video Coding)がある(非特許文献2参照)。
In order to transmit moving images (video) over broadcast waves, communication lines, etc., and to store them on recording media, research has been conducted on moving image coding methods that compress and encode moving images. there is
Conventional moving picture coding methods include MPEG (Moving Picture Experts Group)-1, MPEG-2, MPEG-4, AVC (Advanced Video Coding)/ITU-T Recommendation H.264. AVC/H.264 standard. 264, etc.
Also, as the latest international standardization of moving image coding, HEVC (High Efficiency Video Coding)/ITU-T Recommendation H.264. HEVC/H.265 standard. H.265 (see Non-Patent Document 1).
As a next-generation international standard, there is VVC (Versatile Video Coding), which is being developed by JVET (Joint Video Exploration Team) (see Non-Patent Document 2).

HEVC/H.265等の従来の動画像符号化方式では、動画像のフレーム間の時間的相関を利用したインター予測(フレーム間予測)と、フレーム内の空間的相関を利用したイントラ予測(フレーム内予測)とを適宜切り替えて予測画像を生成する。そして、従来の動画像符号化方式は、原画像と予測画像との差分を符号化することで、動画像の符号化データの圧縮を実現している。
インター予測を用いた場合、フレーム間の予測誤差が時間方向に伝播する。
この誤差の伝播を防止するため、従来の動画像符号化方式は、インター予測符号化された符号化データに、周期的にイントラ予測符号化されたフレームであるイントラフレームを挿入するイントラリフレッシュの手法を用いている。
HEVC/H. H.265 and other conventional video coding systems use inter prediction (inter-frame prediction) that uses temporal correlation between video frames and intra prediction (intra-frame prediction) that uses spatial correlation within a frame. are appropriately switched to generate a predicted image. In the conventional moving image encoding method, the encoded data of the moving image is compressed by encoding the difference between the original image and the predicted image.
When inter-prediction is used, prediction errors between frames propagate in the time direction.
In order to prevent this error from propagating, conventional video coding methods employ an intra-refresh technique in which intra-prediction-encoded frames are periodically inserted into inter-prediction-encoded coded data. is used.

なお、イントラリフレッシュは、必ずしも周期的に行われるものではない。例えば、受信装置(復号装置)から、送信装置(符号化装置)に通知される符号化データのパケット損失等のレポートを受信したタイミングで、送信装置がイントラリフレッシュを行う手法が開示されている(特許文献1参照)。 Note that intra refresh is not necessarily performed periodically. For example, a technique is disclosed in which the transmitting device performs intra-refresh at the timing of receiving a report such as packet loss of encoded data notified to the transmitting device (encoding device) from the receiving device (decoding device) ( See Patent Document 1).

特表2014-528200号公報Japanese translation of PCT publication No. 2014-528200

大久保榮[監修]、「H.265/HEVC教科書」、株式会社インプレスジャパン、2013年10月21日発行Sakae Okubo [Supervisor], "H.265/HEVC Textbook", Impress Japan Co., Ltd., October 21, 2013 “Versatile Video Coding (VVC)”[online],フラウンホーファー・ハインリッヒ・ヘルツ通信技術研究所,[平成30年11月21日検索]、インターネット<URL:https://jvet.hhi.fraunhofer.de>“Versatile Video Coding (VVC)” [online], Fraunhofer Heinrich Hertz Institute for Communication Technology, [searched November 21, 2018], Internet <URL: https://jvet.hhi.fraunhofer.de>

従来の動画像符号化方式は、イントラフレームを周期的に挿入することで、符号量を抑えつつ、誤差伝播の防止を行っている。
しかし、従来の動画像符号化方式では、イントラフレームを挿入する周期内で時間経過に伴う画像歪、例えば、水面の上から水底を撮影した動画像の水面の揺らぎによる歪等が大きくなった場合、符号化された画像の品質が低下してしまうという問題がある。また、この問題を回避するために、イントラフレームを多く挿入すれば、符号量が増大してしまうという問題がある。
In the conventional moving image coding method, intra frames are inserted periodically to prevent error propagation while suppressing the code amount.
However, in the conventional video encoding method, if the image distortion that accompanies the passage of time within the cycle of inserting the intra frame, for example, the distortion due to the fluctuation of the water surface in the video image of the bottom of the water taken from above the water surface, , the quality of the encoded image is degraded. Moreover, if many intra frames are inserted in order to avoid this problem, there is a problem that the code amount increases.

本発明は、このような問題に鑑みてなされたものであり、時間経過に伴う画像の歪が発生する動画像であっても、画像歪の蓄積量が大きくなる前にイントラリフレッシュを行うことで、画質の劣化を抑えて動画像を符号化することが可能な動画像符号化装置およびそのプログラムを提供することを課題とする。 The present invention has been made in view of such problems. It is an object of the present invention to provide a moving image encoding device and a program therefor capable of encoding a moving image while suppressing degradation of image quality.

前記課題を解決するため、本発明に係る動画像符号化装置は、動画像を符号化する動画像符号化装置であって、符号化手段と、イントラリフレッシュ制御手段と、を備え、イントラリフレッシュ制御手段は、オプティカルフロー推定手段と、歪量算出手段と、歪量累計手段と、リフレッシュ判定手段と、を備える構成とした。 In order to solve the above-mentioned problems, a video encoding device according to the present invention is a video encoding device for encoding a video, comprising encoding means and intra refresh control means, wherein intra refresh control is performed. The means includes optical flow estimation means, distortion amount calculation means, distortion amount accumulation means, and refresh determination means.

かかる構成において、動画像符号化装置は、オプティカルフロー推定手段によって、動画像のフレームごとに、勾配法を用いたオプティカルフロー推定により、フレーム間の特徴が類似する画素の動きベクトルをオプティカルフローとして推定する。オプティカルフロー推定手段は、勾配法を用いたオプティカルフロー推定を行うことで、勾配を含んだ特徴点によって、移動、回転、拡大・縮小等の変化がフレーム間で発生する場合でも、フレーム間の動きベクトルを精度よく検出することが可能になる。 In such a configuration, the moving image encoding device uses the optical flow estimation means to estimate motion vectors of pixels having similar features between frames as optical flows for each frame of the moving image by optical flow estimation using the gradient method. do. The optical flow estimating means performs optical flow estimation using the gradient method. Even if changes such as movement, rotation, enlargement/reduction occur between frames due to feature points containing gradients, motion between frames can be estimated. It becomes possible to detect vectors with high accuracy.

そして、動画像符号化装置は、歪量算出手段によって、オプティカルフロー推定手段で推定した動きベクトルの大きさおよび方向に基づいて、フレーム間の歪量を算出する。さらに、動画像符号化装置は、歪量累計手段によって、歪量をフレームごとに累計して累計歪量を算出する。 Then, the moving picture coding apparatus calculates the amount of distortion between frames based on the magnitude and direction of the motion vector estimated by the optical flow estimation means by the distortion amount calculation means. Furthermore, the moving image encoding apparatus calculates the accumulated distortion amount by accumulating the distortion amount for each frame by the distortion amount accumulating means.

そして、動画像符号化装置は、リフレッシュ判定手段によって、累計歪量が予め定めた閾値を超えた段階で、符号化手段にイントラリフレッシュを指示する制御信号を出力するとともに、累計歪量を初期化する。これによって、符号化手段は、イントラリフレッシュを行い、イントラフレームを挿入する。
なお、動画像符号化装置は、コンピュータを、前記した手段として機能させるための動画像符号化プログラムで動作させることができる。
Then, when the cumulative amount of distortion exceeds a predetermined threshold value, the moving picture encoding apparatus outputs a control signal instructing intra-refresh to the encoding section and initializes the cumulative amount of distortion. do. This causes the encoding means to perform intra-refresh and insert intra-frames.
The video encoding device can operate with a video encoding program for causing a computer to function as the means described above.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、動画像の画像歪の蓄積量が大きくなる前にイントラリフレッシュを行うことで、画質の劣化を抑えて動画像を符号化することができる。
これによって、本発明は、水面の揺らぎ等、回転、拡大、縮小との変化が発生する動画像であっても、イントラフレームの挿入を最小限に抑えるとともに、画質の劣化を抑えて動画像を符号化することができる。
ADVANTAGE OF THE INVENTION This invention has the outstanding effect shown below.
According to the present invention, by performing intra-refresh before the accumulated amount of image distortion of a moving image becomes large, it is possible to encode the moving image while suppressing deterioration in image quality.
As a result, the present invention minimizes the insertion of intra frames and suppresses the deterioration of the image quality to reproduce a moving image even in a moving image that rotates, expands, and shrinks, such as fluctuations in the surface of the water. can be encoded.

本発明の実施形態に係る動画像符号化装置の構成を示すブロック構成図である。1 is a block configuration diagram showing the configuration of a video encoding device according to an embodiment of the present invention; FIG. 図1のイントラリフレッシュ制御手段の構成を示すブロック構成図である。2 is a block configuration diagram showing the configuration of intra refresh control means in FIG. 1; FIG. オプティカルフローの推定結果を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an optical flow estimation result; 図1の符号化手段の構成を示すブロック構成図である。2 is a block configuration diagram showing the configuration of encoding means in FIG. 1; FIG. 本発明の実施形態に係る動画像符号化装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the video encoding device according to the embodiment of the present invention; 本発明の変形例の実施形態に係る動画像符号化装置の構成を示すブロック構成図である。FIG. 10 is a block configuration diagram showing the configuration of a moving image encoding device according to an embodiment of a modified example of the present invention; 本発明の実施形態に係る動画像符号化装置と従来の動画像符号化装置との符号化データの画質の違いを説明するための説明図であって、(a)は従来の動画像符号化装置で動画像を符号化し復号した画像例、(b)は本発明の動画像符号化装置で動画像を符号化し復号した画像例である。FIG. 2 is an explanatory diagram for explaining the difference in image quality of encoded data between the video encoding device according to the embodiment of the present invention and a conventional video encoding device, and FIG. FIG. 2B is an example of an image obtained by encoding and decoding a moving image by the apparatus, and FIG.

以下、本発明の実施形態について図面を参照して説明する。
≪動画像符号化装置の構成≫
最初に、図1を参照して、本発明の実施形態に係る動画像符号化装置1の構成について説明する。
動画像符号化装置1は、映像信号である動画像を圧縮符号化するものである。図1に示すように、動画像符号化装置1は、イントラリフレッシュ制御手段2と、符号化手段3と、を備える。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<<Configuration of Video Encoding Apparatus>>
First, referring to FIG. 1, the configuration of a video encoding device 1 according to an embodiment of the present invention will be described.
A moving image encoding device 1 compresses and encodes a moving image, which is a video signal. As shown in FIG. 1, the video encoding device 1 includes intra-refresh control means 2 and encoding means 3 .

イントラリフレッシュ制御手段2は、符号化手段3におけるイントラフレームを符号化データに挿入するイントラリフレッシュのタイミングを制御するものである。
イントラリフレッシュ制御手段2は、動画像の時間経過に伴う画像の歪量をフレームごとに累計し、累計歪量が予め定めた閾値を超えた段階で、イントラリフレッシュを行うことを指示する制御信号を符号化手段3に出力する。
The intra-refresh control means 2 controls the timing of intra-refresh for inserting the intra-frame in the coding means 3 into the coded data.
The intra-refresh control means 2 accumulates the amount of distortion of the moving image over time for each frame, and outputs a control signal instructing to perform intra-refresh when the accumulated amount of distortion exceeds a predetermined threshold value. Output to the encoding means 3 .

符号化手段3は、イントラリフレッシュ方式により動画像を符号化するものである。
符号化手段3は、HEVC/H.265等の動画像符号化方式により、インター予測(フレーム間予測)符号化された符号化データに、周期的にイントラ予測(フレーム内予測)符号化されたフレームであるイントラフレームを挿入するイントラリフレッシュの手法を用いて、動画像を圧縮符号化する。なお、符号化手段3は、符号化データに、周期的にイントラフレームを挿入する以外に、イントラリフレッシュ制御手段2から制御信号によりイントラリフレッシュが指示されたタイミングで、符号化データにイントラフレームを挿入する。
これによって、動画像符号化装置1は、イントラフレームの周期内において、インター予測符号によって伝播する画像歪が大きくなることを防止することができる。
以下、動画像符号化装置1の詳細な構成について説明する。
The encoding means 3 encodes moving images by an intra-refresh method.
The encoding means 3 uses HEVC/H. Intra refresh, which periodically inserts intra frames, which are frames encoded by intra-prediction (intra-frame prediction), into encoded data encoded by inter-prediction (inter-frame prediction) using a video encoding method such as H.265. Using the method of compression encoding the moving image. In addition to periodically inserting an intra frame into the encoded data, the encoding unit 3 inserts an intra frame into the encoded data at the timing when intra refresh is instructed by a control signal from the intra refresh control unit 2. do.
As a result, the video encoding device 1 can prevent the image distortion propagated by the inter-prediction code from increasing within the period of the intra-frame.
A detailed configuration of the video encoding device 1 will be described below.

<イントラリフレッシュ制御手段>
図2を参照して、動画像符号化装置1のイントラリフレッシュ制御手段2の構成について説明する。
図2に示すように、イントラリフレッシュ制御手段2は、オプティカルフロー推定手段20と、歪量算出手段21と、歪量累計手段22と、累計歪量記憶手段23と、リフレッシュ判定手段24と、を備える。
<Intra Refresh Control Means>
The configuration of the intra-refresh control means 2 of the video encoding device 1 will be described with reference to FIG.
As shown in FIG. 2, the intra refresh control means 2 includes an optical flow estimation means 20, a distortion amount calculation means 21, a distortion amount accumulation means 22, an accumulated distortion amount storage means 23, and a refresh determination means 24. Prepare.

オプティカルフロー推定手段20は、動画像の時系列で入力されるフレーム間でオプティカルフローを推定するものである。オプティカルフローとは、エッジ等の特徴点となる画素のフレーム間における動きベクトルである。
オプティカルフロー推定手段20は、勾配法を用いた一般的なオプティカルフロー推定手法により、フレーム間の特徴が類似する画素の動きベクトルをオプティカルフローとして推定する。例えば、オプティカルフロー推定手段20は、Lucas-Kanade法によって動きベクトルを算出する。
The optical flow estimating means 20 estimates an optical flow between frames input in time series of moving images. An optical flow is a motion vector between frames of pixels that are feature points such as edges.
The optical flow estimator 20 estimates motion vectors of pixels having similar features between frames as optical flows by a general optical flow estimation method using a gradient method. For example, the optical flow estimator 20 calculates motion vectors by the Lucas-Kanade method.

なお、オプティカルフロー推定手段20は、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded-Up Robust Features)等によって、勾配を含んだ局所特徴量が類似する画素をフレーム間で探索することで、動きベクトルを求めることとしてもよい。 Note that the optical flow estimating means 20 searches for pixels with similar local feature amounts including gradients between frames by SIFT (Scale-Invariant Feature Transform), SURF (Speeded-Up Robust Features), or the like. A vector may also be obtained.

このように、オプティカルフロー推定手段20は、勾配を含んだ特徴量を用いて算出した動きベクトルをオプティカルフローとするため、平行運動の運動モデルだけでなく、回転運動や、拡大、縮小等のスケールの変化が発生する場合でも、オプティカルフローを推定することができる。
これによって、オプティカルフロー推定手段20は、移動、回転、拡大、縮小等の変化を伴う動画像であっても、動きベクトルを求めることができる。
In this way, the optical flow estimating means 20 uses the motion vector calculated using the feature amount including the gradient as the optical flow. The optical flow can be estimated even when changes in .
As a result, the optical flow estimator 20 can obtain a motion vector even for moving images that involve changes such as movement, rotation, enlargement, and reduction.

図3に、時刻tにおけるフレームF(t)と、時刻(t+1)におけるフレームF(t+1)の画像の例を示す。
オプティカルフロー推定手段20は、フレームF(t)とフレームF(t+1)との間で、オプティカルフローを推定する。例えば、図3の例では、オプティカルフロー推定手段20は、時刻(t+1)の時点において、オプティカルフロー推定結果として、フレームF(t)のP1,P2,P3の画素が、フレームF(t+1)のP1′,P2′,P3′の画素にそれぞれ移動したことを示す3つの動きベクトルを算出する。なお、ここで示している3つの特徴点は例示に過ぎず、実際にはもっと多くの特徴点が存在する。
FIG. 3 shows an example of images of frame F(t) at time t and frame F(t+1) at time (t+1).
The optical flow estimator 20 estimates the optical flow between frame F(t) and frame F(t+1). For example, in the example of FIG. 3, the optical flow estimation means 20 determines that pixels P1, P2, and P3 of frame F(t) are Three motion vectors are calculated to indicate that the pixel has been moved to pixels P1', P2' and P3'. Note that the three feature points shown here are merely examples, and there are actually more feature points.

オプティカルフロー推定手段20は、推定したオプティカルフローである動きベクトルの大きさL(画素数)と、動きベクトルの方向θ(角度:0°≦θ<360°)とを、推定した特徴点の数nだけ、オプティカルフロー推定結果として歪量算出手段21に出力する。 The optical flow estimating means 20 calculates the magnitude L (the number of pixels) of the motion vector, which is the estimated optical flow, and the direction θ (angle: 0°≦θ<360°) of the motion vector, the number of the estimated feature points Only n are output to the distortion amount calculation means 21 as optical flow estimation results.

歪量算出手段21は、オプティカルフロー推定手段20で推定されたオプティカルフローから、フレームごとの画像の歪量を算出するものである。
歪量算出手段21は、オプティカルフロー推定手段20で推定されたオプティカルフローである動きベクトルの大きさおよび方向の分散の度合いによって、前フレームからの歪量を算出する。ここでは、歪量算出手段21は、動きベクトルの大きさの分散と、動きベクトルの方向の分散とをそれぞれ算出し乗算することで、フレームごとの歪量を算出する。
具体的には、歪量算出手段21は、以下の式(1)により、動きベクトルの大きさL(L,L,…,L)の分散sを算出する。
The distortion amount calculator 21 calculates the distortion amount of the image for each frame from the optical flow estimated by the optical flow estimator 20 .
The distortion amount calculator 21 calculates the amount of distortion from the previous frame based on the degree of dispersion of the magnitude and direction of the motion vector, which is the optical flow estimated by the optical flow estimator 20 . Here, the distortion amount calculation means 21 calculates the amount of distortion for each frame by calculating the variance of the magnitude of the motion vector and the variance of the direction of the motion vector and multiplying them.
Specifically, the distortion amount calculation means 21 calculates the variance sL of the motion vector magnitudes L (L 1 , L 2 , . . . , L n ) using the following equation (1).

Figure 0007291478000001
Figure 0007291478000001

また、歪量算出手段21は、以下の式(2)により、動きベクトルの方向θ(θ,θ,…,θ)の分散sθを算出する。なお、歪量算出手段21は、反対方向の歪による相殺を防止するため、0°≦θ≦180°の範囲で分散sθを算出する。具体的には、180°<θ<360°の方向θについては、θを(360°-θ)に変換して以下の式(2)の演算を行う。 The distortion amount calculation means 21 also calculates the variance s θ of the motion vector directions θ (θ 1 , θ 2 , . . . , θ n ) by the following equation (2). Note that the strain amount calculating means 21 calculates the variance s θ in the range of 0°≦θ≦180° in order to prevent cancellation due to strain in the opposite direction. Specifically, for the direction θ of 180°<θ<360°, θ is converted to (360°−θ) and the following equation (2) is calculated.

Figure 0007291478000002
Figure 0007291478000002

式(1),式(2)において、nはオプティカルフロー推定手段20で推定された1フレーム分のオプティカルフロー(動きベクトル)の数である。αは歪量における動きベクトルの大きさの重み係数である。βは歪量における動きベクトルの方向の重み係数である。これらの重み係数α,βは、歪量における動きベクトルの大きさの重みと方向の重みとをそれぞれ設定した定数である。例えば、α=β=1としてもよいし、α=10,β=1としてもよい。重み係数α,βは、外部から設定することとしてもよい。
そして、歪量算出手段21は、以下の式(3)により、式(1)で算出した動きベクトルの大きさLの分散sと、式(2)で算出した動きベクトルの方向θの分散sθとを乗算して、歪量dを算出する。
In equations (1) and (2), n is the number of optical flows (motion vectors) for one frame estimated by the optical flow estimation means 20 . α is a weighting factor of the magnitude of the motion vector in the amount of distortion. β is a weighting factor in the direction of the motion vector in the amount of distortion. These weighting coefficients α and β are constants that respectively set the weight of the magnitude and the weight of the direction of the motion vector in the amount of distortion. For example, α=β=1, or α=10 and β=1. The weighting factors α and β may be set externally.
Then, the distortion amount calculating means 21 calculates the variance s L of the motion vector magnitude L calculated by the formula (1) and the variance of the motion vector direction θ calculated by the formula (2), using the following formula (3): s θ is multiplied to calculate the strain amount d.

Figure 0007291478000003
Figure 0007291478000003

これによって、歪量算出手段21は、フレームごとに、前フレームとの歪を定量的に算出することができる。
歪量算出手段21は、式(3)で算出したフレームごとの歪量dを、歪量累計手段22に出力する。
Thereby, the distortion amount calculation means 21 can quantitatively calculate the distortion with respect to the previous frame for each frame.
The distortion amount calculation means 21 outputs the distortion amount d for each frame calculated by the equation (3) to the distortion amount accumulating means 22 .

歪量累計手段22は、歪量算出手段21で算出されたフレームごとの歪量を累計するものである。
歪量累計手段22は、前フレームまでに累計した歪量を累計歪量記憶手段23から読み出し、歪量算出手段21から入力した歪量を加算することで、現フレームまでの歪量の累計(累計歪量)を算出する。
歪量累計手段22は、累計歪量を累計歪量記憶手段23に記憶するとともに、リフレッシュ判定手段24に出力する。
The distortion amount accumulating means 22 accumulates the distortion amount for each frame calculated by the distortion amount calculating means 21 .
The strain amount accumulating means 22 reads the strain amount accumulated up to the previous frame from the accumulated strain amount storage means 23 and adds the strain amount input from the strain amount calculating means 21 to obtain the accumulated strain amount up to the current frame ( Cumulative strain amount) is calculated.
The strain amount accumulating means 22 stores the accumulated strain amount in the accumulated strain amount storage means 23 and outputs it to the refresh determination means 24 .

累計歪量記憶手段23は、歪量累計手段22で累計される累計歪量を記憶するものである。累計歪量記憶手段23は、半導体メモリ等の一般的な記憶媒体で構成することができる。
累計歪量記憶手段23は、歪量累計手段22によって累計歪量が更新され、リフレッシュ判定手段24によって累計歪量が初期化(“0”)される。なお、累計歪量記憶手段23に記憶される累計歪量は、動画像符号化装置1の起動時に予め初期化されるものとする。
The cumulative strain amount storage means 23 stores the cumulative strain amount accumulated by the strain amount accumulating means 22 . The cumulative strain amount storage means 23 can be configured with a general storage medium such as a semiconductor memory.
In the cumulative strain amount storage means 23, the cumulative strain amount is updated by the strain amount accumulating means 22, and the cumulative strain amount is initialized ("0") by the refresh determination means 24. FIG. It is assumed that the cumulative distortion amount stored in the cumulative distortion amount storage means 23 is initialized in advance when the video encoding device 1 is activated.

リフレッシュ判定手段24は、符号化手段3に対してイントラリフレッシュを指示するか否かを判定するものである。
リフレッシュ判定手段24は、歪量累計手段22で累計された累計歪量が予め定めた閾値を超えた段階で、イントラリフレッシュを指示する制御信号を、符号化手段3に出力する。このイントラリフレッシュを指示する基準となる閾値は、外部から設定することとしてもよい。
The refresh determination means 24 determines whether or not to instruct the encoding means 3 to perform intra refresh.
The refresh determination means 24 outputs a control signal instructing intra refresh to the encoding means 3 when the accumulated distortion amount accumulated by the distortion amount accumulation means 22 exceeds a predetermined threshold value. A threshold that serves as a reference for instructing this intra-refresh may be set externally.

リフレッシュ判定手段24は、イントラリフレッシュを指示する制御信号を符号化手段3に出力した場合、累計歪量記憶手段23に記憶されている累計歪量を初期化する。
このように、イントラリフレッシュ制御手段2は、動画像のフレーム単位で画像歪量を累計し、累計歪量が予め定めた閾値を超えた段階で符号化手段3にイントラリフレッシュを指示することができる。
The refresh determination means 24 initializes the accumulated distortion amount stored in the accumulated distortion amount storage means 23 when the control signal instructing intra refresh is output to the encoding means 3 .
In this way, the intra refresh control means 2 can accumulate the image distortion amount in frame units of the moving image, and instruct the coding means 3 to perform intra refresh when the accumulated distortion amount exceeds a predetermined threshold value. .

<符号化手段>
図4を参照して、動画像符号化装置1の符号化手段3の構成について説明する。なお、符号化手段3は、イントラリフレッシュを行うものであれば、MPEG-2、AVC/H.264、HEVC/H.265等、どの符号化方式を用いたものでも構わない。ここでは、一例として、HEVC/H.265の符号化方式を用いた例で説明する。なお、HEVC/H.265については、非特許文献1等で公知であるため、詳細な説明は省略する。
<Encoding Means>
The configuration of the encoding means 3 of the video encoding device 1 will be described with reference to FIG. Note that the encoding means 3 can be MPEG-2, AVC/H. 264, HEVC/H. Any encoding method such as H.265 may be used. Here, as an example, HEVC/H. An example using the H.265 coding system will be described. Note that HEVC/H. H.265 is well known from Non-Patent Document 1 and the like, so detailed description thereof will be omitted.

図4に示すように、符号化手段3は、減算手段30と、変換手段31と、量子化手段32と、逆量子化手段33と、逆変換手段34と、加算手段35と、フィルタ手段36と、フレーム記憶手段37と、予測手段38と、エントロピ符号化手段39と、を備える。 As shown in FIG. 4, the encoding means 3 includes a subtracting means 30, a transforming means 31, a quantizing means 32, an inverse quantizing means 33, an inverse transforming means 34, an adding means 35, and a filtering means 36. , frame storage means 37 , prediction means 38 , and entropy coding means 39 .

減算手段30は、入力された動画像のフレーム画像と予測手段38で予測される予測画像との差分画像を演算するものである。減算手段30は、演算した差分画像を変換手段31に出力する。 The subtraction means 30 calculates a difference image between the input frame image of the moving image and the predicted image predicted by the prediction means 38 . The subtraction means 30 outputs the calculated difference image to the conversion means 31 .

変換手段31は、減算手段30が生成した差分画像を所定の大きさのブロックごとに直交変換し、直交変換係数を算出するものである。この直交変換は、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)である。変換手段31は、算出した直交変換係数を量子化手段32に出力する。 The transforming means 31 orthogonally transforms the difference image generated by the subtracting means 30 for each block of a predetermined size, and calculates an orthogonal transform coefficient. This orthogonal transform is, for example, a discrete cosine transform (DCT). The transform means 31 outputs the calculated orthogonal transform coefficients to the quantization means 32 .

量子化手段32は、変換手段31が算出した直交変換係数を、予め設定した量子化テーブルに基づいて量子化するものである。量子化手段32は、量子化した直交変換係数(量子化直交変換係数)を、逆量子化手段33およびエントロピ符号化手段39に出力する。 The quantization means 32 quantizes the orthogonal transform coefficients calculated by the transform means 31 based on a preset quantization table. The quantization means 32 outputs the quantized orthogonal transform coefficients (quantized orthogonal transform coefficients) to the inverse quantization means 33 and the entropy encoding means 39 .

逆量子化手段33は、量子化手段32が量子化した量子化直交変換係数に対して、量子化手段32で行った処理の逆の処理である逆量子化を行うものである。逆量子化手段33は、逆量子化後の直交変換係数を、逆変換手段34に出力する。 The inverse quantization means 33 performs inverse quantization, which is the reverse of the process performed by the quantization means 32 , on the quantized orthogonal transform coefficients quantized by the quantization means 32 . The inverse quantization means 33 outputs the inversely quantized orthogonal transform coefficients to the inverse transform means 34 .

逆変換手段34は、逆量子化手段33が逆量子化した直交変換係数に対して、変換手段31で行った処理の逆の処理である逆直交変換(例えば、逆離散コサイン変換)を行うものである。この逆変換手段34で変換されたブロックごとの画像は、動画像符号化装置1の出力である符号化データを復号する復号装置(不図示)が復号する復号画像に対する予測誤差画像となる。逆変換手段34は、逆変換によって生成した予測誤差画像を、加算手段35に出力する。 The inverse transforming means 34 performs inverse orthogonal transform (for example, inverse discrete cosine transform), which is the reverse of the process performed by the transforming means 31, on the orthogonal transform coefficients inversely quantized by the inverse quantizing means 33. is. The image for each block transformed by the inverse transformation means 34 becomes a prediction error image for a decoded image decoded by a decoding device (not shown) that decodes the encoded data output from the moving image encoding device 1 . The inverse transforming means 34 outputs the prediction error image generated by the inverse transforming to the adding means 35 .

加算手段35は、逆変換手段34が生成した予測誤差画像と、予測手段38が予測した予測画像とを加算するものである。加算手段35は、予測誤差画像と予測画像とを加算することで、復号装置(不図示)が復号する復号画像を生成する。加算手段35は、生成した復号画像を、フィルタ手段36および予測手段38に出力する。 The addition means 35 adds the prediction error image generated by the inverse transformation means 34 and the prediction image predicted by the prediction means 38 . The addition unit 35 adds the prediction error image and the prediction image to generate a decoded image to be decoded by a decoding device (not shown). The adding means 35 outputs the generated decoded image to the filtering means 36 and the predicting means 38 .

フィルタ手段36は、加算手段35が生成した復号画像にフィルタ処理を行うことで、復号画像から歪(ブロック歪、リンギング等)を除去するものである。フィルタ手段36に用いられるフィルタは、例えば、デブロッキングフィルタ、サンプリング・アダプティブ・オフセット(SAO:Sample Adaptive Offset)等である。フィルタ手段36は、フィルタ処理後の復号画像をフレーム記憶手段37に出力する。 Filtering means 36 removes distortion (block distortion, ringing, etc.) from the decoded image by filtering the decoded image generated by adding means 35 . Filters used in the filter means 36 are, for example, a deblocking filter, a sampling adaptive offset (SAO: Sample Adaptive Offset), and the like. The filter means 36 outputs the filtered decoded image to the frame storage means 37 .

フレーム記憶手段37は、フィルタ手段36が歪を除去した復号画像をフレーム画像として記憶するものである。フレーム記憶手段37に記憶したフレーム画像は、予測手段38において、インター予測により予測画像を生成する際に参照される。 The frame storage means 37 stores the decoded image from which the distortion has been removed by the filter means 36 as a frame image. The frame images stored in the frame storage means 37 are referred to by the prediction means 38 when generating predicted images by inter prediction.

予測手段38は、動画像の符号化対象である現フレームに対する予測画像を生成するものである。予測手段38は、イントラ予測手段380と、インター予測手段381と、切替手段382と、を備える。 The prediction means 38 generates a predicted image for the current frame, which is the object of encoding of the moving image. The prediction means 38 includes an intra prediction means 380 , an inter prediction means 381 and a switching means 382 .

イントラ予測手段380は、イントラ予測(フレーム内予測)を行うことで、入力された動画像の符号化対象のフレーム(符号化対象フレーム)に対する予測画像を生成するものである。イントラ予測手段380は、加算手段35で生成された復号画像(参照フレーム)を用いてイントラ予測を行う。イントラ予測手段380は、プレーナ(Planar)予測、直流(DC)予測、方向性予測の3種類のアルゴリズムによって、復号画像から予測画像を生成する。イントラ予測手段380は、生成した予測画像を切替手段382に出力する。 The intra prediction unit 380 performs intra prediction (intra-frame prediction) to generate a prediction image for a frame to be encoded (encoding target frame) of an input moving image. The intra prediction means 380 performs intra prediction using the decoded image (reference frame) generated by the addition means 35 . The intra prediction means 380 generates a predicted image from the decoded image by using three algorithms of planar prediction, direct current (DC) prediction, and directional prediction. The intra prediction means 380 outputs the generated predicted image to the switching means 382 .

インター予測手段381は、インター予測(フレーム間予測)を行うことで、入力された動画像の符号化対象のフレーム(符号化対象フレーム)に対する予測画像を生成するものである。インター予測手段381は、入力された動画像の符号化対象フレームと、フレーム記憶手段37に記憶されている直前のフレームの復号画像(参照フレーム)とから画像の動きを検出し、動き補償フレーム間予測を行うことで予測画像を生成する。インター予測手段381は、生成した予測画像を切替手段382に出力する。 The inter prediction unit 381 performs inter prediction (inter-frame prediction) to generate a prediction image for a frame to be encoded (encoding target frame) of an input moving image. The inter prediction means 381 detects the motion of the image from the input frame to be encoded of the moving image and the decoded image (reference frame) of the previous frame stored in the frame storage means 37, and predicts the motion between the motion compensation frames. A predicted image is generated by making a prediction. The inter prediction means 381 outputs the generated predicted image to the switching means 382 .

切替手段382は、出力する予測画像を、イントラ予測手段380で予測した予測画像と、インター予測手段381で予測した予測画像とで切り替えるものである。
切替手段382は、周期的、例えば、32フレームに1回のタイミングで、イントラ予測手段380で予測した予測画像(イントラフレーム)を選択し、他のタイミングでは、インター予測手段381で予測した予測画像を選択して、減算手段30に出力する。
また、切替手段382は、周期的な切替とは独立して、イントラリフレッシュ制御手段2から、制御信号によりイントラリフレッシュが指示されたタイミングで、イントラ予測手段380で予測した予測画像(イントラフレーム)を選択し、減算手段30に出力する。
The switching means 382 switches the predicted image to be output between the predicted image predicted by the intra prediction means 380 and the predicted image predicted by the inter prediction means 381 .
The switching means 382 selects the predicted image (intra frame) predicted by the intra prediction means 380 periodically, for example, once every 32 frames, and selects the predicted image predicted by the inter prediction means 381 at other timings. is selected and output to the subtracting means 30 .
In addition, independently of periodic switching, the switching means 382 changes the predicted image (intra frame) predicted by the intra prediction means 380 at the timing when intra refresh is instructed by the control signal from the intra refresh control means 2. Select and output to the subtracting means 30 .

予測手段38は、切替手段382で切り替えたイントラ予測またはインター予測のいずれの予測を行ったのかを示すパラメータを符号化パラメータの1つとしてエントロピ符号化手段39に出力する。 The prediction means 38 outputs to the entropy encoding means 39 a parameter indicating whether intra prediction or inter prediction switched by the switching means 382 is performed as one of the encoding parameters.

エントロピ符号化手段39は、量子化手段32で生成された量子化直交変換係数と、予測手段38から入力された符号化パラメータとを、エントロピ符号化して、符号化データを生成するものである。エントロピ符号化手段39は、例えば、エントロピ符号化として、コンテキスト適応型二値算術符号化方式(CABAC:Context-based Adaptive Binary Arithmetic Coding)により、符号化データを生成する。
なお、ここでは、エントロピ符号化手段39は、予測手段38からのみ符号化パラメータを入力しているが、量子化手段32における量子化処理のパラメータ、フィルタ手段36におけるフィルタ処理のパラメータ等、本発明に直接関係のないパラメータについては説明を省略している。
このように、符号化手段3は、イントラリフレッシュ制御手段2から制御信号によりイントラリフレッシュが指示されたタイミングで、符号化データに、イントラフレームを挿入することができる。
The entropy coding means 39 performs entropy coding on the quantized orthogonal transform coefficients generated by the quantization means 32 and the coding parameters input from the prediction means 38 to generate coded data. The entropy coding means 39 generates coded data by, for example, context-based adaptive binary arithmetic coding (CABAC) as entropy coding.
Here, the entropy encoding means 39 receives encoding parameters only from the prediction means 38, but the quantization processing parameters in the quantization means 32, the filtering parameters in the filtering means 36, etc. Descriptions of parameters that are not directly related to are omitted.
In this way, the coding means 3 can insert an intra frame into the coded data at the timing when intra refresh is instructed by the control signal from the intra refresh control means 2 .

以上説明したように、動画像符号化装置1は、動画像の累計歪量が予め定めた閾値を超えた段階でイントラリフレッシュを行い、フレーム間の歪の伝播を抑えることで、画質の劣化を抑えた符号化データを生成することができる。
なお、動画像符号化装置1は、コンピュータを、前記した各手段として機能させるためのプログラム(動画像符号化プログラム)により動作させることができる。
As described above, the moving image encoding device 1 performs intra-refresh when the accumulated distortion amount of the moving image exceeds a predetermined threshold value, suppresses the propagation of distortion between frames, and thereby prevents deterioration of image quality. Subdued encoded data can be generated.
The moving image encoding device 1 can be operated by a program (moving image encoding program) for causing a computer to function as each means described above.

≪動画像符号化装置の動作≫
次に、図5を参照(構成については、適宜図1,図2参照)して、本発明の実施形態に係る動画像符号化装置1の動作について説明する。なお、ここでは、本発明の主要構成であるイントラリフレッシュ制御手段2の動作を主に説明する。
<<Operation of Video Encoding Apparatus>>
Next, with reference to FIG. 5 (refer to FIGS. 1 and 2 as necessary for the configuration), the operation of the video encoding device 1 according to the embodiment of the present invention will be described. Here, the operation of the intra-refresh control means 2, which is the main component of the present invention, will be mainly described.

ステップS1において、オプティカルフロー推定手段20は、動画像の時系列で入力されるフレーム間で、勾配法(例えば、Lucas-Kanade法)によりオプティカルフローを推定する。これによって、オプティカルフロー推定手段20は、フレーム内において、オプティカルフローとして、複数の特徴点の動きベクトル(大きさ、方向)を推定する。なお、ここでは、図示を省略するが、動画像符号化装置1は、動画像の第1フレームについては、オプティカルフロー推定手段20でフレームのみを保持し、オプティカルフローの推定を行わずに、ステップS8に動作を進めることとする。 In step S1, the optical flow estimator 20 estimates the optical flow between frames input in time series of moving images by a gradient method (for example, the Lucas-Kanade method). Thereby, the optical flow estimation means 20 estimates motion vectors (magnitude, direction) of a plurality of feature points as optical flows within the frame. Although illustration is omitted here, the video encoding device 1 retains only the first frame of the video in the optical flow estimating means 20, and does not perform optical flow estimation. The operation proceeds to S8.

ステップS2において、歪量算出手段21は、ステップS1で推定したオプティカルフローである複数の特徴点の動きベクトルの大きさおよび方向の分散の度合いによって、前フレームからの歪量を算出する。
具体的には、歪量算出手段21は、前記式(1)により、動きベクトルの大きさの分散を算出し、前記式(2)により、動きベクトルの方向の分散を算出する。
そして、歪量算出手段21は、前記式(3)により、動きベクトルの大きさの分散と、動きベクトルの方向の分散とを乗算して、歪量を算出する。
In step S2, the distortion amount calculation means 21 calculates the amount of distortion from the previous frame based on the degree of dispersion of the magnitudes and directions of the motion vectors of the plurality of feature points that are the optical flows estimated in step S1.
Specifically, the distortion amount calculation means 21 calculates the variance of the magnitude of the motion vector using the above equation (1), and calculates the variance of the direction of the motion vector using the above equation (2).
Then, the distortion amount calculation means 21 calculates the distortion amount by multiplying the variance of the magnitude of the motion vector by the variance of the direction of the motion vector according to the equation (3).

ステップS3において、歪量累計手段22は、前フレームまでに累計した歪量を累計歪量記憶手段23から読み出し、ステップS2で算出した歪量を加算することで、現フレームまでの歪量の累計(累計歪量)を算出する。
ステップS4において、歪量累計手段22は、累計した歪量(累計歪量)を、累計歪量記憶手段23に記憶する
In step S3, the strain amount accumulating means 22 reads out the strain amount accumulated up to the previous frame from the accumulated strain amount storage means 23, and adds the strain amount calculated in step S2 to obtain the accumulated strain amount up to the current frame. (Total strain amount) is calculated.
In step S4, the strain amount accumulating means 22 stores the accumulated strain amount (accumulated strain amount) in the accumulated strain amount storage means 23.

ステップS5において、リフレッシュ判定手段24は、累計歪量が予め定めた閾値を超えたか否かを判定する。
ここで、累計歪量が閾値を超えていなければ(ステップS5でNo)、動画像符号化装置1は、ステップS8に動作を進める。
一方、累計歪量が閾値を超えた場合(ステップS5でYes)、ステップS6において、リフレッシュ判定手段24は、イントラリフレッシュを指示する制御信号を、符号化手段3に出力する。
ステップS7において、リフレッシュ判定手段24は、累計歪量記憶手段23に記憶している累計歪量の値を“0”に初期化する。
In step S5, the refresh determination means 24 determines whether or not the cumulative strain amount exceeds a predetermined threshold.
Here, if the accumulated distortion amount does not exceed the threshold value (No in step S5), the moving image encoding device 1 advances the operation to step S8.
On the other hand, if the accumulated distortion amount exceeds the threshold value (Yes in step S5), the refresh determination means 24 outputs a control signal instructing intra refresh to the encoding means 3 in step S6.
In step S7, the refresh determination means 24 initializes the cumulative strain amount value stored in the cumulative strain amount storage means 23 to "0".

ステップS8において、符号化手段3は、入力した動画像のフレームを符号化する。このとき、符号化手段3は、イントラリフレッシュ制御手段2から制御信号によりイントラリフレッシュを指示された場合、符号化データにイントラ予測によるイントラフレームを挿入する。 In step S8, the encoding means 3 encodes the input moving image frame. At this time, when instructed to perform intra refresh by a control signal from the intra refresh control means 2, the encoding means 3 inserts an intra frame by intra prediction into the encoded data.

ステップS9において、動画像符号化装置1に次のフレームが入力された場合(ステップS9でYes)、動画像符号化装置1は、ステップS1に戻って動作を継続する。
一方、次のフレームが入力されなければ(ステップS9でNo)、動画像符号化装置1は、動作を終了する。
以上の動作によって、動画像符号化装置1は、動画像が入力される間、動画像の累計歪量が予め定めた閾値を超えた段階でイントラリフレッシュを行うことで、フレーム間の歪の伝播を抑え、画質の劣化を抑えた符号化データを生成することができる。
In step S9, when the next frame is input to the video encoding device 1 (Yes in step S9), the video encoding device 1 returns to step S1 and continues its operation.
On the other hand, if the next frame is not input (No in step S9), the video encoding device 1 terminates its operation.
Through the above operation, the video encoding device 1 performs intra-refresh when the accumulated distortion amount of the video exceeds a predetermined threshold value while the video is being input, thereby preventing the propagation of distortion between frames. can be suppressed, and encoded data can be generated with suppressed degradation of image quality.

≪変形例≫
以上、本発明の実施形態に係る動画像符号化装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
ここでは、動画像符号化装置1を、イントラリフレッシュ制御手段2と、符号化手段3とを装置内部に備える構成とした。
しかし、イントラリフレッシュ制御手段2と、符号化手段3とは、それぞれ分離して構成してもよい。具体的には、図6に示すように、イントラリフレッシュ制御装置2Bと、符号化装置3Bとで、動画像符号化装置1Bを構成してもよい。
イントラリフレッシュ制御装置2Bは、図2で説明したイントラリフレッシュ制御手段2と同じ構成である。また、符号化装置3Bは、図4で説明した符号化手段3と同じ構成である。
<<Modification>>
Although the configuration and operation of the video encoding device 1 according to the embodiment of the present invention have been described above, the present invention is not limited to this embodiment.
Here, the moving picture encoding device 1 is configured to include the intra-refresh control means 2 and the encoding means 3 inside the device.
However, the intra-refresh control means 2 and the encoding means 3 may be configured separately. Specifically, as shown in FIG. 6, an intra-refresh control device 2B and a coding device 3B may constitute a video coding device 1B.
The intra refresh control device 2B has the same configuration as the intra refresh control means 2 described in FIG. Further, the encoding device 3B has the same configuration as the encoding means 3 explained in FIG.

なお、このように、動画像符号化装置1Bを分離した場合、イントラリフレッシュ制御装置2Bは、コンピュータを、図2で説明した各手段として機能させるためのプログラム(イントラリフレッシュ制御)により動作させることができる。また、符号化装置3Bは、コンピュータを、図4で説明した各手段として機能させるためのプログラム(符号化プログラム)により動作させることができる。
このように、イントラリフレッシュ制御装置2Bを分離した構成とすることで、符号化方式を変える場合でも、符号化装置3Bのみを交換するだけで、同じ、イントラリフレッシュ制御装置2Bを使用することが可能になる。
これ以外の作用、効果については、動画像符号化装置1と同様である。
When the video encoding device 1B is separated in this way, the intra-refresh control device 2B can operate the computer with a program (intra-refresh control) for functioning as each means described in FIG. can. Further, the encoding device 3B can be operated by a program (encoding program) for causing a computer to function as each means described in FIG.
By separating the intra-refresh control device 2B in this way, even if the encoding method is changed, the same intra-refresh control device 2B can be used by simply replacing the encoding device 3B. become.
Other actions and effects are the same as those of the video encoding device 1 .

また、ここでは、符号化手段3が、予め周期的にイントラフレームを挿入するものとした。しかし、符号化手段3は、イントラリフレッシュ制御手段2からの制御信号によってのみ、符号化データにイントラフレームを挿入するものとしてもよい。 Also, here, the encoding unit 3 is assumed to periodically insert an intra frame in advance. However, the coding means 3 may insert an intra frame into the coded data only by the control signal from the intra refresh control means 2 .

≪評価画像≫
最後に、図7を参照して、動画像符号化装置1が生成する符号化データと、従来の動画像符号化装置が生成する符号化データとの画質の違いを、符号化データを復号した復号画像を用いて説明する。
図7(a)は、従来の動画像符号化装置で動画像を符号化し、復号したある時点での画像例である。図7(b)は、図7(a)と同じ動画像を本発明の動画像符号化装置1で符号化し、復号した図7(a)と同じ時点での画像例である。
ここで、動画像は、電子部品を組み込んだ基板を、水底に沈め、水面の上から基板を撮影したものである。
図7(a)に示す画像I1は、図7(b)に示す画像I2に比べ、画質が劣化している。例えば、画像I1上のICチップの足部分E1は、それぞれの足を判別することができないが、画像I2のICチップの足部分E2では、それぞれの足を明確に判別することができる。
≪Evaluation image≫
Finally, referring to FIG. 7, the difference in image quality between the encoded data generated by the video encoding device 1 and the encoded data generated by the conventional video encoding device was determined by decoding the encoded data. Description will be made using a decoded image.
FIG. 7(a) is an example of an image at a certain point in time when a moving image is encoded and decoded by a conventional moving image encoding device. FIG. 7(b) is an example of an image at the same point in time as in FIG. 7(a), which is obtained by encoding and decoding the same moving image as in FIG. 7(a) by the moving image encoding apparatus 1 of the present invention.
Here, the moving image is obtained by submerging a board with electronic components embedded in it in the bottom of water and photographing the board from above the surface of the water.
The image I1 shown in FIG. 7(a) is degraded in image quality compared to the image I2 shown in FIG. 7(b). For example, each leg cannot be identified in the IC chip foot portion E1 on the image I1, but each foot can be clearly identified in the IC chip foot portion E2 in the image I2.

従来の動画像符号化装置では、図7(a)に示すように、水底動画像のような水面の揺らぎによって、被写体の動きが単なる移動だけではなく回転、拡大・縮小等で変化する動画像を、高品質に符号化することができなかった。
しかし、本発明に係る動画像符号化装置1では、回転、拡大・縮小等で変化する被写体であっても、オプティカルフローによる特徴点の動きベクトルによって、画像の歪を精度よく検出し、累計歪量が閾値を超えた段階でイントラリフレッシュを行うことができる。
これによって、動画像符号化装置1は、図7(a)に示すように、画質の劣化を抑えて、動画像を符号化することができる。
As shown in FIG. 7(a), the conventional moving image coding apparatus has a moving image in which the movement of the subject changes not only by simple movement but also by rotation, enlargement/reduction, etc. due to the fluctuation of the surface of the water, such as a moving image of the bottom of the water. could not be encoded with high quality.
However, in the video encoding apparatus 1 according to the present invention, even if the subject changes due to rotation, enlargement/reduction, etc., the motion vectors of the feature points by the optical flow can be used to accurately detect the distortion of the image, and the cumulative distortion can be calculated. Intra refresh can be performed when the amount exceeds the threshold.
As a result, the moving picture coding apparatus 1 can code the moving picture while suppressing deterioration in image quality, as shown in FIG. 7(a).

1,1B 動画像符号化装置
2,2B イントラリフレッシュ制御手段(イントラリフレッシュ制御装置)
20 オプティカルフロー推定手段
21 歪量算出手段
22 歪量累計手段
23 累計歪量記憶手段
24 リフレッシュ判定手段
3,3B 符号化手段(符号化装置)
30 減算手段
31 変換手段
32 量子化手段
33 逆量子化手段
34 逆変換手段
35 加算手段
36 フィルタ手段
37 フレーム記憶手段
38 予測手段
380 イントラ予測手段
381 インター予測手段
382 切替手段
39 エントロピ符号化手段
1, 1B video encoding device 2, 2B intra refresh control means (intra refresh control device)
20 optical flow estimation means 21 distortion amount calculation means 22 distortion amount accumulation means 23 cumulative distortion amount storage means 24 refresh determination means 3, 3B encoding means (encoding device)
30 Subtracting Means 31 Transforming Means 32 Quantizing Means 33 Inverse Quantizing Means 34 Inverse Transforming Means 35 Adding Means 36 Filtering Means 37 Frame Storage Means 38 Predicting Means 380 Intra Predicting Means 381 Inter Predicting Means 382 Switching Means 39 Entropy Encoding Means

Claims (4)

動画像を符号化する動画像符号化装置であって、
イントラリフレッシュ方式により前記動画像を符号化する符号化手段と、
前記符号化手段のイントラリフレッシュを行うタイミングを制御するイントラリフレッシュ制御手段と、を備え、
前記イントラリフレッシュ制御手段は、
前記動画像のフレームごとに、勾配法を用いたオプティカルフロー推定により、前記フレーム間の特徴が類似する画素の動きベクトルをオプティカルフローとして推定するオプティカルフロー推定手段と、
前記オプティカルフロー推定手段で推定した動きベクトルの大きさおよび方向に基づいて、フレーム間の歪量を算出する歪量算出手段と、
前記歪量算出手段で算出した歪量をフレームごとに累計して累計歪量を算出する歪量累計手段と、
前記歪量累計手段で累計した累計歪量が予め定めた閾値を超えた段階で、前記符号化手段にイントラリフレッシュを指示する制御信号を出力するとともに、前記累計歪量を初期化するリフレッシュ判定手段と、を備え
前記歪量算出手段は、前記オプティカルフローとして推定した動きベクトルの大きさの分散と、前記動きベクトルの方向の分散とをそれぞれ算出し乗算することで、前記歪量を算出することを特徴とする動画像符号化装置。
A video encoding device for encoding a video,
encoding means for encoding the moving image by an intra-refresh method;
an intra-refresh control means for controlling the timing of performing intra-refresh of the encoding means;
The intra-refresh control means includes:
optical flow estimation means for estimating, as an optical flow, motion vectors of pixels having similar features between the frames by optical flow estimation using a gradient method for each frame of the moving image;
Distortion amount calculation means for calculating an amount of distortion between frames based on the magnitude and direction of the motion vector estimated by the optical flow estimation means;
a strain amount accumulating means for calculating a cumulative strain amount by accumulating the strain amounts calculated by the strain amount calculating means for each frame;
Refresh determination means for outputting a control signal for instructing intra refresh to the encoding means and initializing the accumulated distortion amount when the accumulated distortion amount accumulated by the distortion amount accumulation means exceeds a predetermined threshold value. and
The distortion amount calculation means calculates the distortion amount by calculating the variance of the magnitude of the motion vector estimated as the optical flow and the variance of the direction of the motion vector and multiplying them. Video encoding device.
前記歪量算出手段は、前記動きベクトルの方向が180°<θ<360°の方向θについては、θを(360°-θ)に変換して前記方向の分散を算出することを特徴とする請求項に記載の動画像符号化装置。 The distortion amount calculation means is characterized in that, for a direction θ in which the direction of the motion vector is 180°<θ<360°, θ is converted to (360°−θ) to calculate the variance of the direction. The moving picture encoding device according to claim 1 . 前記歪量算出手段は、前記動きベクトルの大きさの分散と、前記動きベクトルの方向の分散とに対して予め設定した重み係数を乗算することを特徴とする請求項または請求項に記載の動画像符号化装置。 3. The distortion amount calculation means according to claim 1 , wherein the variance of the magnitude of the motion vector and the variance of the direction of the motion vector are multiplied by a predetermined weighting factor. video encoding device. コンピュータを、請求項1から請求項のいずれか一項に記載の動画像符号化装置として機能させるための動画像符号化プログラム。 A video encoding program for causing a computer to function as the video encoding device according to any one of claims 1 to 3 .
JP2018240512A 2018-12-25 2018-12-25 Video encoding device and its program Active JP7291478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018240512A JP7291478B2 (en) 2018-12-25 2018-12-25 Video encoding device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018240512A JP7291478B2 (en) 2018-12-25 2018-12-25 Video encoding device and its program

Publications (2)

Publication Number Publication Date
JP2020102798A JP2020102798A (en) 2020-07-02
JP7291478B2 true JP7291478B2 (en) 2023-06-15

Family

ID=71141327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240512A Active JP7291478B2 (en) 2018-12-25 2018-12-25 Video encoding device and its program

Country Status (1)

Country Link
JP (1) JP7291478B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004519973A (en) 2001-04-16 2004-07-02 三菱電機株式会社 Method for determining distortion in video and system for determining distortion in video
US20050175099A1 (en) 2004-02-06 2005-08-11 Nokia Corporation Transcoder and associated system, method and computer program product for low-complexity reduced resolution transcoding
US20070177667A1 (en) 2006-01-20 2007-08-02 Qualcomm Incorporated Method and apparatus for error resilience algorithms in wireless video communication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004519973A (en) 2001-04-16 2004-07-02 三菱電機株式会社 Method for determining distortion in video and system for determining distortion in video
US20050175099A1 (en) 2004-02-06 2005-08-11 Nokia Corporation Transcoder and associated system, method and computer program product for low-complexity reduced resolution transcoding
US20070177667A1 (en) 2006-01-20 2007-08-02 Qualcomm Incorporated Method and apparatus for error resilience algorithms in wireless video communication
JP2009524365A (en) 2006-01-20 2009-06-25 クゥアルコム・インコーポレイテッド Method and apparatus for error resilience algorithm in wireless video communication

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jianle Chen, et.al.,Algorithm Description of Joint Exploration Test Model 7 (JEM 7),Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017,JVET-G1001-v1,2017年08月19日,第i-iv頁,第13-28頁
Yu M. Chi, et.al.,Optical Flow Approximation of Sub-Pixel Accurate Block Matching for Video Coding,2007 IEEE International Conference on Acoustics, Speech and Signal Processing - ICASSP '07,2007年,第 I-1017 - I-1020 頁

Also Published As

Publication number Publication date
JP2020102798A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
KR101460608B1 (en) Method and apparatus for encoding and decoding image usging filtered prediction block
AU2015213341B2 (en) Video decoder, video encoder, video decoding method, and video encoding method
US8503532B2 (en) Method and apparatus for inter prediction encoding/decoding an image using sub-pixel motion estimation
KR102518993B1 (en) Method for multiple interpolation filters, and apparatus for encoding by using the same
KR101365575B1 (en) Method and apparatus for encoding and decoding based on inter prediction
US8315309B2 (en) Method and apparatus for encoding and decoding an image by using consecutive motion estimation
KR100772391B1 (en) Method for video encoding or decoding based on orthogonal transform and vector quantization, and apparatus thereof
KR101789759B1 (en) Methods of encoding and decoding using multi-level prediction and apparatuses for using the same
KR20150009578A (en) Motion sensor assisted rate control for video encoding
KR101482896B1 (en) Optimized deblocking filters
EP3751856B1 (en) Methods for motion compensated prediction
KR20100133007A (en) Rate-distortion quantization for context-adaptive variable length coding (cavlc)
KR20150099165A (en) Tsm rate-distortion optimizing method, encoding method and device using the same, and apparatus for processing picture
US20140072057A1 (en) Video display preference filtering
KR102413038B1 (en) Predictive image correction apparatus, image encoding apparatus, image decoding apparatus, and program
JP5649296B2 (en) Image encoding device
KR100987921B1 (en) Block based Motion-Search Area Rate Distortion Optimization using Motion Blur/Deblur post filter
KR101462959B1 (en) Method and apparatus for video encoding and decoding using extended block filtering
JP7291478B2 (en) Video encoding device and its program
JP4971817B2 (en) Image encoding device
KR101247024B1 (en) Method of motion estimation and compensation using in-loop preprocessing filtering
JP2008153802A (en) Moving picture encoding device and moving picture encoding program
KR20110067648A (en) Method for encoding/decoding image and apparatus for performing the same
KR100507441B1 (en) Method for encoding video signals for reducing bitrate using feature of vlc inputs and video encoder for executing the method
Ehmann et al. Transform-coded pel-recursive video compression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7291478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150