JP2019092105A - Video encoding apparatus, video encoding method, and program - Google Patents

Video encoding apparatus, video encoding method, and program Download PDF

Info

Publication number
JP2019092105A
JP2019092105A JP2017220969A JP2017220969A JP2019092105A JP 2019092105 A JP2019092105 A JP 2019092105A JP 2017220969 A JP2017220969 A JP 2017220969A JP 2017220969 A JP2017220969 A JP 2017220969A JP 2019092105 A JP2019092105 A JP 2019092105A
Authority
JP
Japan
Prior art keywords
frame
block
quantization parameter
processing unit
video encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220969A
Other languages
Japanese (ja)
Other versions
JP7020068B2 (en
Inventor
健太 徳満
Kenta Tokumitsu
健太 徳満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017220969A priority Critical patent/JP7020068B2/en
Publication of JP2019092105A publication Critical patent/JP2019092105A/en
Application granted granted Critical
Publication of JP7020068B2 publication Critical patent/JP7020068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To provide a video encoding apparatus, a video encoding method, and a program that can realize miniaturization of the apparatus itself while achieving high image quality of a video to be broadcast.SOLUTION: A video encoding apparatus 10 includes a pre-processing unit 11 that calculates a first quantization parameter of a frame on the basis of the complexity of a frame for each of a plurality of frames, divides the frame into two or more blocks, and calculates a second quantization parameter by using first quantization parameter for each of the blocks, and a video encoding unit 12 that performs quantization on each of the plurality of frames for each of the blocks making up the frame by using the second quantization parameter calculated for the block, and further encodes the frame in which the block is quantized.SELECTED DRAWING: Figure 1

Description

本発明は、映像符号化装置、映像符号化方法、及びプログラムに関する。   The present invention relates to a video coding apparatus, a video coding method, and a program.

近年、地上デジタルテレビ放送よりも、高画質な4K解像度(以下、「4K」と表記する。)/8K解像度(以下、「8K」と表記する。)の地上放送の実現を目的とし、放送網の再編が行われている。また、有限な電波資源の有効活用のため、現在の放送網の放送帯域を抑え、余った帯域で高画質な4K/8Kの地上放送を実現できないかも検討されている。このような背景から、現在よりも狭い周波数帯域においても、現状の地上放送の映像と同画質または高画質化が望まれている。そのため、より映像の圧縮率が高い映像符号化装置が求められている。   In recent years, the purpose is to realize terrestrial broadcasting of high-resolution 4K resolution (hereinafter referred to as "4K") / 8K resolution (hereinafter referred to as "8K") rather than digital terrestrial television broadcast, and a broadcast network Reorganization is taking place. In addition, in order to effectively utilize limited radio wave resources, it has been considered that the broadcast band of the present broadcast network can be suppressed, and high quality 4K / 8K terrestrial broadcast can not be realized in the remaining band. From such a background, there is a demand for the same image quality or high image quality as the current terrestrial broadcast video even in a frequency band narrower than the present. Therefore, a video encoding apparatus with a higher video compression rate is required.

このような問題を解決する技術として、映像の圧縮率を高めるために、映像シーケンスの全体を事前解析し、事前解析に基づいて符号化するマルチパス符号化処理が提案されている。例えば、特許文献1〜4では、マルチパス符号化処理を実行する映像符号化装置を開示している。   As a technique for solving such a problem, a multi-pass coding process has been proposed in which the entire video sequence is pre-analyzed and encoded based on the pre-analysis in order to increase the video compression rate. For example, Patent Documents 1 to 4 disclose video coding apparatuses that execute multi-pass coding processing.

具体的には、特許文献1に開示された映像符号化装置は、1パス目の処理として、入力画像のシーケンス全体のうちウィンドウ単位で重複する部分のみを事前解析することで統計値を生成する。更に、2パス目の処理として、特許文献1に開示された映像符号化装置は、1パス目で生成した統計値に基づいて、各入力画像の符号化パラメータを適宜調節して、調節した符号化パラメータに基づいて1パス目で事前解析した入力画像を符号化する。   Specifically, the video encoding device disclosed in Patent Document 1 generates a statistical value by pre-analyzing only a portion overlapping in window units in the entire sequence of the input image as the first pass processing. . Furthermore, as the second pass processing, the video encoding apparatus disclosed in Patent Document 1 adjusts the encoding parameter of each input image as appropriate based on the statistical value generated in the first pass, and adjusts the code. The input image pre-analyzed in the first pass is encoded based on the quantization parameter.

また、特許文献2に開示された映像符号化装置は、1パス目の処理として、入力画像のシーケンスを事前解析して、第1の解析情報を生成し、生成した第1の解析情報に基づいて、入力画像に対して前処理を実行する。前処理としては、例えば、周波数帯域の制限処理、画像サイズの変換処理、及びフレームレートの変換処理が挙げられる。   Further, the video encoding device disclosed in Patent Document 2 analyzes the sequence of the input image in advance as the first pass processing, generates the first analysis information, and generates the first analysis information based on the generated first analysis information. And perform preprocessing on the input image. Examples of preprocessing include frequency band limiting processing, image size conversion processing, and frame rate conversion processing.

更に、2パス目の処理として、特許文献2に開示された映像符号化装置は、1パス目で前処理をした入力画像に対して、再度、事前解析を行なって、第2の解析情報を生成し、第1の解析情報と、この生成した第2の解析情報とを用いて、1パス目で前処理をした入力画像の目標符号量を設定する。   Furthermore, as processing for the second pass, the video encoding device disclosed in Patent Document 2 performs pre-analysis again on the input image that has been preprocessed in the first pass, to obtain second analysis information. The target code amount of the input image preprocessed in the first pass is set using the first analysis information and the generated second analysis information.

更に、3パス目の処理として、特許文献2に開示された映像符号化装置は、1パス目の前処理を行なった入力画像を符号化する。その際、特許文献2に開示された映像符号化装置は、符号化時に割当てる符号化量が、2パス目で設定した目標符号量に到達するように符号化を実行する。   Furthermore, as processing of the third pass, the video encoding device disclosed in Patent Document 2 encodes an input image on which preprocessing of the first pass has been performed. At that time, the video encoding apparatus disclosed in Patent Document 2 performs encoding such that the encoding amount assigned at the time of encoding reaches the target code amount set in the second pass.

また、特許文献3に開示された映像符号化装置は、1パス目の処理として、入力画像のシーケンスを事前解析し、この事前解析に基づいてバッファ破綻回避処理をしながら適切に割当て符号量を設定する。更に、2パス目の処理として、特許文献3に開示された映像符号化装置は、割当て符号量に基づいて入力画像を符号化する。   In addition, the video encoding device disclosed in Patent Document 3 analyzes the sequence of the input image in advance as the first pass processing, and based on this prior analysis, appropriately allocates code amount while performing buffer corruption avoidance processing. Set Furthermore, as processing for the second pass, the video encoding device disclosed in Patent Document 3 encodes an input image based on the allocated code amount.

また、特許文献4に開示された映像符号化装置は、1パス目の処理として、入力画像のシーケンスを事前解析して符号化劣化の目立ちやすさ(平坦度)を反映させた符号化難易度を算出し、符号化難易度に基づいて符号化するときの割当てビット量を設定する。更に
、2パス目の処理として、特許文献4に開示された映像符号化装置は、設定した割当てビット量と、割当てる符号化量とが一致するように入力画像を符号化する。
In addition, the video encoding device disclosed in Patent Document 4 analyzes the sequence of the input image in advance as processing of the first pass, and encodes the coding difficulty level that reflects the conspicuousness (flatness) of the encoding degradation Is calculated, and the amount of allocated bits for encoding based on the encoding difficulty is set. Furthermore, as processing for the second pass, the video encoding apparatus disclosed in Patent Document 4 encodes the input image so that the set allocation bit amount and the encoding amount to be allocated match.

特開2008−503919号公報JP 2008-503919 A 特開2005−94458号公報JP 2005-94458 A 特開2002−232882号公報Unexamined-Japanese-Patent No. 2002-232882 特開平10−302396号公報Japanese Patent Application Laid-Open No. 10-302396

このように、上述の特許文献1〜4に開示された映像符号化装置においては、マルチパス符号化処理が実行されるため、符号化処理自体が複雑化してしまう。このため、これらの映像符号化装置では、実装すべき基板が増加してしまい、装置自体が大型化してしまうという問題が発生する。   As described above, in the video encoding devices disclosed in Patent Documents 1 to 4 described above, the multi-pass encoding process is performed, so the encoding process itself becomes complicated. Therefore, in these video encoding devices, the number of substrates to be mounted increases, which causes a problem that the device itself becomes large.

本発明の目的の一例は、上記問題を解消し、放送される映像の高画質化を図りつつ、装置自体の小型化を実現し得る、映像符号化装置、映像符号化方法、及びプログラムを提供することにある。   An example of the object of the present invention is to provide a video encoding apparatus, a video encoding method, and a program that can realize the miniaturization of the apparatus itself while solving the above problems and achieving high image quality of a video to be broadcast. It is to do.

上記目的を達成するため、本発明の一側面における映像符号化装置は、
複数のフレームで構成された時系列画像を符号化する装置であって、
前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、事前処理部と、
前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、映像符号化部と、
を備えている、ことを特徴とする。
In order to achieve the above object, a video encoding apparatus according to an aspect of the present invention is:
An apparatus for encoding a time-series image composed of a plurality of frames, comprising:
The first quantization parameter of the frame is calculated based on the complexity of the frame for each of the plurality of frames, and the frame is further divided into two or more blocks. A pre-processing unit that calculates a second quantization parameter using a quantization parameter of 1;
Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks that constitute the frame, and the frame is further quantized A video encoding unit for encoding;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における映像符号化方法は、
複数のフレームで構成された時系列画像を符号化するための方法であって、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を有する、ことを特徴とする。
Further, to achieve the above object, a video encoding method according to an aspect of the present invention is:
A method for encoding a time series image composed of a plurality of frames, comprising:
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、
複数のフレームで構成された時系列画像を符号化するためのプログラムであって、
前記コンピュータに、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し
、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to an aspect of the present invention can be executed by a computer.
A program for encoding a time-series image composed of a plurality of frames, the program comprising
On the computer
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
To execute.

以上のように本発明によれば、放送される映像の高画質化及び、装置自体の小型化を実現することができる。   As described above, according to the present invention, it is possible to realize high image quality of a video to be broadcast and downsizing of the apparatus itself.

図1は、本発明の実施の形態1における映像符号化装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a video encoding apparatus according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1における映像符号化装置の事前処理部における処理を説明する図である。FIG. 2 is a diagram for explaining processing in the pre-processing unit of the video encoding device according to Embodiment 1 of the present invention. 図3は、本発明の実施の形態1における映像符号化装置の動作を示すフロー図である。FIG. 3 is a flow chart showing an operation of the video encoding apparatus in Embodiment 1 of the present invention. 図4は、本発明の実施の形態2における映像符号化装置の事前処理部における処理を説明する図である。FIG. 4 is a diagram for explaining the processing in the pre-processing unit of the video encoding device in the second embodiment of the present invention. 図5は、本発明の実施の形態2における映像符号化装置の動作を示すフロー図である。FIG. 5 is a flowchart showing the operation of the video encoding apparatus in the second embodiment of the present invention. 図6は、本発明の実施の形態3における映像符号化装置の事前処理部における処理を説明する図である。FIG. 6 is a diagram for explaining processing in the pre-processing unit of the video encoding device in Embodiment 3 of the present invention. 図7は、本発明の実施の形態3における映像符号化装置の動作を示すフロー図である。FIG. 7 is a flow chart showing the operation of the video encoding apparatus in the third embodiment of the present invention. 図8は、本発明の実施の形態4における映像符号化装置の動作を示すフロー図である。FIG. 8 is a flow chart showing the operation of the video encoding apparatus in the fourth embodiment of the present invention. 図9は、本発明の実施の形態1〜4における映像符号化装置を実現するコンピュータの一例を示すブロック図である。FIG. 9 is a block diagram showing an example of a computer for realizing the video encoding apparatus in the first to fourth embodiments of the present invention.

(実施の形態1)
以下、本発明の実施の形態1における、映像符号化装置、映像符号化方法、及びプログラムについて、図1〜図3を参照しながら説明する。
Embodiment 1
Hereinafter, a video encoding apparatus, a video encoding method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 3.

[装置構成]
最初に、本実施の形態1における映像符号化装置の構成について図1を用いて説明する。
図1は、本発明の実施の形態1における映像符号化装置の概略構成を示すブロック図である。
[Device configuration]
First, the configuration of the video encoding apparatus according to the first embodiment will be described with reference to FIG.
FIG. 1 is a block diagram showing a schematic configuration of a video encoding apparatus according to Embodiment 1 of the present invention.

図1に示すように、本実施の形態1における映像符号化装置10は、複数のフレームで構成された時系列画像を符号化するための装置である。図1に示すように、映像符号化装置10は、事前処理部11と、映像符号化部12とを備えている。   As shown in FIG. 1, the video encoding device 10 according to the first embodiment is a device for encoding a time-series image composed of a plurality of frames. As shown in FIG. 1, the video encoding device 10 includes a pre-processing unit 11 and a video encoding unit 12.

事前処理部11は、複数のフレームそれぞれ毎に、フレームの複雑度に基づいて、フレームの第1の量子化パラメータを算出し、更に、フレームを2以上のブロックに分割し、ブロック毎に、第1の量子化パラメータを用いて、第2の量子化パラメータを算出する。   The pre-processing unit 11 calculates, for each of a plurality of frames, a first quantization parameter of the frame based on the complexity of the frame, and further divides the frame into two or more blocks. A second quantization parameter is calculated using a quantization parameter of one.

映像符号化部12は、複数のフレームそれぞれについて、フレームを構成するブロック毎に、ブロックについて算出された第2の量子化パラメータを用いて量子化を行い、更に、ブロックが量子化されたフレームを符号化する。   The video encoding unit 12 performs quantization for each of a plurality of frames using the second quantization parameter calculated for each block that constitutes the frame, and further, the frame in which the block is quantized is Encode.

このように、本実施の形態1では、フレーム毎にフレームの複雑度に基づいて算出された第1の量子化パラメータを用いて、フレームのブロック毎に第2の量子化パラメータを算出している。そして、第2の量子化パラメータを用いてブロック毎に量子化及び符号化をしている。即ち、本実施の形態1では、第2の量子化パラメータの算出処理において、従来のマルチパス符号化処理と異なり、統計情報又は解析情報等を用いる必要がなく、処理全体を簡略化できるので、基板の増加を抑制できる。更に、本実施の形態1では、ブロック毎に算出された第2の量子化パラメータを用いてフレームが符号化されるので、画質の低下も抑制される。このため、本実施の形態1によれば、放送される映像の高画質化を図りつつ、装置自体の小型化が可能となる。   As described above, in the first embodiment, the second quantization parameter is calculated for each block of a frame using the first quantization parameter calculated based on the complexity of the frame for each frame. . Then, quantization and coding are performed for each block using the second quantization parameter. That is, in the first embodiment, in the calculation process of the second quantization parameter, unlike the conventional multi-pass coding process, it is not necessary to use statistical information or analysis information etc., and the whole process can be simplified. An increase in the number of substrates can be suppressed. Furthermore, in the first embodiment, since the frame is encoded using the second quantization parameter calculated for each block, deterioration in image quality is also suppressed. Therefore, according to the first embodiment, it is possible to miniaturize the apparatus itself while achieving high image quality of the video to be broadcast.

また、本実施の形態1において、「複雑度」は、画像における画素の変化の複雑さを示すものであれば良い。複雑度の算出手法としては、例えば、フレームを構成する各画素を、その輝度が閾値以上であれば「1」、閾値未満であれば「0」として、2値化し、「0」から「1」、又は「1」から「0」へと変化する回数を求め、求めた回数を複雑度とする手法が挙げられる。   Further, in the first embodiment, the “complexity” may indicate the complexity of the change of the pixel in the image. As a method of calculating the degree of complexity, for example, each pixel constituting the frame is binarized as “1” if the luminance is equal to or greater than the threshold, or “0” if the luminance is less than the threshold, “0” to “1 Or the number of changes from “1” to “0”, and there is a method of setting the calculated number as the complexity.

続いて、図1に加えて図2を用いて、本実施の形態1における映像符号化装置10の構成をより具体的に説明をする。図2は、本発明の実施の形態1における映像符号化装置の事前処理部における処理を説明する図である。   Subsequently, the configuration of the video encoding device 10 according to the first embodiment will be more specifically described using FIG. 2 in addition to FIG. FIG. 2 is a diagram for explaining processing in the pre-processing unit of the video encoding device according to Embodiment 1 of the present invention.

本実施の形態1では、事前処理部11は、まず、複数のフレームで構成される時系列画像を取得し、そのうちの1つのフレームを符号化処理の対象のフレーム(以下、対象フレーム22と表記する)として設定する。そして、事前処理部11は、対象フレーム22の複雑度を算出し、算出した複雑度に基づいて、対象フレーム22の第1の量子化パラメータQPmを算出する。ここで、対象フレーム22を複数のフレームのm番目のフレームとし、m番目のフレームの複雑度をXmとし、映像の符号化レートをY[bps]とし、映像のフレームレートをZ[fps]とし、ピクチャの種類x(Iピクチャ、Pピクチャ、Bピクチャ)に応じた任意の係数をA_x(Ai、Ap、Ab)とする。この場合、事前処理部11は、第1の量子化パラメータQPmを、以下の数1を用いて算出する。   In the first embodiment, the pre-processing unit 11 first obtains a time-series image composed of a plurality of frames, and one of the frames is a target frame of the encoding process (hereinafter referred to as a target frame 22). Set as Then, the pre-processing unit 11 calculates the complexity of the target frame 22 and calculates a first quantization parameter QPm of the target frame 22 based on the calculated complexity. Here, the target frame 22 is the m-th frame of a plurality of frames, the complexity of the m-th frame is Xm, the video coding rate is Y [bps], and the video frame rate is Z [fps] Let A_x (Ai, Ap, Ab) be an arbitrary coefficient according to the type x of the picture (I picture, P picture, B picture). In this case, the pre-processing unit 11 calculates the first quantization parameter QPm using Equation 1 below.

Figure 2019092105
Figure 2019092105

続いて、事前処理部11は、図2に示すように、対象フレーム22を、2以上のブロック21に分割する。また、各ブロック21のサイズは、特に限定されるものではない。例えば、本実施の形態1においては、ブロック21のサイズは、16×16の画素数に設定されている。   Subsequently, as illustrated in FIG. 2, the pre-processing unit 11 divides the target frame 22 into two or more blocks 21. Further, the size of each block 21 is not particularly limited. For example, in the first embodiment, the size of the block 21 is set to 16 × 16 pixels.

次に、事前処理部11は、図2に示すように、複数のフレームの中から、基準となるフレーム(以下、参照フレーム23と表記する。)を選出する。ここで、選出される参照フレーム23は、対象フレーム22の直前のフレームであってもよいし、任意のフレームであってもよい。また、参照フレーム23は、予め、選出されていてもよいものとする。なお、事前処理部11は、参照フレーム23についても、上述したように2以上のブロック21に分割する。   Next, as shown in FIG. 2, the pre-processing unit 11 selects a reference frame (hereinafter referred to as a reference frame 23) from among the plurality of frames. Here, the reference frame 23 to be selected may be a frame immediately before the target frame 22 or may be any frame. The reference frame 23 may be selected in advance. The pre-processing unit 11 also divides the reference frame 23 into two or more blocks 21 as described above.

次に、事前処理部11は、図2に示すように、対象フレーム22と参照フレーム23とを比較して、対象フレーム22のブロック毎に差分を算出する。具体的には、事前処理部11は、対象フレーム22の任意のブロック21と、それに対応する参照フレーム23のブロックとを特定する。そして、事前処理部11は、特定した2つのブロックにおける対応する画素間の差分を求め、求めた各画素間の差分をブロック全体で積算して、特定した2つのブロック間の差分を算出する。事前処理部11は、対象フレーム22の全てのブロックについて、同様の処理を行って差分を算出する。   Next, as shown in FIG. 2, the pre-processing unit 11 compares the target frame 22 with the reference frame 23 to calculate a difference for each block of the target frame 22. Specifically, the pre-processing unit 11 identifies an arbitrary block 21 of the target frame 22 and a block of the reference frame 23 corresponding thereto. Then, the pre-processing unit 11 obtains the difference between the corresponding pixels in the two identified blocks, integrates the found differences between the respective pixels in the entire block, and calculates the difference between the identified two blocks. The pre-processing unit 11 performs the same process on all the blocks of the target frame 22 to calculate a difference.

ここで、時間tにおける対象フレーム22をOrg(t)とし、時間t+1における参照フレーム23をOrg(t+1)とし、y番目のブロックをMByとし、ブロックを構成するi番目の画素値をYiとする。また、本実施の形態1では、ブロックのサイズが16×16の画素で構成されているため、画素数nは256となる。この場合、事前処理部11は、対象フレーム22のy番目のブロックと、これに対応する参照フレーム23のy番目のブロックとの差分(以下、「MBy差分」と表記する。)を、下記の数2を用いて算出することができる。   Here, the target frame 22 at time t is Org (t), the reference frame 23 at time t + 1 is Org (t + 1), the y-th block is MBy, and the i-th pixel value constituting the block is Yi. . Further, in the first embodiment, since the block size is configured of 16 × 16 pixels, the number of pixels n is 256. In this case, the pre-processing unit 11 calculates the difference between the y-th block of the target frame 22 and the y-th block of the reference frame 23 corresponding thereto (hereinafter referred to as “MBy difference”) as follows. It can be calculated using Equation 2.

Figure 2019092105
Figure 2019092105

次に、事前処理部11は、ブロック毎に、対象フレーム22の第2の量子化パラメータQP_MByを算出する。具体的には、事前処理部11は、対象フレーム22と参照フレーム23とからブロック毎に算出したMBy差分と、対象フレーム22の第1の量子化パラメータQPmとを用いて、ブロック毎に、対象フレーム22の第2の量子化パラメータQP_MByを算出する。具体的には、事前処理部11は、以下の数3〜数7を用いて、第2の量子化パラメータQP_MByを算出することができる。また、事前処理部11は、算出した第2の量子化パラメータQP_MBy及び対象フレーム22を映像符号化部12に出力する。   Next, the pre-processing unit 11 calculates the second quantization parameter QP_MBy of the target frame 22 for each block. Specifically, the pre-processing unit 11 uses the MBy difference calculated for each block from the target frame 22 and the reference frame 23 and the first quantization parameter QPm of the target frame 22 to perform the target for each block. The second quantization parameter QP_MBy of the frame 22 is calculated. Specifically, the pre-processing unit 11 can calculate the second quantization parameter QP_MBy using the following Equations 3 to 7. Further, the pre-processing unit 11 outputs the calculated second quantization parameter QP_MBy and the target frame 22 to the video encoding unit 12.

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

映像符号化部12は、本実施の形態1においては、まず、対象フレーム22において、ブロック毎に、ブロックを構成する画素の画素値を周波数成分に変換する。また、各画素値から周波数成分への変換は、既存の手法を用いて行うことができ、具体的には、DCT(離散コサイン変換:Discrete Cosine Transform)を用いることができる。   In the first embodiment, the video encoding unit 12 first converts the pixel values of the pixels forming the block into frequency components for each block in the target frame 22. Moreover, conversion from each pixel value to a frequency component can be performed using an existing method, and specifically, DCT (Discrete Cosine Transform: Discrete Cosine Transform) can be used.

次に、映像符号化部12は、対象フレーム22において、各画素が周波数成分に変換されたブロック毎に、それを構成する各画素の値を第2の量子化パラメータを用いて量子化する。ここで、DCTにより周波数成分への変換が行われているとすると、各画素の量子化後の値は、対応する周波数成分の値(DCT係数)と、量子化マトリックスの対応する要素と、第2の量子化パラメータとを用いて、例えば、下記の数8によって算出される。   Next, the video encoding unit 12 quantizes the value of each pixel constituting the block using the second quantization parameter for each block in which each pixel is converted into a frequency component in the target frame 22. Here, assuming that transformation to frequency components is performed by DCT, the value after quantization of each pixel is the value of the corresponding frequency component (DCT coefficient), the corresponding element of the quantization matrix, and For example, it is calculated by the following equation 8 using a quantization parameter of 2.

Figure 2019092105
Figure 2019092105

なお、各画素の量子化は、数8以外にISO/IEC13818−2(MPEG-2 規格書)に規定されている逆量子化に基づいた量子化でもよい。また、本実施の形態1で用いられる量子化マトリックスは、例えば、ISO/IEC13818−2(MPEG-2 規格書)に基づいたものが挙げられる。   Note that the quantization of each pixel may be quantization based on inverse quantization defined in ISO / IEC 13818-2 (MPEG-2 standard document) other than Expression 8. Also, examples of the quantization matrix used in the first embodiment include those based on ISO / IEC 13818-2 (MPEG-2 standard).

次に、映像符号化部12は、各画素が量子化されたブロック毎に、ブロック内を走査しながらデータを読み出し、読み出したデータを圧縮することによって、対象フレーム全体を符号化する。   Next, for each block in which each pixel is quantized, the video encoding unit 12 reads the data while scanning the inside of the block, and encodes the entire target frame by compressing the read data.

[装置動作]
次に、本発明の実施の形態1における映像符号化装置10の動作について図3を用いて説明する。図3は、本発明の実施の形態1における映像符号化装置の動作を示すフロー図である。以下の説明においては、適宜図1及び図2を参照する。また、本実施の形態1では、映像符号化装置10を動作させることによって、映像符号化方法が実施される。よって、本実施の形態1における映像符号化方法の説明は、以下の映像符号化装置10の動作説明に代える。
[Device operation]
Next, the operation of the video encoding device 10 according to the first embodiment of the present invention will be described using FIG. FIG. 3 is a flow chart showing an operation of the video encoding apparatus in Embodiment 1 of the present invention. In the following description, FIGS. 1 and 2 will be referred to as appropriate. Further, in the first embodiment, the video coding method is implemented by operating the video coding apparatus 10. Therefore, the description of the video coding method in the first embodiment is replaced with the following description of the operation of the video coding apparatus 10.

図3に示すように、最初に、事前処理部11は、複数のフレームで構成される時系列画像を取得する(ステップA1)。   As shown in FIG. 3, first, the pre-processing unit 11 acquires a time-series image composed of a plurality of frames (step A1).

次に、事前処理部11は、ステップA1で取得した時系列画像を構成する1つフレームを取り出し、これを対象フレーム22に設定する(ステップA2)。   Next, the pre-processing unit 11 takes out one frame constituting the time-series image acquired in step A1 and sets it as a target frame 22 (step A2).

次に、事前処理部11は、ステップA2で設定した対象フレーム22の複雑度を算出する(ステップA3)。具体的には、事前処理部11は、フレームを構成する各画素を、その輝度が閾値以上であれば「1」、閾値未満であれば「0」として、2値化し、「1」と「0」との間で変化する回数を計測し、得られた値を複雑度とする。   Next, the pre-processing unit 11 calculates the complexity of the target frame 22 set in step A2 (step A3). Specifically, the pre-processing unit 11 binarizes each pixel constituting the frame as “1” if the luminance is equal to or greater than the threshold, and as “0” if the luminance is less than the threshold, “1” and “1”. The number of changes between 0 and 0 is measured, and the obtained value is taken as the complexity.

次に、事前処理部11は、ステップA3で算出した複雑度に基づいて、対象フレーム22の第1の量子化パラメータQPmを算出する(ステップA4)。具体的には、事前処理部11は、上記の数1を用いて、第1の量子化パラメータQPmを算出する。   Next, the pre-processing unit 11 calculates a first quantization parameter QPm of the target frame 22 based on the degree of complexity calculated in step A3 (step A4). Specifically, the pre-processing unit 11 calculates the first quantization parameter QPm using the above Equation 1.

次に、事前処理部11は、対象フレーム22を、2以上のブロック21に分割する(ステップA5)。具体的には、事前処理部11は、ブロックサイズが16×16となるように対象フレーム22を分割する。   Next, the pre-processing unit 11 divides the target frame 22 into two or more blocks 21 (step A5). Specifically, the pre-processing unit 11 divides the target frame 22 so that the block size is 16 × 16.

次に、事前処理部11は、ステップA1で取得した時系列画像から、基準となるフレームとして、参照フレーム23を選出する(ステップA6)。また、ステップA6では、事前処理部11は、ステップA5と同様に、参照フレーム23を、ブロックサイズが16×16となるように分割する。なお、参照フレームとして用いるべきフレームが予め設定されている場合は、ステップA6は省略される。   Next, the pre-processing unit 11 selects a reference frame 23 as a reference frame from the time-series image acquired in step A1 (step A6). In step A6, the pre-processing unit 11 divides the reference frame 23 so that the block size is 16 × 16, as in step A5. When a frame to be used as a reference frame is set in advance, step A6 is omitted.

次に、事前処理部11は、対象フレーム22と参照フレーム23とを比較して、対象フレーム22のブロック毎に差分を算出する(ステップA7)。具体的には、事前処理部11は、上記の数2を用いて、ブロック毎にMBy差分を算出する。   Next, the pre-processing unit 11 compares the target frame 22 with the reference frame 23 to calculate a difference for each block of the target frame 22 (step A7). Specifically, the pre-processing unit 11 calculates the MBy difference for each block, using the above-mentioned Equation 2.

次に、事前処理部11は、ブロック毎に、MBy差分と第1の量子化パラメータQPmとを用いて、対象フレーム22の第2の量子化パラメータQP_MByを算出する(ステップA8)。具体的には、事前処理部11は、上記の数3〜数7を用いて、ブロック毎に第2の量子化パラメータQP_MByを算出する。   Next, the pre-processing unit 11 calculates, for each block, the second quantization parameter QP_MBy of the target frame 22 using the MBy difference and the first quantization parameter QPm (step A8). Specifically, the pre-processing unit 11 calculates the second quantization parameter QP_MBy for each block using the above-described Equations 3 to 7.

次に、映像符号化部12は、対象フレーム22において、ブロック毎に、それを構成する各画素の値を第2の量子化パラメータを用いて量子化する(ステップA9)。具体的には、映像符号化部12は、ブロック毎に、上記の数8を用いて、ブロックを構成する各画素を量子化する。   Next, the video encoding unit 12 quantizes the value of each pixel making up each block in the target frame 22 using the second quantization parameter (step A9). Specifically, the video encoding unit 12 quantizes each pixel forming the block, using the above-described Equation 8 for each block.

次に、映像符号化部12は、各ブロックが量子化された対象フレーム22を符号化する(ステップA10)。具体的には、映像符号化部12は、各画素が量子化されたブロック毎に、ブロック内を走査しながらデータを読み出し、読み出したデータを圧縮することによって、対象フレーム全体を符号化する。   Next, the video encoding unit 12 encodes the target frame 22 in which each block is quantized (step A10). Specifically, for each block in which each pixel is quantized, the video encoding unit 12 reads the data while scanning the inside of the block, and encodes the entire target frame by compressing the read data.

その後、事前処理部11は、全てのフレームに対して処理が終了しているかどうかを判定する(ステップA11)。ステップA11の判定の結果、全てのフレームに対して処理が終了していない場合は、事前処理部11は、再度ステップA2を実行する。一方、ステップA11の判定の結果、全てのフレームに対して処理が終了している場合は、映像符号化装置10における処理は終了する。   After that, the pre-processing unit 11 determines whether the process is completed for all the frames (step A11). As a result of the determination in step A11, when the process has not been completed for all the frames, the pre-processing unit 11 executes step A2 again. On the other hand, as a result of the determination in step A11, when the processing for all the frames is completed, the processing in the video encoding device 10 is ended.

[実施の形態1における効果]
以上のように本実施の形態1によれば、従来のマルチパス符号化処理と異なり、統計情報又は解析情報等を用いる必要がなく、処理全体を簡略化できるので、基板の増加を抑制できる。また、ブロック毎に算出された第2の量子化パラメータを用いてフレームが符号化されるので、画質の低下も抑制される。更に、本実施の形態1では、映像符号化装置10は、ブロック毎に柔軟にビットレートを割り振ることができるので、効率良く符号化を実行することができる。
[Effect in Embodiment 1]
As described above, according to the first embodiment, unlike the conventional multi-pass coding processing, it is not necessary to use statistical information or analysis information and the like, and the entire processing can be simplified, so that the increase of the substrate can be suppressed. In addition, since the frame is encoded using the second quantization parameter calculated for each block, deterioration in image quality is also suppressed. Furthermore, in the first embodiment, since the video encoding device 10 can flexibly allocate a bit rate to each block, encoding can be efficiently performed.

[プログラム]
本発明の実施の形態1におけるプログラムは、コンピュータに、図3に示すステップA1〜A11を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における映像符号化装置10と映像符号化方法とを実現することができる。この場合、コンピュータのプロセッサは、事前処理部11及び映像符号化部12として機能し、処理を行なう。
[program]
The program according to the first embodiment of the present invention may be any program that causes a computer to execute steps A1 to A11 shown in FIG. By installing this program in a computer and executing it, the video encoding device 10 and the video encoding method in the present embodiment can be realized. In this case, the processor of the computer functions as the pre-processing unit 11 and the video encoding unit 12 to perform processing.

また、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、事前処理部11及び映像符号化部12のいずれかとして機能しても良い。   Also, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as either the pre-processing unit 11 or the video encoding unit 12.

(実施の形態2)
次に、本発明の実施形態2における、映像符号化装置、映像符号化方法、及びプログラムについて、図4及び図5を参照しながら説明する。
Second Embodiment
Next, a video coding apparatus, a video coding method, and a program according to the second embodiment of the present invention will be described with reference to FIGS. 4 and 5.

[装置構成]
最初に、本実施の形態2における映像符号化装置の構成について説明する。本実施の形態2における映像符号化装置は、図1に示した実施の形態1における映像符号化装置と同様の構成を有している。このため、以下の説明では、適宜図1を参照する。但し、本実施の形態2における映像符号化装置は、事前処理部11の機能の点において、実施の形態1における映像符号化装置の機能とは異なる。以下に図4を用いて、実施の形態1との相違点を中心に説明する。
[Device configuration]
First, the configuration of the video encoding apparatus according to the second embodiment will be described. The video coding apparatus in the second embodiment has the same configuration as the video coding apparatus in the first embodiment shown in FIG. Therefore, in the following description, FIG. 1 will be referred to as appropriate. However, the video encoding apparatus according to the second embodiment differs from the video encoding apparatus according to the first embodiment in the function of the pre-processing unit 11. Hereinafter, differences from the first embodiment will be mainly described with reference to FIG.

図4は、本発明の実施の形態2における映像符号化装置の事前処理部における処理を説明する図である。図4に示すように、事前処理部11は、本実施の形態2では、最初に、対象フレーム22のブロックそれぞれ毎に、ブロックを構成する各画素の画素値からブロックにおける分散値を算出する。   FIG. 4 is a diagram for explaining the processing in the pre-processing unit of the video encoding device in the second embodiment of the present invention. As shown in FIG. 4, in the second embodiment, the pre-processing unit 11 first calculates, for each block of the target frame 22, the variance value in the block from the pixel value of each pixel constituting the block.

具体的には、事前処理部11は、対象フレーム22のブロックを構成する全画素値の平均値を算出する。そして、事前処理部11は、ブロックを構成する画素毎に、各画素の画素値と、算出した全画素値の平均値との差分を求め、画素毎に求めた差分をブロック全体で積算する。更に、事前処理部11は、ブロック全体の差分の積算値を、ブロック全体の画素数で除算して、ブロックの分散値V[y]を算出する。事前処理部11は、対象フレーム22の全てのブロックについて、同様の処理を行ってブロック毎の分散値V[MBy]を算出する。   Specifically, the pre-processing unit 11 calculates an average value of all pixel values constituting the block of the target frame 22. And the pre-processing part 11 calculates | requires the difference of the pixel value of each pixel, and the average value of the calculated all pixel values for every pixel which comprises a block, and integrates the difference calculated | required for every pixel over the whole block. Furthermore, the pre-processing unit 11 divides the integrated value of the differences of the entire block by the number of pixels of the entire block to calculate the dispersion value V [y] of the block. The pre-processing unit 11 performs the same process on all the blocks of the target frame 22 to calculate the dispersion value V [MBy] for each block.

ここで、ブロック21を構成する各画素の画素値をyiとし、ブロック21を構成する全画素の画素値の平均値をuとする。また、実施形態1と同様に、本実施の形態2でも、ブロック21のサイズが16×16の画素で構成されているとすると、画素数nは256となる。この場合、事前処理部11は、ブロックの分散値V[y]を、以下の数9を用いて算出することができる。   Here, the pixel value of each pixel forming the block 21 is yi, and the average value of the pixel values of all the pixels forming the block 21 is u. Further, as in the first embodiment, also in the second embodiment, when the block 21 is configured by 16 × 16 pixels, the number of pixels n is 256. In this case, the pre-processing unit 11 can calculate the block variance value V [y] using the following Equation 9.

Figure 2019092105
Figure 2019092105

次に、事前処理部11は、ブロック毎に算出した分散値と、対象フレーム22の第1の量子化パラメータQPmとを用いて、ブロック毎に、対象フレーム22の第2の量子化パラメータQP_MByを算出する。ここで、対象フレーム22の各ブロックの分散値をV[MBy]、対象フレーム22の各ブロックの分散値に対する任意の係数をfとすると、第2の量子化パラメータQP_MByは、以下の数10及び数11を用いて算出することができる。また、事前処理部11は、算出した第2の量子化パラメータQP_MBy及び対象フレーム22を映像符号化部12に出力する。   Next, the pre-processing unit 11 uses the variance value calculated for each block and the first quantization parameter QPm of the target frame 22 to generate the second quantization parameter QP_MBy of the target frame 22 for each block. calculate. Here, assuming that the dispersion value of each block of the target frame 22 is V [MBy] and an arbitrary coefficient to the dispersion value of each block of the target frame 22 is f, the second quantization parameter QP_MBy is It can be calculated using Equation 11. Further, the pre-processing unit 11 outputs the calculated second quantization parameter QP_MBy and the target frame 22 to the video encoding unit 12.

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

その後、実施の形態1と同様に、映像符号化部12は、対象フレーム22を構成するブロック毎に、各ブロックについて算出された第2の量子化パラメータを用いて量子化を行い、更に、ブロックが量子化された対象フレーム22を符号化する。   After that, as in the first embodiment, the video encoding unit 12 performs quantization for each block constituting the target frame 22 using the second quantization parameter calculated for each block, and further performs block calculation. Encodes the quantized target frame 22.

[装置動作]
次に、本発明の実施の形態2における映像符号化装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態2における映像符号化装置の動作を示すフロー図である。以下の説明においては、適宜図1及び図4を参照する。また、本実施の形態2では、映像符号化装置を動作させることによって、映像符号化方法が実施される。よって、本実施の形態2における映像符号化方法の説明は、以下の映像符号化装置の動作説明に代える。
[Device operation]
Next, the operation of the video encoding device 10 according to the second embodiment of the present invention will be described using FIG. FIG. 5 is a flowchart showing the operation of the video encoding apparatus in the second embodiment of the present invention. In the following description, FIGS. 1 and 4 will be referred to as appropriate. Also, in the second embodiment, the video coding method is implemented by operating the video coding apparatus. Therefore, the description of the video coding method in the second embodiment is replaced with the following description of the operation of the video coding apparatus.

図4に示すように、最初に、事前処理部11は、複数のフレームで構成される時系列画像を取得する(ステップB1)。ステップB1は、図3に示したステップA1と同様のステップである。   As shown in FIG. 4, first, the pre-processing unit 11 acquires a time-series image composed of a plurality of frames (step B1). Step B1 is the same step as step A1 shown in FIG.

次に、事前処理部11は、ステップB1で取得した時系列画像を構成する1つフレームを取り出し、これを対象フレーム22に設定する(ステップB2)。ステップB2は、図3に示したステップA2と同様のステップである。   Next, the pre-processing unit 11 takes out one frame constituting the time-series image acquired in step B1 and sets it as the target frame 22 (step B2). Step B2 is the same step as step A2 shown in FIG.

次に、事前処理部11は、ステップB2で設定した対象フレーム22の複雑度を算出する(ステップB3)。ステップB3は、図3に示したステップA3と同様のステップである。   Next, the pre-processing unit 11 calculates the complexity of the target frame 22 set in step B2 (step B3). Step B3 is the same step as step A3 shown in FIG.

次に、事前処理部11は、ステップB3で算出した複雑度に基づいて、対象フレーム22の第1の量子化パラメータQPmを算出する(ステップB4)。ステップB4は、図3に示したステップA4と同様のステップである。   Next, the pre-processing unit 11 calculates a first quantization parameter QPm of the target frame 22 based on the degree of complexity calculated in step B3 (step B4). Step B4 is the same step as step A4 shown in FIG.

次に、事前処理部11は、対象フレーム22を、2以上のブロック21に分割する(ステップB5)。ステップB5は、図3に示したステップA5と同様のステップである。   Next, the pre-processing unit 11 divides the target frame 22 into two or more blocks 21 (step B5). Step B5 is the same step as step A5 shown in FIG.

次に、事前処理部11は、対象フレーム22のブロック毎に分散値V[y]を算出する(ステップB6)。具体的には、事前処理部11は、上記の数9を用いて、ブロック毎に分散値V[y]を算出する。   Next, the pre-processing unit 11 calculates the variance value V [y] for each block of the target frame 22 (step B6). Specifically, the pre-processing unit 11 calculates the variance value V [y] for each block using the above-described Equation 9.

次に、事前処理部11は、ブロック毎に、分散値V[y]と第1の量子化パラメータQPmとを用いて、対象フレーム22の第2の量子化パラメータQP_MByを算出する(ステップB7)。具体的には、事前処理部11は、上記の数10及び数11を用いて、ブロック毎に第2の量子化パラメータQP_MByを算出する。   Next, the pre-processing unit 11 calculates, for each block, the second quantization parameter QP_MBy of the target frame 22 using the dispersion value V [y] and the first quantization parameter QPm (step B7). . Specifically, the pre-processing unit 11 calculates the second quantization parameter QP_MBy for each block using the above Equations 10 and 11.

次に、映像符号化部12は、対象フレーム22において、ブロック毎に、ステップB7で算出した第2の量子化パラメータを用いて量子化する(ステップB8)。具体的には、映像符号化部12は、ブロック毎に、上記の数8を用いて、ブロックを構成する各画素を
量子化する。
Next, the video encoding unit 12 quantizes each block in the target frame 22 using the second quantization parameter calculated in step B7 (step B8). Specifically, the video encoding unit 12 quantizes each pixel forming the block, using the above-described Equation 8 for each block.

次に、映像符号化部12は、各ブロックが量子化された対象フレーム22を符号化する(ステップB9)。ステップB9は、図3に示したステップA10と同様のステップである。   Next, the video encoding unit 12 encodes the target frame 22 in which each block is quantized (step B9). Step B9 is similar to step A10 shown in FIG.

その後、事前処理部11は、全てのフレームに対して処理が終了しているかどうかを判定する(ステップB10)。ステップB10の判定の結果、全てのフレームに対して処理が終了していない場合は、事前処理部11は、再度ステップB2を実行する。一方、ステップB10の判定の結果、全てのフレームに対して処理が終了している場合は、映像符号化装置における処理は終了する。   Thereafter, the pre-processing unit 11 determines whether the process is completed for all the frames (step B10). If it is determined in step B10 that the process has not been completed for all the frames, the pre-processing unit 11 executes step B2 again. On the other hand, as a result of the determination in step B10, when the process is completed for all the frames, the process in the video encoding device is completed.

[実施の形態2における効果]
以上のように本実施の形態2による場合も、実施の形態1と同様に、処理全体を簡略化できるので、基板の増加を抑制できる。また、本実施の形態2では、映像符号化装置は、ブロック毎に分散値を求めている。従って、映像符号化装置は、分散値が小さいブロックに対しては、フレームがなだらかに変化している箇所と判定して、ビットレートを少なく割り振る。一方、映像符号化装置は、分散値が大きいブロックに対しては、フレームが急激に変化している箇所と判定して、ビットレートを多く割り振る。このため、本実施の形態2を用いた場合も、上述した実施の形態1と同様に、柔軟にビットレートを割り振ることができ、効率良く符号化を実行できる。
[Effect in Embodiment 2]
As described above, also in the second embodiment, as in the first embodiment, the entire process can be simplified, so that the increase in the number of substrates can be suppressed. Further, in the second embodiment, the video encoding apparatus obtains the variance value for each block. Therefore, the video encoding apparatus determines that the frame has a gradual change to a block having a small variance value, and allocates a small bit rate. On the other hand, the video encoding apparatus allocates a large bit rate to a block having a large variance value by determining that the frame is changing rapidly. For this reason, also when the second embodiment is used, bit rates can be flexibly allocated similarly to the first embodiment described above, and encoding can be efficiently performed.

加えて、本実施の形態2では、ブロック毎に求められた分散値により、フレーム全体における変化の状態が特定されることになるため、実施の形態1に比べて、動きの多い映像に対して、より効率的に符号化を実行できる。   In addition, in the second embodiment, since the state of change in the entire frame is specified by the dispersion value obtained for each block, the image having a large amount of motion as compared with the first embodiment can be obtained. Can perform encoding more efficiently.

[プログラム]
本発明の実施の形態2におけるプログラムは、コンピュータに、図5に示すステップB1〜B10を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における映像符号化装置と映像符号化方法とを実現することができる。この場合、コンピュータのプロセッサは、事前処理部11及び映像符号化部12として機能し、処理を行なう。
[program]
The program according to the second embodiment of the present invention may be a program that causes a computer to execute steps B1 to B10 shown in FIG. By installing this program in a computer and executing it, the video encoding device and the video encoding method according to the present embodiment can be realized. In this case, the processor of the computer functions as the pre-processing unit 11 and the video encoding unit 12 to perform processing.

また、本実施の形態2におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、事前処理部11及び映像符号化部12のいずれかとして機能しても良い。   Further, the program in the second embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as either the pre-processing unit 11 or the video encoding unit 12.

(実施の形態3)
次に、本発明の実施形態3における、映像符号化装置、映像符号化方法、及びプログラムについて、図6及び図7を参照しながら説明する。
Third Embodiment
Next, a video encoding apparatus, a video encoding method, and a program according to the third embodiment of the present invention will be described with reference to FIGS. 6 and 7.

[装置構成]
最初に、本実施の形態3における映像符号化装置について説明する。本実施の形態3における映像符号化装置も、図1に示した実施の形態1における映像符号化装置と同様の構成を有している。このため、以下の説明では、適宜図1を参照する。但し、本実施の形態3における映像符号化装置は、事前処理部11の機能の点において、実施の形態1における映像符号化装置の機能とは異なる。以下に図6を用いて、実施の形態1との相違点を中心に説明する。
[Device configuration]
First, the video encoding apparatus according to the third embodiment will be described. The video coding apparatus in the third embodiment also has the same configuration as the video coding apparatus in the first embodiment shown in FIG. Therefore, in the following description, FIG. 1 will be referred to as appropriate. However, the video encoding apparatus according to the third embodiment differs from the video encoding apparatus according to the first embodiment in the function of the pre-processing unit 11. Hereinafter, differences from the first embodiment will be mainly described with reference to FIG.

図6は、本発明の実施の形態3における映像符号化装置の事前処理部における処理を説明する図である。図6に示すように、事前処理部11は、本実施の形態3では、最初に、動き補償フレーム間予測により予測フレーム30を生成する。具体的には、対象フレーム22と参照フレーム23とから動き補償フレーム間予測により予測フレーム30を生成する。また、動き補償フレーム間予測は、既存の手法を用いて行うことができ、具体的には、勾配法又はブロックマッチング法等を用いることができる。   FIG. 6 is a diagram for explaining processing in the pre-processing unit of the video encoding device in Embodiment 3 of the present invention. As shown in FIG. 6, in the third embodiment, the pre-processing unit 11 first generates a prediction frame 30 by motion-compensated inter-frame prediction. Specifically, the prediction frame 30 is generated from the target frame 22 and the reference frame 23 by motion compensation interframe prediction. In addition, motion compensation inter-frame prediction can be performed using an existing method, and specifically, a gradient method or a block matching method can be used.

次に、事前処理部11は、生成した予測フレーム30と対象フレーム22とを比較して、対象フレーム22のブロック毎に差分を算出する。具体的には、事前処理部11は、対象フレーム22の任意のブロック21と、それに対応する予測フレーム30のブロックとを特定する。そして、事前処理部11は、特定した2つのブロックにおいて対応する画素間の差分を求め、求めた各画素間の差分をブロック全体で積算して、特定した2つのブロック間の差分を算出する。事前処理部11は、対象フレーム22の全てのブロックについて、同様の処理を行って差分を算出する。   Next, the pre-processing unit 11 compares the generated predicted frame 30 with the target frame 22 to calculate a difference for each block of the target frame 22. Specifically, the pre-processing unit 11 identifies an arbitrary block 21 of the target frame 22 and a block of the prediction frame 30 corresponding to the arbitrary block 21. Then, the pre-processing unit 11 obtains a difference between corresponding pixels in the two identified blocks, integrates the obtained differences between the respective pixels in the entire block, and calculates a difference between the identified two blocks. The pre-processing unit 11 performs the same process on all the blocks of the target frame 22 to calculate a difference.

ここで、時間tにおける対象フレーム22をOrg(t)とし、時間tにおける予測フレーム30をPred(t)とし、y番目のブロックをMByとし、ブロックを構成するi番目の画素値をYiとする。また、本実施の形態3では、ブロックのサイズが16×16の画素で構成されているとすると、画素数nは256となる。この場合、事前処理部11は、対象フレーム22のy番目のブロックと、これに対応する予測フレーム30のy番目のブロックとの差分(「Diff[MBy]」と表記する)を、下記の数12を用いて算出することができる。   Here, the target frame 22 at time t is Org (t), the predicted frame 30 at time t is Pred (t), the y-th block is MBy, and the i-th pixel value constituting the block is Yi. . Further, in the third embodiment, assuming that the block size is configured by 16 × 16 pixels, the number of pixels n is 256. In this case, the pre-processing unit 11 calculates the difference between the y-th block of the target frame 22 and the y-th block of the predicted frame 30 corresponding to this (denoted as "Diff [MBy]") by the following number: It can be calculated using 12.

Figure 2019092105
Figure 2019092105

次に、事前処理部11は、対象フレーム22と予測フレーム30とからブロック毎に算出したDiff[MBy]と、対象フレーム22の第1の量子化パラメータQPmとを用いて、ブロック毎に、対象フレーム22の第2の量子化パラメータQP_MByを算出する。具体的には、事前処理部11は、以下の数13〜数17を用いて、第2の量子化パラメータQP_MByを算出することができる。また、事前処理部11は、算出した第2の量子化パラメータQP_MBy及び対象フレーム22を映像符号化部12に出力する。   Next, the pre-processing unit 11 uses the Diff [MBy] calculated for each block from the target frame 22 and the predicted frame 30 and the first quantization parameter QPm of the target frame 22 to perform the target for each block. The second quantization parameter QP_MBy of the frame 22 is calculated. Specifically, the pre-processing unit 11 can calculate the second quantization parameter QP_MBy using the following Equations 13 to 17. Further, the pre-processing unit 11 outputs the calculated second quantization parameter QP_MBy and the target frame 22 to the video encoding unit 12.

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

その後、本実施の形態1と同様に、映像符号化部12は、対象フレーム22を構成するブロック毎に、各ブロックについて算出された第2の量子化パラメータを用いて量子化を行い、更に、ブロックが量子化された対象フレーム22を符号化する。   After that, as in the first embodiment, the video encoding unit 12 performs quantization using the second quantization parameter calculated for each block, for each of the blocks that constitute the target frame 22, and further, The target frame 22 in which the block is quantized is encoded.

[装置動作]
次に、本発明の実施の形態3における映像符号化装置10の動作について図7を用いて説明する。図7は、本発明の実施の形態3における映像符号化装置の動作を示すフロー図である。以下の説明においては、適宜図1及び図6を参照する。また、本実施の形態3では、映像符号化装置を動作させることによって、映像符号化方法が実施される。よって、本実施の形態3における映像符号化方法の説明は、以下の映像符号化装置の動作説明に変える。
[Device operation]
Next, the operation of the video encoding device 10 according to the third embodiment of the present invention will be described using FIG. FIG. 7 is a flow chart showing the operation of the video encoding apparatus in the third embodiment of the present invention. In the following description, FIGS. 1 and 6 will be referred to as appropriate. Also, in the third embodiment, the video coding method is implemented by operating the video coding apparatus. Therefore, the description of the video coding method in the third embodiment is changed to the following description of the operation of the video coding apparatus.

図7に示すように、最初に、事前処理部11は、複数のフレームで構成される時系列画像を取得する(ステップC1)。ステップC1は、図3に示したステップA1と同様のステップである。   As shown in FIG. 7, first, the pre-processing unit 11 acquires a time-series image composed of a plurality of frames (step C1). Step C1 is the same step as step A1 shown in FIG.

次に、事前処理部11は、ステップC1で取得した時系列画像を編成する1つフレームを取り出し、これを対象フレーム22に設定する(ステップC2)。ステップC2は、図3に示したステップA2と同様のステップである。   Next, the pre-processing unit 11 takes out one frame that organizes the time-series image acquired in step C1 and sets it as a target frame 22 (step C2). Step C2 is the same step as step A2 shown in FIG.

次に、事前処理部11は、ステップC2で設定した対象フレーム22の複雑度を算出する(ステップC3)。ステップC3は、図3に示したステップA3と同様のステップである。   Next, the pre-processing unit 11 calculates the complexity of the target frame 22 set in step C2 (step C3). Step C3 is similar to step A3 shown in FIG.

次に、事前処理部11は、ステップC3で算出した複雑度に基づいて、対象フレーム22の第1の量子化パラメータQPmを算出する(ステップC4)。ステップC4は、図3に示したステップA4と同様のステップである。   Next, the pre-processing unit 11 calculates a first quantization parameter QPm of the target frame 22 based on the degree of complexity calculated in step C3 (step C4). Step C4 is the same step as step A4 shown in FIG.

次に、事前処理部11は、対象フレーム22を、2以上のブロック21に分割する(ステップC5)。ステップC5は、図3に示したステップA5と同様のステップである。   Next, the pre-processing unit 11 divides the target frame 22 into two or more blocks 21 (step C5). Step C5 is similar to step A5 shown in FIG.

次に、事前処理部11は、ステップC1で取得した時系列画像から、基準となるフレームとして、参照フレーム23を選出する(ステップC6)。ステップC6は、図3に示したステップA6と同様のステップである。   Next, the pre-processing unit 11 selects the reference frame 23 as a reference frame from the time-series image acquired in step C1 (step C6). Step C6 is the same step as step A6 shown in FIG.

次に、事前処理部11は、対象フレーム22と参照フレーム23とから予測フレーム30を生成する(ステップC7)。具体的には、事前処理部11は、動き補償フレーム間予測により、対象フレーム22と参照フレーム23とから予測フレーム30を生成する。   Next, the pre-processing unit 11 generates a predicted frame 30 from the target frame 22 and the reference frame 23 (step C7). Specifically, the pre-processing unit 11 generates a prediction frame 30 from the target frame 22 and the reference frame 23 by motion compensation inter-frame prediction.

次に、事前処理部11は、対象フレーム22と予測フレーム30とを比較して、対象フレーム22のブロック毎に差分を算出する(ステップC9)。具体的には、事前処理部11は、上記の数12を用いて、ブロック毎にDiff[MBy]を算出する。   Next, the pre-processing unit 11 compares the target frame 22 with the prediction frame 30, and calculates a difference for each block of the target frame 22 (step C9). Specifically, the pre-processing unit 11 calculates Diff [MBy] for each block using the above equation 12.

次に、事前処理部11は、ブロック毎に、Diff[MBy]と第1の量子化パラメータQPmとを用いて、対象フレーム22の第2の量子化パラメータQP_MByを算出する(ステップC8)。具体的には、事前処理部11は、上記の数13〜数17を用いて、
ブロック毎に第2の量子化パラメータQP_MByを算出する。
Next, the pre-processing unit 11 calculates, for each block, a second quantization parameter QP_MBy of the target frame 22 using Diff [MBy] and the first quantization parameter QPm (step C8). Specifically, the pre-processing unit 11 uses the above Equations 13 to 17 to
A second quantization parameter QP_MBy is calculated for each block.

次に、映像符号化部12は、対象フレーム22において、ブロック毎に、ステップC9で算出した第2の量子化パラメータを用いて量子化する(ステップC10)。具体的には、映像符号化部12は、ブロック毎に、上記の数8を用いて、ブロックを構成する各画素を量子化する。   Next, the video encoding unit 12 quantizes each block in the target frame 22 using the second quantization parameter calculated in step C9 (step C10). Specifically, the video encoding unit 12 quantizes each pixel forming the block, using the above-described Equation 8 for each block.

次に、映像符号化部12は、各ブロックが量子化された対象フレーム22を符号化する(ステップC11)。ステップC11は、図3に示したステップA10と同様のステップである。   Next, the video encoding unit 12 encodes the target frame 22 in which each block is quantized (step C11). Step C11 is similar to step A10 shown in FIG.

その後、事前処理部11は、全てのフレームに対して処理が終了しているかどうかを判定する(ステップC12)。ステップC12の判定の結果、全てのフレームに対して処理が終了していない場合は、事前処理部11は、再度ステップC2を実行する。一方、ステップC12の判定の結果、全てのフレームに対して処理が終了している場合は、映像符号化装置における処理は終了する。   Thereafter, the pre-processing unit 11 determines whether the process is completed for all the frames (step C12). If it is determined in step C12 that the process has not been completed for all the frames, the pre-processing unit 11 executes step C2 again. On the other hand, as a result of the determination in step C12, when the processing for all the frames is completed, the processing in the video encoding device is ended.

[実施の形態3における効果]
以上のように本実施の形態3による場合も、実施の形態1と同様に、処理全体を簡略化できるので、基板の増加を抑制できる。また、実施の形態3では、映像符号化装置は、動き補償フレーム間予測により生成した予測フレームを用いて、ブロック毎に、第2の量子化パラメータを求めている。このため、本実施の形態3を用いた場合も、上述した実施の形態1と同様に、柔軟にビットレートを割り振ることができ、効率良く符号化を実行できる。
[Effect in Embodiment 3]
As described above, also in the third embodiment, as in the first embodiment, the whole process can be simplified, so that the increase in the number of substrates can be suppressed. Further, in the third embodiment, the video encoding apparatus obtains the second quantization parameter for each block using a prediction frame generated by motion compensation inter-frame prediction. For this reason, even when Embodiment 3 is used, bit rates can be flexibly allocated similarly to Embodiment 1 described above, and encoding can be performed efficiently.

加えて、本実施の形態3では、予測フレームによって、フレーム間での類似性が低いフレームが特定されることになるため、実施の形態1に比べて、動きの多い映像に対して、より効率的に符号化を実行できる。   In addition, in the third embodiment, a frame having a low similarity between frames is specified by the prediction frame, so that the efficiency is higher for a video with a large amount of motion as compared with the first embodiment. Encoding can be performed.

[プログラム]
本発明の実施の形態3におけるプログラムは、コンピュータに図7に示すステップC1〜C12を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の発明における映像符号化装置と映像符号化方法とを実現するこができる。この場合、コンピュータのプロセッサは、事前処理部11及び映像符号化部12として機能し、処理を行う。
[program]
The program according to the third embodiment of the present invention may be a program that causes a computer to execute steps C1 to C12 shown in FIG. By installing this program in a computer and executing it, the video encoding device and the video encoding method in the present invention can be realized. In this case, the processor of the computer functions as the pre-processing unit 11 and the video encoding unit 12 to perform processing.

また、本実施の形態3におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、事前処理部11及び映像符号化部12のいずれかとして機能しても良い。   Furthermore, the program in the third embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as either the pre-processing unit 11 or the video encoding unit 12.

(実施の形態4)
次に、本発明の実施形態4における、映像符号化装置、映像符号化方法、及びプログラムについて図8を参照しながら説明する。
Embodiment 4
Next, a video encoding apparatus, a video encoding method, and a program according to a fourth embodiment of the present invention will be described with reference to FIG.

[装置構成]
最初に本実施の形態4における、映像符号化装置について説明する。本実施の形態4における符号化装置も、図1に示した実施の形態1における映像符号化装置と同様の構成を有している。このため、以下の説明では、適宜図1を参照する。但し、本実施の形態4における映像符号化装置は、実施の形態1、実施の形態2、及び実施の形態3における映像符号化装置の事前処理部11の機能を全て持っている。以下に図2、図4、及び図6を用
いて、具体的に説明する。
[Device configuration]
First, the video encoding apparatus according to the fourth embodiment will be described. The coding apparatus according to the fourth embodiment also has the same configuration as the video coding apparatus according to the first embodiment shown in FIG. Therefore, in the following description, FIG. 1 will be referred to as appropriate. However, the video encoding apparatus in the fourth embodiment has all the functions of the pre-processing unit 11 of the video encoding apparatus in the first embodiment, the second embodiment, and the third embodiment. This will be specifically described below with reference to FIGS. 2, 4 and 6.

本実施の形態4においては、事前処理部11は、まず、複数のフレームの中から基準となる参照フレームを選出し、対象フレームと参照フレームとを比較して、対象フレームのブロック毎に第1の差分を算出する。次いで、事前処理部11は、対象フレームのブロック毎に、各ブロックを構成する各画素の画素値から各ブロックにおける分散値を算出する。加えて、事前処理部11は、動き補償フレーム間予測により予測フレームを生成し、対象フレームと予測フレームとを比較して、対象フレームのブロック毎に第2の差分を算出する。そして、事前処理部11は、第1の差分、分散値、第2の差分、及び第1の量子化パラメータを用いて、対象フレームのブロック毎に、第2の量子化パラメータを算出する。   In the fourth embodiment, the pre-processing unit 11 first selects a reference frame serving as a reference from among a plurality of frames, compares the target frame with the reference frame, and selects the first for each block of the target frame. Calculate the difference of Next, for each block of the target frame, the pre-processing unit 11 calculates the variance value in each block from the pixel value of each pixel constituting each block. In addition, the pre-processing unit 11 generates a prediction frame by motion compensation inter-frame prediction, compares the target frame with the prediction frame, and calculates a second difference for each block of the target frame. Then, the pre-processing unit 11 calculates a second quantization parameter for each block of the target frame using the first difference, the variance value, the second difference, and the first quantization parameter.

具体的には、事前処理部11は、まず、上述の実施の形態1で示した図1を用いて、第1の量子化パラメータQPmを算出する。次いで、事前処理部11は、上述の実施形態1で示した数2を用いて、第1の差分として、MBy差分を算出する。また、事前処理部11は、上述の実施形態2で示した数9を用いて、分散値V[MBy]を算出する。更に、事前処理部11は、上述の実施形態3で示した数12を用いて、第2の差分として、差分Diff[MBy]を算出する。   Specifically, the pre-processing unit 11 first calculates the first quantization parameter QPm using FIG. 1 shown in the above-described first embodiment. Next, the pre-processing unit 11 calculates the MBy difference as the first difference using the number 2 shown in the above-described first embodiment. Further, the pre-processing unit 11 calculates the variance value V [MBy] using the equation 9 shown in the above-mentioned second embodiment. Furthermore, the pre-processing unit 11 calculates the difference Diff [MBy] as the second difference using Expression 12 shown in the above-described third embodiment.

続いて、事前処理部11は、下記の数18〜図23に、MBy差分、分散値V[MBy]、差分Diff[MBy]、及び第1の量子化パラメータQPmを適用して、対象フレーム22のブロック毎に、第2の量子化パラメータQP_MByを算出する。なお、数18において、αは、任意の係数(0≦α≦1)を示している。また、数18において、critは、上述の実施の形態2で用いた数10から算出される。そして、事前処理部11は、算出した第2の量子化パラメータQP_MBy及び対象フレーム22を映像符号化部12に出力する。   Subsequently, the pre-processing unit 11 applies the MBy difference, the variance value V [MBy], the difference Diff [MBy], and the first quantization parameter QPm to the following Equations 18 to 23 to obtain the target frame 22. The second quantization parameter QP_MBy is calculated for each block of In Expression 18, α indicates an arbitrary coefficient (0 ≦ α ≦ 1). Further, in the equation (18), crit is calculated from the equation (10) used in the second embodiment described above. Then, the pre-processing unit 11 outputs the calculated second quantization parameter QP_MBy and the target frame 22 to the video encoding unit 12.

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

Figure 2019092105
Figure 2019092105

その後、本実施の形態1と同様に、映像符号化部12は、各フレームを構成するブロック毎に、各ブロックについて算出された第2の量子化パラメータを用いて量子化を行い、更に、ブロックが量子化された各フレームを符号化する。   After that, as in the first embodiment, the video encoding unit 12 performs quantization using the second quantization parameter calculated for each block, for each block that configures each frame, and further performs block calculation. Encodes each frame that has been quantized.

[装置動作]
次に、本発明の実施の形態4における映像符号化装置10の動作について図8を用いて説明する。図8は、本発明の実施の形態4における映像符号化装置の動作を示すフロー図である。以下の説明においては、適宜図1、図2、図4、及び図6を参照する。また、本実施の形態4では、映像符号化装置を動作させることによって、映像符号化方法が実施される。よって、本実施の形態4における映像符号化方法の説明は、以下の映像符号化装置の動作説明に変える。
[Device operation]
Next, the operation of the video encoding device 10 according to the fourth embodiment of the present invention will be described using FIG. FIG. 8 is a flow chart showing the operation of the video encoding apparatus in the fourth embodiment of the present invention. In the following description, FIG. 1, FIG. 2, FIG. 4, and FIG. 6 will be referred to as appropriate. Also, in the fourth embodiment, the video coding method is implemented by operating the video coding apparatus. Therefore, the description of the video coding method in the fourth embodiment is changed to the following description of the operation of the video coding apparatus.

図8に示すように、最初に、事前処理部11は、複数のフレームで構成される時系列画像を取得する(ステップD1)。ステップD1は、図8に示したステップA1と同様のステップである。   As shown in FIG. 8, first, the pre-processing unit 11 acquires a time-series image composed of a plurality of frames (step D1). Step D1 is the same step as step A1 shown in FIG.

次に、事前処理部11は、ステップD1で取得した時系列画像を編成する1つフレームを取り出し、これを対象フレーム22に設定する(ステップD2)。ステップD2は、図3に示したステップA2と同様のステップである。   Next, the pre-processing unit 11 takes out one frame that organizes the time-series image acquired in step D1 and sets it as the target frame 22 (step D2). Step D2 is similar to step A2 shown in FIG.

次に、事前処理部11は、ステップD2で設定した対象フレーム22の複雑度を算出する(ステップD3)。ステップD3は、図3に示したステップA3と同様のステップである。   Next, the pre-processing unit 11 calculates the complexity of the target frame 22 set in step D2 (step D3). Step D3 is the same step as step A3 shown in FIG.

次に、事前処理部11は、ステップD3で算出した複雑度に基づいて、対象フレーム22の第1の量子化パラメータQPmを算出する(ステップD4)。ステップD4は、図3に示したステップA4と同様のステップである。   Next, the pre-processing unit 11 calculates a first quantization parameter QPm of the target frame 22 based on the degree of complexity calculated in step D3 (step D4). Step D4 is the same step as step A4 shown in FIG.

次に、事前処理部11は、対象フレーム22を、2以上のブロック21に分割する(ステップD5)。ステップD5は、図3に示したステップA5と同様のステップである。   Next, the pre-processing unit 11 divides the target frame 22 into two or more blocks 21 (step D5). Step D5 is the same as step A5 shown in FIG.

次に、事前処理部11は、ステップD1で取得した時系列画像から、基準となるフレームとして、参照フレーム23を選出する(ステップD6)。ステップD6は、図3に示したステップA6と同様のステップである。   Next, the pre-processing unit 11 selects a reference frame 23 as a reference frame from the time-series image acquired in step D1 (step D6). Step D6 is the same step as step A6 shown in FIG.

次に、事前処理部11は、対象フレーム22と参照フレーム23とを比較して、対象フレーム22のブロック毎に第1の差分を算出する(ステップD7)。ステップD7は、図3に示したステップA7と同様のステップである。   Next, the pre-processing unit 11 compares the target frame 22 with the reference frame 23 to calculate a first difference for each block of the target frame 22 (step D7). Step D7 is similar to step A7 shown in FIG.

次に、事前処理部11は、対象フレーム22のブロック毎に分散値を算出する(ステップD8)。ステップD8は、図3に示したステップB6と同様のステップである。   Next, the pre-processing unit 11 calculates a variance value for each block of the target frame 22 (step D8). Step D8 is similar to step B6 shown in FIG.

次に、事前処理部11は、対象フレーム22と参照フレーム23とから予測フレーム30を生成する(ステップD9)。ステップD9は、図3に示したステップC7と同様のステップである。   Next, the pre-processing unit 11 generates a prediction frame 30 from the target frame 22 and the reference frame 23 (step D9). Step D9 is similar to step C7 shown in FIG.

次に、事前処理部11は、対象フレーム22と予測フレーム30とを比較して、対象フレーム22のブロック毎に第2の差分を算出する(ステップD10)。ステップD10は、図7に示したステップC8と同様のステップである。   Next, the pre-processing unit 11 compares the target frame 22 with the prediction frame 30, and calculates a second difference for each block of the target frame 22 (step D10). Step D10 is the same as step C8 shown in FIG.

次に、事前処理部11は、対象フレームのブロック毎に、第1の差分、分散値、第2の差分、及び第1の量子化パラメータを用いて、対象フレームのブロック毎に、第2の量子化パラメータを算出する。具体的には、事前処理部11は、上記の数18〜数23を用いて、ブロック毎に第2の量子化パラメータQP_MByを算出する。   Next, the pre-processing unit 11 uses the first difference, the variance value, the second difference, and the first quantization parameter for each block of the target frame to perform second processing for each block of the target frame. Calculate the quantization parameter. Specifically, the pre-processing unit 11 calculates the second quantization parameter QP_MBy for each block using the above Equations 18 to 23.

次に、映像符号化部12は、対象フレーム22において、ブロック毎に、ステップD11で算出した第2の量子化パラメータを用いて量子化する(ステップD12)。具体的には、映像符号化部12は、ブロック毎に、上記の数8を用いて、ブロックを構成する各画素を量子化する。   Next, the video encoding unit 12 quantizes each block in the target frame 22 using the second quantization parameter calculated in step D11 (step D12). Specifically, the video encoding unit 12 quantizes each pixel forming the block, using the above-described Equation 8 for each block.

次に、映像符号化部12は、各ブロックが量子化された対象フレーム22を符号化する(ステップD13)。ステップD13は、図3に示したステップA10と同様のステップである。   Next, the video encoding unit 12 encodes the target frame 22 in which each block is quantized (step D13). Step D13 is the same as step A10 shown in FIG.

その後、事前処理部11は、全てのフレームに対して処理が終了しているかどうかを判定する(ステップD14)。ステップD14の判定の結果、全てのフレームに対して処理が終了していない場合は、事前処理部11は、再度ステップD2を実行する。一方、ステップD14の判定の結果、全てのフレームに対して処理が終了している場合は、映像符号化装置における処理は終了する。   Thereafter, the pre-processing unit 11 determines whether the process is completed for all the frames (step D14). If it is determined in step D14 that the process has not been completed for all the frames, the pre-processing unit 11 executes step D2 again. On the other hand, as a result of the determination in step D14, when the processing for all the frames is completed, the processing in the video encoding device is ended.

[実施の形態4における効果]
以上のように本実施の形態4では、映像符号化装置では、事前処理部11は、実施の形態1〜3それぞれで用いられた事前処理部の機能を併せ持っている。このため、本実施の形態4によれば、実施の形態1〜3で述べた効果を得ることができる。
[Effect in Embodiment 4]
As described above, in the fourth embodiment, in the video encoding device, the pre-processing unit 11 also has the function of the pre-processing unit used in each of the first to third embodiments. Therefore, according to the fourth embodiment, the effects described in the first to third embodiments can be obtained.

[プログラム]
本発明の実施の形態4におけるプログラムは、コンピュータに図8に示すステップD1〜D14を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の発明における映像符号化装置と映像符号化方法とを実現するこができる。この場合、コンピュータのプロセッサは、事前処理部11及び映像符号化部12として機能し、処理を行う。
[program]
The program according to the fourth embodiment of the present invention may be a program that causes a computer to execute steps D1 to D14 shown in FIG. By installing this program in a computer and executing it, the video encoding device and the video encoding method in the present invention can be realized. In this case, the processor of the computer functions as the pre-processing unit 11 and the video encoding unit 12 to perform processing.

また、本実施の形態4におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、事前処理部11及び映像符号化部12のいずれかとして機能しても良い。   Further, the program in the fourth embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as either the pre-processing unit 11 or the video encoding unit 12.

(物理構成)
ここで、実施の形態1〜4におけるプログラムを実行することによって、映像符号化装置を実現するコンピュータについて図9を用いて説明する。図9は、本発明の実施の形態1〜4における映像符号化装置を実現するコンピュータの一例を示すブロック図である。
(Physical configuration)
Here, a computer for realizing the video encoding device by executing the program according to the first to fourth embodiments will be described with reference to FIG. FIG. 9 is a block diagram showing an example of a computer for realizing the video encoding apparatus in the first to fourth embodiments of the present invention.

図9に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。   As shown in FIG. 9, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are communicably connected to each other via a bus 121. The computer 110 may include a graphics processing unit (GPU) or a field-programmable gate array (FPGA) in addition to or instead of the CPU 111.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コ
ンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The CPU 111 develops the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executes various operations by executing these in a predetermined order. The main memory 112 is typically a volatile storage device such as a dynamic random access memory (DRAM). In addition, the program in the present embodiment is provided in the state of being stored in computer readable recording medium 120. The program in the present embodiment may be distributed on the Internet connected via communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。   Further, as a specific example of the storage device 113, besides a hard disk drive, a semiconductor storage device such as a flash memory may be mentioned. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and executes reading of a program from the recording medium 120 and writing of the processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。   In addition, specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark) and SD (Secure Digital), magnetic recording media such as flexible disk (Flexible Disk), or CD- Optical recording media such as ROM (Compact Disk Read Only Memory) can be mentioned.

なお、本実施の形態における映像符号化装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、映像符号化装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。   Note that the video encoding apparatus in the present embodiment can also be realized by using hardware corresponding to each unit, not a computer on which a program is installed. Furthermore, a part of the video encoding apparatus may be realized by a program, and the remaining part may be realized by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって表現することができるが、以下の記載に限定されるものではない。   A part or all of the embodiment described above can be expressed by (Appendix 1) to (Appendix 15) described below, but is not limited to the following description.

(付記1)
複数のフレームで構成された時系列画像を符号化する装置であって、
前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、事前処理部と、
前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、映像符号化部と、
を備えている、ことを特徴とする映像符号化装置。
(Supplementary Note 1)
An apparatus for encoding a time-series image composed of a plurality of frames, comprising:
The first quantization parameter of the frame is calculated based on the complexity of the frame for each of the plurality of frames, and the frame is further divided into two or more blocks. A pre-processing unit that calculates a second quantization parameter using a quantization parameter of 1;
Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks that constitute the frame, and the frame is further quantized A video encoding unit for encoding;
A video coding apparatus comprising:

(付記2)
前記事前処理部が、前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記1に記載の映像符号化装置。
(Supplementary Note 2)
The pre-processing unit selects a reference frame as a reference from among the plurality of frames, compares the frame with the reference frame, calculates a difference for each block of the frame, and calculates the difference. Calculating the second quantization parameter for each block of the frame, using the first quantization parameter and the first quantization parameter;
The video encoding device according to appendix 1.

(付記3)
前記事前処理部が、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、算出した前記分散値と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子
化パラメータを算出する、
付記1に記載の映像符号化装置。
(Supplementary Note 3)
The pre-processing unit calculates, for each of the blocks of the frame, the variance of the block from the pixel values of the pixels forming the block, and the calculated variance and the first quantization parameter. Calculate the second quantization parameter for each block of the frame using
The video encoding device according to appendix 1.

(付記4)
前記事前処理部が、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記1に記載の映像符号化装置。
(Supplementary Note 4)
The pre-processing unit generates a prediction frame by motion compensation inter-frame prediction, compares the frame with the prediction frame, calculates a difference for each block of the frame, and calculates the difference and the first difference. Calculating the second quantization parameter for each block of the frame using the quantization parameter of
The video encoding device according to appendix 1.

(付記5)
前記事前処理部が、前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に第1の差分を算出し、
更に、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、
加えて、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に第2の差分を算出し、
そして、前記第1の差分、前記分散値、前記第2の差分、及び前記第1の量子化パラメータを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記1に記載の映像符号化装置。
(Supplementary Note 5)
The pre-processing unit selects a reference frame serving as a reference from the plurality of frames, compares the frame with the reference frame, and calculates a first difference for each block of the frame.
Furthermore, for each of the blocks of the frame, the variance value of the block is calculated from the pixel values of the pixels that make up the block,
In addition, a prediction frame is generated by motion compensation inter-frame prediction, the frame is compared with the prediction frame, and a second difference is calculated for each block of the frame,
Then, using the first difference, the variance value, the second difference, and the first quantization parameter, the second quantization parameter is calculated for each block of the frame.
The video encoding device according to appendix 1.

(付記6)
複数のフレームで構成された時系列画像を符号化する方法であって、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を有する、ことを特徴とする映像符号化方法。
(Supplementary Note 6)
A method of encoding a time-series image composed of a plurality of frames, comprising:
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
A video coding method characterized in that:

(付記7)
前記(a)のステップにおいて、
前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記6に記載の映像符号化方法。
(Appendix 7)
In the step (a),
A reference frame serving as a reference is selected from the plurality of frames, the frame is compared with the reference frame, a difference is calculated for each block of the frame, and the calculated difference and the first quantization. Calculating the second quantization parameter for each block of the frame using the parameter;
The video coding method according to appendix 6.

(付記8)
前記(a)のステップにおいて、
当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、算出した前記分散値と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記6に記載の映像符号化方法。
(Supplementary Note 8)
In the step (a),
For each of the blocks of the frame, the variance of the block is calculated from the pixel values of the pixels forming the block, and the calculated variance and the first quantization parameter are used to Calculating the second quantization parameter for each of the blocks;
The video coding method according to appendix 6.

(付記9)
前記(a)のステップにおいて、
動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記6に記載の映像符号化方法。
(Appendix 9)
In the step (a),
A prediction frame is generated by motion compensation interframe prediction, the frame is compared with the prediction frame, a difference is calculated for each block of the frame, and the calculated difference and the first quantization parameter are used. Calculating the second quantization parameter for each block of the frame,
The video coding method according to appendix 6.

(付記10)
前記(a)のステップにおいて、
前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に第1の差分を算出し、
更に、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、
加えて、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に第2の差分を算出し、
そして、前記第1の差分、前記分散値、前記第2の差分、及び前記第1の量子化パラメータを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記6に記載の映像符号化方法。
(Supplementary Note 10)
In the step (a),
A reference frame serving as a reference is selected from the plurality of frames, the frame is compared with the reference frame, and a first difference is calculated for each block of the frame.
Furthermore, for each of the blocks of the frame, the variance value of the block is calculated from the pixel values of the pixels that make up the block,
In addition, a prediction frame is generated by motion compensation inter-frame prediction, the frame is compared with the prediction frame, and a second difference is calculated for each block of the frame,
Then, using the first difference, the variance value, the second difference, and the first quantization parameter, the second quantization parameter is calculated for each block of the frame.
The video coding method according to appendix 6.

(付記11)
コンピュータによって、複数のフレームで構成された時系列画像を符号化するためのプログラムであって、
前記コンピュータに、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を実行させるプログラム。
(Supplementary Note 11)
A program for encoding a time series image composed of a plurality of frames by a computer,
On the computer
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
A program that runs

(付記12)
前記(a)のステップにおいて、
前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記11に記載のプログラム。
(Supplementary Note 12)
In the step (a),
A reference frame serving as a reference is selected from the plurality of frames, the frame is compared with the reference frame, a difference is calculated for each block of the frame, and the calculated difference and the first quantization. Calculating the second quantization parameter for each block of the frame using the parameter;
The program according to appendix 11.

(付記13)
前記(a)のステップにおいて、
当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、算出した前記分散値と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記11に記載のプログラム。
(Supplementary Note 13)
In the step (a),
For each of the blocks of the frame, the variance of the block is calculated from the pixel values of the pixels forming the block, and the calculated variance and the first quantization parameter are used to Calculating the second quantization parameter for each of the blocks;
The program according to appendix 11.

(付記14)
前記(a)のステップにおいて、
動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記11に記載のプログラム。
(Supplementary Note 14)
In the step (a),
A prediction frame is generated by motion compensation interframe prediction, the frame is compared with the prediction frame, a difference is calculated for each block of the frame, and the calculated difference and the first quantization parameter are used. Calculating the second quantization parameter for each block of the frame,
The program according to appendix 11.

(付記15)
前記(a)のステップにおいて、
前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に第1の差分を算出し、
更に、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、
加えて、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に第2の差分を算出し、
そして、前記第1の差分、前記分散値、前記第2の差分、及び前記第1の量子化パラメータを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
付記11に記載のプログラム。
(Supplementary Note 15)
In the step (a),
A reference frame serving as a reference is selected from the plurality of frames, the frame is compared with the reference frame, and a first difference is calculated for each block of the frame.
Furthermore, for each of the blocks of the frame, the variance value of the block is calculated from the pixel values of the pixels that make up the block,
In addition, a prediction frame is generated by motion compensation inter-frame prediction, the frame is compared with the prediction frame, and a second difference is calculated for each block of the frame,
Then, using the first difference, the variance value, the second difference, and the first quantization parameter, the second quantization parameter is calculated for each block of the frame.
The program according to appendix 11.

以上のように本発明によれば、放送される映像の高画質化及び、装置自体の小型化を実現することができる。本発明は、放送業界に有用である。   As described above, according to the present invention, it is possible to realize high image quality of a video to be broadcast and downsizing of the apparatus itself. The present invention is useful in the broadcast industry.

10 映像符号化装置
11 事前処理部
12 映像符号化部
21 ブロック
22 対象フレーム
23 参照フレーム
30 予測フレーム
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 10 video coding apparatus 11 pre-processing part 12 video coding part 21 block 22 object frame 23 reference frame 30 prediction frame 110 computer 111 CPU
112 main memory 113 storage device 114 input interface 115 display controller 116 data reader / writer 117 communication interface 118 input device 119 display device 120 recording medium 121 bus

Claims (7)

複数のフレームで構成された時系列画像を符号化する装置であって、
前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、事前処理部と、
前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、映像符号化部と、
を備えている、ことを特徴とする映像符号化装置。
An apparatus for encoding a time-series image composed of a plurality of frames, comprising:
The first quantization parameter of the frame is calculated based on the complexity of the frame for each of the plurality of frames, and the frame is further divided into two or more blocks. A pre-processing unit that calculates a second quantization parameter using a quantization parameter of 1;
Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks that constitute the frame, and the frame is further quantized A video encoding unit for encoding;
A video coding apparatus comprising:
前記事前処理部が、前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
請求項1に記載の映像符号化装置。
The pre-processing unit selects a reference frame as a reference from among the plurality of frames, compares the frame with the reference frame, calculates a difference for each block of the frame, and calculates the difference. Calculating the second quantization parameter for each block of the frame, using the first quantization parameter and the first quantization parameter;
The video coding apparatus according to claim 1.
前記事前処理部が、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、算出した前記分散値と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
請求項1に記載の映像符号化装置。
The pre-processing unit calculates, for each of the blocks of the frame, the variance of the block from the pixel values of the pixels forming the block, and the calculated variance and the first quantization parameter. Calculate the second quantization parameter for each block of the frame using
The video coding apparatus according to claim 1.
前記事前処理部が、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に差分を算出し、算出した差分と前記第1の量子化パラメータとを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
請求項1に記載の映像符号化装置。
The pre-processing unit generates a prediction frame by motion compensation inter-frame prediction, compares the frame with the prediction frame, calculates a difference for each block of the frame, and calculates the difference and the first difference. Calculating the second quantization parameter for each block of the frame using the quantization parameter of
The video coding apparatus according to claim 1.
前記事前処理部が、前記複数のフレームの中から基準となる参照フレームを選出し、当該フレームと前記参照フレームとを比較して、当該フレームの前記ブロック毎に第1の差分を算出し、
更に、当該フレームの前記ブロックそれぞれ毎に、当該ブロックを構成する各画素の画素値から当該ブロックにおける分散値を算出し、
加えて、動き補償フレーム間予測により予測フレームを生成し、当該フレームと前記予測フレームとを比較して、当該フレームの前記ブロック毎に第2の差分を算出し、
そして、前記第1の差分、前記分散値、前記第2の差分、及び前記第1の量子化パラメータを用いて、当該フレームの前記ブロック毎に、前記第2の量子化パラメータを算出する、
請求項1に記載の映像符号化装置。
The pre-processing unit selects a reference frame serving as a reference from the plurality of frames, compares the frame with the reference frame, and calculates a first difference for each block of the frame.
Furthermore, for each of the blocks of the frame, the variance value of the block is calculated from the pixel values of the pixels that make up the block,
In addition, a prediction frame is generated by motion compensation inter-frame prediction, the frame is compared with the prediction frame, and a second difference is calculated for each block of the frame,
Then, using the first difference, the variance value, the second difference, and the first quantization parameter, the second quantization parameter is calculated for each block of the frame.
The video coding apparatus according to claim 1.
複数のフレームで構成された時系列画像を符号化する方法であって、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を有する、ことを特徴とする映像符号化方法。
A method of encoding a time-series image composed of a plurality of frames, comprising:
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
A video coding method characterized in that:
コンピュータによって、複数のフレームで構成された時系列画像を符号化するためのプログラムであって、
前記コンピュータに、
(a)前記複数のフレームそれぞれ毎に、当該フレームの複雑度に基づいて、当該フレームの第1の量子化パラメータを算出し、更に、当該フレームを2以上のブロックに分割し、前記ブロック毎に、前記第1の量子化パラメータを用いて、第2の量子化パラメータを算出する、ステップと、
(b)前記複数のフレームそれぞれについて、当該フレームを構成する前記ブロック毎に、当該ブロックについて算出された前記第2の量子化パラメータを用いて量子化を行い、更に、前記ブロックが量子化された当該フレームを符号化する、ステップと、
を実行させるプログラム。
A program for encoding a time series image composed of a plurality of frames by a computer,
On the computer
(A) For each of the plurality of frames, the first quantization parameter of the frame is calculated based on the complexity of the frame, and the frame is further divided into two or more blocks, and for each of the blocks Calculating a second quantization parameter using the first quantization parameter;
(B) Each of the plurality of frames is quantized using the second quantization parameter calculated for the block for each of the blocks constituting the frame, and the blocks are further quantized Encoding the frame;
A program that runs
JP2017220969A 2017-11-16 2017-11-16 Video coding device, video coding method, and program Active JP7020068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220969A JP7020068B2 (en) 2017-11-16 2017-11-16 Video coding device, video coding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220969A JP7020068B2 (en) 2017-11-16 2017-11-16 Video coding device, video coding method, and program

Publications (2)

Publication Number Publication Date
JP2019092105A true JP2019092105A (en) 2019-06-13
JP7020068B2 JP7020068B2 (en) 2022-02-16

Family

ID=66836741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220969A Active JP7020068B2 (en) 2017-11-16 2017-11-16 Video coding device, video coding method, and program

Country Status (1)

Country Link
JP (1) JP7020068B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08102946A (en) * 1994-09-30 1996-04-16 Sony Corp Image coder
JPH09130787A (en) * 1995-10-27 1997-05-16 Toshiba Corp Dynamic image coder
JP2015192403A (en) * 2014-03-28 2015-11-02 キヤノン株式会社 Encoder and encoding method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08102946A (en) * 1994-09-30 1996-04-16 Sony Corp Image coder
JPH09130787A (en) * 1995-10-27 1997-05-16 Toshiba Corp Dynamic image coder
JP2015192403A (en) * 2014-03-28 2015-11-02 キヤノン株式会社 Encoder and encoding method

Also Published As

Publication number Publication date
JP7020068B2 (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US6980695B2 (en) Rate allocation for mixed content video
US7224731B2 (en) Motion estimation/compensation for screen capture video
JP6286718B2 (en) Content adaptive bitrate and quality management using frame hierarchy responsive quantization for highly efficient next generation video coding
TWI436287B (en) Method and apparatus for coding image
US10205953B2 (en) Object detection informed encoding
US9152875B2 (en) Preserving text quality in video encoding
US11356672B2 (en) System and method for controlling video coding at frame level
JP5133290B2 (en) Video encoding apparatus and decoding apparatus
US11012698B2 (en) Image encoding apparatus and method for controlling the same
US20220014758A1 (en) System and method for controlling video coding within image frame
US9300960B1 (en) Video codec systems and methods for determining optimal motion vectors based on rate and distortion considerations
US20220086454A1 (en) System and method for reducing video coding fluctuation
US11451799B2 (en) Transmission bit-rate control in a video encoder
US10812832B2 (en) Efficient still image coding with video compression techniques
US20240048738A1 (en) Methods, apparatuses, computer programs and computer-readable media for processing configuration data
US20100027617A1 (en) Method and apparatus for compressing a reference frame in encoding/decoding moving images
CN116508091A (en) Video decoding using post-processing control
US8798140B2 (en) Encoding video frames in a video encoder
WO2012160626A1 (en) Image compression device, image restoration device, and program
JP7020068B2 (en) Video coding device, video coding method, and program
CN112106365A (en) Method and apparatus for adaptive context modeling in video encoding and decoding
US11825088B2 (en) Adaptively encoding video frames based on complexity
CN113810692A (en) Method for framing changes and movements, image processing apparatus and program product
CN111108747B (en) Obtaining a target representation of a time sample of a signal
US20110103705A1 (en) Image encoding method and apparatus, and image decoding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151