JP2014068064A - Objective evaluation device of video quality - Google Patents
Objective evaluation device of video quality Download PDFInfo
- Publication number
- JP2014068064A JP2014068064A JP2012209829A JP2012209829A JP2014068064A JP 2014068064 A JP2014068064 A JP 2014068064A JP 2012209829 A JP2012209829 A JP 2012209829A JP 2012209829 A JP2012209829 A JP 2012209829A JP 2014068064 A JP2014068064 A JP 2014068064A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- signal
- video quality
- block distortion
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は映像品質の客観評価装置に関し、特に、動画像の圧縮符号化および伝送路障害に起因する再生不良により劣化した画像の知覚品質を、参照画像を用いず、復号画像のベースバンド信号の解析のみから推定する映像品質の客観評価装置に関する。 The present invention relates to an objective evaluation apparatus for video quality, and in particular, the perceptual quality of an image deteriorated due to compression encoding of a moving image and a reproduction failure caused by a transmission path failure, the baseband signal of a decoded image without using a reference image. The present invention relates to an objective evaluation apparatus for video quality estimated from analysis alone.
デジタル映像の蓄積・伝送に際しては、通常、圧縮符号化による情報量の削減が行われる。この圧縮符号化は、一般に非可逆圧縮を意味しており、復号された画像は、所与の圧縮率(ビットレート)に対する視覚的な劣化は最小となるよう制御されているものの、原画像に対しては画像特徴に応じた誤差を有するという特徴を持つ。 When storing / transmitting digital video, the amount of information is usually reduced by compression encoding. This compression encoding generally means lossy compression, and the decoded image is controlled to minimize visual degradation for a given compression rate (bit rate), but it is On the other hand, it has a feature of having an error corresponding to the image feature.
ここで、画像特徴とは、画面内の構成物の精細さや動きの大きさ、複雑さなどの特徴を指す。上述のように、非可逆圧縮による視覚的劣化は最小になるよう設計されており、一般に非可逆符号化では、圧縮率が一定であっても上述の画像特徴によって認識される劣化の程度が異なるという性質を有する。このため、非可逆圧縮に伴う画質劣化を定量的に測定する技術が求められている。 Here, the image features refer to features such as the fineness, the magnitude of movement, and the complexity of the components in the screen. As described above, visual degradation due to lossy compression is designed to be minimal. In general, lossy encoding varies the degree of degradation recognized by the above-described image features even if the compression rate is constant. It has the property. For this reason, there is a need for a technique for quantitatively measuring image quality degradation accompanying lossy compression.
従来の画質の測定は、人間の目視に基づく主観評価により行われていた。主観評価の実施には所定の評価手法を正しく理解し実施するための知識・経験と、多数の非専門家を集め、個々の被験者に対し映像を提示するという時間的・費用的負担を要するため、その実施は容易とはいえない。そこで、映像信号の分析により数値化された映像特徴(特徴量)を抽出し、その映像特徴量から当該映像の品質を導出する客観画質評価方式の確立が望まれている。 Conventional measurement of image quality has been performed by subjective evaluation based on human eyes. Subjective evaluation requires knowledge and experience to correctly understand and implement a given evaluation method and the time and cost burden of gathering a large number of non-experts and presenting videos to individual subjects. The implementation is not easy. Accordingly, it is desired to establish an objective image quality evaluation method that extracts video features (features) quantified by analysis of video signals and derives the quality of the video from the video feature values.
客観画質評価法は、評価対象の映像信号のほかに参照情報(リファレンス;圧縮符号化前の原画像など)を使用するか、分析対象の映像信号が圧縮信号であるのか非圧縮映像信号であるかにより複数のフレームワークに分類される。 The objective image quality evaluation method uses reference information (reference; original image before compression coding, etc.) in addition to the video signal to be evaluated, or whether the video signal to be analyzed is a compressed signal or an uncompressed video signal. It is classified into multiple frameworks.
前者の観点では、参照情報を用いるFR(Full Reference)/RR(Reduced Reference)および参照情報を用いないNR(No Reference)という分類があり、後者の観点では、圧縮情報を分析するビットストリーム型/非圧縮信号を分析するベースバンド型/ビットストリームとベースバンドを併用するハイブリッド型の分類がある。 In the former point of view, there is a classification of FR (Full Reference) / RR (Reduced Reference) using reference information and NR (No Reference) not using reference information. In the latter point of view, there is a bit stream type / There is a classification of a base type that analyzes an uncompressed signal / a hybrid type that uses a bit stream and a base band together.
一般に、客観画質評価は、品質の基準となる参照情報があるほうが主観画質の推定精度が高いが、実施の形態(アプリケーション)によっては、必ずしも参照情報が得られるとは限らない(例:映像伝送系の受信側での監視を想定すると、送信側の画像は参照することができない)ため、適用範囲が狭いという課題がある。また、圧縮ビットストリームの参照についても、暗号解除や多重分離などを要する場合があり、映像受信機が出力として必ず具備するベースバンド信号のみを参照するのに比べると実施可能な構成が限定されることがある。 In general, in objective image quality evaluation, the accuracy of subjective image quality estimation is higher when there is reference information serving as a quality standard, but reference information is not always obtained depending on the embodiment (application) (eg, video transmission). Assuming monitoring on the receiving side of the system, the image on the transmitting side cannot be referred to), and there is a problem that the application range is narrow. Also, referring to the compressed bitstream may require descrambling, demultiplexing, and the like, and the configuration that can be implemented is limited compared to referring only to the baseband signal that the video receiver always has as an output. Sometimes.
以上より、主観画質の推定精度の課題はあるものの、参照情報なしにベースバンド信号に含まれる画素情報の解析のみで主観画質を推定するベースバンドNR型客観評価方式が、多様な実施形態に対応するという観点で望ましいと言える。 As described above, the baseband NR objective evaluation method that estimates the subjective image quality by analyzing only the pixel information contained in the baseband signal without reference information is available for various embodiments, although there is a problem with the subjective image quality estimation accuracy. This is desirable from the viewpoint of
パラメトリックNR型評価方式として、当発明者らの出願に係る特許文献1が存在する。 As a parametric NR type evaluation method, there is Patent Document 1 relating to the application of the present inventors.
また、ベースバンドNR型客観評価方式として、当発明者らの出願に係る特許文献2が存在する。特許文献2に開示の発明では、符号化劣化による主観品質の劣化を推定することを前提としており、符号化劣化として視覚上認識されやすいブロック歪みとフリッカの強度をベースバンド信号解析により映像特徴量として求め、さらにその2つの特徴量を統合することで主観画質を推定している。 Further, as a baseband NR type objective evaluation method, there is Patent Document 2 relating to the application of the present inventors. The invention disclosed in Patent Document 2 is based on the assumption that subjective quality degradation due to coding degradation is estimated, and the video feature amount is analyzed by baseband signal analysis based on block distortion and flicker intensity that are easily recognized visually as coding degradation. The subjective image quality is estimated by integrating the two feature quantities.
特許文献2に開示の発明では、復号画像のベースバンド信号のうち、ブロック歪み特徴量の計算に所与のアダマール変換係数成分(基底画像が矩形かつその境界が符号化ブロック境界に一致する)を、フリッカ特徴量の計算にフレーム間差分電力を用いている。これらはブロック歪み・フリッカの誤差信号の特性を鑑みて定義されたものであるが、対象画像が本来矩形の模様を持っていたり、早い動きを持っていたりする場合、それが符号化劣化に起因するものであるのか、評価対象の映像が本来から持つ時空間的な性質に起因するものなのかを判別することが困難である場合があった。両者を正しくに識別できない場合、符号化劣化の強度を不当に高く見積もって客観評価が行われ、当該評価に基づく主観画質の推定精度を大きく損ねる点が課題であった。 In the invention disclosed in Patent Document 2, a Hadamard transform coefficient component (a base image is rectangular and its boundary coincides with an encoded block boundary) in the calculation of the block distortion feature amount in the baseband signal of the decoded image. The difference power between frames is used to calculate the flicker feature amount. These are defined in consideration of the characteristics of block distortion / flicker error signals, but if the target image originally has a rectangular pattern or has a fast movement, it is caused by coding deterioration. In some cases, it is difficult to determine whether the video to be evaluated is due to the spatiotemporal nature of the video to be evaluated. If the two cannot be correctly identified, an objective evaluation is performed with an unduly high estimation of the strength of encoding degradation, and the subjective image quality estimation accuracy based on the evaluation is greatly impaired.
上記課題に鑑みて、本発明の目的は、評価対象の映像が本来有する時空間的性質の影響を低減してより高精度に客観評価値を得ることのできる映像品質の客観評価装置を提供することにある。 In view of the above-described problems, an object of the present invention is to provide an objective video quality evaluation apparatus capable of obtaining objective evaluation values with higher accuracy by reducing the influence of spatiotemporal properties inherent in video to be evaluated. There is.
上記課題を解決するため、本発明は、参照画像を用いず、評価画像の画素信号の情報のみを使って画質を評価する映像品質の客観評価装置において、評価画像における評価対象フレーム及びその直前のフレームの各画素信号から動きベクトルを検出する動き検出部と、前記動きベクトル及び評価画像の画素信号から予測信号を生成する予測信号生成部と前記予測信号と前記評価画像対象フレームの画素信号との差分として残差信号を生成する残差信号計算部と、前記残差信号から各フレームにおけるブロック歪特徴量を計算するブロック歪特徴量計算部と、前記ブロック歪特徴量の映像シーケンス内平均に基づいて映像画質の客観評価値を導出する特徴量統合部と、を備えることを第1の特徴とする。 In order to solve the above problems, the present invention provides a video quality objective evaluation apparatus that evaluates image quality using only pixel signal information of an evaluation image without using a reference image. A motion detection unit that detects a motion vector from each pixel signal of the frame, a prediction signal generation unit that generates a prediction signal from the motion vector and the pixel signal of the evaluation image, the prediction signal, and a pixel signal of the evaluation image target frame Based on a residual signal calculation unit that generates a residual signal as a difference, a block distortion feature amount calculation unit that calculates a block distortion feature amount in each frame from the residual signal, and an average in the video sequence of the block distortion feature amount And a feature amount integration unit for deriving an objective evaluation value of video image quality.
また本発明は、前記残差信号から各フレームにおけるフリッカ特徴量を計算するフリッカ特徴量計算部をさらに備え、前記特徴量統合部が、前記ブロック歪み特徴量及び前記フリッカ特徴量のそれぞれの映像シーケンス内平均に基づいて映像品質の客観評価値を導出することを第2の特徴とする。 The present invention further includes a flicker feature amount calculation unit that calculates a flicker feature amount in each frame from the residual signal, and the feature amount integration unit includes a video sequence of each of the block distortion feature amount and the flicker feature amount. A second feature is to derive an objective evaluation value of video quality based on the inner average.
前記第1の特徴によれば、残差信号からブロック歪み特徴量を計算するので、評価対象の映像が本来有する空間的な性質の影響を低減して、高精度に客観評価値を推定することができる。 According to the first feature, since the block distortion feature value is calculated from the residual signal, the objective evaluation value is estimated with high accuracy by reducing the influence of the spatial property inherent in the video to be evaluated. Can do.
前記第2の特徴によればさらに、残差信号からフリッカ特徴量を計算するので、評価対象の映像が本来有する空間的な性質の影響を低減して、高精度に客観評価値を推定することができる。 According to the second feature, since the flicker feature is calculated from the residual signal, the objective evaluation value can be estimated with high accuracy by reducing the influence of the spatial property inherent in the video to be evaluated. Can do.
図1は、一実施形態に係る映像品質の客観評価装置の機能ブロック図である。映像品質の客観評価装置10は、動き検出部1、フレームメモリ2、グローバル動きベクトル(GMV)選択部3、予測信号生成部4、残差信号計算部5、ブロック歪特徴量計算部6、フリッカ特徴量計算部7、特徴量統合部8、主観評価値推定部9及びスイッチ11を備え、非圧縮映像信号を入力とし、客観評価値を1つの出力とし、また当該出力を用いてさらに算出を行うことで主観評価値の推定値をもう1つの出力とする。以下に、当該各機能部を説明する。 FIG. 1 is a functional block diagram of an objective video quality evaluation apparatus according to an embodiment. The objective evaluation device 10 for video quality includes a motion detection unit 1, a frame memory 2, a global motion vector (GMV) selection unit 3, a prediction signal generation unit 4, a residual signal calculation unit 5, a block distortion feature amount calculation unit 6, a flicker A feature amount calculation unit 7, a feature amount integration unit 8, a subjective evaluation value estimation unit 9, and a switch 11 are provided.The uncompressed video signal is input, the objective evaluation value is one output, and further calculation is performed using the output. By doing so, the estimated value of the subjective evaluation value is used as another output. Below, each said function part is demonstrated.
[入力映像信号について]
映像品質の客観評価装置10には非圧縮映像信号がフレーム番号順に入力され、当該入力映像信号は動き検出部1、フレームメモリ2及び残差信号計算部5へ渡される。
[About input video signal]
Uncompressed video signals are input to the video quality objective evaluation apparatus 10 in the order of frame numbers, and the input video signals are passed to the motion detection unit 1, the frame memory 2, and the residual signal calculation unit 5.
[フレームメモリ2について]
フレームメモリ2は、入力映像信号をフレーム単位で保持して動き検出部1に提供することによって、動き検出部1が隣接フレーム間の動きベクトル検出を行う際に、当該検出対象フレームの1つ前のフレームの情報を参照できるようにする。
[About frame memory 2]
The frame memory 2 holds the input video signal in units of frames and provides it to the motion detection unit 1, so that when the motion detection unit 1 detects a motion vector between adjacent frames, the frame memory 2 It is possible to refer to the information of the frame.
[動き検出部1について]
動き検出部1は、入力映像信号から得られるフレームを小画素ブロック単位に分割し、フレームメモリ2の保持する前フレームを参照して当該分割されたブロック単位に動き予測を適用し、動きベクトル(MV)を検出する。MV検出精度としては整数精度で良く、動画像符号化のように動き補償を用いて小数画素単位の動きを検出する必要はない。
[About motion detector 1]
The motion detection unit 1 divides a frame obtained from the input video signal into small pixel blocks, applies motion prediction to the divided blocks with reference to the previous frame held in the frame memory 2, and generates a motion vector ( MV) is detected. The MV detection accuracy may be integer accuracy, and it is not necessary to detect the motion of the decimal pixel unit using motion compensation as in the case of moving image coding.
MV検出の手法は、任意の手法を選択してもよい。一例として、単純なブロックマッチング法によるMV ;vB=(vB0, vB1)は以下(式1)のように定義される。 Any method of MV detection may be selected. As an example, MV; v B = (v B0 , v B1 ) by a simple block matching method is defined as (Equation 1) below.
ここで、xf,B(n0, n1)はフレーム番号f, 当該画素ブロックB内の画素位置(n0, n1)における輝度信号(画素信号)値を表し、輝度信号差分の二乗和を最小とするものとしてMVが検出される。なお、画素ブロックのサイズは想定する符号化方式における制御単位と一致していることが望ましい。例えば、H.264であればマクロブロック(MB)サイズと同じく 16×16画素あるいはその整数倍が好適である。評価対象映像に適用された符号化方式が既知であれば対応する制御単位の所定サイズを用いればよく、未知の場合もユーザ指定等により何らかの符号化方式において想定される所定サイズを用いるようにすればよい。 Here, x f, B (n 0 , n 1 ) represents the luminance signal (pixel signal) value at the frame position f, the pixel position (n 0 , n 1 ) in the pixel block B, and the square of the luminance signal difference MV is detected as the one that minimizes the sum. It is desirable that the size of the pixel block matches the control unit in the assumed encoding method. For example, in the case of H.264, 16 × 16 pixels or an integer multiple thereof is preferable as in the macroblock (MB) size. If the encoding scheme applied to the video to be evaluated is known, the predetermined size of the corresponding control unit may be used. If the encoding scheme is unknown, the predetermined size assumed in some encoding scheme may be used by user designation or the like. That's fine.
[スイッチ11について]
スイッチ11は接点A又はBのいずれかにつながるよう設定され、接点Aにつながる場合はGMV選択部3を利用する第1実施形態に、接点Bにつながる場合はGMV選択部3をスキップする第2実施形態に対応する。なお、スイッチ11はユーザ指定等によって固定して設定され、評価対象映像の途中で接点A又はBのつながり状態が切り替わることはない。
[About switch 11]
The switch 11 is set to be connected to either the contact A or B, and when connected to the contact A, the first embodiment uses the GMV selection unit 3, and when connected to the contact B, the second skips the GMV selection unit 3. This corresponds to the embodiment. Note that the switch 11 is fixedly set by user designation or the like, and the connection state of the contact A or B is not switched in the middle of the evaluation target video.
第1実施形態では、動き検出部1の検出した動きベクトルよりGMV選択部3がGMVを導出して、予測信号生成部4へと入力する。第2実施形態では動き検出部1の検出した動きベクトルがそのまま予測信号生成部4へと入力される。いずれの実施形態においても、動き検出部1の検出した動きベクトルはフリッカ特徴量計算部7へも入力される。 In the first embodiment, the GMV selection unit 3 derives a GMV from the motion vector detected by the motion detection unit 1 and inputs the GMV to the prediction signal generation unit 4. In the second embodiment, the motion vector detected by the motion detector 1 is input to the prediction signal generator 4 as it is. In any embodiment, the motion vector detected by the motion detector 1 is also input to the flicker feature quantity calculator 7.
[GMV選択部3について]
本発明では、第2実施形態の場合、入力映像が本来持っていた特徴と劣化信号成分とを分離するために、予測信号生成部4にて動き検出部1の出力した各画素ブロックのMVを用いて予測画像を生成し、残差信号計算部5が残差画像を得る。
[About GMV Selector 3]
In the present invention, in the case of the second embodiment, the MV of each pixel block output from the motion detection unit 1 in the prediction signal generation unit 4 is used in order to separate the characteristic originally possessed by the input video and the deteriorated signal component. The prediction image is generated by using this, and the residual signal calculation unit 5 obtains the residual image.
しかし、当該MVをそのまま直接に用いると、動きが一様でなく隣接ブロック間でMVが一致していない場合(例:芝生、水面など)、検出しようとしている劣化信号成分に起因するのではなく、動き検出部1のMV選択のばらつきに起因して、残差画像の画素ブロック境界で信号の不連続による大きなエッジ(ブロック歪み)が検出される恐れがある。 However, if the MV is used directly, if the movement is not uniform and the MVs do not match between adjacent blocks (eg lawn, water surface, etc.), it is not caused by the degradation signal component that is being detected. Due to the MV selection variation of the motion detection unit 1, a large edge (block distortion) due to signal discontinuity may be detected at the pixel block boundary of the residual image.
そこで、第1実施形態においては動き検出部1の出力した各画素ブロックのMVから、GMV選択部3がグローバル動きベクトル(Global MV; GMV)を導出することで隣接ブロック間のMVを極力一致させるようにする。 Therefore, in the first embodiment, the GMV selection unit 3 derives a global motion vector (Global MV; GMV) from the MV of each pixel block output from the motion detection unit 1, thereby matching the MVs between adjacent blocks as much as possible. Like that.
GMVの導出方法は任意の手法を用いてよい。一例として、Dirac符号化では、局所ベクトルv(動き検出部1のMV検出結果)に対してアフィン変換を施したベクトルG=Av + b(A, bはアフィン変換行列およびオフセット)をGMVとし、局所ベクトルとGMVの差のL2ノルム|| G - v ||2を最小とするアフィン変換行列を求めることにより導出する。 Any method may be used as a method for deriving GMV. As an example, in Dirac encoding, a vector G = Av + b (A and b are affine transformation matrices and offsets) obtained by performing affine transformation on a local vector v (MV detection result of the motion detection unit 1) is GMV, It is derived by finding an affine transformation matrix that minimizes the L2 norm || G-v || 2 of the difference between the local vector and GMV.
[予測信号生成部4について]
予測信号生成部4は、第2実施形態においては動き検出部1の検出した動きベクトル(局所ベクトル)を直接用いて、第1実施形態においてはGMV選択部3の導出したGMVを用いて、(式2)にて予測信号xpred, B(n0, n1)を生成し、残差信号計算部5に入力する。なお、vB=(vB0, vB1)が局所ベクトル又はGMVである。
[About predicted signal generator 4]
The prediction signal generation unit 4 directly uses the motion vector (local vector) detected by the motion detection unit 1 in the second embodiment, and uses the GMV derived by the GMV selection unit 3 in the first embodiment ( The prediction signal x pred, B (n 0 , n 1 ) is generated by Equation 2) and input to the residual signal calculation unit 5. Note that v B = (v B0 , v B1 ) is a local vector or GMV.
[残差信号計算部5について]
残差信号計算部5は、(式3)に示すように入力映像信号と予測信号の同一画素位置(n0, n1)における差を求め、残差信号rf , B(n0, n1)を得て、当該残差信号をブロック歪特徴量計算部6及びフリッカ特徴量計算部7へと入力する。
[Residual signal calculator 5]
The residual signal calculation unit 5 obtains the difference at the same pixel position (n 0 , n 1 ) between the input video signal and the prediction signal as shown in (Equation 3), and obtains the residual signal r f, B (n 0 , n 1 ) and the residual signal is input to the block distortion feature value calculation unit 6 and the flicker feature value calculation unit 7.
[ブロック歪特徴量計算部6について]
ブロック歪特徴量計算部6は、復号画像上の空間劣化であるブロック歪みの視覚的な認識程度を示す指標として、ブロック歪特徴量を各フレームにつき出力し、特徴量統合部8へ入力する。この際、以下のようにブロック毎のブロック歪特徴量をまず求めてから、その中で視覚特性を考慮した所定条件を満たすものの平均として、フレーム毎のブロック歪特徴量を最終的に出力する。
[Block distortion feature quantity calculation unit 6]
The block distortion feature quantity calculation unit 6 outputs a block distortion feature quantity for each frame as an index indicating the degree of visual recognition of block distortion, which is spatial degradation on the decoded image, and inputs it to the feature quantity integration unit 8. At this time, the block distortion feature value for each block is first obtained as described below, and the block distortion feature value for each frame is finally output as an average of those satisfying a predetermined condition in consideration of visual characteristics.
ブロック歪みは、直交変換ブロック間で量子化ステップが大きく異なる場合、予測残差信号が動き予測の単位ブロック(多くの符号化方式においては、マクロブロックが該当)境界で不連続になること等に起因して輝度信号上において視覚的に検知されようになると考えられる。 When the quantization step differs greatly between orthogonal transform blocks, block distortion is such that the prediction residual signal becomes discontinuous at the boundary of motion prediction unit blocks (in many coding systems, this is a macroblock). This is considered to cause visual detection on the luminance signal.
さらに、ブロック歪みではなくその画像が本来持っていた空間的特徴に起因する輝度信号上の不連続成分は、予測残差信号上においては大きな不連続性を生じさせないと考えられる。よって、本発明ではブロック歪特徴量を、動き予測の単位ブロックの境界部における予測残差信号の不連続性に基づき定義する。 Furthermore, it is considered that a discontinuous component on the luminance signal due to a spatial characteristic originally possessed by the image instead of block distortion does not cause a large discontinuity on the prediction residual signal. Therefore, in the present invention, the block distortion feature amount is defined based on the discontinuity of the prediction residual signal at the boundary portion of the unit block for motion prediction.
図2はブロック歪特徴量の定義を説明するための例を示す図であり、ここでは動き検出の単位ブロック(第2画素ブロック)が2NM画素×2NMラインであり、直交変換の単位ブロック(第1画素ブロック)がNM画素×NMラインである場合を例としているが、当該単位ブロック同士の大きさの関係が異なる場合も同様にブロック歪特徴量を求めることができる。 FIG. 2 is a diagram showing an example for explaining the definition of the block distortion feature quantity. Here, the unit block for motion detection (second pixel block) is 2N M pixels × 2N M lines, and the unit block for orthogonal transformation Although (the first pixel block) is an example where a N M pixels × N M line, the relationship of magnitude between the unit block can be obtained similarly block distortion characteristic amount may be different.
図2において、直交変換の単位ブロックB0, B1, B2,はそれぞれ異なる動き検出ブロックA,B,Cに属しており、これらの動き検出ブロックの境界部に大きな輝度変化が発生することによりブロック歪みが検知されると前提する。ここで、ブロックB0のブロック歪特徴量を求める場合、隣接し且つ異なる動き検出ブロックに属している2つのブロックB1,B2との境界部(図中、太線にて表記)に沿った画素間(図中、双方向矢印で表記)で予測残差信号の差分絶対値を求める。当該ブロックB0におけるブロック歪特徴量SI(B0)は以下(式4)のように表される。 In FIG. 2, the unit blocks B 0 , B 1 , B 2 for orthogonal transformation belong to different motion detection blocks A, B, C, respectively, and a large luminance change occurs at the boundary between these motion detection blocks It is assumed that block distortion is detected by Here, when the block distortion feature amount of the block B 0 is obtained, it follows a boundary portion (indicated by a bold line in the figure) between two blocks B 1 and B 2 that belong to different and different motion detection blocks. The absolute difference value of the prediction residual signal is obtained between pixels (indicated by a bidirectional arrow in the figure). Block distortion characteristic quantity SI in the block B 0 (B 0) can be expressed as follows (Equation 4).
すなわち、動き検出ブロックA内に2×2個存在する直交変換単位ブロックのうち右下箇所である当該ブロックB0においては、その右端部{(NM −1, j) | j ∈border}に別の動き検出ブロックBにおけるブロックB1との境界が存在し、その下端部{(i, NM −1) | i ∈border}に別の動き検出ブロックCにおけるブロックB2との境界が存在しているので、(式4)ではこれら境界部における予測残差信号の差分絶対値の和を取っている。ブロックB0の右端部且つ下端部である画素(NM−1, NM−1)ではブロックB1及びB2の各画素との差分絶対値を求めることとなる。 That is, among the 2 × 2 orthogonal transform unit blocks present in the motion detection block A, in the block B 0 which is the lower right part, the right end {(N M −1, j) | j ∈ border} There is a boundary with block B 1 in another motion detection block B, and there is a boundary with block B 2 in another motion detection block C at the lower end {(i, N M −1) | i ∈ border} Therefore, in (Equation 4), the sum of the absolute difference values of the prediction residual signals at these boundaries is taken. For the pixels (N M −1, N M −1) at the right end and the lower end of the block B 0 , absolute values of differences from the respective pixels of the blocks B 1 and B 2 are obtained.
同様に、ブロックB1の特徴量SI(B1)を求める場合であればその上端部及び右端部を境界部として、ブロックB2の特徴量SI(B2)を求める場合であればその左端部及び下端部を境界部として、当該各境界部において差分絶対値の和を求めればよい。 Similarly, if the feature amount SI (B 1 ) of the block B 1 is to be obtained, the upper end portion and the right end portion thereof are used as boundaries, and the feature amount SI (B 2 ) of the block B 2 is to be obtained. The sum of absolute difference values may be obtained at each boundary portion using the portion and the lower end portion as the boundary portion.
なお、(式4)のように、異なる動き検出単位ブロック(第2画素ブロック)間の境界部に限定してブロック歪特徴量を求める実施形態(1)に対する実施形態(2)として、当該異なる動き検出単位ブロック間への限定を設けないようにしてもよい。この場合、属する動き検出単位ブロックとは無関係に、直交変換の単位ブロック(第1画素ブロック)の境界部全体において予測残差信号の差分絶対値の和を求めることとなる。 Note that, as (Equation 4), the embodiment (2) is different from the embodiment (1) in which the block distortion feature amount is obtained by limiting the boundary between different motion detection unit blocks (second pixel blocks). There may be no limitation between motion detection unit blocks. In this case, regardless of the motion detection unit block to which it belongs, the sum of the absolute difference values of the prediction residual signal is obtained in the entire boundary portion of the orthogonal transform unit block (first pixel block).
実施形態(2)では例えばブロックB0であれば、第1実施形態のように右端部及び下端部のみではなく、さらに左端部及び上端部をも境界部として同様の計算を行う。ただし、本発明では実施形態(1)の方が好ましい。なおまた、仮に動き検出単位ブロックと直交変換単位ブロックとが一致する場合であれば、実施形態(1)と実施形態(2)は一致する。 In the embodiment (2), for example, in the case of the block B 0 , the same calculation is performed using not only the right end portion and the lower end portion but also the left end portion and the upper end portion as the boundary portions as in the first embodiment. However, the embodiment (1) is preferable in the present invention. In addition, if the motion detection unit block and the orthogonal transform unit block match, the embodiment (1) and the embodiment (2) match.
ブロック歪特徴量計算部6は最終的に、当該フレームに対するブロック歪特徴量を、各ブロックに対するブロック歪特徴量の平均として求める。ただしここで、画素ブロック内の信号分散が大きい場合、視覚特性上ブロック境界の輝度変化はブロック歪として知覚されにくいことが知られている。よって、その信号分散が所与の閾値以下であるブロックの空間劣化特徴量の平均を求める。 The block distortion feature value calculation unit 6 finally obtains the block distortion feature value for the frame as an average of the block distortion feature values for each block. However, it is known that when the signal variance in the pixel block is large, the luminance change at the block boundary is hardly perceived as block distortion in terms of visual characteristics. Therefore, the average of the spatial degradation feature amounts of blocks whose signal variance is equal to or less than a given threshold value is obtained.
ここで、ブロックBの輝度成分(画素信号)の信号分散をvar(B), 所与の閾値をσTH, NVを信号分散var(B)が所与の閾値σTH以下となるブロック数とすると、フレームfのブロック歪特徴量SI[f]は、以下の(式5)の通り表される。 Here, the number of blocks signal distributing var (B), a given threshold sigma TH, N V the signal variance var (B) is equal to or less than a given threshold value sigma TH of the luminance component (pixel signals) of the block B Then, the block distortion feature amount SI [f] of the frame f is expressed as (Equation 5) below.
なお、当該ブロックBとは、ブロック歪特徴量SI(B)の算出単位である直交変換ブロック(図2の例におけるB0, B1, B2,等)であり、動き検出の単位ブロックではない。また信号分散var(B)は、画素信号の分散であって、予測残差信号の分散ではない。 Note that the block B is an orthogonal transform block (B 0 , B 1 , B 2 , etc. in the example of FIG. 2) that is a unit of calculation of the block distortion feature value SI (B). Absent. Further, the signal variance var (B) is the variance of the pixel signal, not the variance of the prediction residual signal.
なお、動き検出部1の説明にて動き検出の単位ブロックのサイズ設定について言及したのと同様にして、直交変換の単位ブロックのサイズも設定すればよい。すなわち、符号化方式にて利用されたサイズが既知であれば当該既知サイズに、未知であれば何らかの符号化方式にて想定される所定サイズに設定すればよい。 Note that the size of the unit block for orthogonal transform may be set in the same manner as described for setting the size of the unit block for motion detection in the description of the motion detection unit 1. That is, if the size used in the encoding method is known, the known size may be set, and if it is unknown, the predetermined size assumed in some encoding method may be set.
[フリッカ特徴量計算部7について]
フリッカ特徴量計算部7は、映像のフリッカ劣化に対する各フレームの影響度合いを表すフリッカ特徴量を、対象フレームとその直前フレームにおける残差信号のフレーム間差分電力の平均としてまず求め、さらに映像全体としてのフリッカ特徴量を求めて、特徴量統合部8へと入力する。この際、動き検出部1から入力されるMVを用いて、視覚特性を考慮した際に実際に劣化に影響をおよぼしうる部分において平均電力を求める。
[Flicker feature calculation unit 7]
The flicker feature amount calculation unit 7 first obtains a flicker feature amount representing the degree of influence of each frame on the flicker degradation of the video as an average of the difference power between frames of the residual signal in the target frame and the immediately preceding frame, and further calculates the entire video. The flicker feature amount is obtained and input to the feature amount integration unit 8. At this time, using the MV input from the motion detection unit 1, the average power is obtained in a part that can actually affect the degradation when visual characteristics are taken into consideration.
フリッカ劣化は、動き補償予測符号化のイントラフレーム挿入の周期ごとに大きな品質変動がある場合などに検知される劣化であり、連続するフレーム間での輝度変化が急激に発生することにより知覚される。本発明では、残差信号計算部5における残差信号の導出により、評価対象の画像が本来有する動きの多くは除去されていると考えられる。よって残差信号の強度が時間的に大きく変化するような特徴があれば、それはその画像が本来の持っていた時間的特徴(すなわち動きの特徴)に起因するものではなく、圧縮符号化に伴う劣化によるものであると考えられる。 Flicker degradation is detected when there is a large quality fluctuation at every intra-frame insertion period of motion compensation predictive coding, and is perceived by a sudden change in luminance between successive frames. . In the present invention, it is considered that most of the motion inherent in the image to be evaluated has been removed by the derivation of the residual signal in the residual signal calculation unit 5. Therefore, if there is a characteristic that the intensity of the residual signal changes greatly in time, it is not caused by the temporal characteristic (that is, the motion characteristic) that the image originally had, but is accompanied by compression coding. This is thought to be due to deterioration.
ただし、動きの大きい領域では大きな輝度変化があっても視覚上マスキングされることが予想される。よってフリッカ特徴量計算部7は以下の(式6)に示すように、当該動き検出ブロックの局所ベクトルの大きさが所与の閾値VTH以下の場合にのみ当該ブロックにおける残差信号フレーム間差分電力の平均を求めることで、当該フレームfのフリッカ特徴量TI[f]となす。 However, it is expected that masking is visually masked even in the case of a large luminance change in an area where the movement is large. Therefore, as shown in the following (Equation 6), the flicker feature amount calculation unit 7 performs the residual signal interframe difference in the block only when the size of the local vector of the motion detection block is equal to or less than a given threshold V TH. By calculating the average power, the flicker feature amount TI [f] of the frame f is obtained.
なおここで局所ベクトルとは前述のように、動き検出部1で導出したMVそのものであり、特にGMV選択部3によるGMVと特に区別するために局所ベクトルと呼ぶ。また、(式6)においてNTは局所ベクトルの大きさが所与の閾値を下回るブロック数とする。 Here, as described above, the local vector is the MV itself derived by the motion detection unit 1, and is particularly called a local vector in order to particularly distinguish it from the GMV by the GMV selection unit 3. In (Equation 6), NT is the number of blocks whose local vector size is less than a given threshold.
[特徴量統合部8について]
特徴量統合部8は、各フレームfにつき定義されそれぞれブロック歪特徴量計算部6及びフリッカ特徴量計算部7により導出されたブロック歪特徴量SI[f]及びフリッカ特徴量TI[f]を用いることで、客観評価値を導出する。
[About the feature integration unit 8]
The feature amount integration unit 8 uses the block distortion feature amount SI [f] and the flicker feature amount TI [f] defined for each frame f and derived by the block distortion feature amount calculation unit 6 and the flicker feature amount calculation unit 7, respectively. Thus, an objective evaluation value is derived.
このためまず、当該SI[f]及びTI[f]の平均をそれぞれ求めることで、以下の(式7)及び(式8)に示すようにシーケンス全体( f ∈ sequence )のブロック歪特徴量SI及びフリッカ特徴量TIを求める。なお、以下の各式においてNFはシーケンス中の総フレーム数である。 For this reason, by first obtaining the average of the SI [f] and TI [f], respectively, the block distortion feature SI of the entire sequence (f ∈ sequence) as shown in the following (Equation 7) and (Equation 8): And the flicker feature quantity TI is obtained. In the following equations, N F is the total number of frames in the sequence.
そして、特徴量統合部8は、客観評価値Qobjを以下の(式9)によって求める。ここで、c0, c1, c2は重み付け和のための定数であり、α,βは当該重み付け和をさらに変調するための冪指数としての定数である。 Then, the feature quantity integration unit 8 obtains the objective evaluation value Q obj by the following (formula 9). Here, c0, c1, and c2 are constants for weighted sums, and α and β are constants as power exponents for further modulating the weighted sums.
[主観評価値推定部9について]
主観評価値推定部9は、上記導出された客観評価値Qobjに対し変換関数fを適用することにより、以下の(式10)に示すように主観評価値の推定値Qestを求める。
[Subjective evaluation value estimation unit 9]
The subjective evaluation value estimation unit 9 obtains an estimated value Q est of the subjective evaluation value by applying the conversion function f to the derived objective evaluation value Q obj as shown in the following (Equation 10).
上述の変換関数は、知覚心理における非線形な特性を考慮した特性を持つものであり、単調な3次関数やロジスティック関数などの非線形関数が好適である。単調な3次関数は、以下の(式11)に示す関数形を持つ。ロジスティック関数は、以下の(式12)に示す関数形を持つ。(式11)及び(式12)において ki (i=0,1,2,3)は定数である。 The above-described conversion function has a characteristic that takes into consideration a non-linear characteristic in perceptual psychology, and a non-linear function such as a monotonic cubic function or a logistic function is preferable. The monotonic cubic function has the function form shown in (Formula 11) below. The logistic function has the function form shown in (Formula 12) below. In (Expression 11) and (Expression 12), k i (i = 0,1,2,3) is a constant.
なお、上式(式9)〜(式12)における定数ci (i=0,1,2),α,β, ki (i=0,1,2,3)は、主観評価値の推定値Qestと真の主観評価値の相関が最大になるように予め設定される。具体的には、主観評価値が既知である複数の評価画像を用い、上記の定義に基づき得られる推定値Qestと真の主観評価値(主観評価実験により求めた実測値)の差分自乗和を最小とする係数を重回帰分析により求める。 The constants c i (i = 0,1,2), α, β, k i (i = 0,1,2,3) in the above equations (Equation 9) to (Equation 12) are the subjective evaluation values. It is set in advance so that the correlation between the estimated value Q est and the true subjective evaluation value is maximized. Specifically, using a plurality of evaluation images with known subjective evaluation values, the sum of squared differences between the estimated value Q est obtained based on the above definition and the true subjective evaluation value (measured value obtained by a subjective evaluation experiment) The coefficient that minimizes is obtained by multiple regression analysis.
[本発明の別実施実施形態及び補足事項について]
映像品質の客観評価装置10は、図1の構成に対する別実施形態として、ブロック歪特徴量計算部6及びフリッカ特徴量計算部7の部分に関して、それらのうちの片方のみを備えて構成されていてもよく、この場合、客観評価値と主観評価値の推定値とがブロック歪特徴量及びフリッカ特徴量のうちの片方のみに基づいて与えられることとなる。
[Other Embodiments and Supplementary Items of the Present Invention]
As an alternative embodiment to the configuration of FIG. 1, the video quality objective evaluation device 10 is configured to include only one of the block distortion feature amount calculation unit 6 and the flicker feature amount calculation unit 7 In this case, the objective evaluation value and the estimated value of the subjective evaluation value are given based on only one of the block distortion feature value and the flicker feature value.
当該別実施形態において、特徴量統合部8はブロック歪特徴量又はフリッカ特徴量の片方のみを入力として受け取り、受け取らなかったもう片方の特徴量はゼロであったとみなすことで、又は(式9)のブロック歪特徴量SI及びフリッカ特徴量TIの項がないものとみなすことで、前述の両者を用いる実施形態の場合と形式上同様に機能することができる。 In the other embodiment, the feature amount integration unit 8 receives only one of the block distortion feature amount or the flicker feature amount as an input and considers that the other feature amount not received is zero or (Equation 9) By assuming that there are no terms for the block distortion feature value SI and the flicker feature value TI, it is possible to function in the same manner as in the embodiment using both of the above.
ブロック歪特徴量計算部6及びフリッカ特徴量計算部7における補足事項として、これら機能部においては(式5)及び(式6)に示すように、共に閾値条件(それぞれ、画素信号分散に関する閾値条件及び局所ベクトルの大きさに関する閾値条件)を用いて対象を限定することで計算を行っている。当該閾値条件は、用いる方が好ましいが、用いないようにしてもよい。 As a supplementary matter in the block distortion feature quantity calculation unit 6 and the flicker feature quantity calculation unit 7, in these functional units, as shown in (Equation 5) and (Equation 6), both threshold conditions (threshold conditions relating to pixel signal dispersion, respectively) And a threshold condition regarding the size of the local vector) to limit the target. The threshold condition is preferably used, but may not be used.
すなわち、(式5)の代わりに分散値と関係なく、フレームfに属するブロックB全てのブロック歪特徴量の平均としてフレームfのブロック歪特徴量SI[f]を求めてもよいし、(式6)の代わりに局所ベクトルの大きさと関係なく、フレームf内の全ての箇所を対象として残差信号フレーム間差分電力を求ることでフレームfのフリッカ特徴量TI[f]としてもよい。 That is, instead of (Equation 5), the block distortion feature quantity SI [f] of the frame f may be obtained as an average of all the block distortion feature quantities of the block B belonging to the frame f regardless of the variance value. Instead of 6), the flicker feature quantity TI [f] of the frame f may be obtained by obtaining the residual power inter-frame difference power for all locations in the frame f regardless of the size of the local vector.
10…映像品質の客観評価装置、1…動き検出部、2…フレームメモリ、3…GMV(グローバル動きベクトル)選択部、4…予測信号生成部、5…残差信号計算部、6…ブロック歪特徴量計算部、7…フリッカ特徴量計算部、8…特徴量統合部、9…主観評価値推定部 10 ... Objective evaluation device for video quality, 1 ... motion detection unit, 2 ... frame memory, 3 ... GMV (global motion vector) selection unit, 4 ... predicted signal generation unit, 5 ... residual signal calculation unit, 6 ... block distortion Feature amount calculation unit, 7 ... Flicker feature amount calculation unit, 8 ... Feature amount integration unit, 9 ... Subjective evaluation value estimation unit
Claims (10)
評価画像における評価対象フレーム及びその直前のフレームの各画素信号から動きベクトルを検出する動き検出部と、
前記動きベクトル及び評価画像の画素信号から予測信号を生成する予測信号生成部と
前記予測信号と前記評価画像対象フレームの画素信号との差分として残差信号を生成する残差信号計算部と、
前記残差信号から各フレームにおけるブロック歪特徴量を計算するブロック歪特徴量計算部と、
前記ブロック歪特徴量の映像シーケンス内平均に基づいて映像画質の客観評価値を導出する特徴量統合部と、を備えることを特徴とする映像品質の客観評価装置。 In a video quality objective evaluation apparatus that evaluates image quality using only pixel signal information of an evaluation image without using a reference image,
A motion detector that detects a motion vector from each pixel signal of the evaluation target frame in the evaluation image and the immediately preceding frame;
A prediction signal generation unit that generates a prediction signal from the motion vector and the pixel signal of the evaluation image; and a residual signal calculation unit that generates a residual signal as a difference between the prediction signal and the pixel signal of the evaluation image target frame;
A block distortion feature amount calculation unit for calculating a block distortion feature amount in each frame from the residual signal;
A video quality objective evaluation apparatus, comprising: a feature value integration unit that derives an objective evaluation value of video quality based on an average of the block distortion feature values in a video sequence.
前記ブロック歪特徴量計算部が、前記所定の第1画素ブロックの境界のうち、前記所定の第2画素ブロックの境界に一致する部分のみにおける前記残差信号の差分絶対値に基づいて前記ブロック歪特徴量を計算することを特徴とする請求項2に記載の映像品質の客観評価装置。 The motion detection unit detects the motion vector in units of a predetermined second pixel block,
The block distortion feature amount calculation unit is configured to calculate the block distortion based on a difference absolute value of the residual signal only in a portion of the boundary of the predetermined first pixel block that matches the boundary of the predetermined second pixel block. The objective evaluation apparatus for video quality according to claim 2, wherein the feature quantity is calculated.
前記特徴量統合部が、前記ブロック歪み特徴量及び前記フリッカ特徴量のそれぞれの映像シーケンス内平均に基づいて映像品質の客観評価値を導出することを特徴とする請求項1ないし4のいずれかに記載の映像品質の客観評価装置。 A flicker feature amount calculation unit for calculating a flicker feature amount in each frame from the residual signal;
5. The feature quantity integration unit derives an objective evaluation value of video quality based on an average in each video sequence of the block distortion feature quantity and the flicker feature quantity. Objective video quality evaluation device.
前記予測信号生成部が、前記動きベクトルに代えて前記グローバル動きベクトルを用いて予測信号を生成することを特徴とする請求項1ないし7のいずれかに記載の映像品質の客観評価装置。 A global motion vector selection unit that derives a global motion vector of each frame using the motion vector;
8. The video quality objective evaluation apparatus according to claim 1, wherein the prediction signal generation unit generates a prediction signal using the global motion vector instead of the motion vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012209829A JP5982240B2 (en) | 2012-09-24 | 2012-09-24 | Objective video quality evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012209829A JP5982240B2 (en) | 2012-09-24 | 2012-09-24 | Objective video quality evaluation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014068064A true JP2014068064A (en) | 2014-04-17 |
JP5982240B2 JP5982240B2 (en) | 2016-08-31 |
Family
ID=50744096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012209829A Expired - Fee Related JP5982240B2 (en) | 2012-09-24 | 2012-09-24 | Objective video quality evaluation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5982240B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751649A (en) * | 2019-10-29 | 2020-02-04 | 腾讯科技(深圳)有限公司 | Video quality evaluation method and device, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010124104A (en) * | 2008-11-18 | 2010-06-03 | Kddi Corp | Device for evaluating objective image quality of video image |
JP2010263539A (en) * | 2009-05-11 | 2010-11-18 | Nikon Systems Inc | Image quality evaluation method, program, and, image quality evaluation apparatus |
JP2011041077A (en) * | 2009-08-13 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | Video quality estimation device, method, and program |
JP2012142848A (en) * | 2011-01-05 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Video quality estimation apparatus and method and program |
-
2012
- 2012-09-24 JP JP2012209829A patent/JP5982240B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010124104A (en) * | 2008-11-18 | 2010-06-03 | Kddi Corp | Device for evaluating objective image quality of video image |
JP2010263539A (en) * | 2009-05-11 | 2010-11-18 | Nikon Systems Inc | Image quality evaluation method, program, and, image quality evaluation apparatus |
JP2011041077A (en) * | 2009-08-13 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | Video quality estimation device, method, and program |
JP2012142848A (en) * | 2011-01-05 | 2012-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Video quality estimation apparatus and method and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751649A (en) * | 2019-10-29 | 2020-02-04 | 腾讯科技(深圳)有限公司 | Video quality evaluation method and device, electronic equipment and storage medium |
CN110751649B (en) * | 2019-10-29 | 2021-11-02 | 腾讯科技(深圳)有限公司 | Video quality evaluation method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5982240B2 (en) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Winkler | Perceptual video quality metrics—A review | |
KR100355375B1 (en) | Method and circuit for deciding quantizing interval in video encoder | |
US8737486B2 (en) | Objective image quality assessment device of video quality and automatic monitoring device | |
KR100977694B1 (en) | Temporal quality metric for video coding | |
JP6328637B2 (en) | Content-dependent video quality model for video streaming services | |
EP2649801A1 (en) | Method and apparatus for objective video quality assessment based on continuous estimates of packet loss visibility | |
US10085015B1 (en) | Method and system for measuring visual quality of a video sequence | |
Ghadiyaram et al. | A no-reference video quality predictor for compression and scaling artifacts | |
JP5013487B2 (en) | Video objective image quality evaluation system | |
Konuk et al. | A spatiotemporal no-reference video quality assessment model | |
US20120207212A1 (en) | Visually masked metric for pixel block similarity | |
Barkowsky et al. | Hybrid video quality prediction: reviewing video quality measurement for widening application scope | |
Nur Yilmaz | A no reference depth perception assessment metric for 3D video | |
JP5982240B2 (en) | Objective video quality evaluation system | |
KR20110087859A (en) | Method, apparatus and computer readable medium for adjusting the quantization factor | |
Garcia et al. | Towards a content-based parametric video quality model for IPTV | |
Garcia et al. | Video streaming | |
JP6087779B2 (en) | Objective image quality evaluation apparatus, automatic monitoring apparatus, objective image quality evaluation method, and program | |
KR20050003874A (en) | Motion vector detection apparatus in frame rate conversion and method thereof | |
KR100612667B1 (en) | Apparatus and Methods for Objective Assessment of Video Quality | |
Narwaria et al. | Video quality assessment using temporal quality variations and machine learning | |
KR100287209B1 (en) | Method and system for encoding motion pictures with low transmission rate according to dynamic motion estimation | |
Shi et al. | A user-perceived video quality assessment metric using inter-frame redundancy | |
Cardoso et al. | Temporal analysis and perceptual weighting for objective video quality measurement | |
KR20070056229A (en) | Video encoder and region of interest detecting method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5982240 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |