JP2016178641A - Method and apparatus for measurement of quality of video based on frame loss pattern - Google Patents
Method and apparatus for measurement of quality of video based on frame loss pattern Download PDFInfo
- Publication number
- JP2016178641A JP2016178641A JP2016067071A JP2016067071A JP2016178641A JP 2016178641 A JP2016178641 A JP 2016178641A JP 2016067071 A JP2016067071 A JP 2016067071A JP 2016067071 A JP2016067071 A JP 2016067071A JP 2016178641 A JP2016178641 A JP 2016178641A
- Authority
- JP
- Japan
- Prior art keywords
- frame loss
- video
- section
- frame
- quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、フレーム損失パターンに基づいてビデオの品質を測定する方法および装置に関する。 The present invention relates to a method and apparatus for measuring video quality based on frame loss patterns.
この節は、以下に説明および/または特許請求される本発明のさまざまな態様と関連させることができる、技術のさまざまな態様を読み手に紹介することを意図する。この論考は、本発明のさまざまな態様をより理解し易くするための背景情報を読み手に提供するのに役立つものとされている。従って、こうした記述は、この観点から読まれるべきであり、先行技術の承認として読まれるべきではないことを理解されたい。 This section is intended to introduce the reader to various aspects of the technology that may be associated with various aspects of the invention described and / or claimed below. This discussion is intended to help provide readers with background information to make the various aspects of the present invention easier to understand. Accordingly, it should be understood that such a description should be read in this regard and not as prior art approval.
デジタル圧縮されたビデオの送信において、かなり重大な障害の源は、エラーを起こしやすいチャネルを介してビデオストリームを配信することによる。情報の一部損失および一部破損は、フレーム内の局所的歪みがフレームを介して空間的および時間的に伝搬するため、ユーザの知覚品質に劇的なインパクトを与えることがある。このようなフレーム損失の視覚的インパクトは、破損したストリームに対処するビデオデコーダの能力によって異なる。一部の例において、デコーダは、自発的にいくつかのフレームを落とす(drop)ことを判断できる。例えば、デコーダは、破損または欠損した情報を有するフレームをすべて落とすまたは廃棄して、次に有効な復号されたフレームが使用可能になるまで、代わりに前のビデオフレームを繰り返すことができる。エンコーダも、ターゲットとなる符号化ビットレートが低すぎる場合において、コンテンツの動きが急増する時にフレームを落とすことができる。上記のすべての例において、フレーム損失は、ビデオ内で発生すると言えよう。 In the transmission of digitally compressed video, a fairly significant source of failure is due to the delivery of video streams over error-prone channels. Partial loss and corruption of information can have a dramatic impact on the user's perceived quality because local distortions in the frame propagate spatially and temporally through the frame. The visual impact of such frame loss depends on the video decoder's ability to deal with corrupted streams. In some examples, the decoder can determine to drop some frames spontaneously. For example, the decoder can drop or discard all frames with corrupted or missing information and instead repeat the previous video frame until the next valid decoded frame is available. The encoder can also drop the frame when the content movement increases rapidly if the target encoding bit rate is too low. In all the above examples, it can be said that frame loss occurs in the video.
多くの既存のビデオ品質モニタリング製品において、メディア全体のビデオ品質は、主な3つのコーディングアーチファクト、即ち、ジャーキネス(jerkiness)、ブロックノイズ(blockiness)およびぼけ(blurring)に基づいて分析される。ブロックノイズとぼけは、主な2種類の空間コーディングアーチファクトであり、それぞれ、ブロック境界の不連続として、および高周波数損失としてふるまう。一方、ジャーキネスは、最も重大な時間アーチファクトである。 In many existing video quality monitoring products, the overall media video quality is analyzed based on three main coding artifacts: jerkiness, blockiness and blurring. Block noise and blur are the two main types of spatial coding artifacts, which behave as block boundary discontinuities and high frequency losses, respectively. On the other hand, jerkiness is the most significant time artifact.
グループフレーム損失のセットによって生じるビデオ品質の時間劣化は、ジャーキネスと呼ばれ、グループフレーム損失とは、ビデオシーケンスの1または複数の連続したフレームがまとまって損失したという事実を意味する。 The time degradation of video quality caused by a set of group frame losses is called jerkiness, and group frame loss means the fact that one or more consecutive frames of a video sequence have been lost together.
知覚されるビデオ品質に対する(周期的な(periodic:一定間隔の)または周期的でない)ビデオフレーム損失の知覚的インパクトの評価についていくつかの研究がある。 There are several studies on assessing the perceptual impact of video frame loss (periodic or non-periodic) on perceived video quality.
非特許文献1において、人間は通常、一貫したフレーム損失に対してかなり寛容であり、その負のインパクトは、フレーム損失の一貫性と大いに関係することが指摘され、ひいてはジャーキネスの大きさとして使用されるようになった。
In
非特許文献2において、ジャーキネスの知覚的インパクトとグループフレーム損失の長さおよび発生頻度との関係が述べられている。
Non-Patent
本発明の発明者は、ビデオのフレーム損失パターンがジャーキネスの知覚的インパクトに大きな影響を与え、やがてビデオ品質全体にインパクトを与えることを発見した。「フレーム損失パターン」については、ビデオシーケンスの各フレームが、異なる表現を用いて送信される時に上手く送信されたか、または損失したかに関する状態を順次記録することによって生成されるパターンという意味である。 The inventors of the present invention have found that video frame loss patterns have a significant impact on the perceived impact of jerkiness and eventually impact on the overall video quality. “Frame loss pattern” means a pattern generated by sequentially recording the state of whether each frame of a video sequence was successfully transmitted or lost when transmitted using a different representation.
従って、本発明は、ビデオおよび対応する装置の品質を測定する方法を提供することによって、この発見を活用する。 Thus, the present invention takes advantage of this discovery by providing a method for measuring the quality of video and corresponding devices.
一実施形態において、ビデオの品質を測定する方法を提供する。その方法は、ビデオの各フレームが損失したかまたは上手く送信されたかどうかを示すことによって、ビデオのフレーム損失パターンを生成することと、ビデオの品質を、生成されたフレーム損失パターンの関数として評価することを備える。 In one embodiment, a method for measuring video quality is provided. The method generates a video frame loss pattern by indicating whether each frame of the video was lost or transmitted successfully, and evaluates the video quality as a function of the generated frame loss pattern Prepare for that.
一実施形態において、ビデオの品質を測定する装置を提供する。その装置は、入力ビデオを受信し、そして受信されたビデオのフレーム損失パターンを生成する手段と、ビデオの品質を、生成されたフレーム損失パターンの関数として評価する手段とを備える。 In one embodiment, an apparatus for measuring video quality is provided. The apparatus comprises means for receiving an input video and generating a frame loss pattern for the received video, and means for evaluating the quality of the video as a function of the generated frame loss pattern.
発明の有利な実施形態は、従属する特許請求の範囲、以下の説明および図面において開示される。 Advantageous embodiments of the invention are disclosed in the dependent claims, the following description and the drawings.
発明の模範的実施形態を、添付図面を参照して説明する。
以下の説明において、本発明の実施形態のさまざまな態様を説明する。説明を目的として、特定の構成および詳細は、完全な理解を与えるために記載されている。しかしながら、本発明は、本明細書に提示した特定の詳細を用いずに実施されてもよいことが当業者には明らかであろう。 In the following description, various aspects of embodiments of the present invention will be described. For purposes of explanation, specific configurations and details are set forth in order to provide a thorough understanding. However, it will be apparent to those skilled in the art that the present invention may be practiced without the specific details presented herein.
図1は、ビデオのフレーム損失パターンのうちのいくつかの例を示す模範的な図である。上記のように、フレーム損失パターンは、異なる表現を用いてビデオの各フレームの状態を順次記録することによって生成される。例えば、フレーム損失パターンを、「1、1、1、1、0、0、1、1、1、0、1」などの、0−1の連続によって表すことができ、「0」は、対応するフレームが送信中に損失したことを表し、「1」は、フレームの送信が上手くいったことを表す。フレーム損失パターンを、高/低レベルを用いた図の形にすることもでき、それぞれ、上手くいったフレーム送信とフレーム損失とを表す。図1(a)は、そのようなビデオのフレーム損失パターンを示し、図のそれぞれの低いレベル(谷部)が、1または複数の連続したフレーム損失を包含するグループフレーム損失を意味し、上手く送信されたフレームが、図の高いレベル(最上部)によって表されている。図1(b)は、2つの異なるフレーム損失パターンである「パターン1」および「パターン2」を示し、両方とも、各グループフレーム損失が同じ長さを有する、10個のグループフレーム損失から構成されている。フレーム損失パターンをビデオの知覚的ジャーキネスに影響を与える1つの要因と見なしていない、非特許文献1および2の研究結果によれば、上記の2つの「パターン1」および「パターン2」によって生じるビデオ品質の劣化は、非常に似ているはずである。しかしながら、本発明の発明者の研究は、上記の場合とは全く異なる結論に達する。
FIG. 1 is an exemplary diagram illustrating some examples of video frame loss patterns. As described above, the frame loss pattern is generated by sequentially recording the state of each frame of the video using different representations. For example, the frame loss pattern can be represented by a sequence of 0-1 such as “1, 1, 1, 1, 0, 0, 1, 1, 1, 0, 1”, where “0” “1” indicates that the frame was successfully transmitted. Frame loss patterns can also be in the form of diagrams using high / low levels, representing successful frame transmission and frame loss, respectively. FIG. 1 (a) shows the frame loss pattern of such a video, where each low level (valley) in the figure represents a group frame loss that includes one or more consecutive frame losses and transmitted successfully. The rendered frame is represented by the high level (top) of the figure. FIG. 1 (b) shows two different frame loss patterns, “
発明者の発見によれば、ジャーキネスの知覚的インパクトは、フレーム損失パターンによって大いに影響を受ける。同じフレーム損失率である、以下の事例(1)から事例(3)までを例にとる。
事例(1):1つのフレームが2フレームおきに損失する。
事例(2):4つの連続したフレームが8フレームおきに損失する。
事例(3):ビデオシーケンスの後半が完全に損失する。
According to the inventor's discovery, the perceptual impact of jerkiness is greatly influenced by the frame loss pattern. The following case (1) to case (3), which have the same frame loss rate, are taken as examples.
Case (1): One frame is lost every two frames.
Case (2): Four consecutive frames are lost every 8 frames.
Case (3): The second half of the video sequence is completely lost.
上記の3つの事例すべてにおける全体のフレーム損失率は、50パーセントである。しかしながら、それらの知覚的インパクトは、全く異なる。事例1において、閲覧者は、はっきりとしたディザリングを知覚しても、長時間にわたる閲覧の後で気分が悪くなるであろう。事例3において、閲覧者は、そのような種類の現象を知覚しないが、長時間にわたるフリージング(freezing)に直面するであろう。つまり、同じフレーム損失率を有する異なるフレーム損失パターンによって、完全に異なる知覚が生じる。
The overall frame loss rate in all three cases above is 50 percent. However, their perceptual impact is quite different. In
本発明の実施形態に従って、上記の発見に基づいてビデオの品質を測定する方法を提供する。 In accordance with an embodiment of the present invention, a method is provided for measuring video quality based on the above findings.
図2は、本発明の実施形態に従った、フレーム損失パターンに基づいてビデオの品質を測定する方法を示す流れ図である。 FIG. 2 is a flowchart illustrating a method for measuring video quality based on a frame loss pattern according to an embodiment of the present invention.
図2に示すように、方法は、以下のステップを備える。 As shown in FIG. 2, the method comprises the following steps.
ステップ201:フレーム損失パターンは、ビデオシーケンスの各フレームの(損失または上手く送信された)状態を示すことによって生成される。 Step 201: A frame loss pattern is generated by indicating the state (lost or transmitted successfully) of each frame of the video sequence.
ステップ202:1番目の(the first)損失フレームからの、ビデオシーケンスの1または複数の連続した損失フレームをグループフレーム損失にグループ化する。 Step 202: Group one or more consecutive lost frames of a video sequence from the first lost frame into a group frame loss.
ステップ203:最初の(the first)グループフレーム損失からの、フレーム損失パターンを、1または複数の連続したグループフレーム損失を有する複数のセクションに分割して、セクションの各グループフレーム損失が、そのグループフレーム損失とその前のグループフレーム損失との間で同じ数の上手く送信されたフレームおよび同じ数の損失フレームを有するようにする。 Step 203: Dividing the frame loss pattern from the first group frame loss into multiple sections having one or more consecutive group frame losses, and each group frame loss in the section Have the same number of successfully transmitted frames and the same number of lost frames between the loss and the previous group frame loss.
ステップ204:グループフレーム損失の各セクションによって生成された品質劣化の値を計算する。 Step 204: Calculate quality degradation values generated by each section of group frame loss.
ステップ205:すべてのセクションの値を合わせることによってビデオシーケンスの品質を評価する。 Step 205: Evaluate the quality of the video sequence by combining the values of all sections.
次に、添付図面を参照して詳細な説明を与える。 A detailed description will now be given with reference to the accompanying drawings.
発明の実施形態に従った方法において、まず第一に、ビデオシーケンスのフレーム損失パターンが生成される。この生成を、適切なやり方によってビデオシーケンスのすべてのフレームの状態を示すことによって実現することができる。フレーム損失を、周知の方法によって検出することができることを当業者は認識するであろう。この点についての詳細はこれ以上説明しない。 In the method according to an embodiment of the invention, firstly a frame loss pattern of the video sequence is generated. This generation can be accomplished by indicating the status of all frames of the video sequence in an appropriate manner. One skilled in the art will recognize that frame loss can be detected by well-known methods. Details on this point will not be described further.
次に、ビデオシーケンスのすべての損失フレームのうちの1番目から開始して、1または複数の連続した損失フレームは、グループフレーム損失と呼ばれる1つのグループにグループ化される。 Next, starting from the first of all the lost frames in the video sequence, one or more consecutive lost frames are grouped into a group called group frame loss.
考えられるフレーム損失パターンを示す。 A possible frame loss pattern is shown.
このパターンは、タイムスタンプによって与えられ、ここでgdiは、i番目のグループフレーム損失を表す。次に、フレーム損失パターンは、第1のグループフレーム損失から複数のサブセクションに分割(またはセグメント化)される。各サブセクションは、1または複数の連続したグループフレーム損失を備え、それぞれのグループフレーム損失は、ビデオシーケンスの品質劣化に同様の知覚的インパクトを与える。 This pattern is given by a time stamp, where gdi represents the i-th group frame loss. The frame loss pattern is then divided (or segmented) into a plurality of subsections from the first group frame loss. Each subsection comprises one or more consecutive group frame losses, each group frame loss having a similar perceptual impact on the quality degradation of the video sequence.
連続したグループフレーム損失を同様の知覚的インパクトに分割して上記の目的のために、この方法において、ビデオシーケンスの各グループフレーム損失を2つのパラメータgd=(gapgd,lengd)によって特定することができる。第1のパラメータgapgdは、現在のグループフレーム損失と前のグループフレーム損失との間で上手く送信されたフレームの数である。第2のパラメータlengdは、現在のグループフレーム損失の損失フレームの数である。gapgdとlengdの両方の値は、1から10までの整数に限定される。セグメント化されたサブセクションのすべてのグループフレーム損失が、同じパラメータgapgdおよびlengdを有する場合、それらのパラメータは、ビデオシーケンスの品質劣化に同様の知覚的インパクトを与える。 For the above purpose by dividing successive group frame losses into similar perceptual impacts, in this method each group frame loss of the video sequence can be specified by two parameters gd = (gpgd, lengthd). . The first parameter gappgd is the number of frames successfully transmitted between the current group frame loss and the previous group frame loss. The second parameter lengthd is the number of lost frames of the current group frame loss. Both gapgd and lengthd values are limited to integers from 1 to 10. If all group frame losses of a segmented subsection have the same parameters gappgd and lengthd, those parameters have a similar perceptual impact on the quality degradation of the video sequence.
距離関数 Distance function
をサブセクションの2つのグループフレーム損失間の知覚的インパクトの差の大きさとして使用することができる。上記の距離関数において、関数f(x,y)は、ビデオの知覚品質評価に使用され、それについて後で説明する。 Can be used as the magnitude of the difference in perceptual impact between two group frame losses in a subsection. In the above distance function, the function f (x, y) is used for evaluating the perceptual quality of the video, which will be described later.
フレーム損失パターンは、その後、距離関数の定義に基づいてサブセクションにセグメント化される。 The frame loss pattern is then segmented into subsections based on the distance function definition.
以下は、距離関数の擬似コードである。 The following is pseudo code for the distance function.
セグメント化手順。
1、nCount=0, pool={}; //数字として定義される/サブセクションのセット
2、(i=0, i<=n, i++){ に対し
2、1 もし各gd∈poolが(d(gd,gdi)<c)であれば、
プールにgdiを挿入する
さもなくば{SubSectionnCount=pool;pool={ };nCount++};}
を挿入する
上記の擬似コードcは、定数である。この手順は、フレーム損失パターンFLPをサブセクションのセット
Segmentation procedure.
1, nCount = 0, pool = {}; // defined as numbers / subsection set 2, (i = 0, i <= n, i ++) {2, 1 if each gd∈pool is ( If d (gd, gdi) <c),
Insert gdi into the pool otherwise {SubSectionnCount = pool; pool = {}; nCount ++};}
The above pseudo code c is a constant. This procedure sets the frame loss pattern FLP to a set of subsections.
に分割する。 Divide into
図3は、上記のフレーム損失パターンが2つのサブセクションに分割される例を示す。図3に示すように、1つのサブセクション内のグループフレーム損失は、同様の知覚的インパクトから成ると見なされ、そして隣接する2つのサブセクションは、上手く送信されたいくつかのフレームにリンクされている。 FIG. 3 shows an example in which the above frame loss pattern is divided into two subsections. As shown in FIG. 3, group frame loss within one subsection is considered to consist of similar perceptual impacts, and two adjacent subsections are linked to several successfully transmitted frames. Yes.
次に、各サブセクションの知覚評価が実行される。 Next, a perceptual evaluation of each subsection is performed.
同じサブセクション内のグループフレーム損失が、同様の知覚的インパクトから成ると見なされるので、そのサブセクションを、典型的には、一定間隔のフレーム損失として扱うことができることを認識するであろう。 It will be appreciated that sub-sections can typically be treated as regularly spaced frame losses since group frame losses within the same sub-section are considered to consist of similar perceptual impacts.
従って、各サブセクションも、2つのパラメータSubSection=(gapSS,lenSS)によって特定される。第1のパラメータgapSSは、隣接する2つのグループフレーム損失間で上手く送信されたフレームの平均数であり、そして第2のパラメータlenSSは、サブセクションのすべてのグループフレーム損失の損失フレームの平均数である。 Therefore, each subsection is also specified by two parameters SubSection = (gapSS, lenSS). The first parameter gapSS is the average number of frames successfully transmitted between two adjacent group frame losses, and the second parameter lenSS is the average number of lost frames of all group frame losses in the subsection. is there.
平たく言えば、gapSSおよびlenSSのサブセクションの特徴量(feature values)はまさに、そのサブセクション内のすべてのグループフレーム損失に対するgapSSおよびlenSSの平均値である。 Put simply, the feature values of the gapSS and lenSS subsections are exactly the average values of gapSS and lenSS for all group frame losses in that subsection.
そこでサブセクションの知覚品質の劣化は、gapSSおよびlenSSの特徴量によって決定されることが考えられる。以下のように定義される。 Therefore, it is conceivable that the degradation of the perceptual quality of the subsection is determined by the feature values of gapSS and lenSS. It is defined as follows.
主観検査によって、(gapSS,lenSS)のある離散値に対し、知覚品質評価を手動でマークすることができる。このため、我々は、離散関数f(x,y)をx,y∈{1,2,...,10}で定義する。 By subjective examination, perceptual quality evaluation can be manually marked for some discrete values of (gapSS, lenSS). For this reason, we express the discrete function f (x, y) as x, yε {1, 2,. . . , 10}.
例として、離散関数f(x,y)を以下のように定義することができる。 As an example, the discrete function f (x, y) can be defined as follows:
ここで、cstillは、閾値とする定数であり、CameraMotionは、サブセクションのカメラモーションのレベルの大きさである。そしてf1(x,y)f2(x,y)は、以下の表に与えられる。 Here, cstill is a constant used as a threshold, and CameraMotion is the size of the camera motion level of the subsection. And f1 (x, y) f2 (x, y) is given in the following table.
カメラモーションは、知覚品質に影響を与えるもう一つの重要な要因になるので、カメラモーションのレベルも推定する必要がある。 Since camera motion is another important factor that affects perceived quality, it is also necessary to estimate the level of camera motion.
カメラモーションを周知の方法で推定することができる。その最も重要なグローバル動き推定モデルは、非特許文献3に記載された、8パラメータ透視動きモデルである。
The camera motion can be estimated by a known method. The most important global motion estimation model is an 8-parameter perspective motion model described in
非特許文献3は、以下の式で明らかになる。
ここで、(aD,..,a7)は、グローバル動きパラメータであり、(xi,yi)は、現在のフレームのi番目のピクセルの空間座標を示し、そして(xi’,yi’)は、前のフレームの対応するピクセルの空間座標を示す。動きモデルパラメータとシンボルレベルの解釈との関係が確立される。 Where (aD,..., A7) are global motion parameters, (xi, yi) indicates the spatial coordinates of the i th pixel of the current frame, and (xi ′, yi ′) is Indicates the spatial coordinates of the corresponding pixel in the previous frame. A relationship between motion model parameters and symbol level interpretation is established.
非特許文献3で紹介されたアルゴリズムは、本発明の実施形態の方法における8パラメータGMEモデルを抽出するのに適用される。カメラモーションのレベルは、最終的に以下のように定義される。
The algorithm introduced in
そこでfp(x,y)=f(x,y)は、x,y∈{1,2,..,10}として定義される。関数fp(x,y)を整数でない変数を有する関数に一般化する方法についても問題であり、典型的な学習(training)が問題である。従って学習マシン(例えば、当業者には周知である、人工ニューラルネットワーク(ANN))を使用して、そのマシンがf(x,y)で学習する間に So fp (x, y) = f (x, y) is x, yε {1,2,. . , 10}. There is also a problem with how to generalize the function fp (x, y) into a function with non-integer variables, and typical training is a problem. Thus, using a learning machine (eg, an artificial neural network (ANN), well known to those skilled in the art), while the machine learns with f (x, y)
を割り当てることができる。 Can be assigned.
これまでのところ、フレーム損失パターンの各サブセクションによって生成される知覚品質劣化の値Jpが得られた。 So far, the perceptual quality degradation value Jp generated by each subsection of the frame loss pattern has been obtained.
最終的に、ビデオシーケンスの品質は、フレーム損失パターンのすべてのセクションの値を合わせることによって評価される。 Finally, the quality of the video sequence is evaluated by combining the values of all sections of the frame loss pattern.
この方法において、プーリング戦略を使用して、それらの値をビデオシーケンス全体の品質評価に統合することができる。このような時間品質のプーリング戦略は、ブロックノイズ、ぼけなどの、空間アーチファクトを考慮する場合のプーリング戦略とはまったく異なることを指摘すべきである。人間視覚システム(HVS)の特性のため、人々は、「悪く感じやすく、許し難い」。より高い時間品質から成る2つのサブセクション間の上手く送信されたフレームは通常、全体の時間品質を考慮する場合に無視される。 In this way, pooling strategies can be used to integrate those values into the overall video sequence quality assessment. It should be pointed out that such a temporal quality pooling strategy is quite different from the pooling strategy when considering spatial artifacts such as block noise and blur. Due to the nature of the human visual system (HVS), people are “easy to feel bad and unforgivable”. A successfully transmitted frame between two subsections of higher temporal quality is usually ignored when considering the overall temporal quality.
上記のセグメント化ステップにおいて、ビデオシーケンスは、一定間隔のフレーム損失 In the above segmentation step, the video sequence is lost at regular intervals.
のサブセクションのセットにセグメント化され、そして隣接する各2つのサブセクションは、SubsectioniとSubsectioni+1との間の上手く送信されたフレーム、NoLossiを示す、いくつかの上手く送信されたフレームによって区切られる。分かり易くするために、NoLossiは、最も少ない品質劣化値1を有する特別な種類の一定間隔のフレーム損失として扱われる。つまり、我々は、 Each two adjacent subsections are segmented into a set of subsections and separated by a number of successfully transmitted frames indicating NoLossi, a successfully transmitted frame between Subsectioni and Subsectioni + 1. For clarity, NoLossi is treated as a special type of regularly spaced frame loss with the least quality degradation value of 1. In other words, we
と設定する。その後、これらすべてのNoLossiは、設定したFLPに挿入された。 And set. All these NoLossi were then inserted into the set FLP.
従って、全体の品質劣化は、以下のように定義される。 Therefore, the overall quality degradation is defined as follows.
ここで、w(flpi)は、FLPの要素の重み関数であり、以下のように定義される。 Here, w (flpi) is a weight function of the elements of the FLP and is defined as follows.
この式において、length(flpi)は、flpiのフレーム数である。dist(flpi)は、flpiの中央から最後のフレームまでの距離である。Jp(flpi)は、上記で定義されたように、flpiによって導出された知覚的時間劣化である。 In this equation, length (flpi) is the number of frames of flpi. dist (flpi) is the distance from the center of flpi to the last frame. Jp (flpi) is the perceptual time degradation derived by flpi, as defined above.
fTは、人間の「記憶および忘却」プロパティを記述した関数である。閲覧者は、彼/彼女が最後のフレームを閲覧し終わった時に、彼の/彼女の全体の評価を行うと考えられている。最後のフレームから遠く離れたサブセクションは、閲覧者によって忘れられる可能性がある。遠く離れているほど、忘れる可能性が高くなる。 fT is a function describing the human “remember and forget” property. The viewer is thought to make his / her overall assessment when he / she has finished viewing the last frame. Subsections far from the last frame may be forgotten by the viewer. The farther away, the more likely you are to forget.
fDは、「悪く感じやすく、許し難い」視覚プロパティを記述する関数である。人間は、かなり歪みのあるサブセクションに強いインパクトを受ける一方、歪みのないサブセクションをほとんど無視する。 fD is a function that describes a visual property that is “prone to feel bad and unacceptable”. Humans have a strong impact on fairly distorted subsections, while almost ignoring undistorted subsections.
図4は、ビデオの品質を測定する方法のフレームワークを示す模範的な図である。フレームワークの入力は、受信されたビデオシーケンスであり、フレーム損失パターン(またはタイムスタンプ)と併せて、各フレームの損失した/上手くいった受信を示す。フレームワークの出力は、入力ビデオシーケンスに対するビデオ量(ジャーキネス)のレベルを示す値Jである。 FIG. 4 is an exemplary diagram illustrating a framework for a method for measuring video quality. The framework input is the received video sequence, indicating the lost / successful reception of each frame, along with a frame loss pattern (or time stamp). The output of the framework is a value J that indicates the level of video volume (jerkness) for the input video sequence.
図4に示すように、フレームワークの主部は、(1)入力ビデオのフレーム損失パターンのセグメント化、(2)一定間隔のフレーム損失と見なされている各セクションの知覚評価、および(3)プーリング、の3つの動作から構成される。 As shown in FIG. 4, the main part of the framework consists of (1) segmentation of the frame loss pattern of the input video, (2) perceptual evaluation of each section that is considered as regularly spaced frame loss, and (3) It consists of three actions: pooling.
セグメント化ステップにおいて、入力ビデオシーケンスのフレーム損失パターンは、上記のように、セクションのセットに分割される。これらのセクションを2種類に分類することができる。その1つ(SubSectioni)は、同様のグループフレーム損失から構成され、そしてセグメント内の一定間隔のフレーム損失と見なされる。もう1つの種類(NoLossi)は、フレーム損失をまったく包含しない。 In the segmentation step, the frame loss pattern of the input video sequence is divided into sets of sections as described above. These sections can be classified into two types. One of them (SubSectioni) is composed of similar group frame loss and is considered as frame loss at regular intervals within the segment. The other type (NoLossi) does not include any frame loss.
知覚評価ステップにおいて、NoLossiの知覚評価は、定数1に設定される。SubSectioniの知覚評価は、上記のように、式(1)に基づいて推定される。 In the perceptual evaluation step, Nolossi's perceptual evaluation is set to a constant 1. The SubSectioni perceptual evaluation is estimated based on Equation (1) as described above.
プーリングステップにおいて、全体のジャーキネス評価は、上記のように、式(3)に従ったすべてのセクションの知覚評価に基づいて推定される。 In the pooling step, the overall jerkiness rating is estimated based on the perceptual rating of all sections according to equation (3) as described above.
本発明の別の実施形態は、フレーム損失パターンに基づいてビデオの品質を測定する装置を提供する。 Another embodiment of the present invention provides an apparatus for measuring video quality based on frame loss patterns.
図5は、本発明の実施形態に従ったフレーム損失パターンに基づいてビデオの品質を測定する装置を示すブロック図である。 FIG. 5 is a block diagram illustrating an apparatus for measuring video quality based on a frame loss pattern according to an embodiment of the present invention.
図5に示すように、装置500は、入力ビデオシーケンスを受信し、且つ受信されたビデオシーケンスのフレーム損失パターンを生成するためのフレーム損失パターン生成ユニット501と、フレーム損失パターン生成ユニット501からフレーム損失パターンを受信し、且つ第1の損失フレームからの、フレーム損失パターンの1または複数の連続した損失フレームをグループフレーム損失にグループ化するためのグループ化ユニット502と、グループ化ユニット502からグループ化されたフレーム損失パターンを受信し、且つ第1のグループフレーム損失からの、フレーム損失パターンを、1または複数の連続したグループフレーム損失を有する複数のセクションに分割して、セクションの各グループフレーム損失が、そのグループフレーム損失とその前のグループフレーム損失との間で同じ数の上手く送信されたフレームおよび同じ数の損失フレームを有するようにするための分割ユニット503と、分割ユニット503によって出力されたグループフレーム損失の各セクションによって生成された品質劣化の値を計算するための計算ユニット504と、計算ユニット504によって出力されたすべてのセクションの値を合わせてビデオシーケンスの品質を評価し、且つその値を出力するための評価ユニット505とを備える。
As shown in FIG. 5, an
本発明の評価精度を非特許文献1および2と比較して推定する実験が行われた。このため、ビデオ品質の主観テストを行うためのソフトウェアツールが設計された。図6は、その主観テストを行うために設計されたソフトウェアツールのインタフェースを示す図である。入力ビデオシーケンスを右側の「YUVシーケンス」グループボックス内で選択することができ、フレーム損失パターンを右側中央の「フレーム損失パターン」グループボックス内で選択することができる。フレーム損失パターンの影響を受けたビデオシーケンスはその後、左側の小ウィンドウで表示される。
An experiment was performed to estimate the evaluation accuracy of the present invention in comparison with
閲覧者はその後、以下のようなジャーキネスの知覚をマークするように要求される。
1−品質劣化をまったく知覚しない
2−注意して調べて見ると時間軸に不自然なものがあるのに気付くが、ビデオを楽しむのに影響を及ぼさない
3−はっきりとした品質劣化であり、通常、邪魔に感じる
4−品質劣化をかなり不快に思う
5−劣化がひどく、ビデオにまったく耐えられない
The viewer is then required to mark the perception of jerkiness as follows:
1-Do not perceive quality degradation at all 2-If you look carefully and notice that there is something unnatural on the time axis, it will not affect the enjoyment of the video 3-It is clear quality degradation, 4-usually feels uncomfortable-very uncomfortable with quality degradation 5-severe degradation, can't stand video at all
その主観テストにおいて、10CIF(352×288ピクセルのビデオ解像度)シーケンスが選択され、20個のフレーム損失パターンが選ばれた。3人の閲覧者は採点するように依頼されて、彼らの平均値は、JSとして示した、主観スコアに考慮される。マークされたスコアを有するすべてのシーケンスは、データセットDSに組まれる。 In the subjective test, a 10 CIF (352 × 288 pixel video resolution) sequence was selected and 20 frame loss patterns were selected. Three viewers are asked to score and their average value is taken into account in the subjective score, shown as JS. All sequences with marked scores are assembled into the data set DS.
パラメータ設定
実装において、経験に基づいて定数が決定される。定数は、β1=β2=1,β3=2、
c=1.5、cstill=0.23である。
Parameter setting In implementation, constants are determined based on experience. The constants are β1 = β2 = 1, β3 = 2,
c = 1.5 and cstill = 0.23.
簡易にするために、300フレームのウィンドウは、閲覧者がこのウィンドウの前のフレームの品質について忘れるであろうと思われる間の記憶容量とされた。そしてウィンドウ内で、fT=1に設定され、fD(d)=6−dに設定される。f1(x,y)およびf2(x,y)は、上記の表1および表2によって決定される。 For simplicity, a 300-frame window has been made available for storage while the viewer would forget about the quality of the previous frame of this window. In the window, fT = 1 is set and fD (d) = 6-d is set. f1 (x, y) and f2 (x, y) are determined by Table 1 and Table 2 above.
実験結果
本発明の評価精度は、本発明に従って得られた主観評価結果Jと主観スコアJSとを比較することによって推定される。ピアソンの相関が予測精度測定に使用される。
Experimental Result The evaluation accuracy of the present invention is estimated by comparing the subjective evaluation result J obtained according to the present invention and the subjective score JS. Pearson's correlation is used to measure prediction accuracy.
以下の表は、本発明のピアソンの相関(予測精度)および非特許文献1および2で提案されたアルゴリズムを示す。
The following table shows the Pearson correlation (prediction accuracy) of the present invention and the algorithm proposed in
本発明の好適な実施形態に適用される基礎的な新規の特徴を示し、説明し、そして指摘したが、説明された装置および方法、開示されたデバイスの形態および詳細、およびそれらの動作のさまざまな省略および置換および変更は、本発明の精神から逸脱することなく当業者によって行われてよいことが理解されよう。同じ結果を実現するために実質的に同じやり方で実質的に同じ機能を実行する要素のすべての組み合わせは、発明の範囲内であることを明確に意図する。説明したある実施形態から別の実施形態に要素を置き換えることも、すべて意図および企図する。 Although the basic novel features applied to the preferred embodiments of the present invention have been shown, described and pointed out, the apparatus and method described, the forms and details of the disclosed devices, and the variety of their operation It will be understood that any omissions, substitutions and changes may be made by those skilled in the art without departing from the spirit of the invention. It is expressly intended that all combinations of elements performing substantially the same function in substantially the same way to achieve the same result are within the scope of the invention. The substitution of elements from one described embodiment to another is all contemplated and contemplated.
本発明は、単に例として説明され、そして発明の範囲から逸脱せずに詳細の変更を行うことができることが理解されよう。説明で開示された各特徴および(それに適した)特許請求の範囲および図面は、単独または適した任意の組み合わせにおいて提供されてよい。適した特徴は、ハードウェア、ソフトウェア、またはその2つを組み合わせて実装されてよい。 It will be understood that the present invention has been described by way of example only and modifications of detail can be made without departing from the scope of the invention. Each feature disclosed in the description, and (where appropriate) the claims and drawings may be provided alone or in any suitable combination. Suitable features may be implemented in hardware, software, or a combination of the two.
Claims (10)
前記ビデオの各フレームが損失したかまたは上手く送信されたかどうかを示すことによって前記ビデオのフレーム損失パターンを生成するステップと、
前記ビデオの前記品質を前記生成されたフレーム損失パターンの関数として評価するステップと、
を備える、前記方法。 A method for measuring video quality,
Generating a frame loss pattern for the video by indicating whether each frame of the video has been lost or transmitted successfully;
Evaluating the quality of the video as a function of the generated frame loss pattern;
Said method.
1番目の損失フレームからの、前記ビデオの1または複数の連続した損失フレームをグループフレーム損失にグループ化するステップと、
最初のグループフレーム損失からの、前記フレーム損失パターンを、1または複数の連続したグループフレーム損失を有する複数のセクションに分割して、セクションの各グループフレーム損失が、前記グループフレーム損失とその前のグループフレーム損失との間で同じ数の上手く送信されたフレームおよび同じ数の損失フレームを有するようにするステップと、
グループフレーム損失の各セクションによって生成された品質劣化の値を計算するステップと、
すべてのセクションの前記値を合わせることによって前記ビデオの前記品質を評価するステップと、
を備える、請求項1に記載の方法。 The evaluation is
Grouping one or more consecutive lost frames of the video from a first lost frame into a group frame loss;
The frame loss pattern from the first group frame loss is divided into a plurality of sections having one or more consecutive group frame losses, and each group frame loss of the section is divided into the group frame loss and the previous group Having the same number of successfully transmitted frames and the same number of lost frames between frame loss;
Calculating the value of quality degradation generated by each section of group frame loss;
Assessing the quality of the video by combining the values of all sections;
The method of claim 1, comprising:
前記ビデオの前記品質を、前記生成されたフレーム損失パターンの関数として評価する手段と、
を備える、前記装置。 An apparatus for measuring video quality, the means for receiving an input video and generating a frame loss pattern of the received video;
Means for evaluating the quality of the video as a function of the generated frame loss pattern;
Comprising the apparatus.
フレーム損失パターン生成ユニットから前記フレーム損失パターンを受信し、および前記第1の損失フレームからの、前記フレーム損失パターンの1または複数の連続した損失フレームをグループフレーム損失にグループ化するためのグループ化ユニットと、
前記グループ化ユニットから前記グループ化されたフレーム損失パターンを受信し、および最初のグループフレーム損失からの、前記フレーム損失パターンを、1または複数の連続したグループフレーム損失を有する複数のセクションに分割して、セクションの各グループフレーム損失が、前記グループフレーム損失とその前のグループフレーム損失との間で前記同じ数の上手く送信されたフレームおよび前前記同じ数の損失フレームを有するようにするための分割ユニットと、
前記分割ユニットによって出力されたグループフレーム損失の各セクションによって生成された品質劣化の値を計算するための計算ユニットと、
前記計算ユニットによって出力されたすべてのセクションの前記値を合わせて前記ビデオの前記品質を評価し、および前記値を出力するための評価ユニットと
を備える、請求項6に記載の装置。 The means for evaluating the quality of the video comprises:
A grouping unit for receiving the frame loss pattern from a frame loss pattern generation unit and grouping one or more consecutive loss frames of the frame loss pattern from the first loss frame into a group frame loss When,
Receiving the grouped frame loss pattern from the grouping unit and dividing the frame loss pattern from an initial group frame loss into a plurality of sections having one or more consecutive group frame losses; A division unit for causing each group frame loss of a section to have the same number of successfully transmitted frames and the previous same number of lost frames between the group frame loss and the previous group frame loss When,
A calculation unit for calculating a value of quality degradation generated by each section of the group frame loss output by the division unit;
7. An apparatus according to claim 6, comprising: an evaluation unit for combining the values of all sections output by the calculation unit to evaluate the quality of the video and outputting the values.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016067071A JP2016178641A (en) | 2016-03-30 | 2016-03-30 | Method and apparatus for measurement of quality of video based on frame loss pattern |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016067071A JP2016178641A (en) | 2016-03-30 | 2016-03-30 | Method and apparatus for measurement of quality of video based on frame loss pattern |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013541165A Division JP2014504471A (en) | 2010-11-30 | 2010-11-30 | Method and apparatus for measuring video quality based on frame loss pattern |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016178641A true JP2016178641A (en) | 2016-10-06 |
Family
ID=57069391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016067071A Withdrawn JP2016178641A (en) | 2016-03-30 | 2016-03-30 | Method and apparatus for measurement of quality of video based on frame loss pattern |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016178641A (en) |
-
2016
- 2016-03-30 JP JP2016067071A patent/JP2016178641A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475172B2 (en) | Techniques for predicting perceptual video quality | |
Wu et al. | Perceptual quality metric with internal generative mechanism | |
Narvekar et al. | A no-reference image blur metric based on the cumulative probability of blur detection (CPBD) | |
Wu et al. | Reduced-reference image quality assessment with visual information fidelity | |
Gu et al. | Hybrid no-reference quality metric for singly and multiply distorted images | |
US11557025B2 (en) | Techniques for training a perceptual quality model to account for brightness and color distortions in reconstructed videos | |
CN109429051A (en) | Based on multiple view feature learning without reference stereoscopic video quality method for objectively evaluating | |
Nezhivleva et al. | Comparing of Modern Methods Used to Assess the Quality of Video Sequences During Signal Streaming with and Without Human Perception | |
JP2014504471A (en) | Method and apparatus for measuring video quality based on frame loss pattern | |
Jenadeleh et al. | Crowdsourced Estimation of Collective Just Noticeable Difference for Compressed Video with the Flicker Test and QUEST+ | |
Mitra et al. | Multiview contrastive learning for completely blind video quality assessment of user generated content | |
JP2016178641A (en) | Method and apparatus for measurement of quality of video based on frame loss pattern | |
CN116471262A (en) | Video quality evaluation method, apparatus, device, storage medium, and program product | |
Wang et al. | A very low complexity reduced reference video quality metric based on spatio-temporal information selection | |
Kim et al. | Cnn-based blind quality prediction on stereoscopic images via patch to image feature pooling | |
CN107295214A (en) | Interpolated frame localization method and device | |
Malekmohamadi et al. | Subjective quality estimation based on neural networks for stereoscopic videos | |
Motamednia et al. | Quality Assessment of Screen Content Videos | |
Elwardy et al. | Objective perceptual video quality prediction using spatial and temporal information differences | |
Wang et al. | A JND-based video quality assessment model and its application | |
Keimel et al. | Extending video quality metrics to the temporal dimension with 2D-PCR | |
US11532077B2 (en) | Techniques for computing perceptual video quality based on brightness and color components | |
CN108462870A (en) | The reference-free quality evaluation method of ultra high-definition video | |
Deng et al. | Video quality assessment based on features for semantic task and human material perception | |
Hu et al. | Compressed video quality assessment with modified MSE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20161025 |