JP5350300B2 - Transcode video quality objective evaluation apparatus, method and program - Google Patents
Transcode video quality objective evaluation apparatus, method and program Download PDFInfo
- Publication number
- JP5350300B2 JP5350300B2 JP2010068798A JP2010068798A JP5350300B2 JP 5350300 B2 JP5350300 B2 JP 5350300B2 JP 2010068798 A JP2010068798 A JP 2010068798A JP 2010068798 A JP2010068798 A JP 2010068798A JP 5350300 B2 JP5350300 B2 JP 5350300B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- amount
- feature
- deriving
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、トランスコード映像品質客観評価装置及び方法及びプログラムに係り、特に、
インターネットのようなIP(Internet Protocol)ネットワーク経由で行うIPTVサービス、映像配信サービスにおけるトランスコードされた映像の品質を客観的に評価するトランスコード映像品質客観評価装置及び方法及びプログラムに関する。
The present invention relates to a transcoded video quality objective evaluation apparatus, method and program, and in particular,
The present invention relates to a transcoded video quality objective evaluation apparatus, method and program for objectively evaluating the quality of transcoded video in an IPTV service and video distribution service performed via an IP (Internet Protocol) network such as the Internet.
インターネットアクセス回線の高速・広帯域化に伴い、インターネットを介して映像や音声を含む映像メディアを端末間あるいはサーバと端末との間で転送する映像通信サービスの普及が期待されている。 With the increase in speed and bandwidth of Internet access lines, the spread of video communication services that transfer video media including video and audio between terminals or between servers and terminals via the Internet is expected.
インターネットは、必ずしも通信品質が保証されていないネットワークであるため、音声及び映像メディアなどを用いて通信を行う場合、ユーザ端末間のネットワークの回線帯域が狭いことによるビットレートの低下、回線が輻輳することでパケット損失やパケット転送遅延が発生し、音声や映像メディアなどに対してユーザが知覚する品質(ユーザ体感品質:QoE(Quality of Experience))が劣化してしまう。 Since the Internet is a network whose communication quality is not always guaranteed, when communication is performed using audio and video media, the bit rate is lowered and the line is congested due to the narrow line bandwidth of the network between user terminals. As a result, packet loss and packet transfer delay occur, and the quality perceived by the user for audio, video media, etc. (user experience quality: QoE (Quality of Experience)) deteriorates.
具体的には、原映像を符号化する場合や既に符号化された映像を再符号化(トランスコード)する場合、フレーム内の映像信号にブロック単位の処理による劣化が生じたり、映像信号の高周波成分が失われることにより、映像全体の精細感が低くなる。 Specifically, when the original video is encoded or when the already encoded video is re-encoded (transcoded), the video signal in the frame may be deteriorated by processing in block units, or the high-frequency of the video signal The loss of components reduces the fineness of the entire video.
結果として、ユーザは受信した映像に、ぼけ、にじみ、やモザイク状の歪みを知覚する。 As a result, the user perceives blur, blur, and mosaic distortion in the received video.
上記のような映像通信サービスを良好な品質で提供していることを確認するためには、サービス提供前もしくは提供中に、ユーザが体感する映像の品質を測定し、ユーザに対して提供される映像の品質が高いことを監視することが重要となる。 In order to confirm that the video communication service as described above is provided with good quality, the quality of the video experienced by the user is measured before the service is provided or is provided to the user. It is important to monitor the high quality of the video.
したがって、ユーザが体感する映像の品質を適切に表現することができる映像品質客観評価技術が必要とされている。 Therefore, there is a need for video quality objective evaluation technology that can appropriately express the quality of the video experienced by the user.
従来、映像品質を評価する手法として、主観品質評価法(例えば、非特許文献1参照)や客観品質評価法(例えば、非特許文献2参照)がある。 Conventionally, as a method for evaluating video quality, there are a subjective quality evaluation method (for example, see Non-Patent Document 1) and an objective quality evaluation method (for example, Non-Patent Document 2).
主観品質評価法は、複数のユーザが実際に映像を視聴し、体感した品質を5段階(9段階や11段階の場合もある)の品質尺度(非常に良い、良い、ふつう、悪い、非常に悪い)や妨害尺度(劣化が全く認められない、劣化が認められるが気にならない、劣化がわずかに気になる、劣化が気になる、劣化が非常に気になる)などにより評価し、全ユーザ数で各条件(例えば、パケット損失率0%でビットレートが20Mbps)の映像品質評価値を平均し、その値をMOS(Mean Opinion Score)値やDMOS(Degradation Mean Opinion Score)値として定義している。 The subjective quality evaluation method is a quality scale (very good, good, normal, bad, very good) of the quality experienced by multiple users who actually watched the video and experienced the quality (may be 9 or 11 levels) Bad) and disturbance scale (no degradation is observed, degradation is observed but not bothered, slightly concerned about degradation, concerned about degradation, very concerned about degradation), etc. Average the video quality evaluation value for each condition (for example, packet loss rate 0% and bit rate 20Mbps) by the number of users, and define the value as MOS (Mean Opinion Score) value or DMOS (Degradation Mean Opinion Score) value ing.
しかしながら、主観品質評価は、特別な専用機材(モニタなど)や評価環境(室内照度や室内騒音など)を調整可能な評価施設を必要とするだけではなく、多数のユーザが実際に映像を評価する必要がある。そのため、ユーザが実際に評価を完了するまでに時間がかかってしまい、品質をリアルタイムに評価する場合には不向きである。 However, subjective quality evaluation not only requires special dedicated equipment (such as a monitor) and an evaluation facility that can adjust the evaluation environment (such as room illuminance and room noise), but many users actually evaluate the video. There is a need. For this reason, it takes time for the user to actually complete the evaluation, which is not suitable for evaluating the quality in real time.
そこで、映像品質に影響を与える特徴量(例えば、ビットレートやフレーム単位のビット量、パケット損失情報など)を利用し、映像品質評価値を出力する客観品質評価法の開発が望まれている。 Therefore, it is desired to develop an objective quality evaluation method that outputs a video quality evaluation value using a feature amount (for example, bit rate, bit amount in frame units, packet loss information, etc.) that affects video quality.
従来の客観品質推定法の1つに、符号化前の原映像と符号化後の劣化映像を入力とし、両者の映像信号(つまり、画素値)を比較し、映像品質に影響を与える特徴量から映像品質評価値を導出する技術がある(例えば、非特許文献2参照)。 One of the conventional objective quality estimation methods is that the original video before encoding and the degraded video after encoding are input, and the video signals (that is, pixel values) of both are compared, and the feature quantity that affects the video quality There is a technique for deriving a video quality evaluation value from the above (for example, see Non-Patent Document 2).
また、従来の客観品質評価法の1つに、符号化前の原映像を用いず、符号化後の劣化映像を入力とし、この劣化映像信号から映像品質に影響を与える特徴量を導出し、映像品質評価値を導出する技術がある(例えば、非特許文献3参照)。 In addition, in one of the conventional objective quality evaluation methods, the original video before encoding is not used, but the deteriorated video after encoding is input, and the feature quantity that affects the video quality is derived from this deteriorated video signal, There is a technique for deriving a video quality evaluation value (see, for example, Non-Patent Document 3).
さらに、従来の客観品質評価法の1つに、送信されたパケットを入力とし、これらパケットから映像品質に影響を与える特徴量を導出し、映像品質評価値を導出する技術がある(例えば、非特許文献4、5参照)。
Further, as one of the conventional objective quality evaluation methods, there is a technique that receives transmitted packets as input, derives a feature quantity that affects video quality from these packets, and derives a video quality evaluation value (for example, (See
従来の客観品質評価法の多くは、上記のように、パケットや映像信号(画素値)を用いて映像品質評価値を推定するものであった。 Many conventional objective quality evaluation methods estimate a video quality evaluation value using a packet or a video signal (pixel value) as described above.
しかしながら、非特許文献2の技術は、原映像信号を用いることを前提としているため、一度、符号化された映像と再符号化(トランスコード)した映像のみを用いて、トランスコード後の映像の品質を評価する場合に、品質評価精度が著しく低下するといった問題がある。 However, since the technique of Non-Patent Document 2 is based on the premise that the original video signal is used, only the encoded video and the re-encoded (transcoded) video are used to transcode the video after transcoding. When evaluating quality, there is a problem that the quality evaluation accuracy is remarkably lowered.
具体的には、トランスコード前の映像は、原映像を符号化しているため、ブロックノイズ、ブラー(ぼけ)ノイズ、モスキートノイズ、フリッカノイズなどのノイズを含んでいる。そのため、本来、原画像を利用できた際には、抽出できたエッジが抽出できないなどの問題が発生し、品質評価精度が著しく低下するといった問題がある。 Specifically, since the video before transcoding encodes the original video, it includes noise such as block noise, blur noise, mosquito noise, and flicker noise. For this reason, when the original image can be used, there is a problem that the extracted edge cannot be extracted, and the quality evaluation accuracy is significantly lowered.
また、非特許文献3,4,5技術は、受信映像、受信パケットを用いて映像の品質を評価する技術であるが、受信映像や受信パケットのみを用い、再符号化する前の符号化映像を用いることができないため、再符号化前の符号化映像の品質低下を捉えることができないといった問題があった。
本発明は、上記の点に鑑みなされたもので、上述の問題を解決すべく、トランスコードの前後の符号化映像から導出された特徴量から映像品質評価値を導出することで、トランスコード映像に対して、映像品質値を高精度に推定することが可能なトランスコード映像品質客観評価装置及び方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and in order to solve the above-described problem, a transcoded video is obtained by deriving a video quality evaluation value from a feature amount derived from encoded video before and after transcoding. On the other hand, an object of the present invention is to provide a transcoded video quality objective evaluation apparatus, method and program capable of estimating a video quality value with high accuracy.
図1は、本発明の原理構成図である。 FIG. 1 is a principle configuration diagram of the present invention.
本発明(請求項1)は、トランスコードされた映像の品質を客観的に評価するトランスコード映像品質客観評価装置であって、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出手段100と、
エッジ・テクスチャ量抽出手段から導出されたエッジ量とテクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出手段200と、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出手段400と、
第1の特徴量抽出手段より出力された第1の特徴量より、入力されたトランスコード前の符号化映像の映像品質評価値を第1の映像品質評価値として導出する第1の映像品質手段300と、
第1の映像品質評価値と第2の特徴量抽出手段400から導出された第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定手段500と、を備える。
The present invention (Claim 1) is a transcoded video quality objective evaluation apparatus for objectively evaluating the quality of transcoded video,
Edge / texture amount extraction means 100 for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction means , and the average value of all the video frames with respect to the ratio of the edge amount and the texture amount per video frame, a certain interval A first feature amount that derives at least one first feature amount of a feature amount that is a maximum value and a standard deviation value of a set of average values for each time or a motion amount that is a feature amount derived from an encoded video before transcoding; Feature quantity extraction means 200;
Second feature quantity extraction means 400 for deriving a second feature quantity from difference information using the number of pixels in the horizontal and vertical directions of the input encoded video before transcoding and transcoded video after transcoding; ,
First video quality means for deriving, as a first video quality evaluation value, a video quality evaluation value of the input encoded video before transcoding from the first feature quantity output from the first feature quantity extraction means 300,
A second video quality evaluation value indicating a quality evaluation value of the transcoded video after transcoding is derived from the first video quality evaluation value and the second feature quantity derived from the second feature
本発明(請求項2)は、トランスコードされた映像の品質を客観的に評価するトランスコード映像品質客観評価装置であって、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出手段と、
エッジ・テクスチャ量抽出手段から導出されたエッジ量とテクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出手段と、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出手段と、
第1の特徴量抽出手段より導出された第1の特徴量と第2の特徴量抽出手段から導出された第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定手段と、を備える。
The present invention (Claim 2) is a transcoded video quality objective evaluation device that objectively evaluates the quality of transcoded video,
Edge / texture amount extraction means for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction means , and the average value of all the video frames with respect to the ratio of the edge amount and the texture amount per video frame, a certain interval A first feature amount that derives at least one first feature amount of a feature amount that is a maximum value and a standard deviation value of a set of average values for each time or a motion amount that is a feature amount derived from an encoded video before transcoding; Feature amount extraction means;
Second feature quantity extraction means for deriving a second feature quantity from difference information using the number of pixels in the horizontal and vertical directions of the input encoded video before transcoding and transcoded video after transcoding;
A second evaluation value indicating the quality evaluation value of the transcoded video after transcoding from the first feature quantity derived from the first feature quantity extraction means and the second feature quantity derived from the second feature quantity extraction means. Second video quality estimation means for deriving a video quality evaluation value.
また、本発明(請求項4)は、請求項1または2記載の第1の特徴量抽出手段において、
エッジ・テクスチャ量抽出手段より映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、推定対象の映像の全映像フレームに対するエッジ量の合計値と、同様に、推定対象の映像の全映像フレームに対するテクスチャ量の合計値を算出し、該エッジ量の合計値を該テクスチャ量の合計値で除算した映像フレーム平均特徴量を導出する映像フレーム平均特徴量導出手段を含む。
Further, the present invention (Claim 4) is the first feature amount extraction means according to
Based on the edge amount and texture amount extracted in units of video frames by the edge / texture amount extraction means, the total value of the edge amounts for all video frames of the estimation target video, and similarly, for all video frames of the estimation target video Video frame average feature quantity deriving means for calculating a total value of the texture quantities and deriving an average video frame feature quantity obtained by dividing the total value of the edge quantities by the total value of the texture quantities is included.
また、本発明(請求項5)は、請求項1、2、または4記載の第1の特徴量抽出手段において、
エッジ・テクスチャ量抽出手段より映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、映像フレーム単位にエッジ量の合計値をテクスチャ量の合計値で除算した映像フレーム特徴量を導出する映像フレーム特徴量導出手段と、
推定対象の映像のある一定区間の複数の映像フレームに対し、映像フレーム特徴量導出手段から導出された映像フレーム特徴量を合計し、映像フレーム数で除算した平均特徴量を導出する平均特徴量導出手段と、
平均特徴量導出手段より導出された推定対象の映像のある一定区間の複数の映像フレームの平均特徴量に対し、推定対象の全区間の複数の平均特徴量の最大の値を示す最大特徴量を導出する最大特徴量導出手段と、
平均特徴量導出手段より導出された推定対象の映像のある一定区間の複数の映像フレームの平均特徴量に対し、推定対象の全区間の複数の平均特徴量の標準偏差をとった標準偏差特徴量を導出する標準偏差特徴量導出手段と、を更に有する。
Further, the present invention (Claim 5) is the first feature amount extraction means according to
A video frame feature for deriving a video frame feature amount obtained by dividing the total value of the edge amount by the total value of the texture amount for each video frame based on the edge amount and the texture amount extracted for each video frame by the edge / texture amount extraction means A quantity derivation means;
Deriving an average feature value by deriving an average feature value obtained by summing the video frame feature values derived from the video frame feature value deriving means for a plurality of video frames in a certain section of the video to be estimated and dividing by the number of video frames Means,
The maximum feature amount indicating the maximum value of the plurality of average feature amounts of all the estimation target sections is calculated with respect to the average feature amount of a plurality of video frames in a certain section of the estimation target video derived by the average feature amount deriving unit. A maximum feature amount deriving means for deriving;
A standard deviation feature value obtained by taking a standard deviation of a plurality of average feature values in all sections to be estimated with respect to an average feature value of a plurality of video frames in a certain section of the estimation target video derived by the average feature quantity deriving means. And standard deviation feature quantity deriving means for deriving.
また、本発明(請求項6)は、請求項1,2,4、又は5の第1の特徴量抽出手段において、
入力されたトランスコード前の符号化映像から映像の動きを示す動き量を導出する動き量導出手段を更に有する。
Further, the present invention (Claim 6) is the first feature amount extraction means according to
It further has a motion amount deriving means for deriving a motion amount indicating the motion of the video from the input encoded video before transcoding.
また、本発明(請求項7)は、請求項1また2記載の第2の特徴量抽出手段において、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像からPeak-signal-to-noise ratio(PSNR)を導出するPSNR導出手段を含む。
Further, the present invention (Claim 7) is the second feature amount extraction means according to
PSNR deriving means for deriving a peak-signal-to-noise ratio (PSNR) from the input encoded video before transcoding and transcoded video after transcoding is included.
図2は、本発明の原理を説明するための図である。 FIG. 2 is a diagram for explaining the principle of the present invention.
本発明(請求項8)は、トランスコードされた映像の品質を客観的に評価するトランスコード映像品質客観評価方法であって、
トランスコード映像品質客観評価装置が、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出ステップ(ステップ1)と、
エッジ・テクスチャ量抽出ステップから導出されたエッジ量とテクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出ステップ(ステップ2)と、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出ステップ(ステップ3)と、
第1の特徴量抽出ステップより出力された第1の特徴量より、入力されたトランスコード前の符号化映像の映像品質評価値を第1の映像品質評価値として導出する第1の映像品質推定ステップ(ステップ4)と、
第1の映像品質評価値と第2の特徴量抽出ステップから導出された第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定ステップ(ステップ5)と、を行う。
The present invention (Claim 8) is a transcoded video quality objective evaluation method for objectively evaluating the quality of transcoded video,
Transcode video quality objective evaluation device
An edge / texture amount extraction step (step 1) for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction step , and an average value of all the video frames with respect to the ratio of the edge amount and the texture amount per video frame, a certain interval A first feature amount that derives at least one first feature amount of a feature amount that is a maximum value and a standard deviation value of a set of average values for each time or a motion amount that is a feature amount derived from an encoded video before transcoding; Feature amount extraction step (step 2),
A second feature amount extraction step (step for deriving a second feature amount from difference information using the number of pixels in the horizontal direction and the vertical direction of the input encoded video before transcoding and transcoded video after transcoding 3) and
First video quality estimation for deriving, as a first video quality evaluation value, a video quality evaluation value of an input encoded video before transcoding from the first feature quantity output from the first feature extraction step Step (step 4);
A second video quality evaluation value indicating a quality evaluation value of the transcoded video after transcoding is derived from the first video quality evaluation value and the second feature quantity derived from the second feature quantity extraction step. The video quality estimation step (step 5) is performed.
本発明(請求項9)は、トランスコードされた映像の品質を客観的に評価するトランスコード映像品質客観評価方法であって、
トランスコード映像品質客観評価装置が、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出ステップと、
エッジ・テクスチャ量抽出ステップから導出されたエッジ量とテクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出ステップと、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出ステップと、
第1の特徴量抽出ステップより導出された第1の特徴量と第2の特徴量抽出ステップから導出された第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定ステップと、を行う。
The present invention (claim 9) is a transcoded video quality objective evaluation method for objectively evaluating the quality of transcoded video,
Transcode video quality objective evaluation device
An edge / texture amount extraction step for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction step , and an average value of all the video frames with respect to the ratio of the edge amount and the texture amount per video frame, a certain interval A first feature amount that derives at least one first feature amount of a feature amount that is a maximum value and a standard deviation value of a set of average values for each time or a motion amount that is a feature amount derived from an encoded video before transcoding; A feature extraction step of
A second feature amount extraction step of deriving a second feature amount from difference information using the number of pixels in the horizontal direction and the vertical direction of the input encoded video before transcoding and transcoded video after transcoding;
A second evaluation value indicating a transcoded video quality evaluation value from the first feature value derived from the first feature value extraction step and the second feature value derived from the second feature value extraction step. And a second video quality estimation step for deriving a video quality evaluation value.
また、本発明(請求項10)は、請求項8または9のエッジ・テクスチャ量抽出ステップにおいて、
入力されたトランスコード前の符号化映像をキャプチャしエッジ画像を作成し、エッジ画像の各画素の値に基づきクラスタリングを実施し、クラスタリング画像を導出するクラスタリングステップと、
クラスタリングステップにより導出されたクラスタリング画像をフィルタリングし、フィルタリング画像を作成するフィルタリングステップと、
クラスタリングにより導出されたクラスタリング画像とフィルタリングステップから導出されたフィルタリング画像の差分値から差分クラスタリング画像を作成する差分クラスタリング画像導出ステップと、
差分クラスタリング画像導出ステップにより導出された差分クラスタリング画像のエッジ量とテクスチャ量を映像フレーム単位にカウントするカウントステップと、を行う。
Further, according to the present invention (Claim 10), in the edge texture amount extraction step of
A clustering step of capturing an input encoded video before transcoding to create an edge image, performing clustering based on the value of each pixel of the edge image, and deriving a clustered image;
Filtering the clustering image derived by the clustering step to create a filtered image;
A difference clustering image derivation step for creating a difference clustering image from a difference value between the clustering image derived by clustering and the filtering image derived from the filtering step;
The counting step of counting the edge amount and the texture amount of the difference clustering image derived by the difference clustering image deriving step for each video frame is performed.
また、本発明(請求項11)は、請求項8または9の第1の特徴量抽出ステップにおいて、
エッジ・テクスチャ量抽出ステップより映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、推定対象の映像の全映像フレームに対するエッジ量の合計値と、同様に、推定対象の映像の全映像フレームに対するテクスチャ量の合計値を算出し、該エッジ量の合計値を該テクスチャ量の合計値で除算した映像フレーム平均特徴量を導出する映像フレーム平均特徴量導出ステップを行う。
The present invention (Claim 11) is characterized in that, in the first feature amount extraction step of
Based on the edge amount and texture amount extracted for each video frame in the edge / texture amount extraction step, the total value of the edge amount for all video frames of the estimation target video, and similarly for all video frames of the estimation target video A video frame average feature quantity derivation step is performed in which a total value of the texture quantities is calculated, and a video frame average feature quantity is derived by dividing the total edge quantity by the total texture quantity.
また、本発明(請求項12)は、請求項8、9、または11の第1の特徴量抽出ステップにおいて、
エッジ・テクスチャ量抽出ステップより映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、映像フレーム単位にエッジ量の合計値をテクスチャ量の合計値で除算した映像フレーム特徴量を導出する映像フレーム特徴量導出ステップと、
推定対象の映像のある一定区間の複数の映像フレームに対し、映像フレーム特徴量導出ステップから導出された映像フレーム特徴量を合計し、映像フレーム数で除算した平均特徴量を導出する平均特徴量導出ステップと、
平均特徴量導出ステップより導出された推定対象の映像のある一定区間の複数の映像フレームの平均特徴量に対し、推定対象の全区間の複数の平均特徴量の最大の値を示す最大特徴量を導出する最大特徴量導出ステップと、
平均特徴量導出ステップより導出された推定対象の映像のある一定区間の複数の映像フレームの平均特徴量に対し、推定対象の全区間の複数の平均特徴量の標準偏差をとった標準偏差特徴量を導出する標準偏差特徴量導出ステップと、を更に行う。
Further, the present invention (Claim 12) is characterized in that, in the first feature amount extraction step according to
A video frame feature that derives a video frame feature amount by dividing the total edge amount by the total texture amount for each video frame based on the edge amount and the texture amount extracted for each video frame in the edge / texture amount extraction step. A quantity derivation step;
Deriving an average feature value by summing up the video frame feature values derived from the video frame feature value deriving step for a plurality of video frames in a certain section of the video to be estimated, and deriving an average feature value divided by the number of video frames Steps,
The maximum feature quantity indicating the maximum value of the plurality of average feature quantities of all the estimation target sections is calculated with respect to the average feature quantity of a plurality of video frames in a certain section of the estimation target video derived from the average feature quantity deriving step. A maximum feature amount derivation step to be derived;
The standard deviation feature value obtained by taking the standard deviation of the multiple average feature values of all the estimation target sections from the average feature value of multiple video frames in a certain section of the estimation target video derived from the average feature value deriving step. And a standard deviation feature quantity derivation step for deriving.
また、本発明(請求項13)は、請求項8,9,11、または、12の第1の特徴量抽出ステップにおいて、
入力されたトランスコード前の符号化映像から映像の動きを示す動き量を導出する動き量導出ステップを更に行う。
Further, the present invention (Claim 13) is the first feature amount extraction step according to
A motion amount deriving step for deriving a motion amount indicating the motion of the video from the input encoded video before transcoding is further performed.
また、本発明(請求項14)は、請求項8または9の第2の特徴量抽出ステップにおいて、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像からPeak-signal-to-noise ratio(PSNR)を導出するPSNR導出ステップを行う。
The present invention (Claim 14) is characterized in that, in the second feature amount extraction step of
A PSNR deriving step of deriving a peak-signal-to-noise ratio (PSNR) from the input encoded video before transcoding and transcoded video after transcoding is performed.
本発明(請求項15)は、請求項1乃至7のいずれか1項に記載のトランスコード映像品質客観評価装置を構成する各手段としてコンピュータを機能させるためのトランスコード映像品質客観評価プログラムである。
The present invention (Claim 15) is a transcoded video quality objective evaluation program for causing a computer to function as each means constituting the transcoded video quality objective evaluation apparatus according to any one of
従来、原映像とトランスコード映像を用いブロックノイズ、ブラー(ぼけ)ノイズ、モスキートノイズ、フリッカノイズなどを抽出していた技術では、トランスコード前の符号化された原映像が入力となるため、ブロックノイズ、ブラー(ぼけ)ノイズ、モスキートノイズ、フリッカノイズなど適切に抽出できないために映像品質推定精度が著しく低下していた。また、受信映像や受信パケットのみを用い映像品質を推定する技術では、トランスコードする前の符号化映像を用いることができないため、トランスコード前の符号化映像の品質低下を捉えることできないため、映像品質推定精度が著しく低下していた。 Conventionally, block noise, blur noise, mosquito noise, flicker noise, etc., which are extracted from the original video and transcoded video, the encoded original video before transcoding is input. Noise, blur (blurred) noise, mosquito noise, flicker noise, etc. cannot be extracted properly, and the video quality estimation accuracy has been significantly reduced. In addition, in the technology that estimates the video quality using only the received video and the received packet, the encoded video before transcoding cannot be used, so the deterioration of the quality of the encoded video before transcoding cannot be captured. The quality estimation accuracy was significantly reduced.
これに対し、本発明によれば、トランスコード前の符号化映像の品質を第1の映像品質評価値として導出し、また、符号化映像とトランスコード映像の両者から特徴量を導出し、第1の映像品質評価値と符号化映像とトランスコード映像から導出された特徴量より第2の映像品質評価値を導出することで、トランスコードされた映像に対して適切に品質評価値を推定することができる。 On the other hand, according to the present invention, the quality of the encoded video before transcoding is derived as the first video quality evaluation value, the feature quantity is derived from both the encoded video and the transcoded video, A quality evaluation value is appropriately estimated for the transcoded video by deriving the second video quality evaluation value from the video quality evaluation value of 1, the feature amount derived from the encoded video and the transcoded video. be able to.
したがって、映像通信サービスの提供者は、本発明によりユーザが実際に視聴する映像通信サービスの映像について映像品質値を監視可能となるため、提供中のサービスがユーザに対してある一定以上の品質を保っているか否かを容易に判断することができる。 Accordingly, the video communication service provider can monitor the video quality value of the video of the video communication service actually viewed by the user according to the present invention. It is possible to easily determine whether or not it is maintained.
このため、映像通信サービスの提供者は、提供中のサービスの品質実態を従来より詳細に把握・管理することが可能となる。 Therefore, the video communication service provider can grasp and manage the actual quality of the service being provided in more detail than before.
以下図面と共に、本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
[第1の実施の形態]
本発明の本実施の形態にかかるトランスコード映像品質客観評価装置は、符号化映像にクラスタリング処理を施し、クラスタリング画像を作成し、そのクラスタリング画像から特徴量を導出し、トランスコード前の符号化映像の映像品質を定量的に表した第1の映像品質評価値を導出し、次に、符号化映像とトランスコード映像を用いPSNR(Peak Signal to Noise Ratio)を導出し、第1の映像品質評価値とPSNRからトランスコード映像の品質を示す第2の映像品質評価値(トランスコード映像品質評価値)を客観的な評価で実現するものである。
[First Embodiment]
The transcoded video quality objective evaluation device according to this embodiment of the present invention performs clustering processing on an encoded video, creates a clustered image, derives a feature amount from the clustered image, and encodes the encoded video before transcoding. The first video quality evaluation value that quantitatively represents the video quality of the video is derived, then the PSNR (Peak Signal to Noise Ratio) is derived using the encoded video and the transcoded video, and the first video quality evaluation The second video quality evaluation value (transcoded video quality evaluation value) indicating the quality of the transcoded video from the value and the PSNR is realized by objective evaluation.
例えば、本実施の形態においては、インターネットのようなIPネットワーク経由で行うIPTVサービス、映像配信サービスなど映像通信における客観的な映像品質評価を実現するために、トランスコード前の符号化映像とトランスコード後のトランスコード映像を分析し、これらの映像通信に関わる映像品質に影響を与える特徴量を定量的に表したトランスコード映像品質値を導出する。 For example, in this embodiment, in order to realize objective video quality evaluation in video communication such as IPTV service and video distribution service performed via an IP network such as the Internet, encoded video and transcode before transcoding are used. The later transcoded video is analyzed, and a transcoded video quality value that quantitatively represents a feature quantity that affects the video quality related to the video communication is derived.
図3は、本発明の一実施の形態における映像品質客観評価装置の構成を示す。 FIG. 3 shows a configuration of the video quality objective evaluation apparatus according to the embodiment of the present invention.
同図に示すように、映像品質客観評価装置1は、エッジ・テクスチャ量抽出部100と、第1の特徴量抽出部200と、第1の映像品質推定部300と、第2の特徴量抽出部400と、第2の映像品質推定部500とから構成されている。
As shown in the figure, the video quality
エッジ・テクスチャ量抽出部100は、クラスタリング部10と、フィルタリング部11と、差分クラスタリング画像導出部12と、カウント部13とから構成されている。
The edge / texture
第1の特徴量抽出部200は、映像フレーム平均特徴量導出部14と、映像フレーム特徴量導出部15と、平均特徴量導出部16、最大特徴量導出部17と、標準偏差特徴量導出部18と、動き量導出部19とから構成されている。
The first feature
クラスタリング部10は、入力されたトランスコード前の符号化映像I(x,y,f)に、前述の非特許文献6の手法に基づきSobelフィルタFx、Fyをかけ、垂直方向(Y方向)のエッジ画像、水平方向(X方向)のエッジ画像Sx(x,y,f)及びSy(x,y,f)を導出する。具体的には、対象画素の隣接8画素の情報を用い、以下の式(1)に基づきエッジ画像を作成する。
The
フィルタリング部11は、クラスタリング部10より出力されたクラスタリング画像に図5に示すようにErosionフィルタ及びDilatationフィルタをかけフィルタリング画像を作成する。図5は、4つのクラスにクラスタリングされた画像(8×8画素の画像)に対して、パディング無し(A)と、パディング有り(B)の例を示している。
The
具体的には、クラスタリング画像C(x,y)(xは水平画素位置、yは垂直画素位置)に以下の式(2)に基づきErosionフィルタを施し、Erosion画像E(x,y)を作成する。次に、以下の式(3)に基づきErosion画像にDilatationフィルタを施し、Dilatation画像D(x,y)(つまり、フィルタリング画像)を作成する。2種類のフィルタリングをかけることで、クラスタリング画像C(x,y)を平滑化したフィルタリング画像D(x,y)ができることになり、両者の差分からC3とC4を適切に抽出できる。 Specifically, Erosion filter is applied to clustering image C (x, y) (x is horizontal pixel position, y is vertical pixel position) based on the following formula (2) to create Erosion image E (x, y) To do. Next, a dilatation filter is applied to the Erosion image based on the following formula (3) to create a dilatation image D (x, y) (that is, a filtered image). By applying two types of filtering, a filtered image D (x, y) obtained by smoothing the clustering image C (x, y) can be obtained, and C3 and C4 can be appropriately extracted from the difference between the two.
差分クラスタリング画像導出部12は、クラスタリング部10より出力されたクラスタリング画像C(x,y)と、フィルタリング部11より出力されたフィルタリング画像D(x,y)との差分値(差分クラスタリング画像:C(x,y)-D(x,y)+1、もし、C(x,y)-D(x,y)+1が1未満の場合は1とする)を導出する。
The difference clustering
カウント部13は、差分クラスタリング画像の中で、クラスタリング値が3(エッジ量)と示された画素数NC3と、クラスタリング値が4(テクスチャ量)と示された画素数NC4をカウントする。
The
映像フレーム平均特徴量導出部14は、以下の式(4)に示すように、カウント部13より出力された映像フレーム毎のNC3を全映像フレームにわたって加算し映像フレーム数で除算した値を、映像フレーム毎のNC4を全映像フレームにわたって加算し映像フレーム数で除算した値で除算した映像フレーム平均特徴量Pを導出する。
As shown in the following equation (4), the video frame average feature
映像フレーム特徴量導出部15は、以下の式(5)に示すように、映像フレーム毎に、カウント部13より出力された映像フレーム毎のNC3を、映像フレーム毎のNC4で除算した映像フレーム特徴量P(f)を以下の式(5)に基づき導出する。
The video frame feature
平均特徴量導出部16は、ある一定の区間(Zフレーム、例えば、10フレーム)を一区間とし、以下の式(6)により、その区間の映像フレーム特徴量P(f)の平均値を平均特徴量Pt(k)とする。
The average feature
最大特徴量導出部17は、平均特徴量導出部16より出力された平均特徴量Pt(k)の中で最大の値を最大特徴量MaxPtとして導出する(例えば、Pt(0)〜Pt(29)の中で、Pt(10)が最大であった場合、Pt(10)がMaxPtとなる)。
The maximum feature
動き量導出部19は、映像フレーム間の動きを示す動き量TIを導出する。上記で求められたP、MaxPt、StdPtは映像フレーム単位に導出される特徴量の統計値であり,映像の動きとは無関係の特徴量であるため、動き量を考慮することで正確な品質推定が可能となる。
The motion
第1の映像品質推定部300は、映像フレーム平均特徴量導出部14より出力される映像フレーム平均特徴量P、最大特徴量導出部17より出力される最大特徴量MaxPt、標準偏差特徴量導出部18より出力される標準偏差特徴量StdPt、動き量導出部19より出力される動き量TIより、第1の映像品質評価値(Vq)を以下の式(10)に基づき導出する。
The first video
ただし、Vqは3次関数で表現されているが、以下に示すような他の数式で表現してもよい。 However, Vq is expressed by a cubic function, but may be expressed by other mathematical expressions as shown below.
第2の特徴量抽出部400は、PSNR導出部20から構成されている。
The second feature
PSNRは以下の式(12)〜(14)を用いて導出される。 PSNR is derived using the following equations (12) to (14).
第2の映像品質推定部500は、第1の映像品質評価値Vqと特徴量PSNRを用いて、以下の式(15)に基づき第2の映像品質評価値を導出する。
The second video
但し、本実施の形態では、符号化映像とトランスコード映像の両者から抽出する特徴量をPNSRのみを用いてトランスコード映像の品質評価値を導出したが、非特許文献2のITU-T勧告J.247の中で示されるMinHVなどの特徴量を重み付け加算し、トランスコード映像の品質評価値を評価してもよい。 However, in this embodiment, the quality evaluation value of the transcoded video is derived using only the PNSR as the feature quantity extracted from both the coded video and the transcoded video. It is also possible to evaluate the quality evaluation value of the transcoded video by weighting and adding feature quantities such as Min HV shown in .247.
次に、本実施の形態にかかる映像品質客観評価装置1の動作について説明する。
Next, the operation of the video quality
図6は、本発明の第1の実施の形態における映像品質客観評価装置の動作のフローチャートである。 FIG. 6 is a flowchart of the operation of the video quality objective evaluation device according to the first embodiment of the present invention.
映像品質客観評価装置1のクラスタリング部10に、劣化映像が入力されると(S101)、クラスタリング部10は、入力された符号化映像ycode(x,y,f)(xは水平方向、yは垂直方向、fはフレーム番号)にSobelフィルタFx,Fyをかけ、エッジ画像Sx(x,y,f)及びSy(x,y,f)を導出し、エッジ画像Sx(x,y,f)及びSy(x,y,f)を用い、1〜4のクラスにクラスタリングし、クラスタリング画像C(x,y,f)を導出し(S102)、フィルタリング部11及び差分クラスタリング画像導出部12へ出力する。
When the deteriorated video is input to the
フィルタリング部11は、クラスタリング部10によって導出されたクラスタリング画像C(x,y,f)を入力として、Erosionフィルタ及びDilatationフィルタをかけ、前述の式(2)、(3)によりフィルタリング画像D(x,y,f)を導出し(S103)、差分クラスタリング画像導出部12へ出力する。
The
差分クラスタリング画像導出部12は、クラスタリング部10より出力されたクラスタリング画像C(x,y,f)からフィルタリング部11より出力されたフィルタリング画像D(x,y,f)の差分値をとり、1を加え、1〜4の値を持つ差分クラスタリング画像を導出し(S104)、カウント部13へ出力する。
The difference clustering
カウント部13は、差分クラスタリング画像導出部12より出力された差分クラスタリング画像のC3(エッジ量)とC4(テクスチャ量)の画素数を映像フレーム毎にカウントし(S105)、映像フレーム平均特徴量導出部14及び映像フレーム特徴量導出部15へ出力する。
The
映像フレーム平均特徴量導出部14は、カウント部13より出力されたC3とC4の画素数を、全映像フレームに対して、前述の式(4)によりC3の総数をC4の総数で除算した映像フレーム平均特徴量Pを導出し(S106)、映像品質推定部20へ出力する。
The video frame average feature
映像フレーム特徴量導出部15は、カウント部13より出力されたC3とC4の画素数を各映像フレームに対し、前述の式(5)によりC3の画素数をC4の画素数で除算し、映像フレーム毎の映像フレーム特徴量P(f)を導出し(S107)、平均特徴量導出部16へ出力する。
The video frame feature
平均特徴量導出部16は、前述の式(6)により映像フレーム特徴量導出部15より出力された映像フレーム特徴量P(f)を特定の映像フレーム数毎に平均し、平均特徴量Pt(k)を導出し(S108)、最大特徴量導出部17及び標準偏差特徴量導出部18に出力する。
The average feature
最大特徴量導出部17は、平均特徴量Pt(k)の中で最大である最大特徴量MaxPtを導出し(S109)、映像品質推定部20へ出力する。
The maximum feature
標準偏差特徴量導出部18は、平均特徴量Pt(k)の標準偏差を示す標準偏差特徴量StdPtを導出し(S110)、映像品質推定部20へ出力する。
The standard deviation feature
動き量導出部19は、映像の動きを示す動き量TIを導出し(S111)、映像品質推定部20へ出力する。
The motion
第1の映像品質推定部300は、映像フレーム平均特徴量P、最大特徴量MaxPt、標準偏差特徴量StdPt及び動き量TIから前述の式(10)または式(11)により映像品質評価値Vqを導出し(S112)、第1の映像品質評価値Vqを出力する。
The first video
第2の特徴量抽出部400は、符号化映像ycode(x,y,f)とトランスコード映像ytranscode(x,y,f)から前述の式(12)〜(14)から特徴量PSNRを導出し(S113)、第2の映像品質推定部500に出力する。
The second feature
第2の映像品質推定部500は、前述の式(15)により第1の映像品質評価値Vqと特徴量PSNRから第2の映像品質評価値Vq_transcodeを導出し(S114)、処理を終了する。
The second video
このように、本実施の形態によれば、符号化映像からトランスコード前の第1の映像品質評価値Vqを導出し、次に、符号化映像ycode(x,y,f)とトランスコード映像ytranscode(x,y,f)の両者から特徴量PSNRを導出し、第1の映像品質評価値Vqと第2の特徴量PSNRを用いることで、原映像の得られない状況下で、トランスコード映像の品質評価値Vq_transcodeを算出することができるため、従来よりも正確なトランスコード映像品質客観評価法による映像品質推定が可能となる。 Thus, according to the present embodiment, the first video quality evaluation value Vq before transcoding is derived from the encoded video, and then the encoded video y code (x, y, f) and the transcode are derived. By deriving the feature amount PSNR from both the video y transcode (x, y, f) and using the first video quality evaluation value Vq and the second feature amount PSNR, Since the quality evaluation value Vq_transcode of the transcoded video can be calculated, it is possible to estimate the video quality by the transcoded video quality objective evaluation method which is more accurate than before.
したがって、映像通信サービスの提供者は、提供中のサービスがユーザに対してある一定以上の品質を保っているか否かを容易に判断することができ、提供中のサービスの品質実態をリアルタイムで把握・管理することが可能となる。 Therefore, the video communication service provider can easily determine whether the service being provided maintains a certain level of quality to the user, and can grasp the actual quality of the service being provided in real time.・ It becomes possible to manage.
[第2の実施の形態]
前述の第1の実施の形態では、第1の映像品質評価値Vqを求めたのち、特徴量PSNRを重み付け加算することで、第2の映像品質評価値(トランスコード映像の映像品質評価値)を導出したが、本実施の形態では、第1の映像品質評価値を構成する特徴量と特徴量PNSRを直接重み付け加算する例を示す。
[Second Embodiment]
In the first embodiment described above, after obtaining the first video quality evaluation value Vq, the feature amount PSNR is weighted and added to obtain the second video quality evaluation value (video quality evaluation value of the transcoded video). However, in the present embodiment, an example is shown in which the feature amount constituting the first video quality evaluation value and the feature amount PNSR are directly weighted and added.
図7は、本発明の第2の実施の形態における映像品質客観評価装置の構成を示す。 FIG. 7 shows the configuration of the video quality objective evaluation apparatus in the second embodiment of the present invention.
同図において、図3の構成と同一構成部分には同一符号を付し、その説明を省略する。本実施の形態では、第1の映像品質推定部300は用いず、第2の映像品質推定部500の代わりに映像品質推定部600を備える。
In the figure, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. In the present embodiment, the first video
本実施の形態の映像品質客観評価装置2では、映像フレーム平均特徴量導出部14、最大特徴量導出部17、標準偏差特徴量導出部18、動き量導出部19は各特徴量を第1の映像品質推定部300ではなく、映像品質推定部600に出力する。
In the video quality
図8は、本発明の第2の実施の形態における映像品質客観評価装置の動作のフローチャートである。S201〜S211までは、第1の実施の形態の図6のS101〜S111と同様であるが、S212において、PSNR導出部20において、入力された符号化映像及びトランスコード映像に基づいてPSNRを導出した後、S213において、映像品質推定部600が、式(16)に示すように、映像フレーム平均特徴量導出部14から取得した映像フレーム平均特徴量P、最大特徴量導出部17から取得した最大特徴量MaxPt、標準偏差特徴量導出部18から取得した標準偏差特徴量StdPt、動き量導出部19から取得した動き量TIとPNSR導出部20から取得した特徴量PSNRを直接重み付け加算することでトランスコード映像の映像品質評価値Vq_transcodを直接導出する。
FIG. 8 is a flowchart of the operation of the video quality objective evaluation device according to the second embodiment of the present invention. S201 to S211 are the same as S101 to S111 of FIG. 6 of the first embodiment, but in S212, the
但し、本実施の形態では、符号化映像とトランスコード映像の両者から抽出する特徴量をPSNRのみを用いてトランスコード映像の品質評価値を導出したが、非特許文献2のITU-T勧告J.247の中で示されるMinHVなどの特徴量を重み付け加算し、トランスコード映像の品質評価値を評価してもよい。 However, in this embodiment, the quality evaluation value of the transcoded video is derived using only the PSNR as the feature quantity extracted from both the coded video and the transcoded video. It is also possible to evaluate the quality evaluation value of the transcoded video by weighting and adding feature quantities such as Min HV shown in .247.
なお、上記の第1、第2の実施の形態における映像品質客観評価装置1、2は、CPU(中央演算装置)やメモリ、インターフェースからなるコンピュータにコンピュータプログラムをインストールすることによって実現され、上述した映像品質客観評価装置1の各種機能は、上記コンピュータの各種ハードウェア資源と上記コンピュータプログラム(ソフトウェア)とが協働して実現される。
The video quality
図3、図7に示す映像品質客観評価装置1,2の構成要素の動作をプログラムとして構築し、当該映像品質客観評価装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。
The operations of the constituent elements of the video quality
さらに、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。 Furthermore, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and installed in a computer or distributed.
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.
IPネットワーク経由で行うIPTVサービス、映像配信サービスなどの映像通信のトランスコード映像品質評価値を推定するトランスコード映像品質客観評価装置に利用できる。 It can be used for a transcoded video quality objective evaluation apparatus that estimates a transcoded video quality evaluation value of video communication such as an IPTV service and a video distribution service performed via an IP network.
1,2 映像品質客観評価装置
10 クラスタリング部
11 フィルタリング部
12 差分クラスタリング画像導出部
13 カウント部
14 映像フレーム平均特徴量導出部
15 映像フレーム特徴量導出部
16 平均特徴量導出部
17 最大特徴量導出部
18 標準偏差特徴量導出部
19 動き量導出部
20 PSNR導出部
100 エッジ・テクスチャ量抽出手段、エッジ・テクスチャ量抽出部
200 第1の特徴量抽出手段、第1の特徴量抽出部
300 第1の映像品質推定手段、第1の映像品質推定部
400 第2の特徴量抽出手段、第2の特徴量抽出部
500 第2の映像品質推定手段
600 映像品質推定部
1, 2 Video quality
Claims (15)
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出手段と、
前記エッジ・テクスチャ量抽出手段から導出された前記エッジ量と前記テクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、前記トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出手段と、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出手段と、
前記第1の特徴量抽出手段より出力された第1の特徴量より、入力されたトランスコード前の符号化映像の映像品質評価値を第1の映像品質評価値として導出する第1の映像品質手段と、
前記第1の映像品質評価値と前記第2の特徴量抽出手段から導出された前記第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定手段と、
を備えることを特徴とするトランスコード映像品質客観評価装置。 A transcoded video quality objective evaluation device that objectively evaluates the quality of transcoded video,
Edge / texture amount extraction means for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistic derived from the edge amount and the texture amount derived from the edge / texture amount extraction means , and an average value of all video frames with respect to a ratio of the edge amount and the texture amount per video frame; A feature amount that is a maximum value and a standard deviation value of a set of average values for every certain interval, or at least one first feature amount of a motion amount that is a feature amount derived from an encoded video before the transcoding. First feature amount extraction means for deriving;
Second feature quantity extraction means for deriving a second feature quantity from difference information using the number of pixels in the horizontal and vertical directions of the input encoded video before transcoding and transcoded video after transcoding;
First video quality for deriving a video quality evaluation value of the input encoded video before transcoding as a first video quality evaluation value from the first feature quantity output from the first feature quantity extraction means Means,
A second video quality evaluation value indicating a quality evaluation value of a transcoded video after transcoding is derived from the first video quality evaluation value and the second feature quantity derived from the second feature quantity extraction means. Second video quality estimating means for
A transcoded video quality objective evaluation apparatus comprising:
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出手段と、
前記エッジ・テクスチャ量抽出手段から導出された前記エッジ量と前記テクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、前記トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出手段と、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出手段と、
前記第1の特徴量抽出手段より導出された前記第1の特徴量と前記第2の特徴量抽出手段から導出された前記第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定手段と、
を備えることを特徴とするトランスコード映像品質客観評価装置。 A transcoded video quality objective evaluation device that objectively evaluates the quality of transcoded video,
Edge / texture amount extraction means for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistic derived from the edge amount and the texture amount derived from the edge / texture amount extraction means , and an average value of all video frames with respect to a ratio of the edge amount and the texture amount per video frame; A feature amount that is a maximum value and a standard deviation value of a set of average values for every certain interval, or at least one first feature amount of a motion amount that is a feature amount derived from an encoded video before the transcoding. First feature amount extraction means for deriving;
Second feature quantity extraction means for deriving a second feature quantity from difference information using the number of pixels in the horizontal and vertical directions of the input encoded video before transcoding and transcoded video after transcoding;
The quality evaluation value of the transcoded video transcoded from the first feature extraction and the second feature quantity derived and the derived first feature quantity from the second feature extraction means than means Second video quality estimation means for deriving a second video quality evaluation value to be indicated;
A transcoded video quality objective evaluation apparatus comprising:
入力されたトランスコード前の符号化映像をキャプチャしエッジ画像を作成し、エッジ画像の各画素の値に基づきクラスタリングを実施し、クラスタリング画像を導出するクラスタリング手段と、
前記クラスタリング手段により導出された前記クラスタリング画像をフィルタリングし、フィルタリング画像を作成するフィルタリング手段と、
前記クラスタリングにより導出された前記クラスタリング画像と前記フィルタリング手段から導出された前記フィルタリング画像の差分値から差分クラスタリング画像を作成する差分クラスタリング画像導出手段と、
前記差分クラスタリング画像導出手段により導出された前記差分クラスタリング画像のエッジ量とテクスチャ量を映像フレーム単位にカウントするカウント手段と、
を含むことを特徴とする請求項1または2記載のトランスコード映像品質客観評価装置。 The edge / texture amount extraction means includes:
Clustering means for capturing the input encoded video before transcoding and creating an edge image, performing clustering based on the value of each pixel of the edge image, and deriving the clustered image;
Filtering the clustering image derived by the clustering unit to create a filtered image;
A difference clustering image derivation unit that creates a difference clustering image from a difference value between the clustering image derived by the clustering and the filtering image derived from the filtering unit;
Counting means for counting the edge amount and the texture amount of the difference clustering image derived by the difference clustering image deriving means in units of video frames;
The transcoded video quality objective evaluation apparatus according to claim 1 or 2, characterized by comprising:
前記エッジ・テクスチャ量抽出手段より映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、推定対象の映像の全映像フレームに対するエッジ量の合計値と、同様に、推定対象の映像の全映像フレームに対するテクスチャ量の合計値を算出し、該エッジ量の合計値を該テクスチャ量の合計値で除算した映像フレーム平均特徴量を導出する映像フレーム平均特徴量導出手段を
含むことを特徴とする請求項1または2記載のトランスコード映像品質客観評価装置。 The first feature amount extraction means includes:
Based on the edge amount and the texture amount extracted in units of video frames by the edge / texture amount extraction means, the total value of the edge amounts for all video frames of the estimation target video, as well as all video frames of the estimation target video A video frame average feature amount derivation unit is provided for calculating a total value of texture amounts with respect to, and deriving an average video frame feature amount obtained by dividing the total value of edge amounts by the total value of texture amounts. The transcoded video quality objective evaluation apparatus according to 1 or 2.
前記エッジ・テクスチャ量抽出手段より映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、映像フレーム単位にエッジ量の合計値をテクスチャ量の合計値で除算した映像フレーム特徴量を導出する映像フレーム特徴量導出手段と、
推定対象の映像のある一定区間の複数の映像フレームに対し、前記映像フレーム特徴量導出手段から導出された映像フレーム特徴量を合計し、映像フレーム数で除算した平均特徴量を導出する平均特徴量導出手段と、
前記平均特徴量導出手段より導出された推定対象の映像のある一定区間の複数の映像フレームの前記平均特徴量に対し、推定対象の全区間の複数の平均特徴量の最大の値を示す最大特徴量を導出する最大特徴量導出手段と、
前記平均特徴量導出手段より導出された推定対象の映像のある一定区間の複数の映像フレームの前記平均特徴量に対し、推定対象の全区間の複数の平均特徴量の標準偏差をとった標準偏差特徴量を導出する標準偏差特徴量導出手段と、
を更に有することを特徴とする請求項1、2、または4記載のトランスコード映像品質客観評価装置。 The first feature amount extraction means includes:
A video frame for deriving a video frame feature value obtained by dividing a total value of edge amounts by a total value of texture amounts in units of video frames based on the edge amount and texture amount extracted in units of video frames by the edge / texture amount extraction unit A feature derivation means;
Average feature value for deriving an average feature value obtained by summing up the video frame feature values derived from the video frame feature value deriving means for a plurality of video frames in a certain section of the video to be estimated and dividing by the number of video frames Deriving means;
A maximum feature that indicates a maximum value of a plurality of average feature values of all sections to be estimated with respect to the average feature quantity of a plurality of video frames in a certain section of the estimation target video derived by the average feature quantity deriving unit. Maximum feature amount deriving means for deriving the amount;
A standard deviation obtained by taking a standard deviation of a plurality of average feature values of all sections to be estimated with respect to the average feature quantity of a plurality of video frames in a certain section of the estimation target video derived by the average feature quantity deriving unit. Standard deviation feature quantity deriving means for deriving the feature quantity;
The transcoded video quality objective evaluation apparatus according to claim 1, 2, or 4, further comprising:
入力されたトランスコード前の符号化映像から映像の動きを示す動き量を導出する動き量導出手段を
更に有することを特徴とする請求項1,2,4、又は5に記載のトランスコード映像品質客観評価装置。 The first feature amount extraction means includes:
6. The transcoded video quality according to claim 1, 2, 4 or 5, further comprising motion amount deriving means for deriving a motion amount indicating the motion of the video from the input encoded video before transcoding. Objective evaluation device.
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像からPeak-signal-to-noise ratio(PSNR)を導出するPSNR導出手段を
含むことを特徴とする請求項1または2記載のトランスコード映像品質客観評価装置。 The second feature amount extraction unit includes:
3. The PSNR deriving means for deriving a peak-signal-to-noise ratio (PSNR) from the input encoded video before transcoding and transcoded video after transcoding. Transcode video quality objective evaluation device.
トランスコード映像品質客観評価装置が、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出ステップと、
前記エッジ・テクスチャ量抽出ステップから導出された前記エッジ量と前記テクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、前記トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出ステップと、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出ステップと、
前記第1の特徴量抽出ステップより出力された第1の特徴量より、入力されたトランスコード前の符号化映像の映像品質評価値を第1の映像品質評価値として導出する第1の映像品質推定ステップと、
前記第1の映像品質評価値と前記第2の特徴量抽出ステップから導出された前記第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定ステップと、
を行うことを特徴とするトランスコード映像品質客観評価方法。 A transcoded video quality objective evaluation method for objectively evaluating the quality of transcoded video,
Transcode video quality objective evaluation device
An edge / texture amount extraction step for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction step , and an average value of all video frames with respect to a ratio of the edge amount and the texture amount per video frame; A feature amount that is a maximum value and a standard deviation value of a set of average values for every certain interval, or at least one first feature amount of a motion amount that is a feature amount derived from an encoded video before the transcoding. A first feature amount extraction step to be derived;
A second feature amount extraction step of deriving a second feature amount from difference information using the number of pixels in the horizontal direction and the vertical direction of the input encoded video before transcoding and transcoded video after transcoding;
First video quality for deriving a video quality evaluation value of an input encoded video before transcoding as a first video quality evaluation value from the first feature value output from the first feature value extraction step An estimation step;
A second video quality evaluation value indicating a quality evaluation value of the transcoded video after transcoding is derived from the first video quality evaluation value and the second feature quantity derived from the second feature quantity extraction step. A second video quality estimation step,
Transcode video quality objective evaluation method characterized by
トランスコード映像品質客観評価装置が、
入力されたトランスコード前の符号化映像からエッジ量及びテクスチャ量を導出するエッジ・テクスチャ量抽出ステップと、
前記エッジ・テクスチャ量抽出ステップから導出された前記エッジ量と前記テクスチャ量から導出される統計量であって、該エッジ量と該テクスチャ量の映像フレームあたりの比率に対する、全映像フレームの平均値、ある一定区間毎の平均値の集合の最大値及び標準偏差値である特徴量または、前記トランスコード前の符号化映像から導出される特徴量である動き量の少なくとも1つの第1の特徴量を導出する第1の特徴量抽出ステップと、
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像の水平方向と垂直方向の画素数を用いた差異情報から第2の特徴量を導出する第2の特徴量抽出ステップと、
前記第1の特徴量抽出ステップより導出された前記第1の特徴量と前記第2の特徴量抽出ステップから導出された前記第2の特徴量からトランスコード後のトランスコード映像の品質評価値を示す第2の映像品質評価値を導出する第2の映像品質推定ステップと、
を行うことを特徴とするトランスコード映像品質客観評価方法。 A transcoded video quality objective evaluation method for objectively evaluating the quality of transcoded video,
Transcode video quality objective evaluation device
An edge / texture amount extraction step for deriving an edge amount and a texture amount from the input encoded video before transcoding;
A statistical amount derived from the edge amount and the texture amount derived from the edge / texture amount extraction step , and an average value of all video frames with respect to a ratio of the edge amount and the texture amount per video frame; A feature amount that is a maximum value and a standard deviation value of a set of average values for every certain interval, or at least one first feature amount of a motion amount that is a feature amount derived from an encoded video before the transcoding. A first feature amount extraction step to be derived;
A second feature amount extraction step of deriving a second feature amount from difference information using the number of pixels in the horizontal direction and the vertical direction of the input encoded video before transcoding and transcoded video after transcoding;
A quality evaluation value of a transcoded video after transcoding is calculated from the first feature quantity derived from the first feature quantity extraction step and the second feature quantity derived from the second feature quantity extraction step. A second video quality estimation step for deriving a second video quality evaluation value to be indicated;
Transcode video quality objective evaluation method characterized by
入力されたトランスコード前の符号化映像をキャプチャしエッジ画像を作成し、エッジ画像の各画素の値に基づきクラスタリングを実施し、クラスタリング画像を導出するクラスタリングステップと、
前記クラスタリングステップにより導出された前記クラスタリング画像をフィルタリングし、フィルタリング画像を作成するフィルタリングステップと、
前記クラスタリングにより導出された前記クラスタリング画像と前記フィルタリングステップから導出された前記フィルタリング画像の差分値から差分クラスタリング画像を作成する差分クラスタリング画像導出ステップと、
前記差分クラスタリング画像導出ステップにより導出された前記差分クラスタリング画像のエッジ量とテクスチャ量を映像フレーム単位にカウントするカウントステップと、
を行うことを特徴とする請求項8または9記載のトランスコード映像品質客観評価方法。 In the edge / texture amount extraction step,
A clustering step of capturing an input encoded video before transcoding to create an edge image, performing clustering based on the value of each pixel of the edge image, and deriving a clustered image;
Filtering the clustering image derived by the clustering step to create a filtered image;
A difference clustering image derivation step for creating a difference clustering image from a difference value between the clustering image derived by the clustering and the filtering image derived from the filtering step;
A counting step of counting the edge amount and the texture amount of the difference clustering image derived by the difference clustering image derivation step in units of video frames;
10. The transcoded video quality objective evaluation method according to claim 8 or 9, wherein:
前記エッジ・テクスチャ量抽出ステップより映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、推定対象の映像の全映像フレームに対するエッジ量の合計値と、同様に、推定対象の映像の全映像フレームに対するテクスチャ量の合計値を算出し、該エッジ量の合計値を該テクスチャ量の合計値で除算した映像フレーム平均特徴量を導出する映像フレーム平均特徴量導出ステップを
行うことを特徴とする請求項8または9記載のトランスコード映像品質客観評価方法。 In the first feature amount extraction step,
Based on the edge amount and texture amount extracted in units of video frames in the edge / texture amount extraction step, the total value of edge amounts for all video frames of the estimation target video, as well as all video frames of the estimation target video A video frame average feature amount derivation step is performed, wherein a total value of texture amounts is calculated and a video frame average feature amount is derived by dividing the total amount of edge amounts by the total value of texture amounts. The transcoded video quality objective evaluation method according to 8 or 9.
前記エッジ・テクスチャ量抽出ステップより映像フレーム単位に抽出されたエッジ量及びテクスチャ量に基づき、映像フレーム単位にエッジ量の合計値をテクスチャ量の合計値で除算した映像フレーム特徴量を導出する映像フレーム特徴量導出ステップと、
推定対象の映像のある一定区間の複数の映像フレームに対し、前記映像フレーム特徴量導出ステップから導出された映像フレーム特徴量を合計し、映像フレーム数で除算した平均特徴量を導出する平均特徴量導出ステップと、
前記平均特徴量導出ステップより導出された推定対象の映像のある一定区間の複数の映像フレームの前記平均特徴量に対し、推定対象の全区間の複数の平均特徴量の最大の値を示す最大特徴量を導出する最大特徴量導出ステップと、
前記平均特徴量導出ステップより導出された推定対象の映像のある一定区間の複数の映像フレームの前記平均特徴量に対し、推定対象の全区間の複数の平均特徴量の標準偏差をとった標準偏差特徴量を導出する標準偏差特徴量導出ステップと、
を更に行うことを特徴とする請求項8、9、または11記載のトランスコード映像品質客観評価方法。 In the first feature amount extraction step,
A video frame for deriving a video frame feature amount obtained by dividing the total value of edge amounts by the total value of texture amounts in units of video frames based on the edge amount and texture amount extracted in units of video frames in the edge / texture amount extraction step A feature amount derivation step;
Average feature value for deriving an average feature value obtained by summing the video frame feature values derived from the video frame feature value derivation step for a plurality of video frames in a certain section of the estimation target video and dividing by the number of video frames A derivation step;
The maximum feature that indicates the maximum value of the plurality of average feature values of all the sections to be estimated with respect to the average feature amount of the plurality of video frames in a certain section of the estimation target image that is derived from the average feature amount derivation step. A maximum feature amount deriving step for deriving an amount;
A standard deviation obtained by taking a standard deviation of a plurality of average feature values of all sections to be estimated with respect to the average feature quantity of a plurality of video frames in a certain section of the estimation target video derived from the average feature quantity derivation step. A standard deviation feature amount deriving step for deriving the feature amount;
The transcoded video quality objective evaluation method according to claim 8, 9 or 11, further comprising:
入力されたトランスコード前の符号化映像から映像の動きを示す動き量を導出する動き量導出ステップを
更に行うことを特徴とする請求項8,9,11、又は12に記載のトランスコード映像品質客観評価方法。 In the first feature amount extraction step,
13. The transcoded video quality according to claim 8, 9, 11, or 12, further comprising a motion amount deriving step of deriving a motion amount indicating a motion of the video from the input encoded video before transcoding. Objective evaluation method.
入力されたトランスコード前の符号化映像とトランスコード後のトランスコード映像からPeak-signal-to-noise ratio(PSNR)を導出するPSNR導出ステップを
行うことを特徴とする請求項8または9記載のトランスコード映像品質客観評価方法。 In the second feature amount extraction step,
10. The PSNR deriving step of deriving a peak-signal-to-noise ratio (PSNR) from the inputted encoded video before transcoding and transcoded video after transcoding. Transcode video quality objective evaluation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068798A JP5350300B2 (en) | 2010-03-24 | 2010-03-24 | Transcode video quality objective evaluation apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010068798A JP5350300B2 (en) | 2010-03-24 | 2010-03-24 | Transcode video quality objective evaluation apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011205253A JP2011205253A (en) | 2011-10-13 |
JP5350300B2 true JP5350300B2 (en) | 2013-11-27 |
Family
ID=44881458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010068798A Expired - Fee Related JP5350300B2 (en) | 2010-03-24 | 2010-03-24 | Transcode video quality objective evaluation apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5350300B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5833890B2 (en) * | 2011-11-08 | 2015-12-16 | 日本放送協会 | Video encoding system converter |
JP6842745B2 (en) * | 2016-07-28 | 2021-03-17 | 国立大学法人信州大学 | Image discrimination device and image discrimination method |
CN107659806B (en) * | 2017-08-22 | 2019-08-16 | 华为技术有限公司 | The appraisal procedure and device of video quality |
CN111711816B (en) * | 2020-07-08 | 2022-11-11 | 福州大学 | Video objective quality evaluation method based on observable coding effect intensity |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0314162D0 (en) * | 2003-06-18 | 2003-07-23 | British Telecomm | Edge analysis in video quality assessment |
JP4257333B2 (en) * | 2003-08-22 | 2009-04-22 | 日本電信電話株式会社 | Image quality evaluation apparatus, image quality evaluation method, image quality evaluation program, image alignment apparatus, image alignment method, and image alignment program |
WO2009119721A1 (en) * | 2008-03-26 | 2009-10-01 | 日本電気株式会社 | Video transcoder monitoring device, method for monitoring video transcoder, and program for monitoring video transcoder |
WO2009119807A1 (en) * | 2008-03-28 | 2009-10-01 | 日本電気株式会社 | Image transcoder monitoring apparatus, method and program |
-
2010
- 2010-03-24 JP JP2010068798A patent/JP5350300B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011205253A (en) | 2011-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5172440B2 (en) | Video quality estimation apparatus, method and program | |
JP6328637B2 (en) | Content-dependent video quality model for video streaming services | |
KR101783071B1 (en) | Method and apparatus for assessing the quality of a video signal during encoding or compressing of the video signal | |
JP4802209B2 (en) | Video quality estimation method, apparatus and program | |
JP5350300B2 (en) | Transcode video quality objective evaluation apparatus, method and program | |
JP5221459B2 (en) | Video quality estimation apparatus, system, method and program | |
Xu et al. | Consistent visual quality control in video coding | |
KR101192429B1 (en) | Method for restoring transport error included in image and apparatus thereof | |
Konuk et al. | A spatiotemporal no-reference video quality assessment model | |
WO2021181724A1 (en) | Mathematical model deriving device, mathematical model deriving method and program | |
JP4787303B2 (en) | Video quality estimation apparatus, method, and program | |
JP5292343B2 (en) | Image quality objective evaluation apparatus, method and program | |
JP4451856B2 (en) | Video quality estimation apparatus, method, and program | |
Liu et al. | Real-time video quality monitoring | |
JP6162596B2 (en) | Quality estimation apparatus, method and program | |
Zhang et al. | MDVQM: A novel multidimensional no-reference video quality metric for video transcoding | |
JP5523357B2 (en) | Video quality estimation apparatus, method and program | |
Mu et al. | Discrete quality assessment in IPTV content distribution networks | |
JP4802200B2 (en) | Video quality estimation apparatus, method, and program | |
JP4740967B2 (en) | Video quality estimation apparatus, method, and program | |
JP5707461B2 (en) | Video quality estimation apparatus, video quality estimation method and program | |
JP6078431B2 (en) | Video quality estimation apparatus, video quality estimation method and program | |
Karthikeyan et al. | Perceptual video quality assessment in H. 264 video coding standard using objective modeling | |
JP5234812B2 (en) | Video quality estimation apparatus, method, and program | |
Venkatesh Babu et al. | Evaluation and monitoring of video quality for UMA enabled video streaming systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5350300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |