JP2017532858A5 - - Google Patents

Download PDF

Info

Publication number
JP2017532858A5
JP2017532858A5 JP2017513750A JP2017513750A JP2017532858A5 JP 2017532858 A5 JP2017532858 A5 JP 2017532858A5 JP 2017513750 A JP2017513750 A JP 2017513750A JP 2017513750 A JP2017513750 A JP 2017513750A JP 2017532858 A5 JP2017532858 A5 JP 2017532858A5
Authority
JP
Japan
Prior art keywords
block
frame
quantization parameter
tcsf
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017513750A
Other languages
Japanese (ja)
Other versions
JP2017532858A (en
JP6698077B2 (en
Filing date
Publication date
Priority claimed from US14/532,947 external-priority patent/US9621917B2/en
Application filed filed Critical
Priority claimed from PCT/US2015/048353 external-priority patent/WO2016040116A1/en
Publication of JP2017532858A publication Critical patent/JP2017532858A/en
Publication of JP2017532858A5 publication Critical patent/JP2017532858A5/ja
Application granted granted Critical
Publication of JP6698077B2 publication Critical patent/JP6698077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明を例示的な実施形態を参照しながら具体的に図示・説明したが、当業者であれば、添付の特許請求の範囲に包含された本発明の範囲を逸脱しない範疇で形態や細部に様々な変更を施せることを理解するであろう。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
複数の映像フレームを符号化する方法であって、
前記映像フレームは、互いに重なり合わないターゲットブロックを有しており、
当該方法は、
重要度マップが量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように、前記重要度マップを用いて前記複数の映像フレームを符号化する過程、
を備え、前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定すること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQP frame に比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQP frame に比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームのどの部分が人間の知覚にとって最も気付き易いのかを当該重要度マップに示させること;
によって構成されている、方法。
〔態様2〕
態様1に記載の方法において、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散var frame よりも大きい分散を有するかを決定することであり、
前記平均ブロック分散var frame よりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQP frame よりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QP block は、そのブロック分散var block が前記平均ブロック分散var frame よりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQP frame と量子化パラメータ上限QP max との間で線形的に増減される、方法。
〔態様3〕
態様1に記載の方法において、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、方法。
〔態様4〕
態様2に記載の方法において、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QP block が、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QP block が2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、方法。
〔態様5〕
態様2に記載の方法において、前記SCMは、さらに、極めて明るい(170超の輝度)か又は極めて暗い(60未満の輝度)ターゲットブロックのブロック量子化パラメータである前記振当量QP block がQP max に調節し直される輝度マスキングを含む、方法。
〔態様6〕
態様2に記載の方法において、前記SCMは、さらに、前記符号化された映像の品質レベルに基づく前記量子化パラメータ上限QP max の動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散var frame と共に用いて、品質が測定され、
前記測定された品質が低いと、前記量子化パラメータ上限QP max の数値が前記フレーム量子化パラメータQP frame に近づくように減らされる、方法。
〔態様7〕
態様2に記載の方法において、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QP block の数値が低くなるように(、かつ、品質が高くなるように)、決められた低い量子化パラメータ(QP)の値である前記振当量QP block が振り当てられる、方法。
〔態様8〕
態様7に記載の方法において、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QP block は、最初に、Iフレームについて決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、方法。
〔態様9〕
態様7に記載の方法において、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QP block が現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIM est が前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIM est が0.9未満の場合、前記振当量QP block の数値が2減少されるように、
調べられる、方法。
〔態様10〕
態様9に記載の方法において、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、方法。
〔態様11〕
態様3に記載の方法において、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、方法。
〔態様12〕
態様3に記載の方法において、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、方法。
〔態様13〕
態様3に記載の方法において、前記TMVMは、前景データの場合にのみ1に設定される、方法。
〔態様14〕
態様13に記載の方法において、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、方法。
〔態様15〕
態様14に記載の方法において、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、方法。
〔態様16〕
態様3に記載の方法において、前記TCSFは、エンコーダからの動きベクトルから算出される、方法。
〔態様17〕
態様1に記載の方法において、前記重要度マップが前記時間的情報及び前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、方法。
〔態様18〕
映像データを符号化するシステムであって、
重要度マップを用いて複数の映像フレームを符号化するコーデックであって、当該映像フレームは、互いに重なり合わないターゲットブロックを有している、コーデック、
を備え、前記重要度マップは、量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように構成されており、
前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定することであって、これら時間的情報と空間的情報とにより設定された重要度マップは、統合化された重要素マップであること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQP frame に比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQP frame に比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームの、人間の知覚にとって最も気付き易い部分を当該重要度マップに示させること;
によって構成されている、システム。
〔態様19〕
態様18に記載のエンコーダにおいて、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散var frame よりも大きい分散を有するかを決定することであり、
前記平均ブロック分散var frame よりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQP frame よりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QP block は、そのブロック分散var block が前記平均ブロック分散var frame よりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQP frame と量子化パラメータ上限QP max との間で線形的に増減される、エンコーダ。
〔態様20〕
態様18に記載のエンコーダにおいて、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、エンコーダ。
〔態様21〕
態様19に記載のエンコーダにおいて、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QP block が、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QP block が2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、エンコーダ。
〔態様22〕
態様19に記載のエンコーダにおいて、前記SCMは、さらに、極めて明るい(170超の輝度)か又は極めて暗い(60未満の輝度)ターゲットブロックのブロック量子化パラメータである前記振当量QP block がQP max に調節し直される輝度マスキングを含む、エンコーダ。
〔態様23〕
態様19に記載のエンコーダにおいて、前記SCMは、さらに、符号化された映像の品質レベルに前記量子化パラメータ上限基づくQP max の動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散var frame と共に用いて、品質が測定され、
測定された品質が低いと、前記量子化パラメータ上限QP max の数値が前記フレーム量子化パラメータQP frame 近づくように減らされる、エンコーダ。
〔態様24〕
態様19に記載のエンコーダにおいて、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QP block の数値が低くなるように(、かつ、品質が高くなるように)、決められた低い量子化パラメータ(QP)の値である前記振当量QP block が振り当てられる、エンコーダ。
〔態様25〕
態様24に記載のエンコーダにおいて、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QP block は、最初に、Iフレームについては決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、エンコーダ。
〔態様26〕
態様19に記載のシステムにおいて、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QP block が現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIM est が前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIM est が0.9未満の場合、前記振当量QP block の数値が2減少されるように、
調べられる、システム。
〔態様27〕
態様26に記載のシステムにおいて、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、システム。
〔態様28〕
態様20に記載のシステムにおいて、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、システム。
〔態様29〕
態様20に記載のシステムにおいて、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、システム。
〔態様30〕
態様20に記載のシステムにおいて、前記TMVMは、前景データの場合にのみ1に設定される、システム。
〔態様31〕
態様30に記載のシステムにおいて、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、システム。
〔態様32〕
態様20に記載のシステムにおいて、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、システム。
〔態様33〕
態様20に記載のシステムにおいて、前記TCSFは、前記エンコーダからの動きベクトルから算出される、システム。
〔態様34〕
態様18に記載のシステムにおいて、前記重要度マップが前記時間的情報と前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、システム。
Although the present invention has been particularly shown and described with reference to exemplary embodiments, those skilled in the art will recognize that the form and details fall within the scope of the invention as encompassed by the appended claims. You will understand that various changes can be made.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
A method of encoding a plurality of video frames,
The video frames have target blocks that do not overlap each other;
The method is
Encoding the plurality of video frames using the importance map such that the importance map affects the encoding quality of each target block to be encoded in each video frame by adjusting quantization ,
The importance map comprises:
Setting up the importance map using temporal and spatial information; and
(I) In blocks where the importance map has a high numerical value, the block quantization parameter (QP) is made smaller than the frame quantization parameter QP frame , so that these blocks have high quality. And (ii) in the target block in which the importance map has a low value, the block quantization parameter is set larger than the frame quantization parameter QP frame , so that these blocks have low quality. And causing the importance map to indicate which part of the video frame among the plurality of video frames is most easily noticed by human perception by calculation;
Consists of, the method.
[Aspect 2]
The method of aspect 1, wherein the spatial information is provided by a rule-based spatial complexity map (SCM), the first step of which target block in the frame is the average block in the frame. Determining whether to have a variance greater than the variance var frame ,
A block having a variance larger than the average block variance var frame is assigned a quantization parameter (QP) value higher than the frame quantization parameter QP frame , and a block equivalent QP of the block quantization parameter (QP) is assigned. The block is linearly increased or decreased between the frame quantization parameter QP frame and the quantization parameter upper limit QP max according to how much the block variance var block is larger than the average block variance var frame .
[Aspect 3]
In the method according to aspect 1, the temporal information is
A temporal contrast sensitivity function (TCSF) that indicates which target block is most noticeable in time for the observer human, and
True motion vector map (TMVM) showing which target blocks correspond to foreground data
Provided that the TCSF is only valid for target blocks identified as foreground data.
[Aspect 4]
The method according to embodiment 2, a large block of the dispersion, the appropriation amount QP block is the block quantization parameter (QP) is the TMVM is for this block in the specified and the TCSF the target block as a foreground data The method further refined by the TCSF and the TMVM such that the shaking equivalent QP block is increased by 2 if the contrast sensitivity logarithm is less than 0.5 .
[Aspect 5]
The method according to aspect 2, wherein the SCM is further characterized in that the vibration equivalent QP block, which is a block quantization parameter of a very bright (greater than 170 brightness) or very dark (less than 60 brightness) target block, is QP max . A method comprising luminance masking that is readjusted.
[Aspect 6]
The method according to aspect 2, wherein the SCM further includes dynamic determination of the quantization parameter upper limit QP max based on a quality level of the encoded video ,
In this dynamic decision , the quality is measured using the average structural similarity (SSIM) calculation result of the target blocks in an intra (I) frame together with the average block variance var frame of these frames ,
The method, wherein if the measured quality is low, the value of the quantization parameter upper limit QP max is reduced to approach the frame quantization parameter QP frame .
[Aspect 7]
In the method according to aspect 2, in order to ensure high-quality coding in these regions for blocks with extremely small variance, the smaller the block variance, the lower the numerical value of the vibration equivalent QP block. A method in which the shaking equivalent QP block, which is a value of a determined low quantization parameter (QP), is allocated (and so that the quality is high) .
[Aspect 8]
In the method of aspect 7, the shaking equivalent QP block , which is the value of the low quantization parameter (QP) for a very small variance block, is first determined for I frames and then for P and B frames. Is determined using the ipratio and pbratio parameters.
[Aspect 9]
In the method according to aspect 7, a block whose variance is small but does not consider the variance to be extremely small is used to determine whether quality improvement is necessary for the block.
The shaking equivalent QP block, which is the initial estimate of the block quantization parameter (QP), is the value of the quantization parameter (QP) of the already-encoded neighboring block on the left, upper left, right and upper right of the current block. Calculated by averaging, and
An estimated SSIM est of the SSIM of the current block is calculated from the SSIM values of the already encoded neighboring blocks at the left, upper left, right and upper right of the current block; and
When the SSIM est is less than 0.9, the numerical value of the shaking equivalent QP block is decreased by 2,
Examine the method.
[Aspect 10]
10. The method of aspect 9, wherein the quality enhancement is applied only to blocks that are identified as foreground data by the TMVM and whose TCSF contrast sensitivity log value is greater than 0.8.
[Aspect 11]
In the method according to aspect 3, the temporal frequency of the TCSF is obtained by calculating an approximation of a wavelength using SSIM in a color space region between the target block and the reference block, and a motion vector size and a frame rate. Calculated by finding an approximation of velocity using
[Aspect 12]
4. The method of aspect 3, wherein the TCSF includes a plurality of TCSFs for a current frame such that the TCSF is a weighted average of TCSF maps in a recent frame and a more recent frame receives a greater weight. A method that is calculated over a frame.
[Aspect 13]
4. The method of aspect 3, wherein the TMVM is set to 1 only for foreground data.
[Aspect 14]
In the method according to aspect 13, foreground data is calculated by calculating a difference between an encoder motion vector for a given target block and a global motion vector for the block, and a block having a sufficiently large difference is foreground data. A method identified by being judged.
[Aspect 15]
In the method according to aspect 14, a difference motion vector is obtained by subtracting the encoder motion vector from the global motion vector for a data block identified as foreground data, and the magnitude of the difference motion vector is the TCSF. A method used to calculate the temporal frequency of
[Aspect 16]
4. The method of aspect 3, wherein the TCSF is calculated from a motion vector from an encoder.
[Aspect 17]
The method according to aspect 1, wherein when the importance map is set by the temporal information and the spatial information, the importance map is an integrated importance map.
[Aspect 18]
A system for encoding video data,
A codec that encodes a plurality of video frames using an importance map, wherein the video frames have target blocks that do not overlap each other;
The importance map is configured to influence the encoding quality of each target block to be encoded in each video frame by adjusting quantization,
The importance map is:
The importance map is set using temporal information and spatial information, and the importance map set by these temporal information and spatial information is an integrated heavy element map. As well as
(I) In blocks where the importance map has a high numerical value, the block quantization parameter (QP) is made smaller than the frame quantization parameter QP frame , so that these blocks have high quality. And (ii) in the target block in which the importance map has a low value, the block quantization parameter is set larger than the frame quantization parameter QP frame , so that these blocks have low quality. And, by calculating, let the importance level map indicate a part of the video frame that is most easily noticed by human perception of the video frame;
The system that is configured by.
[Aspect 19]
19. The encoder of aspect 18, wherein the spatial information is provided by a rule-based spatial complexity map (SCM), the first step of which target block in the frame is the average block in the frame Determining whether to have a variance greater than the variance var frame ,
A block having a variance larger than the average block variance var frame is assigned a quantization parameter (QP) value higher than the frame quantization parameter QP frame , and a block equivalent QP of the block quantization parameter (QP) is assigned. The encoder is linearly increased or decreased between the frame quantization parameter QP frame and the quantization parameter upper limit QP max according to how much the block variance var block is larger than the average block variance var frame .
[Aspect 20]
The encoder according to aspect 18, wherein the temporal information is
A temporal contrast sensitivity function (TCSF) that indicates which target block is most noticeable in time for the observer human, and
True motion vector map (TMVM) showing which target blocks correspond to foreground data
Provided that the TCSF is only valid for target blocks identified as foreground data.
[Aspect 21]
The encoder according to aspect 19, wherein a block having a large variance has a block quantization parameter (QP) of the equivalent weight QP block , the TMVM identifies the target block as foreground data, and the block of the TCSF is An encoder further refined by the TCSF and the TMVM such that the vibration equivalent QP block is increased by 2 when the contrast sensitivity logarithm value is less than 0.5 .
[Aspect 22]
The encoder according to aspect 19, wherein the SCM further includes the vibration equivalent QP block, which is a block quantization parameter of a very bright (greater than 170 brightness) or very dark (less than 60 brightness) target block, at QP max . Encoder, including brightness masking re-adjusted.
[Aspect 23]
The encoder according to aspect 19, wherein the SCM further includes a dynamic determination of QP max based on the quantization parameter upper limit on the quality level of the encoded video ,
In this dynamic decision , the quality is measured using the average structural similarity (SSIM) calculation result of the target blocks in an intra (I) frame together with the average block variance var frame of these frames ,
If the measured quality is low, the numerical value of the quantization parameter upper limit QP max is reduced so as to approach the frame quantization parameter QP frame .
[Aspect 24]
In the encoder according to aspect 19, in order to ensure high quality coding in these regions for blocks with extremely small variance, the smaller the block variance, the lower the numerical value of the vibration equivalent QP block. An encoder to which the shaking equivalent QP block, which is a value of a determined low quantization parameter (QP), is allocated (and so that the quality is high) .
[Aspect 25]
25. The encoder according to aspect 24, wherein the vibration equivalent QP block , which is a value of the low quantization parameter (QP) for a block having extremely small variance, is first determined for an I frame, and then a P frame and a B frame. Is determined using the ipatio and pbratio parameters.
[Aspect 26]
In the system according to aspect 19, a block whose variance is small but which does not consider the variance to be extremely small is used to determine whether quality improvement is necessary for the block.
The shaking equivalent QP block, which is the initial estimate of the block quantization parameter (QP), is the value of the quantization parameter (QP) of the already-encoded neighboring block on the left, upper left, right and upper right of the current block. Calculated by averaging, and
An estimated SSIM est of the SSIM of the current block is calculated from the SSIM values of the already encoded neighboring blocks at the left, upper left, right and upper right of the current block; and
When the SSIM est is less than 0.9, the numerical value of the shaking equivalent QP block is decreased by 2,
The system being examined.
[Aspect 27]
27. The system of aspect 26, wherein the quality enhancement is applied only to blocks that are identified as foreground data by the TMVM and for which the TCSF contrast sensitivity log value is greater than 0.8.
[Aspect 28]
The system according to aspect 20, wherein the temporal frequency of the TCSF is obtained by calculating an approximation of a wavelength using SSIM in a color space region between the target block and its reference block, and a motion vector magnitude and a frame rate. A system that is calculated by finding an approximation of speed using.
[Aspect 29]
The system according to aspect 20, wherein the TCSF includes a plurality of TCSFs for a current frame such that the TCSF is a weighted average of TCSF maps in a recent frame and a more recent frame receives a greater weight. A system that is calculated over a frame.
[Aspect 30]
21. The system according to aspect 20, wherein the TMVM is set to 1 only for foreground data.
[Aspect 31]
In the system according to aspect 30, foreground data is calculated by calculating a difference between an encoder motion vector for a given target block and a global motion vector for the block, and a block having a sufficiently large difference is foreground data. A system identified by being judged.
[Aspect 32]
The system according to aspect 20, wherein a difference motion vector is obtained by subtracting the encoder motion vector from the global motion vector for a data block identified as foreground data, and the magnitude of the difference motion vector is the TCSF. A system used to calculate the temporal frequency of
[Aspect 33]
21. The system of aspect 20, wherein the TCSF is calculated from a motion vector from the encoder.
[Aspect 34]
The system according to aspect 18, wherein when the importance map is set by the temporal information and the spatial information, the importance map is an integrated importance map.

Claims (34)

複数の映像フレームを符号化する方法であって、
前記映像フレームは、互いに重なり合わないターゲットブロックを有しており、
当該方法は、
重要度マップが量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように、前記重要度マップを用いて前記複数の映像フレームを符号化する過程、
を備え、前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定すること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQPframeに比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQPframeに比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームのどの部分が人間の知覚にとって最も気付き易いのかを当該重要度マップに示させること;
によって構成されている、方法。
A method of encoding a plurality of video frames,
The video frames have target blocks that do not overlap each other;
The method is
Encoding the plurality of video frames using the importance map such that the importance map affects the encoding quality of each target block to be encoded in each video frame by adjusting quantization ,
The importance map comprises:
Setting up the importance map using temporal and spatial information; and
(I) In blocks where the importance map has a high numerical value, the block quantization parameter (QP) is made smaller than the frame quantization parameter QP frame , so that these blocks have high quality. And (ii) in the target block in which the importance map has a low value, the block quantization parameter is set larger than the frame quantization parameter QP frame , so that these blocks have low quality. And causing the importance map to indicate which part of the video frame among the plurality of video frames is most easily noticed by human perception by calculation;
Consists of, the method.
請求項1に記載の方法において、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散varframeよりも大きい分散を有するかを決定することであり、
前記平均ブロック分散varframeよりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQPframeよりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QPblockは、そのブロック分散varblockが前記平均ブロック分散varframeよりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQPframeと量子化パラメータ上限QPmaxとの間で線形的に増減される、方法。
The method of claim 1, wherein the spatial information is provided by a rule-based spatial complexity map (SCM), the first step of which target blocks within the frame are averaged within the frame. Determining whether to have a variance greater than the block variance var frame ;
A block having a variance larger than the average block variance var frame is assigned a quantization parameter (QP) value higher than the frame quantization parameter QP frame , and a block equivalent QP of the block quantization parameter (QP) is assigned. The block is linearly increased or decreased between the frame quantization parameter QP frame and the quantization parameter upper limit QP max according to how much the block variance var block is larger than the average block variance var frame .
請求項1に記載の方法において、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、方法。
The method of claim 1, wherein the temporal information is
A temporal contrast sensitivity function (TCSF) that indicates which target block is most noticeable in time for the observer human, and
True motion vector map (TMVM) showing which target blocks correspond to foreground data
Provided that the TCSF is only valid for target blocks identified as foreground data.
請求項2に記載の方法において、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QPblockが、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QPblockが2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、方法。 3. The method according to claim 2, wherein a block having a large variance has a block quantization parameter (QP) of the shaking equivalent QP block , the TMVM identifies a target block as foreground data, and the block of the TCSF. The method is further refined by the TCSF and the TMVM such that the shaking equivalent QP block is increased by 2 when the contrast sensitivity logarithm of is less than 0.5. 請求項2に記載の方法において、前記SCMは、さらに、170超の輝度かは60未満の輝度のターゲットブロックのブロック量子化パラメータである前記振当量QPblockがQPmaxに調節し直される輝度マスキングを含む、方法。 The method according to claim 2, wherein the SCM is further adjusted the appropriation amount QP block blocks a quantization parameter 1 70 greater than Brightness or or a size of less than 6 0 bright target block to QP max A method comprising luminance masking to be redone. 請求項2に記載の方法において、前記SCMは、さらに、前記符号化された映像の品質レベルに基づく前記量子化パラメータ上限QPmaxの動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散varframeと共に用いて、品質が測定され、
前記測定された品質が低いと、前記量子化パラメータ上限QPmaxの数値が前記フレーム量子化パラメータQPframeに近づくように減らされる、方法。
3. The method of claim 2, wherein the SCM further includes a dynamic determination of the quantization parameter upper limit QP max based on a quality level of the encoded video.
In this dynamic decision, the quality is measured using the average structural similarity (SSIM) calculation result of the target blocks in an intra (I) frame together with the average block variance var frame of these frames,
The method, wherein if the measured quality is low, the value of the quantization parameter upper limit QP max is reduced to approach the frame quantization parameter QP frame .
請求項2に記載の方法において、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QPblockの数値が低くなるように、決められた低い量子化パラメータ(QP)の値である前記振当量QPblockが振り当てられる、方法。 3. The method according to claim 2, wherein for a block with extremely small variance, in order to ensure high quality coding in these regions, the smaller the block variance, the lower the value of the vibration equivalent QP block. in the appropriation amount QP block is a value lower quantization parameter determined (QP) is Furiate method. 請求項7に記載の方法において、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QPblockは、最初に、Iフレームについて決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、方法。 8. The method of claim 7, wherein the equivalent QP block , which is the value of the low quantization parameter (QP) for a very small variance block, is first determined for an I frame and then for P and B frames. Is determined using the ipratio and pbratio parameters. 請求項7に記載の方法において、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QPblockが現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIMestが前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIMestが0.9未満の場合、前記振当量QPblockの数値が2減少されるように、
調べられる、方法。
The method according to claim 7, wherein a block whose variance is small but which is not considered to be extremely small is used to determine whether or not quality improvement is necessary for the block.
The shaking equivalent QP block, which is the initial estimate of the block quantization parameter (QP), is the value of the quantization parameter (QP) of the already-encoded neighboring block on the left, upper left, right and upper right of the current block. Calculated by averaging, and
An estimated SSIM est of the SSIM of the current block is calculated from the SSIM values of the already encoded neighboring blocks at the left, upper left, right and upper right of the current block; and
When the SSIM est is less than 0.9, the numerical value of the shaking equivalent QP block is decreased by 2,
Examine the method.
請求項9に記載の方法において、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、方法。   10. The method of claim 9, wherein the quality enhancement is applied only to blocks identified as foreground data by the TMVM and having a contrast sensitivity logarithm value of the TCSF greater than 0.8. 請求項3に記載の方法において、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、方法。   4. The method according to claim 3, wherein the temporal frequency of the TCSF is obtained by approximating the wavelength using SSIM in a color space region between the target block and its reference block, and the magnitude and frame rate of the motion vector. And a method of calculating an approximation of speed using 請求項3に記載の方法において、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、方法。   4. The method of claim 3, wherein the TCSF is multiple such that the TCSF for a current frame is a weighted average of the TCSF maps in a recent frame and that more recent frames receive a greater weight. Calculated over a number of frames. 請求項3に記載の方法において、前記TMVMは、前景データの場合にのみ1に設定される、方法。   4. The method of claim 3, wherein the TMVM is set to 1 only for foreground data. 請求項13に記載の方法において、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、方法。   14. The method according to claim 13, wherein foreground data is calculated by calculating a difference between an encoder motion vector for a given target block and a global motion vector for the block, and a block having a sufficiently large difference is foreground data. The method specified by being judged. 請求項14に記載の方法において、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、方法。   15. The method according to claim 14, wherein a difference motion vector is obtained by subtracting the encoder motion vector from the global motion vector for a data block identified as foreground data, and the magnitude of the difference motion vector is the value of the difference motion vector. A method used to calculate the temporal frequency of a TCSF. 請求項3に記載の方法において、前記TCSFは、エンコーダからの動きベクトルから算出される、方法。   4. The method of claim 3, wherein the TCSF is calculated from a motion vector from an encoder. 請求項1に記載の方法において、前記重要度マップが前記時間的情報及び前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、方法。   The method according to claim 1, wherein when the importance map is set by the temporal information and the spatial information, the importance map is an integrated importance map. 映像データを符号化するシステムであって、
重要度マップを用いて複数の映像フレームを符号化するコーデックであって、当該映像フレームは、互いに重なり合わないターゲットブロックを有している、コーデック、
を備え、前記重要度マップは、量子化を調整することによって各映像フレーム内の符号化すべき各ターゲットブロックの符号化品質に影響を与えるように構成されており、
前記重要度マップが:
時間的情報及び空間的情報を用いて当該重要度マップを設定することであって、これら時間的情報と空間的情報とにより設定された重要度マップは、統合化された重要素マップであること;ならびに、
(i)当該重要度マップが高い数値をとるブロックでは、ブロック量子化パラメータ(QP)がフレーム量子化パラメータQPframeに比べて小さくされることで、これらのブロックについては高い品質となるように、かつ、(ii)当該重要度マップが低い数値をとるターゲットブロックでは、前記ブロック量子化パラメータが前記フレーム量子化パラメータQPframeに比べて大きくされることで、これらのブロックについては低い品質となるように、計算によって、前記複数の映像フレームのうちのある映像フレームの、人間の知覚にとって最も気付き易い部分を当該重要度マップに示させること;
によって構成されている、システム。
A system for encoding video data,
A codec that encodes a plurality of video frames using an importance map, wherein the video frames have target blocks that do not overlap each other;
The importance map is configured to influence the encoding quality of each target block to be encoded in each video frame by adjusting quantization,
The importance map is:
The importance map is set using temporal information and spatial information, and the importance map set by these temporal information and spatial information is an integrated heavy element map. As well as
(I) In blocks where the importance map has a high numerical value, the block quantization parameter (QP) is made smaller than the frame quantization parameter QP frame , so that these blocks have high quality. And (ii) in the target block in which the importance map has a low value, the block quantization parameter is set larger than the frame quantization parameter QP frame , so that these blocks have low quality. And, by calculating, let the importance level map indicate a part of the video frame that is most easily noticed by human perception of the video frame;
The system that is configured by.
請求項18に記載のシステムにおいて、前記空間的情報が、ルールに基づく空間的複雑度マップ(SCM)により提供されて、その最初のステップが、前記フレーム内のどのターゲットブロックが当該フレーム内の平均ブロック分散varframeよりも大きい分散を有するかを決定することであり、
前記平均ブロック分散varframeよりも大きい分散を有するブロックに対して、前記フレーム量子化パラメータQPframeよりも高い量子化パラメータ(QP)値を振り当て、このブロック量子化パラメータ(QP)の振当量QPblockは、そのブロック分散varblockが前記平均ブロック分散varframeよりもいかなる程度大きいかに従って、前記フレーム量子化パラメータQPframeと量子化パラメータ上限QPmaxとの間で線形的に増減される、システム
19. The system of claim 18, wherein the spatial information is provided by a rule-based spatial complexity map (SCM), the first step of which target blocks within the frame are averaged within the frame. Determining whether to have a variance greater than the block variance var frame ;
A block having a variance larger than the average block variance var frame is assigned a quantization parameter (QP) value higher than the frame quantization parameter QP frame , and a block equivalent QP of the block quantization parameter (QP) is assigned. block according to its or block variance var block is any greater extent than the average block variance var frame, linearly is increased or decreased between the frame quantization parameter QP frame and the quantization parameter limit QP max, system.
請求項18に記載のシステムにおいて、前記時間的情報が、
どのターゲットブロックが観測者である人間にとって時間的に最も気付き易いかを示す時間的コントラスト感度関数(TCSF)、および、
どのターゲットブロックが前景データに相当するかを示す真の動きベクトルマップ(TMVM)
により提供されて、前記TCSFは、前景データとして特定されたターゲットブロックについてのみ有効とされる、システム
19. The system of claim 18, wherein the temporal information is
A temporal contrast sensitivity function (TCSF) that indicates which target block is most noticeable in time for the observer human, and
True motion vector map (TMVM) showing which target blocks correspond to foreground data
Provided by the TCSF is valid only for the target blocks identified as foreground data, system.
請求項19に記載のシステムにおいて、分散の大きいブロックは、そのブロック量子化パラメータ(QP)である前記振当量QPblockが、前記TMVMがターゲットブロックを前景データとして特定し且つ前記TCSFのこのブロックについてのコントラスト感度対数値が0.5未満である場合には前記振当量QPblockが2増加するように、前記TCSF及び前記TMVMによりさらに洗練化される、システム20. The system according to claim 19, wherein a block having a large variance has a block quantization parameter (QP) of the shaking equivalent QP block , the TMVM identifies the target block as foreground data, and the block of the TCSF. The system is further refined by the TCSF and the TMVM so that the shaking equivalent QP block is increased by 2 when the contrast sensitivity logarithm of is less than 0.5. 請求項19に記載のシステムにおいて、前記SCMは、さらに、170超の輝度かは60未満の輝度のターゲットブロックのブロック量子化パラメータである前記振当量QPblockがQPmaxに調節し直される輝度マスキングを含む、システムThe system of claim 19, wherein the SCM is further adjusted the appropriation amount QP block blocks a quantization parameter 1 70 greater than Brightness or or a size of less than 6 0 bright target block to QP max A system including luminance masking that is reworked. 請求項19に記載のシステムにおいて、前記SCMは、さらに、符号化された映像の品質レベルに前記量子化パラメータ上限基づくQPmaxの動的な決定を含み、
この動的な決定では、イントラ(I)フレーム内のターゲットブロックの平均構造的類似度(SSIM)算出結果をこれらフレームの平均ブロック分散varframeと共に用いて、品質が測定され、
測定された品質が低いと、前記量子化パラメータ上限QPmaxの数値が前記フレーム量子化パラメータQPframe近づくように減らされる、システム
The system of claim 19, wherein the SCM further includes a dynamic determination of QP max based on the quantization parameter upper limit on a quality level of the encoded video,
In this dynamic decision, the quality is measured using the average structural similarity (SSIM) calculation result of the target blocks in an intra (I) frame together with the average block variance var frame of these frames,
When the measured quality is low, the numerical value of the quantization parameter limit QP max is reduced to approach the frame quantization parameter QP frame, system.
請求項19に記載のシステムにおいて、分散の極めて小さいブロックに対して、これらの領域における高品質符号化を確実にするために、前記ブロック分散が小さいほど前記振当量QPblockの数値が低くなるように、決められた低い量子化パラメータ(QP)の値である前記振当量QPblockが振り当てられる、システムThe system according to claim 19, wherein the block equivalent QP block is reduced as the block variance decreases to ensure high quality coding in these regions for blocks with very low variance. in the appropriation amount QP block is a value lower quantization parameter determined (QP) is Furiate system. 請求項24に記載のシステムにおいて、分散の極めて小さいブロックに対する前記低い量子化パラメータ(QP)の値である前記振当量QPblockは、最初に、Iフレームについては決められ、その後、Pフレーム及びBフレームについてはipratioパラメータ及びpbratioパラメータを用いて決められる、システム25. The system of claim 24, wherein the shaking equivalent QP block , which is the value of the low quantization parameter (QP) for a very small variance block, is first determined for an I frame, and then P frames and A system that is determined using the ipratio and pbratio parameters for frames. 請求項19に記載のシステムにおいて、分散は小さいが、分散が極めて小さいとは見なさないブロックは、当該ブロックについて品質向上が必要か否かを判定するために、
前記ブロック量子化パラメータ(QP)の初めの推定値である前記振当量QPblockが現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックの量子化パラメータ(QP)の値を平均することによって算出されて、且つ、
前記現在のブロックの前記SSIMの推定SSIMestが前記現在のブロックの左、左上、右および右上の既に符号化済みの近傍ブロックのSSIM値から算出されて、且つ、
SSIMestが0.9未満の場合、前記振当量QPblockの数値が2減少されるように、
調べられる、システム。
The system according to claim 19, wherein a block whose variance is small but which is not considered to be extremely small is to determine whether a quality improvement is necessary for the block.
The shaking equivalent QP block, which is the initial estimate of the block quantization parameter (QP), is the value of the quantization parameter (QP) of the already-encoded neighboring block on the left, upper left, right and upper right of the current block. Calculated by averaging, and
An estimated SSIM est of the SSIM of the current block is calculated from the SSIM values of the already encoded neighboring blocks at the left, upper left, right and upper right of the current block; and
When the SSIM est is less than 0.9, the numerical value of the shaking equivalent QP block is decreased by 2,
The system being examined.
請求項26に記載のシステムにおいて、前記品質向上は、前記TMVMにより前景データとして特定されて且つ前記TCSFのコントラスト感度対数値が0.8超であるブロックにのみ適用される、システム。   27. The system of claim 26, wherein the quality enhancement is applied only to blocks identified as foreground data by the TMVM and having a contrast sensitivity logarithm value of the TCSF greater than 0.8. 請求項20に記載のシステムにおいて、前記TCSFの時間的周波数は、前記ターゲットブロックとその参照ブロックとの間の色空間領域におけるSSIMを用いて波長の近似を求めて且つ動きベクトルの大きさとフレームレートとを用いて速度の近似を求めることによって算出される、システム。   21. The system according to claim 20, wherein the temporal frequency of the TCSF is obtained by approximating a wavelength using SSIM in a color space region between the target block and its reference block, and a motion vector magnitude and a frame rate. The system is calculated by calculating the approximation of speed using 請求項20に記載のシステムにおいて、前記TCSFは、現在のフレームについての当該TCSFが最近のフレームにおけるTCSFマップの重み付き平均であるように且つより最近のフレームがより大きい重み付けを受けるように、複数のフレームにわたって算出される、システム。   21. The system of claim 20, wherein the TCSF is multiple such that the TCSF for a current frame is a weighted average of the TCSF maps in a recent frame and a more recent frame receives a greater weight. The system is calculated over a number of frames. 請求項20に記載のシステムにおいて、前記TMVMは、前景データの場合にのみ1に設定される、システム。   21. The system of claim 20, wherein the TMVM is set to 1 only for foreground data. 請求項30に記載のシステムにおいて、前景データは、所与のターゲットブロックについてのエンコーダ動きベクトルと当該ブロックについてのグローバル動きベクトルとの差分を算出し、十分に大きい差分を有するブロックが前景データであると判断されることによって特定される、システム。   The system according to claim 30, wherein the foreground data is calculated by calculating a difference between an encoder motion vector for a given target block and a global motion vector for the block, and a block having a sufficiently large difference is foreground data. A system identified by being judged. 請求項20に記載のシステムにおいて、前景データとして特定されたデータブロックについて、前記グローバル動きベクトルから前記エンコーダ動きベクトルが減算されることによって差分動きベクトルを得て、この差分動きベクトルの大きさが前記TCSFの時間的周波数を算出するのに用いられる、システム。   The system according to claim 20, wherein a difference motion vector is obtained by subtracting the encoder motion vector from the global motion vector for a data block identified as foreground data, and the magnitude of the difference motion vector is the size of the difference motion vector. A system used to calculate the temporal frequency of TCSF. 請求項20に記載のシステムにおいて、前記TCSFは、前記エンコーダからの動きベクトルから算出される、システム。   21. The system of claim 20, wherein the TCSF is calculated from a motion vector from the encoder. 請求項18に記載のシステムにおいて、前記重要度マップが前記時間的情報と前記空間的情報で設定されたものである場合、当該重要度マップは統合化された重要度マップである、システム。   The system according to claim 18, wherein the importance map is an integrated importance map when the importance map is set by the temporal information and the spatial information.
JP2017513750A 2014-09-11 2015-09-03 Perceptual optimization for model-based video coding Active JP6698077B2 (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201462049342P 2014-09-11 2014-09-11
US62/049,342 2014-09-11
US14/532,947 2014-11-04
US14/532,947 US9621917B2 (en) 2014-03-10 2014-11-04 Continuous block tracking for temporal prediction in video encoding
US201462078181P 2014-11-11 2014-11-11
US62/078,181 2014-11-11
US201562158523P 2015-05-07 2015-05-07
US62/158,523 2015-05-07
PCT/US2015/048353 WO2016040116A1 (en) 2014-09-11 2015-09-03 Perceptual optimization for model-based video encoding

Publications (3)

Publication Number Publication Date
JP2017532858A JP2017532858A (en) 2017-11-02
JP2017532858A5 true JP2017532858A5 (en) 2018-10-11
JP6698077B2 JP6698077B2 (en) 2020-05-27

Family

ID=55459438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513750A Active JP6698077B2 (en) 2014-09-11 2015-09-03 Perceptual optimization for model-based video coding

Country Status (5)

Country Link
EP (1) EP3175618A1 (en)
JP (1) JP6698077B2 (en)
CN (1) CN106688232A (en)
CA (1) CA2960617A1 (en)
WO (1) WO2016040116A1 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
CN109547802A (en) * 2017-09-22 2019-03-29 江苏智谋科技有限公司 Unmanned plane obstacle avoidance system based on 3D vision technology
CN107843227B (en) * 2017-12-09 2020-04-10 连云港杰瑞电子有限公司 Method for improving precision of encoder based on calibration technology
US10652550B2 (en) 2017-12-22 2020-05-12 Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd. Compensation table compressing method
CN108172168B (en) * 2017-12-22 2019-11-15 深圳市华星光电半导体显示技术有限公司 A kind of compensation table compression method
WO2019194572A1 (en) * 2018-04-03 2019-10-10 Samsung Electronics Co., Ltd. Methods and apparatus for determining adjustment parameter during encoding of spherical multimedia content
CN111279685A (en) * 2018-04-28 2020-06-12 深圳市大疆创新科技有限公司 Motion estimation
GB2588003B (en) 2018-06-05 2023-04-19 Beijing Bytedance Network Tech Co Ltd Interaction between pairwise average merging candidates and IBC
WO2019244118A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Component-dependent sub-block dividing
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
WO2020000444A1 (en) * 2018-06-29 2020-01-02 深圳市大疆创新科技有限公司 Method and device for determining motion vector, and machine-readable storage medium
WO2020065518A1 (en) 2018-09-24 2020-04-02 Beijing Bytedance Network Technology Co., Ltd. Bi-prediction with weights in video coding and decoding
US10992938B2 (en) * 2018-09-28 2021-04-27 Ati Technologies Ulc Spatial block-level pixel activity extraction optimization leveraging motion vectors
CN112970262B (en) 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 Rounding in trigonometric prediction mode
CN109819252B (en) * 2019-03-20 2021-05-18 福州大学 Quantization parameter cascading method independent of GOP structure
CN109982082B (en) * 2019-05-05 2022-11-15 山东大学 HEVC multi-distortion criterion rate-distortion optimization method based on local texture characteristics
CN111882564A (en) * 2020-07-27 2020-11-03 山东大学 Compression processing method for ultra-high definition medical pathological image
CN113556544B (en) * 2021-06-30 2024-04-19 北京锐马视讯科技有限公司 Video coding method, device, equipment and storage medium based on scene self-adaption

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831947B2 (en) * 2001-03-23 2004-12-14 Sharp Laboratories Of America, Inc. Adaptive quantization based on bit rate prediction and prediction error energy
US8135062B1 (en) * 2006-01-16 2012-03-13 Maxim Integrated Products, Inc. Method and apparatus for QP modulation based on perceptual models for picture encoding
CN101184221A (en) * 2007-12-06 2008-05-21 上海大学 Vision attention based video encoding method
CN101325711A (en) * 2008-07-16 2008-12-17 上海大学 Method for controlling self-adaption code rate based on space-time shielding effect
US8848788B2 (en) * 2009-05-16 2014-09-30 Thomson Licensing Method and apparatus for joint quantization parameter adjustment
US8737464B1 (en) * 2011-07-21 2014-05-27 Cisco Technology, Inc. Adaptive quantization for perceptual video coding

Similar Documents

Publication Publication Date Title
JP2017532858A5 (en)
JP6698077B2 (en) Perceptual optimization for model-based video coding
US10091507B2 (en) Perceptual optimization for model-based video encoding
CN107147912B (en) Video coding method and device
US20130170545A1 (en) Image encoding apparatus, image encoding method and program
CN108063944B (en) Perception code rate control method based on visual saliency
AU2016200770A1 (en) Chroma quantization in video coding
US10057576B2 (en) Moving image coding apparatus, moving image coding method, storage medium, and integrated circuit
WO2020098751A1 (en) Video data encoding processing method and computer storage medium
CN113630600A (en) Human visual system adaptive video coding
US20060256857A1 (en) Method and system for rate control in a video encoder
US20190320201A1 (en) Moving image encoding device
US7676107B2 (en) Method and system for video classification
US10123021B2 (en) Image encoding apparatus for determining quantization parameter, image encoding method, and program
US20060256858A1 (en) Method and system for rate control in a video encoder
EP1978745A2 (en) Statistical adaptive video rate control
JP2015192403A (en) Encoder and encoding method
KR101007381B1 (en) apparatus for video encoding considering region of interest
JP2004023288A (en) Preprocessing system for moving image encoding
CN114466221A (en) Image processing method and device, storage medium and electronic equipment
CN106454386B (en) A kind of method and apparatus of the Video coding based on JND
WO2016197323A1 (en) Video encoding and decoding method, and video encoder/decoder
Guo et al. Rate control for screen content coding based on picture classification
Sun et al. An adaptive frame complexity based rate quantization model for intra-frame rate control of high efficiency video coding (HEVC)
KR101373704B1 (en) Video processing method using adaptive weighted prediction