JP5509390B2 - ビデオ符号化および処理のための照明補償および遷移のための方法およびシステム - Google Patents
ビデオ符号化および処理のための照明補償および遷移のための方法およびシステム Download PDFInfo
- Publication number
- JP5509390B2 JP5509390B2 JP2013527313A JP2013527313A JP5509390B2 JP 5509390 B2 JP5509390 B2 JP 5509390B2 JP 2013527313 A JP2013527313 A JP 2013527313A JP 2013527313 A JP2013527313 A JP 2013527313A JP 5509390 B2 JP5509390 B2 JP 5509390B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- color
- value
- gain
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Description
本願は、2010年9月3日に出願された米国仮特許出願第61/380,111号の優先権を主張する。該出願の内容はここに参照によってその全体においてあらゆる目的について組み込まれる。
本願は概括的には画像処理に関する。より詳細には、本発明のある実施形態は、ビデオ符号化および処理のための、照明補償パラメータを導出し、照明優勢遷移型を検出することに向けられる。
本開示は色空間を考慮する照明補償に関する方法および実施形態を記述する。具体的には、これらの方法および実施形態は、二次元および三次元アプリケーションの両方についてビデオ・エンコードおよびデコードを使う装置およびソフトウェアに組み込まれてもよい照明補償に向けられる。そのような装置はビデオディスク・システム、無線ブロードキャスト・システム、インターネット・プロトコル・テレビジョン(IPTV: Internet Protocol television)システムおよび他のそのような装置を含んでいてもよい。
H.264/AVCのような現代のコーデックは通例、Y'CbCr領域で動作する。Y'CbCr領域の非常に良好な脱相関属性のためである。ただし、H.264/AVCの場合、入力およびデコードされたピクチャは次の色空間のいずれであってもよいことを注意しておく:Yのみ(グレースケール)、Y'CbCrまたはYCgCo、RGBおよび他の指定されない単色もしくは三刺激色空間(たとえばXYZとしても知られるYZX)。にもかかわらず、表示の前に、圧縮解除されたビデオは通例、もとの源RGB領域に変換し戻される。RGB領域は人間の視覚系の動作により近く、フェード遷移は、上記で述べたようにこの領域で調べたほうがよりよく理解できる。人工的なフェードを創り出すためにしばしば使われるポストプロダクション・ソフトウェアはRGB領域で動作する可能性が高い。本開示については、RGBおよびYCbCrは例示的な実施形態として使われていることを注意しておく。しかしながら、本願に開示される方法は、変換行列/アルゴリズムがわかっている限り、所与の任意の色空間組み合わせ(たとえばXYZ対YCgCo)について適用されることができる。記法を簡単にするため、本開示の残りの部分では、Y'CbCrの代わりにYCbCrを使うことを注意しておく。
(a)現在フレームmおよびその予測基準フレームm+kが与えられたとき、それらの平均ルーマおよびクロマ成分値を計算し、それらをY'm、Y'm+k、Cbm、Cbm+k、CrmおよびCrm+kと表す。ある代替的な実施形態では、DC値の代わりに、ヒストグラム情報を使うことができる。ヒストグラムの最大および二番目に大きなピークまたはそれらの組み合わせを使うことができる。それらは、DC値だけを考えることに比べ、突出値の影響を受けにくいからである。
(b)式21を用いて利得wY、wCbおよびwCrを計算し、それらを比較する。みな非負でありかつ十分似通っていれば、フレームmおよびm+kの評価されているフレーム対について上記の想定が満たされていると判定される。利得の類似性は、利得が互いの5%ないし10%以内であるかどうかを検査することによって確立されてもよい。これは、利得を、対数関数を使って0から1までの間のスケールに変換し、利得の差が0.05または0.1より小さいかどうかを検査することによって行われてもよい。
この実施形態では、ある種のパラメータについての事前知識がある場合、改善された照明補償のためのアルゴリズムが使用される。次の統計が前もって知られていると想定される:(a)ルーマ成分(Y)のブロック(たとえば8×8ピクセル)毎または領域(たとえばスライス)毎またはピクチャ・レベルの重み付き予測利得およびオフセット;および(b)色空間変換についての情報。ブロックまたは領域は重なっていてもよいことを注意しておく。目標は、グローバルおよびローカル(たとえばブロック毎)両方の照明補償のために欠けているクロマ重み付き予測パラメータを得ることである。そのような技法は、三つの色空間成分全部ではなく単一の色空間成分上でローカルな重み付き予測パラメータを探索することによって計算量を減らす。この方法は、欠けている色パラメータの推定を高速化することとは別に、デコーダにおける重み付き予測方式のコンポーネントとしてのはたらきをすることもできる:そのような応用シナリオでは、圧縮されたビットストリームは上述した情報のみ(Yパラメータおよび前記色成分についてのグローバルなDCパラメータのみ)を担持し、デコーダは、提案される方法を使って欠けている色パラメータを推定する。もう一つの実施形態では、ルーマおよびクロマ関係についてのデコーダ情報もデコーダに伝送されてもよい。
(a)利得wYは1に等しくなく、オフセットfYは0でない;
(b)利得wYは1に等しくなく、オフセットfYは0である;
(c)利得wYは1に等しく、オフセットfYは0でない。
fCb=(1−wY)×d1
fCr=(1−wY)×d2 Eq.24。
(a)二つのパラメータのうちwYのほうが信頼できると判断する。fYをf'Y=(1−wY)d0として計算されるf'Yで置き換える。新しいオフセットを、もともと与えられたfYに十分近い、たとえば8ビット精度については[fY−64,fY+64]の範囲内であるなど、何らかの合理的な束縛を満足するという点で検査する。ただし、これらの束縛は内容依存であってもよく、適応的であることもできることを注意しておく。もしそうであれば、それは信頼できると宣言する。
(b)二つのパラメータのうちfYのほうが信頼できると判断する。wYをw'Y=(d0−fY)/ d0として計算されるw'Yで置き換える。新しい利得を、[0.0,1.0]の間であるなど、何らかの合理的な束縛を満足するという点で検査する。ただし、負の利得を使っても完全に有効であるが、フェードについては利得は非負でありうる可能性がきわめて高いことを注意しておく。もしそうであれば、それは信頼できると宣言する。
(c)二つのパラメータのうちwYのほうが信頼できると判断する。fYは0に設定する。
(d)二つのパラメータのうちfYのほうが信頼できると判断する。wYは1に設定する。
場合(a):クロマ・オフセットはfCb=fCr=(1−wY)×128と書ける。
場合(b):クロマ・オフセットはfCb=fCr=(1−wY)×128と書ける。
場合(c):クロマ・オフセットはfCb=fCr=0と書ける。
フラッシュおよびローカルな照明のモデル化は、フェードおよびクロスフェードよりも本来的に難しい。グローバルなY'CbCr成分平均へのアクセスがあるかもしれないが、それらはローカルな照明変化を扱うのにはあまり有用ではない。1でない利得がルーマ成分について利用可能であれば、上記でフェードについて論じたのと同一の技法がクロマ成分の利得を決定するために使用できる。そうでなく、利得が1に非常に近く、0でないオフセットがある場合には、欠けているクロマ・オフセットを導出するためにこれらのオフセットに対して若干の仮説を立てることができる。
(a)fR=fG=fBと想定する。c00+c01+c02=1なので、fY=fR=fG=fBである。式2のBT.601変換についてはc10+c11+c12=0かつc20+c21+c22=0のため、fCb=0およびfCr=0となる。
(b)fR=fG=0と想定する。よってfY=c02fB ⇔ fB=fY/c02となる。するとクロマ・オフセットはfCb=(c12×fY)/c02およびfCb=(c22×fY)/c02として計算される。
(c)fR=fB=0と想定する。よってfY=c01fG ⇔ fG=fY/c01となる。するとクロマ・オフセットはfCb=(c11×fY)/c01およびfCb=(c21×fY)/c01として計算される。
(d)fG=fB=0と想定する。よってfY=c00fR ⇔ fR=fY/c00となる。するとクロマ・オフセットはfCb=(c10×fY)/c00およびfCb=(c20×fY)/c00として計算される。
既知のローカルもしくはグローバルなルーマ・パラメータおよび色空間変換方式についての知識から欠けているクロマ・パラメータを推定する上記の方法は図16に示されるビデオ・デコーダの一部として使用されることができる。そのような実施形態において、圧縮されたビットストリームはすぐ利用可能な情報を担持し、デコーダは上記の方法を適用して、視差補償モジュールの一部として重み付き予測を実行する前に、ローカルもしくはグローバルなクロマ・パラメータを導出する。さらなる実施形態においては、欠けているクロマ・パラメータをフルに導出する代わりに、符号化ビットストリームにおいてWPパラメータの予測残差を伝送するための予測子として使うことができる。デコーダは伝送された残差を受信し、それに上記方法を使って得られる予測を加えて、欠けているクロマ・パラメータを与え、重み付き予測サンプルを形成する。ある別の実施形態は、ルーマとクロマ・パラメータの間の関係または色空間成分一般についての情報/パラメータをビットストリーム中で伝送する。この情報は、色空間成分を得るために使われる変換行列のような行列、(たとえばルーマからクロマへの、UからVへのなどの)種々の成分の利得およびオフセットについての遷移式もしくは行列または何らかの式のパラメータからなっていてもよい。この情報はまた、現在のフレームがフェードまたはクロスフェードであるかどうかまたは上記の方法を駆動する仮定のいくつかが満たされるか否かといった特徴付け情報をも含んでいてもよい。この情報は、デコーダにおいて、我々の方法および他のビットストリーム情報と一緒に、欠けている色空間成分パラメータを導出するために使われることができる。
上記の方法は、ローカルなクロマ・パラメータを導出するためにローカルに適用されることができる。これは、先述したようなH.264/AVCのようなコーデックにおいてでも、基準ピクチャ・リスト修正および動き補償された予測のための複数基準の使用を通じて、可能である。各画像領域および照明変化の型について異なる方法を適用することによって改善されたパフォーマンスが可能である。たとえば、ある領域はフェードインとして分類され、他の領域はフラッシュとして分類されることがある。それらの領域は重なり合っていてもよい。各領域は適切なアルゴリズムによって扱われる(前者についてはフェード方法、後者についてはローカル照明/フラッシュ方法)。画像を領域にセグメント分割することは、何らかの既存のアルゴリズムまたはこれらの方法によって抽出されたクロマまたはルーマ情報を使って容易にされることができる。たとえば、このようにしてDC値またはヒストグラム情報が領域ごとに/ローカルに計算されることができる。セグメント分割は、動き補償から裨益してもよく、同様のクロマ情報を共有するシーン内の諸オブジェクトを追跡するのに有用である。このようにして、クロマ・パラメータは、正しい欠けているクロマ・パラメータを導出する可能性を改善し、導出を高速化するいくつかの初期化値から裨益することができる。
上記の記述は、開始時の色空間から終了時の色空間への変換が線形であるという想定をしていた。しかしながら、この想定が成り立たない例がある。たとえば、フェードおよびクロスフェードが、ガンマ補正を適用する前に、線形領域のRGB色空間において直接、サンプルを処理することによって人工的に生成された場合を考えてみる。同じことは、線形空間RGB(またさらにはガンマ空間RGB)が対数空間RGBまたはYCbCr色空間に変換されるときにも成り立つ。これはたとえば、高ダイナミックレンジの、対数空間RGBもしくはYCbCrで記述された画像およびビデオ・コンテンツの符号化を考えるときに起こる。開始時の色空間から終了時の色空間へのWPパラメータの変化は下記のようにモデル化される。二つの実施形態が存在する。一つはガンマ補正されたRGB(R'G'B')用でありもう一つは対数空間RGB(R"G"B")用である。
ガンマ補正されたRGBについては、最も単純な場合は、フェードが下記の式37に示される単一の利得をもってモデル化される場合である:
ここで、式28の単純だが実際的なモデルを使う、ガンマ補正されたRGBについての実施形態を考える。式37をこのモデルとともに使うと、式42に示される式が得られる:
他の色空間からのおよび他の色空間への変換、たとえばガンマ補正されたRGBから対数空間RGBまたは第一の色空間から非線形変換を通じて得られる他の何らかの第二の色空間への変換について、同様の実施形態も可能であることを注意しておく。
このセクションでは、フェードおよびクロスフェード検出の両方について有用であるアルゴリズムが記述される。それは、フェードおよびクロスフェードの開始フレームおよび終了フレームを検出することによる。このアルゴリズムは、フェードまたはクロスフェードがおおむね線形であり、よって式31および式37のような式によってモデル化されるという想定に基づいている。この想定は、現在フレームと基準フレーム(単数または複数)の間の距離に比例する利得因子wiに翻訳される。Y'成分についてのアルゴリズムの一つの可能な実施形態が提示されるが、RGB領域または他の何らかの線形色空間領域の他のいかなる成分を考えることもでき、それでもフェードおよびクロスフェードを画定することを注意しておく。いくつかの条件のもとで、このアルゴリズムはCbおよびCr成分に拡張されることができる。しかしながら、それらのDCはフェードおよびクロスフェード検出の目的のためには信頼できないことがある。ある異なる実施形態では、一つまたは複数の色空間成分の合同使用がこのフェード検出方法の信頼性を高めることができる。この記述のためには、Y'm,dcがフレームmのY'成分のDC平均値を表すとする。
A.フレームmのDCの値は、その先行フレームおよび後続フレームのDCの値の平均にほぼ等しい:
B.フレームmのDCの値は、次のフレームのDC値の2倍から該次のフレームに続くフレームのDC値を引いたものにほぼ等しい:
C.フレームmのDCの値は、その先行フレームのDC値の2倍に次のフレームに続くフレームのDC値を加えた和を3で割ったものにほぼ等しい:
D.フレームmのDCの値は、先行フレームのDC値の2倍から該先行フレームに先行するフレームのDC値を引いたものにほぼ等しい:
E.フレームmのDCの値は、次のフレームのDC値の2倍に先行フレームに先行するフレームのDC値を加えた和を3で割ったものにほぼ等しい:
Y'm+2,dc(C)>Y'm+2,dc(A)>Y'm+2,dc(B)
同じことはフレームm+1のDC値についても成り立つ
Y'm+1,dc(C)>Y'm+1,dc(A)>Y'm+1,dc(B)。
Y'm+2,dc(C)<Y'm+2,dc(A)<Y'm+2,dc(B)
同じことはフレームm+1のDC値についても成り立つ
Y'm+1,dc(C)<Y'm+1,dc(A)<Y'm+1,dc(B)。
Y'm+2,dc(E)>Y'm+2,dc(A)>Y'm+2,dc(D)
同じことはフレームm+3のDC値についても成り立つ
Y'm+3,dc(E)<Y'm+3,dc(A)<Y'm+3,dc(D)。
Y'm+2,dc(E)<Y'm+2,dc(A)<Y'm+2,dc(D)
同じことはフレームm+3のDC値についても成り立つ
Y'm+3,dc(E)<Y'm+3,dc(A)<Y'm+3,dc(D)。
(a)ステップ101:フレーム・カウンタを初期化し、フレームのパース(parsing)を開始する。ステップ102に進む。
(b)ステップ102:現在フレームmについて、Y'CbCrおよびRGB領域成分のDC値を計算する。ステップ3に進む。
(c)ステップ103:現在フレームmについて、RGB領域のすべての成分DCについての項Y'm,dc(A)、Y' m,dc(B)、Y' m,dc(C)、Y' m,dc(D)およびY'm,dc(E)ならびにY'CbCr領域のY'成分を計算する。ステップ4に進む。
(d)ステップ104:まだ試験されていない領域の成分を選択する。
(e)ステップ105:フレームm−1およびmに関して条件1を試験する。満たされていれば、フレームmを減少するDC値をもつフェードの終了フレームとラベル付けする。
(f)ステップ106:フレームm−1およびmに関して条件2を試験する。満たされていれば、フレームmを増加するDC値をもつフェードの終了フレームとラベル付けする。
(g)ステップ107:フレームm−1およびmに関して条件3を試験する。満たされていれば、フレームm−1を増加するDC値をもつフェードの開始フレームとラベル付けする。
(h)ステップ108:フレームm−1およびmに関して条件4を試験する。満たされていれば、フレームm−1を減少するDC値をもつフェードの開始フレームとラベル付けする。
(i)ステップ109:選択されていない色空間領域成分がまだあれば、成分カウンタ114を更新し、ステップ104に進む。もうなければステップ110に進む。
(j)ステップ110:プロセス・ラベル付け:衝突するラベルがある場合、最も多く出現するものを選択する。ここで、ある種の成分ラベルに他よりも重要である(たとえばYがCbまたはCrより重要)とラベル付けすることも可能である。それにより決定メトリックが重み付けされることができる。最終的なラベル付けを保存する。ステップ111に進む。
(k)ステップ111:現在フレームmに先立つ諸フレームを処理したのちに何らかの以前の最終的なラベル付けが以前に記憶されているかどうかを検査する。もしなければステップ112に進む。そうでなければ、現在および以前に保存されたラベル付けが「両立する」かどうかを検査する(ステップ115):たとえば、前のラベルが「増加するDCをもつフェードの開始フレーム」であり、現在のラベルが「増加するDCをもつフェードの終了フレーム」であれば、それらのフレームのシーケンスはフェードインをなすと宣言できる。だが現在のラベルが「減少するDCをもつフェードの開始フレーム」であれば、誤った警報がある。あるいはまた、現在のラベルが「減少するDCをもつフェードの終了フレーム」であれば、フレームのシーケンスはクロスフェードであると推測できる。ステップ112に進む。
(l)ステップ112:パースすべきフレームがまだあるかどうかを判定する。もしあれば、フレーム・カウンタを更新し(ステップ115)、ステップ102に進む。そうでなければ、ステップ113に進む。
(m)ステップ113:フレームのパースを終了する。
フレームをフェードとして分類することは、サードパーティーのアルゴリズムを通じてまたは図11に示され以下で説明するようなアルゴリズムのようなアルゴリズムを通じて行える。
(a)現在フレームmについて、RGBおよびY'CbCr色空間成分の平均値を計算する:(Rm,Gm,Bm)および(Y'm,Cbm,Crm)。また、RGBおよびY'CbCr色空間成分の平均値を、その双方向の予測基準フレームについて計算する:(R1,G1,B1)、(Y'1,Cb1,Cr1)、(R2,G2,B2)および(Y'2,Cb2,Cr2)。これらの平均値はフレーム全体または何らかの領域上でのDC値として、あるいはヒストグラムのモードまたはヒストグラムもしくは複数のヒストグラム(フレーム毎に複数のヒストグラムが計算されるとして)の最高の諸ピークの組み合わせとして計算されてもよい。
(b)各基準からの平均利得w1およびw2の合計が1になるかどうかを検証する。利得の大きさが現在フレームからの基準フレームの距離に反比例するかどうかも検証する。たとえば、等距離のフレームについては、ほぼ半分の利得が観察されることが期待される。
(c)最後に、先の二つのステップからの値を入れたときに式28および式31が満たされているかどうかを試験する。(この場合のように)クロマ成分利得が未知であれば、それらは両方の色空間についてのルーマ成分利得の値に設定する。
Y'CbCr領域の量子化されたデジタル・バージョンの先の導出は、Y'CbCr成分が8ビット符号なし整数についての[0,255]の範囲全体を使わないことがあることを示している。実際、BT.601の変換(式6)および推奨されるアナログ‐デジタル変換方法(式3)について、結果として得られる範囲はY'∈[16,235]、Cb∈[16,240]およびCr∈[16,240]である。たとえ(図7のJFIFアナログ‐デジタル変換を用いて)範囲全体が使われるときでも、値は0および255においてクリップされ、飽和される。8ビットの深さのコンテンツが上記で呈示した解析において使われていたものの、クリッピングおよび飽和に関しては常に問題が生じることを注意しておく(飽和した、飽和、クリッピングされたという用語は本稿では交換可能に使われていることを注意しておく)。たとえば10または12ビットのコンテンツのようなより高いビット深さのコンテンツも同じ問題を受ける。本発明の諸実施形態は、コンテンツ・ビット深さおよび色空間(たとえばXYZ、YCbCr、YCgCoなど)には無関係に適用される。クリッピングおよび飽和動作は、グローバルな重み付き予測の予測効率には不都合であることがある。さらに、最良のグローバルおよびローカルな重み付き予測パラメータ(利得およびオフセット)の探索を妨害する。飽和したピクセル値を持つ場合において、二つの広く使われる重み付き予測探索方法の動作について以下で論じる。
技法1:第一の技法はオフセットを0に設定し、利得をDCn+1/DCnとして計算する。
技法2:第二の技法は利得を1に設定し、オフセットをDCn+1−DCnとして計算する。
技法3:第三の技法は利得をw=(E{|In+1−DCn+1|})/(E{|In−DCn|})に設定し、オフセットをf=DCn+1−w×DCnとして計算する。この技法は非特許文献1および非特許文献2において記述されている平均二乗最小化の一つとして問題に取り組むことによって導出される。DC値はDCn=E{In}として定義され、ここで、Inはフレームnのピクセルの値であり、演算E{X}はXの平均値を表す。
技法1:技法1を使うと、(w,f)=(1.2,0)が得られる。これらのパラメータを用いたグローバル照明補償を基準フレームnに適用すると、パーティションBおよびCは19.2の値をもち、パーティションAは38.4の値をもつ。よって、すべてのパーティションは誤って予測されている。
技法2:技法2を使うと、(w,f)=(1.0,4)が得られる。これらのパラメータを用いたグローバル照明補償を基準フレームnに適用すると、パーティションBおよびCは値20をもち、パーティションAは36の値をもつ。よって、すべてのパーティションは誤って予測されている。パーティションAは符号化するのがより難しいので、技法1はこの予測状況については技法2より性能がよいと結論できる。
技法3:技法3を使うと、(w,f)=(2.67,−29.34)が得られる。これらのパラメータを用いたグローバル照明補償を基準フレームnに適用すると、パーティションBおよびCは値2.66をもち、パーティションAは56.1の値をもつ。よって、すべてのパーティションは誤って予測されている。パーティションAおよびBは符号化するのがCより難しいので、この予測状況について技法1および2に対する技法3の性能に関して結論を導き出すことはできない。
このアルゴリズムは、次のようなピクセルに属するピクセル位置にラベル付けすることに基づく:
(a)フレームn−1について飽和していて、フレームnにおいて飽和していない値を取るピクセル。たとえば、ピクセル値は最低の飽和値In-1=lsまたは最高の飽和値In-1=hsで飽和していたが、今ではそれぞれ最小の飽和値より大きいIn-1>lsまたは最高の飽和値より小さいIn-1<hs;
(b)またはフレームn−1について飽和しておらず、フレームnにおいて飽和した値を取るピクセル。たとえば、ピクセル値は最低の飽和値より大きかったIn-1>lsまたは最高の飽和値より小さかったIn-1<hsが、今ではそれぞれ最小の飽和値In-1=lsまたは最高の飽和値In-1=hsにある。
(a)ステップ201:各予測されるフレームおよび基準フレームの対について、フレーム番号を初期化し、ステップ202に進む。
(b)ステップ202:各予測されるフレームおよび基準フレームの対について、基準カウンタを初期化し、ステップ203に進む。
(c)ステップ203:各予測されるフレームおよび基準フレームの対内で飽和したパーティションがもしあれば判別し、ステップ204に進む。
(d)ステップ204:両方のフレームが飽和したルミナンス値をもつ大きな面積を共有するかどうかを判定する。これは、既存の諸方法を用いて、あるいはまたフレーム内のピクセルをしかるべく試験し分類することによってできる。もしそうであればステップ205に進み、そうでなければステップ208に進む。
(e)ステップ205:各予測されるフレームおよび基準フレームの対内で飽和していないパーティションがもしあれば判別し、ステップ206に進む。
(f)ステップ206:両フレームが飽和していない値をもつ大きな共通の面積を共有する。
(g)ステップ207:何らかのWP探索方法(DCベースの方法、ヒストグラム・ベースの方法、動き推定および補償を用いる逐次反復方法など)を(同じピクセル数に)規格化された集合An+kおよびAnに対して適用する。現在の探索を初期化するために前の諸フレームからのWPパラメータを再利用する。利得および因子を得る。ステップ209に進む。
(h)ステップ208:何らかのWP探索方法(DCベースの方法、ヒストグラム・ベースの方法、動き推定および補償を用いる逐次反復方法など)を(同じピクセル数に)規格化されたフレームnおよびn+kに対して適用する。現在の探索を初期化するために前の諸フレームからのWPパラメータを再利用する。利得および因子を得る。ステップ209に進む。
(h)ステップ209:さらなる成分が解析されるべきであるかどうかを判定する。もしそうであれば、基準カウンタを更新し(ステップ211)、ステップ203に進み、そうでなければステップ210に進む。
(i)ステップ210:さらなる予測されるフレームおよび基準フレーム対が評価される必要があれば、一つを選び、現在のフレーム対について導出されたWPパラメータを記憶し、フレーム・カウンタを更新し(ステップ212)、ステップ202に進む。そうでなければ、アルゴリズムを終了する。
飽和した領域および飽和していない領域の導出は、セグメント分割方法を使うことから裨益できる。動き補償はあるフレームから次のフレームへこれらの領域を追跡するために使用されることもでき、よってこれらの方法の重要な構成要素であるパーティションA、B、CおよびDの形成のためのシードのはたらきをすることができる。ある代替的な実施形態では、諸パーティションAに対してあたかもそれらが同じ単一の領域を表すかのようにWPパラメータ推定方法を適用する代わりに、セグメント分割はそれらを異なるオブジェクトに範疇分けし、各オブジェクト/領域に対して別個にアルゴリズムが適用されることができる。ある実施形態では、上記の方法を用いたローカル・ベースの重み付き予測が可能であるのは、コーデックがWP利得および因子をマクロブロック、ブロックまたは領域レベルで信号伝達することをサポートする場合である。領域またはブロックは重なり合っていてもよい。スライス・レベルでWPパラメータを信号伝達することしかサポートしていないH.264のようなコーデックを用いる実施形態については、ローカル・レベルでの異なるWPパラメータの使用は、複数基準動き補償された予測および基準並べ替え/修正の合同使用を通じて可能となる。ある異なる実施形態では、上記の方法は、重み付き予測と組み合わせてやはり動き推定および補償に関わっていてもよい前処理もしくは後処理モジュール(動き補償された時間的前置フィルタもしくは後置フィルタ)に組み込まれてもよい。
このアルゴリズムは飽和した値の問題に別の仕方で対処する。さらに、分岐処理の点での複雑さの増大という前のアルゴリズムの主要な問題に対処する。共通の集合交わりAn+k=Dn+k∩Dnの決定はストレートなことのように聞こえるが、それらの集合を決定するためにはピクセル毎の条件分岐が必要になる。さらに、それらの集合の決定後も、重み付けされたパラメータ推定アルゴリズムに依存して、結果として得られる集合についてまだDC値を計算する必要がある。複雑な技法3のようなある種のWP探索方法については、これはピクセル毎の総和をも伴い、この総和もその特定の集合について制約される必要がある。したがって、ヒストグラムおよび複数の反復工程に基づく異なるアルゴリズムが有用であることがある。このアルゴリズムは、DCベースの方法、ヒストグラム・ベースの方法、動き推定および補償を用いる逐次反復方法などのような重み付けされたパラメータ推定技法への適用になじみやすいことを注意しておく。
(a)現在の反復工程番号t=0;
(b)現在フレームnについての現在の最低飽和値ln s,t=ln s,0=ls;
(c)現在フレームnについての現在の最高飽和値hn s,t=hn s,0=hs;
(d)基準フレームn+kについての現在の最低飽和値ln+k s,t=ln+k s,0=ls;
(c)基準フレームn+kについての現在の最高飽和値hn+k s,t=hn+k s,0=hs。
本発明のこの実施形態は、シーン中の異なるオブジェクトまたはコンテンツに対応するセグメント分割された領域を考えることによって増強されてもよい。セグメント分割および領域の導出後、各領域に対して別個に上記の方法を適用してもよい。動き補償はトラッキングに関して助けになりうる。上記の方法は色空間の単一の成分を考える。各利得およびオフセット選択の影響が同時に色空間全体において考慮されれば、よりよいパフォーマンスを得ることができる。成分のうちの二つは飽和していないが最後の成分が飽和問題を呈しうる場合がありうる。さらに、より重要なことに、サンプル値が色空間変換を受けた後でのサンプル値への影響を考慮してもよい:たとえば、サンプル値は圧縮のために使われる初期の色空間、たとえばY'CbCrでは飽和していないことがある一方、表示またはたとえば層間予測(向上層において高ダイナミックレンジのサンプルを用いるスケーラブル符号化の場合)のためにサンプルを別の色空間、たとえばRGBに変換したあとに成分の一つまたは複数に飽和した値が生じることがある。アルゴリズムはこれを考慮に入れ、飽和していない色空間の成分に対しても限界を制約することができる。ある実施形態では、上記の方法を用いたローカル・ベースでの重み付き予測が可能なのは、コーデックがWP利得および因子をマクロブロックまたはブロック・レベルで信号伝達することをサポートする場合である。スライス・レベルでWPパラメータを信号伝達することしかサポートしていないH.264のようなコーデックを用いる実施形態については、ローカル・レベルでの異なるWPパラメータの使用は、複数基準動き補償された予測および基準並べ替え/修正の合同使用を通じて可能となる。ある異なる実施形態では、上記の方法は、重み付き予測と組み合わせてやはり動き推定および補償に関わっていてもよい前処理もしくは後処理モジュール(動き補償された時間的前置フィルタもしくは後置フィルタ)に組み込まれてもよい。
WPパラメータ推定のための先に提案された諸方法には共通の特徴がある:それら三つはすべて、単一の色成分に対して作用するのである。よって、たとえばY'についてのオフセットおよび利得は、CbおよびCr成分についての結果を全く顧慮することなく計算される。同様に、G成分についてのオフセットおよび利得はRおよびB成分には関わりなく計算される。ただし、上記の議論は、フェード種別に基づいて多くの関係があることを示している。次の問題が定式化されうる:RGBおよびY'CbCr成分のDC値が現在フレームmおよび基準フレームm+kについてわかっている。kは任意の0でない整数である。さらに、グローバルな照明変化を想定する。そうして重み付き予測を実行するための利得およびオフセットが求められる。一般に、そうすることは常に、六つの未知数をもつ三つの式につながり(式10および式11参照)、これは無限個の解を与える。しかしながら、未知数の数が方程式の数に等しくなるようある種の制約条件を課せば、信頼できる一意的な解が得られる。制約条件/想定は事前知識の結果であることができる。複数の想定/制約条件に対応して複数の解が生成されてもよく、次いで一貫性/正気検査を実行する(限界外または不合理な値についての解を度外視する)ことによって最良の解が選択されてもよい。
上記の諸方法は、グローバル(フレームまたは成分全体)またはローカル・ベースで適用でき、可能性としては主たる方法に先行する、より一様な特性をもつ内容をもつ諸領域を導出するセグメント分割を通じて行われる。よって、たとえばDC値は領域/ローカル・ベースで計算できる。ある実施形態では、上記の方法を用いたローカル・ベースでの重み付き予測が可能なのは、コーデックがWP利得および因子をマクロブロックまたはブロック・レベルで信号伝達することをサポートする場合である。スライス・レベルでWPパラメータを信号伝達することしかサポートしていないH.264のようなコーデックを用いる実施形態については、ローカル・レベルでの異なるWPパラメータの使用は、複数基準動き補償された予測および基準並べ替え/修正の合同使用を通じて可能となる。種々の実施形態において、上記の方法は、重み付き予測と組み合わせてやはり動き推定および補償に関わっていてもよい前処理もしくは後処理モジュール(動き補償された時間的前置フィルタもしくは後置フィルタ)に組み込まれてもよい。
付番実施例
〔EEE1〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のための方法であって:
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における一つまたは複数の強度に関係した値および一つまたは複数の色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、前記第一の色領域における各色成分値について重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が主として第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、グローバルなフェード遷移;ゼロ・オフセットをもつグローバルなフェード遷移;または第二の色領域におけるゼロ・オフセットをもつグローバルなフェード遷移のうちの少なくとも一つが起きていないと判定することを含む、
方法。
〔EEE2〕前記強度に関係した値が、ルーマ値またはルミナンス値の一つまたは複数を含む、付番実施例1記載の方法。
〔EEE3〕前記色に関係した値がクロマ値またはクロミナンス値の一つまたは複数を含む、付番実施例1記載の方法。
〔EEE4〕付番実施例1記載の方法であって、前記第一の色領域がYCbCr領域であり、重み付き予測利得が公式
Y'mおよびY'm+kはフレームおよび該フレームの予測基準フレームのルーマ成分であり;
CbmおよびCrmは前記フレームのクロマ成分値であり;
Cbm+kおよびCrm+kは前記フレームの前記予測基準フレームのクロマ成分値であり;
d0、d1およびd2は色フォーマット変換オフセットである、
方法。
〔EEE5〕前記強度に関係した値および色に関係した値が平均強度に関係しおよび色に関係した値である、付番実施例1記載の方法。
〔EEE6〕前記強度に関係した値および色に関係した値がヒストグラム情報から計算される、付番実施例1記載の方法。
〔EEE7〕前記複数のフレームがフレーム・シーケンスの一部である、付番実施例1記載の方法。
〔EEE8〕前記複数のフレームが、照明変化があると示されているフレームの集合の一部である、付番実施例1記載の方法。
〔EEE9〕前記第一の色領域から前記第二の色領域への遷移を定義する色空間行列が線形である、付番実施例1記載の方法。
〔EEE10〕前記重み付き予測利得が実質的に同様であるのが、それらの利得が互いの5%ないし10%の範囲内である場合である、付番実施例1記載の方法。
〔EEE11〕付番実施例1記載の方法であって、さらに:
前記重み付き予測利得を0から1までの間の値をもつよう対数スケーリングし、それらの利得が実質的に同様であるかどうかの判定を、前記重み付き予測利得値の間の差が0.1未満であるかどうかを計算することによって行うことを含む、
方法。
〔EEE12〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のための方法であって:
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて;強度に関係した重み付き予測パラメータを計算し;
各フレームおよび関係した予測基準フレームについて、計算された強度に関係したおよび色に関係した値からおよび計算された強度に関係した重み付き予測パラメータから重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が主として第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、ローカルな遷移が起きつつあるかどうかを試験することを含む、
方法。
〔EEE13〕前記強度に関係した値が、ルーマ値またはルミナンス値の一つまたは複数を含む、付番実施例12記載の方法。
〔EEE14〕前記色に関係した値がクロマ値またはクロミナンス値の一つまたは複数を含む、付番実施例13記載の方法。
〔EEE15〕付番実施例12記載の方法であって、前記第一の色領域がYCbCr領域であり、重み付き予測利得が公式
Y'mおよびY'm+kはフレームおよび該フレームの予測基準フレームのルーマ成分であり;
CbmおよびCrmは前記フレームのクロマ成分値であり;
Cbm+kおよびCrm+kは前記フレームの前記予測基準フレームのクロマ成分値であり;
d0、d1およびd2は色フォーマット変換オフセットである、
方法。
〔EEE16〕前記強度に関係した値および色に関係した値が平均強度に関係しおよび色に関係した値である、付番実施例12記載の方法。
〔EEE17〕前記強度に関係した値および色に関係した値がヒストグラム情報から計算される、付番実施例12記載の方法。
〔EEE18〕前記複数のフレームがフレーム・シーケンスの一部である、付番実施例12記載の方法。
〔EEE19〕前記複数のフレームが、照明変化があると示されているフレームの集合の一部である、付番実施例12記載の方法。
〔EEE20〕前記第一の色領域から前記第二の色領域への遷移を定義する色空間行列が線形である、付番実施例12記載の方法。
〔EEE21〕前記重み付き予測利得が実質的に同様であるのが、それらの利得が互いの5%ないし10%の範囲内である場合である、付番実施例12記載の方法。
〔EEE22〕付番実施例12記載の方法であって、さらに:
前記重み付き予測利得を0から1までの間の値をもつよう対数スケーリングし、それらの利得が実質的に同様であるかどうかの判定を、前記重み付き予測利得値の間の差が0.1未満であるかどうかを計算することによって行うことを含む、
方法。
〔EEE23〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェードのグローバルまたはローカルな性質の判別のための方法であって:
前記ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した各値について重み付き予測利得を計算し;
各フレームおよび関係した予測基準フレームについて、重み付き予測利得を互いと比較し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、フェードがグローバルであると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、フェードはローカルであると判定することを含む、
方法。
〔EEE24〕前記強度に関係した値が、ルーマ値またはルミナンス値の一つまたは複数を含む、付番実施例23記載の方法。
〔EEE25〕前記色に関係した値がクロマ値またはクロミナンス値の一つまたは複数を含む、付番実施例23記載の方法。
〔EEE26〕画像遷移が起こるときに色空間変換および第一の色成分重み付き予測パラメータについての情報から第二および第三の色成分の重み付き予測パラメータを計算する方法であって:
第一の色成分重み付き予測利得およびオフセットを計算し;
計算された第一の色成分重み付き予測利得およびオフセットの値に基づいて、色変換オフセット、色変換行列の係数および第一の色成分重み付き予測利得およびオフセットの関数として、第二および第三の色成分重み付き予測利得およびオフセットを計算することを含む、
方法。
〔EEE27〕
付番実施例26記載の方法であって、前記第二および第三の色成分重み付き予測パラメータは色に関係した利得およびオフセットを含み、前記第一の色成分重み付き予測パラメータは強度に関係した利得およびオフセットを含み、前記画像遷移はフェードを含み、当該方法が:
強度に関係した利得およびオフセットを計算することを含み;
前記強度に関係した利得が1でなく、強度に関係したオフセットが0でない場合、色に関係した利得を強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得、強度に関係したオフセットおよび色変換行列の係数の関数として計算し;
強度に関係した利得が1でなく、強度に関係したオフセットが0である場合、色に関係した利得を前記強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得および色変換行列の係数の関数として計算し;
強度に関係した利得が1であり、強度に関係したオフセットが0でない場合、色に関係した利得を1に等しいと設定し、色に関係したオフセットを、強度に関係したオフセットおよび色変換行列の係数の関数として計算することを含む、
方法。
〔EEE28〕前記強度に関係した利得およびオフセットが、ルーマ利得およびオフセットを含む、付番実施例27記載の方法。
〔EEE29〕前記色に関係した利得およびオフセットが、クロマ利得およびオフセットを含む、付番実施例27記載の方法。
〔EEE30〕付番実施例27記載の方法であって、前記色空間変換がRGBからY'CbCrであり、もし強度に関係した利得が1に等しくなく、強度に関係したオフセットが0である場合、色に関係したオフセットは公式
fCb=(c10+c11+c12)×(wY−1)×d0+(1−wY)×d1
fCr=(c20+c21+c22)×(wY−1)×d0+(1−wY)×d2
に従って計算され、
fCbおよびfCrは前記クロマ・オフセットであり;
c10、c11、c12、c20、c21およびc22は前記色変換行列の係数であり;
wYはルーマ利得であり;
d0、d1およびd2は前記色フォーマット変換オフセットである、
方法。
〔EEE31〕付番実施例27記載の方法であって、前記色空間変換がRGBからY'CbCrであり、もし強度に関係した利得が1であり、強度に関係したオフセットが0でない場合、色に関係したオフセットは公式
fCb=fY×(c10+c11+c12)
fCr=fY×(c20+c21+c22)
に従って計算され、
fCbおよびfCrは前記クロマ・オフセットであり;
fYはルーマ・オフセットであり;
c10、c11、c12、c20、c21およびc22は前記色変換行列の係数である、
方法。
〔EEE32〕付番実施例27記載の方法であって、前記色空間変換がRGBからY'CbCrであり、もし強度に関係した利得が1に等しくなく、強度に関係したオフセットが0でない場合、色に関係したオフセットは公式
fCb=(fY−(1−wY)d0)×(c10+c11+c12)×(wY−1)+(1−wY)×d1
fCr=(fY−(1−wY)d0)×(c20+c21+c22)×(wY−1)+(1−wY)×d2
に従って計算され、
fCbおよびfCrは前記クロマ・オフセットであり;
c10、c11、c12、c20、c21およびc22は前記色変換行列の係数であり;
wYはルーマ利得であり;
fYはルーマ・オフセットであり;
d0、d1およびd2は前記色フォーマット変換オフセットである、
方法。
〔EEE33〕付番実施例27記載の方法であって、前記色空間変換がRGBからY'CbCrであり、前記強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、d0、d1およびd2が色フォーマット変換オフセットであり、fYがルーマ・オフセットであり、wYがルーマ利得であり、もし前記ルーマ・オフセットが0でなく、前記ルーマ利得が1でなく、fYが(1−wY)d0にほぼ等しい場合、前記クロマ利得はルーマ利得に等しく、クロマ・オフセットは公式
fCb=(1−wY)×d1
fCr=(1−wY)×d2
に従って計算され、
fCbおよびfCrは前記クロマ・オフセットである、
方法。
〔EEE34〕付番実施例33記載の方法であって、fYが(1−wY)d0にほぼ等しくない場合、次のオプションA、B、CまたはDのうちの一つを選択することをさらに含む方法:
オプションA:ルーマ利得を信頼できるとして選択し、ルーマ・オフセットを公式:
fY=(1−wY)d0
から計算し;
f'Yを合理性について検査し;
クロマ利得をルーマ利得に等しいと設定し;
クロマ・オフセットを公式
fCb=(1−wY)×d1
fCr=(1−wY)×d2
に従って計算する;
オプションB:ルーマ・オフセットを信頼できるとして選択し、ルーマ利得を公式:
wY=(d0−fY)/d0
から計算し;
fwYを合理性について検査し;
クロマ利得をルーマ利得に等しいと設定し;
クロマ・オフセットを公式
fCb=(1−wY)×d1
fCr=(1−wY)×d2
に従って計算する;
オプションC:ルーマ利得を信頼できるとして選択し、ルーマ・オフセットを0に等しいと設定し:
クロマ利得をルーマ利得に等しいと設定し;
クロマ・オフセットを公式
fCb=(c10+c11+c12)×(wY−1)×d0+(1−wY)×d1
fCr=(c20+c21+c22)×(wY−1)×d0+(1−wY)×d2
に従って計算し、
c10、c11、c12、c20、c21およびc22は前記色変換行列の係数である;
オプションD:ルーマ・オフセットを信頼できるとして選択し、ルーマ利得を1に等しいと設定し:
クロマ利得をルーマ利得に等しいと設定し;
クロマ・オフセットを公式
fCb=fY×(c10+c11+c12)
fCr=fY×(c20+c21+c22)
に従って計算する。
〔EEE35〕オプションA、B、CまたはDの一つがある選択された基準を満たすよう選択される、付番実施例34記載の方法。
〔EEE36〕前記選択された基準が、選択されたメトリックを最小化または最大化するまたは計算された利得またはオフセットが選択された限界内にあるかどうかを判定することを含む、付番実施例35記載の方法。
〔EEE37〕前記選択された基準が単一のクロマ成分または両方のクロマ成分に基づく、付番実施例36記載の方法。
〔EEE38〕前記強度に関係したおよび色に関係した利得およびオフセットが画像フレーム全体についてのデータから計算される、付番実施例27記載の方法。
〔EEE39〕前記強度に関係したおよび色に関係した利得およびオフセットが画像フレームの選択された部分についてのデータから計算される、付番実施例27記載の方法。
〔EEE40〕付番実施例27記載の方法であって、前記色空間変換がITU/SMPTEまたはJFIF規格に基づくRBGからY'CbCrであり、前記強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、当該方法が:
ルーマ利得が1でない場合、前記クロマ利得を前記ルーマ利得に等しいと設定し、クロマ・オフセットを公式:
fCb=fCr=(1−wY)×128
に従って計算し、
fCbおよびfCrは前記クロマ・オフセットであり、wYは前記ルーマ利得であり、
前記ルーマ利得が0である場合、前記クロマ・オフセットを0に設定し、前記クロマ利得を1に等しいと設定する、
方法。
〔EEE41〕付番実施例27記載の方法であって、画像フェードが起こるとき、当該方法がさらに:
強度に関係した利得およびルーマ・オフセットを計算し;
色に関係した利得を強度に関係した利得に等しいと設定することを含む、
方法。
〔EEE42〕付番実施例27記載の方法であって、前記第一の色成分重み付き予測パラメータが、クロマ利得およびオフセットのペアの一つを含み、前記第二および第三の色成分重み付き予測パラメータが、クロマ利得およびオフセットおよびルーマ利得およびルーマ・オフセットの前記ペアの第二のものを含む、方法。
〔EEE43〕画像フラッシュが起こるときに強度に関係したパラメータおよび色空間変換についての情報から色に関係したパラメータを計算する方法であって:
強度に関係した利得およびオフセットを計算し;
強度に関係した利得が1でなくかつ強度に関係したオフセットが0でない場合、色に関係した利得を強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得、強度に関係したオフセットおよび色変換行列の係数の関数として計算し;
強度に関係した利得が1でなくかつ強度に関係したオフセットが0である場合、色に関係した利得を前記強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得および色変換行列の係数の関数として計算し;
強度に関係した利得が1であるか1に近い場合、色に関係した利得を1に等しいと設定し、色に関係したオフセットを、強度に関係したオフセットおよび色変換行列の係数の関数として計算することを含む、
方法。
〔EEE44〕前記強度に関係した利得およびオフセットがルーマ利得およびオフセットを含む、付番実施例43記載の方法。
〔EEE45〕前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含む、付番実施例43記載の方法。
〔EEE46〕前記強度に関係した利得が1であるか1に近い場合、色に関係したオフセットの計算が、色に関係したオフセットを、当該画像フラッシュについての主要な光源の色に基づいて計算することを含む、付番実施例43記載の方法。
〔EEE47〕付番実施例43記載の方法であって、前記色空間変換がRGBからY'CbCrであり、強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、もし前記ルーマ利得が1であるか1に近い場合、前記クロマ・オフセットの計算が、次の計算のうちの少なくとも一つを選択することを含む、方法:
fCb=0およびfCr=0;
fCb=(c12×fY)/c02およびfCb=(c22×fY)/c02;
fCb=(c11×fY)/c01およびfCb=(c21×fY)/c01;および
fCb=(c10×fY)/c00およびfCb=(c20×fY)/c00;
ここで、c00、c01、c02、c10、c11、c12、c20、c21およびc22は前記色変換行列の係数であり、fCbおよびfCrは前記クロマ・オフセットである。
〔EEE48〕付番実施例43記載の方法であって、前記色空間変換がRGBからY'CbCrであり、強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、もし前記ルーマ利得が1であるか1に近い場合、前記クロマ・オフセットの計算が:
当該画像フラッシュが白色光を含むと想定し、
前記クロマ・オフセットfCbおよびfCを
fCb=0およびfCr=0
として計算することを含む、
方法。
〔EEE49〕付番実施例43記載の方法であって、前記色空間変換がRGBからY'CbCrであり、強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、もし前記ルーマ利得が1であるか1に近い場合、前記クロマ・オフセットの計算が:
当該画像フラッシュが青色光を含むと想定し、
前記クロマ・オフセットfCbおよびfCを
fCb=(c12×fY)/c02およびfCb=(c22×fY)/c02;
として計算することを含み、
ここで、c02、c12およびc22は前記色変換行列の係数である、
方法。
〔EEE50〕付番実施例43記載の方法であって、前記色空間変換がRGBからY'CbCrであり、強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、もし前記ルーマ利得が1であるか1に近い場合、前記クロマ・オフセットの計算が:
当該画像フラッシュが緑色光を含むと想定し、
前記クロマ・オフセットfCbおよびfCを
fCb=(c11×fY)/c01およびfCb=(c21×fY)/c01;
として計算することを含み、
ここで、c01、c11およびc21は前記色変換行列の係数である、
方法。
〔EEE51〕付番実施例43記載の方法であって、前記色空間変換がRGBからY'CbCrであり、強度に関係した利得およびオフセットがルーマ利得およびオフセットを含み、前記色に関係した利得およびオフセットがクロマ利得およびオフセットを含み、もし前記ルーマ利得が1であるか1に近い場合、前記クロマ・オフセットの計算が:
当該画像フラッシュが赤色光を含むと想定し、
前記クロマ・オフセットfCbおよびfCを
fCb=(c10×fY)/c00およびfCb=(c20×fY)/c00;
として計算することを含み、
ここで、c00、c10およびc20は前記色変換行列の係数である、
方法。
〔EEE52〕付番実施例47記載の方法であって、二つ以上の計算が選択され、それらの計算の一つからの解がある選択基準に基づいて選ばれる、方法。
〔EEE53〕付番実施例47記載の方法であって、前のフレームに関する情報に基づいて計算が選択される、方法。
〔EEE54〕ビデオ信号のあるシーンから次のシーンへの遷移におけるフェード検出の方法であって、次のステップを含む方法である:
ステップA:前記ビデオ信号からの複数のフレームを提供する;
ステップB:前記複数のフレームのうち現在フレームを選択する;
ステップC:現在フレームに先行するフレームおよび現在フレームの後続のフレームの一つまたは複数の色成分のフレーム値に基づいて現在フレームの一つまたは複数の色空間成分について一組の属性を計算する;
ステップD:現在フレームに先行する先行フレームの一つまたは複数の色空間成分について一組の属性を、前記先行フレームに先行するフレームおよび前記先行フレームの後続のフレームの一つまたは複数の色成分のフレーム値に基づいて計算する;
ステップE:前記現在フレームの前記一つまたは複数の色空間パラメータについての前記一組の属性を、前記先行フレームの前記一つまたは複数の色空間パラメータについての前記一組の属性と比較して、前記現在フレームが増加するもしくは減少するフレーム値をもつフェードの終了フレームであるかどうかまたは前記現在フレームに先行する前記フレームが増加するもしくは減少するフレーム値をもつフェードの開始フレームであるかどうかを判定する。
〔EEE55〕付番実施例54記載の方法であって、フレームmが前記複数のフレーム中の選択されたフレームを示し、フレームm−1がフレームmに先行する前記複数のフレーム中のフレームを示し、フレームm−2がフレームm−1に先行する前記複数のフレーム中のフレームを示し、フレームm+1がフレームmに後続する前記複数のフレーム中のフレームを示し、フレームm+2がフレームm+1に後続する前記複数のフレーム中のフレームを示し、一つまたは複数の色空間成分について一組の属性を計算することが、以下の属性を計算することを含む:
属性A、ここで、フレームmの属性Aフレーム値はフレームm+1およびフレームm−1のフレーム値の平均に等しい;
属性B、ここで、フレームmの属性Bフレーム値はフレームm+1のフレーム値の2倍からフレームm+2のフレーム値を引いたものに等しい;
属性C、ここで、フレームmの属性Cフレーム値は、属性C被除数を属性C除数で割ったものに等しく、属性C被除数はフレームm−1のフレーム値の2倍にフレームm+2のフレーム値を加えたものに等しく、フレームC除数は3である;
属性D、ここで、フレームmの属性Dフレーム値はフレームm−1のフレーム値の2倍からフレームm−2のフレーム値を引いたものに等しい:
属性E、ここで、フレームmの属性Eフレーム値は、属性E被除数を属性E除数で割ったものに等しく、属性E被除数はフレームm+1のフレーム値の2倍にフレームm−2のフレーム値を加えたものに等しく、フレームE除数は3である。
〔EEE56〕付番実施例54記載の方法であって、前記現在フレームの前記一つまたは複数の色空間パラメータについての前記一組の属性を、先行フレームの前記一つまたは複数の色空間パラメータについての前記一組のパラメータと比較することが、次の条件のうちの少なくとも一つについて試験することを含む、方法:
条件1、ここで、条件1は、現在フレームの属性Cフレーム値が現在フレームの属性Aフレーム値より大きく、現在フレームの属性Aフレーム値が現在フレームの属性Bフレーム値より大きく、前記先行フレームの属性Cフレーム値が前記先行フレームの属性Aフレーム値より大きく、前記先行フレームの属性Aフレーム値が前記先行フレームの属性Bフレーム値より大きい場合に満たされる;
条件2,ここで、条件2は、現在フレームの属性Cフレーム値が現在フレームの属性Aフレーム値より小さく、現在フレームの属性Aフレーム値が現在フレームの属性Bフレーム値より小さく、前記先行フレームの属性Cフレーム値が前記先行フレームの属性Aフレーム値より小さく、前記先行フレームの属性Aフレーム値が前記先行フレームの属性Bフレーム値より小さい場合に満たされる;
条件3,ここで、条件3は、前記先行フレームの属性Eフレーム値が前記先行フレームの属性Aフレーム値より大きく、前記先行フレームの属性Aフレーム値が前記先行フレームの属性Dフレーム値より大きく、現在フレームの属性Eフレーム値が現在フレームの属性Aフレーム値より大きく、現在フレームの属性Aフレーム値が現在フレームの属性Dフレーム値より大きい場合に満たされる;
条件4,ここで、条件4は、前記先行フレームの属性Eフレーム値が前記先行フレームの属性Aフレーム値より小さく、前記先行フレームの属性Aフレーム値が前記先行フレームの属性Dフレーム値より小さく、現在フレームの属性Eフレーム値が現在フレームの属性Aフレーム値より小さく、現在フレームの属性Aフレーム値が現在フレームの属性Dフレーム値より小さい場合に満たされる;
ここで、条件1が満たされる場合、前記現在フレームは減少するフレーム値をもつフェードの終了フレームであると指示され;
条件2が満たされる場合、前記現在フレームは増加するフレーム値をもつフェードの終了フレームであると指示され;
条件3が満たされる場合、直前フレームは増加するフレーム値をもつフェードの開始フレームであると指示され;
条件4が満たされる場合、直前フレームは減少するフレーム値をもつフェードの開始フレームであると指示される。
〔EEE57〕付番実施例49記載の方法であって、さらに:
前記複数のフレームからもう一つのフレームを選択し;
選択されたフレームを現在フレームとして指定し;
ステップCないしEを繰り返し;
先の現在フレームについてのステップEの結果を今回の現在フレームと比較して結果が両立するかどうかを判定し;
フェードがフェードインであるかフェードアウトであるかクロスフェードであるかを一つまたは複数のフレーム値に基づいて判定することを含む、
方法。
〔EEE58〕付番実施例55記載の方法であって、フレームの前記フレーム値が一つまたは複数の色空間成分についてのフレーム全体のDCの値を含む、方法。
〔EEE59〕付番実施例55記載の方法であって、フレームの前記フレーム値が一つまたは複数の色空間成分についてのフレームの指定された部分(単数または複数)のDCの値を含む、方法。
〔EEE60〕付番実施例55記載の方法であって、フレームの前記フレーム値が一つまたは複数の色空間成分についてのフレームのヒストグラムを含む、方法。
〔EEE61〕付番実施例55記載の方法であって、フレームの前記フレーム値が一つまたは複数の色空間成分についてのフレームの指定された部分(単数または複数)のヒストグラムを含む、方法。
〔EEE62〕付番実施例55記載の方法であって、フレームm−1がフレームmの直前であり、フレームm−2がフレームm−1の直前であり、フレームm+1がフレームmの直後であり、フレームm+2がフレームm+1の直後である、方法。
〔EEE63〕付番実施例55記載の方法であって、フレームm−1がフレームmに時間的に先行する任意のフレームを指示し、フレームm−2がフレームm−1に時間的に先行する任意のフレームを指示し、フレームm+1がフレームmに時間的に後続する任意のフレームを指示し、フレームm+2がフレームm+1に時間的に後続する任意のフレームを指示する、方法。
〔EEE64〕付番実施例63記載の方法であって、フレームm−1、m−2、m+1、m+2の任意のものの時間的選択が可変である、方法。
〔EEE65〕付番実施例64記載の方法であって、時間的選択がフレーム内容に依存して変わる、方法。
〔EEE66〕付番実施例54記載の方法であって、前記色空間成分が強度に関係したおよび色に関係した成分を含み、前記一組の属性が各フレームのルーマ成分についてのみ計算される、方法。
〔EEE67〕付番実施例66記載の方法であって、前記強度に関係した成分がルーマ値またはルミナンス値の一つまたは複数を含む、方法。
〔EEE68〕付番実施例66記載の方法であって、前記色に関係した成分がクロマ値またはクロミナンス値の一つまたは複数を含む、方法。
〔EEE69〕付番実施例54記載の方法であって、すべての色空間成分についてステップC、DおよびEを実行することをさらに含む、方法。
〔EEE70〕付番実施例54記載の方法であって、第一の選択された集合の色空間成分についてステップC、DおよびEを実行し、前記第一の選択された集合の色空間成分を試験することに基づいてフェード条件の判定がなされたらステップEのあと終了することをさらに含む、方法。
〔EEE71〕クロスフェード検出の方法であって:
ビデオ・シーケンスの複数のフレームおよび関係した双方向の予測基準フレームを提供し;
現在フレームおよび関係した双方向の予測基準フレームの第一の色領域の色空間成分について計算された平均利得ならびに現在フレームおよび関係した双方向の予測基準フレームの第二の色領域の色空間成分について計算された平均利得に基づいてクロスフェードが存在するかどうかを判定することを含む、
方法。
〔EEE72〕付番実施例71記載の方法であって、クロスフェードが存在するかどうかを判定することが:
現在フレームの第一の色領域の色空間成分の平均値および関係した双方向の予測基準フレームの第一の色領域の色空間成分の平均値を計算し;
現在フレームの第二の色領域の色空間成分の平均値および関係した双方向の予測基準フレームの第二の色領域の色空間成分の平均値を計算し;
条件1ないし6のそれぞれが満たされるかどうかを判定することを含む、方法:
条件1:第一の色空間領域についての双方向の各予測基準フレームについての平均利得の合計が1またはほぼ1になるかどうか;
条件2:第二の色空間領域についての双方向の各予測基準フレームについての平均利得の合計が1またはほぼ1になるかどうか;
条件3:第一の色空間領域についての双方向の各予測基準フレームについての平均利得の大きさが、現在フレームからの、双方向の予測基準フレームの距離に反比例しているかどうか;
条件4:第二の色空間領域についての双方向の各予測基準フレームについての平均利得の大きさが、現在フレームからの、双方向の予測基準フレームの距離に反比例しているかどうか;
条件5:第一の色空間領域の平均利得が、前記第一の色空間領域におけるクロスフェードの正しいモデルを与えるかどうか;
条件6:第二の色空間領域の平均利得が、前記第二の色空間領域におけるクロスフェードの正しいモデルを与えるかどうか。
〔EEE73〕付番実施例72記載の方法であって、前記第一の色空間領域がRGB領域であり、前記第二の色空間領域がYbCbCr領域であり、条件5および条件6が満たされるかどうかを判定することが、次の等式が満たされるかどうかを判定することを含む、方法:
[R1 G1 B1]tおよび[R2 G2 B2]tはRGB領域における双方向の基準フレームについてのベクトルを示し、
[Y'm Cbm Crm]tはYCbCr領域における現在フレームについてのベクトルを示し、
[Y'1 Cb1 Cr1]tおよび[Y'2 Cb2 Cr2]tはYCbCr領域における双方向の基準フレームについてのベクトルを示し、
w1およびw2は平均利得を示す。
〔EEE74〕付番実施例71記載の方法であって、さらに、クロスフェードがある場合にクロマ成分利得をルーマ成分利得に等しいと設定することを含む、方法。
〔EEE75〕フェード条件の存在下での重み付けされたパラメータ決定の方法であって、次のステップを含む方法:
ステップA:ピクチャからの複数のフレームおよび関係した予測基準フレームを提供する;
ステップB:色成分を選択する;
ステップC:各フレームおよび関係した予測基準フレームについて、そのフレームおよびその関係した予測基準フレーム内で、選択された色成分について飽和されたパーティションを判別する;
ステップD:各フレームおよび関係した予測基準フレームについて、両フレームが、選択された色成分について、飽和した値をもつ大きな領域を共有するかどうかを判定し、飽和した値をもつ共有された大きな領域がなければステップHに進む;
ステップE:各フレームおよび関係した予測基準フレームについて、そのフレームおよびその関係した予測基準フレーム内で、飽和していないパーティションを判別する;
ステップF:各フレームおよび関係した予測基準フレームについて、両フレームが、選択された色成分について、飽和していない値をもつ大きな領域を共有するかどうかを判定し、飽和していない値をもつ共有された大きな領域がなければステップHに進む;
ステップG:各フレームおよび関係した予測基準フレームについて、共有され、任意的には同じピクセル数に規格化された、飽和していない値をもつ大きな領域に基づいて、重み付き予測利得および因子を計算する;
ステップH:各フレームおよび関係した予測基準フレームについて、フレーム全体に基づいて重み付き予測利得および因子を計算する。
〔EEE76〕付番実施例75記載の方法であって、もう一つの色成分を選択し、その選択された色成分についてステップCないしHを繰り返すことをさらに含む、方法。
〔EEE77〕付番実施例75記載の方法であって、重み付き予測利得および因子を計算することが、前のフレームについての重み付き予測利得および因子に基づく、方法。
〔EEE78〕付番実施例75記載の方法であって、各フレームおよび関係した予測フレームがセグメント分割され、ステップAないしHが各フレームおよび関係した予測フレームの一つまたは複数のセグメントに対して実行され、重み付き予測利得および因子が各セグメントについて計算される、方法。
〔EEE79〕付番実施例78記載の方法であって、動き補償が、あるフレームから別のフレームへとセグメントを追跡する、方法。
〔EEE80〕フェード条件の存在下での重み付けされたパラメータ決定の方法であって、次のステップを含む方法:
ステップA:色サンプル・データを含む、ピクチャからの複数のフレームおよび関係した予測基準フレームを提供する;
ステップB:色成分を選択する;
ステップC:各フレームについて、前記色サンプル・データについての選択された色領域に基づいて、選択された色成分についての現在の最低飽和値および現在の最高飽和値を設定する;
ステップD:各関係した予測基準フレームについて、前記色サンプル・データについての選択された色領域に基づいて選択された色成分についての現在の基準最低飽和値および現在の基準最高飽和値を設定する;
ステップE:各フレームおよび関係した基準フレームについて、現在の最低飽和値、現在の最高飽和値、現在の基準最低飽和値および現在の基準最高飽和値に基づいて重み付き予測パラメータを推定する;
ステップF:各関係した予測基準フレームについて、推定された重み付き予測パラメータに基づいて、更新された現在の基準最低飽和値および更新された現在の基準最高飽和値を計算する;
ステップG:現在の基準最低飽和値を更新された現在の基準最低飽和値に等しく設定し、現在の基準最高飽和値を更新された現在の基準最高飽和値に等しく設定する;
ステップH:現在の反復工程についての重み付き予測パラメータが直前の反復工程についての重み付き予測パラメータと、選択された値だけ違っている場合または反復工程の数が選択された反復工程カウントより大きい場合、ステップDないしGを一連の逐次反復工程について繰り返す。
〔EEE81〕付番実施例80記載の方法であって、反復工程tについての重み付き予測パラメータが重み付けされた利得wtおよび因子ftを含み、前記更新された現在の基準最低飽和値および更新された現在の基準最高飽和値が公式
ここで、ln s,0は現在の最低飽和値であり、hn s,0は現在の最高飽和値であり、ln+k s,t+1は更新された現在の基準最低飽和値であり、hn+k s,t+1は更新された現在の基準最高飽和値である、方法。
〔EEE82〕付番実施例81記載の方法であって、重み付き予測パラメータを推定するのに先立って前記フレームおよび前記関係した予測基準フレームのヒストグラムを計算することをさらに含み、重み付き予測パラメータの推定が計算されたヒストグラムに基づく、方法。
〔EEE83〕付番実施例81記載の方法であって、もう一つの色成分を選択し、その選択された色成分についてステップCないしHを繰り返すことをさらに含む、方法。
〔EEE84〕付番実施例81記載の方法であって、重み付き予測パラメータの推定が、直前の反復工程について推定された重み付き予測パラメータに基づく、方法。
〔EEE85〕付番実施例80記載の方法であって、各フレームおよび関係した予測フレームがセグメント分割され、ステップCないしHが各フレームおよび関係した予測基準フレームの一つまたは複数のセグメントに対して実行される、方法。
〔EEE86〕付番実施例84記載の方法であって、推定された重み付き予測パラメータに基づいて更新された現在の基準最低飽和値および更新された現在の基準最高飽和値を計算することが、どのピクセル値も重み付き予測の結果として飽和やクリッピングされないよう、更新された現在の基準最低飽和値および更新された現在の基準最高飽和値を計算することを含む、方法。
〔EEE87〕付番実施例84記載の方法であって、選択された色領域が初期色空間を含む、方法。
〔EEE88〕付番実施例84記載の方法であって、選択された色領域が、第一の色領域からの変換から導出される第二の色領域を含み、推定された重み付き予測パラメータが第一の色領域における重み付き予測パラメータを含む、方法。
〔EEE89〕付番実施例84記載の方法であって、複数の色領域が、第一の色領域からの変換から導出され、選択された色領域は前記複数の色領域の各色領域を選択することを含み、推定された重み付き予測パラメータは選択された色領域の各色領域に基づく、方法。
〔EEE90〕ビデオ信号のあるピクチャから次のピクチャへのフェード遷移における重み付き予測利得およびオフセットを推定する方法であって:
前記ビデオ信号内のピクチャから現在フレームおよび関係した予測基準フレームを提供し;
各現在フレームおよび関係した予測基準フレームについて;ある色領域における色成分値を計算し、Amは現在フレームについての第一の色成分を表し、Bmは現在フレームについての第二の色成分を表し、Cmは現在フレームについての第三の色成分を表し、Am+1は関係した予測基準フレームについての第一の色成分を表し、Bm+1は関係した予測基準フレームについての第二の色成分を表し、Cm+1は関係した予測基準フレームについての第三の色成分を表し;
重み付き予測利得をすべての色成分について等しく設定し、wがすべての色成分についての等しい値の重み付き予測利得を表し;
色成分のうちの二つの色成分についての重み付き予測オフセットを互いに等しく設定し、fAが第一の色成分についてのオフセットを表し、fCが色成分のうちの二つの色成分についての等しい値の重み付き予測オフセットを表し;
重み付き予測利得wおよび重み付き予測オフセットfAおよびfCについての公式
方法。
〔EEE91〕付番実施例90記載の方法であって、前記色領域がYCbCr領域であり、互いに等しく設定された色成分のうちの二つの色成分についての重み付き予測オフセットがクロマ色成分についての重み付き予測オフセットを含む、方法。
〔EEE92〕付番実施例90記載の方法であって、色成分値が現在フレームおよび関係した予測基準フレームの一つまたは複数のセグメントについて計算される、方法。
〔EEE93〕ビデオ信号のあるピクチャから次のピクチャへのフェード遷移における重み付き予測利得およびオフセットを推定する方法であって:
前記ビデオ信号内のピクチャから現在フレームおよび関係した予測基準フレームを提供し;
各現在フレームおよび関係した予測基準フレームについて;ある色領域における色成分値を計算し、Amは現在フレームについての第一の色成分を表し、Bmは現在フレームについての第二の色成分を表し、Cmは現在フレームについての第三の色成分を表し、Am+1は関係した予測基準フレームについての第一の色成分を表し、Bm+1は関係した予測基準フレームについての第二の色成分を表し、Cm+1は関係した予測基準フレームについての第三の色成分を表し;
重み付き予測オフセットをすべての色成分について等しく設定し、fがすべての色成分についての等しい値の重み付き予測オフセットを表し;
色成分のうちの二つの色成分についての重み付き予測利得を互いに等しく設定し、wAが第一の色成分についてのオフセットを表し、wCが色成分のうちの二つの色成分についての等しい値の重み付き予測オフセットを表し;
重み付き予測利得wAおよびwCおよび重み付き予測オフセットfについての公式
方法。
〔EEE94〕付番実施例93記載の方法であって、前記色領域がRGB領域であり、互いに等しく設定された色成分のうちの二つの色成分についての重み付き予測利得が緑および青成分についての重み付き予測オフセットを含む、方法。
〔EEE95〕付番実施例93記載の方法であって、前記色領域がRGB領域であり、互いに等しく設定された色成分のうちの二つの色成分についての重み付き予測利得が赤および青成分についての重み付き予測オフセットを含む、方法。
〔EEE96〕付番実施例93記載の方法であって、色成分値が現在フレームおよび関係した予測基準フレームの一つまたは複数のセグメントについて計算される、方法。
〔EEE97〕重み付き予測パラメータを第一の色領域から第二の色領域に変換する方法であって、前記第一の色領域から前記第二の領域への変換は線形ではなく、当該方法は:
前記第一の色領域から前記第二の色領域への変換式に基づいて、前記第二の領域における一つまたは複数のフレームについての第二の色領域の重み付き予測パラメータを計算することを含む、方法。
〔EEE98〕付番実施例97記載の方法であって、重み付き予測パラメータの変換が画像遷移の存在時に行われる、方法。
〔EEE99〕付番実施例97記載の方法であって、前記第一の色領域から前記第二の色領域への前記変換式が、指数関数変換を含み、当該方法がさらに:
前記第一の色領域における一つまたは複数のフレームについて第一の色領域の重み付き予測パラメータを計算して第一の色領域利得値を得ることをさらに含み、
第二の色領域の重み付き予測パラメータを計算することが、前記第一の色領域の利得値を前記指数関数変換の指数乗したものに等しい第二の色領域の利得値を計算することを含む、方法。
〔EEE100〕付番実施例99記載の方法であって、重み付き予測パラメータの変換が画像フェードの存在時に行われる、方法。
〔EEE101〕付番実施例99記載の方法であって、前記指数関数変換が、γが前記指数を表すガンマ補正を含み、前記第一の色領域の値がwと表され、前記第二の色領域の値がwγに等しい、方法。
〔EEE102〕付番実施例97記載の方法であって、前記第一の色領域から前記第二の色領域への前記変換式が、対数空間変換式を含み、前記画像遷移がフェードを含み、当該方法がさらに:
前記第一の色領域における一つまたは複数のフレームについて第一の色領域の重み付き予測パラメータを計算して第一の色領域利得値を得ることをさらに含み、
第二の色領域の重み付き予測パラメータを計算することが、前記第一の色領域の利得値の対数に等しい第二の色領域のオフセット値を計算することを含む、方法。
〔EEE103〕付番実施例98記載の方法であって、前記第一の色領域から前記第二の色領域への前記変換式が、指数関数変換を含み、前記画像遷移がフェードを含み、第二の色領域の重み付き予測パラメータを計算することが、1に等しくない第二の色領域の利得値および0に等しい第二の色領域のオフセット値を計算することを含む、方法。
〔EEE104〕付番実施例98記載の方法であって、前記第一の色領域から前記第二の色領域への前記変換式が、対数空間変換式を含み、前記画像遷移がフェードを含み、第二の色領域の重み付き予測パラメータを計算することが、1に等しい第二の色領域の利得値および0に等しくない第二の色領域のオフセット値を計算することを含む、方法。
〔EEE105〕付番実施例97記載の方法であって、前記画像遷移がクロスフェードを含み、前記第一の色領域から前記第二の色領域への前記変換式が、指数関数変換を含み、当該方法がさらに:
第一の基準フレームについての第一の基準利得値および第二の基準フレームについての第二の基準利得値を含む第一の色領域の重み付き予測パラメータを計算することを含み、
第二の色領域の重み付き予測パラメータを計算することが、前記第一の基準利得値および前記第二の基準利得値に基づいて第二の色領域の利得値を計算することを含む、方法。
〔EEE106〕付番実施例105記載の方法であって、第二の色領域の重み付き予測パラメータを計算することが、前記第一の基準利得値および一つまたは複数の第一の基準フレーム値および前記第二の基準利得値および一つまたは複数の第二の基準フレーム値に基づく二つの二項展開を解くことを含む、方法。
〔EEE107〕付番実施例97記載の方法であって、前記画像遷移がクロスフェードを含み、前記第一の色領域から前記第二の色領域への前記変換式が、対数空間変換を含み、当該方法がさらに:
第一の基準フレームについての第一の基準利得値および第二の基準フレームについての第二の基準利得値を含む第一の色領域の重み付き予測パラメータを計算することを含み、
第二の色領域の重み付き予測パラメータを計算することが、前記第一の基準利得値および前記第二の基準利得値に基づいて第二の色領域の利得値を計算することを含む、方法。
〔EEE108〕付番実施例107記載の方法であって、第二の色領域の重み付き予測パラメータにおけるオフセットが、前記第一の基準利得値および前記第二の基準利得値の対数に等しく設定される、方法。
〔EEE109〕付番実施例97記載の方法であって、さらに:
前記第一の色領域を使ってコンテンツを第一の層に圧縮し;
前記第二の色領域を使ってコンテンツを第二の層に圧縮し;
前記第一の層について計算された重み付き予測パラメータが前記第二の層についての重み付き予測パラメータに変換される、方法。
〔EEE110〕前記第一の層が基本層を含み前記第二の層が向上層を含む、付番実施例109記載の方法。
〔EEE111〕前記第一の層についての重み付き予測パラメータが前記第二の層についてのデコーダまたはエンコーダに伝送される、付番実施例110記載の方法。
〔EEE112〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするエンコーダ。
〔EEE113〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードする装置。
〔EEE114〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするシステム。
〔EEE115〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするデコーダ。
〔EEE116〕重み付き予測パラメータが当該デコーダに伝達されず、前記重み付き予測パラメータが当該デコーダに送られるピクチャ情報から導出される、付番実施例115記載のデコーダ。
〔EEE117〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードする装置。
〔EEE118〕重み付き予測パラメータが当該装置に伝達されず、前記重み付き予測パラメータが当該装置に送られるピクチャ情報から導出される、付番実施例117記載の装置。
〔EEE119〕付番実施例1ないし111のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするシステム。
〔EEE120〕重み付き予測パラメータが当該システムに伝達されず、前記重み付き予測パラメータが当該システムに送られるピクチャ情報から導出される、付番実施例119記載のシステム。
〔EEE121〕付番実施例1ないし111のうち一つまたは複数に記載の方法をコンピュータに実行させる一組の命令を含むコンピュータ可読媒体。
〔EEE122〕ビデオ信号をエンコードするための付番実施例1ないし111のうち一つまたは複数に記載の方法の使用。
〔EEE123〕ビデオ信号をデコードするための付番実施例1ないし111のうち一つまたは複数に記載の方法の使用。
〔EEE124〕付番実施例1ないし111のうち一つまたは複数に記載の方法を実行するようコンピュータまたは集積回路(IC)デバイスの一つまたは複数を引き起こす、制御する、プログラムするまたは構成する一組の命令を含むコンピュータ可読記憶媒体。
〔EEE125〕付番実施例1ないし111のうち一つまたは複数に記載のプロセスを実行するよう構成、プログラム、制御または設計されたICデバイス。
いくつかの態様を記載しておく。
〔態様1〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のための方法であって:
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における一つまたは複数の強度に関係した値および一つまたは複数の色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、前記第一の色領域における各色成分値について重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が主として第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、グローバルなフェード遷移;ゼロ・オフセットをもつグローバルなフェード遷移;または第二の色領域におけるゼロ・オフセットをもつグローバルなフェード遷移のうちの少なくとも一つが起きていないと判定することを含む、
方法。
〔態様2〕前記強度に関係した値が、ルーマ値またはルミナンス値の一つまたは複数を含む、態様1記載の方法。
〔態様3〕前記色に関係した値がクロマ値またはクロミナンス値の一つまたは複数を含む、態様1記載の方法。
〔態様4〕態様1記載の方法であって、前記第一の色領域がYCbCr領域を含み、前記重み付き予測利得が:
フレームおよび該フレームの予測基準フレームのルーマ成分;
前記フレームのクロマ成分値;
前記フレームの前記予測基準フレームのクロマ成分値;および
色フォーマット変換オフセット値を含む値を用いて計算される、
方法。
〔態様5〕前記強度に関係した値および色に関係した値が平均強度に関係した色および色に関係した値である、態様1記載の方法。
〔態様6〕前記強度に関係した値および色に関係した値がヒストグラム情報から計算される、態様1記載の方法。
〔態様7〕前記複数のフレームがフレーム・シーケンスの一部を含む、態様1記載の方法。
〔態様8〕前記複数のフレームが、照明変化があると示されているフレームの集合の一部を含む、態様1記載の方法。
〔態様9〕前記第一の色領域から前記第二の色領域への遷移を定義する色空間行列が線形である、態様1記載の方法。
〔態様10〕前記重み付き予測利得が実質的に同様であるのが、それらの利得が互いの5%ないし10%の範囲内である場合である、態様1記載の方法。
〔態様11〕態様1記載の方法であって、さらに:
前記重み付き予測利得を0から1までの間の値をもつよう対数スケーリングし、それらの利得が実質的に同様であるかどうかの判定を、前記重み付き予測利得値の間の差が0.1未満であるかどうかを計算することによって行うことを含む、
方法。
〔態様12〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のための方法であって:
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて;強度に関係した重み付き予測パラメータを計算し;
各フレームおよび関係した予測基準フレームについて、計算された強度に関係したおよび色に関係した値からおよび計算された強度に関係した重み付き予測パラメータから重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が主として第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、ローカルな遷移が起きつつあるかどうかを試験することを含む、
方法。
〔態様13〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェードのグローバルまたはローカルな性質の判別のための方法であって:
前記ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した各値について重み付き予測利得を計算し;
各フレームおよび関係した予測基準フレームについて、重み付き予測利得を互いと比較し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、フェードがグローバルであると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、フェードはローカルであると判定することを含む、
方法。
〔態様14〕ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェードのグローバルまたはローカルな性質の判別のための方法であって:
前記ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した各値について重み付き予測利得を計算し;
各フレームおよび関係した予測基準フレームについて、重み付き予測利得を互いと比較し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、フェードがグローバルであると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、フェードはローカルであると判定することを含む、
方法。
〔態様15〕画像遷移が起こるときに色空間変換および第一の色成分重み付き予測パラメータについての情報から第二および第三の色成分の重み付き予測パラメータを計算する方法であって:
第一の色成分重み付き予測利得およびオフセットを計算し;
計算された第一の色成分重み付き予測利得およびオフセットの値に基づいて、色変換オフセット、色変換行列の係数および第一の色成分重み付き予測利得およびオフセットの関数として、第二および第三の色成分重み付き予測利得およびオフセットを計算することを含む、
方法。
〔態様16〕画像フラッシュが起こるときに強度に関係したパラメータおよび色空間変換についての情報から色に関係したパラメータを計算する方法であって:
強度に関係した利得およびオフセットを計算し;
強度に関係した利得が1でなくかつ強度に関係したオフセットが0でない場合、色に関係した利得を強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得、強度に関係したオフセットおよび色変換行列の係数の関数として計算し;
強度に関係した利得が1でなくかつ強度に関係したオフセットが0である場合、色に関係した利得を前記強度に関係した利得に等しいと設定し、色に関係したオフセットを、色フォーマット変換オフセット、強度に関係した利得および色変換行列の係数の関数として計算し;
強度に関係した利得が1であるか1に近い場合、色に関係した利得を1に等しいと設定し、色に関係したオフセットを、強度に関係したオフセットおよび色変換行列の係数の関数として計算することを含む、
方法。
〔態様17〕ビデオ信号のあるシーンから次のシーンへの遷移におけるフェード検出の方法であって、次のステップを含む方法:
ステップA:前記ビデオ信号からの複数のフレームを提供する;
ステップB:前記複数のフレームのうち現在フレームを選択する;
ステップC:現在フレームに先行するフレームおよび現在フレームの後続のフレームの一つまたは複数の色成分のフレーム値に基づいて現在フレームの一つまたは複数の色空間成分について一組の属性を計算する;
ステップD:現在フレームに先行する先行フレームの一つまたは複数の色空間成分について一組の属性を、前記先行フレームに先行するフレームおよび前記先行フレームの後続のフレームの一つまたは複数の色成分のフレーム値に基づいて計算する;
ステップE:前記現在フレームの前記一つまたは複数の色空間パラメータについての前記一組の属性を、前記先行フレームの前記一つまたは複数の色空間パラメータについての前記一組の属性と比較して、前記現在フレームが増加するもしくは減少するフレーム値をもつフェードの終了フレームであるかどうかまたは前記現在フレームに先行する前記フレームが増加するもしくは減少するフレーム値をもつフェードの開始フレームであるかどうかを判定する。
〔態様18〕フェード条件の存在下での重み付けされたパラメータ決定の方法であって、次のステップを含む方法:
ステップA:色サンプル・データを含む、ピクチャからの複数のフレームおよび関係した予測基準フレームを提供する;
ステップB:色成分を選択する;
ステップC:各フレームについて、前記色サンプル・データについての選択された色領域に基づいて、選択された色成分についての現在の最低飽和値および現在の最高飽和値を設定する;
ステップD:各関係した予測基準フレームについて、前記色サンプル・データについての選択された色領域に基づいて選択された色成分についての現在の基準最低飽和値および現在の基準最高飽和値を設定する;
ステップE:各フレームおよび関係した基準フレームについて、現在の最低飽和値、現在の最高飽和値、現在の基準最低飽和値および現在の基準最高飽和値に基づいて重み付き予測パラメータを推定する;
ステップF:各関係した予測基準フレームについて、推定された重み付き予測パラメータに基づいて、更新された現在の基準最低飽和値および更新された現在の基準最高飽和値を計算する;
ステップG:現在の基準最低飽和値を更新された現在の基準最低飽和値に等しく設定し、現在の基準最高飽和値を更新された現在の基準最高飽和値に等しく設定する;
ステップH:現在の反復工程についての重み付き予測パラメータが直前の反復工程についての重み付き予測パラメータと、選択された値だけ違っている場合または反復工程の数が選択された反復工程カウントより大きい場合、ステップDないしGを一連の逐次反復工程について繰り返す。
〔態様19〕
第一の色領域から第二の色領域への変換式に基づいて、前記第二の領域における一つまたは複数のフレームの前記第二の色領域についての一つまたは複数の重み付き予測パラメータを計算する段階と;
一つまたは複数の重み付き予測パラメータを前記第一の色領域から前記第二の色領域に変換する段階とを含む方法であって、前記第一の色領域から前記第二の領域への変換は非線形である、方法。
〔態様20〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするエンコーダ。
〔態様21〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードする装置。
〔態様22〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするシステム。
〔態様23〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするデコーダ。
〔態様24〕重み付き予測パラメータが当該デコーダに送られるピクチャ情報から導出される、態様23記載のデコーダ。
〔態様25〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードする装置。
〔態様26〕重み付き予測パラメータが当該装置に送られるピクチャ情報から導出される、態様25記載の装置。
〔態様27〕態様1ないし19のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするシステム。
〔態様28〕重み付き予測パラメータが当該システムに送られるピクチャ情報から導出される、態様27記載のシステム。
〔態様29〕態様1ないし19のうち一つまたは複数に記載の方法をコンピュータまたは集積回路(IC)デバイスに実行させる、実行するよう制御する、実行するようプログラムするまたは実行するよう構成する一組の命令を含むコンピュータ可読媒体。
〔態様30〕態様1ないし19のうち一つまたは複数に記載のプロセスを実行するよう構成された、プログラムされた、制御されるまたは設計されたICデバイス。
〔態様31〕ビデオ信号をデコードするための態様1ないし19のうち一つまたは複数に記載の方法の使用。
〔態様32〕ビデオ信号をエンコードするための態様1ないし19のうち一つまたは複数に記載の方法の使用。
Claims (24)
- ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のために、装置が実行する方法であって、前記装置が、
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における一つまたは複数の強度に関係した値および一つまたは複数の色に関係した値を計算し、ここで、計算された一つまたは複数の強度に関係した値および一つまたは複数の色に関係した値は色成分を含み;
各フレームおよび関係した予測基準フレームについて、前記第一の色領域における各計算された色成分値について重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、グローバルなフェード遷移;ゼロ・オフセットをもつグローバルなフェード遷移;または第二の色領域におけるゼロ・オフセットをもつグローバルなフェード遷移のうちの少なくとも一つが起きていないと判定することを含む、
方法。 - 前記強度に関係した値が、ルーマ値またはルミナンス値の一つまたは複数を含む、請求項1記載の方法。
- 前記色に関係した値がクロマ値またはクロミナンス値の一つまたは複数を含む、請求項1記載の方法。
- 請求項1記載の方法であって、前記第一の色領域がYCbCr領域を含み、前記重み付き予測利得が:
フレームおよび該フレームの予測基準フレームのルーマ成分;
前記フレームのクロマ成分値;
前記フレームの前記予測基準フレームのクロマ成分値;および
色フォーマット変換オフセット値を含む値を用いて計算される、
方法。 - 前記強度に関係した値および色に関係した値が平均強度に関係した色および色に関係した値である、請求項1記載の方法。
- 前記強度に関係した値および色に関係した値がヒストグラム情報から計算される、請求項1記載の方法。
- 前記複数のフレームがフレーム・シーケンスの一部を含む、請求項1記載の方法。
- 前記複数のフレームが、照明変化があると示されているフレームの集合の一部を含む、請求項1記載の方法。
- 前記第一の色領域から前記第二の色領域への遷移を定義する色空間行列が線形である、請求項1記載の方法。
- 前記重み付き予測利得が実質的に同様であるのが、それらの利得が互いの5%ないし10%の範囲内である場合である、請求項1記載の方法。
- 請求項1記載の方法であって、さらに:
前記重み付き予測利得を0から1までの間の値をもつよう対数スケーリングし、それらの利得が実質的に同様であるかどうかの判定を、前記重み付き予測利得値の間の差が0.1未満であるかどうかを計算することによって行うことを含む、
方法。 - ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェード検出およびフェードのグローバルまたはローカルな性質の判別のために、装置が実行する方法であって、前記装置が、
ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて;第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて;強度に関係した重み付き予測パラメータを計算し;
各フレームおよび関係した予測基準フレームについて、計算された強度に関係したおよび色に関係した値からおよび計算された強度に関係した重み付き予測パラメータから重み付き予測利得を計算し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、ゼロ・オフセットをもつグローバル遷移が主として第二の色領域において起きつつあると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、ローカルな遷移が起きつつあるかどうかを試験することを含む、
方法。 - ビデオ信号のあるピクチャから次のピクチャへの遷移におけるフェードのグローバルまたはローカルな性質の判別のために、装置が実行する方法であって、前記装置が、
前記ピクチャの複数のフレームおよび関係した予測基準フレームを提供し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した値を計算し;
各フレームおよび関係した予測基準フレームについて、第一の色領域における強度に関係したおよび色に関係した各値について重み付き予測利得を計算し;
各フレームおよび関係した予測基準フレームについて、重み付き予測利得を互いと比較し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様である場合、フェードがグローバルであると判定し;
重み付き予測利得がすべて非負でありかつ互いに実質的に同様ではない場合、フェードはローカルであると判定することを含む、
方法。 - 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするエンコーダ。
- 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードする装置。
- 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をエンコードするシステム。
- 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするデコーダ。
- 重み付き予測パラメータが当該デコーダに送られるピクチャ情報から導出される、請求項17記載のデコーダ。
- 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードする装置。
- 重み付き予測パラメータが当該装置に送られるピクチャ情報から導出される、請求項19記載の装置。
- 請求項1ないし13のうち一つまたは複数に記載の方法に基づいてビデオ信号をデコードするシステム。
- 重み付き予測パラメータが当該システムに送られるピクチャ情報から導出される、請求項21記載のシステム。
- 請求項1ないし13のうち一つまたは複数に記載の方法をコンピュータまたは集積回路(IC)デバイスに実行させる、実行するよう制御する、実行するようプログラムするまたは実行するよう構成する一組の命令を含むコンピュータ可読記録媒体。
- 請求項1ないし13のうち一つまたは複数に記載のプロセスを実行するよう構成された、プログラムされた、制御されるまたは設計されたICデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US38011110P | 2010-09-03 | 2010-09-03 | |
US61/380,111 | 2010-09-03 | ||
PCT/US2011/050188 WO2012031107A1 (en) | 2010-09-03 | 2011-09-01 | Method and system for illumination compensation and transition for video coding and processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013537021A JP2013537021A (ja) | 2013-09-26 |
JP5509390B2 true JP5509390B2 (ja) | 2014-06-04 |
Family
ID=44675829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013527313A Active JP5509390B2 (ja) | 2010-09-03 | 2011-09-01 | ビデオ符号化および処理のための照明補償および遷移のための方法およびシステム |
Country Status (9)
Country | Link |
---|---|
US (1) | US9554156B2 (ja) |
EP (1) | EP2612499B1 (ja) |
JP (1) | JP5509390B2 (ja) |
KR (1) | KR101535784B1 (ja) |
CN (1) | CN103081468B (ja) |
BR (1) | BR112013005122A2 (ja) |
MX (1) | MX2013002429A (ja) |
RU (5) | RU2699253C2 (ja) |
WO (1) | WO2012031107A1 (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7277486B2 (en) * | 2002-05-03 | 2007-10-02 | Microsoft Corporation | Parameterization for fading compensation |
US9538176B2 (en) | 2008-08-08 | 2017-01-03 | Dolby Laboratories Licensing Corporation | Pre-processing for bitdepth and color format scalable video coding |
US9516085B2 (en) | 2011-09-20 | 2016-12-06 | Google Technology Holdings LLC | Constrained fidelity Adaptive Bit Rate encoding systems and methods |
WO2013043918A1 (en) * | 2011-09-21 | 2013-03-28 | General Instrument Corporation | Adaptive streaming to multicast and constrained-fidelity constant bit rate encoding |
US9420302B2 (en) | 2012-01-24 | 2016-08-16 | Dolby Laboratories Licensing Corporation | Weighted multi-band cross color channel predictor |
US9143781B2 (en) | 2012-04-03 | 2015-09-22 | Qualcomm Incorporated | Weighted prediction parameter coding |
CN103686194B (zh) * | 2012-09-05 | 2017-05-24 | 北京大学 | 基于非局部均值的视频去噪方法和装置 |
EP2733933A1 (en) * | 2012-09-19 | 2014-05-21 | Thomson Licensing | Method and apparatus of compensating illumination variations in a sequence of images |
TWI489090B (zh) * | 2012-10-31 | 2015-06-21 | Pixart Imaging Inc | 偵測系統 |
US9596481B2 (en) * | 2013-01-30 | 2017-03-14 | Ati Technologies Ulc | Apparatus and method for video data processing |
CA2896810C (en) * | 2013-04-10 | 2017-12-19 | Mediatek Inc. | Method and apparatus for bi-prediction of illumination compensation |
CN104125477B (zh) * | 2013-04-27 | 2017-08-18 | 华为技术有限公司 | 一种视频帧淡入/淡出检测方法及装置 |
CN103327324A (zh) * | 2013-05-13 | 2013-09-25 | 深圳市云宙多媒体技术有限公司 | 一种光线突变视频编解码方法及系统 |
US20140348240A1 (en) * | 2013-05-22 | 2014-11-27 | Qualcomm Incorporated | Video coding using sample prediction among color components |
US9852519B2 (en) | 2013-06-25 | 2017-12-26 | Pixart Imaging Inc. | Detection system |
US10051278B2 (en) | 2013-07-12 | 2018-08-14 | Samsung Electronics Co., Ltd. | Method and apparatus for inter-layer encoding and method and apparatus for inter-layer decoding video using residual prediction |
EP3021585A4 (en) * | 2013-07-12 | 2017-03-01 | Sony Corporation | Image processing device and image processing method |
US9654775B2 (en) * | 2014-01-09 | 2017-05-16 | Vixs Systems, Inc. | Video encoder with weighted prediction and methods for use therewith |
WO2015192372A1 (en) * | 2014-06-20 | 2015-12-23 | Mediatek Singapore Pte. Ltd. | A simplified method for illumination compensation in multi-view and 3d video coding |
US9866734B2 (en) * | 2014-08-26 | 2018-01-09 | Dolby Laboratories Licensing Corporation | Scene-change detection using video stream pairs |
EP3213291B1 (en) * | 2014-10-27 | 2019-11-06 | Dolby Laboratories Licensing Corporation | Content mapping using extended color range |
US9697796B2 (en) * | 2015-03-26 | 2017-07-04 | Intel Corporation | Adaptive linear luma domain video pipeline architecture |
ES2818174T3 (es) | 2015-05-17 | 2021-04-09 | Endochoice Inc | Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador |
KR20180135075A (ko) * | 2016-07-14 | 2018-12-19 | 삼성전자주식회사 | 크로마 인트라 예측 방법 및 그 장치 |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
CN106683047B (zh) * | 2016-11-16 | 2020-05-22 | 深圳市梦网视讯有限公司 | 一种全景图像的光照补偿方法和系统 |
CN106786748B (zh) * | 2016-12-27 | 2019-01-25 | 电子科技大学 | 一种三电平逆变器并联系统零序环流抑制方法 |
EP3568980A4 (en) * | 2017-01-10 | 2020-01-08 | Telefonaktiebolaget LM Ericsson (publ) | ENTBLOCKUNGSFILTRIERUNGSSTEUERUNG |
IT201700099120A1 (it) * | 2017-09-05 | 2019-03-05 | Salvatore Lamanna | Sistema di illuminazione per schermo di qualsiasi tipo |
FR3076386B1 (fr) * | 2017-12-29 | 2020-02-07 | Ateme | Methode de compression dynamique |
WO2019205117A1 (en) * | 2018-04-28 | 2019-10-31 | Intel Corporation | Weighted prediction mechanism |
CN116033149A (zh) | 2018-08-09 | 2023-04-28 | Oppo广东移动通信有限公司 | 视频图像分量的预测方法和装置、及计算机存储介质 |
BR112021013110A2 (pt) * | 2019-01-02 | 2021-09-21 | Sharp Kabushiki Kaisha | Dispositivo de geração de imagens de predição, dispositivo de decodificação de imagens em movimento, dispositivo de codificação de imagens em movimento e método de geração de imagens de predição |
WO2020150535A1 (en) * | 2019-01-17 | 2020-07-23 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatus of linear model derivation for video coding |
EP3868098A4 (en) * | 2019-01-18 | 2021-12-29 | Huawei Technologies Co., Ltd. | Method and apparatus of local illumination compensation for predictive coding |
CN116260982B (zh) * | 2019-12-05 | 2023-11-24 | 阿里巴巴(中国)有限公司 | 用于色度采样的方法和装置 |
CN115103188B (zh) * | 2022-08-24 | 2022-12-30 | 中南大学 | Svc的错误隐藏方法、模型训练方法、系统及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6266370B1 (en) * | 1996-09-03 | 2001-07-24 | Nippon Telegraph And Telephone Corporation | Brightness-variation compensation method and coding/decoding apparatus for moving pictures |
US7277486B2 (en) * | 2002-05-03 | 2007-10-02 | Microsoft Corporation | Parameterization for fading compensation |
US7609767B2 (en) | 2002-05-03 | 2009-10-27 | Microsoft Corporation | Signaling for fading compensation |
RU2333615C2 (ru) * | 2002-07-15 | 2008-09-10 | Томсон Лайсенсинг С.А. | Адаптивное взвешивание эталонных изображений при декодировании видеосигнала |
US7010047B2 (en) * | 2002-10-11 | 2006-03-07 | Ub Video Inc. | Global brightness change compensation system and method |
US7271812B2 (en) * | 2003-09-18 | 2007-09-18 | Seiko Epson Corporation | Method and apparatus for color space conversion |
US20090016441A1 (en) * | 2004-01-05 | 2009-01-15 | Koninklijke Philips Electronic, N.V. | Coding method and corresponding coded signal |
RU2378790C1 (ru) * | 2005-09-27 | 2010-01-10 | Квэлкомм Инкорпорейтед | Методики масштабируемости на основе информации содержимого |
US7956930B2 (en) * | 2006-01-06 | 2011-06-07 | Microsoft Corporation | Resampling and picture resizing operations for multi-resolution video coding and decoding |
JP4867497B2 (ja) * | 2006-06-21 | 2012-02-01 | ソニー株式会社 | 情報処理装置および方法、復号装置および方法、プログラム、並びに情報処理システム |
JP2008166966A (ja) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | 映像信号処理回路、映像信号処理装置及び映像信号処理方法 |
CN103124354B (zh) * | 2007-09-28 | 2016-01-20 | 杜比实验室特许公司 | 处理视频信息 |
US8811771B2 (en) * | 2008-08-22 | 2014-08-19 | Adobe Systems Incorporated | Content aware slideshows |
-
2011
- 2011-09-01 RU RU2015100767A patent/RU2699253C2/ru active
- 2011-09-01 US US13/819,700 patent/US9554156B2/en active Active
- 2011-09-01 WO PCT/US2011/050188 patent/WO2012031107A1/en active Application Filing
- 2011-09-01 EP EP11760915.6A patent/EP2612499B1/en not_active Not-in-force
- 2011-09-01 BR BR112013005122A patent/BR112013005122A2/pt not_active Application Discontinuation
- 2011-09-01 KR KR1020137005585A patent/KR101535784B1/ko active IP Right Grant
- 2011-09-01 MX MX2013002429A patent/MX2013002429A/es active IP Right Grant
- 2011-09-01 RU RU2013112660/08A patent/RU2556396C2/ru active
- 2011-09-01 CN CN201180042472.8A patent/CN103081468B/zh not_active Expired - Fee Related
- 2011-09-01 JP JP2013527313A patent/JP5509390B2/ja active Active
-
2019
- 2019-08-26 RU RU2019126816A patent/RU2019126816A/ru unknown
- 2019-08-26 RU RU2019126819A patent/RU2019126819A/ru unknown
- 2019-08-26 RU RU2019126818A patent/RU2019126818A/ru unknown
Also Published As
Publication number | Publication date |
---|---|
RU2015100767A3 (ja) | 2018-10-31 |
MX2013002429A (es) | 2013-04-08 |
EP2612499B1 (en) | 2016-01-20 |
RU2699253C2 (ru) | 2019-09-04 |
EP2612499A1 (en) | 2013-07-10 |
RU2019126819A (ru) | 2021-02-26 |
BR112013005122A2 (pt) | 2016-05-03 |
US20130163666A1 (en) | 2013-06-27 |
KR101535784B1 (ko) | 2015-07-10 |
CN103081468B (zh) | 2017-02-15 |
RU2556396C2 (ru) | 2015-07-10 |
RU2019126818A (ru) | 2021-02-26 |
RU2013112660A (ru) | 2014-10-27 |
WO2012031107A1 (en) | 2012-03-08 |
RU2019126816A (ru) | 2021-02-26 |
US9554156B2 (en) | 2017-01-24 |
RU2015100767A (ru) | 2015-10-27 |
CN103081468A (zh) | 2013-05-01 |
KR20130036773A (ko) | 2013-04-12 |
JP2013537021A (ja) | 2013-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5509390B2 (ja) | ビデオ符号化および処理のための照明補償および遷移のための方法およびシステム | |
US20230345013A1 (en) | Hash-based encoder decisions for video coding | |
US10013746B2 (en) | High dynamic range video tone mapping | |
CN107211128B (zh) | 自适应色度下采样和色彩空间转换技术 | |
TWI580253B (zh) | 視訊編碼中之色度量化 | |
US10715816B2 (en) | Adaptive chroma downsampling and color space conversion techniques | |
EP2807823B1 (en) | Piecewise cross color channel predictor | |
US20030112873A1 (en) | Motion estimation for video compression systems | |
JP6822123B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6822122B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US7031388B2 (en) | System for and method of sharpness enhancement for coded digital video | |
CN1695381A (zh) | 在数字视频信号的后处理中使用编码信息和局部空间特征的清晰度增强 | |
JP2019530309A (ja) | シングルレイヤー後方互換性コーデックのリアルタイム再構成 | |
WO2018231968A1 (en) | Efficient end-to-end single layer inverse display management coding | |
KR20090079286A (ko) | 고속 전역탐색 블록정합 알고리즘을 이용한 동영상 움직임추정 방법 및 장치 | |
EP3639238A1 (en) | Efficient end-to-end single layer inverse display management coding | |
US8971408B2 (en) | Piecewise cross color channel predictor | |
Lauga et al. | Region-based tone mapping for efficient High Dynamic Range video coding | |
Coria et al. | Using temporal correlation for fast and highdetailed video tone mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20130301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5509390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |