JP5261774B2 - 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 - Google Patents

動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP5261774B2
JP5261774B2 JP2009538193A JP2009538193A JP5261774B2 JP 5261774 B2 JP5261774 B2 JP 5261774B2 JP 2009538193 A JP2009538193 A JP 2009538193A JP 2009538193 A JP2009538193 A JP 2009538193A JP 5261774 B2 JP5261774 B2 JP 5261774B2
Authority
JP
Japan
Prior art keywords
image area
prediction
coefficient
component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009538193A
Other languages
English (en)
Other versions
JPWO2009054347A1 (ja
Inventor
和也 早瀬
幸浩 坂東
誠之 高村
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009538193A priority Critical patent/JP5261774B2/ja
Publication of JPWO2009054347A1 publication Critical patent/JPWO2009054347A1/ja
Application granted granted Critical
Publication of JP5261774B2 publication Critical patent/JP5261774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Description

本発明は、明るさが時間的に変化する動画像をスケーラブルに符号化する動画像スケーラブル符号化方法およびその装置と、その動画像スケーラブル符号化により符号化された符号化データを復号する動画像スケーラブル復号方法およびその装置と、その動画像スケーラブル符号化方法の実現に用いられる動画像スケーラブル符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体と、その動画像スケーラブル復号方法の実現に用いられる動画像スケーラブル復号プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
本願は、2007年10月25日に出願された特願2007−277224号に基づき優先権を主張し、その内容をここに援用する。
一般的な動画像符号化方式では、フレーム間の画素値差分最小化に基づいたブロックマッチングにより動き予測を行い、符号化性能の向上を図っている。しかしながら、フェードのような明るさが時間的に変化する画像では、明るさ変化の分だけ動き予測の予測残差が拡大し、符号化性能が低下してしまう。
そこで、非特許文献1に示すH.264/AVCでは、動き予測の参照ピクチャに適応的に重み係数を掛ける重み付き動き予測を行っている。この重み付き動き予測により、時間的な明るさ変化を補正した予測参照信号を構成し、符号化性能を向上させている。
H.264/AVCでは、明るさの補正に用いる重み係数を符号化して伝送するExplicitモードと、重み係数を伝送せずにエンコーダとデコーダで同じ重み係数を参照フレームの情報から間接的に生成するImplicitモードの2つの重み付き動き予測の方法を備えている。表1に、PスライスおよびBスライスにおける重み付き動き予測の種類と予測方法を示す。
Figure 0005261774
この表1で、zは重み付き動き予測信号、r0 ,r1 は重み付き動き予測参照信号、w0 ,w1 ,d0 ,d1 は重み係数を指している。重み付き動き予測のスイッチングと重み係数伝送モードの選択は、スライス単位で実行される。
図20は、H.264/AVCにおける重み付き動き予測(Implicitモード)を説明する図である。Implicitモードは、Bスライスの双予測の場合にのみ用いられる。符号化対象フレームと2枚の被参照フレームに渡る明るさ変化が線形であると仮定し、比例係数w0 ,w1 を被参照フレームからの距離に応じて算出する。オフセット係数dは0とする。
なお、図20では参照フレームからの距離に応じた内分による比例係数算出の例を示しているが、外分の場合も同様に行うことができる。
現在、非特許文献2に示すISOとITU−Tの合同団体であるJVTで取り組まれているH.264/AVCのスケーラブル拡張方式JSVCにおいても、前記に示したH.264/AVCと同じ重み付き動き予測が取り入れられている。また、非特許文献3に示すJSVCの参照エンコーダJSVMにおいても、表1に示した重み付き動き予測を行っている。
また、動画像の大局的な輝度変化を検出し、輝度補償を行う技術として、特許文献1に記載された技術が知られている。この特許文献1に記載の技術では、画面全体の大局的な輝度変化量と、小領域ごとに輝度変化の補償をするか否かの判定を示すフラグとを用いることで、明るさの変化が画面内で一様でない場合に対応している。
ITU-T: "Advanced video coding for generic audiovisual services", ITU-T Rec. H.264, pp. 129-132, May, 2003. T.Wiegand, G.Sullivan, J.Reichel, H.Schwarz and M.Wien: "Joint Draft 8 of SVC Amendment", ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6, JVT-U201, pp. 166-170, October, 2006. J.Reichel, H.Schwarz and M.Wien: "Joint Scalable Video Model JSVM-8", ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6, JVT-U202, October, 2006. 特開平10−32824号公報
H.264/AVCの重み付き動き予測はスライス単位で実行される。したがって、スライス内の一部に明るさ変化が発生する場合や、スライス内の明るさ変化が一様でない場合には、重み付き動き予測の予測性能は低下してしまう。移動物体の影などによって発生する明るさ変化などが、前記に該当する。JSVCもH.264/AVCの重み付き動き予測を継承しているため、前述と同じ問題に直面する。
仮に、スライスより細かいマクロブロックなどの単位で重み係数を算出し、重み付き動き予測を実行しようとすると、Explicitモードでは重み係数に要する符号量が甚大となってしまう。そのような場合には、Implicitモードで重み係数を算出することが望ましい。しかしながら、前述の通り、H.264/AVCの重み付き動き予測のImplicitモードの実装は、双予測を行うBスライスのみに限られている。
また、この重み付き動き予測のImplicitモードで算出される重み係数は、符号化対象フレームと2枚の被参照フレームにわたる明るさ変化が線形であるという仮定に基づくものであるため、それら3フレームにわたる明るさの時間的変化が非線形の場合には、適切な重み係数が算出されず、予測性能は低下してしまう。非線形に明るさが変化するフェード画像や、フラッシュを含む画像などが、前記に該当する。
JSVCにおける重み付き動き予測は、H.264/AVCの重み付き動き予測がそのまま実装されているので前述と同じ問題に直面する。
また、前記特許文献1に記載されている技術では、小領域ごとにフラグの情報を伝送する必要があるので、符号化性能が低下するという問題、当該小領域の輝度変化量が大きく、かつ、大局的な輝度変化量と乖離する場合においても、当該小領域における輝度変化を補償できないため、その点においても符号化性能が低下するという問題があった。
本発明はかかる事情に鑑みてなされたものであって、最も低い空間解像度を有する基本レイヤと、それより高い空間解像度を有する一つ以上の拡張レイヤによって構成される空間スケーラブル符号化において、動き予測の被参照フレームの復号信号と符号化対象フレームの直下レイヤの復号信号との間の時間的な明るさ変化の情報に基づいた重み付き動き予測の重み係数を生成し、重み係数の情報を伝送することなく符号化器および復号器で同じ重み係数を用いた重み付き動き予測を行うスケーラブル符号化器および復号器の設計方法を確立することを目的とする。
〔1〕本発明の動画像スケーラブル符号化装置の構成
前記の目的を達成するために、本発明の動画像スケーラブル符号化装置は、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段を有し、前記手段は、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定するように構成する。
また、本発明の動画像スケーラブル符号化装置は、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報が画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する手段を有し、前記手段は、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定するように構成する。
また、本発明の動画像スケーラブル符号化装置は、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報が画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する手段を有し、前記手段は、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定するように構成する。
この構成を採るときに、算出手段は、直下画像領域において発生した動き予測の予測残差信号についても考慮することで精度の向上を図る場合には、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすようにしても良い。
また、この構成を採るときに、算出手段は、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、直流成分とみなす直流成分を算出するようにしても良い。
以上の各処理手段が動作することで実現される本発明の動画像スケーラブル符号化方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。
〔2〕本発明の動画像スケーラブル復号装置の構成
前記の目的を達成するために、本発明の動画像スケーラブル復号装置は、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する手段を有し、前記手段は、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定するように構成する。
また、本発明の動画像スケーラブル復号装置は、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報が画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する手段を有し、前記手段は、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定するように構成する。
また、本発明の動画像スケーラブル復号装置は、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成するという構成を採るときにあって、直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報が画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する手段を有し、前記手段は、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定するように構成する。
この構成を採るときに、算出手段は、直下画像領域において発生した動き予測の予測残差信号についても考慮することで精度の向上を図る場合には、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすようにしても良い。
また、この構成を採るときに、算出手段は、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、直流成分とみなす直流成分を算出するようにしても良い。
以上の各処理手段が動作することで実現される本発明の動画像スケーラブル復号方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。
本発明によれば、移動物体の影などによって画像内の一部の明るさが変化するような場合においても、復号処理に必要とするメモリと計算時間を節約しながら、重み係数を伝送しないImplicitモードによって精度の高い重み付き動き予測を実行することができるようになる。
そして、本発明によれば、従来ExplicitモードしかとることができなかったPスライスおよびBスライスのL0/L1予測といった片方向予測の場合においても、復号処理に必要とするメモリと計算時間を節約しながら、重み係数を伝送しないImplicitモードによって精度の高い重み付き動き予測を実行することができるようになる。
そして、本発明によれば、フラッシュを含む画像や非線形変化のフェード画像のような符号化/復号処理対象フレームと複数の予測参照フレームとの間の明るさ変化が非線形の画像においても、復号処理に必要とするメモリと計算時間を節約しながら、重み係数を伝送しないImplicitモードで精度の高い重み付き動き予測を実行することができるようになる。
以上のような重み付き動き予測の性能向上により、本発明によれば、符号化効率の向上が見込める。
フレーム間の明るさの変化を説明する図である。 予測性能が劣化する例を示す図である。 本発明の概念を説明する図である。 補正対象フレームおよび被補正フレームの説明図である。 特願2007-174161の発明における重み係数の算出方法の説明図である。 特願2007-174161の発明における重み係数の算出方法の説明図である。 同様に、特願2007-174161の発明における重み係数の算出方法の説明図である。 同様に、特願2007-174161の発明における重み係数の算出方法の説明図である。 本発明の概念を説明する図である。 同様に、本発明の概念を説明する図である。 本発明の有効性を検証するために行った実験の実験結果の説明図である。 本発明による符号化処理の実施例のフローチャートである。 本発明による復号処理の実施例のフローチャートである。 本発明による重み付き動き推定処理の実施例のフローチャートである。 本発明による重み付き動き補償処理の実施例のフローチャートである。 本発明による重み係数算出処理の実施例のフローチャートである。 本発明による直下ブロック直流成分推定処理の実施例のフローチャートである。 本発明による符号化装置の実施例の構成図である。 本発明による復号装置の実施例の構成図である。 本発明による重み付き動き推定部の実施例の構成図である。 本発明による重み付き動き補償部の実施例の構成図である。 本発明による重み係数算出部の実施例の構成図である。 本発明による直下ブロック直流成分推定部の実施例の構成図である。 H.264/AVCにおける重み付き動き予測の説明図である。
符号の説明
101 予測方法判定部
102 画面内予測部
103 重み無し動き予測部
104 レイヤ間予測部
105 重み付き動き推定部
106 重み付き動き補償部
107 予測残差信号生成部
108 予測残差信号符号化部
109 復号部
110 当該拡張レイヤ復号信号記憶部
111 直下レイヤ符号化情報記憶部
201 予測モード復号部
202 予測モード記憶部
203 予測方法判定部
204 画面内予測部
205 重み無し動き予測部
206 レイヤ間予測部
207 動きベクトル情報復号部
208 動きベクトル情報記憶部
209 重み付き動き補償部
210 直下レイヤ符号化情報記憶部
211 残差信号復号部
212 残差信号記憶部
213 復号信号生成部
214 当該拡張レイヤ復号信号記憶部
まず、本発明の概要について説明する。
ここでの説明では、説明の便宜上、画像領域に相当するものをブロックと記載し、画像領域の直流成分に相当するものを平均値と記載して説明する。
Implicitモードは、重み付き動き予測で必要となる重み係数を間接的に算出することで、余分な符号化情報を伝送しない方式である。したがって、算出される重み係数が明るさの変化を十分に反映するものであるならば、非常に効果的な手法となるが、それらが乖離すると予測性能が低下することになる。
非線形のフェード画像やフラッシュ画像では、フレーム間の明るさの変化が図1Aに示すように非線形となる。
このような場合に、予測参照信号に対して重み係数のみによる線形予測を行うと、図1Bに示すように予測性能が劣化する。
そこで、双予測における重み付き動き予測では、オフセット係数dを設けているが、前述したJSVCのImplicitモードでは、このオフセット係数dがゼロにセットされるため、乖離量がそのまま予測残差として表れてしまう。
一方、M×Nサイズの符号化対象ブロックの座標(m,n)における原信号をsmnと表し、双予測における2つの被参照ブロックの座標(m,n)における復号信号をy0 mn,y1 mn と表し、符号化対象ブロックに重み係数(w0,1,d)を割り当てると、重み係数(w0,1,d)により算出される重み付き予測信号と原信号の誤差eは、
mn=smn−(w0 0 mn+w1 1 mn+d)
となるので、符号化対象ブロックにおける予測誤差emnの総エネルギーEは、
E=Σm Σn (smn−(w0 0 mn+w1 1 mn+d))2
となる。
0,1 が図20と同じように与えられるとすると、この総エネルギーEを最小化するオフセット係数dは、「∂E/∂d=0」を解くことで、
d=<s>−w0 <y0 >−w1 <y1
<s> : 符号化対象ブロックの原信号の平均値
<y0 > : 被参照ブロックの復号信号の平均値
<y1 > : 被参照ブロックの復号信号の平均値
と求まる。
しかし、復号器では原信号を参照できない。そこで、本発明では、レイヤ間の平均値の保存性に着目して、図1Cに示すように、原信号の平均値<s>の代わりに、直下レイヤにおける符号化対象ブロックと空間的同位置に存在するブロック(直下ブロック)の復号信号の平均値<x>を用いて、オフセット係数dを、
d≒<x>−w0 <y0 >−w1 <y1
と求めるようにする。
しかるに、直下レイヤにおける符号化対象ブロックと空間的同位置に存在する直下ブロックの復号信号の平均値<x>を求めるには、直下レイヤの復号信号をすべて復号する必要があり、大きな容量のメモリが必要になるとともに、長い計算時間が必要になる。
そこで、本発明では、双予測における重み付き動き予測において、
d≒<x>−w0 <y0 >−w1 <y1
という算出式に従ってオフセット量を求めるときに、直下ブロックが動き予測の予測参照先とした直下レイヤ被参照ブロックを同定し、その直下レイヤ被参照ブロックと空間的同位置に存在する上位レイヤのブロックの復号信号の平均値に対して、直下ブロックが重み付き動き予測の際に利用した重み係数を演算したものを直下ブロックの復号信号の平均値とみなすことで、<x>を求めるようにしている。
直下ブロックが動き予測の予測参照先とした直下レイヤ被参照ブロックについては、直下レイヤのすべての信号を復号しなくても動きベクトルなどの一部の情報を復号することで特定可能であることから、本発明によれば、「大きな容量のメモリが必要になるとともに、長い計算時間が必要になる」という問題も起こらない。
また、重み係数w0,1 については、符号化対象ブロックと各被参照ブロックとの間のフレーム間距離に応じて算出されるものとなることで復号側でも求めることができるものであり、さらに、オフセット係数dについても、復号信号で算出できるようになることから復号側でも求めることができることになり、これにより、本発明によれば、重み係数を復号側に伝送する必要がない。
したがって、本発明によれば、双予測における重み付き動き予測において、Implicitモードを実現しつつ、フレーム間の明るさが非線形に変化するような場合にも、高精度の重み付き動き予測を、少ないメモリ容量で、かつ、短時間に実行することができるようになる。
なお、この本発明の技術思想は、片方向予測における重み付き動き予測にも適用できるものである。
すなわち、片方向予測における重み付き動き予測では、
(i)比例係数として、被参照ブロックの復号信号の平均値と符号化対象ブロックの原信号の平均値との比を用いるとともに、オフセット係数としてゼロを用いる、あるいは、
(ii)オフセット係数として、被参照ブロックの復号信号の平均値と符号化対象ブロックの復号信号の平均値との差を用いるとともに、比例係数として1を用いる
ことになる。
しかし、復号器では原信号を参照できない。そこで、本発明では、レイヤ間の平均値の保存性に着目して、符号化対象ブロックの原信号の平均値の代わりに、直下ブロックの復号信号の平均値を用いて、上述の比や差を求めるようにする。
しかるに、直下ブロックの復号信号の平均値を求めるには、直下レイヤの復号信号をすべて復号する必要があり、大きな容量のメモリが必要になるとともに、長い計算時間が必要になる。
そこで、本発明では、片方向予測における重み付き動き予測において、直下ブロックが動き予測の予測参照先とした直下レイヤ被参照ブロックを同定し、その直下レイヤ被参照ブロックと空間的同位置に存在する上位レイヤのブロックの復号信号の平均値に対して、直下ブロックが重み付き動き予測の際に利用した重み係数を演算したものを直下ブロックの復号信号の平均値とみなすことで、前述の比や差を求めるようにする。
直下ブロックが動き予測の予測参照先とした直下レイヤ被参照ブロックについては、直下レイヤの復号信号をすべて復号しなくても動きベクトルなどの一部の情報を復号することで特定可能であることから、本発明によれば、「大きな容量のメモリが必要になるとともに、長い計算時間が必要になる」という問題も起こらない。
また、重み係数については、復号信号で算出できるようになることから復号側でも求めることができるようになり、これにより、本発明によれば、重み係数を復号側に伝送する必要がない。
したがって、本発明によれば、片方向予測における重み付き動き予測においても、Implicitモードを実現しつつ、フレーム間の明るさが非線形に変化するような場合にも、高精度の重み付き動き予測を、少ないメモリ容量で、かつ、短時間に実行することができるようになる。
以下、実施の形態に従って本発明を詳細に説明する。
前述したように、H.264/AVCの重み付き動き予測はスライス単位で実行される。したがって、スライス内の一部に明るさ変化が発生する場合や、スライス内の明るさ変化が一様でない場合には、重み付き動き予測の予測性能は低下してしまう。移動物体の影などによって発生する明るさ変化などが、前記に該当する。JSVCもH.264/AVCの重み付き動き予測を継承しているため、前述と同じ問題に直面する。
仮に、スライスより細かいマクロブロックなどの単位で重み係数を算出し、重み付き動き予測を実行しようとすると、Explicitモードでは重み係数に要する符号量が甚大となってしまう。そのような場合には、Implicitモードで重み係数を算出することが望ましい。しかしながら、前述の通り、H.264/AVCの重み付き動き予測のImplicitモードの実装は、双予測を行うBスライスのみに限られている。
また、この重み付き動き予測のImplicitモードで算出される重み係数は、符号化対象フレームと2枚の被参照フレームにわたる明るさ変化が線形であるという仮定に基づくものであるため、それら3フレームにわたる明るさの時間的変化が非線形の場合には、適切な重み係数が算出されず、予測性能は低下してしまう。非線形に明るさが変化するフェード画像や、フラッシュを含む画像などが、前記に該当する。JSVCにおける重み付き動き予測は、H.264/AVCの重み付き動き予測がそのまま実装されているので前述と同じ問題に直面する。
このような事情に鑑みて、本発明者は、先に出願した特願2007-174161(平成19年7月2日出願)で、これらの問題を解決できるようにする新たな発明を出願した。
この特願2007-174161 で出願した発明では、符号化対象フレームの直下レイヤの復号信号を利用して重み係数を算出する。
次に、特願2007-174161 で出願した発明で導出した重み係数の算出方法について説明する。
特願2007-174161 で出願した発明では、以下の手順により、スケーラブル符号化の重み付き動き推定および重み付き動き補償に用いる重み係数を算出する。
従来のImplicitモードでは、一つのレイヤ内に閉じて、時間的な明るさの変化を被参照フレームからの距離に応じた内挿または外挿によって推定し、重み係数を算出している。
本発明(特願2007-174161)では、その時間的な明るさの変化の推定に、符号化/復号対象のレイヤの直下レイヤの復号信号の情報を用いることにより、その推定精度を向上させる。
手順の説明にあたり、説明に使用する記号を整理する。
当該拡張レイヤの符号化/復号処理対象フレーム(以降、補正対象フレーム)をf、PスライスまたはBスライスにおけるL0予測の重み付き動き推定/補償被参照フレーム(以降、被補正フレーム)をf0 、BスライスにおけるL1予測の被補正フレームをf1 とおく。また、補正対象フレームfと同時刻の直下レイヤのフレームをgとおく。
また、フレームfにおける符号化/復号処理対象ブロック(以降、補正対象ブロック)の座標(i,j)に代入される予測信号値をz(i,j)、また、フレームf0 における重み付き動き推定/補償被参照ブロック(以降、被補正ブロック)の座標(i,j)における復号信号値をy0 (i,j)とおく。また、フレームgにおけるフレームfの補正対象ブロックと空間的同位置に位置するブロックの座標(i,j)における復号信号値をx(i,j)とおく。
以上を図2に図示する。図2は、当該拡張レイヤと直下レイヤの解像度比が、縦横ともに2:1の場合の図である。なお、解像度比が2:1以外の場合にも、同様の処理が可能である。
また、フレームf0 における被補正ブロックの直流成分値をY0 、また、フレームgにおけるフレームfの補正対象ブロックと空間的同位置に位置するブロックの直流成分値をXとする。これらは、図2の場合、次のように算出される。
Figure 0005261774
《PスライスおよびL0/L1予測Bスライスにおける重み係数の算出方法》
PスライスおよびL0/L1予測を行うBスライスのような単一フレームの予測の場合、予測信号値z(i,j)は以下のようにして算出される。
・PスライスまたはL0予測Bスライスの場合
z(i,j)=w0 ・y0 (i,j)+d0
・L1予測Bスライスの場合
z(i,j)=w1 ・y1 (i,j)+d1 ・・・・ (3)式
本発明(特願2007-174161)では、この重み係数w0 とd0 、またはw1 とd1 の算出方法を2つ列挙する。
以降に記す算出方法の説明は、PスライスまたはL0予測Bスライスの場合を例にとっている。L1予測Bスライスの場合には、フレームf0 およびg0 に関わる要素をフレームf1 およびg1 に関わる要素に変更すればよい。
2つの算出方法は、以下の仮定に基づいている。フレームfとフレームgは同時刻の情報であるため、信号の明るさは近いと予想される。そこで、既知のフレームgの明るさ情報を利用し、被補正フレームf0 から補正対象フレームfの明るさ変化を間接的に予測する。
〔方法1−1〕単一フレーム予測における直流成分を用いた比例係数補正
本方法では、以下のように重み係数を算出する。
0 =X/Y0 ・・・・ (4)式
0 =0 ・・・・ (5)式
〔方法1−2〕単一フレーム予測における直流成分を用いたオフセット係数補正
本方法では、以下のように重み係数を算出する。
0 =1 ・・・・ (6)式
0 =X−Y0 ・・・・ (7)式
《双予測Bスライスにおける重み係数の算出方法》
双予測を行うBスライスでは、予測信号値z(i,j)は、以下のようにして算出される。
z(i,j)=w0 ・y0 (i,j)+w1 ・y1 (i,j)+d ・・(8)式
本発明(特願2007-174161)では、この重み係数w0 、w1 、dを以下のように算出する。
なお、この算出方法は、以下の仮定に基づいている。フレームfとフレームgは同時刻の情報であるため、信号の明るさは近いと予想される。そこで、既知のフレームgの明るさ情報を利用し、被補正フレームf0 およびf1 から補正対象フレームfの明るさ変化を間接的に予測する。
〔方法2−1〕双予測における直流成分ブロックを用いた重み係数補正
本方法では、以下のように重み係数を算出する。
0 =1−w1 ・・・・ (9)式
1 =tb /td ・・・・ (10)式
d=X−w0 ・Y0 −w1 ・Y1 ・・・・ (11)式
ここで、tb は、被補正フレームf0 から補正対象フレームまでのフレーム間距離、td は、被補正フレームf0 から被補正フレームf1 までのフレーム間距離を示している。
以上に説明した特願2007-174161 で出願した発明で導出した重み係数の算出方法についてまとめると、以下のようになる。
図3に示すように、当該レイヤlにおける時刻tのフレームの当該ブロックをBとし、その被参照ブロックをそれぞれB0 、B1 とする。B0 、B1 はそれぞれ当該レイヤlにおける時刻t−T0 のフレーム、および当該レイヤlにおける時刻t+T1 のフレームに属する。
ここで、片方向予測の場合の被参照フレームは時刻t−T0 のフレームのみとする。
また、直下レイヤl−1における当該ブロックBと空間的同位置にある時刻tのフレームのブロックをBa とする。以降、このBa を直下ブロックと呼ぶ。
ここで、被参照ブロックB0 内の復号信号の直流成分をR(l,t−T0 ,B0 )、被参照ブロックB1 内の復号信号の直流成分をR(l,t+T1 ,B1 )、直下ブロックBa 内の復号信号の直流成分R(l−1,t,Ba )とする。
各ブロックの直流成分は、ブロック内の画素集合に対して2次元FFTや2次元DCTなどを適用し生成する。
このとき、特願2007-174161 で出願した発明では、重み係数(w0 ,d0 )、もしくは(w0 ,w1 ,d)を以下のように定めている。
(片方向予測の場合)
*比例係数補正:前述の(4)(5)式による補正方法
0 =R(l−1,t,Ba )/R(l,t−T0 ,B0
0 =0 ・・・(12)式
または、
*オフセット係数補正:前述の(6)(7)式による補正方法
0 =1
0 =R(l−1,t,Ba )−R(l,t−T0 ,B0 )・・・(13)式
(双予測の場合)
*前述の(9)式〜(11)式による補正方法
0 =1−w1
1 =T0 /(T0 +T1
d=R(l−1,t,Ba )−w0 ・R(l,t−T0 ,B0
−w1 ・R(l,t+T1 ,B1 ) ・・(14)式
これにより、重み係数の情報を伝送しないImplicitモードの重み付き動き予測が片方向予測で実現される。片方向予測における重み係数算出の方法には、(12)式に挙げた比例係数補正方法と、(13)式に挙げたオフセット係数補正方法の2種類がある。
さらに、H.264/AVCの双予測のImplicitモードの予測性能も、(14)式のようにして改善される。
なお、本発明者は、この(14)式に係る発明については、「早瀬和也,坂東幸浩,高村誠之,上倉一人,八島由幸:“空間スケーラブル符号化におけるレイヤ間相関を利用した重み付き予測方式, ”FIT2007、第6回情報科学技術フォーラム, pp. 253-256, Sep. 2007.」で発表した。
(12)式に従って重み係数(w0 ,d0 )を求める片方向予測の比例係数補正について簡単に説明するならば、図4Aに示すように、重み係数w0 が、レイヤlの時刻t−T0 における復号信号の直流成分αとレイヤlの時刻tにおける原信号の直流成分βとの比で求められるものを、この内のレイヤlの時刻tにおける原信号の直流成分βを、レイヤl−1の時刻tにおける復号信号の直流成分β’で置き換えたものにするということを意味している。
ここで、この重み係数w0 については復号信号により算出することができることから、復号側に伝送する必要がないという特徴がある。
また、(13)式に従って重み係数(w0 ,d0 )を求める片方向予測のオフセット係数補正について簡単に説明するならば、図4Bに示すように、オフセット係数d0 が、レイヤlの時刻tにおける原信号の直流成分βとレイヤlの時刻t−T0 における復号信号の直流成分αとの差分で求められるものを、この内のレイヤlの時刻tにおける原信号の直流成分βを、レイヤl−1の時刻tにおける復号信号の直流成分β’で置き換えたものにするということを意味している。
ここで、このオフセット係数d0 については復号信号により算出することができることから、復号側に伝送する必要がないという特徴がある。
また、(14)式に従って重み係数(w0 ,d0 )を求める双予測のオフセット係数補正について簡単に説明するならば、図4Cに示すように、レイヤlの時刻t−T0 における復号信号の直流成分をα、レイヤlの時刻tにおける原信号の直流成分をβ、レイヤlの時刻t+T1 における復号信号の直流成分をγと表すならば、オフセット係数dが、“d=β−w0 ・α−w1 ・γ”で求められるものを、この内のレイヤlの時刻tにおける原信号の直流成分βを、レイヤl−1の時刻tにおける復号信号の直流成分β’で置き換えたものにするということを意味している。
ここで、このオフセット係数dについては復号信号により算出することができることから、復号側に伝送する必要がないという特徴がある。
一方、JSVCのようなマルチレイヤを成す符号化処理の復号の種類には、下位レイヤにおいて逆動き補償を必要とするmulti-loop decoding と、下位レイヤにおいて逆動き補償を必要としないsingle-loop decodingがある。一般的に、復号処理は簡便である必要がある。したがって、高負荷の逆動き補償は極力避けられるべき処理であり、single-loop decodingが求められる。
ここで、本明細書で言う逆動き補償とは、動きベクトルの指すブロックの復号信号を同定するまでの処理を言う。
しかるに、特願2007-174161 で出願した発明では、(2)式に示したように、直下レイヤの復号信号をすべて作成した上で、直下ブロックBa 内の復号信号の直流成分R(l−1,t,Ba )を算出する。したがって、復号処理はmulti-loop decoding となってしまい、改善の余地が残されている。
本発明は、このような事情に鑑みて、基本レイヤと一つ以上の拡張レイヤによって構成される空間スケーラブル符号化において、符号化対象フレームの直下レイヤの復号信号の直流成分を、動き予測の被参照フレームの復号信号と直下レイヤにおける動き補償に関する符号化情報のみから推定し、算出された符号化対象フレームの直下レイヤの復号信号の直流成分と動き予測の被参照フレームの復号信号の直流成分との間の関係性より重み付き動き予測の重み係数を生成することで、重み係数の情報を伝送することなく符号化器および復号器で同じ重み係数を用いた重み付き動き予測を行う新たなスケーラブル符号化器および復号器の設計方法の確立を目的とする。
本発明における重み付き動き予測の手順を以下に記す。
重み付き動き予測は、重み付き動き推定と重み付き動き補償の2つのステップにより構成される。
重み付き動き推定とは、処理対象フレームと動き予測参照フレームとの間の明るさ変化を補正しながら両フレーム間の動きを探索し、探索により検出された動き情報を動きベクトルとして出力する処理を指す。
重み付き動き補償とは、動きベクトル情報を読み込み、その動きベクトルの指す先の信号値に対して明るさ変化の補正を行い、補正された信号値を処理対象フレームにおける予測信号として出力する処理を指す。
符号化処理では、重み付き動き推定により動きベクトルを検出し、その動きベクトルを読み込み、重み付き動き補償を実行する。
一方、復号処理では、符号化情報を復号して動きベクトルを読み込み、重み付き動き補償を実行する。
重み係数の算出は、任意の画像領域単位で行うことができる。例としては、フレーム単位、スライス単位、マクロブロック単位、マクロブロックをさらに細かく分割した小ブロック単位、などが挙げられる。
本発明では当該レイヤについては重み係数の伝送が不要なため、重み付き動き予測に要するオーバヘッドは、どの画像領域単位であっても変わらない。したがって、小さい画像領域単位で重み係数の算出を行うほど、重み付き動き予測の予測性能は向上する。
ここでは、マクロブロック単位で重み係数の算出を行う場合を例に挙げて説明を進める。マクロブロック単位以外であっても、同様の処理により重み付き動き予測が可能である。
また、対象となる信号にも依らず、輝度信号であっても色差信号であっても同様に処理することが可能である。
〔重み付き動き推定〕
重み付き動き推定では、符号化対象フレームのマクロブロックごとに、推定被参照フレーム内で整合するマクロブロックを探索する。
この探索の際、探索対象マクロブロックが変更されるたびに、両フレームの当該ブロック間の明るさ変化を示す重み係数を算出し、その重み係数で探索対象マクロブロックの復号信号を補正したものを整合判定のための比較信号として活用する。
そして、整合すると判定されたマクロブロックが、動きベクトルの参照先となり、動き補償における被参照マクロブロックとなる。
整合の判定手段の一例としては、非特許文献1にあげた符号量と符号化歪み間のラグランジュコスト最小化による判定手段が挙げられる。
〔重み付き動き補償〕
重み付き動き補償では、まず、符号化/復号対象マクロブロックごとに、そのマクロブロックが有する動きベクトル情報を読み込む。
次に、その動きベクトルの指す先の被参照マクロブロックと符号化/復号対象マクロブロックとの間の明るさ変化を示す重み係数を算出する。
そして、その重み係数で被参照マクロブロックの復号信号を補正したものを、符号化/復号対象マクロブロックにおける予測信号として活用する。
〔重み係数の算出処理〕
典型的には、以下の手順により、スケーラブル符号化の重み付き動き推定および重み付き動き補償に用いる重み係数を算出する。
重み係数の算出式は、特願2007-174161 で出願した発明と同じく、当該ブロックが片方向予測の場合は前述した(12)式または式(13)式によって算出し、双予測の場合は前述した(14)式によって算出する。
ただし、各式に含まれる直下ブロックの復号信号直流成分R(l−1,t,Ba )の求め方が本発明と特願2007-174161 で出願した発明との間で異なる。
すなわち、特願2007-174161 で出願した発明では、直下レイヤをすべて復号し直交変換により直流成分を得ていたのに対し、本発明では、直下レイヤの復号を部分復号(画像信号を復号するまでの復号ではなくて、一部の符号化情報を復号するレベルの復号)にとどめ、その部分復号情報と当該レイヤの参照フレームの復号信号とから間接的に推定することによって得る。
部分復号にとどめることで逆動き補償を行う必要がなくなり、復号時間を削減できる。
具体的な手順の説明にあたり、説明に使用する記号を整理する。
図5に示すように、当該レイヤlにおける時刻tのフレームの当該ブロックをBとする。また、直下レイヤl−1における当該ブロックBの直下ブロックをBa とする。
また、直下ブロックBa の動き予測の被参照ブロックを、それぞれBb0、Bb1とする。Bb0、Bb1は、それぞれ当該レイヤlにおける時刻t−T0 のフレーム、および当該レイヤlにおける時刻t+T1 のフレームに属すると仮定する。
直下レイヤl−1の被参照ブロックBb0、Bb1の位置は、直下ブロックBa が持つ参照フレームインデクスと動きベクトルの符号化情報を復号することで得られる。
また、その直下レイヤl−1の被参照ブロックBb0、Bb1と空間的同位置にある当該レイヤlにおけるブロックを、それぞれBc0、Bc1とする。以降、これらBc0、Bc1を直上ブロックと呼ぶ。
ここで、ブロックBa 、Bb0、Bb1、Bc0、Bc1内の復号信号の直流成分を、それぞれR(l−1,t,Ba )、R(l−1,t−T0 ,Bb0)、R(l−1,t+T1 ,Bb1)、R(l,t−T0 ,Bc0)、R(l,t+T1 、Bc1)とする。
また、直下ブロックBa に含まれる予測残差信号の直流成分をE(l−1,t,Ba )とする。予測残差信号の直流成分E(l−1,t,Ba )は、直下ブロックBa が持つ予測残差信号の直流成分の符号化情報を復号することで得られる。
また、直下レイヤにおいて重み付き動き予測が行われている場合、直下ブロックBa と被参照ブロックBb0の間の重み係数を(w0',d0')、直下ブロックBa と被参照ブロックBb1の間の重み係数を(w1',d1')とする。
これらの重み係数(w0',d0')、(w1',d1')は、直下ブロックBa が持つ重み係数の符号化情報を復号することで得られる。
なお、本発明では、当該レイヤlについては重み係数を符号化する必要はないが、その直下レイヤl−1で重み係数を符号化する必要がないかどうかは、さらに、その下にレイヤがあるのか否かに依存する。
ここでは、説明の便宜上、重み係数(w0',d0')、(w1',d1')は、直下ブロックBa が持つ重み係数の符号化情報を復号することで得られるものとする。
次に、直下ブロックBaの予測方式について、画面内予測の場合、画面間予測であり片方向予測の場合、画面間予測であり双予測の場合、画面間予測でありブロック内に片方向予測領域と双予測領域が混在する場合の4つに分けて、直下ブロックBa の復号信号直流成分R(l−1,t,Ba )の求め方の違いを説明する。
(1)直下ブロックBa が画面内予測の場合
直下ブロックBa が画面内予測であり、かつその予測がConstrained Intra Predictionによるものである場合、直下ブロックBa 内の復号信号は逆動き補償を行うことなくすべて再構成できる。
ここで、Constrained Intra Predictionとは、非特許文献1に挙げたH.264および非特許文献2に挙げたJSVCで用いられる、隣接ブロックに画面内予測モードが存在しないときは当該ブロックは画面内予測モードをとることができないという制約が加えられた画面内予測方式の1種である。
この方式をとれば、画面内予測モードをとったブロックは当該フレーム内に閉じてブロック内の復号信号を再構成できるため、逆動き補償が必要なくなる。
したがって、直下ブロックBa が画面内予測であり、かつその予測がConstrained Intra Predictionの場合は、単純に直下ブロックBa 内の復号信号をすべて再構成し、その各信号値をもとに直流成分を算出すればよい。もし、Constrained Intra Predictionでない画面内予測の場合は、本発明は実施されない。
(2)直下ブロックBa が画面間予測であり、かつ片方向予測の場合
直下ブロックBa が片方向予測の場合、直下ブロックBa の復号信号直流成分R(l−1,t,Ba )を次のように推定することができる。
R(l−1,t,Ba )≒w0'・R(l−1,t−T0 ,Bb0
+d0'+E(l−1,t,Ba ) ・・(15)式
しかし、R(l−1,t−T0 ,Bb0)の情報は、直下レイヤの復号信号をすべて再構成せずには得ることができない。
そこで、
R(l−1,t−T0 ,Bb0)≒R(l,t−T0 ,Bc0) ・・・・(16)式
と仮定して、当該レイヤ内のブロックBb0の直上ブロックBc0の復号信号直流成分R(l,t−T0 ,Bc0)で代用する。
当該レイヤおよび直下レイヤの復号信号直流成分に含まれる量子化歪みが大きくなければ、この(16)式の仮定は一般的に成立する。
ブロックBc0の復号信号は、レイヤlのフレームt−T0 が当該フレームtの被参照フレームであれば、動き予測のためにバッファに保持されている。
したがって、(16)式により推定された値を、直下ブロックBa の復号信号直流成分の算出に用いることで、直下レイヤにおいて逆動き補償を行うことなく重み係数を算出できる。
これから、本発明では、次式のようにしてR(l−1,t,Ba )を推定する。
R(l−1,t,Ba )≒w0'・R(l,t−T0 ,Bc0
+d0'+E(l−1,t,Ba ) ・・(17)式
ここで、直下ブロックBa 内が複数の小ブロックで構成され、複数の動きベクトルを含んでいる場合がありうる。例えば、当該ブロックBが16×16サイズである場合は、直下ブロックBa は8×8サイズになる。JSVCでは、とりうるブロックサイズとして、4×4、4×8、8×4、8×8、8×16、16×8、16×16の7種類が用意されている。
これから、直下ブロックBa が8×8サイズの場合、最大4個の小ブロックを含む。
小ブロックを複数含む場合は、その各小ブロックの面積に応じて各小ブロック内の復号信号直流成分値を重み付けし、その総和を直下ブロックBa の復号信号直流成分R(l−1,t,Ba )とする。
複数の小ブロックで構成される場合の具体的な算出手順の一例を以下に記す。
図6に示すように、当該ブロックBが16×16サイズであり、直下ブロックBa に、4×4サイズの小ブロックが2つ、4×8サイズの小ブロックが1つ含まれると仮定する。ここで、各小ブロックを、Ba 0 、Ba 1 (それぞれ4×4サイズ)、Ba 2 (4×8サイズ)とおく。
また、小ブロックBa 0 、Ba 1 、Ba 2 の動き予測の被参照ブロックをそれぞれBb0 0 、Bb0 1 、Bb0 2 とし、その各被参照ブロックと空間的同位置にある当該レイヤにおける直上ブロックをBc0 0 、Bc0 1 、Bc0 2 とする。
また、小ブロックBa 0 、Ba 1 、Ba 2 に割り当てられる重み係数をそれぞれ、(w0 0' ,d0 0' )、(w0 1' ,d0 1' )、(w0 2' ,d0 2' )とする。
このとき、ブロックBa の復号信号直流成分R(l−1,t,Ba )は、以下のように算出する。
R(l−1,t,Ba )=(1/4)・〔w0 0' ・R(l,t−T0 ,Bc0 0
+d0 0' +E(l−1,t,Ba 0 )〕
+(1/4)・〔w0 1' ・R(l,t−T0 ,Bc0 1
+d0 1' +E(l−1,t,Ba 1 )〕
+(1/2)・〔w0 2' ・R(l,t−T0 ,Bc0 2
+d0 2' +E(l−1,t,Ba 2 )〕
・・・・(18)式
(3)直下ブロックBa が画面間予測であり、かつ双予測の場合
直下ブロックBa が双予測の場合、直下ブロックBa の復号信号直流成分R(l−1,t,Ba )は次のように推定することができる。
R(l−1,t,Ba )≒w0'・R(l−1,t−T0 ,Bb0
+w1'・R(l−1,t+T1 ,Bb1
+(1/2)・(d0'+d1')+E(l−1,t,Ba
・・・・(19)式
しかし、片方向予測の場合と同様に、R(l−1,t−T0 ,Bb0)およびR(l−1,t+T1 ,Bb1)の情報は、直下レイヤの復号信号すべてを復号せずには得ることができない。
そこで、
R(l−1,t−T0 ,Bb0)≒R(l,t−T0 ,Bc0
R(l−1,t+T1 ,Bb1)≒R(l,t+T1 ,Bc1) ・・・・(20)式
と仮定して、当該レイヤ内のブロックBb0、Bb1の直上ブロックBc0、Bc1の復号信号直流成分R(l,t−T0 ,Bc0)およびR(l,t+T1 ,Bc1)で代用する。
当該レイヤおよび直下レイヤの復号信号直流成分に含まれる量子化歪みが大きくなければ、この(20)式の仮定は一般的に成立する。
これから、本発明では、次式のようにしてR(l−1,t,Ba )を推定する。
R(l−1,t,Ba )≒w0'・R(l,t−T0 ,Bc0
+w1'・R(l,t+T1 ,Bc1
+(1/2)・(d0'+d1')+E(l−1,t,Ba
・・・・(21)式
ここで、片方向予測の場合と同様に、ブロックBa 内が複数の小ブロックで構成され、複数の動きベクトルを含んでいる場合がありうる。
このときは、片方向予測の場合と同様に、各小ブロックの面積に応じて各小ブロック内の直流成分値を重み付けし、その総和を直下ブロックBa の復号信号直流成分R(l−1,t,Ba )とする。
例えば、当該ブロックBが16×16サイズであり、直下ブロックBa に、4×4サイズの小ブロックが2つ、4×8サイズの小ブロックが1つ含まれると仮定する。ここで、各小ブロックを、Ba 0 、Ba 1 、Ba 2 とおく。
また、小ブロックBa 0 、Ba 1 、Ba 2 の双予測の被参照ブロックをそれぞれBb0 0 、Bb0 1 、Bb0 2 、Bb1 0 、Bb1 1 、Bb1 2 とし、その各被参照ブロックと空間的同位置にある当該レイヤにおける直上ブロックをBc0 0 、Bc0 1 、Bc0 2 、Bc1 0 、Bc1 1 、Bc1 2 とする。
また、小ブロックBa 0 、Ba 1 、Ba 2 に割り当てられる重み係数をそれぞれ、(w0 0' ,d0 0' )、(w1 0' ,d1 0' )、(w0 1' ,d0 1' )、(w1 1' ,d1 1' )、(w0 2' ,d0 2' )、(w1 2' ,d1 2' )とする。
このとき、ブロックBa の復号信号直流成分R(l−1,t,Ba )は、以下のように算出する。
Figure 0005261774
(4)直下ブロックBa に片方向予測と双予測が混在する場合
ブロックBa 内の複数の小ブロック(例:4×4)は、それぞれ独立に片方向予測か双予測をとることが可能である。このときは、(2)および(3)と同様の手順で、各小ブロックの面積に応じて直流成分値を重み付けし、その総和をブロックBa の復号信号直流成分R(l−1,t,Ba )とする。
以下、(2)および(3)と同様、当該ブロックBが16×16サイズであり、直下ブロックBa に、4×4サイズの小ブロックが2つ(Ba 0 、Ba 1 )、4×8サイズの小ブロックが1つ(Ba 2 )含まれると仮定する。
ここで、Ba 0 およびBa 2 は片方向予測、Ba 1 は双予測とする。そして、小ブロックBa 0 、Ba 2 の片方向予測の被参照ブロックをそれぞれBb0 0 、Bb0 2 とし、小ブロックBa 1 の双予測の被参照ブロックをそれぞれBb0 1 、Bb1 1 とする。
その各被参照ブロックと空間的同位置にある当該レイヤにおける直上ブロックをBc0 0 、Bc0 2 、Bc0 1 、Bc1 1 とする。
また、小ブロックBa 0 、Ba 1 、Ba 2 に割り当てられる重み係数をそれぞれ、(w0 0' ,d0 0' )、(w0 1' ,d0 1' )、(w1 1' ,d1 1' )、(w0 2' ,d0 2' )とする。
このとき、ブロックBa の復号信号直流成分R(l−1,t,Ba )は、以下のように算出する。
Figure 0005261774
上述のように、本発明は、直下ブロックBa が画面内予測であり、かつその予測がConstrained Intra Predictionを利用していない場合には実施されない。また、予測参照ブロックBb0、Bb1の直上ブロックBc0、Bc1の復号信号が動き予測のためのバッファに格納されていない場合にも、実施されない。
本発明が実施されない場合は、その他の予測方式を用いて符号化を行う。例えば、JSVCの重み付き動き予測、重みなしの通常の動き予測、画面内予測、がこれにあたる。
また、直下レイヤが画面間予測を行っている場合において、直下レイヤにおける重み付き動き予測が非常に高性能であれば、直下ブロックBa の予測残差信号の直流成分E(l−1,t,Ba )は、ほぼゼロになる。
このような場合には、この予測残差信号の直流成分を考慮する必要はない。考慮しなければ、予測残差信号の直流成分の復号は省略できるため、さらに復号に使用するメモリおよび計算量を節約できる。したがって、メモリと計算量の削減を重視する場合には、予測残差信号の直流成分の加算は行わなくてもよい。
次に、JSVCの参照エンコーダJSVM8.0に本発明を実装し、片方向予測における本発明による比例係数補正を行うWP(Weighted Prediction)とオフセット係数補正を行うWPの符号化性能を検証した実験について説明する。
この実験では、基本レイヤはJSVMのWPを用いて符号化し、拡張レイヤに本発明のWPを適用することで行った。性能検証は、拡張レイヤにJSVMのWPを適用した場合と、本発明のWPを適用した場合のレート歪み特性によって評価した。
JSVC標準画像のCity,Soccer,Foremanの3映像を用い、各映像の先頭33フレームに白の線形フェードを混合した。
フェードの種類はフェードイン/アウトの2種類を実験対象とし、このフェード混合部分の33フレームを符号化対象フレームとした。
基本レイヤに30fps のQCIF(176×144画素の画像サイズ)画像、拡張レイヤに30fps のCIF(352×288画素の画像サイズ)画像を入力し、ピクチャタイプはIPPP形式とした。
量子化パラメータは21,24,27,30の4種類を試し、基本レイヤと拡張レイヤで同じ値を適用した。
動き探索は整数精度のみとし、全検索を行った。
表2に、JSVMのWPに対する、本発明を適用したことによる符号量の削減結果を示す。最大6.38%の符号量削減を実現している。全体的に、フェードアウト映像において削減効果が大きいことが分かる。
Figure 0005261774
図7に、最大削減率を実現したCity のフェードアウト映像における、各手法のそれぞれについてPSNR(Peak Signal to Noise Ratio)およびビットレートを求めて、それらを比較した(“Y−PSNR”は、輝度信号のPSNRを示す)。
この図より、本発明の手法がレートによらず符号量の削減を実現できていることが分かる。
比例係数補正とオフセット係数補正を比較すると、フェードイン映像ではほとんど両者に差がみられないが(図示略)、フェードアウト映像ではオフセット係数補正の方が効果が大きいことが分かる。
上記性能検証において、フェードアウト映像においてオフセット係数補正によるWPは、平均4.39%の符号量削減率を実現した。
本実験は、片方向予測における符号化特性を示したものであるが、双予測においても同様の性能向上が見込める。
次に、実施例に従って本発明を詳細に説明する。
〔処理の流れ〕
〔符号化処理の実施例〕
本発明による符号化処理の実施例について、図8を参照して説明する。
説明する実施例は、一つのマクロブロックに対する符号化処理である。これをすべてのマクロブロックに対して実施することによって、全体の符号化情報が構成される。
ステップS101:当該拡張レイヤの当該マクロブロックが、重み付き動き予測の対象マクロブロックであるか否かの判定処理を行い、真の場合はステップS103の処理を行い、偽の場合はステップS102の処理を行う。
ステップS102:ステップS101の処理で出力された当該マクロブロックの予測モード情報にしたがって予測信号の生成を行う。
ここでの予測方式には、画面内予測、重み無しの通常の動き予測、およびレイヤ間予測が挙げられる。各方式の予測方法の一例としては、非特許文献3に挙げたJSVMにおける予測方法が挙げられる。
ステップS103:当該マクロブロックに対して、当該マクロブロックの原信号、(被参照フレーム内の)探索対象マクロブロックの復号信号および直下レイヤの符号化情報を読み込み、重み付き動き推定を行い、動きベクトル情報を出力する。本処理の詳細は図10に示す(後述)。
ステップS104:ステップS103の処理で出力された動きベクトル情報および直下レイヤの符号化情報を読み込み、重み付き動き補償を行い、重み付き動き予測信号を出力する。本処理の詳細は図11に示す(後述)。
ステップS105:ステップS102またはステップS104の処理によって出力された予測信号を読み込み、当該マクロブロックの原信号との差分信号を生成し、その差分信号の符号化を行う。
この差分信号の符号化処理の一例としては、非特許文献3に挙げたJSVMにおける符号化処理が挙げられる。
〔復号処理の実施例〕
本発明による復号処理の実施例について、図9を参照して説明する。
説明する実施例は、一つのマクロブロックに対する復号処理である。これをすべてのマクロブロックに対して実施することによって、全体の復号信号が構成される。
ステップS201:当該拡張レイヤの当該マクロブロックの予測モードに関する符号化情報を読み込み、復号処理を行い、予測モード情報を出力する。
ステップS202:当該拡張レイヤの当該マクロブロックが、重み付き動き予測の対象マクロブロックであるか否かの判定処理を行い、真の場合はステップS204の処理を行い、偽の場合はステップS203の処理を行う。
ステップS203:ステップS201の処理で出力された当該マクロブロックの予測モード情報にしたがって予測信号の生成を行う。ここでの予測方式には、画面内予測、重み無しの通常の動き予測、およびレイヤ間予測が挙げられる。
ステップS204:当該マクロブロックの動きベクトルに関する符号化情報を読み込み、復号処理を行い、動きベクトル情報を出力する。
ステップS205:ステップS204の処理で出力された動きベクトル情報および直下レイヤの符号化情報を読み込み、重み付き動き補償を行い、重み付き動き予測信号を出力する。本処理の詳細は図11に示す(後述)。
ステップS206:ステップS203またはステップS205の処理によって出力された予測信号を読み込み、復号された予測残差信号と加算して復号信号を構成し、出力する。
〔ステップS103の処理の詳細〕
本発明による重み付き動き推定処理(ステップS103の処理)の実施例について、図10を参照して説明する。
ステップS301:直下レイヤの符号化情報および現在の探索対象マクロブロックの復号信号を読み込み、探索対象マクロブロックに施す重み係数を算出し、出力する。本処理の詳細は図12に示す(後述)。
ステップS302:ステップS301の処理によって出力された重み係数情報を読み込み、現在の探索対象マクロブロックの復号信号をその重み係数によって重み付けし、その重み付けされた信号値を出力する。
ステップS303:ステップS302の処理によって出力された信号値と当該マクロブロックの原信号との間の、符号量と符号化歪み量とによって構成される符号化コストを算出し、出力する。
この符号化コストの一例には、非特許文献3に挙げたJSVMにおける、符号量と二乗誤差による符号化歪みとの間のラグランジュコストが挙げられる。
ステップS304:探索すべき全てのマクロブロックに対して探索を行ったかどうかの判定処理を行い、真の場合はステップS306の処理を行い、偽の場合はステップS305の処理を行う。
ステップS305:次の探索対象マクロブロックに処理対象を移す。
ステップS306:ステップS303の処理によって出力された符号化コストの情報を読み込み、探索したマクロブロックの中で符号化コストが最小となるマクロブロックを選定し、そのマクロブロックと当該マクロブロックとの座標位置の差分を動きベクトルとして出力する。
〔ステップS104,ステップS205の処理の詳細〕
本発明による重み付き動き補償処理(ステップS104,ステップS205の処理)の実施例について、図11を参照して説明する。
ステップS401:当該マクロブロックの動きベクトル情報を読み込み、出力する。この動きベクトル情報は、符号化処理における重み付き動き補償の場合には、重み付き動き推定の出力から読み込まれ、復号処理における重み付き動き補償の場合には、動きベクトルの復号処理の出力から読み込まれる。
ステップS402:直下レイヤの符号化情報およびステップS401の処理によって出力された動きベクトル情報を読み込み、動きベクトルの指す被参照マクロブロックに施す重み係数を算出し、出力する。本処理の詳細は図12に示す(後述)。
ステップS403:ステップS402の処理によって出力された重み係数情報を読み込み、被参照マクロブロックの復号信号をその重み係数によって重み付けし、その重み付けされた信号値を出力する。
〔ステップS301,ステップS402の処理の詳細〕
本発明による重み係数算出処理(ステップS301,ステップS402の処理)の実施例について、図12を参照して説明する。
ステップS501:直下レイヤの符号化情報を読み込み、当該マクロブロックの直下ブロックの予測モードが画面内予測であるか否かの判定処理を行い、真の場合はステップS504の処理を行い、偽の場合はステップS502の処理を行う。
ステップS502:直下ブロックが動き予測で参照した被参照ブロックの直上ブロックの復号信号が、動き予測のためにバッファに格納されているか否かの判定処理を行い、真の場合はステップS503の処理を行い、偽の場合はステップS512の処理を行う。
ステップS503:直下レイヤの符号化情報および当該レイヤの被参照フレームの復号信号を読み込み、直下ブロックの直流成分の値を推定し、出力する。本処理の詳細は図13に示す(後述)。
ステップS504:直下レイヤの符号化情報を読み込み、当該マクロブロックの直下ブロックの画面内予測がConstrained Intra Predictionであるか否かの判定処理を行い、真の場合はステップS505の処理を行い、偽の場合はステップS512の処理を行う。
ステップS505:直下レイヤの符号化情報を読み込み、直下ブロックの復号処理を行い、ブロック内のすべての信号を再構成し、バッファに出力する。
ステップS506:バッファより直下ブロック内の復号信号を読み込み、直下ブロックの復号信号の直流成分を算出し、レジスタに出力する。
ステップS507:当該マクロブロックの予測モード情報を読み込み、予測モードが片方向予測であるか否かの判定処理を行い、真の場合はステップS508の処理を行い、偽の場合はステップS511の処理を行う。
ステップS508:外部より指定される重み係数算出方法が比例係数補正型であるか否かの判定処理を行い、真の場合はステップS509の処理を行い、偽の場合はステップS510の処理を行う。
ここで、比例係数補正型とは、前述の(12)式にしたがって実施される重み係数の算出方法を指す。
一般的に、比例係数補正型は、白フェードイン映像や黒フェードアウト映像で主に効果を発揮し、これに対して、前述の(13)式にしたがって実施される重み係数の算出方法であるオフセット係数補正型は、白フェードアウト映像や黒フェードイン映像で主に効果を発揮する。
したがって、外部からの重み係数算出方法の指定情報は、フェードタイプの判定結果にしたがって定められるのが望ましい。
ステップS509:ステップS503の処理より推定された直下ブロックの直流成分または、ステップS506の処理より算出された直下ブロックの直流成分のいずれかの値を読み込み、その直流成分値と被参照ブロックの直流成分値との比を比例係数として定め、オフセット係数を0に定め、出力する。本処理は、前述の(12)式にしたがう。
ステップS510:ステップS503の処理より推定された直下ブロックの直流成分または、ステップS506の処理より算出された直下ブロックの直流成分のいずれかの値を読み込み、その直流成分値と被参照ブロックの直流成分値との差をオフセット係数として定め、比例係数を1に定め、出力する。本処理は、前述の(13)式にしたがう。
ステップS511:被参照ブロックと当該ブロックとのフレーム間距離の情報を読み込み、それらの比を比例係数として定め、ステップS503の処理より推定された直下ブロックの直流成分または、ステップS506の処理より算出された直下ブロックの直流成分のいずれかの値を読み込み、その直流成分値と2つの被参照ブロックの直流成分値に対して前述の比例係数を演算した値との差をオフセット係数として定め、出力する。本処理は、前述の(14)式にしたがう。
ステップS512:直下ブロックの推定直流成分を参照しない重み係数算出方法を実施する。
例としては、非特許文献3に挙げたJSVMにおけるImplicitモードもしくはExplicitモードによる重み係数の算出方法が考えられる。
〔ステップS503の処理の詳細〕
本発明による直下ブロック直流成分の推定処理(ステップS503の処理)の実施例について、図13を参照して説明する。
ステップS601:当該直下ブロックの小ブロックの分割情報に関する符号化情報を読み込み、その復号を行い、当該直下ブロックの小ブロックの分割構造を同定する。
ステップS602:当該小ブロックの参照フレームインデクスに関する符号化情報を読み込み、その復号を行い、レジスタに書き込む。
ステップS603:当該小ブロックの動きベクトルに関する符号化情報を読み込み、その復号を行い、レジスタに書き込む。
ステップS604:当該小ブロックの重み係数に関する符号化情報を読み込み、その復号を行い、レジスタに書き込む。
ステップS605:当該小ブロックの予測残差信号の直流成分に関する符号化情報を読み込み、その復号を行い、レジスタに書き込む。
ステップS606:ステップS602の処理およびステップS603の処理より出力された参照フレームインデクスおよび動きベクトルの情報をレジスタより読み込み、当該小ブロックの動き予測の被参照ブロックの位置を同定する。
ステップS607:ステップS606の処理において同定された被参照ブロックの直上ブロックの復号信号を読み込み、その復号信号の直流成分を算出し、その直流成分値をレジスタに書き込む。
ステップS608:ステップS607の処理において算出された直流成分値をレジスタより読み込み、それにステップS604の処理より算出された重み係数を用いて重み付けを行い、その値をレジスタに書き込む。
ステップS609:ステップS608の処理において算出された重み付けされた直流成分値をレジスタより読み込み、それにステップS605の処理より算出された予測残差信号の直流成分値を加算し、その値を当該小ブロックの直流成分の推定値としてみなし、レジスタに書き込む。
ステップS610:すべての小ブロックに対して直流成分の推定処理を完了したか否かの判定処理を行い、真の場合はステップS611の処理を行い、偽の場合はステップS612の処理を行う。
ステップS611:ステップS609の処理において算出された各小ブロックの推定直流成分値を読み込み、当該直下ブロックにおける各小ブロックの面積比に応じて各小ブロックの推定直流成分値を重み付けし、その重み付け和を当該直下ブロックの直流成分の推定値としてみなし、出力する。
ステップS612:次の直流成分の推定対象小ブロックに処理対象を移す。
〔処理装置〕
〔符号化装置の実施例〕
本発明による符号化装置の実施例について、図14を参照して説明する。図14は、一つのマクロブロックに対する符号化を行う装置の図である。
予測方法判定部101:当該マクロブロックの予測方式の指定情報を読み込み、その指定情報にしたがって、各予測部での処理に移る。
指定された予測方式が画面内予測であれば画面内予測部102の処理に、重みを付けない通常の動き予測であれば重み無し動き予測部103の処理に、レイヤ間予測であればレイヤ間予測部104の処理に、重み付き動き予測であれば重み付き動き推定部105の処理に移る。
画面内予測部102:符号化対象フレームの、対象となる原信号および復号信号を読み込み、画面内予測を実行し予測信号を作成し、その予測信号を予測残差信号生成部107に出力する。
画面内予測の方法の一例としては、非特許文献3にあげたJSVMの画面内予測が挙げられる。
重み無し動き予測部103:符号化対象フレームの対象となる原信号および被参照フレームの対象となる復号信号を読み込み、重みを付けない通常の動き予測を実行し予測信号を作成し、その予測信号を予測残差信号生成部107に出力する。
重み無しの通常の動き予測の方法の一例としては、非特許文献3にあげたJSVMの重み無しの通常の動き予測が挙げられる。
レイヤ間予測部104:符号化対象フレームの、対象となる原信号および直下レイヤの符号化情報を読み込み、レイヤ間予測を実行し予測信号を作成し、その予測信号を予測残差信号生成部107に出力する。
レイヤ間予測の方法の一例としては、非特許文献3にあげたJSVMのレイヤ間予測が挙げられる。
重み付き動き推定部105:符号化対象フレームの、対象となる原信号、当該拡張レイヤ復号信号記憶部110から出力される被参照フレームの復号信号、および、直下レイヤ符号化情報記憶部111から出力される直下レイヤの符号化情報を読み込み、重み付き動き推定を実行し、動きベクトルを生成し、その動きベクトル情報を重み付き動き補償部106に出力する。重み付き動き推定部105の詳細構成は図16に示す(後述)。
重み付き動き補償部106:当該拡張レイヤ復号信号記憶部110から出力される被参照フレームの復号信号、および、直下レイヤ符号化情報記憶部111から出力される直下レイヤの符号化情報を読み込み、重み付き動き補償を実行し、予測信号を生成し、その予測信号を予測残差信号生成部107に出力する。重み付き動き補償部106の詳細構成は図17に示す(後述)。
予測残差信号生成部107:符号化対象フレームの対象となる原信号、および、画面内予測部102または、重み無し動き予測部103または、レイヤ間予測部104または、重み付き動き補償部106より出力された予測信号を読み込み、原信号と予測信号の差分信号を生成し、予測残差信号符号化部108に出力する。
予測残差信号符号化部108:予測残差信号生成部107より出力された予測残差信号を読み込み、符号化処理を行い、符号化情報として出力する。
また、同時に、その符号化情報は復号部109への入力のために、バッファに出力しておく。
この予測残差信号の符号化処理の一例としては、非特許文献3にあげたJSVMの直交変換、量子化、可変長符号化の一連のプロセスの適用が挙げられる。
復号部109:当該バッファより符号化情報を読み込み、復号処理を行い、得られた復号信号を当該拡張レイヤ復号信号記憶部110に出力する。
この復号処理には、本発明による復号処理を適用する。復号部109として機能する復号装置の詳細構成は図15に示す(後述)。
直下レイヤ符号化情報記憶部111:直下レイヤの符号化情報を読み込み、バッファに出力する。
〔復号装置の実施例〕
本発明による復号装置の実施例について、図15を参照して説明する。図15は、当該拡張レイヤにおける一つのマクロブロックに対する復号を行う装置の図である。
予測モード復号部201:当該マクロブロックの予測モードに関する符号化情報を読み込み、その復号処理を行い、予測モード情報を予測モード記憶部202に出力する。
予測方法判定部203:予測モード記憶部202より予測モード情報を読み込み、その指定情報にしたがって、各予測部での処理に移る。
指定された予測方式が画面内予測であれば画面内予測部204の処理に、重みを付けない通常の動き予測であれば重み無し動き予測部205の処理に、レイヤ間予測であればレイヤ間予測部206の処理に、重み付き動き予測であれば動きベクトル情報復号部207の処理に移る。
画面内予測部204:符号化対象フレームの、対象となる原信号および復号信号を読み込み、画面内予測を実行し予測信号を作成し、その予測信号を復号信号生成部213に出力する。
重み無し動き予測部205:符号化対象フレームの対象となる原信号および被参照フレームの対象となる復号信号を読み込み、重みを付けない通常の動き予測を実行し予測信号を作成し、その予測信号を復号信号生成部213に出力する。
レイヤ間予測部206:符号化対象フレームの、対象となる原信号および直下レイヤの符号化情報を読み込み、レイヤ間予測を実行し予測信号を作成し、その予測信号を復号信号生成部213に出力する。
動きベクトル情報復号部207:当該マクロブロックの動きベクトルに関する符号化情報を読み込み、その復号処理を行い、動きベクトル情報を動きベクトル情報記憶部208に出力する。
重み付き動き補償部209:当該拡張レイヤ復号信号記憶部214から出力される被参照フレームの復号信号、および、直下レイヤ符号化情報記憶部210から出力される直下レイヤの符号化情報を読み込み、重み付き動き補償を実行し、予測信号を生成し、その予測信号を復号信号生成部213に出力する。重み付き動き補償部209の詳細構成は図17に示す(後述)。
直下レイヤ符号化情報記憶部210:直下レイヤの符号化情報を読み込み、バッファに出力する。
残差信号復号部211:当該マクロブロックの残差信号に関する符号化情報を読み込み、その復号処理を行い、残差信号を残差信号記憶部212に出力する。
復号信号生成部213:画面内予測部204または、重み無し動き予測部205または、レイヤ間予測部206または、重み付き動き補償部209より出力された予測信号を読み込み、それらと残差信号記憶部212より読み込まれる残差信号とを合成し、復号信号を生成し、出力する。
また、同時に、その復号信号を当該拡張レイヤ復号信号記憶部214に書き込む。
〔重み付き動き推定部105の構成の詳細〕
本発明による重み付き動き推定部105の実施例について、図16を参照して説明する。図16は、当該拡張レイヤにおける一つのマクロブロックに対して重み付き動き推定を行う装置の図である。
探索対象ブロック設置部301:当該拡張レイヤの被参照フレームの復号信号を読み込み、動き推定の探索対象となるマクロブロックを同定し、そのマクロブロックの復号信号を重み係数算出部302に出力する。
重み係数算出部302:探索対象ブロック設置部301より出力された探索対象マクロブロックの復号信号、および、直下レイヤの符号化情報を読み込み、探索対象マクロブロックに施す重み係数を算出し、重み係数記憶部303に出力する。
重み付き動き推定信号生成部304:重み係数記憶部303より重み係数を読み込み、当該探索対象マクロブロックの復号信号を重み係数によって重み付けし、その重み付けされた信号を重み付き動き推定信号記憶部305に出力する。
符号化コスト算出部306:当該マクロブロックの原信号をバッファより読み込み、重み付き動き推定信号記憶部305より重み付き動き推定信号を読み込み、当該マクロブロックの原信号との間の、符号量と符号化歪み量によって構成される符号化コストを算出し、その符号化コストを符号化コスト記憶部307に出力し、探索完了判定部308の処理に移る。
この符号化コストの一例には、非特許文献3に挙げたJSVMにおける、符号量と二乗誤差による符号化歪みとの間のラグランジュコストが挙げられる。
探索完了判定部308:当該マクロブロックにおける被参照フレーム内での重み付き動き推定の探索が、指定されたすべての探索範囲内の候補について行われた否かの判定処理を行い、真の場合には被参照ブロック決定部309の処理に移り、偽の場合には探索対象ブロック設置部301の処理に移る。
被参照ブロック決定部309:符号化コスト記憶部307よりすべての探索対象マクロブロックについての符号化コストデータ群を読み込み、符号化コストを最小とする探索対象マクロブロックを被参照ブロックとして決定し、その被参照ブロックと当該マクロブロックの座標位置の差分を動きベクトル情報として出力する。
〔重み付き動き補償部106,209の構成の詳細〕
本発明による重み付き動き補償部106,209の実施例について、図17を参照して説明する。図17は、当該拡張レイヤにおける一つのマクロブロックに対して重み付き動き補償を行う装置の図である。
被参照ブロック信号設置部401:被参照フレームの復号信号および動きベクトル情報を読み込み、被参照マクロブロックを同定し、そのマクロブロックの復号信号を重み係数算出部402に出力する。
この動きベクトル情報は、本重み付き動き補償部が符号化装置内に設置されている場合(すなわち、重み付き動き補償部106の場合)には重み付き動き推定部105より与えられ、本重み付き動き補償部部が復号装置内に設置されている場合(すなわち、重み付き動き補償部209の場合)には動きベクトル情報復号部207より与えられる。
重み係数算出部402:被参照ブロック信号設置部401より出力された被参照マクロブロックの復号信号、および、直下レイヤの符号化情報を読み込み、被参照マクロブロックに施す重み係数を算出し、重み係数記憶部403に出力する。
重み付き動き予測信号生成部404:重み係数記憶部403より重み係数を読み込み、被参照ブロックの復号信号を重み係数によって重み付けし、その重み付けされた信号を重み付き動き予測信号記憶部405に出力する。
〔重み係数算出部302,402の構成の詳細〕
上述の重み係数算出部302,402の実施例について、図18を参照して説明する。図18は、当該拡張レイヤにおける一つのマクロブロックに対して重み係数を算出する装置の図である。
直下ブロック予測モード判定部501:直下レイヤの符号化情報を読み込み、当該マクロブロックの直下ブロックの予測モードの判定処理を行い、(i) 同予測モードが画面内予測であり、かつその予測がConstrained Intra Predictionである場合には、直下ブロック内信号復号部505の処理に移り、(ii) 同予測モードが画面内予測であり、かつその予測がConstrained Intra Predictionでない場合には、直下ブロック推定直流成分非参照重み係数算出部512の処理に移り、(iii) 同予測モードが画面間予測の場合には、直下ブロック予測参照先直上復号信号バッファリング判定部502の処理に移る。
直下ブロック予測参照先直上復号信号バッファリング判定部502:直下ブロックが参照する予測参照ブロックの直上ブロックの復号信号がバッファリングされているか否かの判定処理を行い、真の場合は直下ブロック直流成分推定部503の処理に移り、偽の場合は直下ブロック推定直流成分非参照重み係数算出部512の処理に移る。
直下ブロック直流成分推定部503:直下レイヤの符号化情報および当該レイヤの被参照フレームの復号信号を読み込み、直下ブロックの直流成分の値を推定し、直下ブロック推定直流成分記憶部504に出力する。直下ブロック直流成分推定部503の詳細構成は図19に示す(後述)。
直下ブロック内信号復号部505:直下レイヤの符号化情報を読み込み、直下ブロック内の復号信号をすべて再構成し、その復号信号を直下ブロック直流成分算出部506に出力する。
直下ブロック直流成分算出部506:直下ブロック内信号復号部505より直下ブロック内の復号信号を読み込み、直下ブロック内の復号信号の直流成分を算出し、当該マクロブロック予測モード判定部507に移る。
当該マクロブロック予測モード判定部507:当該マクロブロックの予測モード情報を読み込み、予測モードが片方向予測であるか否かの判定処理を行い、真の場合は重み係数算出方法判定部508の処理に移り、偽の場合は双予測重み係数算出部509の処理に移る。
重み係数算出方法判定部508:外部より指定される重み係数算出方法が比例係数補正型であるか否かの判定処理を行い、真の場合は片方向予測比例係数補正型重み係数算出部510の処理に移り、偽の場合は片方向予測オフセット係数補正型重み係数算出部511の処理を行う。
ここで、比例係数補正型とは、前述の(12)式にしたがって実施される重み係数の算出方法を指す。
一般的に、比例係数補正型は、白フェードイン映像や黒フェードアウト映像で主に効果を発揮し、これに対して、前述の(13)式にしたがって実施される重み係数の算出方法であるオフセット係数補正型は、白フェードアウト映像や黒フェードイン映像で主に効果を発揮する。
したがって、外部からの重み係数算出方法の指定情報は、フェードタイプの判定結果にしたがって定められるのが望ましい。
双予測重み係数算出部509:被参照ブロックと当該ブロックとのフレーム間距離の情報を読み込み、それらの比を比例係数として定め、直下ブロック推定直流成分記憶部504または、直下ブロック直流成分算出部506より直下ブロックの直流成分の値を読み込み、その直流成分値と2つの被参照ブロックの直流成分値に対して前述の比例係数を演算した値との差をオフセット係数として定め、出力する。本処理は、前述の(14)式にしたがう。
片方向予測比例係数補正型重み係数算出部510:直下ブロック推定直流成分記憶部504または、直下ブロック直流成分算出部506より直下ブロックの直流成分の値を読み込み、その直流成分値と被参照ブロックの直流成分値との比を比例係数として定め、オフセット係数を0に定め、出力する。本処理は、前述の(12)式にしたがう。
片方向予測オフセット係数補正型重み係数算出部511:直下ブロック推定直流成分記憶部504または、直下ブロック直流成分算出部506より直下ブロックの直流成分の値を読み込み、その直流成分値と被参照ブロックの直流成分値との差をオフセット係数として定め、比例係数を1に定め、出力する。本処理は、前述の(13)式にしたがう。
直下ブロック推定直流成分非参照重み係数算出部512:直下ブロックの直流成分を使用しない重み係数の算出方法を行い、出力する。
本処理の例としては、非特許文献3に挙げたJSVMにおけるExplicitモードもしくはImplicitモードによる重み係数の算出方法が適用可能である。
〔直下ブロック直流成分推定部503の構成の詳細〕
本発明による直下ブロック直流成分推定部503の実施例について、図19を参照して説明する。図19は、当該拡張レイヤにおける一つのマクロブロックに対して直下ブロック直流成分の推定を行う装置の図である。
小ブロック分割情報復号部601:当該直下ブロックの小ブロックの分割情報に関する符号化情報を読み込み、その復号を行い、復号された小ブロックの分割情報を小ブロック分割情報記憶部602に出力する。
参照フレームインデクス情報復号部603:当該小ブロックの参照フレームインデクスに関する符号化情報を読み込み、その復号を行い、復号された参照フレームインデクス情報を参照フレームインデクス情報記憶部604に出力する。
動きベクトル情報復号部605:当該小ブロックの動きベクトルに関する符号化情報を読み込み、その復号を行い、復号された動きベクトル情報を動きベクトル情報記憶部606に出力する。
重み係数情報復号部607:当該小ブロックの重み係数に関する符号化情報を読み込み、その復号を行い、復号された重み係数情報を重み係数情報記憶部608に出力する。
予測残差信号直流成分情報復号部609:当該小ブロックの予測残差信号の直流成分に関する符号化情報を読み込み、その復号を行い、復号された予測残差信号の直流成分情報を予測残差信号直流成分情報記憶部610に出力する。
当該小ブロック予測参照位置同定部611:参照フレームインデクス情報記憶部604および動きベクトル情報記憶部606より、復号された参照フレームインデクスおよび動きベクトルの情報をそれぞれ読み込み、当該小ブロックの動き予測の被参照ブロックの位置を同定する。
直上ブロック復号信号直流成分算出部612:当該小ブロック予測参照位置同定部611において同定された被参照ブロックの直上ブロックの復号信号を読み込み、その復号信号の直流成分を算出し、直上ブロック復号信号直流成分記憶部613に出力する。
重み係数演算部614:直上ブロック復号信号直流成分記憶部613より被参照ブロックの直上ブロックの復号信号の直流成分を読み込み、また、重み係数情報記憶部608より当該小ブロックに割り当てられた重み係数を読み込み、直上ブロックの復号信号の直流成分に重み係数を用いて重み付けを行い、重み付けされた直流成分を予測残差信号直流成分加算部615に出力する。
予測残差信号直流成分加算部615:重み係数演算部614より出力された重み付けされた直上ブロックの復号信号の直流成分の値を読み込み、また、予測残差信号直流成分情報記憶部610より復号された予測残差信号の直流成分を読み込み、両者を加算し、その値を当該小ブロック推定直流成分記憶部616に出力する。
小ブロック直流成分推定処理判定部617:すべての小ブロックに対して直流成分の推定処理を完了したか否かの判定処理を行い、真の場合は当該直下ブロック推定直流成分算出部618に移り、真の場合は推定対象小ブロック更新部619に移る。
当該直下ブロック推定直流成分算出部618:当該小ブロック推定直流成分記憶部616より各小ブロックの推定直流成分を読み込み、当該直下ブロックにおける各小ブロックの面積比に応じて各小ブロックの推定直流成分を重み付けし、その重み付け和を当該直下ブロックの直流成分の推定値としてみなし、出力する。
推定対象小ブロック更新部619:次の直流成分の推定対象小ブロックに処理対象を移す。
本発明は、動画像スケーラブル符号化に適用できるものであり、本発明によれば、重み係数を伝送せずに精度の高い重み付き動き予測を実行することができるようになる。

Claims (24)

  1. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップをし、
    前記ステップで、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定する
    ことを特徴とする動画像スケーラブル符号化方法。
  2. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップをし、
    前記ステップで、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定する
    ことを特徴とする動画像スケーラブル符号化方法。
  3. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップをし、
    前記ステップで、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定する
    ことを特徴とする動画像スケーラブル符号化方法。
  4. 請求項1から請求項3のいずれか一項に記載の動画像スケーラブル符号化方法において、
    記ステップでは、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすことを、
    特徴とする動画像スケーラブル符号化方法。
  5. 請求項1から請求項3のいずれか一項に記載の動画像スケーラブル符号化方法において、
    記ステップでは、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに前記直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、前記直流成分とみなす直流成分を算出することを、
    特徴とする動画像スケーラブル符号化方法。
  6. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップをし、
    前記ステップで、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定する
    ことを特徴とする動画像スケーラブル復号方法。
  7. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップを有し、
    前記ステップで、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定する
    ことを特徴とする動画像スケーラブル復号方法。
  8. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号方法であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定するステップを有し、
    前記ステップで、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定する
    ことを特徴とする動画像スケーラブル復号方法。
  9. 請求項6から請求項8のいずれか一項に記載の動画像スケーラブル復号方法において、
    記ステップでは、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすことを、
    特徴とする動画像スケーラブル復号方法。
  10. 請求項6から請求項8のいずれか一項に記載の動画像スケーラブル復号方法において、
    記ステップでは、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに前記直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、前記直流成分とみなす直流成分を算出することを、
    特徴とする動画像スケーラブル復号方法。
  11. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段を有し、
    前記手段は、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定する
    ことを特徴とする動画像スケーラブル符号化装置。
  12. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段をし、
    前記手段は、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定する
    ことを特徴とする動画像スケーラブル符号化装置。
  13. 動画像スケーラブル符号化で用いられて、上位レイヤの符号化対象画像領域と被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、その重み係数を探索対象となる被参照画像領域の画像信号に演算して動きの推定を行うことで動きベクトルを算出し、その動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル符号化装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段をし、
    前記手段は、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定する
    ことを特徴とする動画像スケーラブル符号化装置。
  14. 請求項11から請求項13のいずれか一項に記載の動画像スケーラブル符号化装置において、
    記手段は、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすことを、
    特徴とする動画像スケーラブル符号化装置。
  15. 請求項11から請求項13のいずれか一項に記載の動画像スケーラブル符号化装置において、
    記手段は、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに前記直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、前記直流成分とみなす直流成分を算出することを、
    特徴とする動画像スケーラブル符号化装置。
  16. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段をし、
    前記手段は、被参照画像領域が1つである場合に、比例係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との比を用いることを決定し、オフセット係数として、ゼロを用いることを決定する
    ことを特徴とする動画像スケーラブル復号装置。
  17. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段をし、
    前記手段は、被参照画像領域が1つである場合に、オフセット係数として、被参照画像領域の直流成分と前記直下画像領域の直流成分との差を用いることを決定し、比例係数として、1を用いることを決定する
    ことを特徴とする動画像スケーラブル復号装置。
  18. 動画像スケーラブル復号で用いられて、上位レイヤの復号対象画像領域と復号した動きベクトルの指す被参照画像領域との間の明るさの変化を示す比例係数とオフセット係数からなる重み係数を算出して、復号した動きベクトルの指す被参照画像領域の復号信号にその重み係数を演算して動き補償を行うことで予測信号を生成する動画像スケーラブル復号装置であって、
    直下レイヤにおいて符号化対象画像領域と空間的同位置に存在する直下画像領域の予測方法に関する符号化情報画面間予測を示す値であった場合に、直下画像領域が動き予測の予測参照先とした直下レイヤ被参照画像領域を同定し、その直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものを直下画像領域の直流成分とみなして、前記重み係数を算出するという算出方法に決定する段をし、
    前記手段は、被参照画像領域が2つである場合に、比例係数として、符号化対象画像領域と各被参照画像領域との間のフレーム間距離に応じて算出されるものを用いることを決定し、オフセット係数として、2つの被参照画像領域の直流成分に対してその比例係数を乗算した値を、前記直下画像領域の直流成分から減算することで算出されるものを用いることを決定する
    ことを特徴とする動画像スケーラブル復号装置。
  19. 請求項16から請求項18のいずれか一項に記載の動画像スケーラブル復号装置において、
    記手段は、直下レイヤ被参照画像領域と空間的同位置に存在する上位レイヤの画像領域の直流成分に対して、直下画像領域が重み付き動き予測の際に利用した重み係数を演算したものに、さらに直下画像領域において発生した動き予測の予測残差信号の直流成分を加算したものを直下画像領域の直流成分とみなすことを、
    特徴とする動画像スケーラブル復号装置。
  20. 請求項16から請求項18のいずれか一項に記載の動画像スケーラブル復号装置において、
    記手段は、直下画像領域がより細かい小領域単位で動き予測が行われていた場合には、その小領域ごとに前記直流成分とみなす直流成分を算出して、それらの算出した直流成分と各小領域の面積とに基づいて、前記直流成分とみなす直流成分を算出することを、
    特徴とする動画像スケーラブル復号装置。
  21. 請求項1から請求項5のいずれか一項に記載の動画像スケーラブル符号化方法をコンピュータに実行させるための動画像スケーラブル符号化プログラム。
  22. 請求項1から請求項5のいずれか一項に記載の動画像スケーラブル符号化方法をコンピュータに実行させるための動画像スケーラブル符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  23. 請求項6から請求項10のいずれか一項に記載の動画像スケーラブル復号方法をコンピュータに実行させるための動画像スケーラブル復号プログラム。
  24. 請求項6から請求項10のいずれか一項に記載の動画像スケーラブル復号方法をコンピュータに実行させるための動画像スケーラブル復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2009538193A 2007-10-25 2008-10-20 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 Active JP5261774B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009538193A JP5261774B2 (ja) 2007-10-25 2008-10-20 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007277224 2007-10-25
JP2007277224 2007-10-25
JP2009538193A JP5261774B2 (ja) 2007-10-25 2008-10-20 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
PCT/JP2008/068971 WO2009054347A1 (ja) 2007-10-25 2008-10-20 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JPWO2009054347A1 JPWO2009054347A1 (ja) 2011-03-03
JP5261774B2 true JP5261774B2 (ja) 2013-08-14

Family

ID=40579452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009538193A Active JP5261774B2 (ja) 2007-10-25 2008-10-20 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Country Status (11)

Country Link
US (1) US8548039B2 (ja)
EP (1) EP2202984B1 (ja)
JP (1) JP5261774B2 (ja)
KR (1) KR101123285B1 (ja)
CN (1) CN101836457B (ja)
BR (1) BRPI0818665A2 (ja)
CA (1) CA2702525C (ja)
ES (1) ES2634162T3 (ja)
RU (1) RU2461978C2 (ja)
TW (1) TWI384885B (ja)
WO (1) WO2009054347A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090099720A (ko) * 2008-03-18 2009-09-23 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
BRPI0918478A2 (pt) * 2008-09-04 2015-12-01 Thomson Licensing métodos e aparelho para refinamento de previsão usando previsão de movimento implícito
DE102009017436B4 (de) * 2009-04-15 2011-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Erkennung einer Änderung zwischen Bildern oder in einer Sequenz von Bildern
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9521424B1 (en) 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
JP2012244353A (ja) * 2011-05-18 2012-12-10 Sony Corp 画像処理装置および方法
ES2705355B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
KR20130050405A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 시간 후보자 결정방법
EP2833633A4 (en) * 2012-03-29 2015-11-11 Lg Electronics Inc METHOD FOR PREDICTION BETWEEN LAYERS, AND ENCODING DEVICE AND DECODING DEVICE USING THE SAME
KR20140016823A (ko) * 2012-07-24 2014-02-10 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US9635356B2 (en) * 2012-08-07 2017-04-25 Qualcomm Incorporated Multi-hypothesis motion compensation for scalable video coding and 3D video coding
RU2666305C1 (ru) 2012-09-28 2018-09-06 Сони Корпорейшн Устройство и способ кодирования, устройство и способ декодирования
WO2014047877A1 (en) * 2012-09-28 2014-04-03 Intel Corporation Inter-layer residual prediction
CN108401157B (zh) * 2012-10-01 2022-06-24 Ge视频压缩有限责任公司 可伸缩视频解码器、编码器及可伸缩视频解码、编码方法
CN104704827B (zh) * 2012-11-13 2019-04-12 英特尔公司 用于下一代视频的内容自适应变换译码
AU2013367540B2 (en) * 2012-12-26 2017-02-02 Sony Corporation Image processing device and method
CN104885462A (zh) * 2012-12-28 2015-09-02 日本电信电话株式会社 视频编码装置和方法、视频解码装置和方法、以及其程序
JP5952733B2 (ja) * 2012-12-28 2016-07-13 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
US9877020B2 (en) * 2013-01-10 2018-01-23 Samsung Electronics Co., Ltd. Method for encoding inter-layer video for compensating luminance difference and device therefor, and method for decoding video and device therefor
US20160037177A1 (en) * 2013-04-05 2016-02-04 Samsung Electronics Co., Ltd. Interlayer video encoding method and apparatus and interlayer video decoding method and apparatus for compensating luminance difference
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
KR102199461B1 (ko) * 2013-07-15 2021-01-06 삼성전자주식회사 적응적 휘도 보상을 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US20150016502A1 (en) * 2013-07-15 2015-01-15 Qualcomm Incorporated Device and method for scalable coding of video information
US20160277767A1 (en) * 2015-03-16 2016-09-22 Thomson Licensing Methods, systems and apparatus for determining prediction adjustment factors
KR20170059718A (ko) * 2015-11-23 2017-05-31 삼성전자주식회사 디코딩 장치 및 그 방법
EP3484159A4 (en) * 2016-07-05 2019-12-04 KT Corporation METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL
JP7132436B2 (ja) * 2018-10-27 2022-09-06 華為技術有限公司 ビデオコーディングのための、サブブロックマージ候補のための個別マージリストと、イントラ-インター技術との調和
DE102019210580A1 (de) * 2019-07-18 2021-01-21 Robert Bosch Gmbh Verfahren zum Ermitteln einer Position eines ersten Bildbereichs in einem Korrespondenz-Bild, SoC und Steuervorrichtung und System zur Durchführung des Verfahrens, sowie Computerprogramm
CN111447454B (zh) * 2020-03-30 2022-06-07 浙江大华技术股份有限公司 编码方法及其相关装置
CN112616052B (zh) * 2020-12-11 2023-03-28 上海集成电路装备材料产业创新中心有限公司 一种视频压缩信号的重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054802A (ja) * 2004-08-16 2006-02-23 Kddi Corp 動き予測情報検出装置
WO2007018669A1 (en) * 2005-07-21 2007-02-15 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032824A (ja) 1996-07-16 1998-02-03 Nippon Telegr & Teleph Corp <Ntt> 動画像の輝度変化検出方法、動画像の輝度変化補償方法、動画像の位置検出方法および動画像符号化・復号装置
US6937659B1 (en) * 1997-11-14 2005-08-30 Ac Capital Management, Inc. Apparatus and method for compressing video information
US6931060B1 (en) * 1999-12-07 2005-08-16 Intel Corporation Video processing of a quantized base layer and one or more enhancement layers
US6895055B2 (en) * 2001-10-29 2005-05-17 Koninklijke Philips Electronics N.V. Bit-rate guided frequency weighting matrix selection
PL375706A1 (en) * 2002-10-01 2005-12-12 Thomson Licensing S.A. Implicit weighting of reference pictures in a video decoder
CN1781312A (zh) 2003-04-29 2006-05-31 皇家飞利浦电子股份有限公司 图像处理装置
JP2008507194A (ja) * 2004-07-15 2008-03-06 サムスン エレクトロニクス カンパニー リミテッド 動き情報符号化装置及び方法、動き情報復号化装置及び方法、これを採用したスケーラブル映像符号化装置及び方法とスケーラブル映像復号化装置及び方法
JP5065051B2 (ja) * 2005-02-18 2012-10-31 トムソン ライセンシング 低解像度画像から高解像度画像の符号化情報を導出する方法、並びに、係る方法を実現する符号化及び復号化装置
KR100763182B1 (ko) * 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100714696B1 (ko) * 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
JP5275806B2 (ja) 2005-10-12 2013-08-28 トムソン ライセンシング スケーラブルビデオ符号化及び復号における重み付け予測方法及び装置
JP2007174161A (ja) 2005-12-21 2007-07-05 Ricoh Co Ltd 文書情報処理装置
JP2007277224A (ja) 2006-03-13 2007-10-25 Tanabe Seiyaku Co Ltd トランス−4−アミノ−1−メチルシクロヘキサノール類の製造方法
TWI499304B (zh) * 2007-07-02 2015-09-01 Nippon Telegraph & Telephone 動畫像可縮放編碼方法及解碼方法、其裝置、其程式及記錄程式之記錄媒體

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054802A (ja) * 2004-08-16 2006-02-23 Kddi Corp 動き予測情報検出装置
WO2007018669A1 (en) * 2005-07-21 2007-02-15 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
WO2007018670A1 (en) * 2005-07-21 2007-02-15 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200910017070; 早瀬和也、坂東幸浩、高村誠之、上倉一人、八島由幸: '空間スケーラブル符号化におけるレイヤ間相関を利用した重み付き予測方式' FIT2007 第6回情報科学技術フォーラム 情報科学技術レターズ 第6巻, 20070822, p.253-256, 社団法人情報処理学会、社団法人電子情報通信学会 *
JPN6012050989; 早瀬和也、坂東幸浩、高村誠之、上倉一人、八島由幸: '空間スケーラブル符号化におけるレイヤ間相関を利用した重み付き予測方式' FIT2007 第6回情報科学技術フォーラム 情報科学技術レターズ 第6巻, 20070822, p.253-256, 社団法人情報処理学会、社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
US8548039B2 (en) 2013-10-01
TW200935919A (en) 2009-08-16
US20100215095A1 (en) 2010-08-26
JPWO2009054347A1 (ja) 2011-03-03
EP2202984B1 (en) 2017-04-19
EP2202984A1 (en) 2010-06-30
ES2634162T3 (es) 2017-09-26
CA2702525C (en) 2014-07-15
CA2702525A1 (en) 2009-04-30
KR101123285B1 (ko) 2012-03-20
KR20100066560A (ko) 2010-06-17
CN101836457A (zh) 2010-09-15
WO2009054347A1 (ja) 2009-04-30
EP2202984A4 (en) 2011-08-17
RU2461978C2 (ru) 2012-09-20
CN101836457B (zh) 2012-07-11
TWI384885B (zh) 2013-02-01
RU2010114733A (ru) 2011-11-10
BRPI0818665A2 (pt) 2015-09-08

Similar Documents

Publication Publication Date Title
JP5261774B2 (ja) 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP5185266B2 (ja) 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
US11936897B2 (en) Video encoding and decoding
JP4752631B2 (ja) 画像符号化装置、及び画像符号化方法
KR101351730B1 (ko) 디코딩된 비디오 블록에서 예상 왜곡을 결정하기 위한 방법및 장치
US8457203B2 (en) Method and apparatus for coding motion and prediction weighting parameters
US20160330473A1 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, and picture decoding program
JP5784596B2 (ja) 予測画像生成装置、動画像復号装置、及び、動画像符号化装置
JP2007067731A (ja) 符号化方法
JP2022548650A (ja) 履歴ベースの動きベクトル予測
Shiodera et al. Block based extra/inter-polating prediction for intra coding
KR20210080565A (ko) 다중 해상도 참조 픽처 관리를 사용한 비디오 코딩
TWI729497B (zh) 在視頻編解碼系統中組合多個預測子進行塊預測的方法和裝置
Zhao et al. Fast inter-layer mode decision in scalable video coding
TW202145784A (zh) 幀間預測方法、編碼器、解碼器以及電腦儲存媒介
Lee et al. Motion estimation in low-delay hierarchical p-frame coding using motion vector composition
JP4243286B2 (ja) 符号化方法
TW202145783A (zh) 幀間預測方法、編碼器、解碼器以及電腦儲存媒介
Xin et al. Motion mapping and mode decision for MPEG-2 to H. 264/AVC transcoding

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5261774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350