JP5680674B2 - 画像及び映像コーデックにおける参照処理のための方法及びシステム - Google Patents

画像及び映像コーデックにおける参照処理のための方法及びシステム Download PDF

Info

Publication number
JP5680674B2
JP5680674B2 JP2012550019A JP2012550019A JP5680674B2 JP 5680674 B2 JP5680674 B2 JP 5680674B2 JP 2012550019 A JP2012550019 A JP 2012550019A JP 2012550019 A JP2012550019 A JP 2012550019A JP 5680674 B2 JP5680674 B2 JP 5680674B2
Authority
JP
Japan
Prior art keywords
layer
processing
video
disparity compensation
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012550019A
Other languages
English (en)
Other versions
JP2013518465A (ja
Inventor
ヴィ パハラワッタ,ペシャラ
ヴィ パハラワッタ,ペシャラ
トゥーラピス,アレクサンドロス
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2013518465A publication Critical patent/JP2013518465A/ja
Application granted granted Critical
Publication of JP5680674B2 publication Critical patent/JP5680674B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

〈関連出願への相互参照〉
本願は、ここに参照によってその全体において組み込まれる、2010年1月27日に出願された、米国仮出願第61/298,907号の優先権を主張するものである。
〈分野〉
本開示は、画像及び映像の符号化及び/又は復号システムに関する。特に、画像及び映像コーデックにおける参照処理のための方法及びシステムが開示される。
立体(3D)のユーザ体験を提供することは、コンテンツ提供者及びディスプレイ製造業者の両方にとって長年の目標であった。最近、ホームユーザに対して立体体験を提供することの緊急性が、複数の有名な3D映画や、スポーツイベント、コンサート、ドキュメンタリーなどのような他の3Dの素材の生産及び公開と共に増加している。ホームユーザに対して立体の3Dコンテンツを配信することが可能な多くの方法が提案されている。提案された或る技術では、様々なフィルタリング、サンプリング及び調整方法を用いて、2つの立体のビュー(視点)を1つのフレーム構成(フレーム互換(frame compatible))に多重化する。サンプリングは、例えば、水平、垂直、又は五点形で行われるだろう。一方で、オフセットは、2つの視点間に存在しうる冗長の良い利用を与える2つの視点間で考慮される。同様にして、調整は、横から横、上から下、ライン−交互(line-interleaved)に、チェッカーボードパッキング(checkerboard packing)などでありうる。
しかしながら、上記方法は、それぞれの視点で元の解像度の半分にダウンサンプリングすることを必要とする。それゆえ、フル解像度の3Dを配信することを可能とする多くの方法が提案されている。或る方法では、2つに分かれた独立のビットストリーム(同時放送)を用いる。ここで、それぞれのビットストリームは異なる視点を表す(例えば、左目、右目)。この方法は、しかしながら、ストレージとバンド帯域の条件に関して複雑である。なぜなら、2つの視点間に存在する冗長が取り除かれないからである。その冗長を取り除くよう試したこの方法の拡張が、MPEG−4/H.264映像符号化標準のマルチ映像符号化(MVC:Multi Video Coding)の拡張として提案され、採用された。ここに参照によってその全体において組み込まれる、2009年3月の、一般的なオーディオビジュアルサービスのためのアドバンストビデオコーディングを参照されたい(http://www.itu.intrec/recommendation.asp?type=folders&lang=e&parent=T-REC-H.264)。この方法は、ベースレイヤ画像として1つの視点、及びエンハンスメントレイヤとして他の視点又は視点群を配信するスケーラブルシステムである。この場合、視点間の冗長は、変換される動き補償に基づく方法のみを用いて取り除かれる。一方で、そのシステムは、MPEG−4 AVCの元々の設計と比べて予測を実行するための“知的な”参照バッファ管理に基づく。符号化効率は多少改善する(同時送信に対して20−30%)が、あいにく動き補償のみの変換に対する信頼は、このスキームの実行を制限する。他の視点から或る視点の予測を生成するために、アフィンモデルを用いる他の方法が、ここに参照によってその全体において組み込まれる、米国特許番号6,144,701において提案されている。
米国特許番号6,144,701
大変興味がある他の適用は、スケーラブル映像配信アプリケーション(例えば、2Dスケーラブル映像符号化)を含む。ここで、映像信号は、各レイヤが映像信号の異なる品質レベルや解像度(空間的又は時間的)を可能とする複数のレイヤを用いて復号されることが望まれている。
本願の課題は請求項記載の手段によって解決される。
フレーム互換3Dアーキテクチャの例を示す図である。 フレーム互換3Dアーキテクチャの例を示す図である。 図1及び2のアーキテクチャにおけるエンコーダ側の可能な具現化を示す図である。 図1及び2のアーキテクチャにおけるエンコーダ側の可能な具現化を示す図である。 図1及び2のアーキテクチャにおけるデコーダ側の可能な具現化を示す図である。 本開示による実施形態のデコーダ側の具現化を示す図である。 図6のデコーダ側の具現化に関するフローチャートを示す図である。 図6のデコーダ側の具現化に関するフローチャートを示す図である。 2つの隣接ブロックにおけるディスパリティ補償された値を計算するための参照処理サンプルを示す図である。 処理された参照ブロックを必要とする多くのブロックを有する画像領域から、処理された参照ブロックを必要としない多くのブロックを有する画像領域を分けるために実行される事前分析を行う実施形態を説明する図である。 本開示による実施形態の第1エンコーダ側の具現化を示す図である。 本開示による実施形態の第2エンコーダ側の具現化を示す図である。
第1態様によれば、マルチ−レイヤ映像復号システムであって:第1レイヤ映像デコーダを含む、第1レイヤと;前記第1レイヤと関連付けられ、第2レイヤ映像デコーダを含む第2レイヤと;前記第1レイヤ映像デコーダの出力を処理し、前記処理済みの出力を前記第2レイヤ映像デコーダに入力するかどうかを選択するための処理セレクタと;前記処理セレクタの後段に位置し、前記処理セレクタの指示に基づき、前記第1レイヤ映像デコーダの出力を処理し、前記処理済みの出力を前記第2レイヤ映像デコーダに入力するための処理モジュールとを含む。
第2態様によれば、映像デコーダであって:符号化済みの信号を受信し、復号済みの信号を出力するのに適する復号ループと;前記復号ループに接続され、復号済みの入力信号を受信し、処理された復号済みの入力信号を前記復号ループに送信するのに適する処理モジュールと;前記処理モジュールに接続され、前記復号済みの入力信号を受信し、前記復号済みの入力信号を、前記処理モジュールに送信するか否かを選択するのに適するセレクタと、を含む。
第3の態様によれば、復号された映像情報を選択的に処理するための方法であって:第1レイヤ映像デコーダ及び第2レイヤ映像デコーダを提供する段階と;下記のいずれかを選択する段階と;(a)前記第1レイヤ映像デコーダの出力を処理する(b)前記第1レイヤ映像デコーダの出力を処理しない、(a)の場合、前記第1レイヤ映像デコーダの出力を処理し、処理済みの出力を前記第2レイヤ映像デコーダに入力する段階とを含む。
第4の態様によれば、映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:復号済みの映像信号を提供する段階と;前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;(a)の場合、前記復号済みの映像信号を処理し、前記処理された復号済みの映像信号に基づいてディスパリティ補償を実行する段階と;(b)の場合、前記復号済みの映像信号のディスパリティ補償を独立して実行する段階とを含む。
第5の態様によれば、映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:復号済みの映像信号を提供する段階と;前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;(a)の場合、第1ディスパリティ補償を実行し、前記第1ディスパリティ補償は、前記復号済みの映像信号の処理に基づき、該処理と同時に実行される、段階と;(b)の場合、前記第1ディスパリティ補償とは異なる第2ディスパリティ補償を実行する段階とを含む。
第6の態様によれば、マルチ−レイヤ符号化システムであって:第1レイヤ映像エンコーダを含む、第1レイヤと;前記第1レイヤと関連付けられ、第2レイヤ映像エンコーダを含み、前記第2レイヤ映像エンコーダはディスパリティ推定モジュール及びディスパリティ補償モジュールを含む、第2レイヤと;前記第1レイヤ映像エンコーダの出力を処理し、前記処理済みの出力を前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールに入力する処理モジュールとを含む。
第7の態様によれば、マルチ−レイヤ符号化システムであって;第1レイヤ映像エンコーダを含む、第1レイヤと;前記第1レイヤと関連付けられ、第2レイヤ映像エンコーダを含み、前記第2レイヤ映像エンコーダはディスパリティ推定モジュール、ディスパリティ補償モジュール及び処理モジュールを含む、第2レイヤとを含み、前記処理モジュールは、前記ディスパリティ補償モジュールと結合され、前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールは前記第1レイヤ映像エンコーダの出力を受信する。
第8の態様によれば、マルチ−レイヤ符号化システムであって:第1レイヤ映像エンコーダを含む、第1レイヤと;前記第1レイヤと接続され、第2レイヤ映像エンコーダを含む、第2レイヤと;前記第1レイヤ映像エンコーダの出力を処理するか否かを選択するための処理セレクタと;前記処理セレクタの指示に基づき、前記第1レイヤ映像エンコーダの前記出力を処理するための処理モジュールとを含み、前記第1レイヤ映像エンコーダの処理済の出力、及び前記第1レイヤ映像エンコーダの未処理の出力は前記第2レイヤ映像エンコーダに送信される。
第9の態様によれば、第1ブロック及び第2ブロックを含む画像フレーム、又はスライスを復号するための方法であって:マルチ−レイヤ復号システムの第1レイヤデコーダで前記画像フレーム又はスライスのサンプルを復号する段階と;前記復号済みサンプルを処理する段階と;前記復号済みサンプルを、前記マルチ−レイヤ復号システムの第2レイヤデコーダに送信する段階と;前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第1ブロックを生成する段階と;前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第2ブロックを生成する段階とを含み、前記第2ブロックを生成するのに適した、前記処理された復号済みサンプルの一部は、メモリから取得されるか、又は前記第1ブロックを生成するために既に用いられた事前分析処理された復号済みサンプルである。
さらに、開示の実施形態は、本出願の明細書、図面及び請求項において提供される。
2009年7月4日に出願された、米国仮出願第61/223,027号及び2009年4月に出願された米国仮出願61/170,995号において、両出願とも、ここに参照によってその全体において組み込まれる。両出願のアーキテクチャは、MVCのようなスキーム(2D互換)のパフォーマンスを拡張するために用いられることができ、また、スケーラブルなフレーム互換のフル解像度3D配信スキーム又はスケーラブルなマルチ−レイヤスキーム、例えば、スケーラブルなマルチ−レイヤ2Dスキームの一部としても用いられることができる。ベースレイヤとエンハンスメントレイヤの2つのレイヤの支援を想定している、米国仮出願第61/223,027号のアーキテクチャは、参照処理ユニット(RPU:Reference Processing Unit)の構成を追加する。参照処理ユニットは、エンハンスメントレイヤのために、参照ピクチャとして用いる以前にベースレイヤから来る復号されたピクチャに対して処理ステップを課してもよい。図1と2を参照すると、フレーム互換3Dアーキテクチャや2D互換アーキテクチャがそれぞれ示されている。RPUの検討は、しかしながら、処理を実行する装置の計算量や必要なメモリを潜在的に増加させるだろう。
本開示は、RPUの必要なメモリを最小化し、計算量を削減しつつ実装される、米国仮出願第61/223,027号のアーキテクチャのようなアーキテクチャを可能とする実施形態を提供する。
図3と図4は、RPUの具体的な実装を含むシステムのために用いられるエンコーダ(符号器)アーキテクチャの説明を与える。当業者であれば、本開示のいくつかの例は2つのレイヤシステムに直接的に関連するが、同じ基準が、レイヤ間に複数のRPUの構成を含むマルチ−レイヤシステムに対しても適用しうるということが理解できるであろう。一例であり、限定されない、マルチ−レイヤシステムは、ベースレイヤ及び1以上のエンハンスメントレイヤを含むことができる。
図3と図4に示されるアーキテクチャによれば、ベースレイヤ(BL)の再構成された画像は、ベースレイヤ内の参照ピクチャバッファ(305、405)に記憶され、処理される(310、410)。所定の適切な情報は、エンハンスメントレイヤ(EL)に対して、適切な予測値(315、415)を得るためにビットストリームに含まれる。適切な予測は、レート歪み特性のような符号化基準、処理スキームの複雑度などのコンビネーションを用いて導かれてもよい。
その処理は、補間、ローパス、又はハイパスのフィルタリング、フェーズシフト、シャープニング、などを含んでもよい。また、特定された、例えば、米国仮出願第61/170,995号において、フィルタの各タイプは画像全体に適用されたり、異なるフィルタは領域ごと、視点ごと、色差成分ごとなどに適用されたりしてもよい。処理されたベースレイヤの画像は、エンハンスメントレイヤの参照ピクチャバッファ(320、420)に記憶される。そして、参照処理フィルタ情報(325、425)は、デコーダのために信号化される。エンハンスメントレイヤの参照ピクチャバッファ(320、420)は、他の、過去の、基準レイヤの参照画、及び/又はエンハンスメントレイヤの再構成された画像に基づく一時的な参照画も含んでもよい。そのとき、エンハンスメントレイヤは、所定の、一般的な、レート歪み最適化決定メカニズム(330、430)で符号化される。エンハンスメントレイヤの符号化される画像のそれぞれの領域(例えばマクロブロック又は画素(ピクセル)群のブロック)に対して、そのようなメカニズム(330、430)によれば、参照ピクチャバッファ(320、420)に前もって記憶されうる利用可能な符号化されたサンプルや参照画が与えられると、最適な予測(或る符号化基準に従う)方法が決定される。レート歪み最適化(330、430)と、ディスパリティ推定(Disparity Estimation)(335、435)との処理は、適切なブロック/マクロブロックのモードと、ディスパリティベクトル、参照画、重み、オフセットなどの予測パラメータを決定する。それらのパラメータなどは、符号化されるエンハンスメントレイヤ画像の最終的な予測値を生成するためにディスパリティ補償処理(340、440)で用いられ、また、デコーダ(復号器)に対してELビットストリーム内に信号化される。量子化パラメータと変換、符号化された残差情報は、この処理の後に依然として存在しうる予測誤差を減らすために信号化されてもよい。
図5は、RPU処理のためのサポートを提供するデコーダの実装の一例を説明する図である。このデコーダにおいて、図3と図4で示したエンコーダと同様に、ベースレイヤの再構成された画像は、BL参照ピクチャバッファ(505)に入力され、また、RPU(510)にも送信され、EL画像の予測値(515)を得るために処理される。この予測値は、EL参照ピクチャバッファ(520)に記憶され、必要に応じてディスパリティ補償処理(525)で用いられる。しかしながら、メモリが抑制される装置では、EL参照ピクチャバッファ(520)にBLの予測値を記憶することは、コスト的に高く実装されうる。さらに、この実装は、エンハンスメントレイヤにより実際に参照されるベースレイヤの領域がどれくらいであるかを考慮していない。それゆえ、RPU(510)により処理されたサンプルは、予測のために利用されないということが起こり、従って、復号中に不必要な処理になるという結果をもたらす。そのような処理は、特にパワーが抑制された装置に対し、ほとんどコストがかからず、画素ごとの演算に関して、最善の復号性能を達成するために必要となる。
本開示のいくつかの実施形態によれば、RPUの必要なメモリと処理は、デコーダのディスパリティ補償処理に伴う参照処理の段階(ステージ)を統合することで削減できる。
図6は、本開示によるデコーダのアーキテクチャの実施形態を説明する。図5に表されるアーキテクチャから異なるところは、参照処理段階(605)が参照選択(610)の後に実行され、ディスパリティ補償処理の一部となることである。換言すると、図5に示した以前のアーキテクチャでは、参照処理(510)は、参照選択の前に実行され、参照選択は、ディスパリティ補償段階(525)で行われていた。
従って、図6の実施形態の第1結果では、完全に処理されたベースレイヤの参照画を記憶する必要がなく、ベースレイヤのデコーダにより扱われた同じメモリが必要とされても、エンハンスメントレイヤのデコーダは参照することができるので、潜在的にメモリを節約する。図6の実施形態のさらなる結果では、復号演算もかなり削減することができる。計算量の削減については、参照処理(605)が基本的にエンハンスメントレイヤのデコーダで“必要とされるとき”に実行されるという事実に起因する。これは、次のような場合に特に有効である。例えば、いくつかの領域が、全てのスライスでベースレイヤの再構成された画像の参照処理を必要としない場合である。これらのスライスの領域は、前に復号されたエンハンスメントレイヤピクチャからのイントラ(空間的予測)や時間的予測のような予測の他のタイプを考慮するだけでよい。
本開示を通して使用される用語“ディスパリティ(disparity)”は、時間的ディスパリティ、空間的、2Dや3D、品質ディスパリティ、解像度などを含む任意のタイプの差異を称する。
或る実施形態において、結合された参照処理とディスパリティ補償処理(605)は、図7に示すように、縦につなぐフィルタセット(a cascaded filter set)として実装されうる。この場合、符号化されるエンハンスメントレイヤの画像のそれぞれの画像領域(例えばブロック)に対し、参照セレクタ(705)は、ベースレイヤを参照するか、又はイントラや時間的予測のような異なるタイプの予測を用いるかにより予測値を取得するかどうかを決定する(710)。ベースレイヤの参照が用いられる場合(715)、参照処理フィルタ(720)が実行される。特別なタイプのフィルタ(720)は、ビットストリームに信号化されたRPUパラメータに依存しうる。そのフィルタリング(720)は、ディスパリティ補償フィルタ(725)により要求される入力サンプルを得るために通常は実行され、他のサンプルは処理される必要がない。換言すると、フィルタリング(720)は、予測の目的のために適用されるのであり、視覚的/ディスプレイの目的のためではない。例えば、MPEG−4 AVC/H.264標準において、ディスパリティ補償は、参照画内の1/2の画素位置で画像サンプルを予測するのに、6タップフィルタを用いる。この場合、ディスパリティパラメータ(動きベクトル)は、参照処理される画像の1/2の画素位置に具体的に位置するとすれば、対応するディスパリティ補償されたエンハンスメントレイヤの予測値の画像サンプルを得るために、わずか6個の隣接サンプルが、参照処理された画像内で生成されるのに必要となる。異なる位置、例えば整数又は1/4画素位置は、動き補償補間のためのいかなる処理の前に、隣接サンプルの処理に関して異なる条件を有してもよい。同様の処理は、輝度及び色差の両方のサンプルに対して考慮されうる。
図7の実施形態は、デコーダにおいて、例えば動き補償された補間ブロックのような、存在するブロックの再利用を可能とする。本開示は、さらなる実施形態を開示する。それは、システムの複雑度(計算量)を削減する実施形態である。一例として、図8の実施形態では、参照処理及びディスパリティ補償フィルタ(805)は、両方のタスクを実行するシングルフィルタ(805)を生成するために共に結合されうる。例えば、参照処理とディスパリティ補償の両方が線形フィルタを用いて実行されるとき、結合されたフィルタは、2つの独立したフィルタの畳み込み演算を行うことができる。異なる例では、周波数領域のフィルタは、補間フィルタと共に結合することができ、その結果、異なるフィルタ係数を有する一つのフィルタとなる。図8に示すように、結合されたフィルタパラメータは、RPUフィルタパラメータ(810)及びディスパリティパラメータ(815)の両方に依存する。パラメータとしては、例えば、符号化されたビットストリームから生成される動きベクトルの長さがある。しかしながら、制限されたセットのできる限りのRPUフィルタパラメータ(810)と、制限されたセットのできる限りのディスパリティ補償パラメータ(815)があるとすれば、全てのできる限りの結合フィルタは事前に計算されることができ、フィルタパラメータはルックアップテーブルを用いて処理される。
他の実施形態において、デコーダの計算量は、以前に計算された、いくつかの参照処理サンプル群の位置を示すマップにより削減することができる。参照画は、図9の例で作られうる。ここで、ディスパリティ補償処理は、1枚の参照画が与えられる2つの4×4ブロック、ブロックAとブロックBの水平1/2画素位置を計算するために必要である。MPEG−4 AVCにおいて、この処理は、6タップフィルタを必然的に用いてもよい。この図9に示すように、参照処理された、ブロックAを生成するために必要であるサンプル‘X’と、ブロックBを生成するために必要であるサンプル‘X’との間で予測をかなりオーバーラップさせる。したがって、デコーダは、ブロックAを計算するために必要となるサンプルから全てのオーバーラップするサンプルを潜在的に記憶することができる。そして、デコーダは、計算量を削減するためにブロックBを計算するとき、オーバーラップするサンプルを再利用する。図9に示す場合は、一例の場合を示すだけであり、同じ概念がブロックAとブロックBが非−隣接であるとき、ブロック同士が異なるサイズのとき、異なるディスパリティ補償フィルタが用いられるときなどでも適用することができる。一つの実施形態において、以前に計算された全ての参照処理サンプルデータがマップに記憶されてもよいことに注意されるべきである。一方、他の実施形態においては、動きと参照との情報を事前に分析することは、どの参照処理サンプルがマップに必要とされるかかつ、どのサンプルが捨てられるかを決定するためにデコーダで実行されてもよい。そのような事前分析は、任意の動き補償と残差復号を実行する前にビットストリームの情報を分析することで生じさせることができる。
さらなる実施形態において、マクロブロック(例えば16×16)又はサブブロック(例えば16×16以下)でRPUの利用を可能及び不可にすることから、そのような分析により生じるデコーダの条件分岐を減らすことまで、RPUの検討事項は、領域レベルで行うことができる。
具体的に、RPUの処理と参照ピクチャ全体を記憶する代わりに、ピクチャのいくつかの領域のみを処理することができる。そのような実施形態によれば、デコーダは、まず“RPU”に関するMBs(マクロブロック群)を探すためにビットストリームを分析する。そして、デコーダは、その情報を覚えておき、RPU処理された参照画を生成する。もし、例えば、或る領域が予測のために使われないということが知られていたら、その領域は処理されない。一方で、もし或る領域が1つ以上のマクロブロックにより予測のために使われるのであれば、この領域に属するサンプルは生成される。
図10の実施形態では、参照画を作成することができる。図10の実施形態に示すデコーダは、まず、どのマクロブロックがRPU処理を必要とするかを判定する。デコーダは、復号されるピクチャ又はスライスを異なる領域に分割することもできる。分割は、固定(例えば、N×Mマクロブロックに対応)されてもよいし、例えば、RPUが利用する分析からの情報や、RPU処理で利用可能な隣接ブロックをできるだけ多く含むように領域を分割すること(一般的には長方形領域)で、適応的に与えられてもよい。この方法では、デコーダは、図5に示すように、RPU処理の利用可能なマクロブロックを有する領域のみを始めから処理するだけか、低いコストで復号中に、RPU処理の段階的に行われた(cascaded)又は結合された(combined)バージョンを適切に計画して処理するかのいずれかを行うことができる。これは、例えば、小さいサイズ、及びシステムにおける利用可能な高速メモリを利用することで実行できる。ハイブリッド方法も検討することができる。
そのような方法において、すなわち、RPU処理を頻繁に利用するいくつかの領域の処理は、動き補償前に実行される。一方で、孤立された領域のRPU処理は、“即座に”実行される。RPU処理を必要とする領域を決定するための或る単純な方法では、ビットストリーム内にある参照情報を分析する。この場合、RPU処理されたサンプルを必要とするほとんどのブロック/サブ領域に対応する領域は、RPU処理のために選択することができる。参照情報に加えて、動き/ディスパリティベクトル情報についても、RPU処理を必要とする領域のさらに正確なマップを生成するために利用してもよい。画像全体、又は各スライス、又はスライスの部分などに対するビットストリームを分析した後に、領域計算が実行されるということに注意する。
どの領域に対してRPU処理を利用すべきか、かつ、どの領域に対してすべきでないかを決定するためのビットストリームの分析を実行することに加えて、又は代わりに、そのような領域の決定は、既に復号されたピクチャやスライスに基づくということも可能である。具体的には、2つの隣接ピクチャ、特に同様のツールにより符号化されていれば、同様の特徴を有する可能性が高いだろう。もし、第1に復号されたピクチャがRPU処理を頻繁に行っていれば、第2ピクチャもそうなるであろう。このシナリオにおいて、図5に示した方法を利用することで、このピクチャを復号することに有利な点がありうる。しかしながら、第1ピクチャがRPU処理を利用していない、又は散発的に利用していれば、本開示に従って“即座”の方法が実行されるべきである。そのような決定は、ビットストリームを分析したり、第1に対して第2ピクチャやスライスのビットやモードが同様であるかどうかを判定したりすることで、拡張することもできる。
次の段落では、本開示の実施形態によるエンコーダのアーキテクチャが示されるだろう。詳細については後述するが、図11や図12に示すように、エンコーダは、最終的なディスパリティ補償のために必要でなければ、RPU参照画を処理したり記憶したりするRPUの実行を回避する。ディスパリティ推定処理における判定は、追加のメモリや計算量のいずれも回避して、オリジナル(処理されていない)の参照画(例えば図12参照)、又は単純な処理が行われた参照画(例えば図11参照)を用いることができる。そのような判定も、図11や図12の方法の段階的に行われた又は結合されたバージョンを利用することができる。例えば、その処理は、高速モード判定と結合することができ、特別な参照について確認する必要はなく、このように計算サイクルを節約しながら判定を行ってもよい。
図11の実施形態に示すように、RPU(1110)からの処理された参照画(1105)は、エンハンスメントレイヤの再構成ピクチャバッファ(1115)に挿入されず、ディスパリティ推定(1120)及び補償(1125)のためにレート歪み最適化ループで直接用いられる。RDO(Rate Distortion Optimization)モジュールにより特定されたモードと参照選択に依存し、ディスパリティ推定モジュール(1120)は、特定された参照のため、ディスパリティパラメータ(例えば動きベクトル、イルミネーションパラメータ)を推定する。ディスパリティ補償モジュール(1125)は、特定された参照画から現在画像の予測値を得るために、推定されたディスパリティパラメータを用いる。
他の実施形態において、図11での説明や前述したように、エンコーダは、ディスパリティ推定(1205)の前に、完全なRPU処理の実行を回避してもよい。しかし、エンコーダは、代わりに、ディスパリティ補償(1210)の一部としてレート歪み最適化ループの中で、RPU処理を実行する。この場合、ディスパリティとRPUパラメータの推定モジュール(1205)は、提供された参照画が、低いレイヤからのRPU処理された参照画でなければ、単純なディスパリティ推定を実行するか、必要とされるRPU処理を実行するかのいずれかを行ってもよい。RPU処理されたサンプルがディスパリティ推定のために用いられるなら、参照処理とディスパリティ補償モジュール(1210)は、ディスパリティ補償のために参照処理されたサンプルを用いるだろう。それ以外のためなら、参照処理とディスパリティ補償モジュール(1210)は、エンハンスメントレイヤの参照ピクチャバッファ内にある時間的参照画からのサンプルを用いるだろう。これは、例えば、レート歪み最適化処理によりモード決定される際に早い終了基準が用いられるならば、有利になりうる。この場合、レート歪み最適化処理(1215)は、画像の1つ以上の領域に対し、時間的な予測が、必要な映像品質を提供するための所定のビットレートの制約を十分に満足するかを判定してもよい。従って、レート歪み最適化処理は、その領域に対して、RPU処理された予測値を用いるレート−歪み特性を試さないことを選択してもよい。従って、モード決定ループの中でRPU処理を実行することで、エンコーダでも、計算量及び/又は必要なメモリをかなり削減することが可能になる。もちろん、エンコーダも、例えば明示的なフィルタなどの代わりに、より短い1Dや2Dフィルタや、固定フィルタなどのより小さな複雑性のフィルタを検討する柔軟性を有する。これは、完全な事前処理を通じてか、“即座”処理を通じてかのいずれかにより任意の決定を実行するためや、ベースレイヤの参照画が用いられるかどうかを決定するために柔軟性を有する。ベースレイヤが参照画として選択された場合のみ、最適なフィルタが、最終的な動き補償ステップのためベースレイヤを処理するために用いられる。
結果的に、本開示は、RPUを用いるコーデックの参照処理段階に対して、計算量と必要なメモリをかなり削減する方法を提示する。それゆえ、本開示は、RPUに対する提供を含まないコーデックと同様のオーダーの実装コストとなるような、そのようなコーデックのハードウェア及びソフトウェアの実装コストをもたらす。本開示で教示した出願は、映像符号化装置及び映像復号装置(ハードウェア及びソフトウェア)に限定されるものではなく、映像ディスクプレイヤー(例えばブルーレイプレイヤー)、放送、衛星、携帯の3D映像装置、IPTVシステムなどを含む。当業者であれば、本開示の教示により、フレーム−互換3D映像システム、2D互換3D映像システム、2Dスケーラブル映像システム、2D又は3Dマルチ−ビューシステムなどの様々なシステム及び/又はアーキテクチャに適用できることを理解するであろう。
本開示で記載した方法およびシステムは、ハードウェア、ソフトウェア、ファームウェアまたはそれらの組み合わせにおいて実装されてもよい。ブロック、モジュールまたはコンポーネントとして記載される諸特徴は一緒に実装されても(たとえば集積論理デバイスのような論理デバイスにおいて)、別個に実装されても(たとえば別個の接続された論理デバイスとして)よい。本開示の方法のソフトウェア部分は、実行されたときに少なくとも部分的に記載される方法を実行する命令を含むコンピュータ可読媒体を含みうる。コンピュータ可読媒体はたとえば、ランダム・アクセス・メモリ(RAM)および/または読み出し専用メモリ(ROM)を含みうる。命令はプロセッサ(たとえばデジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)またはフィールド・プログラム可能論理アレイ(FPGA))によって実行されてもよい。
本明細書において言及されるすべての特許および刊行物は、本開示が属する分野の当業者の技術レベルを示しうる。本開示において引用されるすべての文献は、各文献が個々にその全体において参照によって組み込まれた場合と同じ程度に、参照によって組み込まれる。
本開示は特定の方法またはシステムに限定されないことは理解しておくべきである。具体的な方法またはシステムはむろん変わりうるものである。本稿で使われる用語は個別的な実施形態を記述するためだけに使われているのであり、限定することは意図されていないことも理解しておくべきである。本明細書および付属の請求項の用法では、単数形は、内容がそうでないことを明確に示しているのでない限り、複数の被指示物を含む。用語「複数」は、内容がそうでないことを明確に示しているのでない限り、二つ以上の被指示物を含む。別途定義がされていない限り、本稿で使われるすべての科学技術用語は当業者によって普通に理解されるのと同じ意味をもつ。
本開示のいくつかの実施形態について説明してきたが、本開示の精神および範囲から外れることなく様々な修正がなされてもよいことは理解されるであろう。よって、他の実施形態も付属の請求項の範囲内にある。
いくつかの態様を記載しておく。
〔態様1〕
マルチ−レイヤ映像復号システムであって:
第1レイヤ映像デコーダを含む第1レイヤと;
前記第1レイヤと関連付けられ、第2レイヤ映像デコーダを含む第2レイヤと;
前記第1レイヤ映像デコーダの出力を処理し、前記処理済みの出力を前記第2レイヤ映像デコーダに入力するかどうかを選択するための処理セレクタと;
前記処理セレクタの後段に位置し、前記処理セレクタの指示に基づき、前記第1レイヤ映像デコーダの出力を処理し、前記処理済みの出力を前記第2レイヤ映像デコーダに入力するための処理モジュールとを含む、マルチ−レイヤ映像復号システム。
〔態様2〕
前記第2レイヤ映像デコーダは、ディスパリティ補償モジュールを含み;
前記ディスパリティ補償モジュールは、前記処理モジュールの一部である、態様1記載のマルチ−レイヤ映像システム。
〔態様3〕
前記処理モジュールは、
処理フィルタ及び前記処理フィルタの後段に位置するディスパリティ補償フィルタを含む、態様1記載のマルチ−レイヤ映像復号システム。
〔態様4〕
前記処理モジュールは、
第1ディスパリティ補償フィルタと結合された処理フィルタを含み、前記映像デコーダは、さらに第2ディスパリティ補償フィルタを含み、
前記第1ディスパリティ補償フィルタは、前記第1レイヤ映像デコーダの前記出力が処理されるとき、ディルパリティ補償を実行し、前記第2ディスパリティ補償フィルタは、前記第1レイヤ映像デコーダの前記出力が処理されないとき、ディスパリティ補償を実行する、態様1記載のマルチ−レイヤ映像復号システム。
〔態様5〕
前記処理セレクタは、
画像の領域を分析し、前記領域に実行される分析に従って分割処理を選択するための領域分析モジュールを含む、態様1記載のマルチ−レイヤ映像復号システム。
〔態様6〕
前記領域分析モジュールは、
処理が必要な大多数の要素を有する領域、及び処理が必要でない大多数の要素を有する領域間で、前記画像を分割するために前記画像の領域を分析する、態様5記載のマルチ−レイヤ映像復号システム。
〔態様7〕
前記第2レイヤ映像デコーダは、
ディスパリティ補償モジュールを含む、態様6記載のマルチ−レイヤ映像復号システム。
〔態様8〕
前記処理モジュールは、
前記ディスパリティ補償モジュールとは別で、又は前記ディスパリティ補償モジュールと結合されて、前記画像の前記領域を処理することに適する、態様7記載のマルチ−レイヤ映像復号システム。
〔態様9〕
処理が必要な大多数の要素を有する前記画像の領域は、前記ディスパリティ補償モジュールとは別の前記処理モジュールにより処理され、処理が不要な大多数の要素を有する前記画像の領域は、前記ディスパリティ補償モジュールと結合された前記処理モジュールにより処理される、態様8記載のマルチ−レイヤ映像復号システム。
〔態様10〕
前記処理セレクタは、
処理が必要な大多数の要素を有する前記画像の領域、及び処理が不要な大多数の要素を有する前記画像の領域を定義するための領域分析モジュールを含む、態様1記載のマルチ−レイヤ映像復号システム。
〔態様11〕
前記領域分析モジュールは、
第2レイヤのビットストリーム入力を受信し、前記第2レイヤのビットストリーム入力内に与えられる参照ピクチャ情報に基づいて前記領域を定義する、態様10記載のマルチ−レイヤ映像復号システム。
〔態様12〕
前記領域分析モジュールは、
参照ピクチャ情報及び動きベクトル及び/又はディスパリティベクトル情報に基づいて前記領域を定義する、態様11記載のマルチ−レイヤ映像復号システム。
〔態様13〕
前記領域分析モジュールは、
前記画像、前記画像のスライス、前記画像のスライスの一部に対して、前記第2レイヤのビットストリーム入力に基づいて前記領域を定義する、態様11記載のマルチ−レイヤ映像復号システム。
〔態様14〕
前記処理セレクタは、
画像内で、前記画像のどの領域を処理するか、又は処理しないかを選択する、態様1記載のマルチ−レイヤ映像復号システム。
〔態様15〕
前記第2レイヤ映像デコーダによる、処理を行わない領域の決定は、以前に復号されたピクチャ、スライス、又は第2レイヤのビットストリーム情報に基づく、態様1記載のマルチ−レイヤ映像復号システム。
〔態様16〕
前記第1レイヤは、ベースレイヤであり、
前記第2レイヤは、エンハンスメントレイヤであり、
前記マルチ−レイヤ映像復号システムは、ベースレイヤ及び1つ以上のエンハンスメントレイヤを含むシステムである、態様1乃至15いずれか一項に記載のマルチ−レイヤ映像復号システム。
〔態様17〕
前記第1レイヤは、第1エンハンスメントレイヤであり、
前記第2レイヤは、第2エンハンスメントレイヤであり、
前記マルチ−レイヤ映像復号システムは、ベースレイヤ及び複数のエンハンスメントレイヤを含むシステムである、態様1乃至15いずれか一項に記載のマルチ−レイヤ映像復号システム。
〔態様18〕
前記システムは、フレーム互換3次元(3D)映像システム、2次元(2D)互換3D映像システム、2Dスケーラブル映像システム、及び2D又は3Dマルチビューシステムから選択される、態様1乃至17いずれか一項に記載のマルチ−レイヤ映像復号システム。
〔態様19〕
映像デコーダであって:
符号化済みの信号を受信し、復号済みの信号を出力するのに適する復号ループと;
前記復号ループに接続され、復号済みの入力信号を受信し、処理された復号済みの入力信号を前記復号ループに送信するのに適する処理モジュールと;
前記処理モジュールに接続され、前記復号済みの入力信号を受信し、前記復号済みの入力信号を、前記処理モジュールに送信するか否かを選択するのに適するセレクタと、を含む、映像デコーダ。
〔態様20〕
前記映像デコーダは、
ベースレイヤ及び1つ以上のエンハンスメントレイヤを含む復号システムのエンハンスメントレイヤの映像デコーダである、態様19記載の映像デコーダ。
〔態様21〕
復号された映像情報を選択的に処理するための方法であって:
第1レイヤ映像デコーダ及び第2レイヤ映像デコーダを提供する段階と;
下記のいずれかを選択する段階と;
(a)前記第1レイヤ映像デコーダの出力を処理する
(b)前記第1レイヤ映像デコーダの出力を処理しない
(a)の場合、前記第1レイヤ映像デコーダの出力を処理し、処理済みの出力を前記第2レイヤ映像デコーダに入力する段階とを含む、方法。
〔態様22〕
処理と共にディスパリティ補償を実行する段階をさらに含む、態様21記載の方法。
〔態様23〕
映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:
復号済みの映像信号を提供する段階と;
前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;
(a)の場合、前記復号済みの映像信号を処理し、前記処理された復号済みの映像信号に基づいてディスパリティ補償を実行する段階と;
(b)の場合、前記復号済みの映像信号とは独立してディスパリティ補償を実行する段階とを含む、方法。
〔態様24〕
前記映像復号システムは、第1レイヤデコーダ及び第2レイヤのデコーダを含み、
前記復号済みの映像信号は、前記第1レイヤデコーダの出力であり;
ディスパリティ補償は、前記第2レイヤのデコーダで実行される、態様23記載の方法。
〔態様25〕
映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:
復号済みの映像信号を提供する段階と;
前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;
(a)の場合、第1ディスパリティ補償を実行し、前記第1ディスパリティ補償は、前記復号済みの映像信号の処理に基づき、該処理と同時に実行される、段階と;
(b)の場合、前記第1ディスパリティ補償とは異なる第2ディスパリティ補償を実行する段階とを含む、方法。
〔態様26〕
前記第1ディスパリティ補償で用いられる処理パラメータ及びディスパリティパラメータを提供する段階と;
前記第2ディスパリティ補償で用いられるディスパリティパラメータを提供する段階とさらに含み;
前記第1ディスパリティ補償で用いられる前記ディスパリティパラメータは、前記第2ディスパリティ補償で用いられる前記パラメータと同一である、態様25記載の方法。
〔態様27〕
前記第1レイヤは、ベースレイヤであり、
前記第2レイヤは、エンハンスメントレイヤである、態様21乃至26いずれか一項に記載の方法。
〔態様28〕
前記第1レイヤは、第1エンハンスメントレイヤであり、
前記第2レイヤは、第2エンハンスメントレイヤである、態様21乃至26いずれか一項に記載の方法。
〔態様29〕
マルチ−レイヤ符号化システムであって:
第1レイヤ映像エンコーダを含む、第1レイヤと;
前記第1レイヤと接続され、第2レイヤ映像エンコーダを含み、前記第2レイヤ映像エンコーダはディスパリティ推定モジュール及びディスパリティ補償モジュールを含む、第2レイヤと;
前記第1レイヤ映像エンコーダの出力を処理し、前記処理済みの出力を前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールに入力する処理モジュールとを含む、マルチ−レイヤ映像符号化システム。
〔態様30〕
前記第1レイヤ映像エンコーダは、ピクチャ参照バッファを含み、
前記処理モジュールにより処理された前記第1レイヤ映像エンコーダの前記出力は、前記ピクチャ参照バッファの出力である、態様29記載のマルチ−レイヤ符号化システム。
〔態様31〕
マルチ−レイヤ符号化システムであって;
第1レイヤ映像エンコーダを含む、第1レイヤと;
前記第1レイヤと関連付けられ、第2レイヤ映像エンコーダを含み、前記第2レイヤ映像エンコーダはディスパリティ推定モジュール、ディスパリティ補償モジュール及び処理モジュールを含む、第2レイヤとを含み、
前記処理モジュールは、前記ディスパリティ補償モジュールと結合され、
前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールは前記第1レイヤ映像エンコーダの出力を受信する、マルチ−レイヤ符号化システム。
〔態様32〕
前記第1レイヤ映像エンコーダは、ピクチャ参照バッファを含み、
前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールにより受信された前記第1レイヤ映像エンコーダの前記出力は、前記ピクチャ参照バッファの出力である、態様31記載のマルチ−レイヤ符号化システム。
〔態様33〕
前記ピクチャ参照バッファの前記出力は、前記ピクチャ参照バッファの処理済みの出力、又は前記ピクチャ参照バッファの未処理の出力から選択される、態様32記載のマルチ−レイヤ符号化システム。
〔態様34〕
前記ピクチャ参照バッファの前記出力は、前記ピクチャ参照バッファの未処理の出力であり、
前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールは、ディスパリティ推定及びディスパリティ補償それぞれの前に、前記ピクチャ参照バッファの前記出力の処理を実行する、態様33記載のマルチ−レイヤ符号化システム。
〔態様35〕
前記ピクチャ参照バッファの前記出力は、前記ピクチャ参照バッファの未処理の出力であり、
前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールは、ディスパリティ推定及びディスパリティ補償それぞれの前に、前記ピクチャバッファの前記出力の処理を実行しない、態様33記載のマルチ−レイヤ符号化システム。
〔態様36〕
マルチ−レイヤ符号化システムであって:
第1レイヤ映像エンコーダを含む、第1レイヤと;
前記第1レイヤと関連付けられ、第2レイヤ映像エンコーダを含む、第2レイヤと;
前記第1レイヤ映像エンコーダの出力を処理するか否かを選択するための処理セレクタと;
前記処理セレクタの指示に基づき、前記第1レイヤ映像エンコーダの前記出力を処理するための処理モジュールとを含み、
前記第1レイヤ映像エンコーダの処理済の出力、及び前記第1レイヤ映像エンコーダの未処理の出力は前記第2レイヤ映像エンコーダに送信される、マルチ−レイヤ符号化システム。
〔態様37〕
前記第2レイヤ映像エンコーダは、
ディスパリティ推定モジュール及びディスパリティ補償モジュールを含み、
前記第1レイヤ映像エンコーダの処理済みの出力及び前記第1レイヤ映像エンコーダの未処理の出力は、前記ディスパリティ推定モジュール及び前記ディスパリティ補償モジュールに送信される、態様36記載のマルチ−レイヤ符号化システム。
〔態様38〕
前記第1レイヤ映像エンコーダは、
ピクチャ参照バッファを含み、
前記第1レイヤ映像エンコーダの前記出力は、前記ピクチャ参照バッファの出力である、態様36又は37記載のマルチ−レイヤ符号化システム。
〔態様39〕
前記第1レイヤは、ベースレイヤであり、
前記第2レイヤは、エンハンスメントレイヤであり、
前記マルチ−レイヤ符号化システムは、ベースレイヤ及び1つ以上のエンハンスメントレイヤを含むシステムである、態様29乃至38いずれか一項に記載のマルチ−レイヤ符号化システム。
〔態様40〕
前記第1レイヤは、第1エンハンスメントレイヤであり、
前記第2レイヤは、第2エンハンスメントレイヤであり、
前記マルチ−レイヤシステムは、ベースレイヤ及び複数のエンハンスメントレイヤを含むシステムである、態様29乃至38いずれか一項に記載のマルチ−レイヤ符号化システム。
〔態様41〕
第1ブロック及び第2ブロックを含む画像フレーム、又はスライスを復号するための方法であって:
マルチ−レイヤ復号システムの第1レイヤデコーダで前記画像フレーム又はスライスのサンプルを復号する段階と;
前記復号済みサンプルを処理する段階と;
前記復号済みサンプルを、前記マルチ−レイヤ復号システムの第2レイヤデコーダに送信する段階と;
前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第1ブロックを生成する段階と;
前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第2ブロックを生成する段階とを含み、
前記第2ブロックを生成するのに採用される、前記処理された復号済みサンプルの一部は、前記第1ブロックを生成するために既に用いられた、記憶されている又は事前分析された処理された復号済みサンプルである、方法。
〔態様42〕
前記処理された復号済みサンプルはマップ構成を介して記憶される、態様41記載の方法。
〔態様43〕
前記第1ブロック及び前記第2ブロックは、前記画像フレーム又はスライスの隣接ブロックである、態様41又は42記載の方法。

Claims (28)

  1. マルチ−レイヤ映像復号システムであって:
    第1レイヤ映像デコーダを含む第1レイヤであり、前記第1レイヤ映像デコーダは第1レイヤ参照ピクチャバッファを含む、第1レイヤと;
    前記第1レイヤと関連付けられ、第2レイヤ映像デコーダを含む第2レイヤであり、前記第2レイヤ映像デコーダは第2レイヤ参照ピクチャバッファを含む、第2レイヤと;
    前記第1レイヤ参照ピクチャバッファ及び前記第2レイヤ参照ピクチャバッファに接続される参照処理セレクタであり、前記第1レイヤ映像デコーダの出力参照ピクチャを処理し、前記処理済みの出力参照ピクチャを前記第2レイヤ映像デコーダに入力するかどうかを選択するための参照処理セレクタと;
    前記参照処理セレクタの後段に位置し、前記参照処理セレクタの指示に基づき、前記第1レイヤ映像デコーダの出力参照ピクチャを処理し、前記処理済みの出力参照ピクチャを前記第2レイヤ映像デコーダに入力するための処理モジュールであり、参照処理フィルタ及びディスパリティ補償フィルタを含む、処理モジュールとを含み、
    前記処理モジュールは、前記第1レイヤ映像デコーダの前記出力参照ピクチャが処理されるとき、参照処理とともにディスパリティ補償を実行し、
    前記処理モジュールは、前記第1レイヤ映像デコーダの前記出力参照ピクチャが処理されないとき、参照処理を行わずにディスパリティ補償を実行する、マルチ−レイヤ映像復号システム。
  2. 前記参照処理セレクタは、
    画像の領域を分析し、前記領域に実行される分析に従って分割処理を選択するための領域分析モジュールを含む、請求項1記載のマルチ−レイヤ映像復号システム。
  3. 前記領域分析モジュールは、
    処理が必要な大多数の要素を有する領域、及び処理が必要でない大多数の要素を有する領域間で、前記画像を分割するために前記画像の前記領域を分析する、請求項2記載のマルチ−レイヤ映像復号システム。
  4. 前記マルチ−レイヤ映像復号システムは、
    前記処理モジュールとは別で、又は前記参照処理フィルタ及び前記ディスパリティ補償フィルタと結合されて、前記画像の前記領域を処理する、請求項3記載のマルチ−レイヤ映像復号システム。
  5. 処理が必要な要素の大多数を有する前記画像の領域は、ディスパリティ補償モジュールとは別の前記処理モジュールにより処理され、処理が不要な要素の大多数を有する前記画像の領域は、前記参照処理フィルタ及び前記ディスパリティ補償フィルタと結合された前記処理モジュールにより処理される、請求項4記載のマルチ−レイヤ映像復号システム。
  6. 前記領域分析モジュールは、
    第2レイヤビットストリーム入力を受信し、前記第2レイヤビットストリーム入力内に与えられた参照ピクチャ情報に基づいて前記領域を定義する、請求項3記載のマルチ−レイヤ映像復号システム。
  7. 前記領域分析モジュールは、
    参照ピクチャ情報及び動きベクトル及び/又はディスパリティベクトル情報に基づいて前記領域を定義する、請求項6記載のマルチ−レイヤ映像復号システム。
  8. 前記領域分析モジュールは、
    前記画像、前記画像のスライス、前記画像のスライスの一部に対して、前記第2レイヤビットストリーム入力に基づいて前記領域を定義する、請求項6記載のマルチ−レイヤ映像復号システム。
  9. 前記参照処理セレクタは、
    画像内で、前記画像のどの領域を処理するか、又は処理しないかを選択する、請求項1記載のマルチ−レイヤ映像復号システム。
  10. 前記第2レイヤ映像デコーダによる、処理を行わない領域の決定は、以前に復号されたピクチャ、スライス、又は第2レイヤのビットストリーム情報に基づく、請求項9記載のマルチ−レイヤ映像復号システム。
  11. 前記第1レイヤは、ベースレイヤであり、
    前記第2レイヤは、エンハンスメントレイヤであり、
    前記マルチ−レイヤ映像復号システムは、ベースレイヤ及び1つ以上のエンハンスメントレイヤを含むシステムである、請求項1乃至10いずれか一項に記載のマルチ−レイヤ映像復号システム。
  12. 前記第1レイヤは、第1エンハンスメントレイヤであり、
    前記第2レイヤは、第2エンハンスメントレイヤであり、
    前記マルチ−レイヤ映像復号システムは、ベースレイヤ及び複数のエンハンスメントレイヤを含むシステムである、請求項1乃至10いずれか一項に記載のマルチ−レイヤ映像復号システム。
  13. 前記システムは、フレーム互換3次元(3D)映像システム、2次元(2D)互換3D映像システム、2Dスケーラブル映像システム、及び2D又は3Dマルチビューシステムから選択される、請求項1乃至12いずれか一項に記載のマルチ−レイヤ映像復号システム。
  14. 映像デコーダであって:
    符号化済みの信号を受信し、復号済みの信号を出力する復号ループと;
    結合された処理モジュール及びディスパリティ補償モジュールは前記復号ループに接続され、前記処理モジュールは復号済みの入力信号を受信し、処理された復号済みの入力信号を前記復号ループに送信する、結合された処理モジュール及びディスパリティ補償モジュールと;
    前記処理モジュールに接続され、前記復号済みの入力信号を受信し、前記復号済みの入力信号を、前記結合された処理モジュール及びディスパリティ補償モジュールに送信するか否かを選択するセレクタと、を含む、映像デコーダ。
  15. 前記映像デコーダは、
    ベースレイヤ及び1つ以上のエンハンスメントレイヤを含む復号システムのエンハンスメントレイヤの映像デコーダである、請求項14記載の映像デコーダ。
  16. 映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:
    復号済みの映像信号を提供する段階と;
    前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;
    (a)の場合、前記復号済みの映像信号を処理し、前記処理された復号済みの映像信号に基づいてディスパリティ補償を実行する段階と;
    (b)の場合、前記復号済みの映像信号とは独立してディスパリティ補償を実行する段階とを含む、方法。
  17. 前記映像復号システムは、第1レイヤデコーダ及び第2レイヤデコーダを含み、
    前記復号済みの映像信号は、前記第1レイヤデコーダの出力であり;
    ディスパリティ補償は、前記第2レイヤデコーダで実行される、請求項16記載の方法。
  18. 映像復号システムにおけるディスパリティ補償を選択的に実行するための方法であって:
    復号済みの映像信号を提供する段階と;
    前記復号済みの映像信号に関する情報を(a)用いるか、(b)用いないかを選択する段階と;
    (a)の場合、第1ディスパリティ補償を実行し、前記第1ディスパリティ補償は、前記復号済みの映像信号の処理に基づき、該処理と同時に実行される、段階と;
    (b)の場合、前記第1ディスパリティ補償とは異なる第2ディスパリティ補償を実行する段階とを含む、方法。
  19. 前記第1ディスパリティ補償で用いられる処理パラメータ及びディスパリティパラメータを提供する段階と;
    前記第2ディスパリティ補償で用いられるディスパリティパラメータを提供する段階とをさらに含み;
    前記第1ディスパリティ補償で用いられる前記ディスパリティパラメータは、前記第2ディスパリティ補償で用いられる前記パラメータと同一である、請求項18記載の方法。
  20. 前記第1レイヤは、ベースレイヤであり、
    前記第2レイヤは、エンハンスメントレイヤである、請求項16乃至19いずれか一項に記載の方法。
  21. 前記第1レイヤは、第1エンハンスメントレイヤであり、
    前記第2レイヤは、第2エンハンスメントレイヤである、請求項16乃至19いずれか一項に記載の方法。
  22. マルチ−レイヤ符号化システムであって:
    第1レイヤ映像エンコーダを含む、第1レイヤと;
    前記第1レイヤと関連付けられ、第2レイヤ映像エンコーダ、ディスパリティ補償モジュール、及びディスパリティ推定モジュールを含む、第2レイヤと;
    前記第1レイヤ映像エンコーダの出力を処理するか否かを選択するための処理セレクタと;
    前記処理セレクタの指示に基づき、前記第1レイヤ映像エンコーダの前記出力を処理するための処理モジュールとを含み、
    前記処理モジュールは前記ディスパリティ補償モジュールと結合され、
    前記第1レイヤ映像エンコーダの処理済の出力、及び前記第1レイヤ映像エンコーダの未処理の出力は前記ディスパリティ補償モジュール及び前記ディスパリティ推定モジュールに送信される、マルチ−レイヤ符号化システム。
  23. 前記第1レイヤ映像エンコーダは、
    ピクチャ参照バッファを含み、
    前記第1レイヤ映像エンコーダの前記出力は、前記ピクチャ参照バッファの出力である、請求項22記載のマルチ−レイヤ符号化システム。
  24. 前記第1レイヤは、ベースレイヤであり、
    前記第2レイヤは、エンハンスメントレイヤであり、
    前記マルチ−レイヤ符号化システムは、ベースレイヤ及び1つ以上のエンハンスメントレイヤを含むシステムである、請求項22又は23記載のマルチ−レイヤ符号化システム。
  25. 前記第1レイヤは、第1エンハンスメントレイヤであり、
    前記第2レイヤは、第2エンハンスメントレイヤであり、
    前記マルチ−レイヤシステムは、ベースレイヤ及び複数のエンハンスメントレイヤを含むシステムである、請求項22又は23記載のマルチ−レイヤ符号化システム。
  26. 第1ブロック及び第2ブロックを含む画像フレーム、又はスライスを復号するための方法であって:
    マルチ−レイヤ復号システムの第1レイヤデコーダで前記画像フレーム又はスライスのサンプルを復号する段階と;
    前記復号済みサンプルを処理する段階と;
    前記復号済みサンプルを、前記マルチ−レイヤ復号システムの第2レイヤデコーダに送信する段階と;
    前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第1ブロックを生成する段階と;
    前記処理された復号済みサンプルから、ディスパリティ補償処理を介して、前記画像の第2ブロックを生成する段階とを含み、
    前記第2ブロックを生成するのに用いられる前記処理された復号済みサンプルの一部は、前記第1ブロックを生成するために既に用いられた記憶されている又は事前分析された処理された復号済みサンプルである、方法。
  27. 前記処理された復号済みサンプルはマップ構成を介して記憶される、請求項26記載の方法。
  28. 前記第1ブロック及び前記第2ブロックは、前記画像フレーム又はスライスの隣接ブロックである、請求項26又は27記載の方法。
JP2012550019A 2010-01-27 2011-01-05 画像及び映像コーデックにおける参照処理のための方法及びシステム Active JP5680674B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US29890710P 2010-01-27 2010-01-27
US61/298,907 2010-01-27
PCT/US2011/020168 WO2011094034A2 (en) 2010-01-27 2011-01-05 Methods and systems for reference processing in image and video codecs

Publications (2)

Publication Number Publication Date
JP2013518465A JP2013518465A (ja) 2013-05-20
JP5680674B2 true JP5680674B2 (ja) 2015-03-04

Family

ID=44259886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012550019A Active JP5680674B2 (ja) 2010-01-27 2011-01-05 画像及び映像コーデックにおける参照処理のための方法及びシステム

Country Status (5)

Country Link
US (1) US8938011B2 (ja)
EP (1) EP2529551B1 (ja)
JP (1) JP5680674B2 (ja)
CN (1) CN102726046B (ja)
WO (1) WO2011094034A2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9270871B2 (en) 2009-04-20 2016-02-23 Dolby Laboratories Licensing Corporation Optimized filter selection for reference picture processing
CN102450010A (zh) 2009-04-20 2012-05-09 杜比实验室特许公司 定向内插和数据后处理
US9538128B2 (en) * 2011-02-28 2017-01-03 Cisco Technology, Inc. System and method for managing video processing in a network environment
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
TWI595770B (zh) 2011-09-29 2017-08-11 杜比實驗室特許公司 具有對稱圖像解析度與品質之圖框相容全解析度立體三維視訊傳達技術
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US9014263B2 (en) 2011-12-17 2015-04-21 Dolby Laboratories Licensing Corporation Multi-layer interlace frame-compatible enhanced resolution video delivery
US20130208809A1 (en) * 2012-02-14 2013-08-15 Microsoft Corporation Multi-layer rate control
JP5905610B2 (ja) 2012-03-12 2016-04-20 ドルビー ラボラトリーズ ライセンシング コーポレイション 3d視覚的ダイナミックレンジ符号化
EP2642755B1 (en) * 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
CN104521236B (zh) * 2012-07-27 2017-10-20 寰发股份有限公司 三维视频编码或解码方法
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
WO2014109609A1 (ko) * 2013-01-10 2014-07-17 삼성전자 주식회사 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치
WO2014163466A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 정수 픽셀의 위치와 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
CN105264890B (zh) * 2013-04-05 2019-05-31 三星电子株式会社 用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备
US9432667B2 (en) * 2013-06-11 2016-08-30 Qualcomm Incorporated Processing bitstream constraints relating to inter-layer prediction types in multi-layer video coding
JP6261215B2 (ja) * 2013-07-12 2018-01-17 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
WO1998017068A1 (en) 1996-10-11 1998-04-23 Sarnoff Corporation Stereoscopic video coding and decoding apparatus and method
JP3617925B2 (ja) * 1998-05-28 2005-02-09 Kddi株式会社 ステレオ動画像用符号化装置
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
ES2625902T3 (es) * 2006-01-09 2017-07-20 Dolby International Ab Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas
JP5377287B2 (ja) * 2007-03-02 2013-12-25 パナソニック株式会社 ポストフィルタ、復号装置およびポストフィルタ処理方法
EP2241111A1 (en) * 2008-01-07 2010-10-20 Thomson Licensing Methods and apparatus for video encoding and decoding using parametric filtering
EP2269378A2 (en) 2008-04-25 2011-01-05 Thomson Licensing Multi-view video coding with disparity estimation based on depth information
KR101648818B1 (ko) * 2008-06-12 2016-08-17 톰슨 라이센싱 움직임 보상 보간 및 참조 픽쳐 필터링에 대한 국부적 적응형 필터링을 위한 방법 및 장치
EP2422520A1 (en) 2009-04-20 2012-02-29 Dolby Laboratories Licensing Corporation Adaptive interpolation filters for multi-layered video delivery
CN102450010A (zh) 2009-04-20 2012-05-09 杜比实验室特许公司 定向内插和数据后处理
US9774882B2 (en) 2009-07-04 2017-09-26 Dolby Laboratories Licensing Corporation Encoding and decoding architectures for format compatible 3D video delivery

Also Published As

Publication number Publication date
EP2529551A2 (en) 2012-12-05
WO2011094034A3 (en) 2011-11-17
CN102726046B (zh) 2015-09-09
EP2529551B1 (en) 2022-03-16
WO2011094034A2 (en) 2011-08-04
US20120288013A1 (en) 2012-11-15
CN102726046A (zh) 2012-10-10
JP2013518465A (ja) 2013-05-20
US8938011B2 (en) 2015-01-20

Similar Documents

Publication Publication Date Title
JP5680674B2 (ja) 画像及び映像コーデックにおける参照処理のための方法及びシステム
US10798412B2 (en) Encoding and decoding architectures for format compatible 3D video delivery
JP6633694B2 (ja) 多視点信号コーデック
US10484678B2 (en) Method and apparatus of adaptive intra prediction for inter-layer and inter-view coding
US9078008B2 (en) Adaptive inter-layer interpolation filters for multi-layered video delivery
EP2591609B1 (en) Method and apparatus for multi-layered image and video coding using reference processing signals
JP5324563B2 (ja) ビデオ符号化及び復号化におけるタイリング
CN106454358B (zh) 图像处理设备和图像处理方法
EP2524505B1 (en) Edge enhancement for temporal scaling with metadata
US20130194386A1 (en) Joint Layer Optimization for a Frame-Compatible Video Delivery
US20140247890A1 (en) Encoding device, encoding method, decoding device, and decoding method
TW201639365A (zh) 用於線性模型預測模式之降低取樣處理
US20200252642A1 (en) Method and device for inducing motion information between temporal points of sub prediction unit
JP2013516906A (ja) マルチ−レイヤ化されたビデオシステムのための複雑度を適応的にするスケーラブル復号及びストリーミング
KR20210129736A (ko) 옵티컬 플로 기반 비디오 인터 예측
KR20210129210A (ko) 비디오 코딩에서의 널 타일 코딩
US20120087594A1 (en) Image-encoding apparatus and image-decoding apparatus for efficiently transmitting a large capacity image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150107

R150 Certificate of patent or registration of utility model

Ref document number: 5680674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250