JP6000463B2 - 3d映像符号化の仮想深度値の方法および装置 - Google Patents

3d映像符号化の仮想深度値の方法および装置 Download PDF

Info

Publication number
JP6000463B2
JP6000463B2 JP2015532288A JP2015532288A JP6000463B2 JP 6000463 B2 JP6000463 B2 JP 6000463B2 JP 2015532288 A JP2015532288 A JP 2015532288A JP 2015532288 A JP2015532288 A JP 2015532288A JP 6000463 B2 JP6000463 B2 JP 6000463B2
Authority
JP
Japan
Prior art keywords
disparity vector
block
view
depth
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015532288A
Other languages
English (en)
Other versions
JP2015533038A (ja
JP2015533038A5 (ja
Inventor
ユーリン ヂァン,
ユーリン ヂァン,
ツァイ,ユーバオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2015533038A publication Critical patent/JP2015533038A/ja
Publication of JP2015533038A5 publication Critical patent/JP2015533038A5/ja
Application granted granted Critical
Publication of JP6000463B2 publication Critical patent/JP6000463B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本出願は、2012年9月21日に出願された米国特許仮出願番号第61/703901号「Method to Retrieve Depth Values for 3D Video Coding」、2012年10月9日に出願された米国特許仮出願番号第61/711314号「Method to Predict Motion Vector for 3d Video Coding」からの優先権を主張するものであり、これらの全ては引用によって本願に援用される。
本発明は、3次元映像符号化に関し、特に、3D映像符号化の仮想深度値の導出に関するものである。
3次元(3D)テレビは、視聴者のセンセーショナルな視聴体験をもたらすことを目的とする、近年の技術である。様々な技術が3D視聴を可能にするように開発されてきた。その中でも、マルチビュービデオは、3DTVの中でも鍵となる技術である。従来の映像は、カメラのビューから視聴者にシーンの単一のビューのみを提供する、2次元の(2D)媒体であった。しかしながら、マルチビュービデオは、動的シーンの任意のビューを提供し、視聴者に臨場感を体感させることができる。
マルチビュービデオは、通常、複数のカメラを、各カメラが1つのビューからシーンをキャプチャするように、適切に配置した上で、同時に複数のカメラを用いてシーンをキャプチャすることによって作られる。従って、複数のカメラが複数のビューに対応して、複数のビデオシーケンスをキャプチャする。より多くのビューを提供するようにするために、より多くのカメラが、ビューと関連した多数のビデオシーケンスを有するマルチビュービデオを生成するのに用いられてきた。従って、マルチビュービデオは、保存するための大容量の記憶領域、および/または、伝送するための高帯域幅を必要とする。このため、マルチビュー映像符号化の技術は、記憶領域または伝送帯域幅を減らすように、開発されてきた。
直接のアプローチは、単に従来の映像符号化の技術を各シングルビューでビデオシーケンスに個別に適用させることで、異なるビューであらゆる相関関係を無視することができる。このような符号化システムは、非常に効率が悪い。マルチビュー映像符号化(MVC)の効率を向上させるために、一般のマルチビュー映像符号化は、視点間(inter−view)冗長性を利用している。このため、ほとんどの3D映像符号化(3DVC)システムは、複数のビューと深度マップに関連したビデオデータの相関関係を考慮する。MVCは、時間的予測と空間的予測を用いて圧縮効率を向上させる。MVCの開発段階においては、照度補償、適応参照フィルタリング、動きスキップモード、および視点合成予測(VSP)を含む、いくつかのマクロブロックレベルの符号化ツールが提案される。これらの符号化ツールは、複数の視点間冗長性を利用するように提案されている。照度補償は、異なる視点間の照度変動を補償することを目的としている。適応参照フィルタリングは、カメラ間の焦点の不整合による変動を減少することを目的としている。動きスキップモードは、現在のビューで動きベクトルが他のビューから推測されるのを許可する。視点合成予測は、他のビューから現在のビューの画像を予測するように用いられる。
しかしながら、MVCでは、深度マップおよびカメラパラメータは、符号化されない。新世代の3D映像符号化(3DVC)の近年の標準化の開発では、テクスチャデータ、深度データ、およびカメラパラメータは、全て符号化される。新世代の3D映像符号化(3DVC)技術の深度データとカメラパラメータの存在により、テクスチャ画像と深度マップ間の関係は、圧縮能力を更に向上させるために研究する必要がある。深度マップとテクスチャ画像は、それらが全て同一形状に対応しているため、高い相関性を持つ。テクスチャデータと深度データ間の冗長性は、対応する相関関係を通して利用される。例えば、深度マップは、高い符号化利得または少ない符号化時間のテクスチャ画像圧縮を助けることができる。また、深度マップは変換されて、テクスチャ画像に対応するペアを表すことができ、視点間予測のプロセスに役立つ。
3D映像符号化では、テクスチャデータと深度データの符号化順序は、テクスチャと深度間の冗長性のため、常に問題となっている。3D映像符号化の第1の標準開発中、符号化順序は、AVCベースの3D映像符号化(3D−AVC)用に、ディペンデントビューのテクスチャデータの前に深度データを符号化するように選ばれている。一方、符号化順序は、HEVCベースの3D映像符号化(3D−HEVC)用に、ディペンデントビューの深度データの前にテクスチャ深度データを符号化するように選ばれている。3D−HEVC用に符号化順序を変えることが可能な、フレキシブルな符号化順序を実現する技術は、文献に述べられている。テクスチャ用の符号化効率は、深度情報を参照することによって向上させることができる。深度情報は、多くの異なる方法で符号化効率を向上できる。3D−AVCの深度ベースの動きベクトル予測(DMVP)は、符号化された深度を用いて動きベクトル予測の精度を向上できる。深度マップは、動きパラメータ予測の視点間候補を特定することを助ける。視点合成予測(VSP:View Synthesis Prediction)は、他のビューからワーピングされた(warped)フレームから視点間参照を特定する一般的な予測方法(popular topic)である。視点合成予測では、第1のビューのテクスチャデータと深度データがまず符号化/復号化される。第2のビューは、第1のビューを第2のビューの位置にワーピングすることによって予測されることができる。深度マップは、テクスチャ画像を正しい位置にワーピングするのを助ける。
動きベクトルの継承と視点間動きパラメータ予測などの符号化ツールは、現在のブロックの予測を向上させる深度情報を更に活用する。3DVC標準化の近年の開発では、予測された深度マップ(PDM:Predicted Depth Map)アルゴリズムが開示され、深度情報を現在のテクスチャ画像に提供している。予測された深度マップは符号化された視差ベクトルから導出されるか、または符号化されたビューの深度マップからワーピングされる。現在のブロックは、予測された深度マップから分割された動きパラメータによって符号化されることができる。隣接するブロックの視差ベクトル(NBDV:Neighboring Block Disparity Vector)は、文献に述べられている。NBDVは、隣接するブロックの視点間予測からの視差ベクトル(DV)を用いて、動きベクトル予測を向上させる。しかしながら、NBDVは、PDMに基づき第1の方法に置き換えているが、深度情報は、なお3D−AVCにおいて役立つことが証明されている。深度情報は、符号化効率を向上させるのに役立つことができるため、現在のブロック用に深度情報を得る方法は、重要になっている。従って、3次元映像符号化の仮想深度情報を生成する方法を開発することが望ましい。
本発明は、3D映像符号化の仮想深度値を抽出するための方法及び装置を提供する。
仮想深度情報を用いた3次元映像符号化または復号化の方法および装置が示されている。ディペンデントビューの現在のテクスチャブロックでは、本発明を組み込んだ方法は、まず、推定された視差ベクトルを導出して対応するテクスチャブロック符号化されたビューに配置する。符号化されたビューの対応するテクスチャブロックと同一配置された(collocated with)符号化されたビューの同一位置の深度ブロックは特定され、仮想深度情報を導出するのに用いられる。本発明の一態様は、推定された視差ベクトルの導出プロセスに取り組むことである。推定された視差ベクトルは、ディペンデントビューの現在のテクスチャブロックの視差ベクトルの候補に基づいて導出されることができる。視差ベクトルの候補は、ディペンデントビューの現在のテクスチャブロックの空間的/時間的に隣接するブロックから導出、または現在のテクスチャブロックに対応する時間的に同一位置のテクスチャブロックの1つ以上の空間的/時間的に隣接するブロックから導出されることができ、空間的/時間的に隣接するブロックは、視差補償予測(DCP)ブロック、または視差ベクトル動き補償予測(DV−MCP)ブロックである。例えば、視差ベクトルの候補は、前記1つ以上の空間的/時間的に隣接するブロックの全ての視差ベクトルまたは一部の視差ベクトルの平均、最大、最小、または中間に対応することができる。視差ベクトルの候補は、ディペンデントビューの符号化されたグローバルな幾何学モデルから導出されることができる。
推定された視差ベクトルは、探索順序に基づいて、視差ベクトルの候補から決定されることができる。もう1つの実施形態では、推定された視差ベクトルの導出のプロセスは、視差ベクトルの候補から第1の視差ベクトルを選び、符号化されたビューの深度参照ブロックを得るステップ、深度参照ブロックから、符号化されたビューの対応するテクスチャブロックからディペンデントビューの第1の位置を指している第2の視差ベクトルを抽出するステップ、第1の視差ベクトルと第2の視差ベクトルとの間の整合性エラーを決定するステップ、および推定された視差ベクトルとして最小の整合性エラーとなる視差ベクトルの候補から1つの視差ベクトルの候補を選ぶステップを含む。もう1つの実施形態では、推定された視差ベクトルの導出のプロセスは、1つの視差ベクトルの候補に対応する符号化されたビューの深度参照ブロックを得るステップ、深度参照ブロックから変換された視差ベクトルを抽出するステップ、変換された視差ベクトルと1つの視差ベクトルの候補との間の整合性エラーを決定するステップ、および推定された視差ベクトルとして最小の整合性エラーを有する1つの変換された視差ベクトルを選ぶステップを含む。
本発明のもう1つの一態様は、推定された仮想ベクトル深度情報の使用に取り組むことである。1つの応用では、導出された仮想深度情報は、視点合成予測に用いられ、現在のテクスチャブロックの分割からなるサブブロックのサブブロック視差ベクトルを導出する。もう1つの応用では、動きベクトル予測子または視差ベクトル予測子は、仮想深度情報から導出され、マージモードまたはスキップモードで符号化された現在のテクスチャまたは深度ブロックの符号化または復号化に用いられる。現在のテクスチャまたは深度ブロックの分割は、仮想深度情報から継承または導出されることができる。またもう1つの応用では、仮想深度情報は、視点間動き補償を用いて、現在のテクスチャまたは深度ブロックを符号化する参照ブロックを導出するのに用いられることができる。仮想深度情報は、現在のテクスチャまたは深度ブロックの視点間動き予測の視差ベクトルを導出するのに用いられることもできる。視点間視差ベクトルは、現在のテクスチャまたは深度ブロックと関連した残差データの視点間残差予測の仮想深度情報から得られることができる
本実施形態に係る、仮想深度情報の導出を例示している。 視差ベクトルの候補を決定する現在のブロックと関連した隣接のブロックを例示している。 推定された視差ベクトルが探索順序に基づいて視差ベクトルの候補から決定される、推定された視差ベクトルの導出を例示している。 推定された視差ベクトルが最小の整合性エラーを有する視差ベクトルの候補から決定される、推定された視差ベクトルの導出を例示している。 抽出された視差ベクトルが最小の整合性エラーを有する視差ベクトルの候補から導出された抽出された視差ベクトルに基づき決定される、推定された視差ベクトルの導出を例示している。 サブブロックのサブブロック視差ベクトルが導出された仮想深度情報から導出される、視点合成予測の導出された仮想深度情報の使用方法を例示している。 視差ベクトル予測子が導出された仮想深度情報から導出される、視点間動き予測の導出された仮想深度情報の使用方法を例示している。 テクスチャブロックの分割が導出された仮想深度情報に基づいて継承、または導出される、テクスチャブロックの分割の導出された仮想深度情報の使用方法を例示している。 参照ブロックが導出された仮想深度情報を用いて配置される、インター/視点間予測(Inter/inter−view prediction)の導出された仮想深度情報の使用方法を例示している。 仮想深度ブロックが深度イントラ予測または深度分割の予測子として用いられる、深度イントラ予測または深度分割の導出された仮想深度情報の使用方法を例示している。 本実施形態に係る、仮想深度情報を組み込んだ符号化システムのフローチャートを示している。
本実施形態において、仮想深度の取得方法は、現在のテクスチャ画像と関連した実際の深度マップの使用をなくし、その代わりに、深度値は予測ベースの予め符号化された深度データを用いて導出される。導出された深度値は、本実施形態では仮想深度値(virtual depth values)と呼ばれる。仮想深度の取得方法は、以下の第1、第2ステップからなる。第1ステップは、推定された視差ベクトルを用い、現在のブロック(CB)に対応して、符号化したビューでテクスチャブロックを配置するステップである。第2ステップは、現在のブロックの仮想深度として符号化されたビューで同一位置(collocated)の深度を用いるステップである。
本実施形態に係る仮想深度の導出プロセスが図1に示されている。ビュー0の符号化されたテクスチャ画像および符号化された深度マップは、それぞれT0とD0とする。ビュー1で符号化されるテクスチャは、T1とする。符号化される現在のブロック(CB)は、T1のブロック110とする。推定された視差ベクトル120は、符号化されたテクスチャT0の対応するブロック(110A)を配置するように用いられる。T0の点線で示すボックスは、ブロック110の位置に対応する。次いで、T0のブロック110Aは、符号化されたビューD0の深度ブロック110Bを配置するように用いられる。次いで、深度ブロック110Bと関連した深度データは、現在のテクスチャ画像T1用に仮想深度ブロック110Cを導出する。導出された仮想深度ブロック110Cは、現在の深度マップD1に用いられることができる。
推定された視差ベクトルを導出する各種の手順がある。例えば、推定された視差ベクトルは、視差ベクトルの候補から導出されることができる。視差ベクトルの候補は、空間的/時間的に隣接するブロックから導出されることができる。隣接するブロックは、視差補償予測(DCP:Disparity Compensation Predicted)ブロック、空間的/時間的に隣接する視差ベクトルの動き補償予測(DV−MCP:Disparity Vector Motion Compensation Predicted)ブロック、または1セットの符号化された視差ベクトルであるか、もしくは現在のビューのシーンのおおよそ幾何学(rough geometry)を示すグローバルなモデル(global model)である。グローバルな幾何学モデルは、符号化された視差または深度ベクトルに対応することができる。グローバルな幾何学モデルは、符号化されたラフな(rough)メッシュモデルに対応することもできる。隣接するブロックに関連した視差ベクトルの候補が得られない場合、デフォルトの視差ベクトルが用いられることができる。現在のブロックの隣接するブロックの例が図2に示される。ブロック210は、現在のブロックに対応し、ブロック220は、現在のブロックの上側隣接ブロックに対応し、ブロック230は、現在のブロックの左側隣接ブロックに対応する。隣接するブロックは、時間的に同一位置の隣接するブロックも含むことができる。また、隣接するブロックは、時間的に同一位置のブロックの隣接するブロックも含むことができる。視差ベクトルは、視差ベクトルの候補の全てまたは一部の平均、最大、最小、または中間に基づいて導出されることができる。
視差ベクトルの候補が決定された後、同様のチェックプロセスを視差ベクトルの候補に行うことができる。このプロセスは、選ばれた視差ベクトルの候補が、現在のブロックの上側または現在のブロックの左側のブロックの隣接の視差ベクトルの候補と類似しているかどうかをチェックするものである。隣接するブロックの中の最も高い類似性をもつ視差ベクトルの候補が、推定された視差ベクトルとして用いられることができる。例えば、左上隣接ブロックの視差ベクトルの候補が左隣接ブロックの視差ベクトルの候補よりも上隣接ブロックの視差ベクトルの候補に類似する場合、上隣接ブロックの視差ベクトルの候補は、推定された視差ベクトルとして選ばれる。上隣接ブロックの視差ベクトルの候補が推定された視差ベクトルとして選ばれない場合には、左隣接ブロックの視差ベクトルの候補が推定された視差ベクトルとして選ばれる。
一旦、視差ベクトルの候補が決定されると、仮想深度を得るのに用いられる最終の視差ベクトルが視差ベクトルの候補から導出される。最終の推定された視差ベクトルを導出するためには、多くの方法がある。推定された視差ベクトルの3つの例示的な導出プロセスが以下に述べられる。
推定された視差ベクトルの導出の第1例は、図3に示される。推定された視差ベクトル(310)は、探索順序に基づいて、現在のブロック(340)の隣接するブロック(320と330)と関連した視差ベクトルの候補から決定される。視差ベクトルの候補は、探索順序に応じてチェックされ、第1の現存の視差ベクトルの候補は、推定された視差ベクトルとして選ばれる。探索順序は、予め定められることができる。現在のブロック(340)に対応する符号化されたテクスチャT0のテクスチャブロック(340A)は、推定された視差ベクトル(310)を用いて配置されることができる。符号化された深度D0の同一位置の深度ブロック(340B)が配置され、同一位置の深度ブロック(340B)は、現在のテクスチャT1の現在のテクスチャブロック用に仮想深度データ(350)を導出するように用いられることができる。符号化された深度D0の同一位置の深度ブロック(340B)は、現在のディペンデントビューによって仮想深度として導出されて用いられることができる。また、符号化された深度D0の同一位置の深度ブロック(340B)は、ワーピングされて、または変換されて仮想深度情報を得ることができる。例えば、アフィン変換(affine transform)が同一位置の深度ブロックを仮想深度情報に変換するのに用いられてもよい。符号化されたT0とD0の破線ボックスは、現在のブロックの位置に対応する。隣接するブロック(320と330)の例示的なセットが図3に示されているが、隣接するブロックは、1つ以上の時間的に同一位置の隣接するブロックも含むことができる。他の空間的に隣接するブロックの構成も用いられることができる。
第2の例では、図4に示されるように、推定された視差ベクトルの導出は、視差ベクトルの候補から第1の視差ベクトルv(410)を選び、深度参照ブロック(410B)を得る。第1の視差ベクトル410は、深度参照ブロック410Bに応じて符号化されたテクスチャT0に対応するブロック(410A)を指す。現在のビューを示している第2の視差ベクトルv(420)は、次いで深度参照ブロック410Bから抽出される。第2のDVは、深度参照の全ての深度値または一部の深度値の平均、最大、最小、または中間から抽出されることができる。符号化されたT0とD0の破線ボックスは、現在のブロックの位置に対応する。現在のテクスチャT1の破線ボックス(410C)は、T0の符号化されたT0とD0の対応するブロック(410A)の位置に対応する。整合性チェックは、第2の視差ベクトルに行われることができる。整合性エラーは、第1の視差ベクトルおよび第2の視差ベクトルとの間の差に対応することができる。また、整合性エラーは、現在のブロック(440)の中央(430A)と第2の視差ベクトル(420)によって示された現在のビューに対応する位置(430B)との間の距離に、対応することができる。最小の整合性エラーとなる視差ベクトルの候補は、推定された視差ベクトルとして選ばれることができる。他のタイプの整合性チェックも推定された視差ベクトルを選ぶのに用いられることができる。
第3の例では、推定された視差ベクトルの導出は、図5に示される視差ベクトルの候補に基づいて、複数の深度参照ブロックを得る。2つの深度参照ブロック(510Aと510B)が図5に示されている。2つの深度参照ブロックは、(図5に示されていない)2つの対応する視差ベクトルの候補に基づいて決定される。現在のテクスチャT1の破線ボックス(510Cと510D)は、T0に対応するブロック(510Aと510B)の位置に対応する。次いで、視差ベクトルは、深度参照ブロックから抽出される。視差ベクトルは、深度参照ブロックの全ての深度値または一部の深度値の平均、最大、最小、または中間に基づいて抽出されることができる。図5は、1つの視差ベクトル(520)が深度参照ブロックから抽出されることを示している。整合性チェックを、各抽出された視差ベクトルに行うことができる。第2の例の整合チェックと同様に、整合性エラーは、抽出された視差ベクトルと対応する視差ベクトルの候補との間の差に対応することができる。また、整合性エラーは、現在のブロック(540)の中央(530A)と抽出された視差ベクトル(520)によって示された現在のビューで対応する位置(530B)との間の距離に対応することができる。最小の整合性エラーを有する抽出された視差ベクトルは、推定された視差ベクトルとして選ばれることができる。
仮想深度情報が得られた後、仮想深度情報を、各種の符号化ツールまたは符号化プロセスによって用いることができる。3次元符号化システムの仮想深度情報の使用は、指示に応じて適応的に使用可能または不可能にすることができる。例えば、フラグは、仮想深度情報の使用が可能か否かを指示するのに用いられることができる。テクスチャブロックまたは深度ブロックは、画像領域、任意の形状、または画素に対応することができる。仮想深度のいくつかの例示的な使用法を以下に示す。
利用1−仮想視点合成予測(Virtual View Synthesis Prediction)
視点合成予測では、両テクスチャと深度情報が視点合成予測に必要である。導出される仮想深度は、視点合成のための深度情報として用いられることができる。深度情報は、上述の導出プロセスによって得られる。後方マッピングの視点合成は、取得した深度情報に応じてテクスチャ情報を符号化されたテクスチャT0に配置する。例えば、図6では、得られた深度情報(610)は、現在のテクスチャブロック620によって仮想深度参照(610A)として用いられ、テクスチャ情報(符号化されたテクスチャT0で斜線ボックスによって図示されている)を配置する。現在のテクスチャブロックは、複数のサブブロックに分割されることができる。サブブロック視差ベクトル(符号化されたテクスチャT0で矢印により図示されている)は、対応する仮想深度サブブロック(610A)から導出できる。後方マッピングの視点合成は、仮想深度および指示されたテクスチャ情報によって行われる。合成ブロックは、予測用に参照として用いられることができる。配置されたテクスチャ情報(符号化されたテクスチャT0で斜線ボックスによって図示されている)は、合成ブロックに対応する。また、仮想深度は、前方マッピング用に参照領域を制限するように用いられることが可能である。前方および後方の両方のマッピングは、仮想深度より利点を得る。サブブロック視差ベクトルは、仮想深度マップの同一位置のサブブロック内の全ての深度値または一部の深度値の平均、最大、最小、または中間に基づいて決定されることができる。
利用2−視点間動きベクトル予測(Inter−view Motion Vector Prediction)
現存するHEVCベースの3D映像符号化では、動き予測は、視差補償を視点間動き補償とし、視点間参照画像を参照リストに置き、視差ベクトルを動きベクトルとして用いる。本実施形態は、動きベクトルとして仮想深度データに基づく視差ベクトルを導出する。図7は、仮想深度を用いて、視点間動き予測用に視差ベクトル予測子を導出する例を示している。動きベクトル予測子は、仮想深度から抽出された視差ベクトルを用いることによって得られ、符号化されたビューで動きベクトルを参照することもできる。視差ベクトル予測子(DVP)または抽出された視差ベクトルは、仮想深度から変換された最大視差、平均視差、または一部の最大視差とすることができる。いくつかの映像符号化システムでは、動きベクトル予測子候補のリストが、維持され、最終の動きベクトル予測子がリストから選ばれる。この場合、抽出されたMVPまたはDVPは、候補として用いることもできる。例えば、抽出された深度情報(710)は、現在のブロック(720)によって仮想深度参照(710A)として用いられ、DVP(730)を配置する。
利用3−分割継承(Partition Inheritance)
図8に示されるように、現在のブロックの分割は、仮想深度を参照して、更なる分割が必要かどうかを決定することができる。仮想深度ブロックが深度ブロックに分割が必要であると示す場合、更なる分割が現在のテクスチャブロックに適用される。例えば、図8の仮想深度ブロック(810)が仮想深度ブロックに分割が必要であると示した場合、現在のテクスチャブロック(820)も分割される。他のケースでは、仮想深度の分割が知られている場合、現在のブロックの分割は、仮想深度の分割から継承されることができる。フラグは、分割の継承が用いられるかどうかを示すのに用いられる。
利用4−深度符号化予測(Depth Coding Prediction)
図9に示されるように、仮想深度ブロック(910)は、同一位置のテクスチャブロック(920)の視差ベクトルに応じて見つけられることができる。仮想深度ブロック(910)は、ディペンデント深度D1の深度ブロック(930)のインター/視点間予測用に参照として用いられる。
利用5−深度イントラ予測(Depth Intra Prediction)
図10に示されるように、仮想深度ブロック(1010)は、同一位置のテクスチャブロック(1020)の視差ベクトルに応じて見つけられることができる。仮想深度ブロック(1010)は、ディペンデント深度D1の深度ブロック(1030)の深度イントラ予測または深度ブロック分割用に予測子として用いられることができる。
利用6−マージ/スキップモード(Merge/Skip Mode)
仮想深度のサブセットは、マージ/スキップモードの時間的な視点間動きベクトルのマージ候補用に視差ベクトルを導出するのに用いられることができる。マージ/スキップモードで符号化されたテクスチャまたは深度ブロックは、深度を参照して、マージ/スキップモードに用いられる視差ベクトル予測子を決定することができる。
利用7−視点間残差予測(Inter−view Residual Prediction)
3D−HEVCでは、視点間残差予測が用いられ、現在のビューで残差情報は、視点間視差ベクトルに基づいて符号化されたビューで参照データを用いて予測される。視点間視差ベクトルは、仮想深度から得られることができる。視点間視差ベクトルは、仮想深度の最大視差、平均視差、または一部の最大視差とすることができる。視点間視差ベクトルが得られた後、残差情報は、導出された視差ベクトルに応じて符号化されたビューで参照データによって予測できる。
図11は、本実施形態に係る、仮想深度情報の使用を組み込んだ3次元符号化または復号化システムの例示的なフローチャートを示している。このシステムは、ステップ1110にて、ディペンデントビューで現在のテクスチャブロックと関連した入力データを受信する。符号化では、入力データは、現在のテクスチャまたは深度ブロックと関連しており、元の画素データまたは符号化される深度データに対応する。視点間残差予測のケースでは、現在のテクスチャブロックと関連した入力データは、視点間予測される残差画素データまたは深度データ、或いは残差を計算する符号化されたビューで再構成された画素データに対応する。復号化では、入力データは、現在のテクスチャまたは深度ブロックと関連した符号化されたデータに対応する。入力データは、コンピュータメモリ、バッファ(RAMまたはDRAM)または他のメディアなどの記憶装置から得られることが可能である。入力データは、第1のデータを生成するコントローラ、中央演算処理装置(CPU)、デジタル信号プロセッサ、または電子回路などのプロセッサから受信できる。ステップ1120にて、符号化されたビューで対応するテクスチャブロックを配置するために、推定された視差ベクトルが導出される。ステップ1130にて、符号化されたビューで対応するテクスチャブロックを同一に配置するために、同一位置の深度ブロックを特定する。ステップ1140にて、ディペンデントビューに対応付けられた仮想深度情報が、符号化されたビューで同一位置の深度ブロックに基づいて、導出される。ステップ1150にて、符号化プロセスが仮想深度情報を用いて入力データに適用される。
上述のフローチャートは、関連の深度ブロックから導出された視差ベクトルに基づいた視点間予測の例を説明するためのものである。なお、各々のステップは変更してもよくステップの順番を変えてもよく、それぞれのステップを分割した上で、本実施形態に係るフローを行ってもよい。
上述の説明は、当業者が本願発明を実行できるように示している。本願発明は、ここで述べられた特定の実施形態に限定されることを意図するものではなく、ここで述べられる原理および新しい特徴を包括する最も広い範囲で解釈されるべきである。
上述の本発明の実施形態は、さまざまなハードウェア、ソフトウェアコード、またはその組み合わせに行われることができる。例えば、本発明の実施形態は、ここに述べられる処理を行う、画像圧縮チップ内に統合された回路、または画像圧縮ソフトウェア内に統合されたプログラムコードであることができる。本実施形態は、ここで述べられる処理を行う、デジタル信号プロセッサ(DSP)で実行されるプログラムコードでもよい。本実施形態は、コンピュータプロセッサ、デジタル信号プロセッサ、マイクロプロセッサ、またはフィールドプログラマブルゲートアレイ(FPGA)によって行なわれるいくつかの機能も含むことができる。これらのプロセッサは、発明で実現される特定の方法を定める機械読み取り可能なソフトウェアコードまたはファームウェアコードを実行することによって、発明に応じて特定のタスクを行うように構成されることができる。ソフトウェアコードまたはファームウェアコードは、異なるプログラミング言語と異なるフォーマットまたはスタイルで開発されることができる。ソフトウェアコードは、異なるターゲットプラットホーム用にコンパイルされてもよい。しかしながら、ソフトウェアコードの異なるコードフォーマット、スタイルと、言語、および本発明に応じてタスクを行うコードを設定する他の手段は、本発明の思想を逸脱しない。
上述の実施形態は、本明細書中に記述される発明を限定するものでない。よって本願発明の範囲は、前述の説明によってではなく、添付の請求の範囲によって示される。
110、110A、110B、110C、210、220、230、310、320、330、340、340A、340B、350、410、410A、410B、410C、420、430A、430B、440、510A、510B、510C,510D、520、530A、530B、610、610A、620、710、710A、720、730、810、820、910、920、930、1010、1020、1030…ブロック

Claims (23)

  1. ディペンデントビューでテクスチャデータの3次元若しくはマルチビュー映像符号化、又は、ディペンデントビューのテクスチャデータの3次元若しくはマルチビュー映像復号化の方法であって、前記方法は、
    前記ディペンデントビューで現在のテクスチャブロックと関連した入力データを受けるステップ、
    推定された視差ベクトルを導出し、符号化されたビューで対応するテクスチャブロックを配置するステップ、
    前記符号化されたビューで、前記対応するテクスチャブロックと同一配置された同一位置の深度ブロックを特定するステップ、
    前記符号化されたビューで前記同一位置の深度ブロックに基づいて、前記ディペンデントビューで仮想深度情報を導出するステップ、および
    前記仮想深度情報を用いて入力データに符号化プロセスを適用するステップを含む方法。
  2. 前記推定された視差ベクトルの導出は、前記ディペンデントビューで現在のテクスチャブロックにおける視差ベクトルの候補に基づく請求項1に記載の方法。
  3. 前記視差ベクトルの候補は、前記ディペンデントビューで現在のテクスチャブロックと空間的/時間的に隣接するブロックから導出、または、前記現在のテクスチャブロックに対応する時間的に同一位置のテクスチャブロックと空間的/時間的に隣接する1つ以上のブロックから導出され、
    前記空間的/時間的に隣接するブロックは、視差補償予測(DCP)ブロック、または視差ベクトル動き補償予測(DV−MCP)ブロックである請求項2に記載の方法。
  4. 前記視差ベクトルの候補は、前記空間的/時間的に隣接する1つ以上のブロックの全ての視差ベクトルまたは一部の視差ベクトルの平均、最大、最小、または中間に対応する請求項3に記載の方法。
  5. 前記視差ベクトルの候補は、前記ディペンデントビューで、符号化されたグローバルな幾何学モデルから導出される請求項2に記載の方法。
  6. 前記推定された視差ベクトルは、前記視差ベクトルの候補の優先順位または相関関係に応じて前記視差ベクトルの候補から決定される請求項2に記載の方法。
  7. 左上隣接ブロックと関連した第1の視差ベクトルの候補が、左隣接ブロックと関連した第3の視差ベクトルの候補よりも、上隣接ブロックと関連した第2の視差ベクトルの候補に類似する場合には、前記第2の視差ベクトルの候補は、前記推定された視差ベクトルとして選ばれ、
    前記第2の視差ベクトルの候補が前記推定された視差ベクトルとして選ばれない場合には、前記第3の視差ベクトルの候補が前記推定された視差ベクトルとして選ばれる請求項2に記載の方法。
  8. 前記推定された視差ベクトルは、探索順序に基づいて、前記視差ベクトルの候補から決定される請求項2に記載の方法。
  9. 前記推定された視差ベクトルの導出するステップは、
    前記視差ベクトルの候補から第1の視差ベクトルを選び、前記符号化されたビューで深度参照ブロックを得るステップ、
    前記深度参照ブロックから、前記符号化されたビューで前記対応するテクスチャブロックから前記ディペンデントビューで第1の位置を指している第2の視差ベクトルを抽出するステップ、
    前記第1の視差ベクトルと前記第2の視差ベクトルとの間の整合性エラーを決定するステップ、および
    前記推定された視差ベクトルとして最小の整合性エラーとなる前記視差ベクトルの候補から1つの視差ベクトルの候補を選ぶステップを含む請求項2に記載の方法。
  10. 前記整合性エラーは、第1の視差ベクトルと第2の視差ベクトルとの間の差、または現在のテクスチャブロックの第1の位置と中心位置との間の距離に対応する請求項9に記載の方法。
  11. 前記推定された視差ベクトルの導出するステップは、
    1つの視差ベクトルの候補に対応する前記符号化されたビューで深度参照ブロックを得るステップ、
    前記深度参照ブロックから変換された視差ベクトルを抽出するステップ、
    前記変換された視差ベクトルと前記1つの視差ベクトルの候補との間の整合性エラーを決定するステップ、および
    前記推定された視差ベクトルとして最小の整合性エラーを有する1つの変換された視差ベクトルを選ぶステップを含む請求項2に記載の方法。
  12. シンタックス要素は、前記ディペンデントビューで前記テクスチャデータと関連した仮想深度情報が使用されているかどうかを示している請求項1に記載の方法。
  13. 前記現在のブロックをサブブロックに分割するステップ、
    前記各サブブロックの仮想深度からサブブロック視差ベクトルを導出するステップ、
    前記各サブブロックのサブブロック視差ベクトルに応じて視点間参照サブブロックを得るステップ、および
    対応する視点間参照サブブロックを用いて各サブブロックに視点間予測の符号化を適用するステップを更に含む請求項1に記載の方法。
  14. 前記サブブロック視差ベクトルは、対応するサブブロックの仮想深度値から変換される請求項13に記載の方法。
  15. 前記サブブロック視差ベクトルは、前記対応するサブブロックの全てまたは一部の仮想深度値の平均、最大、最小、または中間に対応する請求項14に記載の方法。
  16. 前記仮想深度情報から導出された動きベクトル予測子または視差ベクトル予測子は、マージモード若しくはスキップモードで符号化された現在のテクスチャブロックの符号化、又は、マージモード若しくはまたはスキップモードで復号化された現在のテクスチャブロックの復号化に用いられる請求項1に記載の方法。
  17. 前記仮想深度情報から導出された1つの視差ベクトルは、マージモードまたはスキップモードで符号化された前記現在のテクスチャブロックの時間的な視点間動きベクトルのマージ候補を生成するために用いられる請求項1に記載の方法。
  18. 前記現在のテクスチャブロックの分割または現在の深度ブロックの分割は、前記仮想深度情報に基づいて継承または導出される請求項1に記載の方法。
  19. 前記仮想深度情報は参照ブロックを導出するために用いられ、
    前記参照ブロックは、前記現在のテクスチャまたは現在の深度ブロックを視点間動き補償を用いて符号化するためのブロックである
    請求項1に記載の方法。
  20. 前記仮想深度情報は、1つの視差ベクトルを導出するために用いられ、
    前記視差ベクトルは、現在のテクスチャブロックまたは現在の深度ブロックの視点間動き補償のためのベクトルである請求項1に記載の方法。
  21. 動きベクトル予測子は、前記仮想深度情報から導出された前記視差ベクトルを用いて得られ、前記符号化されたビューで動きベクトルを参照する請求項20に記載の方法。
  22. 視点間視差ベクトルは、前記現在のテクスチャブロックまたは現在の深度ブロックと関連した残差データの視点間残差予測の前記仮想深度情報から得られる請求項1に記載の方法。
  23. ディペンデントビューでテクスチャデータの3次元またはマルチビュー映像符号化または復号化の装置であって、
    1つ以上の電子回路を備え、
    前記1つ以上の電子回路は、
    前記ディペンデントビューで現在のテクスチャブロックと関連した入力データを受信し、
    推定された視差ベクトルを導出し、符号化されたビューで対応するテクスチャブロックを配置し、
    前記符号化されたビューで前記対応するテクスチャブロックと同一配置された同一位置の深度ブロックを特定し、
    前記符号化されたビューで前記同一位置の深度ブロックに基づいて、前記ディペンデントビューの仮想深度情報を導出し、且つ、
    前記仮想深度情報を用いて入力データに符号化プロセスを適用する装置。
JP2015532288A 2012-09-21 2013-09-17 3d映像符号化の仮想深度値の方法および装置 Active JP6000463B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261703901P 2012-09-21 2012-09-21
US61/703,901 2012-09-21
US201261711314P 2012-10-09 2012-10-09
US61/711,314 2012-10-09
PCT/CN2013/083659 WO2014044168A1 (en) 2012-09-21 2013-09-17 Method and apparatus of virtual depth values in 3d video coding

Publications (3)

Publication Number Publication Date
JP2015533038A JP2015533038A (ja) 2015-11-16
JP2015533038A5 JP2015533038A5 (ja) 2016-08-25
JP6000463B2 true JP6000463B2 (ja) 2016-09-28

Family

ID=50340582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015532288A Active JP6000463B2 (ja) 2012-09-21 2013-09-17 3d映像符号化の仮想深度値の方法および装置

Country Status (5)

Country Link
US (1) US10085039B2 (ja)
EP (1) EP2898688B1 (ja)
JP (1) JP6000463B2 (ja)
CN (1) CN104662910B (ja)
WO (1) WO2014044168A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos
CN104969556A (zh) 2013-01-08 2015-10-07 Lg电子株式会社 处理视频信号的方法和设备
FR3002716A1 (fr) 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
US9521425B2 (en) * 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
JP6196372B2 (ja) * 2013-04-11 2017-09-13 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
US10009621B2 (en) * 2013-05-31 2018-06-26 Qualcomm Incorporated Advanced depth inter coding based on disparity of depth blocks
CA2909550C (en) * 2013-07-15 2018-04-24 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3d video coding
KR102378087B1 (ko) * 2014-04-02 2022-03-24 한국전자통신연구원 변이 벡터를 사용한 병합 움직임 후보 유도 장치 및 방법
JP6310340B2 (ja) * 2014-06-25 2018-04-11 日本電信電話株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム
US12169818B2 (en) 2016-05-04 2024-12-17 Mariella Labels Oy Simultaneously displaying new prices linked to products via an electronic price label system
EP3459251B1 (en) * 2016-06-17 2021-12-22 Huawei Technologies Co., Ltd. Devices and methods for 3d video coding
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
US11272207B2 (en) 2017-06-12 2022-03-08 Futurewei Technologies, Inc. Selection and signaling of motion vector (MV) precisions
CN118573894A (zh) * 2017-09-19 2024-08-30 三星电子株式会社 对运动信息进行编码和解码的方法以及设备
US20200014931A1 (en) * 2018-07-06 2020-01-09 Mediatek Inc. Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems
WO2020056095A1 (en) * 2018-09-13 2020-03-19 Interdigital Vc Holdings, Inc. Improved virtual temporal affine candidates

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055274A (en) * 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
US6691275B1 (en) * 2000-12-14 2004-02-10 Lsi Logic Corporation Encoder with vector-calculated disparity logic
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
US8953684B2 (en) * 2007-05-16 2015-02-10 Microsoft Corporation Multiview coding with geometry-based disparity prediction
EP2269378A2 (en) 2008-04-25 2011-01-05 Thomson Licensing Multi-view video coding with disparity estimation based on depth information
WO2010021666A1 (en) * 2008-08-20 2010-02-25 Thomson Licensing Refined depth map
CN102257818B (zh) 2008-10-17 2014-10-29 诺基亚公司 3d视频编码中运动向量的共享
WO2010053332A2 (ko) 2008-11-10 2010-05-14 엘지전자 주식회사 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
KR101660312B1 (ko) * 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP4938884B2 (ja) 2010-09-30 2012-05-23 シャープ株式会社 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム
CN102510500B (zh) * 2011-10-14 2013-12-18 北京航空航天大学 一种基于深度信息的多视点立体视频错误隐藏方法
KR101662918B1 (ko) * 2011-11-11 2016-10-05 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US20130329007A1 (en) 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9258562B2 (en) * 2012-06-13 2016-02-09 Qualcomm Incorporated Derivation of depth map estimate
US20130336406A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated Redundancy removal for merge/skip mode motion information candidate list construction
CN104429074B (zh) 2012-06-28 2018-11-30 寰发股份有限公司 3d视频编码中视差矢量导出的方法和装置
US20140071235A1 (en) 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
CN104769949B (zh) * 2012-09-19 2018-03-13 高通股份有限公司 用于视差向量导出的图片的选择的方法和装置

Also Published As

Publication number Publication date
EP2898688B1 (en) 2018-05-30
JP2015533038A (ja) 2015-11-16
US20150249838A1 (en) 2015-09-03
EP2898688A1 (en) 2015-07-29
CN104662910A (zh) 2015-05-27
WO2014044168A1 (en) 2014-03-27
EP2898688A4 (en) 2016-04-27
US10085039B2 (en) 2018-09-25
CN104662910B (zh) 2018-04-10

Similar Documents

Publication Publication Date Title
JP6000463B2 (ja) 3d映像符号化の仮想深度値の方法および装置
US9961370B2 (en) Method and apparatus of view synthesis prediction in 3D video coding
US10230937B2 (en) Method of deriving default disparity vector in 3D and multiview video coding
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
US20160309186A1 (en) Method of constrain disparity vector derivation in 3d video coding
JP2015533038A5 (ja)
US9621920B2 (en) Method of three-dimensional and multiview video coding using a disparity vector
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
CN104768015B (zh) 视频编码方法及装置
CA2921759C (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
CN105247862A (zh) 三维视频编码中的视点合成预测的方法及装置
CN105144714B (zh) 三维或多视图视频编码或解码的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20160705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160830

R150 Certificate of patent or registration of utility model

Ref document number: 6000463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250