JP2020513703A - 自由視点映像ストリーミング用の復号器中心uvコーデック - Google Patents

自由視点映像ストリーミング用の復号器中心uvコーデック Download PDF

Info

Publication number
JP2020513703A
JP2020513703A JP2019528537A JP2019528537A JP2020513703A JP 2020513703 A JP2020513703 A JP 2020513703A JP 2019528537 A JP2019528537 A JP 2019528537A JP 2019528537 A JP2019528537 A JP 2019528537A JP 2020513703 A JP2020513703 A JP 2020513703A
Authority
JP
Japan
Prior art keywords
free
video content
texture
decoder
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528537A
Other languages
English (en)
Other versions
JP2020513703A5 (ja
JP6939883B2 (ja
Inventor
ダニーロ グラジオッシ
ダニーロ グラジオッシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2020513703A publication Critical patent/JP2020513703A/ja
Publication of JP2020513703A5 publication Critical patent/JP2020513703A5/ja
Application granted granted Critical
Publication of JP6939883B2 publication Critical patent/JP6939883B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Abstract

自由視点映像ストリーミング用の復号器中心コーデックにより、複数レイヤー自由視点映像が、より効率的かつより正確なプロセスで取り込み、前処理し、符号化し、復号しおよびレンダリングされ得る。【選択図】 図3

Description

〔関連発明の相互参照〕
本出願は、2016年11月28日に出願され、名称が「自由視点映像ストリーミング用の復号器中央UVコーデック」である、米国仮特許出願第62/426,900号35合衆国法典の第119条(e)に基づく優先権を主張し、この仮特許出願は、すべての目的のためにその全体が参照により本出願に援用される。
本発明は三次元グラフィックに関する。より具体的には、本発明は、疎ビュー複数視点三次元グラフィックに関する。
自由視点映像(FVV)は、ユーザーがいつでも映像の視点を変更できるようにする映像である。例えば、スポーツ映像を見ているユーザーは、ホームベースの後方の遠近感からスポーツ映像を見ている状態から、外野からの遠近感に変わる可能性がある。これにより、ユーザー/視聴者は独自の遠近感からコンテンツを視聴することができる。
FVVを伝送するにはFVVをストリーミングしようとするとき生じる課題があり、例えば、カメラメタデータを符号器側から復号器側に伝送するときに障害が発生する。
自由視点映像ストリーミング用の復号器中心コーデックにより、複数レイヤー自由視点映像が、より効率的かつより正確なプロセスで取り込み、前処理し、符号化し、復号しおよびレンダリングすることができる。
1つの観点において、方法は、自由視点映像コンテンツを前処理する段階と、符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化する段階と、復号器を使用して、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号する段階と、復号された自由視点映像コンテンツを、装置上にレンダリングする段階と、を備える。自由視点映像コンテンツを前処理する段階は、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む。UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する。UVアトラスの生成により、自由視点の映像コンテンツのビューに依存する特性を保存するために追加のメタデータを備える、複数レイヤーテクスチャが生成される。ビューに依存しない情報(例えば、単数レイヤーのUVマップ)対ビューに依存する情報(例えば、追加のメタデータを備える複数レイヤーのUVマップ)の使い方は、復号器に信号で送ることができる。メタデータの例として、符号器は、カメラ構成(例えば、シーンを取り込む複数台のカメラの外部パラメータおよび内部パラメータ)を送り、各テクスチャレイヤーについて、特定のUVレイヤーについてその特定のテクスチャ情報に寄与したカメラのIDを送ることができ、その結果、復号器は、レンダリングされた視点位置に応じて最適なカメラを選択できる。自由視点映像コンテンツを復号器中心アーキテクチャで符号化することは、ビューに依存する情報の使い方を信号で送ること、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む。自由視点映像コンテンツを復号する段階は、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号する段階を含む。復号された自由視点映像コンテンツをレンダリングする段階は、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する。方法は、復号器においてカメラ識別情報を生成し、カメラ識別情報は、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号するために利用される段階をさらに備える。方法は、自由視点映像コンテンツを最大10台の映像カメラを用いて取得する段階をさらに含む。方法は、複数台の映像カメラを用いて自由視点映像コンテンツを取得し、複数映像カメラは、各軸上で他のカメラから少なくとも30度離れている段階をさらに備える。
別の観点において、装置は、アプリケーションを記憶するための非一時的メモリーであって、アプリケーションは、自由視点映像コンテンツを前処理し、符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するメモリーと、メモリーに結合され、アプリケーションを処理するように構成されたプロセッサと、を備える。自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む。UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する。自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む。
別の観点において、装置は、アプリケーションを記憶するための非一時的メモリーであって、アプリケーションは、復号器を使用して、復号器においてカメラ識別情報を生成することによって、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号し、カメラ識別情報は、符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号するために利用するために用い、および復号された自由視点映像コンテンツをレンダリングするために用いるメモリーと、メモリーに結合され、アプリケーションを処理するように構成されたプロセッサと、を備える。自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む。復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する。
別の観点において、システムは、各々が自由視点映像コンテンツを取り込むように構成された複数台のカメラ装置と、第1のコンピュータ装置であって、自由視点映像コンテンツを前処理し、および符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するように構成された第1のコンピュータ装置と、第2のコンピュータ装置であって、復号器を使用して、符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号し、および復号された自由視点映像コンテンツを、第2のコンピュータ装置上でレンダリングする第2のコンピュータ装置と、を備える。自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む。UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する。自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む。自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む。復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する。第2のコンピュータ装置は、復号器においてカメラ識別情報を生成し、カメラ識別情報は、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号するために利用するように構成されている。
いくつかの実施形態による視点映像アーキテクチャにおいて実行される動作のフローチャートである。 いくつかの実施形態による自由視点映像データコンテンツの圧縮および伝送のための実施形態の例を示す図である。 いくつかの実施形態によるメタデータ情報の伝送を用いる複数レイヤー式自由視点映像データコンテンツ用のアーキテクチャの実施形態の例を示す図である。 いくつかの実施形態によるメタデータ情報の伝送を用いる複数レイヤー式自由視点映像データコンテンツ用のアーキテクチャの実施形態の別の例を示す図である。 いくつかの実施形態による復号器中心のUVコーデック(UVC)アーキテクチャのフローチャートである。 いくつかの実施形態による復号器中心のUVコーデック(UVC)アーキテクチャのフローチャートである。 いくつかの実施形態によるFVVストリーミング用の復号器中心コーデックを実装する装置を示す図である。 いくつかの実施形態による復号器中心のUVコーデックを実装するように構成された例示的なコンピュータ装置のブロック図である。 いくつかの実施形態による装置のネットワークを示す図である。
自由視点アーキテクチャでは、シーンは、複数の異なる視点から取り込まれる。取り込んだコンテンツは、通常通り取込み側で処理され、符号化されてさらに伝送する形式に変換される。復号器は、符号化されたデータフォーマットを受信し、解凍しおよびレンダリング器に渡し、レンダリング器は、受信したコンテンツを用いて視聴者により要求される視点位置を生成する。伝送に使用されるフォーマットは、レンダリング器に融通性を与えて写真のようにリアルな品質であらゆる必要な視点位置を生成可能にする必要があり、それによりデータフォーマットおよび帯域幅にいくつかの制約が課される。
取得段階では、密集ビュー3D映像の取込みは、多くの異なる角度からコンテンツを取り込むために、多くのカメラ(例えば40〜100+)を利用することができる。より具体的には、カメラ間の間隔は、各カメラ間で非常に小さい(例えば、5度未満)ことがある。密集ビュー3D映像の取込みでは、データ帯域幅が主な関心事であり、MVCのような複数視点取込みの映像圧縮規格であっても、ビュー間の冗長度およびシーンの経時変化の量によって性能が調整される。
取り込むビューの数を減らし、しかも依然として自由なビューナビゲーションを可能にするために、ジオメトリをプロキシとして用いて、取得したビューを修正し、および以前に取り込んでいないビュー位置を合成することができる。シーンのジオメトリを取得する1つの方法は、アクティブ深度カメラを利用すること、または取り込んだビューから深度を推定することである。この処理段階に起因する表現フォーマットは、深度マップとしても既知である、各々取り込んだRGB画素の深度にすることができる。疎RGBカメラ視野および対応する深度マップの伝送は、3D−HEVCのような利用可能な規格を用いても行うことができる。しかしながら、通常、カメラは、直線的に配置され、しかも互いに接近するように制約されており、これによりナビゲーション空間が制限される。さらに、疎ビュー3D映像の取込みを用いるとき、音声の閉鎖がさらに関心事となる。
コンピュータグラフィックスでは、3Dメッシュをジオメトリプロキシとして利用することによって、完全な自由視点ナビゲーションが行われる。3Dメッシュは、メッシュ圧縮用のMPEG AFXコーディングツールのような、現在利用可能な規格を用いて圧縮することもできる。自由視点ナビゲーションについて、取り込んだビューおよびメッシュジオメトリが伝送に使用できるが、性能は、依然として取り込むビューの数によって制限される。ビューの数が多いほど、レンダリングはよりリアルになるが、同時にテクスチャ伝送にはより広大な帯域幅が必要になる。
メッシュをジオメトリプロキシとして用いて、テクスチャ伝送の帯域幅を縮小する1つのやり方は、3Dメッシュの表面に関連付けたテクスチャのみを伝送することである。いくつかの実装では、3Dメッシュの表面のテクスチャは、UVマップとしても既知の2Dテクスチャアトラスにマッピングされている。伝送については、メッシュおよびそれぞれのUVマップが最適なフォーマットであり、それにより伝送帯域幅が大幅に縮小する。しかしながら、最終的なレンダリング品質は、ビューに依存しない品質に無理やり抑制され、すなわち、視点位置に関係なくメッシュ表面は同じRGB値を提示し、それは、テクスチャ値が視点位置に従って変わる得る写真のようにリアルなレンダリングのオブジェクトには当てはまらない。
表面テクスチャアトラスの写真のようにリアルなレンダリング法を保つ1つのやり方は、レイヤー状テクスチャマップを使用することである。ビューに依存するテクスチャの特性は、取込み用カメラとメッシュとの間の相対位置によって与えられる。この特性を保存するために、テクスチャのレイヤーは、異なるカメラからのテクスチャを録画する。最上レイヤーは、各メッシュ面について、法表面とカメラの視野軸との間の角度が与える最高ランクのカメラを保存する。後続レイヤーでは、異なる視野角からのカメラが保存される。復号器側では、選ばれた視点位置に応じて、所望の視点位置により近いカメラ位置を含むレイヤーからテクスチャが選択されるので、リアルな取込みオブジェクトにより近いビューをもたらすことができる。
複数レイヤー式UVテクスチャ手法には、テクスチャ伝送のためにより広い帯域幅が必要である。さらに、レイヤーへのテクスチャのランク付けも伝送する必要があり得る。ランク付けがジオメトリに依存する場合、ジオメトリ圧縮におけるアーチファクトはランク付けの結果に妥協する可能性があり、それによりランク付けデータの伝送は、ジオメトリアーチファクトによって生じるテクスチャアーチファクトを避けることを強いられる。このメタデータの伝送は、帯域幅に重大な影響を及ぼす可能性があり、しかも効率的なデータ伝送の障害になる可能性がある。
本明細書には、帯域幅が効率的であり、しかもメタデータ情報の伝送を避ける符号器アーキテクチャを説明する。符号器アーキテクチャは依然として複数レイヤー手法を利用するが、テクスチャマッピングおよびランク付け操作のために復号されたジオメトリ情報を用いることによって、メタデータの面倒な伝送を避ける。この新しいアーキテクチャによれば、自由視点映像について、複数レイヤーテクスチャの効率的な伝送が可能である。
密集ビュー3D映像の取込みは、多くの異なる角度からコンテンツを取り込むために多くのカメラ(例えば40〜100+)を利用する。より具体的には、カメラ間の間隔は、各カメラ間で非常に小さく(例えば、5度未満)することができる。密集ビュー3D映像の取込みは、疎ビュー3D映像の取込みと比べて処理が比較的簡単であり、その理由は、疎ビューには密集ビュー3D映像の取込みでは発生しない問題があるためである。たとえば、疎ビュー3D映像の取込みを用いるとき、音声の閉鎖がより大きな関心事となる。
疎ビュー3D映像の取込みでは、はるかに少ないカメラが使用されて、様々な異なる角度からコンテンツを取り込む。例えば、密集ビュー3D映像の取込みが100台のカメラを使用するのと同じ空間について、疎ビュー3D映像の取込みは、10台以下のカメラを使用することができる。換言すれば、カメラ間の間隔(少なくとも1本の軸またはすべての軸上にある)は、45度にすることができ、またはさらに90度にすることもできる。疎ビュー3D映像の取込みのカメラ同士は非常に離れているため、ステレオマッチングが選択できないので形状を再構築することは困難である。さらに、ビュー間で冗長性の量が減り、それは、圧縮アルゴリズムの性能に影響を与える。この場合、より高い効率のためには、メッシュとメッシュ表面のテクスチャとを利用したデータフォーマットが好ましい。
疎ビュー360度取込みシステムにおいて、FVVについて時間的に一貫したかつ写真のようにリアルなテクスチャ合成を達成するために、複数レイヤーテクスチャデータ表現を利用する。複数レイヤーテクスチャデータ表現は、2Dテクスチャ内で組み合わされた複数台のカメラのテクスチャ寄与を含み、テクスチャ寄与は、カメラをランク付けする基準によって順序付けられる。カメラ基準についての1つの可能な実施形態は、カメラと取り込んだ3Dモデル表面データとの間の角度であるが、他の基準も適用可能にできる。ビューに依存する視点を複数レイヤーデータを用いてレンダリングするために、テクスチャを生成したカメラの識別(ID)も伝送される。
圧縮メッシュを受信すると、復号器がカメラID情報を生成する。復号器側において、復号器中心の手法により、復号されたメッシュに基づいてカメラID情報が生成される。符号器と復号器との間の不一致を避けるために、符号器は、元の非圧縮メッシュではなく、解凍されたメッシュを用いてテクスチャマッピングを実行する。カメラID情報のようなメタデータ情報の伝送を避け、しかもテクスチャマッピングのために解凍されたメッシュを利用することによって、UV座標(UVは、テクスチャアトラスの軸であり、2D画像は、3Dモデル表面のテクスチャを表す)の伝送を避ける。これにより、ビューに依存するデータの伝送に必要なビット率が大幅に削減する。
UVマッピングは、2D画像を3Dモデルの表面に投影してテクスチャマッピングするための3Dモデリングプロセスである。X、Y、Zはモデル空間内の3Dオブジェクトの軸を表すために用いるので、UおよびVは2Dテクスチャの軸である。FVVでは、オブジェクトの複数の(例えば、異なる角度からの)ビューが存在する可能性があり、これは、FVVコンテンツの符号化および復号時に用いる余分なデータ/メタデータが存在することを意味する。しかしながら、復号器中心のコーデックを実装することによって、符号器から復号器に伝送/ストリーミングされる余分なデータ/メタデータの量が大幅に減る。
図1は、いくつかの実施形態による視点映像アーキテクチャにおいて実行される動作のフローチャートを示す。ステップ100にて、コンテンツが取り込まれる。ステップ120にて、取り込んだコンテンツは前処理される。ステップ140にて、処理されたコンテンツは符号化される。ステップ160にて、符号化されたコンテンツが復号される。ステップ180にて、復号されたコンテンツがレンダリングされる。
本明細書にて説明するように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、複数台のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
取り込んだコンテンツは前処理される。前処理は、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む。メッシュ生成は任意の種類のメッシュ生成を含み、それらは、メッシュテンプレートを使用すること、取得したコンテンツに基づいてテンプレートを比較および選択すること、ならびに複数のビューを用いて取得したコンテンツの形状に基づいてテンプレートを修正することなどである。メッシュ追跡は任意の種類のメッシュ追跡を含み、それらは、メッシュを堅くない変形で一時的に追跡すること、または名称が「ロバストメッシュ追跡、ならびに部分ベースキーおよび推測的モデル用いることよる融合」である米国特許出願第代理人整理番号ソニー−69500号に記載されている通りであり、この米国出願は、あらゆる目的のためにその全体が参照により本明細書に援用されている。UVアトラス生成はテクスチャアトラスまたはタイル表示マップを生成し、それは副画像の集合を含み、その各々は、3Dモデルの一部のためのテクスチャマップである。UVアトラス生成は、取得したコンテンツを、特定の形状、身体部分および/または他の任意のグループ化のようなグループ化に基づいて分離することを含む、任意の方法で実行することができる。いくつかの実施形態では、UVアトラス生成は、UVアトラスを生成するために、圧縮された形状(または圧縮形状の解凍バージョン)および/または復号器からの復号形状を使用する。テクスチャマッピングは、取得したコンテンツからテクスチャ成分を生成されたメッシュ(例えばモデル)に適用することを含む。いくつかの実施形態では、テクスチャマッピングは、圧縮された形状(または圧縮形状の解凍バージョン)および/または復号された形状に基づいて評価される。
メッシュ追跡から、ジオメトリ符号器によって頂点座標および頂点接続性が符号化される。複数レイヤーUVテクスチャのようなテクスチャは、UVテクスチャ符号器および付随する複数レイヤーカメラIDによって符号化される。ジオメトリ符号器からの符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)は、ジオメトリ復号器に伝送され(例えば、ストリーミングされ)、UVテクスチャ符号器からの符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)は、UVテクスチャ復号器に伝送される(例えば、ストリーミングされる)。ジオメトリ復号器は、符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)を復号する。UVテクスチャ復号器は、カメラID情報を適切なテクスチャ情報に対応するように生成することによって、符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)を復号する。カメラID情報は、適切なカメラID情報を決定するために使用できる、ジオメトリ復号器からの復号された形状情報を用いて生成される。例えば、オブジェクトのジオメトリは、特定のカメラIDと関連付けられ、オブジェクトの決定されたジオメトリに基づいてカメラIDが決定できる。
レンダリング装置は、次いでジオメトリ復号器からの復号された形状情報、UVテクスチャ復号器からの復号されたテクスチャおよびカメラIDを用いて、FVV映像をレンダリングすることができる。いくつかの実施形態では、レンダリングすることは、FVV映像を表示することおよび/またはユーザーがFVV映像を操作可能にすることを含む。
図2は、いくつかの実施形態による自由視点映像データコンテンツの圧縮および伝送のための実施形態の例を示す図である。本明細書にて説明するように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、複数台のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
いくつかの実施形態では、取り込んだコンテンツはメッシュ生成222を通る。メッシュ生成222は任意の種類のメッシュ生成を含み、それらは、メッシュテンプレートを使用すること、取得したコンテンツに基づいてテンプレートを比較および選択すること、ならびに複数のビューを用いて取得したコンテンツの形状に基づいてテンプレートを修正することなどである。次いで、ジオメトリ符号器242が、生成されたメッシュデータを符号化する。取り込んだコンテンツはまた、MVテクスチャ符号器244に進む。MVテクスチャ符号器244は、複数視点テクスチャを符号化する。
いくつかの実施形態では、取り込んだコンテンツは、メッシュ生成222、メッシュ追跡224、UVアトラス生成226およびテクスチャマッピング228を通る。メッシュ生成222は任意の種類のメッシュ生成を含み、それらは、メッシュテンプレートを使用すること、取得したコンテンツに基づいてテンプレートを比較および選択すること、ならびに複数のビューを用いて取得したコンテンツの形状に基づいてテンプレートを修正することなどである。メッシュ追跡224は任意の種類のメッシュ追跡を含み、これらは、メッシュを堅くない変形で一時的に追跡すること、または名称が「ロバストメッシュ追跡、ならびに部分ベースキーおよび推測的モデル用いることよる融合」である米国特許出願第代理人整理番号ソニー−69500号に記載されている通りであり、この米国出願は、あらゆる目的のためにその全体が参照により本明細書に援用される。UVアトラス生成226は、テクスチャアトラスまたはタイル表示マップを生成し、それは、サブ画像の集合を含み、その各々が3Dモデルの一部のためのテクスチャマップである。UVアトラス生成226は、取得したコンテンツを、特定の形状、身体部分、および/または他の任意のグループ化のようなグループ化に基づいて分離することを含む、任意の方法で実行することができる。いくつかの実施形態では、UVアトラス生成226は、UVアトラスを生成するために、圧縮された形状(または圧縮形状の解凍バージョン)および/または復号器からの復号形状を使用する。テクスチャマッピング228は、取得したコンテンツからテクスチャ成分を、生成されたメッシュ(例えば、モデル)に適用することを含む。いくつかの実施形態では、テクスチャマッピング228は、圧縮された形状(または圧縮形状の解凍バージョン)および/または復号された形状に基づいて評価される。
次いで、メッシュ追跡データおよびUVアトラスを用いて、ジオメトリ符号器242が、生成されたメッシュデータを符号化する。取り込んだコンテンツはまた、テクスチャマッピング228が適用された後、UVテクスチャ符号器246に進む。UVテクスチャ符号器246は、UVテクスチャを符号化する。
図3は、いくつかの実施形態によるメタデータ情報の伝送を用いる複数レイヤー自由視点映像データコンテンツ用のアーキテクチャの実施形態の例を示す図である。本明細書にて説明するように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
いくつかの実施形態では、取り込んだコンテンツは、メッシュ生成222、メッシュ追跡224、UVアトラス生成326および複数レイヤーテクスチャマッピング228を通る。メッシュ生成222、メッシュ追跡224、UVアトラス生成326および複数レイヤーテクスチャマッピング228は、本明細書にて説明されている。
次いで、メッシュ追跡データおよびUVアトラスを用いて、ジオメトリ符号器242が、生成されたメッシュデータを符号化する。取り込んだコンテンツはまた、複数レイヤーテクスチャマッピング328が適用された後、ML−UV(複数レイヤー−UV)テクスチャ符号器344およびメタデータ符号器346に進む。ML−UVテクスチャ符号器344は、UVアトラス情報を用いて複数レイヤーUVテクスチャを符号化する。
ジオメトリ符号器342からの符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)は、ジオメトリ復号器362に送られ(例えば、ストリーミングされ)、ML−UVテクスチャ符号器344からの符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)は、メタデータ復号器366に送られる(例えばストリーミングされる)。ジオメトリ復号器362は、符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)を復号する。テクスチャ復号器364は、符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)を復号する。メタデータ復号器366は、符号化されたメタデータコンテンツを復号する。
次いで、ジオメトリ復号器362からの復号された形状情報、テクスチャ復号器364からの復号されたテクスチャ、およびメタデータ復号器366からの復号されたメタデータを用いて、レンダリング装置382がFVV映像をレンダリングすることができる。いくつかの実施形態では、レンダリングすることは、FVV映像を表示すること、および/またはユーザーがFVV映像を操作可能にすることを含む。
図4は、いくつかの実施形態によるメタデータ情報の伝送を用いる複数レイヤー自由視点映像データコンテンツ用のアーキテクチャの実施形態の特定の例を示す図である。本明細書にて説明するように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、複数台のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
いくつかの実施形態では、取り込んだコンテンツは、メッシュ生成222、メッシュ追跡224、UVアトラス生成326および複数レイヤーテクスチャマッピング228を通る。メッシュ生成222、メッシュ追跡224、UVアトラス生成326および複数レイヤーテクスチャマッピング228は、本明細書にて説明されている。
次いで、メッシュ追跡データ(例えば、頂点座標および頂点接続性)ならびにUVアトラス(例えばテクスチャ座標)を用いて、ジオメトリ符号器242が、生成されたメッシュデータを符号化する。取り込んだコンテンツはまた、複数レイヤーテクスチャマッピング328が適用された後、ML−UV(複数レイヤー−UV)テクスチャ符号器344およびメタデータ符号器346に進む。テクスチャ符号器344は、UVアトラス情報、例えば2k×2kであるテクスチャ画像の複数のレイヤーを用いて複数レイヤーUVテクスチャを符号化する。
メタデータ符号器346は、複数レイヤーカメラID、例えばUVマップと同じサイズ(2k×2k)である画像を符号化するが、そこではRGB値の代わりにカメラIDが伝送される。ジオメトリ符号器342からの符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)は、ジオメトリ復号器362に送られ(例えば、ストリーミングされ)、ML−UVテクスチャ符号器344からの符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)は、テクスチャ復号器364に送られ(例えばストリーミングされ)、符号化されたメタデータ346はメタデータ復号器366に伝送される(例えばストリーミングされる)。
いくつかの実施形態では、ジオメトリ符号器は、MPEGメッシュ圧縮規格、AFXだけであり、この規格は、頂点座標、頂点接続性およびテクスチャ座標を有するメッシュのシーケンスを、総ビット率64Mbpsで符号化することができる。複数レイヤーUVテクスチャ符号器344は、複数の映像符号器、例えば、映像圧縮用のMPEG規格、AVCにすることができる。複数の映像符号器から来る解像度が2k×2kでありかつ3レイヤーとされた複数レイヤーUVマップの圧縮により、33Mbpsが達成できる。この同じ実施形態では、カメラID情報は、PNG符号器のような画像圧縮に損失がない画像符号器で圧縮することができ、しかも87Mbpsに達することができる。ビューに依存する情報の伝送には合計184Mbpsが使用され、このビット率のほぼ半分は、カメラID情報の伝送に充てられる。ジオメトリ復号器362は、符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)を復号する。テクスチャ復号器364は、符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)を復号する。メタデータ復号器366は、符号化されたメタデータコンテンツを復号する。次いで、ジオメトリ復号器362からの復号された形状情報、テクスチャ復号器364からの復号されたテクスチャ、およびメタデータ復号器366からの復号されたメタデータを用いて、レンダリング装置382がFVV映像をレンダリングすることができる。いくつかの実施形態では、レンダリングすることは、FVV映像を表示することおよび/またはユーザーがFVV映像を操作可能にすることを含む。
図5は、いくつかの実施形態による復号器中心のUVコーデック(UVC)アーキテクチャのフローチャートである。本明細書に記載されるように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、複数台のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
いくつかの実施形態では、取り込んだコンテンツは、メッシュ生成222、メッシュ追跡224、UVアトラス生成326および複数レイヤーテクスチャマッピング228を通る。メッシュ生成222、メッシュ追跡224、UVアトラス生成326、および複数レイヤーテクスチャマッピング228は、本明細書にて説明されている。
次いで、ジオメトリ符号器242が、生成されたメッシュデータを、メッシュ追跡データのみを用いて符号化する。取り込んだコンテンツはまた、複数レイヤーテクスチャマッピング328が適用された後、ML−UV(複数レイヤー−UV)テクスチャ符号器344に進む。ML−UVテクスチャ符号器344は、UVアトラス情報を用いて複数レイヤーUVテクスチャを符号化する。
ジオメトリ符号器342から来る符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)は、ジオメトリ復号器362に送られ(例えば、ストリーミングされ)、ML−UVテクスチャ符号器344から来る符号化されたコンテンツ(例えば、符号化テクスチャ情報)は、テクスチャ復号器364に送られる(例えば、ストリーミングされる)。ジオメトリ復号器362は、符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)を復号する。ジオメトリ復号器362は、符号器側で複製することができるとともに、ジオメトリ情報を複数レイヤーテクスチャマッピングのためにUVアトラス生成326に伝送する。メタデータ作成566も、ジオメトリ復号器362からのジオメトリ情報を用いて実施される。テクスチャ復号器364は、符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)を復号する。
次いで、ジオメトリ復号器362からの復号された形状情報、テクスチャ復号器364およびジオメトリ復号器362から来る復号されたジオメトリを用いて作成されたメタデータ566から復号されたテクスチャを使用して、レンダリング装置382がFVV映像をレンダリングすることができる。いくつかの実施形態では、レンダリングは、FVV映像を表示することおよび/またはユーザーがFW映像を操作可能にすることを含む。
図6は、いくつかの実施形態による復号器中心のUVコーデック(UVC)アーキテクチャのフローチャートを示す。本明細書に記載されるように、コンテンツは、疎ビュー3D映像カメラを用いて取り込まれる。例えば、複数台のカメラは、取り込むオブジェクトの前方、後方、左側および右側のような複数の異なる角度から3D映像を取り込む。
取り込んだコンテンツは前処理される。前処理することは、メッシュ生成222、メッシュ追跡224、UVアトラス生成326、およびテクスチャマッピング328を含む。メッシュ生成222は任意の種類のメッシュ生成を含み、それらは、メッシュテンプレートを使用すること、取得したコンテンツに基づいてテンプレートを比較および選択すること、ならびに複数のビューを用いて取得したコンテンツの形状に基づいてテンプレートを修正することなどである。メッシュ追跡224は任意の種類のメッシュ追跡を含み、これらは、メッシュを堅くない変形で一時的に追跡すること、または名称が「ロバストメッシュ追跡、ならびに部分ベースキーおよび推測的モデル用いることよる融合」である米国特許出願第代理人整理番号ソニー−69500号に記載されている通りであり、この米国出願は、あらゆる目的のためにその全体が参照により本明細書に援用される。UVアトラス生成326は、テクスチャアトラスまたはタイル表示マップを生成し、それは、サブ画像の集合を含み、その各々が3Dモデルの一部のためのテクスチャマップである。UVアトラス生成326は、取得したコンテンツを、特定の形状、身体部分、および/または他の任意のグループ化のようなグループ化に基づいて分離することを含む、任意の方法で実行することができる。UVアトラス生成326は、UVアトラスを生成するために、圧縮された形状(または圧縮された形状の解凍バージョン)および/または復号器からの復号形状を使用する。テクスチャマッピング328は、取得したコンテンツからテクスチャ成分を、生成されたメッシュ(例えば、モデル)に適用することを含む。いくつかの実施形態では、テクスチャマッピング328は、圧縮形状(または圧縮形状の解凍バージョン)および/または復号された形状に基づいて評価される。
メッシュ追跡224から、頂点座標および頂点接続性は、ジオメトリ符号器342によって符号化される。いくつかの実施形態では、ジオメトリ符号器は、FAMCとしても既知の動的メッシュ圧縮のためのMPEG規格にすることができ、それは、5Mbps程度の低いビット率を生成することができる。複数レイヤーUV(1K×1K)テクスチャのようなテクスチャは、UVテクスチャ符号器344によって符号化される。いくつかの実施形態では、複数レイヤーテクスチャ符号器は、レイヤー毎に、H.264/AVCのような映像圧縮に関するMPEG規格のインスタンスにすることができる。MPEG符号器は、14Mbpsという低い合計ビット率を生成して、3レイヤーの1k×1kテクスチャを、ビューに依存する自由視点データを伝送するために合計19Mbpsで符号化することができる。ジオメトリ符号器342から来る符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)は、ジオメトリ復号器362に送られ(例えば、ストリーミングされ)、UVテクスチャ符号器344から来る符号化されたコンテンツ(例えば、符号化されたテクスチャ情報)は、UVテクスチャ復号器364に送られる(例えば、ストリーミングされる)。ジオメトリ復号器362は、符号化されたコンテンツ(例えば、符号化された形状/ジオメトリ情報)を復号する。復号されたジオメトリを用いて、復号器は、カメラID情報を、適切なテクスチャ情報と対応するように局所的に作成することができる(566)。カメラID情報は、適切なカメラID情報を決定するために使用できる、ジオメトリ復号器362からの復号された形状情報を用いて生成される。例えば、オブジェクトのジオメトリは特定のカメラIDと関連付けられ、カメラIDは、オブジェクトの決定されたジオメトリに基づいて決定することができる。
次いで、レンダリング装置382は、ジオメトリ復号器362からの復号された形状情報と、復号器側566で作成された復号されたテクスチャおよびカメラIDとを用いて、FVV映像をレンダリングすることができる。いくつかの実施形態では、レンダリングすることは、FVV映像を表示することおよび/またはユーザーがFVV映像を操作可能にすることを含む。いくつかの実施形態では、符号器は、ジオメトリおよびテクスチャ情報を伝送する前に、複数レイヤー(たとえば、ビューに依存する)手法対単数レイヤー(たとえば、ビューに依存しない)手法の使い方を信号で送ることができる。
いくつかの実施形態では、より少ないまたは追加の工程が実施される。いくつかの実施形態では、ステップの順序は変更されている。さらに、図5は、特定の設定値および測定値を備える例示的実施形態である。異なる解像度設定値のような他の設定値を備える実施形態が可能であることを理解されたい。
いくつかの実施形態では、本明細書にて説明した工程は同じ装置で行われ、いくつかの実施形態では、工程は別々の装置(例えば、取込み装置、前処理装置、符号器装置、復号器装置およびレンダリング装置)で行なわれる。別の例では、取込み装置は複数の3Dカメラを含み、前処理装置、符号化装置および復号装置は、サーバーまたはコンピュータ装置であり、レンダリング装置はテレビである。さらに別の例では、取込み装置は、複数の3Dカメラを含み、前処理装置および符号化装置は、ネットワークを介して復号装置およびレンダリング装置に結合されている。
図7は、いくつかの実施形態によるFVVストリーミング用の復号器中心コーデックを実装するための装置の図である。取込み装置700は、複数の異なる角度からFVVコンテンツを取り込む。例えば、疎数(例えば、10個以下)のカメラが、オブジェクト/シーンを同時に映像録画するように配置されている。取り込んだコンテンツ(例えば、複数レイヤーのコンテンツ)は、前処理装置702で処理される。前処理装置702は、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを実行する。前処理装置702は、サーバーまたは他の任意のコンピュータ装置にすることができる。前処理の後、適切なコンテンツ(例えば、頂点座標/接続性、複数レイヤーUVおよび複数レイヤーカメラID)は、符号化のために符号化装置704に進む。符号化装置704は、(前処理のための)サーバー、異なるサーバー、または異なるコンピュータ装置の一部とすることができる。符号化されたコンテンツ(例えば、符号化された形状/ジオメトリおよび符号化されたUVテクスチャ)は、次いで符号化されたコンテンツを復号するために復号装置706に送られる(例えば、ストリーミングされる)。復号装置706は、通常、ネットワーク(例えば、LANまたはインターネット)を介して符号化装置704に結合された別個の装置である。復号されたコンテンツは、次いでレンダリングする(および表示する)ためにレンダリング装置708で受信される。いくつかの実施形態では、復号装置706およびレンダリング装置708は、同じ装置(例えば、テレビ、モニタ付きコンピュータ)の一部であり、いくつかの実施形態では、復号装置706およびレンダリング装置708は異なる装置内/上にある。
図8は、いくつかの実施形態による、復号器中心のUVコーデックを実装するように構成された例示的なコンピュータ装置のブロック図を示す。コンピュータ装置800は、画像および映像(例えば、FVV)のような情報を取得し、保存し、計算し、処理し、通信しおよび/または表示するために使用できる。コンピュータ装置800は、取り込むこと、前処理すること、符号化すること、復号すること、および/またはレンダリングすることのような、復号器中心のUVコーデック態様の何れかを実装することができる。一般的に、コンピュータ装置800を実装するのに適したハードウェア構造は、ネットワークインターフェース802、メモリー804、プロセッサ806、入力/出力装置808、バス810および記憶装置812を含む。速度が十分である適切なプロセッサが選ばれる限り、プロセッサの選択は重要ではない。メモリー804は、当技術分野で既知の任意の従来式コンピュータメモリとすることができる。記憶装置812は、ハードドライブ、CDROM、CDRW、DVD、DVDRW、高解像度ディスク/ドライブ、超HDドライブ、フラッシュメモリカード、またはその他の記憶装置を含むことができる。コンピュータ装置800は、1つまたは複数のネットワークインターフェース802を含むことができる。ネットワークインターフェースの例には、イーサネットまたは他の種類のLANに接続されたネットワークカードが含まれる。入力/出力装置(複数可)808は、キーボード、マウス、モニタ、スクリーン、プリンタ、モデム、タッチスクリーン、ボタンインタフェース、および他の装置のうちの1つまたは複数を含むことができる。復号器中心のUVコーデックを実装するために用いる復号器中心のUVコーデックアプリケーション830は、記憶装置812およびメモリー804に保存される可能性が高く、アプリケーションが通常通り処理されるとき処理される可能性が高い。コンピュータ装置800は、図8に示すよりも多いまたは少ない構成部品を含み得る。いくつかの実施形態では、復号器中心のUVコーデックハードウェア820が含まれる。図8のコンピュータ装置800は、復号器中心のUVコーデック用のアプリケーション830およびハードウェア820を含むが、復号器中心のUVコーデックは、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の組合わせでコンピュータ装置上に実装することができる。例えば、いくつかの実施形態では、復号器中心のUVコーデックアプリケーション830は、メモリー内にプログラムされ、プロセッサを用いて実行される。いくつかの実施形態における別の例では、復号器中心のUVコーデックハードウェア820は、復号器中心のUVコーデックを実装するように具体的に設計されたゲートを含む、プログラムされたハードウェア論理である。
いくつかの実施形態において、復号器中心のUVコーデックアプリケーション(複数可)830は、いくつかのアプリケーションおよび/またはモジュールを含む。いくつかの実施形態では、モジュールは1つ以上のサブモジュールも含む。いくつかの実施形態では、より少ないまたは追加のモジュールを含むことができる。
いくつかの実施形態では、復号器中心のUVコーデックハードウェア820は、レンズ、画像センサ、および/または任意の他のカメラ構成部品のようなカメラ構成部品を含む。
適切なコンピュータ装置の例には、パソコン、ノート型パソコン、コンピュータワークステーション、サーバー、大型汎用コンピュータ、手持ち式コンピュータ、携帯情報端末、携帯電話/移動電話、スマート電気機器、ゲーム機、デジタルカメラ、デジタル映像カメラ、カメラ電話、スマートフォン、携帯用の音楽プレーヤ、タブレット型コンピュータ、携帯機器、映像プレーヤ、映像ディスクライター/プレーヤ(例えば、DVDライタ/プレーヤ、高解像度ディスクライター/プレーヤ、超解像度ディスクライター/プレーヤ)、テレビ、家庭用娯楽器具システム、拡張現実装置、仮想現実装置、高性能の宝石類(例えば高性能の時計)または他の適切なコンピュータ装置が含まれる。
図9は、いくつかの実施形態による装置のネットワークの図を示す。3D/FVV映像コンテンツを取得するために複数台のカメラ900を利用する。映像コンテンツは、1つまたは複数のプロセッサ/符号器装置902において処理および符号化される。符号化されたコンテンツは、ネットワーク904(例えば、インターネット、セル方式のネットワーク、または他の任意のネットワーク)を介して1つまたは複数の復号器/レンダリング器装置906に伝送/ストリーミングされる。いくつかの実施形態では、コンテンツは、ネットワークを介することなく1つまたは複数の復号器/レンダリング器装置906に直接伝送される。装置のネットワークのうちの1つまたは複数の装置(たとえば、プロセッサ/符号器装置、復号器/レンダリング器装置)は、本明細書にて説明する復号器中心のUVコーデックの実装を実行するように構成されている。1つまたは複数のプロセッサ/符号器装置902、および1つまたは複数の復号器/レンダリング器装置906は、サーバー、パソコン、スマートフォン、テレビ、ゲームシステム、または本明細書に記載された任意の装置、あるいは本明細書に記載の装置の任意の組合せのような、任意の装置にすることができる。いくつかの実施形態では、カメラ900は、前処理および/または符号化のような復号器中心のUVコーデックのさらなる態様を実施する。
本明細書に記載された復号器中心のUVコーデックを利用するために、デジタルカメラ/映像カメラのような装置が、3D/FVVコンテンツを取得するために使用される。復号器中心のUVコーデックは、3D/FVVコンテンツを効率的に符号化し、伝送し、復号し、レンダリングするために、ユーザー支援を用いて、またはユーザーの関与なしに自動的に実施することができる。次いで、取得したコンテンツの再生時に、より正確なコンテンツ(例えば、アーチファクトが少ないことまたは全くないこと)が表示される。
動作時、復号器中心のUVコーデックは、以前の実装よりも正確なコンテンツを生成する。さらに、復号器中心のUVコーデックは、符号器において復号器ジオメトリを利用し、復号器においてジオメトリからカメラIDを推論することによって、より効率的である。復号器中心のUVコーデックを用いることによって、符号器から復号器に送られるメタデータがはるかに少なくなる。
自由視点映像ストリーミング用の復号器中心UVコーデックのいくつかの実施形態
1.方法であって、
自由視点映像コンテンツを前処理する段階と、
符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化する段階と、
復号器を使用して、符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号する段階と、
復号された自由視点映像コンテンツを装置上にレンダリングする段階と、を備えることを特徴とする方法。

2.自由視点映像コンテンツを前処理する段階は、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、条項1に記載の方法。

3.UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する、条項2に記載の方法。

4.自由視点映像コンテンツを符号化する段階は、ジオメトリ符号器を用いて頂点座標を符号化する段階と、UVテクスチャ符号器を用いてテクスチャを符号化する段階とを含む、条項1に記載の方法。

5.自由視点映像コンテンツを復号する段階は、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号する段階を含む、条項1に記載の方法。

6.復号された自由視点映像コンテンツをレンダリングする段階は、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、条項1に記載の方法。

7.復号器においてカメラ識別情報を生成し、カメラ識別情報は、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号するために利用される段階をさらに備える、条項1に記載の方法。

8.自由視点映像コンテンツを最大10台の映像カメラを用いて取得する段階をさらに含む、条項1に記載の方法。

9.複数台の映像カメラを用いて自由視点映像コンテンツを取得し、複数映像カメラは、各軸上で他のカメラから少なくとも30度離れている段階をさらに備える、条項1に記載の方法。

10.ビューに依存するレンダリングについて、複数レイヤーテクスチャの使い方を信号で送る段階をさらに備える、条項1に記載の方法。

11.複数レイヤーテクスチャ表現の各テクスチャレイヤー内の画素にカメラ識別情報を関連付ける段階をさらに備える、条項1に記載の方法。

12.装置であって、
アプリケーションを記憶するための非一時的メモリーであって、アプリケーションは、
自由視点映像コンテンツを前処理し、
符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するメモリーと、
メモリーに結合され、アプリケーションを処理するように構成されたプロセッサと、を備えることを特徴とする装置。

13.自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、条項12に記載の装置。

14.UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する、条項13に記載の装置。

15.自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む、条項12に記載の装置。

16.装置であって、
アプリケーションを記憶するための非一時的メモリーであって、アプリケーションは、
復号器を使用して、復号器においてカメラ識別情報を生成することによって、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号し、カメラ識別情報は、符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号するために利用するために用い、および
復号された自由視点映像コンテンツをレンダリングするために用いるメモリーと、
メモリーに結合され、アプリケーションを処理するように構成されたプロセッサと、を備えることを特徴とする装置。

17.自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む、条項16に記載の装置。

18.復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、条項16に記載の装置。

19.システムであって、
各々が自由視点映像コンテンツを取り込むように構成された複数台のカメラ装置と、
第1のコンピュータ装置であって、
自由視点映像コンテンツを前処理し、および
符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するように構成された第1のコンピュータ装置と、
第2のコンピュータ装置であって、
復号器を使用して、符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号し、および
復号された自由視点映像コンテンツを、第2のコンピュータ装置上でレンダリングする第2のコンピュータ装置と、を備えることを特徴とするシステム。

20.自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、条項19に記載のシステム。

21.UVアトラス生成およびテクスチャマッピングは、復号器からの復号された形状を利用する、条項19に記載のシステム。

22.自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む、条項19に記載のシステム。

23.自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む、条項19に記載のシステム。

24.復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、条項19に記載のシステム。

25.第2のコンピュータ装置は、復号器においてカメラ識別情報を生成し、カメラ識別情報は、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号するために利用するように構成されている、条項19に記載のシステム。
本発明は、本発明の構成および動作の原理の理解を容易にするために詳細事項を組み込んだ具体的な実施形態の観点から記載されている。本明細書において、そのような具体的な実施形態およびその詳細事項を参照することは、本明細書に添付された特許請求の範囲をそれらに限定することを意図するものではない。当業者であれば、例示のために選ばれた実施形態において、特許請求の範囲によって定まる本発明の趣旨及び範囲から逸脱することなく、他の様々な修正をなし得ることは容易に明白である。
222 メッシュ生成
224 メッシュ追跡
326 UVアトラス生成
328 複数レイヤーテクスチャマッピング
342 ジオメトリ符号器
344 ML−UVテクスチャ符号器
346 メタデータ符号器
362 ジオメトリ復号器
364 テクスチャ復号器
366 メタデータ復号器
382 レンダリング器

Claims (25)

  1. 方法であって、
    自由視点映像コンテンツを前処理する段階と、
    符号器を使用して、前記自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化する段階と、
    復号器を使用して、前記符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号する段階と、
    前記復号された自由視点映像コンテンツを装置上にレンダリングする段階と、を備えることを特徴とする方法。
  2. 前記自由視点映像コンテンツを前処理する段階は、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、請求項1に記載の方法。
  3. 前記UVアトラス生成および前記テクスチャマッピングは、前記復号器からの復号された形状を利用する、請求項2に記載の方法。
  4. 前記自由視点映像コンテンツを符号化する段階は、ジオメトリ符号器を用いて頂点座標を符号化する段階と、UVテクスチャ符号器を用いてテクスチャを符号化する段階とを含む、請求項1に記載の方法。
  5. 前記自由視点映像コンテンツを復号する段階は、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号する段階を含む、請求項1に記載の方法。
  6. 前記復号された自由視点映像コンテンツをレンダリングする段階は、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、請求項1に記載の方法。
  7. 前記復号器においてカメラ識別情報を生成し、前記カメラ識別情報は、前記符号化された自由視点映像コンテンツを前記復号された自由視点映像コンテンツに復号するために利用される段階をさらに備える、請求項1に記載の方法。
  8. 前記自由視点映像コンテンツを最大10台の映像カメラを用いて取得する段階をさらに含む、請求項1に記載の方法。
  9. 複数台の映像カメラを用いて前記自由視点映像コンテンツを取得し、前記複数映像カメラは、各軸上で他のカメラから少なくとも30度離れている段階をさらに備える、請求項1に記載の方法。
  10. ビューに依存するレンダリングについて、複数レイヤーテクスチャの使い方を信号で送る段階をさらに備える、請求項1に記載の方法。
  11. 複数レイヤーテクスチャ表現の各テクスチャレイヤー内の画素にカメラ識別情報を関連付ける段階をさらに備える、請求項1に記載の方法。
  12. 装置であって、
    アプリケーションを記憶するための非一時的メモリーであって、前記アプリケーションは、
    自由視点映像コンテンツを前処理し、
    符号器を使用して、前記自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するメモリーと、
    前記メモリーに結合され、前記アプリケーションを処理するように構成されたプロセッサと、を備えることを特徴とする装置。
  13. 前記自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、請求項12に記載の装置。
  14. 前記UVアトラス生成および前記テクスチャマッピングは、前記復号器からの復号された形状を利用する、請求項13に記載の装置。
  15. 前記自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む、請求項12に記載の装置。
  16. 装置であって、
    アプリケーションを記憶するための非一時的メモリーであって、前記アプリケーションは、
    復号器を使用して、前記復号器においてカメラ識別情報を生成することによって、符号化された自由視点映像コンテンツを復号された自由視点映像コンテンツに復号し、前記カメラ識別情報は、前記符号化された自由視点映像コンテンツを、前記復号された自由視点映像コンテンツに復号するために利用するために用い、および
    前記復号された自由視点映像コンテンツをレンダリングするために用いるメモリーと、
    前記メモリーに結合され、前記アプリケーションを処理するように構成されたプロセッサと、を備えることを特徴とする装置。
  17. 前記自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む、請求項16に記載の装置。
  18. 前記復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、請求項16に記載の装置。
  19. システムであって、
    各々が自由視点映像コンテンツを取り込むように構成された複数台のカメラ装置と、
    第1のコンピュータ装置であって、
    自由視点映像コンテンツを前処理し、および
    符号器を使用して、自由視点映像コンテンツを、復号されたジオメトリを用いて符号化された自由視点映像コンテンツに符号化するように構成された第1のコンピュータ装置と、
    第2のコンピュータ装置であって、
    復号器を使用して、前記符号化された自由視点映像コンテンツを、復号された自由視点映像コンテンツに復号し、および
    前記復号された自由視点映像コンテンツを、前記第2のコンピュータ装置上でレンダリングする第2のコンピュータ装置と、を備えることを特徴とするシステム。
  20. 前記自由視点映像コンテンツを前処理することは、メッシュ生成、メッシュ追跡、UVアトラス生成およびテクスチャマッピングを含む、請求項19に記載のシステム。
  21. 前記UVアトラス生成および前記テクスチャマッピングは、前記復号器からの復号された形状を利用する、請求項19に記載のシステム。
  22. 前記自由視点映像コンテンツを符号化することは、ジオメトリ符号器を用いて頂点座標を符号化すること、およびUVテクスチャ符号器を用いてテクスチャを符号化することを含む、請求項19に記載のシステム。
  23. 前記自由視点映像コンテンツを復号することは、ジオメトリ復号器およびUVテクスチャ復号器を用いて復号することを含む、請求項19に記載のシステム。
  24. 前記復号された自由視点映像コンテンツをレンダリングすることは、復号された形状情報、復号されたテクスチャ情報およびカメラ識別情報を利用する、請求項19に記載のシステム。
  25. 前記第2のコンピュータ装置は、前記復号器において前記カメラ識別情報を生成し、前記カメラ識別情報は、前記符号化された自由視点映像コンテンツを前記復号された自由視点映像コンテンツに復号するために利用するように構成されている、請求項19に記載のシステム。
JP2019528537A 2016-11-28 2017-11-20 自由視点映像ストリーミング用の復号器を中心とするuvコーデック Active JP6939883B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662426900P 2016-11-28 2016-11-28
US62/426,900 2016-11-28
US15/816,094 US10389994B2 (en) 2016-11-28 2017-11-17 Decoder-centric UV codec for free-viewpoint video streaming
US15/816,094 2017-11-17
PCT/US2017/062461 WO2018098054A1 (en) 2016-11-28 2017-11-20 Decoder-centric uv codec for free-viewpoint video streaming

Publications (3)

Publication Number Publication Date
JP2020513703A true JP2020513703A (ja) 2020-05-14
JP2020513703A5 JP2020513703A5 (ja) 2021-04-15
JP6939883B2 JP6939883B2 (ja) 2021-09-22

Family

ID=62191154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528537A Active JP6939883B2 (ja) 2016-11-28 2017-11-20 自由視点映像ストリーミング用の復号器を中心とするuvコーデック

Country Status (6)

Country Link
US (1) US10389994B2 (ja)
EP (1) EP3526966A1 (ja)
JP (1) JP6939883B2 (ja)
KR (1) KR102194758B1 (ja)
CN (1) CN109997358B (ja)
WO (1) WO2018098054A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053371A1 (ja) * 2022-09-06 2024-03-14 ソニーグループ株式会社 情報処理システム、および情報処理システムの作動方法、並びにプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242484B1 (en) * 2017-10-17 2019-03-26 8i Limited UV mapping and compression
EP3509308A1 (en) * 2018-01-05 2019-07-10 Koninklijke Philips N.V. Apparatus and method for generating an image data bitstream
JP7271099B2 (ja) * 2018-07-19 2023-05-11 キヤノン株式会社 ファイルの生成装置およびファイルに基づく映像の生成装置
KR102287133B1 (ko) * 2018-11-30 2021-08-09 한국전자기술연구원 자유 시점 영상 제공 방법 및 장치
US10911735B2 (en) * 2019-02-22 2021-02-02 Avalon Holographics Inc. Layered scene decomposition CODEC with asymptotic resolution
CN110223382B (zh) * 2019-06-13 2021-02-12 电子科技大学 基于深度学习的单帧图像自由视点三维模型重建方法
US11120623B2 (en) * 2019-06-25 2021-09-14 HypeVR Optimized volumetric video playback
US10964089B1 (en) 2019-10-07 2021-03-30 Sony Corporation Method and apparatus for coding view-dependent texture attributes of points in a 3D point cloud
EP4066513A4 (en) * 2019-11-29 2023-01-25 ZTE Corporation METHOD AND DEVICE FOR VIDEO EDITING WITH MULTIPLE VIEWS
US11704839B2 (en) 2019-12-17 2023-07-18 Electronics And Telecommunications Research Institute Multiview video encoding and decoding method
EP4085634A4 (en) * 2020-01-02 2024-01-10 Nokia Technologies Oy METHOD, APPARATUS AND COMPUTER PROGRAM PRODUCT FOR CODING AND DECODING VOLUMETRIC VIDEOS
US11601636B2 (en) * 2020-05-22 2023-03-07 Google Llc Methods, systems, and media for generating an immersive light field video with a layered mesh representation
US20230107834A1 (en) * 2021-10-04 2023-04-06 Tencent America LLC Method and apparatus of adaptive sampling for mesh compression by encoders
US20230162404A1 (en) * 2021-11-22 2023-05-25 Tencent America LLC Decoding of patch temporal alignment for mesh compression
US20230177736A1 (en) * 2021-12-03 2023-06-08 Tencent America LLC Method and apparatus for chart based mesh compression
JP2024008741A (ja) * 2022-07-09 2024-01-19 Kddi株式会社 メッシュ復号装置、メッシュ符号化装置、メッシュ復号方法及びプログラム
JP2024008742A (ja) * 2022-07-09 2024-01-19 Kddi株式会社 メッシュ復号装置、メッシュ符号化装置、メッシュ復号方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US805874A (en) * 1902-09-11 1905-11-28 Frank B Cook Automatic fire-extinguisher system.
JP3747492B2 (ja) * 1995-06-20 2006-02-22 ソニー株式会社 音声信号の再生方法及び再生装置
JP3860323B2 (ja) * 1997-10-27 2006-12-20 三菱電機株式会社 画像復号化装置、画像復号化方法
JP2000132683A (ja) * 1998-10-23 2000-05-12 Toshiba Corp 多視点画像符号化方法
US8878836B2 (en) 2008-02-29 2014-11-04 Samsung Electronics Co., Ltd. Method and apparatus for encoding datastream including additional information on multiview image and method and apparatus for decoding datastream by using the same
EP2309648A1 (en) * 2009-09-14 2011-04-13 Thomson Licensing Method for encoding floating-point data, method for decoding floating-point data, and corresponding encoder and decoder
CN102291579B (zh) * 2011-07-06 2014-03-05 北京航空航天大学 一种快速的多目立体视频分形压缩与解压缩方法
JP5870618B2 (ja) * 2011-10-21 2016-03-01 大日本印刷株式会社 自由視点映像表示装置
US9237329B1 (en) * 2012-10-18 2016-01-12 Google Inc. Systems and methods for capturing data of an object
US9483845B2 (en) * 2013-04-26 2016-11-01 Nvidia Corporation Extending prediction modes and performance of video codecs
CN105934949A (zh) * 2013-12-03 2016-09-07 日本电信电话株式会社 视频编码装置和方法、视频解码装置和方法、以及它们的程序
US9807373B1 (en) * 2013-12-27 2017-10-31 Google Inc. Systems and devices for acquiring imagery and three-dimensional (3D) models of objects
EP3143774A4 (en) * 2014-05-13 2018-04-25 PCP VR Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
GB2526838B (en) * 2014-06-04 2016-06-01 Imagination Tech Ltd Relightable texture for use in rendering an image
FR3028990B1 (fr) * 2014-11-21 2018-01-19 Institut National Des Sciences Appliquees De Lyon Procedes de compression et de decompression de donnees representatives d’un objet tridimensionnel numerique et support d'enregistrement d'informations contenant ces donnees
JP6501348B2 (ja) * 2014-12-26 2019-04-17 Kddi株式会社 自由視点画像生成装置、方法およびプログラム
US10362290B2 (en) * 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A DASH-BASED FREE VIEWPOINT VIDEO STREAMING SYSTEM: "Ahmed Hamza and Mohamed Hefeeda", NOSSDAV’14, JPN7020002076, March 2014 (2014-03-01), pages 1 - 6, ISSN: 0004426546 *
ALJOSCHA SMOLIC, HIDEAKI KIMATA AND ANTHONY VETRO: "Development of MPEG standards for 3D and free viewpoint video", THREE-DIMENSIONAL TV, VIDEO, AND DISPLAY IV, vol. Proc. of SPIE Vol. 6016 60160R, JPN7020002078, 2015, pages 1 - 12, ISSN: 0004426543 *
ALVARO COLLET ET AL.: "High-Quality Streamable Free-Viewpoint Video", SIGGRAPH‘15 TECHNICAL PAPER, JPN7020002077, August 2015 (2015-08-01), pages 1 - 13, ISSN: 0004426544 *
HIDEAKI KIMATA ET AL.: "REAL-TIME MVC VIEWER FOR FREE VIEWPOINT NAVIGATION", ICME 2008, JPN6020025971, 2008, pages 1437 - 1440, ISSN: 0004426547 *
MARCO VOLINO ET AL.: "Optimal Representation of Multi-View Video", BRITISH MACHINE VISION CONFERENCE, JPN6020025970, September 2014 (2014-09-01), pages 1 - 12, XP055442224, ISSN: 0004426545, DOI: 10.5244/C.28.8 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053371A1 (ja) * 2022-09-06 2024-03-14 ソニーグループ株式会社 情報処理システム、および情報処理システムの作動方法、並びにプログラム

Also Published As

Publication number Publication date
EP3526966A1 (en) 2019-08-21
CN109997358A (zh) 2019-07-09
US10389994B2 (en) 2019-08-20
WO2018098054A1 (en) 2018-05-31
KR20190068622A (ko) 2019-06-18
KR102194758B1 (ko) 2020-12-23
JP6939883B2 (ja) 2021-09-22
US20180152688A1 (en) 2018-05-31
CN109997358B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
JP6939883B2 (ja) 自由視点映像ストリーミング用の復号器を中心とするuvコーデック
US10567464B2 (en) Video compression with adaptive view-dependent lighting removal
Schwarz et al. Emerging MPEG standards for point cloud compression
US11599968B2 (en) Apparatus, a method and a computer program for volumetric video
US10600233B2 (en) Parameterizing 3D scenes for volumetric viewing
US10419737B2 (en) Data structures and delivery methods for expediting virtual reality playback
US11025882B2 (en) Live action volumetric video compression/decompression and playback
US10546424B2 (en) Layered content delivery for virtual and augmented reality experiences
US10341632B2 (en) Spatial random access enabled video system with a three-dimensional viewing volume
JP2017530626A (ja) ビデオコード化のための同時ローカライゼーション及びマッピング
JP7217226B2 (ja) グローバルな回転における動き補償画像を符号化する方法、デバイス及びストリーム
KR102308604B1 (ko) 레거시 및 몰입형 렌더링 디바이스들에 대한 몰입형 비디오를 포맷하는 방법, 장치 및 스트림
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
WO2019122504A1 (en) Method for encoding and decoding volumetric video data
US11196977B2 (en) Unified coding of 3D objects and scenes
GB2584119A (en) Content coding system and method
KR102658946B1 (ko) 글로벌 회전 모션 보상된 이미지들을 인코딩하기 위한 방법, 디바이스 및 스트림
WO2022224112A1 (en) Inherited geometry patches
Verlani Proxy Based Compression of Depth Movies
Verlani et al. Parametric Proxy-Based Compression of Multiple Depth Movies of Humans

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200722

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20210304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210707

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6939883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151