JP2019534511A - 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング - Google Patents

自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング Download PDF

Info

Publication number
JP2019534511A
JP2019534511A JP2019518235A JP2019518235A JP2019534511A JP 2019534511 A JP2019534511 A JP 2019534511A JP 2019518235 A JP2019518235 A JP 2019518235A JP 2019518235 A JP2019518235 A JP 2019518235A JP 2019534511 A JP2019534511 A JP 2019534511A
Authority
JP
Japan
Prior art keywords
texture
map
video content
viewpoint video
flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019518235A
Other languages
English (en)
Other versions
JP6845490B2 (ja
Inventor
洋一 廣田
洋一 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019534511A publication Critical patent/JP2019534511A/ja
Application granted granted Critical
Publication of JP6845490B2 publication Critical patent/JP6845490B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本明細書では、時間的に整合するテクスチャUVマップを用いたオクルージョンのための時空間テクスチャ合成と、さらなるマルチレイヤテクスチャUVマップを用いたシームレスな/鏡面反射性の色のための視点依存テクスチャマッピングと、さらなるフローUVマップを用いた自然なマッピングのための視点依存テクスチャアラインメントとを可能にするスケーラブルなテクスチャデータ表現について説明する。【選択図】 図1

Description

〔関連出願との相互参照〕
本出願は、2016年10月7日に出願された「自由動作FVVアプリケーションのためのマルチレイヤUVマップに基づくテクスチャレンダリング(MULTI−LAYER UV MAP BASED TEXTURE RENDERING FOR FREE−RUNNING FVV APPLICATIONS)」という名称の米国仮特許出願第62/405,696号、及び2016年11月28日に出願された「自由動作FVVアプリケーションのためのマルチレイヤUVマップに基づくテクスチャレンダリング(MULTI−LAYER UV MAP BASED TEXTURE RENDERING FOR FREE−RUNNING FVV APPLICATIONS)」という名称の米国仮特許出願第62/426,739号の合衆国法典第35編第119条(e)に基づく優先権を主張するものであり、これらの出願はいずれもその全体が全ての目的で引用により本明細書に組み入れられる。
本発明は、3次元グラフィックスに関する。具体的には、本発明は、スパースビューマルチビュー3次元グラフィックス(sparse view multi−view three dimensional graphics)に関する。
自由視点映像(FVV)は、ユーザが映像の視点をいつでも変更できる映像である。例えば、スポーツ映像を観ているユーザは、ホームベースの後ろの視点から観ているスポーツ映像を外野からの視点に変更することができる。これにより、ユーザ/視聴者は、コンテンツを独自の視点から見ることができる。
米国特許出願代理人整理番号Sony−69500
Collet他著、「高品質ストリーミング可能な自由視点映像(High−Quality Streamable Free−Viewpoint Video)」、Microsoft社 Volino他著、「最適なマルチビュー映像表現(Optimal Representation of Multi−View Video)」
これまでのテクスチャ合成の試みでは単層テクスチャUVマップを利用していたが、異なるカメラからのテクスチャを融合することによるテクスチャの継ぎ目又は低コントラスト色が観察される。他のテクスチャ合成の試みは、異なるカメラからのテクスチャを包括的に表面上で整列させるものであり、不自然にスケーリングされたテクスチャが容易に観察される。
本明細書では、時間的に整合するテクスチャUVマップを用いたオクルージョンのための時空間テクスチャ合成と、さらなるマルチレイヤテクスチャUVマップを用いたシームレスな/鏡面反射性の色のための視点依存テクスチャマッピングと、さらなるフローUVマップを用いた自然なマッピングのための視点依存テクスチャアラインメントとを可能にするスケーラブルなテクスチャデータ表現について説明する。
1つの態様では、装置のメモリにプログラムされた、自由視点映像コンテンツにおけるオブジェクト上にテクスチャをレンダリングする方法が、UVマップ領域においてインペインティングを実行するステップと、マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせるステップと、誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用するステップとを含み、インペインティングを実行するステップ、マルチレイヤテクスチャUVマップを利用するステップ、及びフローUVマップを使用するステップが、オブジェクトの時間的に整合するテクスチャを生成する。UVマップ領域においてインペインティングを実行するステップは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めるステップを含む。マルチレイヤテクスチャUVマップを利用するステップは、加重和を用いてテクスチャセグメントを組み合わせるステップを含む。フローUVマップを使用するステップは、テクスチャのグローバルアラインメント情報を生成して記憶するステップを含む。インペインティングを実行するステップ、マルチレイヤテクスチャUVマップを利用するステップ、及びフローUVマップを使用するステップは、自由視点映像コンテンツを処理するステップであってジオメトリ処理をさらに含むステップに含まれる。方法は、時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示するステップをさらに含む。方法は、最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得するステップをさらに含む。方法は、全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得するステップをさらに含む。
別の態様では、装置が、非一時的メモリと、メモリに結合されたプロセッサとを含み、メモリは、UVマップ領域においてインペインティングを実行し、マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用するためのアプリケーションを記憶し、インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、オブジェクトの時間的に整合するテクスチャを生成し、プロセッサは、アプリケーションを処理するように構成される。UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めることを含む。マルチレイヤテクスチャUVマップを利用することは、加重和を用いてテクスチャセグメントを組み合わせることを含む。フローUVマップを使用することは、テクスチャのグローバルアラインメント情報を生成して記憶することを含む。インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる。装置は、時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む。装置は、最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む。装置は、全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む。
別の態様では、システムが、それぞれが自由視点映像コンテンツを取り込むように構成された複数のカメラ装置と、第1のコンピュータ装置と、第2のコンピュータ装置とを備え、第1のコンピュータ装置は、UVマップ領域においてインペインティングを実行し、マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用するように構成され、インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツにおけるオブジェクトの時間的に整合するテクスチャを生成し、第2のコンピュータ装置は、自由視点映像コンテンツを第2のコンピュータ装置上に表示するように構成される。UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めることを含む。マルチレイヤテクスチャUVマップを利用することは、加重和を用いてテクスチャセグメントを組み合わせることを含む。フローUVマップを使用することは、テクスチャのグローバルアラインメント情報を生成して記憶することを含む。インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる。システムは、時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む。システムは、最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む。システムは、全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む。
いくつかの実施形態による、マルチレイヤテクスチャUVマップに基づくテクスチャレンダリング方法の図である。 いくつかの実施形態による、UVマップに基づく合成によって解決される3つの問題点の画像を示す図である。 いくつかの実施形態によるテクスチャUVマップを示す図である。 いくつかの実施形態による、UVマップ領域におけるインペインティングの図である。 いくつかの実施形態による、視点非依存テクスチャマッピング対視点依存テクスチャマッピング(テクスチャ合成のための単一レイヤUVマップ対マルチレイヤUVマップ)の図である。 いくつかの実施形態による、視点依存テクスチャアラインメントを用いて誤った形状の問題に対処する図である。 いくつかの実施形態による、UVマップに基づく合成を行うように構成された例示的なコンピュータ装置のブロック図である。 いくつかの実施形態による装置のネットワークの図である。
デンス(高密度)ビュー3Dビデオキャプチャでは、(例えば、40〜100台以上の)多くのカメラを利用して多くの異なる角度からコンテンツを取り込む。具体的には、各カメラ間のカメラ間間隔を非常に小さく(例えば、5度未満に)することができる。スパースビュー3Dビデオキャプチャではデンスビュー3Dビデオキャプチャ中に発生しない問題が発生するので、デンスビュー3Dビデオキャプチャではスパースビューと比べて相対的に処理が単純である。例えば、スパースビュー3Dビデオキャプチャを使用する際にはオクルージョンの問題がさらに大きくなる。
スパースビュー3Dビデオキャプチャでは、はるかに少ない数のカメラを使用して多くの異なる角度からコンテンツを取り込む。例えば、スパースビュー3Dビデオキャプチャでは、デンスビュー3Dビデオキャプチャが100台のカメラを使用する同じ空間で10台又はそれ未満のカメラを使用することができる。換言すれば、カメラ間の(少なくとも1つの又は全ての軸上の)間隔を45度又は90度にすることができる。
UVマッピングは、3Dモデルの表面に2D画像を投影してテクスチャマッピングを行う3Dモデリング処理である。3Dオブジェクトの軸をモデル空間内で表すためにX、Y及びZを使用するので、2Dテクスチャの軸はU及びVである。
本明細書では、時間的に整合するテクスチャUVマップを用いたオクルージョンのための時空間テクスチャ合成と、さらなるマルチレイヤテクスチャUVマップを用いたシームレスな/鏡面反射性の色のための視点依存テクスチャマッピング(view−dependent texture)と、さらなるフローUVマップを用いた自然なマッピングのための視点依存テクスチャアラインメント(view−dependent texture alignment)とを可能にするスケーラブルなテクスチャデータ表現について説明する。
レイヤの積み重ねに関して言えば、オブジェクト毎又は反射率毎などの異なる方法でレイヤを生成することができる。さらに、方法の拡張性に起因して、状況(例えば、帯域幅、処理能力)に基づいて1つ又は少数のレイヤを選択することもできる。
図1は、いくつかの実施形態による、マルチレイヤテクスチャUVマップに基づくテクスチャレンダリング法の図である。ステップ100において、コンテンツを取り込む。ステップ120において、取り込んだコンテンツを処理する。ステップ140において、処理したコンテンツを送信する。ステップ160において、送信したコンテンツをレンダリングする。ステップ180において、レンダリングしたコンテンツを表示する。
本明細書で説明するように、ステップ100において、スパースビュー3Dビデオカメラを用いてコンテンツを取り込む。例えば、取り込むべきオブジェクトの前方、後方、左側及び右側などの複数の異なる角度から複数のカメラが3D映像を取り込む。
ステップ120において、取り込んだコンテンツを処理する。この処理は、ジオメトリ処理及びテクスチャ処理を含む。ジオメトリ処理は、(例えば、視体積交差法(visual hull)を用いて)360度形状の再生及び時間整合性(例えば、メッシュ追跡)を含む。360度形状の再生は、メッシュテンプレートを使用し、取得したコンテンツに基づいてテンプレートの比較及び選択を行い、複数のビューを用いて取得コンテンツの形状に基づいてテンプレートを修正することなどの、3D緻密化又は他のいずれかのタイプの形状生成を含むマルチビューステレオを利用することができる。メッシュ追跡は、確率的メッシュ追跡、又は非剛体変形におけるメッシュの時間的追跡、又は「パーツベースのキーフレーム及び演繹的モデルを用いたロバストなメッシュ追跡及び統合(ROBUST MESH TRACKING AND FUSION BY USING PART−BASED KEY−FRAMES AND PRIORI−MODEL)」という名称の米国特許出願代理人整理番号Sony−69500に記載されているようなメッシュ追跡などのいずれかのタイプのメッシュ追跡を含むことができ、後者の文献はその全体が全ての目的で引用により本明細書に組み入れられる。別のメッシュ追跡の実装例は、Microsoft社のCollet他による「高品質ストリーミング可能な自由視点映像(High−Quality Streamable Free−Viewpoint Video)」に記載されており、この文献では、各フレームがキーフレームであることの実現可能性スコアを推定し、最も期待できる非追跡フレームをキーフレームとして選択し、非線形登録を行ってキーフレームメッシュを近隣フレームに合わせ、全てのフレームがキーフレームに関連付けられるまでこれを繰り返すことが教示されている。メッシュ追跡は、メッシュシーケンスをキーフレームと予測フレームとに分割することによって実装できるメッシュ圧縮にとって重要であり、キーフレームメッシュは幾何学情報と接続性情報とを含み、幾何学情報は頂点位置とUV座標とを含む。テクスチャ処理は、UVマップに基づく合成などの時空間合成を利用することができる。
本明細書で説明するように、UVマップに基づく合成は、UVマップ領域内でインペインティング(inpainting)を実行してオクルージョンに対処し、マルチレイヤテクスチャUVマップ及び重み付けスキームを用いて顕著なテクスチャ継ぎ目を回避し、視点依存アラインメントにフローUVマップを利用して誤った形状を防ぐことによって実装される。
ステップ140において、処理したコンテンツを送信(例えば、ストリーミング)する。処理したコンテンツの送信は、ジオメトリ及びテクスチャのコンパクトなデータ表現のためのあらゆるタイプの3Dコーディングを含むことができる。いくつかの実施形態では、処理したコンテンツの送信が、コンテンツを第1の装置から第2の装置に符号化及び復号することを含む。
ステップ160において、送信したコンテンツをレンダリングする。例えば、レンダリング装置が、処理した形状情報及びテクスチャ情報を用いてFVV映像をレンダリングする。
ステップ180において、レンダリングしたFVV映像を(例えば、テレビ又は仮想現実ヘッドセット上に)表示する。
いくつかの実施形態では、これよりも少ない又はさらなるステップが実装される。いくつかの実施形態では、ステップの順序が変更される。
いくつかの実施形態では、本明細書で説明するステップが同じ装置上で行われ、いくつかの実施形態では、これらのステップが別個の装置(例えば、取り込み装置、処理装置、送信装置、レンダリング装置及びディスプレイ装置)上で行われる。別の例では、取り込み装置が複数の3Dカメラを含み、処理装置がサーバ又はコンピュータ装置であり、レンダリング/ディスプレイ装置がテレビである。
図2に、いくつかの実施形態による、UVマップに基づく合成によって解決される3つの問題点の画像を示す。UVマップに基づく合成は、FVVコンテンツにおけるオクルージョン、テクスチャ継ぎ目及び誤ったオブジェクト形状に対処する。FVVコンテンツは、まばらな間隔のカメラを用いて取り込まれるので、オクルージョン(例えば、オブジェクトの遮られた又は見えない外観)の可能性が非常に高くなる。異なるカメラからの複数のテクスチャを共にステッチングした(つなぎ合わせた)時のテクスチャ継ぎ目は目に付きやすく、美的にも不快である。また、オブジェクトの形状は様々な誤差に起因して正しくないことがあり、従って異なるカメラからのテクスチャは互いに表面上で包括的に整列させる(グローバルアラインメント)必要があり、そうでなければこれらのテクスチャは変位してしまう。しかしながら、たとえグローバルアラインメントを使用した場合でも、相変わらず不自然に伸びたテクスチャが観察される。
オクルージョン問題に対処するために、(例えば、どのカメラによっても取り込まれない領域を埋める)インペインティングを利用する。
図3に、いくつかの実施形態によるテクスチャUVマップを示す。このUVマップは、3D形状を2D領域上にアンラップ(展開)することによって生成される。UVアンラッパの例には、マイクロソフト社製のUVAtlasがある。これらの相関性に基づいて、このテクスチャUVマップと呼ばれる生成されたUVマップ上に取り込み画像をワーピング(変形処理)する。テクスチャUVマップを使用する利点は、常に全てのテクスチャに2D領域でアクセスできる点である。これによってあらゆる種類の従来の2Dインペインティング技術を使用できるようになる。
図4に、いくつかの実施形態による、UVマップ領域におけるインペインティングの図を示す。テクスチャUVマップ上では、遮蔽テクスチャを周囲のテクスチャによって容易に空間的にインペインティングすることができ、これは空間合成とも呼ばれる。また、時間的にレジストレーション処理したメッシュ(例えば、時間と共に動く形状)を使用すれば、テクスチャが時間を越えて同じUV位置に留まるので時間合成も可能である。時間合成は、前の時点及び後の時点で取り込まれたテクスチャを使用する、遮蔽テクスチャに使用するインペインティングの別表現である。例えば、時点0において取得したテクスチャUVマップは、人物が立っている時に取得されたテクスチャを含み、時点1において取得したテクスチャUVマップは、人物が逆立ちをしている時に取得されたテクスチャを含み、時点2において取得したテクスチャUVマップは、再び人物が立っている時に取得されたテクスチャを含む。空間合成及び時間合成を使用すれば、テクスチャUVマップからのテクスチャ及び/又はテクスチャUVマップを用いてテクスチャUVマップ内のあらゆる遮蔽(欠落)テクスチャをインペインティングする(例えば、埋める)ことができる。
図5に、いくつかの実施形態による、視点非依存テクスチャマッピング対視点依存テクスチャマッピング(テクスチャ合成のための単一レイヤUVマップ対マルチレイヤUVマップ)の図を示す。単一レイヤUVマップを使用した場合には、各カメラからのテクスチャが共にステッチングされて完全な面(又は他のオブジェクト)が生成される。しかしながら、図示のように、各カメラ間には、共にステッチングされた各テクスチャ要素の外観(例えば、色)に影響を与える差異が存在する。この結果、各テクスチャ要素間の継ぎ目が明らかになってしまう。
マルチレイヤテクスチャUVマップを使用した場合には、各カメラからの複数のレイヤ(例えば、色)が存在し、これらの複数のレイヤの加重和を使用することによって、テクスチャ継ぎ目が知覚されないようにテクスチャ要素間の差異を最小化することができる。カメラの重みは、レンダリングのための仮想カメラがどこに構成/配置されているかに依存(すなわち、視点依存)することができる。例えば、図示のように仮想カメラがカメラ0の近くに位置し、従ってカメラ1よりもカメラ0の重みの方が大きく、カメラ2は最も遠くのカメラであるためカメラ2よりもカメラ1の重みの方が大きい。仮想カメラは、どこにでも位置することができる。いくつかの実施形態では、仮想カメラが位置する場所をユーザが制御する。例えば、ユーザが特定の位置からFVVコンテンツを見ることを選択した場合、この位置が仮想カメラの位置になる。いくつかの実施形態では、仮想カメラの位置が自動的に(例えば、システムによって)決定される。例えば、コンピュータシステムは、視聴者にオブジェクト全体が見えるようにするという理由でオブジェクトの側面からFVVコンテンツを表示することが最良であると判断し、仮想カメラの位置である横方向からの映像を表示する。重みに関して言えば、重みはあらゆる形で使用することができる。例えば、マルチレイヤテクスチャUVマップに異なる重みを乗算すると、明らかなテクスチャ継ぎ目が存在しないオブジェクトの外観を有するテクスチャの加重和がもたらされる。各カメラに1つのレイヤが割り当てられているが、あらゆる種類のレイヤ割り当てを使用することができる。例えば、視認性に基づくレイヤ割り当てでは、N番目に良く見えるカメラからのテクスチャがN番目のレイヤに保存され、すなわち各レイヤが複数のカメラからのテクスチャを含む。Volino他による「最適なマルチビュー映像表現(Optimal Representation of Multi−View Video)」にも、視点間の表面ベースオプティカルフローアラインメントを用いてジオメトリ再生及びカメラ較正における誤差を補正するマルチレイヤテクスチャマップ映像が記載されている。Volinoによる方法は、再生されて時間的に整列したメッシュシーケンスを含む一連のカメラ視野を取得するものであり、この場合のメッシュの再生は、マルチビュー再生法及び表面整列法(surface alignment technique)を用いて行われる。
図6は、いくつかの実施形態による、視点依存テクスチャアラインメントを用いて誤った形状の問題に対処する図である。形状上にテクスチャを配置する際に、フローUVマップを使用することによってテクスチャが適切に形状を覆って歪みの視認性を最小化するように整列させる。フローUVマップは、テクスチャUVマップを生成する際にUVマップ領域にグローバルアラインメント情報を保存することによって利用される。グローバルアラインメント情報は、各テクスチャをどこに配置すべきであるかを示す。いくつかの実施形態では、グローバルアラインメント情報が各テクスチャの座標を記憶する。いくつかの実施形態では、グローバルアラインメント情報が、各テクスチャがどのテクスチャの隣に位置するかを示す。グローバルアラインメント情報は、テクスチャを引き伸ばして元々の位置に戻す方法を示す。グローバルアラインメント情報は、各カメラからの座標/位置情報を含む取り込まれたテクスチャ情報を分析し、この情報をUVマップに保存して、テクスチャ情報とグローバル座標/アラインメント情報とを含むフローUVマップを生成することなどのいずれかの方法で決定することができる。仮想カメラに近いカメラは大きな重みを有する(すなわち、視点依存)ので、仮想カメラの位置に基づいてカメラ視野に重みを適用し、重み付きフローUVマップを使用することができる。重み付きフローUVマップは、テクスチャに合わせて最適化される。例えば、フローUVマップに保存された情報に重みを適用(例えば、乗算)することによって、スケーリングされたテクスチャUVマップを生成し、これを形状に適用して、まるで正しい形状のFVVオブジェクトであるかのように見せることができる(例えば、この形状は依然として不正確であるが、スケーリングされたテクスチャが不正確さを隠す)。
図7は、いくつかの実施形態による、UVマップに基づく合成を実装するように構成された例示的なコンピュータ装置のブロック図である。コンピュータ装置700は、画像及び映像(例えば、FVV)などの情報の取得、記憶、計算、処理、通信及び/又は表示を行うために使用することができる。コンピュータ装置700は、取り込み、処理、送信、レンダリング及び/又は表示などの、UVマップに基づく合成の態様のいずれかを実装することができる。一般に、コンピュータ装置700を実装するのに適したハードウェア構造は、ネットワークインターフェイス702、メモリ704、プロセッサ706、I/O装置708、バス710及び記憶装置712を含む。プロセッサの選択は、十分な速度の好適なプロセッサを選択する限り重要ではない。メモリ704は、当業で周知のいずれかの従来のコンピュータメモリとすることができる。記憶装置712は、ハードドライブ、CDROM、CDRW、DVD、DVDRW、高精細ディスク/ドライブ、ウルトラHDドライブ、フラッシュメモリカード、又はその他のいずれかの記憶装置を含むことができる。コンピュータ装置700は、1又は2以上のネットワークインターフェイス702を含むことができる。ネットワークインターフェイスの例としては、イーサネット又は他のタイプのLANに接続されたネットワークカードが挙げられる。(単複の)I/O装置708は、キーボード、マウス、モニタ、画面、プリンタ、モデム、タッチ画面、ボタンインターフェイス及びその他の装置のうちの1つ又は2つ以上を含むことができる。記憶装置712及びメモリ704には、UVマップに基づく合成を実装するために使用されるUVマップに基づく合成アプリケーション730が記憶されて、アプリケーションが通常処理されるように処理される可能性が高い。コンピュータ装置700には、図7に示すものよりも多くの又は少ないコンポーネントを含めることもできる。いくつかの実施形態では、UVマップに基づく合成ハードウェア720が含まれる。図7のコンピュータ装置700は、UVマップに基づく合成のためのアプリケーション730及びハードウェア720を含むが、UVマップに基づく合成は、ハードウェア、ファームウェア、ソフトウェア、又はこれらのあらゆる組み合わせでコンピュータ装置上に実装することもできる。例えば、いくつかの実施形態では、UVマップに基づく合成アプリケーション730がメモリにプログラムされ、プロセッサを用いて実行される。別の例として、いくつかの実施形態では、UVマップに基づく合成ハードウェア720が、UVマップに基づく合成を実装するように特別に設計されたゲートを含むプログラムされたハードウェアロジックである。
いくつかの実施形態では、UVマップに基づく合成アプリケーション730が、複数のアプリケーション及び/又はモジュールを含む。いくつかの実施形態では、モジュールは、1又は2以上のサブモジュールをさらに含む。いくつかの実施形態では、これよりも少ない又はさらなるモジュールを含めることもできる。
いくつかの実施形態では、UVマップに基づく合成ハードウェア720が、レンズ、画像センサ及び/又は他のいずれかのコンポーネントなどのカメラコンポーネントを含む。
好適なコンピュータ装置の例としては、パーソナルコンピュータ、ラップトップコンピュータ、コンピュータワークステーション、サーバ、メインフレームコンピュータ、ハンドヘルドコンピュータ、携帯情報端末、セルラ/携帯電話機、スマート家電、ゲーム機、デジタルカメラ、デジタルカムコーダ、カメラ付き電話機、スマートホン、ポータブル音楽プレーヤ、タブレットコンピュータ、モバイル装置、ビデオプレーヤ、ビデオディスクライタ/プレーヤ(DVDライタ/プレーヤ、高精細ディスクライタ/プレーヤ、超高精細ディスクライタ/プレーヤなど)、テレビ、家庭用エンターテイメントシステム、拡張現実装置、仮想現実装置、スマートジュエリ(例えば、スマートウォッチ)、又はその他のあらゆる好適なコンピュータ装置が挙げられる。
図8は、いくつかの実施形態による装置のネットワークの図である。3D/FVV映像コンテンツの取得には複数のカメラ800が利用される。映像コンテンツは、1又は2以上のプロセッサ装置802において(インペインティング、マルチレイヤテクスチャUVマップの利用、フローUVマップの使用を含めて)処理される。処理されたコンテンツは、ネットワーク804(例えば、インターネット、セルラネットワーク又は他のいずれかのネットワーク)を介して1又は2以上のレンダラ/ディスプレイ装置806に送信/ストリーミングされる。いくつかの実施形態では、コンテンツがネットワークを介すことなく1又は2以上のレンダラ/ディスプレイ装置806に直接送信される。いくつかの実施形態では、レンダラ装置及び/又はディスプレイ装置が別個の装置である。装置のネットワークの1又は2以上の装置(例えば、プロセッサ装置、レンダラ/ディスプレイ装置)は、本明細書で説明したUVマップに基づく合成の実装を実行するように構成される。1又は2以上のプロセッサ装置802及び1又は2以上のレンダラ/ディスプレイ装置806は、サーバ、パーソナルコンピュータ、スマートホン、テレビ、ゲームシステム、仮想現実装置、本明細書で説明した装置のいずれか、又は本明細書で説明した装置のいずれかの組み合わせ、などのいずれかの装置とすることができる。いくつかの実施形態では、(単複の)カメラ800が、処理及び/又はレンダリングなどのUVマップに基づく合成のさらなる態様を実行する。
本明細書で説明したUVマップに基づく合成を利用するには、デジタルカメラ/カムコーダーなどの装置を使用して3D/FVVコンテンツを取得する。UVマップに基づく合成は、ユーザ支援を用いて、又はユーザ関与を伴わずに自動的に実行して、3D/FVVコンテンツのテクスチャを効率的かつ正確に処理/適用することができる。その後、取得したコンテンツの再生時に、(例えば、アーティファクトが少ない又はゼロの)より正確なコンテンツが表示される。
動作中、このUVマップに基づく合成は、これまでの実装よりも正確なコンテンツ、具体的には時間的に整合するテクスチャを生成する。さらに、UVマップに基づく合成は、オクルージョン、テクスチャ継ぎ目及び誤った形状という、テクスチャに関する3つの重要な問題点に対処する。
自由動作FVVアプリケーションのためのマルチレイヤUVマップに基づくテクスチャレンダリング
1.装置のメモリにプログラムされた、自由視点映像コンテンツにおけるオブジェクト上にテクスチャをレンダリングする方法であって、
UVマップ領域においてインペインティングを実行するステップと、
マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせるステップと、
誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用するステップと、
を含み、インペインティングを実行するステップ、マルチレイヤテクスチャUVマップを利用するステップ、及びフローUVマップを使用するステップは、オブジェクトの時間的に整合するテクスチャを生成する、方法。
2.UVマップ領域においてインペインティングを実行するステップは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めるステップを含む、条項1の方法。
3.マルチレイヤテクスチャUVマップを利用するステップは、加重和を用いてテクスチャセグメントを組み合わせるステップを含む、条項1の方法。
4.フローUVマップを使用するステップは、テクスチャのグローバルアラインメント情報を生成して記憶するステップを含む、条項1の方法。
5.インペインティングを実行するステップ、マルチレイヤテクスチャUVマップを利用するステップ、及びフローUVマップを使用するステップは、自由視点映像コンテンツを処理するステップであってジオメトリ処理をさらに含むステップに含まれる、条項1の方法。
6.時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示するステップをさらに含む、条項1の方法。
7.最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得するステップをさらに含む、条項1の方法。
8.全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得するステップをさらに含む、条項1の方法。
9.非一時的メモリと、
メモリに結合されたプロセッサと、
を備えた装置であって、メモリは、
UVマップ領域においてインペインティングを実行し、
マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、
誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用する、
ためのアプリケーションを記憶し、インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、オブジェクトの時間的に整合するテクスチャを生成し、
プロセッサは、アプリケーションを処理するように構成される、装置。
10.UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めることを含む、条項9の装置。
11.マルチレイヤテクスチャUVマップを利用することは、加重和を用いてテクスチャセグメントを組み合わせることを含む、条項9の装置。
12.フローUVマップを使用することは、テクスチャのグローバルアラインメント情報を生成して記憶することを含む、条項9の装置。
13.インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる、条項9の装置。
14.時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む、条項9の装置。
15.最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む、条項9の装置。
16.全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む、条項9の装置。
17.それぞれが自由視点映像コンテンツを取り込むように構成された複数のカメラ装置と、
第1のコンピュータ装置と、
第2のコンピュータ装置と、
を備えたシステムであって、第1のコンピュータ装置は、
UVマップ領域においてインペインティングを実行し、
マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、
誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用する、
ように構成され、インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツにおけるオブジェクトの時間的に整合するテクスチャを生成し、
前記第2のコンピュータ装置は、
前記自由視点映像コンテンツを前記第2のコンピュータ装置上に表示する、
ように構成される、システム。
18.UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれたテクスチャを用いてオブジェクトのテクスチャのあらゆる遮蔽された外観を埋めることを含む、条項17のシステム。
19.マルチレイヤテクスチャUVマップを利用することは、加重和を用いてテクスチャセグメントを組み合わせることを含む、条項17のシステム。
20.フローUVマップを使用することは、テクスチャのグローバルアラインメント情報を生成して記憶することを含む、条項17のシステム。
21.インペインティングを実行すること、マルチレイヤテクスチャUVマップを利用すること、及びフローUVマップを使用することは、自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる、条項17のシステム。
22.時間的に整合するテクスチャを有するオブジェクトを含む自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む、条項17のシステム。
23.最大で10台のビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む、条項17のシステム。
24.全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて自由視点映像コンテンツを取得することをさらに含む、条項17のシステム。
本発明の構成及び動作の原理を容易に理解できるように、詳細を含む特定の実施形態に関して本発明を説明した。本明細書におけるこのような特定の実施形態及びこれらの実施形態の詳細についての言及は、本明細書に添付する特許請求の範囲を限定することを意図したものではない。当業者には、特許請求の範囲によって定められる本発明の趣旨及び範囲から逸脱することなく、例示のために選択した実施形態において他の様々な修正を行えることが容易に明らかになるであろう。
100 取り込み
120 処理
140 送信
160 レンダリング
180 表示

Claims (24)

  1. 装置のメモリにプログラムされた、自由視点映像コンテンツにおけるオブジェクト上にテクスチャをレンダリングする方法であって、
    UVマップ領域においてインペインティングを実行するステップと、
    マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせるステップと、
    誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用するステップと、
    を含み、インペインティングを実行するステップ、前記マルチレイヤテクスチャUVマップを利用するステップ、及び前記フローUVマップを使用するステップは、前記オブジェクトの時間的に整合するテクスチャを生成する、
    ことを特徴とする方法。
  2. 前記UVマップ領域においてインペインティングを実行するステップは、異なる時点に取り込まれた前記テクスチャを用いて前記オブジェクトの前記テクスチャのあらゆる遮蔽された外観を埋めるステップを含む、
    請求項1に記載の方法。
  3. 前記マルチレイヤテクスチャUVマップを利用するステップは、加重和を用いて前記テクスチャセグメントを組み合わせるステップを含む、
    請求項1に記載の方法。
  4. 前記フローUVマップを使用するステップは、前記テクスチャのグローバルアラインメント情報を生成して記憶するステップを含む、
    請求項1に記載の方法。
  5. 前記インペインティングを実行するステップ、前記マルチレイヤテクスチャUVマップを利用するステップ、及び前記フローUVマップを使用するステップは、前記自由視点映像コンテンツを処理するステップであってジオメトリ処理をさらに含むステップに含まれる、
    請求項1に記載の方法。
  6. 前記時間的に整合するテクスチャを有する前記オブジェクトを含む前記自由視点映像コンテンツを送信し、レンダリングして表示するステップをさらに含む、
    請求項1に記載の方法。
  7. 最大で10台のビデオカメラを用いて前記自由視点映像コンテンツを取得するステップをさらに含む、
    請求項1に記載の方法。
  8. 全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて前記自由視点映像コンテンツを取得するステップをさらに含む、
    請求項1に記載の方法。
  9. 非一時的メモリと、
    前記メモリに結合されたプロセッサと、
    を備えた装置であって、前記メモリは、
    UVマップ領域においてインペインティングを実行し、
    マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、
    誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用する、
    ためのアプリケーションを記憶し、インペインティングを実行すること、前記マルチレイヤテクスチャUVマップを利用すること、及び前記フローUVマップを使用することは、前記オブジェクトの時間的に整合するテクスチャを生成し、
    前記プロセッサは、前記アプリケーションを処理するように構成される、
    ことを特徴とする装置。
  10. 前記UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれた前記テクスチャを用いて前記オブジェクトの前記テクスチャのあらゆる遮蔽された外観を埋めることを含む、
    請求項9に記載の装置。
  11. 前記マルチレイヤテクスチャUVマップを利用することは、加重和を用いて前記テクスチャセグメントを組み合わせることを含む、
    請求項9に記載の装置。
  12. 前記フローUVマップを使用することは、前記テクスチャのグローバルアラインメント情報を生成して記憶することを含む、
    請求項9に記載の装置。
  13. 前記インペインティングを実行すること、前記マルチレイヤテクスチャUVマップを利用すること、及び前記フローUVマップを使用することは、前記自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる、
    請求項9に記載の装置。
  14. 前記時間的に整合するテクスチャを有する前記オブジェクトを含む前記自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む、
    請求項9に記載の装置。
  15. 最大で10台のビデオカメラを用いて前記自由視点映像コンテンツを取得することをさらに含む、
    請求項9に記載の装置。
  16. 全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて前記自由視点映像コンテンツを取得することをさらに含む、
    請求項9に記載の装置。
  17. それぞれが自由視点映像コンテンツを取り込むように構成された複数のカメラ装置と、
    第1のコンピュータ装置と、
    第2のコンピュータ装置と、
    を備えたシステムであって、前記第1のコンピュータ装置は、
    UVマップ領域においてインペインティングを実行し、
    マルチレイヤテクスチャUVマップを利用してテクスチャセグメントを組み合わせ、
    誤った形状を防ぐようにフローUVマップを使用して形状にテクスチャを適用する、
    ように構成され、インペインティングを実行すること、前記マルチレイヤテクスチャUVマップを利用すること、及び前記フローUVマップを使用することは、前記自由視点映像コンテンツにおける前記オブジェクトの時間的に整合するテクスチャを生成し、
    前記第2のコンピュータ装置は、
    前記自由視点映像コンテンツを前記第2のコンピュータ装置上に表示する、
    ように構成される、
    ことを特徴とするシステム。
  18. 前記UVマップ領域においてインペインティングを実行することは、異なる時点に取り込まれた前記テクスチャを用いて前記オブジェクトの前記テクスチャのあらゆる遮蔽された外観を埋めることを含む、
    請求項17に記載のシステム。
  19. 前記マルチレイヤテクスチャUVマップを利用することは、加重和を用いて前記テクスチャセグメントを組み合わせることを含む、
    請求項17に記載のシステム。
  20. 前記フローUVマップを使用することは、前記テクスチャのグローバルアラインメント情報を生成して記憶することを含む、
    請求項17に記載のシステム。
  21. 前記インペインティングを実行すること、前記マルチレイヤテクスチャUVマップを利用すること、及び前記フローUVマップを使用することは、前記自由視点映像コンテンツを処理することであってジオメトリ処理をさらに含むことに含まれる、
    請求項17に記載のシステム。
  22. 前記時間的に整合するテクスチャを有する前記オブジェクトを含む前記自由視点映像コンテンツを送信し、レンダリングして表示することをさらに含む、
    請求項17に記載のシステム。
  23. 最大で10台のビデオカメラを用いて前記自由視点映像コンテンツを取得することをさらに含む、
    請求項17に記載のシステム。
  24. 全ての軸上の他のカメラからの分離が少なくとも30度であるビデオカメラを用いて前記自由視点映像コンテンツを取得することをさらに含む、
    請求項17に記載のシステム。
JP2019518235A 2016-10-07 2017-10-03 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング Active JP6845490B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662405696P 2016-10-07 2016-10-07
US62/405,696 2016-10-07
US201662426739P 2016-11-28 2016-11-28
US62/426,739 2016-11-28
US15/723,021 2017-10-02
US15/723,021 US10453244B2 (en) 2016-10-07 2017-10-02 Multi-layer UV map based texture rendering for free-running FVV applications
PCT/US2017/054985 WO2018067601A1 (en) 2016-10-07 2017-10-03 Multi-layer uv map based texture rendering for free-running fvv applications

Publications (2)

Publication Number Publication Date
JP2019534511A true JP2019534511A (ja) 2019-11-28
JP6845490B2 JP6845490B2 (ja) 2021-03-17

Family

ID=61829024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019518235A Active JP6845490B2 (ja) 2016-10-07 2017-10-03 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング

Country Status (4)

Country Link
US (1) US10453244B2 (ja)
JP (1) JP6845490B2 (ja)
CN (1) CN109791704B (ja)
WO (1) WO2018067601A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021079592A1 (ja) * 2019-10-21 2021-04-29 ソニー株式会社 情報処理装置、3dデータの生成方法及びプログラム
DE112021002200T5 (de) * 2020-04-03 2023-03-09 Sony Group Corporation Informationsverarbeitungsvorrichtung, Erzeugungsverfahren und Rendering-Verfahren
US11875462B2 (en) * 2020-11-18 2024-01-16 Adobe Inc. Systems for augmented reality authoring of remote environments
US11804007B2 (en) * 2021-03-31 2023-10-31 Disney Enterprises, Inc. 3D digital model surface rendering and conversion
US11978149B2 (en) * 2021-06-21 2024-05-07 The Weather Company, Llc UV map using weight painting
US20230306648A1 (en) * 2022-03-25 2023-09-28 Tencent America LLC Mesh parameterization with temporally correlated uv atlases

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266068B1 (en) 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
FR2842977A1 (fr) * 2002-07-24 2004-01-30 Total Immersion Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
US9014474B2 (en) * 2012-09-06 2015-04-21 Cyberlink Corp. Systems and methods for multi-resolution inpainting
CN103345771B (zh) * 2013-06-28 2016-08-10 中国科学技术大学 一种基于建模的图像高效渲染方法
GB201414144D0 (en) * 2014-08-08 2014-09-24 Imagination Tech Ltd Relightable texture for use in rendering an image
GB2532003A (en) 2014-10-31 2016-05-11 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
CN104574501B (zh) * 2014-12-19 2017-07-21 浙江大学 一种针对复杂三维场景的高质量纹理映射方法
CN104575501B (zh) 2015-01-19 2017-11-03 北京云知声信息技术有限公司 一种收音机语音操控指令解析方法及系统

Also Published As

Publication number Publication date
US20180101978A1 (en) 2018-04-12
CN109791704B (zh) 2023-05-23
JP6845490B2 (ja) 2021-03-17
WO2018067601A1 (en) 2018-04-12
US10453244B2 (en) 2019-10-22
CN109791704A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
US10453244B2 (en) Multi-layer UV map based texture rendering for free-running FVV applications
Serrano et al. Motion parallax for 360 RGBD video
Anderson et al. Jump: virtual reality video
US11025882B2 (en) Live action volumetric video compression/decompression and playback
US9237330B2 (en) Forming a stereoscopic video
US11501118B2 (en) Digital model repair system and method
US9041819B2 (en) Method for stabilizing a digital video
JP6669063B2 (ja) 画像処理装置および方法
US20130127988A1 (en) Modifying the viewpoint of a digital image
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
US8611642B2 (en) Forming a steroscopic image using range map
JP2016522485A (ja) 再構成からの隠消現実感効果および媒介現実感効果
US20130129192A1 (en) Range map determination for a video frame
TWI813098B (zh) 用於新穎視圖合成之神經混合
EP3396635A2 (en) A method and technical equipment for encoding media content
US20230283759A1 (en) System and method for presenting three-dimensional content
WO2020184174A1 (ja) 画像処理装置および画像処理方法
Germann et al. Novel‐View Synthesis of Outdoor Sport Events Using an Adaptive View‐Dependent Geometry
Chen et al. Casual 6-dof: free-viewpoint panorama using a handheld 360 camera
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
Liu et al. See360: Novel panoramic view interpolation
Thatte et al. Real-World Virtual Reality With Head-Motion Parallax

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210209

R151 Written notification of patent or utility model registration

Ref document number: 6845490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151