JP2019046077A - オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法 - Google Patents

オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法 Download PDF

Info

Publication number
JP2019046077A
JP2019046077A JP2017167472A JP2017167472A JP2019046077A JP 2019046077 A JP2019046077 A JP 2019046077A JP 2017167472 A JP2017167472 A JP 2017167472A JP 2017167472 A JP2017167472 A JP 2017167472A JP 2019046077 A JP2019046077 A JP 2019046077A
Authority
JP
Japan
Prior art keywords
video
viewpoint
image
video data
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017167472A
Other languages
English (en)
Other versions
JP6778163B2 (ja
Inventor
敬介 野中
Keisuke Nonaka
敬介 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017167472A priority Critical patent/JP6778163B2/ja
Publication of JP2019046077A publication Critical patent/JP2019046077A/ja
Application granted granted Critical
Publication of JP6778163B2 publication Critical patent/JP6778163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

【課題】計算機におけるより少ないメモリ資源をもって、より少ない計算量で自由視点映像を合成することができる映像合成装置を提供する。【解決手段】オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な本映像合成装置は、3次元モデル空間内に、投影先としての「複数の面」を設定する面群設定手段と、映像データ毎に、当該映像データにおけるオブジェクトの画像部分に係るオブジェクト情報を「複数の面」の各々に投影した際の、指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段と、この重ね合わせ結果に基づいて、指定された視点に係る映像を合成する視点映像合成手段とを有する。ここで、面群設定手段は、指定された視点の向きに応じた向きを有する「複数の面」を設定することも好ましい。【選択図】図1

Description

本発明は、自由視点映像の合成技術に関する。
近年、スポーツシーン等を撮影対象とし、実際にはそこから撮影されていない任意の仮想視点からの映像である自由視点映像を生成する技術が提案されている。
この技術は、例えば非特許文献1〜3や、特許文献1にも開示されているように、視点の異なる複数のカメラで撮影された映像を基にして、これらのカメラの視点とは異なる仮想視点からの映像を合成し、その合成結果を画面に表示するものであり、例えばユーザの指定する様々な視点から見た映像の観賞を可能にする。
この自由視点映像合成技術の典型例として、非特許文献1に記載されているフルモデル方式が挙げられる。フルモデル方式は、図8に概略を示したような視体積交差法と呼ばれる原理を利用して、視点の異なる複数のカメラから得られる被写体の概形情報を3次元空間に投影し、それらを膨大な数の点群データとして記述して、被写体の概形を精緻に再現した3DCG(3-Dimensional Computer Graphics)モデルを生成するものである。
ここで、自由視点映像は、このように生成された被写体の3DCGモデルを入力とし、仮想視点の位置に基づいてディスプレイ上にレンダリングすることによって生成される。ちなみに、このフルモデル方式において、3DCGモデルの代わりに例えば、マーチングキューブと呼ばれる手法を用いてポリゴンモデルを生成する場合もあるが、膨大な3次元の点群データを中間的に使用する点に変わりはない。
特開2016−71645号公報
Laurentini, A. "The Visual Hull Concept for Silhouette Based Image Understanding"IEEE PAMI, Volume 16 Issue 2, 1994年, 150〜162頁 Hayashi, K.; Saito, H., "Synthesizing Free-Viewpoing Images from Multiple View Videos in Soccer StadiumADIUM" International Conference on Computer Graphics, Imaging and Visualisation (CGIV'06), 2006年, 220〜225頁 古谷 仁志, 北原 格, 亀田 能成, 大田 友一, 「視点に依存した微小面群モデルによるスポーツシーンの自由視点映像生成」 第2回デジタルコンテンツシンポジウム講演予稿集, 2006年
一般にフルモデル方式では、膨大な点群データの1つ1つに対し、被写体であるか否かを判定して3DCG化(又はポリゴンモデル化)するため、入力してから最終的なデータを出力するまでに相当の時間を要するという問題が生じていた。例えば、10m×10m×10mの領域に1cm間隔でボクセルを配置する場合、1.0×109個の全てのボクセルについて、カメラ毎に前景物体か否かの判定を行う必要が生じ、膨大な量の計算を実行しなければならないのである。
さらに、フルモデル方式であるが故に、仮想視点が指定される前に予め、全てのシーンの被写体モデルを生成しておく必要がある。したがって、例えばサッカースタジアム等の広大な空間について自由視点映像を合成しようとしても、使用する計算機のメモリ資源にも限界があり、例えば点群の密度を疎にして画質を犠牲にするといった対処を施さない限り、その実現は困難であった。
そこで、本発明は、計算時におけるより少ないメモリ資源をもって、より少ない計算量で自由視点映像を合成することができる映像合成装置、映像合成プログラム及び映像合成方法を提供することを目的とする。
本発明によれば、オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置であって、
3次元モデル空間内に、投影先としての複数の面を設定する面群設定手段と、
当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段と、
当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成する視点映像合成手段と
を有する映像合成装置が提供される。
この本発明による映像合成装置の一実施形態として、面群設定手段は、当該3次元モデル空間内に、当該指定された視点の向きに応じた向きを有する当該複数の面を設定することも好ましい。さらに、当該指定された視点から当該視点の向きに伸長する視線軸が垂直に貫通するような当該複数の面を設定することも好ましい。
また、本発明による映像合成装置の他の一実施形態として、面群設定手段は、当該3次元モデル空間内に、当該指定された視点に係る映像の表示領域の大きさに応じて決定される間隔をもって離隔した、所定数の当該面を設定することも好ましい。
さらに、本発明による映像合成装置の他の一実施形態として、オブジェクト情報処理手段は、当該映像データ毎に、当該映像データを構成する画像における当該オブジェクトのアルファ値を当該面の各々に投影した際の、当該指定された視点に係る映像を構成する画像における対応するアルファ値の重ね合わせ結果を算出することも好ましい。
また、このアルファ値を扱う実施形態において、本映像合成装置は、当該オブジェクトの背景画素のアルファ値として、非ゼロ値、又は前景と背景との境界から当該背景画素までの距離に応じて単調に減少する値を設定するアルファ値決定手段を更に有することも好ましい。
さらに、これらのアルファ値を扱う実施形態において、視点映像合成手段は、
当該指定された視点の近傍となる所定数の当該映像データ毎に、当該映像データを構成する画像における当該オブジェクトのテクスチャを当該面の各々に投影した際の、当該指定された視点に係る映像を構成する画像における対応するテクスチャのアルファブレンド結果を算出するテクスチャマッピング手段を更に有し、
当該重ね合わせ結果及び当該アルファブレンド結果に基づいて、当該指定された視点に係る映像を合成する
ことも好ましい。
また、このテクスチャマッピング手段は、当該対応するテクスチャの投影元の当該映像データに係る視点と、当該指定された視点との距離に基づいて設定された割合をもって、当該対応するテクスチャをアルファブレンドすることも好ましい。
本発明によれば、また、オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置に搭載されたコンピュータを機能させる映像合成プログラムであって、
3次元モデル空間内に、投影先としての複数の面を設定する面群設定手段と、
当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段と、
当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成する視点映像合成手段と
してコンピュータを機能させる映像合成プログラムが提供される。
本発明によれば、さらに、オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置に搭載されたコンピュータにおける映像合成方法であって、
3次元モデル空間内に、投影先としての複数の面を設定するステップと、
当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するステップと、
当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成するステップと
を有する映像合成方法が提供される。
本発明の映像合成装置、映像合成プログラム及び映像合成方法によれば、計算時におけるより少ないメモリ資源をもって、より少ない計算量で自由視点映像を合成することが可能となる。
本発明による映像合成装置を備えた映像配信・合成システムの一実施形態における機能構成を示す機能ブロック図である。 カメラキャリブレーション部によるキャリブレーション処理の一実施形態を説明するための模式図である。 対象マスク抽出部によるマスク画像データ抽出処理の一実施例を示す模式図である。 逆投影面群設定部による逆投影面設定処理の一実施形態を説明するための模式図である。 逆投影面群設定部による逆投影面設定処理の一実施形態を説明するための模式図である。 アルファ値逆投影部によるアルファ値逆投影処理及びレンダリング処理の一実施形態を示す模式図である。 本発明による映像合成方法の一実施形態を概略的に示すフローチャートである。 従来のボクセルをベースにした視体積交差法を説明するための模式図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[映像配信・合成システム]
図1は、本発明による映像合成装置を備えた映像配信・合成システムの一実施形態における機能構成を示す機能ブロック図である。
図1に示した、本発明による映像合成装置の一実施形態としてのスマートフォン1は、配信サーバ2に対し、通信ネットワークを介して大容量の多視点映像データの送信要求を行い、受信した当該データを用いて自由視点映像を合成して表示するクライアント(端末)である。ここで、スマートフォン1、配信サーバ2、及び両者を接続する通信ネットワークは、本発明による映像配信・合成システムを構成している。
本実施形態において、配信サーバ2の保存する多視点映像データは、対象物(オブジェクト)の画像を含む複数視点の映像データであり、例えば複数のカメラによって撮影された映像データや、CG(Computer Graphics)データであってもよい。
ここで、各視点の映像データは、それぞれ複数のセグメントに分割されている。すなわち、配信サーバ2には、各セグメントについて互いに視点の異なる複数の映像データ(複数種のセグメントファイル)が準備されている。スマートフォン1は、このような互いに視点の異なる複数種のセグメントファイルを受信して合成し、指定された視点位置から見たオブジェクトを含む自由視点映像を生成するのである。
さらに、配信サーバ2では、複数種のセグメントファイルの各々について、互いにビットレート(品質)の異なる複数のセグメントファイルが準備されていることも好ましい。この場合、スマートフォン1は、1つ又は複数のセグメント分を受信するにあたり、各視点のセグメントファイルについて、いずれのビットレートのものを取得したいかを指定した配信プロファイルを含む配信要求(HTTP Request)を行うことになる。
ちなみに本実施形態において、多視点映像データは、多視点映像のHTTP型ストリーミング方式に基づいて送受信され、そのプロトコルとして具体的に、例えばDASH(Dynamic Adaptive Streaming over Hyper transfer protocol)が使用可能となっている。また、HTTPサーバである配信サーバ2は、予め作成された映像コンテンツとしての多視点映像ストリームデータを、VoD(Video on Demand)型配信方式を用いて配信することができる。
このような方式では、上述したように、映像ストリームを例えば数〜10秒程度の再生時間長を有するセグメントファイルに予め分割しておき、クライアント側がこのセグメント単位で受信及び再生開始を行うことによって、映像ストリームデータを受信しながら再生する擬似ストリーミングが実現される。なお当然に、本映像配信・合成システムにおける多視点映像ストリームデータの配信方式及び採用可能なプロトコルは、以上に述べたものに限定されるものではない。なお当然に、スマートフォン1は、通信以外の方法で(例えばストレージに直結する形で)多視点映像データを取得するものであってもよい。
同じく図1において、スマートフォン1は、受信されたこのようなオブジェクト画像を含む多視点映像データ(セグメントファイル)を用い、指定された仮想視点についての自由視点映像を合成する。ここで、この合成処理を、従来のように膨大な3次元点群データを中間的に生成して実施するのではなく、3次元モデル空間内に「複数の面」を設定してオブジェクト情報を当該面の各々に投影することによって実現するのである。
具体的に、スマートフォン1は、図1に示すように、
(A)3次元モデル空間内に、投影先としての「複数の面」を設定する面群設定手段としての逆投影面群設定部111と、
(B)受信された視点の異なる映像データ毎に、当該映像データにおけるオブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段としてのアルファ値逆投影部121と、
(C)当該重ね合わせ結果に基づいて、指定された視点に係る映像を合成する視点映像合成手段としての視点映像合成部122と
を有することを特徴としている。
このように、スマートフォン1は、3次元モデル空間内に、オブジェクト情報の投影先として「複数の面」を設定する。すなわち、従来のように被写体判定を行う対象として膨大な数の3次元点群データを設定することなく、2次元の投影先における重ね合わせ結果から、指定された視点に係る自由視点映像を合成することができる。また、従来のフルモデル方式のように、視点が指定される前に予め、全てのシーンの被写体モデルを生成しておくといった処理も必要ない。その結果、スマートフォン1によれば、計算時におけるより少ないメモリ資源をもって、より少ない計算量で自由視点映像を合成することが可能となるのである。
ちなみに、以後、オブジェクト情報を「複数の面」の各々に投影する際の「投影」を、(通常投影という場合の)3次元体から2次元画像への向きとは逆であるとの意味を込めて、「逆投影」と称する場合もある。また、被写体であるオブジェクトは当然、人物に限定されるものではない。
[映像合成装置の機能構成、各機能構成部の処理内容]
図1に示した機能ブロック図によれば、スマートフォン1は、通信インタフェース部101と、タッチパネルディスプレイ(TP・DP)102と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、スマートフォン1のコンピュータを機能させるプログラムを実行することによって、本発明による映像合成方法の一実施形態としての映像合成機能を具現化する。
さらに、このプロセッサ・メモリは、機能構成部として、逆投影面群設定部111と、自由視点レンダリング部12と、カメラキャリブレーション部131と、対象マスク抽出部132と、アルファ値決定部133と、視点位置検出部134と、通信制御部141とを有する。このうち、自由視点レンダリング部12は、アルファ値逆投影部121と、テクスチャマッピング部122tを含む視点映像合成部122と、メディアエンジン123とを含む。ここで、図1におけるスマートフォン1の機能構成部間を矢印で接続して示した処理の流れは、本発明による映像合成方法の一実施形態としても理解される。
同じく図1において、通信インタフェース部101は、
(a)通信制御部141で生成されたHTTP Request(多視点映像データ要求)を、事業者通信網やインターネット等の無線又は有線の通信ネットワークを介し、配信サーバ2宛てに送信する。また、
(b)配信サーバ2から、HTTP Requestへの応答として、多視点映像データ(セグメントファイル)を受信する。ここで、配信形態によっては、各視点の映像データに合わせて、各視点に存在するオブジェクトに係る情報(オブジェクト情報:マスク画像,3次元位置,大きさ情報)や、各視点のカメラキャリブレーション情報を受信することも可能である。
また、通信インタフェース部101は、
(c)自由視点レンダリング部12で生成された自由視点映像データを、外部の情報処理装置宛てに送信してもよく、
(d)外部のサーバから、本発明による映像合成プログラム(アプリ)をダウンロードしてもよい。
通信制御部141は、通信インタフェース部101を介して受信した多視点映像データ(セグメントファイル)を管理し、適宜、視点映像合成部122へ出力する。
カメラキャリブレーション部131は、多視点映像データが複数のカメラで撮影された映像データである場合、これらの映像データを用いて、カメラ毎に、実空間の地面(フィールド)とカメラ画像とを対応付け、その結果を対象マスク抽出部132や、アルファ地逆投影部121、さらには視点映像合成部122へ出力する。
ちなみに以下、複数の実カメラ映像の場合について説明を行うが、多視点映像データがCGデータである場合も、設定された複数視点の仮想カメラについて同様の対応付けを行い出力するのであり、同様の処理を行うこととなる。
図2は、カメラキャリブレーション部131によるキャリブレーション処理の一実施形態を説明するための模式図である。
図2によれば、カメラキャリブレーション部131は、ある時刻において撮影された映像画面(カメラ画像U-V座標系)におけるフィールド上の特徴的な点(例えば競技コートの白線の交点等)と、現実空間(X-Y-Z世界座標系)でのフィールド上の点との対応付けを行い、その対応関係をカメラパラメータ(外部パラメータ及び内部パラメータ)として算出し出力する。
これにより、例えば映像データがスポーツ観戦の映像である場合、競技コートのサイズは通常規格化されているので、カメラ画像上の点(u, v)が現実空間(世界座標系)のどの座標(x, y, z)に対応するかを容易に計算することができる。
このようなキャリブレーション処理は、一部人手に頼って実施してもよいが、公知の自動キャリブレーション技術を用いて実施することもできる。ここで、一部人手による場合、例えば、画面内の白線の交点をユーザの操作により選択し、あらかじめ測定されているフィールドモデルとの対応付けを行うことによって、カメラパラメータを推定することができる。なお、画面に歪みがある場合、後述するように内部パラメータを予め推定しておくことも好ましい。
一方、これと同様の操作を自動で行う場合、例えば、閾値処理等を用いて画面内の白線を抽出し、ハフ変換による直線成分抽出を実行することによって画面(画像座標系)における白線の交点の座標を推定することが可能となっている。
さらに、魚眼レンズ等の広角レンズを撮影に用いる場合、カメラの内部パラメータを個別に推定し、画面の歪みを補正する必要がある。このような補正は、例えば予め、撮影に用いるカメラを用いてチェッカーボード等の幾何模様を撮影しておき、この撮影画像を解析することによって可能となる。
ちなみに、キャリブレーション処理の対象となる映像は当然に、スポーツ観戦映像に限定されるものではない。例えば、複数視点の映像間において同一の特徴点が特定できるならば、種々の映像がその対象となる。また、以上に説明したようなキャリブレーション処理は、固定カメラでの撮影を前提とする場合、自由視点映像合成の最初に各カメラについて一度実施すればよい。一方で移動カメラを前提とした場合は、上述した公知の自動キャリブレーション技術を用いてフレーム毎にキャリブレーション処理を実施する必要が生じる。
なお、例えば配信サーバ2から、配信映像データとともにカメラキャリブレーション情報も取得される場合、本カメラキャリブレーション部131は設けられなくともよい。
図1に戻って、対象マスク抽出部132は、取得された多視点映像データを用い、各視点の映像データ毎に(カメラ毎に)、映像における時刻tの画像からマスク画像情報を抽出する。
具体的に、対象マスク抽出部132は、ある時刻tの画像における各画素を背景及び前景のうちのいずれかに分類し、背景画素群と前景画素群とを分離する。この分離処理は、公知の背景差分法を用いて実施可能となっている。ここで本実施形態において、背景及び前景とされた画素の値は、例えばそれぞれ0及び1に設定される。
図3は、対象マスク抽出部132によるマスク画像データ抽出処理の一実施例を示す模式図である。
図3によれば、対象(オブジェクト)としての人物を含むある時刻tの原画像に対し、背景差分法を適用することによって、背景差分結果としての画像が生成されている。この画像は、オブジェクトである人物に相当する前景画素部分が白色(画素値が1)であってその他の背景画素部分は黒色(画素値が0)であるマスク画像となっている。
また、このマスク画像と原画像とから、人物(オブジェクト)のテクスチャ情報を含み背景画素部分は黒色のままであるオブジェクトのテクスチャ画像が取得されている。このように、映像画像背景とその前景との分離を行うことによって、人物等のオブジェクト(の画像情報)を大まかに抽出することができるのである。
なお以下、容易な理解のため、マスク画像として2値のものを扱う場合について説明するが、当然に、例えば前景の尤度を画素値とした(グレースケール等の階調を有する)マスク画像を取り扱い、このマスク情報(オブジェクト情報)をアルファ値決定部133へ出力することも可能である。
また、例えば配信サーバ2から、配信映像データとともにマスク情報を含むオブジェクト情報も取得される場合、本対象マスク抽出部132は設けられなくともよい。
図1に戻って、アルファ値決定部133は、対象マスク抽出部132で生成されたマスク画像情報を用い、この後アルファ値逆投影部121によって逆投影面群に逆投影すべきアルファ値を、各視点映像の画像毎に(カメラ画像毎に)決定する。ここで、このアルファ値を調整することによって、合成される自由視点映像の画像におけるオブジェクトの輪郭の残り具合を加減することが可能となるのである。
このアルファ値決定処理における最も単純な方法は、対象マスク抽出部132から入力したマスク画像の画素値をそのままアルファ値とするものである。例えば、入力した2値(0及び1)のマスク画像の画素値をそのまま2値のアルファ値としてもよい。すなわち、前景(画素値=1)領域のアルファ値が1となり、背景(画素値=0)領域のアルファ値が0となる。なお、このような方法を採用する場合、アルファ値決定部133を設けないことも可能となる。
このシンプルなアルファ値決定方法は、対象マスク抽出部132において、正しい前景被写体(オブジェクト)のマスク画像が抽出されている場合には有効となる。しかしながら、実際には、現実世界の映像からマスク画像を抽出した際、ノイズの影響により、例えば被写体の一部が欠損しているようなマスク画像が抽出されることも少なくない。このような正しいマスク画像の抽出が期待され得ない状況においては、以下に示す2つのアルファ値決定方法を採用することも好ましい。
1つめのアルファ値決定方法は、マスク画像における背景の画素について、そのアルファ値を、非ゼロであってゼロより大きく1未満の値τ(例えばτ=0.5)に設定する方法である。このような設定を行うことによって、次いで実施されるアルファ値逆投影処理で逆投影を行ってアルファ値を重ね合わせた際、背景画素値τがゼロではないので、前景と背景との境界部分が若干残り易くなる効果が期待され、対象マスク抽出部132で抽出された不正確なマスク画像を修正する方向に処理を進めることが可能となる。
2つめのアルファ値決定方法は、マスク画像における前景と背景との境界からアルファ値決定対象の画素までの距離が大きくなるに従い、当該画素に設定されるアルファ値を減じていく方法である。具体的には、アルファ値決定対象の背景画素から、当該画素近傍のマスク境界までの距離(例えば垂線距離)をdとして、アルファ値αを、次式
(1) α=θ・f(d)
を用いて算出することができる。ここで、f(d)はdの単調減少関数であり、θはアルファ値の減衰率である。
この2つ目の方法は、1つめの方法と比較すると、より自然な見た目をもって被写体(オブジェクト)を自由視点映像化することを可能にするが、一方で、各画素近傍のマスク境界までの距離dを算出する必要があるので、計算量及び計算時間が増大する方向にあるといえる。
さらに、以上に述べた方法以外でも、例えば前景の画素のアルファ値を1とし、一方で背景の画素のアルファ値を1未満の値とするような方法であれば、種々の方法が採用可能である。例えば、対象マスク抽出部132において、2値化されたマスク画像ではなく、グレースケール等の階調を有する画素からなる画像が出力された場合、これらの画素値を0から1までの値に正規化し、その正規化した値をアルファ値として採用することも好ましい。
いずれにしても、アルファ値決定部133は、複数のアルファ値算出手順を保持し、被写体に求められる品質と計算機の処理能力とに応じて、ユーザがそのうちの1つを選択できるようになっていることも好ましい。
同じく図1において、視点位置検出部134は、例えばタッチパネルディスプレイ102に視点指定用画面が表示されている際、ユーザによるタッチパネルディスプレイ102に対する操作を監視し、ユーザによる視点を指定する操作を検出した際、指定された視点の情報(視点位置及び視線向き情報)を生成して逆投影面群設定部111に出力する。
逆投影面群設定部111は、3次元モデル空間内に、投影先としての複数の面である逆投影面群を設定する。この逆投影面群は、配信された複数視点の映像を3次元モデル空間へ逆投影する際の基準となる。本実施形態において、逆投影面群設定部111は、視点位置検出部134から入力された視点情報を利用して、逆投影面群を3次元モデル空間内に設置する。例えば、指定された視点の向きに応じた向きを有する逆投影面を設定するのである。
図4及び図5は、逆投影面群設定部111による逆投影面設定処理の一実施形態を説明するための模式図である。
最初に、逆投影面の枚数及びその間隔について説明する。自由視点映像における画質向上の観点からすると、逆投影面群Znはできるだけ密に配置されることが好ましい。一方で、逆投影面の枚数が増えるほど、次いで実施されるテクスチャマッピング処理における計算機の一時メモリ、特にGPU(Graphics Processing Unit)メモリの使用量がより増大してしまう。したがって、自由視点映像において必要な画質を担保しつつメモリ使用量を抑制するために、被写体(オブジェクト)に合った好適な逆投影面の枚数及び間隔を設定することが重要となる。
そのような好適な設定の1つとして、図4(A)及び(B)に示したように、逆投影面群設定部111は、3次元モデル空間内に、指定された仮想視点に係る映像の表示領域の大きさに応じて決定される間隔をもって離隔した、所定数Nの逆投影面を有する逆投影面群Znを設定することも好ましい。
具体的には、使用する計算機の能力から使用可能な逆投影面の枚数Nを決定し、このNを固定値として取り扱う。次いで、指定された仮想視点情報に基づいてディスプレイに表示される領域のみを逆投影面群Znで表現する。すなわち、仮想視点から算出される(表示対象である)オブジェクトの画像領域に、N枚の逆投影面を配置するのである。
例えば、図4(A)に示すように、仮想視点がオブジェクトからより遠い位置にあり、その結果、より広大な空間が表現される(ディスプレイに表示される)場合には、逆投影面の間隔はより大きく設定される。一方、図4(B)に示すように、仮想視点がオブジェクトのより近い位置にあり、その結果、オブジェクトのより細かな部分が表現される(ディスプレイに表示される)場合には、逆投影面の間隔はより小さく設定される。
さらに具体的な例として、例えば奥行き50mのフィールドにおける競技観戦の多視点映像を用いて自由視点映像を合成する場合において、ディスプレイにおける表示領域が丁度この奥行き50m分である際、5000枚(N=5000)の逆投影面を配置するものとすると、3次元モデル空間におけるその配置間隔は、1cm(=5000cm/5000)に設定される。
このように、仮想視点の位置から決まるオブジェクトに必要な表現力(画像品質)に合わせて、逆投影面の配置間隔を動的に変更することによって、オブジェクトに必要な画質を確保しつつ、一時メモリの使用量を低減することが可能となるのである。
次に、逆投影面の向きの設定について説明する。向き設定の好適な実施形態として、逆投影面群設定部111は、3次元モデル空間内に、指定された視点から指定された視点の向きに伸長する視線軸が垂直に貫通するような向きを有する逆投影面を設定することも好ましい。すなわちこの場合、逆投影面群Znは常時、指定された仮想視点に正対するように設定される。
例えば、図5(A)に示すように、仮想視点がオブジェクトからより遠い位置にあり、より広大な空間が表現される場合であろうと、一方で図5(B)に示すように、仮想視点がオブジェクトからより近い位置にあり、オブジェクトのより細かな部分が表現される場合であろうと、仮想視点位置から指定された視線向きに伸長した視線ベクトルに垂直な向きを有する逆投影面群Znが設定されるのである。なお勿論、計算量は若干増大するものの、視線ベクトルと逆投影面とが90度未満の一定の角度をなすように設定されることも可能である。
このように、仮想視点映像の品質に影響し得る逆投影面の配置向きを、仮想視点に対して一定の態様となるように決定することによって、この後のレンダリング処理によって生成される自由視点映像の品質を所定範囲内に保つことが可能となる。また、任意の仮想視点に対応すべく様々な角度をもって対峙する逆投影面群を用意する、といった不必要な処理を行わなくて済み、より一層の省メモリ化が実現されるのである。
ちなみに、以上に説明した逆投影面は、逆投影処理の容易さから、図4及び5に示したように平面であることが好ましい。実際、1つの逆投影面を、4つ頂点を有するポリゴンとして設定し、それらの座標データをGPUに実装された頂点シェーダに出力することによって、次いで実施されるレンダリング処理をより高速に実施することも可能となる。
また、以上に説明したような、一時メモリ、特にGPUメモリの使用量低減を指向した逆投影面群Znの配置方法以外にも、種々の配置方法が採用可能である。例えば、計算量の制約がより緩やかである場合、3次元モデル空間のX軸、Y軸及びZ軸のそれぞれに垂直な平面群を配置してもよい。
図1に戻って、自由視点レンダリング部12は、アルファ値決定部133で決定されたアルファ値、及び逆投影面群設定部111で設定された逆投影面群Znを用い、オブジェクトを自由視点化してディスプレイ領域にレンダリングする。
より具体的に、自由視点レンダリング部12は、設定された逆投影面群ZnをGPUの頂点シェーダへ入力し、指定された仮想視点情報(視点位置座標及び視線向き情報)に基づいて、ディスプレイ上に自由視点映像をレンダリングする。ここでこの際、オブジェクト以外の背景の情報である3DCGデータも読み込み、公知の方法に基づき同時に並行してレンダリングを行うことによって、最終的な自由視点映像が合成されるのである。
以下、自由視点レンダリング部12に含まれるアルファ値逆投影部121と、テクスチャマッピング部122tを含む視点映像合成部122との説明を行う。ちなみに、この2つの機能構成部は、GPUに実装されたピクセルシェーダによって実現することも可能である。この場合、レンダリング処理は、ディスプレイ上の表示領域におけるピクセル単位で実施される。
最初に、アルファ値逆投影部121は、配信された多視点の映像データ毎に、当該映像データにおけるオブジェクトの画像部分に係るオブジェクト情報(本実施形態では、当該映像データを構成する画像におけるオブジェクトのアルファ値)を逆投影面群Znの各逆投影面に投影した際の、指定された視点に係る映像における対応するオブジェクト情報(本実施形態では、指定された視点に係る映像を構成する画像における対応するアルファ値)の重ね合わせ結果を算出するオブジェクト情報処理手段となっている。
図6は、アルファ値逆投影部121によるアルファ値逆投影処理及びレンダリング処理の一実施形態を示す模式図である。
図6(A)に示したように、本実施形態のアルファ値投影処理では、
(a)配信された多視点の映像データ毎に、カメラキャリブレーション部131から入力したカメラキャリブレーションデータを用い、当該映像データにおけるオブジェクトに係る画像であるマスク画像を3次元モデル空間(X-Y-Z世界座標系)に配置し、
(b)映像データ毎に、配置されたマスク画像におけるオブジェクトのアルファ値を、指定された視点に合わせて設定された逆投影面群Znの各逆投影面に投影し、
(c)指定された視点に係る自由視点映像を表示する表示ウィンドウの画像Wを構成する画素I(u, v)毎に、対応するアルファ値の重ね合わせ結果を、GPUのピクセルシェーダを用いて算出する。
ここで、複数視点の映像データ(を撮影した複数カメラ)の間における時刻の同期は予め行われているものとする。また、上記(c)の表示ウィンドウ画像Wも図6(A)に示すように、カメラキャリブレーションデータによって算出される画像Wの平面と3次元モデル空間内の平面との対応関係に基づき、3次元モデル空間内に配置される。
さらに、上記(c)のアルファ値の重ね合わせ結果とは、表示ウィンドウ画像Wの画素I(u, v)毎に、当該画素を通る視線ベクトルが貫通する位置となる各逆投影面の画素における投影された(いわば透過度である)アルファ値を、1つずつ全て透過して得られる積み重ね結果のことである。例えば、アルファ値0.5の逆投影面の画素がn個連続している場合、n個の逆投影面画素が積層され(積み重ねられ)、0.5ずつ透過されて表示されるのである。
このような逆投影面群へのアルファ値(透過度)の逆投影によって、図6(B)に示したように、各視点のカメラ画像において前景とされた(アルファ値が1である)領域の共通部分を、3次元モデル空間上に構築することができ、結果的に、ボクセルを用いた視体積交差法と同等の被写体3次元形状表現を、大幅に少ない計算量(場合によっては1桁小さな計算量)をもって達成することが可能となる。
さらに、ここで設定される逆投影面群は、指定された仮想視点に合わせて適宜動的に変更されるので、常時より少ないメモリ資源でのモデル構築を達成することができ、それ故、より高速なレンダリング(表示)処理を実現することも可能となるのである。
また、本実施形態では、GPUのピクセルシェーダを利用して、このように3次元モデル空間上に構築されたアルファ値を、仮想視点の表示ウィンドウ画像Wへ投影するのであり、言い換えると、3次元モデル空間上の個々の点にアルファ値をひとまず保持するようなことをせず、ウィンドウ画像Wのピクセルベースで一気に計算が進められる。その結果、より少ない一時メモリ使用量をもって、仮想視点から見たオブジェクトの形状を表現することが可能となる。なお、形状の表現されたこのオブジェクトにおける映像テクスチャの構築は、次のテクスチャマッピング部122tによって実現される。
また以上のことから、本発明によるアルファ値逆投影法は、従来にない新規な高速度の視体積交差法ともいえることが理解される。この点、2次元の面の重ね合わせを設定し利用するので、GPUに実装された頂点シェーダや、ピクセルシェーダとの親和性も高く、これらの機能を利用することによって、より一層の処理の高速化が達成されるのである。
ちなみに、本発明によるアルファ値逆投影処理において、計算量をさらに低減させる有効な処置として、図6に示したような(アルファ値の逆投影元である)各マスク画像を、そのサイズを縮小した上で3次元モデル空間(X-Y-Z世界座標系)に配置することも好ましい。例えば、場合によってはオブジェクトのシルエットさえ抜けていればよいので、マスク画像を縦横それぞれ半分にすることも可能となる。これにより、逆投影処理の計算量は大幅に低減される。
図1に戻って次に、視点映像合成部122は、アルファ値逆投影部121で生成された仮想視点ウィンドウ画像Wでの重ね合わせ結果に基づいて、指定された視点に係る自由視点映像を合成する。また、多視点の映像データを逆投影面へ同様に逆投影することによって、実際のモデル表示に必要な映像データを生成する。すなわち、本実施形態では、オブジェクトのマスク画像情報のみならず実映像の画像情報も、逆投影面群Znへ逆投影されるのである。
視点映像合成部122は具体的に、テクスチャマッピング部122tを備えている。このテクスチャマッピング部122tは、
(a)指定された視点の近傍となる映像データ毎に、当該映像データを構成する画像におけるオブジェクトのテクスチャを各逆投影面に逆投影し、
(b)その際の、指定された視点に係る自由視点映像を構成する画像における対応するテクスチャのアルファブレンド結果を算出する。
次いで、視点映像合成部122は、
(c)このアルファブレンド結果と、上記の重ね合わせ結果と基づいて、指定された視点に係る自由視点映像を合成するのである。
ここで上記(a)において、指定された仮想視点の近傍となる映像データとして、多視点映像データに係る複数の視点から、仮想視点に近い順に所定数Mの視点を選択し、選択されたM個の視点に係る映像データを自動的に採用することができる。これにより、仮想視点から見た映像を生成する際、不要なテクスチャがオブジェクトにマッピングされる事態を回避することができる。
実際、例えば複数のカメラ映像の中には、仮想視点から見てオブジェクトを挟んでその反対側に配置されたカメラによる映像も存在し得るため、すべてのカメラ映像を採用すると、自由視点映像の品質が著しく低下する可能性がある。
また上記(b)において、テクスチャマッピング部122tは、対応するテクスチャの投影元の映像データに係る視点と、指定された視点との距離dに基づいて設定された割合をもって、対応するテクスチャをアルファブレンドすることも好ましい。
すなわちこの場合、視点の異なる複数の映像データのテクスチャは、当該視点の仮想視点からの距離dに応じてアルファブレンドされるのである。例えば、近傍2つ(M=2)の映像データを採用する場合、仮想視点からの距離をそれぞれd1及び d2とすると、2つの映像データのテクスチャは、
1−d1/(d1+d2):1−d2/(d1+d2)
の比をもってアルファブレンドされてもよい。
いずれにしても本実施形態において、逆投影面群Znは常時、仮想視点に正対するように配置されており、さらに、指定された仮想視点から見たオブジェクトの形状は前もってアルファ値逆投影部121によって、ウィンドウ画像Wのピクセル毎のアルファ値として算出されているので、視点映像合成部122は、マッピングされた映像を適宜自動的に自由視点映像として表示させることができるのである。
メディアエンジン123は、生成した自由視点映像を、例えばタッチパネルディスプレイ102へ出力してユーザに提供させる。または、スマートフォン1に搭載されたアプリ(アプリケーションプログラム)に出力し、生成した自由視点映像を当該アプリに利用させてもよい。
[映像合成方法]
図7は、本発明による映像合成方法の一実施形態を概略的に示すフローチャートである。
(S101)スマートフォン1は、(配信要求の結果として)配信サーバ2から多視点映像データを受信する。
(S102)取得した映像データからカメラキャリブレーションデータを生成する。
(S103)取得した映像データから、オブジェクト(被写体)のマスク画像、及び当該オブジェクトの「テクスチャ」を抽出する。
(S104)マスク画像における「アルファ値」を決定する。
(S105)ユーザによって指定された視点情報に応じて「逆投影面群Zn」を設定する。
(S106)設定された「逆投影面群Zn」に「アルファ値」を逆投影する。
(S107)逆投影され、ウィンドウ画像Wに重ね合わされた「アルファ値」に基づいて、「テクスチャ」をマッピングし、自由視点映像を生成する。
(S108)生成した自由視点映像を、例えばタッチパネルディスプレイ102に出力して表示させる。
これ以降、スマートフォン1は、ステップS101〜S108と同様の手順を繰り返し、各再生時間の多視点映像データ(セグメントファイル)を取得して、自由視点映像を合成・再生していくのである。なお通常、スマートフォン1による多視点映像データ(セグメントファイル)の取得要求(HTTP Request)は、1セグメント(に含まれるメディア)分の再生時間長(例えば数〜10秒程度)の経過毎に、周期的に行われることも好ましい。
いずれにしても、本実施形態においては、同一のオブジェクトを含む互いに視点の異なる複数の映像データに基づき、3次元モデル空間に指定された仮想視点に応じて配置された逆投影面群Znに、映像データ毎に算出される前景領域/背景領域のアルファ値及びテクスチャを逆投影することによって自由視点映像を合成可能としている。
ここで、全ての映像データにおけるオブジェクトのシルエットを各逆投影面に投影した際に共通部分として現れるオブジェクトの形状は、例えばボクセルを用いた視体積交差法で得られる物体の概形を、逆投影面による連続する断面図の集合として捉えたものとして解される。したがって、それらを表示画像上で重ね合わせることによって、従来の視体積交差法と同等の表現を、より少ない計算量・メモリ使用量をもって実現することができるのである。
以上、詳細に説明したように、本発明によれば、3次元モデル空間内に、オブジェクト情報の投影先として複数の面を設定する。すなわち、膨大な3次元点群データによらず、2次元の投影先における重ね合わせ結果から、指定された視点に係る自由視点映像を合成することが可能となる。さらに、全てのシーンの被写体モデルを予め生成しておく必要もない。その結果、計算時におけるより少ないメモリ資源をもって、より少ない計算量で自由視点映像を合成することができる。
ちなみに、より効率的な自由視点合成技術の確立は、来る5G(第5世代移動通信システム)においても非常に重要な課題となっている。すなわち、5Gの下、膨大な容量の多視点映像データを随時受信可能となった端末が遅延なく、より少ない計算負荷をもって自由視点映像を適宜高速に合成することができるか否かが、非常に重要なポイントとなるのである。この点、本発明は、そのような重大な課題を解決するための要となる技術を提供するものとなっている。
例えば、現段階のボクセルを使用した視体積交差法では、視点を順次移動させての自由視点映像をリアルタイムで(遅延が例えば数十msec以内で)レンダリングすることは困難であるが、本発明による逆投影面を利用した視体積交差法によれば、それも実現可能となるのである。
以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲内での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例示であって、何ら制約を意図するものではない。本発明は、特許請求の範囲及びその均等物によってのみ制約される。
1 スマートフォン(映像合成装置)
101 通信インタフェース部
102 タッチパネルディスプレイ(TP・DP)
111 逆投影面群設定部
12 自由視点レンダリング部
121 アルファ値逆投影部(オブジェクト情報処理手段)
122 視点映像合成部
122t テクスチャマッピング部
123 メディアエンジン
131 カメラキャリブレーション部
132 対象マスク抽出部
133 アルファ値決定部
134 視点位置検出部
141 通信制御部
2 配信サーバ

Claims (10)

  1. オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置であって、
    3次元モデル空間内に、投影先としての複数の面を設定する面群設定手段と、
    当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段と、
    当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成する視点映像合成手段と
    を有することを特徴とする映像合成装置。
  2. 前記面群設定手段は、当該3次元モデル空間内に、当該指定された視点の向きに応じた向きを有する当該複数の面を設定することを特徴とする請求項1に記載の映像合成装置。
  3. 前記面群設定手段は、当該3次元モデル空間内に、当該指定された視点から当該視点の向きに伸長する視線軸が垂直に貫通するような当該複数の面を設定することを特徴とする請求項2に記載の映像合成装置。
  4. 前記面群設定手段は、当該3次元モデル空間内に、当該指定された視点に係る映像の表示領域の大きさに応じて決定される間隔をもって離隔した、所定数の当該面を設定することを特徴とする請求項1から3のいずれか1項に記載の映像合成装置。
  5. 前記オブジェクト情報処理手段は、当該映像データ毎に、当該映像データを構成する画像における当該オブジェクトのアルファ値を当該面の各々に投影した際の、当該指定された視点に係る映像を構成する画像における対応するアルファ値の重ね合わせ結果を算出することを特徴とする請求項1から4のいずれか1項に記載の映像合成装置。
  6. 当該オブジェクトの背景画素のアルファ値として、非ゼロ値、又は前景と背景との境界から当該背景画素までの距離に応じて単調に減少する値を設定するアルファ値決定手段を更に有することを特徴とする請求項5に記載の映像合成装置。
  7. 前記視点映像合成手段は、
    当該指定された視点の近傍となる所定数の当該映像データ毎に、当該映像データを構成する画像における当該オブジェクトのテクスチャを当該面の各々に投影した際の、当該指定された視点に係る映像を構成する画像における対応するテクスチャのアルファブレンド結果を算出するテクスチャマッピング手段を更に有し、
    当該重ね合わせ結果及び当該アルファブレンド結果に基づいて、当該指定された視点に係る映像を合成する
    ことを特徴とする請求項5又は6に記載の映像合成装置。
  8. 前記テクスチャマッピング手段は、当該対応するテクスチャの投影元の当該映像データに係る視点と、当該指定された視点との距離に基づいて設定された割合をもって、当該対応するテクスチャをアルファブレンドすることを特徴とする請求項7に記載の映像合成装置。
  9. オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置に搭載されたコンピュータを機能させる映像合成プログラムであって、
    3次元モデル空間内に、投影先としての複数の面を設定する面群設定手段と、
    当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するオブジェクト情報処理手段と、
    当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成する視点映像合成手段と
    してコンピュータを機能させることを特徴とする映像合成プログラム。
  10. オブジェクトの画像を含んでおり互いに視点の異なる複数の映像データを用いて、指定された視点に係る映像を合成可能な装置に搭載されたコンピュータにおける映像合成方法であって、
    3次元モデル空間内に、投影先としての複数の面を設定するステップと、
    当該映像データ毎に、当該映像データにおける当該オブジェクトの画像部分に係るオブジェクト情報を当該面の各々に投影した際の、当該指定された視点に係る映像における対応するオブジェクト情報の重ね合わせ結果を算出するステップと、
    当該重ね合わせ結果に基づいて、当該指定された視点に係る映像を合成するステップと
    を有することを特徴とする映像合成方法。
JP2017167472A 2017-08-31 2017-08-31 オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法 Active JP6778163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017167472A JP6778163B2 (ja) 2017-08-31 2017-08-31 オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167472A JP6778163B2 (ja) 2017-08-31 2017-08-31 オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法

Publications (2)

Publication Number Publication Date
JP2019046077A true JP2019046077A (ja) 2019-03-22
JP6778163B2 JP6778163B2 (ja) 2020-10-28

Family

ID=65814442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167472A Active JP6778163B2 (ja) 2017-08-31 2017-08-31 オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP6778163B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102317182B1 (ko) * 2020-11-25 2021-10-27 주식회사 리얼이매진 3차원 객체와 2차원 배경을 이용한 합성 이미지 생성 장치
JP2021196870A (ja) * 2020-06-15 2021-12-27 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
JP2022138158A (ja) * 2021-03-09 2022-09-22 株式会社Mawari 3dオブジェクトのストリーミング方法、装置、及びプログラム
JP2022158959A (ja) * 2021-03-31 2022-10-17 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換
EP4120198A1 (en) * 2021-07-14 2023-01-18 Koninklijke Philips N.V. Multi object surface image (mosi) format
KR102537808B1 (ko) * 2022-11-11 2023-05-31 주식회사 리빌더에이아이 다시점에 관련한 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램
WO2024029371A1 (ja) * 2022-08-04 2024-02-08 ソニーグループ株式会社 情報処理システム、および情報処理システムの作動方法、並びにプログラム
WO2024101638A1 (ko) * 2022-11-10 2024-05-16 주식회사 리빌더에이아이 다시점에 관련한 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7405702B2 (ja) 2020-06-15 2023-12-26 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
JP2021196870A (ja) * 2020-06-15 2021-12-27 Kddi株式会社 仮想視点レンダリング装置、方法及びプログラム
KR102317182B1 (ko) * 2020-11-25 2021-10-27 주식회사 리얼이매진 3차원 객체와 2차원 배경을 이용한 합성 이미지 생성 장치
JP2022138158A (ja) * 2021-03-09 2022-09-22 株式会社Mawari 3dオブジェクトのストリーミング方法、装置、及びプログラム
JP7430411B2 (ja) 2021-03-09 2024-02-13 マワリ コーポレーション 3dオブジェクトのストリーミング方法、装置、及びプログラム
JP2022158959A (ja) * 2021-03-31 2022-10-17 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換
JP7333437B2 (ja) 2021-03-31 2023-08-24 ディズニー エンタープライゼス インコーポレイテッド 3dデジタルモデル表面のレンダリングおよび変換
WO2023285435A1 (en) 2021-07-14 2023-01-19 Koninklijke Philips N.V. Multi object surface image (mosi) format
EP4120198A1 (en) * 2021-07-14 2023-01-18 Koninklijke Philips N.V. Multi object surface image (mosi) format
WO2024029371A1 (ja) * 2022-08-04 2024-02-08 ソニーグループ株式会社 情報処理システム、および情報処理システムの作動方法、並びにプログラム
WO2024101638A1 (ko) * 2022-11-10 2024-05-16 주식회사 리빌더에이아이 다시점에 관련한 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램
KR102537808B1 (ko) * 2022-11-11 2023-05-31 주식회사 리빌더에이아이 다시점에 관련한 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램
KR102549778B1 (ko) * 2022-11-11 2023-06-30 주식회사 리빌더에이아이 다시점에 관련한 복수의 이미지에 대한 전처리를 수행하고, 전처리된 복수의 이미지를 통해 큐브맵을 생성하기 위한 방법, 서버 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
JP6778163B2 (ja) 2020-10-28

Similar Documents

Publication Publication Date Title
JP6778163B2 (ja) オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法
CN111656407B (zh) 对动态三维模型的视图进行融合、纹理化和绘制
US10839591B2 (en) Stereoscopic rendering using raymarching and a virtual view broadcaster for such rendering
CN108616731B (zh) 一种360度vr全景图形图像及视频实时生成方法
US11025882B2 (en) Live action volumetric video compression/decompression and playback
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
US20070296721A1 (en) Apparatus and Method for Producting Multi-View Contents
US10546181B2 (en) Method and device for generating data for two-dimensional or three-dimensional depiction of at least part of an object and for generating the two-dimensional or three-dimensional depiction of the at least one part of the object
US11204495B2 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
US11652970B2 (en) Apparatus and method for representing a spatial image of an object in a virtual environment
US20230281912A1 (en) Method and system for generating a target image from plural multi-plane images
US20220114784A1 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
CN113170213A (zh) 图像合成
CN112233165A (zh) 一种基于多平面图像学习视角合成的基线扩展实现方法
Bleyer et al. Temporally consistent disparity maps from uncalibrated stereo videos
WO2020184174A1 (ja) 画像処理装置および画像処理方法
CN109461197B (zh) 一种基于球面uv和重投影的云实时绘制优化方法
WO2020129659A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR20190105274A (ko) 복수의 카메라 장치 간의 협업을 기반으로 하는 가상시점 영상 렌더링 방법
Eisert et al. Volumetric video–acquisition, interaction, streaming and rendering
JPWO2018173207A1 (ja) 情報処理装置
Rajan et al. A realistic video avatar system for networked virtual environments
KR20210090180A (ko) 화상 처리 디바이스, 화상 처리 방법, 프로그램, 및 표시 디바이스
Scheer et al. A client-server architecture for real-time view-dependent streaming of free-viewpoint video
US20220174259A1 (en) Image signal representing a scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201009

R150 Certificate of patent or registration of utility model

Ref document number: 6778163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150