JP7493542B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7493542B2
JP7493542B2 JP2022013581A JP2022013581A JP7493542B2 JP 7493542 B2 JP7493542 B2 JP 7493542B2 JP 2022013581 A JP2022013581 A JP 2022013581A JP 2022013581 A JP2022013581 A JP 2022013581A JP 7493542 B2 JP7493542 B2 JP 7493542B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
subject
image
color
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022013581A
Other languages
English (en)
Other versions
JP2023111639A (ja
Inventor
望 糟谷
厚 伊達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022013581A priority Critical patent/JP7493542B2/ja
Priority to EP23152613.8A priority patent/EP4220569A1/en
Priority to US18/158,485 priority patent/US20230245411A1/en
Publication of JP2023111639A publication Critical patent/JP2023111639A/ja
Application granted granted Critical
Publication of JP7493542B2 publication Critical patent/JP7493542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Security & Cryptography (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関し、特に仮想視点映像の生成技術に関する。
複数の撮像装置を異なる位置に設置し、同期撮像を行い、この撮像により得られた複数の画像を用いて仮想視点映像を生成する技術が注目されている。例えば、複数の撮像装置により撮像された画像がサーバ等の情報処理装置に集約され、そして画像処理装置が三次元モデル生成及びレンダリング等の処理を行うことにより、仮想視点映像が生成される。生成された仮想視点映像は閲覧のためにユーザ端末に伝送することができる。
このような仮想視点映像は、撮像画像群に基づいて撮像空間を再構成し、この撮像空間を仮想的なカメラで撮像した場合の仮想的な映像として生成することができる。非特許文献1では、高精細な仮想視点映像の生成を実現するために、仮想視点映像に対する色付けを行うために、仮想視点から近い撮像装置によって撮像された画像を仮想視点映像に投影している。
W. Matusik et al. "Polyhedral Visual Hulls for Real-Time Rendering", Proceedings of Eurographics Workshop on Rendering 2001, pp.115-125, 2001.
仮想視点映像においては、仮想視点が移動することがある。このような場合、非特許文献1に記載の方法では、仮想視点から近い撮像装置が切り替わった際に、仮想視点映像上の被写体のテクスチャに急激な変化がおき、この切り替えが目立ってしまう可能性がある。
本開示は、ユーザに与える違和感が軽減された仮想視点画像の生成技術を提供することを目的とする。
本開示の一実施形態に係る情報処理装置は以下の構成を有する。すなわち、
被写体を撮像することによって得られた撮像画像に基づいて生成される前記被写体を含む仮想視点映像に対応する仮想視点の動き、又は前記被写体の動きに基づいて、前記仮想視点映像における前記被写体の色の決定方法を選択する選択手段と、
前記被写体を含む前記仮想視点映像を生成する生成手段であって、前記選択手段によって選択された決定方法で前記仮想視点映像における前記被写体の色を決定する、生成手段と、
を有し、
前記選択手段は、前記仮想視点映像に映る前記被写体のフレーム間での移動量又は形状変化量に応じて前記決定方法を選択する。
本開示によれば、ユーザに与える違和感が軽減された想視点画像を生成することができる。
一実施形態に係る映像生成システムの概略構成の一例を示す図。 一実施形態に係るレンダリング装置のハードウェア構成例を示す図。 一実施形態に係るレンダリング装置の機能構成例を示す図。 一実施形態に係る情報処理方法の処理フローを示す図。 一実施形態に係るレンダリング方法の処理フローを示す図。 三次元モデルへのレンダリング結果の投影を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
本開示の一実施形態に係る情報処理装置は、被写体を複数の位置から撮像することによって得られた撮像画像に基づいて、仮想視点から見た場合の被写体を含む仮想視点映像を生成する。まず、このような情報処理装置を備える、仮想視点映像を生成するためのシステムについて説明する。
図1は、一実施形態に係る仮想視点映像生成システムの全体構成の一例を示す。映像生成システム1は、撮像システム10a~10n、スイッチングハブ20、制御装置30、モデリング装置40、データベース50、レンダリング装置60、視点入力装置70、及び表示装置80を有する。以下では、N個の撮像システム10a~10nは、特別な説明がない場合には区別せず、撮像システム10と記載する。なお、撮像システム10の数は、2台以上であればいくつでもよい。
N個の撮像システム10a~10nは、それぞれ、撮像装置11a~11n及び画像処理装置12a~12nを有する。撮像装置11a~11n及び画像処理装置12a~12nも、以下では区別せずに撮像装置11及び画像処理装置12と記載する。撮像装置11は、制御装置30からの命令をスイッチングハブ20を介して受信し、この命令に従って撮像を行う。画像処理装置12は、撮像により得られた画像から被写体の領域内の画像を抽出し、抽出した画像をスイッチングハブ20を介してモデリング装置40に送信する。ここで、撮像システム10a~10nは同期して撮像を行う。撮像システム10a~10nの動作は、撮像タイミングのずれが生じないように同期させることができる。撮像システム10は、仮想視点映像に含める被写体を複数の方向から撮像するように配置される。撮像装置11及び画像処理装置12は、例えば、カメラ及びカメラのプロセッサであってもよい。なお、被写体は前景オブジェクトには限られず、背景であってもよい。
モデリング装置40は、撮像システム10から伝送された情報に基づいて被写体の三次元形状推定を行い、被写体の三次元形状を示す三次元モデルをデータベース50に書き込む。モデリング装置40は、撮像システム10によって得られた撮像画像を用いて被写体の三次元形状推定を行うことができる。推定方法としては、例えば、非特許文献1に記載のVisual Hull法を用いることができる。さらに、モデリング装置40は、仮想視点映像生成に必要な情報をさらにデータベース50に書き込むことができる。仮想視点映像生成に必要な情報とは、例えば、モデルの見えを表現するためのテクスチャ画像、並びにテクスチャ画像を撮像した撮像装置の位置姿勢、焦点距離を示すパラメータ、及び撮像時刻などが挙げられる。なお、テクスチャ画像としては、撮像システム10による撮像画像を用いることができる。
本開示の一実施形態に係る情報処理装置であるレンダリング装置60は、被写体を複数の位置から撮像することによって得られた撮像画像に基づいて、仮想視点からの被写体を含む仮想視点映像を生成する。レンダリング装置60は、視点入力装置70から、仮想視点を指定する仮想視点情報を取得することができる。仮想視点の指定は、時間に係る情報を含むことができる。例えば、時間に係る情報は、フレームごとのレンダリング対象の撮像時刻(以下、レンダリング時刻と呼ぶ)であってもよい。すなわち、仮想視点映像のフレームごとにレンダリング対象の撮像時刻を指定することができる。この場合、指定された撮像時刻における撮像画像を用いて、この撮像時刻における被写体を含む仮想視点映像を生成することができる。このような構成によって生成された仮想視点映像は、複数のフレームにわたって同じ時刻の被写体が映っているために被写体が静止しているセグメントを含むことができる。
また、時間に係る情報は、フレームごとの仮想視点の位置を示す情報であってもよい。すなわち、仮想視点を移動させることができ、言い換えれば、仮想視点映像のフレームごとに異なる仮想視点を設定することができる。仮想視点の指定は、仮想視点に相当するカメラの経時的な動きを示すカメラパスとして与えられてもよい。そして、レンダリング装置60は、受け付けた視点に基づいて、データベース50から必要な情報を読み出し、レンダリング処理を行うことにより仮想視点映像を生成する。レンダリング処理により得られた仮想視点映像は、表示装置80に送信される。
視点入力装置70は、例えばキーボード又はマウスのような入力装置でありうる。また、表示装置80は、例えばディスプレイであってもよい。図1には、モデリング装置40、レンダリング装置60、視点入力装置70、及び表示装置80は別々の装置として示されている。一方で、これらの装置のうち2つ以上が1つの装置に統合されていてもよい。例えば、レンダリング装置60が、視点入力装置70又は表示装置80の機能を兼ねていてもよい。一例として、レンダリング装置60はタッチパネルディスプレイを有するタブレットコンピュータであってもよく、このようなレンダリング装置60は、視点入力装置70及び表示装置80としても動作することができる。例えば、タブレットコンピュータのディスプレイに仮想視点映像が表示されてもよく、ユーザはディスプレイに触れることで仮想視点の位置姿勢を操作してもよい。この場合、後述するCPU、RAM、ROM、及び通信部が連携することで、タブレットコンピュータは仮想視点映像を生成することができる。また、レンダリング装置60はモデリング装置40の機能を有していてもよく、この場合レンダリング装置60は被写体の三次元モデルを生成することができる。
図2は、本実施形態のレンダリング装置60のハードウェア構成の一例を示す図である。レンダリング装置60は、CPU201、ROM202、RAM203、補助記憶装置204、通信I/F205、及びバス206を有する。なお、モデリング装置40も同様のハードウェアを用いて実現することができる。また、レンダリング装置60は、例えばネットワークを介して接続された複数の情報処理装置によって構成されていてもよい。
CPU201は、ROM202又はRAM203に格納されているコンピュータプログラム又はデータを用いてレンダリング装置60の全体を制御することで、図3に示すレンダリング装置60が有する各処理部の機能を実現する。なお、レンダリング装置60は、CPU201とは異なる1又は複数の専用のハードウェアを有していてもよく、この場合CPU201による処理の少なくとも一部を専用のハードウェアが実行できる。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などが挙げられる。
ROM202は、変更を必要としないプログラムなどを格納するメモリである。RAM203は、補助記憶装置204から供給されるプログラム又はデータ、及び通信I/F205を介して外部から供給されるデータなどを一時記憶するメモリである。補助記憶装置204は、例えばハードディスクドライブ等のストレージで構成され、画像データ又は音声データなどの種々のデータを記憶する。通信I/F205は、レンダリング装置60の外部の装置との通信に用いられる。例えば、レンダリング装置60が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F205に接続される。レンダリング装置60が外部の装置と無線通信する場合には、通信I/F205はアンテナを備える。バス206は、レンダリング装置60の各部をつないで情報を伝達する。
図3は、レンダリング装置60のレンダリング処理に係る機能構成の一例を示す図である。レンダリング装置60は、選択部302、第1画像生成部304、及び第2画像生成部305を有する。また、レンダリング装置60は、視点取得部301、データ取得部303、及び合成部306を有することができる。
視点取得部301は、視点入力装置70から仮想視点情報を取得する。上述のように、仮想視点情報は時間情報を含むことができる。仮想視点情報は、仮想視点の位置姿勢を示す外部パラメータ、及び仮想視点の焦点距離などを示す内部パラメータを含むことができる。仮想視点情報はまた、被写体ごとのレンダリング時刻を含むことができる。
選択部302は、被写体を撮像することによって得られた撮像画像に基づいて生成される被写体を含む仮想視点映像に対応する仮想視点の動き、又は被写体の動きに基づいて、仮想視点映像における被写体の色の決定方法を選択する。例えば、選択部302は、フレーム間の仮想視点又は被写体の動き量に基づいてレンダリング方法を選択する。ここで選択部302は、フレーム間の仮想視点又は被写体の動き量が閾値を超える場合に色の第1の決定方法(第1のレンダリング方法)を選択し、動き量が閾値以下である場合に色の第2の決定方法(第2のレンダリング方法)を選択することができる。ここで、第1のレンダリング方法としては後述する仮想視点依存のレンダリングを、第2のレンダリング方法としては後述する仮想視点非依存のレンダリングを、それぞれ行うことができる。
本実施形態においては、選択部302は、仮想視点映像に映る被写体の撮像時刻がフレーム間で変化するか否かに応じてレンダリング方法を選択する。具体的には、被写体の時刻が停止しているときには仮想視点非依存のレンダリングが、そうでない場合には仮想視点依存のレンダリングが行われる。以下の例では、選択部302は、レンダリング時刻が変化していれば第1画像生成部304を、変化していなければ第2画像生成部305を選択する。なお、選択部302は、被写体ごとにレンダリング方法を選択することができる。すなわち、仮想視点映像は複数の被写体を含んでいてもよく、選択部302は複数の被写体のそれぞれについてレンダリング方法を選択することができる。ここで、複数の被写体のそれぞれは、人物又は車のような独立した物体であってもよいし、人物の頭又は手のような物体の一部であってもよい。
データ取得部303は、被写体の三次元モデル及び撮像画像を取得する。本実施形態におけるデータ取得部303は、選択部302が選択した画像生成部が用いるデータをデータベース50から取得し、選択された画像生成部にデータを渡すことができる。画像生成部が用いるデータとしては、オブジェクトの三次元モデル(三次元形状を示す情報)、複数視点における撮像画像、及び撮像装置毎の外部/内部パラメータなどが挙げられる。
第1画像生成部304及び第2画像生成部305は、被写体を含む仮想視点映像を生成する。仮想視点映像は、三次元モデル及び撮像画像に基づいて、概略以下のようにレンダリングすることができる。すなわち、仮想視点の位置姿勢等のパラメータに従って、仮想視点映像上の各画素に映る三次元モデルの構成要素(例えば点又はポリゴン)を特定することができる。また、撮像装置による撮像画像上でこの構成要素が映る画素は、撮像装置の位置姿勢等のパラメータに従って特定することができる。したがって、撮像画像において構成要素が映っている画素の色に基づいて、構成要素の色、及び仮想視点映像においてこの構成要素が映る画素の色を決定することができる。ここで、仮想視点映像の各画素の色を決定する際に用いられる撮像画像(又はこの撮像画像を撮像した撮像装置)は、の撮像画像(又は撮像装置11)の中から選択することができる。一実施形態において、第1画像生成部304及び第2画像生成部305による撮像画像(又は撮像装置)の選択方法は、互いに異なっている。
ここで、第1画像生成部304及び第2画像生成部305は、選択部302によって選択されたレンダリング方法で撮像画像に基づいて仮想視点映像上の被写体の色を決定する。本実施形態の場合、選択部302によって選択された画像生成部が、それぞれに設定されたレンダリング方法により、視点取得部301が取得した仮想視点情報と、データ取得部303が取得したデータとに基づいて仮想視点画像を生成する。
第1画像生成部304は、仮想視点映像の被写体の色が仮想視点の位置に応じて決定される第1のレンダリング方法を用いて、仮想視点映像上の被写体の色を決定し、仮想視点映像を生成する。例えば、第1画像生成部304は、仮想視点映像における被写体の色を決定するために用いる撮像画像を、仮想視点の位置に応じて選択することができる。この方法によれば、仮想視点の位置姿勢に依存して被写体の色情報が決定されるため、仮想視点が動くと被写体の色が変化する。このようなレンダリング方法を、本明細書においては仮想視点依存レンダリングと呼ぶ。なお、仮想視点映像における被写体の色は、複数の撮像画像によってそれぞれ撮像された撮像画像における被写体の色を重み付け合成することにより決定することもできる。この場合に用いる撮像装置又は撮像画像の組み合わせを変更すること、及びこの場合に用いる重み付け合成の重みを変更することも、本明細書における撮像装置又は撮像画像の選択に含まれる。
仮想視点依存レンダリングにおいては、仮想視点からの被写体の観察方向と、撮像装置からの被写体の観察方向とが近くなるように、1又は複数の撮像装置が選択される。例えば、撮像画像を撮像した複数の撮像装置のうち、撮像装置から被写体への視線方向が、仮想視点から被写体への視線方向により近い撮像装置によって撮像された撮像画像が、仮想視点映像における被写体の色を決定するために選択される。そして、こうして選択された撮像装置による撮像画像に基づいて、被写体の色が決定される。こうして選択された撮像装置からの被写体の見えは、仮想視点からの被写体の見えに近いことが期待されるため、仮想視点依存レンダリングによれば高精細な仮想視点映像を生成できることができる。一方で、選択される撮像装置が切り替わる際に、仮想視点映像における被写体の色の変化が目立つ可能性がある。
第2画像生成部305は、仮想視点映像における被写体の色が仮想視点の位置にかかわらず決定される第2のレンダリング方法を用いて、仮想視点映像上の被写体の色を決定し、仮想視点映像を生成する。例えば、第2画像生成部305は、仮想視点映像における被写体の色を決定するために用いる撮像画像を、仮想視点の位置にかかわらず選択することができる。この方法によれば、仮想視点の位置姿勢に依存せずに被写体の色情報が決定されるため、仮想視点が動いても被写体の色は変化しない。このようなレンダリング方法を本明細書においては仮想視点非依存レンダリングと呼ぶ。
仮想視点非依存レンダリングの方法としては、例えば、被写体の三次元モデルの小領域ごとに法線を判定し、この法線に最も近い撮像装置による撮像画像に基づいて被写体の各小領域の色を決定する方法が挙げられる。そして、こうして判定された被写体の各小領域の色に基づいて、仮想視点映像を生成することができる。また、第2画像生成部305は、三次元モデル及び撮像画像を用いるこのような手法により、三次元モデルに色情報を付与することもできる。そして、第2画像生成部305は、三次元モデルに付された色情報を用いて仮想視点映像上の被写体の色を決定することができる。このように、第2画像生成部305、被写体の三次元モデルに対して色付けを行い、色付けされた三次元モデルをレンダリングすることにより仮想視点映像を生成してもよい。
さらに、三次元モデルに対する色付けをレンダリング装置60が行うことは必須ではない。この例において三次元モデルの色は仮想視点に非依存であるため、モデリング装置40が三次元モデルに対する色付けを行い、色情報をデータベース50に書き込むこともできる。この場合、第2画像生成部305は、モデリング装置40がデータベース50に書き込んだ三次元モデルの色情報に基づいて仮想視点画像を生成することができる。
以上のように、仮想視点依存レンダリングにおいては、仮想視点の位置姿勢に応じて複数の撮像装置から色を決定するために用いる撮像装置を選択することができる。一方で、仮想視点非依存レンダリングにおいては、仮想視点の位置姿勢とは無関係に複数の撮像装置から色を決定するために用いる撮像装置を選択することができる。この結果、仮想視点依存レンダリングにおいては、仮想視点映像の同一の被写体(例えば同じレンダリング時刻における同一形状の被写体)の色が仮想視点の位置に応じてフレーム間で変化する。一方で、仮想視点非依存レンダリングにおいては、仮想視点映像における同一の被写体の色が仮想視点の位置にかかわらずフレーム間で一定である。
上記のように、選択部302は被写体ごとに画像生成部を選択し、それぞれの被写体のレンダリングは被写体ごとに第1画像生成部304又は第2画像生成部305によって行われる。合成部306は、複数のレンダリング方法により得られたレンダリング結果を合成する。例えば、合成部306は、被写体ごとに生成された仮想視点映像を合成することにより、複数の被写体を含む仮想視点映像を生成することができる。また、合成部306は、得られた仮想視点映像を表示装置80に送信する。
図4は、本実施形態に係る仮想視点映像の生成処理の流れを示すフローチャートである。図4に示すフローチャートは、ROM202に格納された制御プログラムがRAM203に読み出され、CPU201がこれを実行することにより実現できる。
S4001はレンダリング装置60が初期化される。ここでは、各部が用いるパラメータを設定することができる。
S4002で視点取得部301は、視点入力装置70からの入力を受け付ける待機状態に入る。視点取得部301は、視点入力装置70からネットワークを介して情報を受信してもよいし、ファイルを読み込んでもよい。仮想視点情報を受信しない場合、又は終了命令を受信した場合、処理は終了する。
S4003で視点取得部301は、視点入力装置70から仮想視点情報を取得する。上述のとおり、仮想視点情報はレンダリング時刻の情報を含むことができるが、レンダリング時刻の形式は特に限定されない。例えば、レンダリング時刻は、時刻又はフレームIDにより特定することができる。このフレームIDは、撮像システム10が撮像した映像のうち、レンダリング時刻に撮像されたフレームを特定する情報であってもよい。ここで、視点取得部301が視点入力装置70から仮想視点情報を取得するごとに、S4004~S4008により仮想視点映像の1フレームが生成されてもよい。また、視点入力装置70には、各フレームにおける経時的な仮想視点情報が入力されてもよい。この場合、S4002~S4008において、各フレームにおける仮想視点情報の取得と、この仮想視点情報に基づく各フレームの生成とを繰り返すことにより、複数フレームで構成される仮想視点映像を生成することができる。以下、S4004~S4008の1回の処理で生成するフレームのことを、現在生成中のフレーム(又は現フレーム)と呼ぶ。
S4004で選択部302は、S4003で受信した仮想視点情報に従ってレンダリング方式を選択する。本実施形態において選択部302は、レンダリング時刻情報に基づいてレンダリング方式を選択する。上述のように、複数の被写体をレンダリングする際には、選択処理は被写体ごとに行うことができる。具体的には、現フレームにおける被写体のレンダリング時刻が、現フレームの直前のフレーム(単純に前フレームと呼ぶ)における被写体のレンダリング時刻と異なる場合には、選択部302は第1画像生成部304を選択することができる。また、現フレームにおける被写体のレンダリング時刻が、前フレームにおける被写体のレンダリング時刻と同一である場合には、選択部302は第2画像生成部305を選択することができる。なお、選択部302は、現フレームにおける被写体のレンダリング時刻と、現フレームの直後のフレーム(単に次フレームと呼ぶ)における被写体のレンダリング時刻とに基づいて、レンダリング方式を選択してもよい。この場合、2フレーム分の仮想視点情報を取得するまで処理を待機してもよい。
S4005でデータ取得部303は、S4004で選択された画像生成部が用いるデータをデータベース50から取得する。取得するデータに関しては後述する。
S4006では、S4004で選択された第1画像生成部304又は第2画像生成部305が、S4005で取得されたデータを用いて、S4004で選択された方式に合わせたレンダリングを行う。第1画像生成部304は、データ取得部303から、被写体の三次元モデル、各撮像装置からの撮像画像、並びに撮像装置毎の外部及び内部パラメータを取得する。そして、第1画像生成部304は、これらの情報に加えて、S4003で取得された仮想視点情報を用いて、仮想視点依存レンダリングを行うことにより、現フレームにおける被写体の仮想視点画像を生成する。
一方で、第2画像生成部305は、データ取得部303から、被写体の三次元モデル及びその色情報を取得し、S4003で取得された仮想視点情報に基づいて仮想視点非依存レンダリングを行うことにより、被写体の仮想視点画像を生成する。なお、データベース50に三次元モデルの色情報がない場合には、第2画像生成部305は、各撮像装置からの撮像画像、並びに撮像装置毎の外部及び内部パラメータを取得する。そして、第2画像生成部305は、これらの情報に加えてS4003で取得された仮想視点情報を用いて仮想視点非依存レンダリングを行うことにより、被写体の仮想視点画像を生成することができる。この際に第2画像生成部305は、既に説明したように三次元モデルに対する色付けを行ってもよい。ここで、第2画像生成部305は、三次元モデルのうち現フレームにおいて仮想視点映像に映る部分に色情報を付与することができ、現フレームにおいて仮想視点映像に映らない部分には色情報を付与しなくてもよい。
S4007で選択部302は、第1画像生成部304又は第2画像生成部305によるレンダリング処理の記録を保存する。本実施形態において、選択部302は、各被写体のレンダリング時刻を記録する。この記録は、次フレームにおいてレンダリング方式を選択するために使用できる。また、S4006で第2画像生成部305が三次元モデルに対する色付けを行っている場合、選択部302は、三次元モデルに対する色付けの結果を示す色情報を、レンダリング処理の記録として保存することができる。この場合、第2画像生成部305は、次フレームを生成する際に、過去のフレームのレンダリング処理の際に記録された三次元モデルの色情報を用いて、次フレームをレンダリングすることができる。なお、現フレームに映る三次元モデルの構成要素に色付けがされていない場合には、第2画像生成部305はこの構成要素の色情報を、上述のような仮想視点非依存レンダリングにより決定することができる。すなわち、第2画像生成部305は、三次元モデルの仮想視点映像に映る部分のうち、色情報が既に付与されている部分についてはこの色情報を用いて被写体の色を決定することができる。一方で、第2画像生成部305は、色情報が付与されていない部分については撮像画像に基づいて被写体の色を決定することができる。選択部302は、この記録を、ROM202、RAM203、補助記憶装置204、又はデータベース50に書き込むことができる。
S4008で合成部306は、第1画像生成部304又は第2画像生成部305が生成した被写体の仮想視点画像を合成することで、仮想視点映像の現フレームを生成する。そして、合成部306は、得られたフレームを表示装置80に送信する。なお、レンダリング対象の被写体が1つであるなど、合成が不要な場合には、合成部306は第1画像生成部304又は第2画像生成部305が生成した仮想視点画像を合成処理を行わずに表示装置80へ送信することができる。その後、処理はS4002に戻り、次フレームを生成することができる。
以上の実施形態によれば、被写体の動き量に基づいてレンダリング方法が選択され、とりわけレンダリング対象となる被写体のレンダリング時刻が停止しているかに応じてレンダリング方式が選択された。レンダリング時刻が変化しないために被写体が停止している場合、仮想視点依存レンダリングを用いると被写体の色を決定するために用いる撮像装置の切り替わりによる被写体の色の変化が目立つ可能性がある。しかしながら、上記の実施形態においては、このような場合には仮想視点非依存レンダリングが用いられるため、このような色の変化を抑制できる。一方で、レンダリング時刻が変化する場合には、仮想視点依存レンダリングを行うことにより高精細な仮想視点映像を生成することができる。
既に述べたように、S4006で第2画像生成部305は、過去のフレームのレンダリング処理の際に記録された三次元モデルの色情報を用いて、現フレームをレンダリングすることができる。ところで、現フレームに映る三次元モデルの構成要素に色付けがされていない場合に、第2画像生成部305はこの構成要素の色情報を、仮想視点依存レンダリングにより決定してもよい。言い換えれば、過去のフレームにおいて色が決定されているか否かに応じてレンダリング方法を決定することができる。すなわち、過去のフレームにおいて色が決定されている部分についてはこの結果を用いたレンダリング方法を用いることができる。一方で、過去のフレームにおいて色が決定されていない部分については、撮像画像に基づくレンダリング方法(例えば仮想視点依存レンダリング方法)を用いることができる。このような方法によっても、被写体の前フレームに映っている部分の色は現フレームにおいても維持されるため、被写体の色の変化を抑制することができる。
また、第2画像生成部305は、過去のフレーム(例えば前フレーム)のレンダリング結果に基づいて仮想視点映像上の被写体の色を決定することで、現フレームのレンダリングを行ってもよい。このような処理方法について図5を参照して説明する。図5に示す処理方法は、S4006において第2画像生成部305が行うことができる。S5001で第2画像生成部305は、前フレームのレンダリング結果を取得する。S5002で第2画像生成部305は、取得した前フレームのレンダリング結果を、現フレームにおける三次元モデル601に投影することで、三次元モデル601の色情報を生成する。すなわち、第2画像生成部305は、前フレームでの仮想視点611からレンダリング結果を投影することで、可視部602(実線部分)の色情報を付与する。
S5003~S5007のループは、現フレームの仮想視点612からの仮想視点画像の各画素について行われる。S5004で第2画像生成部305は、処理対象の画素に対応する仮想視点612からの光線上に、S5002で前フレームのレンダリング結果を投影することにより付与された色情報を持つ三次元モデルの構成要素があるかどうかを判定する。このような構成要素がある場合(図6の可視部602)、処理はS5005へ進み、ない場合(図6の点線部603)、処理はS5006へ移行する。
S5005で第2画像生成部305は、S5002において付与された色情報を、現フレームの処理対象画素の色情報として使用する。S5006で第2画像生成部305は、処理対象画素の色情報が存在しないため、第1画像生成部304と同様に仮想視点依存レンダリング方式に従って、処理対象画素の色情報を決定する。S5003~S5007のループを繰り返すことにより、仮想視点映像の現フレームが生成される。
このように、第2画像生成部305が前フレームでのレンダリング結果に基づいて色情報を付与することによっても、被写体の前フレームに映っている部分の色が現フレームにおいて維持されるため、被写体の色の変化を抑制することができる。
一方で、被写体の動き量に基づくレンダリング方法の選択方法は、上記の方法に限られない。例えば、選択部302は、仮想視点映像に映る被写体のフレーム間での移動量又は形状変化量に応じてレンダリング方法を選択してもよい。具体的には、被写体の移動速度又は変化速度に応じてレンダリング方法を選択することができる。すなわち、被写体が動いていない又はゆっくり動いている場合にも、仮想視点依存レンダリングを用いると被写体の色の変化が目立つ可能性がある。そこで、選択部302は、被写体の移動若しくはその他の動きの速度に応じて、例えば速度が閾値より速い場合に第1画像生成部304による視点依存レンダリングを選択してもよい。また、選択部302は、速度が閾値以下である場合には第2画像生成部305による視点非依存レンダリングを選択することができる。一方で、選択部302は、フレーム間での被写体の形状変化に応じて、例えば変化量が閾値より大きい場合に第1画像生成部304による視点依存レンダリングを選択してもよい。また、選択部302は、変化量が閾値以下である場合には第2画像生成部305による視点非依存レンダリングを選択することができる。
具体例として、選択部302は、前フレームと現フレームとの間の被写体の変化を判定し、一定以上の変化が存在する場合に第1画像生成部304による視点依存レンダリングを選択してもよい。変化量の推定方法としては、被写体の形状をトラッキングすることで変化量を計算してもよい。別の方法として、1つ以上の撮像装置で撮像された画像において被写体のオプティカルフローを計算し、オプティカルフローの長さを変化量として用いてもよい。この場合、1つの被写体について同じレンダリング方式を選択するのではなく、被写体の領域ごとにレンダリング方式を選択してもよい。
さらなる別の例として、選択部302は、フレーム間の仮想視点の動き量に基づいてレンダリング方法を選択することができる。例えば、選択部302は、仮想視点のフレーム間での移動量に応じてレンダリング方法を選択してもよい。すなわち、仮想視点の移動速度が速いほど、仮想視点映像の変化が大きくなるため、被写体の色の変化が目立ちにくいと考えられる。例えば、仮想視点が高速に移動している場合には、被写体が停止しているとしても、被写体の色の変化が目立ちにくいと考えられる。そこで、選択部302は、仮想視点の動きの速度に応じて、例えば速度が閾値より速い場合に第1画像生成部304による視点依存レンダリングを選択してもよい。また、選択部302は、速度が閾値以下である場合には第2画像生成部305による視点非依存レンダリングを選択することができる。仮想視点の移動速度は、2つのフレームに対応する仮想視点それぞれの位置どうしの差異に基づいて決定することができる。また、仮想視点の移動速度は、2つのフレームに対応する仮想視点からの視線方向どうしの差異に基づいて決定することもできる。あるいは、仮想視点の移動速度は、それら2つのパラメータに基づいて決定することもできる。
なお、このように仮装視点の動き量又は被写体の動き量に応じてレンダリング方法を選択する場合、S4006で第2画像生成部305は、被写体の形状が前フレームから変化しているか否かを判定してもよい。被写体の形状が前フレームから変化していない場合、第2画像生成部305は、以前のレンダリング処理の記録、例えば以前にS4007で記録された被写体の三次元モデルの色情報を用いてレンダリングを行うことができる。一方で、被写体の形状が前フレームから変化している場合、第2画像生成部305は、三次元モデルへの色情報の付与をやり直すことができる。
被写体の動き量に応じたレンダリング方法の選択と、仮想視点の動き量に応じたレンダリング方法の選択とは、組み合わせて用いることもできる。例えば、上記のように被写体の動き量に応じてレンダリング方法を選択する一方で、仮想視点の移動速度が一定以上である場合には、被写体の動き量にかかわらず、第1画像生成部304による視点依存レンダリングを選択してもよい。
ところで、被写体が指向性反射領域を有している場合、視点非依存レンダリングを行うことで仮想視点映像を生成すると、仮想視点位置が変わっても指向性反射が再現されず、映像の再現性が低下する。指向性反射領域とは、均一な拡散反射が生じるのではなく、反射光の強度が反射方向により変化する領域のことを指す。そこで、選択部302は、被写体が指向性反射領域を有するか否かにさらに基づいてレンダリング方法を選択してもよい。例えば、選択部302は、指向性反射領域を有する被写体については、仮想視点又は被写体の動き量にかかわらず、仮想視点映像における被写体の色が前記仮想視点の位置に応じて決定されるレンダリング方法を選択するができる。例えば、被写体のうち、指向性反射領域に対しては視点依存レンダリングを行うように、レンダリング方法を選択してもよい。
このような実施形態においては、S4003でデータ取得部303がデータベース50から指向性反射領域を示す情報を取得する。なお、モデリング装置40は、被写体のうち各撮像装置から見える色が異なる領域を、指向性反射領域としてデータベースに登録しておくことができる。例えば、モデリング装置40は、三次元モデルの構成要素に、指向性反射領域に属することを示すフラグを付加してもよい。
また、S4004で選択部302は、仮想視点又は被写体の動き量に加えて、S4003で取得した指向性反射領域を示す情報に基づいて画像生成部を選択する。具体的には、指向性反射領域のレンダリングを行う場合には、選択部302は仮想視点又は被写体の動き量とは無関係に第1画像生成部304を用いた視点依存レンダリングを選択することができる。一方で、指向性反射領域以外の領域のレンダリングを行う場合には、選択部302は上述のように仮想視点又は被写体の動き量に応じてレンダリング方法を選択することができる。このような構成によれば、指向性反射領域を含む被写体の仮想視点映像において、再現性を高めることができる。
なお、レンダリング方法は、仮想視点の動きに応じて変更されてもよい。例えば、仮想視点が被写体の周りを、被写体を中心に回るような動きをする場合と、そうでない場合とで、レンダリング方法が変更されてもよい。より具体的には、仮想視点が被写体の周りを、被写体を中心に回るような動きをする場合には、視点非依存レンダリングにより仮想視点映像の被写体の色を決定するようにしてもよい。また、例えば、仮想視点が被写体にある方向から近づいたり、遠ざかったりするような直線的な移動をする場合には、視点依存レンダリングにより、仮想視点映像の被写体の色を決定してもよい。
また、レンダリング方法は、被写体の動きに応じて変更されてもよい。被写体が自転するような動きの場合と、そうでない場合とで、レンダリング方法が変更されてもよい。あるいは被写体が止まっている場合(つまり、動きがない場合)と被写体が動いている場合とで、レンダリング方法が変更されてもよい。
また、仮想視点の動きと被写体の動きの両方によって、レンダリング方法が変更されてもよい。例えば、仮想視点が固定されており、被写体が動いている場合と、仮想視点が動いていて、被写体が静止している場合で、レンダリング方法が変更されてもよい。
(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
60:レンダリング装置、301:視点取得部、302:選択部、303:データ取得部、304:第1画像生成部、305:第2画像生成部、306:合成部

Claims (20)

  1. 被写体を撮像することによって得られた撮像画像に基づいて生成される前記被写体を含む仮想視点映像に対応する仮想視点の動き、又は前記被写体の動きに基づいて、前記仮想視点映像における前記被写体の色の決定方法を選択する選択手段と、
    前記被写体を含む前記仮想視点映像を生成する生成手段であって、前記選択手段によって選択された決定方法で前記仮想視点映像における前記被写体の色を決定する、生成手段と、
    を有し、
    前記選択手段は、前記仮想視点映像に映る前記被写体のフレーム間での移動量又は形状変化量に応じて前記決定方法を選択することを特徴とする情報処理装置。
  2. 前記選択手段は、前記仮想視点映像の同一の被写体の色が前記仮想視点の位置に応じてフレーム間で変化する第1の決定方法と、前記仮想視点映像における同一の被写体の色が前記仮想視点の位置にかかわらずフレーム間で一定である第2の決定方法と、から決定方法を選択することを特徴とする、請求項1に記載の情報処理装置。
  3. 前記選択手段は、前記仮想視点映像の被写体の色が前記仮想視点の位置に応じて決定される第1の決定方法と、前記仮想視点映像における被写体の色が前記仮想視点の位置にかかわらず決定される第2の決定方法と、から決定方法を選択することを特徴とする、請求項1に記載の情報処理装置。
  4. 前記第1の決定方法においては、前記仮想視点映像における被写体の色を決定するために用いる撮像画像が前記仮想視点の位置に応じて選択され、前記第2の決定方法においては、前記仮想視点映像における被写体の色を決定するために用いる撮像画像が前記仮想視点の位置にかかわらず選択されることを特徴とする、請求項2又は3に記載の情報処理装置。
  5. 前記第1の決定方法においては、前記撮像画像を撮像した複数の撮像装置のうち、前記撮像装置から前記被写体への視線方向が、前記仮想視点から前記被写体への視線方向により近い撮像装置によって撮像された撮像画像を、前記仮想視点映像における被写体の色を決定するために用いることを特徴とする、請求項4に記載の情報処理装置。
  6. 前記第2の決定方法においては、前記被写体の三次元モデルに付された色情報を用いて前記仮想視点映像における前記被写体の色を決定することを特徴とする、請求項2から5のいずれか1項に記載の情報処理装置。
  7. 前記生成手段は、前記三次元モデル及び前記撮像画像に基づいて前記三次元モデルに色情報を付与することを特徴とする、請求項6に記載の情報処理装置。
  8. 前記生成手段は、前記三次元モデルの前記仮想視点映像に映る部分に色情報を付与することを特徴とする、請求項7に記載の情報処理装置。
  9. 前記生成手段は、前記三次元モデルの前記仮想視点映像に映る部分のうち、色情報が既に付与されている部分については当該色情報を用いて前記被写体の色を決定し、色情報が付与されていない部分については前記撮像画像に基づいて前記被写体の色を決定することを特徴とする、請求項6から8のいずれか1項に記載の情報処理装置。
  10. 前記第2の決定方法においては、過去のフレームのレンダリング結果に基づいて前記仮想視点映像における前記被写体の色を決定することを特徴とする、請求項2から5のいずれか1項に記載の情報処理装置。
  11. 前記選択手段は、フレーム間の前記仮想視点の動き量又は前記被写体の動き量が閾値を超える場合に前記第1の決定方法を選択し、前記動き量が閾値以下である場合に前記第2の決定方法を選択することを特徴とする、請求項2から10のいずれか1項に記載の情報処理装置。
  12. 被写体を撮像することによって得られた撮像画像に基づいて生成される前記被写体を含む仮想視点映像に対応する仮想視点の動き、又は前記被写体の動きに基づいて、前記仮想視点映像における前記被写体の色の決定方法を選択する選択手段と、
    前記被写体を含む前記仮想視点映像を生成する生成手段であって、前記選択手段によって選択された決定方法で前記仮想視点映像における前記被写体の色を決定する、生成手段と、
    を有し、
    前記選択手段は、前記仮想視点映像に映る前記被写体の撮像時刻がフレーム間で変化するか否かに応じて前記決定方法を選択することを特徴とする情報処理装置。
  13. 前記選択手段は、前記仮想視点のフレーム間での移動量に応じて前記決定方法を選択することを特徴とする、請求項1から11のいずれか1項に記載の情報処理装置。
  14. 前記仮想視点映像は複数の被写体を含み、
    前記選択手段は、複数の被写体のそれぞれについて決定方法を選択することを特徴とする、請求項1から13のいずれか1項に記載の情報処理装置。
  15. 前記生成手段は、複数の決定方法により決定された色を合成することを特徴とする、請求項14に記載の情報処理装置。
  16. 前記選択手段は、前記被写体が指向性反射領域を有するか否かにさらに基づいて前記決定方法を選択することを特徴とする、請求項1から15のいずれか1項に記載の情報処理装置。
  17. 前記選択手段は、前記指向性反射領域を有する被写体については、前記仮想視点又は前記被写体の動き量にかかわらず、前記仮想視点映像における被写体の色が前記仮想視点の位置に応じて決定される決定方法を選択することを特徴とする、請求項16に記載の情報処理装置。
  18. 情報処理装置が行う情報処理方法であって、
    被写体を撮像することによって得られた撮像画像に基づいて生成される前記被写体を含む仮想視点映像に対応する仮想視点の動き、又は前記被写体の動きに基づいて、前記仮想視点映像における前記被写体の色の決定方法を選択する工程と、
    前記被写体を含む前記仮想視点映像を生成する工程であって、選択された前記決定方法で前記仮想視点映像における前記被写体の色を決定する、工程と、
    を有し、
    前記選択する工程では、前記仮想視点映像に映る前記被写体のフレーム間での移動量又は形状変化量に応じて前記決定方法を選択することを特徴とする情報処理方法。
  19. 情報処理装置が行う情報処理方法であって、
    被写体を撮像することによって得られた撮像画像に基づいて生成される前記被写体を含む仮想視点映像に対応する仮想視点の動き、又は前記被写体の動きに基づいて、前記仮想視点映像における前記被写体の色の決定方法を選択する工程と、
    前記被写体を含む前記仮想視点映像を生成する工程であって、選択された前記決定方法で前記仮想視点映像における前記被写体の色を決定する、工程と、
    を有し、
    前記選択する工程では、前記仮想視点映像に映る前記被写体の撮像時刻がフレーム間で変化するか否かに応じて前記決定方法を選択することを特徴とする情報処理方法。
  20. コンピュータを、請求項1から17のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2022013581A 2022-01-31 2022-01-31 情報処理装置、情報処理方法、及びプログラム Active JP7493542B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022013581A JP7493542B2 (ja) 2022-01-31 2022-01-31 情報処理装置、情報処理方法、及びプログラム
EP23152613.8A EP4220569A1 (en) 2022-01-31 2023-01-20 Generating a virtual viewpoint video
US18/158,485 US20230245411A1 (en) 2022-01-31 2023-01-24 Information processing apparatus, information processing method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022013581A JP7493542B2 (ja) 2022-01-31 2022-01-31 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2023111639A JP2023111639A (ja) 2023-08-10
JP7493542B2 true JP7493542B2 (ja) 2024-05-31

Family

ID=85018198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022013581A Active JP7493542B2 (ja) 2022-01-31 2022-01-31 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230245411A1 (ja)
EP (1) EP4220569A1 (ja)
JP (1) JP7493542B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092580A (ja) 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法
WO2021079592A1 (ja) 2019-10-21 2021-04-29 ソニー株式会社 情報処理装置、3dデータの生成方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092580A (ja) 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法
WO2021079592A1 (ja) 2019-10-21 2021-04-29 ソニー株式会社 情報処理装置、3dデータの生成方法及びプログラム

Also Published As

Publication number Publication date
JP2023111639A (ja) 2023-08-10
US20230245411A1 (en) 2023-08-03
EP4220569A1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
US10916048B2 (en) Image processing apparatus, image processing method, and storage medium
CN110402425B (zh) 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
US11379948B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
CN110419061B (zh) 混合现实系统及使用该系统生成虚拟内容的方法
KR101893047B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
CN109087346B (zh) 单目深度模型的训练方法、训练装置和电子设备
US20180182114A1 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
US20140146178A1 (en) Image processing apparatus and method using smart glass
JP4516536B2 (ja) 動画生成装置、動画生成方法、及びプログラム
WO2019238113A1 (zh) 成像方法、装置、终端和存储介质
EP3813024A1 (en) Image processing device and image processing method
JP4539015B2 (ja) 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム
US10255664B2 (en) Image processing device and method
CN112740261A (zh) 全景光场捕获、处理和显示
JP2020028096A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2020187706A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR20200013607A (ko) 운동 시차 지원 전방위 비디오 획득/재생을 위한 방법 및 장치
JP7493542B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220343583A1 (en) Information processing apparatus, 3d data generation method, and program
KR20220106076A (ko) 조밀한 깊이 맵의 재구성을 위한 시스템 및 방법
CN113767649A (zh) 生成音频输出信号
US20230410444A1 (en) Display system for displaying mixed reality space image andprocessing method for use of display system
JP2019067419A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2021182130A1 (ja) 画像処理装置および方法、並びにプログラム
US20230328222A1 (en) Real-time multiview video conversion method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240521

R150 Certificate of patent or registration of utility model

Ref document number: 7493542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150