JP2021524628A - 照明推定 - Google Patents

照明推定 Download PDF

Info

Publication number
JP2021524628A
JP2021524628A JP2020564910A JP2020564910A JP2021524628A JP 2021524628 A JP2021524628 A JP 2021524628A JP 2020564910 A JP2020564910 A JP 2020564910A JP 2020564910 A JP2020564910 A JP 2020564910A JP 2021524628 A JP2021524628 A JP 2021524628A
Authority
JP
Japan
Prior art keywords
image
scene
pixels
pixel
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564910A
Other languages
English (en)
Other versions
JP7386812B2 (ja
JPWO2019226366A5 (ja
Inventor
ドン,ユエ
チェン,グオジュン
トン,シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2021524628A publication Critical patent/JP2021524628A/ja
Publication of JPWO2019226366A5 publication Critical patent/JPWO2019226366A5/ja
Application granted granted Critical
Publication of JP7386812B2 publication Critical patent/JP7386812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

本明細書に記載される主題の実装によれば、照明推定の解決策が提供される。この解決策では,実オブジェクトに関する入力画像と,入力画像に対応するデプスマップが取得される。入力画像内のシーンの幾何学的構造は、デプスマップに基づいて決定される。シーン内の光源によって引き起こされる実オブジェクトのシェーディング及び影情報が、決定されたシーンの幾何学的構造に基づいて決定される。そして、光源によって引き起こされるシーン内の照明条件が、入力画像と、シェーディング及び影情報に基づいて決定される。この解決策に従って取得される照明条件を用いてレンダリングされる仮想オブジェクトは、実オブジェクトと一致する現実的な効果を示すことができる。

Description

三次元仮想オブジェクトを現実のシーン(real scene)に関する画像に合成することは、拡張現実、画像編集、映画制作などの多くのアプリケーションにおいて重要なタスクである。光現実的効果を達成するために、合成画像内の仮想オブジェクト(virtual object)が、そのシーン内でシェーディング及び実オブジェクト(real object)と一致する影を示すことができ、かつ合成画像が、仮想オブジェクトと実オブジェクトとの間の投影及び/又はオクルージョン(occlusion)を正確に示すことができるように、現実のシーンの照明条件(lighting condition)を推定する必要がある。最近のデプスカメラの進歩により、現実のシーンの三次元幾何学的構造を容易に取得することができる。しかし、現実のシーンに関する単一画像からシーンの照明条件を推定することは、依然として困難な作業である。
本明細書に記載される主題の実装によれば、照明推定の解決策が提供される。この解決策では,実オブジェクトに関する入力画像と,入力画像に対応するデプスマップ(depth map)が得られる。入力画像内のシーンの幾何学的構造は、デプスマップに基づいて決定される。シーン内の光源によって引き起こされる実オブジェクトのシェーディング及び影情報(shading and shadow information)は、決定されたシーンの幾何学的構造に基づいて決定される。そして、光源によるシーン内の照明条件が入力画像とシェーディング及び影情報とに基づいて決定される。
本明細書に記載される主題による照明推定の解決策は、シーン内の実オブジェクトの材料特性に関する仮定を行わずに、入力画像並びに入力画像のシェーディング及び影情報に基づいて複数レベルのニューラルネットワークを用いて、シーン内の照明条件を漸進的に推定することができる。シーン中の光源を基準の光ベース(canonical light bases)のセットの線形結合でモデル化し、ニューラルネットワークの入力として基準の光ベースのセットからレンダリングされた放射照度マップ(irradiance maps)のセットを利用することにより、この解決策は照明推定の複雑さを大幅に単純化し、結果の精度を改善することができる。さらに、マルチツリーベースの漸進的推定を利用することにより、この解決策はニューラルネットワークの各レベルの訓練と計算コストを低減し、そのロバスト性を改善することができる。この解決策に従って得られた照明条件を用いてレンダリングされる仮想オブジェクトは、実オブジェクトと一致する現実的な効果を示すことができる。
この要約は、以下の詳細な説明でさらに記述される簡略化された形式で概念の選択を導入するために提供される。この要約は、請求項に記載された主題の主要な特徴又は本質的な特徴を特定することを意図したものではなく、また、本明細書に記載された主題の範囲を限定するために使用することも意図したものではない。
本明細書に記載される主題の複数の実装を実装できるコンピューティングデバイス100のブロック図を示す。 本明細書に記載される主題のいくつかの実装による照明推定のためのシステム200を示す。 本明細書に記載される主題のいくつかの実装による、システム200内の照明条件決定サブシステムの図を示す。 本明細書に記載される主題のいくつかの実装による照明推定のための初期化ネットワークの動作図を示す。 本明細書に記載される主題のいくつかの実装による照明推定のためのリファインメント(refinement)ネットワークの動作図を示す。 本明細書に記載される主題のいくつかの実装による、複数のレベルのニューラルネットワークを使用して、シーン内の照明条件を漸進的に決定する図を示す。 本明細書に記載される主題のいくつかの実装による照明推定のためのプロセスのフローチャートを示す。
図面を通して、同一又は類似の参照記号は、同一又は類似の要素を表す。
本明細書に記載する主題が、以下、いくつかの例示の実装を参照して論じられる。これらの実装は、主題の範囲に関する限定を示唆するのではなく、当業者が本明細書に記載の主題をより良く理解し、従って実施することを可能にする目的のためにのみ論じられることが理解されるべきである。
本明細書において、用語「含む」及びその変形は、「含むが、限定されない」ことを意味するオープンな用語として読まれるべきである。用語「基づく」は、「少なくとも部分的に基づく」として読まれるべきである。用語「1つの実装」及び「実装」は、「少なくとも1つの実装」として読まれるべきである。用語「別の実装」は、「少なくとも1つの他の実装」として読まれるべきである。用語「第1の」、「第2の」などは、異なる又は同じオブジェクトを指し得る。他の定義が、明示的及び暗示的に、以下に含まれ得る。
環境例
ここで、図面を参照して、本明細書に記載される主題の基本原理及び種々の例を説明する。図1は、本明細書に記載される主題の実装が実装されることができるコンピューティング環境100のブロック図を示す。図1に示されるコンピューティングデバイス100は、本明細書に記載される主題の機能及び実装の範囲に対する限定をいかなる方法でも示唆することなく、単に例示的なものであることが理解されるべきである。図1に示すように、コンピューティングデバイス100は、一般的なコンピュータデバイスの形態のコンピューティングデバイス100を含む。コンピューティングデバイス100の構成要素は、1つ又は複数のプロセッサ又は処理ユニット110、メモリ120、記憶装置130、1つ又は複数の通信ユニット140、1つ又は複数の入力装置150、及び1つ又は複数の出力装置160を含むが、これらに限定されない。
幾つかの実装では、コンピューティングデバイス100は、演算能力を有する種々のユーザ端末又はサービス端末として実装されることができる。サービス端末は、種々のサービスプロバイダによって提供されるサーバ、大規模コンピューティングデバイス等であり得る。ユーザ端末は、例えば、携帯電話、ステーション、ユニット、デバイス、マルチメディアコンピュータ、マルチメディアタブレット、インターネットノード、通信機、デスクトップコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、パーソナルコミュニケーションシステム(PCS)デバイス、パーソナルナビゲーションデバイス、パーソナルデジタルアシスタント(PDA)、オーディオ/ビデオプレーヤ、デジタルカメラ/ビデオプレーヤ、位置決定デバイス(positioning device)、テレビ受信機、ラジオ放送受信機、電子ブックデバイス、ゲーミングデバイス、又はこれらのデバイスのアクセサリ及び周辺機器を含むそれらの任意の組み合わせを含む、任意の種類の移動端末、固定端末、又は携帯端末である。さらに、コンピューティングデバイス100は、ユーザのための任意のタイプのインターフェース(「ウェアラブル」回路など)をサポートすることができると予測され得る。
処理ユニット110は、物理プロセッサ又は仮想プロセッサであり得、メモリ120に記憶されたプログラムに基づいて種々のプロセスを実行することができる。マルチプロセッサシステムでは、複数の処理ユニットがコンピュータ実行可能命令を並列に実行し、コンピューティングデバイス100の並列処理能力を向上させる。処理ユニット110は、また、中央処理ユニット(CPU)、マイクロプロセッサ、コントローラ及びマイクロコントローラとも呼ばれる。
コンピューティングデバイス100は、典型的には、複数のコンピュータ記憶媒体を含み、これは、揮発性及び不揮発性媒体、並びにリムーバブル及び非リムーバブル媒体を含むが、これらに限定されない、コンピューティングデバイス100によってアクセス可能な任意の利用可能な媒体であることができる。メモリ120は、揮発性メモリ(例えば、レジスタ、キャッシュ、ランダムアクセスメモリ(RAM))、不揮発性メモリ(例えば、読み出し専用メモリ(ROM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ)、又はそれらの任意の組み合わせであることができる。メモリ120は、本明細書に記載される様々な実装の機能を実行するように構成されるプログラムモジュールを有する画像処理モジュール122を含む。画像処理モジュール122は、それぞれの機能を実現するために、処理ユニット110によってアクセスされ、操作されることができる。
記憶装置130は、任意のリムーバブル又は非リムーバブル媒体であることができ、情報及び/又はデータを記憶するために使用され、コンピューティングデバイス100でアクセスされることができる機械可読媒体を含み得る。コンピューティングデバイス100はさらに、追加のリムーバブル/非リムーバブル、揮発性/不揮発性メモリ媒体を含み得る。図1には示されていないが、リムーバブル且つ不揮発性ディスクを読み書きするためのディスクドライブが提供され、リムーバブル不揮発性ディスクを読み書きするためのディスクドライブが提供されている。このような場合、各ドライブは、1つ又は複数のデータ媒体インターフェースを介してバス(図示せず)に接続される。
通信ユニット140は、通信媒体を介してさらなるコンピューティングデバイスと通信する。加えて、コンピューティングデバイス100内のコンポーネントの機能は、通信のために通信可能に接続された単一のコンピューティングクラスタ又は複数のコンピューティングマシンによって実装されることができる。したがって、コンピューティングデバイス100は、1つ又は複数の他のサーバ、ネットワークパーソナルコンピュータ(PC)又は他の一般的なネットワークノードとの論理リンクを使用して、ネットワーク環境で動作させることができる。
入力装置150は、マウス、キーボード、トラッキングボール、音声入力装置等の1つ又は複数の入力装置を含み得る。出力装置160は、ディスプレイ、ラウドスピーカ、プリンタなどの1つ又は複数の出力装置を含み得る。必要に応じて、コンピューティングデバイス100はまた、通信ユニット140を介して、記憶装置、表示装置などの1つ又は複数の外部装置(図示せず)、ユーザがコンピューティングデバイス100と対話することを可能にする1つ又は複数のデバイス、又はコンピューティングデバイス100を1つ又は複数の他のコンピューティングデバイスと通信することを可能にする任意のデバイス(例えば、ネットワークカード、モデムなど)と通信することができる。このような通信は、入出力(I/O)インターフェース(図示せず)を介して行われる。
コンピューティングデバイス100は、本明細書に記載される主題の複数の実装において照明推定を実行するために使用されることができる。したがって、以下、コンピューティングデバイス100を「画像処理装置100」と呼ぶこともある。照明推定を行うとき、画像処理装置100は、際に、入力装置150を介して、実オブジェクト(例えば、コーヒーカップ、マジックキューブ等)に関する入力画像171及び入力画像171に対応するデプスマップ(depth map)172を受信することができる。例えば、デプスマップ172は、デプスカメラによってキャプチャされることができる。次に、画像処理装置100は、入力画像171及びデプスマップ172に基づいて複数の訓練されたニューラルネットワークを用いて、入力画像171内のシーンの照明条件を決定し得る。例えば、照明条件は、特定の形状の画像(図示せず)によって表され得、その画像はシーン内の光源を表す。画像は、光源の複数の部分に対応する複数のピクセルを含み得、複数のピクセルのそれぞれのピクセル値は、光源の複数の部分のそれぞれの放射照度強度(irradiance intensities)を表す。さらに、画像処理装置100は、シーンの決定された照明条件に基づいて、入力画像171のシーンに仮想オブジェクト(例えば、ハローキティドール)を合成し、出力画像173を生成することができる。出力画像173内の仮想オブジェクトは、実オブジェクトと一致する現実的な効果を示すことができる。画像処理装置100は、さらに、出力装置160を介して画像173を出力し得る。
いくつかのレガシーの解決策はまた、シーン内の照明条件を実際のシーンに関する画像から復元しようとする。しかし、これらの解決策は、典型的には、いくつかの又は全ての環境情報を含むリモートビュー画像に適用可能であるが、複数のアプリケーションにおける極めて一般的なクローズビュー画像には適さない(すなわち、実オブジェクトのみが画像内に提示され、一方、オブジェクトの照明効果につながる環境情報はほとんど見えない)。クローズビュー画像に対して、いくつかの他のレガシーの解決策は、実オブジェクトのシェーディング情報から実際のシーンの照明条件を取り出す(recover)ことを提案する。しかし、これらの解決策は、典型的には、物体の材料又は物体表面の反射が既知であることを必要とする。これらの解決策は、任意の材料又は表面反射を有するオブジェクトに関する画像に基づいて、実際のシーンの照明条件を取り出すことができない。
既存の照明推定解決策におけるいくつかの問題を上述した。本明細書に記載される主題の実装によれば、上記の問題及び1つ又は複数の他の潜在的な問題を解決するための照明推定の解決策が提供される。この解決策は、入力画像のシェーディング及び影情報に基づく複数レベルのニューラルネットワークを用いて、シーン内の照明条件の漸進的推定を可能にする。従って、この解決策は、シーン中の実オブジェクトの材料特性に関するいかなる仮定もすることなしに、リモートビュー画像とクローズビュー画像の両方に適用可能である。シーン中の光源を基準の光ベースのセットの線形結合でモデル化し、ニューラルネットワークの入力として基準の光ベースのセットからレンダリングされる放射照度強度マップのセットを利用することにより、この解決策は照明推定の複雑さを著しく単純化し、結果の精度を高めることができる。加えて、マルチツリーベースの漸進的推定を利用することにより、この解決策はニューラルネットワークの各レベルの訓練及び計算コストを低減し、そのロバスト性を改善することができる。この解決策による光推定の結果を用いてレンダリングされる仮想オブジェクトは、実オブジェクトと一致するシェーディング及び影の効果を示すことができる。
この解決策の様々な例が、図面を参照して、以下にさらに詳細に説明される。
システムアーキテクチャ
図2は、本明細書に記載される主題のいくつかの実装による照明推定のためのシステム200のブロック図を示す。いくつかの実装では、システム200は、図1のコンピューティングデバイス100の画像処理モジュール122の少なくとも一部として実装することができ、すなわち、コンピュータプログラムモジュールとして実装することができる。代替的には、他の実装では、システム200は、ハードウェアデバイスによって完全に又は部分的に実装することができる。図2に示すように、システム200は、概して、シーン決定サブシステム210及び照明決定サブシステム220を含み得る。システム200の構造及び機能性は、本明細書に記載される主題の範囲に対するいかなる限定も示唆することなく、説明の目的のためにだけ本明細書に記載されることが理解されるべきである。本明細書に記載される主題の実装は、異なる構造及び/又は機能性で具体化することができる。
図2に示すように、システム200の入力は、平坦な表面上に配置された実オブジェクトに関する入力画像201(例えば、入力画像201は、図1に示すように入力画像171であることができる)と、入力画像201に対応するデプスマップ202(例えば、デプスマップ202は、図1に示すようにデプスマップ172であることができる)であることができる。入力画像201は、例えば、任意のサイズ及び/又はフォーマットであり得る。いくつかの実装では、入力画像201は、共通のRGB3チャンネル画像であり得る。デプスマップ202は、デプスカメラによってキャプチャされ得、各ピクセルの値は、デプスカメラと、ピクセルに対応する実際のシーン内のポイントとの間の実際の距離を反映する。さらに、デプスマップ202は、入力画像201と整列される(aligned with)ことができる。すなわち、デプスマップ202内のピクセルは、入力画像201内のピクセルと1対1で対応する。幾つかの実装では、デプスマップ202が実際のシーンの大まかな幾何学的構造を表すことができる限り、デプスマップ202内のピクセルの値によって示される奥行き(depths)は正確ではないことがある。
シーン決定サブシステム210は、デプスマップ202に基づいて入力画像201内の実際のシーン220を決定することができる。
いくつかの実装では、入力画像201内の実際のシーン220を決定するために、シーン決定サブシステム210は、最初に、実際のシーンを記述する座標系を決定し得る。例えば、シーン決定サブシステム210は、実オブジェクトの配置のための平坦な表面を、実際のシーンの座標系におけるXY平面として定義し得、一方XY平面の法線は、実際のシーンの座標系におけるZ軸としての役割を果たす。
いくつかの実装では、入力画像201内の実際のシーンを決定するために、シーン決定サブシステム210は、先ず、デプスマップ202を座標系内の点群(point cloud)に変換し得る。次に、シーン決定サブシステム210は、点群内の実オブジェクトの配置のための平坦な表面を表す複数の点を面に適合させ得る。いくつかの実装では、複数の平面を含むシーンについて、シーン決定サブシステム210は、実オブジェクトの配置のための面として、複数の平面のうち最大のものを使用し得る。点群内の実オブジェクトの配置のための平坦な表面の複数の点を面に適合させた後、シーン決定サブシステム210は、平坦な表面を表す複数の点を除去し得る。実オブジェクトの配置のための平坦な表面を表す複数の点を面に適合させた後、シーン決定サブシステム210はさらに、適合した面の上方に位置する点群内の複数の点をさらに3次元(3D)メッシュに再構成し得る。例えば、シーン決定サブシステム210は、ポアソン表面再構成を介して、適合した面の上方に位置する点群内の複数の点を3次元(3D)メッシュに再構成し得る。適合した面及び再構築3Dメッシュは、入力画像201内のシーン220を一緒に表すことができる。
シーン決定サブシステム210によって決定されたシーン220及び入力画像201は、シーンの照明推定のために照明条件決定サブシステム230に入力することができる。いくつかの実装では、シーン220内の照明条件を推定するために、照明条件決定サブシステム230は、シーン220内の環境光源をモデル化し得る。
いくつかの実装では、照明条件決定サブシステム230は、座標系の原点を中心とし、上述した座標系の軸と整列した立方体を使用して、シーン220内の環境光源をモデル化し得る。立方体を展開することにより十字形状の画像を得ることができる。したがって、シーン220内の環境光源は、十字形画像の画像によって表すことができる。いくつかの他の実装では、照明条件決定サブシステム230は、球形又は他の形状などの3次元形状を使用して、シーン220内の環境光源をモデル化し得る。これに対応して、シーン220内の環境光源は、球形又は他の形状など、3次元形状に対応する他の形状の画像によって表すことができる。説明を容易にするために、この文脈では、十字形画像(例えば、図2の十字形画像240によって示されるように)は、シーン220における環境光源の表現の例として役立つ。これは、本明細書に記載された主題の範囲に対するいかなる限定も示唆することなく、説明の目的のためにのみ提供されることが理解されるべきである。本明細書に記載される主題は、他の表現を使用してシーン内の環境光源をモデル化することができる。
いくつかの実装では、光源を表す十字形画像240は、シーン220内の環境光源の複数の部分にそれぞれ対応する複数のピクセルを含み得る。例えば、複数のピクセルのそれぞれのピクセル値は、シーン220内の環境光源の複数の部分のそれぞれの放射照度強度を表し得る。この文脈では、シーン220内の環境光源を表す画像240内の各ピクセルを「基準の光ベース」、シーン220内の環境光源を表す画像240を「環境マップ」と呼ぶ。いくつかの実装では、照明条件決定サブシステム230は、シーン220及び入力画像201に基づいて、環境マップ240内の複数のピクセルの各ピクセル値を決定することができ、それによってシーン220内の照明条件を決定する。
照明条件決定サブシステム230の構成及び動作原理を以下に図3を参照して詳細に説明する。
動作原理
図3は、本明細書に記載される主題のいくつかの実装による、照明条件決定サブシステム230のブロック図を示す。図3に示すように、照明条件決定サブシステム230は、概して、放射照度マップ生成モジュール320、第1のニューラルネットワーク340、放射照度マップ生成モジュール360及び第2のニューラルネットワーク350を含み得る。照明条件決定サブシステム230の構造及び機能性は、本明細書に記載される主題の範囲に対するいかなる限定も示唆することなく、説明の目的のためにのみ提供されることが理解されるべきである。本明細書に記載される主題の実装は、異なる構造及び/又は機能性で具体化することができる。
上述したように、照明条件決定サブシステム230は、シーン220内の環境光源を特定の形状の画像として表現することができる。この文脈では、環境光源を表す例として、解像度4×4×3ピクセルの十字形画像が使用される。しかし、これは、本明細書に記載される主題の範囲に対するいかなる限定も示唆することなく、一例としてのみ提供されることが理解されるべきである。いくつかの実装では、照明条件決定サブシステム230は、シーン220内の環境光源を所定の値で表す十字形画像(すなわち、初期環境マップ310)内の4×4×3ピクセルの値を初期化し得る。例えば、初期環境マップ310内のピクセルの各々の値は、正規化された放射照度強度「1」で初期化することができる。
放射照度マップ生成
いくつかの実装では、放射照度マップ生成モジュール320は、シーン220に基づいて、シーン220内の光源によって引き起こされる入力画像201内の実オブジェクトのシェーディング及び影情報を決定し得る。具体的には、放射照度マップ生成モジュール320は、シーン220及び初期環境マップ310に基づいて、初期環境マップ310内の複数のピクセルに対応する第1の放射照度マップのセット330を生成し得る。本明細書に記載される「放射照度マップ」は、入力画像内のピクセルの各々に対する光源の放射束(radiant flux)を記録し、これは、光源によって引き起こされる入力画像のシェーディング及び影情報を反映することができる。例えば、放射照度マップの第1のセットの各々は、入力画像201と同じサイズを有し得、光源のそれぞれの部分によって引き起こされる入力画像201内の実オブジェクトのシェーディング及び影情報を表し得る。
いくつかの実装では、光源上のある点L(例えば、光源を表す十字形画像内のピクセル)が与えられると、それに対応する放射照度マップが、入力画像201中のピクセルの各々に対する点Lの放射束を記録することができる。例えば、入力画像201のピクセルxについて、光源上の点Lによって生じる放射束は、以下のように表すことができる:
Figure 2021524628
ここで、N(x)は、ピクセルxにおける垂直方向を表し、lは、光源上の点Lからピクセルxまでの照明方向を表し、L(l)は、方向lに沿った放射照度強度を表し、V(x,l)は、方向lに沿った光源上の点Lまでのピクセルxの視認度を表す。同様に、所与の光源上の複数の点の組み合わせについては、複数の点の組み合わせによって生じる放射束は、式(1)を積分することによって、決定されることができる。例えば、入力画像201のピクセルxについて、光源上の複数の点(例えば、「Ω+」と表される)の組み合わせを生じさせた放射束は、以下のように表すことができる:
Figure 2021524628
式(1)に基づいて、放射照度マップ生成モジュール320は、初期環境マップ310内のピクセル(すなわち、シーン220内の環境光源の点)に対して、それに対応する放射照度マップを生成することができる。この方法では、放射照度マップ生成モジュール320は、初期環境マップ310内の複数のピクセルと1対1の対応を有する第1の放射照度マップのセット330を生成することができる。
初期化ネットワーク
図3に示すように、第1の放射照度マップのセット330及び入力画像201は、第1の訓練されたニューラルネットワーク340(本明細書では「初期化ネットワーク」とも呼ばれる)に入力されることができる。例えば、第1のニューラルネットワーク340は、初期環境マップ310内の複数のピクセルのそれぞれのピクセル値を決定し、したがって環境マップ310に対応する環境マップ350を生成するように訓練することができる畳み込みニューラルネットワーク(CNN)であり得る。照明推定は、ここに記載される主題の実装が、シーン中の実オブジェクトの材料特性に関するいかなる仮定も必要とせずに、リモートビュー画像及びクローズビュー画像の両方に適用可能であるように、入力画像内のシェーディング及び影情報を表す放射照度マップをニューラルネットワークに提供することによって実行される。CNNは、本明細書において第1のニューラルネットワーク340の一例として提供されるが、本明細書に記載される主題の実装は、他のタイプのニューラルネットワークにも適用可能であり、本明細書に記載される主題の範囲は、この態様に限定されないことを理解されたい。
図4は、本明細書に記載される主題のいくつかの実装による照明推定のための初期化ネットワーク340の動作図である。図4は、入力画像201と、初期環境ネットワーク310に基づいて生成される第1の放射照度マップのセット330とを示す。図4に示すように、初期化ネットワーク340は、入力画像201及び第1の放射照度マップのセット330に基づいて初期化環境310内の複数のピクセルのそれぞれのピクセル値を決定することができ、したがって、環境マップ310に対応する環境マップ350を生成することができる。
いくつかの実装では、初期化ネットワーク340内部で、入力画像201は3層エンコーダによって処理され、各放射照度マップ330は別の2層エンコーダによって別々に処理され得る。各放射照度マップ330に対するエンコーダは、同じ構造及び重みを共有することができる。エンコーダの各層は、畳み込み層、バッチ正規化層及び励起層(例えば、活性化関数として正規化線形ユニット(ReLU)を使用する)を含み得、次いで、最大プーリング層によって次のスケールにダウンサンプリングされ得る。エンコーダを通過した後、各放射照度マップ330及び入力画像201から抽出された特徴マップ(feature maps)は、連結され、次いで、別の3層のエンコーダによって処理される。最後に、初期環境マップ310内の複数のピクセルのそれぞれのピクセル値は、3層エンコーダが後に続く完全に接続された(FC)層から得ることができる。これらのピクセル値は、環境マップ310に対応する環境マップ350に編成されることができる。
幾つかの実装では、構築された訓練データセットは初期化ネットワーク340を訓練するために使用されることができる。例えば、3Dオブジェクト及び環境マップのグループからランダムに選択された3Dオブジェクト及び環境マップは、画像をレンダリングし生成するために使用されることができる。次に、レンダリング画像及びレンダリング中に適用される環境マップは、初期化ネットワーク340の訓練データセットに収集されることができる。初期化ネットワーク340の訓練手順の間、例えば、L2損失関数が、訓練データと予測結果との間の差を測定するために使用されることができる。
図3に戻ると、環境マップ350を生成することによって、照明条件決定サブシステム230は、シーン220内の照明条件を予備的に決定することができる。しかし、シーン内のオブジェクトの形状及びレイアウトが多様であるため、シーン内の照明条件と入力画像201及びデプスマップ202との間のマッピングは、非線形であり得る。この問題を解決するために、照明条件決定サブシステム230は、シーン220内の照明条件をより正確に決定するために、決定された環境マップ350内のピクセルをさらにリファインする(refine)ことができる。
リファインメントネットワーク
いくつかの実装では、照明条件決定サブシステム230は、環境マップ350内の各ピクセルをリファインし(refine)てサブピクセルにし、複数のリファインされたサブピクセルのそれぞれの値を決定することによって、シーン220内の照明条件をより正確に推定することができる。例えば、いくつかの実装では、照明条件決定サブシステム230は、4分木(quadtree)に基づいて環境マップ350内のピクセルをリファインすることができる。すなわち、照明条件決定サブシステム230は、環境マップ350内の各ピクセルを4つのサブピクセルにリファインし、4つのサブピクセルの値を対応して決定することができる。いくつかの他の実装では、照明条件決定サブシステム230はまた、環境マップ350内のピクセルを他の方法で分割することもできる。例えば、各ピクセルは、9つのサブピクセル、16のサブピクセル等に分割することができる。
図3に示すように、いくつかの実装において、シーン220内の照明条件をより正確に決定するために、環境マップ350及びシーン220は、放射照度マップ生成モジュール360に入力され得る。いくつかの実装では、環境マップ350内のピクセル(例えば、ゼロではない放射照度強度を有するピクセル)に対して、放射照度マップ生成モジュール360は、ピクセルに関連する第2の放射照度マップのセット370を生成し得る。第2の放射照度マップのセット370及び入力画像201は、第2の訓練されたニューラルネットワーク380(これは、本明細書では「リファインメントネットワーク」とも呼ばれる)に入力することができる。例えば、第2のニューラルネットワーク380は、畳み込みニューラルネットワーク(CNN)であり得、これは、環境マップ350内のピクセルが第2の放射照度マップのセット370及び入力画像201に基づいて複数のサブピクセルに分割されるべきかどうかを決定し、複数のサブピクセルのそれぞれの値を決定するように訓練されることができる。この方法では、照明条件決定サブシステム230は、環境マップ350に対応するリファインされた環境マップ240を生成することができる。CNNは、本明細書において第2のニューラルネットワーク380の一例として提供されるが、本明細書に記載される主題の実装は、他のタイプのニューラルネットワークにも適用可能であり、本明細書に記載される主題の範囲は、この態様に限定されないことが理解されるべきである。
は解像度4×4×3の環境マップ350を表すために使用され、Lは、4分木に基づいて環境マップ350をリファインすることによって得られる解像度8×8×3の環境マップ240(例えば、解像度8×8×3の環境マップ)を表すことが仮定される。環境マップ350内のuth(第u)列及びvth(第v)行に位置するピクセルがL(u,v)として表わされると仮定すると、環境マップ240内のピクセルに対応する4つのサブピクセルは、L(2u,2v)、L(2u+1,2v)、L(2u,2v+1)及びL(2u+1,2v+1)として表されることができる。
いくつかの実装では、シーン220内の照明条件を可能な限り正確に決定するために、環境マップ350内のピクセルL(u,v)に対して、放射照度マップ生成モジュール360は、リファインメントネットワーク380の入力として、次のより細かいレベルで、環境マップ240内のすべてのピクセルについてそれぞれの放射照度マップを生成し得る。しかし、この方法は、放射照度マップの数の著しい増加、及び、リファインメントネットワーク380に関連する計算及び記憶コストの著しい成長をもたらす。
この問題を解決するために、いくつかの実装では、環境マップ350内のピクセルL(u,v)に対して、放射照度マップ生成モジュール360は、リファインメントネットワーク380の入力として所定の数の放射照度マップを生成し得る。例えば、環境マップ350内のピクセルL(u,v)に対して、放射照度マップ生成モジュール360は、ピクセルL(u,v)に関連する13の放射照度マップを生成し得る。例えば、13の放射照度マップは、ピクセルL(u,v)から分割された4つのサブピクセルL(2u,2v)、L(2u+1,2v)、L(2u,2v+1)及びL(2u+1,2v+1)に対応する4つの放射照度マップ;ピクセルL(u,v)に隣接する8つのピクセル(すなわち、L(u−1,v−1)、L(u−1,v)、L(u−1,v+1)、L(u,v−1)、L(u,v+1)、L(u+1,v―1)、L(u+1,v)及びL(u+1,v+1)に対応する8つの放射照度マップ;及び環境マップ350内のL(u,v)及び隣接する8つのピクセル以外の残りのピクセルの組み合わせに対応する放射照度マップを含み得る。
第2の放射照度マップのセット370は、上述の式(1)又は(2)に基づいて生成され得る。具体的には、放射照度マップ生成モジュール360は、上述した式(1)に基づいて、ピクセルL(u,v)からそれぞれ分割された4つのサブピクセルL(2u,2v)、L(2u+1,2v)、L(2u,2v+1)、及びL(2u+1,2v+1)に対応する4つの放射照度マップを生成し得る。同様に、放射照度マップ生成モジュール360は、上記の式(1)に基づいて、ピクセルL(u,v)に隣接する8つのピクセル(すなわち、L(u−1,v−1)、L(u−1,v)、L(u−1,v+1)、L(u,v−1)、L(u,v+1)、L(u+1,v−1)、L(u+1,v)及びL(u+1,v+1)にそれぞれ対応する8つの放射照度マップを生成し得る。加えて、放射照度マップ生成モジュール360は、上記式(2)に基づいて、ピクセルL(u,v)及び環境マップ350内の隣接する8ピクセル以外の残りのピクセルの組み合わせに対応する放射照度マップを生成し得る。上述の13の放射照度マップは、リファインされた環境マップ240を生成するために使用されるように、リファインメントネットワーク380の入力として作用することができる。
図5は、本明細書に記載される主題のいくつかの実装による照明推定のためのリファインメントネットワーク380の動作図を示す。図5は、入力画像201及び環境マップ350内のピクセル540(本明細書では「第1のピクセル」とも呼ばれる)から生成された第2の放射照度マップのセット370を示す。図5に示すように、いくつかの実装では、図3に示すように、放射照度マップ生成モジュール360によって生成された第2の放射照度マップのセット370は、ピクセル540から分割された4つのサブピクセルに対応する4つの放射照度マップ510−1...510−4、ピクセル540に隣接する8つのピクセルに対応する8つの放射照度マップ520−1....520−8、及び環境350内のピクセル540及び8つの隣接するピクセル以外の残りのピクセルの組み合わせに対応する放射照度マップ530を含み得る。リファインメントネットワーク380は、第2の放射照度マップのセット370及び入力画像201に基づいて、ピクセル540が分割されるべきであるかどうかを決定し得る。リファインメントネットワーク380が、ピクセル540が分割されるべきであると決定する場合、リファインメントネットワーク380は、ピクセル540から分割された4つのサブピクセルのそれぞれの値をさらに決定し得る。このようにして、環境マップ350に対応するリファインされた環境マップ240を生成することができる。
いくつかの実装では、リファインメントネットワーク380の内部構造は、初期化ネットワーク340の内部構造と同様であり得る。具体的には、入力画像201及び各放射照度マップ370は、異なるエンコーダによって別々に処理され得る。第2の放射照度マップのセット370及び入力画像201が別々のエンコーダによって処理された後、抽出された特徴を連結し、別の3層のエンコーダに供給することができる。最後に、出力結果(すなわち、ピクセルが分割されるかどうか、及びピクセルから分割されるサブピクセルのそれぞれの値)は、3層エンコーダに続く完全接続(FC)層から得ることができる。特に、リファインメントネットワーク380では、4つの放射照度マップ510−1
... 510−4に対する4つのエンコーダが重みを共有することができる。同様に、8つの放射照度マップ520−1 ... 520−8に対する8つのエンコーダが重みを共有することができる。ピクセルが分割されるべきかどうかの決定に関して、リファインメントネットワーク380は、それが分割されるべき確率及びそれが分割されるべきでない確率を出力することができる。次いで、ソフトマックス層が、それらを最終決定に変換し得る。4つのサブピクセルの値に対して、それらの放射照度強度の間により強いコントラストが存在することがある。幾つかの実装では、出力値の範囲は、複数の間隔に一様に分割することができ、各サブピクセルの値は、離散化された多項分類で出力することができる。
いくつかの実装では、構築されたデータセットを使用して、リファインメントネットワーク380を訓練することができる。例えば、画像は、3Dオブジェクトと、3Dオブジェクトのセット及び照明条件からランダムに選択された照明条件を使用してレンダリングすることができる。ランダムに選択された各照明条件に対して、予め定義されたポリシーを使用して、その最適な十字形画像表現を決定することができる。その後、リファインメントネットワーク380は、入力画像から最適な十字形画像表現へのマッピングを近似するように訓練されることができる。いくつかの実装では、例えば、クロスエントロピー損失関数を使用して、分割決定及びサブピクセル値の両方に対してリファインメントネットワーク380を訓練することができる。
図3は、2つのレベルのニューラルネットワーク(すなわち、初期化ネットワーク340及びリファインメントネットワーク380)を有する照明条件決定サブシステム230の例を示すのみであるが、本明細書に記載される主題の実装は、より少ないレベル又はより多いレベルのニューラルネットワークを使用する照明条件の推定に適用可能であることが理解されるべきである。例えば、いくつかの実施態様では、計算コストを低減するために、1つのレベルのニューラルネットワーク(例えば、初期化ネットワーク340)のみを使用することができる。あるいは、いくつかの他の実装では、より正確な結果を得るために、より多いレベルのリファインメントネットワーク(例えば、2つ以上のレベルのリファインメントネットワーク)を使用することができる。
図6は、本明細書に記載される主題のいくつかの実装による、複数のレベルのニューラルネットワーク(例えば、初期化ネットワーク及び2つのレベルのリファインメントネットワーク)を使用して、シーン内の照明条件を漸進的に決定する図を示す。図6は、初期化ネットワークによって決定される環境マップ610を示す。第1のレベルのリファインメントネットワークは、環境マップ610内のピクセル601、602...605の各々に対して、ピクセルがさらに分割されるべきかどうかを決定し、分割されるべきと決定されるピクセル601、603及び605の各々に対して、ピクセルから分割される4つのサブピクセルのそれぞれの値を決定する。第2のレベルのリファインメントネットワークは、第1のレベルのリファインメントネットワークから出力される環境マップ内のピクセル606、607、...611の各々に対して、ピクセルがさらに分割されるべきかどうかを決定し、分割されるべきと決定されるピクセル606、607及び610の各々に対して、ピクセルから分割される4つのサブピクセルの各々の値を決定する。このようにして、最終的な環境マップ620(例えば、16×16×3ピクセルの解像度の)を得ることができる。
本明細書に記載された主題の実装による照明推定の解決策が、上述されている。以上の説明から、本明細書に記載される主題による照明推定の解決策は、シーン内の実オブジェクトの材料特性を仮定することなく、入力画像と入力画像のシェーディング及び影情報とに基づいて、複数のレベルのニューラルネットワークを用いて、シーン内の照明条件を漸進的に推定することができることが分かる。シーン内の光源を基準の光ベースのセットの線形結合でモデル化し、ニューラルネットワークの入力として基準の光ベースのセットからレンダリングされる放射照度マップのセットを利用することにより、この解決策は照明推定の複雑さを大幅に単純化し、結果の精度を改善することができる。さらに、マルチツリーベースの漸進的推定を利用することにより、この解決策は各レベルのニューラルネットワークの訓練と計算コストを低減し、そのロバスト性を改善することができる。この解決策に従って得られた照明条件を用いてレンダリングされる仮想オブジェクトは、実オブジェクトと一致する現実的な効果を示すことができる。
例示のプロセス
図7は、本明細書に記載される主題のいくつかの実装による照明推定のためのプロセス700のフローチャートを示す。プロセス700は、例えば、図1に示すように、画像処理モジュール122によって実現することができる。プロセス700は、図示されていない追加のブロックをさらに含むことができ、及び/又は図示されているブロックを省略することができることが理解されるべきである。本明細書に記載される主題の範囲は、この態様に限定されない。
ブロック710において、画像処理モジュール122は、実オブジェクトに関する入力画像及び入力画像に対応するデプスマップを取得する。
ブロック720では、画像処理モジュール122は、デプスマップに基づいて入力画像内のシーンを決定する。
ブロック730では、画像処理モジュール122は、シーンに基づいて、シーン内の光源によって引き起こされる実オブジェクトのシェーディング及び影情報を決定する。
ブロック740では、画像処理モジュール122は、入力画像と、シェーディング及び影情報とに基づいて、光源によって引き起こされるシーン内の照明条件を決定する。
いくつかの実装では、プロセス700はさらに:シーン及び照明条件に基づいて、実オブジェクト及び仮想オブジェクトを有する出力画像を生成することを含み、出力画像は、入力画像のシーン内に仮想オブジェクトを合成する。
いくつかの実装では、シーンは、実オブジェクトの配置のための表面を含む。シーンを決定することは:デプスマップを点群に変換することと;前記点群内の複数の点を面に適合させることであって、複数の点は表面を表す、適合させることと;前記面の上に位置する点群内の複数の点を3次元メッシュに再構成することであって、面及び3次元メッシュは、入力画像内のシーンを共に表す、再構成すること;とを含む。
いくつかの実装では、光源は、所定の形状の画像によって表され、画像は、光源の複数の部分に対応する複数のピクセルを含み、複数のピクセルのそれぞれのピクセル値は、光源の複数の部分のそれぞれの放射照度強度を表す。いくつかの実装では、シェーディング及び影情報を決定することは:画像内の複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;シーン及び初期化された画像に基づいて、複数のピクセルに対応する第1の放射照度マップのセットを生成することとを含み、放射照度マップの各々は、光源の対応する部分によって引き起こされる実オブジェクトの対応するシェーディング及び影情報を表す。幾つかの実装では、シーン内の照明条件を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
いくつかの実装では、光源を表す画像は、十字形状の画像である。
幾つかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
幾つかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を漸進的に決定することを含む。
いくつかの実装では、複数の訓練されたニューラルネットワークは、少なくとも第1のニューラルネットワーク及び第2のニューラルネットワークを含む。画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、第1のニューラルネットワークを使用して、複数のピクセルの第1のピクセルの第1のピクセル値及び第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;第1のピクセル、少なくとも1つのピクセル及びシーンに基づいて第2の放射照度マップのセットを生成することであって、第2の放射照度マップのセットは、第1のピクセルの複数のサブピクセル、少なくとも1つのピクセル、並びに複数のピクセルのうちの第1のピクセル及び少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;入力画像及び第2の放射照度マップのセットに基づいて、第1のピクセルが第2のニューラルネットワークを使用して分割されるべきかどうかを決定することと;第1のピクセル値が分割されるべきでないことを決定することに応答して、第1のピクセル値を第1のピクセルの最終ピクセルとして使用すること;を含む。
幾つかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することはさらに:第1のピクセルが分割されるべきであるという決定に応答して、第1のピクセルを複数のサブピクセルに分割することと、複数のサブピクセルのそれぞれのサブピクセル値を決定することとを含む。
例示の実装
本明細書に記載される主題のいくつかの例示的な例示の実装が、以下に挙げられる。
第1の態様では、本明細書に記載される主題は:処理ユニットと;処理ユニットに結合され、処理ユニットによる実行のための命令を記憶するメモリと;を有する電子デバイスを提供する。命令は、処理ユニットによって実行されるとき、デバイスに:実オブジェクトについての入力画像及び入力画像に対応するデプスマップを取得することと;デプスマップに基づいて入力画像内のシーンを決定することと;シーンに基づいて、シーン内の光源によって引き起こされる実オブジェクトのシェーディング及び影情報を決定することと;入力画像と、シェーディング及び影情報とに基づいて光源によって引き起こされるシーン内の照明条件を決定することと;を含む動作を実行させる。
いくつかの実装では、動作はさらに:シーン及び照明条件に基づいて、実オブジェクト及び仮想オブジェクトを含む出力画像を生成することを含み、出力画像は入力画像のシーン内に仮想オブジェクトを合成する。
いくつかの実装では、シーンは、実オブジェクトの配置のための表面を含む。シーンを決定することは:デプスマップを点群に変換することと;点群内の複数の点を面に適合させることであって、複数の点は表面を表す、適合させることと;面の上に位置する点群内の複数の点を3次元メッシュに再構成することであって、面及び3次元メッシュは、入力画像内のシーンを共に表す、再構成することと:を含む。
いくつかの実装では、光源は、所定の形状の画像によって表され、画像は、光源の複数の部分に対応する複数のピクセルを含み、複数のピクセルのそれぞれのピクセル値は、光源の複数の部分のそれぞれの放射照度強度を表す。いくつかの実装では、シェーディング及び影情報を決定することは:画像内の複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;シーン及び初期化された画像に基づいて、複数のピクセルに対応する第1の放射照度マップのセットを生成することとを含み、放射照度マップの各々は、光源の対応する部分によって引き起こされる実オブジェクトの対応するシェーディング及び影情報を表す。いくつかの実装では、シーン内の照明条件を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
いくつかの実装では、光源を表す画像は、十字形状の画像である。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を漸進的に決定することを含む。
いくつかの実装では、複数の訓練されたニューラルネットワークは、少なくとも第1のニューラルネットワーク及び第2のニューラルネットワークを含む。画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、第1のニューラルネットワークを使用して、複数のピクセルの第1のピクセルの第1のピクセル値及び第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;第1のピクセル、少なくとも1つのピクセル及びシーンに基づいて第2の放射照度マップのセットを生成することであって、第2の放射照度マップのセットは、第1のピクセルの複数のサブピクセル、少なくとも1つのピクセル、並びに複数のピクセルのうちの第1のピクセル及び少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;入力画像及び第2の放射照度マップのセットに基づいて、第1のピクセルが第2のニューラルネットワークを使用して分割されるべきかどうかを決定することと;第1のピクセル値が分割されるべきでないことを決定することに応答して、第1のピクセル値を第1のピクセルの最終ピクセルとして使用することと;を含む。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することはさらに:第1のピクセルが分割されるべきであるということを決定することに応答して、第1のピクセルを複数のサブピクセルに分割することと;複数のサブピクセルのそれぞれのサブピクセル値を決定することとを含む。
第2の態様では、本明細書に記載の主題は、コンピュータに実装される方法を提供する。本方法は:実オブジェクトに関する入力画像及び入力画像に対応するデプスマップを取得することと;デプスマップに基づいて入力画像内のシーンを決定することと;シーンに基づいて、シーン内の光源によって引き起こされる実オブジェクトのシェーディング及び影情報を決定することと;入力画像と、シェーディング及び影情報とに基づいて、光源によって引き起こされるシーン内の照明条件を決定することと;を含む。
いくつかの実装では、本方法はさらに:シーン及び照明条件に基づいて、実オブジェクト及び仮想オブジェクトを含む出力画像を生成することをさらに含み、出力画像は、入力画像のシーン内に仮想オブジェクトを合成する。
いくつかの実装では、シーンは、実オブジェクトの配置のための表面を含む。シーンを決定することは:デプスマップを点群に変換することと;点群内の複数の点を面に適合させることであって、複数の点は、表面を表す、適合させることと;面の上に位置する点群内の複数の点を3次元メッシュに再構成することであって、面及び3次元メッシュは、入力画像内のシーンを共に表す、再構成することと;を含む。
いくつかの実装では、光源は、所定の形状の画像によって表され、画像は、光源の複数の部分に対応する複数のピクセルを含み、複数のピクセルのそれぞれのピクセル値は、光源の複数の部分のそれぞれの放射照度強度を表す。いくつかの実装では、シェーディング及び影情報を決定することは:画像内の複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;シーン及び初期化された画像に基づいて、複数のピクセルに対応する第1の放射照度マップのセットを生成することと;を含み、放射照度マップの各々は、光源の対応する部分によって引き起こされる実オブジェクトの対応するシェーディング及び影情報を表す。いくつかの実装では、シーン内の照明条件を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
いくつかの実装では、光源を表す画像は、十字形状の画像である。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を決定することを含む。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて画像内の複数のピクセルのそれぞれのピクセル値を漸進的に決定することを含む。
いくつかの実装では、複数の訓練されたニューラルネットワークは、少なくとも第1のニューラルネットワーク及び第2のニューラルネットワークを含む。画像内の複数のピクセルのそれぞれのピクセル値を決定することは:入力画像及び第1の放射照度マップのセットに基づいて、第1のニューラルネットワークを使用して、複数のピクセルの第1のピクセルの第1のピクセル値及び第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;第1のピクセル、少なくとも1つのピクセル及びシーンに基づいて第2の放射照度マップのセットを生成することであって、第2の放射照度マップのセットは、第1のピクセルの複数のサブピクセル、少なくとも1つのピクセル、並びに複数のピクセルのうちの第1のピクセル及び少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;入力画像及び第2の放射照度マップのセットに基づいて、第1のピクセルが第2のニューラルネットワークを使用して分割されるべきであるかどうかを決定することと;第1のピクセル値が分割されるべきでないと決定することに応答して、第1のピクセル値を第1のピクセルの最終ピクセル値として使用することと;を含む。
いくつかの実装では、画像内の複数のピクセルのそれぞれのピクセル値を決定することはさらに:第1のピクセルが分割されるべきであると決定することに応答して、第1のピクセルを複数のサブピクセルに分割することと;複数のサブピクセルのそれぞれのサブピクセル値を決定することと;を含む。
第3の態様では、本明細書に記載される主題は、非一過性コンピュータ記憶媒体に実体的に記憶され、デバイスによって実行されるとき、デバイスに本明細書に記載される主題の第2の態様における方法を実施させるコンピュータ実行可能命令を含む、コンピュータプログラム製品を提供する。
第4の態様では、本明細書に記載される主題は、その上に記憶されるコンピュータ実行可能命令を有するコンピュータ読取可能媒体を提供し、コンピュータ実行可能命令は、デバイスによって実行されるとき、デバイスに本明細書に記載される主題の第2の態様における方法を実行させる。
本明細書に記載される機能は、少なくとも部分的に、1つ又は複数のハードウェア論理コンポーネントによって実行することができる。例えば、限定されるものではないが、使用することができるハードウェア論理コンポーネントの例示的なタイプは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンアチップシステム(SOC)、複雑なプログラマブルロジックデバイス(CPLD)などを含む。
本明細書に記載される主題の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書かれ得る。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供され得、その結果、プログラムコードは、プロセッサ又はコントローラによって実行されるとき、フローチャート及び/又はブロック図に指定された機能/動作を実行させる。プログラムコードは、完全にマシン上で、部分的にマシン上で、スタンドアロンソフトウェアパッケージとして、部分的にマシン上で且つ部分的にリモートマシン上で、又は完全にリモートマシン又はサーバ上で、実行し得る。
本開示の文脈において、機械可読媒体は、命令実行システム、装置、若しくはデバイスによる使用するための又はこれらと関連して使用するためのプログラムを含み得る又は記憶し得る任意の有形媒体であり得る。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であり得る。機械可読媒体は、電子、磁気、光学、電磁、赤外線、もしくは半導体システム、装置、もしくはデバイス、又は前述の任意の適切な組み合わせを含み得るが、これらに限定されない。機械可読媒体のより具体的な例としては、1つ又は複数のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読取り専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、又はこれらの適切な組み合わせが挙げられる。
さらに、動作が特定の順序で示されているが、これは、このような動作が、図示された特定の順序で又は順番に行われること、又は、望ましい結果を達成するために、図示されたすべての動作が行われることを要求するものとして理解されるべきではない。特定の状況下では、マルチタスク及び並列処理が有利であり得る。同様に、いくつかの特定の実装の詳細が上記の議論に含まれているが、これらは、本明細書に記載される主題の範囲に対する限定としてではなく、むしろ特定の実装に固有であり得る特徴の説明として解釈されるべきである。別々の実装のコンテキストで記述される特定の特徴は、単一の実装において組み合わせて実装されてもよい。逆に、単一の実装のコンテキストで記載される種々の特徴は、複数の実装において別々に又は任意の適切なサブコンビネーションで実装されてもよい。
主題は、構造的特徴及び/又は方法論的動作に特有の言語で記載されているが、添付の請求項に記載された主題は、必ずしも上記の特定の特徴又は動作に限定されるものではないことを理解されたい。むしろ、上述の特定の特徴及び動作は、特許請求の範囲を実施する例示的な形態として開示される。

Claims (15)

  1. 電子デバイスであって:
    処理ユニットと;
    前記処理ユニットに結合され、前記処理ユニットによる実行のための命令を記憶するメモリであって、前記命令は、前記処理ユニットによって実行されるとき、前記デバイスに:
    実オブジェクトについての入力画像及び前記入力画像に対応するデプスマップを取得することと;
    前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
    前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することと;
    前記入力画像と、前記シェーディング及び影情報とに基づいて前記光源によって引き起こされる前記シーン内の照明条件を決定することと;
    を含む動作を実行させる、メモリと;
    を有する、電子デバイス。
  2. 前記動作はさらに:
    前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することを含み、前記出力画像は前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、
    請求項1に記載のデバイス。
  3. 前記シーンは、前記実オブジェクトの配置のための表面を含み、前記シーンを決定することは:
    前記デプスマップを点群に変換することと;
    前記点群内の複数の点を面に適合させることであって、前記複数の点は前記表面を表す、適合させることと;
    前記面の上に位置する前記点群内の前記複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと:を含む、
    請求項1に記載のデバイス。
  4. 前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
    前記シェーディング及び影情報を決定することは:
    前記画像内の前記複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;
    前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含み、
    前記シーン内の前記照明条件を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することを含む、
    請求項1に記載のデバイス。
  5. 前記光源を表す前記画像は、十字形状の画像である、
    請求項4に記載のデバイス。
  6. 前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
    請求項4に記載のデバイス。
  7. 前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を漸進的に決定することを含む、
    請求項4に記載のデバイス。
  8. 前記複数の訓練されたニューラルネットワークは、少なくとも第1のニューラルネットワーク及び第2のニューラルネットワークを含み、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記第1のニューラルネットワークを使用して、前記複数のピクセルの第1のピクセルの第1のピクセル値及び前記第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;
    前記第1のピクセル、前記少なくとも1つのピクセル及び前記シーンに基づいて第2の放射照度マップのセットを生成することであって、前記第2の放射照度マップのセットは、前記第1のピクセルの複数のサブピクセル、前記少なくとも1つのピクセル、並びに前記複数のピクセルのうちの前記第1のピクセル及び前記少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;
    前記入力画像及び前記第2の放射照度マップのセットに基づいて、前記第1のピクセルが前記第2のニューラルネットワークを使用して分割されるべきかどうかを決定することと;
    前記第1のピクセル値が分割されるべきでないと決定することに応答して、前記第1のピクセル値を前記第1のピクセルの最終ピクセルとして使用することと;を含む、
    請求項7に記載のデバイス。
  9. 前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することはさらに:
    前記第1のピクセルが分割されるべきであると決定することに応答して、前記第1のピクセルを複数のサブピクセルに分割することと;
    前記複数のサブピクセルのそれぞれのサブピクセル値を決定することと;を含む、
    請求項8に記載のデバイス。
  10. コンピュータに実装される方法であって:
    実オブジェクトに関する入力画像及び前記入力画像に対応するデプスマップを取得することと;
    前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
    前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することと;
    前記入力画像と、前記シェーディング及び影情報とに基づいて、前記光源によって引き起こされる前記シーン内の照明条件を決定することと;を含む、
    方法。
  11. 前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することをさらに含み、前記出力画像は、前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、
    請求項10に記載の方法。
  12. 前記シーンは、前記実オブジェクトの配置のための表面を含み、前記シーンを決定することは:
    前記デプスマップを点群に変換することと;
    前記点群内の複数の点を面に適合させることであって、前記複数の点は、前記表面を表す、適合させることと;
    前記面の上に位置する前記点群内の複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと;を含む、
    請求項10に記載の方法。
  13. 前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
    前記シェーディング及び影情報を決定することは:
    前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を所定の値で初期化することと;
    前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含み、
    前記シーン内の前記照明条件を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
    請求項10に記載の方法。
  14. 前記光源を表す前記画像は、十字形状の画像である、
    請求項13に記載の方法。
  15. 前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
    前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
    請求項13に記載の方法。
JP2020564910A 2018-05-24 2019-05-13 照明推定 Active JP7386812B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810510214.1 2018-05-24
CN201810510214.1A CN110533707B (zh) 2018-05-24 2018-05-24 照明估计
PCT/US2019/031907 WO2019226366A1 (en) 2018-05-24 2019-05-13 Lighting estimation

Publications (3)

Publication Number Publication Date
JP2021524628A true JP2021524628A (ja) 2021-09-13
JPWO2019226366A5 JPWO2019226366A5 (ja) 2022-04-22
JP7386812B2 JP7386812B2 (ja) 2023-11-27

Family

ID=66655477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564910A Active JP7386812B2 (ja) 2018-05-24 2019-05-13 照明推定

Country Status (6)

Country Link
US (1) US11151780B2 (ja)
EP (1) EP3803803A1 (ja)
JP (1) JP7386812B2 (ja)
KR (1) KR102612808B1 (ja)
CN (1) CN110533707B (ja)
WO (1) WO2019226366A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998669B (zh) * 2017-08-08 2023-12-08 索尼公司 图像处理装置和方法
CN112183551A (zh) * 2019-07-02 2021-01-05 佳能株式会社 光照颜色预测方法、图像处理方法、装置及存储介质
JP7300517B2 (ja) * 2019-11-21 2023-06-29 株式会社ソニー・インタラクティブエンタテインメント 入射光情報取得方法、入射光情報取得システム、および情報処理装置
WO2021149526A1 (ja) * 2020-01-23 2021-07-29 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
KR20230010714A (ko) * 2020-06-22 2023-01-19 구글 엘엘씨 증강 현실의 깊이 기반 재조명
CN111932641B (zh) 2020-09-27 2021-05-14 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质
KR102459771B1 (ko) * 2021-11-15 2022-10-28 한국전자기술연구원 이미지 딥러닝 기반 객체의 실시간 메쉬화 장치 및 방법
KR20230092514A (ko) * 2021-12-17 2023-06-26 삼성전자주식회사 렌더링 방법 및 장치
KR102559691B1 (ko) * 2022-04-04 2023-07-26 주식회사 리빌더에이아이 뉴럴 렌더링 기반 형상 색상 통합 3d 메시 복원 방법 및 장치
KR20240054111A (ko) * 2022-10-18 2024-04-25 삼성전자주식회사 전자 디바이스, 전자 디바이스의 동작 방법 및 이미지 편집 시스템
CN117496359B (zh) * 2023-12-29 2024-03-22 浙江大学山东(临沂)现代农业研究院 基于三维点云的植物种植布局监测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2013156670A (ja) * 2012-01-26 2013-08-15 Fujitsu Ltd 表示方法及び表示装置
JP2014164497A (ja) * 2013-02-25 2014-09-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2015185176A (ja) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262770B2 (en) * 2002-03-21 2007-08-28 Microsoft Corporation Graphics image rendering with radiance self-transfer for low-frequency lighting environments
US6791542B2 (en) 2002-06-17 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Modeling 3D objects with opacity hulls
US9563959B2 (en) * 2010-12-09 2017-02-07 Samsung Electronics Co., Ltd. Image processor, lighting processor and method therefor
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9818224B1 (en) * 2013-06-20 2017-11-14 Amazon Technologies, Inc. Augmented reality images based on color and depth information
EP2829842B1 (en) * 2013-07-22 2022-12-21 Hexagon Technology Center GmbH Method, system and computer programme product for determination of an absolute volume of a stock pile using a structure from motion algorithm
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US20150262412A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US20160140761A1 (en) * 2014-11-19 2016-05-19 Microsoft Technology Licensing, Llc. Using depth information for drawing in augmented reality scenes
GB2571657B (en) * 2015-03-03 2019-11-27 Imagination Tech Ltd Graphics rendering using directional representations of lighting at probe positions within a scene
US10354449B2 (en) 2015-06-12 2019-07-16 Hand Held Products, Inc. Augmented reality lighting effects
CN105825544B (zh) * 2015-11-25 2019-08-20 维沃移动通信有限公司 一种图像处理方法及移动终端
US20180308281A1 (en) 2016-04-01 2018-10-25 draw, Inc. 3-d graphic generation, artificial intelligence verification and learning system, program, and method
CN107341853B (zh) * 2017-07-13 2021-02-12 河北中科恒运软件科技股份有限公司 超大虚拟场景和动态摄屏的虚实融合方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2013156670A (ja) * 2012-01-26 2013-08-15 Fujitsu Ltd 表示方法及び表示装置
JP2014164497A (ja) * 2013-02-25 2014-09-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2015185176A (ja) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平原 匡哲: "RGB−Dカメラを用いた確率的探索による光源推定", 映像情報メディア学会技術報告 VOL.37 NO.36 ITE TECHNICAL REPORT, vol. 第37巻, JPN6023014667, 12 August 2013 (2013-08-12), JP, pages 9 - 12, ISSN: 0005038959 *

Also Published As

Publication number Publication date
WO2019226366A1 (en) 2019-11-28
KR102612808B1 (ko) 2023-12-11
US11151780B2 (en) 2021-10-19
JP7386812B2 (ja) 2023-11-27
CN110533707A (zh) 2019-12-03
US20210027526A1 (en) 2021-01-28
CN110533707B (zh) 2023-04-14
EP3803803A1 (en) 2021-04-14
KR20210013150A (ko) 2021-02-03

Similar Documents

Publication Publication Date Title
JP7386812B2 (ja) 照明推定
US11508076B2 (en) Learning rigidity of dynamic scenes for three-dimensional scene flow estimation
US20230410375A1 (en) Temporally stable data reconstruction with an external recurrent neural network
US11631239B2 (en) Iterative spatio-temporal action detection in video
US10776688B2 (en) Multi-frame video interpolation using optical flow
US11475542B2 (en) Neural network system with temporal feedback for adaptive sampling and denoising of rendered sequences
CN112614213B (zh) 人脸表情确定方法、表情参数确定模型、介质及设备
CN111369681B (zh) 三维模型的重构方法、装置、设备及存储介质
US11557022B2 (en) Neural network system with temporal feedback for denoising of rendered sequences
US11704857B2 (en) Three-dimensional object reconstruction from a video
US20190295228A1 (en) Image in-painting for irregular holes using partial convolutions
US20190147296A1 (en) Creating an image utilizing a map representing different classes of pixels
WO2019196745A1 (zh) 人脸建模方法及相关产品
US11954830B2 (en) High dynamic range support for legacy applications
CN111583381B (zh) 游戏资源图的渲染方法、装置及电子设备
CN111161398B (zh) 一种图像生成方法、装置、设备及存储介质
CN111047509A (zh) 一种图像特效处理方法、装置及终端
US11475549B1 (en) High dynamic range image generation from tone mapped standard dynamic range images
TWI546743B (zh) 於一影像中之物件選擇技術
CN116977522A (zh) 三维模型的渲染方法、装置、计算机设备和存储介质
CN115053234A (zh) 深度光度学习(dpl)系统、装置和方法
EP4057232A1 (en) Generating new views with deep neural networks from unstructured input
CN115035224A (zh) 图像处理和重构图像生成的方法和装置
CN115222859A (zh) 图像动画化
US20230298243A1 (en) 3d digital avatar generation from a single or few portrait images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7386812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150