JP7119081B2 - 投影データ生成装置、3次元モデル、投影データ生成方法、ニューラルネットワーク生成方法及びプログラム - Google Patents

投影データ生成装置、3次元モデル、投影データ生成方法、ニューラルネットワーク生成方法及びプログラム Download PDF

Info

Publication number
JP7119081B2
JP7119081B2 JP2020520389A JP2020520389A JP7119081B2 JP 7119081 B2 JP7119081 B2 JP 7119081B2 JP 2020520389 A JP2020520389 A JP 2020520389A JP 2020520389 A JP2020520389 A JP 2020520389A JP 7119081 B2 JP7119081 B2 JP 7119081B2
Authority
JP
Japan
Prior art keywords
information
projection data
dimensional model
data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020520389A
Other languages
English (en)
Other versions
JPWO2019225734A1 (ja
Inventor
崇紘 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Publication of JPWO2019225734A1 publication Critical patent/JPWO2019225734A1/ja
Application granted granted Critical
Publication of JP7119081B2 publication Critical patent/JP7119081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/00Three-dimensional [3D] image rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/00Three-dimensional [3D] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/00Three-dimensional [3D] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)

Description

本開示は、レンダリング装置、学習装置、レンダリング方法及びプログラムに関する。
機械学習の応用は、広い範囲において適用され始めている。2次元の画像から3次元のオブジェクトのモデリングを行う学習をする手法も提案されている。しかしながら、一般的なレンダリングエンジンを用いる場合、レンダリングされた2次元のピクセルの情報から3次元モデル上の元となる領域へと情報を伝播する手段がなく、学習に用いるロスを逆伝播させることが容易ではない。したがって、学習において、モデリングされた3次元オブジェクトから2次元の画像を生成する際には専用のレンダリングエンジンが必要となり、一般的なレンダラーを適用して学習を行うことが困難である。
そこで、本発明の実施形態は、レンダリング結果からロスの逆伝播を可能とするレンダリング装置を提案する。
一実施形態によれば、レンダリング装置は、3次元モデルのデータから2次元空間内における投影データを生成するレンダリング装置であって、前記3次元モデルの領域に関する情報から、前記2次元空間内における前記投影データに関する情報を取得する、情報取得部と、前記投影データに関する情報を、前記領域に関する情報と紐付けて記憶する、記憶部と、前記投影データに関する情報から、前記投影データを生成する、投影データ生成部と、を備える。
一実施形態に係るレンダリング装置の機能を示すブロック図。 一実施形態に係るレンダリング装置の処理を示すフローチャート。 一実施形態に係る3次元モデルと2次元投影データの対応を示す図。 一実施形態に係る学習装置2の機能を示すブロック図。 一実施形態に係るハードウェア構成の一例を示す図。
以下、図面を参照して本発明の実施形態について説明する。図面及び実施形態の説明は一例として示すものであり、本発明を限定するものではない。
図1は、本実施形態に係るレンダリング装置1を示す図である。レンダリング装置1は、情報取得部10と、記憶部12と、投影データ生成部14と、出力部16と、を備え、3次元モデルから、当該3次元モデルを2次元空間へと投影した画像を生成する。以下の説明において、例えば、レンダリング装置1の投影データ生成部14は、ニューラルネットワークを含むシェーダ又はレンダリングエンジンを備えていてもよい。
情報取得部10は、3次元モデルにおいて、2次元空間における画像データを生成するために必要となる情報を取得する。例えば、3次元モデルが与えられると、3次元モデルを多角形のメッシュ状の領域(ポリゴン)に分割し、分割されたポリゴンにおける3次元モデルの情報を取得する。このポリゴンは、所謂プリミティブであり、三角形で表現される場合には、トライアングルと呼ばれるものである。以下の説明においては、ポリゴンとして説明をするが、ポリゴンを含むより広い概念としての3次元モデルの一部(又は全部)の領域を表す曲面であってもよい。すなわち、一般的に行われているように、3次元モデルを曲面に分割し、当該分割された曲面に対して処理を行うものとして説明をするが、必ずしもこの態様には限定されるものではない。また、以下の説明においては、3次元モデルを分割した一部を用いて処理を行うが、3次元モデルの大きさ、領域、形状等によっては、3次元モデルの全部を用いて以下の処理を行ってもよい。
この情報の取得のために、まず、ポリゴンの頂点の座標の変換を実行する。座標の変換は、例えば、ローカル座標(3次元)をワールド座標(3次元)へ変換し、ワールド座標をビュー座標系(3次元)へ変換し、ビュー座標系をプロジェクション座標系(2次元)へ変換し、プロジェクション座標をスクリーン座標(2次元)へと変換することにより、3次元モデルが(仮想的に)存在する座標系から、画像データが描画される2次元空間への座標系へと変換が行われる。これらの座標系の変換は、一般に行われている変換を使用する。もっとも、全ての座標系を経由する必要は無く、ローカル座標又はワールド座標からスクリーン座標へと変換できるものであればよい。
このように、3次元モデルを分割した各領域における頂点の情報を3次元空間の座標から、投影される2次元空間の座標へと変換することにより、3次元モデルを2次元空間へと描画することが可能となる。情報取得部10は、3次元モデルの各領域の情報に基づいて、投影先の2次元空間における位置(例えば、画素)における、照明計算に利用する色・反射特性に関する情報を取得する。照明計算に利用する情報とは、例えば、法線ベクトルや、アルベド、深度・距離(Depth/Distance)、反射特性(Reflection)、放射(Emission)、拡散(Diffusion)、遮蔽(Ambient Occlusion)、照明(Lightmap)等の投影データに関する情報のうち少なくとも1つを含む情報である。また、これらには限られず、投影データ生成のための照明計算に必要な他の情報を含んでいてもよい。各領域の形状は、各領域が2次元座標へと変換された際に2次元座標において表現される頂点及びこれら頂点を接続する線分、曲線及び面等のうち少なくとも1つを用いて表現される。また、投影データに関する情報が、2次元空間内における位置情報を含んでいてもよい。
なお、以下において、投影データに関する情報(投影情報と記載する)とは、上記の照明計算に利用する情報そのものを含んでいてもよいし、これら照明計算に利用する情報から投影データ生成部14等により加工され、記憶部12に記憶されているデータを含んでいてもよい。この投影情報は、シェーディング手法により様々な形態で記憶される情報であり、上述のように、加工をしていない照明計算に利用するデータを含んでもよいし、当該データについて、ある程度計算を進め、投影データを生成する段階を進めたデータを含んでもよい。例えば、遅延シェーディングを適用する場合のように、照明計算に利用するデータそのものを含むものであってもよいし、前方シェーディングを適用する場合のように、3次元空間内に設置された複数の光源のうち1の光源に対して照明計算に利用するデータから計算された、投影データの生成途中のデータを含むものであってもよい。さらには、投影情報は、上記の例で挙げたデータ種類(法線ベクトル、アルベド、その他)のうち未加工又は加工済の少なくとも1つのデータを含むものであると定義する。
記憶部12は、情報取得部10により取得された2次元空間内の各位置における色情報等の照明計算に利用する情報を記憶する。さらに、本実施形態においては、各位置において、これら色情報等の情報と併せて、3次元空間内の位置情報を記憶する。この3次元空間内の位置情報とは、例えば、上述したポリゴンに付与された識別子、又は、ポリゴンの頂点の座標(ローカル座標またはワールド座標)を示す。識別子は、ポリゴンにユニークに付与されるものであってもよい。すなわち、2次元空間内のある位置を示す記憶領域内に、当該位置に投射される3次元モデルにおけるポリゴンの識別子又はポリゴンの各頂点の座標が記憶される。
このようにデータの紐付けをしておくことにより、2次元空間内に投影されたデータの位置に基づいて、3次元モデル内の位置、より詳しくは、3次元モデル内のいずれのポリゴンに属している領域の投影であるかを把握することが可能となる。
投影データ生成部14は、記憶部12に記憶されている投影情報に基づいて、最終的に描画される2次元の投影データを微分可能な演算を用いて生成する。例えば、色情報や法線ベクトルの情報に基づいて、3次元空間上に存在する光源から出た反射光を演算し、2次元空間内の各位置における色、輝度等の情報を算出し、投影データを生成する。
上記には限られず、投影データ生成部14は、記憶部12に記憶されているデータではなく、情報取得部10により取得されたデータに基づいて投影データを生成するようにしてもよい。この投影データの生成は、一般的なシェーディング処理により行われてもよい。
例えば、微分可能な処理である遅延シェーディング処理をシェーディング手法として選択した場合には、記憶部12は、所謂Gバッファ(Geometry Buffer)を兼ねるものであってもよく、Gバッファに記憶される色情報等とともに、3次元空間における頂点の座標情報等を紐付けて記憶してもよい。この場合、記憶部12に記憶されているデータに基づいて、投影データ生成部14が投影データを生成する。尤も、遅延シェーディングは、一例として挙げたものであり、他のシェーディング手法を使用してもよい。
出力部16は、投影データ生成部14が生成した投影データを出力する。この出力部16は、例えば、ディスプレイを備え、ディスプレイ上に投影データを描画して出力してもよい。別の例としては、投影データを適切な画像データへと変換し、当該画像データをファイルサーバ、ネットワークを介した別の装置、又は、記憶部12等へと出力するようにしてもよい。
図2は、本実施形態に係るレンダリング装置1のレンダリング処理の一例を示すフローチャートである。この図2を用いて、レンダリング装置1の処理について説明する。
まず、情報取得部10は、3次元モデルをポリゴンに分割する(S100)。なお、3次元モデル自体がポリゴンデータを備えて構成されている場合には、このステップを省略することも可能である。
次に、情報取得部10は、3次元空間内におけるポリゴンの頂点の座標を取得する(S102)。上述した座標変換を実行し、2次元への投影データを生成するために、着目しているポリゴンの3次元空間内における頂点の座標を取得する。
次に、情報取得部10は、S102で取得した座標データに上述した座標変換を施すことにより、当該ポリゴンが投影される2次元座標を算出する(S104)。2次元空間内において、ポリゴンの頂点の座標を変換し、当該変換された座標を線分で接続することにより当該ポリゴンが投影される2次元空間内の座標を特定する。
次に、情報取得部10は、S104で取得されたポリゴンの座標に基づいて、2次元空間内の当該ポリゴンが投影される座標と、当該ポリゴンの識別子、又は、当該ポリゴンの3次元空間内の頂点の座標とを紐付けて記憶部12へと記憶する(S106)。このように記憶部12には、2次元座標に対して、ポリゴンの情報が記憶される。
次に、投影データ生成部14は、情報取得部10が取得したデータ、又は、記憶部12に記憶されているデータに基づいて投影データを生成する(S108)。
一例として、投影データ生成部14は、情報取得部10が取得した3次元モデルのポリゴンデータの色情報及び法線ベクトル情報等に基づいて、設置されている光源を考慮して2次元空間内に投影される画素のデータを算出する。投影データの算出は、上述したように、遅延シェーディングで行ってもよいし、前方シェーディングで行ってもよい。
遅延シェーディングを行う場合、投影される2次元空間内のピクセルの座標それぞれに対して、色情報等の描画に必要な情報と、併せて、ポリゴンを識別するための情報と、情報取得部10により取得され、記憶される。投影データ生成部14は、これらの記憶されたデータのうち、描画に必要な情報と、光源等の情報を用いて、投影データを生成する。
前方シェーディングを行う場合、S106とS108とを入れ替えてもよく、投影データ生成部14が情報取得部10により取得された情報に基づいて投影データを各ピクセルについて算出した後、情報取得部10が取得したポリゴンを識別する情報と併せて、それぞれのピクセルを示すメモリ領域に記憶させてもよい。尤もこれには限られず、ピクセルを示すメモリ領域内に、ポリゴンを識別する情報をあらかじめ記憶させ、その後、投影データ生成部14が色情報等と、光源等の情報から投影データを生成する。光源が複数ある場合には、生成途中のデータについて、ポリゴンを識別する情報と併せて記憶するようにしてもよいし、別のメモリ領域を用いて記憶してもよい。
描画に必要なポリゴンのそれぞれについて2次元空間内のピクセルとの紐付け、及び、描画データの生成が終了した後に、レンダリング装置1は、出力部16からデータ等を出力して処理を終了する。投影データの生成に必要なポリゴンについて処理が終了していない場合、当該ポリゴンについて、S102からS108の処理を行う。遅延シェーディングの場合は、S102からS106までの処理を全てのポリゴンについて行った後に、S108の処理を行うようにしてもよい。
図3は、一例として、遅延シェーディングを行う場合における、3次元モデルから投影データを生成するときのメモリの格納方法を示した図である。この処理は、微分可能な演算により構成されている。左の図は、3次元モデルを示し、右の図は、投影された画像を示している。3次元モデルの領域R1が2次元空間の投射P1へと投射されたものとする。同様に、領域R2が投射P2へと投射されたものとする。左の図中の矢印の方向から見た投影が右の図であるものとする。
ここで、投射P1内の座標(x11,y11)の画素(ピクセル)について記憶されているデータと、投射P1内の座標(x12,y12)の画素(ピクセル)について記憶されているデータとについて説明する。代表的な例として、各画素の色情報、法線ベクトル情報を挙げて説明するが、記憶するパラメータ及びこれらのパラメータの並び順等は、これに限られるものではない。
座標(x11,y11)と紐付けられて、領域R1内の当該ピクセルに対応する領域の色情報、法線ベクトルの情報が、それぞれC11、N11であるとして、図に示すように、例えば、(x11,y11,R1,C11,N11,・・・)として記憶部12に記憶される。R1は、領域R1の識別情報であり、例えば、上述したようにポリゴンの識別子、又は、頂点の座標である。色情報、法線ベクトルの情報のみならず、他の情報も同様に記憶していてもよい。
座標(x12,y12)と紐付けられて、同様に、(x12,y12,R1,C12,N12,・・・)として記憶部12に記憶される。ただし、同じポリゴン上においては同じ色情報、法線情報を持つものとして考える場合には、C12=C11、N12=N11である。このように、2次元空間内における座標の情報から、3次元モデル上のいずれの領域に属しているかを辿ることができる情報を付与して記憶する。
記憶の方法は、図示している方法には限られない。例えば、色情報、法線ベクトル情報、ポリゴン情報に対してそれぞれまとめて記憶できる領域を用意しておき、2次元のメモリ空間内で座標に対応するように配置して記憶するようにしてもよい。この場合、色情報テンソル、法線ベクトル情報テンソル、ポリゴン情報テンソル等が別々の領域に確保されることとなる。
別の例としては、座標に対して、色情報、法線ベクトル情報、ポリゴン情報をまとめて記憶できる領域を用意してもよい。この場合、座標(x11,y11)のメモリ領域に対して、(R1,C12,N12,・・・)と言うようなデータが格納される。これらには限られず、他の様々なメモリ領域の使用方法でデータが格納されていてもよい。
領域R2についても、同様に、投影P2内のそれぞれのピクセルに対して、データが格納される。例えば、座標(x21,y21)に対して、(x21,y21,R2,C21,N21,・・・)といったデータが格納される。
なお、上述したようにポリゴン内において同じ色情報及び同じ法線ベクトル情報等が与えられる場合には、投影P1等の頂点における座標と、R1の情報と、色情報等の描画に必要となる情報とを紐付けて格納するようにしてもよい。投影データにおいては、2次元空間内の座標は、3次元モデルの領域の投影された頂点の座標に基づいて、いずれの領域からの投影であるかを逆算することが可能である。
遅延シェーディングである場合、これらの色情報等の描画に必要な情報を用いて、光源や視点等の条件から、投影データ生成部14が投影データを生成する。
前方シェーディングの場合も同様に、3次元モデルの領域に関する情報(以下、領域情報と記載する)を格納することが可能である。例えば、前方シェーディングでは、各シェーディングの段階のそれぞれにおいて、投影データの色情報とともに、3次元モデルの領域情報を記憶しておくことにより実装することが可能である。この場合、一度領域情報が書き込まれたピクセルに対しては、再度領域情報を書き込む必要は無いので、2回目からの書き込みに対しては領域情報を書き込まないようにすることも可能である。
以上のように、本実施形態によれば、投影されたデータの各画素(ピクセル)と、3次元モデルの対応するポリゴンとを紐付けて格納することにより、投影されたデータの画素が、3次元モデルのいずれのポリゴンを微分可能な処理により投影したものなのかを辿ることが可能となる。
以下、前述した実施形態に係るレンダリング装置1を利用したレンダリング装置1の学習装置について説明する。以下の説明において、例えば、レンダリング装置1の投影データ生成部14は、ニューラルネットワークを含むシェーダ又はレンダリングエンジンを備えている。
図4は、レンダリング装置1の学習装置2について示すブロック図である。学習装置2は、レンダリング装置1と、入力部20と、誤差算出部22と、逆伝播部24と、出力部26と、を備える。また、別の例として、学習装置2は、レンダリング装置1とは、別の独立した構成であってもよい。
入力部20は、3次元モデルの入力を受け付ける。別の例として、2次元投影の教師データの入力をさらに受け付けるものであってもよい。
誤差算出部22は、入力部20から入力された3次元モデルに基づいてレンダリング装置1により生成された投影データから、誤差(ロス)を算出する。例えば、2次元投影された教師データがある場合には、当該教師データと、投影データとの各ピクセルにおける各色空間の情報から、ニューラルネットワークの更新に用いる誤差を算出する。
誤差の算出は、これには限られず、形状の情報、すなわち、投影データの部分の座標と、当該投影データに対応する3次元モデルの領域の座標から算出した理想的な投影データにおける座標との誤差であってもよいし、3次元モデルに付されたテクスチャが、レンダリング装置1による変換及び理想的なデータにおいて、投影データのどのようなテクスチャに変換されたかに基づいた誤差であってもよい。
逆伝播部24は、誤差算出部22が算出した誤差をニューラルネットワークの前の層へと逆伝播する。例えば、出力層において算出された誤差は、出力層の1つ前の隠れ層に逆伝播される。当該層に伝播された誤差を用いて当該層の重み付け行列を更新した後、誤差算出部22により誤差が算出され、算出された誤差がさらに1つ前の層へと逆伝播される。このように、入力層、又は、入力層の1つ先の層に至るまで逆伝播が繰り返され、重み行列、すなわち、ニューラルネットワークのパラメータが更新される。
ニューラルネットワークの更新に係るエポック数、バッチ数等は、任意に決めてもよい。この更新は、一般的な更新方法で更新することが可能である。
このような逆伝播は、投影データの座標が、3次元モデルにおけるいずれのポリゴンに該当するかを判断することにより行うことが可能であるので、レンダリング装置1の記憶部12に記憶されているポリゴンの識別子のデータを用いることにより、逆伝播を行うことが可能となる。順伝播を行うタイミングにおいて、3次元モデルのどのポリゴンからのレンダリング結果が着目した投影データの画素のデータに変換されたかの情報が必要なためである。
出力部26は、逆伝播部24により更新されたニューラルネットワークを出力する。上記の場合、例えば、シェーダ又はレンダリングエンジンを出力してもよい。
なお、上述においては、ニューラルネットワークであるとしたが、これには限られない。例えば、3次元モデルが入力されると投影データが出力される一般的なシェーダ又はレンダリングエンジンであって、シェーディング又はレンダリングの際に用いるパラメータの修正を受け付けることが可能なものであってもよい。
この場合、誤差算出部22が投影データのあるピクセルの色情報と、理想の色情報とを比較して誤差を算出する。次に、逆伝播部24が、シェーダ又はレンダリングエンジンに当該誤差をフィードバックして、ニューラルネットワークを用いない一般的な最適化手法により、シェーダ又はレンダリングエンジンの最適化を行う。このように、本実施形態の利用できる範囲は、ニューラルネットワークには限られない。
さらに応用すると、このようなレンダリング装置1及び学習装置2を用いることにより、誤差関数や目標2次元投影データなどで定義されるような指標の最も適合する理想の2次元投影データを出力するような3次元モデルを形成することも可能である。この場合、シェーダ又はレンダリングエンジンに対してフィードバックを行うのではなく、3次元モデルに対してフィードバックを行うことにより実現することが可能である。
前述した実施形態によれば、各領域における識別子を付与した微分可能なレンダリングを実装することができる。この実装により、レンダリング処理における誤差の逆伝播をすることが可能となる。このことにより、3D再構成モデルとレンダリング結果とに基づいて、ディープラーニングを含む機械学習手法を適用し、適切にニューラルネットワークモデルを訓練することが可能となる。
上記においては、ラスタライズの手法における解法を示したが、これには限られず、一部又は全部をレイトレーシングに適用することもできる。レイトレーシング手法に適用することにより、反射特性等をより詳細に、現実の世界に近い形で取り扱い、ニューラルネットに組み込むことが可能となる。さらに、3Dオブジェクトからさらに逆伝播して、より抽象的なレイヤ上のオブジェクトへの訓練にも応用することができる。
さらに、上記においては、1のメッシュだけに基づいた説明をしたが、もちろん複数メッシュに対応することも可能である。このように、複数メッシュを用いることにより、複数のオブジェクトに対して並行してレンダリング、及び、機械学習モデルの訓練を行うことが可能となる。この場合、領域の識別子だけではなく、物体の識別子(例えば、グループを示すグループ識別子)を設定してもよい。すなわち、識別子として、いずれの物体に属しているいずれの領域であるかを示す識別子を別々に備えていてもよい。また、別途テーブルを用意し、領域ごとの識別子がいずれの物体に属するかを格納して、逆伝播処理を行うタイミングで、当該テーブルを参照してもよい。
以上のように訓練された学習済みモデルによれば、リアルタイムで取得した2次元画像(例えば、RGB画像、グレースケール画像等)、又は、3次元画像(例えば、RGB-D画像、深度マップを備える画像等)から、シェーディングを行うことも可能となる。このような学習済みモデルを、例えば、ロボット、自動運転装置等に備えることにより、高速なシェーディング処理を行うとともに、シェーディング結果に基づいて高速な安全な自動操作等を行うことが可能となる。
また、上述では、可視光におけるシェーディング、レンダリングについて説明したが、これには限られない。例えば、可視光以外の電波、音等の他の情報についても同様の処理を行うことも可能である。
逆伝播に必要なデータを格納する記憶部12は、テクスチャにより実装されてもよい。すなわち、テクスチャに色等の情報を格納するとともに、上述した各識別子を格納してもよい。シェーディングを行う場合、及び、ニューラルネットワークの訓練を行う場合には、このテクスチャに格納されている各データを参照することが可能となる。
前述した実施形態におけるレンダリング装置1及び学習装置2において、各機能は、アナログ回路、デジタル回路又はアナログ・デジタル混合回路で構成された回路であってもよい。また、各機能の制御を行う制御回路を備えていてもよい。各回路の実装は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等によるものであってもよい。
上記の全ての記載において、レンダリング装置1及び学習装置2の少なくとも一部はハードウェアで構成されていてもよいし、ソフトウェアで構成され、ソフトウェアの情報処理によりCPU等が実施をしてもよい。ソフトウェアで構成される場合には、レンダリング装置1、学習装置2及びその少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD-ROM等の記憶媒体に収納し、コンピュータに読み込ませて実行させるものであってもよい。記憶媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記憶媒体であってもよい。すなわち、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実装されるものであってもよい。さらに、ソフトウェアによる処理は、FPGA等の回路に実装され、ハードウェアが実行するものであってもよい。モデルの生成や、モデルに入力をした後の処理は、例えば、GPU等のアクセラレータを使用して行ってもよい。
例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。
図5は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。レンダリング装置1及び学習装置2は、プロセッサ71と、主記憶装置72と、補助記憶装置73と、ネットワークインタフェース74と、デバイスインタフェース75と、を備え、これらがバス76を介して接続されたコンピュータ装置7として実現できる。
なお、図5のコンピュータ装置7は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、図5では、1台のコンピュータ装置7が示されているが、ソフトウェアが複数のコンピュータ装置にインストールされて、当該複数のコンピュータ装置それぞれがソフトウェアの異なる一部の処理を実行してもよい。
プロセッサ71は、コンピュータの制御装置および演算装置を含む電子回路(処理回路、Processing circuit、Processing circuitry)である。プロセッサ71は、コンピュータ装置7の内部構成の各装置などから入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を各装置などに出力する。具体的には、プロセッサ71は、コンピュータ装置7のOS(オペレーティングシステム)や、アプリケーションなどを実行することにより、コンピュータ装置7を構成する各構成要素を制御する。プロセッサ71は、上記の処理を行うことができれば特に限られるものではない。検査対応部、モデル対応部、およびそれらの各構成要素は、プロセッサ71により実現される。
主記憶装置72は、プロセッサ71が実行する命令および各種データなどを記憶する記憶装置であり、主記憶装置72に記憶された情報がプロセッサ71により直接読み出される。補助記憶装置73は、主記憶装置72以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、メモリでもストレージでもよい。また、メモリには、揮発性メモリと、不揮発性メモリがあるが、いずれでもよい。レンダリング装置1又は学習装置2内において各種データを保存するためのメモリは、主記憶装置72または補助記憶装置73により実現されてもよい。例えば、記憶部12は、この主記憶装置72又は補助記憶装置73に実装されていてもよい。別の例として、アクセラレータが備えられている場合には、記憶部12は、当該アクセラレータに備えられているメモリ内に実装されていてもよい。
ネットワークインタフェース74は、無線または有線により、通信ネットワーク8に接続するためのインタフェースである。ネットワークインタフェース74は、既存の通信規格に適合したものを用いればよい。ネットワークインタフェース74により、通信ネットワーク8を介して通信接続された外部装置9Aと情報のやり取りが行われてもよい。
外部装置9Aは、例えば、カメラ、モーションキャプチャ、出力先デバイス、外部のセンサ、入力元デバイスなどが含まれる。また、外部装置9Aは、レンダリング装置1及び学習装置2の構成要素の一部の機能を有する装置でもよい。そして、コンピュータ装置7は、レンダリング装置1及び学習装置2の処理結果の一部を、クラウドサービスのように通信ネットワーク8を介して受け取ってもよい。
デバイスインタフェース75は、外部装置9Bと直接接続するUSB(Universal Serial Bus)などのインタフェースである。外部装置9Bは、外部記憶媒体でもよいし、ストレージ装置でもよい。記憶部12は、外部装置9Bにより実現されてもよい。
外部装置9Bは出力装置でもよい。出力装置は、例えば、画像を表示するための表示装置でもよいし、音声などを出力する装置などでもよい。例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、PDP(Plasma Display Panel)、スピーカなどがあるが、これらに限られるものではない。
なお、外部装置9Bは入力装置でもよい。入力装置は、キーボード、マウス、タッチパネルなどのデバイスを備え、これらのデバイスにより入力された情報をコンピュータ装置7に与える。入力装置からの信号はプロセッサ71に出力される。
上記の全ての記載に基づいて、本発明の追加、効果又は種々の変形を当業者であれば想到できるかもしれないが、本発明の態様は、上記した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲において種々の追加、変更及び部分的削除が可能である。例えば、前述した全ての実施形態において、説明に用いた数値は、一例として示したものであり、これらに限られるものではない。
学習、推論の各種演算は、例えば、GPU等のアクセラレータを用いて、又は、ネットワークを介した複数の計算機を用いて、並列処理により実行されるものであってもよい。例えば、学習におけるバッチ処理、推論における各オブジェクトの動作情報の生成等の処理は、複数ある演算コアに演算を振り分けて同じタイミングで実行されるものであってもよい。
1:レンダリング装置、10:情報取得部、12:記憶部、14:投影データ生成部、16:出力部、2:学習装置、20:入力部、22:誤差算出部、24:逆伝播部、26:出力部

Claims (17)

  1. 少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を備え、
    前記少なくとも1つのプロセッサは、
    3次元モデルに関する情報から、2次元空間内における投影データに関する情報を取得することと、
    前記投影データに関する情報と、前記3次元モデルの一部の領域の識別情報と前記一部の領域が前記2次元空間内において投影されるピクセルに関する情報とを紐付ける情報とを、前記少なくとも1つのメモリに記憶することと、
    前記投影データに関する情報から、前記投影データを生成することと、
    を実行する、
    投影データ生成装置。
  2. 前記少なくとも1つのプロセッサは、シェーディング又はレンダリングを用いて、前記投影データを生成する、
    請求項1に記載の投影データ生成装置。
  3. 教師データと前記投影データの間の誤差を表す情報を用いて、前記シェーディング又は前記レンダリングに用いるパラメータを更新する、
    請求項2に記載の投影データ生成装置。
  4. 前記少なくとも1つのプロセッサは、遅延シェーディングを用いて前記投影データを生成する、
    請求項2又は請求項3に記載の投影データ生成装置。
  5. 前記少なくとも1つのメモリは、Gバッファである、
    請求項4に記載の投影データ生成装置。
  6. 前記少なくとも1つのプロセッサは、前方シェーディングを用いて前記投影データを生成する、
    請求項2又は請求項3に記載の投影データ生成装置。
  7. 前記少なくとも1つのプロセッサは、微分可能な演算により前記投影データを生成する、
    請求項1から請求項6のいずれかに記載の投影データ生成装置。
  8. 前記少なくとも1つのプロセッサは、ニューラルネットワークを用いて前記投影データを生成する、
    請求項1に記載の投影データ生成装置。
  9. 教師データと前記投影データの間の誤差を表す情報を用いて、前記ニューラルネットワークを更新する、
    請求項8に記載の投影データ生成装置。
  10. 前記少なくとも1つのプロセッサは、前記紐付ける情報を用いて、教師データと前記投影データの間の誤差を表す情報を前記3次元モデルに逆伝播し、前記逆伝播に基づいて前記3次元モデルを更新する、
    請求項1から請求項9のいずれかに記載の投影データ生成装置。
  11. 前記3次元モデルの前記一部の領域は、多角形で表される、
    請求項1から請求項10のいずれかに記載の投影データ生成装置。
  12. 前記投影データに関する情報は、色、法線ベクトル、アルベド、深度、距離、反射特性、放射、拡散、遮蔽、照明、又は、照明計算に利用するデータ、のうち少なくとも1つに関する情報を含む、
    請求項1から請求項11のいずれかに記載の投影データ生成装置。
  13. 前記識別情報は、前記3次元モデルの前記一部の領域の識別子又は座標のいずれかである、
    請求項1から請求項12のいずれかに記載の投影データ生成装置。
  14. 少なくとも1つのプロセッサにより、
    3次元モデルに関する情報から、2次元空間内における投影データに関する情報を取得することと、
    前記投影データに関する情報と、前記3次元モデルの一部の領域の識別情報と前記一部の領域が前記2次元空間内において投影されるピクセルに関する情報とを紐付ける情報とを、少なくとも1つのメモリに記憶することと、
    前記投影データに関する情報から、前記投影データを生成することと、
    を含む投影データ生成方法。
  15. 少なくとも1つのプロセッサにより、
    3次元モデルに関する情報から、2次元空間内における投影データに関する情報を取得することと、
    前記投影データに関する情報と、前記3次元モデルの一部の領域の識別情報と前記一部の領域が前記2次元空間内において投影されるピクセルに関する情報とを紐付ける情報とを、少なくとも1つのメモリに記憶することと、
    前記投影データに関する情報から、前記投影データを生成することと、
    前記紐付ける情報を用いて、教師データと前記投影データの間の誤差を表す情報を前記3次元モデルに逆伝播し、前記逆伝播に基づいて前記3次元モデルを更新することと、
    を含む3次元モデル生成方法。
  16. 少なくとも1つのプロセッサにより、
    3次元モデルに関する情報から、2次元空間内における投影データに関する情報を取得することと、
    前記投影データに関する情報と、前記3次元モデルの一部の領域の識別情報と前記一部の領域が前記2次元空間内において投影されるピクセルに関する情報とを紐付ける情報とを、少なくとも1つのメモリに記憶することと、
    前記投影データに関する情報から、ニューラルネットワークにより、前記投影データを生成することと、
    前記紐付ける情報を用いて、教師データと前記投影データの間の誤差を表す情報を逆伝播し、前記ニューラルネットワークを更新することと、
    を含むニューラルネットワーク生成方法。
  17. 少なくとも1つのプロセッサにより実行されると、
    3次元モデルに関する情報から、2次元空間内における投影データに関する情報を取得することと、
    前記投影データに関する情報と、前記3次元モデルの一部の領域の識別情報と前記一部の領域が前記2次元空間内において投影されるピクセルに関する情報とを紐付ける情報とを、少なくとも1つのメモリに記憶することと、
    前記投影データに関する情報から、前記投影データを生成することと、
    を含む方法を実行するプログラム。
JP2020520389A 2018-05-24 2019-05-24 投影データ生成装置、3次元モデル、投影データ生成方法、ニューラルネットワーク生成方法及びプログラム Active JP7119081B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018099397 2018-05-24
JP2018099397 2018-05-24
PCT/JP2019/020624 WO2019225734A1 (ja) 2018-05-24 2019-05-24 レンダリング装置、学習装置、レンダリング方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019225734A1 JPWO2019225734A1 (ja) 2021-05-27
JP7119081B2 true JP7119081B2 (ja) 2022-08-16

Family

ID=68616856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520389A Active JP7119081B2 (ja) 2018-05-24 2019-05-24 投影データ生成装置、3次元モデル、投影データ生成方法、ニューラルネットワーク生成方法及びプログラム

Country Status (4)

Country Link
US (1) US11443485B2 (ja)
JP (1) JP7119081B2 (ja)
CN (1) CN112204622A (ja)
WO (1) WO2019225734A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12462186B2 (en) 2020-05-29 2025-11-04 Advanced Micro Devices, Inc. Stacked dies for machine learning accelerator
EP3958182B1 (en) * 2020-08-20 2025-07-30 Dassault Systèmes Variational auto-encoder for outputting a 3d model
GB2605157B (en) * 2021-03-24 2023-08-23 Sony Interactive Entertainment Inc Image rendering method and apparatus
CN114820905B (zh) 2022-06-24 2022-09-20 北京百度网讯科技有限公司 虚拟形象生成方法、装置、电子设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309947A (ja) 2003-04-10 2004-11-04 Sharp Corp データ表示装置、データ表示プログラム、および、プログラム記録媒体
US20060028474A1 (en) 2004-08-05 2006-02-09 Hanspeter Pfister Rendering deformable and animated surface reflectance fields
US20150145861A1 (en) 2012-05-03 2015-05-28 Alcatel Lucent Method and arrangement for model generation
JP2017142788A (ja) 2016-01-28 2017-08-17 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 心腔の高解像度着色

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5688199A (en) 1998-08-20 2000-03-14 Raycer, Inc. System, apparatus and method for spatially sorting image data in a three-dimensional graphics pipeline
US6771264B1 (en) 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
JP2007221182A (ja) * 2006-02-14 2007-08-30 Fuji Xerox Co Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
EP2474951A4 (en) * 2009-09-04 2017-05-10 Panasonic Intellectual Property Management Co., Ltd. Image generation system, image generation method, computer program, and recording medium in which computer program is recorded
GB2473513B (en) 2009-09-14 2012-02-01 Sony Comp Entertainment Europe A method and apparatus for determining processor performance
US20150262426A1 (en) * 2012-08-28 2015-09-17 University Of South Australia Spatial Augmented Reality (SAR) Application Development System
GB2534225B (en) 2015-01-19 2017-02-22 Imagination Tech Ltd Rendering views of a scene in a graphics processing unit
EP3293705B1 (en) 2016-09-12 2022-11-16 Dassault Systèmes 3d reconstruction of a real object from a depth map
US10657712B2 (en) * 2018-05-25 2020-05-19 Lowe's Companies, Inc. System and techniques for automated mesh retopology

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309947A (ja) 2003-04-10 2004-11-04 Sharp Corp データ表示装置、データ表示プログラム、および、プログラム記録媒体
US20060028474A1 (en) 2004-08-05 2006-02-09 Hanspeter Pfister Rendering deformable and animated surface reflectance fields
US20150145861A1 (en) 2012-05-03 2015-05-28 Alcatel Lucent Method and arrangement for model generation
JP2017142788A (ja) 2016-01-28 2017-08-17 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 心腔の高解像度着色

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hiroharu KATO ほか,Neural 3D Mesh Renderer,[オンライン],2017年11月20日,p.1-17,[検索日 2019.07.04], インターネット<URL:https://arxiv.org/pdf/1711.07566.pdf>
前田浩輔 ほか,畳み込みニューラルネットワークを用いた3DCGによる強弱有り線画像の生成,情報処理学会研究報告 コンピュータグラフィックスとビジュアル情報学(CG),日本,情報処理学会,2018年02月24日,第2018-CG-169巻, 第7号,p.1-7,ISSN 2188-8949

Also Published As

Publication number Publication date
CN112204622A (zh) 2021-01-08
JPWO2019225734A1 (ja) 2021-05-27
WO2019225734A1 (ja) 2019-11-28
US11443485B2 (en) 2022-09-13
US20210074059A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US12272002B2 (en) Method and apparatus for generating virtual character, electronic device and readable storage medium
JP7119081B2 (ja) 投影データ生成装置、3次元モデル、投影データ生成方法、ニューラルネットワーク生成方法及びプログラム
CN111369655B (zh) 渲染方法、装置和终端设备
US11657560B2 (en) VRS rate feedback
KR101386180B1 (ko) 그래픽 시스템에서 2차 프로세서를 이용하기 위한 시스템 및 방법
WO2012106069A2 (en) Three-dimensional environment reconstruction
KR102701851B1 (ko) 큐브 맵을 텍스쳐링하기 위한 LOD(level of detail)를 결정하는 방법 및 장치
JP5616333B2 (ja) ジオメトリシェーダを用いる平面充填エンジンのためのシステム、方法及びコンピュータプログラム
EP3422709A1 (en) Stereo rendering
WO2023179091A1 (zh) 三维模型渲染方法、装置、设备、存储介质及程序产品
JP2023527438A (ja) リアルタイム深度マップを用いたジオメトリ認識拡張現実効果
US12505607B2 (en) Generation of tight world space bounding regions
CN118446909A (zh) 新视角合成方法、装置、设备、介质及计算机程序产品
EP4182892A1 (en) Direct volume rendering apparatus
KR20160068204A (ko) 메시 지오메트리를 위한 데이터 처리 방법 및 이를 기록한 컴퓨터 판독 가능 저장 매체
CN118451469A (zh) 用于光线跟踪的三角形相交和实例变换的公共电路
RU2427918C2 (ru) Метафора двумерного редактирования для трехмерной графики
CN115393498A (zh) 一种基于隐式光传输函数合并的绘制方法和装置
WO2024251027A1 (zh) 有向距离场的生成方法、装置、电子设备及存储介质
CN110276835B (zh) 用于高效建筑覆盖区确定的方法和设备
CN117671115A (zh) 动态人像渲染方法、装置、电子设备和计算机可读介质
CN116912379A (zh) 场景画面的渲染方法及装置、存储介质、电子设备
CN116934950A (zh) 皮肤渲染方法及装置、计算机存储介质、电子设备
US12511815B2 (en) System and method for primitive ID map sampling
US11900499B2 (en) Iterative indirect command buffers

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201204

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201204

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7119081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250