JP2013254233A - テクスチャマッピング装置、テクスチャマッピング方法、プログラム - Google Patents
テクスチャマッピング装置、テクスチャマッピング方法、プログラム Download PDFInfo
- Publication number
- JP2013254233A JP2013254233A JP2012127651A JP2012127651A JP2013254233A JP 2013254233 A JP2013254233 A JP 2013254233A JP 2012127651 A JP2012127651 A JP 2012127651A JP 2012127651 A JP2012127651 A JP 2012127651A JP 2013254233 A JP2013254233 A JP 2013254233A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- diffuse reflectance
- texture mapping
- image group
- illumination condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
【課題】物体の質感情報を繋ぎ目なくマッピングすることが可能なテクスチャマッピング装置等を提供する。
【解決手段】テクスチャマッピング装置1は、撮影装置2を制御し、物体40の部分領域ごとに多照明条件画像群を撮影し、多照明条件画像群を入力する(S1)。テクスチャマッピング装置1は、物体40のポリゴンデータ50を準備する(S2)。テクスチャマッピング装置1は、画像空間における第1拡散反射率を算出する(S3)。テクスチャマッピング装置1は、モデル空間における第2拡散反射率を特定する(S4)。テクスチャマッピング装置1は、第2拡散反射率を示すテクスチャをポリゴンデータ50にマッピングする(S5)。
【選択図】図5
【解決手段】テクスチャマッピング装置1は、撮影装置2を制御し、物体40の部分領域ごとに多照明条件画像群を撮影し、多照明条件画像群を入力する(S1)。テクスチャマッピング装置1は、物体40のポリゴンデータ50を準備する(S2)。テクスチャマッピング装置1は、画像空間における第1拡散反射率を算出する(S3)。テクスチャマッピング装置1は、モデル空間における第2拡散反射率を特定する(S4)。テクスチャマッピング装置1は、第2拡散反射率を示すテクスチャをポリゴンデータ50にマッピングする(S5)。
【選択図】図5
Description
本発明は、コンピュータグラフィックス(CG)における3次元モデルにテクスチャをマッピングするテクスチャマッピング装置等に関するものである。
3次元CG技術は、コンピュータに対して物体の形状、カメラの向きと画角と位置、光源の強度と位置などの情報を入力すると、コンピュータが3次元モデルを作成し、3次元モデルに基づいて最終的な画像をレンダリングする技術である。現実の物体の質感を忠実に再現するためには、現実の物体から取得される質感情報を示すテクスチャを、3次元モデルの表面にマッピングする必要がある。
特許文献1に記載の技術では、複数枚のテクスチャ画像を用いて3次元ポリゴンモデルにマッピングを行う際、テクスチャ画像間の重複箇所に係るブレンディング計算に優先度を設定する。これによって、特徴となる箇所をはっきりと表現できる。
また、特許文献2に記載の技術では、複数枚のテクスチャ画像を用いて3次元ポリゴンモデルにマッピングを行う際、物体と背景の境界に近い箇所のテクスチャ画像を参照しないようにマッピングする。これによって、背景色が混ざり込まないようにマッピングすることができる。
しかしながら、特許文献1や特許文献2などの公知の技術では、異なる照明条件下のテクスチャ画像をマッピングする場合、照明条件の違いに起因する繋ぎ目が表れてしまうという問題があった。
本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、物体の質感情報を繋ぎ目なくマッピングすることが可能なテクスチャマッピング装置等を提供することである。
前述した目的を達成するための第1の発明は、物体の部分領域ごとに撮影される多照明条件画像群を入力する入力手段と、前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出手段と、前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定手段と、前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピング手段と、を備えるテクスチャマッピング装置である。第1の発明に係るテクスチャマッピング装置は、従来技術のように、撮影画像自体をテクスチャ画像としてマッピングするのではなく、多照明条件画像群から算出される画像空間における第1拡散反射率に基づいて、モデル空間における第2拡散反射率を特定し、第2拡散反射率をマッピングする。これによって、物体の質感情報(拡散反射率)を繋ぎ目なくマッピングすることが可能となる。
前記特定手段は、前記部分領域ごとの代表画像群を表示し、前記代表画像同士の位置合わせを受け付け、前記代表画像同士の位置合わせの結果に従って、前記第2拡散反射率を特定することが望ましい。これによって、物体の質感情報(拡散反射率)を正確にマッピングすることが可能となる。
また、前記特定手段は、前記第1拡散反射率に基づいて同一の照明条件によるレンダリングを行うことにより、前記代表画像群を作成することが望ましい。これによって、テクスチャマッピング装置は、ユーザに代表画像を選択させたり、予め条件を設定させたりすることなく、同一の照明条件による代表画像を表示することができる。更に、同一の照明条件による代表画像同士であれば、位置合わせが容易となる。
また、前記特定手段は、前記代表画像同士の一部の領域が重なる場合には、両方の前記代表画像に係る前記第1拡散反射率に基づいて、前記第2拡散反射率を特定することが望ましい。これによって、物体の質感情報(拡散反射率)を、全ての領域において矛盾なく特定することができる。
第2の発明は、コンピュータが、物体の部分領域ごとに撮影される多照明条件画像群を入力する入力ステップと、前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出ステップと、前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定ステップと、前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピングステップと、を実行するテクスチャマッピング方法である。第2の発明に係るテクスチャマッピング方法は、従来技術のように、撮影画像自体をテクスチャ画像としてマッピングするのではなく、多照明条件画像群から算出される画像空間における第1拡散反射率に基づいて、モデル空間における第2拡散反射率を特定し、第2拡散反射率をマッピングする。これによって、物体の質感情報(拡散反射率)を繋ぎ目なくマッピングすることが可能となる。
第3の発明は、コンピュータを、物体の部分領域ごとに撮影される多照明条件画像群を入力する入力手段と、前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出手段と、前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定手段と、前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピング手段と、を備えるテクスチャマッピング装置として機能させるためのプログラムである。第3の発明を汎用のコンピュータにインストールすることによって、第1の発明のテクスチャマッピング装置を得ることができるとともに、第2の発明のテクスチャマッピング方法を実行することができる。
本発明により、物体の質感情報を繋ぎ目なくマッピングすることが可能なテクスチャマッピング装置等を提供することができる。ひいては、現実の物体の質感を忠実に再現した自然な画像を生成することができる。
本発明のテクスチャマッピング装置は、コンピュータグラフィックス(CG)における3次元モデルにテクスチャをマッピングする装置である。テクスチャは、物体の質感情報を示すものであり、特に、物体の拡散反射率を示すものである。以下図面に基づいて、本発明の実施形態を詳細に説明する。
図1は、テクスチャマッピングシステム100の構成図である。テクスチャマッピングシステム100は、自動的に物体の質感情報を取得し、質感情報を示すテクスチャを3次元モデルにマッピングするためのシステムである。テクスチャマッピングシステム100は、テクスチャマッピング装置1と撮影装置2とによって構成される。
テクスチャマッピング装置1は、制御部11、記憶部12、表示部13、入力部14、I/O15などを備える。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成される。CPUは、記憶部12、ROM、記憶媒体などに格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、各装置を駆動制御し、テクスチャマッピング装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、テクスチャマッピング装置1のブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記憶媒体などからロードしたプログラム、データなどを一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
記憶部12は、例えば、HDD(Hard Disk Drive)であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)などが格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をテクスチャマッピング装置1に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
表示部13は、液晶パネルなどのディスプレイ装置、ディスプレイ装置と連携してテクスチャマッピング装置1のビデオ機能を実現するための論理回路など(ビデオアダプタなど)を有する。入力部14は、データの入力を行い、例えば、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力部14を介して、テクスチャマッピング装置1に対して、操作指示、動作指示、データ入力などを行うことができる。尚、表示部13及び入力部14は、タッチパネルディスプレイのように、一体となっていても良い。
I/O15は、テクスチャマッピング装置1に周辺機器(カメラ21、光源22a〜22i、及びアーム回転用モータ23など)を接続するためのポートや送受信機である。テクスチャマッピング装置1は、I/O15を介して周辺機器とのデータの送受信を行う。I/O15の一例としては、USB、IEEE1394、RS−232Cなどのポートや、記憶媒体を読み書きするためのドライブ装置や、無線LAN機器や、Bluetooth(登録商標)送受信機などがある。周辺機器との接続形態は、有線、無線を問わない。
撮影装置2が具備するカメラ21、光源22a〜22i、及びアーム回転用モータ23は、I/O15を介して、テクスチャマッピング装置1の制御部11からの制御信号を受信可能となっている。また、カメラ21は、I/O15を介して、撮影画像のデータを、テクスチャマッピング装置1の制御部11に送信可能となっている。
図2は、撮影装置2の側面図である。図2に示すように、撮影装置2は、三脚24、支持台25、カメラ支持部26及びアーム支持部27と、カメラ21と、アーム28と、複数の光源22a〜22iと、を具備する。以下、光源22a〜22iを総称するときは、「光源22」と表記する場合もある。
三脚24は、支持台25を支持する。三脚24の高さ(支持体の高さ)は可変であることが望ましい。三脚24の高さを可変とすることによって、物体の高さに応じて、カメラ21の位置を決定することができる。三脚24の高さを可変とするためには、例えば、三脚高さ調整つまみ29を設ければ良い。
支持台25は、カメラ支持部26及びアーム支持部27を支持する。カメラ支持部26は、カメラ21を支持する。アーム支持部27は、アーム28を支持する。以下、三脚24、支持台25、カメラ支持部26及びアーム支持部27を総称するときは、単に「支持体」と表記する場合もある。
カメラ21は、カメラ支持部26(支持体)に戴置される。カメラ21は、計測範囲Mに位置する物体を撮影可能に戴置される。計測範囲Mについては後述する。カメラ21の性能及び機能は、物体の質感情報が取得できれば良く、特に限定するものではない。前述した通り、カメラ21の高さは、三脚24の高さを変えることによって調整可能である。また、カメラ支持部26は、カメラ21の前傾角度(或いは後傾角度)を調整可能に支持しても良い。カメラ21の前傾角度(或いは後傾角度)を調整可能とすれば、物体、カメラ21及び光源22の位置関係を微調整することができる。
アーム28は、アーム支持部27(支持体)に設けられ、四半円の円弧の形状を有する。四半円は、同一の半径及び同一の中心を有する真円に対して、1/4の面積を有する図形である。或いは、四半円は、同一の半径及び同一の中心を有する真円に対して、1/4の円周を有する図形とも言える。アーム28の材質は、複数の光源22の荷重に耐え得れば良く、特に限定するものではない。
アーム28は、計測範囲Mの周囲を回転可能とする。例えば、アーム下端部31には、シャフト(不図示)が第1水平線H1(一点鎖線)方向に貫通されている。シャフトの一端には、アーム回転用モータ23が設けられることが望ましい。アーム回転用モータ23は、第1水平線H1方向を回転軸とし、アーム28を任意の回転角度の位置まで回転させるモータである。アーム回転用モータ23を設けることによって、正確かつ容易に、アーム28を任意の位置に移動することができる。アーム回転用モータ23は、例えばステッピングモータを用いることができる。アーム28の回転範囲Rについては後述する。
光源22は、例えば、LED(Light Emitting Diode)ライトである。光源22の性能及び機能は、物体の質感情報が取得できれば良く、特に限定するものではない。
アーム28の形状を規定する四半円の半径と、光源22発する光の強さは、互いに依存関係にある。つまり、アーム28の形状を規定する四半円の半径を決めれば、光源22が発する光の強さも適切な値が決まる。逆に言えば、光源22が発する光の強さを決めれば、アーム28の形状を規定する四半円の半径も適切な値が決まる。
光源22は、アーム上端部30からアーム下端部31にかけて、アーム28の内縁32側に等間隔に設けられる。尚、アーム28の外縁33側には、光源22のための配線(不図示)が設けられる。図1の例であれば、9個の光源22a〜22iが等間隔に設けられている。アーム28は、四半円の円弧の形状を有することから、四半円の中心角によって、光源22同士の間隔が規定される。例えば、図2のように9個の光源22a〜22iを設ける場合、光源22a及び光源22bの間隔は、四半円の中心と光源22aとを結ぶ線と、四半円の中心と光源22bとを結ぶ線とによってなす角度が、「10度」となるように規定される。その他の間隔も同様である。
物体は、撮影したい表面が計測範囲Mに入るように配置する。つまり、撮影時には、物体の撮影したい表面が、アーム上端部30に設けられる光源22aから下ろす鉛直線V(一点鎖線)と、アーム28の回転軸に相当する第1水平線H1とが交差する点の周辺に位置する。
図3は、撮影装置2の正面図である。図3に示すように、撮影装置2のアーム28は、アーム下端部31を回転軸として、鉛直方向の左右に90度ずつ、合計180度回転可能とする。つまり、アーム上端部30は、第2水平線H2(一点鎖線)と平行な位置まで移動可能とする。尚、第2水平線H2は、第1水平線H1及び鉛直線Vと直交する。
図4は、回転範囲R及び計測範囲Mを説明する図である。第3水平線H3は、第2水平線H2と平行、かつ鉛直線Vと第1水平線H1との交点を通る。図4に示すように、アーム28の回転範囲Rは、アーム28の形状を規定する四半円と同一の半径及び同一の中心を有する四半球の球面の範囲である。四半球は、同一の半径及び同一の中心を有する真球に対して、1/4の体積を有する図形である。或いは、四半球は、同一の半径及び同一の中心を有する真球に対して、1/4の表面積を有する図形とも言える。
カメラ21は、回転範囲Rを規定する四半球の中心部に位置する物体を撮影可能に戴置される。図3に示す計測範囲Mは、回転範囲Rを規定する四半球の中心部の範囲を示している。計測範囲Mは、アーム28の形状を規定する四半円の半径に依存して決まる。
撮影時におけるテクスチャマッピングシステム100の動作について説明する。物体は、計測範囲Mに入るように配置される。物体は、撮影中に回転したり、向きを変えたりしない。テクスチャマッピング装置1の制御部11は、アーム回転用モータ23に対して、アーム28を任意の回転角度の位置まで回転させるように指示する制御信号を送信する。アーム回転用モータ23は、テクスチャマッピング装置1の制御部11からの制御信号に従い、アーム28を任意の回転角度の位置まで回転させる。
また、テクスチャマッピング装置1の制御部11は、複数の光源22a〜22iに対して、任意のタイミングで1つだけ光を発するように指示する制御信号を送信する。複数の光源22a〜22iは、テクスチャマッピング装置1の制御部11からの制御信号に従い、任意のタイミングで1つだけ光を発するように指示する。
また、テクスチャマッピング装置1の制御部11は、カメラ21に対して、任意のタイミングで物体を撮影するように指示する制御信号を送信する。カメラ21は、テクスチャマッピング装置1の制御部11からの制御信号に従い、任意のタイミングで物体を撮影する。
例えば、テクスチャマッピング装置1の制御部11は、1.5度ずつ、アーム28を回転させ、各回転角度の位置において、9個の光源22a〜22iに対して1個ずつ光を発するように指示するとともに、光を発するたびに、カメラ21に撮影するように指示する。カメラ21は、アーム28の回転角度の位置及び光源22の光の照射ごとに、1枚だけ撮影しても良いし、露光時間を変えて複数枚撮影しても良い。
撮影は、暗室を準備する必要はなく、自然光の環境下でも良い。例えば、テクスチャマッピング装置1の制御部11は、光源22が1つも光を発していない状態で、カメラ21に物体を撮影させる。そして、テクスチャマッピング装置1の制御部11は、光源22が1つも光を発していない状態で撮影された画像と、光源22が1つ光を発している状態で撮影された画像との差分に基づいて物体の質感情報を計算することによって、自然光の影響を無視することができる。
例えば、「アーム28を10度ずつ回転」、「9個の光源22」、「光源22が1つも光を発していない状態も撮影」、及び「露光時間を変えて3回撮影」という条件であれば、(180/10)×(9+1)×3=540枚の画像を撮影することになる。以下、物体が様々な照明条件下にて撮影される画像群を「多照明条件画像群」という。
このように、カメラ21によって撮影される照明条件画像群は、それぞれ照明条件が異なる。つまり、テクスチャマッピングシステム100によれば、自動的に、物体に対して様々な照明条件によって画像を撮影し、物体の質感情報を取得することが可能となる。
尚、本発明の実施の形態におけるテクスチャマッピングシステム100では、物体の質感情報を取得する為の装置は、撮影装置2の例に限定されない。例えば、撮影装置2に代えて、特開2003−90715号公報に記載の画像データ計測装置や、特開2005−115645号公報に記載のシェーディング情報取得装置などを用いても良い。いずれの装置であっても、多照明条件画像群を取得することができる。
但し、例えば、車両などのように大きな物体を撮影する場合、撮影装置2を用いることが望ましい。撮影装置2は、物体を載置するテーブルが不要なので、撮影可能な物体の大きさ及び形状に制限が無く、かつ容易に持ち運ぶことが可能だからである。特に、車両のように大きな物体であっても、撮影したい物体表面の近くに撮影装置2を設置し、多照明条件画像群を撮影するという作業を複数回行うことによって、車両のあらゆる表面の質感情報を取得することができるからである。
以下では、撮影対象の物体を車両とし、撮影装置2を用いて、車両のあらゆる表面の質感情報を取得する場合を例にして、本発明の実施の形態におけるテクスチャマッピング処理を説明する。
図5は、テクスチャマッピング処理の流れを示すフローチャートである。図5に示すように、テクスチャマッピング装置1の制御部11は、撮影装置2を制御し、物体40の部分領域ごとに多照明条件画像群を撮影し、多照明条件画像群を入力する(S1)。
図6は、多照明条件画像の撮影処理を説明する図である。図6(a)は、物体40の模式図である。図6(a)では、車両の側面を図示している。
図6(b)は、物体40の一の部分領域に対する一の画像範囲41aを示している。図6(b)に示すように、物体40が大きい場合、1回の撮影処理で物体40の全領域を撮影することはできない。そこで、撮影したい物体40の表面の近くに撮影装置2を設置し、多照明条件画像群を撮影するという作業を複数回行う。
図6(c)は、物体40の複数の部分領域に対する複数の画像範囲41a、41b、・・・を示している。以下、画像範囲41a、41b、・・・を総称するときは、「画像範囲41」と表記する場合もある。画像範囲41同士は、図6(c)に示すように、互いに一部の領域が重なる程度に設定することが望ましい。画像範囲41同士の隙間が生じてしまうと、物体40の質感情報の取得漏れが発生してしまうからである。
図5の説明に戻る。テクスチャマッピング装置1の制御部11は、物体40のポリゴンデータを準備する(S2)。テクスチャマッピング装置1の制御部11は、S1において入力される多照明条件画像群に基づいてポリゴンデータを作成しても良いし、予めモデリング済の物体40のポリゴンデータを記憶部12から取得しても良い。
図7は、ポリゴンデータ50の一例を示す図である。ポリゴンとは、3次元CGにおいて、微小面積を有する三角形や四角形(五角形以上でも良い。)の組合せによって物体を表現するときの各要素を意味する。図7に示すポリゴンデータ50では、3角形のポリゴンである。ポリゴンデータ50は、例えば、ポリゴンID51、頂点52などのデータ項目を有する。ポリゴンID51は、ポリゴンを一意に識別する番号である。頂点52は、ポリゴンの頂点座標である。図7に示すポリゴンデータ50では3角形のポリゴンであるから、頂点52は、3つの頂点座標を有する。各頂点座標は、3次元CGにおけるモデル空間の座標軸における座標である。各頂点座標の値は、別途他の記憶領域(不図示)に記憶しておく。尚、図7に示すポリゴンデータ50のデータ構造は一例であり、他のデータ構造であっても良い。例えば、ポリゴンデータ50は、3角形の頂点情報だけでなく、3角形の辺情報を有しても良い。
図5の説明に戻る。テクスチャマッピング装置1の制御部11は、画像空間における第1拡散反射率(以下、単に「第1拡散反射率」と表記する。)を算出する(S3)。画像空間とは、多照明条件画像群の空間である。画像空間の座標軸は、画像範囲41(物体40の部分領域)ごとに異なる。
テクスチャマッピング装置1の制御部11は、物体40の部分領域ごとに多照明条件画像群を入力し、例えば、以下に示す非特許文献1に記載の技術を用いて、第1拡散反射率の算出処理を実行することによって、第1拡散反射率を算出する。
<非特許文献1>武田祐樹,田中弘美,”多方向照明HDR画像を用いた金襴の多重解像度異方性BTFモデリング” 電子情報通信学会論文誌 D,Vol.J91-D,No.12,to appear,Dec. 2008
非特許文献1に記載の技術の概要を説明する。物体表面テクスチャの任意の点(u、v)における反射特性は、双方向テクスチャ関数(BTF:Bidirectional Texture Function)で表現される。BTF fr(θi、φi、θr、φr、u、v)は物体表面テクスチャの任意の点(u、v)において、入射方向(θi、φi)からの放射照度に対する視方向(θr、φr)への放射輝度の比として定義される。
但し、Lを光源ベクトル、Vを視線ベクトル、Nを法線ベクトル、LとNのなす角θiを入射角、LをXY平面に投影したベクトルとX軸がなす角φiを入射方位角、VとNのなす角θrを視角、VをXY平面に投影したベクトルとX軸がなす角φrを視方位角とする。また、LとNが存在する面を入射面と呼ぶ。物体表面テクスチャ上の各点(u、v)の反射特性は、各点(u、v)における双方向反射率分布関数(BRDF:Bidirectional Reflectance Distribution Function)によって表現される。
テクスチャの各点(u、v)において、反射率が最大となる入射方向を(θs、φs)とすると、鏡面反射は主に正反射方向に分布することから、鏡面反射が観測されない反射方向の反射率から拡散反射率を推定する。拡散反射率は、テクスチャの任意の点(u、v)におけるBRDFの最小値から抽出される。
図8は、第1拡散反射率の算出単位を説明する図である。第1拡散反射率の算出処理は、画像範囲41(物体40の部分領域)ごとに実行される。図8に示すように、テクスチャマッピング装置1の制御部11は、例えば、画像範囲41の領域を計算格子42に分割し、計算格子42ごとに第1拡散反射率を算出する。非特許文献1の概要説明における各点(u、v)が、計算格子42の中心座標に対応する。
図9は、第1拡散反射率データ60の一例を示す図である。第1拡散反射率データ60は、画像範囲ID61、計算格子ID62、第1拡散反射率63などのデータ項目を有する。画像範囲ID61は、画像範囲41を一意に識別する番号である。計算格子ID62は、計算格子42を一意に識別する番号である。第1拡散反射率63は、特定の画像範囲ID61及び特定の計算格子ID62に係る第1拡散反射率の値である。
図5の説明に戻る。テクスチャマッピング装置1の制御部11は、モデル空間における第2拡散反射率(以下、単に「第2拡散反射率」と表記する。)を特定する(S4)。第2拡散反射率の特定処理の詳細は、図10を参照しながら説明する。
図10は、モデル空間における第2拡散反射率の特定処理の流れを示すフローチャートである。図10に示すように、テクスチャマッピング装置1の制御部11は、物体40の部分領域(画像範囲41)ごとの代表画像群を表示部13に表示する(S11)。
代表画像とは、物体40の部分領域(画像範囲41)ごとに撮影される多照明条件画像群を代表する画像である。代表画像を表示する目的は、画像範囲41同士の位置合わせを行うことである。テクスチャマッピング装置1の制御部11は、後述するS12の代表画像同士の位置合わせを受け付けることによって、画像範囲41同士の位置合わせを実現する。
代表画像は、例えば、S1において撮影される多照明条件画像の中から、ユーザが選択するか、或いは、予め定義される条件(例えば、撮影装置2のアーム28の位置、光源22の位置、露光時間など)に基づいてテクスチャマッピング装置1の制御部11が自動的に選択する。
または、テクスチャマッピング装置1の制御部11は、S3において算出される第1拡散反射率に基づいて、全ての画像範囲41に対して同一の照明条件によるレンダリングを行うことにより、代表画像群を作成しても良い。これによって、テクスチャマッピング装置1は、ユーザに代表画像を選択させたり、予め条件を設定させたりすることなく、同一の照明条件による代表画像を表示することができる。更に、同一の照明条件による代表画像同士であれば、S12における位置合わせが容易となる。
次に、テクスチャマッピング装置1の制御部11は、代表画像同士の位置合わせを受け付ける(S12)。代表画像同士の位置合わせ処理は、テクスチャマッピング装置1とユーザとの対話処理によって行う。
図11は、代表画像同士の位置合わせ処理を説明する図である。図11(a)は、位置合わせ対象となる一方の画像範囲41aを図示している。図11(b)は、位置合わせ対象となる他方の画像範囲41bを図示している。ユーザは、図11(c)に示すように、入力部14を介して、画像範囲41a及び画像範囲41bの位置合わせを行う。これに対して、テクスチャマッピング装置1の制御部11は、代表画像同士の位置合わせを受け付けて、画像範囲41の位置を確定し、記憶部12に記憶する。
図10の説明に戻る。テクスチャマッピング装置1の制御部11は、S12における位置合わせの結果に従い、第2拡散反射率を特定する(S13)。
図12は、第2拡散反射率の特定単位を説明する図である。図12に示すように、テクスチャマッピング装置1の制御部11は、例えば、物体40を含む3次元モデルの領域をテクスチャ格子43に分割し、テクスチャ格子43ごとに第2拡散反射率を算出する。テクスチャ格子43は、各格子の位置がポリゴンデータ50に係るポリゴンの位置と対応付けられれば、どのように分割されても良い。
前述の通り、物体40の質感情報の取得漏れが発生しないように、画像範囲41同士は互いに一部の領域が重なる程度に設定される。従って、第1拡散反射率の算出処理において、物体40の表面上の同一の位置に対して、複数の第1拡散反射率が算出されている箇所がある。つまり、位置合わせの結果、代表画像同士が重なる箇所は、複数の第1拡散反射率が算出されている。
そこで、テクスチャマッピング装置1の制御部11は、代表画像同士の一部の領域が重なる場合には、両方の代表画像に係る第1拡散反射率に基づいて、第2拡散反射率を特定する。例えば、テクスチャマッピング装置1の制御部11は、両方の代表画像に係る第1拡散反射率の平均値を、第2拡散反射率として特定する。これによって、物体40の質感情報(拡散反射率)を、全ての領域において矛盾なく特定することができる。
図10の説明に戻る。テクスチャマッピング装置1の制御部11は、S13における第2拡散反射率の特定結果として、第2拡散反射率データを作成する(S14)。
図13は、第2拡散反射率データ70の一例を示す図である。第2拡散反射率データ70は、テクスチャ格子ID71、第2拡散反射率72などのデータ項目を有する。テクスチャ格子ID71は、テクスチャ格子43を一意に識別する番号である。第2拡散反射率72は、特定のテクスチャ格子ID71に係る第2拡散反射率の値である。テクスチャ格子43の位置情報(例えば、格子形状が矩形であれば、左上の頂点座標及び右下の頂点座標)は、別途他の記憶領域(不図示)に記憶しておく。テクスチャ格子43の位置情報は、3次元CGにおけるモデル空間において、任意の投影面上の座標である。
図10に示すように、テクスチャマッピング装置1の制御部11は、物体40の部分領域ごとの代表画像群を表示し、代表画像同士の位置合わせを受け付け、代表画像同士の位置合わせの結果に従って第2拡散反射率を特定する。これによって、物体の質感情報(拡散反射率)を正確にマッピングすることが可能となる。
図5の説明に戻る。テクスチャマッピング装置1の制御部11は、第2拡散反射率72を示すテクスチャをポリゴンデータ50にマッピングする(S5)。テクスチャマッピング装置1の制御部11は、任意の投影面における各テクスチャ格子43の第2拡散反射率72を、モデル空間における3次元座標空間のポリゴンにマッピングする。マッピング処理は公知の技術を用いる。
本発明の実施の形態におけるテクスチャマッピング装置1によれば、従来技術のように、撮影画像自体をテクスチャ画像としてマッピングするのではなく、多照明条件画像群から算出される画像空間における第1拡散反射率に基づいて、モデル空間における第2拡散反射率を特定し、第2拡散反射率をマッピングする。これによって、物体の質感情報(拡散反射率)を繋ぎ目なくマッピングすることが可能となる。
以上、添付図面を参照しながら、本発明に係るテクスチャマッピング装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1………テクスチャマッピング装置
2………撮影装置
40………物体
41、41a、41b………画像範囲
42………計算格子
43………テクスチャ格子
50………ポリゴンデータ
60………第1拡散反射率データ
70………第2拡散反射率データ
2………撮影装置
40………物体
41、41a、41b………画像範囲
42………計算格子
43………テクスチャ格子
50………ポリゴンデータ
60………第1拡散反射率データ
70………第2拡散反射率データ
Claims (6)
- 物体の部分領域ごとに撮影される多照明条件画像群を入力する入力手段と、
前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出手段と、
前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定手段と、
前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピング手段と、
を備えるテクスチャマッピング装置。 - 前記特定手段は、
前記部分領域ごとの代表画像群を表示し、
前記代表画像同士の位置合わせを受け付け、
前記代表画像同士の位置合わせの結果に従って、前記第2拡散反射率を特定する
請求項1に記載のテクスチャマッピング装置。 - 前記特定手段は、前記第1拡散反射率に基づいて同一の照明条件によるレンダリングを行うことにより、前記代表画像群を作成する
請求項2に記載のテクスチャマッピング装置。 - 前記特定手段は、前記代表画像同士の一部の領域が重なる場合には、両方の前記代表画像に係る前記第1拡散反射率に基づいて、前記第2拡散反射率を特定する
請求項2又は請求項3に記載のテクスチャマッピング装置。 - コンピュータが、
物体の部分領域ごとに撮影される多照明条件画像群を入力する入力ステップと、
前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出ステップと、
前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定ステップと、
前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピングステップと、
を実行するテクスチャマッピング方法。 - コンピュータを、
物体の部分領域ごとに撮影される多照明条件画像群を入力する入力手段と、
前記部分領域ごとに、前記多照明条件画像群に基づいて、画像空間における計算格子単位の第1拡散反射率を算出する算出手段と、
前記第1拡散反射率に基づいて、モデル空間におけるテクスチャ格子単位の第2拡散反射率を特定する特定手段と、
前記第2拡散反射率を示すテクスチャを、前記物体のポリゴンデータにマッピングするマッピング手段と、
を備えるテクスチャマッピング装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012127651A JP2013254233A (ja) | 2012-06-05 | 2012-06-05 | テクスチャマッピング装置、テクスチャマッピング方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012127651A JP2013254233A (ja) | 2012-06-05 | 2012-06-05 | テクスチャマッピング装置、テクスチャマッピング方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013254233A true JP2013254233A (ja) | 2013-12-19 |
Family
ID=49951711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012127651A Pending JP2013254233A (ja) | 2012-06-05 | 2012-06-05 | テクスチャマッピング装置、テクスチャマッピング方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013254233A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014032114A (ja) * | 2012-08-03 | 2014-02-20 | Dainippon Printing Co Ltd | 質感計測装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004265413A (ja) * | 2003-03-01 | 2004-09-24 | Boeing Co:The | ディスプレイの視点に環境の画像を与えるためのシステムおよび方法 |
JP2007072509A (ja) * | 2005-09-02 | 2007-03-22 | Dainippon Printing Co Ltd | 表面に繊維シートを張り付けた三次元仮想物体に基づく二次元画像生成方法および生成装置 |
JP2008204318A (ja) * | 2007-02-22 | 2008-09-04 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2011059960A (ja) * | 2009-09-09 | 2011-03-24 | Kao Corp | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム |
-
2012
- 2012-06-05 JP JP2012127651A patent/JP2013254233A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004265413A (ja) * | 2003-03-01 | 2004-09-24 | Boeing Co:The | ディスプレイの視点に環境の画像を与えるためのシステムおよび方法 |
JP2007072509A (ja) * | 2005-09-02 | 2007-03-22 | Dainippon Printing Co Ltd | 表面に繊維シートを張り付けた三次元仮想物体に基づく二次元画像生成方法および生成装置 |
JP2008204318A (ja) * | 2007-02-22 | 2008-09-04 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2011059960A (ja) * | 2009-09-09 | 2011-03-24 | Kao Corp | 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
JPN6016002186; 立川雄大, 外2名: '"照明条件の異なる画像からの光源方向と反射率の同時推定"' 情報処理学会研究報告 第2008巻, 第36号, 20080501, p.69-76, 社団法人情報処理学会 * |
JPN6016002188; 武田祐樹, 外1名: '"能衣装のデジタルコンテンツ化のための布物体モデリングと可視化"' 情報処理学会研究報告 第2007巻, 第1号, 20070112, p.33-38, 社団法人情報処理学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014032114A (ja) * | 2012-08-03 | 2014-02-20 | Dainippon Printing Co Ltd | 質感計測装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109997167B (zh) | 用于球面图像内容的定向图像拼接 | |
CN105787990B (zh) | 材料的着色cg表现 | |
CN110191328A (zh) | 一种动向投影装置、方法及投影仪 | |
US10096152B2 (en) | Generating data for use in image based lighting rendering | |
CN110312111B (zh) | 用于图像装置的自动校准的装置、系统和方法 | |
US20130070094A1 (en) | Automatic registration of multi-projector dome images | |
JP2018141653A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20180068492A1 (en) | Image processing device, image processing method, and image processing program | |
Sheng et al. | A spatially augmented reality sketching interface for architectural daylighting design | |
JP2016162392A (ja) | 3次元画像処理装置および3次元画像処理システム | |
CN110475109A (zh) | 一种投影成像系统、方法、装置及存储介质 | |
US20220343590A1 (en) | System and techniques for lighting adjustment for an immersive content production system | |
US20220343591A1 (en) | Color and lighting adjustment for immersive content production system | |
JP2018010473A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2013254233A (ja) | テクスチャマッピング装置、テクスチャマッピング方法、プログラム | |
US9881419B1 (en) | Technique for providing an initial pose for a 3-D model | |
US10935878B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007272847A (ja) | 照明シミュレーション方法及び画像合成方法 | |
Sheng et al. | Virtual heliodon: Spatially augmented reality for architectural daylighting design | |
JP2002131839A (ja) | 大画面用画像表示装置の位置調整方法 | |
JP2002132240A (ja) | 大画面用画像表示装置の位置調整装置 | |
US20240054251A1 (en) | Reverse engineering support apparatus | |
WO2024034437A1 (ja) | シミュレーション装置、シミュレーション方法及びコンピュータプログラム | |
US20220343562A1 (en) | Color and lighting adjustment for immersive content production system | |
Sawicki et al. | Geometrical Picture Integration in SEMI-CAVE Virtual Reality. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160524 |