JP7116767B2 - 画像処理装置およびその方法 - Google Patents

画像処理装置およびその方法 Download PDF

Info

Publication number
JP7116767B2
JP7116767B2 JP2020186747A JP2020186747A JP7116767B2 JP 7116767 B2 JP7116767 B2 JP 7116767B2 JP 2020186747 A JP2020186747 A JP 2020186747A JP 2020186747 A JP2020186747 A JP 2020186747A JP 7116767 B2 JP7116767 B2 JP 7116767B2
Authority
JP
Japan
Prior art keywords
image
image processing
height
processing apparatus
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020186747A
Other languages
English (en)
Other versions
JP2021012751A (ja
Inventor
緑 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020186747A priority Critical patent/JP7116767B2/ja
Publication of JP2021012751A publication Critical patent/JP2021012751A/ja
Priority to JP2022122013A priority patent/JP7421607B2/ja
Application granted granted Critical
Publication of JP7116767B2 publication Critical patent/JP7116767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Description

本発明は、内部散乱光を考慮して半透明物体を再現する画像処理に関する。
近年、コンピュータグラフィクス(CG)分野において、物体表面だけでなく物体内部で光が散乱する半透明物体を描画する技術が発展した。ここで、特に人肌は、内部散乱光の再現のみでなく、表面の皺、毛穴などの再現も重要であるため、描画処理の難易度が高い。皺や毛穴などの表面形状を以下では「物体表面の微細凹凸(fine irregurality of an object surface: FIOS)」と呼ぶことにする。また、半透明物体は、白濁したガラスやプラスチック、濁った液体、生体細胞など、その内部で光の透過と散乱が生じる物体である。
内部散乱光の再現手法として、特許文献1に開示された方法が知られている。特許文献1は、複数点におけるサンプリングを行い、双方向散乱面反射率分布関数(BSSRDF)を用いて画素値を積分し、暈し処理を行う。画像値の波長チャネルごとに暈け量が異なる暈し処理を行って内部散乱光を再現する手法も知られている。また、FIOSの再現手法として、表面形状を表すバンプマップを用いる処理がある。CGにより人肌を再現する場合、通常、FIOSを再現した後、暈し処理を実行する。
図1により内部散乱光の影響を受けたFIOSをもつ半透明物体のアピアランスを説明する。図1は、半透明物体101に光が入射した場合の内部散乱光の拡がりを断面方向から示す。図1(a)に示すように、半透明物体101の表面に垂直な方向から光が入射した場合、出射光は短波長光Bに比べ長波長光Rが大きく拡がる特徴を示す。
一方、図1(b)は、半透明物体101に斜めに光が入射した場合を示す。斜めから入射した光は、入射方向に拡がる特徴をもつ。そのため、斜めにカットされた半透明物体101の右部(以下、カット部)は、本来ならば光が入射せずシャドウが生じる部分であるが、内部散乱光が出射するためカット部が明るくなる。このとき、より拡がり易い長波長光がカット部からより多く出射し、内部散乱光がない場合はシャドウ部であるカット部が内部散乱光によって赤くかつ明るく観察される。内部散乱光がない場合はシャドウ部であるカット部は、人肌の場合、皺や毛穴などのFIOSに相当する。
特許文献1の技術は、FIOSの影響を考慮せず一様に暈し処理を行うため、FIOSが赤くかつ明るくなる特徴を再現することができない。FIOSは半透明物体のアピアランスに大きく影響することから、この内部散乱光によりFIOSが赤くかつ明るくなる特徴(以下、明度上昇)を、忠実に再現する必要がある。
特表2006-506742号公報
本発明は、内部散乱光を考慮して半透明物体を再現することを目的とする。
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
本発明にかかる画像処理装置は、表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力手段と、
前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成手段と
を備え、
前記生成手段は、前記第2画像における前記凹凸によって生じるシャドウ領域内の一部の領域が該シャドウ領域内のその他の領域より赤くなるように前記第1画像を補正する
ことを特徴とする。
本発明によれば、内部散乱光を考慮して半透明物体を再現することができる。例えば、内部散乱光による物体表面の微細凹凸(FIOS)の明度上昇の再現が可能になる。
内部散乱光の影響を受けたFIOSをもつ半透明物体のアピアランスを説明する図。 実施例の画像処理装置として機能する情報処理装置の構成例を示すブロック図。 画像処理装置の処理構成例を説明する図。 描画処理における法線マッピング法の概要を説明する図。 法線マッピング処理を詳細に説明する図。 画像処理装置が実行する描画処理を説明するフローチャート。 高さ情報λ-hを説明する図。 法線マップ生成部による波長ごとの法線マップの生成処理を説明するフローチャート。 算出画像生成部による算出画像の生成処理を説明するフローチャート。 陰影処理を説明する図。 実施例2の画像処理装置の処理構成例を示すブロック図。 画像処理装置が実行する描画処理を説明するフローチャート。 内部散乱光の回り込みの概念で示す図。 実施例3の高周波数エリアの選択処理を含む波長ごとの法線マップの作成処理を説明するフローチャート。
以下、本発明にかかる実施例の画像処理装置および画像処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。
近年、撮影画像に対して照明光を変更、追加するリライティングと呼ばれる画像処理手法が提案されている。リライティング処理は、対象物の形状情報を用いて、新たな照明環境下における描画処理を行う。特に人肌のリライティング処理を行う場合、内部散乱光の影響を考慮しないと、実際の人肌と異なる、不自然なアピアランスを生じる。
以下の実施例においては、内部散乱光が物体表面の微細凹凸(FIOS)のアピアランスに与える影響を考慮した半透明物体の再現手法を説明する。人肌の忠実な再現を行うため、人肌が撮影された画像領域に理想のFIOS形状(キメ)を付加し、実施例で説明する再現手法を適用すれば、人肌における忠実な内部散乱光の再現が可能になる。
実施例1として、描画対象の物体の表面の微細凹凸(FIOS)を示す情報を波長に応じて変更する描画技術を用いる半透明物体の再現手法を説明する。
[装置の構成]
図2のブロック図により実施例の画像処理装置として機能する情報処理装置の構成例を示す。マイクロプロセッサ(CPU)201は、メインメモリ202をワークメモリとして、記憶部203に格納されたプログラムなどを実行し、各種演算処理を行い、システムバス206を介して後述する構成を制御する。メインメモリ202は、例えばランダムアクセスメモリ(RAM)やリードオンリメモリ(ROM)から構成される。
記憶部203は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)であり、画像処理プログラム、描画対象の物体を表すデータや光源の特性データなどが格納される。入力部204は、キーボードやマウスなどであり、ユーザ操作やユーザ指示を入力するためのデバイスである。表示部205は、CPU201が生成した画像やユーザインタフェイス(UI)を液晶パネルなどのモニタ207に表示する。
コンピュータ機器である情報処理装置は、図示しないネットワークインタフェイスを備えていてもよい。その場合、有線または無線ネットワークを介してサーバ装置にアクセスし、サーバ装置から各種プログラムや特性データを取得したり、演算処理結果をサーバ装置に出力することができる。また、情報処理装置は、後述する画像処理を実現するプログラムを実行するタブレットやスマートフォンでもよく、その場合、モニタ207と入力部204は一体化されたタッチパネルとして提供される。
●画像処理装置
図3により画像処理装置の処理構成例を説明する。図3に示す処理構成は、CPU201が画像処理プログラムを実行することにより実現される。入力部301-305は、システムバス206を介して次の情報をそれぞれ入力する。
頂点情報の入力部301は、記憶部203などから描画対象の物体の形状を表す頂点情報を入力する。光源情報の入力部302は、記憶部203または入力部204などから光源情報を入力する。拡散色情報の入力部303は、記憶部203などから描画対象の物体の色を表す拡散色マップを入力する。FIOS情報の入力部304は、記憶部203などから、FIOSの第一の情報FIOS1として描画対象の物体の表面の相対的な高さを表す、詳細を後述する高さマップを入力する。高さ情報λ-hの入力部305は、記憶部203または入力部204などから、詳細を後述する高さ情報λ-hを入力する。
頂点処理部306は、入力された頂点情報に基づき頂点処理を行い、頂点処理結果を算出画像生成部308に出力する。法線マップ生成部307は、高さマップFIOS1と高さ情報λ-hに基づき、FIOSの第二の情報FIOS2として波長ごとの法線マップを作成し、それら法線マップFIOS2iを算出画像生成部308に出力する。
算出画像生成部308は、描画処理部309と画像合成部310を有する。描画処理部309は、頂点処理部306の頂点処理結果、光源情報、拡散色マップ、法線マップ生成部307から入力される波長ごとの法線マップFIOS2iに基づき、波長ごとに陰影処理を含む描画処理を行う。画像合成部310は、描画処理部309が作成した波長ごとのオブジェクトである陰影処理画像を合成した合成画像生成する。合成画像は、描画対象の物体を表す算出画像として出力部311から出力される。
[法線マッピング法の概要]
FIOSは微細であるため、ポリゴンを用いてFIOSを描画すれば膨大なデータ量の演算が必要になる。そのため、少ない演算量でFIOSを再現する手法が必要になる。法線マッピング法は、ポリゴンの代わりに法線方向を格納した画像データ(法線マップ)を用いることで疑似的にFIOSを再現する手法である。
図4により描画処理における法線マッピング法の概要を説明する。図4(a)に示すように、平面上において法線は常に上向きである。図4(b)に示すように斜面が含まれる場合、斜面上の法線と平面上の法線の間に傾きが発生する。図4(c)に示すように、斜面の法線を平面に割り当てると、斜面同様にシャドウが発生するため、平面ではあるが斜面が存在するようなアピアランスを与えることができる。言い替えれば、法線マップによって、描画するオブジェクトの面の傾きを表すことができる。また、法線マッピング処理によって描画されるオブジェクトの精度は、法線マップに格納される法線の数の密度に依存する。
図5により法線マッピング処理を詳細に説明する。FIOS情報は、例えば、描画対象の物体の基準面と同じ高さを示す値として「0.0」、基準面から最も高い位置を示す値として「1.0」を有する。高さマップFIOS1は、FIOS情報の値0.0から1.0を示すグレイスケールデータである。例えば、描画対象の物体のFIOSの底(最深部)を基準面とすればよい。あるいは、FIOSを除く描画対象の物体の平均的な表面を基準面としてFIOS情報を作成してもよい。この場合、FIOS情報が正負の値を有することになるので、FIOS情報の最小値(負値)を「0.0」として正規化を行うことで、最深部が「0.0」、最も高い位置が「1.0」を有するFIOS情報が得られる。
法線マップ生成部307は、高さマップFIOS1から高さの変化を取得し、高さの変化に基づくベクトル情報(法線の単位ベクトル)を各画素に格納した法線マップFIOS2を生成する。なお、高さマップから法線マップを作成する例を挙げたが、高さ情報λ-hが取得可能な情報に基づき法線マップを作成してもよいし、法線マップが直接入力されてもよい。
また、描画処理部309は、法線マップFIOS2と同様にベクトル情報を格納した照明マップを光源情報から生成する。照明マップの各画素は、光源を向き、入射光量に対応する長さを有するベクトルを格納する。法線マップFIOS2と照明マップの対応する画素のベクトルの内積をとると、描画すべき画素の輝度値が算出される。
[描画処理」
図6のフローチャートにより画像処理装置が実行する描画処理を説明する。入力部301は、描画対象の物体の形状を表す頂点情報を入力する(S601)。頂点処理部306は、入力された頂点情報に基づき頂点処理を行う(S602)。頂点処理には、頂点シェーダ、クリッピング、透視変換、ビューポート変換などのCG処理が含まれるが、それらの手法は既知であり、説明を省略する。
次に、入力部302は、光源情報を入力する(S603)。光源情報は、光源の波長ごとの明るさ情報である分光放射輝度と仮想空間上の光源位置を示す。入力部303は、描画対象の物体の色を表す拡散色マップを入力する(S604)。入力部304は、描画対象の物体のFIOS情報である高さマップFIOS1を入力する(S605)。入力部305は、高さ情報λ-hを入力する(S606)。なお、各情報の入力順は一例であり、上記に限定されず、任意の順に各情報を入力することができる。
図7により高さ情報λ-hを説明する。高さ情報λ-hは、波長と、高さマップの高さの最大値の関係を示す。図7(a)は高さ情報λ-hの一例であり、波長λiにおける高さマップの高さの最大値hを示すテーブル形式のデータである。例えば波長w1が赤(R)成分、波長w2が緑(G)成分、波長w3が青(B)成分に対応すると仮定するとw1>w2>w3の関係を有し、この場合、各波長に対応する高さの最大値の関係としてh1<h2<h3が設定される。つまり、高さ情報λ-hは、通常、長波長ほど小さな最大値hを有し、短波長ほど大きな最大値hを有する情報である。また、高さの最大値の関係としてh1=h2=h3を設定することで、不透明物体や半透明物体上の不透明物体による被覆部の明度上昇の処理を禁止することができる。
法線ベクトルの向きの変化は図4に示すように斜面の傾きに依存する。図7(b)に示すように、最大値hが小さく傾きが小さい場合、法線ベクトルの向きは、平面に垂直な向き(図7(b)の破線矢印)に近い分布を示す。一方、最大値hが大きく、傾きが大きい場合、法線ベクトルの向きは、より分散した分布を示す。従って、長波長光ほど、最大値hを小さく設定して法線ベクトルの向きの変化を小さくし、短波長光ほど、最大値hを大きく設定して法線ベクトルの向きの変化を大きくすることができる。言い替えれば、波長λに対して高さの最大値hの差を与えることで、後述する画素値の計算処理において(内部散乱光がない場合はシャドウ部である)FIOSの明度上昇を得る。
図7(c)は、図7(a)に示す高さ情報λ-hを用いて高さマップFIOS1iを生成する場合の高さマップFIOS1の値(横軸)と、高さマップFIOS1iの値(縦軸)関係を示す。なお、高さマップの値と高さの関係の定義はテーブル形式に限定されず、多項式などを用いて定義してもよい。
次に、法線マップ生成部307は、高さマップFIOS1と高さ情報λ-hを用いて、波長ごとの法線マップFIOS2を生成する(S607)。算出画像生成部308は、ステップS602からS607において入力または生成された情報を用いて、陰影処理を含む画素値の計算処理(描画処理)を行って波長λiごとのオブジェクトである陰影処理画像を描画する(S608)。そして、波長λiごとのオブジェクトである陰影処理画像を合成し(S609)、合成によって得た算出画像を出力部311を介して出力する(S610)。描画対象の物体を表す算出画像は、表示部205によってモニタ207に表示されたり、記憶部203などに格納されたりする。
●法線マップ生成部
図8のフローチャートにより法線マップ生成部307による波長ごとの法線マップの生成処理(S607)を説明する。法線マップ生成部307は、カウンタiを0に初期化し(S801)、高さ情報λ-hからi番目の波長λiおよび高さの最大値hiを取得する(S802)。例えば、図7(a)に示す高さ情報λ-hが入力された場合、最初は波長w1および最大値h1が取得される。続いて、法線マップ生成部307は、最大の高さを最大値hiとした波長λiの高さマップFIOS1iを作成し(S803)、高さマップFIOS1iに基づき波長λiの法線マップFIOS2iを作成する(S804)。なお、法線マップFIOS2iのヘッダ情報として対応する波長λiが記録される。
次に、法線マップ生成部307は、カウンタiをインクリメントし(S805)、カウント値iと高さ情報λ-hの波長数Nを比較することで、波長ごとの法線マップの生成処理を終了するか否かを判定する(S806)。つまり、i≦Nであれば処理をステップS802に戻して次の波長λiの法線マップを作成し、i>Nであれば波長ごとの法線マップの生成処理を終了する。
●算出画像生成部
図9のフローチャートにより算出画像生成部308による算出画像の生成処理(S608-S609)を説明する。算出画像生成部308において、描画処理部309は、光源情報に基づき照明マップを生成、カウンタiを0に初期化する(S901)。続いて、描画処理部309は、法線マップFIOS2iのヘッダ情報から波長λiを取得し(S902)、入力された拡散色マップから、波長λiに対応する拡散色マップを抽出する(S903)。そして、頂点処理結果、照明マップ、波長λiに対応する拡散色マップおよび法線マップFIOS2iを用いて陰影処理を含む描画処理を行い、波長λiのオブジェクトである陰影処理画像を生成する(S904)。
波長ごとの陰影処理画像は、例えば、R成分、G成分またはB成分のグレイスケール画像に相当する。ただし、波長λiは、R成分、G成分またはB成分の主波長に限られず、三波長以上あればよく、波長λiの各陰影処理画像を合成することでフルカラー画像を得ることができればよい。
図10により陰影処理を説明する。図10(a)は波長w1、w2、w3の拡散色を示す。なお、前述したように波長はw1>w2>w3の関係にある。図10(b)は波長w1、w2、w3に対応する法線マップFIOS2iを示す。上述したように、各波長に対応する高さはh1≦h2≦h3の関係を有するため、法線マップFIOS2iにおいて、波長w3のベクトルの向きの変化に比べて、波長w1のベクトルの向きの変化は小さい。図10(c)はステップS904において作成される陰影処理画像を示す。長波長光になるほどベクトルの向きの変化が小さい法線マップFIOS2iを使用することで、波長w3のFIOSの明度に比べて、波長w1におけるFIOSの明度が増加し、図10(c)に示すような、明度上昇が得られる。
次に、描画処理部309は、カウンタiをインクリメントし(S905)、カウント値iと法線マップFIOS2の数Nを比較することで、描画処理を終了するか否かを判定する(S906)。つまり、i≦Nであれば処理をステップS902に戻して、次の波長λiの描画処理を行い、i>Nであれば描画処理を終了する。描画処理が終了すると、画像合成部310は、波長λiの各陰影処理画像を合成したカラー画像を算出画像として生成し(S907)、算出画像の生成処理が終了する。
このように、(内部散乱光がない場合はシャドウ部である)FIOSの明度上昇により、FIOSが赤くかつ明るくなる特徴を再現することができ、内部散乱特性をもつ半透明物体をより忠実に再現することが可能になる。
上記では、第一の表面微細凹凸情報として入力した高さマップFIOS1を、第二の表面微細凹凸情報である波長ごとの法線マップFIOS2iに変換する例を説明したが、第一および第二の表面微細凹凸情報は高さマップや法線マップに限定されない。例えば、カメラや測距装置などによって測定された距離情報など、FIOS情報を含む情報であれば使用可能である。また、FIOS1からFIOS2iへの変換も、高さマップの高さを変更する方法だけでなく、波長ごとに異なる暈し処理をFIOS1に施す方法も利用可能である。
以下、本発明にかかる実施例2の画像処理装置および画像処理方法を説明する。なお、実施例2において、実施例1と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。
実施例1の処理を行うと、FIOSの形状が波長ごとに異なるため、光沢の大きさや形状が波長ごとに多少異なって合成後に色ずれとして表れる場合がある。実施例2においては、光沢部の計算を一つの法線マップから別途行いし、光沢部の画像と陰影処理画像の合成を行うことで、光沢部における色ずれを解消する。
図11のブロック図により画像処理装置の処理構成例を示す。実施例2の画像処理装置の構成は、図3に示す構成に、光沢画像計算部321と光沢画像合成部322を加えたものである。光沢画像計算部321は、法線マップ生成部307から取得した一つの法線マップFIOS2iと、描画処理部309から取得した照明マップを用いて光沢画像を描画し、光沢画像を光沢画像合成部322に出力する。
光沢画像合成部322は、算出画像生成部308から入力される陰影処理画像の合成画像と光沢画像計算部321から入力される光沢画像を合成した算出画像を生成する。なお、陰影処理画像の合成画像に既に光沢部がある場合、光沢画像合成部322は、当該光沢部を削除するなどの処理を行った後、陰影処理画像の合成画像に光沢画像を合成する。
図12のフローチャートにより実施例2の画像処理装置が実行する描画処理を説明する。ステップS601-S609の処理は実施例1と同様であり、詳細説明を省略する。光沢画像合成部322は、法線マップ生成部307が作成した法線マップFIOS2iの一つおよび照明マップを取得し(S621)、それらを用いて光沢画像を描画する(S622)。
次に、光沢画像合成部322は、算出画像生成部308から入力される陰影処理画像の合成画像と光沢画像計算部321から入力される光沢画像を合成した算出画像を生成し(S623)、算出画像を出力部311を介して出力する(S624)。算出画像は、表示部205によってモニタ207に表示されたり、記憶部203などに格納されたりする。このように、光沢部の色ずれを解消することができる。
以下、本発明にかかる実施例3の画像処理装置および画像処理・方法を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。
実施例3として、内部散乱光の影響が顕著に表れる、FIOSの空間周波数が高周波数になるエリア(以下、高周波数エリア)に選択的に半透明物体の再現手法を適用する手法を説明する。図13により内部散乱光の回り込みの概念で示す。図13(a)はFIOSの空間周波数が高周波数の半透明物体(以下、高周波数物体)における内部散乱光の回り込みを示し、図13(b)はFIOSの空間周波数が低周波数の半透明物体(以下、低周波数物体)に対する内部散乱光の回り込みを示す。
図13(a)に示すように、高周波数物体の内部における光の移動距離は短い。一方、図13(b)に示すように、低周波数物体の内部における光の移動距離は長い。吸収される光の量は、光の移動距離に応じて増加するため、高周波数物体から出射する光量は多く、低周波数物体から出射する光量は少なくなる。そのため、図13(b)に示す低周波数物体においては、明度上昇を必要とするほどの内部散乱光の出射はない。従って、内部散乱光の影響をより顕著に受ける高周波数エリアへの、半透明物体の再現手法の選択的な適用が効果的と言える。
図14のフローチャートにより高周波数エリアの選択処理を含む波長ごとの法線マップの作成処理(S607)を説明する。カウンタiの初期化(S801)後、法線マップ作成部307は、FIOS情報(例えば高さマップFIOS1)に基づき高周波数エリアを抽出する(S811)。続いて、高さ情報λ-hからi番目の波長λiおよび高さの最大値hiを取得し(S802)、抽出した高周波数エリアについて、波長λiの高さマップFIOS1iを作成する(S812)。ステップS805、S806の処理は実施例1と同様であり、詳細説明を省略する。
ステップS806の判定結果がi>Nになると、法線マップ作成部307は、高周波数エリアとして抽出しなかった非抽出エリアについて、所定の高さ(例えば、基準面の高さ)を示す情報を各波長λiの高さマップFIOS1iに設定する(S813)。そして、各波長λiの高さマップFIOS1iに基づき各波長λiの法線マップFIOS2iを作成し(S814)、波長ごとの法線マップの生成処理を終了する。
このように、高周波数エリアについて波長ごとに最大の高さが異なり、非抽出エリアについて高さ情報が一致した高さマップFIOS1iが作成される。従って、内部散乱光の影響が顕著に表れる、FIOSの空間周波数が高周波数になるエリアに選択的に半透明物体の再現手法を適用することができる。
[変形例]
例えば、光源が長波長光を含まない場合や、拡散色マップに長波長域の色が含まれない場合、明度上昇は観察されないか、観察されても極く僅かな場合がある。そのような場合の明度上昇の再現処理の負荷を低減するために、法線マップ生成部307は、拡散色マップや光源情報から波長ごとの法線マップFIOS2iを作成するか否かを決定してもよい。波長ごとの法線マップFIOS2iを作成しない場合、法線マップ生成部307は、高さマップFIOS1に対応する法線マップFIOS2を出力する。
また、上記では、描画対象の物体が半透明物体であることを前提に説明を行った。半透明物体の一部が不透明物体に覆われている場合、不透明物体によって被覆されていない半透明物体の非被覆部が実施例1-3の再現手法の適用範囲である。その場合の被覆部は、当該再現手法の適用範囲外としてもよいし、波長ごとの法線マップFIOS2iを作成しないエリアとして、非被覆部と同様の再現手法を適用してもよい。
また、描画対象の物体の表面に浅い角度(入射角90度に近い角度)で光が入射する場合、アピアランスに対する内部散乱光の影響は、反射光のそれに比べて小さくなる。従って、実施例3における高周波数エリアと同様に、描画対象の物体の表面に入射する照明光の入射角が所定角度未満のエリア(低入射角エリア)を抽出することも有効である。この場合、抽出エリアについて波長ごとに最大の高さが異なり、非抽出エリアについて高さ情報が一致した高さマップFIOS1iが作成され、各波長λiの高さマップFIOS1iに基づき各波長λiの法線マップFIOS2iが作成される。従って、内部散乱光の影響が顕著に表れる、低入射角エリアに選択的に半透明物体の再現手法を適用することができる。
[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
304 … 入力部、307 … 法線マップ生成部、309 … 描画処理部、310 … 画像合成部

Claims (16)

  1. 表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力手段と、
    前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成手段と
    を備え、
    前記生成手段は、前記第2画像における前記凹凸によって生じるシャドウ領域内の一部の領域が該シャドウ領域内のその他の領域より赤くなるように前記第1画像を補正する
    ことを特徴とする画像処理装置。
  2. 前記一部の領域は、前記シャドウ領域内のその他の領域より赤くかつ明るいことを特徴とする請求項1に記載の画像処理装置。
  3. 前記シャドウ領域は、前記第2画像における前記凹凸によって生じる凹部の領域であり、前記凹凸における凸部と隣接している領域であることを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記第1画像は複数の色成分を有し、該複数の色成分は赤、青、緑であり、前記第1画像における各画素は前記複数の色成分それぞれの画素値を有することを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。
  5. 前記生成手段は、前記シャドウ領域内における人肌の領域の一部の画素について、前記画素値の赤、青、緑の比において赤の比が大きくなるように前記第1画像を補正することを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1画像から前記生成手段による補正後の前記第2画像への変化の度合いが、前記複数の色成分それぞれで互いに異なることを特徴とする請求項4または請求項5に記載の画像処理装置。
  7. 前記生成手段は、前記凹凸の高さを表す高さマップと、前記複数の色成分に対応する波長ごとに作成された高さ情報と、を用いて前記第1画像を補正することを特徴とする請求項4乃至請求項6の何れか1項に記載の画像処理装置。
  8. 前記高さ情報は、前記高さマップにおいて前記赤の高さを制限するための情報であることを特徴とする請求項7に記載の画像処理装置。
  9. 前記生成手段は、前記凹凸の高さを表す高さマップと、前記複数の色成分に対応する波長ごとに作成された高さ情報と、を用いて法線マップを作成する作成手段を有し、
    前記作成手段は、前記複数の色成分中に長波長光が存在する場合に前記法線マップを作成する請求項7または請求項8に記載の画像処理装置。
  10. 前記作成手段は、前記第1画像中の前記被写体の領域が半透明体でない物体に被覆される領域である場合は、該領域の前記法線マップを作成しないことを特徴とする請求項9に記載の画像処理装置。
  11. 前記生成手段は、前記第1画像を補正することによって得られた補正画像を前記第1画像に合成して前記第1画像を補正することを特徴とする請求項1乃至請求項9の何れか1項に記載の画像処理装置。
  12. 前記第2画像において、前記第1画像を撮像した際の照明光とは異なる照明光と前記被写体の表面とが成す角が浅い領域については、前記高さ情報は、前記高さマップにおいて前記赤の高さの制限を他の色成分の高さの制限と一致させることを特徴とする請求項7乃至請求項10の何れか1項に記載の画像処理装置。
  13. 前記第2画像における前記被写体の光沢を表す光沢画像を計算する計算手段を有し、
    前記生成手段は、前記光沢画像を前記第1画像に合成して前記第1画像を補正することを特徴とする請求項1乃至請求項11の何れか1項に記載の画像処理装置。
  14. 前記シャドウ領域内の一部の領域は、前記その他の領域に比べて高周波領域であることを特徴とする請求項1乃至請求項11の何れか1項に記載の画像処理装置。
  15. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の入力手段が、表面に凹凸を有する被写体を撮像して得られる第1画像を入力する入力工程と、
    前記画像処理装置の生成手段が、前記第1画像を撮像した際の照明光とは異なる照明光を、前記第1画像中の前記被写体に仮想的に投影して撮像した場合に得られる第2画像を、前記第1画像を補正することにより生成する生成工程と
    を備え、
    前記生成工程では、前記第2画像における前記凹凸によって生じるシャドウ領域内の一部の領域が該シャドウ領域内のその他の領域より赤くなるように前記第1画像を補正する
    ことを特徴とする画像処理方法。
  16. コンピュータを、請求項1乃至14の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2020186747A 2020-11-09 2020-11-09 画像処理装置およびその方法 Active JP7116767B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020186747A JP7116767B2 (ja) 2020-11-09 2020-11-09 画像処理装置およびその方法
JP2022122013A JP7421607B2 (ja) 2020-11-09 2022-07-29 画像処理装置およびその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186747A JP7116767B2 (ja) 2020-11-09 2020-11-09 画像処理装置およびその方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016008281A Division JP6792335B2 (ja) 2016-01-19 2016-01-19 画像処理装置およびその方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022122013A Division JP7421607B2 (ja) 2020-11-09 2022-07-29 画像処理装置およびその方法

Publications (2)

Publication Number Publication Date
JP2021012751A JP2021012751A (ja) 2021-02-04
JP7116767B2 true JP7116767B2 (ja) 2022-08-10

Family

ID=74227829

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020186747A Active JP7116767B2 (ja) 2020-11-09 2020-11-09 画像処理装置およびその方法
JP2022122013A Active JP7421607B2 (ja) 2020-11-09 2022-07-29 画像処理装置およびその方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022122013A Active JP7421607B2 (ja) 2020-11-09 2022-07-29 画像処理装置およびその方法

Country Status (1)

Country Link
JP (2) JP7116767B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021410A (ja) 2002-06-13 2004-01-22 Casio Comput Co Ltd 画像処理装置および画像処理方法
JP2013054728A (ja) 2011-08-11 2013-03-21 Canon Inc 画像処理装置およびその制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6493395B2 (ja) 2014-04-30 2019-04-03 ソニー株式会社 画像処理装置と画像処理方法
JP6423625B2 (ja) 2014-06-18 2018-11-14 キヤノン株式会社 画像処理装置および画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021410A (ja) 2002-06-13 2004-01-22 Casio Comput Co Ltd 画像処理装置および画像処理方法
JP2013054728A (ja) 2011-08-11 2013-03-21 Canon Inc 画像処理装置およびその制御方法

Also Published As

Publication number Publication date
JP2021012751A (ja) 2021-02-04
JP2022136304A (ja) 2022-09-15
JP7421607B2 (ja) 2024-01-24

Similar Documents

Publication Publication Date Title
US6888544B2 (en) Apparatus for and method of rendering 3D objects with parametric texture maps
KR100349483B1 (ko) 폴리곤이분할되는화상처리
US10529125B2 (en) Image processing device and method therefor
JP5002742B2 (ja) パラメトリックテクスチャマップを使用して3dオブジェクトをレンダリングするための装置および方法
CN110248242B (zh) 一种图像处理和直播方法、装置、设备和存储介质
US11348309B2 (en) Augmented reality-based coloring method and apparatus, electronic device and storage medium
JP5731566B2 (ja) 情報処理装置、制御方法、及び記録媒体
JP2011248476A (ja) 画像処理装置、画像処理方法
JP2013127774A (ja) 画像処理装置、画像処理方法及びプログラム
WO2014076744A1 (ja) 画像処理装置および画像処理方法
US9135746B2 (en) Image processing apparatus and control method thereof
US20240202005A1 (en) Encoding stereo splash screen in static image
US6744440B1 (en) Image processing apparatus, recording medium, and program
JP7116767B2 (ja) 画像処理装置およびその方法
JP2007272847A (ja) 照明シミュレーション方法及び画像合成方法
JP2002092625A (ja) 画像処理装置および方法、並びに記録媒体
JP2003168130A (ja) リアルタイムで合成シーンのフォトリアルなレンダリングをプレビューするための方法
JP2000099763A (ja) 画像処理装置および方法、並びに提供媒体
KR101189687B1 (ko) 3차원 캐릭터의 생성 방법
JP6770442B2 (ja) 画像処理装置及びそのプログラム
WO2023181904A1 (ja) 情報処理装置、情報処理方法および記録媒体
US11380048B2 (en) Method and system for determining a spectral representation of a color
US20240202892A1 (en) Combined tone and gamut mapping for augmented reality display
US20230410418A1 (en) Image processing apparatus, image processing method, and storage medium
Ahmed et al. Mimicking an object using multiple projectors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R151 Written notification of patent or utility model registration

Ref document number: 7116767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151