JP2021068271A - 画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2021068271A
JP2021068271A JP2019194284A JP2019194284A JP2021068271A JP 2021068271 A JP2021068271 A JP 2021068271A JP 2019194284 A JP2019194284 A JP 2019194284A JP 2019194284 A JP2019194284 A JP 2019194284A JP 2021068271 A JP2021068271 A JP 2021068271A
Authority
JP
Japan
Prior art keywords
light source
information
image
space
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019194284A
Other languages
English (en)
Other versions
JP7447429B2 (ja
Inventor
次郎 中島
Jiro Nakajima
次郎 中島
泰輔 稲村
Taisuke Inamura
泰輔 稲村
洋平 不破
Yohei Fuwa
洋平 不破
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2019194284A priority Critical patent/JP7447429B2/ja
Publication of JP2021068271A publication Critical patent/JP2021068271A/ja
Application granted granted Critical
Publication of JP7447429B2 publication Critical patent/JP7447429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における少なくとも光源の位置及び強度の情報を推定し、三次元形状モデルにおいて変更した素材の見えを対象空間の質感などの見えに近づけて表示する画像処理システムを提供する。【解決手段】本発明の画像処理システムは、対象空間が撮像された単一あるいは複数の撮像画像から、対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定部と、撮像画像及び空間形状情報から、対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部と、撮像画像、空間形状情報及び光源情報とから、撮像画像における所定の画像領域の素材を置き換えた仮想空間を生成する画像合成部とを備える。【選択図】図1

Description

本発明は、画像処理システム、画像処理方法及びプログラムに関する。
建物のリフォームなどを行う際、実際にリフォームする前に、予めリフォームの完成後の見えを確認したい場合がある。
例えば、天井、壁及び床などにおける建築材の色や素材の変更を検討したりする場合、色や素材を変更した際にどのような印象となるか、すなわち建築材の素材が部屋の環境に調和するか否かを、シミュレーション結果の画像により視覚的に検討したいという要望がある。
このとき、部屋の光源が正確に仮想空間で反映されない場合、シミュレーション時における見えから得た印象と、実際に行ったレイアウト変更における見えから得られる印象とが、大きく異なってしまう場合がある。
このため、リフォーム対象の空間である対象空間を撮像した撮像画像から、この対象空間の三次元形状を仮想空間としてモデル化し、仮想空間における建築材の色や素材を変更して、仮想空間における室内などの見えを、仮想空間を用いてシミュレーションすることが行われる。
このとき、仮想空間における三次元形状の見えをより対象空間に近づけるため、対象空間としての室内における光源の光源情報を正確に推定して、この光源情報に基づいて仮想空間における仮想光源を生成することが行われている(例えば、特許文献1参照)。
特開2018−036884号公報
しかしながら、引用文献1においては、対象空間の撮像画像を撮像する際、予め既知光源下で撮像した基準画像が用意されている、形状が既知である物体を対象空間に対して配置し、撮像画像に撮像されている物体の画像と、基準画像とを対比することに光源情報を推定している。
このため、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要があり、対象空間の撮像を行うまでに手間が掛かってしまう。
また、この方法においては、光源の放射する光の情報のみを推定することしかできず、放射光が放射される空間の三次元形状が不明である。
このため、光源から放射される光が遮蔽されたり、反射されたりするかが不明であり、対象空間に対応した見えを、高い精度で仮想空間においてシミュレーションすることができない。
本発明は、このような状況に鑑みてなされたもので、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における少なくとも光源の位置及び強度の情報を推定し、三次元形状モデルにおいて変更した素材の質感などの見えを対象空間の見えに近づけて表示する画像処理システム、画像処理方法及びプログラムを提供する。
本発明の画像処理システムは、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定部と、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部と、前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成部とを備えることを特徴とする。
本発明の画像処理システムは、前記光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定することを特徴とする。
本発明の画像処理システムは、前記光源情報推定部が前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定することを特徴とする。
本発明の画像処理システムは、前記光源情報推定部が、前記反射率情報と前記形状情報と前記光源情報から、IBL(image based lighting)情報を生成することを特徴とする。
本発明の画像処理システムは、前記形状情報推定部が、前記対象空間における構造部とオブジェクト部との三次元形状の各々を別々に推定し、前記構造部、前記オブジェクト部それぞれの三次元形状を合成して、前記対象空間全体の三次元形状モデルを生成することを特徴とする。
本発明の画像処理システムは、前記形状情報推定部が、前記対象空間の三次元形状と、当該対象空間における物体認識情報を含む前記光源の形状情報を推定することを特徴とする。
本発明の画像処理システムは、前記撮像画像を撮像した際の撮像条件を取得する撮像条件取得部をさらに備えることを特徴とする。
本発明の画像処理方法は、形状情報推定部が、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定過程と、光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程と、画像合成部が、前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成過程とを含むことを特徴とする。
本発明のプログラムは、コンピュータを、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定手段、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段、前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成手段として機能させるプログラムである。
以上説明したように、本発明によれば、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における少なくとも光源の位置及び強度の情報を推定し、三次元形状モデルにおいて変更した素材の見えを対象空間の質感などの見えに近づけて表示する画像処理システム、画像処理方法及びプログラムを提供することが可能となる。
本発明の一実施形態による画像処理システムの構成例を示すブロック図である。 撮像画像から部屋における天井、壁及び床の消失点部及び境界部を抽出し、デプスマップを求める処理を説明する図である。 セマンティックセグメンテーションを行う機械学習モデルにより対象空間のオブジェクトの領域分割を示す図である。 機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を説明する図である。 マンハッタンワールド仮説により生成したデプスマップから求めた部屋構造部(天井、壁及び床)の3次元形状を示す図である。 三次元形状推定方法(1)における機械学習モデルで求めたデプスマップから、セマンティックセグメンテーションにより分割した領域により求めたオブジェクト部のデプスマップから求めた三次元形状を示す図である。 光源情報推定方法(1)により抽出された光源の領域(光源領域)を、光源情報推定部14がグレースケール画像において示す図である。 光源情報推定部14により求められた空間形状情報における反射率情報を示す反射率成分画像である。 光源情報推定部14が推定した光源情報を空間形状情報における三次元形状に配置した例を示している。 画像合成部により生成された三次元の仮想空間を撮像画像の撮像方向から見た画像を示す図である。 仮想空間における部屋構造部やオブジェクトの素材の変更を行う制御について説明する図である。 仮想空間における部屋構造部やオブジェクトの素材の変更を行う制御について説明する図である。 本実施形態による画像処理システムにおいて、対象空間の選択された撮像画像から生成した仮想空間の部屋構造部やオブジェクトの素材変更を行う処理の動作例を示すフローチャートである。
以下、図1における画像処理システムの構成例について、図面を参照して説明する。
図1は、本発明の一実施形態による画像処理システムの構成例を示すブロック図である。図1において、画像処理システム10は、データ入出力部11、撮像条件取得部12、形状情報推定部13、光源情報推定部14、画像合成部15、表示制御部16、表示部17、撮像画像記憶部18、空間情報記憶部19及び合成画像記憶部20の各々を備えている。
ここで、画像処理システム10は、パーソナルコンピュータ、タブレット端末、スマートフォンなどに、以下に説明する各機能部より画像処理を行なうアプリケーションをインストールすることにより構成される。
データ入出力部11は、シミュレーションを行う対象空間が撮像された撮像画像を外部装置から入力し、撮像画像識別情報を付与して、撮像画像記憶部18に対して書き込んで記憶させる。
撮像条件取得部12は、対象空間の撮像画像を撮像した際の撮像条件を取得し、それぞれの撮像画像の撮像画像識別情報に対応させ、撮像画像記憶部18に対して書き込んで記憶させる。この撮像条件は、撮像装置のカメラパラメータ、センササイズ、撮像装置から対象空間の三次元形状までの距離、撮像画像の画素数、撮像した撮像位置の位置関係、また動画であればフレームレートなどである。また、撮像条件において撮像画像のExif(exchangeable image file format )情報から取得可能な情報は、ユーザが入力する必要はない。ここで、実寸サイズの距離は、対象空間にあるサイズが既知の物体の画像から距離を求める。また、実寸サイズの距離は、単一画像の場合には撮像する対象空間に対して、大きさの判っているマーカを置いて、そのマーカの画像を元に距離の算出を行ってもよい。
形状情報推定部13は、撮像画像記憶部18に記憶されている撮像画像から、撮像した対象空間の3次元形状を推定して、三次元形状モデル(仮想空間)を含む空間形状情報を生成する。
そして、形状情報推定部13は、生成した空間形状情報を空間情報記憶部19に対して書き込んで記憶させる。この空間形状情報は、少なくとも、対象空間の三次元形状モデルのデータ、法線ベクトルなどを含んでいる。
本実施形態において、形状情報推定部13は、以下に示す3つの三次元形状推定方法により、三次元形状モデルの生成を行う。
三次元形状推定方法(1):
形状情報推定部13は、機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する(例えば、Ibraheem Alhashim, Peter Wonka"High Quality Monocular Depth Estimation via Transfer Learning"CoRR, Vol. abs/1901.03861, 2019.の文献に記載されている手法を用いる)。
形状情報推定部13は、求めたデプスマップに基づいて、撮像画像の各画素における三次元点群及び法線を算出し、三次元点群をメッシュ化することができる。
そして、三次元点群は、メッシュ化された三次元形状モデルである仮想空間の情報を空間形状情報として、撮像画像記憶部18に対して、撮像画像に対応させて書き込んで記憶させる。
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められたデプスマップそれぞれを統合して、より精度の高い対象空間のデプスマップを生成する。
三次元形状推定方法(2):
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、MVS(Multi-View Stereo) のアルゴリズムを用いて、複数の撮像画像を用いて対象空間の三次元形状の推定を行い、三次元形状モデルである仮想空間を生成して空間形状情報としても良い。
三次元形状推定方法(3):
また、形状情報推定部13は、対象空間における部屋構造部と、それ以外の部屋に配置されたオブジェクト部(部屋の備品など)との各々を、それぞれ別々に形状モデルを求めるアルゴリズムを用いても良い。
形状情報推定部13は、以下の図2に示されているように、撮像画像から天井と壁、壁と床の境界部を抽出する。
図2は、撮像画像から部屋における天井、壁及び床の境界部を抽出し、デプスマップを求める処理を説明する図である。図2(a)は、撮像画像100を示している。撮像画像100には、対象空間の部屋200における天井200C、壁200W、床200F、柱200P、テーブル200T、光源200Lなどが撮像されている。
図2(b)は、天井200C及び壁200Wの境界部200CWと、壁200W及び床200Fの境界部200WFとが示されてる。また、図2(b)において、柱200P、テーブル200T及び光源200Lに関する情報は抽出されていない。
図2(c)は、図2(a)の撮像画像と、図2(b)の境界部とから求めたデプスマップを示している。
そして、形状情報推定部13は、マンハッタンワールド仮説を用いて、図2(a)の撮像画像と、図2(b)の境界部とから、三次元空間の3軸(x軸、y軸及びz軸)に対応して、天井、壁及び床を検出して、それぞれのデプスマップを生成する。この天井、壁及び床の検出を、機械学習モデル(例えば、CNN(convolutional neural network))によりRGB画像から直接行なうものとして、例えば、"Chuhang Zou, Alex Colburn, Qi Shan, Derek Hoiem"LayoutNet: Reconstructing the 3D Room Layout from a Single RGB Image"Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2051-2059."がある。
また、形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデル(例えば、CNN)により、撮像画像におけるオブジェクトの各々の領域を抽出する。
図3は、セマンティックセグメンテーションを行う機械学習モデルにより対象空間のオブジェクトの領域分割を示す図である。図3において、撮像画像に撮像された対象空間の各オブジェクトの領域がセグメントとして分離されている。
形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデルを用いて、撮像画像100の画像において、天井200C、壁200W、床200Fの構造部と、柱200P、光源200L_1、200L_2、テーブル200Tなどのオブジェクト部の各々の画像領域として分離する。
上述したように、形状情報推定部13は、対象空間の部屋の撮像画像を、部屋構造部(天井、壁、床)やオブジェクト部(備品としての柱、机(テーブル)、椅子、棚などの家具)などの領域に分割することで、それぞれの領域を認識する。
また、形状情報推定部13は、三次元形状推定方法(1)で説明した機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する。
そして、形状情報推定部13は、図3のセマンティックセグメンテーション結果における対象空間が分離された画像領域から、部屋構造部の領域を除いたオブジェクト部の領域として柱200P及びテーブル200Tの領域を抽出する。
図4は、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を説明する図である。
図4(a)は、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップから、セマンティックセグメンテーション結果におけるオブジェクト部の柱200P及びテーブル200Tの領域を用いて抽出した、柱200P、テーブル200Tそれぞれのデプスマップを示している。
図4(b)は、図2(c)に示すマンハッタンワールド仮説により生成した部屋構造部のデプスマップと、図4(a)に示すオブジェクト部のデプスマップとをスケーリングして統合した対象空間のデプスマップの一例を示している。
形状情報推定部13は、図4(b)に示すように、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を行う。
ここで、マンハッタンワールド仮説は、人工物の多くがそれぞれの面が直交座標系に平行に拘束されているという仮定に成り立つため、天井、壁及び床などの部屋構造部におけるデプスマップを高い精度で得ることができる。
しかしながら、対象空間におけるテーブルや椅子などのオブジェクト部については、上記拘束に対応しないためにデプスマップが生成されない。
一方、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップにおいては、対象空間におけるオブジェクト部についてもデプスマップが生成される。
しかしながら、機械学習で求めたデプスマップにおいては、いずれがオブジェクト部のデプスマップの存在する領域かを認識することができない。
このため、形状情報推定部13は、機械学習で求めたデプスマップにおけるオブジェクト部(200P、200T)の領域を用いて、図3に示すセマンティックセグメンテーションにおけるオブジェクト部の領域により抽出して、図4(a)に示すオブジェクト部の領域のデプスマップを取得する。これにより、部屋構造部とオブジェクト部とのデプスマップとを別々に得ることができる。
このとき、形状情報推定部13は、図3の部屋構造部の値に基づいて、機械学習で求めたデプスマップから抽出したオブジェクト部のデプスマップのスケーリングを行う。
この三次元形状推定方法(3)により、オブジェクト部により遮蔽されていた部屋構造部の3次元形状を示すデプスマップを、三次元形状推定方法(1)で用いて得たデプスマップより高い精度で得ることができる。
そして、形状情報推定部13は、部屋構造部及びオブジェクト部の各々のデプスマップを用いて、それぞれについて三次元点群及び各三次元点における法線を求め、これら三次元点群点のメッシュ化を行ない、空間形状情報として空間情報記憶部19に対して書き込んで記憶させる。
この手法によって、オブジェクト部により遮蔽されていた部屋構造部の3次元形状を記憶することが可能となる。
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められた部屋構造部及びオブジェクト部の各々のデプスマップを、部屋構造部、オブジェクト部それぞれにおいて統合して、より精度の高い対象空間における部屋構造部、オブジェクト部のデプスマップを生成する。
図5は、マンハッタンワールド仮説により生成したデプスマップから求めた部屋構造部(天井、壁及び床)の三次元形状を表示した図である。
この図5には、対象空間の部屋の天井200C、壁200W及び床200Fからなる部屋構造部の三次元形状が示されている。
図6は、三次元形状推定方法(1)における機械学習モデルで求めたデプスマップから、セマンティックセグメンテーションにより分割した領域により求めたオブジェクト部のデプスマップから求めた三次元形状を表示した図である。
図6には、対象空間の仮想空間250において、オブジェクト部のデプスマップから求めた柱200P及びテーブル200Tの三次元形状が示されている。
上述したように、形状情報推定部13は、例えば、三次元形状推定方法(1)から三次元形状推定方法(3)などにより、対象空間の三次元形状を推定する。
しかしながら、上述した三次元形状推定方法(1)から三次元形状推定方法(3)の方法は、撮像画像からの3次元復元技術の例として示すものである。形状情報推定部13で用いられる3次元復元技術は、必ずしも特定の手法として限定される訳ではなく、一般的に用いられているいずれの手法を用いてもよい。
また、上述した三次元形状推定方法(1)から三次元形状推定方法(3)により求めたデプスマップが相対的な距離として求められているため、実際の撮像位置からの距離は不明である。以下の手法などにより、デプスマップにおける実際の距離を推定し、復元される対象空間の各オブジェクトのサイズを実寸のサイズとして求める。
例えば、撮像画像記憶部18に記憶されている撮像画像を撮像した際の撮像条件として、撮像装置における特定の画素と対象空間の三次元形状との実寸サイズでの距離が記憶されていれば、この実寸サイズの距離を用いて、デプスマップにおける各画素の距離を求めることができる。
また、大きさが既知であるオブジェクトを配置して撮像し、撮像されたこの大きさが既知のオブジェクトの画像に基づいて、対象空間におけるオブジェクトの各々をスケーリングしても良い。このとき、既知のオブジェクトをパターン認識やセマンティックセグメンテーション、物体認識などの画像解析により、既知のオブジェクトの画素領域を抽出し、抽出した領域における画素のデプス値を用いて、他の領域のデプスマップを実寸サイズにスケーリングする。
また、画像のぼけ量と撮像装置の焦点距離との対応関係を、予め計測実験により取得しておき、撮像画像のぼけ量から距離を推定する構成を用いてもよい。
光源情報推定部14は、対象空間の撮像画像と、対象空間の空間形状情報(仮想空間の三次元形状)とから光源情報の推定を行い、推定された光源情報を空間情報記憶部19に対して書き込んで記憶させる。この光源情報は、少なくとも光源の対象空間における位置、光源の放射する光の強度、及び光の色味(分光情報)である。
本実施形態において、光源情報推定部14は、以下に示す3つの光源情報推定方法により、光源情報の生成を行う。
光源情報推定方法(1):
光源情報推定部14は、撮像画像(RGB画像)をグレースケール画像に変換し、階調度の最も高い画素の領域を抽出する。
そして、光源情報推定部14は、例えば、この階調度の最も高い画素の領域と、当該領域の画素の階調度に対して、所定の比(例えば、90%以上)の階調度を有する画素の領域とを光源の領域として抽出する。
図7は、光源情報推定方法(1)により抽出された光源の領域(光源領域)を、光源情報推定部14がグレースケール画像において示す図である。図7において、グレースケール画像300は、RGB画像である撮像画像100(図2(a))をグレースケール化した画像である。
グレースケール画像300の画素において、領域301の画素が最も高い階調度を有している。そして、領域302の画素が、領域301の画素の90%以上の階調度を有している。これにより、光源情報推定部14は、領域301及び領域302の各々を、光源領域として抽出する。
光源情報推定方法(2):
光源情報推定部14は、上述した光源情報推定方法(1)により、撮像画像において光源領域を抽出する。
そして、光源情報推定部14は、形状情報推定部13により抽出した光源領域の形状情報に基づき、仮想空間である空間形状情報において、光源領域の三次元形状としての点光源を配置する。
また、光源情報推定部14は、撮像画像及び空間形状情報における三次元形状により、対象空間の反射率情報(波長毎の反射率情報)を推定する。
ここで、光源情報推定部14は、対象空間の反射率情報の推定において、例えば、固有画像分解(Intrinsic Image Decomposition) に基づくIntrinsic Image Problemのアルゴリズムの手法(例えば、Qifeng Chen, Vladlen Koltun" A Simple Model for Intrinsic Image Decomposition with Depth Cues"The IEEE International Conference on Computer Vision (ICCV), 2013, pp. 241-248の文献に記載されている手法)を用いている。
光源情報推定部14は、Intrinsic Image Problemのアルゴリズムによって反射率・陰影分離を行う。
すなわち、光源情報推定部14は、撮像画像を反射率成分画像(反射率情報)及び陰影成分画像の各々に分離する際、Intrinsic Image Problemのアルゴリズムに基づき、「画像(撮像画像)Iは反射率成分Rと陰影成分Sの積で表すことができる」という仮定を基とし、撮像画像Iを反射率成分画像Rと陰影成分画像Sとの各々に分離する。
図8は、光源情報推定部14により求められた空間形状情報における三次元形状の反射率情報を示す反射率成分画像である。
この図8において、反射率成分画像は、撮像画像における2次元座標値で示される2次元座標点で示される各画素の反射率成分(反射率情報)がRGB(Red Green Blue)の画素値として示されている。
一方、陰影成分画像は、撮像画像における2次元座標値で示される各2次元座標点の陰影成分、すなわち撮像画像を撮像した際の光源に依存するデータが画素値として示されている。
次に、光源情報推定部14は、撮像画像の各画素の階調度と、空間形状情報における三次元形状の反射率情報とにより、光源の強度の推定を行う。
そして、光源情報推定部14は、撮像画像において任意に光源の強度を求めるための領域Aを設定し、この領域Aの反射率情報を抽出する。
ここで、設定する領域Aは、強度及び色味を求めたい対象の光源の光のみ(あるいは入射する光のほとんどが対象の光源の光のみ)が照射される領域であることが望ましい。
すなわち、複数の光源がある場合、それぞれの光源からの影響を求めるための演算が複雑とならないように、対象の光源の強度及び色味を求めるための演算量を低減する。
次に、光源情報推定部14は、撮像画像において設定した領域Aと、反射率成分画像において領域Aに対応する位置の領域Bを抽出する。
そして、光源情報推定部14は、領域AのRGB階調度と領域Bの反射率情報とにより、光源の強度及び色味を求める。
また、光源情報推定部14は、光源の強度を求める際、光の強度が距離の二乗に反比例することを考慮し、領域Bに入射すると推定された光の強度に対して、空間形状情報における三次元形状から求めた光源と領域Bとの距離の二乗を乗して、光源の強度を求める。
この光源情報推定方法(2)により、光源の強度が撮像画像のRGB値を飽和していても、光源からの光が入射する領域から間接的に光源の強度を求めるため、正確な光源情報を取得することができる。
図9は、光源情報推定部14が推定した光源情報を空間形状情報における三次元形状に配置した例を示している。図9においては、対象空間の三次元形状における推定位置に対応して、光源200L_1、200L_2を対象空間の仮想空間250に配置している。
光源情報推定方法(3):
光源情報推定部14は、光源情報推定方法(1)により、撮像画像において光源領域を抽出する。また、光源情報推定部14は、上述した光源情報推定方法(2)と同様に、形状情報推定部13により抽出した光源領域の形状情報に基づき、空間形状情報における仮想空間において、光源領域の三次元形状としての点光源を配置する。
このとき、この点光源の強度と色味とは、仮の任意の数値(仮光源情報)とし、例えば撮像画像の点光源と推定された領域のRGB値を仮の数値として設定する。
次に、光源情報推定部14は、撮像画像の各画素に対応する、空間形状情報における三次元形状の座標点を抽出し、この座標点において光が完全拡散反射するという仮定により、点光源それぞれから光が入射された際の陰影情報を計算する。
そして、光源情報推定部14は、撮像画像の画素値と、陰影成分画像の対応する画素の陰影情報とから、各画素における反射率情報を求める。すなわち、光源情報推定部14は、撮像画像の画素値を、陰影成分画像の対応する画素の陰影情報により除算して、除算結果を反射率情報とする。
そして、光源情報推定部14は、自然物の反射率の平均値が20%であるという仮定を用い、反射率情報をスケーリングする。
すなわち、光源情報推定部14は、以下に示す(1)式を用いて、撮像画像の各画素の反射率A(x,y)を求める。ここで、光源情報推定部14は、撮像画像における全ての画素の反射率A(x,y)の平均値が20%となるスケーリング係数αを求める。すなわち、光源情報推定部14は、撮像画像の画素値I(x,y)を陰影成分画像の対応する画素の陰影情報(陰影成分画像の画素値S(x,y))により除算した結果の数値において、反射率A(x,y)の平均値が20%となるように、スケーリング係数αを求める。光源情報推定部14は、スケーリング係数αが求まった際の反射率A(x,y)を、撮像画像のそれぞれの画素の反射率A(x,y)とする。
Figure 2021068271
次に、光源情報推定部14は、(1)式で求めた撮像画像における画素の各々の反射率A(x,y)を用いて、以下に示す(2)式により、光源の色味及び強度の光源情報を求める。このとき、光源情報推定部14は、(2)式により求まる画素値I(x,y)が撮像画像の対応する位置の画素値と同様となるように、点光源の強度と色味とを仮の任意の数値から変化させて、最終的に点光源の強度及び色味を求める。
以下の(2)式において、A(x,y)が画素(x,y)の反射率を示し、k(l)が光源lの色みを示し、kα(l)が光源lの光の強度を示し、r(x,y,l)が画素(x,y)から光源lまでの距離を示し、n(x,y,l)が画素(x、y)から光源lへのベクトルを示し、n(x,y)が画素(x,y)の法線ベクトルを示している。
光源情報推定部14は、撮像画像の各画素の画素値I(x,y)となるように、各光源の光源情報である色みk(l)及び強度kα(l)を、(2)式による数値計算により求める。
Figure 2021068271
また、光源情報を求めるアルゴリズムは、上述した光源情報推定方法(1)から光源情報推定方法(3)以外を用いてもよい。
上述した光源情報推定方法(1)から光源情報推定方法(3)の各々においては、光源を点光源として説明したが、点光源以外の例えば線光源あるいは面光源でもよい。
例えば、光源情報推定部14は、すでに説明したセマンティックセグメンテーションを用いて、各光源の物体認識結果(撮像画像における光源の形状)を求めておく。そして、光源情報推定部14は、光源の種類として、物体認識結果が電球形状であれば点光源とし、ダウンライト形状であればディレクショナルライト(平行光源)とし、蛍光灯形状であれば線光源とし、窓形状であれば面光源とする。
また、光源情報としては、撮影画像、対象空間の空間形状情報、及び光源情報とにより、素材を変更する(置き換える)仮想空間上の任意の位置におけるIBL(image based lighting)情報を生成することができる。
これにより、画像合成部15は、撮像画像と対象空間の空間形状情報とにより、CGで生成したCGオブジェクトを配置する位置における光源情報をIBL情報から容易に求めることができる。ここで、光源情報推定方法(2)及び光源情報推定方法(3)で求めた光源情報を、画素値が飽和しないIBL情報のデータ形式を用いることができる。
画像合成部15は、光源情報に基づいて、撮像画像、対象空間の空間形状情報及び光源情報とに基づいて、三次元の仮想空間を生成する。
ここで、画像合成部15は、空間形状情報における三次元形状を形状モデルとし、撮像画像をテクスチャデータとし、光源情報をレンダリングパラメータとして、対象空間の仮想空間を生成する。
画像合成部15は、素材の変更を反映させる際、仮想空間における変更する部屋構造部やオブジェクトの三次元形状、反射率情報、ラフネス、及びスペキュラマップなどを変更後の素材に設定し、光源200L_1及び200L_2の光源情報によるレンダリングにより仮想空間を変更する。
図10は、画像合成部により生成された三次元の仮想空間を撮像画像の撮像方向から見た画像を示す図である。この図10は、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図10においては、撮像画像により生成した三次元の仮想空間を所定の視点から観察した画像として表示させる際、平面や天球に対して撮影画像を撮像装置の画角に応じてテクスチャデータとして設定して(貼り付けて)仮想空間を生成している。あるいは、仮想空間において、観察する視点位置の変更をしても違和感なく(撮像位置に対して所定の範囲内において違和感なく)観察画像を表示させるため、形状モデルにテクスチャデータとして撮像画像を設定すれ(貼り付けれ)ばよい。
図10において、柱200Pの形状モデルには、光源200L_1及び200L_2の各々からの光が照射される明るい明領域200PLと、光が照射されない影領域200PS(シャドウ)とが、形状モデルにテクスチャデータとして撮像画像を貼り付ける(設定する)処理など、撮像画像を用いて形成されている。
同様に、テーブル200Tの形状モデルが配置された位置における、テーブル200Tの下部の床200Fには、光源200L_1及び200L_2の各々からの光がテーブル200Tにより遮蔽されることで生成される影領域200TSが同様に形成されている。
また、床200Fにおいて、光源200L_1及び200L_2からの距離に対応して、明るさの強さの程度を示すにグラデーション領域501も、上述したように撮像画像を用いて形成されている。
また、画像合成部15は、生成した三次元の仮想空間における天井200C、壁200W、床200F及び柱200Pなどの部屋構造部の領域(建築材)の素材や、テーブル200Tなどのオブジェクト(家具)の素材を、異なる他の素材に変更する制御が行われた場合、当該仮想空間の部屋構造部やオブジェクトに対して異なる素材に変更する処理を行う。
本実施形態において、仮想空間の部屋構造部やオブジェクトを変更するための素材の各々は、例えば、予め生成されており、合成画像記憶部20に書き込まれて記憶されている。
ここで、素材を変更するとして指示された領域がセマンティックセグメンテーションにより、天井200C、壁200W、床200F、柱200P及びテーブル200Tなどの種別が物体認識された場合、画像合成部15は、その物体認識結果に基づいてそれぞれの領域の種別に対応する素材群(素材の画像群)を、合成画像記憶部20から選択して読み出す構成としてもよい。
図11は、仮想空間における部屋構造部やオブジェクトの素材の変更を行う制御について説明する図である。この図11は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図11において、素材提示領域503に表示されている素材503_1、503_2、503_3などが、画像合成部15により、表示制御部16を介して表示部17の表示画面502に表示される。
例えば、ユーザが素材提示領域503における素材503_1をドラッグし、変更指示点504においてドロップすることにより、画像合成部15は、仮想空間における変更指示点504における素材を素材503_1に変更する処理を行う。
図12は、仮想空間における部屋構造部やオブジェクトの素材の変更を行う制御について説明する図である。この図12は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図12において、仮想空間の部屋構造部における領域や、この部屋構造部内のオブジェクトの変更した素材503_1に対応し、この素材503_1の反射率情報に対応させて、光源200L_1及び200L_2の各々の光源情報を反映させて、仮想空間が再構成される。
画像合成部15は、床200Fの新たな素材503_1の反射率情報と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光による明度を反映させたレンダリングを行ない、床200Fの素材を変更した仮想空間を再構成する処理を行う。
これにより、画像合成部15は、レイトレーシングなどの技法により、図12に示すように、変更した素材503_1の反射率情報に対応し、光源200L_1及び200L_2からの光が照射される床200Fの領域の明るさの強度を強くし、テーブル200Tの三次元形状により遮蔽される床200Fにおける影の領域を、影領域503_1Sとして明るさの強度を低くする。
また、画像合成部15は、光源情報推定部14が求めた仮想空間における天井200C、壁200W、床200F、柱200P及びテーブル200Tなどの反射率情報及び三次元形状を用いて、照射光の反射成分による明度をレンダリングに反映させてもよい。
すなわち、画像合成部15は、仮想空間における三次元形状と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光の反射光による明度の影響を、仮想空間のレンダリングに対して反映させる構成としてもよい。
図13は、本実施形態による画像処理システムにおいて、対象空間の選択された撮像画像から生成した仮想空間の部屋構造部やオブジェクトの素材変更を行う処理の動作例を示すフローチャートである。以下の説明において、データ入出力部11は、予め外部装置から供給される、対象空間の各々が撮像された単一あるいは複数の撮像画像を撮像画像記憶部18に対して、撮像画像識別情報を付与して、撮像画像のそれぞれを撮像した際の撮像条件とともに書き込んで記憶させている。
ステップS1:
データ入出力部11は、表示制御部16により表示部17に対して、撮像画像記憶部18に記憶されている撮像画像の表示を行う。
ユーザは、表示部17に表示されている撮像画像の中から、観察対象とする対象空間の撮像画像をマウスによりクリックなどすることにより選択する。
これにより、データ入出力部11は、撮像条件取得部12、形状情報推定部13、光源情報推定部14及び画像合成部15の各々に対して、ユーザが選択した撮像画像の撮像画像識別情報を出力する。
ステップS2:
撮像条件取得部12は、ユーザが選択した撮像画像の撮像条件を、当該撮像画像の撮像画像識別情報により撮像画像記憶部18から読み出す。
そして、撮像条件取得部12は、読み出した撮像条件を、形状情報推定部13及び光源情報推定部14の各々に対して出力する。
ステップS3:
形状情報推定部13は、撮像画像及び撮像条件の各々を用いて、すでに説明した三次元形状推定方法(1)から三次元形状推定方法(3)などの手法により、選択された撮像画像の対象空間の三次元形状を推定する。
そして、形状情報推定部13は、生成した対象空間の三次元形状のデータを空間形状情報として、対応する撮像画像の撮像画像識別情報を付加して、空間情報記憶部19に対して書き込んで記憶させる。
ステップS4:
光源情報推定部14は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報を読み出す。
そして、光源情報推定部14は、撮像画像及び空間形状情報の各々を用いて、すでに説明した光源情報推定方法(1)から光源情報推定方法(3)などのいずれかの手法により、選択された撮像画像に対応した仮想空間における光源情報の推定を行う。光源情報推定部14は、推定した光源情報を、空間形状情報に対応させて空間情報記憶部19に対して書き込んで記憶させる。
ステップS5:
画像合成部15は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報及び光源情報の各々を、また撮像画像記憶部18から撮像画像識別情報に対応した撮像画像を読み出す。
画像合成部15は、空間形状情報における三次元形状に対して、光源情報及び撮像画像とを用いて、撮像画像に撮像された対象空間に対応する仮想空間を生成する。
そして、表示制御部16は、上記仮想空間における視点の位置から観察される観察画像を生成し、図10に示すように表示部17の表示画面に表示する。
ステップS6:
例えば、ユーザが、表示部17の表示画面に表示されている観察画像に対応する仮想空間に対して、部屋構造部やオブジェクトの素材の変更を行う制御を画像処理システム10に対して行う。
これにより、画像合成部15は、合成画像記憶部20に予め記憶されている素材の各々の画像のデータを読み込む。
そして、画像合成部15は、図11に示すように、読み出した素材の画像を、表示部17の表示画面における素材提示領域503に対して表示する。
ユーザが素材提示領域503における素材503_1を選択してドラッグし、仮想空間における床200Fの素材を、素材503_1に変更する領域として指定するために変更指示点504に対し、素材503_1の画像をドロップする。
ステップS7:
画像合成部15は、仮想空間において変更指示点504により素材を変更する領域としてで指示した床200Fに対して、この床200Fの素材を素材503_1に変更する素材の合成処理を行う。
そして、画像合成部15は、仮想空間の三次元形状と、素材503_1の反射率情報と、光源200L_1、200L_2の光源情報とに基づき、新たにレンダリングを行うことにより仮想空間の再構成を行う。
ここで、画像合成部15は、対応する撮像画像の撮像画像識別情報に対応させて、再構成した仮想空間の三次元形状のデータを、合成画像記憶部20に対して書き込んで記憶させる。
ステップS8:
表示制御部16は、再構成された仮想空間における視点の位置から観察される観察画像(素材の変更を反映した観察画像)を生成し、図12に示すように表示部17の表示画面に表示する。
ステップS9:
データ入出力部11は、部屋構造部やオブジェクトの素材の変更を続けて行うか否かを入力する入力表示領域(不図示)を表示部17の表示画面に表示する。
そして、ユーザが、部屋構造部やオブジェクトの素材の変更を続ける情報を上記入力表示領域に対して入力した場合、データ入出力部11は処理をステップS6へ進める。
一方、ユーザが、部屋構造部やオブジェクトの素材の変更を終了する情報を入力表示領域に入力した場合、データ入出力部11は処理を終了する。
上述したように、本実施形態によれば、画像合成部15が対象空間の三次元形状と、対象空間における光源情報と、変更後の素材の反射率情報とにより、素材が変更された仮想空間のレンダリングを行うため、変更後の素材に対する光源の放射光の影響、対象空間における部屋構造部やオブジェクトの三次元形状により遮蔽されて隠れる領域、及び変更後の素材に対して光源からの放射光が上記部屋構造部やオブジェクトにより遮蔽される影の領域を反映させて、仮想空間における部屋構造部やオブジェクトに対して任意の素材をテクスチャとして貼り付けて合成し、再構成した仮想空間をレンダリングすることにより、現実の対象空間における光源環境と同様の光源環境において素材を変更した状態を仮想的に生成して、素材を変更した対象空間の見えを観察画像として容易に観察することができる。
また、本実施形態によれば、仮想空間の部屋構造部及びオブジェクト部の各々の三次元形状の反射率情報及び変更後の素材の反射率情報を用いて、光源からの放射光の三次元形状の反射(二次反射)をレンダリングに反映させることで、仮想空間における見えを現実の対象空間により近似させることができる。
また、本実施形態によれば、仮想空間における部屋構造部及びオブジェクトの各々の三次元情報や、素材の模様を実寸サイズにスケーリングすることにより、素材を変更した仮想空間の見えを、対象空間に物体を配置した場合の正確なサイズ感覚を有する質感とした観察画像として視認することができる。
また、本実施形態によれば、単一の撮像画像あるいは複数の撮像画像を用いて対象空間の三次元形状を推定して仮想空間を生成しているため、所定の範囲において対象空間を観察する視点を任意に変化させることが可能であり、仮想空間における素材を変更した領域の見えを、視点を変化させた観察画像として観察することができる。
また、上述した実施形態においては、予め撮像されて撮像画像記憶部18に書き込まれている撮像画像を用いた、仮想空間の生成及びこの仮想空間における部屋構造部やオブジェクトの素材を変更して再合成を行う画像処理について説明した。
しかしながら、データ入出力部11から、撮像装置から供給される対象空間を逐次的に撮像した撮像画像(単一または複数の撮像画像)をリアルタイムに撮像画像記憶部18に書き込む構成としてもよい。この場合、逐次的に供給される単一または複数の撮像画像により仮想空間を生成し、この仮想空間における部屋構造部やオブジェクトの素材を変更した処理を行い、この素材の変更を行った仮想空間の観察画像を、リアルタイムに表示部17に表示してユーザに視認させることができる。
以上、本発明の実施形態を図面を参照し説明してきたが、具体的な構成はこの形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。
なお、本発明における図1の画像処理システム10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより撮像画像から生成した仮想空間における部屋構造部やオブジェクトの素材を変更する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
10…画像処理システム
11…データ入出力部
12…撮像条件取得部
13…形状情報推定部
14…光源情報推定部
15…画像合成部
16…表示制御部
17…表示部
18…撮像画像記憶部
19…空間情報記憶部
20…合成画像記憶部

Claims (9)

  1. 対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定部と、
    前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部と、
    前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成部と
    を備える画像処理システム。
  2. 前記光源情報推定部が、
    前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定する
    ことを特徴とする請求項1に記載の画像処理システム。
  3. 前記光源情報推定部が
    前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定する
    ことを特徴とする請求項2に記載の画像処理システム。
  4. 前記光源情報推定部が、
    前記反射率情報と前記空間形状情報と前記光源情報から、IBL(image based lighting)情報を生成する
    ことを特徴とする請求項2または請求項3に記載の画像処理システム。
  5. 前記形状情報推定部が、
    前記対象空間における構造部とオブジェクト部との三次元形状の各々を別々に推定し、前記構造部、前記オブジェクト部それぞれの三次元形状を合成して、前記対象空間全体の三次元形状モデルを生成する
    ことを特徴とする請求項1から請求項4のいずれか一項に記載の画像処理システム。
  6. 前記形状情報推定部が、
    前記対象空間の三次元形状と、当該対象空間における物体認識情報を含む前記光源の形状情報を推定する
    ことを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理システム。
  7. 前記撮像画像を撮像した際の撮像条件を取得する撮像条件取得部
    をさらに備える
    ことを特徴とする請求項1から請求項6のいずれか一項に記載の画像処理システム。
  8. 形状情報推定部が、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定過程と、
    光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程と、
    画像合成部が、前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成過程と
    を含むことを特徴とする画像処理方法。
  9. コンピュータを、
    対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を示す仮想空間を含む空間形状情報を推定する形状情報推定手段、
    前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段、
    前記撮像画像、前記空間形状情報及び前記光源情報とから、前記撮像画像における所定の画像領域の素材を置き換えた前記仮想空間を生成する画像合成手段
    として機能させるプログラム。
JP2019194284A 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム Active JP7447429B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019194284A JP7447429B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194284A JP7447429B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021068271A true JP2021068271A (ja) 2021-04-30
JP7447429B2 JP7447429B2 (ja) 2024-03-12

Family

ID=75637280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194284A Active JP7447429B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7447429B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150043806A1 (en) * 2013-08-08 2015-02-12 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
WO2016203770A1 (ja) * 2015-06-17 2016-12-22 凸版印刷株式会社 画像処理システム、方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150043806A1 (en) * 2013-08-08 2015-02-12 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
WO2016203770A1 (ja) * 2015-06-17 2016-12-22 凸版印刷株式会社 画像処理システム、方法、及びプログラム

Also Published As

Publication number Publication date
JP7447429B2 (ja) 2024-03-12

Similar Documents

Publication Publication Date Title
US10733804B2 (en) Method and system for representing a virtual object in a view of a real environment
Alexander et al. The digital emily project: Achieving a photorealistic digital actor
JP4865093B2 (ja) 顔の特徴をアニメーション化する方法およびシステムならびに表情変換のための方法およびシステム
CN108537881B (zh) 一种人脸模型处理方法及其设备、存储介质
JP4932951B2 (ja) 顔画像処理方法およびシステム
RU2586566C1 (ru) Способ отображения объекта
JP2013235537A (ja) 画像作成装置、画像作成プログラム、及び記録媒体
CN111861632B (zh) 虚拟试妆方法、装置、电子设备及可读存储介质
EP2933781A2 (en) Method and system for representing a virtual object in a view of a real environment
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
Günther et al. Aughanded virtuality-the hands in the virtual environment
JP2018195996A (ja) 画像投影装置、画像投影方法、及び、画像投影プログラム
JP7476511B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
JP2023153534A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7447429B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP5865092B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN108140256A (zh) 基于显示器的取向信息显示对象的3d表示的方法、设备和程序
US11380048B2 (en) Method and system for determining a spectral representation of a color
JP2949073B2 (ja) 3次元物体モデリング装置
AU2020368983B2 (en) Method and system for rendering
JP2021149679A (ja) 画像処理システム、画像処理方法、及びプログラム
Monteoliva et al. Improving Radiance simulation workflow with process of anti-aliasing and tone-mapping to enhance users’ experience in VR environments
JP2022059879A (ja) 画像処理システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150