JP7476511B2 - 画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7476511B2
JP7476511B2 JP2019194285A JP2019194285A JP7476511B2 JP 7476511 B2 JP7476511 B2 JP 7476511B2 JP 2019194285 A JP2019194285 A JP 2019194285A JP 2019194285 A JP2019194285 A JP 2019194285A JP 7476511 B2 JP7476511 B2 JP 7476511B2
Authority
JP
Japan
Prior art keywords
light source
information
image
target space
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019194285A
Other languages
English (en)
Other versions
JP2021068272A (ja
Inventor
次郎 中島
泰輔 稲村
将亮 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019194285A priority Critical patent/JP7476511B2/ja
Publication of JP2021068272A publication Critical patent/JP2021068272A/ja
Application granted granted Critical
Publication of JP7476511B2 publication Critical patent/JP7476511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理システム、画像処理方法及びプログラムに関する。
建物のリフォームや備品の追加などを行う際、実際にリフォームする前、あるいは備品を配置する前に、予め完了後の見えを確認したい場合がある。
例えば、備品として家具、壁、設備を追加したり、追加した家具の配置する位置を検討したりする場合、備品を配置した際にどのような印象となるか、すなわち配置している備品が部屋の環境に調和するか否かを、シミュレーション結果の画像により視覚的に検討したいという要望がある。
このとき、部屋の光源が正確に仮想空間で反映されない場合、シミュレーション時における見えから得た印象と、実際に行ったレイアウト変更における見えから得られる印象とが、大きく異なってしまう場合がある。
このため、リフォーム対象の空間である対象空間を撮像した撮像画像から、この対象空間の三次元形状を仮想空間としてモデル化し、備品をこの仮想空間に配置して、仮想空間における室内などにおける備品の見えを、仮想空間を用いてシミュレーションすることが行われる。
このとき、仮想空間における物品の見えをより対象空間に近づけるため、対象空間としての室内における光源の光源情報を正確に推定して、この光源情報に基づいて仮想空間における仮想光源を生成することが行われている(例えば、特許文献1参照)。
特開2018-036884号公報
しかしながら、引用文献1においては、対象空間の撮像画像を撮像する際、予め既知光源下で撮像した基準画像が用意されている、形状が既知である物体を対象空間に対して配置し、撮像画像に撮像されている物体の画像と、基準画像とを対比することに光源情報を推定している。
このため、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要があり、対象空間の撮像を行うまでに手間が掛かってしまう。
また、この方法においては、光源の放射する光の情報のみを推定することしかできず、放射光が放射される空間の三次元形状が不明である。
このため、光源から放射される光が遮蔽されたり、反射されたりするかが不明であり、対象空間に対応した見えを、高い精度で仮想空間においてシミュレーションすることができない。
本発明は、このような状況に鑑みてなされたもので、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における少なくとも光源の位置及び強度の情報を推定する画像処理システム、画像処理方法及びプログラムを提供する。
本発明の画像処理システムは、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定部と、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部とを備え、前記光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定することを特徴とする。
本発明の画像処理システムは、前記光源情報推定部が、前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定することを特徴とする。
本発明の画像処理方法は、形状情報推定部が、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定過程と、光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程とを含み、前記光源情報推定過程では、前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定することを特徴とする。
本発明のプログラムは、コンピュータを、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定手段、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段として機能させ、前記光源情報推定手段が、前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定するプログラムである。
以上説明したように、本発明によれば、形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、現実の対象空間の撮像画像と、この対象空間の三次元形状モデルとから、対象空間における光源の情報を推定し、三次元形状モデルの任意の点における光の入射を正確に再現する画像処理システム、画像処理方法及びプログラムを提供することが可能となる。
本発明の一実施形態による画像処理システムの構成例を示すブロック図である。 撮像画像から部屋における天井、壁及び床の消失点部及び境界部を抽出し、デプスマップを求める処理を説明する図である。 セマンティックセグメンテーションを行う機械学習モデルにより対象空間のオブジェクトの領域分割を示す図である。 機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を説明する図である。 マンハッタンワールド仮説により生成したデプスマップから求めた部屋構造部(天井、壁及び床)の三次元形状を示す図である。 三次元形状推定方法(1)における機械学習モデルで求めたデプスマップから、セマンティックセグメンテーションにより分割した領域により求めたオブジェクト部のデプスマップから求めた三次元形状を示す図である。 光源情報推定方法(1)により抽出された光源の領域(光源領域)を、光源情報推定部14がグレースケール画像において示す図である。 光源情報推定部14により求められた空間形状情報における反射率情報を示す反射率成分画像である。 光源情報推定部14が推定した光源情報を空間形状情報における三次元形状に配置した例を示している。 画像合成部により生成された三次元の仮想空間を撮像画像の撮像方向から見た画像を示す図である。 仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。 仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。 本実施形態による画像処理システムにおいて、対象空間の選択された撮像画像から生成した仮想空間と、CGオブジェクトとを合成する処理の動作例を示すフローチャートである。
以下、図1における画像処理システムの構成例について、図面を参照して説明する。
図1は、本発明の一実施形態による画像処理システムの構成例を示すブロック図である。図1において、画像処理システム10は、データ入出力部11、撮像条件取得部12、形状情報推定部13、光源情報推定部14、画像合成部15、表示制御部16、表示部17、撮像画像記憶部18、空間情報記憶部19及び合成画像記憶部20の各々を備えている。
ここで、画像処理システム10は、パーソナルコンピュータ、タブレット端末、スマートフォンなどに、以下に説明する各機能部より画像処理を行なうアプリケーションをインストールすることにより構成される。
データ入出力部11は、シミュレーションを行う対象空間が撮像された撮像画像を外部装置から入力し、撮像画像識別情報を付与して、撮像画像記憶部18に対して書き込んで記憶させる。
撮像条件取得部12は、対象空間の撮像画像を撮像した際の撮像条件を取得し、それぞれの撮像画像の撮像画像識別情報に対応させ、撮像画像記憶部18に対して書き込んで記憶させる。この撮像条件は、撮像装置のカメラパラメータ、センササイズ、撮像装置から対象空間の三次元形状までの実寸サイズの距離、撮像画像の画素数、撮像した撮像位置の位置関係、また動画であればフレームレートなどである。また、撮像条件において撮像画像のExif(exchangeable image file format )情報から取得可能な情報は、ユーザが入力する必要はない。実寸サイズの距離は、単一画像の場合には撮像する対象空間に対して、大きさの判っているマーカを置いて、そのマーカの画像を元に距離の算出を行う。
形状情報推定部13は、撮像画像記憶部18に記憶されている撮像画像から、撮像した対象空間の三次元形状を推定して、三次元形状モデル(仮想空間)を含む空間形状情報を生成する。
そして、形状情報推定部13は、生成した空間形状情報を空間情報記憶部19に対して書き込んで記憶させる。この空間形状情報は、少なくとも、対象空間の三次元形状モデルのデータ、法線ベクトルなどを含んでいる。
本実施形態において、形状情報推定部13は、以下に示す3つの三次元形状推定方法により、三次元形状モデルの生成を行う。
三次元形状推定方法(1):
形状情報推定部13は、機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する(例えば、Ibraheem Alhashim, Peter Wonka"High Quality Monocular Depth Estimation via Transfer Learning" CoRR, Vol. abs/1901.03861, 2019.の文献に記載されている手法を用いる)。
形状情報推定部13は、求めたデプスマップに基づいて、撮像画像の各画素における三次元点群及び法線を算出し、三次元点群をメッシュ化することができる。
そして、三次元点群は、メッシュ化された三次元形状モデルである仮想空間の情報を空間形状情報として、撮像画像記憶部18に対して、撮像画像に対応させて書き込んで記憶させる。
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められたデプスマップそれぞれを統合して、より精度の高い対象空間のデプスマップを生成する。
三次元形状推定方法(2):
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、MVS(Multi-View Stereo) のアルゴリズムを用いて、複数の撮像画像を用いて対象空間の三次元形状の推定を行い、三次元形状モデルである仮想空間を生成して空間形状情報としても良い。
三次元形状推定方法(3):
また、形状情報推定部13は、対象空間における部屋構造部と、それ以外の部屋に配置されたオブジェクト部(部屋の備品など)との各々を、それぞれ別々に形状モデルを求めるアルゴリズムを用いても良い。
形状情報推定部13は、以下の図2に示されているように、撮像画像から天井と壁、壁と床の境界部を抽出する。
図2は、撮像画像から部屋における天井、壁及び床の境界部を抽出し、デプスマップを求める処理を説明する図である。図2(a)は、撮像画像100を示している。撮像画像100には、対象空間の部屋200における天井200C、壁200W、床200F、柱200P、テーブル200T、光源200Lなどが撮像されている。
図2(b)は、天井200C及び壁200Wの境界部200CWと、壁200W及び床200Fの境界部200WFとが示されてる。また、図2(b)において、柱200P、テーブル200T及び光源200Lに関する情報は抽出されていない。
図2(c)は、図2(a)の撮像画像と、図2(b)の境界部とから求めたデプスマップを示している。
そして、形状情報推定部13は、マンハッタンワールド仮説を用いて、図2(a)の撮像画像と、図2(b)の境界部とから、三次元空間の3軸(x軸、y軸及びz軸)に対応して、天井、壁及び床を検出して、それぞれのデプスマップを生成する。この天井、壁及び床の検出を、機械学習モデル(例えば、CNN(convolutional neural network))によりRGB画像から直接行なうものとして、例えば、"Chuhang Zou, Alex Colburn, Qi Shan, Derek Hoiem"LayoutNet: Reconstructing the 3D Room Layout from a Single RGB Image" Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2051-2059."がある。
また、形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデル(例えば、CNN)により、撮像画像におけるオブジェクトの各々の領域を抽出する。
図3は、セマンティックセグメンテーションを行う機械学習モデルにより対象空間のオブジェクトの領域分割を示す図である。図3において、撮像画像に撮像された対象空間の各オブジェクトの領域がセグメントとして分離されている。
形状情報推定部13は、セマンティックセグメンテーションを行う機械学習モデルを用いて、撮像画像100の画像において、天井200C、壁200W、床200Fの構造部と、柱200P、光源200L_1、200L_2、テーブル200Tなどのオブジェクト部の各々の画像領域として分離する。
上述したように、形状情報推定部13は、対象空間の部屋の撮像画像を、部屋構造部(天井、壁、床)やオブジェクト部(備品としての柱、机(テーブル)、椅子、棚などの家具)などの領域に分割することで、それぞれの領域を認識する。
また、形状情報推定部13は、三次元形状推定方法(1)で説明した機械学習モデルを利用し、対象空間が撮像された一枚の撮像画像(RGB画像)から直接にデプスマップを推定する。
そして、形状情報推定部13は、図3のセマンティックセグメンテーション結果における対象空間が分離された画像領域から、部屋構造部の領域を除いたオブジェクト部の領域として柱200P及びテーブル200Tの領域を抽出する。
図4は、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を説明する図である。
図4(a)は、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップから、セマンティックセグメンテーション結果におけるオブジェクト部の柱200P及びテーブル200Tの領域を用いて抽出した、柱200P、テーブル200Tそれぞれのデプスマップを示している。
図4(b)は、図2(c)に示すマンハッタンワールド仮説により生成した部屋構造部のデプスマップと、図4(a)に示すオブジェクト部のデプスマップとをスケーリングして統合した対象空間のデプスマップの一例を示している。
形状情報推定部13は、図4(b)に示すように、機械学習モデルで生成したデプスマップとマンハッタンワールド仮説により生成したデプスマップとの合成を行う。
これにより、マンハッタンワールド仮説は、人工物の多くがそれぞれの面が直交座標系に平行に拘束されているという仮定になりたつため、天井、壁及び床などの部屋構造部におけるデプスマップを高い精度で得ることができる。
しかしながら、対象空間におけるテーブルや椅子などのオブジェクト部については、上記拘束に対応しないためにデプスマップが生成されない。
一方、三次元形状推定方法(1)で説明した機械学習モデルにより生成したデプスマップにおいては、対象空間におけるオブジェクト部についてもデプスマップが生成される。
しかしながら、機械学習で求めたデプスマップにおいては、いずれがオブジェクト部のデプスマップの存在する領域かを認識することができない。
このため、形状情報推定部13は、機械学習で求めたデプスマップにおけるオブジェクト部(200P、200T)の領域を用いて、図3に示すセマンティックセグメンテーションにおけるオブジェクト部の領域により抽出して、図4(a)に示すオブジェクト部の領域のデプスマップを取得する。これにより、部屋構造部とオブジェクト部とのデプスマップとを別々に得ることができる。
このとき、形状情報推定部13は、図3の部屋構造部の値に基づいて、機械学習で求めたデプスマップから抽出したオブジェクト部のデプスマップのスケーリングを行う。
この三次元形状推定方法(3)により、オブジェクト部により遮蔽されていた部屋構造部の三次元形状を示すデプスマップを、三次元形状推定方法(1)で用いて得たデプスマップより高い精度で得ることができる。
そして、形状情報推定部13は、部屋構造部及びオブジェクト部の各々のデプスマップを用いて、それぞれについて三次元点群及び各三次元点における法線を求め、これら三次元点群点のメッシュ化を行ない、空間形状情報として空間情報記憶部19に対して書き込んで記憶させる。
この手法によって、オブジェクト部により遮蔽されていた部屋構造部の三次元形状を記憶することが可能となる。
また、同一の対象空間が異なる撮像位置から撮像された複数の撮像画像が存在する場合、形状情報推定部13は、同一の対象空間が撮像されていることを利用して、SfM(structure from motion)のアルゴリズムによって、撮像画像の各々の撮像位置間の位置関係の推定を行う。
そして、形状情報推定部13は、撮像画像の各々から求められた部屋構造部及びオブジェクト部の各々のデプスマップを、部屋構造部、オブジェクト部それぞれにおいて統合して、より精度の高い対象空間における部屋構造部、オブジェクト部のデプスマップを生成する。
図5は、マンハッタンワールド仮説により生成したデプスマップから求めた部屋構造部(天井、壁及び床)の三次元形状を表示した図である。
この図5には、対象空間の部屋の天井200C、壁200W及び床200Fからなる部屋構造部の三次元形状が示されている。
図6は、三次元形状推定方法(1)における機械学習モデルで求めたデプスマップから、セマンティックセグメンテーションにより分割した領域により求めたオブジェクト部のデプスマップから求めた三次元形状を表示した図である。
図6には、対象空間の仮想空間250において、オブジェクト部のデプスマップから求めた柱200P及びテーブル200Tの三次元形状が示されている。
上述したように、形状情報推定部13は、例えば、三次元形状推定方法(1)から三次元形状推定方法(3)などにより、対象空間の三次元形状を推定する。
しかしながら、上述した三次元形状推定方法(1)から三次元形状推定方法(3)の方法は、撮像画像からの三次元復元技術の例として示すものである。形状情報推定部13で用いられる三次元復元技術は、必ずしも特定の手法として限定される訳ではなく、一般的に用いられているいずれの手法を用いてもよい。
また、上述した三次元形状推定方法(1)から三次元形状推定方法(3)により求めたデプスマップが相対的な距離として求められているため、実際の撮像位置からの距離は不明である。以下の手法などにより、デプスマップにおける実際の距離を推定し、復元される対象空間の各オブジェクトのサイズを実寸のサイズとして求める。
例えば、撮像画像記憶部18に記憶されている撮像画像を撮像した際の撮像条件として、撮像装置における特定の画素と対象空間の三次元形状との実寸サイズでの距離が記憶されていれば、この実寸サイズの距離を用いて、デプスマップにおける各画素の距離を求めることができる。
また、大きさが既知であるオブジェクトを配置して撮像し、撮像されたこの大きさが既知のオブジェクトの画像に基づいて、対象空間におけるオブジェクトの各々をスケーリングしても良い。このとき、既知のオブジェクトをパターン認識やセマンティックセグメンテーション、物体認識などの画像解析により、既知のオブジェクトの画素領域を抽出し、抽出した領域における画素のデプス値を用いて、他の領域のデプスマップを実寸サイズにスケーリングする。
また、画像のぼけ量と撮像装置の焦点距離との対応関係を、予め計測実験により取得しておき、撮像画像のぼけ量から距離を推定する構成を用いてもよい。
光源情報推定部14は、対象空間の撮像画像と、対象空間の空間形状情報(仮想空間の三次元形状)とから光源情報の推定を行い、推定された光源情報を空間情報記憶部19に対して書き込んで記憶させる。この光源情報は、少なくとも光源の対象空間における位置、光源の放射する光の強度、及び光の色味(分光情報)である。
本実施形態において、光源情報推定部14は、以下に示す3つの光源情報推定方法により、光源情報の生成を行う。
光源情報推定方法(1):
光源情報推定部14は、撮像画像(RGB画像)をグレースケール画像に変換し、階調度の最も高い画素の領域を抽出する。
そして、光源情報推定部14は、例えば、この階調度の最も高い画素の領域と、当該領域の画素の階調度に対して、所定の比(例えば、90%以上)の階調度を有する画素の領域とを光源の領域として抽出する。
図7は、光源情報推定方法(1)により抽出された光源の領域(光源領域)を、光源情報推定部14がグレースケール画像において示す図である。図7において、グレースケール画像300は、RGB画像である撮像画像100(図2(a))をグレースケール化した画像である。
グレースケール画像300の画素において、領域301の画素が最も高い階調度を有している。そして、領域302の画素が、領域301の画素の90%以上の階調度を有している。これにより、光源情報推定部14は、領域301及び領域302の各々を、光源領域として抽出する。
光源情報推定方法(2):
光源情報推定部14は、上述した光源情報推定方法(1)により、撮像画像において光源領域を抽出する。
そして、光源情報推定部14は、形状情報推定部13により抽出した光源領域の形状情報に基づき、仮想空間である空間形状情報において、光源領域の三次元形状としての点光源を配置する。
また、光源情報推定部14は、撮像画像及び空間形状情報における三次元形状により、対象空間の反射率情報(波長毎の反射率情報)を推定する。
ここで、光源情報推定部14は、対象空間の反射率情報の推定において、例えば、固有画像分解(Intrinsic Image Decomposition) に基づくIntrinsic Image Problemのアルゴリズムの手法(例えば、Qifeng Chen, Vladlen Koltun" A Simple Model for Intrinsic Image Decomposition with Depth Cues" The IEEE International Conference on Computer Vision (ICCV), 2013, pp. 241-248の文献に記載されている手法)を用いている。
光源情報推定部14は、Intrinsic Image Problemのアルゴリズムによって反射率・陰影分離を行う。
すなわち、光源情報推定部14は、撮像画像を反射率成分画像(反射率情報)及び陰影成分画像の各々に分離する際、Intrinsic Image Problemのアルゴリズムに基づき、「画像(撮像画像)Iは反射率成分Rと陰影成分Sの積で表すことができる」という仮定を基とし、撮像画像Iを反射率成分画像Rと陰影成分画像Sとの各々に分離する。
図8は、光源情報推定部14により求められた空間形状情報における三次元形状の反射率情報を示す反射率成分画像である。
この図8において、反射率成分画像は、撮像画像における2次元座標値で示される2次元座標点で示される各画素の反射率成分(反射率情報)がRGB(Red Green Blue)の画素値として示されている。
一方、陰影成分画像は、撮像画像における2次元座標値で示される各2次元座標点の陰影成分、すなわち撮像画像を撮像した際の光源に依存するデータが画素値として示されている。
次に、光源情報推定部14は、撮像画像の各画素の階調度と、空間形状情報における三次元形状の反射率情報とにより、光源の強度の推定を行う。
そして、光源情報推定部14は、撮像画像において任意に光源の強度を求めるための領域Aを設定し、この領域Aの反射率情報を抽出する。
ここで、設定する領域Aは、強度及び色味を求めたい対象の光源の光のみ(あるいは入射する光のほとんどが対象の光源の光のみ)が照射される領域であることが望ましい。
すなわち、複数の光源がある場合、それぞれの光源からの影響を求めるための演算が複雑とならないように、対象の光源の強度及び色味を求めるための演算量を低減する。
次に、光源情報推定部14は、撮像画像において設定した領域Aと、反射率成分画像において領域Aに対応する位置の領域Bを抽出する。
そして、光源情報推定部14は、領域AのRGB階調度と領域Bの反射率情報とにより、光源の強度及び色味を求める。
また、光源情報推定部14は、光源の強度を求める際、光の強度が距離の二乗に反比例することを考慮し、領域Bに入射すると推定された光の強度に対して、空間形状情報における三次元形状から求めた光源と領域Bとの距離の二乗を乗して、光源の強度を求める。
この光源情報推定方法(2)により、光源の強度が撮像画像のRGB値を飽和していても、光源からの光が入射する領域から間接的に光源の強度を求めるため、正確な光源情報を取得することができる。
図9は、光源情報推定部14が推定した光源情報を空間形状情報における三次元形状に配置した例を示している。図9においては、対象空間の三次元形状における推定位置に対応して、光源200L_1、200L_2を対象空間の仮想空間250に配置している。
光源情報推定方法(3):
光源情報推定部14は、光源情報推定方法(1)により、撮像画像において光源領域を抽出する。また、光源情報推定部14は、上述した光源情報推定方法(2)と同様に、形状情報推定部13により抽出した光源領域の形状情報に基づき、空間形状情報における仮想空間において、光源領域の三次元形状としての点光源を配置する。
このとき、この点光源の強度と色味とは、仮の任意の数値(仮光源情報)とし、例えば撮像画像の点光源と推定された領域のRGB値を仮の数値として設定する。
次に、光源情報推定部14は、撮像画像の各画素に対応する、空間形状情報における三次元形状の座標点を抽出し、この座標点において光が完全拡散反射するという仮定により、点光源それぞれから光が入射された際の陰影情報を計算する。
そして、光源情報推定部14は、撮像画像の画素値と、陰影成分画像の対応する画素の陰影情報とから、各画素における反射率情報を求める。すなわち、光源情報推定部14は、撮像画像の画素値を、陰影成分画像の対応する画素の陰影情報により除算して、除算結果を反射率情報とする。
そして、光源情報推定部14は、自然物の反射率の平均値が20%であるという仮定を用い、反射率情報をスケーリングする。
すなわち、光源情報推定部14は、以下に示す(1)式を用いて、撮像画像の各画素の反射率A(x,y)を求める。ここで、光源情報推定部14は、撮像画像における全ての画素の反射率A(x,y)の平均値が20%となるスケーリング係数αを求める。すなわち、光源情報推定部14は、撮像画像の画素値I(x,y)を陰影成分画像の対応する画素の陰影情報(陰影成分画像の画素値S(x,y))により除算した結果の数値において、反射率A(x,y)の平均値が20%となるように、スケーリング係数αを求める。光源情報推定部14は、スケーリング係数αが求まった際の反射率A(x,y)を、撮像画像のそれぞれの画素の反射率A(x,y)とする。
Figure 0007476511000001
次に、光源情報推定部14は、(1)式で求めた撮像画像における画素の各々の反射率A(x,y)を用いて、以下に示す(2)式により、光源の色味及び強度の光源情報を求める。このとき、光源情報推定部14は、(2)式により求まる画素値I(x,y)が撮像画像の対応する位置の画素値と同様となるように、点光源の強度と色味とを仮の任意の数値から変化させて、最終的に点光源の強度及び色味を求める。
以下の(2)式において、A(x,y)が画素(x,y)の反射率を示し、k(l)が光源lの色みを示し、kα(l)が光源lの光の強度を示し、r(x,y,l)が画素(x,y)から光源lまでの距離を示し、n(x,y,l)が画素(x、y)から光源lへのベクトルを示し、n(x,y)が画素(x,y)の法線ベクトルを示している。
光源情報推定部14は、撮像画像の各画素の画素値I(x,y)となるように、各光源の光源情報である色みk(l)及び強度kα(l)を、(2)式による数値計算により求める。
Figure 0007476511000002
また、光源情報を求めるアルゴリズムは、上述した光源情報推定方法(1)から光源情報推定方法(3)以外を用いてもよい。
上述した光源情報推定方法(1)から光源情報推定方法(3)の各々においては、光源を点光源として説明したが、点光源以外の例えば線光源あるいは面光源でもよい。
例えば、光源情報推定部14は、すでに説明したセマンティックセグメンテーションを用いて、各光源の物体認識結果(撮像画像における光源の形状)を求めておく。そして、光源情報推定部14は、光源の種類として、物体認識結果が電球形状であれば点光源とし、ダウンライト形状であればディレクショナルライト(平行光源)とし、蛍光灯形状であれば線光源とし、窓形状であれば面光源とする。
また、光源情報としては、撮像画像、対象空間の空間形状情報、及び光源情報とにより、CGで生成したCGオブジェクトを合成する仮想空間上の任意の位置におけるIBL(image based lighting)情報を生成することができる。
これにより、画像合成部15は、撮像画像と対象空間の空間形状情報とにより、CGで生成したCGオブジェクトを配置する位置における光源情報をIBL情報から容易に求めることができる。ここで、光源情報推定方法(2)及び光源情報推定方法(3)で求めた光源情報を、画素値が飽和しないIBL情報のデータ形式を用いることができる。
画像合成部15は、光源情報に基づいて、撮像画像、対象空間の空間形状情報及び光源情報とに基づいて、三次元の仮想空間を生成する。
ここで、画像合成部15は、空間形状情報における三次元形状を形状モデルとし、撮像画像をテクスチャデータとし、光源情報をレンダリングパラメータとして、対象空間の仮想空間を生成する。
図10は、画像合成部により生成された三次元の仮想空間を撮像画像の撮像方向から見た画像を示す図である。この図10は、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図10においては、撮像画像により生成した三次元の仮想空間を所定の視点から観察した画像として表示させる際、平面や天球に対して撮像画像を撮像装置の画角に応じてテクスチャデータとして設定して(貼り付けて)仮想空間を生成している。あるいは、仮想空間において、観察する視点位置の変更をしても違和感なく(撮像位置に対して所定の範囲内において違和感なく)観察画像を表示させるため、形状モデルにテクスチャデータとして撮像画像を設定すれ(貼り付けれ)ばよい。
図10において、柱200Pの形状モデルには、光源200L_1及び200L_2の各々からの光が照射される明るい明領域200PLと、光が照射されない影領域200PS(シャドウ)とが、形状モデルにテクスチャデータとして撮像画像を貼り付ける(設定する)処理など、撮像画像を用いて形成されている。
同様に、テーブル200Tの形状モデルが配置された位置における、テーブル200Tの下部の床200Fには、光源200L_1及び200L_2の各々からの光がテーブル200Tにより遮蔽されることで生成される影領域200TSが同様に形成されている。
また、床200Fにおいて、光源200L_1及び200L_2からの距離に対応して、明るさの強さの程度を示しているグラデーション領域501も、上述したように撮像画像を用いて形成されている。
また、画像合成部15は、生成した三次元の仮想空間に対して、CGで生成されたCGオブジェクトを追加して配置する制御が行われた場合、当該仮想空間に対してCGオブジェクトの追加配置を行う。
本実施形態において、CGで生成されたCGオブジェクトの各々は、例えば、予め生成されており、合成画像記憶部20に書き込まれて記憶されている。
図11は、仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。この図11は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図11において、CGオブジェクト提示領域503に表示されているCGオブジェクト503_1、503_2などが、画像合成部15により、表示制御部16を介して表示部17の表示画面502に表示される。
例えば、ユーザがCGオブジェクト提示領域503におけるCGオブジェクト503_1をドラッグし、配置位置504においてドロップすることにより、画像合成部15は、CGオブジェクト503_1を仮想空間における配置位置504に配置する。
図12は、仮想空間に対してCGオブジェクトの追加の配置を行う制御について説明する図である。この図12は、図10と同様に、表示制御部16が仮想空間を所定の視点方向(例えば、撮像方向)から観察された画面として、表示部17の表示画面に表示した図である。
図12において、仮想空間に配置されたCGオブジェクト503_1に対応し、このCGオブジェクト503_1の形状情報に対して、光源200L_1及び200L_2の各々の光源情報を反映させて、仮想空間が再構成される。
画像合成部15は、配置したCGオブジェクト503_1の形状情報と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光による明度を反映させたレンダリングを、CGオブジェクト503_1に対して行う。
これにより、画像合成部15は、レイトレーシングなどの技法により、図12に示すように、配置したCGオブジェクト503_1の形状情報に対応し、光源200L_1及び200L_2からの光が照射される上部の明るさの強度を強くし、CGオブジェクト503_1の三次元形状により遮蔽された領域を求め影とし、影となる影領域503_1Sの明るさの強度を低くする。
また、画像合成部15は、光源情報推定部14が求めた仮想空間における天井200C、壁200W、床200F、柱200P及びテーブル200Tなどの反射率情報及び三次元形状を用いて、照射光の反射成分による明度をレンダリングに反映させてもよい。
すなわち、画像合成部15は、仮想空間における三次元形状と、光源200L_1及び200L_2の光源情報(配置位置、光の色味及び強度)とに対応し、光源200L_1及び200L_2からの照射光の反射光による、仮想空間に配置されたCGオブジェクトに対する明度の影響を、仮想空間のレンダリングに対して反映させる構成としてもよい。
図13は、本実施形態による画像処理システムにおいて、対象空間の選択された撮像画像から生成した仮想空間と、CGオブジェクトとを合成する処理の動作例を示すフローチャートである。以下の説明において、データ入出力部11は、予め外部装置から供給される、対象空間の各々が撮像された単一あるいは複数の撮像画像を撮像画像記憶部18に対して、撮像画像識別情報を付与して、撮像画像のそれぞれを撮像した際の撮像条件とともに書き込んで記憶させている。
ステップS1:
データ入出力部11は、表示制御部16により表示部17に対して、撮像画像記憶部18に記憶されている撮像画像の表示を行う。
ユーザは、表示部17に表示されている撮像画像の中から、観察対象とする対象空間の撮像画像をマウスによりクリックなどすることにより選択する。
これにより、データ入出力部11は、撮像条件取得部12、形状情報推定部13、光源情報推定部14及び画像合成部15の各々に対して、ユーザが選択した撮像画像の撮像画像識別情報を出力する。
ステップS2:
撮像条件取得部12は、ユーザが選択した撮像画像の撮像条件を、当該撮像画像の撮像画像識別情報により撮像画像記憶部18から読み出す。
そして、撮像条件取得部12は、読み出した撮像条件を、形状情報推定部13及び光源情報推定部14の各々に対して出力する。
ステップS3:
形状情報推定部13は、撮像画像及び撮像条件の各々を用いて、すでに説明した三次元形状推定方法(1)から三次元形状推定方法(3)などの手法により、選択された撮像画像の対象空間の三次元形状を推定する。
そして、形状情報推定部13は、生成した対象空間の三次元形状のデータを空間形状情報として、対応する撮像画像の撮像画像識別情報を付加して、空間情報記憶部19に対して書き込んで記憶させる。
ステップS4:
光源情報推定部14は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報を読み出す。
そして、光源情報推定部14は、撮像画像及び空間形状情報の各々を用いて、すでに説明した光源情報推定方法(1)から光源情報推定方法(3)などのいずれかの手法により、選択された撮像画像に対応した仮想空間における光源情報の推定を行う。光源情報推定部14は、推定した光源情報を、空間形状情報に対応させて空間情報記憶部19に対して書き込んで記憶させる。
ステップS5:
画像合成部15は、空間情報記憶部19から撮像画像識別情報に対応した空間形状情報及び光源情報の各々を、また撮像画像記憶部18から撮像画像識別情報に対応した撮像画像を読み出す。
画像合成部15は、空間形状情報における三次元形状に対して、光源情報及び撮像画像とを用いて、撮像画像に撮像された対象空間に対応する仮想空間を生成する。
そして、表示制御部16は、上記仮想空間における視点の位置から観察される観察画像を生成し、図10に示すように表示部17の表示画面に表示する。
ステップS6:
例えば、ユーザが、表示部17の表示画面に表示されている観察画像に対応する仮想空間に対して、CGオブジェクトの追加(または変更)の配置を行う制御を画像処理システム10に対して行う。
これにより、画像合成部15は、合成画像記憶部20に予め記憶されているCGオブジェクトの画像のデータを読み込む。
そして、画像合成部15は、図11に示すように、読み出したCGオブジェクトの画像を、表示部17の表示画面におけるCGオブジェクト提示領域503に対して表示する。
ユーザがCGオブジェクト提示領域503におけるCGオブジェクト503_1を選択してドラッグし、仮想空間における床200Fにおける配置位置504にドロップし、仮想空間に対するCGオブジェクト503_1を追加する配置を行う。
ステップS7:
画像合成部15は、仮想空間における配置位置504に対して、CGオブジェクト503_1を新たに配置する合成処理を行う。
そして、画像合成部15は、仮想空間の三次元形状と、CGオブジェクト503_1の三次元形状と、光源200L_1、200L_2の光源情報とに基づき、新たにレンダリングを行うことにより仮想空間の再構成を行う。
ここで、画像合成部15は、対応する撮像画像の撮像画像識別情報に対応させて、再構成した仮想空間の三次元形状のデータを、合成画像記憶部20に対して書き込んで記憶させる。
表示制御部16は、再構成された仮想空間における視点の位置から観察される観察画像を生成し、図12に示すように表示部17の表示画面に表示する。
ステップS8:
データ入出力部11は、CGオブジェクトの配置(追加及び変更を含む)を続けて行うか否かを入力する入力表示領域(不図示)を表示部17の表示画面に表示する。
そして、ユーザが、CGオブジェクトの配置を続ける情報を上記入力表示領域に対して入力した場合、データ入出力部11は処理をステップS6へ進める。
一方、ユーザが、CGオブジェクトの配置を終了する情報を入力表示領域に入力した場合、データ入出力部11は処理を終了する。
上述したように、本実施形態によれば、上述した光源情報推定方法(1)から光源情報推定方法(3)により、撮像画像及び仮想空間の三次元形状に基づいて光源情報を取得することが可能であるため、従来のように形状が既知の物体を準備し、かつこの物体の画像を既知光源下で撮像して基準画像を準備する必要がなく、簡易に対象空間における光源の光源情報を得ることができる。
また、本実施形態によれば、画像合成部15が対象空間の三次元形状と、対象空間における光源情報と、CGオブジェクトの三次元形状とにより、新たにCGオブジェクトが配置された仮想空間のレンダリングを行うため、CGオブジェクトに対する光源の放射光の影響、CGオブジェクトの三次元形状により遮蔽されて隠れる領域、及びCGオブジェクトの三次元形状により光源からの放射光が遮蔽される影の領域を反映させて、仮想空間と当該仮想空間に追加配置されたCGオブジェクトとを合成した仮想空間(再構成した仮想空間)をレンダリングすることにより、現実の対象空間における光源環境と同様の光源環境において、当該対象空間に対して物体(CGオブジェクトに対応した物体)を配置した状態を仮想的に生成して、物体を配置した対象空間の見えを観察画像として容易に観察することができる。
また、本実施形態によれば、仮想空間の構造部及びオブジェクト部の各々の三次元形状の反射率情報及びCGオブジェクトの各々の反射率情報を用いて、光源からの放射光の三次元形状の反射(二次反射)をレンダリングに反映させることで、仮想空間における見えを現実の対象空間により近似させることができる。
また、本実施形態によれば、仮想空間及びCGオブジェクトの各々の三次元情報を実寸サイズにスケーリングすることにより、CGオブジェクトを配置した仮想空間の見えを、対象空間に物体を配置した場合の正確なサイズ感覚の質感を有する観察画像として視認することができる。
また、本実施形態によれば、単一の撮像画像あるいは複数の撮像画像を用いて対象空間の三次元形状を推定して仮想空間を生成しているため、所定の範囲における対象空間を観察する視点を任意に変化させることが可能であり、仮想空間におけるCGオブジェクトを配置した領域の見えを、視点を変化させた観察画像として観察することができる。
また、上述した実施形態においては、予め撮像されて撮像画像記憶部18に書き込まれている撮像画像を用いた、仮想空間の生成及びこの仮想空間に対するCGオブジェクトの合成を行う画像処理について説明した。
しかしながら、データ入出力部11から、撮像装置から供給される対象空間を逐次的に撮像した撮像画像(単一または複数の撮像画像)をリアルタイムに撮像画像記憶部18に書き込む構成としてもよい。この場合、逐次的に供給される単一または複数の撮像画像により仮想空間を生成し、この仮想空間に対してCGオブジェクトを合成する処理を行い、合成処理を行った仮想空間の観察画像を、リアルタイムに表示部17に表示してユーザに視認させることができる。
以上、本発明の実施形態を図面を参照し説明してきたが、具体的な構成はこの形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。
なお、本発明における図1の画像処理システム10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより撮像画像から生成した仮想空間に対してCGオブジェクトを合成する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
10…画像処理システム
11…データ入出力部
12…撮像条件取得部
13…形状情報推定部
14…光源情報推定部
15…画像合成部
16…表示制御部
17…表示部
18…撮像画像記憶部
19…空間情報記憶部
20…合成画像記憶部

Claims (4)

  1. 対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定部と、
    前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定部と
    を備え、
    前記光源情報推定部が、
    前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定する
    ことを特徴とする画像処理システム。
  2. 前記光源情報推定部が
    前記撮像画像の画素値と、前記反射率情報、前記光源情報及び前記空間形状情報の各々との関係を示す所定の式から、前記推定した前記反射率情報を用いて前記光源情報を推定する
    ことを特徴とする請求項に記載の画像処理システム。
  3. 形状情報推定部が、対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定過程と、
    光源情報推定部が、前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定過程と
    を含み、
    前記光源情報推定過程では、
    前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定する
    ことを特徴とする画像処理方法。
  4. コンピュータを、
    対象空間が撮像された単一あるいは複数の撮像画像から、前記対象空間の少なくとも三次元形状を含む空間形状情報を推定する形状情報推定手段、
    前記撮像画像及び前記空間形状情報から、前記対象空間における光源の少なくとも位置及び強度を含む光源情報を推定する光源情報推定手段
    として機能させ、
    前記光源情報推定手段が、
    前記撮像画像及び前記空間形状情報から、前記対象空間における三次元形状の反射率情報を推定し、当該反射率情報を用いて前記光源情報を推定する
    プログラム。
JP2019194285A 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム Active JP7476511B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019194285A JP7476511B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194285A JP7476511B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021068272A JP2021068272A (ja) 2021-04-30
JP7476511B2 true JP7476511B2 (ja) 2024-05-01

Family

ID=75637320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194285A Active JP7476511B2 (ja) 2019-10-25 2019-10-25 画像処理システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7476511B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435408A (zh) * 2021-07-21 2021-09-24 北京百度网讯科技有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN116245931B (zh) * 2023-03-16 2024-04-19 如你所视(北京)科技有限公司 物品属性参数的确定方法、装置、设备、介质和产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099545A (ja) 2013-11-20 2015-05-28 株式会社東芝 画像生成システム及び画像生成プログラム
WO2017203709A1 (ja) 2016-05-27 2017-11-30 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099545A (ja) 2013-11-20 2015-05-28 株式会社東芝 画像生成システム及び画像生成プログラム
WO2017203709A1 (ja) 2016-05-27 2017-11-30 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐藤洋一 他1名,インバースレンダリング,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2004年09月03日,Vol.104, No.290,pp.65-76
肥後智昭 他2名,物体の全体形状と反射パラメータの同時推定,画像ラボ,日本,日本工業出版株式会社,2007年11月01日,Vol.18, No.11,pp.31-36

Also Published As

Publication number Publication date
JP2021068272A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
CN110148204B (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
JP4804256B2 (ja) 情報処理方法
US9420253B2 (en) Presenting realistic designs of spaces and objects
RU2586566C1 (ru) Способ отображения объекта
US20160381348A1 (en) Image processing device and method
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
EP3533218B1 (en) Simulating depth of field
US11763479B2 (en) Automatic measurements based on object classification
TWI502546B (zh) 推擠一模型通過二維場景的系統、方法和電腦程式商品
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
KR20200136930A (ko) 디지털 장면을 생성하기 위한 방법, 시스템, 제조품 및 장치
JP7476511B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6934957B2 (ja) 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
KR102197504B1 (ko) 사전 계산된 조명으로 증강 현실 환경을 구성하는 기법
JP7447429B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN113139992A (zh) 多分辨率体素网格化
JP6526605B2 (ja) 仮想カメラ画像生成装置
Kim et al. Planar Abstraction and Inverse Rendering of 3D Indoor Environments
JP7419908B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US11830140B2 (en) Methods and systems for 3D modeling of an object by merging voxelized representations of the object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150