JP2014164615A - Shading information derivation device, shading information derivation method, and program - Google Patents

Shading information derivation device, shading information derivation method, and program Download PDF

Info

Publication number
JP2014164615A
JP2014164615A JP2013036317A JP2013036317A JP2014164615A JP 2014164615 A JP2014164615 A JP 2014164615A JP 2013036317 A JP2013036317 A JP 2013036317A JP 2013036317 A JP2013036317 A JP 2013036317A JP 2014164615 A JP2014164615 A JP 2014164615A
Authority
JP
Japan
Prior art keywords
reference object
shadow information
image
normal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013036317A
Other languages
Japanese (ja)
Other versions
JP5952757B2 (en
Inventor
Yasuhiro Yao
泰洋 八尾
Harumi Kawamura
春美 川村
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013036317A priority Critical patent/JP5952757B2/en
Publication of JP2014164615A publication Critical patent/JP2014164615A/en
Application granted granted Critical
Publication of JP5952757B2 publication Critical patent/JP5952757B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To derive shading information by a method which has been unavailable conventionally.SOLUTION: A shading information derivation device includes: an area extraction part which extracts a reference object region from a photographed image; a normal line derivation part which derives a normal line of a reference object based on the extracted reference object region; and a shading information derivation part which derives shading information based on the extracted reference object region and the normal line of the derived reference object.

Description

本発明は、陰影情報を導出する技術に関する。   The present invention relates to a technique for deriving shadow information.

拡張現実においては、例えば仮想物体などのCG(コンピュータグラフィックス)オブジェクトをシーン画像に合成する際に、そのCGオブジェクトに陰影を付与することが行われている。このように、CGオブジェクトに対応して陰影を付加することによって、シーン画像においてそのCGオブジェクトが実際に存在しているかのように見せることができる。   In augmented reality, for example, when a CG (computer graphics) object such as a virtual object is combined with a scene image, a shadow is added to the CG object. In this way, by adding a shadow corresponding to the CG object, it is possible to make it appear as if the CG object actually exists in the scene image.

上記のように陰影を付加するのにあたっては陰影情報が利用される。陰影情報とは、シーン画像におけるCGオブジェクトの合成位置に対応させて実シーンにCGオブジェクトの実体を位置させたとした場合に生じる陰影が、シーン画像においてはどのように表現されるのかを示す情報である。   As described above, shadow information is used to add a shadow. The shadow information is information indicating how the shadow generated when the entity of the CG object is located in the actual scene in correspondence with the synthesis position of the CG object in the scene image is expressed in the scene image. is there.

陰影情報の導出は、例えば、シーンにおける光源に関する情報(光源情報)を推定し、この光源情報に基づいてCGオブジェクトのレンダリングを行うことにより実現されている。
光源情報を推定するにあたり、例えば全方位を撮像する全方位カメラを利用するというものが知られている(例えば、非特許文献1参照)。この手法は、全方位を撮像した画像のいずれかの部分において光源が撮像されていることを前提としている。そのうえで、この手法は、全方位カメラにより撮像した画像に基づいて、シーン画像に対応する光源の位置、色、位置、強度などを推定するというものである。
The derivation of the shadow information is realized, for example, by estimating information (light source information) about the light source in the scene and rendering the CG object based on the light source information.
In estimating the light source information, for example, an omnidirectional camera that captures an omnidirectional image is used (for example, see Non-Patent Document 1). This method is based on the premise that a light source is imaged in any part of an image obtained by imaging all directions. In addition, this method estimates the position, color, position, intensity, and the like of the light source corresponding to the scene image based on the image captured by the omnidirectional camera.

また、金属球を利用する手法が知られている(例えば、非特許文献2参照)。この手法は、上記の全方位カメラに準じた考え方に基づいている。つまり、この手法は、金属球に映った周囲のシーンの映像において光源も含まれていることを前提とする。そのうえで、この手法は、周囲のシーンが映り込んでいる金属球の画像に基づいて光源の位置、色、位置、強度などを推定するものである。   Further, a technique using a metal sphere is known (see, for example, Non-Patent Document 2). This method is based on the idea according to the above-mentioned omnidirectional camera. That is, this method is based on the premise that a light source is also included in an image of a surrounding scene reflected on a metal sphere. In addition, this method estimates the position, color, position, intensity, and the like of the light source based on the image of the metal sphere in which the surrounding scene is reflected.

また、拡散反射面を有する白色球を利用する手法が知られている(例えば、非特許文献3参照)。この手法では、白色球の画像において現れている陰影に基づいて、その白色球の周囲における光源の色、強度、方向等を推定するものである。
さらに、ユーザに画像中の光源位置、部屋の3次元情報に関する入力をさせ、入力された3次元情報を手掛かりとして、光源の色、強度、位置等を推定する手法も知られている(例えば、非特許文献4参照)。
また、使用する機器やシーン中の物体の反射特性の測定などの事前手続きを必要としない手法も知られている(例えば、非特許文献5参照)。この手法は、Kinect(登録商標)などのRGB+Dセンサを用いてカラー画像と共に距離計測によって奥行情報を取得することでデプスマップを取得する。そして、この手法は、取得したカラー画像及びデプスマップを入力として少数の球面調和関数の重みのみを求めることで、陰影情報の導出を行う。
In addition, a method using a white sphere having a diffuse reflection surface is known (see, for example, Non-Patent Document 3). In this method, the color, intensity, direction, and the like of the light source around the white sphere are estimated based on the shadow appearing in the white sphere image.
Further, there is also known a method for allowing a user to input light source position and room three-dimensional information in an image and estimating the color, intensity, position, etc. of the light source using the input three-dimensional information as a clue (for example, Non-patent document 4).
There is also known a method that does not require a pre-procedure such as measurement of reflection characteristics of an apparatus to be used or an object in a scene (for example, see Non-Patent Document 5). In this method, a depth map is acquired by acquiring depth information by distance measurement together with a color image using an RGB + D sensor such as Kinect (registered trademark). This method derives shadow information by obtaining only a small number of spherical harmonic function weights using the acquired color image and depth map as inputs.

佐藤いまり,林田守広,甲斐郁代,佐藤洋一,池内克史,実光環境下での画像生成 : 基礎画像の線形和による高速レンダリング手法, 電子情報通信学会論文誌. D−II,情報・システム,II−パターン処理 J84−D−II(8),pages 1864−1872,2001.Imari Sato, Morihiro Hayashida, Kaiyo, Yoichi Sato, Katsushi Ikeuchi, Image Generation under Real Light Environment: High-speed rendering method based on linear sum of basic images, IEICE Transactions. D-II, Information / System, II-Pattern processing J84-D-II (8), pages 1864-1872, 2001. Kusuma Agusanto, Li Li, Zhu Chuangui, and Ng Wan Sing, Photorealistic rendering for augmented reality using environment illumination, Proceedings of the Second IEEE and ACM International Symposium on Mixed and AugmentedReality (ISMAR), pages 208-216, 2003.Kusuma Agusanto, Li Li, Zhu Chuangui, and Ng Wan Sing, Photorealistic rendering for augmented reality using environment illumination, Proceedings of the Second IEEE and ACM International Symposium on Mixed and AugmentedReality (ISMAR), pages 208-216, 2003. Miika Aittala, Inverse lighting and photorealistic rendering or augmented reality, The Visual Computer, Volume 26, Issue 6, pages 669-678, 2010.Miika Aittala, Inverse lighting and photorealistic rendering or augmented reality, The Visual Computer, Volume 26, Issue 6, pages 669-678, 2010. Kevin Karsch, Varsha Hedau, David Forsyth, and Derek Hoiem, Rendering synthetic objects into legacy photographs, ACM Transactions on Graphics, Volume 30, Issue 6, December 2011, Article No. 157.Kevin Karsch, Varsha Hedau, David Forsyth, and Derek Hoiem, Rendering synthetic objects into legacy photographs, ACM Transactions on Graphics, Volume 30, Issue 6, December 2011, Article No. 157. 八尾泰洋,磯和之,川村春美,小島明,拡散反射と認知される陰影の一般物体からの取得,VR学研報,Volume 17,Number CS−1,2012.Yasuhiro Yao, Kazuyuki Tsuji, Harumi Kawamura, Akira Kojima, Acquisition from general objects with shadows recognized as diffuse reflection, VR Gakken, Volume 17, Number CS-1, 2012.

非特許文献1による手法を利用する場合には全方位カメラが必要である。この全方位カメラは、例えば魚眼レンズを備える特殊な機器であって、例えばコンシューマなどともいわれる一般のエンドユーザが手軽に入手できるものではない。
また、非特許文献2、3による手法の場合にも、金属球あるいは拡散反射面を有する白色球を準備する必要がある。このような金属球や白色球も器具としては特殊でありエンドユーザが容易に入手できるものではない。
When using the method according to Non-Patent Document 1, an omnidirectional camera is required. This omnidirectional camera is a special device including, for example, a fisheye lens, and is not easily available to a general end user called a consumer.
Also in the case of the methods according to Non-Patent Documents 2 and 3, it is necessary to prepare a metal sphere or a white sphere having a diffuse reflection surface. Such metal spheres and white spheres are also special as instruments and are not readily available to end users.

また、非特許文献4による手法を利用する場合、ユーザが光源情報を推定するための手掛かりを入力する必要がある。この場合、ユーザは、画像中から光源の位置を推定し、画像のシーンの3次元構成を把握しなければならず、一定以上の専門知識が必要となる。
また、非特許文献5による手法を利用する場合、Kinect(登録商標)などのRGB+Dセンサを用いてカラー画像及びデプスマップを取得する必要がある。このようなKinect(登録商標)も装置としては一般的には普及していないため、使用できる場面が限定されてしまう。
Moreover, when utilizing the method by nonpatent literature 4, it is necessary for a user to input the clue for estimating light source information. In this case, the user must estimate the position of the light source from the image and grasp the three-dimensional configuration of the scene of the image, and requires a certain level of expertise.
Further, when using the method according to Non-Patent Document 5, it is necessary to obtain a color image and a depth map using an RGB + D sensor such as Kinect (registered trademark). Since such Kinect (registered trademark) is generally not widely used as an apparatus, the usable scenes are limited.

このように、非特許文献1〜5によるいずれの手法も、例えば一般的でない装置や器具を必要としたり、あるいは、専門知識を必要とする。したがって、非特許文献1〜5のいずれの手法によっても、例えば拡張現実において陰影のあるCGオブジェクトをシーン画像に合成できるような環境をエンドユーザに提供することは難しい。   As described above, any method according to Non-Patent Documents 1 to 5 requires, for example, an uncommon apparatus or instrument, or requires specialized knowledge. Therefore, it is difficult to provide an end user with an environment in which, for example, a CG object having a shadow in augmented reality can be combined with a scene image by any of the methods of Non-Patent Documents 1 to 5.

上記事情に鑑み、本発明は、従来にない方法で陰影情報を導出する技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique for deriving shadow information by an unprecedented method.

本発明の一態様は、撮影された画像から参照物体領域を抽出する領域抽出部と、抽出された前記参照物体領域に基づいて参照物体の法線を導出する法線導出部と、抽出された前記参照物体領域と、導出された参照物体の法線とに基づいて陰影情報を導出する陰影情報導出部と、を備える陰影情報導出装置である。   One aspect of the present invention is an area extracting unit that extracts a reference object region from a captured image, a normal deriving unit that derives a normal of a reference object based on the extracted reference object region, A shadow information deriving device comprising: a shadow information deriving unit that derives shadow information based on the reference object region and the derived normal line of the reference object.

本発明の一態様は、上記の陰影情報導出装置であって、前記陰影情報導出部は、球面調和関数の係数についての二次多項式を最適化する係数を算出することによって前記陰影情報を導出する。   One aspect of the present invention is the above-described shadow information deriving device, wherein the shadow information deriving unit derives the shadow information by calculating a coefficient that optimizes a quadratic polynomial for a coefficient of a spherical harmonic function. .

本発明の一態様は、撮影された画像から参照物体領域を抽出する領域抽出ステップと、抽出された前記参照物体領域に基づいて参照物体の法線を導出する法線導出ステップと、抽出された前記参照物体領域と、導出された参照物体の法線とに基づいて陰影情報を導出する陰影情報導出ステップと、を有する陰影情報導出方法である。   One aspect of the present invention is an area extraction step of extracting a reference object region from a captured image, a normal derivation step of deriving a normal of a reference object based on the extracted reference object region, and an extracted A shadow information deriving method comprising: a shadow information deriving step for deriving shadow information based on the reference object region and the derived normal line of the reference object.

本発明の一態様は、コンピュータを、上記の陰影情報導出装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the above-described shadow information deriving device.

本発明により、従来にない方法で陰影情報を導出することが可能となる。   According to the present invention, it is possible to derive shadow information by an unprecedented method.

本実施形態における陰影情報導出装置100の構成例を示している。The structural example of the shadow information derivation | leading-out apparatus 100 in this embodiment is shown. シーン画像201及び参照物体画像202の一例を示す図である。It is a figure which shows an example of the scene image 201 and the reference object image 202. FIG. 三次元形状の導出結果を示す図である。It is a figure which shows the derivation | leading-out result of a three-dimensional shape. 参照物体の法線203を表現する球面座標系を示す図である。It is a figure which shows the spherical coordinate system expressing the normal line 203 of a reference object. 本実施形態において利用する球面調和関数を可視化して示す図である。It is a figure which visualizes and shows the spherical harmonic function utilized in this embodiment. 本実施形態における陰影情報を可視化して示す図である。It is a figure which visualizes and shows the shadow information in this embodiment. 本実施形態における陰影情報導出装置100が実行する処理手順例を示している。The example of the process sequence which the shadow information derivation device 100 in this embodiment performs is shown.

[陰影情報導出装置の構成例]
以下、本発明の陰影情報導出装置について説明する。本実施形態の陰影情報導出装置は、単一のシーン画像を入力して陰影情報を導出する。
[Configuration example of shadow information deriving device]
Hereinafter, the shadow information deriving device of the present invention will be described. The shadow information deriving device of this embodiment derives shadow information by inputting a single scene image.

図1は、本実施形態における陰影情報導出装置100の構成例を示している。この図に示す陰影情報導出装置100は、画像入力部101、領域抽出部102、法線導出部103、陰影情報導出部104の各機能部を備える。なお、これらの機能部は、例えばCPU(Central Processing Unit)などがプログラムを実行することにより実現される。また、陰影情報導出装置100は、記憶部105などのデバイスを備える。   FIG. 1 shows a configuration example of a shadow information deriving device 100 in the present embodiment. The shadow information deriving device 100 shown in this figure includes functional units of an image input unit 101, a region extracting unit 102, a normal deriving unit 103, and a shadow information deriving unit 104. Note that these functional units are realized by, for example, a CPU (Central Processing Unit) executing a program. The shadow information deriving device 100 includes a device such as the storage unit 105.

画像入力部101は、陰影情報導出装置100に対して入力される画像のデータを受け付ける。画像入力部101は、例えばCD−ROMやUSBメモリ(Universal Serial Bus Memory)等の記録媒体に記録された画像のデータを読み出しても良い。また、画像入力部101は、スチルカメラやビデオカメラによって撮像された画像を、カメラから受信しても良い。また、陰影情報導出装置100がスチルカメラやビデオカメラに内蔵されている場合は、画像入力部101は撮像された画像又は撮像前の画像をバスから受信しても良い。また、画像入力部101は、ネットワークを介して他の情報処理装置から画像のデータを受信しても良い。画像入力部101は、画像のデータの入力を受けることが可能な構成であれば、さらに異なる態様で構成されても良い。画像入力部101によって入力が受け付けられた画像を、「シーン画像」という。   The image input unit 101 receives image data input to the shadow information deriving device 100. The image input unit 101 may read image data recorded on a recording medium such as a CD-ROM or a USB memory (Universal Serial Bus Memory). The image input unit 101 may receive an image captured by a still camera or a video camera from the camera. When the shadow information deriving device 100 is built in a still camera or a video camera, the image input unit 101 may receive a captured image or an image before imaging from the bus. Further, the image input unit 101 may receive image data from another information processing apparatus via a network. The image input unit 101 may be configured in a different manner as long as it can receive input of image data. An image whose input is accepted by the image input unit 101 is referred to as a “scene image”.

画像入力部101は、シーン画像201を外部から入力し、記憶部105に記憶させる。本実施形態におけるシーン画像201は、例えば現実の或る環境を撮像して得られた画像であれば良い。   The image input unit 101 inputs a scene image 201 from the outside and stores it in the storage unit 105. The scene image 201 in the present embodiment may be an image obtained by imaging a certain real environment, for example.

領域抽出部102は、記憶部105に記憶される単一のシーン画像201から参照物体の領域部分である参照物体領域を抽出することによって参照物体画像202を生成する。なお、参照物体は、シーンにおいてCGオブジェクトが配置される位置の光源情報を取得するにあたって陰影情報導出部104が参照する物体である。領域抽出部102は、例えば以下のように参照物体画像202を導出する。   The region extraction unit 102 generates a reference object image 202 by extracting a reference object region that is a region portion of the reference object from a single scene image 201 stored in the storage unit 105. The reference object is an object that the shadow information deriving unit 104 refers to when acquiring light source information at a position where the CG object is arranged in the scene. The region extraction unit 102 derives the reference object image 202 as follows, for example.

まず、領域抽出部102は、記憶部105から単一のシーン画像201を読み込む。次に、領域抽出部102は、シーン画像201に対して領域分割を行う。例えば、領域抽出部102は、Grab cutによって領域分割を行う。Grab cutでは、まず、ユーザが手入力で参照物体領域内の画素と参照物体領域外の画素とを指定する。その後、領域抽出部102は、指定された各画素をシードとしてグラフカットにより領域分割を行う。領域抽出部102は、分割された領域のうち参照物体領域を抽出することによって参照物体画像202を生成する。
領域抽出部102は、生成した参照物体画像202を記憶部105に記憶させる。
First, the area extraction unit 102 reads a single scene image 201 from the storage unit 105. Next, the region extraction unit 102 performs region division on the scene image 201. For example, the region extraction unit 102 performs region division by grab cut. In Grab cut, first, the user manually designates a pixel in the reference object region and a pixel outside the reference object region. Thereafter, the region extraction unit 102 performs region division by graph cut using each designated pixel as a seed. The region extraction unit 102 generates a reference object image 202 by extracting a reference object region from among the divided regions.
The region extraction unit 102 stores the generated reference object image 202 in the storage unit 105.

また、参照物体領域の抽出方法は、上述の方法に限定される必要はない。例えば、領域抽出部102は、シーン画像201をHSV(Hue Saturation Value)分解することによって参照物体領域を抽出しても良い。この手法では、まず、ユーザが手入力で参照物体領域内の画素を指定する。その後、領域抽出部102は、指定された画素の隣接画素を参照し、画素間のHUE(色相)の差が閾値以下である場合、隣接画素を参照物体の領域に加えるというものである。また、参照物体の色が分かっている場合、領域抽出部102は、参照物体の色の領域を抜き出すことによって参照物体領域を抽出しても良い。具体的には、仮想的な衣服の試着シミュレーションのように、人物の陰影を元に計算を行う場合には、人物の肌の色の領域を抜き出すことによって参照物体領域を抽出しても良い。   Also, the reference object region extraction method need not be limited to the method described above. For example, the region extraction unit 102 may extract the reference object region by decomposing the scene image 201 by HSV (Hue Saturation Value). In this method, the user first designates a pixel in the reference object region by manual input. Thereafter, the region extraction unit 102 refers to the adjacent pixel of the designated pixel, and adds the adjacent pixel to the region of the reference object when the difference in HUE (hue) between the pixels is equal to or less than the threshold value. When the color of the reference object is known, the region extraction unit 102 may extract the reference object region by extracting the color region of the reference object. Specifically, when the calculation is performed based on the shadow of a person, such as a virtual clothes try-on simulation, the reference object area may be extracted by extracting the area of the person's skin color.

図2は、シーン画像201及び参照物体画像202の一例を示す図である。
図2(A)は、画像入力部101に入力されたシーン画像201の一例を示している。図2(A)に示された単一のシーン画像201に基づいて陰影情報が導出される。
図2(B)は、参照物体画像202の一例を示す図である。領域抽出部102の処理によって単一のシーン画像201から図2(B)に示すような参照物体画像202が生成される。
FIG. 2 is a diagram illustrating an example of the scene image 201 and the reference object image 202.
FIG. 2A shows an example of the scene image 201 input to the image input unit 101. Shadow information is derived based on the single scene image 201 shown in FIG.
FIG. 2B is a diagram illustrating an example of the reference object image 202. A reference object image 202 as shown in FIG. 2B is generated from a single scene image 201 by the processing of the region extraction unit 102.

法線導出部103は、記憶部105に記憶される参照物体画像202に基づいて参照物体の法線203を導出する。法線導出部103は、例えば以下のように参照物体の法線203を導出する。まず、法線導出部103は、記憶部105から参照物体画像202を読み込む。次に、法線導出部103は、読み込んだ参照物体画像202から参照物体の三次元形状を復元する。そして、法線導出部103は、復元された3次元形状に基づいて参照物体の法線203を導出する。   The normal derivation unit 103 derives a reference object normal 203 based on the reference object image 202 stored in the storage unit 105. The normal deriving unit 103 derives the normal 203 of the reference object as follows, for example. First, the normal derivation unit 103 reads the reference object image 202 from the storage unit 105. Next, the normal derivation unit 103 restores the three-dimensional shape of the reference object from the read reference object image 202. Then, the normal derivation unit 103 derives the reference object normal 203 based on the restored three-dimensional shape.

三次元形状の復元処理について詳細に説明する。二次元画像のみから正確に三次元形状を復元することは困難である。ただし、本実施形態の陰影導出では、少数の球面調和関数による陰影の表現を利用するため、大まかな三次元形状が得られれば良い。なぜなら、陰影の性質を保った解を導出するように正則化を課すためである。そこで、法線導出部103は、参考文献1の技術を用いて参照物体画像202から参照物体領域のおおまかな三次元形状を復元する(参考文献1:Nathaniel R. Twarog, Marshall F. Tappen, Edward H. Adelson, Playing with Puffball: simple scale-invariant inflation for use in vision and graphics, Proceedings of the ACM Symposium on Applied Perception, pages 47-54, 2012.参照)。   The three-dimensional shape restoration process will be described in detail. It is difficult to accurately restore a three-dimensional shape from only a two-dimensional image. However, in the shadow derivation of the present embodiment, a rough three-dimensional shape only needs to be obtained because the expression of the shadow by a small number of spherical harmonic functions is used. This is to impose regularization so as to derive a solution that preserves the nature of the shadow. Therefore, the normal derivation unit 103 restores a rough three-dimensional shape of the reference object region from the reference object image 202 using the technique of Reference 1 (Reference 1: Nathaniel R. Twarog, Marshall F. Tappen, Edward H. Adelson, Playing with Puffball: see simple scale-invariant inflation for use in vision and graphics, Proceedings of the ACM Symposium on Applied Perception, pages 47-54, 2012.).

参考文献1では、画像の二次元領域中の各点において式(1)に従って三次元領域I(S)が生成される。式(1)において、Sは参照物体領域を表し、B(p,r)はp∈Sから半径rの球の内側の領域を表し、B(p,r)はp∈Sから半径rの円の内側の領域を表す。
In Reference Document 1, a three-dimensional region I (S) is generated according to Equation (1) at each point in the two-dimensional region of the image. In equation (1), S represents the reference object region, B 3 (p, r) represents the inner region of the sphere with radius r from pεS, and B 2 (p, r) has radius from pεS. Represents the area inside the circle of r.

次に、参照物体の法線の導出処理について詳細に説明する。法線導出部103は、参照物体領域と参照物体領域以外との境界の画素を除いた画素がK画素である参照物体領域に対して、番号k(k=1・・・K)を付す。なお、k番目の画素の座標を(x、y)と表すと、座標(x、y)における中心から表面までの距離z(x、y)は、式(2)によって算出される。このとき、(x、y)における法線nは、式(3)の外積計算によって算出される。
Next, the normal object derivation process of the reference object will be described in detail. The normal derivation unit 103 assigns a number k (k = 1... K) to the reference object region where the pixels excluding the pixels at the boundary between the reference object region and other than the reference object region are K pixels. If the coordinates of the kth pixel are expressed as (x k , y k ), the distance z (x k , y k ) from the center to the surface at the coordinates (x k , y k ) can be expressed by equation (2). Calculated. In this case, (x k, y k) normal n k in is calculated by outer product of formula (3).

なお、参照物体領域の境界では、参照物体領域の画素に隣接する画素が参照物体の領域外であるため、法線導出部103は法線を算出しない。なお、参照物体領域に含まれる画素(K画素)の配列と番号kとの対応は演算結果には影響を及ぼさないので、参照物体領域に含まれる画素に対する番号kの付与規則については特に限定されない。
法線導出部103は、以上の処理で導出した参照物体の法線203を番号kによって画素値と対応付けて記憶部105に記録する。
Note that, at the boundary of the reference object region, the pixel adjacent to the pixel of the reference object region is outside the reference object region, and thus the normal derivation unit 103 does not calculate the normal. Note that the correspondence between the array of pixels (K pixels) included in the reference object region and the number k does not affect the calculation result, and therefore, the rule for assigning the number k to the pixels included in the reference object region is not particularly limited. .
The normal derivation unit 103 records the reference object normal 203 derived by the above processing in the storage unit 105 in association with the pixel value by the number k.

図3は、三次元形状の導出結果を示す図である。法線導出部103の処理によって単一のシーン画像201から図3に示すような三次元領域が復元される。法線導出部103は、このような三次元領域に基づいて上述した処理を行うことによって、参照物体の法線203を導出する。   FIG. 3 is a diagram illustrating a derivation result of the three-dimensional shape. A three-dimensional region as shown in FIG. 3 is restored from the single scene image 201 by the processing of the normal derivation unit 103. The normal derivation unit 103 derives the reference object normal 203 by performing the above-described processing based on such a three-dimensional region.

図4は、参照物体の法線203を表現する球面座標系を示す図である。球面座標系は、図4に示すように、二つの偏角θとφによって原点を中心とした単位球上の三次元座標を表す座標系である。法線導出部103は、球面座標系によって表現された法線方向(θ、φ)を式(4)及び式(5)によって算出する。なお、法線方向の範囲は、0≦θ≦π/2、−π/2≦φ≦π/2である。
FIG. 4 is a diagram showing a spherical coordinate system expressing the normal 203 of the reference object. As shown in FIG. 4, the spherical coordinate system is a coordinate system that represents three-dimensional coordinates on a unit sphere with the origin at the center by two declination angles θ and φ. The normal derivation unit 103 calculates the normal direction (θ k , φ k ) expressed by the spherical coordinate system using the equations (4) and (5). The ranges in the normal direction are 0 ≦ θ k ≦ π / 2 and −π / 2 ≦ φ k ≦ π / 2.

陰影情報導出部104は、参照物体画像202と参照物体の法線203とに基づいて陰影情報を導出する。陰影情報導出部104は、以下のように陰影情報を導出する。
陰影情報導出部104は、陰影情報を導出するのに、球面調和関数を用いる。球面調和関数を用いる場合、光源数が増加しても問題が複雑にならないという利点がある。また、球面調和関数を用いる場合、少数の基底によって拡散反射の陰影を高精度で表現できるという利点もある。球面調和関数は、球面座標(θ,φ)についての関数であり、以下の式(6)により定義される。
The shadow information deriving unit 104 derives shadow information based on the reference object image 202 and the normal line 203 of the reference object. The shadow information deriving unit 104 derives the shadow information as follows.
The shadow information deriving unit 104 uses a spherical harmonic function to derive the shadow information. When the spherical harmonic function is used, there is an advantage that the problem does not become complicated even if the number of light sources increases. Further, when the spherical harmonic function is used, there is an advantage that the shadow of diffuse reflection can be expressed with high accuracy by a small number of bases. The spherical harmonic function is a function with respect to spherical coordinates (θ, φ), and is defined by the following equation (6).

式(6)において、j、mは整数であり、j≧0、−j≦m≦jである。jは次数を示す。また、K_j_mは式(7)で表される正規化係数であり、P_j_m(x)は式(8)で表されるルジャンドル(Legendre)陪関数である。なお、K_j_mという表記は、Kの下付き文字としてjがあり、Kの上付き文字としてmがあることを表す。また、P_j_mという表記は、Pの下付き文字としてjがあり、Pの上付き文字としてmがあることを表す。
In Expression (6), j and m are integers, and j ≧ 0 and −j ≦ m ≦ j. j represents the order. Further, K_j_m is a normalization coefficient represented by Expression (7), and P_j_m (x) is a Legendre power function represented by Expression (8). The notation K_j_m indicates that j is a subscript of K and m is a superscript of K. The notation P_j_m indicates that j is a subscript of P and m is a superscript of P.

式(6)で表される球面調和関数によって、参照物体の陰影は、以下の式(9)のL(θ、φ)のように重みw_j_mを用いて表すことができる。すなわち、球面調和関数の重みw_j_mを導出することが陰影情報導出であり、本実施形態では球面調和関数の重みを陰影情報として扱う。なお、w_j_mという表記は、wの下付き文字としてjがあり、wの上付き文字としてmがあることを表す。陰影とは、物体表面の法線方向に従った輝度値である。式(9)の陰影表現の模式図を図5に示す。図5は、本実施形態において利用する球面調和関数を可視化して示す図である。
The shadow of the reference object can be expressed using the weight w_j_m as L (θ, φ) in the following equation (9) by the spherical harmonic function represented by equation (6). That is, deriving the weight w_j_m of the spherical harmonic function is the shadow information derivation, and in this embodiment, the weight of the spherical harmonic function is handled as the shadow information. The notation w_j_m indicates that j is a subscript of w and m is a superscript of w. The shadow is a luminance value according to the normal direction of the object surface. FIG. 5 shows a schematic diagram of the shading expression of Equation (9). FIG. 5 is a diagram showing a spherical harmonic function used in the present embodiment in a visualized manner.

本発明では、0≦j≦2の9つの球面調和関数を用いる。0≦j≦2の9つの球面調和関数は、式(6)を数値的に計算することによって、例えば式(10)のように表すことができる。
In the present invention, nine spherical harmonic functions of 0 ≦ j ≦ 2 are used. Nine spherical harmonic functions of 0 ≦ j ≦ 2 can be expressed as, for example, Equation (10) by numerically calculating Equation (6).

前述のように、参照物体画像202には、K画素の領域で画素各画素に対してk=1・・・Kの番号付けがなされている。陰影情報導出部104は、式(10)に示した9つの球面調和関数と参照物体画像202と参照物体の法線203とを利用して、式(11)によって重みw_j_mを導出することで陰影情報を取得する。なお、式(11)において、wは球面調和関数の重みを並べてベクトル表記したものである。e(w)は式(12)に示した球面調和関数の重み付き和と参照物体の陰影との誤差に関する項であり、r(w)は式(13)に示した正則化項である。また、式(12)において、Lkは、参照物体領域のk番目の画素の輝度値であり、(θk、φk)は同画素の位置における法線ベクトルである。
As described above, the reference object image 202 is numbered k = 1... K for each pixel in the K pixel area. The shadow information deriving unit 104 derives the weight w_j_m according to the equation (11) using the nine spherical harmonic functions shown in the equation (10), the reference object image 202, and the normal line 203 of the reference object, thereby performing the shadow. Get information. In Equation (11), w is a vector representation of the spherical harmonic function weights. e (w) is a term relating to an error between the weighted sum of the spherical harmonic functions shown in Equation (12) and the shadow of the reference object, and r (w) is a regularization term shown in Equation (13). In Expression (12), Lk is a luminance value of the kth pixel in the reference object region, and (θk, φk) is a normal vector at the position of the pixel.

なお、式(13)のa0、1、は係数であり、例えば、参考文献2に示されている拡散反射の陰影を表現した際の球面調和関数の重みが示す関係性を保つような値として、a=1、a=9/4、a=16としても良い(参考文献2:Ravi Ramamoorthi, Pat Harahan, On the relationship between radiance and irradiance: determining the illumination from images of a convex Lambertian object, J. Opt. Soc. Am. A, Vol. 18, No. 10, pages 2448 − 2459, October 2001.参照)。また、式(13)のg(K)は、正則化項r(w)のスケーリングのための係数であり、例えばg(K)=Kと表す。 Note that a 0, a 1, and a 2 in Equation (13) are coefficients, and for example, the relationship indicated by the weight of the spherical harmonic function when the diffuse reflection shadow shown in Reference 2 is expressed is maintained. Such values may be a 0 = 1, a 1 = 9/4, and a 2 = 16 (Reference 2: Ravi Ramamoorthi, Pat Harahan, On the relationship between radiance and irradiance: determining the illumination from images of a convex Lambertian object, J. Opt. Soc. Am. A, Vol. 18, No. 10, pages 2448-2459, October 2001.). In addition, g (K) in Expression (13) is a coefficient for scaling the regularization term r (w), and is expressed as g (K) = K, for example.

式(11)の最適化問題の解法の一例を以下に示す。式(11)の最適化問題は、式(14)に示す行列演算によって厳密に解くことができる。式(14)において、^w(^はw上に付く、以下同様)は最適化問題の解である。なお、式(14)のΦは、式(15)のK×9行列で表され、式(14)のAは式(16)の9×9対角行列で表され、式(14)のtは式(17)のK次元ベクトルで表される。なお、以上の最適化問題の導出法は一例であって、他の方法によって導出されても良い。計算誤差がなければ、どの導出法によっても結果は変わらない。
An example of a solution to the optimization problem of equation (11) is shown below. The optimization problem of equation (11) can be solved exactly by the matrix operation shown in equation (14). In equation (14), ^ w (^ is on w, the same applies hereinafter) is a solution to the optimization problem. Note that Φ in Expression (14) is represented by a K × 9 matrix in Expression (15), A in Expression (14) is represented by a 9 × 9 diagonal matrix in Expression (16), and t is represented by a K-dimensional vector of Expression (17). The method for deriving the above optimization problem is an example, and may be derived by other methods. As long as there is no calculation error, the result does not change with any derivation method.

導出された重み^wは、以下の式(18)のように表される。
陰影情報導出部104は、導出した重み^wを陰影情報204として記憶部105に記録させる。
図6は、本実施形態における陰影情報を可視化して示す図である。
The derived weight ^ w is expressed as the following equation (18).
The shadow information deriving unit 104 causes the storage unit 105 to record the derived weight ^ w as the shadow information 204.
FIG. 6 is a diagram visualizing and showing the shadow information in the present embodiment.

上記のように導出された陰影情報204によって、以下に示す方法でCGオブジェクトをレンダリングし、実画像中に合成することができる。
仮想物体データは、I(Iは自然数)個の3次元頂点の情報を含み、それぞれの点における物体表面法線方向を球面座標で(θ,φ)、(i=1・・・I)と表す。この際、実画像に合成する仮想物体のi番目の頂点の色情報cは式(19)によって算出される。式(19)のρは、式(20)によって算出される。式(20)のαは、仮想物体が参照物体と比較してどの程度明るいかを示す輝度比であり、輝度値l(r,g,b)により正規化した仮想物体の色{r,g,b}との積である。ここで、輝度値の計算は、例えばl(r,g,b)=0.299r+0.587g+0.114bのように行われる。αと{r,g,b}との各値は、0以上の任意の値であり、例えば入力で与えられても良い。
Based on the shadow information 204 derived as described above, a CG object can be rendered by the following method and synthesized into an actual image.
The virtual object data includes information on I (I is a natural number) three-dimensional vertices, and the normal direction of the object surface at each point is expressed by spherical coordinates (θ i , φ i ), (i = 1... I ). At this time, the color information c i of the i-th vertex of the virtual object to be combined with the real image is calculated by Expression (19). Ρ in equation (19) is calculated by equation (20). Α in Expression (20) is a luminance ratio indicating how bright the virtual object is compared to the reference object, and the color {r, g of the virtual object normalized by the luminance value l (r, g, b) , B} is the product of T. Here, the calculation of the luminance value is performed, for example, as l (r, g, b) = 0.299r + 0.587 g + 0.114b. Each value of α and {r, g, b} T is an arbitrary value of 0 or more, and may be given by input, for example.

式(19)で得られた色情報cを用いてCGオブジェクトを表現し、実画像中にCGオブジェクトを配置することによって、シーンの照明に合致したCGオブジェクトを合成することができる。 By expressing the CG object using the color information c i obtained by Expression (19) and arranging the CG object in the actual image, it is possible to synthesize the CG object that matches the scene illumination.

[処理手順例]
図7のフローチャートは、本実施形態における陰影情報導出装置100が実行する処理手順例を示している。
まず、画像入力部101は、撮像されたシーン画像201を入力して記憶部105に記憶させる(ステップS101)。
[Example of processing procedure]
The flowchart of FIG. 7 shows an example of a processing procedure executed by the shadow information deriving device 100 in the present embodiment.
First, the image input unit 101 inputs the captured scene image 201 and stores it in the storage unit 105 (step S101).

次に、領域抽出部102は、記憶部105からシーン画像201を読み込む。そして、領域抽出部102は、読み込んだシーン画像201を利用して前述のように、領域分割を行うことによって参照物体画像202を生成する(ステップS102)。
領域抽出部102は、生成された参照物体画像202を記憶部105に記憶させる(ステップS103)。
Next, the area extraction unit 102 reads the scene image 201 from the storage unit 105. Then, the area extraction unit 102 generates the reference object image 202 by performing area division as described above using the read scene image 201 (step S102).
The region extraction unit 102 stores the generated reference object image 202 in the storage unit 105 (step S103).

次に、法線導出部103は、参照物体画像202を入力する。法線導出部103は、前述のように、参照物体画像202から三次元領域を復元する(ステップS104)。
法線導出部103は、前述のように、復元された三次元領域から参照物体の法線203を導出する(ステップS105)。法線導出部103は、導出された参照物体の法線203を記憶部105に記憶させる(ステップS106)。
Next, the normal derivation unit 103 inputs the reference object image 202. As described above, the normal derivation unit 103 restores the three-dimensional region from the reference object image 202 (step S104).
As described above, the normal derivation unit 103 derives the reference object normal 203 from the restored three-dimensional region (step S105). The normal derivation unit 103 stores the derived normal 203 of the reference object in the storage unit 105 (step S106).

陰影情報導出部104は、参照物体画像202と参照物体の法線203とを利用して陰影情報204を導出する(ステップS107)。
陰影情報導出部104は、導出した陰影情報204を記憶部105に記憶させる(ステップS108)。
The shadow information deriving unit 104 derives the shadow information 204 using the reference object image 202 and the normal line 203 of the reference object (step S107).
The shadow information deriving unit 104 stores the derived shadow information 204 in the storage unit 105 (step S108).

以上のように構成された陰影情報導出装置100は、従来にない方法で陰影情報を導出することが可能となる。具体的には、陰影情報導出装置100は、単一のシーン画像のみを用いて陰影情報を導出する。したがって、陰影情報導出装置100は、非特許文献1に記載の全方位カメラのような特殊な機器を用意する必要がない。また、非特許文献2、3に記載の金属球あるいは拡散反射面を有する白色球などの特殊な器具を用意する必要もない。また、非特許文献4に記載の画像中から光源の位置を推定し、3次元構成を把握するといった一定以上の専門知識も必要としない。また、非特許文献5に記載のKinect(登録商標)のような装置を用いる必要も無い。その結果、適用場面が限定されてしまうことがなく、容易に陰影情報を導出することができる。また、陰影情報導出装置100は、撮像された単一のシーン画像のみを用いて陰影情報を導出できるため、汎用性を向上させることができる。   The shadow information deriving device 100 configured as described above can derive the shadow information by an unconventional method. Specifically, the shadow information deriving device 100 derives shadow information using only a single scene image. Therefore, it is not necessary for the shadow information deriving device 100 to prepare a special device such as the omnidirectional camera described in Non-Patent Document 1. Moreover, it is not necessary to prepare special instruments such as the metal spheres described in Non-Patent Documents 2 and 3 or white spheres having a diffuse reflection surface. Further, it does not require a certain level of expertise such as estimating the position of the light source from the image described in Non-Patent Document 4 and grasping the three-dimensional configuration. Further, there is no need to use an apparatus such as Kinect (registered trademark) described in Non-Patent Document 5. As a result, application scenes are not limited, and shadow information can be easily derived. In addition, since the shadow information deriving device 100 can derive the shadow information using only the captured single scene image, the versatility can be improved.

<変形例>
シーン画像は、予め記憶部105に記憶されていてもよい。
画像入力部101、領域抽出部102、法線導出部103、陰影情報導出部104の各機能部は、それぞれ別の装置に実装されても良いし、各機能部の一部が別の装置に実装されても良い。
記憶部105に記憶されている情報は、複数の記憶装置に記憶されても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、図1における各機能部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより本実施形態の陰影情報の導出を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
<Modification>
The scene image may be stored in the storage unit 105 in advance.
The function units of the image input unit 101, the region extraction unit 102, the normal derivation unit 103, and the shadow information derivation unit 104 may be implemented in different devices, or a part of the functional units may be installed in different devices. May be implemented.
Information stored in the storage unit 105 may be stored in a plurality of storage devices.
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
In the present embodiment, a program for realizing the function of each functional unit in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. The shadow information may be derived. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

100…陰影情報導出装置, 101…画像入力部, 102…領域抽出部, 103…法線導出部, 104…陰影情報導出部, 105…記憶部, 201…シーン画像, 202…参照物体画像, 203…参照物体の法線, 204…陰影情報 DESCRIPTION OF SYMBOLS 100 ... Shadow information derivation | leading-out apparatus, 101 ... Image input part, 102 ... Area extraction part, 103 ... Normal-line derivation part, 104 ... Shadow information derivation part, 105 ... Memory | storage part, 201 ... Scene image, 202 ... Reference object image, 203 ... Normal of reference object, 204 ... Shadow information

Claims (4)

撮影された画像から参照物体領域を抽出する領域抽出部と、
抽出された前記参照物体領域に基づいて参照物体の法線を導出する法線導出部と、
抽出された前記参照物体領域と、導出された参照物体の法線とに基づいて陰影情報を導出する陰影情報導出部と、
を備える陰影情報導出装置。
An area extraction unit for extracting a reference object area from the captured image;
A normal derivation unit for deriving a normal of the reference object based on the extracted reference object region;
A shadow information deriving unit for deriving shadow information based on the extracted reference object region and a normal line of the derived reference object;
A shadow information deriving device comprising:
前記陰影情報導出部は、球面調和関数の係数についての二次多項式を最適化する係数を算出することによって前記陰影情報を導出する請求項1に記載の陰影情報導出装置。   The shadow information deriving device according to claim 1, wherein the shadow information deriving unit derives the shadow information by calculating a coefficient that optimizes a quadratic polynomial for a coefficient of a spherical harmonic function. 撮影された画像から参照物体領域を抽出する領域抽出ステップと、
抽出された前記参照物体領域に基づいて参照物体の法線を導出する法線導出ステップと、
抽出された前記参照物体領域と、導出された参照物体の法線とに基づいて陰影情報を導出する陰影情報導出ステップと、
を有する陰影情報導出方法。
A region extraction step of extracting a reference object region from the captured image;
A normal derivation step of deriving a normal of the reference object based on the extracted reference object region;
A shadow information deriving step for deriving shadow information based on the extracted reference object region and a normal of the derived reference object;
A method for deriving shadow information.
コンピュータを、請求項1または2に記載の陰影情報導出装置として機能させるためのプログラム。   A program for causing a computer to function as the shadow information deriving device according to claim 1.
JP2013036317A 2013-02-26 2013-02-26 Shadow information deriving device, shadow information deriving method and program Expired - Fee Related JP5952757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013036317A JP5952757B2 (en) 2013-02-26 2013-02-26 Shadow information deriving device, shadow information deriving method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013036317A JP5952757B2 (en) 2013-02-26 2013-02-26 Shadow information deriving device, shadow information deriving method and program

Publications (2)

Publication Number Publication Date
JP2014164615A true JP2014164615A (en) 2014-09-08
JP5952757B2 JP5952757B2 (en) 2016-07-13

Family

ID=51615146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013036317A Expired - Fee Related JP5952757B2 (en) 2013-02-26 2013-02-26 Shadow information deriving device, shadow information deriving method and program

Country Status (1)

Country Link
JP (1) JP5952757B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118074A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for producing three-dimensional image and program recording medium
JP2008204318A (en) * 2007-02-22 2008-09-04 Advanced Telecommunication Research Institute International Image processor, image processing method and image processing program
KR20090088221A (en) * 2008-02-14 2009-08-19 한양대학교 산학협력단 System and method for relighting image using ratio optimizing of spherical haromincs coefficient
WO2010087164A1 (en) * 2009-01-29 2010-08-05 日本電気株式会社 Color image processing method, color image processing device, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118074A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for producing three-dimensional image and program recording medium
JP2008204318A (en) * 2007-02-22 2008-09-04 Advanced Telecommunication Research Institute International Image processor, image processing method and image processing program
KR20090088221A (en) * 2008-02-14 2009-08-19 한양대학교 산학협력단 System and method for relighting image using ratio optimizing of spherical haromincs coefficient
WO2010087164A1 (en) * 2009-01-29 2010-08-05 日本電気株式会社 Color image processing method, color image processing device, and recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
八尾泰洋, 外3名: ""反射特性の未知の物体からの光源環境推定についての検討"", 電子情報通信学会技術研究報告, vol. 第111巻, 第235号, JPN6015052210, 6 October 2011 (2011-10-06), JP, pages 43 - 48, ISSN: 0003332639 *

Also Published As

Publication number Publication date
JP5952757B2 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
Gardner et al. Deep parametric indoor lighting estimation
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
JP4880090B2 (en) Image generating apparatus and method for super-resolution of 3D texture
JP2018091667A (en) Information processing device, method for controlling information processing device, and program
KR101885090B1 (en) Image processing apparatus, apparatus and method for lighting processing
CN110555903B (en) Image processing method and device
CN109711472B (en) Training data generation method and device
CN109410309B (en) Relighting method and device, electronic equipment and computer storage medium
JP5909176B2 (en) Shadow information deriving device, shadow information deriving method and program
CN111612882A (en) Image processing method, image processing device, computer storage medium and electronic equipment
KR101593316B1 (en) Method and apparatus for recontructing 3-dimension model using stereo camera
WO2002041249A2 (en) Illumination based image synthesis
JP2019191874A (en) Data processing device and data processing method
JP5795556B2 (en) Shadow information deriving device, shadow information deriving method and program
CN114913287B (en) Three-dimensional human body model reconstruction method and system
JP2015118646A (en) Image processing method, image processing program, and image processor
JP5952757B2 (en) Shadow information deriving device, shadow information deriving method and program
Noh et al. Soft shadow rendering based on real light source estimation in augmented reality
CN111192308A (en) Image processing method and device, electronic equipment and computer storage medium
CN115272575A (en) Image generation method and device, storage medium and electronic equipment
JP2013253946A (en) Light source distribution estimation apparatus, light source distribution estimation method and light source distribution estimation program
Pan Detection of edges from polynomial texture maps
Porral et al. Iso photographic rendering
Xiao et al. Image completion using belief propagation based on planar priorities
CN116152167B (en) Sliding detection method, device, medium and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160610

R150 Certificate of patent or registration of utility model

Ref document number: 5952757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees