JP6575999B2 - Lighting information acquisition device, lighting restoration device, and programs thereof - Google Patents
Lighting information acquisition device, lighting restoration device, and programs thereof Download PDFInfo
- Publication number
- JP6575999B2 JP6575999B2 JP2015196222A JP2015196222A JP6575999B2 JP 6575999 B2 JP6575999 B2 JP 6575999B2 JP 2015196222 A JP2015196222 A JP 2015196222A JP 2015196222 A JP2015196222 A JP 2015196222A JP 6575999 B2 JP6575999 B2 JP 6575999B2
- Authority
- JP
- Japan
- Prior art keywords
- illumination
- image
- unit
- information
- illumination information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005286 illumination Methods 0.000 claims description 274
- 238000000034 method Methods 0.000 claims description 61
- 238000000926 separation method Methods 0.000 claims description 47
- 229920006395 saturated elastomer Polymers 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 description 50
- 230000006870 function Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 24
- 230000006835 compression Effects 0.000 description 19
- 238000007906 compression Methods 0.000 description 19
- 230000005484 gravity Effects 0.000 description 15
- 101150052583 CALM1 gene Proteins 0.000 description 14
- 238000009877 rendering Methods 0.000 description 13
- 101150114882 CALM2 gene Proteins 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 101150058073 Calm3 gene Proteins 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、映像等を撮影する場所における照明の情報を取得する照明情報取得装置、照明情報に基づいて照明を復元する照明復元装置、およびこれらのプログラムに関する。 The present invention relates to an illumination information acquisition device that acquires illumination information at a place where a video or the like is captured, an illumination restoration device that restores illumination based on the illumination information, and a program thereof.
映像コンテンツを制作する場合に、実写映像とコンピューターグラフィクス(CG,computer graphics)とを合成する技術が用いられる場合がある。このような技術を用いて、実写映像とCGとを合成して映像を制作することにより、映像表現の幅が広がることが期待される。 When producing video content, a technique for synthesizing a live-action video and computer graphics (CG) may be used. Using such a technique, it is expected that the range of video expression will be widened by synthesizing live-action video and CG to produce video.
特許文献1には、2個の撮像手段を用いて、拡散反射光成分画像と鏡面反射光成分画像と光源情報を生成する手法が記載されている。具体的には、拡散反射光成分画像生成部は、2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する。また、鏡面反射光成分画像生成部は、2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとに、最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する。また、光源情報生成部は、被写体での反射光の入射角を基に光源の方向を得るとともに、上記の鏡面反射光成分画像とこの光源方向とから、光源の光量を算出している。
特許文献2には、実写映像とCGとを合成する際に求められる、カメラのキャリブレーションのための技術構成が記載されている。この先行技術を用いることにより、カメラの姿勢や、ズームレンズのズーム状態等をキャリブレーションすることができる。これにより、実写映像とCGとの幾何的な合成精度を高めることが期待できる。 Patent Document 2 describes a technical configuration for camera calibration that is required when a live-action image and CG are combined. By using this prior art, it is possible to calibrate the posture of the camera, the zoom state of the zoom lens, and the like. As a result, it can be expected to improve the accuracy of geometric synthesis of the live-action video and CG.
特許文献1に記載の方法では、光源の形状の情報や、正確な光量の情報を得ることができないという問題がある。
また、特許文献2に記載の方法では、カメラの姿勢や、ズームレンズのズーム状態等をキャリブレーションすることができるものの、光源に関する情報を得ることはできないという問題がある。
The method described in
In addition, the method described in Patent Document 2 has a problem that information on the light source cannot be obtained although the camera posture, the zoom state of the zoom lens, and the like can be calibrated.
実写映像とCGとを自然に合成するためには、カメラの姿勢等だけではなく、実写映像の撮影時の照明状況に関する情報をCG生成時に反映させる必要がある。撮影時の照明状況に関する情報とは、具体的には、どの方向からどういった成分の光がどの程度の強さで撮影場所に到達しているかを表す情報である。これを以下では照明情報と呼ぶ。一方で、そのような照明情報を、実写映像とともにアーカイブとして保存して活用することを考慮すると、照明情報のデータ量が大きくなりすぎないことが望まれる。 In order to synthesize a live-action video and CG naturally, it is necessary to reflect not only the camera posture and the like, but also information related to the lighting situation at the time of shooting the real-time video at the time of CG generation. Specifically, the information regarding the lighting state at the time of photographing is information indicating from what direction what component of light reaches to the photographing location with what intensity. This is hereinafter referred to as illumination information. On the other hand, in consideration of storing and using such illumination information as an archive together with a live-action video, it is desired that the data amount of the illumination information does not become too large.
本発明は、上記のような事情を考慮して為されたものであり、より自然な照明の状況でCGのレンダリングを行い、実写映像とCGとを合成できるようにするための照明情報取得装置、照明復元装置、およびこれらのプログラムを提供しようとするものである。 The present invention has been made in consideration of the above-described circumstances. An illumination information acquisition apparatus for rendering CG in a more natural lighting situation so that a live-action image and CG can be synthesized. , A lighting restoration apparatus, and these programs.
上記の課題を解決するため、本発明の一態様による照明情報取得装置は、3次元空間における複数の位置に設けられたカメラで撮影した画像を取得する画像取得部と、取得した前記画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する照明領域分離部と、前記照明領域分離部によって特定された照明の領域の各々について、代表位置と輝度値とサイズとを拡散反射成分用照明情報として推定する照明情報推定部と、前記画像取得部が取得した前記画像を鏡面反射成分用照明情報として出力する画像出力部と、を具備することを特徴とする。 In order to solve the above problems, an illumination information acquisition device according to an aspect of the present invention is included in an image acquisition unit that acquires images captured by cameras provided at a plurality of positions in a three-dimensional space, and the acquired image An illumination area separation unit that identifies an illumination area in the three-dimensional space based on a pixel value of the pixel to be displayed, a representative position, a luminance value, and a size for each of the illumination areas identified by the illumination area separation unit; Is provided as an illumination information for diffuse reflection component, and an image output unit for outputting the image acquired by the image acquisition unit as specular reflection component illumination information.
また、本発明の一態様は、上記の照明情報取得装置において、前記画像出力部は、前記画像取得部が取得した前記画像の輝度のダイナミックレンジを低くする処理をしてから前記画像を出力する、ことを特徴とする。 According to another aspect of the present invention, in the illumination information acquisition apparatus, the image output unit outputs the image after performing a process of reducing a dynamic range of luminance of the image acquired by the image acquisition unit. It is characterized by that.
また、本発明の一態様は、上記の照明情報取得装置において、前記照明領域分離部は、前記画像を撮影したカメラの前記位置ごとに、前記画像に含まれる画素の画素値に基づいて当該画素に照明が写っているか否かを判定し、この判定結果に基づいて前記3次元空間に含まれ当該画素に対応する方向の領域への投票を行い、前記領域が得た投票数に応じて当該領域が前記照明の領域であるか否かを判定する、ことを特徴とする。 One embodiment of the present invention is the above-described illumination information acquisition device, wherein the illumination area separation unit is configured to detect the pixel based on a pixel value of a pixel included in the image for each position of the camera that captures the image. Whether or not the illumination is reflected, and based on the determination result, vote for the area in the direction corresponding to the pixel included in the three-dimensional space, and according to the number of votes obtained by the area It is characterized by determining whether an area | region is the area | region of the said illumination.
また、本発明の一態様は、所定のダイナミックレンジの低ダイナミックレンジ画像を鏡面反射成分用照明情報として取得するとともに、前記低ダイナミックレンジ画像よりも相対的に高いダイナミックレンジの高ダイナミックレンジ画像に基づいて推定された3次元空間内における照明の領域についての代表位置と輝度とサイズとの情報を拡散反射成分用照明情報として取得し、前記低ダイナミックレンジ画像内において輝度が飽和している部分について、当該部分に対応する代表位置を有する拡散反射成分用照明情報に含まれる前記輝度と前記サイズとの情報に基づいて、疑似的に輝度を復元する処理を行う輝度情報補填部と、前記輝度情報補填部によって輝度が復元された鏡面反射成分用照明情報を用いてコンピューターグラフィクスによる鏡面反射成分の描画を行う鏡面反射成分描画部と、を具備することを特徴とする照明復元装置である。 According to another aspect of the present invention, a low dynamic range image having a predetermined dynamic range is acquired as illumination information for specular reflection components, and based on a high dynamic range image having a relatively higher dynamic range than the low dynamic range image. The information of the representative position, the luminance and the size of the illumination area in the three-dimensional space estimated as described above is acquired as the diffuse reflection component illumination information, and the portion where the luminance is saturated in the low dynamic range image, A luminance information compensation unit that performs a process of restoring the luminance in a pseudo manner based on the information on the luminance and the size included in the diffuse reflection component illumination information having a representative position corresponding to the portion, and the luminance information compensation In computer graphics using illumination information for specular reflection components whose luminance is restored by the And specular reflection component drawing unit for drawing the specular reflection component that is an illumination restoring apparatus characterized by comprising.
また、本発明の一態様は、コンピューターを、上記のいずれかの照明情報取得装置として機能させるためのプログラムである。 One embodiment of the present invention is a program for causing a computer to function as any one of the illumination information acquisition apparatuses described above.
また、本発明の一態様は、コンピューターを、上記のいずれかの照明復元装置として機能させるためのプログラムである。 One embodiment of the present invention is a program for causing a computer to function as any one of the above-described illumination restoration devices.
本発明によれば、照明条件に関する違和感がない状態で実写映像とCGとを合成することが可能となる。またそのために必要な照明情報を、効率よく蓄積し、または伝送することが可能となる。 According to the present invention, it is possible to synthesize a live-action image and a CG in a state where there is no sense of incongruity regarding illumination conditions. In addition, it is possible to efficiently accumulate or transmit illumination information necessary for that purpose.
次に、図面を参照しながら、本発明の実施形態について説明する。
[第1実施形態]
図1は、本実施形態による照明情報取得装置の概略機能構成を示すブロック図である。同図において、符号1が照明情報取得装置である。図示するように、照明情報取得装置1は、映像取得部21(画像取得部)と、空間情報設定部22と、照明領域分離部23と、照明情報推定部24と、LDR画像分離部41(画像出力部)と、圧縮部50と、蓄積部52と、伝送部53と、を含んで構成される。
Next, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram illustrating a schematic functional configuration of the illumination information acquisition apparatus according to the present embodiment. In the same figure, the code |
映像取得部21は、3次元空間における複数の位置に設けられたカメラで撮影した画像(映像)を取得する。通常は、3次元空間内の複数の位置にそれぞれカメラを設置し、それらのカメラが同時に画像を取得するようにする。
The
空間情報設定部22は、3次元空間内の座標系を設定する。即ち、空間情報設定部22は、所定の座標軸(通常は、3本の互いに直交する座標軸)に基づいて、ボクセルが隙間なく配置されたボクセル空間を想定する。ボクセルについては、また、後述する。そして、空間情報設定部22は、上記の複数のカメラが設置された位置の座標値を設定する。そして、各カメラから撮像したときの画像に含まれる各画素と、上記のボクセルとの対応付けを行う。
The spatial
照明領域分離部23は、映像取得部21が取得した画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する。なお、照明領域分離部23は、画像を撮影したカメラの位置ごとに、画像に含まれる画素の画素値に基づいて当該画素に照明が写っているか否かを判定し、この判定結果に基づいて3次元空間に含まれ当該画素に対応する方向の領域への投票を行い、領域が得た投票数に応じて当該領域が照明の領域であるか否かを判定する。ここで、3次元空間における領域の最小単位が前記のボクセルである。この照明領域分離部23における投票も、ボクセルを対象として行う。あるカメラ位置から撮影した画像に含まれる画素の画素値が予め定めた条件を満たす場合に(そして、その場合にのみ)ボクセルへの投票を行うことにより、そのボクセルの領域が照明であるか否かを推定する。
The illumination
照明情報推定部24は、照明領域分離部23によって特定された照明の領域の各々について、代表位置(例えば、重心位置)とその領域の輝度値とその領域のサイズとを拡散反射成分用照明情報として推定する。
The illumination
LDR画像分離部41は、映像取得部21が取得した画像を鏡面反射成分用照明情報として出力する。なお、LDR画像分離部41は、映像取得部21が取得した画像の輝度のダイナミックレンジを低くする処理をしてから画像を出力する。つまり、LDR画像分離部41は、高ダイナミックレンジ画像から低ダイナミックレンジ画像を生成して出力する。低ダイナミックレンジ化することにより、出力する鏡面反射成分用照明情報の情報量(データ量)を小さくすることができる。
The LDR
圧縮部50は、照明情報推定部24が出力した拡散反射成分用照明情報と、LDR画像分離部41が出力した鏡面反射成分用照明情報とを、適切な方法で圧縮・符号化する。
蓄積部52は、圧縮部50によって符号化された情報を、記録媒体等に蓄積する。
伝送部53は、圧縮部50によって符号化された情報を、通信により外部の装置に伝送する。
The
The
The
次に、照明情報取得装置1が備える各部の、より詳細な機能および動作を説明する。
映像取得部21は、外部の複数の撮像装置14,15,16から、映像の信号を取得する。
Next, more detailed functions and operations of each unit included in the illumination
The
本実施形態による照明情報取得装置1は、3台の撮像装置14,15,16が撮像する映像を取り込んで、処理を行う。なお、撮像装置の台数は2台以上であれば任意であるが、特に3台以上であることが望ましい。また、撮像装置の台数が3台以上である場合において、それらのうちの3台以上が直線状に並ぶような配置を避けることが望ましい。これは、三角測量の原理を用いて照明の位置を特定する際の誤差を生じさせないため、または誤差を小さくするためである。
なお、以下の説明においては、撮像装置が3台であることを前提とした記載を行う。撮像装置の台数が異なるような実施のしかたをする場合には、適宜、その「3台」を実際の撮像装置の台数に読み替えることが必要である。
The illumination
In the following description, description is made on the assumption that there are three imaging devices. When the implementation is performed in such a way that the number of imaging devices is different, it is necessary to appropriately read the “three units” as the actual number of imaging devices.
次に、上で述べた撮像装置14,15,16の概略について説明する。
図2は、撮像装置14,15,16のそれぞれの外観を示す概略図である。図示するように、撮像装置14,15,16の各々は、HDRカメラ81および82と、支持手段83とを含んで構成されている。HDRとは、ハイダイナミックレンジ(high dynamic range)の略であり、高ダイナミックレンジの撮像を行うことを表わしている。
HDRカメラ81および82の各々は、140デシベル(dB)から170デシベル程度の広いダイナミックレンジを有するものであり、映像機器メーカーから調達可能である。HDRカメラ81と82は互いに背中合わせの位置に設けられる。これにより、HDRカメラ81と82の撮像光軸は互いに180度反対方向である。HDRカメラ81と82の各々は、180度ないしはそれ以上の視野角を有する撮像レンズ(魚眼レンズ等)を備えており、広い範囲の映像を撮像する。したがって、このような2台のカメラによる撮像の範囲は全天球をカバーする。なお、各カメラの相対的な配置を明らかにするために、事前にキャリブレーション処理を行っておく。HDRカメラ81および82が撮影した映像の信号は、ケーブルを介して照明情報取得装置1に供給される。
支持手段83は、例えば三脚等である。支持手段83がHDRカメラ81および82を支持することにより、HDRカメラ81および82を所望の位置の所望の高さに設置することができる。
Next, the outline of the
FIG. 2 is a schematic diagram showing the external appearance of each of the
Each of the
The support means 83 is, for example, a tripod. Since the
なお、HDRカメラ81,82として、単体でHDR映像を撮影可能なカメラを用いる代わりに、時分割で露光量を変化させて撮影した画像を統合することによってHDR映像を生成するようにしても良い。
Instead of using a camera that can shoot HDR video by itself as the
次に、反射成分ごとに、照明情報を取得する方法の詳細を説明する。ここで、反射成分とは、コンピューターグラフィクス(CG)における鏡面反射成分と拡散反射成分の2種類である。これら2種類の反射成分は、取得した照明情報を用いて後でCGの描画を行う際の利用のしかたが異なるものである。鏡面反射とは、物に対して、一方向から入射する光が一方向に出射するような反射である。拡散反射とは、物に対して、一方向から入射する光が様々な方向に出射するような反射である。通常、物に対して入射する光の反射は、鏡面反射成分と拡散反射成分とが重畳したものである。 Next, details of a method for acquiring illumination information for each reflection component will be described. Here, the reflection component is two types of specular reflection component and diffuse reflection component in computer graphics (CG). These two types of reflection components are used in different ways when the CG is drawn later using the acquired illumination information. The specular reflection is a reflection in which light incident from one direction is emitted in one direction with respect to an object. Diffuse reflection is reflection in which light incident from one direction is emitted in various directions with respect to an object. Usually, the reflection of light incident on an object is a superposition of a specular reflection component and a diffuse reflection component.
まず、鏡面反射成分は、CGにおけるオブジェクト等において鏡面反射する成分であり、オブジェクト等への周囲の映り込みなどを表現するためのものである。この鏡面反射成分の情報を適切に取得することによって、違和感のない映り込みを表現することができる。本実施形態で取得する鏡面反射成分は各撮像装置(14,15,16)において撮像する全天球映像である。 First, the specular reflection component is a component that is specularly reflected on an object or the like in CG, and is used to express the surrounding reflection on the object or the like. By appropriately acquiring the information of the specular reflection component, it is possible to express a reflection without a sense of incongruity. The specular reflection component acquired in the present embodiment is an omnidirectional image captured by each imaging device (14, 15, 16).
そして、拡散反射成分は、CGにおけるオブジェクト等において拡散反射する成分である。拡散反射成分の情報としては、3次元空間における光源(照明等)の位置や、輝度や、光源のサイズ等の情報である。なお、映像等を撮影するための環境において、普通に(HDRカメラではない)LDR(low dynamic range)のカメラを用いて撮影すると、光源が映っている部分の画素値が飽和してしまう。したがってその場合、拡散反射成分の情報の一部として必要な輝度の情報を正しく得ることができない。したがって、拡散反射成分の情報を得るためには、前述のHDRカメラの映像を使用する。 The diffuse reflection component is a component that diffusely reflects an object or the like in CG. The information of the diffuse reflection component is information such as the position of the light source (lighting or the like) in the three-dimensional space, the luminance, the size of the light source, and the like. Note that, in an environment for photographing video or the like, when a picture is normally taken using an LDR (low dynamic range) camera (not an HDR camera), a pixel value in a portion where the light source is reflected is saturated. Therefore, in that case, the necessary luminance information cannot be obtained correctly as part of the diffuse reflection component information. Therefore, in order to obtain diffuse reflection component information, the above-described HDR camera image is used.
以下では、拡散反射成分用照明情報の取得について詳細に説明し、その後、鏡面反射成分用照明情報の取得について説明する。 Hereinafter, the acquisition of the diffuse reflection component illumination information will be described in detail, and then the acquisition of the specular reflection component illumination information will be described.
(1)拡散反射成分用照明情報の取得
照明情報取得装置1は、撮像装置14,15,16からそれぞれ取得した3つの全天球HDR画像を利用して、それらの画像から、次に述べる方法によって拡散反射成分用の照明情報を取得する。
(1) Acquisition of Diffuse Reflection Component Illumination Information The illumination
空間情報設定部22は、映像撮影における3次元空間にボクセル(voxel)を設定する。空間情報設定部22がボクセルを設定する空間は、撮像装置14,15,16を含み、また照明(光源)をも含むものである。なお、ボクセルとは、3次元空間に座標軸を設定したときの、各座標軸における長さの最小単位によってなる3次元の格子単位である。本実施形態は、3次元の直交座標系を用いており、またそれらの3つの座標軸における長さの単位は同一である。空間情報設定部22は、この後説明する処理において、空間の分解能を充分に得られる程度のサイズで、ボクセルを設定する。このボクセルの設定の作業において、空間情報設定部22は、具体的には、映像撮影の現場における3つの直交する座標軸の方向を定め、その座標系の原点を定め、その座標系における単位長さを設定し、その座標系における撮像装置14,15,16それぞれの位置の座標を把握(例えば、外部からの入力による)する。そして、空間情報設定部22は、撮像装置14,15,16の各々が有する2台のHDRカメラ(符号81と82)のそれぞれについて、撮像面における画素と、当該画素からカメラのレンズ主点とを結んだ直線を延長した先にあるすべてのボクセルとを対応付ける。このとき、必ずしも、ある画素に対応するボクセルの座標値をすべて記憶する必要はなく、例えば、ある画素に対応するボクセルの座標値を算出するための情報を記憶することで充分である。一例としては、空間情報設定部22は、ある画素について、その画素とレンズ主点を結んだ直線の方程式の係数を記憶する。あるいは、カメラの光学的特性(例えば、カメラのレンズの焦点距離又は画角の情報)およびそのカメラの設置状況(カメラのレンズの主点の位置の座標と、そのカメラの向きを表すベクトルの値)をデータとして記憶し、上記直線の方程式の係数を算出できるようにしても良い。
The spatial
図3は、3次元空間内のボクセルと撮像装置のカメラとの関係を模式的に示した概略図である。同図に示す格子が、3次元空間内の多数のボクセルを示している。なお、実際のボクセルは3次元の立方体の形の空間であるが、同図上では射影して2次元の正方形として表わしている。また、同図におけるCam1,Cam2,Cam3は、それぞれ、撮像装置14,15,16が備えるHDRカメラのひとつ(HDRカメラ81またはHDRカメラ82のいずれか)である。同図では、各カメラの構成のうち、レンズの部分を模式的に図示している。そして、各カメラのレンズの主点から伸びる1組の直線は、カメラ内の撮像素子におけるひとつの画素に対応する、3次元空間内の部分を示している。この部分空間は、理屈の上では十分な長さ(高さ)を有する錐体の形状を有する。言い換えれば、カメラ内の撮像素子におけるひとつの画素に対応する空間は、そのカメラのレンズからの距離に応じて(つまり、遠ざかれば遠ざかるほど)、広がるものである。同図においては、HDRカメラCam1,Cam2,Cam3のそれぞれから伸びる部分空間(錐体形状)は、格子で示されているボクセルのうちの一つにおいて交わっている。つまり、3次元空間内のあるボクセルは、3つのHDRカメラのそれぞれにおけるある画素に対応している。そして、各HDRカメラにおける画素と3次元空間におけるボクセルとは、前述した通りに空間情報設定部22が設定した情報によって対応付けて求めることができる。
FIG. 3 is a schematic diagram schematically showing the relationship between the voxel in the three-dimensional space and the camera of the imaging device. The lattice shown in the figure shows a large number of voxels in a three-dimensional space. An actual voxel is a space in the form of a three-dimensional cube, but is projected and represented as a two-dimensional square in FIG. Also, Cam1, Cam2, and Cam3 in the figure are one of the HDR cameras (either the
ここで、以下の処理において述べる輝度値および画素値に関するバリエーションについて説明する。撮像装置14,15,16が撮影する映像は、カラー映像である。その映像を基に、照明情報を取得する方法は、典型的には、次の3通りである。以下の処理では、これら3通りのいずれかを用いる。
(1)RGB(緑、青、赤)の三原色で表される色空間について、RGBのそれぞれについて以下で説明する処理を行い、RGBの各色について拡散反射成分用照明情報を取得する。
(2)RGB等で表される画像を、所定の計算式によってグレースケールの値に変換し、そのグレースケールの値を基に、拡散反射成分用照明情報を取得する。なお、カラーの画像をグレースケールの画像に変換するための式としては、既存技術によるものを用いる。なお、そのような式は何種類か存在するが、適切なものを選択して用いるようにする。
(3)輝度信号と色差信号とで表される色空間において、輝度を表す値のみについて、以下で説明する処理を行い、RGBの各色について、拡散反射成分用照明情報を取得する。輝度信号と色差信号とで表される色空間とは、例えば、YUVや、YCbCrや、YPbPrなどといった色空間である。
Here, variations regarding the luminance value and the pixel value described in the following processing will be described. Images taken by the
(1) For the color space represented by the three primary colors of RGB (green, blue, red), the processing described below is performed for each of RGB, and illumination information for diffuse reflection components is acquired for each color of RGB.
(2) An image represented by RGB or the like is converted into a gray scale value by a predetermined calculation formula, and illumination information for diffuse reflection components is acquired based on the gray scale value. It should be noted that the formula for converting a color image into a grayscale image is based on an existing technique. There are several types of such expressions, but an appropriate one is selected and used.
(3) In the color space represented by the luminance signal and the color difference signal, the processing described below is performed only for the value representing the luminance, and the diffuse reflection component illumination information is acquired for each of the RGB colors. The color space represented by the luminance signal and the color difference signal is a color space such as YUV, YCbCr, or YPbPr, for example.
照明領域分離部23は、撮像装置14,15,16で得られた画像から、照明である部分を推定する。また、照明領域分離部23は、照明であると推定された部分を適切にグループ化する。そのために、照明領域分離部23は、次に述べる処理を行う。
即ち、照明領域分離部23は、3つの撮像装置14,15,16から得られる画像に基づいて、それら画像内の各画素のうち、照明であると見なし得る像の一部である画素を特定する。そして、照明領域分離部23は、照明であると見なされた画素に対応する上記の部分空間(錐体形状)に含まれるボクセルに対する投票を行う。具体的には、照明領域分離部23は、取得した映像のある1フレームに含まれる画素のうち、その画素に対応するボクセルの輝度値が所定の閾値Thを超えた場合に、閾値Thを超える輝度値を有するそれらのボクセルに1票ずつを投票していく。
The illumination
In other words, the illumination
ここで、画素に対応するボクセルの輝度値とは、撮像した画像のデータにおけるその画素の画素値から、そのHDRカメラが作動するときの特性である関数f(x)と、そのHDRカメラのレンズの主点から被写体までの距離に応じて求め得る値である。画像データにおける画素の画素値とボクセルの輝度値との関係は、次の式(1)で表される。 Here, the luminance value of the voxel corresponding to the pixel is a function f (x) that is a characteristic when the HDR camera operates from the pixel value of the pixel in the captured image data, and the lens of the HDR camera. This value can be obtained according to the distance from the principal point to the subject. The relationship between the pixel value of the pixel in the image data and the luminance value of the voxel is expressed by the following equation (1).
この式において、Lは、被写体(ボクセル)の輝度値である。また、rは、当該HDRカメラから被写体(ボクセル)までの距離である。また、f(x)は、HDRのカメラに入射する光の光量を入力とし、その光による画素値を出力する関数である。そして、Pは、画素の照度に比例した画素値(画素の画素信号の値、すなわち輝度の値)である。関数f(x)は、単調増加関数である。つまり、上の式(1)において、(L/r^2)の値が大きくなればなるほど、Pの値も大きくなる。つまり、距離rが変化しない条件下では、ボクセルの輝度Lの値が大きくなればなるほど画素の画素値Pは大きくなる。関数f(x)は、HDRカメラのレンズに入射する光量と画素値とを計測することによって事前に求めておくことができる関数であり、入射光量と画素値との関係を表す関数である。式(1)に基づいて画素の画素値Pから逆にボクセルの輝度値Lを求めるためには、照明領域分離部23は、次の式(2)による計算を行う。
In this equation, L is the luminance value of the subject (voxel). R is the distance from the HDR camera to the subject (voxel). Further, f (x) is a function that receives the amount of light incident on the HDR camera and outputs a pixel value of the light. P is a pixel value (a pixel signal value of the pixel, that is, a luminance value) proportional to the illuminance of the pixel. The function f (x) is a monotonically increasing function. That is, in the above equation (1), the value of P increases as the value of (L / r ^ 2) increases. That is, under the condition where the distance r does not change, the pixel value P of the pixel increases as the value of the luminance L of the voxel increases. The function f (x) is a function that can be obtained in advance by measuring the amount of light incident on the lens of the HDR camera and the pixel value, and is a function that represents the relationship between the amount of incident light and the pixel value. In order to obtain the voxel luminance value L from the pixel value P of the pixel on the basis of the equation (1), the illumination
ここで関数f−1(x)は、f(x)の逆関数である。上と同様に、HDRカメラのレンズに入射する光量と画素値とを計測することによって、f−1(x)を事前に求めておく。 Here, the function f −1 (x) is an inverse function of f (x). Similarly to the above, f −1 (x) is obtained in advance by measuring the amount of light incident on the lens of the HDR camera and the pixel value.
前記の閾値Thの決め方の一例は、次の通りである。例えば、HDRカメラによる画素値を、0〜16777215とする。16777215は、2^24−1である。そして、通常のカメラ(LDRカメラ)による画素値に対応する範囲が、上記の0〜16777215のうちの256〜65535であるとする。65535は、2^16−1である。このような場合、例えば、(r^2)・f−1(65535)を、閾値Thとする。なお、ここに記した閾値の決め方は単に一例であり、他の閾値を適宜定めても良い。 An example of how to determine the threshold Th is as follows. For example, the pixel value obtained by the HDR camera is set to 0 to 16777215. 16777215 is 2 ^ 24-1. And the range corresponding to the pixel value by a normal camera (LDR camera) shall be 256-65535 of said 0-16777215. 65535 is 2 ^ 16-1. In such a case, for example, (r ^ 2) · f −1 (65535) is set as the threshold Th. Note that the method of determining the threshold values described here is merely an example, and other threshold values may be determined as appropriate.
照明領域分離部23は、3台の撮像装置14,15,16のそれぞれによる天球HDR画像のすべての画素についてボクセルへの投票の処理が完了した後に、投票結果の評価を行う。照明領域分離部23は、投票数が所定の閾値以上であるボクセルをボクセル集合vlに属するものとして抽出する。撮像装置の台数が3であるため、ここでは、この投票数の閾値(以下において、「投票数閾値」と呼ぶ場合がある)を3とする。なお、1台の撮像装置(14,15,16のいずれか)から、あるボクセルへの投票数は最大で1であることを前提とする。そのために、単一の撮像装置内の複数の画素から同一のボクセルへの投票が生じるような計算結果となる場合に、投票時において、単一の撮像装置内からの投票数の上限を1に制約するような処理を行っても良い。
なお、ここでは投票数閾値を3としており、つまりすべての撮像装置によって投票されたボクセルを照明であると推定しているが、投票数閾値として3以外の値(撮像装置の代数以外の数値)を適宜定めるようにしても良い。
The illumination
Here, the vote threshold value is set to 3, that is, the voxels voted by all the imaging devices are estimated to be illumination, but the vote threshold value is a value other than 3 (a numerical value other than the algebra of the imaging device). May be determined as appropriate.
次に、照明領域分離部23は、ボクセル集合vlに属するボクセルのグループ化を行う。具体的には、照明領域分離部23は、ボクセルvs(vs∈vl)について、隣接するボクセルvnもまた集合vlの要素であるか否か、即ちvn∈vlであるか否かを判定する。vn∈vlであれば、ボクセルvsとvnとは同一のグループに属するものであると判定する。照明領域分離部23は、このような判定を、ボクセル集合vlのすべての要素について行う。その結果、ボクセル集合vlに属するボクセルがグループに分類される。そして、照明領域分離部23は、グループごとにユニークなインデックスをボクセル集合vlに属する各ボクセルに付与する。なお、このようなボクセルのグループは、3次元空間における1つの照明(光源)に対応している可能性が高い。
Next, the illumination
つまり、照明領域分離部23は、取得した画像に含まれる画素の画素値に基づいて、3次元空間における照明の領域を特定する。照明の領域を特定するための処理は、まず、ボクセルを単位として前述の投票により行う。その結果、各ボクセルが照明の領域であるか否かが特定される。そして、照明領域分離部23は、照明の領域であると特定されたボクセル同士が隣接しあっている場合、その両者を、同一の照明に対応するグループに属するボクセルであるとしてグループ化する。その結果、連続するひとかたまりのボクセルのグループが、ひとつの照明の領域として特定される。
ここまでの処理で、各ボクセルが照明に属するか否かが推定され、照明に属するボクセルがグループ化された。次に、照明情報推定部24が、照明情報の推定を行う。
That is, the illumination
In the process so far, it is estimated whether or not each voxel belongs to illumination, and the voxels belonging to illumination are grouped. Next, the illumination
まず、照明情報推定部24は、ボクセルに対応する輝度値を付与する。本実施形態による照明情報推定部24は、同一グループに属する全ボクセルについて、そのボクセルへの投票を行った各HDRカメラ(撮像装置14,15,16)での画素の画素値に基づいて算出されるボクセルの輝度値をすべて平均して、その平均値を当該グループに属する各ボクセルの輝度値とする。つまり、同一グループに属するボクセルは、すべて同一の輝度値を有する。ここで照明情報推定部24は、各ボクセルに関連付ける形で、求めた輝度値を記憶させる。
なお、照明情報推定部24は、同一グループに属する全ボクセルについての輝度値を平均する代わりに、投票を行った各HDRカメラ(撮像装置14,15,16)での画素の画素値に基づいて算出される各々のボクセルの輝度値を平均して、その平均値をそのボクセルの輝度値としても良い。この場合も、照明情報推定部24は、各ボクセルに関連付ける形で、求めた輝度値を記憶させる。
First, the illumination
In addition, the illumination
次に、照明情報推定部24は、各グループに属するボクセルのうちの、各HDRカメラのレンズの主点から見て手前側に位置するボクセルのみに、各HDRカメラを識別するためのラベルを付加する。
図4は、照明情報推定部24があるグループに属するボクセルのうちの一部のボクセルにHDRカメラに応じたラベルを付与する処理の概要を示す概略図である。同図に示す格子が、3次元空間内の多数のボクセルを示している。なお、実際のボクセルは3次元の立方体の形の空間であるが、同図上では射影して2次元の正方形として表わしている。また、同図におけるCam1,Cam2は、それぞれ、撮像装置14,15が備えるHDRカメラのひとつ(HDRカメラ81またはHDRカメラ82)である。なお、同図においては撮像装置16を省略して示している。同図に示すボクセルのうち、「○」印、数字の「1」または「2」、または英字の「B」と記したボクセルは、これら全体でひとつのグループを構成するものである。つまり、これらの文字または記号を記したボクセルは、単一のグループに属する。また、数字の「1」または英字の「B」と記したボクセルは、カメラCam1から見て、このグループにおいて最も手前に存在するボクセルである。照明情報推定部24は、これらのボクセルに、カメラCam1に対応するラベルを付与する。また、数字の「2」または英字の「B」と記したボクセルは、カメラCam2から見て、このグループにおいて最も手前に存在するボクセルである。照明情報推定部24は、これらのボクセルに、カメラCam2に対応するラベルを付与する。つまり、英字の「B」と記したボクセルは、カメラCam1から見てもカメラCam2から見ても、最も手前に存在するボクセルである。照明情報推定部24は、これらの英字の「B」と記したボクセルには、カメラCam1に対応するラベルとカメラCam2に対応するラベルの両方を付与する。そして、「○」印を記したボクセルは、当該グループに属するボクセルであるものの、カメラCam1から見てもカメラCam2から見ても、最も手前に存在するものではない。したがって、照明情報推定部24は、「○」印を記したボクセルに、カメラCam1に対応するラベルもカメラCam2に対応するラベルも付与しない。
Next, the illumination
FIG. 4 is a schematic diagram showing an outline of processing for assigning a label corresponding to the HDR camera to some of the voxels belonging to a group with the illumination
次に、照明情報推定部24は、各グループの各ラベル(撮像装置14,15,16に対応したラベル)ごとに、下記の属性値を求める。その属性値とは、(A)重心位置と、(B)平均輝度値と、(C)グループのサイズ(ボクセル数)である。つまり、照明情報推定部24は、各グループ(このグループは、前述の通り、一つの照明(光源)であると推定されている)の各ラベル(このラベルは、前記(推定されている)照明を見るHDRカメラに対応する)の、これら属性値を、拡散反射成分用照明情報として推定する。
Next, the illumination
(A)の重心位置は、当該グループに属するボクセルであって、且つ特定のラベルが付与された(つまり、特定のカメラから見て最も手前にある)ボクセルの集合の、3次元座標での重心位置である。なお、この重心を求める際、当該集合に属するボクセルの重みをすべて同一として求めても良く、またボクセルごとに異なる輝度値が付与されている場合にはその輝度値を重みとして求めても良い。この重心位置は、当該グループを代表する位置である。したがって、この重心位置を「代表位置」と呼ぶ場合がある。代表位置が、必ずしも重心位置である必要はないが、重心位置を代表位置とすることは後の処理においても望ましい。
(B)の平均輝度値は、当該グループに属するボクセルであって、且つ特定のラベルが付与されたボクセルの集合の、平均輝度値である。なお、各ボクセルに対して照明情報推定部24が付与した輝度値に基づいて、この平均輝度値を計算する。
(C)のボクセル数は、当該グループに属するボクセルであって、且つ特定のラベルが付与されたボクセルの数である。このボクセル数は、当該グループの大きさに対応する値である。
The center-of-gravity position in (A) is the center of gravity of a set of voxels that belong to the group and have a specific label (that is, closest to the specific camera) in three-dimensional coordinates. Position. When obtaining the center of gravity, the weights of the voxels belonging to the set may be obtained as the same weight, or when different brightness values are assigned to the voxels, the brightness values may be obtained as weights. This barycentric position is a position representing the group. Therefore, this barycentric position may be referred to as a “representative position”. Although the representative position does not necessarily need to be the center of gravity position, it is desirable to set the center of gravity position as the representative position in the subsequent processing.
The average luminance value in (B) is an average luminance value of a set of voxels that belong to the group and are assigned a specific label. The average luminance value is calculated based on the luminance value given by the illumination
The number of voxels in (C) is the number of voxels belonging to the group and given a specific label. The number of voxels is a value corresponding to the size of the group.
なお、上記(C)のボクセル数の代わりに、別の方法によってグループのサイズを求めても良い。
図5は、ボクセル数以外の方法によってグループのサイズを求める方法の概要を示す概略図である。図5に示す格子は、図4に示した格子と同様のものである。また、図5に示すカメラCam1の位置は、図4に示したカメラCam1の位置と同じである。また、図5では、カメラCam2を省略している。また、図5では、図4において示していたボクセルのうち、数字の「1」または英字の「B」が記されたボクセルのみについてそれらの文字を残し、数字の「2」や「○」印を示していたボクセルについては何も記していない。つまり、当該グループに属するボクセルのうち、カメラCam1から見て最も手前に存在するボクセルのみに「1」または「B」の文字を記したものが、この図5である。そして、図5において、点Cは、「1」または「B」の文字を記したボクセルの重心の位置である。そして、平面P(同図においては射影しているため直線P)は、カメラCam1と重心Cとを結ぶ直線に垂直な平面であって、且つ重心Cを通るものである。また、この平面Pにおいて、点P1から点P2までの範囲は、「1」または「B]を記したボクセルの集合を平面P上に平行投影して得られる平面像である。そして、本方法では、カメラCam1がこの平面像(P1からP2までの範囲で示されて、図5において奥行きを持つ像)を撮影した画像における、当該平面像が占める画素数を、当該グループのサイズの値とする。
Note that the size of the group may be obtained by another method instead of the number of voxels in (C) above.
FIG. 5 is a schematic diagram showing an outline of a method for obtaining a group size by a method other than the number of voxels. The lattice shown in FIG. 5 is the same as the lattice shown in FIG. Further, the position of the camera Cam1 shown in FIG. 5 is the same as the position of the camera Cam1 shown in FIG. In FIG. 5, the camera Cam2 is omitted. Further, in FIG. 5, among the voxels shown in FIG. 4, only the voxels with the numeral “1” or the alphabet “B” are left, and the numerals “2” and “O” are marked. There is nothing written about the voxels that showed. That is, FIG. 5 shows a case in which the letter “1” or “B” is written only in the voxel existing closest to the camera Cam1 among the voxels belonging to the group. In FIG. 5, point C is the position of the center of gravity of the voxel in which the characters “1” or “B” are marked. A plane P (a straight line P because it is projected in the figure) is a plane perpendicular to a straight line connecting the camera Cam1 and the center of gravity C and passes through the center of gravity C. Further, in this plane P, the range from the point P1 to the point P2 is a plane image obtained by parallel projecting a set of voxels marked “1” or “B” on the plane P. And this method Then, the number of pixels occupied by the planar image in the image obtained by photographing the planar image (the image shown in the range from P1 to P2 and having the depth in FIG. 5) by the camera Cam1 is the size value of the group. To do.
照明情報推定部24は、グループごと且つカメララベルごとに上で求めた、(A)重心位置と、(B)平均輝度値と、(C)グループのサイズとを、拡散反射成分用照明情報として出力する。
つまり、拡散反射成分用照明情報の主キーは、グループのインデックスとカメラのラベルを組み合わせた複合キーである。そして、グループのインデックスとカメラのラベルの組み合わせに対する属性値が、上記の(A)重心位置と、(B)平均輝度値と、(C)グループのサイズである。
The illumination
That is, the primary key of the diffuse reflection component illumination information is a composite key in which the group index and the camera label are combined. The attribute values for the combination of the group index and the camera label are (A) the barycentric position, (B) the average luminance value, and (C) the size of the group.
以上説明した拡散反射成分用照明情報の取得処理の手順をまとめると次の通りである。
図6は、拡散反射成分用照明情報を取得する処理の手順を示すフローチャートである。このフローチャートは、撮像装置14,15,16が撮影する映像の1フレーム期間分に対応する処理を示す。つまり、照明情報取得装置1は、フレーム期間ごとにこのフローチャートの処理を繰り返す。以下、フローチャートに沿って処理手順を説明する。
The procedure for acquiring the diffuse reflection component illumination information described above is summarized as follows.
FIG. 6 is a flowchart illustrating a procedure of processing for acquiring the diffuse reflection component illumination information. This flowchart shows processing corresponding to one frame period of the video imaged by the
まずステップS11において、照明領域分離部23は、撮像装置が備えるカメラの各画素の画素値に基づいて、輝度値が閾値を超えるボクセルへの投票を行う。次にステップS12において、照明領域分離部23は、前ステップにおいて行われた投票の結果を評価する。即ち、照明領域分離部23は、各ボクセルが照明に属するボクセルであるか否かを判断(推定)する。次にステップS13において、照明領域分離部23は、照明であると推定されたボクセルをグループ化し、各グループにインデックスを付与する。具体的には、本ステップにおいて照明領域分離部23は、照明であると推定されたボクセル同士が隣接している場合には、それらのボクセルが同一のグループに属するものであると判定する。
First, in step S <b> 11, the illumination
次にステップS14において、照明情報推定部24が、ボクセルの輝度値を求める。次にステップS15において、照明情報推定部24は、各カメラからの照明(つまり、照明であると推定されたボクセルが属するそれぞれのグループ)の見え方に応じて、ボクセルに対して、カメラのラベルを付与する。次にステップS16において、照明情報推定部24は、各グループの属性値を計算する。この各グループの推定値が、本実施形態で取得する拡散反射成分用照明情報である。次にステップS17において、照明情報推定部24は、計算によって求められた拡散反射成分用照明情報を出力する。
Next, in step S14, the illumination
(2)鏡面反射成分用照明情報の取得
次に、鏡面反射成分用照明情報の取得方法について説明する。
LDR画像分離部41は、映像取得部21が取得した各撮像装置に対応する3枚の全天球HDR画像から、低ダイナミックレンジ(LDR)画像を抽出する。このとき、LDR画像分離部41は、カメラ特性を除外した画素値によるLDR画像を抽出するため、HDR画像における各画素値に、前述の関数f−1(x)を適用する。そして、LDR画像分離部41は、関数f−1(x)を適用した結果の値がLDR画像として表せる範囲を超える画素については、飽和したものとして処理する。なお、LDR画像の抽出に関する以下の説明において、画素値は、関数f−1(x)を適用した後の値である。
(2) Acquisition of Specular Reflection Component Illumination Information Next, a method for acquiring specular reflection component illumination information will be described.
The LDR
例えば、HDRカメラによる画素値の範囲が0〜16777215であって、LDRカメラによって飽和せずに撮影できる範囲が上記範囲0〜16777215のうちの256〜65535である場合、LDR画像分離部41は、次の処理を行う。即ち、HDRカメラにおける画素値が0〜255である画素については、LDR画像分離部41は、HDRカメラにおける画素値が256であるものとしてその画素を処理する。また、HDRカメラにおける画素値が65536〜16777215である画素については、LDR画像分離部41は、HDRカメラにおける画素値が65535であるものとしてその画素を処理する。HDRカメラおよびLDRカメラの画素値の範囲がここに挙げた例と異なる場合も同様に、LDR画像分離部41は、HDR画像としては表現できるがLDR画像として表現しきれない階調の情報を、カットする。また、LDR画像分離部41は、必要に応じて階調の量子化の幅を適宜調整して、LDR画像を生成する。
For example, when the range of pixel values by the HDR camera is 0 to 16777215 and the range that can be captured without being saturated by the LDR camera is 256 to 65535 of the above range 0 to 16777215, the LDR
LDR画像分離部41は、撮像装置14,15,16によって撮影された各全天球画像の各フレームについて上記の処理を行うことによって、各撮像装置に対応した全天球LDR画像を出力する。この全天球LDR画像が、鏡面反射成分用照明情報である。
The LDR
圧縮部50は、上記の方法で得られた拡散反射成分用照明情報および鏡面反射成分用照明情報を圧縮・符号化する。圧縮部50は、拡散反射成分用照明情報と鏡面反射成分用照明情報とを、それぞれに応じた方法で圧縮する。具体的には、圧縮部50は、拡散反射成分用照明情報については、必ず可逆圧縮を行う。また、鏡面反射成分用照明情報については、可逆圧縮を行っても非可逆圧縮を行っても良い。圧縮部50は、照明情報推定部24によって出力された拡散反射成分用照明情報の情報圧縮を行うときには、例えば、LZSS符号化を用いる。なお、LZSS符号化自体は既存の技術により実現できる処理である。また、圧縮部50は、LDR画像分離部41によって出力された鏡面反射成分用照明情報の情報圧縮を行うときには、例えば、JPEG(Joint Photographic Experts Group)による圧縮処理を行う。
また圧縮部50が、例えば、H.264などの動画符号化方式によって鏡面反射成分用照明情報を動画として符号化するとともに、そのメタデータとして拡散反射成分用照明情報を埋め込むなど、両者を併せて圧縮・符号化することも可能である。
The
Further, the
圧縮部50において圧縮・符号化された照明情報は、CGレンダリングの処理で使用するために、記録媒体に蓄積されるか、あるいは外部の装置に伝送される。
蓄積部52は、磁気記録媒体によって情報を記憶するハードディスクドライブあるいは半導体メモリを用いたSSD(ソリッド・ステート・ドライブ)を内部に備え、圧縮部50から出力される照明情報を逐次記憶する。
伝送部53は、通信手段を備えており、圧縮部50から出力される照明情報を外部の装置に送信する。
蓄積部52に蓄積されたり、あるいは伝送部53によって伝送されたりした照明情報は、後述する照明復元装置等によって使用される。照明復元装置は、取得した照明情報を用いて、映像を撮影したときの照明の状況に自然にマッチするCGのレンダリングを行う。
The illumination information compressed and encoded by the
The
The
The illumination information accumulated in the
図7は、照明情報を利用して照明の状況を復元する照明復元装置、およびCGとカメラ映像(実写映像)とを合成する合成装置の概略機能構成を示すブロック図である。図示するように、照明復元装置3は、照明情報取得部71と、復号部72と、拡散反射成分用照明情報抽出部75と、拡散反射成分CG描画部76と、LDR画像抽出部78と、内挿画像生成部79(輝度情報補填部)と、鏡面反射成分CG描画部80(鏡面反射成分描画部)と、カメラパラメーター供給部85と、加算部86と、を含んで構成される。また、合成装置5は、カメラ映像入力部87と、映像合成部88と、を含んで構成される。
FIG. 7 is a block diagram illustrating a schematic functional configuration of an illumination restoration device that restores the illumination status using illumination information, and a synthesis device that synthesizes a CG and a camera video (actual video). As illustrated, the illumination restoration device 3 includes an illumination information acquisition unit 71, a
照明復元装置3は、別途用意されるCGのオブジェクトのデータに基づき、3次元のCG空間にそのオブジェクトをレンダリングする。このとき、照明復元装置3は、拡散反射成分と鏡面反射成分の成分ごとに、前述の照明情報を利用しながらCGのレンダリングを行う。以下に、各部の機能を説明する。 The illumination restoration device 3 renders the object in a three-dimensional CG space based on the data of the CG object prepared separately. At this time, the illumination restoration device 3 performs CG rendering using the above-described illumination information for each of the diffuse reflection component and the specular reflection component. The function of each part will be described below.
照明情報取得部71は、照明情報取得装置1から照明情報(拡散反射成分用および鏡面反射成分用)を取得する。具体的には、照明情報取得部71は、照明情報取得装置1の蓄積部52において記録媒体等に蓄積された照明情報を読み取るか、あるいは照明情報取得装置の伝送部53から送信される照明情報を受信する。伝送部53から送信される照明情報を受信する場合、照明情報取得部71は、上記の伝送部53との間で通信を行うための通信機能を備える。なお、照明情報取得部71が取得する照明情報は、照明情報取得装置1の圧縮部50によって圧縮・符号化された情報である。
The illumination information acquisition unit 71 acquires illumination information (for diffuse reflection component and specular reflection component) from the illumination
復号部72は、照明情報取得部71が取得した照明情報を復号する。これにより、復号部72は、圧縮されていた照明情報を伸長する。
The
(1)拡散反射成分画像
拡散反射成分用照明情報抽出部75は、復号部72が復号した照明情報から、拡散反射成分用照明情報を取り出す。
(1) Diffuse reflection component image The diffuse reflection component illumination
拡散反射成分CG描画部76は、拡散反射成分に関してCGのレンダリング(描画)を行い、拡散反射成分画像を出力する。拡散反射成分CG描画部76は、拡散反射成分用照明情報抽出部75が取り出した照明情報に基づいて、CGの3次元空間内の、元の3次元空間(照明情報取得装置1が照明情報を取得した3次元空間)と同じ位置に、点光源または面光源を配置する。なお、レンダリングの処理自体は、既存の技術を用いて行う。
The diffuse reflection component
点光源として照明を配置する場合には、拡散反射成分CG描画部76は、各照明(前述のボクセルのグループ)の重心位置を点光源の位置とする。また、拡散反射成分CG描画部76は、その照明(そのグループ)の平均輝度値にそのグループのボクセル数を乗じた値をその点光源の明るさとする。
一方、面光源として照明を配置する場合には、拡散反射成分CG描画部76は、各照明の重心位置を中心とした球を、面光源として設定する。このとき、拡散反射成分CG描画部76は、照明情報から得られる(C)グループのサイズ(例えば、ボクセル数)に基づいて、その光源である球の半径を設定する。その半径は、照明情報に含まれているグループのサイズに基づいて、下の式(3)によって計算される。
When the illumination is arranged as a point light source, the diffuse reflection component
On the other hand, when the illumination is arranged as a surface light source, the diffuse reflection component
この式において、Sは、グループのサイズを表す値であり、ボクセル数である。グループのサイズがボクセル数で表される場合、当該グループに関して、3つのカメラそれぞれによるボクセル数の平均値を取り、その平均値をSとする。また、πは円周率である。そして、rは、設定すべき面光源の半径である。rの単位は、ボクセルの一辺の長さである。なお、グループのサイズがボクセル数で表されていない場合にも、適切な方法で上記の球の半径を求める。 In this equation, S is a value representing the size of the group and is the number of voxels. When the size of the group is expressed by the number of voxels, the average value of the number of voxels by each of the three cameras is taken for the group, and the average value is S. Further, π is a circumference ratio. R is the radius of the surface light source to be set. The unit of r is the length of one side of the voxel. Even when the group size is not represented by the number of voxels, the radius of the sphere is obtained by an appropriate method.
拡散反射成分CG描画部76は、上記のように設定される照明の拡散反射成分を用いて、CGオブジェクトの拡散反射成分のみをレンダリングし、その結果を拡散反射成分画像として出力する。
The diffuse reflection component
(2)鏡面反射成分画像
LDR画像抽出部78は、復号部72が復号した照明情報から、LDR画像(鏡面反射成分用照明情報)を取り出す。前述の通り、このLDR画像は、各撮像装置に対応するものであり、またフレーム期間ごとの画像である。
(2) Specular Reflection Component Image The LDR image extraction unit 78 extracts an LDR image (specular reflection component illumination information) from the illumination information decoded by the
内挿画像生成部79は、3台のカメラによってそれぞれ撮影されたLDR画像を基に、EPI(Epipolar-Plane Image,エピポーラ平面画像)解析を行うことにより、元の3次元空間の環境を復元する。なお、EPI解析自体は既存の技術である。そして、内挿画像生成部79は、レンダリングの対象とするCGモデルの重心位置を求め、3枚のLDR画像(全天球画像)に基づく内挿処理によって、その重心位置における全天球画像を生成する。この内挿処理自体は、既存の技術(View Morphing等)を用いて行うことができる。この技術による画像の内挿処理は、異なる位置に置かれた複数のカメラによって撮影した画像を基に、幾何学的な処理により、任意の位置に置かれた仮想的なカメラによって撮影されるはずの画像を生成するものである。
The interpolated
また、内挿画像生成部79は、上の内挿処理によって生成された画像において輝度が飽和している領域に関して、拡散反射成分用照明情報を用いて、輝度情報を補填する処理を行う。具体的には、内挿画像生成部79は、拡散反射成分用照明情報を取得し、この拡散反射成分用照明情報に基づき、光源の重心位置を中心点としてガウス分布となるような輝度分布を生成する。そして、内挿画像生成部79は、飽和領域の輝度分布を切削したうえで、トータルで平均輝度に画素数を乗じた値に整合するように輝度分布をスケーリングし、それで得られた輝度分布を飽和領域にはめ込む処理を行う。つまり、内挿画像生成部79は、所定のダイナミックレンジの低ダイナミックレンジ画像を鏡面反射成分用照明情報として取得するとともに、低ダイナミックレンジ画像よりも相対的に高いダイナミックレンジの高ダイナミックレンジ画像に基づいて推定された3次元空間内における照明の領域についての代表位置と輝度とサイズとの情報を拡散反射成分用照明情報として取得し、低ダイナミックレンジ画像内において輝度が飽和している部分について、当該部分に対応する代表位置を有する拡散反射成分用照明情報に含まれる前記輝度と前記サイズとの情報に基づいて、疑似的に輝度を復元する処理を行う。
式(1)で説明したように、関数f(x)は単調増加関数である。つまり、照明からカメラまでの距離が変化しないという条件下では、画像データにおける画素の画素値の増減と被写体の輝度の増減とは単調な関係にある。したがって、ここで内挿画像生成部79が行っている輝度情報の補填処理は、照明と推定される被写体の輝度情報を補填する処理である。つまり、内挿画像生成部79は、照明の輝度情報を補填(疑似的に復元)する機能を備えている。
In addition, the interpolated
As described in Expression (1), the function f (x) is a monotonically increasing function. That is, under the condition that the distance from the illumination to the camera does not change, the increase / decrease of the pixel value of the pixel in the image data and the increase / decrease of the luminance of the subject have a monotonous relationship. Therefore, the luminance information compensation processing performed by the interpolated
内挿画像生成部79のこの処理により、鏡面反射成分用照明情報としてLDR画像を用いたために欠落した飽和領域の輝度情報を、疑似的に復元させる。したがって、単に飽和領域を飽和させたままのLDR画像を用いた場合に比べて、より自然な鏡面反射成分画像を生成することができる。
By this processing of the interpolated
鏡面反射成分CG描画部80は、鏡面反射成分に関してCGのレンダリング(描画)を行う。具体的には、鏡面反射成分CG描画部80は、上記のLDR画像抽出部78および内挿画像生成部79による処理によって得られた鏡面反射成分用をグローバルイルミネーションとして用いて、CGオブジェクトの鏡面反射成分のみをレンダリングする。つまり、鏡面反射成分CG描画部80は、内挿画像生成部79によって輝度が復元された鏡面反射成分用照明情報を用いて、コンピューターグラフィクスによる鏡面反射成分の描画を行う。
The specular reflection component
カメラパラメーター供給部85は、映像用カメラに関するパラメーターを取得するとともに、それらのパラメーターを、レンダリング処理を行う拡散反射成分CG描画部76および鏡面反射成分CG描画部80に供給する。この映像用カメラとは、図1には図示されないカメラであり、映像を撮影するものである。この映像用カメラで撮影された映像自体は、合成装置5のカメラ映像入力部87に入力される。ここで、カメラパラメーターとは、前述の3次元空間におけるカメラの位置、カメラの姿勢(前述の3次元空間の座標系におけるパン角度やチルト角度など)、レンズ情報(画角情報など)である。これらのパラメーターは、映像を撮影している環境において把握され、図示しない伝送経路でカメラパラメーター供給部85に対して伝送されてくるものである。複数の映像用カメラが使用され、各映像用カメラで撮影された映像が切り替えて使用される場合、カメラパラメーター供給部85は、それら各々の映像用カメラに関するカメラパラメーターを取得するとともに、切り替え(スイッチング)の情報も取得する。
The camera
加算部86は、拡散反射成分CG描画部76によって描画されたCGと、鏡面反射成分CG描画部80によって描画されたCGとを、単純に加算して、出力する。
The adding
カメラ映像入力部87は、前述の映像用カメラで撮影された映像を取得して、映像合成部88に供給する。
The camera
映像合成部88は、照明復元装置3から出力されるCG映像と、カメラ映像入力部87から供給されるカメラ映像とを、映像として合成し、出力する。その結果、映像合成部88から出力される映像は、カメラ映像(実写)の中にCGのオブジェクトが存在しているかのような映像である。照明復元装置3が、カメラ映像の照明の状況に合わせてCGのレンダリングを行うため、映像とCGオブジェクトとが、光線等に関する違和感がない状態で合成映像内において共存する。
The
[第2実施形態]
次に、本発明の第2実施形態について説明する。なお以下では、前述の実施形態と同様の事項については説明を省略し、本実施形態に特有の事項を中心に説明する。
本実施形態による照明情報取得装置の機能構成は、図1に示したものとほぼ同様である。ただし、本実施形態においては、拡散反射成分用照明情報の求め方の一部が、第1実施形態における求め方と異なる。具体的には、本実施形態において照明情報推定部24が求める、グループごと且つカメララベルごとの、(B)平均輝度値の求め方が、第1実施形態における求め方とは異なる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following, description of items similar to those of the above-described embodiment will be omitted, and items specific to the present embodiment will be mainly described.
The functional configuration of the illumination information acquisition apparatus according to the present embodiment is substantially the same as that shown in FIG. However, in the present embodiment, a part of the method for obtaining the diffuse reflection component illumination information is different from the method for obtaining in the first embodiment. Specifically, the method for obtaining the average luminance value (B) for each group and for each camera label, which is obtained by the illumination
本実施形態による照明情報推定部24が(B)平均輝度値を求める方法は、次に述べるとおりである。各ボクセルグループ(単一の照明であると推定された複数のボクセルのグループ)の、カメララベルごとの(A)重心位置が求まると、照明情報推定部24は次に、そのカメラからの全天球画像(HDR画像)をボロノイ(Voronoi)分割する。ボロノイ分割する際には、各ボクセルグループの重心位置を母点とする。ボロノイ分割とは、空間上に任意に配置された複数の母点が与えられたとき、その空間上の母点以外の点がどの母点に近いかによって領域を分けるような分割である。つまり、平面空間においては、ボロノイ分割による領域の境界線は、ある母点と近隣の母点とを結ぶ線分の垂直二等分線である。
The method by which the illumination
図8は、上記のボロノイ分割の例を示す概略図である。
同図(a)は、映像の撮影現場である3次元空間(映像の収録スタジオ)において、ある撮像装置(14,15,または16)のカメラが撮影した画像(全天球画像の一部分)を、照明の重心を母点としてボロノイ分割した場合の例を示す。同図(a)において、丸印を付した部分が、照明の重心であると推定された位置である。そして、これらの位置を基準として、領域を分割した結果が同図(a)である。
FIG. 8 is a schematic diagram showing an example of the above Voronoi division.
FIG. 6A shows an image (a part of the omnidirectional image) taken by a camera of a certain imaging device (14, 15, or 16) in a three-dimensional space (video recording studio) that is a video shooting site. An example in which Voronoi division is performed using the center of gravity of the illumination as a generating point is shown. In FIG. 6A, the part marked with a circle is the position estimated to be the center of gravity of the illumination. The result of dividing the region with these positions as a reference is shown in FIG.
同図(b)は、同図(a)から取り出した、ボロノイ分割によるひとつの領域を示す。同図において、101は、当該領域を囲む境界線の1つである。当該領域は、4本の直線(境界線)で囲まれてなるものである。また、102は、当該領域内において、照明であると推定された領域を囲む線である。この領域は、照明であると推定された複数のボクセルが成すひとつのグループを示している。また、103は、当該グループの中で、同一のラベル(カメラのラベル)を付与されたボクセルの重心位置である。
FIG. 6B shows one region obtained by Voronoi division extracted from FIG. In the figure,
そして、照明情報推定部24は、ボロノイ分割された各領域について、次の処理を行う。即ち、照明情報推定部24は、当該カメラのレンズの主点と上記の重心位置とを結ぶ直線に垂直な平面であって、上記の重心位置を通るような平面を設ける。そして、照明情報推定部24は、当該ボロノイ領域に含まれる各画素に関して、その画素の画素値に関数f−1(x)を適用し、さらに、レンズの主点から重心位置までの距離rの2乗を掛けた値を輝度として求める。そして、前述の投票における投票数が投票数閾値以上であったボクセルについての平均輝度値を求める。照明情報推定部24は、以上のように求められた平均輝度値を、当該グループの当該カメラに関する(B)の平均輝度値とする。
And the illumination
本実施形態による照明情報取得装置は、上記の方法で求められた平均輝度値の情報を、拡散反射成分用照明情報の一部分として出力する。そして、本実施形態による照明復元装置は、そのような拡散反射成分用照明情報を用いて照明を復元し、CGレンダリングを行う。
本実施形態によれば、より精度の高い照明の再現性を得ることができる。
The illumination information acquisition apparatus according to the present embodiment outputs information on the average luminance value obtained by the above method as a part of the diffuse reflection component illumination information. The illumination restoration device according to the present embodiment restores illumination using such diffuse reflection component illumination information and performs CG rendering.
According to the present embodiment, more accurate illumination reproducibility can be obtained.
なお、上述した各実施形態における照明情報取得装置、照明復元装置、合成装置の機能をコンピューターで実現するようにしても良い。その場合、これらの機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 In addition, you may make it implement | achieve the function of the illumination information acquisition apparatus in each embodiment mentioned above, an illumination decompression | restoration apparatus, and a synthetic | combination apparatus with a computer. In that case, the program for realizing these functions may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included, and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
本発明は、映像コンテンツの制作を行う産業において特に利用可能である。また、ビデオゲームや、バーチャルリアリティを実現するための装置あるいはコンピュータープログラム等においても利用可能である。 The present invention is particularly applicable to industries that produce video content. It can also be used in video games, devices or computer programs for realizing virtual reality.
1 照明情報取得装置
3 照明復元装置
5 合成装置
14,15,16 撮像装置
21 映像取得部(画像取得部)
22 空間情報設定部
23 照明領域分離部
24 照明情報推定部
41 LDR画像分離部(画像出力部)
50 圧縮部
52 蓄積部
53 伝送部
71 照明情報取得部
72 復号部
75 拡散反射成分用照明情報抽出部
76 拡散反射成分CG描画部
78 LDR画像抽出部
79 内挿画像生成部(輝度情報補填部)
80 鏡面反射成分CG描画部(鏡面反射成分描画部)
85 カメラパラメーター供給部
86 加算部
87 カメラ映像入力部
88 映像合成部
DESCRIPTION OF
22 Spatial
DESCRIPTION OF
80 Specular reflection component CG drawing unit (Specular reflection component drawing unit)
85 Camera
Claims (6)
取得した前記画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する照明領域分離部と、
前記照明領域分離部によって特定された照明の領域の各々について、代表位置と輝度値とサイズとを拡散反射成分用照明情報として推定する照明情報推定部と、
前記画像取得部が取得した前記画像を鏡面反射成分用照明情報として出力する画像出力部と、
を具備することを特徴とする照明情報取得装置。 An image acquisition unit for acquiring images taken by cameras provided at a plurality of positions in a three-dimensional space;
An illumination area separation unit that identifies an illumination area in the three-dimensional space based on pixel values of pixels included in the acquired image;
An illumination information estimation unit that estimates a representative position, a luminance value, and a size as illumination information for diffuse reflection components for each of the illumination regions specified by the illumination region separation unit;
An image output unit that outputs the image acquired by the image acquisition unit as specular reflection component illumination information;
An illumination information acquisition apparatus comprising:
ことを特徴とする請求項1に記載の照明情報取得装置。 The image output unit outputs the image after performing a process of reducing a dynamic range of luminance of the image acquired by the image acquisition unit.
The illumination information acquisition apparatus according to claim 1.
ことを特徴とする請求項1または2に記載の照明情報取得装置。 The illumination area separation unit determines, for each position of the camera that captured the image, whether or not illumination is reflected in the pixel based on a pixel value of the pixel included in the image, and based on the determination result Voting on a region in the direction corresponding to the pixel included in the three-dimensional space, and determining whether the region is the illumination region according to the number of votes obtained by the region,
The illumination information acquisition apparatus according to claim 1, wherein the illumination information acquisition apparatus is an illumination information acquisition apparatus.
前記輝度情報補填部によって輝度が復元された鏡面反射成分用照明情報を用いてコンピューターグラフィクスによる鏡面反射成分の描画を行う鏡面反射成分描画部と、
を具備することを特徴とする照明復元装置。 A low dynamic range image with a predetermined dynamic range is acquired as illumination information for specular reflection components, and in a three-dimensional space estimated based on a high dynamic range image with a higher dynamic range than the low dynamic range image Information on the representative position, luminance, and size of the illumination area is acquired as diffuse reflection component illumination information, and a portion where the luminance is saturated in the low dynamic range image has a representative position corresponding to the portion. A luminance information compensation unit that performs a process of restoring luminance in a pseudo manner based on the information on the luminance and the size included in the illumination information for diffuse reflection component;
A specular reflection component drawing unit that draws a specular reflection component by computer graphics using the illumination information for specular reflection component whose luminance is restored by the luminance information compensation unit;
An illumination restoration apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015196222A JP6575999B2 (en) | 2015-10-01 | 2015-10-01 | Lighting information acquisition device, lighting restoration device, and programs thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015196222A JP6575999B2 (en) | 2015-10-01 | 2015-10-01 | Lighting information acquisition device, lighting restoration device, and programs thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068764A JP2017068764A (en) | 2017-04-06 |
JP6575999B2 true JP6575999B2 (en) | 2019-09-18 |
Family
ID=58494999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015196222A Active JP6575999B2 (en) | 2015-10-01 | 2015-10-01 | Lighting information acquisition device, lighting restoration device, and programs thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6575999B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2569267A (en) * | 2017-10-13 | 2019-06-19 | Mo Sys Engineering Ltd | Lighting integration |
CN107798666B (en) * | 2017-11-17 | 2021-08-10 | 上海大学 | Old film fading and flickering restoration method based on sparse color characteristics |
KR102242327B1 (en) * | 2019-01-16 | 2021-04-20 | 한국광기술원 | Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space |
WO2023058889A1 (en) * | 2021-10-05 | 2023-04-13 | 엘지전자 주식회사 | Light capture device and light capture system including same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175762A (en) * | 1997-12-08 | 1999-07-02 | Katsushi Ikeuchi | Light environment measuring instrument and device and method for shading virtual image using same |
JP5503573B2 (en) * | 2011-02-21 | 2014-05-28 | 日本放送協会 | Imaging apparatus and image processing information generation program |
-
2015
- 2015-10-01 JP JP2015196222A patent/JP6575999B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017068764A (en) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102431117B1 (en) | point cloud mapping | |
US20220191407A1 (en) | Method and system for generating at least one image of a real environment | |
US10977764B2 (en) | Viewport independent image coding and rendering | |
JP7003994B2 (en) | Image processing equipment and methods | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
RU2431938C2 (en) | Efficient multiple types encoding | |
US8711248B2 (en) | Global alignment for high-dynamic range image generation | |
JP7007348B2 (en) | Image processing equipment | |
US20200226729A1 (en) | Image Processing Method, Image Processing Apparatus and Electronic Device | |
US6983082B2 (en) | Reality-based light environment for digital imaging in motion pictures | |
CN108475327A (en) | three-dimensional acquisition and rendering | |
US20180014003A1 (en) | Measuring Accuracy of Image Based Depth Sensing Systems | |
CN115088254A (en) | Motion smoothing in distributed systems | |
JP6575999B2 (en) | Lighting information acquisition device, lighting restoration device, and programs thereof | |
US20210233303A1 (en) | Image processing apparatus and image processing method | |
US20200177868A1 (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
CN114697623A (en) | Projection surface selection and projection image correction method and device, projector and medium | |
US10163250B2 (en) | Arbitrary view generation | |
US20230106679A1 (en) | Image Processing Systems and Methods | |
JP2014164497A (en) | Information processor, image processing method and program | |
CN115997379A (en) | Restoration of image FOV for stereoscopic rendering | |
KR101946715B1 (en) | Adaptive search ragne determination method for motion estimation of 360 degree video | |
GB2573593A8 (en) | Augmented reality rendering method and apparatus | |
EP4386678A1 (en) | Novel view generation using point clouds | |
JP2013009082A (en) | Video composing apparatus, video composing method, and video composing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180827 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6575999 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |