JP6575999B2 - Lighting information acquisition device, lighting restoration device, and programs thereof - Google Patents

Lighting information acquisition device, lighting restoration device, and programs thereof Download PDF

Info

Publication number
JP6575999B2
JP6575999B2 JP2015196222A JP2015196222A JP6575999B2 JP 6575999 B2 JP6575999 B2 JP 6575999B2 JP 2015196222 A JP2015196222 A JP 2015196222A JP 2015196222 A JP2015196222 A JP 2015196222A JP 6575999 B2 JP6575999 B2 JP 6575999B2
Authority
JP
Japan
Prior art keywords
illumination
image
unit
information
illumination information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015196222A
Other languages
Japanese (ja)
Other versions
JP2017068764A (en
Inventor
秀樹 三ツ峰
秀樹 三ツ峰
寛史 盛岡
寛史 盛岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015196222A priority Critical patent/JP6575999B2/en
Publication of JP2017068764A publication Critical patent/JP2017068764A/en
Application granted granted Critical
Publication of JP6575999B2 publication Critical patent/JP6575999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像等を撮影する場所における照明の情報を取得する照明情報取得装置、照明情報に基づいて照明を復元する照明復元装置、およびこれらのプログラムに関する。   The present invention relates to an illumination information acquisition device that acquires illumination information at a place where a video or the like is captured, an illumination restoration device that restores illumination based on the illumination information, and a program thereof.

映像コンテンツを制作する場合に、実写映像とコンピューターグラフィクス(CG,computer graphics)とを合成する技術が用いられる場合がある。このような技術を用いて、実写映像とCGとを合成して映像を制作することにより、映像表現の幅が広がることが期待される。   When producing video content, a technique for synthesizing a live-action video and computer graphics (CG) may be used. Using such a technique, it is expected that the range of video expression will be widened by synthesizing live-action video and CG to produce video.

特許文献1には、2個の撮像手段を用いて、拡散反射光成分画像と鏡面反射光成分画像と光源情報を生成する手法が記載されている。具体的には、拡散反射光成分画像生成部は、2つの撮像画像での対応画素のうちの輝度値が小さい方を最小輝度値として選択して、対応画素ごとの最小輝度値を示す拡散反射光成分画像を生成する。また、鏡面反射光成分画像生成部は、2つの撮像画像での対応画素のうちの輝度値が大きい方を最大輝度値として選択し、対応画素ごとに、最大輝度値と最小輝度値との差分を示す鏡面反射光成分画像を生成する。また、光源情報生成部は、被写体での反射光の入射角を基に光源の方向を得るとともに、上記の鏡面反射光成分画像とこの光源方向とから、光源の光量を算出している。   Patent Document 1 describes a method of generating a diffuse reflected light component image, a specular reflected light component image, and light source information using two imaging units. Specifically, the diffuse reflected light component image generation unit selects the smaller one of the corresponding pixels in the two captured images as the minimum luminance value, and diffuse reflection indicating the minimum luminance value for each corresponding pixel. A light component image is generated. Further, the specular reflection light component image generation unit selects the larger of the corresponding pixels in the two captured images as the maximum luminance value, and the difference between the maximum luminance value and the minimum luminance value for each corresponding pixel. A specular reflection light component image is generated. The light source information generation unit obtains the direction of the light source based on the incident angle of the reflected light from the subject, and calculates the light amount of the light source from the specular reflection component image and the light source direction.

特許文献2には、実写映像とCGとを合成する際に求められる、カメラのキャリブレーションのための技術構成が記載されている。この先行技術を用いることにより、カメラの姿勢や、ズームレンズのズーム状態等をキャリブレーションすることができる。これにより、実写映像とCGとの幾何的な合成精度を高めることが期待できる。   Patent Document 2 describes a technical configuration for camera calibration that is required when a live-action image and CG are combined. By using this prior art, it is possible to calibrate the posture of the camera, the zoom state of the zoom lens, and the like. As a result, it can be expected to improve the accuracy of geometric synthesis of the live-action video and CG.

特開2012−173916号公報JP 2012-173916 A 特開2010−074730号公報JP 2010-0747430 A

特許文献1に記載の方法では、光源の形状の情報や、正確な光量の情報を得ることができないという問題がある。
また、特許文献2に記載の方法では、カメラの姿勢や、ズームレンズのズーム状態等をキャリブレーションすることができるものの、光源に関する情報を得ることはできないという問題がある。
The method described in Patent Document 1 has a problem that information on the shape of the light source and information on the accurate light amount cannot be obtained.
In addition, the method described in Patent Document 2 has a problem that information on the light source cannot be obtained although the camera posture, the zoom state of the zoom lens, and the like can be calibrated.

実写映像とCGとを自然に合成するためには、カメラの姿勢等だけではなく、実写映像の撮影時の照明状況に関する情報をCG生成時に反映させる必要がある。撮影時の照明状況に関する情報とは、具体的には、どの方向からどういった成分の光がどの程度の強さで撮影場所に到達しているかを表す情報である。これを以下では照明情報と呼ぶ。一方で、そのような照明情報を、実写映像とともにアーカイブとして保存して活用することを考慮すると、照明情報のデータ量が大きくなりすぎないことが望まれる。   In order to synthesize a live-action video and CG naturally, it is necessary to reflect not only the camera posture and the like, but also information related to the lighting situation at the time of shooting the real-time video at the time of CG generation. Specifically, the information regarding the lighting state at the time of photographing is information indicating from what direction what component of light reaches to the photographing location with what intensity. This is hereinafter referred to as illumination information. On the other hand, in consideration of storing and using such illumination information as an archive together with a live-action video, it is desired that the data amount of the illumination information does not become too large.

本発明は、上記のような事情を考慮して為されたものであり、より自然な照明の状況でCGのレンダリングを行い、実写映像とCGとを合成できるようにするための照明情報取得装置、照明復元装置、およびこれらのプログラムを提供しようとするものである。   The present invention has been made in consideration of the above-described circumstances. An illumination information acquisition apparatus for rendering CG in a more natural lighting situation so that a live-action image and CG can be synthesized. , A lighting restoration apparatus, and these programs.

上記の課題を解決するため、本発明の一態様による照明情報取得装置は、3次元空間における複数の位置に設けられたカメラで撮影した画像を取得する画像取得部と、取得した前記画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する照明領域分離部と、前記照明領域分離部によって特定された照明の領域の各々について、代表位置と輝度値とサイズとを拡散反射成分用照明情報として推定する照明情報推定部と、前記画像取得部が取得した前記画像を鏡面反射成分用照明情報として出力する画像出力部と、を具備することを特徴とする。   In order to solve the above problems, an illumination information acquisition device according to an aspect of the present invention is included in an image acquisition unit that acquires images captured by cameras provided at a plurality of positions in a three-dimensional space, and the acquired image An illumination area separation unit that identifies an illumination area in the three-dimensional space based on a pixel value of the pixel to be displayed, a representative position, a luminance value, and a size for each of the illumination areas identified by the illumination area separation unit; Is provided as an illumination information for diffuse reflection component, and an image output unit for outputting the image acquired by the image acquisition unit as specular reflection component illumination information.

また、本発明の一態様は、上記の照明情報取得装置において、前記画像出力部は、前記画像取得部が取得した前記画像の輝度のダイナミックレンジを低くする処理をしてから前記画像を出力する、ことを特徴とする。   According to another aspect of the present invention, in the illumination information acquisition apparatus, the image output unit outputs the image after performing a process of reducing a dynamic range of luminance of the image acquired by the image acquisition unit. It is characterized by that.

また、本発明の一態様は、上記の照明情報取得装置において、前記照明領域分離部は、前記画像を撮影したカメラの前記位置ごとに、前記画像に含まれる画素の画素値に基づいて当該画素に照明が写っているか否かを判定し、この判定結果に基づいて前記3次元空間に含まれ当該画素に対応する方向の領域への投票を行い、前記領域が得た投票数に応じて当該領域が前記照明の領域であるか否かを判定する、ことを特徴とする。   One embodiment of the present invention is the above-described illumination information acquisition device, wherein the illumination area separation unit is configured to detect the pixel based on a pixel value of a pixel included in the image for each position of the camera that captures the image. Whether or not the illumination is reflected, and based on the determination result, vote for the area in the direction corresponding to the pixel included in the three-dimensional space, and according to the number of votes obtained by the area It is characterized by determining whether an area | region is the area | region of the said illumination.

また、本発明の一態様は、所定のダイナミックレンジの低ダイナミックレンジ画像を鏡面反射成分用照明情報として取得するとともに、前記低ダイナミックレンジ画像よりも相対的に高いダイナミックレンジの高ダイナミックレンジ画像に基づいて推定された3次元空間内における照明の領域についての代表位置と輝度とサイズとの情報を拡散反射成分用照明情報として取得し、前記低ダイナミックレンジ画像内において輝度が飽和している部分について、当該部分に対応する代表位置を有する拡散反射成分用照明情報に含まれる前記輝度と前記サイズとの情報に基づいて、疑似的に輝度を復元する処理を行う輝度情報補填部と、前記輝度情報補填部によって輝度が復元された鏡面反射成分用照明情報を用いてコンピューターグラフィクスによる鏡面反射成分の描画を行う鏡面反射成分描画部と、を具備することを特徴とする照明復元装置である。   According to another aspect of the present invention, a low dynamic range image having a predetermined dynamic range is acquired as illumination information for specular reflection components, and based on a high dynamic range image having a relatively higher dynamic range than the low dynamic range image. The information of the representative position, the luminance and the size of the illumination area in the three-dimensional space estimated as described above is acquired as the diffuse reflection component illumination information, and the portion where the luminance is saturated in the low dynamic range image, A luminance information compensation unit that performs a process of restoring the luminance in a pseudo manner based on the information on the luminance and the size included in the diffuse reflection component illumination information having a representative position corresponding to the portion, and the luminance information compensation In computer graphics using illumination information for specular reflection components whose luminance is restored by the And specular reflection component drawing unit for drawing the specular reflection component that is an illumination restoring apparatus characterized by comprising.

また、本発明の一態様は、コンピューターを、上記のいずれかの照明情報取得装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as any one of the illumination information acquisition apparatuses described above.

また、本発明の一態様は、コンピューターを、上記のいずれかの照明復元装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as any one of the above-described illumination restoration devices.

本発明によれば、照明条件に関する違和感がない状態で実写映像とCGとを合成することが可能となる。またそのために必要な照明情報を、効率よく蓄積し、または伝送することが可能となる。   According to the present invention, it is possible to synthesize a live-action image and a CG in a state where there is no sense of incongruity regarding illumination conditions. In addition, it is possible to efficiently accumulate or transmit illumination information necessary for that purpose.

本発明の第1実施形態による照明情報取得装置の概略機能構成を示すブロック図である。It is a block diagram which shows schematic structure of the illumination information acquisition apparatus by 1st Embodiment of this invention. 同実施形態において照明情報を取得するための撮像装置の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of the imaging device for acquiring illumination information in the embodiment. 同実施形態において、撮影対象の3次元空間内のボクセルと照明情報を取得するための撮像装置のカメラとの関係を模式的に示した概略図である。In the embodiment, it is the schematic which showed typically the relationship between the voxel in the three-dimensional space of imaging | photography object, and the camera of the imaging device for acquiring illumination information. 同実施形態による照明情報推定部が、取得した画像を基に照明情報を推定する過程において、一部のボクセルに、カメラ(照明情報を取得するための撮像装置)に応じたラベルを付与する処理の概要を示す概略図である。In the process in which the illumination information estimation unit according to the embodiment estimates illumination information based on the acquired image, a process of assigning a label corresponding to a camera (an imaging device for acquiring illumination information) to some voxels It is the schematic which shows the outline | summary. 同実施形態による照明情報推定部が、ボクセルのグループのサイズを求めるために、ボクセル数以外の手段を用いる方法の概要を示す概略図である。It is the schematic which shows the outline | summary of the method in which the illumination information estimation part by the embodiment uses means other than the number of voxels in order to obtain | require the size of the group of voxels. 同実施形態により拡散反射成分用照明情報を取得する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which acquires the illumination information for diffuse reflection components by the embodiment. 同実施形態により、照明情報を利用して照明の状況を復元する照明復元装置、およびCGと実写映像とを合成する合成装置の概略機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic functional configuration of an illumination restoration device that restores an illumination state using illumination information and a synthesis device that synthesizes a CG and a live-action image according to the embodiment. 第2実施形態により拡散反射成分用照明情報を取得する方法の一部であり、ボロノイ分割によって分割された領域の輝度値をもとめる方法の例を示す概略図である。FIG. 10 is a schematic diagram showing an example of a method for obtaining a luminance value of a region divided by Voronoi division, which is a part of a method for acquiring illumination information for diffuse reflection components according to the second embodiment.

次に、図面を参照しながら、本発明の実施形態について説明する。
[第1実施形態]
図1は、本実施形態による照明情報取得装置の概略機能構成を示すブロック図である。同図において、符号1が照明情報取得装置である。図示するように、照明情報取得装置1は、映像取得部21(画像取得部)と、空間情報設定部22と、照明領域分離部23と、照明情報推定部24と、LDR画像分離部41(画像出力部)と、圧縮部50と、蓄積部52と、伝送部53と、を含んで構成される。
Next, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram illustrating a schematic functional configuration of the illumination information acquisition apparatus according to the present embodiment. In the same figure, the code | symbol 1 is an illumination information acquisition apparatus. As illustrated, the illumination information acquisition apparatus 1 includes a video acquisition unit 21 (image acquisition unit), a spatial information setting unit 22, an illumination region separation unit 23, an illumination information estimation unit 24, and an LDR image separation unit 41 ( An image output unit), a compression unit 50, a storage unit 52, and a transmission unit 53.

映像取得部21は、3次元空間における複数の位置に設けられたカメラで撮影した画像(映像)を取得する。通常は、3次元空間内の複数の位置にそれぞれカメラを設置し、それらのカメラが同時に画像を取得するようにする。   The video acquisition unit 21 acquires images (videos) captured by cameras provided at a plurality of positions in the three-dimensional space. Normally, cameras are installed at a plurality of positions in a three-dimensional space, and these cameras acquire images simultaneously.

空間情報設定部22は、3次元空間内の座標系を設定する。即ち、空間情報設定部22は、所定の座標軸(通常は、3本の互いに直交する座標軸)に基づいて、ボクセルが隙間なく配置されたボクセル空間を想定する。ボクセルについては、また、後述する。そして、空間情報設定部22は、上記の複数のカメラが設置された位置の座標値を設定する。そして、各カメラから撮像したときの画像に含まれる各画素と、上記のボクセルとの対応付けを行う。   The spatial information setting unit 22 sets a coordinate system in the three-dimensional space. That is, the spatial information setting unit 22 assumes a voxel space in which voxels are arranged without gaps based on predetermined coordinate axes (usually, three coordinate axes orthogonal to each other). The voxel will be described later. Then, the spatial information setting unit 22 sets the coordinate value of the position where the plurality of cameras are installed. Then, each pixel included in the image captured from each camera is associated with the above voxel.

照明領域分離部23は、映像取得部21が取得した画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する。なお、照明領域分離部23は、画像を撮影したカメラの位置ごとに、画像に含まれる画素の画素値に基づいて当該画素に照明が写っているか否かを判定し、この判定結果に基づいて3次元空間に含まれ当該画素に対応する方向の領域への投票を行い、領域が得た投票数に応じて当該領域が照明の領域であるか否かを判定する。ここで、3次元空間における領域の最小単位が前記のボクセルである。この照明領域分離部23における投票も、ボクセルを対象として行う。あるカメラ位置から撮影した画像に含まれる画素の画素値が予め定めた条件を満たす場合に(そして、その場合にのみ)ボクセルへの投票を行うことにより、そのボクセルの領域が照明であるか否かを推定する。   The illumination area separation unit 23 specifies an illumination area in the three-dimensional space based on the pixel values of the pixels included in the image acquired by the video acquisition unit 21. Note that the illumination area separation unit 23 determines, for each position of the camera that captured the image, whether or not illumination is reflected in the pixel based on the pixel value of the pixel included in the image, and based on the determination result. Voting is performed on a region in a direction corresponding to the pixel included in the three-dimensional space, and it is determined whether or not the region is an illumination region according to the number of votes obtained by the region. Here, the minimum unit of the region in the three-dimensional space is the voxel. Voting in the illumination area separation unit 23 is also performed for voxels. Whether or not the voxel region is illuminated by voting to a voxel when the pixel value of a pixel included in an image taken from a certain camera position satisfies a predetermined condition (and only in that case) Estimate.

照明情報推定部24は、照明領域分離部23によって特定された照明の領域の各々について、代表位置(例えば、重心位置)とその領域の輝度値とその領域のサイズとを拡散反射成分用照明情報として推定する。   The illumination information estimation unit 24 determines the representative position (for example, the center of gravity position), the luminance value of the region, and the size of the region for each of the illumination regions specified by the illumination region separation unit 23, and diffused reflection component illumination information. Estimate as

LDR画像分離部41は、映像取得部21が取得した画像を鏡面反射成分用照明情報として出力する。なお、LDR画像分離部41は、映像取得部21が取得した画像の輝度のダイナミックレンジを低くする処理をしてから画像を出力する。つまり、LDR画像分離部41は、高ダイナミックレンジ画像から低ダイナミックレンジ画像を生成して出力する。低ダイナミックレンジ化することにより、出力する鏡面反射成分用照明情報の情報量(データ量)を小さくすることができる。   The LDR image separation unit 41 outputs the image acquired by the video acquisition unit 21 as specular reflection component illumination information. Note that the LDR image separation unit 41 outputs the image after performing processing for reducing the dynamic range of the luminance of the image acquired by the video acquisition unit 21. That is, the LDR image separation unit 41 generates and outputs a low dynamic range image from the high dynamic range image. By reducing the dynamic range, the information amount (data amount) of the specular reflection component illumination information to be output can be reduced.

圧縮部50は、照明情報推定部24が出力した拡散反射成分用照明情報と、LDR画像分離部41が出力した鏡面反射成分用照明情報とを、適切な方法で圧縮・符号化する。
蓄積部52は、圧縮部50によって符号化された情報を、記録媒体等に蓄積する。
伝送部53は、圧縮部50によって符号化された情報を、通信により外部の装置に伝送する。
The compression unit 50 compresses and encodes the diffuse reflection component illumination information output from the illumination information estimation unit 24 and the specular reflection component illumination information output from the LDR image separation unit 41 by an appropriate method.
The storage unit 52 stores the information encoded by the compression unit 50 in a recording medium or the like.
The transmission unit 53 transmits the information encoded by the compression unit 50 to an external device through communication.

次に、照明情報取得装置1が備える各部の、より詳細な機能および動作を説明する。
映像取得部21は、外部の複数の撮像装置14,15,16から、映像の信号を取得する。
Next, more detailed functions and operations of each unit included in the illumination information acquisition apparatus 1 will be described.
The video acquisition unit 21 acquires video signals from a plurality of external imaging devices 14, 15, and 16.

本実施形態による照明情報取得装置1は、3台の撮像装置14,15,16が撮像する映像を取り込んで、処理を行う。なお、撮像装置の台数は2台以上であれば任意であるが、特に3台以上であることが望ましい。また、撮像装置の台数が3台以上である場合において、それらのうちの3台以上が直線状に並ぶような配置を避けることが望ましい。これは、三角測量の原理を用いて照明の位置を特定する際の誤差を生じさせないため、または誤差を小さくするためである。
なお、以下の説明においては、撮像装置が3台であることを前提とした記載を行う。撮像装置の台数が異なるような実施のしかたをする場合には、適宜、その「3台」を実際の撮像装置の台数に読み替えることが必要である。
The illumination information acquisition device 1 according to the present embodiment performs processing by capturing images captured by the three imaging devices 14, 15, and 16. Note that the number of imaging devices is arbitrary as long as it is two or more, but it is particularly desirable that the number is three or more. In addition, when the number of imaging devices is three or more, it is desirable to avoid an arrangement in which three or more of them are arranged in a straight line. This is to prevent an error in specifying the position of illumination using the principle of triangulation or to reduce the error.
In the following description, description is made on the assumption that there are three imaging devices. When the implementation is performed in such a way that the number of imaging devices is different, it is necessary to appropriately read the “three units” as the actual number of imaging devices.

次に、上で述べた撮像装置14,15,16の概略について説明する。
図2は、撮像装置14,15,16のそれぞれの外観を示す概略図である。図示するように、撮像装置14,15,16の各々は、HDRカメラ81および82と、支持手段83とを含んで構成されている。HDRとは、ハイダイナミックレンジ(high dynamic range)の略であり、高ダイナミックレンジの撮像を行うことを表わしている。
HDRカメラ81および82の各々は、140デシベル(dB)から170デシベル程度の広いダイナミックレンジを有するものであり、映像機器メーカーから調達可能である。HDRカメラ81と82は互いに背中合わせの位置に設けられる。これにより、HDRカメラ81と82の撮像光軸は互いに180度反対方向である。HDRカメラ81と82の各々は、180度ないしはそれ以上の視野角を有する撮像レンズ(魚眼レンズ等)を備えており、広い範囲の映像を撮像する。したがって、このような2台のカメラによる撮像の範囲は全天球をカバーする。なお、各カメラの相対的な配置を明らかにするために、事前にキャリブレーション処理を行っておく。HDRカメラ81および82が撮影した映像の信号は、ケーブルを介して照明情報取得装置1に供給される。
支持手段83は、例えば三脚等である。支持手段83がHDRカメラ81および82を支持することにより、HDRカメラ81および82を所望の位置の所望の高さに設置することができる。
Next, the outline of the imaging devices 14, 15, and 16 described above will be described.
FIG. 2 is a schematic diagram showing the external appearance of each of the imaging devices 14, 15, 16. As shown in the figure, each of the imaging devices 14, 15, and 16 includes HDR cameras 81 and 82 and support means 83. HDR is an abbreviation for high dynamic range, and represents that high dynamic range imaging is performed.
Each of the HDR cameras 81 and 82 has a wide dynamic range of about 140 decibels (dB) to 170 decibels, and can be procured from a video equipment manufacturer. The HDR cameras 81 and 82 are provided back to back. Thereby, the imaging optical axes of the HDR cameras 81 and 82 are opposite to each other by 180 degrees. Each of the HDR cameras 81 and 82 includes an imaging lens (such as a fisheye lens) having a viewing angle of 180 degrees or more, and images a wide range of images. Therefore, the imaging range of such two cameras covers the whole celestial sphere. In addition, in order to clarify the relative arrangement of each camera, calibration processing is performed in advance. Video signals taken by the HDR cameras 81 and 82 are supplied to the illumination information acquisition apparatus 1 via a cable.
The support means 83 is, for example, a tripod. Since the support unit 83 supports the HDR cameras 81 and 82, the HDR cameras 81 and 82 can be installed at desired positions at desired positions.

なお、HDRカメラ81,82として、単体でHDR映像を撮影可能なカメラを用いる代わりに、時分割で露光量を変化させて撮影した画像を統合することによってHDR映像を生成するようにしても良い。   Instead of using a camera that can shoot HDR video by itself as the HDR cameras 81 and 82, HDR video may be generated by integrating images shot by changing the exposure amount in time division. .

次に、反射成分ごとに、照明情報を取得する方法の詳細を説明する。ここで、反射成分とは、コンピューターグラフィクス(CG)における鏡面反射成分と拡散反射成分の2種類である。これら2種類の反射成分は、取得した照明情報を用いて後でCGの描画を行う際の利用のしかたが異なるものである。鏡面反射とは、物に対して、一方向から入射する光が一方向に出射するような反射である。拡散反射とは、物に対して、一方向から入射する光が様々な方向に出射するような反射である。通常、物に対して入射する光の反射は、鏡面反射成分と拡散反射成分とが重畳したものである。   Next, details of a method for acquiring illumination information for each reflection component will be described. Here, the reflection component is two types of specular reflection component and diffuse reflection component in computer graphics (CG). These two types of reflection components are used in different ways when the CG is drawn later using the acquired illumination information. The specular reflection is a reflection in which light incident from one direction is emitted in one direction with respect to an object. Diffuse reflection is reflection in which light incident from one direction is emitted in various directions with respect to an object. Usually, the reflection of light incident on an object is a superposition of a specular reflection component and a diffuse reflection component.

まず、鏡面反射成分は、CGにおけるオブジェクト等において鏡面反射する成分であり、オブジェクト等への周囲の映り込みなどを表現するためのものである。この鏡面反射成分の情報を適切に取得することによって、違和感のない映り込みを表現することができる。本実施形態で取得する鏡面反射成分は各撮像装置(14,15,16)において撮像する全天球映像である。   First, the specular reflection component is a component that is specularly reflected on an object or the like in CG, and is used to express the surrounding reflection on the object or the like. By appropriately acquiring the information of the specular reflection component, it is possible to express a reflection without a sense of incongruity. The specular reflection component acquired in the present embodiment is an omnidirectional image captured by each imaging device (14, 15, 16).

そして、拡散反射成分は、CGにおけるオブジェクト等において拡散反射する成分である。拡散反射成分の情報としては、3次元空間における光源(照明等)の位置や、輝度や、光源のサイズ等の情報である。なお、映像等を撮影するための環境において、普通に(HDRカメラではない)LDR(low dynamic range)のカメラを用いて撮影すると、光源が映っている部分の画素値が飽和してしまう。したがってその場合、拡散反射成分の情報の一部として必要な輝度の情報を正しく得ることができない。したがって、拡散反射成分の情報を得るためには、前述のHDRカメラの映像を使用する。   The diffuse reflection component is a component that diffusely reflects an object or the like in CG. The information of the diffuse reflection component is information such as the position of the light source (lighting or the like) in the three-dimensional space, the luminance, the size of the light source, and the like. Note that, in an environment for photographing video or the like, when a picture is normally taken using an LDR (low dynamic range) camera (not an HDR camera), a pixel value in a portion where the light source is reflected is saturated. Therefore, in that case, the necessary luminance information cannot be obtained correctly as part of the diffuse reflection component information. Therefore, in order to obtain diffuse reflection component information, the above-described HDR camera image is used.

以下では、拡散反射成分用照明情報の取得について詳細に説明し、その後、鏡面反射成分用照明情報の取得について説明する。   Hereinafter, the acquisition of the diffuse reflection component illumination information will be described in detail, and then the acquisition of the specular reflection component illumination information will be described.

(1)拡散反射成分用照明情報の取得
照明情報取得装置1は、撮像装置14,15,16からそれぞれ取得した3つの全天球HDR画像を利用して、それらの画像から、次に述べる方法によって拡散反射成分用の照明情報を取得する。
(1) Acquisition of Diffuse Reflection Component Illumination Information The illumination information acquisition device 1 uses three omnidirectional HDR images acquired from the imaging devices 14, 15, and 16, respectively, and uses the images to describe the following method To obtain the illumination information for the diffuse reflection component.

空間情報設定部22は、映像撮影における3次元空間にボクセル(voxel)を設定する。空間情報設定部22がボクセルを設定する空間は、撮像装置14,15,16を含み、また照明(光源)をも含むものである。なお、ボクセルとは、3次元空間に座標軸を設定したときの、各座標軸における長さの最小単位によってなる3次元の格子単位である。本実施形態は、3次元の直交座標系を用いており、またそれらの3つの座標軸における長さの単位は同一である。空間情報設定部22は、この後説明する処理において、空間の分解能を充分に得られる程度のサイズで、ボクセルを設定する。このボクセルの設定の作業において、空間情報設定部22は、具体的には、映像撮影の現場における3つの直交する座標軸の方向を定め、その座標系の原点を定め、その座標系における単位長さを設定し、その座標系における撮像装置14,15,16それぞれの位置の座標を把握(例えば、外部からの入力による)する。そして、空間情報設定部22は、撮像装置14,15,16の各々が有する2台のHDRカメラ(符号81と82)のそれぞれについて、撮像面における画素と、当該画素からカメラのレンズ主点とを結んだ直線を延長した先にあるすべてのボクセルとを対応付ける。このとき、必ずしも、ある画素に対応するボクセルの座標値をすべて記憶する必要はなく、例えば、ある画素に対応するボクセルの座標値を算出するための情報を記憶することで充分である。一例としては、空間情報設定部22は、ある画素について、その画素とレンズ主点を結んだ直線の方程式の係数を記憶する。あるいは、カメラの光学的特性(例えば、カメラのレンズの焦点距離又は画角の情報)およびそのカメラの設置状況(カメラのレンズの主点の位置の座標と、そのカメラの向きを表すベクトルの値)をデータとして記憶し、上記直線の方程式の係数を算出できるようにしても良い。   The spatial information setting unit 22 sets a voxel in a three-dimensional space for video shooting. The space in which the spatial information setting unit 22 sets voxels includes the imaging devices 14, 15, and 16 and also includes illumination (light source). Note that a voxel is a three-dimensional lattice unit composed of a minimum unit of length in each coordinate axis when the coordinate axis is set in a three-dimensional space. In this embodiment, a three-dimensional orthogonal coordinate system is used, and the units of lengths in these three coordinate axes are the same. The spatial information setting unit 22 sets voxels with a size that can sufficiently obtain a spatial resolution in the processing described below. In this voxel setting operation, the spatial information setting unit 22 specifically determines the directions of three orthogonal coordinate axes at the video shooting site, determines the origin of the coordinate system, and sets the unit length in the coordinate system. And the coordinates of the positions of the imaging devices 14, 15, and 16 in the coordinate system are grasped (for example, by external input). Then, for each of the two HDR cameras (reference numerals 81 and 82) included in each of the imaging devices 14, 15, and 16, the spatial information setting unit 22 includes a pixel on the imaging surface, a lens principal point of the camera from the pixel. Corresponds to all voxels ahead of the extended straight line. At this time, it is not always necessary to store all the coordinate values of the voxels corresponding to a certain pixel. For example, it is sufficient to store information for calculating the coordinate values of the voxel corresponding to a certain pixel. As an example, the spatial information setting unit 22 stores, for a certain pixel, coefficients of a linear equation connecting the pixel and the lens principal point. Alternatively, the optical characteristics of the camera (for example, information on the focal length or angle of view of the camera lens) and the installation status of the camera (the coordinates of the position of the principal point of the camera lens and the vector value representing the orientation of the camera) ) As data, and the coefficient of the linear equation may be calculated.

図3は、3次元空間内のボクセルと撮像装置のカメラとの関係を模式的に示した概略図である。同図に示す格子が、3次元空間内の多数のボクセルを示している。なお、実際のボクセルは3次元の立方体の形の空間であるが、同図上では射影して2次元の正方形として表わしている。また、同図におけるCam1,Cam2,Cam3は、それぞれ、撮像装置14,15,16が備えるHDRカメラのひとつ(HDRカメラ81またはHDRカメラ82のいずれか)である。同図では、各カメラの構成のうち、レンズの部分を模式的に図示している。そして、各カメラのレンズの主点から伸びる1組の直線は、カメラ内の撮像素子におけるひとつの画素に対応する、3次元空間内の部分を示している。この部分空間は、理屈の上では十分な長さ(高さ)を有する錐体の形状を有する。言い換えれば、カメラ内の撮像素子におけるひとつの画素に対応する空間は、そのカメラのレンズからの距離に応じて(つまり、遠ざかれば遠ざかるほど)、広がるものである。同図においては、HDRカメラCam1,Cam2,Cam3のそれぞれから伸びる部分空間(錐体形状)は、格子で示されているボクセルのうちの一つにおいて交わっている。つまり、3次元空間内のあるボクセルは、3つのHDRカメラのそれぞれにおけるある画素に対応している。そして、各HDRカメラにおける画素と3次元空間におけるボクセルとは、前述した通りに空間情報設定部22が設定した情報によって対応付けて求めることができる。   FIG. 3 is a schematic diagram schematically showing the relationship between the voxel in the three-dimensional space and the camera of the imaging device. The lattice shown in the figure shows a large number of voxels in a three-dimensional space. An actual voxel is a space in the form of a three-dimensional cube, but is projected and represented as a two-dimensional square in FIG. Also, Cam1, Cam2, and Cam3 in the figure are one of the HDR cameras (either the HDR camera 81 or the HDR camera 82) provided in the imaging devices 14, 15, and 16, respectively. In the figure, the lens portion is schematically shown in the configuration of each camera. A set of straight lines extending from the principal point of the lens of each camera indicates a portion in the three-dimensional space corresponding to one pixel in the image sensor in the camera. This partial space has the shape of a cone having a sufficient length (height) in theory. In other words, the space corresponding to one pixel in the image sensor in the camera expands in accordance with the distance from the lens of the camera (that is, the farther away it is). In the figure, the partial spaces (cone shapes) extending from the HDR cameras Cam1, Cam2, and Cam3 intersect at one of the voxels indicated by the lattice. That is, a certain voxel in the three-dimensional space corresponds to a certain pixel in each of the three HDR cameras. The pixels in each HDR camera and the voxels in the three-dimensional space can be obtained in association with the information set by the spatial information setting unit 22 as described above.

ここで、以下の処理において述べる輝度値および画素値に関するバリエーションについて説明する。撮像装置14,15,16が撮影する映像は、カラー映像である。その映像を基に、照明情報を取得する方法は、典型的には、次の3通りである。以下の処理では、これら3通りのいずれかを用いる。
(1)RGB(緑、青、赤)の三原色で表される色空間について、RGBのそれぞれについて以下で説明する処理を行い、RGBの各色について拡散反射成分用照明情報を取得する。
(2)RGB等で表される画像を、所定の計算式によってグレースケールの値に変換し、そのグレースケールの値を基に、拡散反射成分用照明情報を取得する。なお、カラーの画像をグレースケールの画像に変換するための式としては、既存技術によるものを用いる。なお、そのような式は何種類か存在するが、適切なものを選択して用いるようにする。
(3)輝度信号と色差信号とで表される色空間において、輝度を表す値のみについて、以下で説明する処理を行い、RGBの各色について、拡散反射成分用照明情報を取得する。輝度信号と色差信号とで表される色空間とは、例えば、YUVや、YCbCrや、YPbPrなどといった色空間である。
Here, variations regarding the luminance value and the pixel value described in the following processing will be described. Images taken by the imaging devices 14, 15, and 16 are color images. There are typically the following three methods for obtaining illumination information based on the video. Any of these three methods is used in the following processing.
(1) For the color space represented by the three primary colors of RGB (green, blue, red), the processing described below is performed for each of RGB, and illumination information for diffuse reflection components is acquired for each color of RGB.
(2) An image represented by RGB or the like is converted into a gray scale value by a predetermined calculation formula, and illumination information for diffuse reflection components is acquired based on the gray scale value. It should be noted that the formula for converting a color image into a grayscale image is based on an existing technique. There are several types of such expressions, but an appropriate one is selected and used.
(3) In the color space represented by the luminance signal and the color difference signal, the processing described below is performed only for the value representing the luminance, and the diffuse reflection component illumination information is acquired for each of the RGB colors. The color space represented by the luminance signal and the color difference signal is a color space such as YUV, YCbCr, or YPbPr, for example.

照明領域分離部23は、撮像装置14,15,16で得られた画像から、照明である部分を推定する。また、照明領域分離部23は、照明であると推定された部分を適切にグループ化する。そのために、照明領域分離部23は、次に述べる処理を行う。
即ち、照明領域分離部23は、3つの撮像装置14,15,16から得られる画像に基づいて、それら画像内の各画素のうち、照明であると見なし得る像の一部である画素を特定する。そして、照明領域分離部23は、照明であると見なされた画素に対応する上記の部分空間(錐体形状)に含まれるボクセルに対する投票を行う。具体的には、照明領域分離部23は、取得した映像のある1フレームに含まれる画素のうち、その画素に対応するボクセルの輝度値が所定の閾値Thを超えた場合に、閾値Thを超える輝度値を有するそれらのボクセルに1票ずつを投票していく。
The illumination region separation unit 23 estimates a portion that is illumination from the images obtained by the imaging devices 14, 15, and 16. Moreover, the illumination area separation unit 23 appropriately groups the parts estimated to be illumination. For this purpose, the illumination area separation unit 23 performs the following process.
In other words, the illumination area separation unit 23 identifies pixels that are part of an image that can be regarded as illumination among the pixels in the images based on the images obtained from the three imaging devices 14, 15, and 16. To do. Then, the illumination area separation unit 23 performs voting on the voxels included in the partial space (cone shape) corresponding to the pixel considered to be illumination. Specifically, the illumination region separation unit 23 exceeds the threshold Th when the luminance value of the voxel corresponding to the pixel included in one frame of the acquired video exceeds a predetermined threshold Th. Vote one vote for those voxels with luminance values.

ここで、画素に対応するボクセルの輝度値とは、撮像した画像のデータにおけるその画素の画素値から、そのHDRカメラが作動するときの特性である関数f(x)と、そのHDRカメラのレンズの主点から被写体までの距離に応じて求め得る値である。画像データにおける画素の画素値とボクセルの輝度値との関係は、次の式(1)で表される。   Here, the luminance value of the voxel corresponding to the pixel is a function f (x) that is a characteristic when the HDR camera operates from the pixel value of the pixel in the captured image data, and the lens of the HDR camera. This value can be obtained according to the distance from the principal point to the subject. The relationship between the pixel value of the pixel in the image data and the luminance value of the voxel is expressed by the following equation (1).

Figure 0006575999
Figure 0006575999

この式において、Lは、被写体(ボクセル)の輝度値である。また、rは、当該HDRカメラから被写体(ボクセル)までの距離である。また、f(x)は、HDRのカメラに入射する光の光量を入力とし、その光による画素値を出力する関数である。そして、Pは、画素の照度に比例した画素値(画素の画素信号の値、すなわち輝度の値)である。関数f(x)は、単調増加関数である。つまり、上の式(1)において、(L/r^2)の値が大きくなればなるほど、Pの値も大きくなる。つまり、距離rが変化しない条件下では、ボクセルの輝度Lの値が大きくなればなるほど画素の画素値Pは大きくなる。関数f(x)は、HDRカメラのレンズに入射する光量と画素値とを計測することによって事前に求めておくことができる関数であり、入射光量と画素値との関係を表す関数である。式(1)に基づいて画素の画素値Pから逆にボクセルの輝度値Lを求めるためには、照明領域分離部23は、次の式(2)による計算を行う。   In this equation, L is the luminance value of the subject (voxel). R is the distance from the HDR camera to the subject (voxel). Further, f (x) is a function that receives the amount of light incident on the HDR camera and outputs a pixel value of the light. P is a pixel value (a pixel signal value of the pixel, that is, a luminance value) proportional to the illuminance of the pixel. The function f (x) is a monotonically increasing function. That is, in the above equation (1), the value of P increases as the value of (L / r ^ 2) increases. That is, under the condition where the distance r does not change, the pixel value P of the pixel increases as the value of the luminance L of the voxel increases. The function f (x) is a function that can be obtained in advance by measuring the amount of light incident on the lens of the HDR camera and the pixel value, and is a function that represents the relationship between the amount of incident light and the pixel value. In order to obtain the voxel luminance value L from the pixel value P of the pixel on the basis of the equation (1), the illumination region separation unit 23 performs the calculation according to the following equation (2).

Figure 0006575999
Figure 0006575999

ここで関数f−1(x)は、f(x)の逆関数である。上と同様に、HDRカメラのレンズに入射する光量と画素値とを計測することによって、f−1(x)を事前に求めておく。 Here, the function f −1 (x) is an inverse function of f (x). Similarly to the above, f −1 (x) is obtained in advance by measuring the amount of light incident on the lens of the HDR camera and the pixel value.

前記の閾値Thの決め方の一例は、次の通りである。例えば、HDRカメラによる画素値を、0〜16777215とする。16777215は、2^24−1である。そして、通常のカメラ(LDRカメラ)による画素値に対応する範囲が、上記の0〜16777215のうちの256〜65535であるとする。65535は、2^16−1である。このような場合、例えば、(r^2)・f−1(65535)を、閾値Thとする。なお、ここに記した閾値の決め方は単に一例であり、他の閾値を適宜定めても良い。 An example of how to determine the threshold Th is as follows. For example, the pixel value obtained by the HDR camera is set to 0 to 16777215. 16777215 is 2 ^ 24-1. And the range corresponding to the pixel value by a normal camera (LDR camera) shall be 256-65535 of said 0-16777215. 65535 is 2 ^ 16-1. In such a case, for example, (r ^ 2) · f −1 (65535) is set as the threshold Th. Note that the method of determining the threshold values described here is merely an example, and other threshold values may be determined as appropriate.

照明領域分離部23は、3台の撮像装置14,15,16のそれぞれによる天球HDR画像のすべての画素についてボクセルへの投票の処理が完了した後に、投票結果の評価を行う。照明領域分離部23は、投票数が所定の閾値以上であるボクセルをボクセル集合vに属するものとして抽出する。撮像装置の台数が3であるため、ここでは、この投票数の閾値(以下において、「投票数閾値」と呼ぶ場合がある)を3とする。なお、1台の撮像装置(14,15,16のいずれか)から、あるボクセルへの投票数は最大で1であることを前提とする。そのために、単一の撮像装置内の複数の画素から同一のボクセルへの投票が生じるような計算結果となる場合に、投票時において、単一の撮像装置内からの投票数の上限を1に制約するような処理を行っても良い。
なお、ここでは投票数閾値を3としており、つまりすべての撮像装置によって投票されたボクセルを照明であると推定しているが、投票数閾値として3以外の値(撮像装置の代数以外の数値)を適宜定めるようにしても良い。
The illumination area separation unit 23 evaluates the voting result after the voting process to the voxel is completed for all the pixels of the celestial sphere HDR image by each of the three imaging devices 14, 15, and 16. The illumination area separation unit 23 extracts voxels having a vote count equal to or greater than a predetermined threshold as belonging to the voxel set v l . Since the number of imaging devices is 3, here, the threshold for the number of votes (hereinafter sometimes referred to as “voting number threshold”) is 3. It is assumed that the number of votes from a single imaging device (any one of 14, 15, 16) to a certain voxel is 1 at maximum. Therefore, when the calculation result is such that voting from the plurality of pixels in the single imaging device to the same voxel occurs, the upper limit of the number of votes from within the single imaging device is set to 1 at the time of voting. Processing that restricts may be performed.
Here, the vote threshold value is set to 3, that is, the voxels voted by all the imaging devices are estimated to be illumination, but the vote threshold value is a value other than 3 (a numerical value other than the algebra of the imaging device). May be determined as appropriate.

次に、照明領域分離部23は、ボクセル集合vに属するボクセルのグループ化を行う。具体的には、照明領域分離部23は、ボクセルv(v∈v)について、隣接するボクセルvもまた集合vの要素であるか否か、即ちv∈vであるか否かを判定する。v∈vであれば、ボクセルvとvとは同一のグループに属するものであると判定する。照明領域分離部23は、このような判定を、ボクセル集合vのすべての要素について行う。その結果、ボクセル集合vに属するボクセルがグループに分類される。そして、照明領域分離部23は、グループごとにユニークなインデックスをボクセル集合vに属する各ボクセルに付与する。なお、このようなボクセルのグループは、3次元空間における1つの照明(光源)に対応している可能性が高い。 Next, the illumination area separation unit 23 groups voxels belonging to the voxel set v l . Specifically, the illumination area division section 23, the voxel v s (v s ∈v l) , whether an element of an adjacent voxel v n also set v l, is namely v n ∈ V l It is determined whether or not. If v n ∈v l, it is determined that the voxels v s and v n belong to the same group. The illumination area separation unit 23 makes such a determination for all elements of the voxel set v l . As a result, the voxels belonging to the voxel set v l are classified into groups. Then, the illumination area separation unit 23 assigns a unique index to each voxel belonging to the voxel set v l for each group. It is highly likely that such a group of voxels corresponds to one illumination (light source) in a three-dimensional space.

つまり、照明領域分離部23は、取得した画像に含まれる画素の画素値に基づいて、3次元空間における照明の領域を特定する。照明の領域を特定するための処理は、まず、ボクセルを単位として前述の投票により行う。その結果、各ボクセルが照明の領域であるか否かが特定される。そして、照明領域分離部23は、照明の領域であると特定されたボクセル同士が隣接しあっている場合、その両者を、同一の照明に対応するグループに属するボクセルであるとしてグループ化する。その結果、連続するひとかたまりのボクセルのグループが、ひとつの照明の領域として特定される。
ここまでの処理で、各ボクセルが照明に属するか否かが推定され、照明に属するボクセルがグループ化された。次に、照明情報推定部24が、照明情報の推定を行う。
That is, the illumination area separation unit 23 specifies an illumination area in the three-dimensional space based on the pixel values of the pixels included in the acquired image. The process for specifying the illumination area is first performed by the above-mentioned voting in units of voxels. As a result, it is specified whether each voxel is an illumination area. Then, when the voxels identified as the illumination area are adjacent to each other, the illumination area separation unit 23 groups both as voxels belonging to a group corresponding to the same illumination. As a result, a group of consecutive voxels is identified as one illumination region.
In the process so far, it is estimated whether or not each voxel belongs to illumination, and the voxels belonging to illumination are grouped. Next, the illumination information estimation unit 24 estimates illumination information.

まず、照明情報推定部24は、ボクセルに対応する輝度値を付与する。本実施形態による照明情報推定部24は、同一グループに属する全ボクセルについて、そのボクセルへの投票を行った各HDRカメラ(撮像装置14,15,16)での画素の画素値に基づいて算出されるボクセルの輝度値をすべて平均して、その平均値を当該グループに属する各ボクセルの輝度値とする。つまり、同一グループに属するボクセルは、すべて同一の輝度値を有する。ここで照明情報推定部24は、各ボクセルに関連付ける形で、求めた輝度値を記憶させる。
なお、照明情報推定部24は、同一グループに属する全ボクセルについての輝度値を平均する代わりに、投票を行った各HDRカメラ(撮像装置14,15,16)での画素の画素値に基づいて算出される各々のボクセルの輝度値を平均して、その平均値をそのボクセルの輝度値としても良い。この場合も、照明情報推定部24は、各ボクセルに関連付ける形で、求めた輝度値を記憶させる。
First, the illumination information estimation unit 24 assigns a luminance value corresponding to the voxel. The illumination information estimation unit 24 according to the present embodiment is calculated based on the pixel values of the pixels in each HDR camera (imaging devices 14, 15, and 16) that voted for all voxels belonging to the same group. All the luminance values of the voxels are averaged, and the average value is set as the luminance value of each voxel belonging to the group. That is, all voxels belonging to the same group have the same luminance value. Here, the illumination information estimation unit 24 stores the obtained luminance value in association with each voxel.
In addition, the illumination information estimation part 24 is based on the pixel value of the pixel in each HDR camera (imaging device 14, 15, 16) which voted instead of averaging the luminance value about all the voxels which belong to the same group. The luminance values of the calculated voxels may be averaged, and the average value may be used as the luminance value of the voxel. Also in this case, the illumination information estimation unit 24 stores the obtained luminance value in a form associated with each voxel.

次に、照明情報推定部24は、各グループに属するボクセルのうちの、各HDRカメラのレンズの主点から見て手前側に位置するボクセルのみに、各HDRカメラを識別するためのラベルを付加する。
図4は、照明情報推定部24があるグループに属するボクセルのうちの一部のボクセルにHDRカメラに応じたラベルを付与する処理の概要を示す概略図である。同図に示す格子が、3次元空間内の多数のボクセルを示している。なお、実際のボクセルは3次元の立方体の形の空間であるが、同図上では射影して2次元の正方形として表わしている。また、同図におけるCam1,Cam2は、それぞれ、撮像装置14,15が備えるHDRカメラのひとつ(HDRカメラ81またはHDRカメラ82)である。なお、同図においては撮像装置16を省略して示している。同図に示すボクセルのうち、「○」印、数字の「1」または「2」、または英字の「B」と記したボクセルは、これら全体でひとつのグループを構成するものである。つまり、これらの文字または記号を記したボクセルは、単一のグループに属する。また、数字の「1」または英字の「B」と記したボクセルは、カメラCam1から見て、このグループにおいて最も手前に存在するボクセルである。照明情報推定部24は、これらのボクセルに、カメラCam1に対応するラベルを付与する。また、数字の「2」または英字の「B」と記したボクセルは、カメラCam2から見て、このグループにおいて最も手前に存在するボクセルである。照明情報推定部24は、これらのボクセルに、カメラCam2に対応するラベルを付与する。つまり、英字の「B」と記したボクセルは、カメラCam1から見てもカメラCam2から見ても、最も手前に存在するボクセルである。照明情報推定部24は、これらの英字の「B」と記したボクセルには、カメラCam1に対応するラベルとカメラCam2に対応するラベルの両方を付与する。そして、「○」印を記したボクセルは、当該グループに属するボクセルであるものの、カメラCam1から見てもカメラCam2から見ても、最も手前に存在するものではない。したがって、照明情報推定部24は、「○」印を記したボクセルに、カメラCam1に対応するラベルもカメラCam2に対応するラベルも付与しない。
Next, the illumination information estimation unit 24 adds a label for identifying each HDR camera only to the voxels located in front of the principal point of each HDR camera lens among the voxels belonging to each group. To do.
FIG. 4 is a schematic diagram showing an outline of processing for assigning a label corresponding to the HDR camera to some of the voxels belonging to a group with the illumination information estimation unit 24. The lattice shown in the figure shows a large number of voxels in a three-dimensional space. An actual voxel is a space in the form of a three-dimensional cube, but is projected and represented as a two-dimensional square in FIG. Also, Cam1 and Cam2 in the figure are one of the HDR cameras (HDR camera 81 or HDR camera 82) provided in the imaging devices 14 and 15, respectively. In the figure, the imaging device 16 is omitted. Of the voxels shown in the figure, the voxels marked with “◯”, the numbers “1” or “2”, or the alphabet “B” constitute one group as a whole. That is, voxels with these characters or symbols belong to a single group. Further, the voxel indicated by the numeral “1” or the alphabetic character “B” is the voxel existing in the foreground in this group as viewed from the camera Cam1. The illumination information estimation unit 24 assigns a label corresponding to the camera Cam1 to these voxels. Further, the voxel indicated by the numeral “2” or the alphabetic character “B” is the voxel existing in the foreground in this group when viewed from the camera Cam2. The illumination information estimation unit 24 assigns a label corresponding to the camera Cam2 to these voxels. That is, the voxel indicated by the letter “B” is the voxel that is present in the foreground, as viewed from the camera Cam1 and from the camera Cam2. The illumination information estimation unit 24 assigns both a label corresponding to the camera Cam1 and a label corresponding to the camera Cam2 to the voxels indicated by the letter “B”. A voxel marked with “◯” is a voxel belonging to the group, but is not present at the forefront when viewed from the camera Cam1 or the camera Cam2. Therefore, the illumination information estimation unit 24 does not assign a label corresponding to the camera Cam1 or a label corresponding to the camera Cam2 to the voxel marked with “◯”.

次に、照明情報推定部24は、各グループの各ラベル(撮像装置14,15,16に対応したラベル)ごとに、下記の属性値を求める。その属性値とは、(A)重心位置と、(B)平均輝度値と、(C)グループのサイズ(ボクセル数)である。つまり、照明情報推定部24は、各グループ(このグループは、前述の通り、一つの照明(光源)であると推定されている)の各ラベル(このラベルは、前記(推定されている)照明を見るHDRカメラに対応する)の、これら属性値を、拡散反射成分用照明情報として推定する。   Next, the illumination information estimation part 24 calculates | requires the following attribute value for every label (label corresponding to the imaging device 14,15,16) of each group. The attribute values are (A) barycentric position, (B) average luminance value, and (C) group size (number of voxels). In other words, the illumination information estimation unit 24 determines each label (this label is the (estimated) illumination of each group (this group is estimated to be one illumination (light source) as described above)). These attribute values are estimated as the diffuse reflection component illumination information.

(A)の重心位置は、当該グループに属するボクセルであって、且つ特定のラベルが付与された(つまり、特定のカメラから見て最も手前にある)ボクセルの集合の、3次元座標での重心位置である。なお、この重心を求める際、当該集合に属するボクセルの重みをすべて同一として求めても良く、またボクセルごとに異なる輝度値が付与されている場合にはその輝度値を重みとして求めても良い。この重心位置は、当該グループを代表する位置である。したがって、この重心位置を「代表位置」と呼ぶ場合がある。代表位置が、必ずしも重心位置である必要はないが、重心位置を代表位置とすることは後の処理においても望ましい。
(B)の平均輝度値は、当該グループに属するボクセルであって、且つ特定のラベルが付与されたボクセルの集合の、平均輝度値である。なお、各ボクセルに対して照明情報推定部24が付与した輝度値に基づいて、この平均輝度値を計算する。
(C)のボクセル数は、当該グループに属するボクセルであって、且つ特定のラベルが付与されたボクセルの数である。このボクセル数は、当該グループの大きさに対応する値である。
The center-of-gravity position in (A) is the center of gravity of a set of voxels that belong to the group and have a specific label (that is, closest to the specific camera) in three-dimensional coordinates. Position. When obtaining the center of gravity, the weights of the voxels belonging to the set may be obtained as the same weight, or when different brightness values are assigned to the voxels, the brightness values may be obtained as weights. This barycentric position is a position representing the group. Therefore, this barycentric position may be referred to as a “representative position”. Although the representative position does not necessarily need to be the center of gravity position, it is desirable to set the center of gravity position as the representative position in the subsequent processing.
The average luminance value in (B) is an average luminance value of a set of voxels that belong to the group and are assigned a specific label. The average luminance value is calculated based on the luminance value given by the illumination information estimation unit 24 to each voxel.
The number of voxels in (C) is the number of voxels belonging to the group and given a specific label. The number of voxels is a value corresponding to the size of the group.

なお、上記(C)のボクセル数の代わりに、別の方法によってグループのサイズを求めても良い。
図5は、ボクセル数以外の方法によってグループのサイズを求める方法の概要を示す概略図である。図5に示す格子は、図4に示した格子と同様のものである。また、図5に示すカメラCam1の位置は、図4に示したカメラCam1の位置と同じである。また、図5では、カメラCam2を省略している。また、図5では、図4において示していたボクセルのうち、数字の「1」または英字の「B」が記されたボクセルのみについてそれらの文字を残し、数字の「2」や「○」印を示していたボクセルについては何も記していない。つまり、当該グループに属するボクセルのうち、カメラCam1から見て最も手前に存在するボクセルのみに「1」または「B」の文字を記したものが、この図5である。そして、図5において、点Cは、「1」または「B」の文字を記したボクセルの重心の位置である。そして、平面P(同図においては射影しているため直線P)は、カメラCam1と重心Cとを結ぶ直線に垂直な平面であって、且つ重心Cを通るものである。また、この平面Pにおいて、点P1から点P2までの範囲は、「1」または「B]を記したボクセルの集合を平面P上に平行投影して得られる平面像である。そして、本方法では、カメラCam1がこの平面像(P1からP2までの範囲で示されて、図5において奥行きを持つ像)を撮影した画像における、当該平面像が占める画素数を、当該グループのサイズの値とする。
Note that the size of the group may be obtained by another method instead of the number of voxels in (C) above.
FIG. 5 is a schematic diagram showing an outline of a method for obtaining a group size by a method other than the number of voxels. The lattice shown in FIG. 5 is the same as the lattice shown in FIG. Further, the position of the camera Cam1 shown in FIG. 5 is the same as the position of the camera Cam1 shown in FIG. In FIG. 5, the camera Cam2 is omitted. Further, in FIG. 5, among the voxels shown in FIG. 4, only the voxels with the numeral “1” or the alphabet “B” are left, and the numerals “2” and “O” are marked. There is nothing written about the voxels that showed. That is, FIG. 5 shows a case in which the letter “1” or “B” is written only in the voxel existing closest to the camera Cam1 among the voxels belonging to the group. In FIG. 5, point C is the position of the center of gravity of the voxel in which the characters “1” or “B” are marked. A plane P (a straight line P because it is projected in the figure) is a plane perpendicular to a straight line connecting the camera Cam1 and the center of gravity C and passes through the center of gravity C. Further, in this plane P, the range from the point P1 to the point P2 is a plane image obtained by parallel projecting a set of voxels marked “1” or “B” on the plane P. And this method Then, the number of pixels occupied by the planar image in the image obtained by photographing the planar image (the image shown in the range from P1 to P2 and having the depth in FIG. 5) by the camera Cam1 is the size value of the group. To do.

照明情報推定部24は、グループごと且つカメララベルごとに上で求めた、(A)重心位置と、(B)平均輝度値と、(C)グループのサイズとを、拡散反射成分用照明情報として出力する。
つまり、拡散反射成分用照明情報の主キーは、グループのインデックスとカメラのラベルを組み合わせた複合キーである。そして、グループのインデックスとカメラのラベルの組み合わせに対する属性値が、上記の(A)重心位置と、(B)平均輝度値と、(C)グループのサイズである。
The illumination information estimation unit 24 uses (A) the position of the center of gravity, (B) the average luminance value, and (C) the size of the group, obtained as above for each group and each camera label, as the diffuse reflection component illumination information. Output.
That is, the primary key of the diffuse reflection component illumination information is a composite key in which the group index and the camera label are combined. The attribute values for the combination of the group index and the camera label are (A) the barycentric position, (B) the average luminance value, and (C) the size of the group.

以上説明した拡散反射成分用照明情報の取得処理の手順をまとめると次の通りである。
図6は、拡散反射成分用照明情報を取得する処理の手順を示すフローチャートである。このフローチャートは、撮像装置14,15,16が撮影する映像の1フレーム期間分に対応する処理を示す。つまり、照明情報取得装置1は、フレーム期間ごとにこのフローチャートの処理を繰り返す。以下、フローチャートに沿って処理手順を説明する。
The procedure for acquiring the diffuse reflection component illumination information described above is summarized as follows.
FIG. 6 is a flowchart illustrating a procedure of processing for acquiring the diffuse reflection component illumination information. This flowchart shows processing corresponding to one frame period of the video imaged by the imaging devices 14, 15 and 16. That is, the illumination information acquisition apparatus 1 repeats the process of this flowchart for every frame period. Hereinafter, the processing procedure will be described along the flowchart.

まずステップS11において、照明領域分離部23は、撮像装置が備えるカメラの各画素の画素値に基づいて、輝度値が閾値を超えるボクセルへの投票を行う。次にステップS12において、照明領域分離部23は、前ステップにおいて行われた投票の結果を評価する。即ち、照明領域分離部23は、各ボクセルが照明に属するボクセルであるか否かを判断(推定)する。次にステップS13において、照明領域分離部23は、照明であると推定されたボクセルをグループ化し、各グループにインデックスを付与する。具体的には、本ステップにおいて照明領域分離部23は、照明であると推定されたボクセル同士が隣接している場合には、それらのボクセルが同一のグループに属するものであると判定する。   First, in step S <b> 11, the illumination area separation unit 23 performs voting for voxels whose luminance values exceed a threshold value based on the pixel values of the pixels of the camera included in the imaging device. Next, in step S12, the illumination area separation unit 23 evaluates the result of the vote performed in the previous step. That is, the illumination area separation unit 23 determines (estimates) whether each voxel is a voxel belonging to illumination. Next, in step S13, the illumination region separation unit 23 groups the voxels estimated to be illumination, and assigns an index to each group. Specifically, in this step, when the voxels estimated to be illumination are adjacent to each other, the illumination region separation unit 23 determines that these voxels belong to the same group.

次にステップS14において、照明情報推定部24が、ボクセルの輝度値を求める。次にステップS15において、照明情報推定部24は、各カメラからの照明(つまり、照明であると推定されたボクセルが属するそれぞれのグループ)の見え方に応じて、ボクセルに対して、カメラのラベルを付与する。次にステップS16において、照明情報推定部24は、各グループの属性値を計算する。この各グループの推定値が、本実施形態で取得する拡散反射成分用照明情報である。次にステップS17において、照明情報推定部24は、計算によって求められた拡散反射成分用照明情報を出力する。   Next, in step S14, the illumination information estimation unit 24 calculates the luminance value of the voxel. Next, in step S15, the illumination information estimation unit 24 applies the camera label to the voxel according to the appearance of the illumination from each camera (that is, each group to which the voxel estimated to be illumination belongs). Is granted. Next, in step S16, the illumination information estimation unit 24 calculates the attribute value of each group. The estimated value of each group is the diffuse reflection component illumination information acquired in the present embodiment. Next, in step S <b> 17, the illumination information estimation unit 24 outputs the diffuse reflection component illumination information obtained by calculation.

(2)鏡面反射成分用照明情報の取得
次に、鏡面反射成分用照明情報の取得方法について説明する。
LDR画像分離部41は、映像取得部21が取得した各撮像装置に対応する3枚の全天球HDR画像から、低ダイナミックレンジ(LDR)画像を抽出する。このとき、LDR画像分離部41は、カメラ特性を除外した画素値によるLDR画像を抽出するため、HDR画像における各画素値に、前述の関数f−1(x)を適用する。そして、LDR画像分離部41は、関数f−1(x)を適用した結果の値がLDR画像として表せる範囲を超える画素については、飽和したものとして処理する。なお、LDR画像の抽出に関する以下の説明において、画素値は、関数f−1(x)を適用した後の値である。
(2) Acquisition of Specular Reflection Component Illumination Information Next, a method for acquiring specular reflection component illumination information will be described.
The LDR image separation unit 41 extracts a low dynamic range (LDR) image from the three omnidirectional HDR images corresponding to each imaging device acquired by the video acquisition unit 21. At this time, the LDR image separation unit 41 applies the above-described function f −1 (x) to each pixel value in the HDR image in order to extract an LDR image with pixel values excluding the camera characteristics. Then, the LDR image separation unit 41 processes a pixel whose value as a result of applying the function f −1 (x) exceeds the range that can be represented as an LDR image as saturated. In the following description regarding extraction of an LDR image, the pixel value is a value after applying the function f −1 (x).

例えば、HDRカメラによる画素値の範囲が0〜16777215であって、LDRカメラによって飽和せずに撮影できる範囲が上記範囲0〜16777215のうちの256〜65535である場合、LDR画像分離部41は、次の処理を行う。即ち、HDRカメラにおける画素値が0〜255である画素については、LDR画像分離部41は、HDRカメラにおける画素値が256であるものとしてその画素を処理する。また、HDRカメラにおける画素値が65536〜16777215である画素については、LDR画像分離部41は、HDRカメラにおける画素値が65535であるものとしてその画素を処理する。HDRカメラおよびLDRカメラの画素値の範囲がここに挙げた例と異なる場合も同様に、LDR画像分離部41は、HDR画像としては表現できるがLDR画像として表現しきれない階調の情報を、カットする。また、LDR画像分離部41は、必要に応じて階調の量子化の幅を適宜調整して、LDR画像を生成する。   For example, when the range of pixel values by the HDR camera is 0 to 16777215 and the range that can be captured without being saturated by the LDR camera is 256 to 65535 of the above range 0 to 16777215, the LDR image separation unit 41 Perform the following process. That is, for a pixel whose pixel value is 0 to 255 in the HDR camera, the LDR image separation unit 41 processes the pixel as if the pixel value in the HDR camera is 256. In addition, regarding the pixels having pixel values of 65536 to 16777215 in the HDR camera, the LDR image separation unit 41 processes the pixels assuming that the pixel value of the HDR camera is 65535. Similarly, when the range of pixel values of the HDR camera and the LDR camera is different from the example given here, the LDR image separation unit 41 can also express gradation information that can be expressed as an HDR image but cannot be expressed as an LDR image. Cut. Also, the LDR image separation unit 41 appropriately adjusts the gradation quantization width as necessary to generate an LDR image.

LDR画像分離部41は、撮像装置14,15,16によって撮影された各全天球画像の各フレームについて上記の処理を行うことによって、各撮像装置に対応した全天球LDR画像を出力する。この全天球LDR画像が、鏡面反射成分用照明情報である。   The LDR image separation unit 41 outputs the omnidirectional LDR image corresponding to each imaging device by performing the above processing on each frame of each omnidirectional image captured by the imaging devices 14, 15, and 16. This omnidirectional LDR image is illumination information for specular reflection components.

圧縮部50は、上記の方法で得られた拡散反射成分用照明情報および鏡面反射成分用照明情報を圧縮・符号化する。圧縮部50は、拡散反射成分用照明情報と鏡面反射成分用照明情報とを、それぞれに応じた方法で圧縮する。具体的には、圧縮部50は、拡散反射成分用照明情報については、必ず可逆圧縮を行う。また、鏡面反射成分用照明情報については、可逆圧縮を行っても非可逆圧縮を行っても良い。圧縮部50は、照明情報推定部24によって出力された拡散反射成分用照明情報の情報圧縮を行うときには、例えば、LZSS符号化を用いる。なお、LZSS符号化自体は既存の技術により実現できる処理である。また、圧縮部50は、LDR画像分離部41によって出力された鏡面反射成分用照明情報の情報圧縮を行うときには、例えば、JPEG(Joint Photographic Experts Group)による圧縮処理を行う。
また圧縮部50が、例えば、H.264などの動画符号化方式によって鏡面反射成分用照明情報を動画として符号化するとともに、そのメタデータとして拡散反射成分用照明情報を埋め込むなど、両者を併せて圧縮・符号化することも可能である。
The compression unit 50 compresses and encodes the diffuse reflection component illumination information and the specular reflection component illumination information obtained by the above method. The compression unit 50 compresses the diffuse reflection component illumination information and the specular reflection component illumination information by a method corresponding to each. Specifically, the compression unit 50 always performs lossless compression on the diffuse reflection component illumination information. Further, the specular reflection component illumination information may be reversibly compressed or irreversibly compressed. The compression unit 50 uses, for example, LZSS encoding when performing information compression of the diffuse reflection component illumination information output by the illumination information estimation unit 24. Note that LZSS encoding itself is a process that can be realized by existing technology. In addition, the compression unit 50 performs compression processing by, for example, JPEG (Joint Photographic Experts Group) when performing information compression of the specular reflection component illumination information output by the LDR image separation unit 41.
Further, the compression unit 50 is, for example, H.264. The specular reflection component illumination information is encoded as a moving image by a moving image encoding method such as H.264, and the diffuse reflection component illumination information is embedded as metadata, and both can be compressed and encoded together. .

圧縮部50において圧縮・符号化された照明情報は、CGレンダリングの処理で使用するために、記録媒体に蓄積されるか、あるいは外部の装置に伝送される。
蓄積部52は、磁気記録媒体によって情報を記憶するハードディスクドライブあるいは半導体メモリを用いたSSD(ソリッド・ステート・ドライブ)を内部に備え、圧縮部50から出力される照明情報を逐次記憶する。
伝送部53は、通信手段を備えており、圧縮部50から出力される照明情報を外部の装置に送信する。
蓄積部52に蓄積されたり、あるいは伝送部53によって伝送されたりした照明情報は、後述する照明復元装置等によって使用される。照明復元装置は、取得した照明情報を用いて、映像を撮影したときの照明の状況に自然にマッチするCGのレンダリングを行う。
The illumination information compressed and encoded by the compression unit 50 is stored in a recording medium or transmitted to an external device for use in CG rendering processing.
The storage unit 52 includes a hard disk drive that stores information using a magnetic recording medium or an SSD (solid state drive) using a semiconductor memory, and sequentially stores illumination information output from the compression unit 50.
The transmission unit 53 includes a communication unit, and transmits illumination information output from the compression unit 50 to an external device.
The illumination information accumulated in the accumulation unit 52 or transmitted by the transmission unit 53 is used by an illumination restoration device or the like described later. The lighting restoration device uses the acquired lighting information to perform rendering of CG that naturally matches the lighting situation when the video is shot.

図7は、照明情報を利用して照明の状況を復元する照明復元装置、およびCGとカメラ映像(実写映像)とを合成する合成装置の概略機能構成を示すブロック図である。図示するように、照明復元装置3は、照明情報取得部71と、復号部72と、拡散反射成分用照明情報抽出部75と、拡散反射成分CG描画部76と、LDR画像抽出部78と、内挿画像生成部79(輝度情報補填部)と、鏡面反射成分CG描画部80(鏡面反射成分描画部)と、カメラパラメーター供給部85と、加算部86と、を含んで構成される。また、合成装置5は、カメラ映像入力部87と、映像合成部88と、を含んで構成される。   FIG. 7 is a block diagram illustrating a schematic functional configuration of an illumination restoration device that restores the illumination status using illumination information, and a synthesis device that synthesizes a CG and a camera video (actual video). As illustrated, the illumination restoration device 3 includes an illumination information acquisition unit 71, a decoding unit 72, a diffuse reflection component illumination information extraction unit 75, a diffuse reflection component CG drawing unit 76, an LDR image extraction unit 78, An interpolation image generation unit 79 (luminance information compensation unit), a specular reflection component CG drawing unit 80 (specular reflection component drawing unit), a camera parameter supply unit 85, and an addition unit 86 are included. The synthesizing device 5 includes a camera video input unit 87 and a video synthesizing unit 88.

照明復元装置3は、別途用意されるCGのオブジェクトのデータに基づき、3次元のCG空間にそのオブジェクトをレンダリングする。このとき、照明復元装置3は、拡散反射成分と鏡面反射成分の成分ごとに、前述の照明情報を利用しながらCGのレンダリングを行う。以下に、各部の機能を説明する。   The illumination restoration device 3 renders the object in a three-dimensional CG space based on the data of the CG object prepared separately. At this time, the illumination restoration device 3 performs CG rendering using the above-described illumination information for each of the diffuse reflection component and the specular reflection component. The function of each part will be described below.

照明情報取得部71は、照明情報取得装置1から照明情報(拡散反射成分用および鏡面反射成分用)を取得する。具体的には、照明情報取得部71は、照明情報取得装置1の蓄積部52において記録媒体等に蓄積された照明情報を読み取るか、あるいは照明情報取得装置の伝送部53から送信される照明情報を受信する。伝送部53から送信される照明情報を受信する場合、照明情報取得部71は、上記の伝送部53との間で通信を行うための通信機能を備える。なお、照明情報取得部71が取得する照明情報は、照明情報取得装置1の圧縮部50によって圧縮・符号化された情報である。   The illumination information acquisition unit 71 acquires illumination information (for diffuse reflection component and specular reflection component) from the illumination information acquisition device 1. Specifically, the illumination information acquisition unit 71 reads the illumination information stored in the recording medium or the like in the storage unit 52 of the illumination information acquisition device 1 or is transmitted from the transmission unit 53 of the illumination information acquisition device. Receive. When receiving the illumination information transmitted from the transmission unit 53, the illumination information acquisition unit 71 has a communication function for performing communication with the transmission unit 53. The illumination information acquired by the illumination information acquisition unit 71 is information compressed and encoded by the compression unit 50 of the illumination information acquisition device 1.

復号部72は、照明情報取得部71が取得した照明情報を復号する。これにより、復号部72は、圧縮されていた照明情報を伸長する。   The decoding unit 72 decodes the illumination information acquired by the illumination information acquisition unit 71. Thereby, the decoding unit 72 expands the compressed illumination information.

(1)拡散反射成分画像
拡散反射成分用照明情報抽出部75は、復号部72が復号した照明情報から、拡散反射成分用照明情報を取り出す。
(1) Diffuse reflection component image The diffuse reflection component illumination information extraction unit 75 extracts the diffuse reflection component illumination information from the illumination information decoded by the decoding unit 72.

拡散反射成分CG描画部76は、拡散反射成分に関してCGのレンダリング(描画)を行い、拡散反射成分画像を出力する。拡散反射成分CG描画部76は、拡散反射成分用照明情報抽出部75が取り出した照明情報に基づいて、CGの3次元空間内の、元の3次元空間(照明情報取得装置1が照明情報を取得した3次元空間)と同じ位置に、点光源または面光源を配置する。なお、レンダリングの処理自体は、既存の技術を用いて行う。   The diffuse reflection component CG drawing unit 76 performs CG rendering (drawing) on the diffuse reflection component, and outputs a diffuse reflection component image. Based on the illumination information extracted by the diffuse reflection component illumination information extraction unit 75, the diffuse reflection component CG drawing unit 76 generates the original three-dimensional space (the illumination information acquisition device 1 obtains the illumination information) in the three-dimensional space of the CG. A point light source or a surface light source is arranged at the same position as the acquired three-dimensional space. The rendering process itself is performed using existing technology.

点光源として照明を配置する場合には、拡散反射成分CG描画部76は、各照明(前述のボクセルのグループ)の重心位置を点光源の位置とする。また、拡散反射成分CG描画部76は、その照明(そのグループ)の平均輝度値にそのグループのボクセル数を乗じた値をその点光源の明るさとする。
一方、面光源として照明を配置する場合には、拡散反射成分CG描画部76は、各照明の重心位置を中心とした球を、面光源として設定する。このとき、拡散反射成分CG描画部76は、照明情報から得られる(C)グループのサイズ(例えば、ボクセル数)に基づいて、その光源である球の半径を設定する。その半径は、照明情報に含まれているグループのサイズに基づいて、下の式(3)によって計算される。
When the illumination is arranged as a point light source, the diffuse reflection component CG drawing unit 76 sets the position of the center of gravity of each illumination (the group of voxels described above) as the position of the point light source. Further, the diffuse reflection component CG rendering unit 76 sets the brightness of the point light source to a value obtained by multiplying the average luminance value of the illumination (the group) by the number of voxels of the group.
On the other hand, when the illumination is arranged as a surface light source, the diffuse reflection component CG drawing unit 76 sets a sphere centered on the center of gravity of each illumination as the surface light source. At this time, the diffuse reflection component CG drawing unit 76 sets the radius of the sphere that is the light source based on the size (for example, the number of voxels) of the (C) group obtained from the illumination information. The radius is calculated by the following equation (3) based on the size of the group included in the illumination information.

Figure 0006575999
Figure 0006575999

この式において、Sは、グループのサイズを表す値であり、ボクセル数である。グループのサイズがボクセル数で表される場合、当該グループに関して、3つのカメラそれぞれによるボクセル数の平均値を取り、その平均値をSとする。また、πは円周率である。そして、rは、設定すべき面光源の半径である。rの単位は、ボクセルの一辺の長さである。なお、グループのサイズがボクセル数で表されていない場合にも、適切な方法で上記の球の半径を求める。   In this equation, S is a value representing the size of the group and is the number of voxels. When the size of the group is expressed by the number of voxels, the average value of the number of voxels by each of the three cameras is taken for the group, and the average value is S. Further, π is a circumference ratio. R is the radius of the surface light source to be set. The unit of r is the length of one side of the voxel. Even when the group size is not represented by the number of voxels, the radius of the sphere is obtained by an appropriate method.

拡散反射成分CG描画部76は、上記のように設定される照明の拡散反射成分を用いて、CGオブジェクトの拡散反射成分のみをレンダリングし、その結果を拡散反射成分画像として出力する。   The diffuse reflection component CG rendering unit 76 renders only the diffuse reflection component of the CG object using the diffuse reflection component of illumination set as described above, and outputs the result as a diffuse reflection component image.

(2)鏡面反射成分画像
LDR画像抽出部78は、復号部72が復号した照明情報から、LDR画像(鏡面反射成分用照明情報)を取り出す。前述の通り、このLDR画像は、各撮像装置に対応するものであり、またフレーム期間ごとの画像である。
(2) Specular Reflection Component Image The LDR image extraction unit 78 extracts an LDR image (specular reflection component illumination information) from the illumination information decoded by the decoding unit 72. As described above, this LDR image corresponds to each imaging device and is an image for each frame period.

内挿画像生成部79は、3台のカメラによってそれぞれ撮影されたLDR画像を基に、EPI(Epipolar-Plane Image,エピポーラ平面画像)解析を行うことにより、元の3次元空間の環境を復元する。なお、EPI解析自体は既存の技術である。そして、内挿画像生成部79は、レンダリングの対象とするCGモデルの重心位置を求め、3枚のLDR画像(全天球画像)に基づく内挿処理によって、その重心位置における全天球画像を生成する。この内挿処理自体は、既存の技術(View Morphing等)を用いて行うことができる。この技術による画像の内挿処理は、異なる位置に置かれた複数のカメラによって撮影した画像を基に、幾何学的な処理により、任意の位置に置かれた仮想的なカメラによって撮影されるはずの画像を生成するものである。   The interpolated image generation unit 79 restores the original three-dimensional space environment by performing EPI (Epipolar-Plane Image) analysis based on the LDR images captured by the three cameras. . The EPI analysis itself is an existing technology. Then, the interpolated image generation unit 79 obtains the centroid position of the CG model to be rendered, and obtains the omnidirectional image at the centroid position by interpolation processing based on the three LDR images (omnidirectional images). Generate. This interpolation process itself can be performed using an existing technique (such as View Morphing). Image interpolation processing using this technique should be taken by a virtual camera placed at an arbitrary position by geometric processing based on images taken by multiple cameras placed at different positions. The image is generated.

また、内挿画像生成部79は、上の内挿処理によって生成された画像において輝度が飽和している領域に関して、拡散反射成分用照明情報を用いて、輝度情報を補填する処理を行う。具体的には、内挿画像生成部79は、拡散反射成分用照明情報を取得し、この拡散反射成分用照明情報に基づき、光源の重心位置を中心点としてガウス分布となるような輝度分布を生成する。そして、内挿画像生成部79は、飽和領域の輝度分布を切削したうえで、トータルで平均輝度に画素数を乗じた値に整合するように輝度分布をスケーリングし、それで得られた輝度分布を飽和領域にはめ込む処理を行う。つまり、内挿画像生成部79は、所定のダイナミックレンジの低ダイナミックレンジ画像を鏡面反射成分用照明情報として取得するとともに、低ダイナミックレンジ画像よりも相対的に高いダイナミックレンジの高ダイナミックレンジ画像に基づいて推定された3次元空間内における照明の領域についての代表位置と輝度とサイズとの情報を拡散反射成分用照明情報として取得し、低ダイナミックレンジ画像内において輝度が飽和している部分について、当該部分に対応する代表位置を有する拡散反射成分用照明情報に含まれる前記輝度と前記サイズとの情報に基づいて、疑似的に輝度を復元する処理を行う。
式(1)で説明したように、関数f(x)は単調増加関数である。つまり、照明からカメラまでの距離が変化しないという条件下では、画像データにおける画素の画素値の増減と被写体の輝度の増減とは単調な関係にある。したがって、ここで内挿画像生成部79が行っている輝度情報の補填処理は、照明と推定される被写体の輝度情報を補填する処理である。つまり、内挿画像生成部79は、照明の輝度情報を補填(疑似的に復元)する機能を備えている。
In addition, the interpolated image generation unit 79 performs a process of supplementing the luminance information using the diffuse reflection component illumination information with respect to an area where the luminance is saturated in the image generated by the above interpolation process. Specifically, the interpolated image generation unit 79 acquires the diffuse reflection component illumination information, and based on the diffuse reflection component illumination information, obtains a luminance distribution that has a Gaussian distribution with the center of gravity of the light source as the center point. Generate. Then, the interpolated image generation unit 79 cuts the luminance distribution in the saturated region, then scales the luminance distribution to match the value obtained by multiplying the average luminance by the number of pixels, and obtains the luminance distribution obtained thereby. A process of fitting into the saturation region is performed. That is, the interpolated image generation unit 79 acquires a low dynamic range image having a predetermined dynamic range as specular reflection component illumination information, and based on a high dynamic range image having a relatively higher dynamic range than the low dynamic range image. Information on the representative position, luminance, and size of the illumination area in the estimated three-dimensional space is acquired as diffuse reflection component illumination information, and the portion where the luminance is saturated in the low dynamic range image Based on the information on the luminance and the size included in the diffuse reflection component illumination information having a representative position corresponding to the portion, a process of restoring the luminance in a pseudo manner is performed.
As described in Expression (1), the function f (x) is a monotonically increasing function. That is, under the condition that the distance from the illumination to the camera does not change, the increase / decrease of the pixel value of the pixel in the image data and the increase / decrease of the luminance of the subject have a monotonous relationship. Therefore, the luminance information compensation processing performed by the interpolated image generation unit 79 here is processing for compensating luminance information of the subject estimated to be illumination. That is, the interpolated image generation unit 79 has a function of supplementing (pseudo-reconstructing) illumination luminance information.

内挿画像生成部79のこの処理により、鏡面反射成分用照明情報としてLDR画像を用いたために欠落した飽和領域の輝度情報を、疑似的に復元させる。したがって、単に飽和領域を飽和させたままのLDR画像を用いた場合に比べて、より自然な鏡面反射成分画像を生成することができる。   By this processing of the interpolated image generating unit 79, the luminance information of the saturated region that is missing because the LDR image is used as the specular reflection component illumination information is restored in a pseudo manner. Therefore, a more natural specular reflection component image can be generated as compared with a case where an LDR image in which the saturated region is simply saturated is used.

鏡面反射成分CG描画部80は、鏡面反射成分に関してCGのレンダリング(描画)を行う。具体的には、鏡面反射成分CG描画部80は、上記のLDR画像抽出部78および内挿画像生成部79による処理によって得られた鏡面反射成分用をグローバルイルミネーションとして用いて、CGオブジェクトの鏡面反射成分のみをレンダリングする。つまり、鏡面反射成分CG描画部80は、内挿画像生成部79によって輝度が復元された鏡面反射成分用照明情報を用いて、コンピューターグラフィクスによる鏡面反射成分の描画を行う。   The specular reflection component CG drawing unit 80 performs CG rendering (drawing) on the specular reflection component. Specifically, the specular reflection component CG rendering unit 80 uses the specular reflection component obtained by the processing by the LDR image extraction unit 78 and the interpolated image generation unit 79 as a global illumination, and uses the specular reflection of the CG object. Render only the components. That is, the specular reflection component CG drawing unit 80 draws the specular reflection component by computer graphics using the specular reflection component illumination information whose luminance is restored by the interpolated image generation unit 79.

カメラパラメーター供給部85は、映像用カメラに関するパラメーターを取得するとともに、それらのパラメーターを、レンダリング処理を行う拡散反射成分CG描画部76および鏡面反射成分CG描画部80に供給する。この映像用カメラとは、図1には図示されないカメラであり、映像を撮影するものである。この映像用カメラで撮影された映像自体は、合成装置5のカメラ映像入力部87に入力される。ここで、カメラパラメーターとは、前述の3次元空間におけるカメラの位置、カメラの姿勢(前述の3次元空間の座標系におけるパン角度やチルト角度など)、レンズ情報(画角情報など)である。これらのパラメーターは、映像を撮影している環境において把握され、図示しない伝送経路でカメラパラメーター供給部85に対して伝送されてくるものである。複数の映像用カメラが使用され、各映像用カメラで撮影された映像が切り替えて使用される場合、カメラパラメーター供給部85は、それら各々の映像用カメラに関するカメラパラメーターを取得するとともに、切り替え(スイッチング)の情報も取得する。   The camera parameter supply unit 85 acquires parameters relating to the video camera and supplies the parameters to the diffuse reflection component CG drawing unit 76 and the specular reflection component CG drawing unit 80 that perform the rendering process. This video camera is a camera (not shown in FIG. 1) and takes a video. The video itself shot by this video camera is input to the camera video input unit 87 of the synthesizer 5. Here, the camera parameters are the position of the camera in the aforementioned three-dimensional space, the posture of the camera (such as the pan angle and tilt angle in the coordinate system of the aforementioned three-dimensional space), and lens information (such as field angle information). These parameters are grasped in the environment where the video is shot, and transmitted to the camera parameter supply unit 85 through a transmission path (not shown). When a plurality of video cameras are used and videos shot by each video camera are switched and used, the camera parameter supply unit 85 acquires camera parameters related to each of the video cameras and performs switching (switching). ) Information.

加算部86は、拡散反射成分CG描画部76によって描画されたCGと、鏡面反射成分CG描画部80によって描画されたCGとを、単純に加算して、出力する。   The adding unit 86 simply adds the CG drawn by the diffuse reflection component CG drawing unit 76 and the CG drawn by the specular reflection component CG drawing unit 80 and outputs the result.

カメラ映像入力部87は、前述の映像用カメラで撮影された映像を取得して、映像合成部88に供給する。   The camera video input unit 87 acquires the video shot by the video camera described above and supplies it to the video synthesis unit 88.

映像合成部88は、照明復元装置3から出力されるCG映像と、カメラ映像入力部87から供給されるカメラ映像とを、映像として合成し、出力する。その結果、映像合成部88から出力される映像は、カメラ映像(実写)の中にCGのオブジェクトが存在しているかのような映像である。照明復元装置3が、カメラ映像の照明の状況に合わせてCGのレンダリングを行うため、映像とCGオブジェクトとが、光線等に関する違和感がない状態で合成映像内において共存する。   The video composition unit 88 synthesizes and outputs the CG video output from the illumination restoration device 3 and the camera video supplied from the camera video input unit 87 as a video. As a result, the video output from the video composition unit 88 is a video as if a CG object exists in the camera video (actual shooting). Since the lighting restoration device 3 performs CG rendering in accordance with the lighting condition of the camera video, the video and the CG object coexist in the synthesized video without any sense of incongruity with respect to light rays or the like.

[第2実施形態]
次に、本発明の第2実施形態について説明する。なお以下では、前述の実施形態と同様の事項については説明を省略し、本実施形態に特有の事項を中心に説明する。
本実施形態による照明情報取得装置の機能構成は、図1に示したものとほぼ同様である。ただし、本実施形態においては、拡散反射成分用照明情報の求め方の一部が、第1実施形態における求め方と異なる。具体的には、本実施形態において照明情報推定部24が求める、グループごと且つカメララベルごとの、(B)平均輝度値の求め方が、第1実施形態における求め方とは異なる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following, description of items similar to those of the above-described embodiment will be omitted, and items specific to the present embodiment will be mainly described.
The functional configuration of the illumination information acquisition apparatus according to the present embodiment is substantially the same as that shown in FIG. However, in the present embodiment, a part of the method for obtaining the diffuse reflection component illumination information is different from the method for obtaining in the first embodiment. Specifically, the method for obtaining the average luminance value (B) for each group and for each camera label, which is obtained by the illumination information estimation unit 24 in the present embodiment, is different from the method for obtaining in the first embodiment.

本実施形態による照明情報推定部24が(B)平均輝度値を求める方法は、次に述べるとおりである。各ボクセルグループ(単一の照明であると推定された複数のボクセルのグループ)の、カメララベルごとの(A)重心位置が求まると、照明情報推定部24は次に、そのカメラからの全天球画像(HDR画像)をボロノイ(Voronoi)分割する。ボロノイ分割する際には、各ボクセルグループの重心位置を母点とする。ボロノイ分割とは、空間上に任意に配置された複数の母点が与えられたとき、その空間上の母点以外の点がどの母点に近いかによって領域を分けるような分割である。つまり、平面空間においては、ボロノイ分割による領域の境界線は、ある母点と近隣の母点とを結ぶ線分の垂直二等分線である。   The method by which the illumination information estimation unit 24 according to the present embodiment obtains (B) average luminance value is as follows. When the (A) barycentric position for each camera label of each voxel group (a group of a plurality of voxels estimated to be a single illumination) is obtained, the illumination information estimation unit 24 then determines the total sky from the camera. A sphere image (HDR image) is divided into Voronoi. When performing Voronoi division, the center of gravity of each voxel group is used as a generating point. The Voronoi division is a division in which, when a plurality of generating points arbitrarily arranged in a space are given, the region is divided depending on which generating point is close to points other than the generating point in the space. That is, in the plane space, the boundary line of the region by Voronoi division is a vertical bisector connecting a certain segment and a neighboring segment.

図8は、上記のボロノイ分割の例を示す概略図である。
同図(a)は、映像の撮影現場である3次元空間(映像の収録スタジオ)において、ある撮像装置(14,15,または16)のカメラが撮影した画像(全天球画像の一部分)を、照明の重心を母点としてボロノイ分割した場合の例を示す。同図(a)において、丸印を付した部分が、照明の重心であると推定された位置である。そして、これらの位置を基準として、領域を分割した結果が同図(a)である。
FIG. 8 is a schematic diagram showing an example of the above Voronoi division.
FIG. 6A shows an image (a part of the omnidirectional image) taken by a camera of a certain imaging device (14, 15, or 16) in a three-dimensional space (video recording studio) that is a video shooting site. An example in which Voronoi division is performed using the center of gravity of the illumination as a generating point is shown. In FIG. 6A, the part marked with a circle is the position estimated to be the center of gravity of the illumination. The result of dividing the region with these positions as a reference is shown in FIG.

同図(b)は、同図(a)から取り出した、ボロノイ分割によるひとつの領域を示す。同図において、101は、当該領域を囲む境界線の1つである。当該領域は、4本の直線(境界線)で囲まれてなるものである。また、102は、当該領域内において、照明であると推定された領域を囲む線である。この領域は、照明であると推定された複数のボクセルが成すひとつのグループを示している。また、103は、当該グループの中で、同一のラベル(カメラのラベル)を付与されたボクセルの重心位置である。   FIG. 6B shows one region obtained by Voronoi division extracted from FIG. In the figure, reference numeral 101 denotes one of the boundary lines surrounding the area. The area is surrounded by four straight lines (boundary lines). Reference numeral 102 denotes a line surrounding the area estimated to be illumination in the area. This area shows one group formed by a plurality of voxels estimated to be illumination. Reference numeral 103 denotes the barycentric position of the voxel assigned the same label (camera label) in the group.

そして、照明情報推定部24は、ボロノイ分割された各領域について、次の処理を行う。即ち、照明情報推定部24は、当該カメラのレンズの主点と上記の重心位置とを結ぶ直線に垂直な平面であって、上記の重心位置を通るような平面を設ける。そして、照明情報推定部24は、当該ボロノイ領域に含まれる各画素に関して、その画素の画素値に関数f−1(x)を適用し、さらに、レンズの主点から重心位置までの距離rの2乗を掛けた値を輝度として求める。そして、前述の投票における投票数が投票数閾値以上であったボクセルについての平均輝度値を求める。照明情報推定部24は、以上のように求められた平均輝度値を、当該グループの当該カメラに関する(B)の平均輝度値とする。 And the illumination information estimation part 24 performs the following process about each area | region by which Voronoi division was carried out. That is, the illumination information estimation unit 24 provides a plane that is perpendicular to the straight line connecting the principal point of the camera lens and the centroid position and passes through the centroid position. Then, the illumination information estimation unit 24 applies the function f −1 (x) to the pixel value of each pixel included in the Voronoi region, and further calculates the distance r from the principal point of the lens to the centroid position. The value multiplied by the square is obtained as the luminance. And the average luminance value about the voxel whose vote number in the above-mentioned vote was more than a vote number threshold value is calculated | required. The illumination information estimation unit 24 sets the average luminance value obtained as described above as the average luminance value of (B) regarding the camera of the group.

本実施形態による照明情報取得装置は、上記の方法で求められた平均輝度値の情報を、拡散反射成分用照明情報の一部分として出力する。そして、本実施形態による照明復元装置は、そのような拡散反射成分用照明情報を用いて照明を復元し、CGレンダリングを行う。
本実施形態によれば、より精度の高い照明の再現性を得ることができる。
The illumination information acquisition apparatus according to the present embodiment outputs information on the average luminance value obtained by the above method as a part of the diffuse reflection component illumination information. The illumination restoration device according to the present embodiment restores illumination using such diffuse reflection component illumination information and performs CG rendering.
According to the present embodiment, more accurate illumination reproducibility can be obtained.

なお、上述した各実施形態における照明情報取得装置、照明復元装置、合成装置の機能をコンピューターで実現するようにしても良い。その場合、これらの機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   In addition, you may make it implement | achieve the function of the illumination information acquisition apparatus in each embodiment mentioned above, an illumination decompression | restoration apparatus, and a synthetic | combination apparatus with a computer. In that case, the program for realizing these functions may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included, and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明は、映像コンテンツの制作を行う産業において特に利用可能である。また、ビデオゲームや、バーチャルリアリティを実現するための装置あるいはコンピュータープログラム等においても利用可能である。   The present invention is particularly applicable to industries that produce video content. It can also be used in video games, devices or computer programs for realizing virtual reality.

1 照明情報取得装置
3 照明復元装置
5 合成装置
14,15,16 撮像装置
21 映像取得部(画像取得部)
22 空間情報設定部
23 照明領域分離部
24 照明情報推定部
41 LDR画像分離部(画像出力部)
50 圧縮部
52 蓄積部
53 伝送部
71 照明情報取得部
72 復号部
75 拡散反射成分用照明情報抽出部
76 拡散反射成分CG描画部
78 LDR画像抽出部
79 内挿画像生成部(輝度情報補填部)
80 鏡面反射成分CG描画部(鏡面反射成分描画部)
85 カメラパラメーター供給部
86 加算部
87 カメラ映像入力部
88 映像合成部
DESCRIPTION OF SYMBOLS 1 Illumination information acquisition apparatus 3 Illumination restoration apparatus 5 Composition apparatus 14, 15, 16 Imaging device 21 Image | video acquisition part (image acquisition part)
22 Spatial information setting unit 23 Illumination region separation unit 24 Illumination information estimation unit 41 LDR image separation unit (image output unit)
DESCRIPTION OF SYMBOLS 50 Compression part 52 Accumulation part 53 Transmission part 71 Illumination information acquisition part 72 Decoding part 75 Diffuse reflection component illumination information extraction part 76 Diffuse reflection component CG drawing part 78 LDR image extraction part 79 Interpolation image generation part (luminance information compensation part)
80 Specular reflection component CG drawing unit (Specular reflection component drawing unit)
85 Camera parameter supply unit 86 Addition unit 87 Camera image input unit 88 Image composition unit

Claims (6)

3次元空間における複数の位置に設けられたカメラで撮影した画像を取得する画像取得部と、
取得した前記画像に含まれる画素の画素値に基づいて、前記3次元空間における照明の領域を特定する照明領域分離部と、
前記照明領域分離部によって特定された照明の領域の各々について、代表位置と輝度値とサイズとを拡散反射成分用照明情報として推定する照明情報推定部と、
前記画像取得部が取得した前記画像を鏡面反射成分用照明情報として出力する画像出力部と、
を具備することを特徴とする照明情報取得装置。
An image acquisition unit for acquiring images taken by cameras provided at a plurality of positions in a three-dimensional space;
An illumination area separation unit that identifies an illumination area in the three-dimensional space based on pixel values of pixels included in the acquired image;
An illumination information estimation unit that estimates a representative position, a luminance value, and a size as illumination information for diffuse reflection components for each of the illumination regions specified by the illumination region separation unit;
An image output unit that outputs the image acquired by the image acquisition unit as specular reflection component illumination information;
An illumination information acquisition apparatus comprising:
前記画像出力部は、前記画像取得部が取得した前記画像の輝度のダイナミックレンジを低くする処理をしてから前記画像を出力する、
ことを特徴とする請求項1に記載の照明情報取得装置。
The image output unit outputs the image after performing a process of reducing a dynamic range of luminance of the image acquired by the image acquisition unit.
The illumination information acquisition apparatus according to claim 1.
前記照明領域分離部は、前記画像を撮影したカメラの前記位置ごとに、前記画像に含まれる画素の画素値に基づいて当該画素に照明が写っているか否かを判定し、この判定結果に基づいて前記3次元空間に含まれ当該画素に対応する方向の領域への投票を行い、前記領域が得た投票数に応じて当該領域が前記照明の領域であるか否かを判定する、
ことを特徴とする請求項1または2に記載の照明情報取得装置。
The illumination area separation unit determines, for each position of the camera that captured the image, whether or not illumination is reflected in the pixel based on a pixel value of the pixel included in the image, and based on the determination result Voting on a region in the direction corresponding to the pixel included in the three-dimensional space, and determining whether the region is the illumination region according to the number of votes obtained by the region,
The illumination information acquisition apparatus according to claim 1, wherein the illumination information acquisition apparatus is an illumination information acquisition apparatus.
所定のダイナミックレンジの低ダイナミックレンジ画像を鏡面反射成分用照明情報として取得するとともに、前記低ダイナミックレンジ画像よりも相対的に高いダイナミックレンジの高ダイナミックレンジ画像に基づいて推定された3次元空間内における照明の領域についての代表位置と輝度とサイズとの情報を拡散反射成分用照明情報として取得し、前記低ダイナミックレンジ画像内において輝度が飽和している部分について、当該部分に対応する代表位置を有する拡散反射成分用照明情報に含まれる前記輝度と前記サイズとの情報に基づいて、疑似的に輝度を復元する処理を行う輝度情報補填部と、
前記輝度情報補填部によって輝度が復元された鏡面反射成分用照明情報を用いてコンピューターグラフィクスによる鏡面反射成分の描画を行う鏡面反射成分描画部と、
を具備することを特徴とする照明復元装置。
A low dynamic range image with a predetermined dynamic range is acquired as illumination information for specular reflection components, and in a three-dimensional space estimated based on a high dynamic range image with a higher dynamic range than the low dynamic range image Information on the representative position, luminance, and size of the illumination area is acquired as diffuse reflection component illumination information, and a portion where the luminance is saturated in the low dynamic range image has a representative position corresponding to the portion. A luminance information compensation unit that performs a process of restoring luminance in a pseudo manner based on the information on the luminance and the size included in the illumination information for diffuse reflection component;
A specular reflection component drawing unit that draws a specular reflection component by computer graphics using the illumination information for specular reflection component whose luminance is restored by the luminance information compensation unit;
An illumination restoration apparatus comprising:
コンピューターを、請求項1から3までのいずれか一項に記載の照明情報取得装置として機能させるためのプログラム。   A program for causing a computer to function as the illumination information acquisition device according to any one of claims 1 to 3. コンピューターを、請求項4に記載の照明復元装置として機能させるためのプログラム。   A program for causing a computer to function as the illumination restoration device according to claim 4.
JP2015196222A 2015-10-01 2015-10-01 Lighting information acquisition device, lighting restoration device, and programs thereof Active JP6575999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015196222A JP6575999B2 (en) 2015-10-01 2015-10-01 Lighting information acquisition device, lighting restoration device, and programs thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015196222A JP6575999B2 (en) 2015-10-01 2015-10-01 Lighting information acquisition device, lighting restoration device, and programs thereof

Publications (2)

Publication Number Publication Date
JP2017068764A JP2017068764A (en) 2017-04-06
JP6575999B2 true JP6575999B2 (en) 2019-09-18

Family

ID=58494999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015196222A Active JP6575999B2 (en) 2015-10-01 2015-10-01 Lighting information acquisition device, lighting restoration device, and programs thereof

Country Status (1)

Country Link
JP (1) JP6575999B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2569267A (en) * 2017-10-13 2019-06-19 Mo Sys Engineering Ltd Lighting integration
CN107798666B (en) * 2017-11-17 2021-08-10 上海大学 Old film fading and flickering restoration method based on sparse color characteristics
KR102242327B1 (en) * 2019-01-16 2021-04-20 한국광기술원 Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space
WO2023058889A1 (en) * 2021-10-05 2023-04-13 엘지전자 주식회사 Light capture device and light capture system including same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175762A (en) * 1997-12-08 1999-07-02 Katsushi Ikeuchi Light environment measuring instrument and device and method for shading virtual image using same
JP5503573B2 (en) * 2011-02-21 2014-05-28 日本放送協会 Imaging apparatus and image processing information generation program

Also Published As

Publication number Publication date
JP2017068764A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
KR102431117B1 (en) point cloud mapping
US20220191407A1 (en) Method and system for generating at least one image of a real environment
US10977764B2 (en) Viewport independent image coding and rendering
JP7003994B2 (en) Image processing equipment and methods
US20200051269A1 (en) Hybrid depth sensing pipeline
RU2431938C2 (en) Efficient multiple types encoding
US8711248B2 (en) Global alignment for high-dynamic range image generation
JP7007348B2 (en) Image processing equipment
US20200226729A1 (en) Image Processing Method, Image Processing Apparatus and Electronic Device
US6983082B2 (en) Reality-based light environment for digital imaging in motion pictures
CN108475327A (en) three-dimensional acquisition and rendering
US20180014003A1 (en) Measuring Accuracy of Image Based Depth Sensing Systems
CN115088254A (en) Motion smoothing in distributed systems
JP6575999B2 (en) Lighting information acquisition device, lighting restoration device, and programs thereof
US20210233303A1 (en) Image processing apparatus and image processing method
US20200177868A1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
CN114697623A (en) Projection surface selection and projection image correction method and device, projector and medium
US10163250B2 (en) Arbitrary view generation
US20230106679A1 (en) Image Processing Systems and Methods
JP2014164497A (en) Information processor, image processing method and program
CN115997379A (en) Restoration of image FOV for stereoscopic rendering
KR101946715B1 (en) Adaptive search ragne determination method for motion estimation of 360 degree video
GB2573593A8 (en) Augmented reality rendering method and apparatus
EP4386678A1 (en) Novel view generation using point clouds
JP2013009082A (en) Video composing apparatus, video composing method, and video composing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6575999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250