JPH11265440A - Image compositing method for optional light source position and display device - Google Patents

Image compositing method for optional light source position and display device

Info

Publication number
JPH11265440A
JPH11265440A JP27454898A JP27454898A JPH11265440A JP H11265440 A JPH11265440 A JP H11265440A JP 27454898 A JP27454898 A JP 27454898A JP 27454898 A JP27454898 A JP 27454898A JP H11265440 A JPH11265440 A JP H11265440A
Authority
JP
Japan
Prior art keywords
image
light source
photographed
color
source position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27454898A
Other languages
Japanese (ja)
Inventor
Kazuya Kuki
和也 久木
Makoto Kato
誠 加藤
Toshiyuki Moritsu
俊之 森津
Nobuo Kotatsu
信夫 小辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP27454898A priority Critical patent/JPH11265440A/en
Publication of JPH11265440A publication Critical patent/JPH11265440A/en
Priority to US09/407,841 priority patent/US6674917B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To synthesize an image against an optional light source position only from the data that can be easily acquired with no man power nor any special mechanical equipment required by extracting the information on the surface direction and the color of a photographing object from plural sheets of original images which are photographed at different positions of a light source and composting an image from those extracted information. SOLUTION: The images of the same object are photographed at different positions of a light source. The parameters serving as the coefficients which derive the original color and tilt, etc., of the surface of the object from the color changes of those photographed images occurred to the positions of the light source, i.e., the scattering changes of the light reflected on the surface of the object and also derive the colors which are actually obseved at the light source positions. Thus, an image is composited against an optional light source position based on those parameters. In this system, a processor serves as a CPU or an PMU, for example, and executes a parameter extraction process 300 and an image compositing process 400. An input device serves as a mouse or a touch panel, etc., for example, and receives the input of a direction vector 120 of a light source position for the image to be composited.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の画像に対し
て演算を行い、新たな画像を生成する画像合成に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image synthesis for performing a calculation on a plurality of images to generate a new image.

【0002】[0002]

【従来の技術】従来、現実の3次元物体に対して任意の
位置から光を照射した画像を得る方法としては、中嶋正
之・山本正信共著「グラフィックスとビジョン −ディ
ジタル映像処理 −(1996年刊行、株式会社オーム社)p.9
7-p.104に見られるように、物体表面の複数の特徴点の3
次元座標を測定し、それらの点を頂点とする多面体に物
体表面のテクスチャ画像を貼ることによって3次元幾何
モデルを構築した上で、光源位置を与えてレイトレーシ
ング法等によってレンダリングを行う方法が一般的に知
られている。
2. Description of the Related Art Conventionally, as a method of obtaining an image obtained by irradiating a real three-dimensional object with light from an arbitrary position, a method described in Masayuki Nakajima and Masanobu Yamamoto, "Graphics and Vision-Digital Video Processing-(published in 1996) (Ohm Co., Ltd.) p.9
As shown in 7-p.104, three of the feature points on the object surface
Generally, a 3D geometric model is constructed by measuring the dimensional coordinates, pasting a texture image of the object surface on a polyhedron with those points as vertices, and then rendering by ray tracing, etc. with the light source position given Is known.

【0003】[0003]

【発明が解決しようとする課題】前項で述べた従来の方
法では、物体表面の3次元座標の測定に人手や特殊な器
材を要するという点で困難がある。また3次元物体の光
源位置を考慮したレンダリングは計算量が非常に多く、
画像合成にかかる処理時間が長いために、リアルタイム
で処理を行う場合にも困難がある。
The conventional method described in the preceding section has a difficulty in that the measurement of the three-dimensional coordinates of the surface of the object requires humans and special equipment. Also, rendering taking into account the light source position of a 3D object requires a lot of computation,
Due to the long processing time required for image synthesis, there is also difficulty in performing processing in real time.

【0004】本発明の課題は、カメラ等で撮影した物体
の画像といった、簡単に入手可能なデータのみから、3
次元幾何モデルを構築する場合のように人手や特殊器材
を必要とすることなく、任意の光源位置に対する画像を
合成する方法を提供することである。
[0004] The object of the present invention is to obtain 3D data from only easily available data such as an image of an object taken by a camera or the like.
An object of the present invention is to provide a method for synthesizing an image at an arbitrary light source position without requiring any manual operation or special equipment as in the case of constructing a three-dimensional geometric model.

【0005】[0005]

【課題を解決するための手段】上記の課題を解決するた
めに、以下のような方法を取る。簡単な合成方法とし
て、光源を左右に置いた画像データの画素ごとの重み付
き平均をとることが考えられるが、モデルに基づいてい
ないため光源位置と合成画像の関係が明確でなく、光源
位置の変化を正しく反映しているとは言い難い。中嶋正
之・山本正信共著「グラフィックスとビジョン −ディ
ジタル映像処理 −(1996年刊行、株式会社オーム社)p.4
0-p.43に示されているように、一般的に物体表面の本来
の色と法線および物体表面からの光源と視点の方向と、
実際に観測される色との間には一定の関係がある。そこ
で、本発明ではこの関係を用いて任意の光源位置に対す
る画像を合成する。
Means for Solving the Problems To solve the above-mentioned problems, the following method is adopted. As a simple synthesis method, it is conceivable to take a weighted average for each pixel of the image data in which the light source is placed on the left and right, but since the relationship between the light source position and the synthesized image is not clear because it is not based on a model, the light source position It is hard to say that it reflects the change correctly. Masayuki Nakajima and Masanobu Yamamoto, `` Graphics and Vision-Digital Image Processing-(Published in 1996, Ohm Co., Ltd.) p.4
As shown in 0-p.43, in general, the original color and normal of the object surface and the direction of the light source and viewpoint from the object surface,
There is a certain relationship between the actually observed colors. Therefore, in the present invention, an image for an arbitrary light source position is synthesized using this relationship.

【0006】特開平1−143127号公報では、電子
顕微鏡に複数の電子検出器を取り付け、一定方向から放
射されて物体表面で反射した電子の各方向への散乱を計
測することによって物体表面の法線を求めている。本発
明では、これと同様に、同一物体に対し異なる複数の位
置に光源を置いた画像を撮影し、光源位置に対するそれ
らの色の変化、すなわち物体表面で反射した光の散乱の
変化から、物体表面の本来の色や傾き等、光源位置から
実際に観測される色を導出する係数となるパラメータを
測定し、それを用いて任意の光源位置に対する画像を合
成することによって、自由に光源を移動させながら物体
を観察できる画像合成方法を提供する。
In Japanese Patent Application Laid-Open No. 1-143127, a method for measuring the surface of an object by mounting a plurality of electron detectors on an electron microscope and measuring the scattering in each direction of the electrons emitted from a certain direction and reflected on the surface of the object is measured. I want a line. In the same manner, in the present invention, images of the same object with light sources placed at a plurality of different positions are taken, and the change in their color with respect to the light source position, that is, the change in scattering of light reflected on the object surface, Move the light source freely by measuring parameters such as the original color and inclination of the surface, which are the coefficients for deriving the color actually observed from the light source position, and using this to synthesize an image for any light source position Provided is an image synthesizing method capable of observing an object while causing it to move.

【0007】[0007]

【発明の実施の形態】以下、本発明の第1の実施の形態
について詳細に述べる。図1は本発明の主たる処理手順
とその入出力データを示す図である。図2は第1の実施形
態のハードウェアシステム構成を示す図である。図3は
パラメータ抽出処理300の処理手順のフローチャートを
示す図である。図4は、入力の原画像群と出力の合成画
像を例示したものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment of the present invention will be described in detail. FIG. 1 is a diagram showing a main processing procedure of the present invention and its input / output data. FIG. 2 is a diagram illustrating a hardware system configuration according to the first embodiment. FIG. 3 is a flowchart showing a processing procedure of the parameter extraction processing 300. FIG. 4 illustrates an input original image group and an output composite image.

【0008】第1の実施形態のハードウェアシステム構
成は図2に示すように、表示装置201、処理装置202、入
力装置203、記憶装置204、外部記憶装置205を、データ
転送路であるバス206に接続して構成する。表示装置201
は、例えばCRTディスプレイ等であり、合成画像140やユ
ーザに対する指示等を表示する。処理装置202は、例え
ばCPU、MPU等であり、パラメータ抽出処理300および画
像合成処理400を実行する。入力装置203は、例えばマウ
スやタッチパネル等であり、合成する画像における光源
位置の方向ベクトル120の入力を受け付ける。記憶装置2
04は、例えばメモリ等であり、光源移動用パラメータデ
ータ130、合成画像140およびパラメータ抽出処理300に
使用する光源方向行列L 311、パラメータ計算用行列C 3
12を一時的に記憶する。外部記憶装置205は、例えばHDD
などの記憶装置、FDやCD-ROMなどの記録媒体、およびネ
ットワーク等で結ばれた他コンピュータの外部記憶装置
等であり、原画像群100、光源方向ベクトルファイル11
0、パラメータ抽出処理300および画像合成処理400を格
納したプログラム211を記憶する。プログラム211は、処
理実行時に処理装置202へ読み出される。
As shown in FIG. 2, the hardware system configuration of the first embodiment includes a display device 201, a processing device 202, an input device 203, a storage device 204, and an external storage device 205, and a bus 206 serving as a data transfer path. Connect to and configure. Display device 201
Is, for example, a CRT display, and displays the composite image 140, instructions to the user, and the like. The processing device 202 is, for example, a CPU, an MPU, or the like, and executes a parameter extraction process 300 and an image synthesis process 400. The input device 203 is, for example, a mouse or a touch panel, and receives an input of a direction vector 120 of a light source position in an image to be combined. Storage device 2
Reference numeral 04 denotes, for example, a memory or the like, which is a light source movement parameter data 130, a light source direction matrix L 311 used for the composite image 140 and the parameter extraction processing 300, and a parameter calculation matrix C 3.
Store 12 temporarily. The external storage device 205 is, for example, an HDD
Such as a storage device such as an FD or a CD-ROM, and an external storage device of another computer connected to a network or the like.
0, a program 211 storing a parameter extraction process 300 and an image synthesis process 400 is stored. The program 211 is read out to the processing device 202 when executing the process.

【0009】以下、本実施形態の処理手順について図1
を用いて述べる。本発明の入力データは、カメラと対象
物体との位置関係を相対的に固定し、それらに対する光
源位置のみを変えて撮影した、等しい大きさの複数の原
画像IM[m]101(1≦m≦M)からなる原画像群100(各原画像I
M[m]101の組において、各々の画像の左上の隅から見て
同じ位置にある点は、対象物体表面の同じ位置を指
す)、および各原画像IM[m]101における物体中心から光
源位置への3次元方向を示す長さ1のベクトルLV[m]=[LX
[m],LY[m],LZ[m]]111を格納した光源方向ベクトルファ
イル110、および合成する画像における光源位置の3次元
方向を示す長さ1のベクトルlv=[lx,ly,lz]120である。
ここで定数Mは原画像群100の画像枚数がM枚であること
を表す。以後、添字を付加したものも含め、英大文字で
表したパラメータは定数を表し、小文字で表したパラメ
ータは変数を表すものとする。各原画像IM[m]101はディ
ジタル画像である。ディジタル画像とは、画像を画素と
呼ばれる小さな離散的な点に分割し、各画素における輝
度値も離散的な値で表現したものである。ディジタル画
像中の個々の画素は、2次元ベクトル[x,y](1≦x≦X,1≦
y≦Y)で指す。ここで定数XおよびYは、各原画像が横軸X
画素、縦軸Y画素の大きさであることを表す。画素[x,y]
は、画像中の左からx番目、上からy番目の画素を指す。
FIG. 1 shows a processing procedure of the present embodiment.
It is described using. The input data of the present invention includes a plurality of original images IM [m] 101 (1 ≦ m) of the same size, which are photographed while the positional relationship between the camera and the target object is relatively fixed and only the light source position with respect to them is changed. ≦ M) original image group 100 (each original image I
In the set of M [m] 101, points at the same position when viewed from the upper left corner of each image indicate the same position on the surface of the target object), and the light source from the center of the object in each original image IM [m] 101. Vector of length 1 indicating the three-dimensional direction to the position LV [m] = [LX
A light source direction vector file 110 storing [m], LY [m], LZ [m]] 111, and a length 1 vector lv = [lx, ly, lz indicating the three-dimensional direction of the light source position in the image to be synthesized ] 120.
Here, the constant M indicates that the number of images in the original image group 100 is M. Hereinafter, the parameters expressed in uppercase letters, including those with subscripts, represent constants, and the parameters expressed in lowercase letters represent variables. Each original image IM [m] 101 is a digital image. A digital image is obtained by dividing an image into small discrete points called pixels, and expressing the luminance value of each pixel by a discrete value. Each pixel in the digital image is represented by a two-dimensional vector [x, y] (1 ≦ x ≦ X, 1 ≦
y ≦ Y). Here, the constants X and Y are expressed as follows:
Pixel, the vertical axis represents the size of the Y pixel. Pixel [x, y]
Indicates the xth pixel from the left and the yth pixel from the top in the image.

【0010】パラメータ抽出処理300は、原画像群100お
よび光源方向ベクトルファイル110から、任意の光源
位置に対する画像を合成するために用いられる光源移動
用パラメータデータ130を求める処理である。
The parameter extraction process 300 is a process for obtaining, from the original image group 100 and the light source direction vector file 110, light source movement parameter data 130 used for synthesizing an image at an arbitrary light source position.

【0011】光源移動用パラメータデータ130は、原画
像群100の各画素[x,y]に対応する、任意の光源位置に対
する画像を合成するために用いられる4次元ベクトルk
[x,y]=[kdx[x,y],kdy[x,y],kdz[x,y],ka[x,y]]を要素と
するY行X列の配列である。
The light source moving parameter data 130 is a four-dimensional vector k used for synthesizing an image at an arbitrary light source position corresponding to each pixel [x, y] of the original image group 100.
It is an array of Y rows and X columns having [x, y] = [kdx [x, y], kdy [x, y], kdz [x, y], ka [x, y]] as elements.

【0012】画像合成処理400は、光源移動用パラメー
タデータ130および合成画像における光源方向を示すベ
クトルlv[lx,ly,lz]120から、ベクトル120で示す光源位
置に対する画像を合成し、合成画像140を出力する処理
である。
The image synthesizing process 400 synthesizes an image corresponding to the light source position indicated by the vector 120 from the light source moving parameter data 130 and the vector lv [lx, ly, lz] 120 indicating the light source direction in the synthesized image, and generates a synthesized image 140 Is output.

【0013】出力データである合成画像140は、各原画
像IM[m]101と同様、横軸X画素、縦軸Y画素のディジタル
画像である。
A synthetic image 140, which is output data, is a digital image having X pixels on the horizontal axis and Y pixels on the vertical axis, similarly to each original image IM [m] 101.

【0014】以下、パラメータ抽出処理300について図3
を用いて詳しく述べる。処理ステップ301において、外
部記憶装置205上の光源方向ベクトルファイル110から、
各原画像IM[m]101に対する光源方向を表す単位ベクトル
LV[m]=[LX[m],LY[m],LZ[m]]111を順次読み出し、数1に
示すM行4列の光源方向行列L 311を構成し記憶装置204に
書き込む。
Hereinafter, the parameter extraction process 300 will be described with reference to FIG.
This will be described in detail. In processing step 301, from the light source direction vector file 110 on the external storage device 205,
Unit vector representing the light source direction for each original image IM [m] 101
LV [m] = [LX [m], LY [m], LZ [m]] 111 are sequentially read, and a light source direction matrix L 311 of M rows and 4 columns shown in Expression 1 is constructed and written to the storage device 204.

【0015】[0015]

【数1】 (Equation 1)

【0016】処理ステップ302において、光源方向行列L
311を記憶装置204から読み出して数2に示す演算を行
い、4行M列のパラメータ計算用行列C 312を求め、記憶
装置204に書き込む。
In processing step 302, light source direction matrix L
311 is read from the storage device 204 and the operation shown in Expression 2 is performed to obtain a parameter calculation matrix C 312 of 4 rows and M columns, and is written to the storage device 204.

【0017】[0017]

【数2】 (Equation 2)

【0018】ここでLTはLのr行c列目の要素をc行r列目
に配置した4行M列の行列(これをLの転置行列と呼ぶ)で
あり、LT・Lは4行M列の行列LTとM行4列の行列Lの積(4行
4列の行列)を表し、INV(LT・L)は行数と列数が等しい行
列(LT・L)の逆行列を表す。行数と列数が等しい行列Aの
逆行列とは、A・B=I(Iは任意の行列Aに対してA・I=Aと
なる行列)となる行列Bのことである。
Here, LT is a matrix of 4 rows and M columns in which the elements at row r and column c of L are arranged at row c and column r (this is called the transposed matrix of L). The product of an M-column matrix LT and an M-by-4 matrix L (4 rows
INV (LT · L) represents an inverse matrix of a matrix (LT · L) having the same number of rows and columns. The inverse matrix of the matrix A having the same number of rows and columns is the matrix B in which A · B = I (I is a matrix in which A · I = A for an arbitrary matrix A).

【0019】処理ステップ303において、記憶装置204か
らパラメータ計算用行列C 312を、外部記憶装置205から
原画像群100を読み出し、画素[x,y]に対して、各原画像
IM[m]100において観測される輝度I[m][x,y]を要素とす
るベクトルIV[x,y]=[I[1][x,y],I[2][x,y],…,I[m][x,
y]]を構築し、パラメータ計算用行列C 312を用いて、パ
ラメータベクトルk[x,y]=[kdx[x,y],kdy[x,y],kdz[x,
y],ka[x,y]]を数3の式によって求め、k[x,y]を光源移動
用パラメータデータ130に格納する。
In processing step 303, the parameter calculation matrix C 312 is read from the storage device 204, and the original image group 100 is read from the external storage device 205.
A vector IV [x, y] = [I [1] [x, y], I [2] [x, y] whose element is the luminance I [m] [x, y] observed in IM [m] 100 ],…, I [m] [x,
y]], and a parameter vector k [x, y] = [kdx [x, y], kdy [x, y], kdz [x,
y], ka [x, y]] are calculated by the equation (3), and k [x, y] is stored in the light source movement parameter data 130.

【0020】[0020]

【数3】 (Equation 3)

【0021】ただし、ここではk[x,y]およびIV[x,y]は
列ベクトル(1列の行列)である。以下、行列とベクトル
に関する演算を行う場合、ベクトルは列ベクトルとす
る。この演算を全画素[x,y](1≦x≦X,1≦y≦Y)に対して
繰り返す。
Here, k [x, y] and IV [x, y] are column vectors (one-column matrix). Hereinafter, when performing an operation related to a matrix and a vector, the vector is a column vector. This operation is repeated for all the pixels [x, y] (1 ≦ x ≦ X, 1 ≦ y ≦ Y).

【0022】処理ステップ301から303に至るこれらの計
算処理の根拠は以下のように示される。
The basis of these calculation processes from processing steps 301 to 303 is shown as follows.

【0023】本実施形態では、物体表面において鏡面反
射が起こらないと仮定した上で、物体表面の法線ベクト
ル、拡散反射光による色の係数、背景光による色の輝度
をパラメータとして用いる。また、光源は物体から十分
遠い距離に置いて平行光源とみなし、物体表面のどの位
置においても光源への方向が変わらないとする。光源の
方向は物体中心から光源位置への方向とする。
In this embodiment, it is assumed that specular reflection does not occur on the surface of the object, and the normal vector of the surface of the object, the coefficient of color by diffuse reflection light, and the luminance of color by background light are used as parameters. The light source is considered to be a parallel light source at a sufficiently far distance from the object, and the direction to the light source does not change at any position on the surface of the object. The direction of the light source is the direction from the object center to the light source position.

【0024】鏡面反射成分がなく、背景光が存在する場
合、各画素[x,y]における輝度値i[x,y]は、kd[x,y]を拡
散反射成分の係数、ka[x,y]を背景光による輝度値、θ
を物体表面の法線方向と物体中心から光源への方向の成
す角度とすると、数4のように表される。
When there is no specular reflection component and there is background light, the luminance value i [x, y] at each pixel [x, y] is represented by kd [x, y] being the coefficient of the diffuse reflection component and ka [x , y] is the luminance value from the background light, θ
Is the angle between the normal direction of the object surface and the direction from the center of the object to the light source.

【0025】[0025]

【数4】 (Equation 4)

【0026】cosθを、光源方向を示す長さ1のベクトル
lv=[lx,ly,lz]と物体の法線を表す長さ1のベクトルn[x,
y]=[nx[x,y],ny[x,y],nz[x,y]]の内積を用いて表すと、
数5に示す式になる。
Cos θ is a vector of length 1 indicating the light source direction
lv = [lx, ly, lz] and a vector of length 1 n [x,
y] = [nx [x, y], ny [x, y], nz [x, y]]
Equation 5 is obtained.

【0027】[0027]

【数5】 (Equation 5)

【0028】数5に、新たにn[x,y]と方向が等しく、大
きさがkd[x,y]に等しいベクトル[kdx[x,y] kdy[x,y] kd
z[x,y]]を導入すると数6のようになる。
In equation 5, a vector [kdx [x, y] kdy [x, y] kd whose direction is newly equal to n [x, y] and whose size is equal to kd [x, y]
When z [x, y]] is introduced, it becomes Equation 6.

【0029】[0029]

【数6】 (Equation 6)

【0030】数6に処理ステップ303で導入したパラメー
タベクトルk[x,y]を用いると数7のようになる。
When the parameter vector k [x, y] introduced in the processing step 303 is used for Expression 6, Expression 7 is obtained.

【0031】[0031]

【数7】 (Equation 7)

【0032】数7を全原画像IM[m]101についてまとめる
と数8のようになる。
Formula 7 is summarized as shown in Formula 8 for all original images IM [m] 101.

【0033】[0033]

【数8】 (Equation 8)

【0034】処理ステップ302および303で用いたベクト
ルIV[x,y]および行列Lを用いると、数9に示す式にまと
められる。
Using the vector IV [x, y] and the matrix L used in the processing steps 302 and 303, they can be summarized into the following equation (9).

【0035】[0035]

【数9】 (Equation 9)

【0036】数9はk[x,y]のパラメータに関する線形連
立方程式であり、これを解くことによって任意の光源位
置に対する画像が合成できるようになるが、原画像に誤
差等があって画像の輝度が数4で示したモデルに厳密に
従っていないと、この方程式に対する解が存在しないこ
ともある。そこで、最小二乗法を用いて、原画像での輝
度値i[x,y]とモデルに基づく輝度値の計算結果lv・k[x,
y]との誤差が最小となるようにパラメータ値を決定す
る。
Equation 9 is a system of linear equations relating to the parameter of k [x, y]. By solving this equation, an image for an arbitrary light source position can be synthesized. If the luminance does not exactly follow the model shown in Equation 4, there may be no solution to this equation. Therefore, using the least squares method, the luminance value i [x, y] in the original image and the calculation result lv · k [x,
The parameter value is determined so that the error from [y] is minimized.

【0037】行列表現での連立方程式に対して最小二乗
法を適用するには、係数行列の転置行列を掛けた上で、
パラメータベクトルに係っている係数行列の逆行列を求
めて解けばよい。従って、まず数10のように数9の両辺
にLの転置行列LTを掛け、
To apply the least-squares method to a system of equations in matrix representation, multiply the transposed matrix of the coefficient matrix,
What is necessary is just to find and solve the inverse matrix of the coefficient matrix related to the parameter vector. Therefore, first, as shown in Equation 10, multiply the both sides of Equation 9 by the transposed matrix LT of L,

【0038】[0038]

【数10】 (Equation 10)

【0039】次いで数10の両辺に(LT・L)の逆行列INV(L
T・L)を掛けると、数11に示すように、
Next, the inverse matrix INV (L
T ・ L), as shown in Equation 11,

【0040】[0040]

【数11】 [Equation 11]

【0041】となる。## EQU1 ##

【0042】数11(数3と等しい)より、ベクトルIV[x,y]
および行列Cから、パラメータベクトルk[x,y]が求ま
る。
From equation 11 (equal to equation 3), the vector IV [x, y]
And the matrix C, a parameter vector k [x, y] is obtained.

【0043】以下、画像合成処理400について詳しく述
べる。画像合成処理400では、入力装置203から、合成画
像における物体から光源位置への方向を示す長さ1のベ
クトルlv[lx,ly,lz]120を読み出し、これと光源移動用
パラメータデータ130に格納されたパラメータベクトルk
[x,y]を用いて、合成画像140の画素[x,y]における輝度i
[x,y]を数12に示すように求め、記憶装置204に書き込
む。
Hereinafter, the image synthesizing process 400 will be described in detail. In the image synthesizing process 400, a length 1 vector lv [lx, ly, lz] 120 indicating the direction from the object to the light source position in the synthesized image is read from the input device 203 and stored in the light source moving parameter data 130. Parameter vector k
Using [x, y], the luminance i at the pixel [x, y] of the composite image 140
[x, y] is obtained as shown in Expression 12, and written to the storage device 204.

【0044】[0044]

【数12】 (Equation 12)

【0045】これを全画素[x,y](1≦x≦X,1≦y≦Y)に対
して繰り返し、合成画像140を得る。
This is repeated for all pixels [x, y] (1 ≦ x ≦ X, 1 ≦ y ≦ Y) to obtain a composite image 140.

【0046】本実施形態においては、各原画像101の各
画素は輝度のみを保持する、即ち画像が単色である場合
について述べたが、光の三原色等に分解したカラー画像
に対しても、分解した各色ごとにパラメータ抽出処理30
0および画像合成処理400を行うことによって画像合成処
理を行うことが可能である。この時、各原色に対して異
なる重み付けを行うことによって、撮影時の光源と異な
る色の光を照射することも可能である。
In this embodiment, the case where each pixel of each original image 101 holds only luminance, that is, the case where the image is a single color has been described. Parameter extraction processing for each color 30
By performing 0 and the image synthesis processing 400, the image synthesis processing can be performed. At this time, by assigning different weights to each primary color, it is possible to irradiate light of a color different from the light source at the time of shooting.

【0047】また、撮影時の光源位置が対象物体中心を
通る水平面・垂直面上にあるなど、一定の条件下で撮影
した原画像群のみを扱う場合は、その条件に基づいて予
めパラメータ計算用行列C 312を定式化し、パラメータ
抽出処理300において処理ステップ303のみを行うことに
より、パラメータ抽出処理300の速度向上を図ることが
できる。
When only original image groups photographed under certain conditions, such as when the light source position at the time of photographing is on a horizontal plane or a vertical plane passing through the center of the target object, is used, parameter calculation is performed in advance based on the conditions. By formulating the matrix C 312 and performing only the processing step 303 in the parameter extraction processing 300, the speed of the parameter extraction processing 300 can be improved.

【0048】さらに、同一原画像群について多くの画像
合成処理を行う場合、パラメータ抽出処理300で得られ
るパラメータデータ130を中間ファイルとして外部記憶
装置205に一旦出力しておき、画像合成時はその中間フ
ァイルを記憶装置204に読み込んだ上で画像合成処理400
のみを処理することにより、処理速度の向上を図ること
ができる。
Further, when many image synthesizing processes are performed on the same original image group, the parameter data 130 obtained in the parameter extracting process 300 is temporarily output to the external storage device 205 as an intermediate file, and the intermediate After loading the file into the storage device 204, the image combining process 400
The processing speed can be improved by performing only the processing.

【0049】なお、本実施形態においては、光源は物体
から十分遠く物体表面のどの位置においても光源への方
向が変わらないと仮定したが、光源の距離を有限とし、
画素の位置に応じて光源方向ベクトル111および120の向
きを修正してパラメータ抽出処理300および画像合成処
理400を実行することによって、物体から光源までの距
離を考慮した画像合成が可能である。
In this embodiment, it is assumed that the light source is sufficiently far from the object and does not change its direction to the light source at any position on the object surface.
By correcting the directions of the light source direction vectors 111 and 120 according to the positions of the pixels and executing the parameter extraction processing 300 and the image synthesis processing 400, it is possible to perform image synthesis in consideration of the distance from the object to the light source.

【0050】以下、本発明の第2の実施形態について詳
細に説明する。第2の実施形態の構成は図5に示すよう
に、対象物体501を台502上に置いて固定し、対象物体50
1が撮影可能な範囲でカメラ503を三脚504に据え付けて
固定し、対象物体501の周囲に複数の光源群505を配置し
固定する。カメラ503のシャッターは光源群505の電源ス
イッチに連動しており、シャッターを押すごとに予め決
められた順番で光源群505のうち1つまたは複数の光源が
点灯し、撮影が行われる。これにより、対象物体501に
対し、光源の位置のみが異なる複数の画像が得られる。
Hereinafter, a second embodiment of the present invention will be described in detail. In the configuration of the second embodiment, as shown in FIG. 5, a target object 501 is
A camera 503 is mounted on a tripod 504 and fixed within a range where 1 can capture an image, and a plurality of light source groups 505 are arranged and fixed around a target object 501. The shutter of the camera 503 is linked with the power switch of the light source group 505, and each time the shutter is pressed, one or more light sources in the light source group 505 are turned on in a predetermined order, and an image is taken. As a result, a plurality of images different from the target object 501 only in the position of the light source are obtained.

【0051】本実施形態では光源群505の電源スイッチ
の操作はカメラ503のシャッターに連動しているが、電
源スイッチの操作を各画像の撮影前に人手で行うことも
可能である。
In the present embodiment, the operation of the power switch of the light source group 505 is linked to the shutter of the camera 503, but the operation of the power switch can also be performed manually before each image is captured.

【0052】また、本実施形態では対象物体501とカメ
ラ503を固定し、周囲に配置した複数の光源群のうちい
くつかを点灯させていたが、1つまたは複数の光源群を
配置して固定した上で常時点灯し、対象物体501とカメ
ラ503を同一の回転台等の上に固定して回転台等を移動
させて順次撮影を行い、対象物体501に対して光源の位
置のみが異なる複数の画像を得ることも可能である。
In the present embodiment, the target object 501 and the camera 503 are fixed, and some of the plurality of light sources arranged around are lit. However, one or more light source groups are arranged and fixed. The target object 501 and the camera 503 are fixed on the same turntable or the like, and the turntable or the like is moved to perform sequential shooting. Can be obtained.

【0053】[0053]

【発明の効果】以上述べたように、本発明によれば、異
なる光源位置で撮影した数枚の同一物体の画像から、レ
ンダリングのような、計算量が膨大になる方法を用いず
に、任意の光源位置に対する画像を合成することができ
る。また、任意の光源位置に対する画像を合成するため
に必要となる、異なる光源位置で撮影した複数枚の同一
物体の画像を、簡単に撮影することが可能となる。
As described above, according to the present invention, it is possible to arbitrarily convert a plurality of images of the same object photographed at different light source positions without using a method which requires a large amount of calculation such as rendering. Can be synthesized with respect to the light source positions. Further, it is possible to easily photograph a plurality of images of the same object photographed at different light source positions, which are necessary for synthesizing an image at an arbitrary light source position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態の処理手順とその入出力データ
を示す図。
FIG. 1 is an exemplary view showing a processing procedure and input / output data according to a first embodiment;

【図2】第1の実施形態のハードウェアシステムの構成
図。
FIG. 2 is a configuration diagram of a hardware system according to the first embodiment.

【図3】第1の実施形態のパラメータ抽出処理の処理手
順を示すフローチャート。
FIG. 3 is a flowchart illustrating a processing procedure of parameter extraction processing according to the first embodiment;

【図4】第1の実施形態で用いる入出力画像の例。FIG. 4 is an example of an input / output image used in the first embodiment.

【図5】第2の実施形態の構成図。FIG. 5 is a configuration diagram of a second embodiment.

【符号の説明】[Explanation of symbols]

100…原画像群、110…光源方向ベクトルファイル、130
…光源移動用パラメータデータ、300…パラメータ抽出
処理、400…画像合成処理。
100: Original image group, 110: Light source direction vector file, 130
... light source moving parameter data, 300 ... parameter extraction processing, 400 ... image synthesis processing.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小辰 信夫 神奈川県川崎市幸区鹿島田890番地の12 株式会社日立製作所情報システム事業部内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Nobuo Kotatsu 890 Kashimada, Saiyuki-ku, Kawasaki-shi, Kanagawa 12 Information Systems Division, Hitachi, Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】任意の光源位置に対する画像を合成する方
法において、光源の位置を変えて撮影した複数枚の原画
像から、撮影対象の物体表面の向きや色に関する情報を
抽出し、それらの情報から画像を合成する画像合成方
法。
In a method of synthesizing an image at an arbitrary light source position, information on the direction and color of the surface of an object to be photographed is extracted from a plurality of original images photographed by changing the position of the light source, and the information is extracted. An image synthesis method for synthesizing an image from an image.
【請求項2】請求項1において、抽出する撮影対象の物
体表面の向きおよび色に関する情報を物体表面の法線、
拡散反射の係数および背景光による輝度とすることを特
徴とする画像合成方法。
2. The method according to claim 1, wherein the information on the direction and color of the surface of the object to be imaged to be extracted is a normal to the surface of the object,
An image synthesizing method characterized by using a coefficient of diffuse reflection and luminance by background light.
【請求項3】請求項1において、撮影対象の物体表面の
向きおよび色に関する情報を、原画像と合成画像との誤
差が最小となるよう最小二乗法を用いて抽出することを
特徴とする画像合成方法。
3. An image according to claim 1, wherein information relating to the orientation and color of the surface of the object to be photographed is extracted using a least squares method so that an error between the original image and the composite image is minimized. Synthesis method.
【請求項4】前記複数枚の原画像から前記撮影対象の物
体表面に関する情報を抽出する処理ステップと、前記合
成画像を生成する処理ステップとを実行する手段と、生
成した前記合成画像を表示する手段を有することを特徴
とする画像表示装置。
4. A means for executing a processing step of extracting information on the surface of the object to be photographed from the plurality of original images, a processing step of generating the composite image, and displaying the generated composite image. An image display device comprising means.
【請求項5】カメラと対象物体との位置関係を固定し、
周囲に複数の光源を配置し、スイッチの切り替えによっ
て任意の1つないし複数の光源を点灯させて撮影を行う
手段を有することを特徴とする画像撮影装置。
5. The positional relationship between a camera and a target object is fixed,
An image photographing apparatus, comprising: a plurality of light sources arranged around the periphery; and means for illuminating one or more arbitrary light sources by switching a switch to perform photographing.
【請求項6】1つないし複数の光源を配置して点灯さ
せ、カメラと対象物体との位置関係を相対的に固定した
上で移動させて撮影を行う手段を有することを特徴とす
る画像撮影装置。
6. An image photographing apparatus comprising: means for arranging and lighting one or more light sources, and moving the camera while relatively fixing the positional relationship between the camera and the target object to perform photographing. apparatus.
JP27454898A 1998-01-14 1998-09-29 Image compositing method for optional light source position and display device Pending JPH11265440A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27454898A JPH11265440A (en) 1998-01-14 1998-09-29 Image compositing method for optional light source position and display device
US09/407,841 US6674917B1 (en) 1998-09-29 1999-09-29 Method of synthesizing an image for any light source position and apparatus therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-5383 1998-01-14
JP538398 1998-01-14
JP27454898A JPH11265440A (en) 1998-01-14 1998-09-29 Image compositing method for optional light source position and display device

Publications (1)

Publication Number Publication Date
JPH11265440A true JPH11265440A (en) 1999-09-28

Family

ID=26339310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27454898A Pending JPH11265440A (en) 1998-01-14 1998-09-29 Image compositing method for optional light source position and display device

Country Status (1)

Country Link
JP (1) JPH11265440A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007020760A1 (en) * 2005-08-19 2007-02-22 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing system and image processing program
JP2007165995A (en) * 2005-12-09 2007-06-28 Ntt Data Corp Image generating device, image generating method, and image generating program
KR100834157B1 (en) 2006-11-20 2008-06-02 중앙대학교 산학협력단 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
WO2013081398A1 (en) * 2011-11-29 2013-06-06 삼성전자주식회사 Image processing apparatus and method
US9710958B2 (en) 2011-11-29 2017-07-18 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20210049648A (en) * 2019-10-25 2021-05-06 주식회사 아이오로라 Image processing system and method of providing realistic photo image by synthesizing object and background image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
WO2007020760A1 (en) * 2005-08-19 2007-02-22 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing system and image processing program
US7609892B2 (en) 2005-08-19 2009-10-27 Panasonic Corporation Image processing method, image processing system, and image processing program
US7961940B2 (en) 2005-08-19 2011-06-14 Panasonic Corporation Image processing method, image processing system, and image processing program
JP2007165995A (en) * 2005-12-09 2007-06-28 Ntt Data Corp Image generating device, image generating method, and image generating program
KR100834157B1 (en) 2006-11-20 2008-06-02 중앙대학교 산학협력단 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
WO2013081398A1 (en) * 2011-11-29 2013-06-06 삼성전자주식회사 Image processing apparatus and method
US9710958B2 (en) 2011-11-29 2017-07-18 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20210049648A (en) * 2019-10-25 2021-05-06 주식회사 아이오로라 Image processing system and method of providing realistic photo image by synthesizing object and background image

Similar Documents

Publication Publication Date Title
EP0221704B1 (en) Video signal processing
JP4803594B2 (en) Apparatus and program for generating free viewpoint image by local region segmentation
CA2201680C (en) Processing image data
US7046840B2 (en) 3-D reconstruction engine
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
RU2215326C2 (en) Image-based hierarchic presentation of motionless and animated three-dimensional object, method and device for using this presentation to visualize the object
US5715385A (en) Apparatus for 2-D affine transformation of images
JP3435084B2 (en) Optical flow estimation method and image composition method
EP0930585B1 (en) Image processing apparatus
US20080246757A1 (en) 3D Image Generation and Display System
JP6672315B2 (en) Image generation device and image display control device
US20090073259A1 (en) Imaging system and method
JP2000215311A (en) Method and device for generating virtual viewpoint image
JP2000512419A (en) Digital image composition
JP2020173529A (en) Information processing device, information processing method, and program
WO2018052100A1 (en) Image processing device, image processing method, and image processing program
CN111986296A (en) CG animation synthesis method for bullet time
CN114913308A (en) Camera tracking method, device, equipment and storage medium
EP2081150A1 (en) Method of improving the resolution of a moving object in a digital image sequence
EP3573018B1 (en) Image generation device, and image display control device
JPH11265440A (en) Image compositing method for optional light source position and display device
JP4554231B2 (en) Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
US6674917B1 (en) Method of synthesizing an image for any light source position and apparatus therefor
JP3490774B2 (en) How to generate geospecific textures
CN115830202A (en) Three-dimensional model rendering method and device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040309