JP2005011070A - Image synthesis device - Google Patents

Image synthesis device Download PDF

Info

Publication number
JP2005011070A
JP2005011070A JP2003174674A JP2003174674A JP2005011070A JP 2005011070 A JP2005011070 A JP 2005011070A JP 2003174674 A JP2003174674 A JP 2003174674A JP 2003174674 A JP2003174674 A JP 2003174674A JP 2005011070 A JP2005011070 A JP 2005011070A
Authority
JP
Japan
Prior art keywords
image
imaging
spot light
coordinates
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003174674A
Other languages
Japanese (ja)
Inventor
Taro Watanabe
太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2003174674A priority Critical patent/JP2005011070A/en
Publication of JP2005011070A publication Critical patent/JP2005011070A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image synthesis device for composing much more accurate converted images by correcting image distortion due to small projections/recessions on the surface of an object. <P>SOLUTION: Lattice-shaped spot light beams are emitted from a view-point F2 onto a space 0, and an image I<SB>0</SB>acquired by an image pickup part 101 set at a view-point F<SB>1</SB>is divided into triangle areas whose vertexes are lattice points hit by the spot light beams. Furthermore, an affine conversion formula to convert the triangle area on a converted image I<SB>1</SB>acquired when the image of an object is picked up from the view-point F1 into the triangle area on the image I<SB>0</SB>is searched, and the affine conversion formula is used to convert the image in the triangle area on the image I<SB>0</SB>into the image in the triangle area on the image I<SB>1</SB>. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像入力装置により、被写体面を斜めから撮影して得られる画像を、被写体面を正面から撮影して得られる画像に変換する画像合成装置に関する。
【0002】
【従来の技術】
被写体を斜め方向から撮影すると画像歪が生じるため、特許文献1や特許文献2には、被写体表面を平面と仮定してその画像歪みを補正する手法が示されている。
【0003】
【特許文献1】
特開平5−101221号公報
【特許文献2】
特開平9−289600号公報
【0004】
【発明が解決しようとする課題】
しかし、被写体表面は、実際には完全な平面ではなく小さな凹凸を持つ曲面である場合がほとんどであるため、上記従来の手法では、この凹凸による画像歪みを補正することが出来なかった。その結果、補正後の画像の画質が悪いという課題があった。
【0005】
本発明はこの点に着目してなされたものであり、被写体表面に小さな凹凸がある場合でも、その凹凸による画像歪みを補正し、より正確な変換画像を合成することができる画像合成装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するため請求項1に記載の発明は、第1の視点から被写体を撮影して画像を取り込む撮像手段と、第2の視点から前記被写体に格子状のスポット光を照射するスポット光照射手段と、第3の視点から前記被写体を撮影したとき得られる変換画像上の、前記スポット光が照射されている格子点の座標を計算により求める座標算出手段と、前記撮像手段により取り込まれた画像を、隣接する格子点を頂点とする三角形の領域に分割する分割手段と、前記三角形の頂点の座標と、前記座標算出手段の計算により求められた頂点の座標から、前記三角形のアフィン変換式を求める変換式算出手段と、前記撮像手段により取り込まれた画像における前記三角形領域の画像を、前記アフィン変換式を用いて、前記変換画像内の対応する三角形領域の画像に変換する画像変換手段とからなることを特徴とする画像合成装置を提供する。
【0007】
請求項2に記載の発明は、請求項1に記載の画像合成装置において、前記撮像手段は、赤外光による撮像と、可視光による撮像とを切り替えて行うことができ、前記スポット光照射手段は赤外光を照射することを特徴とする。
【0008】
請求項3に記載の発明は、請求項1に記載の画像合成装置において、第4の視点から被写体を、赤外線により撮影して画像を取り込む赤外線撮像手段をさらに備え、前記スポット光照射手段は赤外光を照射することを特徴とする。
【0009】
【発明の実施の形態】
以下本発明の実施の形態を図面を参照して説明する。
(第1の実施形態)
図1は本発明の第1の実施形態にかかる画像合成装置の構成を示す図である。この装置は、紙面0を斜め上方から撮影する撮像部(デジタルカメラ)101と、撮像部101に取り込まれる画像データの処理を行う画像処理部102と、紙面0にスポット光を格子状に照射するスポット光照射部103を備えている。画像処理部は102は、CPU(中央演算処理ユニット)、ROM(Read Only Memory)、RAM(Random Access Memory)、及びハードディスク装置を備えており、以下に説明する画像合成にかかる演算処理を実行する。
【0010】
図2は、図1に示す画像合成装置の撮像面及び座標系を説明するための斜視図であり、図1と合わせて参照する。撮像部101は、視点Fを焦点とし、その光軸が図のZ軸に一致するように設置されている。またスポット光照射部103は、視点Fの位置に、その光軸が図のZ”軸に一致するように設置されている。
【0011】
図1に示す画像合成装置は、視点Fを焦点とし光軸をFOとする撮像部101から紙面0を撮像して得られた画像Iから、視点Fを焦点とし光軸をFO’とする仮想カメラから紙面0を撮像して得られる画像Iを合成する。画像Iは紙面0を撮像面0に視点Fを基準として透視変換して得られる画像である。同様に、画像Iは撮像面1に視点Fを基準として透視変換して得られる画像である。
【0012】
スポット光照射部103は、視点Fから格子状のスポット光を紙面0に照射する。まず、画像I上の格子点座標の検出方法について述べる。スポット光を点滅させて、スポット光の写っていないときの画像と写っているときの画像とを撮像して、2種類の画像の明るさ成分の差分を表す画像を求める。差分画像において輝度差分の絶対値が大きくなっているところがスポット光のあたっているところであるので、適当な閾値を設定して輝度差分の絶対値が、閾値以上の領域を「1」とし、閾値より小さい領域を「0」とする2値画像を求める。「1」となる領域の重心の座標を求めて、その値を格子点の座標とする。
【0013】
スポット光は可視光、赤外光どちらでも用いることができる。赤外光を用いた場合は、画像Iを撮像する撮像部101は、スポット光の座標を求めるときは赤外線カメラとして働き、合成画像Iを求めるときは可視光カメラとして働く、赤外光/可視光切り替え可能のカメラを用いることが望ましい。
【0014】
スポット光のあたる点のひとつをPとする。格子点Pが撮像面0及び撮像面1に射影される点を、それぞれp及びpとする。先ず、pの座標からpの座標を求める方法について述べる。
【0015】
視点F,F,及びFを原点として3次元直交座標系XYZ,X’Y’Z’,及びX”Y”Z”をそれぞれ設定する。Z,Z’,及びZ”軸は、光軸と一致するように設定する。また、画像I及びIに2次元直交座標系xy,及びx’y’を設定する。x,x’軸はX,X’軸と、y,y’軸はY,Y’軸と、それぞれ平行になるように設定する。pの座標を(x,y)(xy座標系)とし、スポット光の方向をベクトル(x”,y”,1)(X”Y”Z”座標系)とし、Pの座標を(X,Y,Z)(XYZ座標系)および(X”,Y”,Z”)(X”Y”Z”座標系)とする。まず、(X,Y,Z)を(x,y)と(x”,y”,1)から求める。(x,y)と(X,Y,Z)の関係は透視変換の関係から(1)式で表される。fは視点Fから撮像面0までの距離である。
【数1】

Figure 2005011070
【0016】
また、(x”,y”,1)と(X”,Y”,Z”)の関係は(2)式で表される。
【数2】
Figure 2005011070
【0017】
また、(X,Y,Z)と(X”,Y”,Z”)の関係は(3)式で表される。行列(aij)はXYZ座標系からX”Y”Z”座標系への変換行列である。
【数3】
Figure 2005011070
【0018】
(2)及び(3)式より、X”,Y”,Z”を消去すると(4)式が得られる。c00,c01,c10,及びc11は、aijとx”,y”で表される定数である。
【数4】
Figure 2005011070
【0019】
(1)及び(4)式からX,Y,Zは(5)式で表される。
【数5】
Figure 2005011070
【0020】
次に、pの座標(x’,y’)(x’y’座標系)を求める。Pの座標(X’,Y’,Z’)(X’Y’Z’座標系)とする。(X,Y,Z)(X’,Y’,Z’)の関係は(6)式で表される。行列(dij)は、XYZ座標系をX’Y’Z’座標系に変換する変換行列である。
【数6】
Figure 2005011070
【0021】
また、(x’,y’)と(X’,Y’,Z’)の関係は(7)式で表される。fは視点Fから撮像面1までの距離である。
【数7】
Figure 2005011070
【0022】
(5)、(6)及び(7)式より、x’,y’を(8)式のように、aij,dij(i=0,1,2,j=0,1,2,3)、f,f,x,y,x”,y”の関数で表すことができる。ここで、h及びhは、関数を表す。
【数8】
Figure 2005011070
【0023】
次に、画像のアフィン変換について、図3を参照して説明する。紙面0を撮像した画像I上に写っているスポット光点p0ijの隣接する3点から構成される3角形領域に画像Iを分割する。p0ijの座標から、(8)式を用いて画像I上の各スポット点p1ijの座標を求める。画像I上の三角形p1ij1i(j+1)1(i+1)jから画像I上の三角形p0ij0i(j+1)0(i+1)jへのアフィン変換式を求める。p1ij、p1i(j+1)、及びp1(i+1)jの座標を(x1ij,y1ij)、(x1i(j+1),y1i(j+1))、及び(x1(i+1)j,y1(i+1)j)とし、p0ij、p0i(j+1)、及びp0(i+1)jの座標を(x0ij,y0ij)、(x0i(j+1),y0i(j+1))、及び(x0(i+1)j,y0(i+1)j)とする。変換式は(9)式で表される。
【数9】
Figure 2005011070
【0024】
次に、三角形p1ij1i(j+1)1(i+1)j内の座標(x,y)の画素iの画素値r(x,y)、g(x,y)、及びb(x,y)を求める。(9)式を用いて画素iに対応する三角形p0ij0i(j+1)0(i+1)j内の画素iの座標(x,y)を求める(図4参照)。画素i(x,y)の画素値r(x,y)、g(x,y)、及びb(x,y)とすると、画素値r(x,y)、g(x,y)、及びb(x,y)は、r(x,y)、g(x,y)、及びb(x,y)と等しい。x及びyを、それぞれ整数部xi0及びyi0と、小数部xd0及びyd0に分けると、画素値r(x,y)、g(x,y)、及びb(x,y)は、図4に示す近傍の4画素i(xi0、yi0)、i(xi0+1、yi0)、i(xi0、yi0+1)、i(xi0+1、yi0+1)の画素値
(xi0,yi0)、g(xi0,yi0)、b(xi0,yi0)、
(xi0+1、yi0)、g(xi0+1、yi0)、b(xi0+1、yi0)、
(xi0、yi0+1)、g(xi0、yi0+1)、b(xi0、yi0+1)、
(xi0+1、yi0+1)、g(xi0+1、yi0+1)、b(xi0+1、yi0+1)、
を用いて、(10)式から求められる。
【数10】
Figure 2005011070
【0025】
図5は、上述した画像合成の手順を示すフローチャートである。ステップS1では、画像I上の格子点座標(x,y)を求め、ステップS2では、ステップS1で求めた格子点座標から、画像I上の格子点座標(x’,y’)を計算する。具体的には、(8)式が用いられる。
【0026】
ステップS3では、画像Iを、隣接する格子点座標を頂点とする三角形の領域に分割し、ステップS4では、画像I上の三角形領域を、画像I上の三角形領域に変換するアフィン変換式(9)を計算する。そして、ステップS5で、ステップS4で求めたアフィン変換式(9)を用いて画像Iの三角形領域の画像を、画像Iの三角形領域の画像から合成する。具体的には、(9)式及び(10)式が用いられる。
【0027】
以上のように本実施形態では、紙面0上に格子状のスポット光を照射し、スポット光が照射されている格子点の、画像I上の座標(x,y)及び画像I上の座標(x’,y’)が求められる。そして、スポット光が当たっている格子点を頂点とする三角形領域に、画像I及びIが分割され、画像I上の三角形領域を、画像I上の三角形領域に変換するアフィン変換式が求められ、そのアフィン変換式を用いて、画像I上の三角形領域内の画像が、画像I上の三角形領域の画像に変換される。その結果、紙面0に小さな凹凸がある場合でも、その凹凸による画像歪みを補正し、より正確な変換画像を合成することができる。
【0028】
(第2の実施形態)
図6は、本発明の第2の実施形態にかかる画像合成装置の構成を示す図である。また図7は、図6に対応する撮像面及び座標系を説明するための斜視図である。本実施形態では、赤外線により撮像する赤外線撮像部(赤外線カメラ)104が新たに設けられており、スポット光照射部103aは、赤外線のスポット光を照射する。また撮像部101aは、可視光により撮像するデジタルカメラである。
【0029】
赤外線撮像部104は、図7に示す視点Fを焦点として、その光軸が、視点Fと紙面0上の点0’’’とを結ぶ直線と一致するように設置されている。赤外線撮像部104の撮像面を撮像面3とし、赤外線撮像部104から得られる画像をIとし、格子点Pが撮像面3へ射影される点をp(x’’’,y’’’)とする。視点Fを原点に3次元直交座標系X’’’Y’’’Z’’’を設定する。また、画像Iに2次元座標系x’’’y’’’を設定する。pの座標を(x’’’,y’’’)、Pの座標を(X’’’,Y’’’,Z’’’)(X’’’Y’’’Z’’’座標系)とする。
【0030】
本実施形態では、まず、(x’’’,y’’’)と(x”,y”,1)から(X’’’,Y’’’,Z’’’)を求め、次に、(X’’’,Y’’’,Z’’’)から(X,Y,Z)と(X’,Y’,Z’)を求め、最後にp(x,y)、p(x’,y’)を求める。視点Fと撮像面3との距離をfとすると、(x’’’,y’’’)と(X’’’,Y’’’,Z’’’)の関係は(11)式で表される。
【数11】
Figure 2005011070
【0031】
また、(X’’’,Y’’’,Z’’’)と(X”、Y”、Z”)の関係は(12)式で表される。行列(gij)は、X’’’Y’’’Z’’’座標系からX”Y”Z”座標系の変換行列である。
【数12】
Figure 2005011070
【0032】
(2)、(11)、及び(12)式からX’’’,Y’’’,Z’’’を求める。X’’’,Y’’’,Z’’’は(13)式のようにgij(i=0,1,2,j=0,1,2,3)、x’’’,y’’’,x”,y”,fの関数となる。ここで、h〜hは、関数を表す。
【数13】
Figure 2005011070
【0033】
X’’’Y’’’Z’’’座標系からXYZ座標系への変換行列を(kij(i=0,1,2,j=0,1,2,3))とし、X’’’Y’’’Z’’’座標系からX’Y’Z’座標系への変換行列を(lij(i=0,1,2,j=0,1,2,3)とすると、x,y,x’,y’は(14)式で表される。ここで、h〜hは、関数を表す。
【数14】
Figure 2005011070
【0034】
以上により、画像I上の格子点の座標(x’,y’)が求められる。以後の画像変換の処理は、上述した第1の実施形態と同一である。
【0035】
【発明の効果】
以上詳述したように請求項1に記載の発明は、被写体表面に格子状のスポット光を照射し、撮像手段と異なる視点から被写体を撮影したとき得られる変換画像上の、前記スポット光が照射されている格子点の座標を求め、撮像手段により取り込まれた画像を、スポット光が当たっている格子点を頂点とする三角形領域に分割し、この三角形の頂点の座標と、前記変換画像上の格子点の座標から、前記三角形のアフィン変換式を求め、撮像手段により取り込まれた画像上の三角形領域の画像を、前記アフィン変換式を用いて、前記変換画像内の対応する三角形領域の画像に変換するようにしたので、被写体表面に小さな凹凸がある場合でも、その凹凸による画像歪みを補正し、より正確な変換画像を合成することができる。
【0036】
請求項2または3に記載の発明によれば、赤外光のスポット光を照射しながら、可視光の画像の変換処理を行うことができるので、処理を高速化することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態にかかる画像合成装置の構成を示す図である。
【図2】図1の装置における撮像面及び座標系を説明するための斜視図である。
【図3】画像を三角形領域に分割する処理を説明するための図である。
【図4】画素に対応する画素値を算出する手法を説明するための図である。
【図5】画像合成処理の手順を示すフローチャートである。
【図6】本発明の第2の実施形態にかかる画像合成装置の構成を示す図である。
【図7】図6の装置における撮像面及び座標系を説明するための斜視図である。
【符号の説明】
101,101a 撮像部(撮像手段)
102 画像処理部(座標算出手段、分割手段、変換式算出手段、画像変換手段)
103,103a スポット光照射部(スポット光照射手段)
104 赤外線撮像部(赤外光撮像手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image composition device for converting an image obtained by photographing an object surface from an oblique direction into an image obtained by photographing the object surface from the front by an image input device.
[0002]
[Prior art]
Since image distortion occurs when a subject is photographed from an oblique direction, Patent Documents 1 and 2 disclose a technique for correcting the image distortion on the assumption that the surface of the object is a plane.
[0003]
[Patent Document 1]
JP-A-5-101221 [Patent Document 2]
Japanese Patent Laid-Open No. 9-289600
[Problems to be solved by the invention]
However, in most cases, the subject surface is not a perfect plane but a curved surface having small irregularities, and thus the conventional method cannot correct the image distortion due to the irregularities. As a result, there is a problem that the image quality of the corrected image is poor.
[0005]
The present invention has been made paying attention to this point, and provides an image synthesizer capable of correcting image distortion caused by unevenness on the surface of a subject and synthesizing a more accurate converted image. The purpose is to do.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention described in claim 1 is directed to an imaging unit that captures an image by capturing a subject from a first viewpoint, and spot light that irradiates the subject with a lattice spot light from a second viewpoint. Irradiation means, coordinate calculation means for calculating coordinates of lattice points irradiated with the spot light on the converted image obtained when the subject is photographed from a third viewpoint, and captured by the imaging means A dividing unit that divides an image into triangular regions having adjacent lattice points as vertices, coordinates of the vertices of the triangles, and vertex coordinates obtained by calculation of the coordinate calculating unit, the affine transformation formula of the triangles A conversion formula calculation means for obtaining the image of the triangular region in the image captured by the imaging means, using the affine transformation formula, the corresponding triangle in the conversion image To provide an image synthesizing apparatus characterized by comprising the image converting means for converting the image of the area.
[0007]
According to a second aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the imaging unit can switch between imaging with infrared light and imaging with visible light, and the spot light irradiation unit. Is characterized by irradiating infrared light.
[0008]
According to a third aspect of the present invention, in the image composition device according to the first aspect of the present invention, the image synthesizing apparatus further includes an infrared imaging unit that captures an image of the subject from the fourth viewpoint and captures the image. Irradiating with external light.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing the configuration of an image composition apparatus according to the first embodiment of the present invention. The apparatus irradiates spot light on the paper surface 0 in a grid pattern, an imaging unit (digital camera) 101 that captures the paper surface 0 from an oblique upper side, an image processing unit 102 that processes image data captured by the imaging unit 101, and the like. A spot light irradiation unit 103 is provided. The image processing unit 102 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk device, and executes arithmetic processing related to image composition described below. .
[0010]
FIG. 2 is a perspective view for explaining an imaging surface and a coordinate system of the image composition apparatus shown in FIG. 1, and is referred to together with FIG. The imaging unit 101 is installed so that the viewpoint F 0 is a focal point and the optical axis thereof coincides with the Z axis in the drawing. The spot light irradiation unit 103 is installed at the position of the viewpoint F 2 so that the optical axis thereof coincides with the Z ″ axis in the drawing.
[0011]
The image synthesizing apparatus shown in FIG. 1 has a viewpoint F 1 as a focal point and an optical axis as a focal point from an image I 0 obtained by imaging the paper plane 0 from the imaging unit 101 whose focal point is the viewpoint F 0 and whose optical axis is F 0 O. An image I 1 obtained by imaging the paper surface 0 from the virtual camera F 1 O ′ is synthesized. The image I 0 is an image obtained by perspective-transforming the paper surface 0 with the imaging surface 0 and using the viewpoint F 0 as a reference. Similarly, the image I 1 is an image obtained by performing perspective transformation on the imaging surface 1 with the viewpoint F 1 as a reference.
[0012]
Spot light irradiating section 103 irradiates the viewpoint F 2 a grid spot light to the plane 0. First, a method for detecting lattice point coordinates on the image I 0 will be described. By blinking the spot light, an image when the spot light is not captured and an image when the spot light is captured are captured, and an image representing the difference between the brightness components of the two types of images is obtained. In the difference image, the point where the absolute value of the luminance difference is large is the spot light. Therefore, an appropriate threshold value is set, and the region where the absolute value of the luminance difference is equal to or greater than the threshold value is set to “1”. A binary image having a small area “0” is obtained. The coordinates of the center of gravity of the area “1” are obtained, and the value is used as the coordinates of the grid point.
[0013]
As the spot light, either visible light or infrared light can be used. When infrared light is used, the imaging unit 101 that captures the image I 0 functions as an infrared camera when determining the coordinates of the spot light, and functions as a visible light camera when determining the composite image I 1. / It is desirable to use a camera that can switch visible light.
[0014]
One of the spots where the spot light hits is assumed to be PO . The points where the grid point PO is projected onto the imaging surface 0 and the imaging surface 1 are defined as p 0 and p 1 , respectively. First, a method for obtaining the coordinates of p 1 from the coordinates of p 0 will be described.
[0015]
Three-dimensional orthogonal coordinate systems XYZ, X′Y′Z ′, and X ″ Y ″ Z ″ are set with the viewpoints F 0 , F 1 , and F 2 as the origins. The Z, Z ′, and Z ″ axes are Set to match the optical axis. In addition, two-dimensional orthogonal coordinate systems xy and x′y ′ are set in the images I 0 and I 1 . The x and x ′ axes are set to be parallel to the X and X ′ axes, and the y and y ′ axes are set to be parallel to the Y and Y ′ axes. The coordinate of p 0 is (x, y) (xy coordinate system), the direction of the spot light is a vector (x ″, y ″, 1) (X ″ Y ″ Z ″ coordinate system), and the coordinate of P 0 is ( X, Y, Z) (XYZ coordinate system) and (X ″, Y ″, Z ″) (X ″ Y ″ Z ″ coordinate system) First, (X, Y, Z) is set to (x, y). and (x ", y", 1 ) determined from. (x, y) and (X, Y, Z) .f 0 relationship represented by equation (1) from the relationship between the perspective transformation from the perspective F 0 This is the distance to the imaging plane 0.
[Expression 1]
Figure 2005011070
[0016]
Further, the relationship between (x ″, y ″, 1) and (X ″, Y ″, Z ″) is expressed by equation (2).
[Expression 2]
Figure 2005011070
[0017]
Further, the relationship between (X, Y, Z) and (X ″, Y ″, Z ″) is expressed by equation (3). The matrix (a ij ) is changed from the XYZ coordinate system to the X ″ Y ″ Z ″ coordinate system. Is a transformation matrix.
[Equation 3]
Figure 2005011070
[0018]
Erasing X ″, Y ″, Z ″ from Equations (2) and (3) gives Equation (4). C 00 , c 01 , c 10 , and c 11 are a ij and x ″, y "Is a constant represented by
[Expression 4]
Figure 2005011070
[0019]
From the expressions (1) and (4), X, Y and Z are expressed by the expression (5).
[Equation 5]
Figure 2005011070
[0020]
Next, the coordinates (x ′, y ′) (x′y ′ coordinate system) of p 1 are obtained. It is assumed that the coordinates of P 0 are (X ′, Y ′, Z ′) (X′Y′Z ′ coordinate system). The relationship of (X, Y, Z) (X ′, Y ′, Z ′) is expressed by equation (6). The matrix (d ij ) is a conversion matrix that converts the XYZ coordinate system to the X′Y′Z ′ coordinate system.
[Formula 6]
Figure 2005011070
[0021]
Further, the relationship between (x ′, y ′) and (X ′, Y ′, Z ′) is expressed by equation (7). f 1 is the distance from the viewpoint F 1 to the imaging surface 1.
[Expression 7]
Figure 2005011070
[0022]
From the expressions (5), (6) and (7), x ′ and y ′ are expressed as a ij , d ij (i = 0, 1, 2, j = 0, 1, 2, 3) It can be expressed by a function of f 0 , f 1 , x, y, x ″, y ″. Here, h 0 and h 1 represent functions.
[Equation 8]
Figure 2005011070
[0023]
Next, affine transformation of an image will be described with reference to FIG. The paper 0 divides the image I 0 in triangular area comprised of three neighboring points of the spot light spot p 0Ij that is reflected on the image I 0 captured. From the coordinates of p 0ij, the coordinates of each spot point p 1ij on the image I 1 are obtained using equation (8). Image I 1 on the triangle p 1ij p 1i (j + 1 ) p 1 (i + 1) triangle p on the image from j I 0 0ij p 0i (j + 1) p 0 (i + 1) determine the affine transformation equation to j. The coordinates of p 1ij , p 1i (j + 1) , and p 1 (i + 1) j are (x 1ij , y 1ij ), (x 1i (j + 1) , y 1i (j + 1) ), and (x 1 (i + 1) j , y 1 (i + 1) j ), and the coordinates of p 0ij , p 0i (j + 1) , and p 0 (i + 1) j are (x 0ij , y 0ij ), (x 0i (j + 1) , y 0i (j + 1) ), And (x 0 (i + 1) j , y 0 (i + 1) j ). The conversion equation is expressed by equation (9).
[Equation 9]
Figure 2005011070
[0024]
Next, the pixel values r 1 (x 1 , y 1 ), g 1 (x 1 , x 1 , y 1 ) of the pixel i 1 at the coordinates (x 1 , y 1 ) in the triangle p 1ij p 1i (j + 1) p 1 (i + 1) j y 1 ) and b 1 (x 1 , y 1 ) are obtained. The coordinates (x 0 , y 0 ) of the pixel i 0 in the triangle p 0ij p 0i (j + 1) p 0 (i + 1) j corresponding to the pixel i 1 are obtained using the equation (9) (see FIG. 4). Pixel i 0 (x 0, y 0) of the pixel value r 0 (x 0, y 0), g 0 (x 0, y 0), and b 0 If (x 0, y 0) to the pixel value r 1 (X 1 , y 1 ), g 1 (x 1 , y 1 ), and b 1 (x 1 , y 1 ) are r 0 (x 0 , y 0 ), g 0 (x 0 , y 0 ), And b 0 (x 0 , y 0 ). If x 0 and y 0 are divided into integer parts x i0 and y i0 and fractional parts x d0 and y d0 , respectively, pixel values r 1 (x 1 , y 1 ), g 1 (x 1 , y 1 ), And b 1 (x 1 , y 1 ) are the four neighboring pixels i 0 (x i0 , y i0 ), i 0 (x i0 +1, y i0 ), i 0 (x i0 , y i0 +1) shown in FIG. ), I 0 (x i0 +1, y i0 +1) pixel values r 0 (x i0 , y i0 ), g 0 (x i0 , y i0 ), b 0 (x i0 , y i0 ),
r 0 (x i0 +1, y i0 ), g 0 (x i0 +1, y i0 ), b 0 (x i0 +1, y i0 ),
r 0 (x i0 , y i0 +1), g 0 (x i0 , y i0 +1), b 0 (x i0 , y i0 +1),
r 0 (x i0 + 1, y i0 +1), g 0 (x i0 + 1, y i0 +1), b 0 (x i0 + 1, y i0 +1),
And is obtained from the equation (10).
[Expression 10]
Figure 2005011070
[0025]
FIG. 5 is a flowchart showing the above-described image composition procedure. In step S1, the lattice point coordinates (x, y) on the image I 0 are obtained. In step S2, the lattice point coordinates (x ′, y ′) on the image I 1 are obtained from the lattice point coordinates obtained in step S1. calculate. Specifically, equation (8) is used.
[0026]
In step S3, the image I 0, is divided into a triangular area whose vertices neighboring grid point coordinates, in step S4, affine transformation to transform a triangle area on the image I 1, the triangular area in the image I 0 Equation (9) is calculated. Then, in step S5, the affine transformation equation calculated in step S4 the image of the triangular area of the image I 1 with (9), is synthesized from the image of the triangular area of the image I 0. Specifically, the formulas (9) and (10) are used.
[0027]
As described above, in the present embodiment, lattice spot light is irradiated on the paper surface 0, and the coordinates (x, y) on the image I 0 and the image I 1 of the lattice point irradiated with the spot light are on the image I 1 . The coordinates (x ′, y ′) are determined. Then, the triangular area having vertices grid points is hitting the spot light, the image I 0 and I 1 is divided, affine transformation equation for converting the triangular region on the image I 1, the triangular area in the image I 0 And the image in the triangular area on the image I 0 is converted into the image of the triangular area on the image I 1 using the affine transformation formula. As a result, even when the paper surface 0 has small unevenness, it is possible to correct image distortion due to the unevenness and synthesize a more accurate converted image.
[0028]
(Second Embodiment)
FIG. 6 is a diagram showing a configuration of an image composition device according to the second embodiment of the present invention. FIG. 7 is a perspective view for explaining an imaging surface and a coordinate system corresponding to FIG. In the present embodiment, an infrared imaging unit (infrared camera) 104 that performs imaging with infrared rays is newly provided, and the spot light irradiation unit 103a emits infrared spot light. The imaging unit 101a is a digital camera that captures images with visible light.
[0029]
The infrared imaging unit 104 is installed so that the viewpoint F 3 shown in FIG. 7 is a focal point, and the optical axis thereof coincides with a straight line connecting the viewpoint F 3 and the point 0 ′ ″ on the paper surface 0. The imaging surface of the infrared imaging unit 104 is the imaging surface 3, the image obtained from the infrared imaging unit 104 is I 3 , and the point where the grid point P 0 is projected onto the imaging surface 3 is p 3 (x ′ ″, y ′). ''). A three-dimensional orthogonal coordinate system X ′ ″ Y ′ ″ Z ′ ″ is set with the viewpoint F 3 as the origin. In addition, a two-dimensional coordinate system x ′ ″ y ′ ″ is set for the image I 3 . the coordinates of p 3 (x ''',y'''), the coordinates of P 0 (X ''',Y''', Z ''')(X''' Y '''Z'''Coordinate system).
[0030]
In the present embodiment, first, (X ′ ″, Y ′ ″, Z ′ ″) is obtained from (x ′ ″, y ′ ″) and (x ″, y ″, 1), and then , (X ′ ″, Y ′ ″, Z ′ ″) to obtain (X, Y, Z) and (X ′, Y ′, Z ′), and finally p 0 (x, y), p 2 Find (x ′, y ′). When the distance between the viewpoint F 3 and the imaging surface 3 is f 3 , the relationship between (x ′ ″, y ′ ″) and (X ′ ″, Y ′ ″, Z ′ ″) is (11) It is expressed by a formula.
[Expression 11]
Figure 2005011070
[0031]
Further, the relationship between (X ′ ″, Y ″ ′, Z ′ ″) and (X ″, Y ″, Z ″) is expressed by the following equation (12). The matrix (g ij ) is expressed as X ′ This is a transformation matrix from the “Y” “Z” ”coordinate system to the X” Y ”Z” coordinate system.
[Expression 12]
Figure 2005011070
[0032]
X ′ ″, Y ′ ″, and Z ′ ″ are obtained from the expressions (2), (11), and (12). X ″ ′, Y ′ ″, Z ′ ″ are g ij (i = 0, 1, 2, j = 0, 1, 2, 3), x ′ ″, y as shown in equation (13). ''', x ", y ", is a function of f 3. Here, h 2 to h 4 represent functions.
[Formula 13]
Figure 2005011070
[0033]
A conversion matrix from the X ′ ″ Y ′ ″ Z ′ ″ coordinate system to the XYZ coordinate system is (k ij (i = 0, 1, 2, j = 0, 1, 2, 3)), and X ′ If the transformation matrix from the “Y ′”, “Z ′” coordinate system to the X′Y′Z ′ coordinate system is (l ij (i = 0, 1, 2, j = 0, 1, 2, 3)) , X, y, x ′, y ′ are expressed by the equation (14), where h 5 to h 8 represent functions.
[Expression 14]
Figure 2005011070
[0034]
As described above, the coordinates (x ′, y ′) of the lattice points on the image I 1 are obtained. The subsequent image conversion processing is the same as in the first embodiment described above.
[0035]
【The invention's effect】
As described above in detail, the invention according to claim 1 irradiates the spot light on the converted image obtained by irradiating the subject surface with the lattice spot light and photographing the subject from a different viewpoint from the imaging means. The coordinates of the lattice points that have been obtained are obtained, and the image captured by the imaging means is divided into triangular regions whose vertexes are the lattice points that are struck by the spot light. The triangular affine transformation formula is obtained from the coordinates of the grid points, and the triangular area image on the image captured by the imaging means is converted into the corresponding triangular area image in the transformed image using the affine transformation formula. Since the conversion is performed, even if there are small irregularities on the surface of the subject, the image distortion due to the irregularities can be corrected and a more accurate converted image can be synthesized.
[0036]
According to the second or third aspect of the invention, the visible light image conversion process can be performed while irradiating the infrared spot light, so that the process can be speeded up.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image composition device according to a first embodiment of the present invention.
2 is a perspective view for explaining an imaging surface and a coordinate system in the apparatus of FIG. 1; FIG.
FIG. 3 is a diagram for explaining processing for dividing an image into triangular regions;
FIG. 4 is a diagram for explaining a method of calculating a pixel value corresponding to a pixel.
FIG. 5 is a flowchart illustrating a procedure of image composition processing.
FIG. 6 is a diagram showing a configuration of an image composition device according to a second embodiment of the present invention.
7 is a perspective view for explaining an imaging surface and a coordinate system in the apparatus of FIG. 6. FIG.
[Explanation of symbols]
101, 101a Imaging unit (imaging means)
102 Image processing unit (coordinate calculating means, dividing means, conversion formula calculating means, image converting means)
103, 103a Spot light irradiation unit (spot light irradiation means)
104 Infrared imaging unit (infrared light imaging means)

Claims (3)

第1の視点から被写体を撮影して画像を取り込む撮像手段と、
第2の視点から前記被写体に格子状のスポット光を照射するスポット光照射手段と、
第3の視点から前記被写体を撮影したとき得られる変換画像上の、前記スポット光が照射されている格子点の座標を計算により求める座標算出手段と、
前記撮像手段により取り込まれた画像を、隣接する格子点を頂点とする三角形の領域に分割する分割手段と、
前記三角形の頂点の座標と、前記座標算出手段の計算により求められた格子点の座標から、前記三角形のアフィン変換式を求める変換式算出手段と、
前記撮像手段により取り込まれた画像における前記三角形領域の画像を、前記アフィン変換式を用いて、前記変換画像内の対応する三角形領域の画像に変換する画像変換手段とからなることを特徴とする画像合成装置。
Imaging means for capturing an image by photographing a subject from a first viewpoint;
Spot light irradiating means for irradiating the subject with lattice spot light from a second viewpoint;
Coordinate calculation means for calculating coordinates of lattice points irradiated with the spot light on a converted image obtained by photographing the subject from a third viewpoint;
A dividing unit that divides the image captured by the imaging unit into triangular regions having vertices at adjacent lattice points;
Conversion equation calculation means for obtaining an affine transformation expression of the triangle from the coordinates of the vertexes of the triangle and the coordinates of the lattice points obtained by calculation of the coordinate calculation means;
An image converting means for converting the image of the triangular area in the image captured by the imaging means into an image of a corresponding triangular area in the converted image using the affine transformation formula; Synthesizer.
前記撮像手段は、赤外光による撮像と、可視光による撮像とを切り替えて行うことができ、前記スポット光照射手段は赤外光を照射することを特徴とする請求項1に記載の画像合成装置。2. The image composition according to claim 1, wherein the imaging unit can switch between imaging with infrared light and imaging with visible light, and the spot light irradiation unit irradiates infrared light. apparatus. 第4の視点から被写体を、赤外線により撮影して画像を取り込む赤外線撮像手段をさらに備え、前記スポット光照射手段は赤外光を照射することを特徴とする請求項1に記載の画像合成装置。The image synthesizing apparatus according to claim 1, further comprising an infrared imaging unit that captures an image of the subject from the fourth viewpoint using infrared rays, and the spot light irradiation unit emits infrared light.
JP2003174674A 2003-06-19 2003-06-19 Image synthesis device Withdrawn JP2005011070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003174674A JP2005011070A (en) 2003-06-19 2003-06-19 Image synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003174674A JP2005011070A (en) 2003-06-19 2003-06-19 Image synthesis device

Publications (1)

Publication Number Publication Date
JP2005011070A true JP2005011070A (en) 2005-01-13

Family

ID=34098094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003174674A Withdrawn JP2005011070A (en) 2003-06-19 2003-06-19 Image synthesis device

Country Status (1)

Country Link
JP (1) JP2005011070A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147507A (en) * 2005-11-29 2007-06-14 Kurabo Ind Ltd Spectrometry and optical spectrometer
JP2016162218A (en) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 Image processing device, display device and control method of image processing device
CN108320290A (en) * 2017-12-29 2018-07-24 中国银联股份有限公司 Target Photo extracts antidote and device, computer equipment and recording medium
CN110992407A (en) * 2019-11-07 2020-04-10 武汉多谱多勒科技有限公司 Infrared and visible light image matching method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147507A (en) * 2005-11-29 2007-06-14 Kurabo Ind Ltd Spectrometry and optical spectrometer
JP2016162218A (en) * 2015-03-02 2016-09-05 セイコーエプソン株式会社 Image processing device, display device and control method of image processing device
CN108320290A (en) * 2017-12-29 2018-07-24 中国银联股份有限公司 Target Photo extracts antidote and device, computer equipment and recording medium
CN108320290B (en) * 2017-12-29 2021-10-22 中国银联股份有限公司 Target picture extraction and correction method and device, computer equipment and recording medium
CN110992407A (en) * 2019-11-07 2020-04-10 武汉多谱多勒科技有限公司 Infrared and visible light image matching method
CN110992407B (en) * 2019-11-07 2023-10-27 武汉多谱多勒科技有限公司 Infrared and visible light image matching method

Similar Documents

Publication Publication Date Title
CN110336987B (en) Projector distortion correction method and device and projector
TWI253006B (en) Image processing system, projector, information storage medium, and image processing method
JP5453000B2 (en) Method and apparatus for 3D digitizing an object
US9886759B2 (en) Method and system for three-dimensional data acquisition
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP2015128242A (en) Image projection device and calibration method of the same
JP2004046772A (en) Method, system and apparatus for processing image
JP2009081853A (en) Imaging system and method
JP2009017480A (en) Camera calibration device and program thereof
JP2005326247A (en) Calibrator, calibration method, and calibration program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
WO2020075252A1 (en) Information processing device, program, and information processing method
CN108062790B (en) Three-dimensional coordinate system establishing method applied to object three-dimensional reconstruction
JP6138779B2 (en) Automatic image synthesizer
JP4554231B2 (en) Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
Gu et al. 3dunderworld-sls: an open-source structured-light scanning system for rapid geometry acquisition
JP2005011070A (en) Image synthesis device
JP2018044942A (en) Camera parameter calculation device, camera parameter calculation method, program and recording medium
JP7040511B2 (en) Information processing equipment and methods
JP6684454B2 (en) Image processing apparatus and image processing method
KR102195762B1 (en) Acquisition method for high quality 3-dimension spatial information using photogrammetry
JP2005043083A (en) System and method for reducing photographing error, program, and recording medium
JP2001235819A (en) Calibration method and device for camera and corresponding point searching method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050929

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060824