JP2005275789A - Three-dimensional structure extraction method - Google Patents

Three-dimensional structure extraction method Download PDF

Info

Publication number
JP2005275789A
JP2005275789A JP2004087837A JP2004087837A JP2005275789A JP 2005275789 A JP2005275789 A JP 2005275789A JP 2004087837 A JP2004087837 A JP 2004087837A JP 2004087837 A JP2004087837 A JP 2004087837A JP 2005275789 A JP2005275789 A JP 2005275789A
Authority
JP
Japan
Prior art keywords
image
spherical
images
coordinate system
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004087837A
Other languages
Japanese (ja)
Inventor
Shigo Ri
仕剛 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2004087837A priority Critical patent/JP2005275789A/en
Publication of JP2005275789A publication Critical patent/JP2005275789A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional structure extraction method allowing easy and high-accuracy extraction of a three-dimensional structure of a photographic target over 360° around. <P>SOLUTION: The photographic target 10 over 360° around is projected on the surface 2 of a sphere 1 to form a first spherical image 20 displayed by a first coordinate system 21, and the photographic target is photographed from a position different from the first spherical image to form a second spherical image 30 displayed by a second coordinate system 31. Next, a translation vector t and a rotation matrix R converting the first coordinate system to the second coordinate system are calculated on the basis of an epipolar constraint condition, and position vectors m<SB>1i</SB>, m<SB>2i</SB>of a plurality of object point images p<SB>1i</SB>. p<SB>2i</SB>corresponding to each other in each of the first and second spherical images. Next, by calculating a distance ρ<SB>1</SB>from the origin of the first coordinate system to each object point of the photographic target corresponding to each of the plurality of object point images on the basis the translation vector, the rotation matrix, and the position vectors of the plurality of object point images corresponding to each other, the three-dimensional structure of the photographic target is extracted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、球体の表面に周囲360度にわたる撮影対象が投影されている球面画像から三次元構造を抽出する方法に関するものである。   The present invention relates to a method for extracting a three-dimensional structure from a spherical image in which a subject to be photographed having a 360-degree circumference is projected on the surface of a sphere.

撮影対象の三次元構造を抽出する技術として、例えば、特許文献1に開示されている技術が知られている。この技術では、カメラの位置を変えることによって撮影対象を異なる位置から撮影する。その各撮影で得られた平面画像から撮影対象の部分的な三次元構造を抽出する。そして、それらの複数の部分的三次元構造を合成して撮影対象の三次元構造を得ている。
特開2003−14421号公報
As a technique for extracting a three-dimensional structure to be imaged, for example, a technique disclosed in Patent Document 1 is known. In this technique, a subject to be photographed is photographed from different positions by changing the position of the camera. A partial three-dimensional structure to be photographed is extracted from the planar image obtained by each photographing. A plurality of partial three-dimensional structures are synthesized to obtain a three-dimensional structure to be photographed.
JP 2003-14421 A

しかしながら、上記従来技術のように、多数枚の部分視野画像(平面画像)から撮影対象の部分的な三次元構造をそれぞれ計算して一つに融合すると、計算処理などの作業が煩雑になる。また、三次元構造を抽出する際には、撮影したカメラの姿勢などを示す各種パラメータの推定などを行う必要があるが、撮影画像ごとにパラメータを推定しなければならない。そのため、精度の低下の恐れがある。   However, if the partial three-dimensional structures to be photographed are calculated from a large number of partial field images (planar images) and merged into one as in the conventional technique, the calculation processing and the like become complicated. Further, when extracting a three-dimensional structure, it is necessary to estimate various parameters indicating the posture of the photographed camera, etc., but the parameters must be estimated for each photographed image. For this reason, there is a risk of a decrease in accuracy.

そこで、本発明は、周囲360度にわたる撮影対象の三次元構造を簡易に精度よく抽出することが可能な三次元構造抽出方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a three-dimensional structure extraction method capable of easily and accurately extracting a three-dimensional structure of a subject to be photographed around 360 degrees.

上記課題を解決するために、本発明に係る三次元構造抽出方法は、周囲360度にわたる撮影対象が球体の表面に投影されており第1の座標系で表示される第1の球面画像を形成する工程と、第1の球面画像と異なる位置から撮影対象を撮影して得られる第2の球面画像であって、撮影対象が球体の表面に投影されており第2の座標系で表示される第2の球面画像を形成する工程と、第1の座標系から第2の座標系に変換するための並進ベクトル及び回転行列を、第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、及び、エピポーラ拘束条件に基づいて算出する工程と、第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、回転行列及び並進ベクトルに基づいて、複数の物点像それぞれに対応する撮影対象の各物点までの第1の座標系の原点からの距離を算出することによって撮影対象の三次元構造を抽出する工程とを備えることを特徴とする。   In order to solve the above-described problem, a three-dimensional structure extraction method according to the present invention forms a first spherical image that is displayed on a first coordinate system by projecting an object to be photographed around 360 degrees around the surface of a sphere. And a second spherical image obtained by photographing the subject from a position different from the first spherical image, the subject being projected on the surface of the sphere and displayed in the second coordinate system. A plurality of objects corresponding to each other in the first and second spherical images, the step of forming the second spherical image and the translation vector and the rotation matrix for converting from the first coordinate system to the second coordinate system. Based on the position vector of the point image and the step of calculating based on the epipolar constraint condition, and the position vector, rotation matrix and translation vector of a plurality of object point images corresponding to each other in each of the first and second spherical images, Multiple Characterized in that it comprises a step of extracting the three-dimensional structure of the imaging target by calculating the distance from the origin of the first coordinate system to each object point to be imaged corresponding to each object point image.

上記方法では、まず、周囲360度にわたる撮影対象を異なる位置で撮影して第1及び第2の球面画像を形成する。これにより、同じ撮影対象が投影された第1及び第2の球面画像が得られる。そして、上述した第1の座標系を第2の座標系に変換するための並進ベクトル及び回転行列を、(1)撮影対象に含まれている複数の物点が投影された各物点像であって第1及び第2の球面画像それぞれにおける互いに対応する複数の物点像の位置ベクトルと(2)エピポーラ拘束条件とに基づいて算出する。そして、その算出された並進ベクトル及び回転行列、並びに、前記第1及び第2の球面画像それぞれにおいて互いに対応する各物点像に基づいて、第1の座標系の原点から各物点までの距離を算出する。   In the above method, first, a first and second spherical images are formed by photographing a subject to be photographed around 360 degrees at different positions. Thereby, the 1st and 2nd spherical image on which the same imaging | photography object was projected is obtained. Then, the translation vector and the rotation matrix for converting the first coordinate system described above to the second coordinate system are (1) each object point image onto which a plurality of object points included in the object to be imaged are projected. Thus, the calculation is performed based on position vectors of a plurality of object point images corresponding to each other in the first and second spherical images and (2) epipolar constraint conditions. The distance from the origin of the first coordinate system to each object point based on the calculated translation vector and rotation matrix, and each object point image corresponding to each other in each of the first and second spherical images. Is calculated.

第1及び第2の球面画像は、周囲360度にわたる撮影対象が投影されたものである。そして、第1及び第2の球面画像を用いることによって、撮影対象に含まれる複数の各物点までの距離が算出される。したがって、複数の平面画像ごとに三次元構造を抽出し、それらを合成する場合に比べれば、容易に周囲360度にわたる撮影対象の三次元構造を抽出することができる。   The first and second spherical images are obtained by projecting a subject to be photographed over 360 degrees. Then, by using the first and second spherical images, distances to a plurality of object points included in the photographing target are calculated. Therefore, it is possible to easily extract the three-dimensional structure of the subject to be photographed over 360 degrees in comparison with the case of extracting the three-dimensional structure for each of the plurality of planar images and combining them.

また、本発明に係る三次元構造抽出方法においては、第1の球面画像は、180度以上の画角を有する魚眼レンズを備えた撮像装置を所定の位置に設置し、周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換し、それらの半球面画像を結合することによって形成されており、第2の球面画像は、撮像装置を上記所定の位置と異なる位置に設置し、周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換して、それらの半球面画像を結合して形成されていることが好ましい。   In the three-dimensional structure extraction method according to the present invention, the first spherical image is obtained by installing an imaging device having a fisheye lens having an angle of view of 180 degrees or more at a predetermined position and capturing an image of 360 degrees around. Among them, a planar image on which an imaging area covering at least 180 degrees around is projected and a planar image on which an imaging area including the remaining area is projected are acquired, each planar image is converted into a hemispherical image, and the hemispherical images are combined. The second spherical image is a flat image obtained by installing the imaging device at a position different from the predetermined position and projecting an imaging region of at least 180 degrees out of the imaging target of 360 degrees around the second spherical image. And a plane image on which the imaging area including the remaining area is projected, each plane image is converted into a hemispherical image, and these hemispherical images are combined to form It is preferable.

この場合、魚眼レンズの視野が180度以上であるため、周囲360度の撮影対象のうち少なくとも周囲180度の領域が投影された平面画像及び残りの領域が投影された平面画像それぞれを得ることができる。そのため、撮影対象の画像情報を多くて2回の撮影で取得することが可能である。そして、そのようにして得られた平面画像から第1又は第2の球面画像が形成されるので、精度のより高い球面画像を取得することが可能である。   In this case, since the field of view of the fisheye lens is 180 degrees or more, it is possible to obtain a planar image in which at least a surrounding area of 180 degrees is projected and a planar image in which the remaining areas are projected out of an imaging target of 360 degrees around. . For this reason, it is possible to acquire a large amount of image information to be captured by capturing twice. Since the first or second spherical image is formed from the planar image thus obtained, it is possible to acquire a spherical image with higher accuracy.

本発明によれば、周囲360度にわたる撮影対象の三次元構造を簡易に精度よく抽出することが可能な三次元構造抽出方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the three-dimensional structure extraction method which can extract the three-dimensional structure of 360 degree | times surrounding circumference | surroundings easily and accurately can be provided.

以下、図を参照して本発明の好適な実施形態について説明する。尚、以下の説明においては、同一の要素には同一の符号を用いることとし重複する説明は省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are used for the same elements, and redundant descriptions are omitted.

まず、本実施形態において撮影対象の三次元構造を抽出するための球面画像について説明する。本実施形態における球面画像とは、系外の全天周(周囲360度)に位置する撮影対象が球体の表面に投影されたものである。図1を参照してより具体的に説明する。   First, a spherical image for extracting a three-dimensional structure to be imaged in the present embodiment will be described. The spherical image in the present embodiment is obtained by projecting a shooting target located on the entire sky outside the system (around 360 degrees) on the surface of a sphere. A more specific description will be given with reference to FIG.

図1は、球面画像を説明する図である。図1に示すように、空間上に単位半径の球体1を考え、その中心Oを原点として互いに直交するX軸、Y軸、Z軸を設定する。空間上の任意の点P(iは任意の整数)と球の中心Oとを結ぶ球体の表面2上の点をpとする。 FIG. 1 is a diagram for explaining a spherical image. As shown in FIG. 1, a sphere 1 having a unit radius is considered in space, and an X axis, a Y axis, and a Z axis that are orthogonal to each other with the center O as an origin are set. A point on the surface 2 of the sphere connecting an arbitrary point P i (i is an arbitrary integer) in space and the center O of the sphere is defined as pi .

上記点Pの位置ベクトルMは、次のように表される。

Figure 2005275789
また、点pと原点Oとを結ぶ直線のZ軸からの仰角をθとし、X軸からの方位角をφとすると、点pの位置ベクトルmは、次のように表される。
Figure 2005275789
上記点pは点Pが球体の表面へ投影された点に相当する。すなわち、点Pからの光が中心Oに向かって進んでいるときに球体1の表面2と交わる点がpであり、点pは点Pからの光が担う画像を形成するために必要な情報(画像情報)を有している。 The position vector M i of the point P i is expressed as follows.
Figure 2005275789
Further, if the elevation angle from the Z axis of the straight line connecting the point p i and the origin O is θ i and the azimuth angle from the X axis is φ i , the position vector mi of the point p i is expressed as follows: Is done.
Figure 2005275789
The point p i corresponds to the point where the point P i is projected onto the surface of the sphere. That is, when the light from the point P i is traveling toward the center O, the point that intersects the surface 2 of the sphere 1 is p i , and the point p i forms an image carried by the light from the point P i. Necessary information (image information).

また、点Pと球の中心Oとを結ぶ球体1の表面2上の点がpであるので、

Figure 2005275789
が成り立つ。ここで、ρiは原点Oから点Pまでの距離であって、
Figure 2005275789
で定義される。 In addition, since the point on the surface 2 of the sphere 1 that connects the point P i and the center O of the sphere is p i ,
Figure 2005275789
Holds. Where ρ i is the distance from the origin O to the point P i ,
Figure 2005275789
Defined by

(式3)において、1/ρは、スケール因子として機能している。また、(式3)及び(式4)より、1/ρを別にすれば(原点OからPiが十分遠くに位置していることに相当)、位置ベクトルm,Mとは一致する。これは、球体1の表面2には、中心Oから見ることができる、系外の周囲360度に位置する撮影対象を投影することができることを示している。このように画像情報を有している球体1の表面2が球面画像に相当する。なお、以下では、点Pを物点とも称し、点pを物点Pが投影された点として物点像とも称す。 In (Expression 3), 1 / ρ i functions as a scale factor. Further, from (Equation 3) and (Equation 4), if 1 / ρ i is separated (corresponding to P i being located sufficiently far from the origin O), the position vectors m i and M i coincide with each other. To do. This indicates that an imaging object that can be seen from the center O and located around 360 degrees outside the system can be projected onto the surface 2 of the sphere 1. Thus, the surface 2 of the sphere 1 having image information corresponds to a spherical image. In the following, the point P i is also referred to as an object point, and the point p i is also referred to as an object point image as a point on which the object point P i is projected.

次に、図2及び図3を参照して上記球面画像を形成する方法について説明する。この球面画像は、画角185度を有する魚眼レンズによって結像された2つの平面画像を利用して形成される。   Next, a method for forming the spherical image will be described with reference to FIGS. This spherical image is formed using two planar images formed by a fisheye lens having an angle of view of 185 degrees.

図2は、撮影対象の撮影方法を説明する図である。図2では、図中に示している円で撮影対象10を模式的に表しており、画角wが185度の魚眼レンズが円の中心に位置するものとする。周囲360度にわたる撮影対象10のうち、魚眼レンズの視野に含まれる185度の撮影領域11を、その魚眼レンズによって結像して平面画像を取得する。次に、撮影対象10のうち残りの領域を含む撮影領域12を魚眼レンズによって結像して平面画像を取得する。これらの平面画像を半球面画像に変換した後に結合して球面画像を形成する。   FIG. 2 is a diagram for explaining a photographing method of a photographing target. In FIG. 2, it is assumed that the subject 10 is schematically represented by a circle shown in the drawing, and a fisheye lens having an angle of view w of 185 degrees is positioned at the center of the circle. A 185 degree imaging region 11 included in the field of view of the fish-eye lens is imaged by the fish-eye lens among the imaging object 10 extending 360 degrees around to obtain a planar image. Next, the imaging area 12 including the remaining area of the imaging object 10 is imaged by a fisheye lens to obtain a planar image. These planar images are converted into hemispherical images and then combined to form a spherical image.

図3を参照して、平面画像(被写体像)を半球面画像に変換するための原理について説明する。   The principle for converting a planar image (subject image) into a hemispherical image will be described with reference to FIG.

図3(a)は魚眼レンズの結像特性を説明するための図である。図3(a)は、魚眼レンズが中心Oに位置しており、魚眼レンズの視野内の物点P(図1のPに相当)からの外光が魚眼レンズに入射している状態を示している。なお、ここでは、説明を簡便化するため図3に記載の魚眼レンズの画角は180度としている。 FIG. 3A is a diagram for explaining the imaging characteristics of the fisheye lens. FIG. 3A shows a state in which the fisheye lens is located at the center O, and external light from an object point P i (corresponding to P i in FIG. 1) in the visual field of the fisheye lens is incident on the fisheye lens. Yes. Here, in order to simplify the explanation, the angle of view of the fish-eye lens shown in FIG. 3 is 180 degrees.

図3(b)は、魚眼レンズの像面3を示す図である。等距離射影方式の魚眼レンズでは、図3(a)に示す物点Pは、図3(b)の像面3において、位置座標(ri,φ)で表される点qに投影される。すなわち、物点Pは、方位角φは変わらず、画像中心Oからの距離rが次の式で表される点qに投影される。

Figure 2005275789
ここで、fは、魚眼レンズの焦点距離である。(式5)より、仰角θは、以下の式から算出される。
Figure 2005275789
(式6)を(式2)に代入すると、以下の式が得られる。
Figure 2005275789
図3に示す点qは、図1の物点Pの平面上への投影点であって、図1において物点Pを球体1の表面2上に投影した点pに対応している。ところで、点piと点qiとで方位角φiは一致している。したがって、(式7)は、点qの位置座標から点piの位置座標を得ることができることを示している。 FIG. 3B is a diagram illustrating the image plane 3 of the fisheye lens. In the equidistant projection type fisheye lens, an object point P i shown in FIG. 3A is projected onto a point q i represented by position coordinates (r i , φ i ) on the image plane 3 in FIG. Is done. That is, the object point P i is projected at a point q i where the azimuth angle φ i does not change and the distance r i from the image center O I is expressed by the following equation.
Figure 2005275789
Here, f is the focal length of the fisheye lens. From (Expression 5), the elevation angle θ i is calculated from the following expression.
Figure 2005275789
Substituting (Expression 6) into (Expression 2) yields the following expression.
Figure 2005275789
Q i points shown in FIG. 3 is a projected point on a plane of the object point P i in FIG. 1, the object point P i corresponding to p i that has been projected onto the surface 2 of the sphere 1 in FIG. 1 ing. By the way, the azimuth angle φ i coincides with the point p i and the point q i . Therefore, (Expression 7) indicates that the position coordinates of the point p i can be obtained from the position coordinates of the point q i .

魚眼レンズで得られる平面画像は点qの集まりである。したがって、平面画像を構成している各画素(すなわち、点q)の位置座標を特定することによって平面画像を半球面画像に変換することができる。 A planar image obtained with a fisheye lens is a collection of points q i . Therefore, the plane image can be converted into a hemispherical image by specifying the position coordinates of each pixel (that is, the point q i ) constituting the plane image.

上述したように、球面画像は、まず、図2に示す撮影対象10に含まれる撮影領域11,12それぞれが結像された平面画像を取得し、続いて、それらの平面画像を上記原理に基づいて半球面画像に変換し、2つの半球面画像を結合して形成される。   As described above, as the spherical image, first, a planar image in which each of the imaging regions 11 and 12 included in the imaging object 10 shown in FIG. 2 is formed is acquired, and then, these planar images are obtained based on the above principle. The image is converted into a hemispherical image and the two hemispherical images are combined to form.

半球面画像を結合する場合には、半球面画像の画像中心、魚眼レンズの焦点距離、及び、2つの半球面画像を表示する座標系の相対姿勢が校正されていることが好ましい。本実施形態では、次に説明する校正方法で校正を実施されているものとする。本実施形態では、画角が185度の魚眼レンズを用いていることを利用して校正する。   When combining the hemispherical images, it is preferable that the image center of the hemispherical image, the focal length of the fisheye lens, and the relative orientation of the coordinate system displaying the two hemispherical images are calibrated. In this embodiment, it is assumed that calibration is performed by the calibration method described below. In the present embodiment, calibration is performed using the fact that a fisheye lens having an angle of view of 185 degrees is used.

まず、画像中心を、魚眼レンズによって結像されて得られる平面画像に含まれる消失点対の交点として求める。消失点は、互いに略平行な直線群の無限遠での仮想的な交点である。魚眼レンズは、画角wが185度であるため、撮影対象に含まれる平行線群の一対の消失点が、平面画像中に現れる。そのため、異なる消失点対の交点として画像中心を校正する。   First, the center of the image is obtained as the intersection of the vanishing point pair included in the planar image obtained by imaging with the fisheye lens. The vanishing point is a virtual intersection at infinity of a group of straight lines that are substantially parallel to each other. Since the angle of view w of the fisheye lens is 185 degrees, a pair of vanishing points of the parallel line group included in the photographing target appears in the planar image. Therefore, the image center is calibrated as an intersection of different vanishing point pairs.

また、魚眼レンズの焦点距離を、一対の消失点間の距離rπをπで割ったものとして算出する。次に、上記のようにして求められた画像中心及び焦点距離に基づいて、2つの平面画像それぞれを半球面画像に変換する。そして、各半球面画像に含まれている、水平線に略平行な直線群に対する消失点と、水平線に直交する直線に略平行な直線群の消失点とに基づいて、2つの半球面画像を表示する座標系間の変換行列を算出する。この変換行列が、2つの半球面画像を表示する座標系間の相対姿勢に相当する。 Further, the focal length of the fisheye lens, calculates the distance r [pi between a pair of vanishing points as divided by [pi. Next, each of the two planar images is converted into a hemispherical image based on the image center and the focal length obtained as described above. Then, two hemispherical images are displayed based on the vanishing point for the straight line group substantially parallel to the horizontal line and the vanishing point of the straight line group substantially parallel to the straight line orthogonal to the horizontal line included in each hemispherical image. A transformation matrix between coordinate systems is calculated. This transformation matrix corresponds to the relative posture between coordinate systems displaying two hemispherical images.

次に、魚眼レンズの画角wが185度であることから、2つの半球面画像に重複している画像領域があることを利用して、上述のようにして算出された焦点距離及び変換行列を更に校正する。   Next, since the angle of view w of the fisheye lens is 185 degrees, the focal length and the transformation matrix calculated as described above are obtained using the fact that there are overlapping image areas in the two hemispherical images. Further calibrate.

以上のようにして、校正された画像中心、焦点距離及び2つの半球面画像間の相対姿勢に基づいて、2つの半球面画像を形成すると共に、それらを結合して1つの球面画像を得る。   As described above, two hemispherical images are formed based on the calibrated image center, focal length, and relative attitude between the two hemispherical images, and combined to obtain one spherical image.

ところで、球面画像は、周囲360度にわたる撮影対象10が投影されているため、全天周の撮影対象10の画像情報を有している。しかしながら、撮影対象10は、球体1の表面2に投影されているので、三次元構造(原点Oから物点Pまでの距離)は得られていない。 By the way, the spherical image has image information of the imaging object 10 of the entire sky because the imaging object 10 extending 360 degrees around is projected. However, the imaging object 10, because it is projected onto the surface 2 of the sphere 1, (the distance from the origin O to the object point P i) three-dimensional structure has not been obtained.

本実施形態の三次元構造抽出方法は、異なる位置で同一の撮影対象10が撮影されその撮影対象10が投影されている2つの球面画像を用いて撮影対象10の三次元構造を抽出することを特徴としている。   The three-dimensional structure extraction method according to the present embodiment extracts the three-dimensional structure of the shooting target 10 using two spherical images on which the same shooting target 10 is shot at different positions and the shooting target 10 is projected. It is a feature.

まず、2つの球面画像から三次元構造を抽出する原理を説明する。   First, the principle of extracting a three-dimensional structure from two spherical images will be described.

図4は、2つの球面画像から撮影対象の三次元構造の抽出方法を説明する図である。図4には、異なる位置で同一の撮影対象10を撮影して得られる第1の球面画像20及び第2の球面画像30を示している。第1の球面画像20を表示する第1の座標系21をX軸、Y軸、Z軸で表し、第2の球面画像30を表示する第2の座標系31をX軸、Y軸、Z軸で表す。 FIG. 4 is a diagram for explaining a method for extracting a three-dimensional structure to be photographed from two spherical images. FIG. 4 shows a first spherical image 20 and a second spherical image 30 obtained by photographing the same subject 10 at different positions. A first coordinate system 21 for displaying the first spherical image 20 is represented by X 1 axis, Y 1 axis, and Z 1 axis, and a second coordinate system 31 for displaying the second spherical image 30 is represented by X 2 axis, Y 2 axis, Z 2 axis.

第1及び第2の球面画像20,30には、同じ撮影対象10が投影されている。したがって、撮影対象10に含まれる物点Pは、第1及び第2の球面画像20,30に物点像p1i,p2iとして現れている。 The same subject 10 is projected on the first and second spherical images 20 and 30. Therefore, the object point P i included in the subject 10 appears as object point images p 1i and p 2i in the first and second spherical images 20 and 30.

ここで、物点Pの第1の座標系21における位置ベクトルをM1iとし、物点Pの第2の座標系31における位置ベクトルをM2iとする。また、第2の座標系31から第1の座標系21へ変換するための回転行列をRとする。更に、第1の座標系21から第2の座標系31へ変換するための並進ベクトルを

Figure 2005275789
とする。なお、回転行列R及び並進ベクトルtは、第1の座標系21と第2の座標系31との間の相対姿勢情報に相当する。 Here, the position vector of the object point P i in the first coordinate system 21 is M 1i, and the position vector of the object point P i in the second coordinate system 31 is M 2i . Also, let R be a rotation matrix for conversion from the second coordinate system 31 to the first coordinate system 21. Furthermore, a translation vector for converting from the first coordinate system 21 to the second coordinate system 31 is
Figure 2005275789
And Note that the rotation matrix R and the translation vector t correspond to relative posture information between the first coordinate system 21 and the second coordinate system 31.

第1及び第2の球面画像20,30は、同じ撮影対象10を異なる位置で撮影しているので、上記ベクトルM2i,t,(RM1i+t)は同一平面上にある(エピポーラ拘束条件)。したがって、

Figure 2005275789
が成り立つ。 Since the first and second spherical images 20 and 30 are obtained by photographing the same subject 10 at different positions, the vectors M 2i , t and (RM 1i + t) are on the same plane (epipolar constraint condition) ). Therefore,
Figure 2005275789
Holds.

ここで、並進ベクトルtの各並進成分(t,t,t)を用いて表される歪対称行列Tを、

Figure 2005275789
とすると、(式9)は、
Figure 2005275789
と表される。 Here, a distortion symmetric matrix T expressed using each translation component (t x , t y , t z ) of the translation vector t is expressed as follows:
Figure 2005275789
Then, (Equation 9) becomes
Figure 2005275789
It is expressed.

(式3)より、位置ベクトルM1iと位置ベクトルm1iは、スケール因子(1/ρ1i)を別とすれば等しい(すなわち、ベクトルの方向は同じ)。また、同様に、位置ベクトルM2iと位置ベクトルm2iは、スケール因子以外は等しい。 From (Expression 3), the position vector M 1i and the position vector m 1i are the same except for the scale factor (1 / ρ 1i ) (that is, the vector directions are the same). Similarly, the position vector M 2i and the position vector m 2i are equal except for the scale factor.

そのため、(式9)は、

Figure 2005275789
となる。 Therefore, (Equation 9) is
Figure 2005275789
It becomes.

(式12)は、第1及び第2の球面画像20,30それぞれにおいて、互いに対応する複数の物点像p1i,p2iの位置ベクトルmli,m2iがわかれば、回転行列R及び並進ベクトルtを算出することができることを示している。 (Equation 12) is obtained when the position vectors m li and m 2i of the plurality of object point images p 1i and p 2i corresponding to each other are found in the first and second spherical images 20 and 30, respectively. It shows that the vector t can be calculated.

言い換えれば、位置ベクトルmli,m2i及びエピポーラ拘束条件(すなわち、ベクトルm2i、t、(Rm1i+t)が同一平面上にあるという条件)に基づいて、回転行列R及び並進ベクトルtを算出することができる。この際、回転行列R及び並進ベクトルtを算出するために必要な物点像p1i(p2i)の数は、(式12)の解き方において相違するが、例えば、線形解法を用いる場合には8個以上である。 In other words, the rotation matrix R and the translation vector t are calculated based on the position vectors m li and m 2i and the epipolar constraint conditions (that is, the condition that the vectors m 2i , t and (Rm 1i + t) are on the same plane). can do. At this time, the number of object point images p 1i (p 2i ) necessary for calculating the rotation matrix R and the translation vector t differs in the method of solving (Equation 12). For example, when using a linear solution method, 8 or more.

次に、上記のようにして回転行列R及び並進ベクトルtが算出された場合に、第1の座標系21における原点Oから物点Pまでの距離の算出方法について説明する。 Next, a method for calculating the distance from the origin O 1 to the object point P i in the first coordinate system 21 when the rotation matrix R and the translation vector t are calculated as described above will be described.

第1及び第2の座標系21,31それぞれにおいて、物点Pまでの距離をρ1i,ρ2iとすると、

Figure 2005275789
が成立する。 In each of the first and second coordinate systems 21 and 31, if the distances to the object point P i are ρ 1i and ρ 2i ,
Figure 2005275789
Is established.

(式13)の両辺に位置ベクトルm2iをかける、すなわち、両辺の各項とm2iの外積をとると、第1の座標系21における原点Oから物点Pまでの距離ρ1iは、

Figure 2005275789
と表される。 When the position vector m 2i is applied to both sides of (Equation 13), that is, the outer product of each term on both sides and m 2i is taken, the distance ρ 1i from the origin O I to the object point P i in the first coordinate system 21 is ,
Figure 2005275789
It is expressed.

したがって、撮影対象10に含まれる物点Pに対応する第1及び第2の球面画像20,30での物点像p1i2iの位置ベクトルm1i,m2i、回転行列R及び並進ベクトルtが既知ならば、(式14)によって、距離ρ1iが算出される。また、第1の球面画像20には、周囲360度にわたる撮影対象10が投影されている。したがって、第1の球面画像20から撮影対象10の三次元構造を抽出することができる。 Therefore, the position vectors m 1i and m 2i of the object point images p 1i and p 2i in the first and second spherical images 20 and 30 corresponding to the object point P i included in the subject 10, the rotation matrix R, and the translation vector. If t is known, the distance ρ 1i is calculated by (Equation 14). In addition, on the first spherical image 20, the imaging target 10 extending 360 degrees around is projected. Therefore, the three-dimensional structure of the subject 10 can be extracted from the first spherical image 20.

次に、上記原理を適用して撮影対象10の三次元構造を抽出するための撮影システム40について説明する。   Next, the imaging system 40 for extracting the three-dimensional structure of the imaging target 10 by applying the above principle will be described.

図5は、撮影システム40の構成を示すブロック図である。撮影システム40は、撮像装置41と、撮像装置41で得られた画像を解析する解析装置42とを備える。   FIG. 5 is a block diagram illustrating a configuration of the imaging system 40. The imaging system 40 includes an imaging device 41 and an analysis device 42 that analyzes an image obtained by the imaging device 41.

撮像装置41は、画角が185度の魚眼レンズ41Aと撮像素子41Bとを含んで構成される。魚眼レンズ41Aの射影方式は等距離射影方式である。魚眼レンズ41Aは、必ずしも1枚のレンズを意味するものではなく、魚眼レンズ特性を有するレンズ系も含む意味である。撮像素子41Bは、フォトダイオードなどからなるセル(画素)が2次元的に配列された受光面を有し、魚眼レンズ41Aで結像された撮影対象10の像(被写体像)を撮像して電気信号(画像データ)として出力する。撮像素子41Bは、例えば、CCD撮像素子である。撮像素子41Bからの電気信号は、解析装置42に入力される。   The imaging device 41 includes a fisheye lens 41A having an angle of view of 185 degrees and an imaging element 41B. The projection method of the fisheye lens 41A is an equidistant projection method. The fisheye lens 41A does not necessarily mean a single lens, but also includes a lens system having fisheye lens characteristics. The imaging element 41B has a light receiving surface in which cells (pixels) made of photodiodes and the like are two-dimensionally arranged. The imaging element 41B captures an image (subject image) of the subject 10 imaged by the fisheye lens 41A. Output as (image data). The image sensor 41B is, for example, a CCD image sensor. The electrical signal from the image sensor 41B is input to the analysis device 42.

撮像装置41は、撮像装置41の周囲360度のうち、図中に示すA方向に魚眼レンズ41Aを向けて撮影して得られる平面画像と、撮像装置41を約180度反転させて、図中に示すB方向に魚眼レンズ41Aを向けて撮影対象10を撮影して得られる平面画像の画像データを解析装置42に入力する。   The imaging device 41 inverts the planar image obtained by shooting the fisheye lens 41A in the direction A shown in the drawing and rotating the imaging device 41 about 180 degrees out of 360 degrees around the imaging device 41 in the drawing. Image data of a planar image obtained by photographing the subject 10 with the fisheye lens 41 </ b> A directed in the B direction shown in FIG.

解析装置42は、マイクロコンピュータのハードウェアおよびソフトウェアを利用して構成される。この解析装置42は、球面画像形成部42A、相対姿勢算出部42B及び三次元構造抽出部42Cを含んで構成される。   The analysis device 42 is configured using microcomputer hardware and software. The analyzing device 42 includes a spherical image forming unit 42A, a relative posture calculating unit 42B, and a three-dimensional structure extracting unit 42C.

球面画像形成部42Aは、撮像装置41から入力された2つの平面画像それぞれに対応する画像データを用いて、上述した原理に基づいて球面画像を形成する。球面画像形成部42Aは、撮影を実施すべき位置(所定の位置)において撮影対象10が撮影された平面画像に基づいて第1の球面画像20を形成する。また、球面画像形成部42Aは、上記所定の位置とは異なる位置で撮影対象10が撮影された平面画像に基づいて第2の球面画像30を形成する。なお、第1及び第2の球面画像20,30の形成とは、平面画像の画像データを、球面画像による表示が可能な画像データに変換することを意味している。   The spherical image forming unit 42A uses the image data corresponding to each of the two planar images input from the imaging device 41 to form a spherical image based on the principle described above. The spherical image forming unit 42A forms the first spherical image 20 on the basis of a planar image obtained by photographing the subject 10 at a position (predetermined position) where photographing is to be performed. Further, the spherical image forming unit 42A forms the second spherical image 30 based on the planar image obtained by photographing the subject 10 at a position different from the predetermined position. The formation of the first and second spherical images 20 and 30 means that the image data of the planar image is converted into image data that can be displayed as a spherical image.

第1の座標系21の原点O、及び、第2の座標系31の原点Oは、それぞれの撮影位置における撮像装置41によって形成される座標系(いわゆるカメラ座標系)の原点に対応する。 Origin O 1 of the first coordinate system 21, and the origin O 2 of the second coordinate system 31 corresponds to the origin of the coordinate system formed by the imaging device 41 at each imaging position (so-called camera coordinate system) .

相対姿勢算出部42Bは、図4に示す第1の座標系21から第2の座標系31に変換するための並進ベクトルt及び回転行列Rを、(式12)に基づいて算出する。並進ベクトルtと回転行列Rとを算出する場合に用いる複数の物点像p1i,p2iは、第1及び第2の球面画像20,30から自動的に抽出するようにしてもよいが、例えば、作業者がディスプレイなどに表示される画像に基づいて手動で抽出してもよい。 The relative attitude calculation unit 42B calculates a translation vector t and a rotation matrix R for converting from the first coordinate system 21 to the second coordinate system 31 shown in FIG. 4 based on (Expression 12). A plurality of object point images p 1i and p 2i used when calculating the translation vector t and the rotation matrix R may be automatically extracted from the first and second spherical images 20 and 30. For example, the operator may manually extract based on an image displayed on a display or the like.

ここで、第1及び第2の球面画像20,30から物点像を抽出するとは、必ずしも第1及び第2の球面画像20,30から直接抽出する場合に限られない。第1及び第2の球面画像20,30を形成するために用いた各平面画像において物点像を抽出しておき、それらを球面画像の物点像に変換した(球面画像表示用の画像データに変換した)場合も含む。   Here, extracting the object point image from the first and second spherical images 20 and 30 is not necessarily limited to extracting directly from the first and second spherical images 20 and 30. An object point image is extracted from each planar image used to form the first and second spherical images 20 and 30 and converted into an object point image of a spherical image (image data for displaying a spherical image). (Converted to).

三次元構造抽出部42Cは、上記物点像p1i,p2iの位置ベクトルm1i,m2i、並進ベクトルt及び回転行列Rを用いて、(式14)より、各物点像p1iに対応する撮影対象10の物点Pまでの距離ρ1iを算出する。 The three-dimensional structure extraction unit 42C is the object point image p 1i, with the position vector m 1i of p 2i, m 2i, a translation vector t and rotation matrix R, from equation (14), each object point image p 1i The distance ρ 1i to the object point P i of the corresponding photographing object 10 is calculated.

解析装置42は、撮像素子から入力される画像データ等を一時記憶するRAM(Random Access Memory)、上記球面画像形成部42A、相対姿勢算出部42B及び三次元構造抽出部42Cで実施される各処理のためのプログラムやデータが格納されたROM(Read Only Memory)、このROMに格納されたプログラムを実行することにより、ROMおよびRAMに記憶されたデータに基づいて各種の演算処理を行うCPU(Central Processing Unit)などの図示しないハードウェアを備えている。   The analysis device 42 is a RAM (Random Access Memory) that temporarily stores image data and the like input from the image sensor, each process performed by the spherical image forming unit 42A, the relative orientation calculating unit 42B, and the three-dimensional structure extracting unit 42C. ROM (Read Only Memory) storing a program and data for the CPU, and a CPU (Central Processing Unit) that performs various arithmetic processing based on data stored in the ROM and RAM by executing the program stored in the ROM (Not shown) such as Processing Unit).

上記撮影システム40を用いて三次元構造抽出方法について説明する。   A three-dimensional structure extraction method using the imaging system 40 will be described.

図6は、第1及び第2の球面画像20,30を取得するための撮影対象10に対する撮像装置41の撮影位置を示すものである。撮像装置41の周囲360度の風景が撮影対象10であるが、例えば、図6では、1つの部屋を撮影対象10としている。   FIG. 6 shows the shooting position of the imaging device 41 with respect to the shooting target 10 for acquiring the first and second spherical images 20 and 30. A 360 degree landscape around the imaging device 41 is the subject 10 to be photographed. For example, in FIG.

まず、第1の撮影点51(所定の位置)に撮像装置41を配置し、図6中のA方向に魚眼レンズ41Aを向けて魚眼レンズ41Aの視野に含まれる撮影対象10の撮影領域を撮影する。そして、撮影によって得られた平面画像の画像データを解析装置42に入力する。また、撮像装置41を、魚眼レンズ41Aの焦点を通る軸に沿って回転し、図中のB方向に魚眼レンズ41Aを向けて撮影対象10の残りの領域を含む撮影領域を撮影する。そして、その撮影によって得られた平面画像の画像データを解析装置42に入力する。説明の便宜のために、A方向、A方向に分けているが、これらは実質的に同じ方向を示している。B方向及びB方向の関係も同様である。 First, an imaging device 41 disposed on the first shot point 51 (a predetermined position), photographs the imaging area of the imaging target 10 included in the field of view of the fisheye lens 41A toward the fisheye lens 41A in the A 1 direction in FIG. 6 . Then, the image data of the planar image obtained by photographing is input to the analysis device 42. Further, the imaging device 41, rotates along an axis passing through the focal point of the fish-eye lens 41A, photographs the imaging area including the remaining area of the imaging target 10 toward a fisheye lens 41A in B 1 direction in FIG. Then, the image data of the planar image obtained by the photographing is input to the analysis device 42. For convenience of explanation, A 1 direction and is divided into A 2 direction, which are substantially shown the same direction. B 1 direction and the B 2 direction of relationship is the same.

解析装置42の球面画像形成部42Aは、撮影装置41の周囲360度の撮影対象10が投影され第1の座標系21で表示される第1の球面画像20を形成する。   The spherical image forming unit 42 </ b> A of the analysis device 42 forms the first spherical image 20 displayed on the first coordinate system 21 by projecting the imaging object 10 around 360 ° around the imaging device 41.

次に、撮影対象10である部屋において、第1の撮影点51と異なる第2の撮影点52に撮像装置41を移動させ、第1の撮影点51の場合と同様にして、第2の球面画像30を形成する。第2の球面画像30には、撮影装置41の周囲360度の撮影対象10が投影されている。また、第2の球面画像30は、第2の座標系31で表示されている。   Next, the imaging device 41 is moved to a second imaging point 52 different from the first imaging point 51 in the room that is the imaging object 10, and the second spherical surface is obtained in the same manner as in the case of the first imaging point 51. An image 30 is formed. On the second spherical image 30, a subject to be photographed 360 degrees around the photographing device 41 is projected. Further, the second spherical image 30 is displayed in the second coordinate system 31.

第1及び第2の球面画像20,30は、周囲360度にわたる撮影対象10が球体1(図1参照)の表面2に投影されたものであるため、第1及び第2の球面画像20,30には、同じ撮影対象10が投影されている。   The first and second spherical images 20 and 30 are obtained by projecting the subject 10 covering 360 degrees around the surface 2 of the sphere 1 (see FIG. 1). 30, the same subject 10 is projected.

次に、解析装置42の相対姿勢算出部42Bは、第1の球面画像20及び第2の球面画像30それぞれにおいて、互いに対応する物点像p1i,p2iを抽出する。これは、作業者が抽出した点を受けつけても良い。解析装置42の相対姿勢算出部42Bは、物点像p1i,p2iの位置ベクトルm1i,m2iを(式12)に代入して、並進ベクトルt及び回転行列Rを算出する。 Next, the relative posture calculation unit 42B of the analysis device 42 extracts object point images p 1i and p 2i that correspond to each other in each of the first spherical image 20 and the second spherical image 30. This may accept points extracted by the operator. The relative orientation calculation unit 42B of the analyzer 42, by substituting the object point image p 1i, a position vector m 1i of p 2i, the m 2i in (Equation 12), to calculate a translation vector t and rotation matrix R.

続いて、三次元構造抽出部42Cが、互いに対応する物点像p1i,p2iの位置ベクトルm1i,m2i、並びに、相対姿勢算出部42Bによって算出された並進ベクトルt及び回転行列Rを用いて(式14)より、各物点像p1iに対応する撮影対象10の物点Pまでの距離ρ1iを算出する。 Subsequently, the three-dimensional structure extraction unit 42C obtains the position vectors m 1i and m 2i of the object point images p 1i and p 2i corresponding to each other, the translation vector t and the rotation matrix R calculated by the relative posture calculation unit 42B. used than in (equation 14), to calculate a distance [rho 1i to the object point P i of the imaging subject 10 corresponding to each object point image p 1i.

第1の球面画像20には、撮影対象10が投影されている。そして、上記工程によって第1の座標系21における物点Pまでの距離ρ1iが算出される。すなわち、撮影対象10の三次元構造が抽出される。なお、最終的な周囲の三次元構造の融合は、球面画像に含まれる特徴点(物点像)を合致させて実現する。 The subject 10 is projected on the first spherical image 20. The distance ρ 1i to the object point P i in the first coordinate system 21 is calculated by the above process. That is, the three-dimensional structure of the subject 10 is extracted. Note that the final fusion of the surrounding three-dimensional structure is realized by matching feature points (object point images) included in the spherical image.

また、三次元構造の抽出は次のようにしてもよい。図7は、三次元構造抽出方法を示すフローチャートである。   The three-dimensional structure may be extracted as follows. FIG. 7 is a flowchart showing a three-dimensional structure extraction method.

まず、第1及び第2の球面画像20,30(図4参照)を形成するために第1及び第2の撮影点51,52(図6参照)それぞれで撮影された平面画像において、互いに対応する特徴点(すなわち、上記物点像m1i,m2iの平面画像に対応する点)を探索する(S10)。ここでは、説明のため、例えば、8個の特徴点を抽出する。なお、この探索は、ソフトウェアとして構成されており平面画像の画像データに基づいて特徴点を抽出する特徴点探索フィルターを用いてもよい。また、例えば、ディスプレイで確認しつつ作業者が特徴点を抽出してもよい。 First, the planar images taken at the first and second photographing points 51 and 52 (see FIG. 6) to form the first and second spherical images 20 and 30 (see FIG. 4) correspond to each other. Feature points (that is, points corresponding to the planar images of the object point images m 1i and m 2i ) are searched (S10). Here, for the sake of explanation, for example, eight feature points are extracted. This search may be configured as software, and a feature point search filter that extracts feature points based on image data of a planar image may be used. For example, an operator may extract feature points while confirming on a display.

次に、S10で得られた特徴点に対応する第1及び第2の球面画像20,30上の特徴点(物点像m11〜m18,m21〜m28)の位置ベクトルを(式12)に代入して、並進ベクトルt及び回転行列Rを算出する(S11)。 Next, position vectors of feature points (object point images m 11 to m 18 , m 21 to m 28 ) on the first and second spherical images 20 and 30 corresponding to the feature points obtained in S10 are expressed by 12), the translation vector t and the rotation matrix R are calculated (S11).

続いて、並進ベクトルt及び回転行列Rを用いて、第1及び第2の球面画像20,30において互いに対応する他の特徴点m1(8+t),m2(8+t)(tは、任意の整数)を探索し抽出する(S12)。ここで、この他の特徴点の探索は、エピポーラ線に基づいて実施する。 Subsequently, by using the translation vector t and the rotation matrix R, other feature points m 1 (8 + t) and m 2 (8 + t) (t are arbitrary corresponding to each other in the first and second spherical images 20 and 30. (Integer) is searched and extracted (S12). Here, the search for other feature points is performed based on the epipolar line.

次に、特徴点m1n,m2n(nは、1〜(8+t)の任意の整数)の位置ベクトルを(式14)に代入して、特徴点m1nに対応する物点P1nの三次元位置の計算を実施する。(S13)。すなわち、物点P1nの第1の座標系21における原点Oからの距離ρ1nを算出する。 Next, the position vector of the feature points m 1n and m 2n (n is an arbitrary integer from 1 to (8 + t)) is substituted into (Expression 14), and the cubic of the object point P 1n corresponding to the feature point m 1n The original position is calculated. (S13). That is, to calculate the distance [rho 1n from the origin O 1 in a first coordinate system 21 of the object point P 1n.

また、上記ステップS13を実施する一方、第1の球面画像20における特徴点m1nを平面画像に射影し、それらの射影された特徴点に基づいてドロネー三角形を計算する(S14)。そして、更に、そのドロネー三角形に対応する第1の球面画像20の画像情報(テクスチャ)をドロネー三角形上に貼り付ける。すなわち、第1の球面画像20の対応する領域の画像を平面画像に変換してテクスチャ画像を生成する(S15)。 In addition, while performing step S13, the feature point m 1n in the first spherical image 20 is projected onto a planar image, and a Delaunay triangle is calculated based on the projected feature points (S14). Further, image information (texture) of the first spherical image 20 corresponding to the Delaunay triangle is pasted on the Delaunay triangle. That is, a texture image is generated by converting an image of a corresponding region of the first spherical image 20 into a planar image (S15).

そして、各特徴点m1nに対応する物点P1nの距離ρ1nに応じてS15で生成したテクスチャ画像をマッピング(テクスチャマッピング)して三次元構造を表示する平面画像を形成する(S16)。 Then, the texture image generated in S15 is mapped (texture mapping) according to the distance ρ 1n of the object point P 1n corresponding to each feature point m 1n to form a planar image displaying the three-dimensional structure (S16).

次に、本実施形態に係る三次元構造抽出方法に基づいてシミュレーションを実施した結果について説明する。   Next, the result of performing a simulation based on the three-dimensional structure extraction method according to the present embodiment will be described.

第1及び第2の座標系21,31の並進ベクトルtの並進成分(tx, ty, tz)、及び回転行列Rを特定する各回転角(Roll, Pitch, Yaw)を表1のように設定した(「True Value」の行を参照)。なお、ここで、回転角Roll, Pitch, Yawは、互いに直交する各座標軸の回転角である。

Figure 2005275789
次に、シミュレーションのために設定している第1の球面画像20において、表2に示す11点の物点像p1j(jは、1〜11の整数)を設定した。
Figure 2005275789
そして、表2に示す11点の物点像p1j、及び、その物点像に対応する第2の球面画像30の物点像に基づいて、(式12)より並進ベクトルt及び回転行列Rを算出した。 Table 1 shows the translation components (t x , t y , t z ) of the translation vector t of the first and second coordinate systems 21, 31 and the rotation angles (Roll, Pitch, Yaw) that specify the rotation matrix R. (See the "True Value" line). Here, the rotation angles Roll, Pitch, and Yaw are rotation angles of the coordinate axes orthogonal to each other.
Figure 2005275789
Next, in the first spherical image 20 set for simulation, 11 object point images p 1j (j is an integer of 1 to 11) shown in Table 2 were set.
Figure 2005275789
Then, based on the object point image p 1j of 11 points shown in Table 2 and the object point image of the second spherical image 30 corresponding to the object point image, the translation vector t and the rotation matrix R from (Equation 12). Was calculated.

算出した並進ベクトルtの各成分、回転行列Rを特定するための回転角(Roll, Pitch, Yaw)は、表1のとおりである(「Estimation」の行を参照)。表1より、算出した各成分間の比は、設定した各成分間の比にほぼ一致している。すなわち、(式12)を用いて、並進ベクトルt及び回転行列Rを算出することによって、第1及び第2の座標系21,31の相対姿勢情報を得ることができている。   The rotation angle (Roll, Pitch, Yaw) for specifying each component of the calculated translation vector t and the rotation matrix R is as shown in Table 1 (see “Estimation” row). According to Table 1, the calculated ratio between the components almost coincides with the set ratio between the components. That is, the relative orientation information of the first and second coordinate systems 21 and 31 can be obtained by calculating the translation vector t and the rotation matrix R using (Equation 12).

また、第1の球面画像20の原点Oから表2に示す11点の物点像に対応する各物点までの距離ρ1jの、(式14)による算出結果は、表3のとおりである。なお、算出にあたって、並進ベクトルtのスケール因子は適宜設定した。

Figure 2005275789
表3の結果より、実際に設定している値(True Value)と、(式14)に基づいて算出した値(Estimation)とはほぼ一致している。 Table 3 shows the calculation result of the distance ρ 1j from the origin O 1 of the first spherical image 20 to each object point corresponding to the 11 object image shown in Table 2 according to (Equation 14). is there. In the calculation, the scale factor of the translation vector t was set as appropriate.
Figure 2005275789
From the results in Table 3, the actually set value (True Value) and the value (Estimation) calculated based on (Equation 14) are almost the same.

次に、実際に撮影して得られた球面画像を用いた実験結果について説明する。   Next, experimental results using spherical images obtained by actual photographing will be described.

球面画像を形成するために、使用した魚眼レンズ41Aは、185度の画角を有するFCON−02(オリンパス株式会社製)である。図6の場合と同様に、1つの部屋を撮影対象10とし、撮像装置41を第1の撮影点51で撮影し、その後、撮像装置41を平行移動して第2の撮影点52での撮影を実施した。   In order to form a spherical image, the fish-eye lens 41A used is FCON-02 (manufactured by Olympus Corporation) having an angle of view of 185 degrees. As in the case of FIG. 6, one room is set as the shooting target 10, the imaging device 41 is shot at the first shooting point 51, and then the imaging device 41 is moved in parallel and shot at the second shooting point 52. Carried out.

図8は、撮像装置41を第1の撮影点51に設置して撮影して得られた平面画像の図である。図8(a)は、第1の撮影点51で図中に示すA方向に魚眼レンズ41Aを向けて撮影した場合の図である。図8(b)は撮像装置41を反転させて図中に示すB方向に魚眼レンズ41Aを向けて撮影した場合の図である。 FIG. 8 is a diagram of a planar image obtained by setting the imaging device 41 at the first shooting point 51 and shooting. 8 (a) is a diagram of a case taken toward a fisheye lens 41A in the A 1 direction shown in FIG. In the first shot point 51. 8 (b) is a diagram of a case taken toward a fisheye lens 41A in B 1 direction shown in the figure by inverting the image pickup device 41.

図9は、撮像装置41を第2の撮影点52に設置して撮影して得られた平面画像の図である。図9(a)は、第2の撮影点52で図中に示すA方向に魚眼レンズ41Aを向けて撮影した場合の図である。図9(b)は撮像装置41を反転させて図中に示すB方向に魚眼レンズ41Aを向けて撮影した場合の図である。 FIG. 9 is a diagram of a planar image obtained by setting the imaging device 41 at the second shooting point 52 and shooting. 9 (a) is a diagram of a case taken toward a fisheye lens 41A in the A 2 direction shown in FIG. In the second shot point 52. 9 (b) is a diagram of a case taken toward a fisheye lens 41A in the B 2 direction shown in the figure by inverting the image pickup device 41.

図8及び図9を比較すると、同じ方向の画像が撮影できていることがわかる。すなわち、図8(a)及び図9(a)には、部屋の窓側が撮影されており、図8(b)及び図9(b)には、部屋のドア側が撮影されている。   Comparing FIG. 8 and FIG. 9, it can be seen that images in the same direction can be taken. That is, in FIGS. 8A and 9A, the window side of the room is photographed, and in FIG. 8B and FIG. 9B, the door side of the room is photographed.

また、図10は、図8に示す2つの平面画像から形成された第1の球面画像20の一部を示す図である。また、図11は、図9に示す2つの平面画像から形成された第2の球面画像30の一部を示す図である。   FIG. 10 is a diagram showing a part of the first spherical image 20 formed from the two planar images shown in FIG. FIG. 11 is a diagram showing a part of the second spherical image 30 formed from the two planar images shown in FIG.

図12は、図8の平面画像において複数の物点像を抽出した図である。図12中の丸点は抽出した物点像の位置を示すものである。物点像は、102点抽出した。この物点像に対応する物点像を図9に示す平面画像においても抽出する。   FIG. 12 is a diagram in which a plurality of object point images are extracted from the planar image of FIG. The round dots in FIG. 12 indicate the positions of the extracted object point images. 102 object points were extracted. An object point image corresponding to this object point image is also extracted from the planar image shown in FIG.

これらの抽出された102点の物点像に対応する第1及び第2の球面画像20,30における物点像の位置ベクトルと、(式12)とに基づいて、第1の座標系21から第2の座標系31に変換するための並進ベクトルt及び回転行列Rを求めた。そして、図12に示す複数の物点像に対応する撮影対象10の各物点までの距離ρ1iを(式14)に基づいて算出した。 Based on the position vector of the object point image in the first and second spherical images 20 and 30 corresponding to the extracted 102 object point images and (Expression 12), from the first coordinate system 21 A translation vector t and a rotation matrix R for conversion to the second coordinate system 31 were obtained. And distance (rho) 1i to each object point of the imaging | photography object 10 corresponding to the several object point image shown in FIG. 12 was computed based on (Formula 14).

図13は、上記のようにして算出された撮影対象10までの距離に基づいて再構成された撮影対象10の三次元構造を示す図である。図13(a)は、窓側(図6中のA又はA方向)の三次元構造が抽出されており、図13(b)では、ドア側(図6中のB又はB方向)の三次元構造が抽出されている。また、図13(c)では、図6中のC方向に位置する撮影対象10の三次元構造が抽出されており、図13(d)では、図6中のD方向に位置する撮影対象10の三次元構造が抽出されている。図13(c),(d)に示すように、撮影対象10において撮影方向と異なる方向の三次元構造も第1及び第2の球面画像20,30から抽出できている。 FIG. 13 is a diagram illustrating a three-dimensional structure of the imaging target 10 reconstructed based on the distance to the imaging target 10 calculated as described above. 13 (a) shows, the window side has a three-dimensional structure of (A 1 or A 2 direction in FIG. 6) are extracted, FIG. 13 (b), B 1 or B 2 direction of the door-side (in FIG. 6 ) Is extracted. Further, in FIG. 13C, the three-dimensional structure of the photographing object 10 located in the C direction in FIG. 6 is extracted, and in FIG. 13D, the photographing object 10 located in the D direction in FIG. The three-dimensional structure is extracted. As shown in FIGS. 13C and 13D, the three-dimensional structure in the direction different from the shooting direction in the shooting target 10 can also be extracted from the first and second spherical images 20 and 30.

上述したように、第1及び第2の球面画像20,30は、周囲360度にわたる撮影対象10が投影されたものである。そして、第1及び第2の球面画像20,30を用いることによって、撮影対象10に含まれる複数の各物点Pまでの距離が算出される。したがって、複数の平面画像ごとに三次元構造を抽出し、それらを合成する場合に比べれば、簡易であってより精度よく周囲360度にわたる撮影対象10の三次元構造を抽出することができる。 As described above, the first and second spherical images 20 and 30 are obtained by projecting the imaging target 10 extending around 360 degrees. Then, by using the first and second spherical images 20 and 30, the distances to the plurality of object points P i included in the imaging target 10 are calculated. Therefore, as compared with the case of extracting a three-dimensional structure for each of a plurality of planar images and synthesizing them, the three-dimensional structure of the imaging object 10 extending 360 degrees around the periphery can be extracted more easily.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、上記撮像装置41は、魚眼レンズ41Aが1つであるため、撮像装置41を回転させて撮影対象10を撮影しているが、図5において、A方向を撮影可能な魚眼レンズとB方向を撮影可能な魚眼レンズを備えていても良い。この場合には、撮影が1回でよい。また、魚眼レンズ41は、画角185度としているが、画角180度以上(すなわち、視野が180度以上)あればよい。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, since the imaging device 41 has a single fisheye lens 41A, the imaging device 41 is rotated to shoot the object 10 to be photographed. In FIG. 5, a fisheye lens that can shoot the A direction and the B direction are photographed. A possible fisheye lens may be provided. In this case, it is sufficient to shoot once. In addition, the fisheye lens 41 has an angle of view of 185 degrees, but the angle of view may be 180 degrees or more (that is, the field of view is 180 degrees or more).

また、上記実施形態では、並進ベクトルt及び回転行列Rを算出するために用いた物点像p1i,p2iの位置ベクトルm1i,m2iを、距離ρ1iを算出するために用いている。しかし、例えば、距離ρ1iを算出するために、第1及び第2の球面画像20,30夫々において互いに対応する物点像を抽出してもよい。 In the above embodiment, the position vectors m 1i and m 2i of the object point images p 1i and p 2i used for calculating the translation vector t and the rotation matrix R are used for calculating the distance ρ 1i . . However, for example, in order to calculate the distance ρ 1i , object point images corresponding to each other in the first and second spherical images 20 and 30 may be extracted.

本発明による三次元構造抽出方法は、監視装置や視覚シミュレータなどに用いることができる。   The three-dimensional structure extraction method according to the present invention can be used for a monitoring device, a visual simulator, and the like.

球面画像を説明する図である。It is a figure explaining a spherical image. 撮影対象の撮影方法を説明する図である。It is a figure explaining the imaging | photography method of imaging | photography object. 図3(a)は魚眼レンズの結像特性を説明するための図である。図3(b)は、魚眼レンズの像面を示す図である。FIG. 3A is a diagram for explaining the imaging characteristics of the fisheye lens. FIG. 3B is a diagram illustrating an image plane of the fisheye lens. 2つの球面画像から撮影対象の三次元構造の抽出方法を説明する図である。It is a figure explaining the extraction method of the three-dimensional structure of imaging | photography object from two spherical images. 撮影システム40の構成を示すブロック図である。2 is a block diagram illustrating a configuration of an imaging system 40. FIG. 撮影対象10に対する撮像装置41の撮影位置を示す図であるIt is a figure which shows the imaging position of the imaging device 41 with respect to the imaging object 10. 三次元構造の抽出方法を示すフローチャートである。It is a flowchart which shows the extraction method of a three-dimensional structure. 第1の撮影点51で撮影された平面画像の図である。4 is a diagram of a planar image photographed at a first photographing point 51. FIG. 第2の撮影点52で撮影された平面画像の図である。5 is a diagram of a planar image photographed at a second photographing point 52. FIG. 実際に形成した第1の球面画像20の一部を示す図である。It is a figure which shows a part of 1st spherical image 20 formed actually. 実際に形成した第2の球面画像30の一部を示す図である。It is a figure which shows a part of 2nd spherical image 30 formed actually. 複数の物点像を抽出する工程を示す図である。It is a figure which shows the process of extracting a some object point image. 撮影対象10の三次元構造を示す図であるIt is a figure which shows the three-dimensional structure of the imaging | photography object 10.

符号の説明Explanation of symbols

1…球体、2…表面、10…撮影対象、20…第1の球面画像、30…第2の球面画像、21…第1の座標系、31…第2の座標系、41A…魚眼レンズ、t…並進ベクトル。   DESCRIPTION OF SYMBOLS 1 ... Sphere, 2 ... Surface, 10 ... Object to be imaged, 20 ... First spherical image, 30 ... Second spherical image, 21 ... First coordinate system, 31 ... Second coordinate system, 41A ... Fisheye lens, t ... translation vector.

Claims (2)

周囲360度にわたる撮影対象が球体の表面に投影されており第1の座標系で表示される第1の球面画像を形成する工程と、
前記第1の球面画像と異なる位置から前記撮影対象を撮影して得られる第2の球面画像であって、前記撮影対象が球体の表面に投影されており第2の座標系で表示される第2の球面画像を形成する工程と、
前記第1の座標系から前記第2の座標系に変換するための並進ベクトル及び回転行列を、前記第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、及び、エピポーラ拘束条件に基づいて算出する工程と、
前記第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、前記回転行列及び前記並進ベクトルに基づいて、前記複数の物点像それぞれに対応する前記撮影対象の各物点までの前記第1の座標系の原点からの距離を算出することによって前記撮影対象の三次元構造を抽出する工程と
を備えることを特徴とする三次元構造抽出方法。
Forming a first spherical image that is projected on the surface of a sphere around 360 degrees around it and displayed in a first coordinate system;
A second spherical image obtained by photographing the subject from a position different from the first spherical image, wherein the subject is projected on the surface of a sphere and is displayed in a second coordinate system. Forming a spherical image of 2;
A translation vector and a rotation matrix for converting from the first coordinate system to the second coordinate system, a position vector of a plurality of object point images corresponding to each other in each of the first and second spherical images, and Calculating based on epipolar constraint conditions;
Each object to be imaged corresponding to each of the plurality of object point images based on the position vector, the rotation matrix, and the translation vector of a plurality of object point images corresponding to each other in each of the first and second spherical images. Extracting the three-dimensional structure of the object to be imaged by calculating a distance from the origin of the first coordinate system to a point.
前記第1の球面画像は、180度以上の画角を有する魚眼レンズを備えた撮像装置を所定の位置に設置し、前記周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換し、それらの半球面画像を結合することによって形成されており、
前記第2の球面画像は、撮像装置を前記所定の位置と異なる位置に設置し、前記周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換して、それらの半球面画像を結合して形成されていることを特徴とする請求項1に記載の三次元構造抽出方法。

In the first spherical image, an imaging device including a fisheye lens having an angle of view of 180 degrees or more is installed at a predetermined position, and an imaging area extending at least 180 degrees is projected from the imaging object covering 360 degrees around the first spherical image. It is formed by acquiring a planar image on which an imaging region including a planar image and the remaining region is projected, converting each planar image into a hemispherical image, and combining these hemispherical images,
The second spherical image includes a planar image in which an imaging device is installed at a position different from the predetermined position, and a photographing area extending at least 180 degrees around the imaging object covering 360 degrees is projected and the remaining area. 2. The three-dimensional image according to claim 1, wherein the three-dimensional image is formed by acquiring a planar image on which a photographing area is projected, converting each planar image into a hemispherical image, and combining the hemispherical images. Structure extraction method.

JP2004087837A 2004-03-24 2004-03-24 Three-dimensional structure extraction method Pending JP2005275789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087837A JP2005275789A (en) 2004-03-24 2004-03-24 Three-dimensional structure extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087837A JP2005275789A (en) 2004-03-24 2004-03-24 Three-dimensional structure extraction method

Publications (1)

Publication Number Publication Date
JP2005275789A true JP2005275789A (en) 2005-10-06

Family

ID=35175406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087837A Pending JP2005275789A (en) 2004-03-24 2004-03-24 Three-dimensional structure extraction method

Country Status (1)

Country Link
JP (1) JP2005275789A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096162A (en) * 2006-10-06 2008-04-24 Iwate Univ Three-dimensional distance measuring sensor and three-dimensional distance measuring method
JPWO2008053649A1 (en) * 2006-11-02 2010-02-25 コニカミノルタホールディングス株式会社 Wide-angle image acquisition method and wide-angle stereo camera device
JP2011215063A (en) * 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
JP2017215263A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Position detecting method and position detecting system
JP2017215261A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Method and system for detecting position
JP2017215262A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Method of detection, detection object, and system
CN110926337A (en) * 2019-12-24 2020-03-27 大连理工大学 Global measurement data registration method based on multi-vector constraint
CN114339194A (en) * 2021-03-16 2022-04-12 深圳市火乐科技发展有限公司 Projection display method and device, projection equipment and computer readable storage medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096162A (en) * 2006-10-06 2008-04-24 Iwate Univ Three-dimensional distance measuring sensor and three-dimensional distance measuring method
JPWO2008053649A1 (en) * 2006-11-02 2010-02-25 コニカミノルタホールディングス株式会社 Wide-angle image acquisition method and wide-angle stereo camera device
JP2011215063A (en) * 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
US11049215B2 (en) 2012-03-09 2021-06-29 Ricoh Company, Ltd. Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
JP2017215263A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Position detecting method and position detecting system
JP2017215261A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Method and system for detecting position
JP2017215262A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Method of detection, detection object, and system
CN110926337A (en) * 2019-12-24 2020-03-27 大连理工大学 Global measurement data registration method based on multi-vector constraint
CN110926337B (en) * 2019-12-24 2020-10-20 大连理工大学 Global measurement data registration method based on multi-vector constraint
CN114339194A (en) * 2021-03-16 2022-04-12 深圳市火乐科技发展有限公司 Projection display method and device, projection equipment and computer readable storage medium
CN114339194B (en) * 2021-03-16 2023-12-08 深圳市火乐科技发展有限公司 Projection display method, apparatus, projection device, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP6722323B2 (en) System and method for imaging device modeling and calibration
JP4825980B2 (en) Calibration method for fisheye camera.
US10594941B2 (en) Method and device of image processing and camera
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
CN106846409B (en) Calibration method and device of fisheye camera
JP4825971B2 (en) Distance calculation device, distance calculation method, structure analysis device, and structure analysis method.
KR101666959B1 (en) Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor
CN111750820B (en) Image positioning method and system
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
EP3428875A1 (en) Methods and apparatuses for panoramic image processing
JP5872818B2 (en) Positioning processing device, positioning processing method, and image processing device
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
Aghayari et al. Geometric calibration of full spherical panoramic Ricoh-Theta camera
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
WO2013005244A1 (en) Three-dimensional relative coordinate measuring device and method
JPWO2008053649A1 (en) Wide-angle image acquisition method and wide-angle stereo camera device
EP3765815B1 (en) Imaging device, image processing apparatus, and image processing method
CN111768486B (en) Monocular camera three-dimensional reconstruction method and system based on rotating refraction sheet
JP2010276433A (en) Imaging device, image processor, and distance measuring device
JP2005275789A (en) Three-dimensional structure extraction method
CN113259642B (en) Film visual angle adjusting method and system
JP2005244861A (en) Imaging apparatus and imaging system parameter correction method
JP2010217984A (en) Image detector and image detection method
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090630