JP2005275789A - Three-dimensional structure extraction method - Google Patents
Three-dimensional structure extraction method Download PDFInfo
- Publication number
- JP2005275789A JP2005275789A JP2004087837A JP2004087837A JP2005275789A JP 2005275789 A JP2005275789 A JP 2005275789A JP 2004087837 A JP2004087837 A JP 2004087837A JP 2004087837 A JP2004087837 A JP 2004087837A JP 2005275789 A JP2005275789 A JP 2005275789A
- Authority
- JP
- Japan
- Prior art keywords
- image
- spherical
- images
- coordinate system
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 61
- 238000013519 translation Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims description 83
- 238000010586 diagram Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、球体の表面に周囲360度にわたる撮影対象が投影されている球面画像から三次元構造を抽出する方法に関するものである。 The present invention relates to a method for extracting a three-dimensional structure from a spherical image in which a subject to be photographed having a 360-degree circumference is projected on the surface of a sphere.
撮影対象の三次元構造を抽出する技術として、例えば、特許文献1に開示されている技術が知られている。この技術では、カメラの位置を変えることによって撮影対象を異なる位置から撮影する。その各撮影で得られた平面画像から撮影対象の部分的な三次元構造を抽出する。そして、それらの複数の部分的三次元構造を合成して撮影対象の三次元構造を得ている。
しかしながら、上記従来技術のように、多数枚の部分視野画像(平面画像)から撮影対象の部分的な三次元構造をそれぞれ計算して一つに融合すると、計算処理などの作業が煩雑になる。また、三次元構造を抽出する際には、撮影したカメラの姿勢などを示す各種パラメータの推定などを行う必要があるが、撮影画像ごとにパラメータを推定しなければならない。そのため、精度の低下の恐れがある。 However, if the partial three-dimensional structures to be photographed are calculated from a large number of partial field images (planar images) and merged into one as in the conventional technique, the calculation processing and the like become complicated. Further, when extracting a three-dimensional structure, it is necessary to estimate various parameters indicating the posture of the photographed camera, etc., but the parameters must be estimated for each photographed image. For this reason, there is a risk of a decrease in accuracy.
そこで、本発明は、周囲360度にわたる撮影対象の三次元構造を簡易に精度よく抽出することが可能な三次元構造抽出方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a three-dimensional structure extraction method capable of easily and accurately extracting a three-dimensional structure of a subject to be photographed around 360 degrees.
上記課題を解決するために、本発明に係る三次元構造抽出方法は、周囲360度にわたる撮影対象が球体の表面に投影されており第1の座標系で表示される第1の球面画像を形成する工程と、第1の球面画像と異なる位置から撮影対象を撮影して得られる第2の球面画像であって、撮影対象が球体の表面に投影されており第2の座標系で表示される第2の球面画像を形成する工程と、第1の座標系から第2の座標系に変換するための並進ベクトル及び回転行列を、第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、及び、エピポーラ拘束条件に基づいて算出する工程と、第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、回転行列及び並進ベクトルに基づいて、複数の物点像それぞれに対応する撮影対象の各物点までの第1の座標系の原点からの距離を算出することによって撮影対象の三次元構造を抽出する工程とを備えることを特徴とする。 In order to solve the above-described problem, a three-dimensional structure extraction method according to the present invention forms a first spherical image that is displayed on a first coordinate system by projecting an object to be photographed around 360 degrees around the surface of a sphere. And a second spherical image obtained by photographing the subject from a position different from the first spherical image, the subject being projected on the surface of the sphere and displayed in the second coordinate system. A plurality of objects corresponding to each other in the first and second spherical images, the step of forming the second spherical image and the translation vector and the rotation matrix for converting from the first coordinate system to the second coordinate system. Based on the position vector of the point image and the step of calculating based on the epipolar constraint condition, and the position vector, rotation matrix and translation vector of a plurality of object point images corresponding to each other in each of the first and second spherical images, Multiple Characterized in that it comprises a step of extracting the three-dimensional structure of the imaging target by calculating the distance from the origin of the first coordinate system to each object point to be imaged corresponding to each object point image.
上記方法では、まず、周囲360度にわたる撮影対象を異なる位置で撮影して第1及び第2の球面画像を形成する。これにより、同じ撮影対象が投影された第1及び第2の球面画像が得られる。そして、上述した第1の座標系を第2の座標系に変換するための並進ベクトル及び回転行列を、(1)撮影対象に含まれている複数の物点が投影された各物点像であって第1及び第2の球面画像それぞれにおける互いに対応する複数の物点像の位置ベクトルと(2)エピポーラ拘束条件とに基づいて算出する。そして、その算出された並進ベクトル及び回転行列、並びに、前記第1及び第2の球面画像それぞれにおいて互いに対応する各物点像に基づいて、第1の座標系の原点から各物点までの距離を算出する。 In the above method, first, a first and second spherical images are formed by photographing a subject to be photographed around 360 degrees at different positions. Thereby, the 1st and 2nd spherical image on which the same imaging | photography object was projected is obtained. Then, the translation vector and the rotation matrix for converting the first coordinate system described above to the second coordinate system are (1) each object point image onto which a plurality of object points included in the object to be imaged are projected. Thus, the calculation is performed based on position vectors of a plurality of object point images corresponding to each other in the first and second spherical images and (2) epipolar constraint conditions. The distance from the origin of the first coordinate system to each object point based on the calculated translation vector and rotation matrix, and each object point image corresponding to each other in each of the first and second spherical images. Is calculated.
第1及び第2の球面画像は、周囲360度にわたる撮影対象が投影されたものである。そして、第1及び第2の球面画像を用いることによって、撮影対象に含まれる複数の各物点までの距離が算出される。したがって、複数の平面画像ごとに三次元構造を抽出し、それらを合成する場合に比べれば、容易に周囲360度にわたる撮影対象の三次元構造を抽出することができる。 The first and second spherical images are obtained by projecting a subject to be photographed over 360 degrees. Then, by using the first and second spherical images, distances to a plurality of object points included in the photographing target are calculated. Therefore, it is possible to easily extract the three-dimensional structure of the subject to be photographed over 360 degrees in comparison with the case of extracting the three-dimensional structure for each of the plurality of planar images and combining them.
また、本発明に係る三次元構造抽出方法においては、第1の球面画像は、180度以上の画角を有する魚眼レンズを備えた撮像装置を所定の位置に設置し、周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換し、それらの半球面画像を結合することによって形成されており、第2の球面画像は、撮像装置を上記所定の位置と異なる位置に設置し、周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換して、それらの半球面画像を結合して形成されていることが好ましい。 In the three-dimensional structure extraction method according to the present invention, the first spherical image is obtained by installing an imaging device having a fisheye lens having an angle of view of 180 degrees or more at a predetermined position and capturing an image of 360 degrees around. Among them, a planar image on which an imaging area covering at least 180 degrees around is projected and a planar image on which an imaging area including the remaining area is projected are acquired, each planar image is converted into a hemispherical image, and the hemispherical images are combined. The second spherical image is a flat image obtained by installing the imaging device at a position different from the predetermined position and projecting an imaging region of at least 180 degrees out of the imaging target of 360 degrees around the second spherical image. And a plane image on which the imaging area including the remaining area is projected, each plane image is converted into a hemispherical image, and these hemispherical images are combined to form It is preferable.
この場合、魚眼レンズの視野が180度以上であるため、周囲360度の撮影対象のうち少なくとも周囲180度の領域が投影された平面画像及び残りの領域が投影された平面画像それぞれを得ることができる。そのため、撮影対象の画像情報を多くて2回の撮影で取得することが可能である。そして、そのようにして得られた平面画像から第1又は第2の球面画像が形成されるので、精度のより高い球面画像を取得することが可能である。 In this case, since the field of view of the fisheye lens is 180 degrees or more, it is possible to obtain a planar image in which at least a surrounding area of 180 degrees is projected and a planar image in which the remaining areas are projected out of an imaging target of 360 degrees around. . For this reason, it is possible to acquire a large amount of image information to be captured by capturing twice. Since the first or second spherical image is formed from the planar image thus obtained, it is possible to acquire a spherical image with higher accuracy.
本発明によれば、周囲360度にわたる撮影対象の三次元構造を簡易に精度よく抽出することが可能な三次元構造抽出方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the three-dimensional structure extraction method which can extract the three-dimensional structure of 360 degree | times surrounding circumference | surroundings easily and accurately can be provided.
以下、図を参照して本発明の好適な実施形態について説明する。尚、以下の説明においては、同一の要素には同一の符号を用いることとし重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are used for the same elements, and redundant descriptions are omitted.
まず、本実施形態において撮影対象の三次元構造を抽出するための球面画像について説明する。本実施形態における球面画像とは、系外の全天周(周囲360度)に位置する撮影対象が球体の表面に投影されたものである。図1を参照してより具体的に説明する。 First, a spherical image for extracting a three-dimensional structure to be imaged in the present embodiment will be described. The spherical image in the present embodiment is obtained by projecting a shooting target located on the entire sky outside the system (around 360 degrees) on the surface of a sphere. A more specific description will be given with reference to FIG.
図1は、球面画像を説明する図である。図1に示すように、空間上に単位半径の球体1を考え、その中心Oを原点として互いに直交するX軸、Y軸、Z軸を設定する。空間上の任意の点Pi(iは任意の整数)と球の中心Oとを結ぶ球体の表面2上の点をpiとする。
FIG. 1 is a diagram for explaining a spherical image. As shown in FIG. 1, a sphere 1 having a unit radius is considered in space, and an X axis, a Y axis, and a Z axis that are orthogonal to each other with the center O as an origin are set. A point on the
上記点Piの位置ベクトルMiは、次のように表される。
また、点Piと球の中心Oとを結ぶ球体1の表面2上の点がpiであるので、
(式3)において、1/ρiは、スケール因子として機能している。また、(式3)及び(式4)より、1/ρiを別にすれば(原点OからPiが十分遠くに位置していることに相当)、位置ベクトルmi,Miとは一致する。これは、球体1の表面2には、中心Oから見ることができる、系外の周囲360度に位置する撮影対象を投影することができることを示している。このように画像情報を有している球体1の表面2が球面画像に相当する。なお、以下では、点Piを物点とも称し、点piを物点Piが投影された点として物点像とも称す。
In (Expression 3), 1 / ρ i functions as a scale factor. Further, from (Equation 3) and (Equation 4), if 1 / ρ i is separated (corresponding to P i being located sufficiently far from the origin O), the position vectors m i and M i coincide with each other. To do. This indicates that an imaging object that can be seen from the center O and located around 360 degrees outside the system can be projected onto the
次に、図2及び図3を参照して上記球面画像を形成する方法について説明する。この球面画像は、画角185度を有する魚眼レンズによって結像された2つの平面画像を利用して形成される。 Next, a method for forming the spherical image will be described with reference to FIGS. This spherical image is formed using two planar images formed by a fisheye lens having an angle of view of 185 degrees.
図2は、撮影対象の撮影方法を説明する図である。図2では、図中に示している円で撮影対象10を模式的に表しており、画角wが185度の魚眼レンズが円の中心に位置するものとする。周囲360度にわたる撮影対象10のうち、魚眼レンズの視野に含まれる185度の撮影領域11を、その魚眼レンズによって結像して平面画像を取得する。次に、撮影対象10のうち残りの領域を含む撮影領域12を魚眼レンズによって結像して平面画像を取得する。これらの平面画像を半球面画像に変換した後に結合して球面画像を形成する。
FIG. 2 is a diagram for explaining a photographing method of a photographing target. In FIG. 2, it is assumed that the
図3を参照して、平面画像(被写体像)を半球面画像に変換するための原理について説明する。 The principle for converting a planar image (subject image) into a hemispherical image will be described with reference to FIG.
図3(a)は魚眼レンズの結像特性を説明するための図である。図3(a)は、魚眼レンズが中心Oに位置しており、魚眼レンズの視野内の物点Pi(図1のPiに相当)からの外光が魚眼レンズに入射している状態を示している。なお、ここでは、説明を簡便化するため図3に記載の魚眼レンズの画角は180度としている。 FIG. 3A is a diagram for explaining the imaging characteristics of the fisheye lens. FIG. 3A shows a state in which the fisheye lens is located at the center O, and external light from an object point P i (corresponding to P i in FIG. 1) in the visual field of the fisheye lens is incident on the fisheye lens. Yes. Here, in order to simplify the explanation, the angle of view of the fish-eye lens shown in FIG. 3 is 180 degrees.
図3(b)は、魚眼レンズの像面3を示す図である。等距離射影方式の魚眼レンズでは、図3(a)に示す物点Piは、図3(b)の像面3において、位置座標(ri,φi)で表される点qiに投影される。すなわち、物点Piは、方位角φiは変わらず、画像中心OIからの距離riが次の式で表される点qiに投影される。
魚眼レンズで得られる平面画像は点qiの集まりである。したがって、平面画像を構成している各画素(すなわち、点qi)の位置座標を特定することによって平面画像を半球面画像に変換することができる。 A planar image obtained with a fisheye lens is a collection of points q i . Therefore, the plane image can be converted into a hemispherical image by specifying the position coordinates of each pixel (that is, the point q i ) constituting the plane image.
上述したように、球面画像は、まず、図2に示す撮影対象10に含まれる撮影領域11,12それぞれが結像された平面画像を取得し、続いて、それらの平面画像を上記原理に基づいて半球面画像に変換し、2つの半球面画像を結合して形成される。
As described above, as the spherical image, first, a planar image in which each of the
半球面画像を結合する場合には、半球面画像の画像中心、魚眼レンズの焦点距離、及び、2つの半球面画像を表示する座標系の相対姿勢が校正されていることが好ましい。本実施形態では、次に説明する校正方法で校正を実施されているものとする。本実施形態では、画角が185度の魚眼レンズを用いていることを利用して校正する。 When combining the hemispherical images, it is preferable that the image center of the hemispherical image, the focal length of the fisheye lens, and the relative orientation of the coordinate system displaying the two hemispherical images are calibrated. In this embodiment, it is assumed that calibration is performed by the calibration method described below. In the present embodiment, calibration is performed using the fact that a fisheye lens having an angle of view of 185 degrees is used.
まず、画像中心を、魚眼レンズによって結像されて得られる平面画像に含まれる消失点対の交点として求める。消失点は、互いに略平行な直線群の無限遠での仮想的な交点である。魚眼レンズは、画角wが185度であるため、撮影対象に含まれる平行線群の一対の消失点が、平面画像中に現れる。そのため、異なる消失点対の交点として画像中心を校正する。 First, the center of the image is obtained as the intersection of the vanishing point pair included in the planar image obtained by imaging with the fisheye lens. The vanishing point is a virtual intersection at infinity of a group of straight lines that are substantially parallel to each other. Since the angle of view w of the fisheye lens is 185 degrees, a pair of vanishing points of the parallel line group included in the photographing target appears in the planar image. Therefore, the image center is calibrated as an intersection of different vanishing point pairs.
また、魚眼レンズの焦点距離を、一対の消失点間の距離rπをπで割ったものとして算出する。次に、上記のようにして求められた画像中心及び焦点距離に基づいて、2つの平面画像それぞれを半球面画像に変換する。そして、各半球面画像に含まれている、水平線に略平行な直線群に対する消失点と、水平線に直交する直線に略平行な直線群の消失点とに基づいて、2つの半球面画像を表示する座標系間の変換行列を算出する。この変換行列が、2つの半球面画像を表示する座標系間の相対姿勢に相当する。 Further, the focal length of the fisheye lens, calculates the distance r [pi between a pair of vanishing points as divided by [pi. Next, each of the two planar images is converted into a hemispherical image based on the image center and the focal length obtained as described above. Then, two hemispherical images are displayed based on the vanishing point for the straight line group substantially parallel to the horizontal line and the vanishing point of the straight line group substantially parallel to the straight line orthogonal to the horizontal line included in each hemispherical image. A transformation matrix between coordinate systems is calculated. This transformation matrix corresponds to the relative posture between coordinate systems displaying two hemispherical images.
次に、魚眼レンズの画角wが185度であることから、2つの半球面画像に重複している画像領域があることを利用して、上述のようにして算出された焦点距離及び変換行列を更に校正する。 Next, since the angle of view w of the fisheye lens is 185 degrees, the focal length and the transformation matrix calculated as described above are obtained using the fact that there are overlapping image areas in the two hemispherical images. Further calibrate.
以上のようにして、校正された画像中心、焦点距離及び2つの半球面画像間の相対姿勢に基づいて、2つの半球面画像を形成すると共に、それらを結合して1つの球面画像を得る。 As described above, two hemispherical images are formed based on the calibrated image center, focal length, and relative attitude between the two hemispherical images, and combined to obtain one spherical image.
ところで、球面画像は、周囲360度にわたる撮影対象10が投影されているため、全天周の撮影対象10の画像情報を有している。しかしながら、撮影対象10は、球体1の表面2に投影されているので、三次元構造(原点Oから物点Piまでの距離)は得られていない。
By the way, the spherical image has image information of the
本実施形態の三次元構造抽出方法は、異なる位置で同一の撮影対象10が撮影されその撮影対象10が投影されている2つの球面画像を用いて撮影対象10の三次元構造を抽出することを特徴としている。
The three-dimensional structure extraction method according to the present embodiment extracts the three-dimensional structure of the
まず、2つの球面画像から三次元構造を抽出する原理を説明する。 First, the principle of extracting a three-dimensional structure from two spherical images will be described.
図4は、2つの球面画像から撮影対象の三次元構造の抽出方法を説明する図である。図4には、異なる位置で同一の撮影対象10を撮影して得られる第1の球面画像20及び第2の球面画像30を示している。第1の球面画像20を表示する第1の座標系21をX1軸、Y1軸、Z1軸で表し、第2の球面画像30を表示する第2の座標系31をX2軸、Y2軸、Z2軸で表す。
FIG. 4 is a diagram for explaining a method for extracting a three-dimensional structure to be photographed from two spherical images. FIG. 4 shows a first
第1及び第2の球面画像20,30には、同じ撮影対象10が投影されている。したがって、撮影対象10に含まれる物点Piは、第1及び第2の球面画像20,30に物点像p1i,p2iとして現れている。
The
ここで、物点Piの第1の座標系21における位置ベクトルをM1iとし、物点Piの第2の座標系31における位置ベクトルをM2iとする。また、第2の座標系31から第1の座標系21へ変換するための回転行列をRとする。更に、第1の座標系21から第2の座標系31へ変換するための並進ベクトルを
第1及び第2の球面画像20,30は、同じ撮影対象10を異なる位置で撮影しているので、上記ベクトルM2i,t,(RM1i+t)は同一平面上にある(エピポーラ拘束条件)。したがって、
ここで、並進ベクトルtの各並進成分(tx,ty,tz)を用いて表される歪対称行列Tを、
(式3)より、位置ベクトルM1iと位置ベクトルm1iは、スケール因子(1/ρ1i)を別とすれば等しい(すなわち、ベクトルの方向は同じ)。また、同様に、位置ベクトルM2iと位置ベクトルm2iは、スケール因子以外は等しい。 From (Expression 3), the position vector M 1i and the position vector m 1i are the same except for the scale factor (1 / ρ 1i ) (that is, the vector directions are the same). Similarly, the position vector M 2i and the position vector m 2i are equal except for the scale factor.
そのため、(式9)は、
(式12)は、第1及び第2の球面画像20,30それぞれにおいて、互いに対応する複数の物点像p1i,p2iの位置ベクトルmli,m2iがわかれば、回転行列R及び並進ベクトルtを算出することができることを示している。
(Equation 12) is obtained when the position vectors m li and m 2i of the plurality of object point images p 1i and p 2i corresponding to each other are found in the first and second
言い換えれば、位置ベクトルmli,m2i及びエピポーラ拘束条件(すなわち、ベクトルm2i、t、(Rm1i+t)が同一平面上にあるという条件)に基づいて、回転行列R及び並進ベクトルtを算出することができる。この際、回転行列R及び並進ベクトルtを算出するために必要な物点像p1i(p2i)の数は、(式12)の解き方において相違するが、例えば、線形解法を用いる場合には8個以上である。 In other words, the rotation matrix R and the translation vector t are calculated based on the position vectors m li and m 2i and the epipolar constraint conditions (that is, the condition that the vectors m 2i , t and (Rm 1i + t) are on the same plane). can do. At this time, the number of object point images p 1i (p 2i ) necessary for calculating the rotation matrix R and the translation vector t differs in the method of solving (Equation 12). For example, when using a linear solution method, 8 or more.
次に、上記のようにして回転行列R及び並進ベクトルtが算出された場合に、第1の座標系21における原点O1から物点Piまでの距離の算出方法について説明する。
Next, a method for calculating the distance from the origin O 1 to the object point P i in the first coordinate
第1及び第2の座標系21,31それぞれにおいて、物点Piまでの距離をρ1i,ρ2iとすると、
(式13)の両辺に位置ベクトルm2iをかける、すなわち、両辺の各項とm2iの外積をとると、第1の座標系21における原点OIから物点Piまでの距離ρ1iは、
したがって、撮影対象10に含まれる物点Piに対応する第1及び第2の球面画像20,30での物点像p1ip2iの位置ベクトルm1i,m2i、回転行列R及び並進ベクトルtが既知ならば、(式14)によって、距離ρ1iが算出される。また、第1の球面画像20には、周囲360度にわたる撮影対象10が投影されている。したがって、第1の球面画像20から撮影対象10の三次元構造を抽出することができる。
Therefore, the position vectors m 1i and m 2i of the object point images p 1i and p 2i in the first and second
次に、上記原理を適用して撮影対象10の三次元構造を抽出するための撮影システム40について説明する。
Next, the
図5は、撮影システム40の構成を示すブロック図である。撮影システム40は、撮像装置41と、撮像装置41で得られた画像を解析する解析装置42とを備える。
FIG. 5 is a block diagram illustrating a configuration of the
撮像装置41は、画角が185度の魚眼レンズ41Aと撮像素子41Bとを含んで構成される。魚眼レンズ41Aの射影方式は等距離射影方式である。魚眼レンズ41Aは、必ずしも1枚のレンズを意味するものではなく、魚眼レンズ特性を有するレンズ系も含む意味である。撮像素子41Bは、フォトダイオードなどからなるセル(画素)が2次元的に配列された受光面を有し、魚眼レンズ41Aで結像された撮影対象10の像(被写体像)を撮像して電気信号(画像データ)として出力する。撮像素子41Bは、例えば、CCD撮像素子である。撮像素子41Bからの電気信号は、解析装置42に入力される。
The
撮像装置41は、撮像装置41の周囲360度のうち、図中に示すA方向に魚眼レンズ41Aを向けて撮影して得られる平面画像と、撮像装置41を約180度反転させて、図中に示すB方向に魚眼レンズ41Aを向けて撮影対象10を撮影して得られる平面画像の画像データを解析装置42に入力する。
The
解析装置42は、マイクロコンピュータのハードウェアおよびソフトウェアを利用して構成される。この解析装置42は、球面画像形成部42A、相対姿勢算出部42B及び三次元構造抽出部42Cを含んで構成される。
The
球面画像形成部42Aは、撮像装置41から入力された2つの平面画像それぞれに対応する画像データを用いて、上述した原理に基づいて球面画像を形成する。球面画像形成部42Aは、撮影を実施すべき位置(所定の位置)において撮影対象10が撮影された平面画像に基づいて第1の球面画像20を形成する。また、球面画像形成部42Aは、上記所定の位置とは異なる位置で撮影対象10が撮影された平面画像に基づいて第2の球面画像30を形成する。なお、第1及び第2の球面画像20,30の形成とは、平面画像の画像データを、球面画像による表示が可能な画像データに変換することを意味している。
The spherical
第1の座標系21の原点O1、及び、第2の座標系31の原点O2は、それぞれの撮影位置における撮像装置41によって形成される座標系(いわゆるカメラ座標系)の原点に対応する。
Origin O 1 of the first coordinate system 21, and the origin O 2 of the second coordinate
相対姿勢算出部42Bは、図4に示す第1の座標系21から第2の座標系31に変換するための並進ベクトルt及び回転行列Rを、(式12)に基づいて算出する。並進ベクトルtと回転行列Rとを算出する場合に用いる複数の物点像p1i,p2iは、第1及び第2の球面画像20,30から自動的に抽出するようにしてもよいが、例えば、作業者がディスプレイなどに表示される画像に基づいて手動で抽出してもよい。
The relative
ここで、第1及び第2の球面画像20,30から物点像を抽出するとは、必ずしも第1及び第2の球面画像20,30から直接抽出する場合に限られない。第1及び第2の球面画像20,30を形成するために用いた各平面画像において物点像を抽出しておき、それらを球面画像の物点像に変換した(球面画像表示用の画像データに変換した)場合も含む。
Here, extracting the object point image from the first and second
三次元構造抽出部42Cは、上記物点像p1i,p2iの位置ベクトルm1i,m2i、並進ベクトルt及び回転行列Rを用いて、(式14)より、各物点像p1iに対応する撮影対象10の物点Piまでの距離ρ1iを算出する。
The three-dimensional
解析装置42は、撮像素子から入力される画像データ等を一時記憶するRAM(Random Access Memory)、上記球面画像形成部42A、相対姿勢算出部42B及び三次元構造抽出部42Cで実施される各処理のためのプログラムやデータが格納されたROM(Read Only Memory)、このROMに格納されたプログラムを実行することにより、ROMおよびRAMに記憶されたデータに基づいて各種の演算処理を行うCPU(Central Processing Unit)などの図示しないハードウェアを備えている。
The
上記撮影システム40を用いて三次元構造抽出方法について説明する。
A three-dimensional structure extraction method using the
図6は、第1及び第2の球面画像20,30を取得するための撮影対象10に対する撮像装置41の撮影位置を示すものである。撮像装置41の周囲360度の風景が撮影対象10であるが、例えば、図6では、1つの部屋を撮影対象10としている。
FIG. 6 shows the shooting position of the
まず、第1の撮影点51(所定の位置)に撮像装置41を配置し、図6中のA1方向に魚眼レンズ41Aを向けて魚眼レンズ41Aの視野に含まれる撮影対象10の撮影領域を撮影する。そして、撮影によって得られた平面画像の画像データを解析装置42に入力する。また、撮像装置41を、魚眼レンズ41Aの焦点を通る軸に沿って回転し、図中のB1方向に魚眼レンズ41Aを向けて撮影対象10の残りの領域を含む撮影領域を撮影する。そして、その撮影によって得られた平面画像の画像データを解析装置42に入力する。説明の便宜のために、A1方向、A2方向に分けているが、これらは実質的に同じ方向を示している。B1方向及びB2方向の関係も同様である。
First, an
解析装置42の球面画像形成部42Aは、撮影装置41の周囲360度の撮影対象10が投影され第1の座標系21で表示される第1の球面画像20を形成する。
The spherical
次に、撮影対象10である部屋において、第1の撮影点51と異なる第2の撮影点52に撮像装置41を移動させ、第1の撮影点51の場合と同様にして、第2の球面画像30を形成する。第2の球面画像30には、撮影装置41の周囲360度の撮影対象10が投影されている。また、第2の球面画像30は、第2の座標系31で表示されている。
Next, the
第1及び第2の球面画像20,30は、周囲360度にわたる撮影対象10が球体1(図1参照)の表面2に投影されたものであるため、第1及び第2の球面画像20,30には、同じ撮影対象10が投影されている。
The first and second
次に、解析装置42の相対姿勢算出部42Bは、第1の球面画像20及び第2の球面画像30それぞれにおいて、互いに対応する物点像p1i,p2iを抽出する。これは、作業者が抽出した点を受けつけても良い。解析装置42の相対姿勢算出部42Bは、物点像p1i,p2iの位置ベクトルm1i,m2iを(式12)に代入して、並進ベクトルt及び回転行列Rを算出する。
Next, the relative
続いて、三次元構造抽出部42Cが、互いに対応する物点像p1i,p2iの位置ベクトルm1i,m2i、並びに、相対姿勢算出部42Bによって算出された並進ベクトルt及び回転行列Rを用いて(式14)より、各物点像p1iに対応する撮影対象10の物点Piまでの距離ρ1iを算出する。
Subsequently, the three-dimensional
第1の球面画像20には、撮影対象10が投影されている。そして、上記工程によって第1の座標系21における物点Piまでの距離ρ1iが算出される。すなわち、撮影対象10の三次元構造が抽出される。なお、最終的な周囲の三次元構造の融合は、球面画像に含まれる特徴点(物点像)を合致させて実現する。
The subject 10 is projected on the first
また、三次元構造の抽出は次のようにしてもよい。図7は、三次元構造抽出方法を示すフローチャートである。 The three-dimensional structure may be extracted as follows. FIG. 7 is a flowchart showing a three-dimensional structure extraction method.
まず、第1及び第2の球面画像20,30(図4参照)を形成するために第1及び第2の撮影点51,52(図6参照)それぞれで撮影された平面画像において、互いに対応する特徴点(すなわち、上記物点像m1i,m2iの平面画像に対応する点)を探索する(S10)。ここでは、説明のため、例えば、8個の特徴点を抽出する。なお、この探索は、ソフトウェアとして構成されており平面画像の画像データに基づいて特徴点を抽出する特徴点探索フィルターを用いてもよい。また、例えば、ディスプレイで確認しつつ作業者が特徴点を抽出してもよい。
First, the planar images taken at the first and second photographing
次に、S10で得られた特徴点に対応する第1及び第2の球面画像20,30上の特徴点(物点像m11〜m18,m21〜m28)の位置ベクトルを(式12)に代入して、並進ベクトルt及び回転行列Rを算出する(S11)。
Next, position vectors of feature points (object point images m 11 to m 18 , m 21 to m 28 ) on the first and second
続いて、並進ベクトルt及び回転行列Rを用いて、第1及び第2の球面画像20,30において互いに対応する他の特徴点m1(8+t),m2(8+t)(tは、任意の整数)を探索し抽出する(S12)。ここで、この他の特徴点の探索は、エピポーラ線に基づいて実施する。
Subsequently, by using the translation vector t and the rotation matrix R, other feature points m 1 (8 + t) and m 2 (8 + t) (t are arbitrary corresponding to each other in the first and second
次に、特徴点m1n,m2n(nは、1〜(8+t)の任意の整数)の位置ベクトルを(式14)に代入して、特徴点m1nに対応する物点P1nの三次元位置の計算を実施する。(S13)。すなわち、物点P1nの第1の座標系21における原点O1からの距離ρ1nを算出する。
Next, the position vector of the feature points m 1n and m 2n (n is an arbitrary integer from 1 to (8 + t)) is substituted into (Expression 14), and the cubic of the object point P 1n corresponding to the feature point m 1n The original position is calculated. (S13). That is, to calculate the distance [rho 1n from the origin O 1 in a first coordinate
また、上記ステップS13を実施する一方、第1の球面画像20における特徴点m1nを平面画像に射影し、それらの射影された特徴点に基づいてドロネー三角形を計算する(S14)。そして、更に、そのドロネー三角形に対応する第1の球面画像20の画像情報(テクスチャ)をドロネー三角形上に貼り付ける。すなわち、第1の球面画像20の対応する領域の画像を平面画像に変換してテクスチャ画像を生成する(S15)。
In addition, while performing step S13, the feature point m 1n in the first
そして、各特徴点m1nに対応する物点P1nの距離ρ1nに応じてS15で生成したテクスチャ画像をマッピング(テクスチャマッピング)して三次元構造を表示する平面画像を形成する(S16)。 Then, the texture image generated in S15 is mapped (texture mapping) according to the distance ρ 1n of the object point P 1n corresponding to each feature point m 1n to form a planar image displaying the three-dimensional structure (S16).
次に、本実施形態に係る三次元構造抽出方法に基づいてシミュレーションを実施した結果について説明する。 Next, the result of performing a simulation based on the three-dimensional structure extraction method according to the present embodiment will be described.
第1及び第2の座標系21,31の並進ベクトルtの並進成分(tx, ty, tz)、及び回転行列Rを特定する各回転角(Roll, Pitch, Yaw)を表1のように設定した(「True Value」の行を参照)。なお、ここで、回転角Roll, Pitch, Yawは、互いに直交する各座標軸の回転角である。
算出した並進ベクトルtの各成分、回転行列Rを特定するための回転角(Roll, Pitch, Yaw)は、表1のとおりである(「Estimation」の行を参照)。表1より、算出した各成分間の比は、設定した各成分間の比にほぼ一致している。すなわち、(式12)を用いて、並進ベクトルt及び回転行列Rを算出することによって、第1及び第2の座標系21,31の相対姿勢情報を得ることができている。
The rotation angle (Roll, Pitch, Yaw) for specifying each component of the calculated translation vector t and the rotation matrix R is as shown in Table 1 (see “Estimation” row). According to Table 1, the calculated ratio between the components almost coincides with the set ratio between the components. That is, the relative orientation information of the first and second coordinate
また、第1の球面画像20の原点O1から表2に示す11点の物点像に対応する各物点までの距離ρ1jの、(式14)による算出結果は、表3のとおりである。なお、算出にあたって、並進ベクトルtのスケール因子は適宜設定した。
次に、実際に撮影して得られた球面画像を用いた実験結果について説明する。 Next, experimental results using spherical images obtained by actual photographing will be described.
球面画像を形成するために、使用した魚眼レンズ41Aは、185度の画角を有するFCON−02(オリンパス株式会社製)である。図6の場合と同様に、1つの部屋を撮影対象10とし、撮像装置41を第1の撮影点51で撮影し、その後、撮像装置41を平行移動して第2の撮影点52での撮影を実施した。
In order to form a spherical image, the fish-
図8は、撮像装置41を第1の撮影点51に設置して撮影して得られた平面画像の図である。図8(a)は、第1の撮影点51で図中に示すA1方向に魚眼レンズ41Aを向けて撮影した場合の図である。図8(b)は撮像装置41を反転させて図中に示すB1方向に魚眼レンズ41Aを向けて撮影した場合の図である。
FIG. 8 is a diagram of a planar image obtained by setting the
図9は、撮像装置41を第2の撮影点52に設置して撮影して得られた平面画像の図である。図9(a)は、第2の撮影点52で図中に示すA2方向に魚眼レンズ41Aを向けて撮影した場合の図である。図9(b)は撮像装置41を反転させて図中に示すB2方向に魚眼レンズ41Aを向けて撮影した場合の図である。
FIG. 9 is a diagram of a planar image obtained by setting the
図8及び図9を比較すると、同じ方向の画像が撮影できていることがわかる。すなわち、図8(a)及び図9(a)には、部屋の窓側が撮影されており、図8(b)及び図9(b)には、部屋のドア側が撮影されている。 Comparing FIG. 8 and FIG. 9, it can be seen that images in the same direction can be taken. That is, in FIGS. 8A and 9A, the window side of the room is photographed, and in FIG. 8B and FIG. 9B, the door side of the room is photographed.
また、図10は、図8に示す2つの平面画像から形成された第1の球面画像20の一部を示す図である。また、図11は、図9に示す2つの平面画像から形成された第2の球面画像30の一部を示す図である。
FIG. 10 is a diagram showing a part of the first
図12は、図8の平面画像において複数の物点像を抽出した図である。図12中の丸点は抽出した物点像の位置を示すものである。物点像は、102点抽出した。この物点像に対応する物点像を図9に示す平面画像においても抽出する。 FIG. 12 is a diagram in which a plurality of object point images are extracted from the planar image of FIG. The round dots in FIG. 12 indicate the positions of the extracted object point images. 102 object points were extracted. An object point image corresponding to this object point image is also extracted from the planar image shown in FIG.
これらの抽出された102点の物点像に対応する第1及び第2の球面画像20,30における物点像の位置ベクトルと、(式12)とに基づいて、第1の座標系21から第2の座標系31に変換するための並進ベクトルt及び回転行列Rを求めた。そして、図12に示す複数の物点像に対応する撮影対象10の各物点までの距離ρ1iを(式14)に基づいて算出した。
Based on the position vector of the object point image in the first and second
図13は、上記のようにして算出された撮影対象10までの距離に基づいて再構成された撮影対象10の三次元構造を示す図である。図13(a)は、窓側(図6中のA1又はA2方向)の三次元構造が抽出されており、図13(b)では、ドア側(図6中のB1又はB2方向)の三次元構造が抽出されている。また、図13(c)では、図6中のC方向に位置する撮影対象10の三次元構造が抽出されており、図13(d)では、図6中のD方向に位置する撮影対象10の三次元構造が抽出されている。図13(c),(d)に示すように、撮影対象10において撮影方向と異なる方向の三次元構造も第1及び第2の球面画像20,30から抽出できている。
FIG. 13 is a diagram illustrating a three-dimensional structure of the
上述したように、第1及び第2の球面画像20,30は、周囲360度にわたる撮影対象10が投影されたものである。そして、第1及び第2の球面画像20,30を用いることによって、撮影対象10に含まれる複数の各物点Piまでの距離が算出される。したがって、複数の平面画像ごとに三次元構造を抽出し、それらを合成する場合に比べれば、簡易であってより精度よく周囲360度にわたる撮影対象10の三次元構造を抽出することができる。
As described above, the first and second
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されない。例えば、上記撮像装置41は、魚眼レンズ41Aが1つであるため、撮像装置41を回転させて撮影対象10を撮影しているが、図5において、A方向を撮影可能な魚眼レンズとB方向を撮影可能な魚眼レンズを備えていても良い。この場合には、撮影が1回でよい。また、魚眼レンズ41は、画角185度としているが、画角180度以上(すなわち、視野が180度以上)あればよい。
The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, since the
また、上記実施形態では、並進ベクトルt及び回転行列Rを算出するために用いた物点像p1i,p2iの位置ベクトルm1i,m2iを、距離ρ1iを算出するために用いている。しかし、例えば、距離ρ1iを算出するために、第1及び第2の球面画像20,30夫々において互いに対応する物点像を抽出してもよい。
In the above embodiment, the position vectors m 1i and m 2i of the object point images p 1i and p 2i used for calculating the translation vector t and the rotation matrix R are used for calculating the distance ρ 1i . . However, for example, in order to calculate the distance ρ 1i , object point images corresponding to each other in the first and second
本発明による三次元構造抽出方法は、監視装置や視覚シミュレータなどに用いることができる。 The three-dimensional structure extraction method according to the present invention can be used for a monitoring device, a visual simulator, and the like.
1…球体、2…表面、10…撮影対象、20…第1の球面画像、30…第2の球面画像、21…第1の座標系、31…第2の座標系、41A…魚眼レンズ、t…並進ベクトル。 DESCRIPTION OF SYMBOLS 1 ... Sphere, 2 ... Surface, 10 ... Object to be imaged, 20 ... First spherical image, 30 ... Second spherical image, 21 ... First coordinate system, 31 ... Second coordinate system, 41A ... Fisheye lens, t ... translation vector.
Claims (2)
前記第1の球面画像と異なる位置から前記撮影対象を撮影して得られる第2の球面画像であって、前記撮影対象が球体の表面に投影されており第2の座標系で表示される第2の球面画像を形成する工程と、
前記第1の座標系から前記第2の座標系に変換するための並進ベクトル及び回転行列を、前記第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、及び、エピポーラ拘束条件に基づいて算出する工程と、
前記第1及び第2の球面画像それぞれにおいて互いに対応する複数の物点像の位置ベクトル、前記回転行列及び前記並進ベクトルに基づいて、前記複数の物点像それぞれに対応する前記撮影対象の各物点までの前記第1の座標系の原点からの距離を算出することによって前記撮影対象の三次元構造を抽出する工程と
を備えることを特徴とする三次元構造抽出方法。 Forming a first spherical image that is projected on the surface of a sphere around 360 degrees around it and displayed in a first coordinate system;
A second spherical image obtained by photographing the subject from a position different from the first spherical image, wherein the subject is projected on the surface of a sphere and is displayed in a second coordinate system. Forming a spherical image of 2;
A translation vector and a rotation matrix for converting from the first coordinate system to the second coordinate system, a position vector of a plurality of object point images corresponding to each other in each of the first and second spherical images, and Calculating based on epipolar constraint conditions;
Each object to be imaged corresponding to each of the plurality of object point images based on the position vector, the rotation matrix, and the translation vector of a plurality of object point images corresponding to each other in each of the first and second spherical images. Extracting the three-dimensional structure of the object to be imaged by calculating a distance from the origin of the first coordinate system to a point.
前記第2の球面画像は、撮像装置を前記所定の位置と異なる位置に設置し、前記周囲360度にわたる撮影対象のうち少なくとも周囲180度にわたる撮影領域が投影された平面画像及び残りの領域を含む撮影領域が投影された平面画像を取得し、各平面画像を半球面画像に変換して、それらの半球面画像を結合して形成されていることを特徴とする請求項1に記載の三次元構造抽出方法。
In the first spherical image, an imaging device including a fisheye lens having an angle of view of 180 degrees or more is installed at a predetermined position, and an imaging area extending at least 180 degrees is projected from the imaging object covering 360 degrees around the first spherical image. It is formed by acquiring a planar image on which an imaging region including a planar image and the remaining region is projected, converting each planar image into a hemispherical image, and combining these hemispherical images,
The second spherical image includes a planar image in which an imaging device is installed at a position different from the predetermined position, and a photographing area extending at least 180 degrees around the imaging object covering 360 degrees is projected and the remaining area. 2. The three-dimensional image according to claim 1, wherein the three-dimensional image is formed by acquiring a planar image on which a photographing area is projected, converting each planar image into a hemispherical image, and combining the hemispherical images. Structure extraction method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004087837A JP2005275789A (en) | 2004-03-24 | 2004-03-24 | Three-dimensional structure extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004087837A JP2005275789A (en) | 2004-03-24 | 2004-03-24 | Three-dimensional structure extraction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005275789A true JP2005275789A (en) | 2005-10-06 |
Family
ID=35175406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004087837A Pending JP2005275789A (en) | 2004-03-24 | 2004-03-24 | Three-dimensional structure extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005275789A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008096162A (en) * | 2006-10-06 | 2008-04-24 | Iwate Univ | Three-dimensional distance measuring sensor and three-dimensional distance measuring method |
JPWO2008053649A1 (en) * | 2006-11-02 | 2010-02-25 | コニカミノルタホールディングス株式会社 | Wide-angle image acquisition method and wide-angle stereo camera device |
JP2011215063A (en) * | 2010-04-01 | 2011-10-27 | Tottori Univ | Camera attitude parameter estimation device |
JP2013214947A (en) * | 2012-03-09 | 2013-10-17 | Ricoh Co Ltd | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program |
JP2017215263A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Position detecting method and position detecting system |
JP2017215261A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Method and system for detecting position |
JP2017215262A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Method of detection, detection object, and system |
CN110926337A (en) * | 2019-12-24 | 2020-03-27 | 大连理工大学 | Global measurement data registration method based on multi-vector constraint |
CN114339194A (en) * | 2021-03-16 | 2022-04-12 | 深圳市火乐科技发展有限公司 | Projection display method and device, projection equipment and computer readable storage medium |
-
2004
- 2004-03-24 JP JP2004087837A patent/JP2005275789A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008096162A (en) * | 2006-10-06 | 2008-04-24 | Iwate Univ | Three-dimensional distance measuring sensor and three-dimensional distance measuring method |
JPWO2008053649A1 (en) * | 2006-11-02 | 2010-02-25 | コニカミノルタホールディングス株式会社 | Wide-angle image acquisition method and wide-angle stereo camera device |
JP2011215063A (en) * | 2010-04-01 | 2011-10-27 | Tottori Univ | Camera attitude parameter estimation device |
JP2013214947A (en) * | 2012-03-09 | 2013-10-17 | Ricoh Co Ltd | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program |
US11049215B2 (en) | 2012-03-09 | 2021-06-29 | Ricoh Company, Ltd. | Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium |
JP2017215263A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Position detecting method and position detecting system |
JP2017215261A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Method and system for detecting position |
JP2017215262A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Method of detection, detection object, and system |
CN110926337A (en) * | 2019-12-24 | 2020-03-27 | 大连理工大学 | Global measurement data registration method based on multi-vector constraint |
CN110926337B (en) * | 2019-12-24 | 2020-10-20 | 大连理工大学 | Global measurement data registration method based on multi-vector constraint |
CN114339194A (en) * | 2021-03-16 | 2022-04-12 | 深圳市火乐科技发展有限公司 | Projection display method and device, projection equipment and computer readable storage medium |
CN114339194B (en) * | 2021-03-16 | 2023-12-08 | 深圳市火乐科技发展有限公司 | Projection display method, apparatus, projection device, and computer-readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6722323B2 (en) | System and method for imaging device modeling and calibration | |
JP4825980B2 (en) | Calibration method for fisheye camera. | |
US10594941B2 (en) | Method and device of image processing and camera | |
TWI555379B (en) | An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
CN106846409B (en) | Calibration method and device of fisheye camera | |
JP4825971B2 (en) | Distance calculation device, distance calculation method, structure analysis device, and structure analysis method. | |
KR101666959B1 (en) | Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor | |
CN111750820B (en) | Image positioning method and system | |
JP5739584B2 (en) | 3D image synthesizing apparatus and method for visualizing vehicle periphery | |
EP3428875A1 (en) | Methods and apparatuses for panoramic image processing | |
JP5872818B2 (en) | Positioning processing device, positioning processing method, and image processing device | |
JPWO2018235163A1 (en) | Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method | |
JP2012088114A (en) | Optical information processing device, optical information processing method, optical information processing system and optical information processing program | |
Aghayari et al. | Geometric calibration of full spherical panoramic Ricoh-Theta camera | |
JP2017208619A (en) | Image processing apparatus, image processing method, program and imaging system | |
WO2013005244A1 (en) | Three-dimensional relative coordinate measuring device and method | |
JPWO2008053649A1 (en) | Wide-angle image acquisition method and wide-angle stereo camera device | |
EP3765815B1 (en) | Imaging device, image processing apparatus, and image processing method | |
CN111768486B (en) | Monocular camera three-dimensional reconstruction method and system based on rotating refraction sheet | |
JP2010276433A (en) | Imaging device, image processor, and distance measuring device | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
CN113259642B (en) | Film visual angle adjusting method and system | |
JP2005244861A (en) | Imaging apparatus and imaging system parameter correction method | |
JP2010217984A (en) | Image detector and image detection method | |
JP2016114445A (en) | Three-dimensional position calculation device, program for the same, and cg composition apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090630 |