JP2005017262A - Three-dimensional surveying system and three-dimensional space object restoring method - Google Patents

Three-dimensional surveying system and three-dimensional space object restoring method Download PDF

Info

Publication number
JP2005017262A
JP2005017262A JP2003281290A JP2003281290A JP2005017262A JP 2005017262 A JP2005017262 A JP 2005017262A JP 2003281290 A JP2003281290 A JP 2003281290A JP 2003281290 A JP2003281290 A JP 2003281290A JP 2005017262 A JP2005017262 A JP 2005017262A
Authority
JP
Japan
Prior art keywords
dimensional
camera
image
cameras
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003281290A
Other languages
Japanese (ja)
Other versions
JP2005017262A5 (en
Inventor
Chuetsu Shi
中超 史
Shito Chu
思東 仲
Mitsuru Sato
充 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Publication of JP2005017262A publication Critical patent/JP2005017262A/en
Publication of JP2005017262A5 publication Critical patent/JP2005017262A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional surveying system capable of easily and efficiently performing three-dimensional survey, and to provide a three-dimensional space object restoring method using the same. <P>SOLUTION: Cameras 10L and 10R, on the left side and on the right side, respectively, oriented in the photographing direction shown with an arrow 12, comprise optical systems 14L and 14R, shutters 16L and 16R, and image sensors 18L and 18R. The internal locating factors such as focal distances of the optical systems 14L and 14R and main points of image sensors 18L and 18R are known in advance thanks to calibration. The cameras 10L and 10R are so fixed as to eliminate relative movement by a camera fixing device 22, and the external locating elements such as projection center and attitude angles are uniquely determined. With this three-dimensional surveying system, the left and right image data captured by left and right cameras 10L and 10R, and known internal locating factors and external locating factors, are used to acquire a three-dimensional coordinate of a prescribed point on a target object. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、3次元測量装置及び3次元空間物体復元方法に関し、具体的には、2台あるいは3台以上のカメラを利用し、目標物を同時に撮影することによって、同時に2枚(3枚以上)のデジタル画像を獲得し、獲得できた画像をコンピュータ処理することによって、画像の任意点の3次元座標を求めるものである。   The present invention relates to a three-dimensional surveying apparatus and a three-dimensional spatial object restoration method. Specifically, two or three or more cameras are used, and two (three or more) images are simultaneously captured by simultaneously photographing a target. ) Is obtained, and the obtained image is processed by a computer to obtain the three-dimensional coordinates of an arbitrary point of the image.

従来の3次元測量装置は、メジャー、目標物のあるポイントの座標を測定するトータルステーション、目標物と自身との距離を測定するレーザスキャナーなどの伝統的な装置を使用して測量を行うものであった。   Conventional three-dimensional surveying devices measure using a traditional device such as a major, a total station that measures the coordinates of a point with a target, or a laser scanner that measures the distance between the target and itself. It was.

しかし、上記従来の3次元測量装置では、測量作業が煩雑になり効率が悪く、現場作業時間が長い上、測量結果から3次元モデル作成に有効なデータ間のリンク手段が欠けるので、効率的で実用的な3次元測量装置を実現することが困難であるという問題があった。   However, the conventional three-dimensional surveying apparatus is inefficient because the surveying work is complicated and inefficient, the field work time is long, and there is no link means between data effective for creating a three-dimensional model from the survey result. There is a problem that it is difficult to realize a practical three-dimensional surveying apparatus.

本発明は、上記従来の課題に鑑みなされたものであり、その目的は、簡易かつ効率的に3次元測量を実施できる3次元測量装置及びこれを用いた3次元空間物体復元方法を提供することにある。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide a three-dimensional surveying apparatus that can perform three-dimensional surveying simply and efficiently, and a three-dimensional spatial object restoration method using the same. It is in.

上記目的を達成するために、本発明は、3次元測量装置であって、焦点距離、主点等の内部標定要素が予めわかっている2台あるいは3台以上のカメラと、このカメラを相互の相対移動が無いように固定するカメラ固定装置と、カメラの撮影タイミングを同期させるカメラ同期装置と、カメラのうち、撮影方向に向かって左側のカメラで撮影した左画像データと左側のカメラに同期された右側のカメラで撮影した右画像データとによって構成されるステレオ画像データ、内部標定要素及びカメラの相対移動が無いことによって一義的に決定されるカメラの投影中心、姿勢角度等の外部標定要素を使用して、目標物の3次元座標を求める画像解析手段と、を備えることを特徴とする。上記カメラ同期装置は遠隔操作が可能であることが好適である。   In order to achieve the above object, the present invention is a three-dimensional surveying apparatus, in which two or three or more cameras whose internal orientation elements such as focal length and principal point are known in advance are connected to each other. A camera fixing device that fixes the camera so that there is no relative movement, a camera synchronization device that synchronizes the shooting timing of the camera, and the left image data taken by the left camera in the shooting direction of the camera and the left camera. Stereo image data composed of right image data taken by the right camera, internal orientation elements, and external orientation elements such as camera projection center and posture angle that are uniquely determined by the absence of relative movement of the camera. And an image analysis means for obtaining the three-dimensional coordinates of the target. The camera synchronization device is preferably capable of remote operation.

また、上記画像解析手段は、3次元座標を使用して目標物の長さ、幅、高さ等の空間幾何パラメータを求め、この空間幾何パラメータにより目標物の3次元画像を表示画面上に表示することを特徴とする。   The image analysis means obtains a spatial geometric parameter such as the length, width, and height of the target using the three-dimensional coordinates, and displays the three-dimensional image of the target on the display screen using the spatial geometric parameter. It is characterized by doing.

また、3次元空間物体復元方法であって、一定間隔に置かれ相対移動しない2台あるいは2台以上の、焦点距離、主点等の内部標定要素があらかじめわかっているカメラを用いて目標物を同時に撮影し、カメラのうち、撮影方向に向かって左側のカメラで撮影した左画像と右側のカメラで撮影した右画像とによって構成されるステレオ画像データ、内部標定要素及びカメラの相対移動が無いことによって一義的に決定されるカメラの投影中心、姿勢角度等の外部標定要素を使用して目標物の3次元座標を求め、この3次元座標を使用して目標物の3次元画像を表示画面上に表示することを特徴とする。   In addition, a three-dimensional spatial object restoration method is used that uses two or more cameras that are positioned at regular intervals and do not move relative to each other, and that have a known internal orientation element such as focal length and principal point. Shooting at the same time and there is no relative movement of the stereo image data, internal orientation elements, and camera composed of the left image taken by the left camera and the right image taken by the right camera in the shooting direction. 3D coordinates of the target are obtained using external orientation elements such as the camera projection center and posture angle determined uniquely by the three-dimensional coordinates, and the 3D image of the target is displayed on the display screen using the three-dimensional coordinates. It is characterized by displaying.

また、上記3次元空間物体復元方法は、左画像及び右画像に識別コードを付し、識別コードに基づいて、同時に撮影した左画像及び右画像を認識し、これにより構成されるステレオ画像から目標物の3次元座標及び目標物の長さ、幅、高さなどの空間幾何パラメータを求めることを特徴とする。上記識別コードは撮影時間、地点及びカメラの識別番号によって画像データ管理手段が左画像、右画像に付するように構成される。   Further, the above three-dimensional space object restoration method attaches an identification code to the left image and the right image, recognizes the left image and the right image taken at the same time based on the identification code, and makes a target from a stereo image formed thereby. It is characterized in that three-dimensional coordinates of the object and spatial geometric parameters such as the length, width and height of the target object are obtained. The identification code is configured such that the image data management means attaches to the left image and the right image according to the photographing time, the location, and the camera identification number.

本発明によれば、キャリブレーション済みで内部標定要素と外部標定要素とが既知であるカメラを使用することにより、3次元測量を実施する際に、被測定目標空間内にターゲットなどの既知点を置く必要が無く、かつ目標物の長さを予め取得する必要が無くなる。このため、3次元測量を簡易かつ効率的に実施できる。本発明にかかる3次元測量装置及びこれを用いた3次元空間物体復元方法は、主にコンピュータディスプレイ等に表示される仮想空間における目標物の復元に利用できる。例えば、工場の3次元復元、建物及び室内の3次元復元、考古学調査現場の3次元復元及び町または生産現場の配置シミュレーションなどに利用可能である。   According to the present invention, when a three-dimensional survey is performed by using a camera that has been calibrated and whose internal orientation element and external orientation element are already known, a known point such as a target is detected in the measurement target space. There is no need to place it, and there is no need to obtain the length of the target in advance. For this reason, three-dimensional surveying can be performed easily and efficiently. The three-dimensional surveying apparatus and the three-dimensional space object restoration method using the same according to the present invention can be used mainly for restoration of a target in a virtual space displayed on a computer display or the like. For example, it can be used for three-dimensional restoration of factories, three-dimensional restoration of buildings and rooms, three-dimensional restoration of archeological survey sites, and location simulation of towns or production sites.

以下、本発明を実施するための最良の形態(以下、実施形態という)を、図面に従って説明する。   Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

図1には、本発明にかかる3次元測量装置の構成のブロック図が示される。図1において、3次元測量装置には2台のカメラ10L、10Rが含まれている。これらのカメラは、矢印12で示された撮影方向に向かって左側がカメラ10Lであり、右側がカメラ10Rである。カメラ10L、10Rは、レンズ等で構成される光学系14L、14Rとシャッター16L、16RとCCD等で構成される画像センサー18L、18Rとを備えている。また、シャッター16L、16Rは、カメラ10L、10Rによる撮影タイミングを同期させるカメラ同期装置20により同時に作動するように構成されている。   FIG. 1 shows a block diagram of a configuration of a three-dimensional surveying apparatus according to the present invention. In FIG. 1, the three-dimensional surveying apparatus includes two cameras 10L and 10R. In these cameras, the left side is the camera 10L in the shooting direction indicated by the arrow 12, and the right side is the camera 10R. The cameras 10L and 10R include optical systems 14L and 14R configured by lenses and the like, shutters 16L and 16R, and image sensors 18L and 18R configured by a CCD and the like. The shutters 16L and 16R are configured to be simultaneously operated by the camera synchronization device 20 that synchronizes the shooting timings of the cameras 10L and 10R.

上記2台のカメラ10L、10Rは、光学系14L、14Rの焦点距離及び画像センサー18L、18Rがカメラ10L、10Rの光軸と交わる点である主点等の内部標定要素が予めわかっているものを使用する。この内部標定要素は、投影中心と画像の位置関係を確定するのに必要な因子であり、撮影光線の軌跡、つまり目標物の形状を正確に復元するために使用される。また、2台のカメラ10L、10Rは、カメラ固定装置22により、相互の相対移動が無いように固定されている。このように左右のカメラ10L、10Rを固定することにより、カメラ10L、10Rの相対的位置関係が固定されるので、投影中心及び姿勢角度等の外部標定要素を一義的に決定することができる。なお、投影中心及び姿勢角度については後述する。これらの内部標定要素及び外部標定要素は、カメラのキャリブレーションにより予め算出しておく。   In the two cameras 10L and 10R, the focal lengths of the optical systems 14L and 14R and the internal orientation elements such as principal points at which the image sensors 18L and 18R intersect the optical axes of the cameras 10L and 10R are known in advance. Is used. This internal orientation element is a factor necessary to determine the positional relationship between the projection center and the image, and is used to accurately restore the trajectory of the photographing light beam, that is, the shape of the target. The two cameras 10L and 10R are fixed by the camera fixing device 22 so that there is no relative movement between them. By fixing the left and right cameras 10L and 10R in this way, the relative positional relationship between the cameras 10L and 10R is fixed, so external orientation elements such as the projection center and the posture angle can be uniquely determined. The projection center and posture angle will be described later. These internal orientation elements and external orientation elements are calculated in advance by camera calibration.

カメラ10L、10Rにより目標物を撮影することにより得られた画像データは、画像センサー18L、18Rから電気的な信号として出力され、左側のカメラ10Lで撮影された左画像データは画像メモリ24Lに格納され、右側のカメラ10Rで撮影された右画像データは画像メモリ24Rに格納される。画像メモリ24L、24Rに格納された左画像データ及び右画像データは処理装置26に送られ、同時に撮影された左右の画像データによりステレオ画像データが構成される。上記左画像データ及び右画像データには、処理装置26が、撮影時間、地点及びカメラの識別番号に基づき決定される識別コードを付すように構成されている。この場合の処理装置26が、本発明にかかる画像データ管理手段に相当する。処理装置26がステレオ画像データを構成する左右の画像データを処理して3次元座標を求める場合には、上記識別コードによって同時に撮影された左右の画像データを識別して使用する。   Image data obtained by photographing the target with the cameras 10L and 10R is output as electrical signals from the image sensors 18L and 18R, and the left image data photographed by the left camera 10L is stored in the image memory 24L. The right image data captured by the right camera 10R is stored in the image memory 24R. The left image data and the right image data stored in the image memories 24L and 24R are sent to the processing device 26, and left and right image data photographed at the same time constitute stereo image data. The left image data and the right image data are configured such that the processing device 26 attaches an identification code determined based on the photographing time, the location, and the camera identification number. The processing device 26 in this case corresponds to the image data management means according to the present invention. When the processing device 26 processes the left and right image data constituting the stereo image data to obtain the three-dimensional coordinates, the left and right image data photographed simultaneously by the identification code are identified and used.

処理装置26では、上記ステレオ画像データと上記内部標定要素と上記外部標定要素とを使用して目標物上の所定の点の3次元座標を求める。上述したように、内部標定要素と外部標定要素とは予めわかっているので、これらのデータは処理装置26に格納しておく。なお、3次元座標を求める手順は後述する。この場合の処理装置26が、本発明にかかる画像解析手段に相当する。   In the processing device 26, the stereo image data, the internal orientation element, and the external orientation element are used to obtain the three-dimensional coordinates of a predetermined point on the target. As described above, since the internal orientation element and the external orientation element are known in advance, these data are stored in the processing device 26. The procedure for obtaining the three-dimensional coordinates will be described later. The processing device 26 in this case corresponds to the image analysis means according to the present invention.

処理装置26では、求めた3次元座標を使用して、3次元空間物体である目標物の長さ、幅、高さなどの空間幾何パラメータを求める。また、この空間幾何パラメータにより目標物の3次元画像を生成し、コンピュータのディスプレイ等で構成される表示装置27の表示画面に表示し復元することができる。これにより、コンピュータのディスプレイ等に目標物の3次元画像を復元し、様々なシミュレーションを行うことができる。このため、工場や建物の室内または町並等の検討を極めて容易に行うことができる。   The processing device 26 uses the obtained three-dimensional coordinates to obtain spatial geometric parameters such as the length, width, and height of the target that is a three-dimensional spatial object. In addition, a three-dimensional image of the target can be generated based on the spatial geometric parameters, and displayed on the display screen of the display device 27 constituted by a computer display or the like for restoration. Thereby, it is possible to restore a three-dimensional image of the target on a computer display or the like and perform various simulations. For this reason, it is possible to very easily study the interior of a factory or building, or the townscape.

図2には、上述したカメラ固定装置の例が示される。図2において、カメラ10L、10Rは、カメラ固定装置22を構成する棒状部材28の両端部に固定されており、棒状部材28は、支柱30に固定されている。本実施形態では、支柱30がキャスター付き支持部32に取付けられ、カメラ10L、10Rを容易に移動できるように構成されている。これにより、広い場所を移動しながら3次元測量を実施でき、3次元測量の作業効率を向上できる。   FIG. 2 shows an example of the camera fixing device described above. In FIG. 2, the cameras 10 </ b> L and 10 </ b> R are fixed to both ends of a rod-shaped member 28 that constitutes the camera fixing device 22, and the rod-shaped member 28 is fixed to a column 30. In the present embodiment, the support column 30 is attached to the support portion 32 with casters so that the cameras 10L and 10R can be easily moved. Thereby, 3D surveying can be carried out while moving in a wide place, and the work efficiency of 3D surveying can be improved.

なお、以上に述べた例ではカメラが2台(10L、10R)の場合を説明したが、3台以上のカメラを使用してもよい。この場合、目標物の所定の点を同時に撮影できる適宜な2台のカメラを選択し、選択されたカメラからの画像データにより上記ステレオ画像データが構成される。   In the example described above, the case of two cameras (10L, 10R) has been described, but three or more cameras may be used. In this case, two appropriate cameras capable of simultaneously photographing a predetermined point of the target are selected, and the stereo image data is constituted by image data from the selected cameras.

図3には、図1に示された3次元測量装置により3次元測量を実施する際の座標系の例が示される。3次元測量の目的は取得した画像の情報から幾何変換を経て目標物の3次元空間上の幾何情報(3次元座標)を得ることにある。デジタル画像から目標物の3次元空間上の幾何情報を求めるためには、目標物上の点とこれに対応する像点との間の関係方程式を作成する必要がある。図3に示された座標系は、この関係方程式を作成する際に使用される。   FIG. 3 shows an example of a coordinate system when a three-dimensional survey is performed by the three-dimensional survey apparatus shown in FIG. The purpose of the three-dimensional survey is to obtain geometric information (three-dimensional coordinates) of the target in the three-dimensional space through geometric transformation from the acquired image information. In order to obtain geometric information of a target in a three-dimensional space from a digital image, it is necessary to create a relational equation between a point on the target and an image point corresponding to the point. The coordinate system shown in FIG. 3 is used in creating this relational equation.

図3において、Aは被測定対象である目標物上の点であり、実空間上の任意の原点Oを通過する任意の座標軸X、Y、Zに対して座標(X,Y,Z)にある。本実施形態にかかる3次元測量装置は、この座標(X,Y,Z)を、取得したステレオ画像データから求める装置である。また、本実施形態では、A点を撮影するカメラが撮影方向に向かって左右2台あり、図3にはこのカメラの構成要素のうち画像センサー18L、18Rのみが示され、カメラの他の構成要素は省略されている。左右のカメラ10L、10Rの外部標定要素である投影中心S、Sの座標は、上記原点Oに対して、それぞれ(XSL,YSL,ZSL)及び(XSR,YSR,ZSR)となっている。また、画像センサー18Lのセンサー面は、投影中心Sを中心として原点Oを通過するX軸に対してω、Y軸に対してφ、Z軸に対してκだけ回転した姿勢となっており、画像センサー18Rのセンサー面は、投影中心Sを中心として原点Oを通過するX軸に対してω、Y軸に対してφ、Z軸に対してκだけ回転した姿勢となっている。この場合の角度ω、φ、κ及びω、φ、κがカメラ10L、10Rの外部標定要素である姿勢角度である。なお、前述したように、2台のカメラ10L、10Rは、カメラ固定装置22により、相互の相対移動が無いように固定されているので、カメラ10L、10Rの投影中心及び姿勢角度は、キャリブレーションを予め行うことにより一義的に決定することができる。 In FIG. 3, A is a point on the target to be measured, and the coordinates (X A , Y A , Z with respect to arbitrary coordinate axes X, Y, Z passing through an arbitrary origin O in the real space. A ). The three-dimensional surveying apparatus according to the present embodiment is an apparatus that obtains these coordinates (X A , Y A , Z A ) from acquired stereo image data. Further, in the present embodiment, there are two cameras that shoot the point A in the shooting direction, and FIG. 3 shows only the image sensors 18L and 18R among the components of the camera. Elements are omitted. Left and right cameras 10L, 10R projection center S L is an external orientation elements of, S coordinates of R, relative to the origin O, respectively (X SL, Y SL, Z SL) and (X SR, Y SR, Z SR ). The sensor surface of the image sensor 18L has a posture rotated by ω L with respect to the X axis passing through the origin O around the projection center S L , φ L with respect to the Y axis, and κ L with respect to the Z axis. The sensor surface of the image sensor 18R is rotated by ω R with respect to the X axis passing through the origin O around the projection center S R , φ R with respect to the Y axis, and κ R with respect to the Z axis. It is a posture. In this case, the angles ω L , φ L , κ L and ω R , φ R , κ R are posture angles that are external orientation elements of the cameras 10L, 10R. As described above, since the two cameras 10L and 10R are fixed by the camera fixing device 22 so as not to move relative to each other, the projection centers and posture angles of the cameras 10L and 10R are calibrated. Can be determined uniquely by performing in advance.

次に、画像センサー18L、18Rのセンサー面が光軸と交わる点である主点34L、34Rは、画像センサー18L、18Rの中心とは若干ずれている。これは、カメラの製造上、画像センサー18L、18Rの中心位置にカメラの光軸を完全に一致させることが極めて困難だからである。このとき、画像センサー18L、18Rの中心位置を原点とするセンサー面上のx、x座標軸における主点34L、34Rの座標を(x0L,y0L)、(x0R,y0R)とする。また、左右のカメラで目標物を撮影した場合、目標物上のA点は画像センサー18L、18R上の点a、aに像を結ぶが、このa、aの上記x及びx座標軸における座標を(x,y)及び(x,y)とする。なお、左側カメラの主点34Lと投影中心Sとの距離及び右側カメラの主点34Rと投影中心Sとの距離が、それぞれ左側カメラ及び右側カメラの光学系の焦点距離f、fである。以上に述べた主点34L、34R及び焦点距離f、f等の内部標定要素も、キャリブレーションを行うことにより予め求めておく。なお、図3の例では、画像センサー18L、18Rにネガティブ像が形成されることになる。 Next, main points 34L and 34R, which are points where the sensor surfaces of the image sensors 18L and 18R intersect with the optical axis, are slightly shifted from the centers of the image sensors 18L and 18R. This is because it is extremely difficult to make the optical axis of the camera completely coincide with the center position of the image sensors 18L and 18R in manufacturing the camera. At this time, the coordinates of the principal points 34L and 34R on the x R y R and x L y L coordinate axes on the sensor surface with the center positions of the image sensors 18L and 18R as the origin are (x 0L , y 0L ), (x 0R , y 0R ). Further, when the target is photographed with the left and right cameras, the point A on the target forms an image with the points a L and a R on the image sensors 18L and 18R, and the above x L y of the a L and a R. The coordinates on the L and x R y R coordinate axes are (x L , y L ) and (x R , y R ). The distance between the main point 34L of the left camera and the projection center S L and the distance between the main point 34R of the right camera and the projection center S R are the focal lengths f L and f R of the optical system of the left camera and the right camera, respectively. It is. The internal orientation elements such as the principal points 34L and 34R and the focal lengths f L and f R described above are also obtained in advance by performing calibration. In the example of FIG. 3, negative images are formed on the image sensors 18L and 18R.

以上に述べた図3の幾何関係から、以下の関係方程式が得られる。なお、この関係方程式の演算処理は、前述した処理装置26により実行される。

Figure 2005017262
ここで、上記各式を次のように変換する。
Figure 2005017262
ただし、
Figure 2005017262
であり、また、
Figure 2005017262
Figure 2005017262
である。 From the geometric relationship shown in FIG. 3 described above, the following relational equation is obtained. This relational equation calculation process is executed by the processing device 26 described above.
Figure 2005017262
Here, the above equations are converted as follows.
Figure 2005017262
However,
Figure 2005017262
And also
Figure 2005017262
Figure 2005017262
It is.

上記(1)式または(2)式を解くことにより、被測定対象である目標物上の点Aの実空間上での座標(X,Y,Z)を求めることができる。この場合、上記(1)式または(2)式は方程式が4つあり、求めるべき未知数(X,Y,Z)より1つ多いので、最小自乗法により解の精度を上げることができる。 By solving the equation (1) or (2), the coordinates (X A , Y A , Z A ) in the real space of the point A on the target to be measured can be obtained. In this case, the above equation (1) or (2) has four equations, one more than the unknowns to be obtained (X A , Y A , Z A ), so that the accuracy of the solution can be improved by the method of least squares. it can.

次に、上述のようにして算出した目標物上の点Aの三次元座標(X,Y,Z)を使用し、以下の式により空間幾何パラメータを求めることができる。この空間幾何パラメータは、前述したように、目標物の3次元形状を復元するために使用される。 Next, using the three-dimensional coordinates (X A , Y A , Z A ) of the point A on the target calculated as described above, the spatial geometric parameter can be obtained by the following equation. This spatial geometric parameter is used to restore the three-dimensional shape of the target as described above.

まず、

Figure 2005017262
により、点A1から点A2までの距離dを求めることができる。 First,
Figure 2005017262
Thus, the distance d from the point A1 to the point A2 can be obtained.

次に、

Figure 2005017262
により、点A1とA2とを通過する直線と点A3との距離Wを求めることができる。このような、点と点との距離及び点と線との距離を組み合わせることにより、目標物の長さ、幅、高さなどの空間幾何パラメータ決定できる。 next,
Figure 2005017262
Thus, the distance W between the straight line passing through the points A1 and A2 and the point A3 can be obtained. By combining the distance between the points and the distance between the points and the line, the spatial geometric parameters such as the length, width, and height of the target can be determined.

図4には、図1に示された3次元測量装置を使用して3次元測量を行う場合の工程のフローが示される。図4において、処理装置26に格納された左側のカメラ10Lに関するLパラメータすなわち投影中心(XSL,YSL,ZSL)、姿勢角度(ω、φ、κ)、焦点距離f及び主点(x0L,y0L)と、右側のカメラ10Rに関するRパラメータすなわち投影中心(XSR,YSR,ZSR)、姿勢角度(ω、φ、、κ)、焦点距離f及び主点(x0R,y0R)とを初期化する(S1、S2)。 FIG. 4 shows a process flow in the case of performing three-dimensional surveying using the three-dimensional surveying apparatus shown in FIG. In FIG. 4, the L parameter relating to the left camera 10L stored in the processing device 26, that is, the projection center (X SL , Y SL , Z SL ), the attitude angle (ω L , φ L , κ L ), the focal length f L, and The principal point (x 0L , y 0L ) and the R parameter relating to the right camera 10R, that is, the projection center (X SR , Y SR , Z SR ), the posture angle (ω R , φ R , κ R ), the focal length f R And the principal point (x 0R , y 0R ) are initialized (S1, S2).

次に、左右のカメラ10L、10Rにより撮影され、画像メモリ24L、24Rに格納されている左画像データと右画像データを、処理装置26が取得する(S3、S4)。取得された画像データには、前述した識別コードが付されるので、この識別コードが一致するか否かを判定する(S5)。識別コードが一致すれば、同時に撮影された左右の画像データであると判断できる。同時に撮影された左右の画像データを使用しないと、正しく3次元座標を得ることができないので、この判定は重要である。識別コードが一致しない場合は、S3、S4のステップに戻り、画像データの取得から再実行する。   Next, the processing device 26 acquires the left image data and the right image data captured by the left and right cameras 10L and 10R and stored in the image memories 24L and 24R (S3 and S4). Since the acquired image data is attached with the above-described identification code, it is determined whether or not the identification codes match (S5). If the identification codes match, it can be determined that the left and right image data are captured simultaneously. This determination is important because right and left image data taken at the same time cannot be used unless three-dimensional coordinates can be obtained correctly. If the identification codes do not match, the process returns to steps S3 and S4, and re-executes from the acquisition of the image data.

識別コードが一致した左画像データと右画像データにより、左側(L)画像センサー18L上に結像した測定点Aの画像点aの座標(x,y)及び右側(R)画像センサー18R上に結像した測定点Aの画像点aの座標(x,y)を求める(S6、S7)。次に、画像センサー18L、18R上の座標を求めた画像点aと画像点aとが対応しているかすなわち同じ測定点Aの画像点であるかを判定する(S8)。この判定は、ディスプレイ上に左画像データと右画像データを表示して人間が目視で行ってもよいし、画像点及びその近傍の一致性を判定するソフトウェアにより行ってもよい。画像点が対応しない場合は、S6、S7のステップから再実行する。 The coordinates (x L , y L ) and the right (R) image sensor of the image point a L of the measurement point A imaged on the left (L) image sensor 18L by the left image data and the right image data with the matching identification codes. The coordinates (x R , y R ) of the image point a R of the measurement point A imaged on 18R are obtained (S6, S7). Next judges image sensors 18L, whether the image point a L was determined coordinates on 18R and the image point a R is the image point if That same measurement point A corresponds (S8). This determination may be performed by human eyes by displaying the left image data and the right image data on the display, or may be performed by software for determining the coincidence between the image point and its vicinity. If the image point does not correspond, the process is re-executed from steps S6 and S7.

画像点aと画像点aとが対応していると判定された場合、左右のカメラ10L、10Rのパラメータに、処理装置26に格納されていたそれぞれの値を導入し(S9、S10)、これと画像点a、aを使用して前述の方程式(1)、(2)を立てる(S11)。この方程式を解き、所定の測定点Aの3次元座標を求める(S12)。以上に述べた工程を繰り返すことにより、被測定空間内にある目標物上の所定の座標を全て求めることができ、3次元測量を行うことができる。 If an image point a L and the image point a R is determined to correspond, left and right cameras 10L, the 10R parameter, introduces each value stored in the processing unit 26 (S9, S10) The above equations (1) and (2) are established using this and the image points a L and a R (S11). This equation is solved to obtain the three-dimensional coordinates of the predetermined measurement point A (S12). By repeating the steps described above, all the predetermined coordinates on the target in the space to be measured can be obtained, and three-dimensional survey can be performed.

図5には、前述したカメラ同期装置の構成例のブロック図が示される。図5において、カメラ同期装置20は、撮影信号発振機36から無線通信により撮影信号が発信されると、受信機38によりこの信号を受信し、これをトリガとして信号処理機40により同期信号発生装置42に動作信号が入力される。動作信号が入力されると、同期信号発生装置42が左右のカメラ10L、10Rのそれぞれのシャッター16L、16Rの作動信号を発生し、シャッター16L、16Rが同時に作動される。これにより、撮影信号発振機36による遠隔操作で左右のカメラの10L、10Rの撮影タイミングを一致させることができる。   FIG. 5 shows a block diagram of a configuration example of the camera synchronization device described above. In FIG. 5, when a photographing signal is transmitted by radio communication from the photographing signal oscillator 36, the camera synchronization device 20 receives this signal by the receiver 38, and uses this as a trigger to generate a synchronization signal generating device by the signal processor 40. An operation signal is input to 42. When the operation signal is input, the synchronization signal generator 42 generates the operation signals of the shutters 16L and 16R of the left and right cameras 10L and 10R, and the shutters 16L and 16R are simultaneously operated. Thereby, the photographing timings of the left and right cameras 10L and 10R can be matched by remote control by the photographing signal oscillator 36.

なお、カメラ同期装置20は、必ずしも遠隔操作により動作する構成としなくてもよい。例えば、撮影信号発振機36をカメラ同期装置20と一体化し、カメラ同期装置20と撮影信号発振機36とを電気コードで接続してもよい。   Note that the camera synchronization device 20 does not necessarily have to be configured to operate by remote control. For example, the shooting signal oscillator 36 may be integrated with the camera synchronization device 20 and the camera synchronization device 20 and the shooting signal oscillator 36 may be connected by an electric cord.

本発明にかかる3次元測量装置の構成のブロック図である。It is a block diagram of the structure of the three-dimensional survey apparatus concerning this invention. カメラ固定装置の例を示す図である。It is a figure which shows the example of a camera fixing device. 図1に示された3次元測量装置により3次元測量を実施する際の座標系の例を示す図である。It is a figure which shows the example of the coordinate system at the time of implementing three-dimensional surveying with the three-dimensional surveying apparatus shown by FIG. 図1に示された3次元測量装置を使用して3次元測量を行う場合の工程のフロー図である。It is a flowchart of the process in the case of performing a three-dimensional survey using the three-dimensional survey apparatus shown in FIG. カメラ同期装置の構成例のブロック図である。It is a block diagram of the structural example of a camera synchronizer.

符号の説明Explanation of symbols

10L、10R カメラ、12 矢印、14R、14L 光学系、
16R、16L シャッター、18R、18L 画像センサー、20 カメラ同期装置、22 カメラ固定装置、24R、24L 画像メモリ、26 処理装置、27 表示装置、28 棒状部材、30 支柱、32 キャスター付き支持部、34R、34L 主点、
1 撮影信号発振機、38 受信機、40 信号処理機、42 同期信号発生装置。
10L, 10R camera, 12 arrows, 14R, 14L optical system,
16R, 16L Shutter, 18R, 18L Image sensor, 20 Camera synchronization device, 22 Camera fixing device, 24R, 24L Image memory, 26 Processing device, 27 Display device, 28 Bar-shaped member, 30 Prop, 32 Support section with casters, 34R, 34L principal point,
1 imaging signal oscillator, 38 receiver, 40 signal processor, 42 synchronization signal generator.

Claims (6)

焦点距離、主点等の内部標定要素が予めわかっている2台あるいは3台以上のカメラと、
前記カメラを相互の相対移動が無いように固定するカメラ固定装置と、
前記カメラの撮影タイミングを同期させるカメラ同期装置と、
前記カメラのうち、撮影方向に向かって左側のカメラで撮影した左画像データと左側のカメラに同期された右側のカメラで撮影した右画像データとによって構成されるステレオ画像データ、前記内部標定要素及び前記カメラの相対移動が無いことによって一義的に決定されるカメラの投影中心、姿勢角度等の外部標定要素を使用して、目標物の3次元座標を求める画像解析手段と、
を備えることを特徴とする3次元測量装置。
Two or more cameras with known internal orientation elements such as focal length and principal point,
A camera fixing device for fixing the cameras so that there is no relative movement between them;
A camera synchronization device for synchronizing the shooting timing of the camera;
Among the cameras, stereo image data composed of left image data taken by the left camera in the shooting direction and right image data taken by the right camera synchronized with the left camera, the internal orientation element, Image analysis means for obtaining the three-dimensional coordinates of the target using external orientation elements such as the camera projection center and posture angle that are uniquely determined by the absence of relative movement of the camera;
A three-dimensional surveying apparatus comprising:
請求項1記載の3次元測量装置において、前記カメラ同期装置は遠隔操作が可能であることを特徴とする3次元測量装置。   2. The three-dimensional survey apparatus according to claim 1, wherein the camera synchronization device can be remotely operated. 請求項1または請求項2記載の3次元測量装置において、前記画像解析手段は、前記3次元座標を使用して目標物の長さ、幅、高さ等の空間幾何パラメータを求め、この空間幾何パラメータにより目標物の3次元画像を表示画面上に表示することを特徴とする3次元測量装置。   3. The three-dimensional surveying apparatus according to claim 1, wherein the image analysis means obtains a spatial geometric parameter such as a length, a width, and a height of the target using the three-dimensional coordinates, and the spatial geometry. A three-dimensional surveying apparatus, wherein a three-dimensional image of a target is displayed on a display screen according to a parameter. 一定間隔に置かれ相対移動しない2台あるいは2台以上の、焦点距離、主点等の内部標定要素があらかじめわかっているカメラを用いて目標物を同時に撮影し、
前記カメラのうち、撮影方向に向かって左側のカメラで撮影した左画像と右側のカメラで撮影した右画像とによって構成されるステレオ画像データ、前記内部標定要素及び前記カメラの相対移動が無いことによって一義的に決定されるカメラの投影中心、姿勢角度等の外部標定要素を使用して目標物の3次元座標を求め、
前記3次元座標を使用して目標物の3次元画像を表示画面上に表示することを特徴とする3次元空間物体復元方法。
Take two or more cameras that are placed at regular intervals and do not move relative to each other, and use a camera with known internal orientation elements such as focal length and principal point,
Among the cameras, there is no stereo image data composed of a left image taken by the left camera and a right image taken by the right camera in the shooting direction, and there is no relative movement of the internal orientation element and the camera. Using the external orientation elements such as the camera projection center and posture angle that are uniquely determined, the three-dimensional coordinates of the target are obtained.
A three-dimensional spatial object restoration method, wherein a three-dimensional image of a target is displayed on a display screen using the three-dimensional coordinates.
請求項4記載の3次元空間物体復元方法において、前記左画像及び右画像に識別コードを付し、前記識別コードに基づいて、同時に撮影した左画像及び右画像を認識し、これにより構成されるステレオ画像から目標物の3次元座標及び目標物の長さ、幅、高さなどの空間幾何パラメータを求めることを特徴とする3次元空間物体復元方法。   5. The three-dimensional space object restoration method according to claim 4, wherein an identification code is attached to the left image and the right image, and based on the identification code, the left image and the right image taken simultaneously are recognized, and configured thereby. A three-dimensional spatial object restoration method, wherein a three-dimensional coordinate of a target and a spatial geometric parameter such as a length, width, and height of the target are obtained from a stereo image. 請求項5記載の3次元空間物体復元方法において、前記識別コードは撮影時間、地点及びカメラの識別番号によって画像データ管理手段が前記左画像、右画像に付することを特徴とする3次元空間物体復元方法。   6. The three-dimensional space object reconstruction method according to claim 5, wherein the identification code is attached to the left image and the right image by an image data management means according to an imaging time, a point, and a camera identification number. Restoration method.
JP2003281290A 2003-06-27 2003-07-28 Three-dimensional surveying system and three-dimensional space object restoring method Pending JP2005017262A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 03128221 CN1567384A (en) 2003-06-27 2003-06-27 Method of image acquisition, digitized measure and reconstruction of three-dimensional object

Publications (2)

Publication Number Publication Date
JP2005017262A true JP2005017262A (en) 2005-01-20
JP2005017262A5 JP2005017262A5 (en) 2006-08-31

Family

ID=34153279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003281290A Pending JP2005017262A (en) 2003-06-27 2003-07-28 Three-dimensional surveying system and three-dimensional space object restoring method

Country Status (2)

Country Link
JP (1) JP2005017262A (en)
CN (1) CN1567384A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007107962A (en) * 2005-10-12 2007-04-26 Yamamoto Denko Kk Measuring system of measuring object and separated measuring system under transmission line
WO2009106141A1 (en) * 2008-02-29 2009-09-03 Trimble Ab Determining coordinates of a target in relation to a survey instrument having at least two cameras
WO2011143813A1 (en) * 2010-05-19 2011-11-24 深圳泰山在线科技有限公司 Object projection method and object projection sysytem
US8345928B2 (en) 2008-02-12 2013-01-01 Trimble Ab Localizing a surveying instrument in relation to a ground mark
US8625086B2 (en) 2008-02-12 2014-01-07 Trimble Ab Determining coordinates of a target in relation to a survey instrument having a camera
CN110111333A (en) * 2019-05-29 2019-08-09 武汉华正空间软件技术有限公司 Stereo-picture acquisition system and method
KR102044639B1 (en) * 2018-10-25 2019-11-14 공간정보기술 주식회사 Method and apparatus for aligning stereo cameras
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100454335C (en) * 2006-10-23 2009-01-21 华为技术有限公司 Realizing method for forming three dimension image and terminal device
CN101477193B (en) * 2008-01-03 2011-06-01 敦南科技股份有限公司 Three-dimensional space position detecting apparatus and detecting method
DE102008054453A1 (en) * 2008-12-10 2010-06-17 Robert Bosch Gmbh Measuring system for measuring rooms and / or objects
CN101630418B (en) * 2009-08-06 2012-10-03 白晓亮 Integrated method for measurement and reconstruction of three-dimensional model and system thereof
CN101908226A (en) * 2010-08-16 2010-12-08 北京水晶石数字科技有限公司 Three-dimensional animation production system
CN102650518B (en) * 2011-02-25 2015-01-21 株式会社理光 Measuring method and equipment
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
CN102802006B (en) 2012-08-03 2014-08-06 梁智伟 Digital camera, laminating type photograph printer and three-dimensional colorful image making system
CN103263249A (en) * 2013-04-23 2013-08-28 北京博维恒信科技发展有限公司 Multi-scanner fast human body three-dimensional scanning system
CN104424630A (en) * 2013-08-20 2015-03-18 华为技术有限公司 Three-dimension reconstruction method and device, and mobile terminal
CN104482921B (en) * 2014-12-23 2016-09-07 河北工业大学 A kind of measuring method of waterborne target
EP3422955B1 (en) * 2016-02-29 2023-10-18 Packsize International, LLC System and method for assisted 3d scanning
CN106340043A (en) * 2016-08-24 2017-01-18 深圳市虚拟现实技术有限公司 Image identification spatial localization method and image identification spatial localization system
CN107289869A (en) * 2017-06-08 2017-10-24 杭州联络互动信息科技股份有限公司 A kind of method, apparatus and system that 3D measurements are carried out using matrix camera lens
CN108257246B (en) * 2017-12-25 2020-04-24 重庆近江智信汽车零部件有限公司 Intelligent pipe bending system
CN109448049A (en) * 2018-09-28 2019-03-08 上海嘉实(集团)有限公司 A kind of spatial data measurement method for three-dimensional software
CN110053827A (en) * 2019-03-05 2019-07-26 红塔烟草(集团)有限责任公司 A kind of cigarette packet three-dimensional appearance visible detection method and device
CN110232733B (en) * 2019-05-29 2024-03-15 武汉华正空间软件技术有限公司 Three-dimensional model modeling method and system, storage medium and computer

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101035A (en) * 1994-10-03 1996-04-16 Kajima Corp Remote measuring method
JPH11160021A (en) * 1997-11-27 1999-06-18 Nippon Telegr & Teleph Corp <Ntt> Wide area three-dimensional position measuring method and equipment
JP2002188917A (en) * 2000-12-22 2002-07-05 Fuji Heavy Ind Ltd Attitude angle detecting device for flight vehicle
JP2002245438A (en) * 2001-02-20 2002-08-30 Shigenori Tanaka Device, method and program for supporting preparation of three-dimensional computer graphics
JP2003006618A (en) * 2001-06-27 2003-01-10 Minolta Co Ltd Method and device for generating three-dimensional model and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101035A (en) * 1994-10-03 1996-04-16 Kajima Corp Remote measuring method
JPH11160021A (en) * 1997-11-27 1999-06-18 Nippon Telegr & Teleph Corp <Ntt> Wide area three-dimensional position measuring method and equipment
JP2002188917A (en) * 2000-12-22 2002-07-05 Fuji Heavy Ind Ltd Attitude angle detecting device for flight vehicle
JP2002245438A (en) * 2001-02-20 2002-08-30 Shigenori Tanaka Device, method and program for supporting preparation of three-dimensional computer graphics
JP2003006618A (en) * 2001-06-27 2003-01-10 Minolta Co Ltd Method and device for generating three-dimensional model and computer program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007107962A (en) * 2005-10-12 2007-04-26 Yamamoto Denko Kk Measuring system of measuring object and separated measuring system under transmission line
US8345928B2 (en) 2008-02-12 2013-01-01 Trimble Ab Localizing a surveying instrument in relation to a ground mark
US8625086B2 (en) 2008-02-12 2014-01-07 Trimble Ab Determining coordinates of a target in relation to a survey instrument having a camera
US8629905B2 (en) 2008-02-12 2014-01-14 Trimble Ab Localization of a surveying instrument in relation to a ground mark
WO2009106141A1 (en) * 2008-02-29 2009-09-03 Trimble Ab Determining coordinates of a target in relation to a survey instrument having at least two cameras
US9189858B2 (en) 2008-02-29 2015-11-17 Trimble Ab Determining coordinates of a target in relation to a survey instrument having at least two cameras
WO2011143813A1 (en) * 2010-05-19 2011-11-24 深圳泰山在线科技有限公司 Object projection method and object projection sysytem
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
US11704866B2 (en) 2018-08-14 2023-07-18 Certainteed Llc Systems and methods for visualization of building structures
KR102044639B1 (en) * 2018-10-25 2019-11-14 공간정보기술 주식회사 Method and apparatus for aligning stereo cameras
CN110111333A (en) * 2019-05-29 2019-08-09 武汉华正空间软件技术有限公司 Stereo-picture acquisition system and method

Also Published As

Publication number Publication date
CN1567384A (en) 2005-01-19

Similar Documents

Publication Publication Date Title
JP2005017262A (en) Three-dimensional surveying system and three-dimensional space object restoring method
US10019838B2 (en) Human body three-dimensional imaging method and system
CN106643699B (en) Space positioning device and positioning method in virtual reality system
JP6483075B2 (en) Method of 3D panoramic mosaicing of scenes
US10621753B2 (en) Extrinsic calibration of camera systems
KR101220527B1 (en) Sensor system, and system and method for preparing environment map using the same
US20140176677A1 (en) 3D Scene Scanner and Position and Orientation System
WO2015024361A1 (en) Three-dimensional reconstruction method and device, and mobile terminal
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
WO2004044522A1 (en) Three-dimensional shape measuring method and its device
JP2007147341A (en) Method and apparatus for creating three-dimensional data
CN109460040A (en) It is a kind of that map system and method are established by mobile phone shooting photo array floor
JP2005077385A (en) Image correlation method, survey method and measuring system using them
Feng et al. Inertial measurement unit aided extrinsic parameters calibration for stereo vision systems
US20070076096A1 (en) System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
JP4077385B2 (en) Global coordinate acquisition device using image processing
Chen et al. Calibration of a hybrid camera network
Junior et al. Calibration of a catadioptric omnidirectional vision system with conic mirror
JP2018077196A (en) Monitoring system
JP2019118090A (en) Imaging apparatus and control method of imaging apparatus
JP2006170688A (en) Stereo image formation method and three-dimensional data preparation device
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
Aliakbarpour et al. Three-dimensional reconstruction based on multiple virtual planes by using fusion-based camera network
JP2009031206A (en) Position measuring device
JP2022106868A (en) Imaging device and method for controlling imaging device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060718

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101124