JP2001041745A - Photogrammetry method and photogrammetry image processing device - Google Patents

Photogrammetry method and photogrammetry image processing device

Info

Publication number
JP2001041745A
JP2001041745A JP22079599A JP22079599A JP2001041745A JP 2001041745 A JP2001041745 A JP 2001041745A JP 22079599 A JP22079599 A JP 22079599A JP 22079599 A JP22079599 A JP 22079599A JP 2001041745 A JP2001041745 A JP 2001041745A
Authority
JP
Japan
Prior art keywords
camera
image
coordinates
images
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22079599A
Other languages
Japanese (ja)
Inventor
Toshihiro Nakayama
利宏 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority to JP22079599A priority Critical patent/JP2001041745A/en
Publication of JP2001041745A publication Critical patent/JP2001041745A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a high-precision survey drawing by a simple work. SOLUTION: First, second and third images are obtained by photographing from first, second and third camera positions M1, M2, M3. A target 30 is shifted into the three images. The third camera position M3 is nearer to the target 30 than the first and second camera positions M1, M2. A third open angle σ3 between a second optical axis O2 and a third optical axis O3 is larger than a first open angle σ1 between a first optical axis O1 and the second optical axis O2, and a second open angle σ2 between the first optical axis O1 and the third optical axis O3 is larger than the first open angle σ1 and the third open angle σ3. The camera positions and inclinations of the optical axes are calculated by using the three images, and three-dimensional coordinates of an optional object point are calculated based on the first and second images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、写真測量における
撮影処理および画像処理に関する。
The present invention relates to a photographing process and an image process in photogrammetry.

【0002】[0002]

【従来の技術】写真測量は地図の作成に広く使用され、
交通事故の現場検証等の局所的な状況の記録においても
極めて有効な手段として活用されている。従来写真測量
は2台のカメラを離間しつつ固定したステレオカメラを
使用し、両カメラで撮影した2つの画像から各測量点の
3次元座標を算出する。ここにステレオカメラは大重量
かつ大型の機材であり、また3次元座標の計算にはカメ
ラの位置情報、傾斜角度、被写体の実測長さ等詳細な情
報を記録しておく必要があり、測量作業は煩雑かつ重労
働である。また交通事故現場の周囲に障害物が多い等、
充分広い撮影環境が確保されないことも多く、ステレオ
カメラによる現場検証が困難なときも多い。
2. Description of the Related Art Photogrammetry is widely used for creating maps,
It is also used as an extremely effective means for recording local situations such as on-site inspections of traffic accidents. Conventional photogrammetry uses a stereo camera in which two cameras are fixed while being separated from each other, and three-dimensional coordinates of each survey point are calculated from two images taken by the two cameras. Here, a stereo camera is a heavy and large equipment, and it is necessary to record detailed information such as camera position information, tilt angle, and actual measurement length of the subject in calculating three-dimensional coordinates. Is cumbersome and hard work. Also, there are many obstacles around the traffic accident site,
In many cases, a sufficiently wide shooting environment is not secured, and it is often difficult to perform on-site verification using a stereo camera.

【0003】そこで本願出願人は、単眼のカメラによる
写真測量方法(特開平10−293026号公報、特開
平10−221072号公報)、および同写真測量の精
度を向上させるために一対の画像(以下、「ペア画像」
という)に含めるターゲット(特開平10−30702
5号公報、特開平10−293026号公報、特開平1
0−185563号公報、特開平10−185562号
公報、特開平10−170263号公報、特開平10−
141951号公報)を多数提案して、簡易機材による
効率的な写真測量を実現している。
[0003] The applicant of the present application has proposed a photogrammetry method using a monocular camera (Japanese Patent Application Laid-Open Nos. Hei 10-293026 and Hei 10-221072), and a pair of images (hereinafter referred to as "photographs") for improving the accuracy of the photogrammetry. , "Pair image"
(See JP-A-10-30702)
No. 5, JP-A-10-293026, JP-A-1
0-185563, JP-A-10-185562, JP-A-10-170263, JP-A-10-
No. 141951) has been proposed to realize efficient photogrammetry using simple equipment.

【0004】このような写真測量方法においては、同一
のターゲットと測量対象物とが任意の異なる方向から撮
影されたペア画像を得、専用の写真測量画像処理装置に
おいて、ターゲットの寸法形状と、ペア画像に共通に写
し込まれた測量点(以下、「物点」という)の座標とに
基づいて、各画像が得られたときのカメラの相対位置や
光軸の傾き(以下、「カメラパラメータ」という)と、
物点の3次元座標とが求められる。そして多数の物点の
3次元座標を用いて測量図が描かれる。
In such a photogrammetry method, a paired image of the same target and the object to be surveyed taken from arbitrary different directions is obtained. Based on the coordinates of survey points (hereinafter, referred to as “object points”) commonly captured in the images, the relative position of the camera and the inclination of the optical axis when each image was obtained (hereinafter, “camera parameters”) )
The three-dimensional coordinates of the object point are obtained. Then, a survey map is drawn using the three-dimensional coordinates of many object points.

【0005】[0005]

【発明が解決しようとする課題】しかし、同一ターゲッ
トを含む画像が2枚の場合には、特にマニュアルで指定
する物点の座標に基づいて算出されるカメラパラメータ
に関して充分な精度が得られず、結果として高精度の測
量図が得られないという問題が生じる。
However, when there are two images including the same target, sufficient accuracy is not obtained with respect to camera parameters calculated based on the coordinates of an object point specified manually. As a result, there arises a problem that a highly accurate survey map cannot be obtained.

【0006】従来では、画像枚数を増加することにより
測量精度を向上させていたが、全画像においてそれぞれ
対応する物点を見出し指定することの煩雑さもさること
ながら、測量精度を考慮しつつ、物点を選択すること
は、熟練したオペレータにとっても極めて煩雑な作業で
ある。また、処理する物点数が多くなるため、物点の3
次元座標を算出する演算処理が複雑になり、多大な時間
を必要とする。
Conventionally, the surveying accuracy has been improved by increasing the number of images. However, not only is it difficult to find and specify the corresponding object point in all images, but also the surveying accuracy is taken into consideration. Choosing points is an extremely cumbersome task, even for skilled operators. In addition, since the number of objects to be processed increases, three
The calculation process for calculating the dimensional coordinates becomes complicated and requires a lot of time.

【0007】本発明は、この様な点に鑑みてなされたも
のであり、簡易な作業によって高精度の測量図を得るこ
とが目的である。
The present invention has been made in view of such a point, and an object of the present invention is to obtain a highly accurate survey map by a simple operation.

【0008】[0008]

【課題を解決するための手段】本発明による写真測量方
法は、複数の基準点を有するターゲットを所定位置に設
け、この所定位置からそれぞれ所定の距離だけ離れた第
1、第2および第3カメラ位置から撮影を行って、第
1、第2および第3画像を得る画像取得ステップと、第
1、第2および第3画像における基準点の写真座標とタ
ーゲットの寸法形状とに基づいて、第1および第2カメ
ラ位置の座標と、第1および第2カメラ位置における第
1および第2光軸の傾きとを含むカメラパラメータを算
出するカメラパラメータ算出ステップと、第1および第
2画像において、共通に含まれる物点を指定してその写
真座標を求める物点指定ステップと、カメラパラメータ
と物点の写真座標とに基づいて、所定の座標系における
物点の3次元座標を算出する3次元座標算出ステップ
と、物点の3次元座標に基づいて測量図を作成する測量
図作成ステップとを備えることを特徴としている。この
ような写真測量方法においては、第1および第2光軸に
より形成される第1開き角より、第1および第3光軸に
より形成される第2開き角が大きく、さらに第1開き角
より、第2および第3光軸により形成される第3開き角
が大きい。この写真測量方法によって、カメラパラメー
タの精度が向上し、高精度の測量図が得られる。
SUMMARY OF THE INVENTION In a photogrammetry method according to the present invention, a target having a plurality of reference points is provided at a predetermined position, and first, second and third cameras which are respectively separated from the predetermined position by a predetermined distance. An image acquisition step of taking an image from a position to obtain first, second, and third images; and a first image acquisition step based on the photographic coordinates of the reference point in the first, second, and third images and the size and shape of the target. And a camera parameter calculation step of calculating camera parameters including the coordinates of the second camera position and the inclinations of the first and second optical axes at the first and second camera positions, and the first and second images. An object point specifying step of specifying an included object point and obtaining its photo coordinates; and, based on the camera parameters and the photo coordinates of the object point, converting the three-dimensional coordinates of the object point in a predetermined coordinate system. And the three-dimensional coordinates calculating step of leaving, is characterized in that it comprises a survey plan creation step of creating a survey map based on the three-dimensional coordinates of the object point. In such a photogrammetry method, the second opening angle formed by the first and third optical axes is larger than the first opening angle formed by the first and second optical axes, and the second opening angle is larger than the first opening angle. , The third opening angle formed by the second and third optical axes is large. By this photogrammetry method, the accuracy of the camera parameters is improved, and a highly accurate survey map can be obtained.

【0009】写真測量方法において、第1、第2および
第3画像に共通に含まれ、基準点とは異なる補助点を指
定してその写真座標を求める補助点指定ステップをさら
に備えていてもよく、この場合カメラパラメータ算出ス
テップにおいて、第1、第2および第3画像における補
助点の写真座標が加味される。さらにこの補助点は、タ
ーゲットが置かれた所定位置と第3カメラ位置との間に
位置してもよい。これにより、カメラパラメータが補正
され、さらに高精度な測量図が得られる。
The photogrammetry method may further include an auxiliary point specifying step of specifying an auxiliary point that is commonly included in the first, second, and third images and that is different from the reference point and obtains the photo coordinates thereof. In this case, in the camera parameter calculation step, the photograph coordinates of the auxiliary points in the first, second, and third images are taken into account. Further, the auxiliary point may be located between the predetermined position where the target is placed and the third camera position. As a result, the camera parameters are corrected, and a more accurate survey map can be obtained.

【0010】写真測量方法において、好ましくは、第3
画像の像の倍率が前記第1画像および第2画像の像の倍
率より高い。これにより、第3画像における基準点の写
真座標の精度が向上し、さらに高精度な測量図が得られ
る。
In the photogrammetry method, preferably, the third
The magnification of the image of the image is higher than the magnification of the images of the first image and the second image. Thereby, the accuracy of the photographic coordinates of the reference point in the third image is improved, and a more accurate survey map can be obtained.

【0011】写真測量方法において、第3カメラ位置に
おける撮影時の光軸の方向が、第1および第2カメラ位
置を通る直線に対して、水平面においてほぼ平行であっ
てもよい。これにより、有効な第3カメラ位置を撮影時
点で容易に認識できる。
In the photogrammetry method, the direction of the optical axis at the time of shooting at the third camera position may be substantially parallel to a straight line passing through the first and second camera positions in a horizontal plane. Thus, the effective third camera position can be easily recognized at the time of shooting.

【0012】また、本発明による写真測量画像処理装置
は、複数の基準点を有するターゲットを所定位置に設
け、この所定位置からそれぞれ所定の距離だけ離れた第
1、第2および第3カメラ位置から撮影を行うことによ
り得られた第1、第2および第3画像を読み込む画像読
込手段と、第1、第2および第3画像における基準点の
写真座標とターゲットの寸法形状とに基づいて、第1お
よび第2カメラ位置の座標と、第1および第2カメラ位
置における第1および第2光軸の傾きとを含むカメラパ
ラメータを算出するカメラパラメータ算出手段と、第1
および第2画像において、共通に含まれる物点を指定し
てその写真座標を求める物点指定手段と、カメラパラメ
ータと物点の写真座標とに基づいて、所定の座標系にお
ける物点の3次元座標を算出する3次元座標算出手段
と、物点の3次元座標に基づいて測量図を作成する測量
図作成手段とを備えることを特徴としている。さらにこ
のような写真測量画像処理装置に用いられる第1、第2
および第3画像に関して、第1および第2光軸により形
成される第1開き角より、第1および第3光軸により形
成される第2開き角が大きく、さらに第1開き角より、
第2および第3光軸により形成される第3開き角が大き
いことが特徴とされる。この写真測量画像処理装置によ
って、カメラパラメータの精度が向上し、高精度の測量
図が得られる。
Further, the photogrammetry image processing apparatus according to the present invention provides a target having a plurality of reference points at a predetermined position, and separates the target from the first, second and third camera positions separated by a predetermined distance from the predetermined position. Image reading means for reading the first, second, and third images obtained by performing the photographing; and, based on the photographic coordinates of the reference points in the first, second, and third images and the size and shape of the target, Camera parameter calculating means for calculating camera parameters including coordinates of the first and second camera positions and inclinations of the first and second optical axes at the first and second camera positions;
And an object point designating means for designating an object point included in the second image to obtain the photograph coordinates thereof, and a three-dimensional object point in a predetermined coordinate system based on the camera parameters and the photograph coordinates of the object point. It is characterized by comprising three-dimensional coordinate calculating means for calculating coordinates and surveying map creating means for creating a surveying map based on the three-dimensional coordinates of the object point. Further, the first and second photogrammetric image processing apparatuses used in such a photogrammetric image processing apparatus.
And the third image, the second opening angle formed by the first and third optical axes is larger than the first opening angle formed by the first and second optical axes, and the second opening angle is larger than the first opening angle.
The third opening angle formed by the second and third optical axes is characterized by being large. With this photogrammetric image processing apparatus, the accuracy of camera parameters is improved, and a highly accurate survey map can be obtained.

【0013】[0013]

【発明の実施の形態】以下、本発明による写真測量方法
および写真測量画像処理装置の一実施形態について添付
図面を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a photogrammetry method and a photogrammetry image processing apparatus according to the present invention will be described below with reference to the accompanying drawings.

【0014】図1は、写真測量方法の実施形態における
撮影状況を示す図であり、鉛直上方から見た水平面図で
ある。道路上の所定の位置にはターゲット30が置かれ
ている。第1カメラ位置M1、第2カメラ位置M2およ
び第3カメラ位置M3から、カメラ10により撮影さ
れ、各画像にはターゲット30が写し込まれる。
FIG. 1 is a diagram showing a photographing situation in an embodiment of a photogrammetry method, and is a horizontal plan view as viewed from vertically above. A target 30 is placed at a predetermined position on the road. The camera 10 captures images from the first camera position M1, the second camera position M2, and the third camera position M3, and the target 30 is imprinted on each image.

【0015】図中、各カメラ位置M1〜3から延びる矢
印は、各カメラ位置M1、M2およびM3における撮影
時のカメラ10の撮影光学系の光軸O1、O2およびO
3の方向を示している。カメラ10は図示しないCCD
を備え、光学画像を電子画像、即ちデジタル画素データ
に変換し、メモリカード等の画像記憶媒体に格納する。
In the drawing, arrows extending from the camera positions M1 to M3 indicate optical axes O1, O2 and O of the photographing optical system of the camera 10 at the time of photographing at the camera positions M1, M2 and M3.
3 shows the direction. The camera 10 is a CCD (not shown)
And converts the optical image into an electronic image, that is, digital pixel data, and stores it in an image storage medium such as a memory card.

【0016】光軸O1と光軸O2とが成す角を第1開き
角δ1、光軸O1と光軸O3とが成す角を第2開き角δ
2、光軸O2と光軸O3とが成す角を第3開き角δ3と
定めると、第2開き角δ2は第1開き角δ1より大き
く、また第3開き角δ3は第1開き角δ1より大きく定
められる。特に光軸O3は、図1に示すように第1およ
び第2カメラ位置を結ぶ基線BLにほぼ平行である。
The angle formed by the optical axis O1 and the optical axis O2 is the first opening angle δ1, and the angle formed by the optical axis O1 and the optical axis O3 is the second opening angle δ.
2. If the angle formed by the optical axis O2 and the optical axis O3 is defined as a third opening angle δ3, the second opening angle δ2 is larger than the first opening angle δ1, and the third opening angle δ3 is larger than the first opening angle δ1. It is largely determined. In particular, the optical axis O3 is substantially parallel to the base line BL connecting the first and second camera positions as shown in FIG.

【0017】測量図の作成には、第1カメラ位置M1に
おいて得られる第1画像IM1(図5)と、第2カメラ
位置M2において得られる第2画像IM2(図6)とが
用いられる。第1画像IM1および第2画像IM2に写
し込まれたターゲット30に基づいて、各カメラ位置M
1およびM2が算出されるが、第1画像IM1および第
2画像IM2がCCDによる電子画像であるため、カメ
ラ10の光軸方向に沿ってカメラ位置から離れる、即ち
奥行のある画像ほど、その奥行誤差は大きくなる。従っ
て、ターゲット30がカメラ位置M1およびM2から離
れていると、カメラ位置M1およびM2の位置が高精度
に求められなくなり、高精度の測量図が得られない。
In preparing the survey map, a first image IM1 (FIG. 5) obtained at the first camera position M1 and a second image IM2 (FIG. 6) obtained at the second camera position M2 are used. Based on the target 30 projected on the first image IM1 and the second image IM2, each camera position M
1 and M2 are calculated. However, since the first image IM1 and the second image IM2 are electronic images by the CCD, the distance from the camera position along the optical axis direction of the camera 10 is increased. The error increases. Therefore, if the target 30 is separated from the camera positions M1 and M2, the positions of the camera positions M1 and M2 cannot be obtained with high accuracy, and a high-accuracy survey drawing cannot be obtained.

【0018】ここで、第3光軸O3の方向を、上述した
ように基線BLにほぼ平行、即ち奥行方向にほぼ垂直な
方向に定め、カメラ位置M1およびM2を求める際に、
第3カメラ位置M3において得られる第3画像IM3を
用い、カメラ位置M1およびM2の精度を向上させてい
る。これにより、高精度の測量図が得られる。
Here, as described above, the direction of the third optical axis O3 is set substantially parallel to the base line BL, that is, substantially perpendicular to the depth direction, and when obtaining the camera positions M1 and M2,
The accuracy of the camera positions M1 and M2 is improved using the third image IM3 obtained at the third camera position M3. As a result, a highly accurate survey chart can be obtained.

【0019】また、第3カメラ位置M3は、第1カメラ
位置M1および第2カメラ位置M2よりターゲット30
に近く、ターゲット30は第1画像IM1および第2画
像IM2より大きい像の倍率で第3画像IM3に写しこ
まれるので、基準点の奥行誤差が小さく、カメラ位置等
がさらに高精度に求められる。なお、像の倍率はカメラ
10の撮影光学系(図示せず)によってできる像の大き
さと、被写体の実際の大きさとの比率である。
Further, the third camera position M3 is located at a position closer to the target 30 than the first camera position M1 and the second camera position M2.
, And the target 30 is projected on the third image IM3 at a magnification of an image larger than the first image IM1 and the second image IM2. Therefore, the depth error of the reference point is small, and the camera position and the like can be obtained with higher accuracy. The magnification of the image is a ratio between the size of the image formed by the photographing optical system (not shown) of the camera 10 and the actual size of the subject.

【0020】図2はターゲット30の斜視図である。タ
ーゲット30は一端において互いに連結された2本の黒
色の柱状部材31、33を備え、L字状を呈している。
これらの柱状部材の端部の上面には、基準点32、34
および36が設けられている。基準点32、34および
36は例えば白色の点部材であり、その周囲には黒色の
円盤部材35、37および39が設けられている。これ
により、白色の基準点32、34および36が強調さ
れ、画像上での識別を容易にしている。
FIG. 2 is a perspective view of the target 30. The target 30 includes two black columnar members 31 and 33 connected to each other at one end, and has an L-shape.
Reference points 32 and 34 are provided on the upper surfaces of the ends of these columnar members.
And 36 are provided. The reference points 32, 34, and 36 are, for example, white point members, and black disk members 35, 37, and 39 are provided therearound. Thereby, the white reference points 32, 34, and 36 are emphasized, and the identification on the image is facilitated.

【0021】ターゲット30は道路面上に載置され、基
準点32、34および36を含む平面は道路面にほぼ平
行である。基準点32および34間の距離と、基準点3
4および36間の距離は共にLT(LTは既知)であ
る。3つの基準点32、34および36を結ぶことによ
り、基準点34を角部(90度)とする直角二等辺三角
形が形成される。
The target 30 is mounted on a road surface, and a plane including the reference points 32, 34 and 36 is substantially parallel to the road surface. The distance between the reference points 32 and 34 and the reference point 3
The distance between 4 and 36 is both LT (LT is known). By connecting the three reference points 32, 34 and 36, a right-angled isosceles triangle having the reference point 34 as a corner (90 degrees) is formed.

【0022】第1および第2カメラ位置M1およびM2
を求める際には、画像IM1〜3における3つの基準点
32、34および36の2次元座標がそれぞれ求められ
る。これら2次元座標と、基準点32、34および36
により形成される直角二等辺三角形の実寸とに基づい
て、第1カメラ位置M1および第2カメラ位置M2が算
出される。
First and second camera positions M1 and M2
Are obtained, the two-dimensional coordinates of the three reference points 32, 34, and 36 in the images IM1 to IM3 are obtained. These two-dimensional coordinates and reference points 32, 34 and 36
The first camera position M1 and the second camera position M2 are calculated based on the actual size of the right-angled isosceles triangle formed by

【0023】図3はカメラ10により画像記憶媒体に格
納される測量写真データのフォーマットを示す図であ
り、複数の写真データ(図3ではn−2番目〜n+1番
目の写真データが示されている)が順次格納される。1
個の写真データ(n番目)はヘッダHと画像データIM
Dよりなり、隣接する写真データとの区切りのため、画
像データIMDの後に予備のスペースSPが設けられて
いる。画像データIMDはデジタル画素データ列であ
る。
FIG. 3 is a diagram showing a format of surveying photograph data stored in the image storage medium by the camera 10, and a plurality of photograph data (in FIG. 3, the (n-2) th to (n + 1) th photograph data are shown. ) Are sequentially stored. 1
Photo data (n-th) are header H and image data IM
D, a spare space SP is provided after the image data IMD to separate it from the adjacent photo data. The image data IMD is a digital pixel data sequence.

【0024】ヘッダHは画像名H1、識別番号H2、撮
影日・撮影条件H3、回転角・移動量H4等を含む。画
像名H1およびH3の撮影日はカメラにおいてマニュア
ルで入力される。識別番号H2は、例えば撮影ごとに1
ずつインクリメントされる撮影地点番号と、ターゲット
30が移動した際に1ずつインクリメントされるターゲ
ット位置番号とを含み、後述する写真測量画像処理装置
における画像の識別等に用いられる。
The header H includes an image name H1, an identification number H2, a photographing date / photographing condition H3, a rotation angle / movement amount H4, and the like. The shooting dates of the image names H1 and H3 are manually input in the camera. The identification number H2 is, for example, 1
It includes a photographing point number that is incremented by one and a target position number that is incremented by one when the target 30 moves, and is used for identification of an image in a photogrammetric image processing apparatus described later.

【0025】H3の撮影条件は撮影時にカメラから入力
され、カメラの焦点距離f、水平および垂直方向の画角
ΘhおよびΘv、CCDの分解能rp等が含まれる。H
4の回転角には撮影時におけるターゲット30の水平面
上の回転角および方位が含まれ、移動量は最初のターゲ
ット位置からの移動量である。
The photographing conditions of H3 are inputted from the camera at the time of photographing, and include the focal length f of the camera, the angles of view Δh and Δv in the horizontal and vertical directions, the resolution rp of the CCD, and the like. H
The rotation angle of 4 includes the rotation angle and azimuth of the target 30 on the horizontal plane at the time of shooting, and the movement amount is the movement amount from the first target position.

【0026】次に図4を参照して、画像記憶媒体から画
像を読み出して、測量図を作成する写真測量画像処理装
置の全体構成について説明する。同図には写真測量画像
処理装置の全体構成を示すブロック図が示される。
Next, with reference to FIG. 4, an overall configuration of a photogrammetric image processing apparatus that reads an image from an image storage medium and creates a survey map will be described. FIG. 1 is a block diagram showing the entire configuration of the photogrammetric image processing apparatus.

【0027】写真測量画像処理装置は、表示装置10、
キーボードおよびマウス等の入力装置12、画像記憶媒
体13およびCPU14を有し、これらは直接または間
接的にバス15に接続されている。
The photogrammetric image processing device includes a display device 10,
It has an input device 12, such as a keyboard and a mouse, an image storage medium 13, and a CPU 14, which are directly or indirectly connected to a bus 15.

【0028】CPU14には、入力状態管理部41、表
示状態管理部42、演算制御部43およびデータ管理部
44が設けられ、ここで必要な管理、演算、処理が実行
される。入力装置12には、バス15に接続された入力
装置制御装置17が接続され、これによって入力装置1
2からの入力がバス15に転送され、また入力装置12
の入力モード等が設定される。画像記憶媒体13はメモ
リカードリーダ等の記憶媒体制御装置18に挿入され、
これによって画像記憶媒体13に格納された写真データ
(図3)が適宜読み出される。
The CPU 14 is provided with an input state management section 41, a display state management section 42, a calculation control section 43, and a data management section 44, where necessary management, calculation and processing are executed. The input device 12 is connected to an input device control device 17 connected to the bus 15, whereby the input device 1
2 is transferred to the bus 15 and the input device 12
Is set. The image storage medium 13 is inserted into a storage medium control device 18 such as a memory card reader,
As a result, the photograph data (FIG. 3) stored in the image storage medium 13 is appropriately read.

【0029】さらにバス15には作業メモリ19、表示
メモリ20が接続され、作業メモリ19はCPU14の
演算、処理におけるキャッシュメモリ等に使用され、表
示メモリ20には表示装置10で表示すべき内容が保持
される。表示装置10には、バス15に接続された表示
装置制御装置16が接続され、表示メモリ20内のデジ
タルデータが表示装置10のためのアナログRGB信号
に変換される。
Further, a working memory 19 and a display memory 20 are connected to the bus 15, and the working memory 19 is used as a cache memory or the like in calculation and processing of the CPU 14, and the display memory 20 stores contents to be displayed on the display device 10. Will be retained. The display device 10 is connected to a display device control device 16 connected to the bus 15, and converts digital data in the display memory 20 into analog RGB signals for the display device 10.

【0030】CPU14の入力状態管理部41は入力装
置12の設定を管理し、また入力された情報、例えばマ
ウスにより画面上を移動するマウスポインタの座標、キ
ーボードから入力された文字等を所定のデジタルデータ
に変換する。表示状態管理部42は表示装置10に表示
すべき内容を管理し、表示に関する設定の変更等があっ
たときには表示内容を変更する。演算制御部43は後述
するカメラ位置等の算出処理に使用される。データ管理
部44は画像記憶媒体13から読込んだデータ内容を管
理し、画像データおよび演算により求められた種々の座
標データ、作図された測量図のデータ等を管理する。
An input state management unit 41 of the CPU 14 manages settings of the input device 12 and converts input information such as coordinates of a mouse pointer moving on the screen with a mouse, characters input from a keyboard, and the like into a predetermined digital form. Convert to data. The display state management unit 42 manages the content to be displayed on the display device 10, and changes the display content when a setting related to the display is changed. The arithmetic control unit 43 is used for calculation processing of a camera position and the like described later. The data management unit 44 manages data contents read from the image storage medium 13, and manages image data, various coordinate data obtained by calculation, data of a plotted survey map, and the like.

【0031】図4に示す写真測量画像処理装置において
は、まず画像記憶媒体13から画像IM1〜3の写真デ
ータが読み出され、これらに基づいてそれぞれ第1、第
2および第3カメラ位置M1〜3の3次元座標および第
1、第2および第3光軸O1〜3の傾きが算出される。
In the photogrammetric image processing apparatus shown in FIG. 4, first, the photographic data of the images IM1 to IM3 are read from the image storage medium 13, and based on these, the first, second and third camera positions M1 to M1, respectively. 3 and the inclinations of the first, second and third optical axes O1 to O3 are calculated.

【0032】図5はカメラ位置M1において得られた第
1画像IM1を示す概念図であり、図6はカメラ位置M
2において得られた第2画像IM2、図7はカメラ位置
M3において得られた第3画像IM3をそれぞれ示して
いる。なお、これら画像IM1〜3には基準点32、3
4および36のみが示され、基準点32、34および3
6により形成される直角二等辺三角形をハッチングで示
している。
FIG. 5 is a conceptual diagram showing a first image IM1 obtained at the camera position M1, and FIG.
2 shows the second image IM2 obtained at the camera position M3, and FIG. 7 shows the third image IM3 obtained at the camera position M3. The images IM1 to IM3 have the reference points 32, 3
Only 4 and 36 are shown, reference points 32, 34 and 3
The right-angled isosceles triangle formed by 6 is indicated by hatching.

【0033】図5の第1画像IM1には、撮像中心cを
原点とする2次元直交座標系(Xp,Yp)が設定され
ており、基準点32の像点の座標(以下、写真座標と呼
ぶ)はp11(px11,py11)で表される。同様
に、基準点34の写真座標はp21(px21,py2
1)、基準点36の写真座標はp31(px31,py
31)でそれぞれ表される。
In the first image IM1 of FIG. 5, a two-dimensional orthogonal coordinate system (Xp, Yp) having the origin at the imaging center c is set, and the coordinates of the image point of the reference point 32 (hereinafter referred to as photographic coordinates). Is called p11 (px11, py11). Similarly, the photograph coordinates of the reference point 34 are p21 (px21, py2
1) The photograph coordinates of the reference point 36 are p31 (px31, py
31).

【0034】同様に、図6の第2画像IM2において、
基準点32、34および36の写真座標はp12(px
12,py12)、p22(px22,py22)およ
びp32(px32,py32)で表され、また図7の
第3画像IM3において、基準点32、34および36
の写真座標はp13(px13,py13)、p23
(px23,py23)およびp33(px33,py
33)で表される。
Similarly, in the second image IM2 of FIG.
The photograph coordinates of the reference points 32, 34 and 36 are p12 (px
12, py12), p22 (px22, py22) and p32 (px32, py32), and in the third image IM3 of FIG. 7, the reference points 32, 34 and 36
Are photograph coordinates of p13 (px13, py13), p23
(Px23, py23) and p33 (px33, py23)
33).

【0035】実際には、画像記憶媒体13から画像IM
1がCPU14に読み込まれると、2値化処理等の画像
処理が施されて、基準点32、34、36が自動抽出さ
れて、その写真座標pi(xpi,ypi)(i=1〜
3)が求められ、作業メモリ19に格納される。
Actually, the image IM is stored in the image storage medium 13.
When 1 is read by the CPU 14, image processing such as binarization processing is performed, and the reference points 32, 34, and 36 are automatically extracted, and their photograph coordinates pi (xpi, ypi) (i = 1 to
3) is obtained and stored in the working memory 19.

【0036】図8は、カメラ位置M1〜3と、3枚の画
像IM1〜3と、ターゲット30との関係を概念的に示
す図である。ここで、画像IM1〜3に実質的に一致す
るカメラ10の結像面をスクリーンSIM1〜3に設定
する。
FIG. 8 is a diagram conceptually showing the relationship between the camera positions M1 to M3, the three images IM1 to IM3, and the target 30. Here, the imaging planes of the camera 10 that substantially match the images IM1 to IM3 are set on the screens SIM1 to SIM3.

【0037】第1スクリーンSIM1に投影される基準
点32、34および36の像点の2次元座標(以下、ス
クリーン座標という)は、それぞれs11(sx11,
sy11)、s21(sx21,sy21)、s31
(sx31,sy31)である。このスクリーン座標s
11、s21およびs31は、実際の画像において指定
される写真座標p11、p21およびp31に一致する
ことが好ましいが、厳密には両者間には誤差が存在す
る。
The two-dimensional coordinates (hereinafter referred to as screen coordinates) of the image points of the reference points 32, 34 and 36 projected on the first screen SIM1 are s11 (sx11,
sy11), s21 (sx21, sy21), s31
(Sx31, sy31). This screen coordinate s
It is preferable that 11, s21, and s31 match the photograph coordinates p11, p21, and p31 specified in the actual image, but strictly, there is an error between the two.

【0038】なお、第2スクリーンSIM2における基
準点32、34および36のスクリーン座標は、それぞ
れs12(sx12,sy12)、s22(sx22,
sy22)、s32(sx32,sy32)であり、第
3スクリーンSIM3における基準点32、34および
36のスクリーン座標は、それぞれs13(sx13,
sy13)、s23(sx23,sy23)、s33
(sx33,sy33)である。
The screen coordinates of the reference points 32, 34 and 36 on the second screen SIM2 are s12 (sx12, sy12) and s22 (sx22,
sy32) and s32 (sx32, sy32), and the screen coordinates of the reference points 32, 34, and 36 on the third screen SIM3 are s13 (sx13, sx32, sy32), respectively.
sy13), s23 (sx23, sy23), s33
(Sx33, sy33).

【0039】図8を参照して、基準点32、34および
36を用いたカメラ位置およびその光軸の傾きを算出す
る方法を説明する。ここで、iは基準点を示すパラメー
タ(i=1〜3)、jはカメラ位置に対応したパラメー
タ(j=1〜3)である。
With reference to FIG. 8, a method of calculating the camera position using the reference points 32, 34 and 36 and the inclination of the optical axis thereof will be described. Here, i is a parameter indicating the reference point (i = 1 to 3), and j is a parameter corresponding to the camera position (j = 1 to 3).

【0040】基準点32、34および36を第jスクリ
ーンSIMjに結像した状態においては、第j光軸Oj
は第jカメラ位置Mjおよび第jスクリーンSIMjの
撮影中心Cを通り、第jスクリーンSIMjに投影され
た基準点32、34、36の像点sijは、第jカメラ
位置Mjと各基準点32、34、36とを結ぶ直線上に
それぞれ位置する。
In the state where the reference points 32, 34 and 36 are imaged on the j-th screen SIMj, the j-th optical axis Oj
Passes through the imaging center C of the j-th camera position Mj and the j-th screen SIMj, and the image points sij of the reference points 32, 34, and 36 projected on the j-th screen SIMj become the j-th camera position Mj and the respective reference points 32, 34 and 36, respectively.

【0041】第jスクリーンSIMjに設定される第j
スクリーン座標系(Xs,Ys)の原点は、撮影中心C
に一致する。また、図8において、第jカメラ位置Mj
を原点(0,0,0)とする3次元座標系がカメラ座標
系(Xc,Yc,Zc)として設定されており、Xc軸
およびYc軸はそれぞれ第jスクリーン座標系のXs軸
およびYs軸に平行であり、Zc軸は光軸Ojに一致す
る。
The j-th screen set in the j-th screen SIMj
The origin of the screen coordinate system (Xs, Ys) is the photographing center C
Matches. In FIG. 8, the j-th camera position Mj
Is set as the camera coordinate system (Xc, Yc, Zc) with the origin being (0, 0, 0), and the Xc axis and the Yc axis are respectively the Xs axis and the Ys axis of the j-th screen coordinate system. , And the Zc axis coincides with the optical axis Oj.

【0042】カメラ座標系における基準点32、34、
36の3次元座標をPcij(Pcxij,Pcyi
j,Pczij)と定義すると、像点であるスクリーン
座標sij(xsij,ysij)と基準点のカメラ座
標(Pcxij,Pcyij,Pczij)との関係は
式(1)および式(2)により示される。なお、式
(1)および式(2)において、fはカメラ50の焦点
距離である。
Reference points 32, 34, in the camera coordinate system
The three-dimensional coordinates of 36 are represented by Pcij (Pcxij, Pcyi
(j, Pczij), the relationship between the screen coordinates sij (xsij, ysij), which are image points, and the camera coordinates (Pcxij, Pcyij, Pczij) of the reference point is represented by Expressions (1) and (2). In Expressions (1) and (2), f is the focal length of the camera 50.

【数1】 (Equation 1)

【0043】さらに、図8において、ターゲット30の
基準点34を原点とする3次元座標が基準座標系(X
b,Yb,Zb)として設定される。基準座標系のXb
軸、Zb軸は基準点34、32、基準点34、36の辺
にそれぞれ沿っており、Yb軸はXb軸、Zb軸に対し
て垂直である。ターゲット30が傾斜面に置かれたとき
には、そのXb軸、Zb軸の水平面に対するそれぞれの
回転角に基づいて、Xb軸およびZb軸の傾きが補正さ
れる。従って、Yb軸は鉛直方向に一致せしめられ、X
b−Zb平面は水平面にほぼ一致せしめられる。
Further, in FIG. 8, the three-dimensional coordinates having the reference point 34 of the target 30 as the origin are represented by a reference coordinate system (X
b, Yb, Zb). Xb of reference coordinate system
The axis and the Zb axis are along the sides of the reference points 34 and 32 and the reference points 34 and 36, respectively, and the Yb axis is perpendicular to the Xb axis and the Zb axis. When the target 30 is placed on an inclined surface, the inclination of the Xb axis and the Zb axis is corrected based on the rotation angles of the Xb axis and the Zb axis with respect to the horizontal plane. Therefore, the Yb axis is made to coincide with the vertical direction, and X
The b-Zb plane is made substantially coincident with the horizontal plane.

【0044】ここで、基準座標系における第jカメラ位
置Mjの座標を(ΔXj,ΔYj,ΔZj)、第j光軸
Ojの傾きを(αj,βj,γj)と定義すると、カメ
ラ座標Pcij(Pcxij,Pcyij,Pczi
j)と基準座標Pbij(Pbxij,Pbyij,P
bzij)との関係は、式(3)により示される。
Here, if the coordinates of the j-th camera position Mj in the reference coordinate system are defined as (ΔXj, ΔYj, ΔZj) and the inclination of the j-th optical axis Oj as (αj, βj, γj), the camera coordinates Pcij (Pcxij) , Pcyij, Pczi
j) and reference coordinates Pbij (Pbxij, Pbyij, P
bzij) is represented by equation (3).

【数2】 (Equation 2)

【0045】なお、式(3)におけるRは回転行列であ
り、式(4)に示されるように、第j光軸Oj(Zc
軸)の方向余弦cosαj、cosβj、cosγjで
表される。また、式(3)におけるΔは、座標原点移動
量であり、第jカメラ位置Mjの基準座標(ΔXj,Δ
Yj,ΔZj)に一致する。
R in equation (3) is a rotation matrix, and as shown in equation (4), j-th optical axis Oj (Zc
The direction cosine of (axis) is represented by cosαj, cosβj, and cosγj. In Expression (3), Δ is the coordinate origin moving amount, and the reference coordinates (ΔXj, ΔXj) of the j-th camera position Mj.
Yj, ΔZj).

【0046】基準座標系における基準点32、34、3
6の基準座標は、それぞれPb1(−LT,0,0)、
Pb2(0,0,0)、Pb3(0,0,LT)であ
り、これらの値を式(1)〜(4)に代入して、スクリ
ーン座標s11(xs11,ys11)、s21(xs
21,ys21)、s31(xs31,ys31)が求
められる。
Reference points 32, 34, 3 in the reference coordinate system
6, the reference coordinates are Pb1 (−LT, 0, 0),
Pb2 (0,0,0) and Pb3 (0,0, LT), and these values are substituted into equations (1) to (4) to obtain screen coordinates s11 (xs11, ys11) and s21 (xs
21, ys21) and s31 (xs31, ys31) are obtained.

【0047】これらの式により得られたスクリーン座標
s11、s21およびs31と、第1画像IM1(図
5)における写真座標pi1(xpi1,ypi1)
(i=1〜3)との誤差Φ(式(5))が最小になるよ
うに、逐次近似解法を用いて、第1カメラ位置M1(Δ
X1,ΔY1,ΔZ1)および第1光軸O1の傾き(α
1,β1,γ1)が算出される。逐次近似解法について
は公知であるので詳述しない。
The screen coordinates s11, s21 and s31 obtained by these equations and the photograph coordinates pi1 (xpi1, ypi1) in the first image IM1 (FIG. 5).
In order to minimize the error Φ (Equation (5)) from (i = 1 to 3), the first camera position M1 (Δ
X1, ΔY1, ΔZ1) and the inclination (α) of the first optical axis O1.
1, β1, γ1) are calculated. Since the successive approximation method is known, it will not be described in detail.

【数3】 (Equation 3)

【0048】第jカメラ位置において、その3次元座標
Mj(ΔXj,ΔYj,ΔZj)および第j光軸Ojの
傾き(αj,βj,γj)からなる6つのパラメータ
を、カメラパラメータと呼ぶ。
At the j-th camera position, six parameters consisting of the three-dimensional coordinates Mj (ΔXj, ΔYj, ΔZj) and the inclination (αj, βj, γj) of the j-th optical axis Oj are called camera parameters.

【0049】このように、第1および第2カメラ位置に
おけるカメラパラメータを求める際には3枚の画像IM
1〜3が用いられる。これにより、2枚の画像のみで算
出するよりも、さらに高精度のカメラパラメータを求め
ることができる。
As described above, when obtaining the camera parameters at the first and second camera positions, three images IM
1-3 are used. As a result, it is possible to obtain camera parameters with higher accuracy than calculation using only two images.

【0050】なお、上述のカメラパラメータの算出に際
しては基準点3点のみが用いられているが,実際には基
準点の他に、3枚の画像に共通して写し込まれた一点以
上の補助点が加えられる。この補助点は基準点32、3
4および36により形成される直角二等辺三角形の外側
に位置する点であればよく、さらには第3のカメラ位置
M3とターゲット30の間に位置することが好適であ
る。この補助点は、基準点32、34および36よりも
光軸方向に関してカメラ位置M3に近いので、さらに第
3画像IM3上での奥行誤差が小さい。このような奥行
誤差の少ない補助点を演算に加えることにより、カメラ
パラメータの精度をさらに向上できる。
Although only three reference points are used in the calculation of the camera parameters described above, in addition to the reference points, one or more auxiliary points commonly printed on three images are actually used in addition to the reference points. Points are added. The auxiliary points are reference points 32, 3
Any point located outside the right-angled isosceles triangle formed by 4 and 36 may be sufficient, and it is more preferably located between the third camera position M3 and the target 30. Since the auxiliary point is closer to the camera position M3 in the optical axis direction than the reference points 32, 34, and 36, the depth error on the third image IM3 is further reduced. By adding such an auxiliary point having a small depth error to the calculation, the accuracy of the camera parameters can be further improved.

【0051】図9〜図11は、上述したカメラパラメー
タ算出方法を用いて、物点の3次元座標を求める物点座
標算出ルーチンを示すフローチャートである。この物点
座標算出ルーチンはCPU14の演算制御部43におい
て、3枚の画像IM1〜3の写真データが読み込まれ、
作業メモリ19に基準点の写真座標が格納された後に実
行される。
FIGS. 9 to 11 are flowcharts showing an object point coordinate calculation routine for obtaining three-dimensional coordinates of an object point using the above-described camera parameter calculation method. In this object point coordinate calculation routine, photograph data of three images IM1 to IM3 are read by the arithmetic control unit 43 of the CPU 14,
This is executed after the photograph coordinates of the reference point are stored in the work memory 19.

【0052】まず、ステップS100においてカメラパ
ラメータ算出サブルーチンが実行され、第1および第2
カメラ位置M1、M2におけるカメラパラメータが求め
られる。そして、ステップS204において、画像IM
1およびIM2において、1つの物点に対応する像点が
それぞれマニュアルで指定され、それら2つの像点の写
真座標が決定される。なお、このマニュアル指定におい
ては、表示装置10(図4)の画面上に2枚の画像IM
1およびIM2が並列して表示され、マウス等の入力装
置12によって画面上の像点がクリックにより指定され
ると、その指定位置のマウス座標に基づいて写真座標が
決定される。
First, in step S100, a camera parameter calculation subroutine is executed, and the first and second camera parameter calculation subroutines are executed.
Camera parameters at the camera positions M1 and M2 are obtained. Then, in step S204, the image IM
In 1 and IM2, image points corresponding to one object point are manually specified, and the photographic coordinates of the two image points are determined. In this manual designation, two images IM are displayed on the screen of the display device 10 (FIG. 4).
1 and IM2 are displayed in parallel, and when an image point on the screen is designated by clicking with the input device 12 such as a mouse, the photograph coordinates are determined based on the mouse coordinates of the designated position.

【0053】次にステップS206が実行され、ステッ
プS100において求められた2つのカメラパラメータ
と、ステップS204において求められた対応する2つ
像点の写真座標とに基づいて、物点の3次元座標が求め
られる。この3次元座標の算出は、上述したカメラパラ
メータ算出に用いた式(1)〜(5)を用いて求められ
る。
Next, step S206 is executed, and the three-dimensional coordinates of the object point are calculated based on the two camera parameters obtained in step S100 and the photograph coordinates of the corresponding two image points obtained in step S204. Desired. The calculation of the three-dimensional coordinates is obtained using the equations (1) to (5) used for calculating the camera parameters described above.

【0054】ステップS206において物点の3次元座
標の算出が終了すると、ステップS202に戻り、測量
が終了したか否か、即ち物点指定を終了したか否かが判
定される。これは、例えば表示装置10の操作画面(図
示せず)上において、終了ボタンをクリックした場合
に、終了であると判定され、物点座標算出ルーチンが終
了する。
When the calculation of the three-dimensional coordinates of the object point is completed in step S206, the process returns to step S202, and it is determined whether or not the surveying has been completed, that is, whether or not the object point designation has been completed. For example, when the end button is clicked on the operation screen (not shown) of the display device 10, it is determined to be the end, and the object point coordinate calculation routine ends.

【0055】図10および図11は、図9のカメラパラ
メータ算出サブルーチン(ステップS100)の詳細を
示すフローチャートである。
FIGS. 10 and 11 are flowcharts showing details of the camera parameter calculation subroutine (step S100) of FIG.

【0056】まず、ステップS102において、基準座
標系における基準点32、34、36の基準座標が、そ
れぞれPb1(−LT,0,0)、Pb2(0,0,
0)、Pb3(0,0,LT)に設定される。次に、3
枚の画像IM1〜3における基準点32、34、36の
写真座標pij(pxij,pyij)(i=1〜3、
j=1〜3)が作業メモリ19から読み出される。そし
て、ステップS106において、3枚の画像IM1〜3
に対応する3つのカメラパラメータに、それぞれ適当な
初期値が与えられる。
First, in step S102, the reference coordinates of the reference points 32, 34, and 36 in the reference coordinate system are Pb1 (-LT, 0, 0) and Pb2 (0, 0,
0) and Pb3 (0, 0, LT). Next, 3
The photograph coordinates pij (pxij, pyij) of the reference points 32, 34, 36 in the images IM1 to IM3 (i = 1 to 3,
j = 1 to 3) are read from the working memory 19. Then, in step S106, the three images IM1 to IM3
An appropriate initial value is given to each of the three camera parameters corresponding to.

【0057】続いて、ステップS108において、im
axに基準点の数(=3)と補助点との数nとの和を代
入し、パラメータiに(基準点i=1〜3)の指定が終
わったものとして、4が代入される。なお、補助点の数
nは予め定められている。
Subsequently, in step S108, im
The sum of the number of reference points (= 3) and the number n of auxiliary points is substituted for ax, and 4 is substituted for parameter i assuming that designation of reference points (i = 1 to 3) has been completed. Note that the number n of auxiliary points is determined in advance.

【0058】ステップS112においては、基準座標系
における補助点Pb4の3次元座標(Pbx4,Pby
4,Pbz4)に初期値が与えられ、ステップS114
において、画像IM1〜3における補助点の写真座標p
4j(px4j,py4j)(j=1〜3)がそれぞれ
求められる。
In step S112, the three-dimensional coordinates (Pbx4, Pby) of the auxiliary point Pb4 in the reference coordinate system
4, Pbz4) is given an initial value, and step S114 is performed.
, The photographic coordinates p of the auxiliary points in the images IM1 to IM3
4j (px4j, py4j) (j = 1 to 3) are obtained.

【0059】具体的には、表示装置10の画面上におい
て3枚の画像IM1〜3が並列して表示され、それぞれ
の画像IMにおいて共通して写し込まれた補助点の像点
がそれぞれクリック指定され、これにより3つの像点の
写真座標p4j(j=1〜3)がそれぞれ決定される。
More specifically, three images IM1 to IM3 are displayed side by side on the screen of the display device 10, and the image points of the auxiliary points which are commonly captured in each of the images IM are respectively click-designated. Thus, the photograph coordinates p4j (j = 1 to 3) of the three image points are determined.

【0060】続いて、ステップS116において、パラ
メータiが1だけインクリメントされ、ステップS11
0に戻る。ステップS110ではパラメータiがima
x以下であるか否かが判定され、パラメータiがima
xを超えれば、ステップS118に移行する。即ち、ス
テップS110〜S116はn回だけ実行され、これに
より、n個の補助点の基準座標が初期値に定められると
共に、n個の補助点の写真座標が得られる。
Subsequently, in step S116, the parameter i is incremented by one, and in step S11
Return to 0. In step S110, the parameter i is set to ima
x or less, it is determined whether the parameter i is ima
If it exceeds x, the process moves to step S118. That is, steps S110 to S116 are performed n times, whereby the reference coordinates of the n auxiliary points are set to the initial values, and the photograph coordinates of the n auxiliary points are obtained.

【0061】ステップS118においては、imax個
の点についてスクリーン座標sij(sxij,syi
j)(i=1〜imax、j=1〜3)が算出され、ス
テップS120において、これらスクリーン座標sij
(sxij,syij)と、ステップS104およびS
114により得られた写真座標pij(pxij,py
ij)(i=1〜imax、j=1〜3)との差が最小
になるカメラパラメータが算出される。ステップS12
0が終了すると,カメラパラメータ算出サブルーチンは
終了する。なお、カメラパラメータは画像IM1〜3に
対応して求められるが、ステップS206において用い
られるカメラパラメータは画像IM1および2に対応す
るものだけである。
In step S118, the screen coordinates sij (sxij, syi) for imax points
j) (i = 1 to imax, j = 1 to 3) are calculated, and in step S120, these screen coordinates sij
(Sxij, syij), steps S104 and S104
114, the photograph coordinates pij (pxij, py)
ij) (i = 1 to imax, j = 1 to 3) and the camera parameter that minimizes the difference is calculated. Step S12
When 0 ends, the camera parameter calculation subroutine ends. The camera parameters are obtained corresponding to the images IM1 to IM3, but the camera parameters used in step S206 are only those corresponding to the images IM1 and IM2.

【0062】このように、本実施形態においては、測量
図作成には2枚の画像IM1、2を使用するが,カメラ
パラメータを算出する際にはさらに第3画像IM3を加
えるので、カメラパラメータが高精度に求められ,物点
の3次元座標を求める算出時間が短縮され,高精度の座
標値が得られる。
As described above, in the present embodiment, the two images IM1 and IM2 are used for creating the survey map, but when the camera parameters are calculated, the third image IM3 is further added. The calculation time required to obtain the three-dimensional coordinates of the object point can be reduced with high accuracy, and a coordinate value with high accuracy can be obtained.

【0063】さらに、基準点32、34、36以外の点
を補助点としてカメラパラメータ算出に加味することに
より、カメラパラメータの精度を向上でき、高精度の測
量図が得られる。
Further, by adding points other than the reference points 32, 34, and 36 as auxiliary points to the camera parameter calculation, the accuracy of the camera parameters can be improved, and a highly accurate survey map can be obtained.

【0064】[0064]

【発明の効果】本発明によると、簡易な作業によって高
精度の測量図が得られる。
According to the present invention, a highly accurate survey drawing can be obtained by a simple operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明にかかる写真測量方法の実施形態を示
す図であり、撮影状況を示す図である。
FIG. 1 is a diagram illustrating an embodiment of a photogrammetry method according to the present invention, and is a diagram illustrating a shooting situation.

【図2】 図1に示すターゲットを拡大して示す斜視図
である。
FIG. 2 is an enlarged perspective view showing a target shown in FIG. 1;

【図3】 写真測量画像処理装置で処理される写真デー
タのフォーマットを示す概念図である。
FIG. 3 is a conceptual diagram showing a format of photographic data processed by the photogrammetric image processing apparatus.

【図4】 本発明にかかる写真測量画像処理装置の全体
構成を示すブロック図である。
FIG. 4 is a block diagram showing an overall configuration of a photogrammetric image processing apparatus according to the present invention.

【図5】 第1カメラ位置における画像を示す概念図で
ある。
FIG. 5 is a conceptual diagram showing an image at a first camera position.

【図6】 第2カメラ位置における画像を示す概念図で
ある。
FIG. 6 is a conceptual diagram showing an image at a second camera position.

【図7】 第3カメラ位置における画像を示す概念図で
ある。
FIG. 7 is a conceptual diagram showing an image at a third camera position.

【図8】 カメラ位置と、ターゲットと、スクリーンと
の関係を示す模式図である。
FIG. 8 is a schematic diagram illustrating a relationship between a camera position, a target, and a screen.

【図9】 図4に示すCPUにおいて実行される物点座
標算出ルーチンを示すフローチャートである。
9 is a flowchart showing an object point coordinate calculation routine executed by the CPU shown in FIG. 4;

【図10】 図9に示すカメラパラメータ算出サブルー
チンの前半を示すフローチャートである。
FIG. 10 is a flowchart illustrating a first half of a camera parameter calculation subroutine illustrated in FIG. 9;

【図11】 図9に示すカメラパラメータ算出サブルー
チンの後半を示すフローチャートである。
11 is a flowchart showing the latter half of the camera parameter calculation subroutine shown in FIG.

【符号の説明】[Explanation of symbols]

10 カメラ 30 ターゲット 32、34、36 基準点 M1、M2、M3 カメラ位置 O1、O2、O3 光軸 δ1 第1の開き角 δ2 第2の開き角 δ3 第3の開き角 10 Camera 30 Target 32, 34, 36 Reference point M1, M2, M3 Camera position O1, O2, O3 Optical axis δ1 First opening angle δ2 Second opening angle δ3 Third opening angle

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の基準点を有するターゲットを所定
位置に設け、この所定位置からそれぞれ所定の距離だけ
離れた第1、第2および第3カメラ位置から撮影を行っ
て、第1、第2および第3画像を得る画像取得ステップ
と、 前記第1、第2および第3画像における前記基準点の写
真座標と前記ターゲットの寸法形状とに基づいて、前記
第1および第2カメラ位置の座標と、前記第1および第
2カメラ位置における第1および第2光軸の傾きとを含
むカメラパラメータを算出するカメラパラメータ算出ス
テップと、 前記第1および第2画像において、共通に含まれる物点
を指定してその写真座標を求める物点指定ステップと、 前記カメラパラメータと前記物点の写真座標とに基づい
て、所定の座標系における前記物点の3次元座標を算出
する3次元座標算出ステップと、 前記物点の3次元座標に基づいて測量図を作成する測量
図作成ステップとを備え、 前記第1および第2光軸により形成される第1開き角よ
り、前記第1および第3光軸により形成される第2開き
角が大きく、さらに前記第1開き角より、前記第2およ
び第3光軸により形成される第3開き角が大きいことを
特徴とする写真測量方法。
1. A target having a plurality of reference points is provided at a predetermined position, and images are taken from first, second, and third camera positions that are respectively separated by a predetermined distance from the predetermined position. And an image acquisition step of obtaining a third image; and coordinates of the first and second camera positions based on photographic coordinates of the reference point in the first, second, and third images and dimensions and shape of the target. Calculating camera parameters including first and second tilts of the optical axis at the first and second camera positions; and specifying an object point commonly included in the first and second images. And calculating the three-dimensional coordinates of the object point in a predetermined coordinate system based on the camera parameters and the photo coordinates of the object point. Three-dimensional coordinate calculation step, and a survey map creation step of creating a survey map based on the three-dimensional coordinates of the object point, wherein the first opening angle formed by the first and second optical axes is A photograph wherein a second opening angle formed by the first and third optical axes is large, and a third opening angle formed by the second and third optical axes is larger than the first opening angle. Survey method.
【請求項2】 前記第1、第2および第3画像に共通に
含まれ、前記基準点とは異なる補助点を指定してその写
真座標を求める補助点指定ステップを備え、前記カメラ
パラメータ算出ステップにおいて、前記第1、第2およ
び第3画像における前記補助点の写真座標が加味される
ことを特徴とする請求項1に記載の写真測量方法。
2. An auxiliary point specifying step of specifying an auxiliary point different from the reference point and obtaining a photograph coordinate of the auxiliary point, the auxiliary point specifying step being included in the first, second and third images, and the camera parameter calculating step 2. The photogrammetry method according to claim 1, wherein photocoordinates of the auxiliary points in the first, second, and third images are taken into account.
【請求項3】 前記補助点が、前記所定位置と前記第3
カメラ位置との間に位置することを特徴とする請求項2
に記載の写真測量方法。
3. The method according to claim 2, wherein the auxiliary point is located between the predetermined position and the third position.
3. The camera according to claim 2, wherein the camera is located between the camera and the camera.
The photogrammetric method described in 1.
【請求項4】 前記第3画像の像の倍率が、前記第1画
像および第2画像の像の倍率より高いことを特徴とする
請求項1に記載の写真測量方法。
4. The photogrammetry method according to claim 1, wherein the magnification of the image of the third image is higher than the magnification of the images of the first image and the second image.
【請求項5】 水平面において、前記第3カメラ位置に
おける撮影時の光軸の方向が、前記第1および第2カメ
ラ位置を通る直線に実質的に平行であることを特徴とす
る請求項1に記載の写真測量方法。
5. The apparatus according to claim 1, wherein, in a horizontal plane, a direction of an optical axis at the time of shooting at the third camera position is substantially parallel to a straight line passing through the first and second camera positions. The photogrammetric method described.
【請求項6】 複数の基準点を有するターゲットを所定
位置に設け、この所定位置からそれぞれ所定の距離だけ
離れた第1、第2および第3カメラ位置から撮影を行う
ことにより得られた第1、第2および第3画像を読み込
む画像読込手段と、 前記第1、第2および第3画像における前記基準点の写
真座標と前記ターゲットの寸法形状とに基づいて、前記
第1および第2カメラ位置の座標と、前記第1および第
2カメラ位置における第1および第2光軸の傾きとを含
むカメラパラメータを算出するカメラパラメータ算出手
段と、 前記第1および第2画像において、共通に含まれる物点
を指定してその写真座標を求める物点指定手段と、 前記カメラパラメータと前記物点の写真座標とに基づい
て、所定の座標系における前記物点の3次元座標を算出
する3次元座標算出手段と、 前記物点の3次元座標に基づいて、測量図を作成する測
量図作成手段とを備え、 前記第1および第2光軸により形成される第1開き角よ
り、前記第1および第3光軸により形成される第2開き
角が大きく、さらに前記第1開き角より、前記第2およ
び第3光軸により形成される第3開き角が大きいことを
特徴とする写真測量画像処理装置。
6. A first target obtained by providing a target having a plurality of reference points at a predetermined position and performing photographing from first, second, and third camera positions separated by a predetermined distance from the predetermined position. Image reading means for reading the second and third images; and the first and second camera positions based on the photograph coordinates of the reference point in the first, second and third images and the size and shape of the target. And camera parameter calculation means for calculating camera parameters including the coordinates of the first and second camera axes at the first and second camera positions, and an object commonly included in the first and second images. Object point designating means for designating a point and obtaining the photograph coordinates thereof; and three-dimensional coordinates of the object point in a predetermined coordinate system based on the camera parameters and the photograph coordinates of the object point. A three-dimensional coordinate calculating means for calculating; and a surveying map creating means for creating a surveying map based on the three-dimensional coordinates of the object point, wherein a first opening angle formed by the first and second optical axes is provided. A second opening angle formed by the first and third optical axes is larger, and a third opening angle formed by the second and third optical axes is larger than the first opening angle. Photogrammetric image processing device.
JP22079599A 1999-08-04 1999-08-04 Photogrammetry method and photogrammetry image processing device Pending JP2001041745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22079599A JP2001041745A (en) 1999-08-04 1999-08-04 Photogrammetry method and photogrammetry image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22079599A JP2001041745A (en) 1999-08-04 1999-08-04 Photogrammetry method and photogrammetry image processing device

Publications (1)

Publication Number Publication Date
JP2001041745A true JP2001041745A (en) 2001-02-16

Family

ID=16756695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22079599A Pending JP2001041745A (en) 1999-08-04 1999-08-04 Photogrammetry method and photogrammetry image processing device

Country Status (1)

Country Link
JP (1) JP2001041745A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079521A (en) * 2004-09-13 2006-03-23 Tobishima Corp Forming system for orthographic projection images
JP2007315841A (en) * 2006-05-24 2007-12-06 Hitachi Kokusai Electric Inc Moving object detection system
CN111220132A (en) * 2019-11-13 2020-06-02 中国电子科技集团公司第二十研究所 Aircraft ground clearance measuring method based on image matching
WO2021073472A1 (en) * 2019-10-14 2021-04-22 Zhejiang Dahua Technology Co., Ltd. Positioning systems and methods
CN113280805A (en) * 2021-04-14 2021-08-20 中联重科股份有限公司 Method, processor and device for identifying boom posture and engineering machinery

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079521A (en) * 2004-09-13 2006-03-23 Tobishima Corp Forming system for orthographic projection images
JP2007315841A (en) * 2006-05-24 2007-12-06 Hitachi Kokusai Electric Inc Moving object detection system
JP4714078B2 (en) * 2006-05-24 2011-06-29 株式会社日立国際電気 Moving object detection system
WO2021073472A1 (en) * 2019-10-14 2021-04-22 Zhejiang Dahua Technology Co., Ltd. Positioning systems and methods
CN111220132A (en) * 2019-11-13 2020-06-02 中国电子科技集团公司第二十研究所 Aircraft ground clearance measuring method based on image matching
CN111220132B (en) * 2019-11-13 2021-07-06 中国电子科技集团公司第二十研究所 Aircraft ground clearance measuring method based on image matching
CN113280805A (en) * 2021-04-14 2021-08-20 中联重科股份有限公司 Method, processor and device for identifying boom posture and engineering machinery

Similar Documents

Publication Publication Date Title
KR102121974B1 (en) Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
JP3831548B2 (en) Photogrammetry image processing apparatus, photogrammetry image processing method, and storage medium storing photogrammetry image processing program
Kraus Photogrammetry: geometry from images and laser scans
JP3387065B2 (en) Panoramic image search method and apparatus
US8300986B2 (en) Image measurement apparatus for creating a panoramic image
US7233691B2 (en) Any aspect passive volumetric image processing method
JP3426459B2 (en) Photogrammetry system and photogrammetry method
KR101938401B1 (en) Digital drawing modification system for drawing a partial of updating region
JP3777067B2 (en) Photogrammetry image processing apparatus, photogrammetry image processing method, and storage medium storing photogrammetry image processing program
US7015967B1 (en) Image formation system
CN111932627B (en) Marker drawing method and system
JP5311465B2 (en) Stereo matching processing system, stereo matching processing method, and program
JP3898945B2 (en) Photogrammetry system, photogrammetry method and recording medium storing photogrammetry program
JP2019533875A (en) Method and system for generating a composite top view image of a road
KR101938400B1 (en) Image drawing management system editing secure zone on 3d image
US6618497B1 (en) Photogrammetric image processing apparatus and method
JPH10122819A (en) Method and device for calibration
US20030185435A1 (en) Data processing method, data processing program and recording medium
JP2001041745A (en) Photogrammetry method and photogrammetry image processing device
JPH11514434A (en) Method and apparatus for determining camera position and orientation using image data
JP2009239621A (en) Method and device of orientation representation on image, and photograph
KR102458559B1 (en) Construction management system and method using mobile electric device
JP3777066B2 (en) Photogrammetry image processing apparatus, photogrammetry image processing method, and storage medium storing photogrammetry image processing program
CN112132029A (en) Unmanned aerial vehicle remote sensing image rapid positioning method for earthquake emergency response
JP3922646B2 (en) Stereo photo image search method, display method, and management system