JP2004325072A - Photogrammetry and photogrammetric program - Google Patents

Photogrammetry and photogrammetric program Download PDF

Info

Publication number
JP2004325072A
JP2004325072A JP2003115588A JP2003115588A JP2004325072A JP 2004325072 A JP2004325072 A JP 2004325072A JP 2003115588 A JP2003115588 A JP 2003115588A JP 2003115588 A JP2003115588 A JP 2003115588A JP 2004325072 A JP2004325072 A JP 2004325072A
Authority
JP
Japan
Prior art keywords
angle
point
survey
camera
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003115588A
Other languages
Japanese (ja)
Other versions
JP4282361B2 (en
Inventor
Mamoru Otsuki
守 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003115588A priority Critical patent/JP4282361B2/en
Publication of JP2004325072A publication Critical patent/JP2004325072A/en
Application granted granted Critical
Publication of JP4282361B2 publication Critical patent/JP4282361B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To compute the coordinates of survey points using image data of photographs, with high accuracy. <P>SOLUTION: This photogrammetry is provided with a first step, a second step, and a third step. In the first step, photographing is performed by a camera from different observation points, in such a way as to include both an object to be surveyed and reference angles to be used, when survey computations on the object to be surveyed are performed to acquire at least two different images. In the second step, both angle reference points for specifying the attitude of the camera at survey points and the observation points and reference angle specifying points for specifying the reference angles, which are common to both images, are set on the object to be surveyed to compute two-dimensional coordinates of the angle reference points and the reference angle specifying points in the images. In the third step, a three-dimensional coordinate system including the object to be surveyed is set. On the basis of the two-dimensional coordinates of the angle reference points and of the reference angle specifying points and the reference angles, three-dimensional coordinates of the survey points are computed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、カメラにより測量対象物(被写体)を撮影して測量を行う写真測量に関する。特に、カメラの自由な撮影によって得られた異なる方向からの画像データを用いて測量対象物の座標を精度良く算出する写真測量方法に関する。
【0002】
【従来の技術】
従来の写真測量としては、例えばステレオカメラによるものが知られている。この測量方法では、離間して固定した2台のカメラにより同一の測量対象物を撮影し、得られた2つの画像から三角測量の原理を利用して測量対象物上の被測量点(以下、単に測量点という)の3次元座標を算出していた。撮影時のカメラの姿勢や3次元位置は手作業による実測或いは専用のセンサにより検出しており、これを測量点の3次元座標の算出に用いていた。
【0003】
【発明が解決しようとする課題】
しかし、従来の方法によれば、装置が大掛かりになったり、撮影作業が複雑になったりするという問題があった。そこで、本発明においては撮影時のカメラの姿勢や3次元位置を気にすることなく、任意の姿勢・位置の撮影で得られた画像データを使用して、測量点の座標を高精度に算出できる方法を提供することを目的とする。
【0004】
【課題を解決するための手段】
上記目的は、測量対象物および該測量対象物の測量計算処理を行う際に用いる参照角が含まれるように、異なる観測点からカメラで撮影して少なくとも2つの異なる画像を得る第1ステップと、
前記各画像間で共通に、前記測量対象物上に測量点および前記観測点でのカメラ姿勢を特定するためのアングル参照点を設定すると共に、前記参照角を規定する参照角規定点を設定して、これら測量点、アングル参照点および参照角規定点について前記各画像における2次元座標を算出する第2ステップと、
前記測量対象物を含む3次元座標系を設定し、第2ステップで算出した前記測量点、アングル参照点および参照角規定点の2次元座標並びに前記参照角に基づいて、前記測量点の3次元座標を算出する第3ステップとを備える写真測量方法により達成される。
【0005】
本発明によると、撮影時のカメラ姿勢が自由である場合でもアングル参照点を用いることで測量点の3次元座標を算出することができ、さらに参照角を参照することとしたのでより精度を向上させて座標を算出することができる。すなわち、本発明は写真測量のデータ処理において、算出結果の精度を高めるための角を設けることにより測量精度を向上させる。より詳細には、本発明は、写真測量のために複数の観測点で撮影された画像内に共通に写し込まれた既知または実測により角度が既知である角(参照角)を測量計算の処理に加えて計算結果がより正確となるように誘導する。
【0006】
また、前記第3ステップでは、測量計算処理により算出される参照角の角度と実際の角度とが一致するように調整して前記測量点の3次元座標を算出するように構成されていることが望ましい。また、前記参照角は、前記各画像間に共通して写し込まれている角度が既知である物体上に前記参照角規定点を設定して特定されていてもよいし、また、前記第1ステップと第2ステップとの間に実測ステップを設け、前記参照角は前記各画像間に共通して写し込まれている物体上に任意で前記参照角規定点を設定し、該参照角規定点により規定される角の角度を実測して特定されていてもよい。さらに、前記第2ステップでは、前記カメラの光学歪を補正した値に変換するカメラ特性データを用いて、前記2次元座標が算出されることが望ましい。
【0007】
また、本発明には、測量対象物および該測量対象物の測量計算処理を行う際に用いる参照角が含まれるように、異なる観測点からカメラで撮影して少なくとも2つの異なる画像を読取る第1処理と、
前記各画像間で共通に、前記測量対象物上に測量点および前記観測点でのカメラ姿勢を特定するためのアングル参照点を設定すると共に、前記参照角を規定する参照角規定点を設定して、これら測量点、アングル参照点および参照角規定点について前記各画像における2次元座標を算出する第2処理と、
前記測量対象物を含む3次元座標系を設定し、第2処理で算出した前記測量点、アングル参照点および参照角規定点の2次元座標並びに前記参照角に基づいて、前記測量点の3次元座標を算出する第3処理とを、コンピュータに実行させる写真測量プログラムが含まれる。
【0008】
そして、前記第3処理では、測量計算処理により算出される参照角の角度と実際の角度とが一致するように調整して前記測量点の3次元座標を算出するように構成されていることが望ましい。前記第2処理では、前記カメラの光学歪を補正した値に変換するカメラ特性データを用いて、前記2次元座標が算出されることが望ましい。
【0009】
【発明の実施の形態】
以下、図面を参照して本発明の一実施形態を説明する。なお、本発明は、カメラ撮影で得た画像データ内に角度(°)を確認できる参照用の角(かく)を設定しておき、測量計算をして得た値が正確であるかを確認するための基準角として用い、高精度の結果が得られるようにした写真測量方法である。このように用いる角を本明細書では、特に「参照角」と称する。
【0010】
より詳細には、本発明は、異なる観測点から撮影した画像内に共通して写し込まれる参照角を測量計算の処理において利用することにより、測量結果をより正確に誘導できるようにした測量方法である。参照角の角度(°)は、角度が知られている物体の一部を利用して参照角を設定したような場合には既知の値として確認できる。また、測量者が任意に参照角を設定した場合にはこれを実測してその値を確認することになる。
【0011】
参照角は、異なる観測点から撮影された画像内に共通して写し込まれる建物や自然物を利用して測量者が任意に設定したものでよい。例えば、撮影した画像内にビルが共通して写込まれている場合には、そのビルの角部を利用して参照角(この場合の角度は一般に90°)を設定できる。また、画像内に共通して写し込まれた石や木などを利用して測量者が任意に参照角を設定してもよい。この場合には、その参照角を実測してその角度値(°)を知る。このように参照角は異なる観測点で撮影された画像内に共通して写し込まれた建物等を利用し、既知或いは実測によりその角度が確認できる角である。なお、参照角が設定される建物、自然物等は、測量対象物(以下、被写体と呼ぶ)に含まれるか否かは問わず、異なる観測点から撮影された画像内に共通して写し込まれていればよい。以下、順を追って、本発明の一実施形態の測量方法を説明する。
【0012】
図1は、本発明の一実施例に係る写真測量方法を説明するために示した図である。また、図2は、図1に示す写真測量方法においての前記参照角の設定例、及び各観測点から撮影される画像例を示した図である。本写真測量方法では、図1及び図2で示すように、異なる観測点a、bに例えばCCD等の撮像素子を備えた電子スチルカメラ1を設置して観測点ごとに向きの異なる画像を撮影する場合を想定する。被写体3上には、被写体を測量する手掛かりとしてアングル参照点P1〜P5が設定される。このアングル参照点P1〜P5は、異なる観測点a、bに設置したカメラ1の位置関係や姿勢を示すための定数(以下、アングル定数という)を算出するために用いられる。アングル定数については後に詳述する。
【0013】
アングル参照点は、図に示すように、被写体3の構成部分等から少なくとも5点を選択して設定されている。図2の下段に示すように、異なる観測点a、bで撮影された各カメラ画像5a,5bに5点のアングル参照点P1〜P5の全てが、写し込まれるように画像データが作成される。また、図2に示すように、その他の点も同様に左右2つのカメラ画像5a,5bに入るように撮影しておく。このような点には、被写体3上に設定する測量点Pn,寸法参照のための寸法参照点S1およびS2、並びに前述した参照角を得るために設定する2本の線分を得る為の参照角規定点S3〜S6が含まれる。なお、カメラ1の姿勢を算出するため被写体3上に設定されるアングル参照点P1〜P5は少なくとも5点必要である。また、被写体3を測量するための測量点は当然に被写体3上に設定される。アングル参照点は測量計算の処理において測量点として扱うことができる。よって、被写体3上に設定するこれらの点を包括して測量点Pnと呼んだり、アングル参照点Pnと表示して説明を行う場合がある。
【0014】
なお、本例では被写体3の傍に転がっている4個の石ころST1〜ST4を利用して参照角を設定し、これを測量に用いる。本例では、2つの石ころST1とST2とで規定される線分A1と、2つの石ころST3とST4とで規定される線分A2とが成す角度θが参照角となる。すなわち、石ころST1〜ST4の位置が、図2に示すようにそれぞれ参照角規定点S3〜S6となる。
【0015】
上記線分A1、A2は、一方が撮影の遠近方向、他方が観測点a、bと平行な方向など、互いに異なる方向となるように設定することが望ましい。参照角はカメラ基軸を含む面またはそれに近い面上で極端に鈍角、鋭角でない角(例えば90°、45°)を2つ特定し、または設定することが望ましい。この2つの角は、相互にある程度の距離をとった位置において成す角であり、また同一平面上または同一平面上に近い面に存在することが望ましい。なお、上記参照寸法Sおよび参照角度θは、撮影の際に実測して所定データとして記録しておく。ただし、前述したように建物の角部等を利用して参照角度θを設定した場合には、例えばこの角度は90°と既知であるので実測する必要はない。
【0016】
図1を参照して、本実施例の写真測量を順を追って説明する。図1は、本測量方法を説明するため異なる図(A)〜(E)を複合して示した図である。図1(A)は観測点a、bに設定されるカメラ1と被写体3との位置関係を示した平面的概念図である。ここで観測点a、bを結ぶ線をカメラ基軸7と呼ぶ。また、観測点a,bに関するものには添字a,bを付している。また、アングル参照点に関するものには数字1〜5を添字として付している。また、カメラ1の向きを代表する方向をそれぞれカメラ視線9a,9bと呼ぶ。このカメラ視線に関するものには添字0(ゼロ)を付して示している。
【0017】
また、図1(A)の紙面内に存在する角度や長さは()を付けずにαa0等と示し、立体成分すなわち紙面に直交する成分を含む角度や長さである場合には()を付けて(αa1)、(αb1)等と示している。また、図1(A)において、カメラ基軸7に対するカメラ視線9a、9bが成す角度をそれぞれαa0,αb0とする。また、カメラ基軸7とカメラ視線9aまたは9bとを含む面をカメラ視線面という。図1(A)は、その紙面がカメラ視線9aを含むカメラ視線面となっている((B),(C)の投影線13を参照)。
【0018】
カメラ基軸7を軸にして回転させたときのカメラ視線面に対する各アングル参照点P1〜P5の角度を、a点において測定したものを回転角βa1,…,βa5(βanで総称する。図ではβa1のみを示す)として示している。同様に、b点で測定したものを回転角βb1,…βb5(βbnで総称する。図では省略)としている。この図1(A)に関連して図1(B)〜(E)が示されている。
【0019】
図1(B)は、カメラ基軸7に直交する断面に投影した図を示している。この図(B)では、観測点a,bから見たアングル参照点P1方向とカメラ基軸7回りの回転角βa1,βb1が示されている。次に、図1(C)はカメラ視線9aに直交する断面の投影図である。また、図1(D)は、(C)についてカメラの傾きを考慮した様子を説明する図である。また、(D)は後述する仮想撮像面Hfの座標すなわち前記画像上における2次元座標が設定された面となる。また図1(E)はアングル参照点P1の像がカメラのCCDセンサ等の撮像面Hdに映し出される様子を示した図である。
【0020】
本発明は、前述したように参照角を用いて精度良く写真測量を実施する方法であるが理解を容易にするため、始めに参照角を用いないでカメラの姿勢を求める場合について説明する。そして、この後に本発明で特徴的な参照角を用いることにより精度良く写真測量を行う場合を説明する。本写真測量方法では、カメラ姿勢を求めるために前述したアングル定数を用いる。アングル定数として、図1において先に説明した、カメラ基軸7に対するカメラ視線9a、9bの角度αa0,αb0、またカメラ視線9a,9bを軸にしたカメラの傾きでカメラ視線面を基準とした角度σa0(図1(D)参照),σb0、またカメラ視線9aと9bとの方向差のうちカメラ基軸7を軸に上下方向へ回転する回転角βの方向成分の差Δβを用いる。
【0021】
ところで、カメラ1を異なる観測点a、bで自由撮影とした場合、カメラの高さ位置が異なるので、カメラ基軸7(観測点a、bを結ぶ線)は一般に水平ではない。しかし、ここでは、理解を容易にするためカメラ基軸7が水平であると、仮定して以下の説明を行う。カメラ基軸7を軸にして上下方向に回転する角を回転角βで示すとき、水平を基準にしたアングル参照点P1〜P5方向の回転角βは、同じアングル参照点については、観測点a,bのどちらから測定しても同じである。このことを手掛りにアングル定数を求める。
【0022】
前述した通りβan、βbnは、カメラ視線面を基準にした回転角であり、水平を基準にした前記手掛かりをβan、βbnで表すると次のように考えることができる。観測点a、bでは、カメラ視線9aと9bとの間でカメラ基軸7を軸に回転角の差がΔβだけ存在するとする(図1(B)参照)。すると、観測点a,bのそれぞれから見た同じアングル参照点P1についての回転角βa1と回転角βb1との差についてもΔβとなる。同様に、他のアングル参照点Pnについての回転角βanと回転角βbnとの差ΔβnはΔβと等しくなる。そこで、Δβnをアングル定数で表す方程式をアングル参照点を設定した数(本例では5個)に対応した数(5個)の連立方程式を設定し、Δβnがすべて等しいという条件で、この連立方程式を解けばアングル定数を求めることができる。
【0023】
図1を参照して方程式を設定してアングル定数を求める方法を説明する。カメラ1の撮像は、カメラレンズを挟んで被写体3と反対の側のCCDセンサ上に逆転して形成され、一般にその像はレンズ特性により歪曲している。これに対して、図1(A)に示すように、カメラ1の前方(被写体側)に成立して写る撮像Hfa(またはHfb)を仮想し、その光学特性はピンホールカメラのように歪みのないものとする。この仮想撮像面Hfaは、カメラ視線9aを鉛直に横切る面であり、カメラ1からの距離はLである。
【0024】
また、アングル参照点像Pf1は、カメラレンズの中心(ピンホールカメラのホールのように点とみなす)と被写体3上の参照点P1とを結ぶ直線が仮想撮像面Hfと交差する位置に結像するものとする。図1(C)は、Pf1が結像する仮想撮像面Hfを観測点a方向から投影して見た図となり、カメラ視線面すなわち図1(A)の紙面がその投影線13で示されている。ここで参照符号Cfはカメラ視線9aの投影点であり、この点Cfを原点中心(以下、単に中心Cfと呼ぶ)にすれば、P1は2次元の座標位置(Xt,Yt)で表される。なお、Pccはカメラ基軸7の投影点であり、参考のため図示しているが実際の画像上に存在しない。また、このPccの位置は画面の外になることもある。
【0025】
自由撮影の場合、カメラ1がカメラ視線9a或いは9b回りに傾斜していることがある。図1(D)はそのことを考慮して、観測点aにおいて、カメラ視線面の投影線13に対してカメラ1の画面の横軸15が角σa0だけ傾斜していることを示し、そのときのアングル参照点像Pf1の座標位置は、カメラ1の画面の横軸15をX−Y平面のX軸とした場合の座標位置(Xs,Ys)となる。図1(E)は、カメラ1のCCD撮像面Hd上に撮像されたアングル参照点Pd1を示し、Pd1の位置はピクセル単位での座標位置(Xp,Yp)を示している。
【0026】
図1(D)において、中心Cfとアングル参照点像Pf1とを結ぶ線と横軸15との角度およびカメラ視線面の投影線13との角度をそれぞれσsおよびσtとし、CfとPf1とを結ぶ線の長さをd1、図1(B)においてカメラ基軸7から鉛直に仮想撮像面Hf上のアングル参照点像Pf1までの距離をhとすると、図1から以下の関係が成立することが分かる。
【0027】
σs=tan−1(Ys/Xs) (1)
σt=σs−σa0 (2)
d1=√(Ys+Xs) (3)
Xt=d1・cosσt (4)
Yt=d1・sinσt (5)
Xt=Xs・cosσa0+Ys・sinσa0 (4)´
Yt=−Xs・sinσa0+Ys・cosσa0 (5)´
Xu=L・sinαa0−Xt・cosαa0 (6)
Yu=Yt (7)
Zu=L・cosαa0+Xt・sinαa0 (8)
h=√(Xu+Yu) (9)
βa1=tan−1(Yu/Xu) (10)
なお、上記式(4)、(5)は、上記式(4)’、(5)’に置き換えてもよい。観測点bについても同様の関係式が成立する。その場合は、上式において添字aを添字bに変えればよい(例:σa0→σb0、αa0→αb0)。
【0028】
以上のようにして求められた回転角βanおよびβbnについてアングル参照点ごとの差を求め、この差が等しいとする方程式を立てる。求める未知数は5つであるから、例えば5つの連立方程式を次のように設定できる。
Δβ=βa1−βb1
Δβ=βa2−βb2
Δβ=βa3−βb3
Δβ=βa4−βb4
Δβ=βa5−βb5 (11)
【0029】
上記連立方程式を解くことにより、カメラの姿勢を表すアングル定数αa0、αb0、σa0、σb0、Δβを求めることができる。これらに基づいて三角測量の原理から、各測量点の座標を算出することができる。なお、回転角βanおよびβbnは、その中の1つの回転角を基準とした相対値で見ると、その相対位置は2つの観測点a,b間で等しい。例えば、アングル参照点P1を基準方向とすると、観測点a,bから見た各点nの回転角βn間には次式の関係が成立するので、この性質を利用して以下に示す連立方程式(11)’を設定しても、同様にアングル定数を求めることができる。
βan−βa1=βbn−βb1 (11)’
以上の処理により、アングル定数αa0、αb0、σa0、σb0、Δβが求められる。これらはある程度の精度を持った解であるから、これらに基づいて一応、測量点の座標を求めることができる。
【0030】
しかしながら、本実施例では、より精度良く測量点の座標を求めるために参照角を考慮した方程式を追加して連立させるという新規な方法を採用する。この方法は、後述する式(20)〜(25)により参照角を成す線分2本の末端点(参照角規定点)のモデル座標(相似形の座標)を算出して2線のモデルにおける参照角に相当する角度を求める。そして、実測して角度(°)が確認されている参照角Θとモデルにおける参照角θとの角度(°)が同じであるという条件の方程式を前記(11)の方程式に追加する。前述したように、式(11)の連立方程式はそれだけでも解を持つが、それを強制的に別の条件で拘束させるという意味で、追加する方程式を拘束条件式と呼ぶことにする。すなわち、本実施例で用いられる参照角は一種の基準角とし利用され、測量計算の処理により算出された参照角の角度(°)が実際の角度(°)と一致するようにして算出結果を拘束させることにより測量結果がより正しい値となるように誘導する。追加する拘束条件式については後述する逐次近似解法のところで詳述する。
【0031】
ここで、カメラによる撮影で得た画像データを用いて、本発明による写真測量方法を実施するためのハードウェアを簡単に説明しておく。図3は、実施例の写真測量方法を実施するためのハードウェア構成の一例を示したブロック図である。このような構成を有する装置としてはパーソナルコンピュータ30等の情報処理装置を使用することができる。図3に示すように、システム全体を制御する中央演算処理装置(CPU)21には、インターフェース部23を介してキーボード25、マウス27、ディスプレイ(CRTまたはLCD)29、プリンタ31、ICカード読取り装置33が接続される。例えば、デジタルカメラで撮影された画像はICカード34を介して入力される。画像はディスプレイ29により確認できる。通常のカメラで撮影された写真は、フィルムスキャナ35によってデジタル画像化して入力される。また、CPU21にはハードディスク37が接続され、このハードディスク37には写真測量を実施するためのコンピュータプログラム、後述する特性データ、上記キーボード25、マウス27、ICカード読取り装置33から入力されたデータおよびCPU21による演算処理データ等が格納されるようになっている。
【0032】
さらにここで、本実施例で採用しているカメラ特性データ(以下、単に、特性データと称する)について説明しておく。図1を参照すると、カメラ1がピンホールカメラであれば、アングル参照点P1〜P5、寸法参照点S1,S2または測量点Pnとピンホールとを通る直線上に対応する撮像面上に像点がそれぞれ位置する。しかし、カメラ1は撮影レンズを有するカメラである。そのために、撮影レンズの歪みにより、像点は直線から外れた位置に投影されることもある。また、受像素子CCD上の画素配列の不整列により歪むこともあり得る。なお、参照角規定点S3〜S6についても同様であるが、ここでの図示は省略している。
【0033】
このため、本例では画像上の2次元座標としてレンズ歪みのない仮想撮像面Hfを観測点a(またはb)から被写体側に距離Lだけ離れた位置に設定する(図1(A)、(B)参照)。そして、各参照点をこの仮想撮像面Hfに投影した点をそれぞれ仮想像点Pf1〜Pf5,Sf1,Sf2,Pf(n)と定義し、参照点の受光素子CCD上(または画像上)の像点Pd1〜Pd5,Sd1,Sd2,Pd(n)と仮想像点との対応位置関係を示す特性データを予め用意する(図1(D)参照)。図1(D)では、仮想像点Pf1のみを例示的に示している。
【0034】
そして、この特性データを用いて像点Pd1〜Pd5,Sd1,Sd2,Pd(n)の2次元座標を、仮想撮像面Hfにおける仮想像点Pf1〜Pf5,Sf1,Sf2,Pf(n)の2次元座標に変換する。即ち、仮想像点の2次元座標は、像点の2次元座標について撮影レンズの歪みを補正したものである。そして、これら仮想像点は参照点等とピンホールとを通る直線上に位置するとみなして測量計算に使用する。
【0035】
図4は上記カメラ特性データを作成する処理工程を示したフローチャートである。この図4に基づいて特性データ作成の処理を説明する。ステップS101においては、図5に示すようにカメラ1を用いて方眼紙50(仮想撮像面Hfの座標の元である)が撮影される。カメラ1は方眼紙50の概ね中心にその方眼紙50に対してカメラ視線9が直交するように置かれる。そしてレンズ51をピンホールカメラのピンホールに等価した位置である観測点Cから方眼紙50までの距離Lが測定される。
【0036】
具体的には、方眼紙50が水平に置かれ、その略中央の鉛直上方にカメラ1が方眼紙50に向けた状態で図示しない三脚等により設置される。その際にカメラ1の視野の水平および垂直方向は方眼紙50の水平および垂直方向に概ね一致させる。方眼紙50およびカメラ1の設置後、第1回目の撮影が行われる。続いて、方眼紙50およびカメラ1の相対位置関係が変わらない状態で、更に平面鏡52(図中破線で示す)が方眼紙50とカメラ1との間に設けられる。具体的には平面鏡52の鏡面がカメラ1に対向しかつ方眼紙50と平行になるように置かれる。そして、カメラ視線9が方眼紙50を直交するように、具体的には観測点Cの鏡像がカメラ1のファインダやモニタから視認された状態を確認して、第1回目の撮影と同じ撮影条件で第2回目の撮影が行われる。第1回目の撮影により得られた画像(以下、第1参照画像と称す)と第2回目の撮影により得られた画像(以下、第2参照画像と称す)とは、第2参照画像にカメラ1の鏡像が映し出されていること以外は同一画像である。各画像データは図3のICカード34に収められる。
【0037】
ステップS102〜S104は図3に示したパーソナルコンピュータ30等を用いた処理である。ステップS102では、パーソナルコンピュータ30において写真測量プログラムが起動され、そのプログラムにおいて用意されたメニューから特性データ生成処理が選択され、ステップS101により得られた第1および第2参照画像が図3のICカード読取り装置33等によりパーソナルコンピュータ30に読み込まれ、表示装置29の画面に表示される。図6は画面上に表示された第1参照画面、即ち方眼紙50の画像の一部画像60を示している。
【0038】
ステップS102では、方眼紙50上のK個の格子交差点(以下、格子点という)のそれぞれについて、画面上における位置がマウス27により指定されて、それぞれのピクセル座標が読み取られると共に、マウス27で指定した格子点に対応する方眼紙50の方眼目を座標とみなした相対2次元座標がキーボード25により入力される。図6ではマウス指定された格子点が丸で示される。
【0039】
図5で、任意の格子点をT(k)(添字kは任意の格子点を示す変数であり、1以上格子点数K以下の整数値をとる)と定義し、その相対2次元座標を(XT(k),YT(k))で表す。XT(k)は方眼紙50上の任意の格子点T0を原点とし、そこから格子点T(k)までの水平方向の実測距離であり、YT(k)は原点T0から格子点T(k)はまでの垂直方向の実測距離である。実測は方眼紙の目盛で測ったものでもよい。画面の方眼紙像60に映し出された格子点t(k)は、格子点T(k)を撮像面Hdへ投影した像点t(k)とみなされ、この像点t(k)のピクセル座標は(xt(k),yt(k))で表せる。xt(k)は画面の任意のピクセル、例えば右上隅のピクセルtpを原点とし、そこから像点t(k)までの水平方向ピクセル数であり、yt(k)は原点tpから像点t(k)までの垂直方向のピクセル数である。
【0040】
ステップS103では、第2参照画像を参照して、画面上での観測点Cの鏡像の位置が撮像面Hdの中心像Cdとしてマウス27により指定され、そのピクセル座標(xc,yc)が読み取られる。この中心像Cdは、観測点Cを通るカメラ視線9が平面鏡52の鏡面と直交する点を撮像面Hdに投影した点である。平面鏡52の鏡面と方眼紙50とが平行であることから、中心像Cdはカメラ視線9が方眼紙50と直交する点(以下、中心Cfと記載する。)を撮像面Hdに投影した点となる。なお、ここで中心と呼ぶのはカメラ視線が貫く位置を撮像の中心と考えるのであって、画面の中心という意味ではない。また、第1および第2参照画像において撮影条件が同じであることから、第2参照画像で指定された撮像中心Cd(xc,yc)は第1参照画像の中心像(同符号Cdで示す)とみなせる。
【0041】
方眼紙50における中心Cfの相対2次元座標は、原点T0から中心Cfまでの水平方向距離Xcおよび垂直方向距離Ycで表される。ステップS104では、測定された撮影距離Lがキーボード25により入力される。続く、ステップS105では、全ての格子点T(k)(k=1からK)についてそれぞれ方眼紙50における相対2次元座標(XT(k),YT(k))と撮像面Hdにおける像点t(k)のピクセル座標(xt(k),yt(k))とが組み合わされた格子点T(k)に関する一連の座標データ要素{XT(k),YT(k),xt(k),yt(k)}と、Cfの座標データ要素(Xc,Yc,xc,yc)と、距離Lとが特性データとしてハードディスク37あるいはフレキシブルディスク等の外部記憶媒体に格納される。なお、Xc、Ycについては方眼紙の目盛から読み取り難い場合があるので、ここで入力せずに後述する計算により求めてもよい。
【0042】
特性データを使用することにより、例えば、方眼紙50上で中心Cfから水平方向にxf(n)、垂直方向にyf(n)だけ離れた位置にある点Pf(n)が、撮像面Hdにおいて原点tpから水平方向にxd(n)ピクセル、垂直方向にyd(n)ピクセルだけ離れた像点Pd(n)に投影されると定義付けられている場合、測量撮影による画像において画面に映し出された被写体上の測量点Pnの像が像点Pd(n)に一致するときには、その測量点Pnに対応する仮想像点は点Pf(n)に一致するとみなされる。言い換えれば、観測点Cと仮想像点とが一致する点Pf(n)と測量点Pnとが同一直線上にあるとみなされる。上述の特性データは、像点Pd(n)のピクセル座標(xd(n),yd(n))を、光学歪み等を補正した仮想像点Pf(n)の2次元座標(以下、仮想像点座標と呼ぶ)(xf(n),yf(n))に変換するために使用される。
【0043】
なお、上記特性データはCCDの全ての画素について用意されることが望ましいが、本実施形態では、データ量および算出時間を節約するために、上述したように所定間隔の格子点についてのみ特性データを生成し、その間に位置する像点については補間法により算出するようにしている。本実施例ではレンズの鏡像を別途撮影したが、透明な用紙に格子目を描く等格子以外が透き通った方眼紙を使用することにより、これを鏡の上に置き1回の撮影で方眼とレンズの鏡像を得てもよい。本実施例では特性データによりレンズ歪み、CCDに対するレンズの組立誤差あるいはCCD画素の不整列等に起因する座標値の誤差を補正しており、関数で近似し難い歪みであっても複雑な式で演算することなく簡易に補正できる。また、特性データは方眼紙を撮影して画像面上でその格子点を特定するので一般の利用者でも歪みの様子を観察し興味を持ちながら、高度な技術を要求することなく、特性データを容易に作成できる。なお、像点Pd(n)と仮想像点Pf(n)との対応位置関係はカメラ1の焦点距離や倍率等の撮影条件に応じて変化するため、被写体3の撮影時に設定すべき撮影条件に対応した特性データを用意することが望ましい。
【0044】
上記のように特性データが用意されたら測量作業に入る。図7は測量作業での処理を示したフローチャートである。ステップS201では前述した図2のようにカメラ1を用いて、被写体3を2方向から撮影した画像データ5a,5bを作成し、図3のICカード34に収める。また、寸法参照点S1,S2間の参照寸法を実測しておく。また、前述した参照角θを測量計算処理に用いる点については、後述するがこの時に合わせて実測しておく。既存のビルの窓などを利用して参照角度θを設定した場合には、角度(°)が既知であるので実測する必要はない。
【0045】
続くステップS202〜S208は、パーソナルコンピュータ30を用いての処理である。ステップS202では、パーソナルコンピュータ30において写真測量プログラムが起動され、そのプログラムにおいて用意されたメニューから測量計算処理が選択され、画像データが図3のICカード読取り装置33等によりパーソナルコンピュータ30に読み取られ、表示装置29の画面に表示される。
【0046】
各画像データに共通のアングル参照点P1〜P5、測量点Pn、参照角規定点S3〜S6および寸法参照点S1,S2の画面上のピクセル位置がマウス27で指示され入力される。入力は各観測点a,bの画像それぞれについて行なわれる。例えば、マウス27等を用いてポインタで被測量点像を指示してクリックすることにより、その位置データ(CCD画像面の画素単位ピクセルで表す)がHDD37に記録される。なお、どの点をアングル参照点P1〜P5にするか、どの点を寸法参照点S1,S2または参照角規定点S3〜S6にするかの指示および参照角は予めキーボード25により入力しHDD37に例えば参照ファイルとして記憶しておき、これらを必要とするステップでこのファイルから読み出す。
【0047】
ステップS203では各観測点a,bにおけるアングル参照点P1〜P5、測量点Pn、寸法参照点S1,S2および参照角規定点S3〜S6についてピクセル座標が特性データによって仮想像点座標に2次元座標変換される。ここで特性データによる座標変換について詳述する。例えば、前ステップS202により入力された像点Pd1に一致する像点t(k)、即ち特性データの座標データ要素の中にピクセル座標(xd1,yd1)と同じピクセル座標を有する像点t(k)が存在する場合には、同要素の対応する格子点T(k)の相対2次元座標(XT(k),YT(k))が仮想像点座標Pf1(xf1,yf1)として与えられる。ただし、Pf1は中心Cfを原点にした値である必要があるので実際はXc,Ycが差し引かれる。一方、像点Pd1に一致する像点t(k)が無い場合、例えば図6で示す像点Pd(n)のように格子間に位置する場合には、以下に述べる補間法により算出される。
【0048】
像点Pd(n)(xd(n),yd(n))に最も近い座標データ要素の像点t(k)(xt(k),yt(k))を選択すると、2つの像点Pd(n)、t(k)および対応する仮想像点Pf(n)、T(k)については近傍なので一次線形式が成り立つとみなすことができ、仮想像点座標Pf(n)(xf(n),yf(n))は以下の式(12)および式(13)により求められる。
【0049】

Figure 2004325072
なお、xd(n),yd(n),xf(n),yf(n)は、図1においてはそれぞれXp,Yp,Xs,Ysに相当している。
【0050】
上記式(12)における係数a1およびa2は、例えば図6の像点t(k)に対して垂直方向の上側に位置する像点t(k+1)の特性データ要素{XT(k+1),YT(k+1),xt(k+1),yt(k+1)}および水平方向の左側に位置する像点t(k+2)の特性データ要素{XT(k+2),YT(k+2),xt(k+2),yt(k+2)}に基づいて算出される。
【0051】
詳述すると、係数a1およびa2に関して次の連立方程式(14)、(15)が成り立つ。
ΔX1=a1・Δx1+a2・Δy1 (14)
ΔX2=a1・Δx2+a2・Δy2 (15)
ただし、
ΔX1=XT(k+1)−XT(k) ΔY1=YT(k+1)−YT(k)
ΔX2=XT(k+2)−XT(k) ΔY2=YT(k+2)−YT(k)
Δx1=xt(k+1)−xt(k) Δy1=yt(k+1)−yt(k)
Δx2=xt(k+2)−xt(k) Δy2=yt(k+2)−yt(k)
である。
【0052】
従って、係数a1およびa2は、以下の式(16)および式(17)により求められる。また、式(13)における係数a3およびa4も、上記係数a1およびa2と同様にして、以下の式(18)および(19)により求められる。
a1=(ΔX1・Δy2−ΔX2・Δy1)/M (16)
a2=(Δx1・ΔX2−Δx2・ΔX1)/M (17)
a3=(ΔY1・Δy2−ΔY2・Δy1)/M (18)
a4=(Δx1・ΔY2−Δx2・ΔY1)/M (19)
ただし、M=Δx1・Δy2−Δx2・Δy1である。
【0053】
なお、ステップS203において、中心像Cdのピクセル座標(xc,yc)を中心Cfの相対2次元座標(Xc,Yc)に座標交換する場合には、式(12)の右辺から項(−Xc)を除いた式および式(13)の右辺から項(−Yc)を除いた式により算出する。
【0054】
次のステップ204ではアングル定数を求める。アングル参照点P1〜P5のデータを使用して連立方程式(11)を解き、カメラのアングル定数αa0、αb0、σa0、σb0、Δβを求める。この連立方程式の解法の一つとして逐次近似解法がある。この逐次近似解法については、後に具体例を詳述する。以上のようにアングル定数が求まったら得られたアングル定数に基づき三角測量計算をする。
【0055】
次のステップS205では、3次元の三角測量計算に必要なデータの準備をする。すなわち、観測点a,bから見たカメラ基軸7に対する測量点までの角度αan,αbn,観測点a,bに共通の基準方向から見た測量点までの回転角βを求める(後述する図8を参照)。三角測量計算は測量点Pnの他、寸法参照点S1,S2、参照角規定点S3〜S6およびアングル参照点P1〜P5についても行われるが、代表して測量点Pnで説明する。計算に際してはステップS203で示したとおり測量点Pnについてカメラ特性ファイルを用いて撮像面Hdの画素位置(Xp,Yp)を仮想撮像面Hf上の位置(Xs,Ys)に変換しておく。
【0056】
観測点aからみた測量点P1までの角度αa(n)は、図1(A)、(B)から明らかなように、次式(20)で算出することができる。
αa(n)=tan (h/Zu) (20)
ここでh/Zuは、式(8)、(9)から求められる。観測点bから見た測量点Pnまでの角度αb(n)についても同様に求める。
【0057】
回転角βに関しては、式(10)から角βa(n),βb(n)を得られるが、これらはそれぞれカメラ基軸7回りの回転角である。三角測量に必要なのは観測点a,bに共通な基準方向からの回転角であるから、両方のカメラに写し込まれた点を任意に基準にして共通の回転角を求める。例えば、図8に示すように、測量点P1を基準とした回転角β’a(n)=βa(n)−βa1を求め、これを使用する。なお、回転角β’b(n)=βb(n)−βb1も得られるが、β’a(n)=β’b(n)であるから、誤差がなければ片方だけを求めればよい。
【0058】
ステップS206では、ステップS205のデータに基づいて、先ず、モデルを算出する。三角測量のためには観測点a,b間の距離が必要である。しかし、ここでは不明とし、仮にこの距離が1であるとして相似形の3次元座標(モデルと呼ぶ)を求める。図8に示すように、観測点aを原点とした測量点Pnの直交座標(x,y,z)は、三角測量の原理から次の式(21)〜(24)によって求められる。ただし、測量点は図8に示すような関係にある。図8は測量点P1(アングル参照点でもある)とPnとを(A)ではY−Z投影図、(B)ではX−Y投影図で示している。回転角βの基準となる測量点P1が図8(B)の紙面上にあるものとし、カメラ基軸7をX軸方向としている。図8(B)の紙面をX−Y平面、それに直交する軸をZ軸方向、観測点a,b間距離をE,X軸から鉛直に測量点Pnまでの距離をHとする。
【0059】
【数1】
Figure 2004325072
このとき、観測点a,b間の距離Eを仮に1とする。以上をP1〜P5、S1〜S6についても求めてモデルとする。
【0060】
ステップS207において、仮の値とした距離Eを実際の値とした場合と同等になるように修正する。それにはまず、ステップS201で間隔を実測した図2で示した寸法参照点2点(S1,S2)について、求められたモデル即ち相似形の座標値からその間隔gを次の式により求める。なお、式(25)中添字S1,S2は寸法参照点S1,S2のモデルの座標であることを示す。
【数2】
Figure 2004325072
【0061】
次いで、予め実測した参照寸法S(S1,S2の実際の間隔)と間隔gとの比を求める。この比を求めたモデルの各座標値に掛けて数値を算出する。以上のステップにより、観測点aを原点とした、測量点Pnの他参照点等の3次元座標における実際の値を算出する。
【0062】
しかし、算出された座標の原点が観測点aであったり、P1を含む面がX−Y面、X軸がカメラ基軸7に固定されるのでは不便なこともある。必要に応じて、その原点、基準方向を調整する。例えば、測量点の内のある点を原点としたり、XYの基準方向を指定して変更する。そのために、例えば座標基準指示ファイルを予めHDD37に記憶しておく。すなわち、原点とする点、X軸を定める点、Y軸方向を定める点等を参照点等の中から選択してキーボードなどから入力したものを記録したデータファイルであり、希望する原点および基準方向となるように同ファイルを参照して、求められた3次元座標を平行移動または回転させ座標変換を行えるように設定しておくことが望ましい。
【0063】
ステップS208では、以上の測量計算結果が、表示装置29に表示され、またプリンタ31等に出力され利用者に読取られる。また、用途に応じてCAD用等ファイルにして出力し、CAD、CGの骨格データ等として使用することができる。
【0064】
前後するが、ここで前述したステップS204で式(11)からアングル定数αa0、αb0、σa0、σb0、Δβを求めるための逐次近似解法について説明する。式(1)〜式(10)を変形しβan(βbnにも共通)を求めると、
【数3】
Figure 2004325072
となる。なお、以降の計算のため式(26)の右辺の括弧内を
【数4】
Figure 2004325072
とする。
【0065】
上式(26)に観測点を示す添字a,bおよびアングル参照点の個別を示す添字1〜5を適切に添えて式(11)に代入すれば、変数を詳しく示した式になるがここでの表示は省略する。
(11)式についてアングル定数のみで示した式を関数fで表すと、
Δβ=βan−βbn=f(αa0,σa0,αb0,σb0) (28)
となる。
【0066】
連立方程式を解けるよう、関数fを一次近似式にするためαa0,σa0の偏導関数を誘導すると
【数5】
Figure 2004325072
となる。
なお、αb0,σb0の偏導関数についても(29)(30)式の添字a、bを入れかえれば同様に表せる。
【0067】
上記(29)式および(30)式を組み合わせ、(11)式について一次近似式にすると
【数6】
Figure 2004325072
となる。
【0068】
上式(31)中fnはアングル参照点Pnの現在のアングル定数値におけるβan−βbn、各偏導関数式はPnの現在のアングル定数における偏微分係数、Δαa0,Δσa0,Δαb0,Δσb0は現在のアングル定数からの各増分である。また、Rは本近似式で一次を超える成分を省いたことよる誤差を示す。このRは無視する。なお、この前後の文中で「現在の」と表記するのは逐次近似の1回毎の初期値を意味するものとする。
【0069】
各偏微分係数を行列要素Ank、fnを行列要素Bnと表して、上記式(11)の全式に当てはめて整理すると
【数7】
Figure 2004325072
となる。
ただし、nはアングル参照点の数、An5はΔβの符号である−1であり常に一定である。
【0070】
上記(32)式を、求めたいアングル定数の増分Δαa0,Δσa0,Δαb0,Δσb0,Δβを行列の要素xnとした行列xで表すと
Ax=B (33)
ただし、AはAnkを要素とする行列、BはBnを要素とする行列である。
【0071】
式(11)ではアングル参照点を5つとして式を5つ連立させているが、6点以上とした場合はその数だけ連立させ、次の式により(最小二乗法)により5行に変換する。
【数8】
Figure 2004325072
ただし、AバーはAの転置行列、A’,B’は5行に変換した行列である。
【0072】
アングル定数の増分、即ちxの要素を求めるには次のようにクラーメルの公式による。
【数9】
Figure 2004325072
ただし、|A‘|はA’を行列式にしたもの、|A‘B’|は|A‘|のxnに関する列をB’で置き換えた行列式である。
【0073】
以上で得られたxn、即ちアングル定数の増分Δαa0,Δσa0,Δαb0,Δσb0を現在のアングル定数αa0,σa0,αb0,σb0に加算して、次の現在のアングル定数αa0,σa0,αb0,σb0として以上を繰り返す。繰り返しは、Δβの最大偏差が解とみなせる規定値を下回るまで、もしくは特定回数行う。
【0074】
ここで、前述した追加する拘束条件式について詳細を示す。図9は図2に示した参照角θを形成する2つの線分A1,A2に対応するモデルとして線分a1、a2との関係を示した図である。図9(A)において、a1’は2本の線分が離れていた場合、2本の線が成す角度θを正確に示すためこの2本の線が最も接近する位置でa1をa2に平行移動した線である。図9(B)はθを計算するため(A)における線分a2をs3とs5が一致するよう平行移動して線分a2’とした図である。L1〜L3は各線分が作る三角形の各辺の長さを示している。
【0075】
前述した式(1)〜(11)および式(20)〜(24)により測量点等の参照点モデルにおける座標が求められる。同様に参照角を成す線分A1、A2に対応するモデルにおける線分a1、a2の末端S3〜S6も求められる。そのxyz座標をx、y、zに添字S3〜S6を付して示す。図2で示した線分A1、A2に対応するモデルにおける線分a1、a2の成す参照角θは次のように求められる。
【数10】
Figure 2004325072
【0076】
算出したアングル定数が正しければ、図2で示した線分A1,A2により形成される参照角を実測した角度Θとの関係は、
Θ=θ (41)
である。
あるいはアングル定数に誤差Δθがある場合は
Θ=θ+Δθ (42)
となる。
【0077】
上式(42)について誤差を左辺にし(32)式に合わせた変数で近似式にすると
【数11】
Figure 2004325072
となる。なお、Rは近似残差で逐次計算上は無視する。本方程式ではΔβは無関係なので係数は0とする。
【0078】
上式(43)の左辺の各項の係数をA行列の追加行の要素とし(33)式に含めて解く。なお、各項の係数はこの場合偏微分導関数としたが、次のように増分を求めることによってもよい。(43)式の左辺第一項を例に示す。
【0079】
θをf(x)と表すと
【数12】
Figure 2004325072
となる。
この場合、各Δα0、Δσ0は例えばπ/10000程度にすればよい。
【0080】
以上のようにして参照角θとして画像内に設定した部分の角度が、実際の角度Θと同じ角度となるように拘束することで、他の部分の算出値も実際の値に近い値とすることができるので、本実施例によると精度よく写真測量を行うことができるようになる。
【0081】
前述したように式(11)の連立方程式はそれだけでも解を持ちカメラのアングル定数αa0、αb0、σa0、σb0、Δβを求めることもできる。しかし、この式(11)に基づいた単なる測量計算ではカメラアングル定数の内の角σa0およびσb0に同じ誤差があるとその誤差が大きくても正解と区別がつき難い場合がある。本発明は計算結果であるモデル座標上の角度、寸法を実際の角度(参照角θ)で点検、調整(拘束)することで、σa0およびσb0を正しく拘束できるのでモデル座標の計算のみの場合と比較して測量計算の精度を向上させることができる。
【0082】
なお、本実施例では参照角θを1つ設定する場合を説明したが、この参照角θを2つ設定するようにしてもよい。このように2つの参照角を設定するときには、例えば、カメラ基軸を含む面またはそれに近い面上に見出される三角形または四角形に含まれる角2つを特定または設定すればよい。ここでカメラ基軸を含む面またはそれに近い面とは、観測点a,bを水平に配置しほぼ水平方向に向けて撮影した場合に、地面、床面、屋上面などの水平面が該当する。例えば既知の参照角としてビルなどの方形状である建物の角部に着目し、屋上の四隅に含まれる2つの直角を参照角として利用することができる。また、タイル、フロア材など方形状である床材やこれに描かれた方形状の模様等を利用するようにしてもよい。
【0083】
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
【0084】
【発明の効果】
以上詳述したところから明らかなように、発明によれば、参照角を利用することにより、測量対象物を高精度に測量することができる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る写真測量方法を説明するために示した図である。
【図2】図1に示す写真測量方法においての前記参照角の設定例、及び各観測点から撮影される画像例を示した図である。
【図3】実施例の写真測量方法を実施するためのハードウェア構成の一例を示したブロック図である。
【図4】カメラ特性データを作成する処理工程を示したフローチャートである。
【図5】カメラ特性データを作成する様子を説明するために示した図である。
【図6】カメラ特性データを作成する際の画像の一部を示した図である。
【図7】測量作業での処理を示したフローチャートである。
【図8】測量点P1とPnとの関係及び三角測量計算を説明するために示した図であり、(A)はY−Z投影図、(B)はX−Y投影図である。
【図9】図2に示した参照角θを形成する2つの線分A1,A2に対応するモデルとして線分a1、a2との関係を示した図である。
【符号の説明】
1 カメラ
3 測量対象物(被写体)
5a、5b カメラ画像
7 カメラ基軸
9a,9b カメラ視線
a、b 観測点
P1〜P5 アングル参照点
Pn 測量点
S1,S2 寸法参照点
S3〜S6 参照角規定点
θ 参照角[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to photogrammetry in which a survey object (subject) is photographed by a camera to perform surveying. In particular, the present invention relates to a photogrammetry method for accurately calculating coordinates of a survey target using image data from different directions obtained by free photographing of a camera.
[0002]
[Prior art]
As a conventional photogrammetry, for example, a photogrammetry using a stereo camera is known. In this surveying method, the same surveying object is photographed by two cameras fixed and separated from each other, and a surveyed point (hereinafter, referred to as “hereinafter”) on the surveying object is obtained from the obtained two images by using the principle of triangulation. (Referred to simply as survey points). The attitude and three-dimensional position of the camera at the time of photographing are measured manually or detected by a dedicated sensor, and are used for calculating the three-dimensional coordinates of the survey points.
[0003]
[Problems to be solved by the invention]
However, according to the conventional method, there are problems that the device becomes large-scale and the photographing operation becomes complicated. Therefore, in the present invention, the coordinates of the survey points are calculated with high accuracy using image data obtained by photographing an arbitrary posture and position without worrying about the posture and three-dimensional position of the camera at the time of photographing. The aim is to provide a method that can.
[0004]
[Means for Solving the Problems]
A first step of obtaining at least two different images by photographing with a camera from different observation points so as to include a survey object and a reference angle used when performing a survey calculation process of the survey object,
In common between the images, an angle reference point for specifying a survey point and a camera attitude at the observation point on the survey target is set, and a reference angle defining point that defines the reference angle is set. A second step of calculating two-dimensional coordinates in each of the images for the survey points, the angle reference points, and the reference angle defining points;
A three-dimensional coordinate system including the survey object is set, and based on the two-dimensional coordinates of the survey point, the angle reference point, and the reference angle defining point calculated in the second step, and the three-dimensional coordinate of the survey point, And a third step of calculating coordinates.
[0005]
According to the present invention, it is possible to calculate three-dimensional coordinates of a survey point by using an angle reference point even when the camera posture at the time of shooting is free, and to further improve accuracy by referring to a reference angle. Then, the coordinates can be calculated. That is, in the data processing of photogrammetry, the present invention improves the surveying accuracy by providing a corner for increasing the accuracy of the calculation result. More specifically, the present invention relates to a process of surveying calculation of an angle (reference angle) having a known angle or a known angle by actual measurement commonly projected in an image taken at a plurality of observation points for photogrammetry. In addition to the above, the calculation result is derived to be more accurate.
[0006]
The third step may be configured to calculate the three-dimensional coordinates of the survey point by adjusting the angle of the reference angle calculated by the survey calculation process to match the actual angle. desirable. In addition, the reference angle may be specified by setting the reference angle defining point on an object whose angle, which is commonly printed between the images, is known, and the first angle may be specified. Providing an actual measurement step between the step and the second step, wherein the reference angle is arbitrarily set to the reference angle defining point on an object commonly photographed between the images, and May be specified by actually measuring the angle of the angle defined by Further, in the second step, it is preferable that the two-dimensional coordinates are calculated using camera characteristic data that is converted into a value obtained by correcting optical distortion of the camera.
[0007]
Also, the present invention provides a first method of reading at least two different images by photographing from different observation points with a camera so as to include a survey object and a reference angle used for performing a survey calculation process on the survey object. Processing,
In common between the images, an angle reference point for specifying a survey point and a camera attitude at the observation point on the survey target is set, and a reference angle defining point that defines the reference angle is set. A second process of calculating two-dimensional coordinates in each of the images for the survey point, the angle reference point, and the reference angle defining point;
A three-dimensional coordinate system including the surveying object is set, and based on the two-dimensional coordinates of the survey point, the angle reference point, and the reference angle defining point calculated in the second process and the reference angle, the three-dimensional coordinates of the survey point are calculated. A photogrammetry program that causes a computer to execute the third process of calculating coordinates is included.
[0008]
The third process may be configured to calculate the three-dimensional coordinates of the survey point by adjusting the angle of the reference angle calculated by the survey calculation process to match the actual angle. desirable. In the second processing, it is preferable that the two-dimensional coordinates are calculated using camera characteristic data that is converted into a value obtained by correcting optical distortion of the camera.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. According to the present invention, a reference angle (sharp) for confirming an angle (°) is set in image data obtained by camera photographing, and it is checked whether the value obtained by the survey calculation is accurate. This is a photogrammetry method that is used as a reference angle for obtaining a highly accurate result. The corners used in this way are specifically referred to herein as “reference angles”.
[0010]
More specifically, the present invention provides a surveying method in which a survey result can be more accurately guided by using a reference angle commonly printed in images taken from different observation points in a survey calculation process. It is. The angle (°) of the reference angle can be confirmed as a known value when the reference angle is set using a part of the object whose angle is known. When the surveyor arbitrarily sets the reference angle, the reference angle is actually measured and the value is confirmed.
[0011]
The reference angle may be arbitrarily set by the surveyor using a building or a natural object commonly printed in images taken from different observation points. For example, when a building is commonly photographed in a captured image, a reference angle (the angle in this case is generally 90 °) can be set using the corner of the building. Further, the surveyor may arbitrarily set the reference angle by using a stone, a tree, or the like commonly printed in the image. In this case, the reference angle is measured and the angle value (°) is known. As described above, the reference angle is an angle at which the angle can be confirmed by a known or actual measurement using a building or the like commonly printed in images captured at different observation points. It should be noted that a building, a natural object, or the like for which a reference angle is set is commonly included in images taken from different observation points regardless of whether or not the object is included in a survey target (hereinafter, referred to as a subject). It should just be. Hereinafter, a surveying method according to an embodiment of the present invention will be described step by step.
[0012]
FIG. 1 is a view for explaining a photogrammetry method according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of setting the reference angle in the photogrammetry method shown in FIG. 1 and an example of an image taken from each observation point. In this photogrammetry method, as shown in FIGS. 1 and 2, an electronic still camera 1 having an image sensor such as a CCD is installed at different observation points a and b, and images having different directions are taken for each observation point. Suppose you do. On the subject 3, angle reference points P1 to P5 are set as clues for measuring the subject. The angle reference points P1 to P5 are used to calculate a constant (hereinafter, referred to as an angle constant) for indicating the positional relationship and attitude of the cameras 1 installed at different observation points a and b. The angle constant will be described later in detail.
[0013]
As shown in the figure, the angle reference points are set by selecting at least five points from the constituent parts of the subject 3 and the like. As shown in the lower part of FIG. 2, image data is created such that all of the five angle reference points P1 to P5 are imprinted on the camera images 5a and 5b taken at different observation points a and b. . Further, as shown in FIG. 2, other points are similarly photographed so as to be included in the left and right camera images 5a and 5b. Such points include a survey point Pn set on the subject 3, dimension reference points S1 and S2 for dimension reference, and a reference for obtaining two line segments set to obtain the above-described reference angle. The corner defined points S3 to S6 are included. Note that at least five angle reference points P1 to P5 set on the subject 3 for calculating the attitude of the camera 1 are required. A survey point for surveying the subject 3 is naturally set on the subject 3. The angle reference point can be treated as a survey point in the survey calculation process. Therefore, these points set on the subject 3 may be collectively referred to as a survey point Pn, or may be displayed as an angle reference point Pn for explanation.
[0014]
In this example, a reference angle is set using the four stones ST1 to ST4 rolling beside the subject 3, and this is used for surveying. In this example, the angle θ formed by the line segment A1 defined by the two stones ST1 and ST2 and the line segment A2 defined by the two stones ST3 and ST4 is the reference angle. That is, the positions of the stones ST1 to ST4 are the reference angle defining points S3 to S6, respectively, as shown in FIG.
[0015]
The line segments A1 and A2 are desirably set so that one is in a different direction, such as one in the perspective direction of imaging, and the other is in a direction parallel to the observation points a and b. It is desirable to specify or set two extremely obtuse and non-acute angles (for example, 90 ° and 45 °) on a plane including or near the camera base axis as the reference angle. These two angles are angles formed at positions at a certain distance from each other, and desirably exist on the same plane or a plane close to the same plane. The reference dimension S and the reference angle θ are actually measured at the time of photographing and recorded as predetermined data. However, when the reference angle θ is set using the corners of the building or the like as described above, for example, since this angle is known as 90 °, there is no need to actually measure the angle.
[0016]
With reference to FIG. 1, the photogrammetry of the present embodiment will be described step by step. FIG. 1 is a composite view of different diagrams (A) to (E) for explaining the surveying method. FIG. 1A is a conceptual plan view showing the positional relationship between the camera 1 and the subject 3 set at the observation points a and b. Here, a line connecting the observation points a and b is referred to as a camera base axis 7. The observation points a and b are given subscripts a and b. In addition, numbers 1 to 5 are attached as subscripts to the angle reference points. Further, directions representative of the direction of the camera 1 are referred to as camera lines of sight 9a and 9b, respectively. The items related to the camera line of sight are shown with a suffix 0 (zero).
[0017]
In addition, angles and lengths existing in the paper surface of FIG. 1A are indicated by αa0 or the like without parentheses () when an angle or length includes a three-dimensional component, that is, a component orthogonal to the paper surface. (Αa1), (αb1), etc. In FIG. 1A, angles formed by the camera lines of sight 9a and 9b with respect to the camera base axis 7 are denoted by αa0 and αb0, respectively. A plane including the camera base axis 7 and the camera line of sight 9a or 9b is called a camera line of sight. In FIG. 1A, the paper surface is a camera line of sight including the camera line of sight 9a (see the projection lines 13 in (B) and (C)).
[0018]
The angles of the angle reference points P1 to P5 with respect to the camera line of sight when rotated around the camera base axis 7 and measured at point a are rotation angles βa1,. Only shown). Similarly, those measured at point b are rotation angles βb1,..., Βb5 (collectively referred to as βbn; omitted in the figure). FIGS. 1B to 1E are shown in relation to FIG.
[0019]
FIG. 1B shows a view projected on a cross section orthogonal to the camera base axis 7. In FIG. 7B, the directions of the angle reference point P1 viewed from the observation points a and b and the rotation angles βa1 and βb1 around the camera base axis 7 are shown. Next, FIG. 1C is a projection view of a cross section orthogonal to the camera line of sight 9a. FIG. 1D is a diagram for explaining a state in which the inclination of the camera is considered in FIG. (D) is a plane on which coordinates of a virtual imaging plane Hf described later, that is, two-dimensional coordinates on the image are set. FIG. 1E is a diagram showing a state in which the image of the angle reference point P1 is projected on an imaging surface Hd of a camera such as a CCD sensor.
[0020]
Although the present invention is a method for performing photogrammetry with high accuracy using a reference angle as described above, a case where the attitude of a camera is obtained without using a reference angle will be described first for easy understanding. Then, a case in which photogrammetry is performed with high accuracy by using a characteristic reference angle in the present invention will be described. In this photogrammetry method, the above-described angle constant is used to obtain the camera attitude. As the angle constant, the angles αa0 and αb0 of the camera lines of sight 9a and 9b with respect to the camera base axis 7 described above with reference to FIG. 1, and the angle σa0 based on the camera line of sight with the inclination of the camera around the camera lines of sight 9a and 9b. (See FIG. 1 (D)), σb0, and the difference Δβ in the direction component of the rotation angle β that rotates vertically about the camera base axis 7 among the direction differences between the camera lines of sight 9a and 9b.
[0021]
By the way, when the camera 1 performs free shooting at different observation points a and b, the camera base axis 7 (a line connecting the observation points a and b) is not generally horizontal because the height positions of the cameras are different. However, here, the following description will be made on the assumption that the camera base axis 7 is horizontal for easy understanding. When the angle of rotation in the vertical direction about the camera base axis 7 is indicated by the rotation angle β, the rotation angles β in the direction of the angle reference points P1 to P5 with respect to the horizontal are the observation points a and The same is true regardless of which of b is measured. The angle constant is determined using this as a clue.
[0022]
As described above, βan and βbn are rotation angles based on the camera line-of-sight plane, and can be considered as follows when the clues based on the horizontal are represented by βan and βbn. At observation points a and b, it is assumed that there is a difference in rotation angle between the camera lines of sight 9a and 9b about the camera base axis 7 by Δβ (see FIG. 1B). Then, the difference between the rotation angle βa1 and the rotation angle βb1 for the same angle reference point P1 viewed from each of the observation points a and b is also Δβ. Similarly, the difference Δβn between the rotation angle βan and the rotation angle βbn for the other angle reference point Pn is equal to Δβ. Therefore, a number (five) of simultaneous equations corresponding to the number (five in this example) in which the angle reference points are set is set as an equation expressing Δβn by an angle constant, and the simultaneous equations are set on condition that all Δβn are equal. The angle constant can be obtained by solving.
[0023]
With reference to FIG. 1, a method of setting an equation to obtain an angle constant will be described. The image picked up by the camera 1 is formed on the CCD sensor on the side opposite to the subject 3 with the camera lens interposed therebetween, and the image is generally distorted due to lens characteristics. On the other hand, as shown in FIG. 1A, an imaging Hfa (or Hfb) that is established and photographed in front of the camera 1 (subject side) is imagined, and the optical characteristics of the imaging Hfa (or Hfb) are different from those of a pinhole camera. Make it not exist. The virtual imaging plane Hfa is a plane that vertically crosses the camera line of sight 9a, and the distance from the camera 1 is L.
[0024]
The angle reference point image Pf1 is formed at a position where a straight line connecting the center of the camera lens (which is regarded as a point like a hole of a pinhole camera) and the reference point P1 on the subject 3 intersects the virtual imaging plane Hf. It shall be. FIG. 1 (C) is a view obtained by projecting the virtual imaging surface Hf on which Pf1 forms an image from the observation point a direction, and the camera line of sight, that is, the paper surface of FIG. I have. Here, reference numeral Cf is a projection point of the camera line of sight 9a, and if this point Cf is set as the center of the origin (hereinafter simply referred to as center Cf), P1 is represented by a two-dimensional coordinate position (Xt, Yt). . Note that Pcc is a projection point of the camera base axis 7 and is shown for reference, but does not exist on an actual image. Also, the position of Pcc may be outside the screen.
[0025]
In the case of free shooting, the camera 1 may be inclined around the camera line of sight 9a or 9b. FIG. 1 (D) shows that the horizontal axis 15 of the screen of the camera 1 is inclined by an angle σa0 at the observation point a with respect to the projection line 13 of the camera line of sight in consideration of the above. Is the coordinate position (Xs, Ys) when the horizontal axis 15 of the screen of the camera 1 is set to the X axis on the XY plane. FIG. 1E illustrates an angle reference point Pd1 captured on the CCD imaging surface Hd of the camera 1, and the position of Pd1 indicates a coordinate position (Xp, Yp) in pixel units.
[0026]
In FIG. 1 (D), the angle between the line connecting the center Cf and the angle reference point image Pf1 and the horizontal axis 15 and the angle between the projection line 13 on the camera viewing plane are σs and σt, respectively, and connect Cf and Pf1. Assuming that the length of the line is d1 and the distance from the camera base axis 7 to the angle reference point image Pf1 on the virtual imaging plane Hf in FIG. 1B is h, the following relationship is established from FIG. .
[0027]
σs = tan-1(Ys / Xs) (1)
σt = σs-σa0 (2)
d1 = √ (Ys2+ Xs2(3)
Xt = d1 · cosσt (4)
Yt = d1 · sinσt (5)
Xt = Xs · cosσa0 + Ys · sinσa0 (4) ′
Yt = −Xs · sinσa0 + Ys · cosσa0 (5) ′
Xu = L · sinαa0−Xt · cosαa0 (6)
Yu = Yt (7)
Zu = L · cosαa0 + Xt · sinαa0 (8)
h = √ (Xu2+ Yu2) (9)
βa1 = tan-1(Yu / Xu) (10)
Note that the above equations (4) and (5) may be replaced with the above equations (4) 'and (5)'. The same relational expression holds for the observation point b. In that case, the suffix a may be changed to the suffix b in the above equation (example: σa0 → σb0, αa0 → αb0).
[0028]
The difference between the rotation angles βan and βbn obtained as described above is obtained for each angle reference point, and an equation is set up to make the differences equal. Since the number of unknowns to be obtained is five, for example, five simultaneous equations can be set as follows.
Δβ = βa1-βb1
Δβ = βa2-βb2
Δβ = βa3-βb3
Δβ = βa4-βb4
Δβ = βa5-βb5 (11)
[0029]
By solving the above simultaneous equations, angle constants αa0, αb0, σa0, σb0, Δβ representing the attitude of the camera can be obtained. Based on these, the coordinates of each survey point can be calculated from the principle of triangulation. When the rotation angles βan and βbn are viewed as relative values based on one of the rotation angles, the relative positions are equal between the two observation points a and b. For example, assuming that the angle reference point P1 is the reference direction, the following relationship is established between the rotation angles βn of the respective points n viewed from the observation points a and b. Even if (11) ′ is set, the angle constant can be similarly obtained.
βan-βa1 = βbn-βb1 (11) ′
Through the above processing, the angle constants αa0, αb0, σa0, σb0, and Δβ are obtained. Since these are solutions having a certain degree of accuracy, the coordinates of the surveying points can be obtained temporarily based on these solutions.
[0030]
However, in the present embodiment, a new method of simultaneously adding and adding equations in consideration of the reference angle is adopted in order to more accurately obtain the coordinates of the survey points. This method calculates model coordinates (similar coordinates) of two end points (reference angle defining points) of a line segment forming a reference angle by using equations (20) to (25) described later, and calculates the coordinates of the two-line model. Obtain an angle corresponding to the reference angle. Then, an equation under the condition that the angle (°) of the reference angle て い る at which the angle (°) is actually measured and confirmed and the reference angle θ in the model is the same is added to the equation (11). As described above, the simultaneous equation of the equation (11) has a solution by itself, but the additional equation is called a constraint equation in the sense that the equation is forcibly restricted under another condition. That is, the reference angle used in the present embodiment is used as a kind of reference angle, and the calculation result is set such that the angle (°) of the reference angle calculated by the survey calculation process matches the actual angle (°). It is guided so that the survey result becomes a more correct value by restricting. The additional constraint condition expression will be described in detail in the description of the successive approximation solution described later.
[0031]
Here, hardware for implementing the photogrammetry method according to the present invention using image data obtained by photographing with a camera will be briefly described. FIG. 3 is a block diagram illustrating an example of a hardware configuration for implementing the photogrammetry method according to the embodiment. As a device having such a configuration, an information processing device such as a personal computer 30 can be used. As shown in FIG. 3, a central processing unit (CPU) 21 for controlling the entire system includes a keyboard 25, a mouse 27, a display (CRT or LCD) 29, a printer 31, an IC card reader via an interface unit 23. 33 are connected. For example, an image captured by a digital camera is input via the IC card 34. The image can be confirmed on the display 29. A photograph taken by a normal camera is converted into a digital image by a film scanner 35 and input. A hard disk 37 is connected to the CPU 21. The hard disk 37 has a computer program for performing photogrammetry, characteristic data described later, data input from the keyboard 25, the mouse 27, the IC card reader 33, and the CPU 21. And the like are stored.
[0032]
Further, here, camera characteristic data (hereinafter, simply referred to as characteristic data) employed in the present embodiment will be described. Referring to FIG. 1, if the camera 1 is a pinhole camera, an image point on an imaging plane corresponding to a straight line passing through the angle reference points P1 to P5, the dimension reference points S1 and S2, or the survey point Pn and the pinhole. Are located respectively. However, the camera 1 is a camera having a taking lens. Therefore, the image point may be projected to a position deviating from the straight line due to distortion of the photographing lens. In addition, distortion may occur due to misalignment of the pixel arrangement on the image receiving element CCD. Note that the same applies to the reference angle defining points S3 to S6, but illustration is omitted here.
[0033]
For this reason, in this example, the virtual imaging surface Hf without lens distortion is set as a two-dimensional coordinate on the image at a position separated from the observation point a (or b) by the distance L toward the subject (FIGS. 1A and 1B). B)). The points at which each reference point is projected on this virtual imaging plane Hf are defined as virtual image points Pf1 to Pf5, Sf1, Sf2, and Pf (n), respectively, and the image of the reference point on the light receiving element CCD (or on the image). Characteristic data indicating the corresponding positional relationship between the points Pd1 to Pd5, Sd1, Sd2, and Pd (n) and the virtual image point is prepared in advance (see FIG. 1D). FIG. 1D exemplarily shows only the virtual image point Pf1.
[0034]
Then, using the characteristic data, the two-dimensional coordinates of the image points Pd1 to Pd5, Sd1, Sd2, and Pd (n) are converted to the virtual image points Pf1 to Pf5, Sf1, Sf2, and Pf (n) on the virtual imaging surface Hf. Convert to dimensional coordinates. That is, the two-dimensional coordinates of the virtual image point are obtained by correcting the distortion of the photographing lens with respect to the two-dimensional coordinates of the image point. These virtual image points are used for surveying calculation assuming that they are located on a straight line passing through the reference point and the like and the pinhole.
[0035]
FIG. 4 is a flowchart showing the processing steps for creating the camera characteristic data. The process of creating characteristic data will be described with reference to FIG. In step S101, the graph paper 50 (which is the source of the coordinates of the virtual imaging surface Hf) is photographed using the camera 1 as shown in FIG. The camera 1 is placed substantially at the center of the graph paper 50 so that the camera line of sight 9 is orthogonal to the graph paper 50. Then, the distance L from the observation point C, which is the position where the lens 51 is equivalent to the pinhole of the pinhole camera, to the graph paper 50 is measured.
[0036]
More specifically, the graph paper 50 is placed horizontally, and the camera 1 is placed vertically above substantially the center with a tripod (not shown) with the camera 1 facing the graph paper 50. At this time, the horizontal and vertical directions of the visual field of the camera 1 are made to substantially match the horizontal and vertical directions of the graph paper 50. After the grid paper 50 and the camera 1 are installed, a first photographing is performed. Subsequently, a plane mirror 52 (shown by a broken line in the figure) is further provided between the graph paper 50 and the camera 1 in a state where the relative positional relationship between the graph paper 50 and the camera 1 does not change. Specifically, the plane mirror 52 is placed so that the mirror surface faces the camera 1 and is parallel to the graph paper 50. Then, it is checked that the mirror image of the observation point C is visually recognized from the viewfinder or the monitor of the camera 1 so that the camera line of sight 9 is orthogonal to the graph paper 50. The second shooting is performed. An image obtained by the first shooting (hereinafter, referred to as a first reference image) and an image obtained by the second shooting (hereinafter, referred to as a second reference image) are attached to the second reference image by a camera. The images are the same except that one mirror image is shown. Each image data is stored in the IC card 34 of FIG.
[0037]
Steps S102 to S104 are processing using the personal computer 30 shown in FIG. In step S102, a photogrammetry program is started in the personal computer 30, a characteristic data generation process is selected from a menu prepared in the program, and the first and second reference images obtained in step S101 are stored in the IC card shown in FIG. The data is read into the personal computer 30 by the reading device 33 or the like and displayed on the screen of the display device 29. FIG. 6 shows a first reference screen displayed on the screen, that is, a partial image 60 of the image of the grid paper 50.
[0038]
In step S102, for each of the K grid intersections (hereinafter referred to as grid points) on the graph paper 50, the position on the screen is designated by the mouse 27, and the respective pixel coordinates are read and designated by the mouse 27. The keyboard 25 inputs the relative two-dimensional coordinates in which the grid points of the grid paper 50 corresponding to the set grid points are regarded as coordinates. In FIG. 6, grid points designated by the mouse are indicated by circles.
[0039]
In FIG. 5, an arbitrary grid point is defined as T (k) (the subscript k is a variable indicating an arbitrary grid point and takes an integer value of 1 or more and the number of grid points K or less), and its relative two-dimensional coordinates are ( XT (k), YT (k)). XT (k) is an actual measured distance in the horizontal direction from an arbitrary lattice point T0 on the graph paper 50 to the lattice point T (k), and YT (k) is a lattice point T (k) from the origin T0. ) Is the measured distance in the vertical direction up to. The actual measurement may be measured on a scale of graph paper. The grid point t (k) projected on the grid paper image 60 on the screen is regarded as an image point t (k) obtained by projecting the grid point T (k) onto the imaging surface Hd, and the pixel of this image point t (k) The coordinates can be represented by (xt (k), yt (k)). xt (k) is the number of horizontal pixels from an arbitrary pixel on the screen, for example, the pixel tp at the upper right corner to the image point t (k) from the origin, and yt (k) is the image point t ( k) is the number of pixels in the vertical direction up to k).
[0040]
In step S103, the position of the mirror image of the observation point C on the screen is designated by the mouse 27 as the center image Cd of the imaging surface Hd with reference to the second reference image, and the pixel coordinates (xc, yc) are read. . The center image Cd is a point at which a point at which the camera line of sight 9 passing through the observation point C is orthogonal to the mirror surface of the plane mirror 52 is projected on the imaging surface Hd. Since the mirror surface of the plane mirror 52 and the graph paper 50 are parallel to each other, the center image Cd is obtained by projecting a point where the camera line of sight 9 is orthogonal to the graph paper 50 (hereinafter referred to as the center Cf) on the imaging surface Hd. Become. Note that the term “center” here means that the position through which the camera line of sight passes is considered as the center of the image pickup, and does not mean the center of the screen. Further, since the imaging conditions are the same in the first and second reference images, the imaging center Cd (xc, yc) specified in the second reference image is the center image of the first reference image (indicated by the same reference sign Cd). Can be considered
[0041]
The relative two-dimensional coordinates of the center Cf on the graph paper 50 are represented by a horizontal distance Xc and a vertical distance Yc from the origin T0 to the center Cf. In step S104, the measured shooting distance L is input from the keyboard 25. Subsequently, in step S105, the relative two-dimensional coordinates (XT (k), YT (k)) on the graph paper 50 and the image point t on the imaging plane Hd are obtained for all grid points T (k) (k = 1 to K). A series of coordinate data elements {XT (k), YT (k), xt (k), xT (k) for the grid point T (k) combined with the pixel coordinates (xt (k), yt (k)) of (k) yt (k)}, Cf coordinate data elements (Xc, Yc, xc, yc), and distance L are stored as characteristic data in an external storage medium such as a hard disk 37 or a flexible disk. Note that Xc and Yc may be difficult to read from the scale of the graph paper, and thus may be obtained by a calculation described later without being input here.
[0042]
By using the characteristic data, for example, a point Pf (n) located at a position xf (n) in the horizontal direction and yf (n) in the vertical direction from the center Cf on the graph paper 50 is located on the imaging surface Hd. If it is defined that the image is projected to an image point Pd (n) separated by xd (n) pixels in the horizontal direction and yd (n) pixels in the vertical direction from the origin tp, the image is projected on the screen in an image obtained by survey photography. When the image of the survey point Pn on the subject coincides with the image point Pd (n), the virtual image point corresponding to the survey point Pn is considered to coincide with the point Pf (n). In other words, the point Pf (n) where the observation point C matches the virtual image point and the survey point Pn are considered to be on the same straight line. The above-described characteristic data is obtained by converting the pixel coordinates (xd (n), yd (n)) of the image point Pd (n) into the two-dimensional coordinates (hereinafter, virtual image point) of the virtual image point Pf (n) corrected for optical distortion and the like. (Referred to as point coordinates) (xf (n), yf (n)).
[0043]
It is desirable that the characteristic data be prepared for all the pixels of the CCD. However, in the present embodiment, in order to save the data amount and the calculation time, the characteristic data is obtained only for the lattice points at predetermined intervals as described above. The image points are generated, and the image points located therebetween are calculated by an interpolation method. In this embodiment, a mirror image of the lens is separately photographed. However, by using grid paper which is transparent except for the grid, such as forming a grid on transparent paper, this is placed on a mirror and the grid and the lens are formed in one photograph. May be obtained. In the present embodiment, the lens data is corrected by the characteristic data to correct the coordinate value error caused by the lens assembly error with respect to the CCD or the misalignment of the CCD pixels. It can be easily corrected without any calculation. In addition, since the characteristic data is obtained by photographing graph paper and specifying the grid points on the image plane, even a general user can observe the state of distortion and be interested, and without requiring advanced technology, can obtain characteristic data. Can be easily created. Since the corresponding positional relationship between the image point Pd (n) and the virtual image point Pf (n) changes according to the photographing conditions such as the focal length and magnification of the camera 1, the photographing conditions to be set when photographing the subject 3 It is desirable to prepare the characteristic data corresponding to.
[0044]
When the characteristic data is prepared as described above, the surveying operation is started. FIG. 7 is a flowchart showing a process in the surveying operation. In step S201, image data 5a and 5b of the subject 3 photographed from two directions are created by using the camera 1 as shown in FIG. 2 and stored in the IC card 34 of FIG. In addition, a reference dimension between the dimension reference points S1 and S2 is actually measured. In addition, the fact that the above-mentioned reference angle θ is used in the survey calculation processing will be described later, but it is actually measured at this time. When the reference angle θ is set using windows of an existing building or the like, the angle (°) is known, so that it is not necessary to actually measure it.
[0045]
Subsequent steps S202 to S208 are processing using the personal computer 30. In step S202, a photogrammetry program is started in the personal computer 30, surveying calculation processing is selected from a menu prepared in the program, and image data is read by the personal computer 30 by the IC card reader 33 or the like in FIG. It is displayed on the screen of the display device 29.
[0046]
Pixel positions on the screen of the angle reference points P1 to P5, the survey point Pn, the reference angle defining points S3 to S6, and the dimension reference points S1 and S2 common to each image data are designated and input by the mouse 27. The input is performed for each image of the observation points a and b. For example, by pointing and clicking a point image to be measured with a pointer using the mouse 27 or the like, the position data (represented by a pixel unit pixel on the CCD image plane) is recorded in the HDD 37. Instructions and reference angles for which points should be the angle reference points P1 to P5, which points should be the dimension reference points S1 and S2, or the reference angle defining points S3 to S6 are input in advance through the keyboard 25 and input to the HDD 37, for example. It is stored as a reference file, and read out from this file in steps that require them.
[0047]
In step S203, the pixel coordinates of the angle reference points P1 to P5, the survey point Pn, the dimension reference points S1 and S2, and the reference angle defining points S3 to S6 at the observation points a and b are converted into the two-dimensional coordinates of the virtual image point coordinates by the characteristic data. Is converted. Here, the coordinate conversion based on the characteristic data will be described in detail. For example, the image point t (k) corresponding to the image point Pd1 input in the previous step S202, that is, the image point t (k) having the same pixel coordinates as the pixel coordinates (xd1, yd1) in the coordinate data element of the characteristic data ), The relative two-dimensional coordinates (XT (k), YT (k)) of the corresponding grid point T (k) of the same element are given as virtual image point coordinates Pf1 (xf1, yf1). However, since Pf1 needs to be a value with the center Cf as the origin, Xc and Yc are actually subtracted. On the other hand, when there is no image point t (k) that matches the image point Pd1, for example, when the image point Pd (n) is located between the lattices as shown in FIG. .
[0048]
When the image point t (k) (xt (k), yt (k)) of the coordinate data element closest to the image point Pd (n) (xd (n), yd (n)) is selected, two image points Pd Since (n), t (k) and the corresponding virtual image points Pf (n), T (k) are close to each other, it can be considered that a linear equation is established, and the virtual image point coordinates Pf (n) (xf (n ), Yf (n)) are obtained by the following equations (12) and (13).
[0049]
Figure 2004325072
Note that xd (n), yd (n), xf (n) and yf (n) correspond to Xp, Yp, Xs and Ys in FIG. 1, respectively.
[0050]
The coefficients a1 and a2 in the above equation (12) are, for example, the characteristic data elements {XT (k + 1), YT () of the image point t (k + 1) located vertically above the image point t (k) in FIG. k + 1), xt (k + 1), yt (k + 1)} and characteristic data elements {XT (k + 2), YT (k + 2), xt (k + 2), yt (k + 2) of the image point t (k + 2) located on the left side in the horizontal direction. ) Calculated based on}.
[0051]
More specifically, the following simultaneous equations (14) and (15) hold for the coefficients a1 and a2.
ΔX1 = a1Δx1 + a2Δy1 (14)
ΔX2 = a1Δx2 + a2Δy2 (15)
However,
ΔX1 = XT (k + 1) −XT (k) ΔY1 = YT (k + 1) −YT (k)
ΔX2 = XT (k + 2) −XT (k) ΔY2 = YT (k + 2) −YT (k)
Δx1 = xt (k + 1) −xt (k) Δy1 = yt (k + 1) −yt (k)
Δx2 = xt (k + 2) −xt (k) Δy2 = yt (k + 2) −yt (k)
It is.
[0052]
Therefore, the coefficients a1 and a2 are obtained by the following equations (16) and (17). The coefficients a3 and a4 in the equation (13) are also obtained by the following equations (18) and (19), similarly to the coefficients a1 and a2.
a1 = (ΔX1Δy2−ΔX2Δy1) / M (16)
a2 = (Δx1ΔX2-Δx2ΔX1) / M (17)
a3 = (ΔY1 · Δy2-ΔY2 · Δy1) / M (18)
a4 = (Δx1ΔY2−Δx2ΔY1) / M (19)
Here, M = Δx1 · Δy2-Δx2 · Δy1.
[0053]
In step S203, when the pixel coordinates (xc, yc) of the center image Cd are exchanged with the relative two-dimensional coordinates (Xc, Yc) of the center Cf, the term (-Xc) is calculated from the right side of the equation (12). And the expression excluding the term (−Yc) from the right side of the expression (13).
[0054]
In the next step 204, an angle constant is determined. The simultaneous equations (11) are solved using the data of the angle reference points P1 to P5, and the camera angle constants αa0, αb0, σa0, σb0, Δβ are obtained. One of the solutions of this simultaneous equation is a successive approximation solution. A specific example of this successive approximation solution will be described later in detail. When the angle constant is obtained as described above, triangulation is calculated based on the obtained angle constant.
[0055]
In the next step S205, data necessary for three-dimensional triangulation calculation is prepared. That is, angles αan and αbn from the observation points a and b to the survey point with respect to the camera base axis 7 and a rotation angle β from the reference direction common to the observation points a and b to the survey point are determined (FIG. 8 described later). See). The triangulation calculation is performed for the dimension reference points S1 and S2, the reference angle defining points S3 to S6, and the angle reference points P1 to P5 in addition to the survey point Pn. In the calculation, as shown in step S203, the pixel position (Xp, Yp) of the imaging plane Hd is converted to the position (Xs, Ys) on the virtual imaging plane Hf using the camera characteristic file for the survey point Pn.
[0056]
The angle αa (n) from the observation point a to the survey point P1 can be calculated by the following equation (20) as is clear from FIGS. 1 (A) and 1 (B).
αa (n) = tan 1(H / Zu) (20)
Here, h / Zu is obtained from Expressions (8) and (9). The angle αb (n) from the observation point b to the survey point Pn is obtained in the same manner.
[0057]
Regarding the rotation angle β, angles βa (n) and βb (n) can be obtained from Expression (10), which are rotation angles around the camera base axis 7 respectively. Since what is needed for triangulation is a rotation angle from the reference direction common to the observation points a and b, a common rotation angle is obtained by arbitrarily using the points projected on both cameras. For example, as shown in FIG. 8, a rotation angle β′a (n) = βa (n) −βa1 with reference to the survey point P1 is obtained and used. Although the rotation angle β′b (n) = βb (n) −βb1 can be obtained, β′a (n) = β′b (n), so that if there is no error, only one of them needs to be obtained.
[0058]
In step S206, first, a model is calculated based on the data in step S205. For triangulation, the distance between observation points a and b is required. However, here, it is assumed that the distance is 1 and the similar three-dimensional coordinates (called a model) are obtained. As shown in FIG. 8, the orthogonal coordinates (x, y, z) of the survey point Pn with the observation point a as the origin can be obtained from the following equations (21) to (24) based on the principle of triangulation. However, the survey points have a relationship as shown in FIG. FIG. 8 shows the survey points P1 (which are also angle reference points) and Pn in the YZ projection view in (A) and the XY projection view in (B). It is assumed that the survey point P1 serving as a reference for the rotation angle β is on the paper surface of FIG. 8B, and the camera base axis 7 is in the X-axis direction. In FIG. 8B, the paper surface is an XY plane, the axis perpendicular to the XY plane is the Z-axis direction, the distance between the observation points a and b is E, and the distance from the X axis to the survey point Pn is H.
[0059]
(Equation 1)
Figure 2004325072
At this time, the distance E between the observation points a and b is temporarily set to 1. The above is also obtained for P1 to P5 and S1 to S6 to form a model.
[0060]
In step S207, the distance E, which is the provisional value, is corrected so as to be equivalent to the case where the distance E is the actual value. First, for the two dimension reference points (S1, S2) shown in FIG. 2 where the distance is actually measured in step S201, the distance g is obtained from the obtained model, that is, the coordinate value of the similar shape, by the following equation. The subscripts S1 and S2 in the equation (25) indicate the coordinates of the model of the dimension reference points S1 and S2.
(Equation 2)
Figure 2004325072
[0061]
Next, the ratio between the previously measured reference dimension S (the actual interval between S1 and S2) and the interval g is determined. The ratio is multiplied by each coordinate value of the model to calculate a numerical value. Through the above steps, the actual value in the three-dimensional coordinates of the survey point Pn and other reference points with the observation point a as the origin is calculated.
[0062]
However, it may be inconvenient if the origin of the calculated coordinates is the observation point a, the plane including P1 is fixed on the XY plane, and the X axis is fixed on the camera base axis 7. If necessary, adjust the origin and reference direction. For example, a certain point among the survey points is set as the origin, or the reference direction of XY is designated and changed. For this purpose, for example, a coordinate reference instruction file is stored in the HDD 37 in advance. That is, the data file is a data file in which a point set as the origin, a point defining the X-axis, a point defining the Y-axis direction, or the like is selected from among reference points and the like and is input from a keyboard or the like. It is desirable to refer to the file so that the three-dimensional coordinates obtained are translated or rotated to perform coordinate conversion.
[0063]
In step S208, the result of the above-described survey calculation is displayed on the display device 29, output to the printer 31 or the like, and read by the user. In addition, it can be output as a file for CAD or the like according to the application, and can be used as skeleton data of CAD or CG.
[0064]
Before and after, a successive approximation solution for obtaining the angle constants αa0, αb0, σa0, σb0, and Δβ from equation (11) in step S204 described above will be described. When Equations (1) to (10) are modified to obtain βan (also common to βbn),
(Equation 3)
Figure 2004325072
Becomes For the following calculations, the parentheses on the right side of equation (26)
(Equation 4)
Figure 2004325072
And
[0065]
By substituting the equations (11) into the above equation (26) by appropriately adding the suffixes a and b indicating the observation point and the suffixes 1 to 5 indicating the individual angle reference points, the variable can be expressed in detail. Is omitted.
Expression (11), which is expressed only by an angle constant, is represented by a function f.
Δβ = βan−βbn = f (αa0, σa0, αb0, σb0) (28)
Becomes
[0066]
Deriving the partial derivatives of αa0 and σa0 to make the function f a linear approximation so that the simultaneous equations can be solved,
(Equation 5)
Figure 2004325072
Becomes
The partial derivatives of αb0 and σb0 can be similarly expressed by replacing the subscripts a and b in the equations (29) and (30).
[0067]
Combining the above equations (29) and (30) to form a first-order approximation for equation (11)
(Equation 6)
Figure 2004325072
Becomes
[0068]
In the above equation (31), fn is βan−βbn at the current angle constant value of the angle reference point Pn, each partial derivative equation is a partial differential coefficient at the current angle constant of Pn, and Δαa0, Δσa0, Δαb0, and Δσb0 are the current Each increment from the angle constant. R represents an error due to omitting components exceeding the first order in this approximate expression. This R is ignored. Note that the expression “present” in the text before and after this means an initial value for each successive approximation.
[0069]
Expressing each partial differential coefficient as a matrix element Ank and fn as a matrix element Bn, and applying them to all the expressions of the above expression (11) to rearrange them
(Equation 7)
Figure 2004325072
Becomes
Here, n is the number of angle reference points, and An5 is −1, which is the sign of Δβ, and is always constant.
[0070]
The above equation (32) is expressed by a matrix x in which the increments Δαa0, Δσa0, Δαb0, Δσb0, Δβ of the angle constants to be obtained are elements xn of the matrix.
Ax = B (33)
Here, A is a matrix having Ank as an element, and B is a matrix having Bn as an element.
[0071]
In equation (11), five angle reference points are used and five equations are simultaneously used. However, when six or more points are used, the number is simultaneously calculated and converted into five rows by the following equation (least square method). .
(Equation 8)
Figure 2004325072
Here, A bar is a transposed matrix of A, and A 'and B' are matrices converted into 5 rows.
[0072]
To determine the increment of the angle constant, that is, the element of x, is based on the Kramel's formula as follows.
(Equation 9)
Figure 2004325072
Where | A ‘| is the determinant of A ′, | A‘B '| Is a determinant in which the column relating to xn of | A ‘| is replaced with B ′.
[0073]
The obtained xn, that is, the increments of the angle constants Δαa0, Δσa0, Δαb0, Δσb0 are added to the current angle constants αa0, σa0, αb0, σb0 to obtain the next current angle constants αa0, σa0, αb0, σb0. Repeat the above. The repetition is performed until the maximum deviation of Δβ falls below a specified value that can be regarded as a solution or a specific number of times.
[0074]
Here, the above-described additional constraint condition expression will be described in detail. FIG. 9 is a diagram showing a relationship between line segments a1 and a2 as models corresponding to two line segments A1 and A2 forming the reference angle θ shown in FIG. In FIG. 9A, a1 'is parallel to a2 at a position where the two lines are closest in order to accurately indicate the angle θ formed by the two lines when the two line segments are separated from each other. This is the line that has moved. FIG. 9B is a diagram in which the line segment a2 in FIG. 9A is translated to a line segment a2 'so that s3 and s5 coincide to calculate θ. L1 to L3 indicate the length of each side of the triangle formed by each line segment.
[0075]
The coordinates in the reference point model such as the survey point are obtained by the above-described equations (1) to (11) and equations (20) to (24). Similarly, the ends S3 to S6 of the line segments a1 and a2 in the model corresponding to the line segments A1 and A2 forming the reference angle are obtained. The xyz coordinates are shown by adding subscripts S3 to S6 to x, y, and z. The reference angle θ formed by the line segments a1 and a2 in the model corresponding to the line segments A1 and A2 shown in FIG. 2 is obtained as follows.
(Equation 10)
Figure 2004325072
[0076]
If the calculated angle constant is correct, the relationship with the actually measured reference angle Θ formed by the line segments A1 and A2 shown in FIG.
Θ = θ (41)
It is.
Or, if the angle constant has an error Δθ,
Θ = θ + Δθ (42)
Becomes
[0077]
In the above equation (42), the error is set to the left side, and the approximation equation is obtained by using the variable adjusted to the equation (32)
(Equation 11)
Figure 2004325072
Becomes Note that R is an approximate residual and is ignored in successive calculations. In this equation, the coefficient is set to 0 because Δβ is irrelevant.
[0078]
The coefficient of each term on the left side of the above equation (43) is set as an element of an additional row of the A matrix, and is solved by being included in the equation (33). In this case, the coefficient of each term is a partial differential derivative. However, the coefficient may be obtained by calculating an increment as follows. The first term on the left side of equation (43) is shown as an example.
[0079]
When θ is expressed as f (x),
(Equation 12)
Figure 2004325072
Becomes
In this case, each of Δα0 and Δσ0 may be set to, for example, about π / 10000.
[0080]
By constraining the angle of the portion set in the image as the reference angle θ as described above to be the same angle as the actual angle Θ, the calculated values of the other portions are also close to the actual values. According to this embodiment, photogrammetry can be performed with high accuracy.
[0081]
As described above, the system of equations (11) alone has a solution, and the camera angle constants αa0, αb0, σa0, σb0, and Δβ can be obtained. However, in the mere survey calculation based on the equation (11), if the angles σa0 and σb0 of the camera angle constant have the same error, it may be difficult to distinguish the correct answer even if the error is large. According to the present invention, σa0 and σb0 can be correctly constrained by checking and adjusting (constraining) the angles and dimensions on the model coordinates, which are the calculation results, at the actual angles (reference angles θ). In comparison, the accuracy of the survey calculation can be improved.
[0082]
In the present embodiment, a case where one reference angle θ is set has been described, but two reference angles θ may be set. When two reference angles are set in this way, for example, two angles included in a triangle or a quadrangle found on a plane including the camera base axis or a plane close to the plane may be specified or set. Here, the plane including the camera base axis or a plane close thereto corresponds to a horizontal plane such as the ground, a floor, or a roof when the observation points a and b are arranged horizontally and photographed in a substantially horizontal direction. For example, focusing on a corner of a rectangular building such as a building as a known reference angle, two right angles included in the four corners of the roof can be used as reference angles. Alternatively, a square floor material such as a tile or a floor material, a square pattern drawn on the floor material, or the like may be used.
[0083]
Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications and changes may be made within the scope of the present invention described in the appended claims. Changes are possible.
[0084]
【The invention's effect】
As is apparent from the details described above, according to the present invention, the survey target can be measured with high accuracy by using the reference angle.
[Brief description of the drawings]
FIG. 1 is a view for explaining a photogrammetry method according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of setting the reference angles in the photogrammetry method shown in FIG. 1, and an example of an image taken from each observation point.
FIG. 3 is a block diagram showing an example of a hardware configuration for implementing the photogrammetry method of the embodiment.
FIG. 4 is a flowchart showing processing steps for creating camera characteristic data.
FIG. 5 is a diagram illustrating a state in which camera characteristic data is created.
FIG. 6 is a diagram showing a part of an image when camera characteristic data is created.
FIG. 7 is a flowchart showing a process in a surveying operation.
8A and 8B are diagrams illustrating a relationship between the survey points P1 and Pn and triangulation calculation, wherein FIG. 8A is a YZ projection diagram and FIG. 8B is an XY projection diagram.
9 is a diagram showing a relationship between line segments a1 and a2 as models corresponding to two line segments A1 and A2 forming the reference angle θ shown in FIG. 2;
[Explanation of symbols]
1 camera
3 Survey object (subject)
5a, 5b camera image
7 Camera base
9a, 9b Camera look
a, b observation points
P1 to P5 Angle reference point
Pn survey point
S1, S2 Dimension reference point
S3 to S6 Reference angle specified point
θ reference angle

Claims (8)

測量対象物および該測量対象物の測量計算処理を行う際に用いる参照角が含まれるように、異なる観測点からカメラで撮影して少なくとも2つの異なる画像を得る第1ステップと、
前記各画像間で共通に、前記測量対象物上に測量点および前記観測点でのカメラ姿勢を特定するためのアングル参照点を設定すると共に、前記参照角を規定する参照角規定点を設定して、これら測量点、アングル参照点および参照角規定点について前記各画像における2次元座標を算出する第2ステップと、
前記測量対象物を含む3次元座標系を設定し、第2ステップで算出した前記測量点、アングル参照点および参照角規定点の2次元座標並びに前記参照角に基づいて、前記測量点の3次元座標を算出する第3ステップとを備える、ことを特徴とする写真測量方法。
A first step of obtaining at least two different images by photographing with a camera from different observation points so as to include a survey object and a reference angle used when performing a survey calculation process of the survey object;
In common between the images, an angle reference point for specifying a survey point and a camera attitude at the observation point on the survey target is set, and a reference angle defining point that defines the reference angle is set. A second step of calculating two-dimensional coordinates in each of the images for the survey point, the angle reference point, and the reference angle defining point;
A three-dimensional coordinate system including the survey object is set, and based on the two-dimensional coordinates of the survey point, the angle reference point, and the reference angle defining point calculated in the second step, and the three-dimensional coordinate of the survey point, A third step of calculating coordinates.
前記第3ステップでは、測量計算処理により算出される参照角の角度と実際の角度とが一致するように調整して前記測量点の3次元座標を算出する、ことを特徴とする請求項1に記載の写真測量方法。The method according to claim 1, wherein in the third step, three-dimensional coordinates of the survey point are calculated by adjusting the angle of the reference angle calculated by the survey calculation process so as to match the actual angle. The photogrammetric method described. 前記参照角は、前記各画像間に共通して写し込まれている角度が既知である物体上に前記参照角規定点を設定して特定されている、ことを特徴とする請求項1記載の写真測量方法。2. The method according to claim 1, wherein the reference angle is specified by setting the reference angle defining point on an object having a known angle that is commonly captured between the images. 3. Photogrammetry method. 前記第1ステップと第2ステップとの間に実測ステップを設け、前記参照角は前記各画像間に共通して写し込まれている物体上に任意で前記参照角規定点を設定し、該参照角規定点により規定される角の角度を実測して特定されている、ことを特徴とする請求項1に記載の写真測量方法。An actual measurement step is provided between the first step and the second step, and the reference angle is arbitrarily set on the object commonly photographed between the images, and the reference angle specified point is set. The photogrammetry method according to claim 1, wherein the angle is specified by actually measuring an angle defined by the angle defining point. 前記第2ステップでは、前記カメラの光学歪を補正した値に変換するカメラ特性データを用いて、前記2次元座標を算出する、ことを特徴とする請求項1から4のいずれかに記載の写真測量方法。The photograph according to any one of claims 1 to 4, wherein, in the second step, the two-dimensional coordinates are calculated using camera characteristic data that is converted into a value obtained by correcting optical distortion of the camera. Survey method. 測量対象物および該測量対象物の測量計算処理を行う際に用いる参照角が含まれるように、異なる観測点からカメラで撮影した少なくとも2つの異なる画像を読取る第1処理と、
前記各画像間で共通に、前記測量対象物上に測量点および前記観測点でのカメラ姿勢を特定するためのアングル参照点を設定すると共に、前記参照角を規定する参照角規定点を設定して、これら測量点、アングル参照点および参照角規定点について前記各画像における2次元座標を算出する第2処理と、
前記測量対象物を含む3次元座標系を設定し、第2処理で算出した前記測量点、アングル参照点および参照角規定点の2次元座標並びに前記参照角に基づいて、前記測量点の3次元座標を算出する第3処理とを、コンピュータに実行させることを特徴とする写真測量プログラム。
A first process of reading at least two different images taken by a camera from different observation points, so as to include a survey target and a reference angle used when performing a survey calculation process of the survey target;
In common between the images, an angle reference point for specifying a survey point and a camera attitude at the observation point on the survey target is set, and a reference angle defining point that defines the reference angle is set. A second process of calculating two-dimensional coordinates in each of the images for the survey point, the angle reference point, and the reference angle defining point;
A three-dimensional coordinate system including the surveying object is set, and based on the two-dimensional coordinates of the survey point, the angle reference point, and the reference angle defining point calculated in the second process and the reference angle, the three-dimensional coordinates of the survey point are calculated. A photogrammetry program causing a computer to execute a third process of calculating coordinates.
前記第3処理では、測量計算処理により算出される参照角の角度と実際の角度とが一致するように調整して前記測量点の3次元座標を算出する、ことを特徴とする請求項6に記載の写真測量プログラム。7. The method according to claim 6, wherein in the third process, three-dimensional coordinates of the survey point are calculated by adjusting the angle of the reference angle calculated by the survey calculation process so as to match the actual angle. Photogrammetry program as described. 前記第2処理では、前記カメラの光学歪を補正した値に変換するカメラ特性データを用いて、前記2次元座標を算出する、ことを特徴とする請求項6または7に記載の写真測量プログラム。8. The photogrammetry program according to claim 6, wherein in the second processing, the two-dimensional coordinates are calculated using camera characteristic data that is converted into a value obtained by correcting optical distortion of the camera. 9.
JP2003115588A 2003-04-21 2003-04-21 Photogrammetry method and photogrammetry program Expired - Fee Related JP4282361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003115588A JP4282361B2 (en) 2003-04-21 2003-04-21 Photogrammetry method and photogrammetry program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003115588A JP4282361B2 (en) 2003-04-21 2003-04-21 Photogrammetry method and photogrammetry program

Publications (2)

Publication Number Publication Date
JP2004325072A true JP2004325072A (en) 2004-11-18
JP4282361B2 JP4282361B2 (en) 2009-06-17

Family

ID=33496097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003115588A Expired - Fee Related JP4282361B2 (en) 2003-04-21 2003-04-21 Photogrammetry method and photogrammetry program

Country Status (1)

Country Link
JP (1) JP4282361B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019143250A1 (en) 2018-01-22 2019-07-25 Fugro N.V. Surveying instrument for and surveying method of surveying reference points
CN110595443A (en) * 2019-08-22 2019-12-20 苏州佳世达光电有限公司 Projection device
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10665035B1 (en) 2017-07-11 2020-05-26 B+T Group Holdings, LLC System and process of using photogrammetry for digital as-built site surveys and asset tracking
US11151782B1 (en) 2018-12-18 2021-10-19 B+T Group Holdings, Inc. System and process of generating digital images of a site having a structure with superimposed intersecting grid lines and annotations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0493705A (en) * 1990-08-09 1992-03-26 Topcon Corp Apparatus and method for measuring three-dimensional position
JPH11223526A (en) * 1997-11-10 1999-08-17 Asahi Optical Co Ltd Apparatus for setting image point and photogrammetry method using the image point-setting apparatus
JP2001133256A (en) * 1999-11-05 2001-05-18 Asia Air Survey Co Ltd Method of calculating position and attitude of aerial photograph
JP2001227945A (en) * 2000-02-21 2001-08-24 Asahi Optical Co Ltd Image point coordinating device and method, and recording medium storing image point coordinating program
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0493705A (en) * 1990-08-09 1992-03-26 Topcon Corp Apparatus and method for measuring three-dimensional position
JPH11223526A (en) * 1997-11-10 1999-08-17 Asahi Optical Co Ltd Apparatus for setting image point and photogrammetry method using the image point-setting apparatus
JP2001133256A (en) * 1999-11-05 2001-05-18 Asia Air Survey Co Ltd Method of calculating position and attitude of aerial photograph
JP2001227945A (en) * 2000-02-21 2001-08-24 Asahi Optical Co Ltd Image point coordinating device and method, and recording medium storing image point coordinating program
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019143250A1 (en) 2018-01-22 2019-07-25 Fugro N.V. Surveying instrument for and surveying method of surveying reference points
CN111256662A (en) * 2018-11-30 2020-06-09 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
CN111256662B (en) * 2018-11-30 2022-06-07 卡西欧计算机株式会社 Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
CN110595443A (en) * 2019-08-22 2019-12-20 苏州佳世达光电有限公司 Projection device

Also Published As

Publication number Publication date
JP4282361B2 (en) 2009-06-17

Similar Documents

Publication Publication Date Title
JP3426459B2 (en) Photogrammetry system and photogrammetry method
AU2011312140B2 (en) Rapid 3D modeling
JP4147059B2 (en) Calibration data measuring device, measuring method and measuring program, computer-readable recording medium, and image data processing device
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
JP2013539147A5 (en)
JP2009017480A (en) Camera calibration device and program thereof
JP2006003132A (en) Three-dimensional surveying apparatus and electronic storage medium
JP4052382B2 (en) Non-contact image measuring device
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
JP2000321059A (en) Image forming system
JP4138145B2 (en) Image forming apparatus
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP5991821B2 (en) Photogrammetry equipment
JP4112077B2 (en) Image measurement processing method and apparatus, and recording medium recording image measurement processing program
KR101346206B1 (en) Aviation surveying system for processing the aviation image in gps
JP4282361B2 (en) Photogrammetry method and photogrammetry program
JP4149732B2 (en) Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program
JP2004325073A (en) Photogrammetry and photogrammetry program
JP3637416B2 (en) Three-dimensional measurement method, three-dimensional measurement system, image processing apparatus, and computer program
JP2007122160A (en) Modeling device and calculation method for camera parameter
JP4810403B2 (en) Information processing apparatus and information processing method
JP2003042730A (en) Apparatus and method for measurement of surface shape as well as surface-state mapping apparatus
JP4135934B2 (en) Electronics
JP2003177019A (en) Method for camera posture calculation by free photographing
CN111415295B (en) Shooting resolution orthogram generation method of oblique shooting three-dimensional model

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20041022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070413

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180327

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees