JPS59148976A - Estimating method of position and attitude of airframe - Google Patents
Estimating method of position and attitude of airframeInfo
- Publication number
- JPS59148976A JPS59148976A JP58022750A JP2275083A JPS59148976A JP S59148976 A JPS59148976 A JP S59148976A JP 58022750 A JP58022750 A JP 58022750A JP 2275083 A JP2275083 A JP 2275083A JP S59148976 A JPS59148976 A JP S59148976A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- image
- attitude
- ground
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000012952 Resampling Methods 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims description 15
- 239000013598 vector Substances 0.000 abstract description 11
- 238000012545 processing Methods 0.000 abstract description 9
- 239000011159 matrix material Substances 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 235000006693 Cassia laevigata Nutrition 0.000 description 2
- 241000522641 Senna Species 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 229940124513 senna glycoside Drugs 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明は、人工衛星、航空機等に搭載されたセンナが地
表を撮影した画像中に含まれる形状歪の補正方式に係り
、特に補正に必要な人工衛星または航空機の位置、姿勢
を正確に推定するのに好適な推定方式に関する。[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to a method for correcting shape distortion included in images of the earth's surface taken by sensors mounted on artificial satellites, aircraft, etc. The present invention relates to an estimation method suitable for accurately estimating the position and attitude of an artificial satellite or an aircraft.
上記形状歪の補正は従来次のように行なわれている(詳
細は例えば文献R,Bernstein 。Correction of the above-mentioned shape distortion has conventionally been performed as follows (for details, see, for example, Reference R, Bernstein).
” Digital Image processin
g of EarthQl)servation 56
w5or [)ata”、 IBM Journalo
f Re5earch 、 Jan、 1976、
を参照のこと)。”Digital Image Processin
g of Earth Ql) service 56
w5or [)ata”, IBM Journalo
f Research, Jan, 1976,
checking).
従来法の概略は次のとおりである=第1図の1を人工衛
星、航空機等の飛翔体、2を飛翔体1に搭載されたセン
ナ、3を地表とする。地表の1点6はセンサ面4上の点
5に像を作る。このとき点6と像5の位置関係は、飛翔
体の空間における位置。The outline of the conventional method is as follows: In Fig. 1, 1 is a flying object such as an artificial satellite or an aircraft, 2 is a senna mounted on the flying object 1, and 3 is the ground surface. A point 6 on the earth's surface forms an image at a point 5 on the sensor surface 4. At this time, the positional relationship between point 6 and image 5 is the position of the flying object in space.
姿勢、センナ光学系のモデルおよび地表の形状モデルを
用いて幾何学計算によ請求められる。いまセンサ面4上
の受光信号をサンプリングして得た画像を観測画像、そ
の各サンプルを画素と呼ぶ。Geometrical calculations are required using the attitude, model of the Senna optical system, and shape model of the ground surface. The image obtained by sampling the light reception signal on the sensor surface 4 is called an observed image, and each sample thereof is called a pixel.
第2図(1)は観測画像の各画素を等間隔格子点(図の
黒点)に並べたものでこれを観測画像空間と名づける。In FIG. 2 (1), each pixel of the observed image is arranged in equidistant grid points (black dots in the figure), and this is called the observed image space.
この空間の任意の点は座標(t、p)で指定される。一
方画像の利用解析の目的に供する。Any point in this space is specified by coordinates (t,p). On the other hand, it is used for the purpose of image usage analysis.
所望の画像は第2図(2)に示すごとく所定の地図投影
法に従う座標系X−Yの上で画素が等間隔格子点(図の
白点)に並んだものである。これを補正画像と名づける
。観測画像から補正画像を得るには画素の位置並べかえ
、すなわちリサンプリング処理が必要となる。これは次
のように行なう。前述の地表点と観測画像の画素位置と
を対応づける幾何学計算を用いて、補正画像空間の画素
位置(x、ylを観測画像空間の画素位置(t、p)に
写像する歪補正モデルを作る。次にこのモデルを用いて
補正画像の格子9上の各画素に対応する観測画像の格子
8上の各画素位置を算出する。この画素位置は一般に整
数格子点、すなわち格子7の黒点と一致しない。そこで
格子7の各点の画像強度から格子8の各点の画像強度を
補間する。これが補正画像における所望の格子9の各点
の強度となる。この際観測点、すなわち格子7の各点が
等間隔にあるとみなせば、補間計算は前述の文献にある
ニアレストネイバ法、パイリニア法、キュービックコン
ボリューション法等を適用できる。As shown in FIG. 2(2), the desired image is one in which pixels are arranged at equidistant grid points (white points in the figure) on a coordinate system X-Y according to a predetermined map projection method. This is called a corrected image. To obtain a corrected image from an observed image, it is necessary to rearrange the pixel positions, that is, to perform resampling processing. This is done as follows. A distortion correction model that maps pixel positions (x, yl) in the corrected image space to pixel positions (t, p) in the observed image space is created using the geometric calculation that associates the above-mentioned ground points with pixel positions in the observed image. Next, this model is used to calculate the position of each pixel on the grid 8 of the observed image that corresponds to each pixel on the grid 9 of the corrected image.This pixel position is generally an integer grid point, that is, a black point of the grid 7. Therefore, the image intensity of each point of the grid 8 is interpolated from the image intensity of each point of the grid 7. This becomes the intensity of each point of the desired grid 9 in the corrected image. If each point is assumed to be equally spaced, the nearest neighbor method, pi-linear method, cubic convolution method, etc. described in the above-mentioned literature can be applied to the interpolation calculation.
以上の画像歪補正方式は、飛翔体の位置、姿勢。The above image distortion correction method is based on the position and attitude of the flying object.
センサモデルおよび地球形状モデルから成る幾何学モデ
ルを用いる。このうち飛翔体の位置、姿勢の測定データ
には測定誤差が含捷れるため、これを用いた幾何学モデ
ルに誤差が生じ、これが結果として補正画像の歪(補正
誤差)となる。そこで一般に、画像中の特徴点で地表の
位置が正確に知られた点すなわち地上標準点の情報を用
いて、飛翔体の位置、姿勢をより正確に推定することに
より画像の補正精度を高めるという方法がとられている
。A geometric model consisting of a sensor model and an earth shape model is used. Among these, the measurement data of the position and attitude of the flying object includes measurement errors, so errors occur in the geometric model using this data, which results in distortion (correction error) of the corrected image. Therefore, in general, the accuracy of image correction is improved by more accurately estimating the position and attitude of a flying object by using information from feature points in the image whose positions on the ground surface are accurately known, that is, ground control points. A method is being taken.
まず幾何学モデルは次式で与えられる。First, the geometric model is given by the following equation.
ヱl−9(玉r t1+ pl+ tl)+シ …(1
)ここに下付き添字iは第1番目の地上標準点11、あ
るいはそれに対応する観測画像の画素12を意味する。El-9 (ball r t1+ pl+ tl)+shi...(1
) Here, the subscript i means the first ground control point 11 or the pixel 12 of the observation image corresponding thereto.
(t、p)は画素12の座標、tはその撮像時刻を表わ
すものとする。いま座標系13を任意に設定する。通常
は地球中心固定座標系を用いる。この座標系での地上標
準点の位置ベクトルを
y=(xyz)” ・・・ (2
)で表わす。(1)式のGは画素の座標(t、p)k地
表点に対応づけるベクトル関数である。またelは地上
標準点の位置ベクトルy1の測定誤差とベクトル関数G
の誤差の和である。また関数Gの引数であるベクトルX
は次のように与えられる、飛翔体の位置、姿勢パラメー
タである。通常飛翔体の位置ベクトルy=(xyz)”
の各座標成分X。Let (t, p) represent the coordinates of the pixel 12, and t represent the imaging time. Now, the coordinate system 13 is arbitrarily set. Usually, an earth-centered fixed coordinate system is used. The position vector of the ground reference point in this coordinate system is y=(xyz)”... (2
). G in equation (1) is a vector function that associates the pixel coordinates (t, p) with the k ground point. In addition, el is the measurement error of the position vector y1 of the ground control point and the vector function G
is the sum of the errors. Also, the vector X which is the argument of the function G
are the position and attitude parameters of the flying object given as follows. Normally the position vector of the flying object y = (xyz)”
Each coordinate component X.
y、zの時刻1の多項式関数で近似することができる。It can be approximated by a polynomial function of time 1 of y and z.
ここにNは多項式の次数で3程度である。一方姿勢角を
ロール角(θF)+ ピッチ角(ら)、ヨー角(θy)
で表わせば、これらはいずれもtの多項式関数で近似で
きる。Here, N is the degree of the polynomial and is approximately 3. On the other hand, the attitude angle is roll angle (θF) + pitch angle (ra), yaw angle (θy)
Both of these can be approximated by a polynomial function of t.
このときパラメータベクトルXは(3)、 (4)式の
係数によって作られるベクトルである。At this time, the parameter vector X is a vector created by the coefficients of equations (3) and (4).
””(XoX+ =・Xw’f1’!2−ywZIZ2
− ZNθrQθ1.・・・θrNθ、1θ、2・・・
θ、−7゜θア、・・・θyN)T(F5)以上の幾何
学モデルに従い、地上標準点の情報を用いて従来は次の
方法により飛翔体の位置、姿勢を精密に推定されている
(詳細は例えば文献R1H1Coron and K、
W、 Simon @t AttitL1de’pim
e−8eries Estimator for 1(
ectificationof 5pacel)orn
e Imagery”、 Journal ofSpa
cecraft 、 VOl、 12 、A I 、
1975. を参照のこと)。すなわちM個のGC
Pデータ(i=1、・・・、M)が与えられたとき、カ
ルマンフィルタの手法を適用してx=i推定する。この
とき(1)式はカルマンフィルタにおける観測方程式と
なるが、Xに関し非線形なのでこれを線形化近似してか
らカルマンフィルタを適用する。””(XoX+ =・Xw'f1'!2-ywZIZ2
- ZNθrQθ1. ...θrNθ, 1θ, 2...
Conventionally, the position and attitude of a flying object have been accurately estimated using the following method according to a geometric model of θ, -7°θa,...θyN)T(F5) and using information on ground control points. (For details, see the literature R1H1Coron and K.
W, Simon @t AttitL1de'pim
e-8eries Estimator for 1 (
certificationof 5pacel)orn
e Imagery”, Journal of Spa
cecraft, VOl, 12, AI,
1975. checking). That is, M GCs
When P data (i=1, . . . , M) is given, x=i is estimated by applying the Kalman filter method. At this time, equation (1) becomes the observation equation for the Kalman filter, but since it is nonlinear with respect to X, it is linearized and approximated before the Kalman filter is applied.
以上述べた従来方式の処理フローを第3図に示す。カル
マンフィルタによる処理ステップ150入カデータ14
として、各地上標準点の位置ベクトル3’l+誤差e1
の共分散マトリックスW+。FIG. 3 shows the processing flow of the conventional method described above. Processing step 150 by Kalman filter Input data 14
As, the position vector 3'l of each ground standard point + error e1
covariance matrix W+.
その誤差共分散1)oを与える。パラメータの推定結果
からステップ16で歪補正モデルの作成が行なわれる。Its error covariance 1) Give o. A distortion correction model is created in step 16 from the parameter estimation results.
そのモデルを用いてあらかじめ磁気テープ等に格納され
た観測画像17にステップ18でリサンプリング処理を
ほどこすことにより補正画像19を得る。Using the model, a corrected image 19 is obtained by applying resampling processing to the observed image 17 previously stored on a magnetic tape or the like in step 18.
この従来方式には次の欠点があった。すなわち上述のご
とく(1)式の線形化近似を行なうため得られるXの推
定結果が最適でない。例えば誤差e1の重みマトリック
スWi (’=t+・・・、M)に対し、評価関数
を最小にする推定値、すなわち最小2乗推定値にはなら
ない。但しeIは(1)式より
eI −yt G(X、t+、[)++’+)
(7)である。This conventional method had the following drawbacks. That is, as described above, the result of estimating X obtained by linear approximation of equation (1) is not optimal. For example, for the weight matrix Wi ('=t+..., M) of the error e1, the estimated value that minimizes the evaluation function, that is, the least squares estimated value is not obtained. However, from equation (1), eI is eI −yt G(X, t+, [)++'+)
(7).
本発明の目的は、飛翔体に搭載されたセンサにより撮影
された画像の形状歪を精密に補正するために必要な飛翔
体の位置、姿勢パラメータを精度よく推定するのに好適
な方式を提供することにある。An object of the present invention is to provide a method suitable for accurately estimating the position and attitude parameters of a flying object, which are necessary for precisely correcting the shape distortion of an image captured by a sensor mounted on a flying object. There is a particular thing.
ここで本発明で用いるパラメータ推定方式について概要
を説明しておく。まず、未知パラメータXの推定値を(
6)式の評価関数Jを最小にするものと定義し、もしX
についての先験情報Xoが正規分布の確率変数で、誤差
e1がiに関して独立の正規分布の確率変数という条件
が成立つならば、得られる推定値は、与えられた地上標
準点データに対して最尤推定値となる。通常は上記条件
が近似的に成立つと考えてよい。さて(6)式はXに関
して非線形なので、Jの最小値を与えるXは解析的には
求まらない。そこで本発明では逐次解法としてニュート
ンラフノン法を用いる点に特徴がある。Here, an overview of the parameter estimation method used in the present invention will be explained. First, the estimated value of the unknown parameter X is (
6) Define the evaluation function J of the expression as the one that minimizes it, and if
If the conditions are satisfied that the a priori information Xo is a normally distributed random variable and the error e1 is an independent normally distributed random variable with respect to i, then the obtained estimated value is This is the maximum likelihood estimate. Normally, it can be considered that the above conditions are approximately satisfied. Now, since equation (6) is nonlinear with respect to X, X that gives the minimum value of J cannot be found analytically. Therefore, the present invention is characterized in that the Newton-Roughnon method is used as the sequential solution method.
その処理フローを第4図に示す。始めにステップ20〜
22において初期値設定を行なう。ΔXは逐次計算過程
における推定値Xの修正量である。The processing flow is shown in FIG. First step 20~
Initial value setting is performed in step 22. ΔX is the amount of correction of the estimated value X in the sequential calculation process.
ステップ23〜27は繰返しの各回における演算である
。ステップ24では推定値Xの修正演算をおこなう。ス
テップ25における修正量ΔXの計算の内容は次の式で
ある。Steps 23 to 27 are calculations in each iteration. In step 24, the estimated value X is corrected. The content of calculation of the correction amount ΔX in step 25 is as follows.
(8)
但しMは地上標数点の数、nは未知パラメータの数であ
る。ステップ26のJ (X)は(6)式によって算出
される。判定のステップ27はJの収束を判定するもの
で、εは十分小さな正の数である。(8) where M is the number of ground feature points and n is the number of unknown parameters. J (X) in step 26 is calculated using equation (6). The determination step 27 is for determining the convergence of J, and ε is a sufficiently small positive number.
〔発明の実権例〕
以下、実施例にもとづき本発明の詳細な説明する。第5
図は本発明による画像歪の補正装置の全体構成図である
。最小2乗法にもとづくパラメータ推定装置31に対し
外部端子28から未知パラメータXの先験情報Xoとそ
の誤差共分散マトリックスpOを与える。一方面像メモ
リ33には観測画像が蓄えられているものとする。画像
ディス(9)
プレイ30は観測画像の一部を画像メモリ33から読み
出して表示する。表示内容は例えば第6図のごとくなる
。スクリーン36の中に地上標準点付近の観測画像37
が表示される。オペレータはこの表示をみて画像中の地
上標準点の位置を座標入力装置29から入力する。これ
は装置31に送られる。同時に外部端子28から該地上
標準点の位置ベクトルy+ とその誤差共分散マトリ
ックスWIを入力する。この操作を与えられたM個のす
べての地上標準点について繰返す。そののちパラメータ
推定装置31は、これらの入力情報にもとづき第4図の
処理フローに従い、飛翔体の位置。[Examples of practical application of the invention] The present invention will be described in detail below based on examples. Fifth
The figure is an overall configuration diagram of an image distortion correction device according to the present invention. A priori information Xo of an unknown parameter X and its error covariance matrix pO are supplied from an external terminal 28 to a parameter estimating device 31 based on the least squares method. It is assumed that the one-sided image memory 33 stores observed images. Image display (9) The play 30 reads a part of the observed image from the image memory 33 and displays it. The displayed contents are as shown in FIG. 6, for example. Observation image 37 near the ground control point on the screen 36
is displayed. The operator looks at this display and inputs the position of the ground reference point in the image from the coordinate input device 29. This is sent to device 31. At the same time, the position vector y+ of the ground reference point and its error covariance matrix WI are inputted from the external terminal 28. This operation is repeated for all M ground control points given. Thereafter, the parameter estimation device 31 determines the position of the flying object according to the processing flow shown in FIG. 4 based on this input information.
姿勢パラメータを推定する。歪補正モデル算出装置32
はこの推定パラメータ値を用いて歪補正モデルを作成す
る。そのあとリサンプリング装置34は観測画像の画素
データを画像メモリ33から順次読出し、歪補正モデル
に従ってリサンプリング処理を行ない、補正画像の画素
データを磁気テープ35に順次書き出す。リサンプリン
グ装置34は所定寸法に相当する画素数を持つ補正画像
(10)
が作成されるまで以上の動作を繰り返す。Estimate the pose parameters. Distortion correction model calculation device 32
creates a distortion correction model using these estimated parameter values. Thereafter, the resampling device 34 sequentially reads out the pixel data of the observed image from the image memory 33, performs resampling processing according to the distortion correction model, and sequentially writes the pixel data of the corrected image onto the magnetic tape 35. The resampling device 34 repeats the above operations until a corrected image (10) having the number of pixels corresponding to a predetermined size is created.
以上述べたごとく本発明によれば、非線形推定問題を線
形近似することなく直接数値解を求める方式を用いたこ
とにより観測画像中に数個程度選定した地上標準点の情
報から、飛翔体の位置、姿勢パラメータを精密に推定で
きるので、観測画像の形状歪を精密に補正することが可
能になるという効果がある。As described above, according to the present invention, the position of a flying object is determined from information about several ground control points selected in an observation image by using a method of directly obtaining a numerical solution without linear approximation of a nonlinear estimation problem. Since the pose parameters can be estimated accurately, it is possible to accurately correct the shape distortion of the observed image.
第1図は飛翔体に搭載したセンサにより地表を観測する
状態を示す図、第2図は観測画像と補正画像の関係を示
す図、第3図は従来方式による歪補正処理のフローを示
す図、第4図は本発明の方式による非線形推定問題の解
法フローを示す図、第5図は本発明による画像歪補正装
置の全体構成図、第6図は該装置を構成する画像表示装
置における地上標準点の表示例を示す図である。
1・・・飛翔体、31・・・パラメータ推定装置。
代理人 弁理士 高橋明夫
(11)
第 1 図
1
η 2 図
(1ン (2,
)嘉 3 図
第 4 図
z f 図
1
z
第 に ロFigure 1 is a diagram showing the state in which the ground surface is observed by a sensor mounted on a flying object, Figure 2 is a diagram showing the relationship between observed images and corrected images, and Figure 3 is a diagram showing the flow of distortion correction processing using the conventional method. , FIG. 4 is a diagram showing a solution flow for a nonlinear estimation problem using the method of the present invention, FIG. 5 is an overall configuration diagram of an image distortion correction device according to the present invention, and FIG. It is a figure which shows the example of a display of a standard point. 1... Flying object, 31... Parameter estimation device. Agent Patent Attorney Akio Takahashi (11) 1st Figure 1 η 2 (1n (2,
) Ka 3 Figure 4 Figure z f Figure 1 z th b
Claims (1)
ータを推定し、該パラメータにもとづいて雫爵を両売画
像歪補正モデルを作成し、該モデルを用いて観測画像を
リサンプリングして補正画像を得る画像歪補正方式にお
いて、上記位置、姿勢パラメータは上記地上標準データ
から非線形最小2乗法にもとづき推定することを特徴と
する飛翔体の位置、姿勢パラメータ推定方式。Estimating the position and attitude parameters of the flying object from multiple ground standard data, creating an image distortion correction model for the Shizukushu based on the parameters, and resampling the observed image using the model to create a corrected image. An image distortion correction method for estimating the position and attitude parameters of a flying object, characterized in that the position and attitude parameters are estimated based on the nonlinear least squares method from the ground standard data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58022750A JPS59148976A (en) | 1983-02-16 | 1983-02-16 | Estimating method of position and attitude of airframe |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58022750A JPS59148976A (en) | 1983-02-16 | 1983-02-16 | Estimating method of position and attitude of airframe |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS59148976A true JPS59148976A (en) | 1984-08-25 |
Family
ID=12091363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58022750A Pending JPS59148976A (en) | 1983-02-16 | 1983-02-16 | Estimating method of position and attitude of airframe |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS59148976A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6257071A (en) * | 1985-09-06 | 1987-03-12 | Hitachi Ltd | Correcting system for picture distortion |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5466168A (en) * | 1977-11-07 | 1979-05-28 | Toshiba Corp | Geometric distortion corrector of picture |
-
1983
- 1983-02-16 JP JP58022750A patent/JPS59148976A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5466168A (en) * | 1977-11-07 | 1979-05-28 | Toshiba Corp | Geometric distortion corrector of picture |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6257071A (en) * | 1985-09-06 | 1987-03-12 | Hitachi Ltd | Correcting system for picture distortion |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mondragón et al. | 3D pose estimation based on planar object tracking for UAVs control | |
US9355453B2 (en) | Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium | |
JP2786207B2 (en) | Surface shape calculation method for scanning microscope | |
Hinsken et al. | Triangulation of LH systems ADS40 imagery using Orima GPS/IMU | |
Caballero et al. | Homography based Kalman filter for mosaic building. applications to UAV position estimation | |
US6148250A (en) | Altitude detection by use of planar approximation of a region of ground surface | |
EP1357516A2 (en) | A method for correcting an image acquired by a satellite | |
CN112230242A (en) | Pose estimation system and method | |
JPH11252440A (en) | Method and device for ranging image and fixing camera to target point | |
JPH08201021A (en) | Calibration method | |
CN107192375B (en) | A kind of unmanned plane multiple image adaptive location bearing calibration based on posture of taking photo by plane | |
JP2009501996A (en) | Image geometric correction method and apparatus | |
CN111524194A (en) | Positioning method and terminal for mutual fusion of laser radar and binocular vision | |
US20030031382A1 (en) | Process for the stabilization of the images of a scene correcting offsets in grey levels, detection of mobile objects and harmonization of two snapshot capturing apparatuses based on the stabilization of the images | |
CN110986998A (en) | Satellite video camera on-orbit geometric calibration method based on rational function model | |
WO2016022188A2 (en) | Video-assisted landing guidance system and method | |
CN114241064B (en) | Real-time geometric calibration method for internal and external orientation elements of remote sensing satellite | |
CN117237789A (en) | Method for generating texture information point cloud map based on panoramic camera and laser radar fusion | |
CN110108894B (en) | Multi-rotor speed measuring method based on phase correlation and optical flow method | |
CN110136168B (en) | Multi-rotor speed measuring method based on feature point matching and optical flow method | |
JPS59148976A (en) | Estimating method of position and attitude of airframe | |
JPH06195472A (en) | Image-processing system | |
CN109003295A (en) | A kind of unmanned plane aviation image fast matching method | |
JP4046476B2 (en) | Navigation calculation apparatus and navigation calculation method | |
Kinoshita et al. | Simultaneous determination of camera pose and intrinsic parameters by visual servoing |