JP2000331145A - Method for analyzing image of three-dimensional object and its related technology - Google Patents

Method for analyzing image of three-dimensional object and its related technology

Info

Publication number
JP2000331145A
JP2000331145A JP11136382A JP13638299A JP2000331145A JP 2000331145 A JP2000331145 A JP 2000331145A JP 11136382 A JP11136382 A JP 11136382A JP 13638299 A JP13638299 A JP 13638299A JP 2000331145 A JP2000331145 A JP 2000331145A
Authority
JP
Japan
Prior art keywords
dimensional
image data
image
affine
dimensional affine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11136382A
Other languages
Japanese (ja)
Other versions
JP4262830B2 (en
Inventor
Atsushi Okamoto
厚 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADO DESIGN KK
Original Assignee
ADO DESIGN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADO DESIGN KK filed Critical ADO DESIGN KK
Priority to JP13638299A priority Critical patent/JP4262830B2/en
Publication of JP2000331145A publication Critical patent/JP2000331145A/en
Application granted granted Critical
Publication of JP4262830B2 publication Critical patent/JP4262830B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To form a three-dimensional model space with accuracy by using two-dimensional image data having an angle of view which is smaller than a normally required one like a high-resolution image obtained by means of a line scanner, etc., mounted on an artificial satellite. SOLUTION: Left and right two-dimensional image data are obtained by continuously acquiring many linear center projection images, where objective ground surfaces are partially overlapped, in a scanning direction with a line scanner mounted on an artificial satellite at different positions in the flying direction of the satellite. Then the image data are converted into left and right two-dimensional affine image data respectively. Thereafter, a three-dimensional model space is formed by setting the parameter of the two-dimensional affine conversion between the left and right two-dimensional affine image data and the three-dimensional coordinates of the objective ground surface under such a condition that the two-dimensional affine conversion is satisfied on all overlapping portions of the left and right two-dimensional affine image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元対象体につ
いての二次元画像を利用して各種測量やオルソ画像作成
等を行うための画像解析方法、画像解析システム、及び
画像解析プログラムを記録したコンピュータ読み取り可
能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention records an image analysis method, an image analysis system, and an image analysis program for performing various types of surveying and orthophoto creation using a two-dimensional image of a three-dimensional object. The present invention relates to a computer-readable recording medium.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】地球観
測衛星から得られる地表面の高分解能画像は、写真測量
地形図作成やオルソ画像作成等を始めとする広範な利用
が期待されている。
2. Description of the Related Art High-resolution images of the earth's surface obtained from earth observation satellites are expected to be widely used, including photogrammetric topographic maps and orthorectified images.

【0003】しかしながら、人工衛星搭載のラインスキ
ャナ等の画像取得装置により得られる画像の画角、特に
高分解能画像の画角は、航空カメラと比べて非常に狭
い。そのため、中心投影による射影関係を用いたモデル
の形成の際の標定パラメータ間における相関性が強く、
モデル形成のための標定パラメータの精度として十分に
満足することができるものとはなり得なかった。
However, the angle of view of an image obtained by an image acquisition device such as a line scanner mounted on an artificial satellite, particularly the angle of view of a high-resolution image, is much narrower than that of an aerial camera. Therefore, there is a strong correlation between the orientation parameters when the model is formed using the projection relationship by the central projection,
The accuracy of the orientation parameters for model formation could not be sufficiently satisfactory.

【0004】本発明は、従来技術に存した上記のような
点に鑑み行われたものであって、その目的とするところ
は、人工衛星搭載のラインスキャナ等による高分解能画
像のように通常必要な画角よりも小さい画角の中心投影
二次元画像データを用いて精度良く三次元モデル空間を
形成することが可能な三次元対象体画像解析方法、三次
元対象体画像解析システム、及び三次元対象体画像解析
プログラムを記録したコンピュータ読み取り可能な記録
媒体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems in the prior art, and has as its object the purpose of the present invention, which is generally used for a high-resolution image such as a line scanner mounted on an artificial satellite. -Dimensional object image analysis method, three-dimensional object image analysis system, and three-dimensional object capable of accurately forming a three-dimensional model space using center-projected two-dimensional image data having a smaller angle of view An object of the present invention is to provide a computer-readable recording medium on which an object image analysis program is recorded.

【0005】[0005]

【課題を解決するための手段】(1) 本発明の三次元対
象体画像解析方法は、対象体から離れた左右経路におい
て得られる左右二次元アッフィン(affine)画像データで
あってこの両画像が対象とする部分が全部又は部分的に
重複するものと、前記対象体の三次元座標との間に、二
次元アッフィン変換が前記左右二次元アッフィン画像デ
ータにおける重複部の全てにおいて成立するという条件
により、その二次元アッフィン変換のパラメータを決定
(標定)することによって、三次元モデル空間を形成す
る画像解析方法であって、前記左右二次元アッフィン画
像データが、対象体上においてほぼ線状をなす左右細長
部が左右経路の方向に平行状に複数連続した部分につい
ての写像であるものである(請求項1)。
(1) A three-dimensional object image analysis method according to the present invention is a method for analyzing left-right two-dimensional affine image data obtained on a right-left path distant from a target object. Under the condition that the two-dimensional affine transformation is established in all of the overlapping parts in the left and right two-dimensional affine image data, between the target part being wholly or partially overlapping and the three-dimensional coordinates of the object. An image analysis method for forming a three-dimensional model space by determining (orienting) the parameters of the two-dimensional affine transformation, wherein the left and right two-dimensional affine image data are substantially linear on the object. This is a mapping of a part where a plurality of elongated portions are continuous in parallel in the direction of the left and right paths (claim 1).

【0006】左右経路と左右細長部の線状方向(長手方
向)がなす角は、例えば70度乃至90度とすることが
でき、直角又は直角に近いことが望ましい。
The angle formed between the left and right paths and the linear direction (longitudinal direction) of the left and right elongated portions can be, for example, 70 to 90 degrees, and is preferably a right angle or close to a right angle.

【0007】前記左細長部と右細長部の数は同数である
ことが好ましいが必ずしも同数に限るものではない。
The number of the left elongated portion and the right elongated portion is preferably the same, but is not necessarily limited to the same number.

【0008】この方法により、対象体についての左右二
次元アッフィン画像データから、精度良く三次元モデル
空間を形成することが可能である。その左右二次元アッ
フィン画像データとしては、中心投影画像をそのまま用
いて解析する場合に通常必要な画角よりも小さい画角
(例えば数度以下の画角)の左右線状中心投影画像が平
行状に複数連続してなる左右二次元画像データを変換し
て得られるものを用いることができる。その場合、画角
が小さくなるほど、中心投影からアッフィン投影に変換
する誤差が小さくなることにより、形成する三次元モデ
ル空間の精度をより良いものとすることができる。元の
左右二次元画像がラインスキャナ画像である場合も、走
査線の外部標定要素は時間変動のない関数として取り扱
われ、これによりラインスキャン画像を空中写真とほと
んど同じように処理することができる。
According to this method, a three-dimensional model space can be accurately formed from two-dimensional right and left affine image data of a target object. As the left and right two-dimensional affine image data, a right and left linear center projected image having an angle of view smaller than an angle of view (eg, an angle of view of several degrees or less) smaller than the angle of view normally required for analysis using the center projected image as it is The data obtained by converting a plurality of continuous left and right two-dimensional image data may be used. In this case, the smaller the angle of view is, the smaller the error of converting the center projection to the affine projection is, so that the accuracy of the formed three-dimensional model space can be improved. Even when the original left and right two-dimensional images are line scanner images, the external orientation elements of the scanning lines are treated as a function having no time variation, so that the line scan image can be processed almost in the same manner as an aerial photograph.

【0009】(1-1) (1)の解析方法は、対象体について
の左右二次元アッフィン画像データを得るために、対象
体から離れた左右経路上からそれぞれ取得した左右二次
元画像データであってその左右画像が対象とする部分が
全部又は部分的に重複するものを、それぞれ左右二次元
アッフィン画像データに変換するステップを有し、前記
左右二次元画像データは、前記左右経路に対し対象体上
においてほぼ線状をなす左右細長部が左右経路の方向に
平行状に複数連続した部分についての画像データであっ
て、ほぼ線状をなす左右線状中心投影画像がそれぞれ前
記左右経路の方向に対応した方向に平行状に複数連続し
てなり、各左右線状中心投影画像は、左右経路上におけ
る各左右細長部に対応する位置から取得した画像データ
であるものとすることが望ましい(請求項2)。
(1-1) In the analysis method of (1), the left and right two-dimensional image data obtained from the left and right paths apart from the target object are used to obtain the left and right two-dimensional affine image data of the target object. And converting the target portion of the left and right images, which are all or partially overlapped, into left and right two-dimensional affine image data. The left and right elongated portions that are substantially linear on the upper side are image data of a plurality of continuous portions parallel to the direction of the left and right paths, and the left and right linear center projected images that are substantially linear are respectively in the direction of the left and right paths. A plurality of left and right linear center projected images shall be image data obtained from positions corresponding to the respective left and right elongated portions on the left and right paths. Desirable (Claim 2).

【0010】左経路上の前記各位置同士の位置関係と対
象体上の各左細長部同士の位置関係、及び、右経路上の
前記各位置同士の位置関係と対象体上の各右細長部同士
の位置関係が、それぞれ中心投影とアッフィン投影で表
される位置関係を座標変換することを可能にしている。
[0010] The positional relationship between the positions on the left route and the positional relationship between the left elongated portions on the object, and the positional relationship between the positions on the right route and the right elongated portions on the object. The positional relationship between them makes it possible to carry out coordinate transformation of the positional relationship represented by the center projection and the affine projection.

【0011】上記左右線状中心投影画像は、その線状で
ある方向において一定画角であるものとすることができ
る。なお、左右の線状中心投影画像の画角は同一であっ
ても異なっていても良い。
[0011] The left and right linear center projected images may have a constant angle of view in the linear direction. Note that the angle of view of the left and right linear center projected images may be the same or different.

【0012】左右二次元画像データは、ステレオペアを
構成する。
The left and right two-dimensional image data form a stereo pair.

【0013】この場合、中心投影画像をそのまま用いて
解析する場合に通常必要な画角よりも小さい画角(例え
ば数度以下の画角)の左右線状中心投影画像が平行状に
複数連続してなる左右二次元画像データを変換して得ら
れる左右二次元アッフィン画像データを用いて、精度良
く三次元モデル空間を形成することが可能であり、元の
左右二次元画像を構成する左右線状中心投影画像の線方
向の画角が小さくなるほど三次元モデル空間の精度をよ
り良いものとすることができる。その画角としては好ま
しくは5度又は4度(SPOT画像)以下、特に好ましくは
2度又は1度(IKONOS画像)以下である。元の左右二次
元画像がラインスキャナ画像である場合も、走査線の外
部標定要素は時間変動のない関数として取り扱われ、こ
れによりラインスキャン画像を空中写真とほとんど同じ
ように処理することができる。
In this case, a plurality of left and right linear center projected images having an angle of view (eg, an angle of view of several degrees or less) smaller than the angle of view normally required for analysis using the center projected image as it is are continuously formed in parallel. It is possible to accurately form a three-dimensional model space using left-right two-dimensional affine image data obtained by converting left-right two-dimensional image data The smaller the angle of view in the line direction of the center projected image, the better the accuracy of the three-dimensional model space. The angle of view is preferably 5 degrees or 4 degrees (SPOT image) or less, particularly preferably 2 degrees or 1 degree (IKONOS image) or less. Even when the original left and right two-dimensional images are line scanner images, the external orientation elements of the scanning lines are treated as a function having no time variation, so that the line scan image can be processed almost in the same manner as an aerial photograph.

【0014】この解析方法において三次元モデル空間を
形成するには、左右二次元画像についての鉛直傾斜角と
画面距離の近似値があればよく、左右経路のデータ(人
工衛星搭載の撮影装置による二次元画像を用いる例にお
いては、衛星軌道パラメータのデータ)は必要ではな
い。前記の左右二次元画像と三次元モデル空間との関係
は幾何学的に非常に安定なので、前記の鉛直傾斜角と画
面距離の近似値があれば、パラメータの重量(重み)の
変化にほとんど影響を受けないで精度の良い解(例えば
三角測量の結果)が得られる。なお、初期値として用い
る鉛直傾斜角と画面距離の近似値は、ある程度の精度
(例えばそれぞれ10度及び10%以内の誤差の範囲
内)があれば繰り返し計算により十分な精度を実現する
ことができる。
In order to form a three-dimensional model space in this analysis method, an approximate value of the vertical inclination angle and the screen distance of the left and right two-dimensional images only needs to be obtained. In the example using the two-dimensional image, the data of the satellite orbit parameter) is not necessary. Since the relationship between the left and right two-dimensional images and the three-dimensional model space is very stable geometrically, the approximate value of the vertical tilt angle and the screen distance hardly affects the change of the parameter weight (weight). A highly accurate solution (for example, a result of triangulation) can be obtained without receiving the above. It should be noted that the approximate values of the vertical tilt angle and the screen distance used as the initial values can achieve sufficient accuracy by repeated calculations if they have a certain degree of accuracy (for example, within an error range of 10 degrees and 10%, respectively). .

【0015】この場合、中心投影画像をそのまま用いて
解析する場合に比し、格段に安定した解が得られ、三次
元モデル空間を利用した対象体についての画像三角測量
の精度も良いものとなる。たとえ対象体に相当な起伏が
ある場合(例えば1000mの標高差のある地形)であって
も同様である。
In this case, a much more stable solution can be obtained and the accuracy of the image triangulation of the object using the three-dimensional model space can be improved as compared with the case where the analysis is performed using the center projection image as it is. . The same applies to the case where the target object has considerable undulations (for example, terrain with an altitude difference of 1000 m).

【0016】(1-2) (1)及び(1-1)の解析方法は、上記
三次元モデル空間と対象体の三次元空間との間の三次元
アッフィン変換のパラメータを、左右二次元アッフィン
画像データの共面条件及び対象体における左右二次元ア
ッフィン画像データに重複する4基準点の座標データに
より決定(標定)するステップを有するものとすること
ができる(請求項3)。
(1-2) In the analysis methods of (1) and (1-1), the parameters of the three-dimensional affine transformation between the three-dimensional model space and the three-dimensional space of the object are calculated by changing the left-right two-dimensional affine The method may further include a step of determining (orienting) the image data based on coplanar conditions and coordinate data of four reference points overlapping the left and right two-dimensional affine image data of the object.

【0017】このように、得られた三次元モデル空間を
対象体の三次元空間に変換することによって、対象体に
ついての左右二次元アッフィン画像データから対象体の
三次元座標データを得ることができる。この場合、繰り
返し計算により安定的に精度良く解を得ることが可能で
ある。対象体における基準点が左右二次元画像上にかた
よりなく分布していれば、計画した精度が得られる。な
お、三次元モデル空間の形成において、左右二次元画像
データを変換して得られる左右二次元アッフィン画像デ
ータを用いる場合、その左右二次元画像を構成する左右
線状中心投影画像の線方向の画角が小さくなるほど対象
体の三次元空間の精度をより良いものとすることができ
る。
By converting the obtained three-dimensional model space into the three-dimensional space of the target object, the three-dimensional coordinate data of the target object can be obtained from the left-right two-dimensional affine image data of the target object. . In this case, it is possible to obtain a stable and accurate solution by iterative calculation. If the reference points on the target object are evenly distributed on the left and right two-dimensional images, the planned accuracy can be obtained. When forming the three-dimensional model space using the left-right two-dimensional affine image data obtained by transforming the left-right two-dimensional image data, the image in the line direction of the left-right linear center projection image constituting the left-right two-dimensional image is used. The smaller the angle, the better the accuracy of the three-dimensional space of the object can be.

【0018】(2) また、本発明の三次元対象体画像解
析方法は、対象体から離れた第1乃至第n左右経路[n
は正の整数]において得られる左右二次元アッフィン画
像データであって第1乃至第nの各左右二次元アッフィ
ン画像が対象とする部分が全部又は部分的に重複すると
共に第m左画像と第(m+1)左画像及び第m右画像と
第(m+1)右画像[mは(n−1)以下の任意の正の
整数]が対象とする部分が部分的に隣接重複するものと
前記対象体の三次元座標との間に、二次元アッフィン変
換が前記第m及び第(m+1)左右二次元アッフィン画
像データのそれぞれにおける左右重複部の全てにおいて
成立するという条件により、その二次元アッフィン変換
のパラメータを決定(標定)することによって、第m及
び第(m+1)三次元モデル空間を形成するステップ
と、第m三次元モデル空間と第(m+1)三次元モデル
空間との間の三次元アッフィン変換のパラメータを決定
(標定)するステップを備える画像解析方法であって、
前記第1乃至第nの各左右二次元アッフィン画像が、対
象体上においてほぼ線状をなす第1乃至第n左右細長部
が、それぞれ左右経路の方向に平行状に複数連続した部
分についての写像であるものとすることができる(請求
項4)。
(2) The three-dimensional object image analysis method according to the present invention is characterized in that the first to n-th right and left paths [n
Are positive integers], the portions targeted by the first to n-th left and right two-dimensional affine images are all or partially overlapped, and the m-th left image and the ( (m + 1) the left image and the (m + 1) th right image and the (m + 1) th right image [m is an arbitrary positive integer equal to or less than (n-1)] where the target portion partially overlaps and overlaps with the target object. Under the condition that the two-dimensional affine transformation is established between the three-dimensional coordinates and all of the left and right overlapping portions in each of the m-th and (m + 1) left and right two-dimensional affine image data, the parameters of the two-dimensional affine transformation are Determining (orienting) to form the m-th and (m + 1) th three-dimensional model spaces; and determining the three-dimensional space between the m-th and (m + 1) th three-dimensional model spaces. Determine the parameters of Ffin conversion to an image analysis method comprising the steps of (orientation),
Each of the first to n-th left and right two-dimensional affine images is an image of a portion where a plurality of substantially linear first to n-th left and right elongate portions are continuous in a direction parallel to the left and right paths. (Claim 4).

【0019】この方法により、上記(1)と同様に、対象
体についての第m左右二次元アッフィン画像データか
ら、精度良く第m三次元モデル空間を形成することが可
能であり、更に、その第m三次元モデル空間と部分的に
隣接重複する第(m+1)三次元モデル空間との間の三
次元アッフィン変換により、第m三次元モデル空間と第
(m+1)三次元モデル空間を接続することができる。
このようにして、一部重複し合う隣接三次元モデル空間
同士を次々と接続することができる。
According to this method, similarly to the above (1), it is possible to form the m-th three-dimensional model space with high accuracy from the m-th left-right two-dimensional affine image data of the target object. The m-th three-dimensional model space and the (m + 1) th three-dimensional model space can be connected by the three-dimensional affine transformation between the m-th three-dimensional model space and the (m + 1) -th three-dimensional model space that partially overlaps and overlaps. it can.
In this way, adjacent three-dimensional model spaces that partially overlap can be connected one after another.

【0020】(2-1) (2)の解析方法は、対象体について
の第m及び第(m+1)左右二次元アッフィン画像デー
タを得るために、対象体から離れた第1乃至第n左経路
上及び第1乃第n右経路上からそれぞれ取得した第1乃
至第n左右二次元画像データであって第1乃至第nの各
左右画像が対象とする部分が全部又は部分的に重複する
と共に第m左画像と第(m+1)左画像及び第m右画像
と第(m+1)右画像が対象とする部分が部分的に隣接
重複するものを、それぞれ第1乃至第n左右二次元アッ
フィン画像データに変換するステップを有し、前記第1
乃至第n左右二次元画像データは、前記第1乃至第n左
右経路に対し対象体上においてほぼ線状をなす第1乃至
第n左右細長部が、それぞれ第1乃至第n左右経路の方
向に平行状に複数連続した部分についての画像データで
あって、ほぼ線状をなす第1乃至第nの左右線状中心投
影画像がそれぞれ前記第1乃至第n左右経路の方向に対
応した方向に平行状に複数連続してなり、第1乃至第n
の各左右線状中心投影画像は、それぞれ第1乃至第n左
右経路上における第1乃至第nの各左右細長部に対応す
る位置から取得した画像データであるものとすることが
望ましい(請求項5)。
(2-1) In the analysis method (2), the first to n-th left paths away from the object are obtained in order to obtain the m-th and (m + 1) left and right two-dimensional affine image data of the object. The first to n-th right and left two-dimensional image data obtained from the upper and the first to n-th right paths, respectively, and the portions targeted by the first to n-th right and left images are all or partially overlapped. First to n-th left and right two-dimensional affine image data are obtained by partially overlapping the target portions of the m-th left image and the (m + 1) -th left image and the m-th right image and the (m + 1) -th right image. And converting the first
The first to n-th right and left two-dimensional image data are obtained by forming first to n-th left and right thin portions that are substantially linear on the target body with respect to the first to n-th left and right paths in the directions of the first to n-th left and right paths, respectively. First to n-th left and right linear center projected images, which are substantially linear, are parallel to the directions corresponding to the directions of the first to n-th right and left paths, respectively. The first to n-th
Is preferably image data acquired from positions corresponding to the first to n-th left and right elongated portions on the first to n-th left and right paths, respectively. 5).

【0021】第1乃至第n左経路上における前記各位置
同士の位置関係と対象体上の第1乃至第nの各左細長部
同士の位置関係、及び、第1乃至第n右経路上における
前記各位置同士の位置関係と対象体上の第1乃至第nの
各右細長部同士の位置関係が、それぞれ中心投影とアッ
フィン投影で表される位置関係を座標変換することを可
能にしている。
The positional relationship between the positions on the first to n-th left paths, the positional relationship between the first to n-th left elongated portions on the object, and the first to n-th right paths. The positional relationship between the positions and the positional relationship between the first to n-th right elongated portions on the object allow coordinate conversion of the positional relationship represented by the center projection and the affine projection. .

【0022】第m左右細長部はそれぞれ複数であり、第
m左右経路上における第m左右細長部に対応する位置
も、それぞれ複数である。
There are a plurality of m-th left and right elongated portions, and a plurality of positions corresponding to the m-th left and right elongated portion on the m-th left and right path.

【0023】上記(1-1)と同様に、中心投影画像をその
まま用いて解析する場合に通常必要な画角よりも小さい
画角の左右二次元画像データを変換して得られる左右二
次元アッフィン画像データを用いて、精度良く三次元モ
デル空間を形成することが可能である。三次元モデル空
間を形成するには、左右二次元画像についての鉛直傾斜
角と画面距離の近似値があればよい。
Similarly to the above (1-1), when analyzing using the center projected image as it is, a right and left two-dimensional affine obtained by converting left and right two-dimensional image data having an angle of view smaller than a normally required angle of view. It is possible to accurately form a three-dimensional model space using image data. In order to form a three-dimensional model space, an approximate value of the vertical inclination angle and the screen distance for the left and right two-dimensional images may be used.

【0024】(2-2) (2)及び(2-1)の解析方法は、第m
及び第(m+1)三次元モデル空間と対象体の三次元空
間との間の三次元アッフィン変換のパラメータを、第m
及び第(m+1)左右二次元アッフィン画像データの共
面条件及び第m及び第(m+1)左右二次元アッフィン
画像データのそれぞれにおいて重複する対象体における
4基準点の座標データにより決定(標定)するステップ
を有するものとすることができる(請求項6)。
(2-2) The analysis method of (2) and (2-1)
And the parameters of the three-dimensional affine transformation between the (m + 1) th three-dimensional model space and the three-dimensional space of the object are
Deciding (orienting) based on the coplanar condition of the (m + 1) th left and right two-dimensional affine image data and the coordinate data of the four reference points of the overlapping object in each of the (m + 1) th and (m + 1) th left and right two-dimensional affine image data (Claim 6).

【0025】このようにして、接続された隣接三次元モ
デル空間を対象体の三次元空間に変換することによっ
て、対象体についての左右二次元アッフィン画像データ
から対象体の三次元座標データを得ることができる。
In this way, by converting the connected adjacent three-dimensional model space into the three-dimensional space of the target object, obtaining three-dimensional coordinate data of the target object from the right and left two-dimensional affine image data of the target object. Can be.

【0026】(3) 本発明の三次元対象体画像解析シス
テムは、対象体から離れた左右経路において得られる左
右二次元アッフィン画像データであってこの両画像が対
象とする部分が全部又は部分的に重複するものと、前記
対象体の三次元座標との間に、二次元アッフィン変換が
前記左右二次元アッフィン画像データにおける重複部の
全てにおいて成立するという条件により、その二次元ア
ッフィン変換のパラメータを決定(標定)することによ
って、三次元モデル空間を形成する画像解析システムで
あって、前記左右二次元アッフィン画像データが、対象
体上においてほぼ線状をなす左右細長部が左右経路の方
向に平行状に複数連続した部分についての写像であるも
のである(請求項7)。
(3) The three-dimensional object image analysis system according to the present invention is a system for analyzing left-right two-dimensional affine image data obtained on a left-right path distant from a target object, and the target portion of both images is wholly or partially. The two-dimensional affine transformation between the three-dimensional coordinates of the target object and the two-dimensional affine transformation is established in all of the overlapping portions in the left and right two-dimensional affine image data, the parameters of the two-dimensional affine transformation An image analysis system that forms a three-dimensional model space by determining (orienting), wherein the left and right two-dimensional affine image data is formed such that substantially linear left and right elongated portions on a target body are parallel to the direction of the left and right path. This is a mapping of a plurality of continuous portions in a shape (claim 7).

【0027】このシステムにより、上記(1)と同様に、
対象体についての左右二次元アッフィン画像データか
ら、精度良く三次元モデル空間を形成することが可能で
ある。
With this system, similar to the above (1),
It is possible to form a three-dimensional model space with high accuracy from left and right two-dimensional affine image data of a target object.

【0028】(3-1) (3)の解析システムは、対象体につ
いての左右二次元アッフィン画像データを得るために、
対象体から離れた左右経路上からそれぞれ取得した左右
二次元画像データであってその左右画像が対象とする部
分が全部又は部分的に重複するものを、それぞれ左右二
次元アッフィン画像データに変換する手段を有し、前記
左右二次元画像データは、前記左右経路に対し対象体上
においてほぼ線状をなす左右細長部が左右経路の方向に
平行状に複数連続した部分についての画像データであっ
て、ほぼ線状をなす左右線状中心投影画像がそれぞれ前
記左右経路の方向に対応した方向に平行状に複数連続し
てなり、各左右線状中心投影画像は、左右経路上におけ
る各左右細長部に対応する位置から取得した画像データ
であるものとすることが望ましい。
(3-1) The analysis system of (3) is used to obtain left and right two-dimensional affine image data of the target object.
Means for converting left and right two-dimensional image data respectively acquired from left and right paths apart from the target body, in which the target part of the left and right images is entirely or partially overlapped, into left and right two-dimensional affine image data, respectively The left and right two-dimensional image data is image data about a portion where a plurality of left and right elongated portions that are substantially linear on the target body with respect to the left and right paths are continuous in parallel in the direction of the left and right paths, A plurality of substantially linear left and right linear center projected images are continuously formed in parallel in directions corresponding to the directions of the left and right paths, respectively, and each left and right linear center projected image is formed on each of the left and right elongated portions on the left and right paths. It is desirable that the image data is obtained from the corresponding position.

【0029】上記(1-1)と同様に、中心投影画像をその
まま用いて解析する場合に通常必要な画角よりも小さい
画角の左右二次元画像データを変換して得られる左右二
次元アッフィン画像データを用いて、精度良く三次元モ
デル空間を形成することが可能であり、三次元モデル空
間を形成するには、左右二次元画像についての鉛直傾斜
角と画面距離の近似値があればよい。
Similarly to the above (1-1), when analyzing using the center projected image as it is, a right and left two-dimensional affine obtained by converting left and right two-dimensional image data having an angle of view smaller than a normally required angle of view. It is possible to form a three-dimensional model space with high accuracy using image data, and to form a three-dimensional model space, it is only necessary to have an approximate value of the vertical tilt angle and the screen distance for left and right two-dimensional images. .

【0030】(3-2) (3)及び(3-1)の解析システムは、
上記三次元モデル空間と対象体の三次元空間との間の三
次元アッフィン変換のパラメータを、左右二次元アッフ
ィン画像データの共面条件及び対象体における左右二次
元アッフィン画像データに重複する4基準点の座標デー
タにより決定(標定)する手段を有するものとすること
ができる。
(3-2) The analysis system of (3) and (3-1)
The parameters of the three-dimensional affine transformation between the three-dimensional model space and the three-dimensional space of the object are defined by coplanar conditions of the left and right two-dimensional affine image data and four reference points overlapping the left and right two-dimensional affine image data of the object. Means for determining (orienting) based on the above coordinate data.

【0031】これにより、(1-2)と同様に、得られた三
次元モデル空間を対象体の三次元空間に変換することに
よって、対象体についての左右二次元アッフィン画像デ
ータから対象体の三次元座標データを得ることができ
る。この場合、繰り返し計算により安定的に精度良く解
を得ることが可能である。
By transforming the obtained three-dimensional model space into the three-dimensional space of the target object in the same manner as (1-2), the three-dimensional Original coordinate data can be obtained. In this case, it is possible to obtain a stable and accurate solution by iterative calculation.

【0032】(3-3) (3)、(3-1)及び(3-2)の解析システ
ムは、上記(3)により得られる隣接する三次元モデル空
間であって、両三次元モデル空間を形成するための左二
次元アッフィン画像同士及び右二次元アッフィン画像同
士がそれぞれ部分的に隣接重複するものについて、前記
両三次元モデル空間の間の三次元アッフィン変換のパラ
メータ決定(標定)する手段を備えるものとすることが
できる。
(3-3) The analysis system of (3), (3-1) and (3-2) is an adjacent three-dimensional model space obtained by the above (3). Means for determining (orienting) a parameter of a three-dimensional affine transformation between the two three-dimensional model spaces for an image in which a left two-dimensional affine image and a right two-dimensional affine image partially overlap each other. May be provided.

【0033】これにより、上記(2)と同様に、隣接三次
元モデル空間の間の三次元アッフィン変換によって、両
三次元モデル空間を接続することができる。
Thus, as in the case of the above (2), both three-dimensional model spaces can be connected by three-dimensional affine transformation between adjacent three-dimensional model spaces.

【0034】(4) 本発明の三次元対象体画像解析プロ
グラムを記録したコンピュータ読み取り可能な記録媒体
は、その三次元対象体画像解析プログラムが、対象体か
ら離れた左右経路において得られる左右二次元アッフィ
ン画像データであってこの両画像が対象とする部分が全
部又は部分的に重複するものと、前記対象体の三次元座
標との間に、二次元アッフィン変換が前記左右二次元ア
ッフィン画像データにおける重複部の全てにおいて成立
するという条件により、その二次元アッフィン変換のパ
ラメータを決定することによって、三次元モデル空間を
形成する画像解析プログラムであって、前記左右二次元
アッフィン画像データが、対象体上においてほぼ線状を
なす左右細長部が左右経路の方向に平行状に複数連続し
た部分についての写像であるものである(請求項8)。
(4) A computer-readable recording medium on which the program for analyzing a three-dimensional object image according to the present invention is recorded is a computer-readable recording medium which stores the program for analyzing a three-dimensional object image on a right and left two-dimensional path obtained from a left and right path away from the object. Between the affine image data and the two or more three-dimensional coordinates of the object, the two-dimensional affine transformation between the left and right two-dimensional affine image data is performed between the two or all three-dimensional coordinates of the object. An image analysis program for forming a three-dimensional model space by determining the parameters of the two-dimensional affine transformation under the condition that the conditions are satisfied in all of the overlapping portions, wherein the left and right two-dimensional affine image data is Of a part where the left and right elongated parts, which are almost linear in shape, are continuous in parallel in the direction of the left and right paths (Claim 8).

【0035】この記録媒体に記録したプログラムによ
り、上記(1)と同様に、対象体についての左右二次元ア
ッフィン画像データから、コンピュータに前記二次元ア
ッフィン変換のパラメータを算出させ、精度良く三次元
モデル空間を形成することが可能である。
According to the program recorded on the recording medium, the computer calculates the two-dimensional affine transformation parameters from the left and right two-dimensional affine image data of the target object in the same manner as in the above (1), and accurately calculates the three-dimensional model. It is possible to form a space.

【0036】(4-1) (4)の三次元対象体画像解析プログ
ラムを記録したコンピュータ読み取り可能な記録媒体に
おける三次元対象体画像解析プログラムは、対象体につ
いての左右二次元アッフィン画像データを得るために、
対象体から離れた左右経路上からそれぞれ取得した左右
二次元画像データであってその左右画像が対象とする部
分が全部又は部分的に重複するものを、それぞれ左右二
次元アッフィン画像データに変換する手順を有し、前記
左右二次元画像データは、前記左右経路に対し対象体上
においてほぼ線状をなす左右細長部が左右経路の方向に
平行状に複数連続した部分についての画像データであっ
て、ほぼ線状をなす左右線状中心投影画像がそれぞれ前
記左右経路の方向に対応した方向に平行状に複数連続し
てなり、各左右線状中心投影画像は、左右経路上におけ
る各左右細長部に対応する位置から取得した画像データ
であるものとすることが望ましい。
(4-1) The three-dimensional object image analysis program on the computer-readable recording medium that stores the three-dimensional object image analysis program of (4) obtains left-right two-dimensional affine image data of the object. for,
A procedure for converting left and right two-dimensional image data obtained from each of the left and right paths apart from the target body, in which the target part of the left and right images is entirely or partially overlapped, into left and right two-dimensional affine image data, respectively. The left and right two-dimensional image data is image data about a portion where a plurality of left and right elongated portions that are substantially linear on the target body with respect to the left and right paths are continuous in parallel in the direction of the left and right paths, A plurality of substantially linear left and right linear center projected images are continuously formed in parallel in directions corresponding to the directions of the left and right paths, respectively, and each left and right linear center projected image is formed on each of the left and right elongated portions on the left and right paths. It is desirable that the image data is obtained from the corresponding position.

【0037】上記(1-1)と同様に、中心投影画像をその
まま用いて解析する場合に通常必要な画角よりも小さい
画角の左右二次元画像データを変換して得られる左右二
次元アッフィン画像データを用いて、精度良く三次元モ
デル空間を形成することが可能であり、三次元モデル空
間を形成するには、左右二次元画像についての鉛直傾斜
角と画面距離の近似値があればよい。
Similarly to the above (1-1), when analyzing using the center projection image as it is, the left and right two-dimensional affine obtained by converting the left and right two-dimensional image data having an angle of view smaller than the angle of view normally required. It is possible to form a three-dimensional model space with high accuracy using image data, and to form a three-dimensional model space, it is only necessary to have an approximate value of the vertical tilt angle and the screen distance for left and right two-dimensional images. .

【0038】(4-2) (4)及び(4-1)の三次元対象体画像
解析プログラムを記録したコンピュータ読み取り可能な
記録媒体における三次元対象体画像解析プログラムは、
上記三次元モデル空間と対象体の三次元空間との間の三
次元アッフィン変換のパラメータを、左右二次元アッフ
ィン画像データの共面条件及び対象体における左右二次
元アッフィン画像データに重複する4基準点の座標デー
タにより決定(標定)する手順を有するものとすること
ができる。
(4-2) The three-dimensional object image analysis program on a computer-readable recording medium that stores the three-dimensional object image analysis program of (4) and (4-1)
The parameters of the three-dimensional affine transformation between the three-dimensional model space and the three-dimensional space of the object are defined by coplanar conditions of the left and right two-dimensional affine image data and four reference points overlapping the left and right two-dimensional affine image data of the object. May be determined (oriented) based on the coordinate data.

【0039】これにより、(1-2)と同様に、得られた三
次元モデル空間を対象体の三次元空間に変換することに
よって、対象体についての左右二次元アッフィン画像デ
ータから対象体の三次元座標データを得ることができ
る。この場合、繰り返し計算により安定的に精度良く解
を得ることが可能である。
As a result, similarly to (1-2), the obtained three-dimensional model space is converted into the three-dimensional space of the target object, and the three-dimensional Original coordinate data can be obtained. In this case, it is possible to obtain a stable and accurate solution by iterative calculation.

【0040】(4-3) (4)、(4-1)及び(4-2)の三次元対象
体画像解析プログラムを記録したコンピュータ読み取り
可能な記録媒体における三次元対象体画像解析プログラ
ムは、上記(4)により得られる隣接する三次元モデル空
間であって、両三次元モデル空間を形成するための左二
次元アッフィン画像同士及び右二次元アッフィン画像同
士がそれぞれ部分的に隣接重複するものについて、前記
両三次元モデル空間の間の三次元アッフィン変換のパラ
メータ決定(標定)する手順を備えるものとすることが
できる。
(4-3) The three-dimensional object image analysis program on a computer-readable recording medium storing the three-dimensional object image analysis program of (4), (4-1) and (4-2) Regarding the adjacent three-dimensional model space obtained by the above (4), the left two-dimensional affine images and the right two-dimensional affine images for forming both three-dimensional model spaces partially overlap each other. , A procedure for determining (orienting) the parameters of the three-dimensional affine transformation between the two three-dimensional model spaces.

【0041】これにより、上記(2)と同様に、隣接三次
元モデル空間の間の三次元アッフィン変換によって、両
三次元モデル空間を接続することができる。
Thus, similarly to the above (2), both three-dimensional model spaces can be connected by three-dimensional affine transformation between adjacent three-dimensional model spaces.

【0042】[0042]

【発明の実施の形態】本発明の実施の形態を説明する。 [1] 左右二次元画像データは、例えば、対象体から離
れた直線又は曲線(例えばほぼ直線状である曲線)を構
成する左経路(例えば図1におけるFL)及び右経路
(例えば図1におけるFR)上の各位置L乃至L
乃至Rから、対象体(例えば図1におけるOP。
但し、通常の場合、このような平坦面よりも、起伏のあ
る面を構成するもの(地形等)を対象とすることが多
い。)上において左右経路に対しそれぞれねじれの位置
にあるほぼ線状をなす左右細長部P乃至P(左右細
長部P乃至Pは左右経路の方向に平行状に連続して
いる。図1の場合、左右の細長部は同一、すなわち全部
重複するものとして描かれているが、一部重複であって
も良い。また、通常の場合、細長部の長さと幅の比は、
例えば数千乃至数万対1程度とすることができる。左右
経路に対し左右細長部は、通常の場合、ねじれの位置に
ある。)を線状に走査して得られる左右線状中心投影画
像を、左経路及び右経路上をそれぞれ移動しつつ各経路
の方向に平行に連続取得することにより得ることができ
る。各経路に対し走査方向がなす角度、画角(例えば数
度以内の画角)、経路上の走査を行う位置(L乃至L
、R乃至R)とその位置から走査される線状走査
対象部(ほぼ線状をなす左又は右細長部P乃至P
の両者を含む平面(例えばPを直線とみなして底辺と
しL を頂点とする三角形を含む平面)と経路(FL又
はFR)とがなす角度(90度の場合直下視のスキャニ
ング画像となり、90度以外であって線状走査対象部が
走査を行う位置よりも前方に位置する場合は前視のスキ
ャニング画像、後方に位置する場合は後視のスキャニン
グ画像となる。前視、直下視、後視の何れでも可能であ
る。)、及び、経路上の走査を行う位置とその位置から
走査される線状走査対象部との位置関係は、それぞれ実
質上一定とすることができる。
Embodiments of the present invention will be described. [1] The left and right two-dimensional image data is separated from the object, for example.
A straight line or curve (e.g., a substantially linear curve)
Left path (eg, FL in FIG. 1) and right path
(Eg, FR in FIG. 1)1Or L5,
R1Or R5From the object (eg, OP in FIG. 1).
However, in the normal case, it is more uneven than such a flat surface.
Often constitutes a surface (terrain, etc.)
No. ) The position of the twist on the left and right paths above
Left and right elongated part P that is almost linear1Or P5(Left and right
Long section P1Or P5Is continuously parallel to the direction of the left and right path
I have. In the case of FIG. 1, the left and right elongated portions are the same, that is, all
It is drawn as overlapping, but partially overlapping
Is also good. Also, in the normal case, the ratio of the length and width of the slender part is
For example, it can be set to several thousands to several tens of thousands. Left and right
The left and right slender parts are usually twisted to the path.
is there. ) Linearly scanned left and right linear center projection image
While moving the image on the left route and the right route,
Can be obtained by continuous acquisition parallel to the direction of
You. The angle, angle of view (eg, number)
(Angle of view within degrees), scanning position on the path (L1Or L
5, R1Or R5) And linear scanning from that position
Target part (substantially linear left or right slender part P1Or P5)
(For example, P1As a straight line
L 1A plane including a triangle whose vertex is a vertex) and a path (FL or
Is the angle formed by FR (90 degrees)
Image that is not 90 ° and the linear scanning target portion is
If it is located ahead of the scanning position,
Scanning image, backward scanning if located behind
Image. Any of foresight, nadir and backsight is possible
You. ), And the scanning position on the path and the position
The positional relationship with the scanned linear scanning target part is
It can be qualitatively constant.

【0043】より具体的には、例えば、人工衛星の飛行
経路(左右経路、例えば図1におけるFL)に対し一定
角度(好ましくは90度又はなるべく90度に近い角
度、例えば70度乃至90度)をなす地表面走査方向に
おいて、その人工衛星に搭載したラインスキャナにより
地表面を走査することにより左右何れかの線状中心投影
画像データを得ることができる。その場合、線状中心投
影画像の画角(例えば数度以内の画角)、飛行経路上の
走査を行う位置とその位置から走査される地表面におけ
る線状走査対象部(ほぼ線状をなす左又は右細長部)の
両者を含む平面と飛行経路とがなす角度、及び、飛行経
路上の走査を行う位置とその位置から走査される線状走
査対象部との位置関係は、それぞれ実質上一定である。
More specifically, for example, a fixed angle (preferably 90 degrees or as close as possible to 90 degrees, for example, 70 to 90 degrees) with respect to the flight path of the artificial satellite (left-right path, for example, FL in FIG. 1). By scanning the ground surface with a line scanner mounted on the artificial satellite in the ground surface scanning direction, the linear center projected image data on either the left or right can be obtained. In this case, the angle of view of the linear center projected image (for example, the angle of view within several degrees), the scanning position on the flight path, and the linear scanning target portion (substantially linear) on the ground surface scanned from that position The angle formed by the plane including both the left and right elongated portions) and the flight path, and the positional relationship between the scanning position on the flight path and the linear scanning target portion scanned from that position are substantially the same. It is constant.

【0044】飛行方向に平行に地表面における線状走査
対象部が連続するように、人工衛星の進行に伴い走査を
繰り返すことにより、連続する線状走査対象部にそれぞ
れ対応する線状中心投影画像を飛行方向に対応した方向
に平行状に連続取得して左右何れかの二次元画像データ
を得ることができる。飛行経路上で前記走査を行った位
置同士の位置関係と、それぞれの位置から走査された地
表面における各線状走査対象部同士の位置関係は、それ
ぞれ中心投影とアッフィン投影で表される位置関係を座
標変換することを可能にしている。
The scanning is repeated with the progress of the artificial satellite so that the linear scanning target portions on the ground surface are continuous in parallel with the flight direction, so that the linear center projection images respectively corresponding to the continuous linear scanning target portions are obtained. Can be continuously obtained in parallel with the direction corresponding to the flight direction to obtain either left or right two-dimensional image data. The positional relationship between the positions where the scanning was performed on the flight path, and the positional relationship between the respective linear scanning target portions on the ground surface scanned from the respective positions, the positional relationship represented by the center projection and the affine projection, respectively. It enables coordinate transformation.

【0045】例えば連続した経路における一部重複した
異なる区間において、又は別個の経路において、上記の
ような二次元画像データを複数得ることにより、例えば
第1乃至第nの各左二次元画像データ又は右二次元画像
データが得られる。また、飛行経路を変えて、又は別の
飛行経路の別の人工衛星に搭載したラインスキャナによ
り、同様に地表面を走査することにより、左右のうち他
方の第1乃至第nの各画像データが得られる。第1乃至
第n左経路及び第1乃第n右経路は、それぞれ人工衛星
の飛行曲線等の一定の直線又は曲線に沿うものとするこ
とができる。
For example, by obtaining a plurality of two-dimensional image data as described above in a partially overlapping different section of a continuous path or in a separate path, for example, each of the first to n-th left two-dimensional image data or Right two-dimensional image data is obtained. Also, by changing the flight path or by scanning the ground surface in the same way by a line scanner mounted on another satellite on another flight path, the first to nth image data on the other of the left and right can be obtained. can get. Each of the first to n-th left paths and the first to n-th right paths can be along a certain straight line or curve such as a flight curve of an artificial satellite.

【0046】各画像同士に必要な重複は、飛行経路と撮
影方向と撮影(走査)タイミングを適切に設定すること
により実現し得る。なお、各線状中心投影画像の撮影
は、所要画角範囲を一定方向に走査するのでなく、プッ
シュブルーム方式のラインスキャナのように、所要の画
角について同時に行うことも可能である。ラインスキャ
ナやその他の左右画像データを得るための装置として
は、例えばCCD[ChargeCoupled Device]等の撮像素子
を用いたものを利用することができる。CCDラインス
キャナの場合、例えば1列×数千乃至数万以上の個数の
画素からなるものとすることができるほか、数列×数千
乃至数万以上の個数の画素からなるものとすることも可
能である。
The overlap required for each image can be realized by appropriately setting the flight path, the photographing direction, and the photographing (scanning) timing. It should be noted that the photographing of each linear center projected image can be performed simultaneously for a required angle of view, such as a push-bloom type line scanner, instead of scanning the required angle of view range in a fixed direction. As a line scanner or other device for obtaining left and right image data, for example, a device using an image pickup device such as a CCD [Charge Coupled Device] can be used. In the case of a CCD line scanner, for example, it can be composed of one column × thousands to tens of thousands or more pixels, and can be composed of several columns × several thousands to tens of thousands or more pixels. It is.

【0047】本発明における対象体は、一般的には地形
であるが、それ以外のものであってもよい。
In the present invention, the target object is generally a terrain, but may be another object.

【0048】左経路及び右経路における左及び右は、対
象体に対する位置関係が異なることを示すものであり、
必ずしも両者が左右の位置関係にあることを意味するも
のではない。他の用語における左及び右についても、必
ずしも両者が左右の位置関係にあることを意味するもの
ではない。
The left and right sides of the left route and the right route indicate that the positional relationship with respect to the object is different.
It does not necessarily mean that they are in a left-right positional relationship. The terms left and right in other terms do not necessarily mean that they are in a left-right positional relationship.

【0049】[2] 上記二次元画像データの二次元アッ
フィン画像データへの変換は、例えば次のように行うこ
とができる。例として、人工衛星に搭載されたCCDカ
メラにより地表面(対象体)についての二次元画像デー
タを得る場合を挙げる。
[2] Conversion of the two-dimensional image data into two-dimensional affine image data can be performed, for example, as follows. As an example, a case where two-dimensional image data of the ground surface (object) is obtained by a CCD camera mounted on an artificial satellite will be described.

【0050】地表面が平坦であり、その二次元画像が、
地表面に対するCCDカメラの飛行方向回りの回転角が
ω、飛行方向に直交する水平方向回りの回転角がφであ
る状態で撮影されたものとする。
The ground surface is flat, and its two-dimensional image is
It is assumed that the image is taken in a state where the rotation angle of the CCD camera around the flight direction with respect to the ground surface is ω, and the rotation angle around the horizontal direction orthogonal to the flight direction is φ.

【0051】図2に示されるように、基準座標系(X',
Y',Z')を、前記画像の投影中心を原点としX'-Y'平面が
画像面の大きさに縮小された地表面に平行である右手系
のデカルト直交座標系とする。更に、前記画像は、その
主点が画像面の大きさに縮小された地表面上に位置する
状態でその画像面の大きさに縮小された地表面に交差す
るものとする。
As shown in FIG. 2, the reference coordinate system (X ′,
Y ′, Z ′) is a right-handed Cartesian rectangular coordinate system whose origin is the projection center of the image and whose X′-Y ′ plane is parallel to the ground surface reduced to the size of the image plane. Further, it is assumed that the image intersects the ground surface reduced to the size of the image surface with its principal point located on the ground surface reduced to the size of the image surface.

【0052】すると、前記二次元画像上の点p(x,y)の三
次元座標(X'p,Y'p,Z'p)は、基準座標系において次式(1)
で表される。
Then, the three-dimensional coordinates (X ′ p , Y ′ p , Z ′ p ) of the point p (x, y) on the two-dimensional image are expressed by the following equation (1) in the reference coordinate system.
It is represented by

【0053】[0053]

【数1】 (Equation 1)

【0054】式(1)中、cは前記画像の画面距離であ
る。
In the equation (1), c is the screen distance of the image.

【0055】また、前記二次元画像上の主点Hは、前記
基準座標系において次式(2)で表される。
The principal point H on the two-dimensional image is expressed by the following equation (2) in the reference coordinate system.

【0056】[0056]

【数2】 (Equation 2)

【0057】更に、前記pと投影中心を通る光線Further, a ray passing through the p and the projection center

【0058】[0058]

【数3】 が画像面の大きさに縮小された地表面に交差する点を(Equation 3) Crosses the ground surface reduced to the size of the image plane

【0059】[0059]

【数4】 とすると、この点の三次元座標は次式(3)(Equation 4) Then, the three-dimensional coordinates of this point are given by the following equation (3)

【0060】[0060]

【数5】 で表される。(Equation 5) It is represented by

【0061】画像面の大きさに縮小された地表面上の点A point on the ground surface reduced to the size of the image plane

【0062】[0062]

【数6】 を、前記画像についての座標系(x,y,z)において観察す
ると、二次元アッフィン画像における対応点pa(xa,ya)
は、下記式(4)で表される。
(Equation 6) Are observed in the coordinate system (x, y, z) of the image, and the corresponding point p a (x a , y a ) in the two-dimensional affine image
Is represented by the following equation (4).

【0063】[0063]

【数7】 (Equation 7)

【0064】二次元画像データの二次元アッフィン画像
データへの変換においては、標定要素の近似値による誤
差と、撮影された地形(対象体)の高低差による誤差が
不可避である。
In the conversion of the two-dimensional image data into the two-dimensional affine image data, an error due to the approximate value of the orientation element and an error due to the height difference of the photographed terrain (object) are inevitable.

【0065】外部標定要素(ω,φ)及び内部標定要素
(xH,yH,c)は精度の良い近似値が得られるため、標定
要素の近似値による誤差は小さいものとすることができ
る。その場合、前者、すなわち標定要素の近似値による
誤差は、標定要素ai(i=1,...,8)において自動的に修
正される。
Since the external orientation element (ω, φ) and the internal orientation element (x H , y H , c) can be approximated with high accuracy, the error due to the approximate value of the orientation element can be small. . In that case, the former, that is, the error due to the approximate value of the orientation element, is automatically corrected in the orientation element a i (i = 1,..., 8).

【0066】後者による変換誤差は、高低差の増大に応
じて増大するものであり、地形上にほぼランダムに分布
する。この誤差の修正には、標定計算の反復が最も好適
である。地表面の位置の画像変換エラーは、画面距離の
変更により修正される。この画面距離の変更量は、直前
の反復計算において得られた平均高さとの差に対応す
る。
The conversion error due to the latter increases as the height difference increases, and is distributed almost randomly on the terrain. It is most preferable to correct the error by repeating the orientation calculation. The image conversion error at the position of the ground surface is corrected by changing the screen distance. This change amount of the screen distance corresponds to the difference from the average height obtained in the immediately preceding iterative calculation.

【0067】[3] 三次元対象空間における対象体上の
点P(X,Y,Z)と左右二次元アッフィン画像データとの
間の二次元アッフィン変換は、左二次元アッフィン画像
上の点Pの座標を(Xc1,Yc1)、右二次元アッフィン画
像上の点Pの座標を(Xc2,Yc2)とすると、例えば、次
式(5)・(6)で表される。
[3] The two-dimensional affine transformation between the point P (X, Y, Z) on the object in the three-dimensional object space and the left and right two-dimensional affine image data is performed by the point P on the left two-dimensional affine image. Is represented by (X c1 , Y c1 ) and the coordinate of the point P on the right two-dimensional affine image is represented by (X c2 , Y c2 ), for example, expressed by the following equations (5) and (6).

【0068】[0068]

【数8】 そのニ次元アッフィン変換が前記左右二次元アッフィン
画像データにおける重複部の全てにおいて成立するとい
う条件は、次式(7)で表される。
(Equation 8) The condition that the two-dimensional affine transformation is satisfied in all the overlapping portions in the left and right two-dimensional affine image data is expressed by the following equation (7).

【0069】[0069]

【数9】 (Equation 9)

【0070】この式は、左右画像データの対応する光線
の共面条件と等価である。
This equation is equivalent to the coplanar condition of the corresponding rays of the left and right image data.

【0071】式(7)の条件下で、二次元アッフィン変換
のパラメータ(a11-a18)及び(a21-a28)を標定して三
次元モデル空間(XM,YM,ZM)を形成することができる。 [4] 前記三次元モデル空間は、次式(8)で表される三次
元アッフィン変換により、対象体の三次元空間に変換す
ることができる。
Under the condition of the equation (7), the parameters (a 11 -a 18 ) and (a 21 -a 28 ) of the two-dimensional affine transformation are located and the three-dimensional model space (X M , Y M , Z M ) Can be formed. [4] The three-dimensional model space can be transformed into a three-dimensional space of the target object by a three-dimensional affine transformation represented by the following equation (8).

【0072】[0072]

【数10】 (Equation 10)

【0073】式(8)における12のパラメータのうち4
つは、左右二次元アッフィン画像データの重複部分につ
いての対応する光線の共面条件により決定(標定)する
ことができる。残りのパラメータは、対象体における4
基準点の座標データにより決定(標定)することができ
る。基準点の座標データによる3Dアッフィン変換パラ
メータの決定(標定)は、4基準点の座標データを、対
応する左右二次元アッフィン画像データに変換し、それ
を更に対応する三次元モデルにおけるデータに変換する
ことにより行うことができる。なお、基準点は4以上で
あってもよい。
Of the 12 parameters in equation (8), 4
First, it can be determined (orientated) by the co-planar conditions of the corresponding light rays with respect to the overlapping portion of the left and right two-dimensional affine image data. The remaining parameters are 4
It can be determined (oriented) based on the coordinate data of the reference point. In determining (orienting) the 3D affine transformation parameters based on the coordinate data of the reference points, the coordinate data of the four reference points are converted into corresponding left and right two-dimensional affine image data, which is further converted into data in the corresponding three-dimensional model. It can be done by doing. The number of reference points may be four or more.

【0074】対象体上の任意の点の座標は、例えば空中
三角測量の手法により特定することができる。
The coordinates of an arbitrary point on the object can be specified, for example, by the technique of aerial triangulation.

【0075】[5] 隣接する三次元モデル空間であっ
て、両三次元モデル空間を形成するための左二次元アッ
フィン画像同士及び右二次元アッフィン画像同士がそれ
ぞれ部分的に隣接重複するものについて、隣接重複する
一方の三次元モデル(XM2,YM2,ZM2)は、次式(9)で表さ
れる三次元アッフィン変換により、隣接重複する他方の
三次元モデル(XM1,YM1,ZM1)に変換することができ
る。
[5] Regarding adjacent three-dimensional model spaces in which left two-dimensional affine images and right two-dimensional affine images for forming both three-dimensional model spaces partially overlap each other, One adjacent three-dimensional model (X M2 , Y M2 , Z M2 ) is transformed into another adjacent three-dimensional model (X M1 , Y M1 , Y M1 , Z M1 ).

【0076】[0076]

【数11】 式(9)におけるパラメータは、第(m+1)三次元モデ
ルと第m三次元モデルの3Dアッフィン変換により標定
することができる。
[Equation 11] The parameters in equation (9) can be located by the 3D affine transformation of the (m + 1) th three-dimensional model and the mth three-dimensional model.

【0077】[0077]

【実施例】表1に示す条件で地表面についてのステレオ
人工衛星ラインスキャナ画像(SPOT画像)を得、その画
像データを用いて、本発明に従った標定と、他の5種の
方法による標定を行った。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A stereo satellite line scanner image (SPOT image) of the ground surface is obtained under the conditions shown in Table 1, and using the image data, the orientation according to the present invention and the orientation by the other five methods. Was done.

【0078】[0078]

【表1】 [Table 1]

【0079】5−10mレベルの標定精度を得るため
に、SPOT画像の点位置確認と測定は、ディジタルステレ
オ図化機上で1/4乃至1/10ピクセル単位で単眼及びステ
レオ視を用いて行った。標定計算に際しては、大誤差検
出法(デンマーク法)を用いて計測されたデータの洗浄
を行った。なお、検出された大誤差は、主に点同一位置
確認誤差であった。また、スキャナの飛行コースに沿っ
た外部標定パラメータの挙動を考察するために、Hofman
nによって数式化された線形補間を伴う標定画像ライン
ブロックを採用した。本発明に従った標定結果と、他の
5種の方法による標定結果を、表2に示す。
In order to obtain the orientation accuracy of the 5-10 m level, the confirmation and measurement of the point position of the SPOT image are performed on a digital stereo plotter in units of 1/4 to 1/10 pixels using monocular and stereo vision. Was. In the orientation calculation, the data measured using the large error detection method (Denmark method) was washed. Note that the detected large error was mainly a point identical position confirmation error. In order to consider the behavior of external orientation parameters along the flight course of the scanner, Hofman
An orientation image line block with linear interpolation formulated by n was adopted. Table 2 shows the orientation results according to the present invention and the orientation results by the other five methods.

【0080】前記5種の方法は、中心投影標定法に属す
る4つの方法、すなわち通常の中心投影標定法、拡
張したDLT中心投影標定法、時間変動する標定要素を
持つ一次元(1D)中心投影(射影変換)標定法、及び、
中心投影/平行投影標定法[スキャンライン(走査
線)において中心投影、衛星飛行方向において平行投
影]と、アッフィン標定法に属する時間変動する標定
要素を持つ一次元(1D)アッフィン変換標定法である。
一方、本発明における方法は、アッフィン標定法に属す
るもので、標定要素が時間変動しない二次元(2D)ア
ッフィン変換標定法である。
The above five methods are four methods belonging to the central projection orientation method, namely, a normal central projection orientation method, an extended DLT central projection orientation method, and a one-dimensional (1D) central projection having a time-varying orientation element. (Projective transformation) Orientation method, and
Central projection / parallel projection orientation method [center projection in scan line (scan line), parallel projection in satellite flight direction] and one-dimensional (1D) affine transformation orientation method with time-varying orientation elements belonging to affine orientation method .
On the other hand, the method according to the present invention belongs to the affine orientation method, and is a two-dimensional (2D) affine transformation orientation method in which the orientation elements do not vary with time.

【0081】[0081]

【表2】 [Table 2]

【0082】表2中、 GCP/NOIL:地上基準点数/ 画像上標定区域線数 Check Pts:地上検証点数、平面位置と標高 EEINI-RMS:検証点での初期値の標準偏差・平均二乗誤
差 σ0:計測された画像座標の先験的な標準偏差 AIECH:検証点での平均内的誤差(平均二乗誤差値、地
上基準点を含まない) AEECH:検証点での平均外的誤差(平均二乗誤差値、地
上基準点を含まない) である。前記乃至の標定法の特徴は下記の通りであ
る。
In Table 2, GCP / NOIL: Number of ground reference points / Number of orientation areas on the image Check Pts: Number of ground verification points, plane position and altitude EEINI-RMS: Standard deviation and mean square error σ of initial values at verification points 0 : a priori standard deviation of the measured image coordinates AIECH: mean internal error at the verification point (mean square error value, excluding ground control point) AEECH: mean external error at the verification point (mean square) Error values and ground control points are not included). The features of the above orientation methods are as follows.

【0083】中心投影標定法に属する乃至の標定法
では、センサの画角が広くなれば精度が向上する。大き
な比高差がある場合には、より厳密な数式化により適正
に処理することが可能である。
In the orientation methods belonging to the center projection orientation method, the accuracy is improved as the angle of view of the sensor is widened. When there is a large difference in the specific height, it is possible to properly process by more strict expression.

【0084】アッフィン標定法に属する及びの標定
法では、得られる精度は、センサの画角が狭くなるほど
よくなる。ある程度の起伏の大きい画像範囲について
は、中心投影からアッフィンへの変換を繰り返し方式に
より行うことにより精度が保証される。
In the orientation method belonging to the affine orientation method, the obtained accuracy is improved as the angle of view of the sensor becomes narrower. For an image range having a large degree of undulation to some extent, accuracy is assured by performing the conversion from the central projection to the affine in an iterative manner.

【0085】アッフィン標定法は中心投影標定法よりも
ずっと安定した解法を与え、同時に地上での検証点での
精度も高い。相当な起伏(例えば比高が1000m程
度)のある地形についての画像に関しても同様である。
The Affine orientation method provides a much more stable solution than the central projection orientation method, and at the same time, the accuracy at the verification points on the ground is high. The same applies to an image of a terrain having considerable undulations (for example, a specific height of about 1000 m).

【0086】通常の中心投影標定法 時間変動する標定要素を持つので近似値の取得はきわめ
て困難である。経験的には標定要素の最初の重み付けが
困難であり、これが幾何学的な弱さを示すものである。
従って解が不安定になる。画角が狭いこの例の場合、実
用的に最も問題があることがわかった。
Ordinary center projection orientation method It is extremely difficult to obtain an approximate value because of having a time-varying orientation element. Empirically, the initial weighting of the orientation elements is difficult, which indicates a geometric weakness.
Therefore, the solution becomes unstable. In this example where the angle of view is narrow, it has been found that there is the most practical problem.

【0087】拡張したDLT中心投影標定法 個別の標定要素の近似値が多くの場合必要とされないの
で、画像モデルが厳密性を欠く場合でも近似値の取得が
確実に行われる。ある程度の幾何学的な安定性が得られ
るが、地上基準点が少ししかない場合には精度の劣化が
生じるものと認められる。
Extended DLT Center Projection Orientation Method Since approximation values of individual orientation elements are not needed in many cases, acquisition of approximation values is ensured even when the image model lacks rigor. Although a certain degree of geometrical stability can be obtained, it is recognized that accuracy deteriorates when there are only a few ground control points.

【0088】時間変動する標定要素を持つ一次元(1
D)中心投影(射影変換)標定法 最小二乗三角測量調整計算(未知の標定要素と地上座標
値)の際のパラメータ近似値の取得は容易である。しか
しながら、モデル形成は確実性を欠き、安定した結果を
得るには、限られた数の標定画像線にあわせて地上基準
点の適正な配置と数量が必要である。この標定法は安定
性が問題となるので、写真測量での適用は常時実用的で
あるとは限らない。
One-dimensional (1) having a time-varying orientation element
D) Center projection (projection transformation) orientation method It is easy to obtain the approximate value of the parameter in the least square triangulation adjustment calculation (unknown orientation element and ground coordinate value). However, model formation lacks certainty, and in order to obtain a stable result, an appropriate arrangement and quantity of ground reference points are required in accordance with a limited number of orientation image lines. This orientation method is not always practically applicable to photogrammetry because stability is a problem.

【0089】中心投影/平行投影標定法[スキャンラ
イン(走査線)において中心投影、衛星飛行方向におい
て平行投影] 多くの画像取得状況では不必要な近似計算処理工程を用
いて、パラメータの近似値が容易に得られる。但し、こ
の標定法は数値的に不安定であることがある。
Center Projection / Parallel Projection Orientation Method [Center Projection in Scan Line (Scan Line), Parallel Projection in Satellite Flight Direction] In many image acquisition situations, an approximate calculation processing step which is unnecessary is used. Obtained easily. However, this orientation method may be numerically unstable.

【0090】時間変動する標定要素を持つ一次元(1
D)アッフィン変換標定法 センサの鉛直傾斜角と画面距離のよい近似値が、安定し
た標定の解を得るために必要である。中心投影からアッ
フィン投影への繰り返し変換で満足できる結果が得られ
るが、地形図作成を前提とすると、全域にわたって安定
してはいないと判断される。
One-dimensional (1) having a time-varying orientation element
D) Affine transformation orientation method A good approximation of the vertical tilt angle of the sensor and the screen distance is necessary to obtain a stable orientation solution. Satisfactory results can be obtained by iterative conversion from the center projection to the affine projection, but it is judged that the whole area is not stable on the assumption that a topographic map is created.

【0091】本発明による二次元(2D)アッフィン変
換標定法 投影変換のためには、鉛直傾斜角とセンサ画面距離につ
いての概略の近似値だけが必要である。これらの近似値
があれば、この標定法は幾何学的に非常に安定してお
り、パラメータの重量の変化にほとんど影響を受けない
で1次元アッフィンモデルよりももっと精度のよい標定
結果が得られる。中心投影からアッフィン投影への変換
での繰り返し解もまた満足できるものであり、ある程度
の地上基準点が二次元画像面にかたよりなく分布してい
れば、計画した精度が得られる。また、ステレオ観測も
できるので、写真測量地形図作成に好適であり、ステレ
オ衛星画像シーンから安定した三次元モデルを得る上で
最適である。
Two-Dimensional (2D) Affine Transform Orientation Method According to the Present Invention For projection transformation, only approximate approximations of vertical tilt angle and sensor screen distance are required. With these approximations, the orientation method is very stable geometrically and gives a more accurate orientation result than the one-dimensional affine model with little effect on changes in the weight of parameters. Can be The iterative solution in the transformation from central projection to affine projection is also satisfactory, and the planned accuracy is obtained if some ground control points are distributed in a two-dimensional image plane. Further, since stereo observation is also possible, it is suitable for creating a photogrammetric topographic map, and is most suitable for obtaining a stable three-dimensional model from a stereo satellite image scene.

【0092】[0092]

【発明の効果】本発明によれば、対象体についての左右
二次元アッフィン画像データから、精度良く三次元モデ
ル空間を形成することが可能である。左右中心投影画像
データを左右二次元アッフィン画像データに変換して用
いる場合、左右二次元画像についての鉛直傾斜角と画面
距離の近似値があれば、通常必要な画角よりも小さい画
角の二次元画像データを用いて精度良く三次元モデル空
間を形成することが可能であり、その画角が小さくなる
ほど精度をより良いものとすることができる。高低差の
大きい対象体の二次元画像データについては、繰り返し
計算により十分な精度で二次元アッフィン画像データに
変換することができる。そのため人工衛星搭載のライン
スキャナ等による高分解能画像のように画角が極めて小
さい画像の解析、それによる写真測量地形図作成、ディ
ジタルステレオ図化機の実現及びそれによるオルソ画像
作成等に最適である。
According to the present invention, it is possible to accurately form a three-dimensional model space from left-right two-dimensional affine image data of an object. When the left and right center projected image data is converted to left and right two-dimensional affine image data and used, if there is an approximate value of the vertical tilt angle and the screen distance for the left and right two-dimensional images, the angle of view smaller than the normally required angle of view is obtained. The three-dimensional model space can be formed with high accuracy using the two-dimensional image data, and the smaller the angle of view, the better the accuracy. The two-dimensional image data of an object having a large difference in height can be converted to two-dimensional affine image data with sufficient accuracy by repeated calculation. Therefore, it is ideal for analyzing images with extremely small angles of view, such as high-resolution images using a line scanner mounted on an artificial satellite, creating a photogrammetric topographic map, realizing a digital stereo plotter, and creating an orthorectified image using it. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】左右二次元画像撮影の概要を示す図である。FIG. 1 is a diagram showing an outline of right and left two-dimensional image capturing.

【図2】二次元画像データの二次元アッフィン画像デー
タへの変換についての説明図である。
FIG. 2 is an explanatory diagram of conversion of two-dimensional image data into two-dimensional affine image data.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA53 BB05 CC00 EE00 FF05 FF09 FF65 JJ02 JJ05 JJ08 JJ09 JJ25 MM06 MM22 PP01 QQ00 QQ28 5B050 BA02 BA04 BA09 EA27 EA28 5B057 AA14 BA02 BA11 CA12 CA16 CB13 CB16 CC01 CD14 CH01 CH11 DB02  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2F065 AA04 AA53 BB05 CC00 EE00 FF05 FF09 FF65 JJ02 JJ05 JJ08 JJ09 JJ25 MM06 MM22 PP01 QQ00 QQ28 5B050 BA02 BA04 BA09 EA27 EA28 5B057 AA16 CH02CB11 CA12

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】対象体から離れた左右経路において得られ
る左右二次元アッフィン画像データであってこの両画像
が対象とする部分が全部又は部分的に重複するものと、
前記対象体の三次元座標との間に、二次元アッフィン変
換が前記左右二次元アッフィン画像データにおける重複
部の全てにおいて成立するという条件により、その二次
元アッフィン変換のパラメータを決定することによっ
て、三次元モデル空間を形成する画像解析方法であっ
て、前記左右二次元アッフィン画像データが、対象体上
においてほぼ線状をなす左右細長部が左右経路の方向に
平行状に複数連続した部分についての写像である三次元
対象体画像解析方法。
1. Left and right two-dimensional affine image data obtained on a right and left path distant from a target object, wherein the target portions of the two images completely or partially overlap with each other.
By determining the parameters of the two-dimensional affine transformation between the three-dimensional coordinates of the object and the two-dimensional affine transformation under the condition that the two-dimensional affine transformation is established in all of the overlapping portions in the left and right two-dimensional affine image data, An image analysis method for forming an original model space, wherein the left and right two-dimensional affine image data is a mapping of a plurality of portions where left and right elongated portions that are substantially linear on a target body are continuous in parallel in the direction of the left and right path. Is a three-dimensional object image analysis method.
【請求項2】対象体についての左右二次元アッフィン画
像データを得るために、対象体から離れた左右経路上か
らそれぞれ取得した左右二次元画像データであってその
左右画像が対象とする部分が全部又は部分的に重複する
ものを、それぞれ左右二次元アッフィン画像データに変
換するステップを有し、前記左右二次元画像データは、
前記左右経路に対し対象体上においてほぼ線状をなす左
右細長部が左右経路の方向に平行状に複数連続した部分
についての画像データであって、ほぼ線状をなす左右線
状中心投影画像がそれぞれ前記左右経路の方向に対応し
た方向に平行状に複数連続してなり、各左右線状中心投
影画像は、左右経路上における各左右細長部に対応する
位置から取得した画像データである請求項1記載の三次
元対象体画像解析方法。
2. In order to obtain left and right two-dimensional affine image data of a target object, the right and left two-dimensional image data respectively obtained from left and right paths separated from the target object, and all of the target portions of the left and right images are included. Or partially overlapping, respectively, has a step of converting to left and right two-dimensional affine image data, the left and right two-dimensional image data,
The left and right elongated portions that are substantially linear on the target body with respect to the left and right paths are image data of a plurality of continuous portions parallel to the direction of the right and left paths, and the left and right linear center projected images that are substantially linear are formed. The left and right linear center projected images are image data acquired from positions corresponding to the left and right elongated portions on the left and right paths, respectively, wherein a plurality of the projections are continuously formed in parallel in directions corresponding to the directions of the right and left paths. 3. The method for analyzing a three-dimensional object image according to claim 1.
【請求項3】三次元モデル空間と対象体の三次元空間と
の間の三次元アッフィン変換のパラメータを、左右二次
元アッフィン画像データの共面条件及び対象体における
左右二次元アッフィン画像データに重複する4基準点の
座標データにより決定するステップを有する請求項1又
は2記載の三次元対象体画像解析方法。
3. A three-dimensional affine transformation parameter between the three-dimensional model space and the three-dimensional space of the object is overlapped with the coplanar condition of the left and right two-dimensional affine image data and the left and right two-dimensional affine image data of the object. 3. The three-dimensional object image analysis method according to claim 1, further comprising a step of determining the coordinate data based on the coordinate data of the four reference points.
【請求項4】対象体から離れた第1乃至第n左右経路
[nは正の整数]において得られる左右二次元アッフィ
ン画像データであって第1乃至第nの各左右二次元アッ
フィン画像が対象とする部分が全部又は部分的に重複す
ると共に第m左画像と第(m+1)左画像及び第m右画
像と第(m+1)右画像[mは(n−1)以下の任意の
正の整数]が対象とする部分が部分的に隣接重複するも
のと、前記対象体の三次元座標との間に、二次元アッフ
ィン変換が前記第m及び第(m+1)左右二次元アッフ
ィン画像データのそれぞれにおける左右重複部の全てに
おいて成立するという条件により、その二次元アッフィ
ン変換のパラメータを決定することによって、第m及び
第(m+1)三次元モデル空間を形成するステップと、
第m三次元モデル空間と第(m+1)三次元モデル空間
との間の三次元アッフィン変換のパラメータを決定する
ステップを備える画像解析方法であって、前記第1乃至
第nの各左右二次元アッフィン画像が、対象体上におい
てほぼ線状をなす第1乃至第n左右細長部が、それぞれ
左右経路の方向に平行状に複数連続した部分についての
写像である三次元対象体画像解析方法。
4. A left-right two-dimensional affine image data obtained in first to n-th left-right paths [n is a positive integer] distant from a target object, wherein each of the first to n-th left-right two-dimensional affine images is a target. Are completely or partially overlapped, and the m-th left image and the (m + 1) -th image and the m-th right image and the (m + 1) -th right image [m is any positive integer equal to or less than (n-1)] ] Between the three-dimensional coordinates of the object and the part where the target part is partially adjacent and overlapped, the two-dimensional affine transformation is performed in each of the m-th and (m + 1) left and right two-dimensional affine image data. Forming the m-th and (m + 1) th three-dimensional model spaces by determining the parameters of the two-dimensional affine transformation under the condition that the conditions are satisfied in all of the left and right overlapping parts;
An image analysis method comprising a step of determining a parameter of a three-dimensional affine transformation between an m-th three-dimensional model space and an (m + 1) th three-dimensional model space, wherein each of the first to n-th left-right two-dimensional affine A three-dimensional object image analysis method in which first to n-th left and right elongate portions, each of which is substantially linear on an object, are mappings of a plurality of continuous portions parallel to the directions of the right and left paths.
【請求項5】対象体についての第m及び第(m+1)左
右二次元アッフィン画像データを得るために、対象体か
ら離れた第1乃至第n左経路上及び第1乃第n右経路上
からそれぞれ取得した第1乃至第n左右二次元画像デー
タであって第1乃至第nの各左右画像が対象とする部分
が全部又は部分的に重複すると共に第m左画像と第(m
+1)左画像及び第m右画像と第(m+1)右画像が対
象とする部分が部分的に隣接重複するものを、それぞれ
第1乃至第n左右二次元アッフィン画像データに変換す
るステップを有し、前記第1乃至第n左右二次元画像デ
ータは、前記第1乃至第n左右経路に対し対象体上にお
いてほぼ線状をなす第1乃至第n左右細長部が、それぞ
れ第1乃至第n左右経路の方向に平行状に複数連続した
部分についての画像データであって、ほぼ線状をなす第
1乃至第nの左右線状中心投影画像がそれぞれ前記第1
乃至第n左右経路の方向に対応した方向に平行状に複数
連続してなり、第1乃至第nの各左右線状中心投影画像
は、それぞれ第1乃至第n左右経路上における第1乃至
第nの各左右細長部に対応する位置から取得したもので
ある請求項4記載の三次元対象体画像解析方法。
5. In order to obtain m-th and (m + 1) -th right and left two-dimensional affine image data of an object, from the first to n-th left paths and from the first to n-th right paths away from the object. The first to n-th left and right two-dimensional image data obtained respectively and the portions to be targeted by the first to n-th left and right images completely or partially overlap, and the m-th left image and the (m
+1) converting an image in which a target portion of the left image, the m-th right image, and the (m + 1) -th right image partially overlap each other into first to n-th left and right two-dimensional affine image data. The first to n-th left and right two-dimensional image data include first to n-th left and right elongated portions that are substantially linear on the target body with respect to the first to n-th left and right paths, respectively. First to n-th right and left linear center projected images, each of which is substantially linear, are image data of a plurality of continuous portions parallel to the direction of the path.
A plurality of first to nth left and right linear center projected images are respectively formed in parallel in a direction corresponding to the directions of the nth to nth right and left paths, and the first to nth left and right linear center projection images are respectively on the first to nth left and right paths. The three-dimensional object image analysis method according to claim 4, wherein the three-dimensional object image analysis method is obtained from a position corresponding to each of the left and right narrow portions of n.
【請求項6】第m及び第(m+1)三次元モデル空間と
対象体の三次元空間との間の三次元アッフィン変換のパ
ラメータを、第m及び第(m+1)左右二次元アッフィ
ン画像データの共面条件及び第m及び第(m+1)左右
二次元アッフィン画像データのそれぞれにおいて重複す
る対象体における4基準点の座標データにより決定する
ステップを有する請求項4又は5記載の三次元対象体画
像解析方法。
6. A three-dimensional affine transformation parameter between the m-th and (m + 1) th three-dimensional model space and the three-dimensional space of the object is determined by sharing the m-th and (m + 1) th left and right two-dimensional affine image data. The three-dimensional object image analysis method according to claim 4 or 5, further comprising the step of determining the surface conditions and coordinate data of four reference points of the object overlapping each other in each of the m-th and (m + 1) left and right two-dimensional affine image data. .
【請求項7】対象体から離れた左右経路において得られ
る左右二次元アッフィン画像データであってこの両画像
が対象とする部分が全部又は部分的に重複するものと、
前記対象体の三次元座標との間に、二次元アッフィン変
換が前記左右二次元アッフィン画像データにおける重複
部の全てにおいて成立するという条件により、その二次
元アッフィン変換のパラメータを決定することによっ
て、三次元モデル空間を形成する画像解析システムであ
って、前記左右二次元アッフィン画像データが、対象体
上においてほぼ線状をなす左右細長部が左右経路の方向
に平行状に複数連続した部分についての写像である三次
元対象体画像解析システム。
7. Two-dimensional left and right affine image data obtained on a right and left path distant from a target object, wherein the target portions of the two images overlap completely or partially.
By determining the parameters of the two-dimensional affine transformation between the three-dimensional coordinates of the object and the two-dimensional affine transformation under the condition that the two-dimensional affine transformation is established in all of the overlapping portions in the left and right two-dimensional affine image data, An image analysis system for forming an original model space, wherein the left and right two-dimensional affine image data are mapped on a plurality of portions in which a substantially linear left and right elongated portion that is substantially linear on a target body is continuous in parallel in the direction of the left and right path. Is a three-dimensional object image analysis system.
【請求項8】三次元対象体画像解析プログラムを記録し
たコンピュータ読み取り可能な記録媒体であって、その
三次元対象体画像解析プログラムが、対象体から離れた
左右経路において得られる左右二次元アッフィン画像デ
ータであってこの両画像が対象とする部分が全部又は部
分的に重複するものと、前記対象体の三次元座標との間
に、二次元アッフィン変換が前記左右二次元アッフィン
画像データにおける重複部の全てにおいて成立するとい
う条件により、その二次元アッフィン変換のパラメータ
を決定することによって、三次元モデル空間を形成する
画像解析プログラムであって、前記左右二次元アッフィ
ン画像データが、対象体上においてほぼ線状をなす左右
細長部が左右経路の方向に平行状に複数連続した部分に
ついての写像である三次元対象体画像解析プログラムを
記録したコンピュータ読み取り可能な記録媒体。
8. A computer-readable recording medium having recorded thereon a three-dimensional object image analysis program, the three-dimensional object image analysis program comprising a left-right two-dimensional affine image obtained on a left-right path away from the object. A two-dimensional affine transformation is performed between the left and right two-dimensional affine image data between the data and a part in which both images are completely or partially overlapped and the three-dimensional coordinates of the object. Is an image analysis program that forms a three-dimensional model space by determining the parameters of the two-dimensional affine transformation under the condition that the above conditions are satisfied. This is a mapping of a part where a plurality of linear left and right elongated parts are continuous in parallel to the direction of the left and right paths. Computer readable recording medium recording a three-dimensional object image analysis program.
JP13638299A 1999-05-17 1999-05-17 Three-dimensional object image analysis method and related technology Expired - Fee Related JP4262830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13638299A JP4262830B2 (en) 1999-05-17 1999-05-17 Three-dimensional object image analysis method and related technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13638299A JP4262830B2 (en) 1999-05-17 1999-05-17 Three-dimensional object image analysis method and related technology

Publications (2)

Publication Number Publication Date
JP2000331145A true JP2000331145A (en) 2000-11-30
JP4262830B2 JP4262830B2 (en) 2009-05-13

Family

ID=15173856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13638299A Expired - Fee Related JP4262830B2 (en) 1999-05-17 1999-05-17 Three-dimensional object image analysis method and related technology

Country Status (1)

Country Link
JP (1) JP4262830B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100965809B1 (en) 2002-03-19 2010-06-24 샤단호우진 니혼츄우코가타조우센코우교우카이 Sell plating developing method, shell plating manufacturing method, computer program for teaching the methods, and image recording medium for teaching the methods
JP2011183911A (en) * 2010-03-08 2011-09-22 Fujitsu Ltd Observation plan device, observation plan method, and observation plan program
JP2013002998A (en) * 2011-06-17 2013-01-07 Nagoya City Road surface image processing system and road surface image processing method
JP2014514539A (en) * 2011-03-23 2014-06-19 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for aligning at least a portion of a first image and at least a portion of a second image using a collinear transform warp function

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100965809B1 (en) 2002-03-19 2010-06-24 샤단호우진 니혼츄우코가타조우센코우교우카이 Sell plating developing method, shell plating manufacturing method, computer program for teaching the methods, and image recording medium for teaching the methods
JP2011183911A (en) * 2010-03-08 2011-09-22 Fujitsu Ltd Observation plan device, observation plan method, and observation plan program
JP2014514539A (en) * 2011-03-23 2014-06-19 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method for aligning at least a portion of a first image and at least a portion of a second image using a collinear transform warp function
US9213908B2 (en) 2011-03-23 2015-12-15 Metaio Gmbh Method for registering at least one part of a first and second image using a collineation warping function
JP2013002998A (en) * 2011-06-17 2013-01-07 Nagoya City Road surface image processing system and road surface image processing method

Also Published As

Publication number Publication date
JP4262830B2 (en) 2009-05-13

Similar Documents

Publication Publication Date Title
CN107316325B (en) Airborne laser point cloud and image registration fusion method based on image registration
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
Morgan Epipolar resampling of linear array scanner scenes
US8723953B2 (en) Generation of aerial images
EP2847741B1 (en) Camera scene fitting of real world scenes for camera pose determination
CN108474658B (en) Ground form detection method and system, unmanned aerial vehicle landing method and unmanned aerial vehicle
JP4181800B2 (en) Topographic measurement system, storage medium, and program using stereo image
CN110246221A (en) True orthophoto preparation method and device
JP2003519421A (en) Method for processing passive volume image of arbitrary aspect
Habib et al. Linear features in photogrammetry
CN108399631B (en) Scale invariance oblique image multi-view dense matching method
JP7502440B2 (en) Method for measuring the topography of an environment - Patents.com
Tjahjadi et al. Precise wide baseline stereo image matching for compact digital cameras
Gong et al. A detailed study about digital surface model generation using high resolution satellite stereo imagery
Hirschmüller et al. Stereo vision based reconstruction of huge urban areas from an airborne pushbroom camera (HRSC)
Sai et al. Geometric accuracy assessments of orthophoto production from uav aerial images
JP3808833B2 (en) Aerial photogrammetry
CN117665841B (en) Geographic space information acquisition mapping method and device
Elbahnasawy et al. Multi-sensor integration onboard a UAV-based mobile mapping system for agricultural management
CN112461204A (en) Method for satellite to dynamic flying target multi-view imaging combined calculation of navigation height
Grun et al. Automatic DTM generation from three-line-scanner (TLS) images
Wu Photogrammetry: 3-D from imagery
JP2000331145A (en) Method for analyzing image of three-dimensional object and its related technology
Rhee et al. Investigation of 1: 1,000 scale map generation by stereo plotting using UAV images
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180220

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees