JP5885974B2 - Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data - Google Patents

Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data Download PDF

Info

Publication number
JP5885974B2
JP5885974B2 JP2011199029A JP2011199029A JP5885974B2 JP 5885974 B2 JP5885974 B2 JP 5885974B2 JP 2011199029 A JP2011199029 A JP 2011199029A JP 2011199029 A JP2011199029 A JP 2011199029A JP 5885974 B2 JP5885974 B2 JP 5885974B2
Authority
JP
Japan
Prior art keywords
image data
feature point
aerial
photo image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011199029A
Other languages
Japanese (ja)
Other versions
JP2013061204A (en
Inventor
和夫 織田
和夫 織田
恭仁 新名
恭仁 新名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2011199029A priority Critical patent/JP5885974B2/en
Publication of JP2013061204A publication Critical patent/JP2013061204A/en
Application granted granted Critical
Publication of JP5885974B2 publication Critical patent/JP5885974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、空中測量において、航空機から地物を撮影した空中写真画像データから互いに対応する対応点を自動的に検出する空中写真画像データの対応点設定方法及び対応点設定装置並びに対応点設定プログラムに関する。   The present invention relates to an aerial photograph image data corresponding point setting method, corresponding point setting apparatus, and corresponding point setting program for automatically detecting corresponding points corresponding to each other from aerial photograph image data obtained by photographing a feature from an aircraft in aerial surveying. About.

従来、空中三角測量は、空中写真測量のために撮影した写真画像を撮影した位置と姿勢を精密に求める手法であり、図8に示すように、所定の高度で飛行する航空機から目標とする対象エリアの地物を隈なく撮影し、撮影した画像(空中写真画像データI)を画像処理することにより行われる。航空機による撮影は、飛行方向に連続して撮影される空中写真画像データIや、隣接する飛行コース1,2,3において撮影される空中写真画像データIの間で対応する点を計測し、空中写真画像データIに含まれる座標既知点の情報も併せてバンドル調整等のブロック調整方によって撮影した画像と地物の絶対的な位置関係を定めている。例えば、飛行方向に沿って連続して撮影される空中写真画像データは、互いに重複割合が60%以上となるように撮影され、異なる飛行コースにおいて撮影された空中写真画像データ同士は互いに重複割合が30%以上となるように撮影される。図9に示すように、撮影した空中写真画像データには、GPSによって計測された撮影位置とIMUによって計測された地物に対するカメラの姿勢との外部標定要素が紐付けされることが多いが、計測された外部標定要素では最終的に空中写真測量を行うには十分な精度を持たないため、画像の間で対応する点を計測し、空中三角測量を行う必要がある。そして、空中写真画像データの互いに重複する領域に含まれる共通対象物から抽出した特徴点同士が対応する対応点を求め、バンドル調整等のブロック調整法によって外部標定要素の同時調整計測を行うことで上記の計測された外部標定要素をさらに精密に決定する。このように精密に決定された外部標定要素を用いることにより、三角測量の原理に基づいて、互いに重複する空中写真画像データから地物の3次元空間内の位置を決定することが可能となる。   Conventionally, aerial triangulation is a technique for precisely obtaining the position and orientation at which a photographic image taken for aerial photogrammetry is taken. As shown in FIG. 8, a target object from an aircraft flying at a predetermined altitude is shown. This is done by photographing the features of the area without any problem and processing the photographed image (aerial photograph image data I). The shooting by the aircraft measures the corresponding points between the aerial photograph image data I continuously photographed in the flight direction and the aerial photograph image data I photographed in the adjacent flight courses 1, 2 and 3. The information of the coordinate known points included in the photographic image data I also defines the absolute positional relationship between the image and the feature photographed by the block adjustment method such as bundle adjustment. For example, aerial photograph image data continuously photographed along the flight direction are photographed so that the overlapping ratio is 60% or more, and aerial photograph image data photographed in different flight courses have a mutual overlapping ratio. Photographed to be 30% or more. As shown in FIG. 9, captured aerial image data is often associated with an external orientation element between a shooting position measured by GPS and a camera posture with respect to a feature measured by an IMU. Since the measured external orientation elements do not have sufficient accuracy to finally perform aerial photogrammetry, it is necessary to measure corresponding points between images and perform aerial triangulation. Then, by obtaining corresponding points corresponding to the feature points extracted from the common objects included in the overlapping areas of the aerial photograph image data, and performing simultaneous adjustment measurement of the external orientation elements by a block adjustment method such as bundle adjustment The measured external orientation element is determined more precisely. By using the external orientation elements determined precisely in this way, it is possible to determine the position of the feature in the three-dimensional space from the aerial photograph image data overlapping each other based on the principle of triangulation.

特開2003−323603号公報JP 2003-323603 A

しかしながら、飛行方向に沿って撮影したときのように、互いに重複する割合がある程度大きいときには空中写真画像データ同士の対応点を設定し易いが、異なる飛行コース同士で隣接するときの空中写真画像データのように重複する割合が小さいときには対応点の設定に困難さが生じ易い。即ち、空中写真画像データにおいて重複割合が大きいときには航空機の移動距離が小さいため撮影対象となる地物の見え方の変化が小さいが、重複割合が小さいときは航空機の移動距離が大きいため撮影対象となる地物の見え方の変化が大きくなり、同一の対象物であっても撮影によって取得された空中写真画像データでは見え方が大きく異なることで、同一の対象物から特徴点を抽出しても同一の地物であると認識されずに対応点として設定されない場合がある。また、異なる対象物から抽出された特徴点であるにも関わらず、特徴点の配置が似ていることで同一の地物として認識され、対応点として設定されてしまう場合がある。特に、類似する景色が広がる森林や、傾斜が大きい山岳部では、対象となる地物の見え方が直ちに変化してしまうため、自動的に対応点を設定することが困難となっている。
このように、自動的に対応点を設定することができない場合には、オペレータが目視により画像を比較することで、対応点を設定する必要があり、作業に熟練度と時間とが必要であった。
However, it is easy to set the corresponding points between the aerial photographic image data when the overlapping ratio is large to some extent as when taken along the flight direction, but the aerial photographic image data when adjacent in different flight courses As described above, when the overlapping ratio is small, it is easy to set the corresponding points. That is, in the aerial photograph image data, when the overlapping ratio is large, the movement distance of the aircraft is small, so the change in the appearance of the feature to be imaged is small, but when the overlapping ratio is small, the moving distance of the aircraft is large, Even if the same object is seen, the appearance of the aerial photo image data obtained by shooting is greatly different, so even if the feature point is extracted from the same object There are cases where the same feature is not recognized and is not set as a corresponding point. In addition, although the feature points are extracted from different objects, they may be recognized as the same feature and set as corresponding points because the arrangement of the feature points is similar. In particular, in a forest with a similar landscape or a mountainous area with a large slope, it is difficult to automatically set corresponding points because the appearance of the target feature changes immediately.
As described above, when the corresponding points cannot be automatically set, it is necessary for the operator to set the corresponding points by visually comparing the images, and the work requires skill and time. It was.

本発明は、本発明は上記課題を解決すべく、空中写真画像データ同士の対応点を精度良く自動で設定することを可能にする空中写真画像データの対応点設定方法及び対応点設定装置並びに対応点設定プログラムを提供する。   The present invention provides a corresponding point setting method, corresponding point setting apparatus, and corresponding point for aerial photo image data that enable automatic setting of corresponding points between aerial photo image data with high accuracy in order to solve the above problems. Provide a point setting program.

上記課題を解決するための空中写真画像データの対応点設定方法の第1の態様として、撮影位置と撮影姿勢とを含む外部標定要素が紐付けされ、互いに重複する領域において互いに共通する共通特徴点の座標位置が予め設定された第1空中写真画像データ及び第2空中写真画像データと、第1空中写真画像データ及び第2空中写真画像データが重複する割合よりも小さい割合で第1空中写真画像データ及び第2空中写真画像データに対して重複する第3空中写真画像データとから互いに共通する対応点を設定する空中写真画像データの対応点設定方法であって、第1空中写真画像データ及び第2空中写真画像データの共通特徴点の座標位置及び第1空中写真画像データ及び第2空中写真画像データを撮影したときの外部標定要素から三角測量の原理に基づいて共通特徴点の3次元空間における座標位置を算出するステップと、第3空中写真画像データを撮影したときの座標位置と、共通特徴点の3次元空間における座標位置とを結ぶ直線が第3空中写真画像データに交差する共通特徴点の第3空中写真画像データへの投影位置を算出するステップと、投影位置を含む所定の大きさの探索領域を第3空中写真画像データに設定するステップと、探索領域に対して共通特徴点をパターンマッチングし、マッチング率が閾値以上で最も高いマッチング率でマッチングしたときの探索領域における座標位置から投影位置までの位置ずれ量及び位置ずれ方向を算出し、誤差ベクトルとして設定するステップと、誤差ベクトルのうち最も多く頻出する最頻誤差ベクトルを検出するステップと、誤差ベクトルが最頻誤差ベクトルとなる位置の投影位置に最頻誤差ベクトルを加えた位置を共通特徴点に対応する対応点に設定するステップとを含む態様とした。
本態様によれば、予め位置関係が特定された第1空中写真画像データ及び第2空中写真画像データに共通の共通特徴点のカメラ座標上の座標位置と、第1空中写真画像データと第2空中写真画像データとを撮影したときの外部標定要素として記憶される3次元空間における撮影位置及び撮影姿勢の関係から三角測量の原理に基づいて共通特徴点の実際の3次元空間における座標位置を算出することができる。さらに、算出された共通特徴点の3次元空間における座標位置と、第3空中写真画像データを撮影したときの外部標定要素として記憶される3次元空間における撮影位置とを結ぶ直線が第3空中写真画像データと交差する共通特徴点の第3空中写真画像データへの投影位置を算出し、投影位置を含む探索領域を第3空中写真画像データに設定し、投影された共通特徴点により探索領域をパターンマッチングし、マッチング率が閾値以上でマッチングする点の中で最もマッチング率が高い探索領域における位置から投影位置までの位置ずれ量及び位置ずれ方向を算出して誤差ベクトルとして設定し、誤差ベクトルのうち最も多く頻出する最頻誤差ベクトルを検出して投影位置に最頻誤差ベクトルを加えることで、第3空中写真画像データ位置を共通特徴点に対応する対応点を算出することができる。
As a first aspect of the corresponding point setting method for aerial photo image data for solving the above-described problem, common feature points are common to external orientation elements including shooting positions and shooting postures, and are common to each other in overlapping areas. The first aerial photo image data and the second aerial photo image data, the first aerial photo image data and the second aerial photo image data having a predetermined coordinate position, and the first aerial photo image data at a rate smaller than the overlapping rate. Corresponding point setting method for aerial photo image data for setting corresponding points common to each other from the data and the third aerial photo image data overlapping with the second aerial photo image data, the first aerial photo image data and the first aerial photo image data 2. Triangulation from the coordinate position of the common feature points of the aerial photo image data and the external orientation elements when the first aerial photo image data and the second aerial photo image data are taken A step of calculating the coordinate position of the common feature point in the three-dimensional space based on the principle, a straight line connecting the coordinate position when the third aerial photograph image data is captured and the coordinate position of the common feature point in the three-dimensional space A step of calculating a projection position of the common feature point intersecting the third aerial photograph image data onto the third aerial photograph image data, and a search area having a predetermined size including the projection position are set in the third aerial photograph image data. Pattern matching is performed on common feature points for the step and the search area, and the amount of displacement and the direction of displacement from the coordinate position to the projection position in the search area when the matching rate is equal to or higher than the threshold and the highest matching rate is calculated. A step of setting as an error vector, a step of detecting the most frequent error vector among error vectors, Was embodiments comprising a step of vector is set to the corresponding point corresponding to the common feature point positions obtained by adding the most frequent error vector to the projection position of the position at which the most frequent error vector.
According to this aspect, the coordinate position on the camera coordinate of the common feature point common to the first aerial photograph image data and the second aerial photograph image data whose positional relationship is specified in advance, the first aerial photograph image data, and the second aerial photograph image data Based on the principle of triangulation, the actual coordinate position of the common feature point is calculated based on the principle of triangulation from the relationship between the shooting position and shooting attitude in the 3D space stored as an external orientation element when the aerial photo image data is shot. can do. Furthermore, a straight line connecting the calculated coordinate position of the common feature point in the three-dimensional space and the photographing position in the three-dimensional space stored as an external orientation element when the third aerial photograph image data is photographed is a third aerial photograph. The projection position of the common feature point intersecting with the image data on the third aerial photograph image data is calculated, the search area including the projection position is set as the third aerial photograph image data, and the search area is defined by the projected common feature point. Pattern matching is performed, and the amount of misalignment and the misalignment direction from the position in the search region where the matching rate is the highest among the matching points with the matching rate equal to or higher than the threshold to the projection position are calculated and set as the error vector. By detecting the most frequently occurring mode error vector and adding the mode error vector to the projection position, the third aerial photograph image data position is obtained. It is possible to calculate the corresponding point corresponding to the passing characteristic point.

また、上記課題を解決するための空中写真画像データの対応点設定方法の第2の態様として、共通特徴点は、第2空中写真画像データ及び第3空中写真画像データと重複する第1空中写真画像データの領域から所定の大きさの第1サンプル領域を抽出し、第1サンプル領域に対応する第2サンプル領域を第2空中写真画像データから特定するステップと、第1サンプル領域及び第2サンプル領域に表わされた地物の形状のうち特徴のある形状を特徴点抽出フィルタにより第1特徴点及び第2特徴点としてそれぞれ抽出し、抽出された第1特徴点を第2特徴点に対してパターンマッチングして第1特徴点に一致する第2特徴点を検出し、第1特徴点と第2特徴点とを共通特徴点に設定するステップとにより設定される態様とした。
本態様によれば、第2空中写真画像データと重複する第1空中写真画像データの領域から所定の大きさの第1サンプル領域を抽出し、第1サンプル領域に対応する第2サンプル領域を第2空中写真画像データから特定して得られた第1サンプル領域と第2サンプル領域に表わされた地物に対して、所定の特徴点抽出フィルタによって特徴点の位置を抽出し、第1サンプル領域において抽出された点を第1特徴点、第2サンプル領域において抽出された点を第2特徴点として設定し、第1サンプル領域及び第2サンプル領域に共通する共通特徴点を第1特徴点と第2特徴点とから検出することにより、第1空中写真画像データと第2空中写真画像データとの位置関係を特定することができる。
Further, as a second aspect of the corresponding point setting method of the aerial photo image data for solving the above-described problem, the common feature point is the first aerial photo overlapping the second aerial photo image data and the third aerial photo image data. Extracting a first sample area having a predetermined size from the area of the image data and identifying a second sample area corresponding to the first sample area from the second aerial photograph image data; and the first sample area and the second sample area A characteristic shape is extracted as a first feature point and a second feature point by a feature point extraction filter from the shape of the feature represented in the region, and the extracted first feature point is extracted from the second feature point. Then, the second feature point matching the first feature point is detected by pattern matching, and the first feature point and the second feature point are set as common feature points.
According to this aspect, the first sample region having a predetermined size is extracted from the region of the first aerial photo image data that overlaps with the second aerial photo image data, and the second sample region corresponding to the first sample region is extracted as the first sample region. (2) The feature points are extracted by a predetermined feature point extraction filter for the features represented in the first sample region and the second sample region obtained by specifying from the aerial photograph image data, and the first sample A point extracted in the region is set as a first feature point, a point extracted in the second sample region is set as a second feature point, and a common feature point common to the first sample region and the second sample region is set as the first feature point. And the second feature point, the positional relationship between the first aerial photo image data and the second aerial photo image data can be specified.

上記課題を解決するための空中写真画像データの対応点設定装置の第1の構成として、撮影位置と撮影姿勢とを含む外部標定要素が紐付けされ、互いに重複する領域において互いに共通する共通特徴点の座標位置が予め設定された第1空中写真画像データ及び第2空中写真画像データと、第1空中写真画像データ及び第2空中写真画像データが重複する割合よりも小さい割合で第1空中写真画像データ及び第2空中写真画像データに対して重複する第3空中写真画像データとから互いに共通する対応点を設定する空中写真画像データの対応点設定装置であって、第1空中写真画像データ及び第2空中写真画像データの共通特徴点の座標位置及び第1空中写真画像データ及び第2空中写真画像データを撮影したときの外部標定要素から三角測量の原理に基づいて共通特徴点の3次元空間における座標位置を算出する共通特徴点座標位置算出手段と、第3空中写真画像データを撮影したときの座標位置と、共通特徴点の3次元空間における座標位置とを結ぶ直線が第3空中写真画像データに交差する共通特徴点の第3空中写真画像データへの投影位置を算出する特徴点投影座標位置算出手段と、投影位置を含む所定の大きさの探索領域を第3空中写真画像データに設定する探索領域設定手段と、探索領域に対して共通特徴点をパターンマッチングし、マッチング率が閾値以上で最も高いマッチング率でマッチングしたときの探索領域における座標位置から投影位置までの位置ずれ量及び位置ずれ方向を算出し、誤差ベクトルとして設定する誤差ベクトル算出手段と、誤差ベクトルのうち最も多く頻出する最頻誤差ベクトルを検出する最頻誤差ベクトル検出手段と、誤差ベクトルが最頻誤差ベクトルとなる位置の投影位置に最頻誤差ベクトルを加えた位置を共通特徴点に対応する対応点に設定する対応点設定手段とを備える構成とした。
本構成によれば、上記第1の方法と同様の効果を得ることができる。
As a first configuration of the corresponding point setting device for aerial photo image data for solving the above-described problem, a common feature point common to each other in a region where external orientation elements including a shooting position and a shooting posture are linked and overlapped with each other. The first aerial photo image data and the second aerial photo image data, the first aerial photo image data and the second aerial photo image data having a predetermined coordinate position, and the first aerial photo image data at a rate smaller than the overlapping rate. An aerial photo image data corresponding point setting device for setting corresponding points common to each other from the data and the third aerial photo image data overlapping with the second aerial photo image data, the first aerial photo image data and the second aerial photo image data 2. Triangulation from the coordinate position of the common feature points of the aerial photo image data and the external orientation elements when the first aerial photo image data and the second aerial photo image data are taken Common feature point coordinate position calculating means for calculating the coordinate position of the common feature point in the three-dimensional space based on the principle, the coordinate position when the third aerial photograph image data is taken, and the coordinates of the common feature point in the three-dimensional space A feature point projection coordinate position calculation means for calculating a projection position on the third aerial photograph image data of a common feature point where a straight line connecting the positions intersects the third aerial photograph image data; and a predetermined size including the projection position The search area setting means for setting the search area to the third aerial photo image data, and the coordinates in the search area when the common feature point is pattern-matched to the search area and the matching ratio is equal to or higher than the threshold and the highest matching ratio is matched. An error vector calculation means for calculating a positional deviation amount and a positional deviation direction from the position to the projection position, and setting as an error vector; A mode error vector detecting means for detecting a mode error vector that appears frequently and a corresponding point corresponding to a common feature point at a position obtained by adding the mode error vector to the projection position where the error vector becomes the mode error vector And a corresponding point setting means for setting.
According to this configuration, the same effect as the first method can be obtained.

また、上記課題を解決するための空中写真画像データの対応点設定装置の第2の構成として、共通特徴点は、第2空中写真画像データと重複する第1空中写真画像データの領域から所定の大きさの第1サンプル領域を抽出し、第1サンプル領域に対応する第2サンプル領域を第2空中写真画像データから特定するサンプル領域設定手段と、第1サンプル領域及び第2サンプル領域に表わされた地物の形状のうち特徴のある形状を特徴点抽出フィルタにより第1特徴点及び第2特徴点としてそれぞれ抽出し、抽出された第1特徴点を第2特徴点に対してパターンマッチングして第1特徴点に一致する第2特徴点を検出し、第1特徴点と第2特徴点とを共通特徴点に設定する共通特徴点検出手段とにより設定される構成とした。
本構成によれば、上記第2の方法と同様の効果を得ることができる。
Further, as a second configuration of the aerial photo image data corresponding point setting device for solving the above-described problem, the common feature point is determined from a region of the first aerial photo image data overlapping with the second aerial photo image data. A sample area setting means for extracting a first sample area having a size and identifying a second sample area corresponding to the first sample area from the second aerial photograph image data, and representing the first sample area in the first sample area and the second sample area Of the shape of the extracted feature, a characteristic shape is extracted as a first feature point and a second feature point by a feature point extraction filter, and the extracted first feature point is pattern-matched to the second feature point. The second feature point that coincides with the first feature point is detected, and the first feature point and the second feature point are set by the common feature point detecting unit that sets the common feature point.
According to this configuration, the same effect as that of the second method can be obtained.

上記課題を解決するための空中写真画像データの対応点設定プログラムの態様として、請求項1又は請求項2記載の処理をコンピュータにより実行させる態様とした。
本態様によれば、上記第1の方法又は第2の方法と同様の効果を得ることができる。
As an aspect of the corresponding point setting program for aerial photo image data for solving the above-described problem, the process according to claim 1 or 2 is executed by a computer.
According to this aspect, the same effect as the first method or the second method can be obtained.

なお、上記発明の概要は、本発明の必要な全ての特徴を列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となり得る。   The summary of the invention does not list all necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

対応点設定装置の概略構成図である。It is a schematic block diagram of a corresponding point setting apparatus. サンプル領域において抽出された特徴点の一例を示す図である。It is a figure which shows an example of the feature point extracted in the sample area | region. 空中三角測量の概念図である。It is a conceptual diagram of aerial triangulation. 誤差ベクトルの算出を示す概念図である。It is a conceptual diagram which shows calculation of an error vector. 投影点から延長する誤差ベクトル群を示す図である。It is a figure which shows the error vector group extended from a projection point. 空中写真画像データとファイル番号を示す図である。It is a figure which shows aerial photograph image data and a file number. 対応点設定装置に記憶されたプログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the program memorize | stored in the corresponding point setting apparatus. 空中写真画像データの取得概念図である。It is an acquisition conceptual diagram of aerial photograph image data. 空中写真における幾何を示す図である。It is a figure which shows the geometry in an aerial photograph. 対応点設定装置の他の形態の概略構成図である。It is a schematic block diagram of the other form of a corresponding point setting apparatus.

以下、実施の形態を通じて本発明を詳説するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではなく、また、実施の形態の中で説明される特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described in detail through embodiments. However, the following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

実施形態1
図8に示すように、空中写真測量は、測量する対象エリアαを略均等な大きさの複数の領域δαに分け、各領域δαを航空機からカメラにより撮影し、撮影された空中写真を画像処理することで行われる。具体的には、図中の2点鎖線で示すような複数のコース1,2,3からなる飛行経路に沿って、所定の高度を保ちつつ飛行しながら空中から撮影される。コース1,2,3は、各コース1,2,3の延長方向を例えば東西とすれば、コース1,2,3の隣接方向がその垂直方向の南北となるように設定され、かつ、対象エリアαを必要最小限の撮影回数で撮影するように設定される。空中写真は、各コース1,2,3に沿う方向には撮影範囲が互いに約60%以上で重複するように撮影し、コース1,2或いは2,3のように異なるコース1,2,3に隣接する方向には、撮影範囲が約30%以上で重複するように撮影される。本実施形態では、各コース1,2,3の延長方向を例えば東西、コース1,2,3の隣接方向がその垂直方向の南北として設定したが、測量する対象エリアαの形状に応じて、対象エリアαを効率良く撮影できるようにコース及びコースの隣接方向を設定すれば良い。
Embodiment 1
As shown in FIG. 8, in the aerial photogrammetry, a target area α to be surveyed is divided into a plurality of regions δα having substantially equal sizes, each region δα is photographed by a camera from an aircraft, and the photographed aerial photos are processed by image processing. It is done by doing. Specifically, the image is taken from the air while flying at a predetermined altitude along a flight path composed of a plurality of courses 1, 2, and 3 as indicated by a two-dot chain line in the drawing. Courses 1, 2, and 3 are set so that the adjacent direction of courses 1, 2, and 3 is north-south in the vertical direction if the extension direction of each course 1, 2, and 3 is, for example, east-west. The area α is set to be photographed with the minimum necessary number of times. The aerial photographs are taken so that the shooting ranges overlap each other in the directions along the courses 1, 2, 3 by about 60% or more. In the direction adjacent to the image, the images are photographed so that the photographing ranges overlap at about 30% or more. In this embodiment, the extension directions of the courses 1, 2, and 3 are set as, for example, east and west, and the adjacent directions of the courses 1, 2, and 3 are set as the north and south in the vertical direction, but depending on the shape of the target area α to be surveyed, The course and the adjacent direction of the course may be set so that the target area α can be efficiently photographed.

図9は、空中写真の撮影と撮影位置及び撮影姿勢の幾何関係を示す図である。
航空機には、撮影位置Oiと撮影姿勢を計測するGPS/IMU装置と、地物の撮影を行うカメラが搭載される。GPSアンテナは、空中写真測量の規定に基づいて航空機の所定の位置に取り付けられ、飛行時の緯度、経度及び高度をGPS衛星から取得する。また、5個以上のGPS衛星を捕捉可能な時間帯に撮影することで撮影位置Oiを精度良く取得することができる。なお、撮影位置Oiの添字iは、後述の空中写真画像データの番号である。本実施形態では、i=1〜21として説明する(図6参照)。
図9に示すように、GPSによって取得される撮影位置Oiの座標位置(Xi,Yi,Zi)は、地上座標系で表わされる。地上座標系は、例えば東西方向(緯線方向)をX軸、南北方向(経線方向)をY軸、地表からの高さ方向をZ軸としてデカルト座標系で表わされる。具体的には、地心座標系(地心を中心とする3次元座標系)もしくはガウス・クリューガー図法の平面座標に標高をZ方向に加えた3次元座標系を利用することが多い。
FIG. 9 is a diagram illustrating the geometric relationship between aerial photography and the imaging position and orientation.
The aircraft is equipped with a GPS / IMU device that measures the shooting position Oi and shooting posture, and a camera that shoots a feature. The GPS antenna is attached to a predetermined position of the aircraft based on aerial photogrammetry regulations, and acquires latitude, longitude, and altitude at the time of flight from a GPS satellite. In addition, the photographing position Oi can be obtained with high accuracy by photographing five or more GPS satellites in a time zone that can be captured. The subscript i of the shooting position Oi is a number of aerial photo image data described later. In the present embodiment, description will be made assuming that i = 1 to 21 (see FIG. 6).
As shown in FIG. 9, the coordinate position (Xi, Yi, Zi) of the shooting position Oi acquired by the GPS is represented by the ground coordinate system. The ground coordinate system is represented by a Cartesian coordinate system, for example, with the east-west direction (latitude direction) as the X axis, the north-south direction (meridian direction) as the Y axis, and the height direction from the ground surface as the Z axis. Specifically, a geocentric coordinate system (a three-dimensional coordinate system centered on the geocentric center) or a three-dimensional coordinate system in which the altitude is added to the plane direction in the Gauss-Kruger projection is often used.

IMUは、空中撮影に用いるカメラに装着され、航空機の飛行姿勢によって変化する撮影姿勢を計測する。具体的には、IMUは、ジャイロ及び加速度センサを備え、航空機の飛行姿勢、例えば飛行姿勢のローリングを示すω(X軸周りの回転角)、ピッチングを示すφ(Y軸周りの回転角)、ヨーイングを示すκ(Z軸周りの回転角)を計測する。つまり、IMUによって飛行姿勢を計測しておくことで、飛行姿勢が撮影に及ぼす影響を記録する。   The IMU is mounted on a camera used for aerial shooting and measures a shooting posture that changes depending on the flight posture of the aircraft. Specifically, the IMU includes a gyro and an acceleration sensor, and the flight attitude of the aircraft, for example, ω (rotation angle around the X axis) indicating rolling of the flight attitude, φ (rotation angle around the Y axis) indicating pitching, Κ (rotation angle around the Z axis) indicating yawing is measured. That is, by measuring the flight attitude with the IMU, the influence of the flight attitude on the shooting is recorded.

GPSによって計測される撮影位置Oiにおける座標位置(Xi,Yi,Zi)及びIMUによって各座標軸周りの回転角κi,φi,ωiは、撮影位置及び撮影姿勢を特定するための外部標定要素である。なお、撮影位置の座標位置(Xi,Yi,Zi)は、地上座標系である。   The coordinate position (Xi, Yi, Zi) at the photographing position Oi measured by GPS and the rotation angles κi, φi, ωi around the coordinate axes by the IMU are external orientation elements for specifying the photographing position and the photographing posture. Note that the coordinate position (Xi, Yi, Zi) of the shooting position is the ground coordinate system.

カメラは、航空機の所定の位置に取り付けられる。カメラによる撮影は、光軸が地表に対して、略鉛直方向となるように行われる。例えば、カメラには地物の写真をデジタル化して取得するデジタルエリアカメラが適用される。
カメラによって撮影された空中写真は、撮影毎の外部標定要素及び焦点距離ciとともに空中写真画像データIiとしてハードディスクやメモリー等の記憶媒体2に保存される。なお、焦点距離ciは、同一のカメラで固定焦点で撮影した場合には、同一の焦点距離と見なすことができる。
撮影毎の位置及び撮影姿勢に対応する外部標定要素及び焦点距離ciは、記憶媒体2に紐付けされて記憶される。
The camera is mounted at a predetermined position on the aircraft. Photographing by the camera is performed so that the optical axis is substantially perpendicular to the ground surface. For example, a digital area camera that digitizes and acquires a photograph of a feature is applied to the camera.
The aerial photograph taken by the camera is stored in a storage medium 2 such as a hard disk or a memory as aerial photograph image data Ii together with an external orientation element and a focal distance ci for each photographing. Note that the focal length ci can be regarded as the same focal length when shooting with the same camera at a fixed focus.
The external orientation element and the focal length ci corresponding to the position and the shooting posture for each shooting are linked to the storage medium 2 and stored.

なお、カメラは、デジタルエリアカメラに限らず、デジタルビデオカメラ、アナログビデオカメラ、フィルムカメラ等、地物を写真として撮影可能なものであればいずれであっても良い。写真撮影後から写真の画像処理までの手間を考慮すれば、撮影した写真を画像データとして直接コンピュータに入力することができるデジタルエリアカメラ、デジタルビデオカメラ等のデジタル光学カメラを用いると良い。また光学的なひずみ(レンズディストーション)の小さいものが好ましい。以下の説明では、基本的にレンズディストーションの影響が少ない、もしくは、そのような影響が補正された画像データを利用するものとする。   Note that the camera is not limited to a digital area camera, and any camera such as a digital video camera, an analog video camera, or a film camera that can photograph a feature as a photograph may be used. Considering the time from taking a picture to processing the image of the picture, it is preferable to use a digital optical camera such as a digital area camera or digital video camera that can directly input the taken picture as image data to a computer. Moreover, a thing with small optical distortion (lens distortion) is preferable. In the following description, it is assumed that the influence of lens distortion is basically small, or image data in which such influence is corrected is used.

図1は、対応点設定装置1の概略構成図を示す。
記憶媒体2に保存された空中写真画像データIiは、対応点設定装置1によって空中写真画像データIi同士の対応関係が設定される。
対応点設定装置1は、地物を空中から撮影した空中写真画像データIiの重複する部分において、互いに一致する対応点を設定するための処理を実行するコンピュータであり、演算処理手段としてのCPU、記憶手段としてのROM,RAM及びHDD、通信手段としてのインターフェイスを含み、記憶手段に格納されたプログラムに従って対応点の設定処理を実行する。また、対応点設定装置1には、キーボード4やマウス等の入力手段や、モニタ6等の表示手段が接続される。
FIG. 1 shows a schematic configuration diagram of the corresponding point setting device 1.
With respect to the aerial photo image data Ii stored in the storage medium 2, the correspondence between the aerial photo image data Ii is set by the corresponding point setting device 1.
The corresponding point setting device 1 is a computer that executes processing for setting corresponding points that coincide with each other in overlapping portions of the aerial photograph image data Ii obtained by photographing a feature from the air. A ROM, RAM, and HDD as storage means and an interface as communication means are included, and corresponding point setting processing is executed in accordance with a program stored in the storage means. The corresponding point setting device 1 is connected to input means such as a keyboard 4 and a mouse, and display means such as a monitor 6.

対応点設定装置1は、読込手段11と、共通特徴点設定部10と、特徴点投影座標位置算出手段16と、探索領域設定手段17と、誤差ベクトル算出手段18と、最頻誤差ベクトル検出手段19と、対応点設定手段20と、出力手段21とを備える。
読込手段11は、記憶媒体2から空中写真画像データIi、外部標定要素(Xi,Yi,Zi,κi,φi,ωi)及び焦点距離ciの読込を行う。
The corresponding point setting device 1 includes a reading unit 11, a common feature point setting unit 10, a feature point projected coordinate position calculation unit 16, a search area setting unit 17, an error vector calculation unit 18, and a mode error vector detection unit. 19, corresponding point setting means 20, and output means 21.
The reading unit 11 reads the aerial photograph image data Ii, the external orientation elements (Xi, Yi, Zi, κi, φi, ωi) and the focal length ci from the storage medium 2.

図2(a),(b)は、特徴点抽出手段13により飛行コース1に沿って互いに連続する空中写真画像データIから抽出された第1サンプル領域G1と、空中写真画像データIi+1から第1サンプル領域G1に対応する第2サンプル領域G2とから抽出された第1及び第2特徴点Q1,Q2の一例を示す図である。以下、各飛行コースにおいて先に撮影された空中写真画像データをI、次に撮影された空中写真画像データをIとして説明する。また、空中写真画像データI及び空中写真画像データIに重複する空中写真画像データをIとして説明する。
共通特徴点設定部10は、サンプル領域設定手段12と、特徴点抽出手段13と、共通特徴点検出手段14と、共通特徴点座標位置算出手段15とにより構成される。
サンプル領域設定手段12は、空中写真画像データIと空中写真画像データIとに重複する空中写真画像データIの領域から所定の大きさの第1サンプル領域G1を抽出し、第1サンプル領域G1に対応する第2サンプル領域G2を第2空中写真画像データから特定する。第1サンプル領域G1を抽出する位置は、空中写真画像データIと空中写真画像データIとの重複する割合が分かっていることから、空中写真画像データIにおいて空中写真画像データIが重複する側から抽出するように設定すれば良い。例えば、空中写真画像データIの画素座標系を考え、既知の空中写真画像データIと空中写真画像データIとの重複する割合に基づいて重複する画素座標の範囲を空中写真画像データIに設定する。次に、既知の空中写真画像データIと空中写真画像データIとの重複する割合に基づいて重複する画素座標の範囲を空中写真画像データIに設定する。そして、この範囲内から第1サンプル領域G1を設定することで、第1サンプル領域G1を空中写真画像データIと空中写真画像データIと空中写真画像データIが重複する範囲から設定することができる。
なお、空中写真画像データIと空中写真画像データIと空中写真画像データIとが重複する範囲から第1サンプル領域G1を設定する方法は、上記に限定されず、結果として空中写真画像データIと空中写真画像データIと空中写真画像データIとが重複する範囲から第1サンプル領域G1が設定されるようにすれば良い。
また、第2サンプル領域G2の抽出には、第1サンプル領域G1に対応する位置を第2空中写真画像データI内からパターンマッチング等の手法により抽出すれば良い。
第1サンプル領域G1の大きさは、例えば、空中写真画像データIの大きさを10000画素×10000画素とした場合、全体の1/1000〜1/10000程度に分割される。空中写真画像データIを画素数において、辺々を200分割した場合には、元の空中写真画像データIの1/4000の大きさとなり、第1サンプル領域G1の大きさは50画素×50画素に設定される。
2 (a) and 2 (b) show the first sample region G1 extracted from the aerial photograph image data I i continuous along the flight course 1 by the feature point extraction means 13 and the aerial photograph image data I i + 1. It is a figure which shows an example of the 1st and 2nd feature points Q1, Q2 extracted from the 2nd sample area | region G2 corresponding to the 1st sample area | region G1. Hereinafter, the aerial photograph image data captured first in each flight course will be described as I 1 , and the next photographed aerial photograph image data will be described as I 2 . Further, describing the aerial photograph image data to be duplicated in the aerial photograph image data I 1 and the aerial photograph image data I 2 as I 3.
The common feature point setting unit 10 includes a sample area setting unit 12, a feature point extraction unit 13, a common feature point detection unit 14, and a common feature point coordinate position calculation unit 15.
Sample area setting means 12 extracts the first sample area G1 of the aerial photograph image data I 2 and aerial photograph image data I 3 and overlapping aerial photographic image from the data I 1 of the region predetermined size, the first sample A second sample area G2 corresponding to the area G1 is specified from the second aerial photograph image data. Position for extracting a first sample region G1, since it has been found overlapping ratio of the aerial photograph image data I 1 and the aerial photograph image data I 2, aerial photographic image data I 2 in aerial photograph image data I 1 What is necessary is just to set so that it may extract from the overlapping side. For example, consider a pixel coordinate system of the aerial photograph image data I 1, known aerial photograph image data I 1 and the aerial photograph image data I 2 duplicates aerial photograph image data ranges of the pixel coordinates that overlap on the basis of the ratio of I of Set to 1 . Next, a range of overlapping pixel coordinates is set in the aerial photograph image data I 1 based on the overlapping ratio of the known aerial photograph image data I 1 and the aerial photograph image data I 3 . By setting the first sample area G1 from within this range is set from the range of the first sample area G1 aerial photograph image data I 1 and the aerial photograph image data I 2 and aerial photograph image data I 3 overlap be able to.
The method for the aerial photograph image data I 1 and the aerial photograph image data I 2 and aerial photograph image data I 3 sets the first sample area G1 from overlapping ranges is not limited to the above, aerial photograph image as a result data I 1 and the aerial photograph image data I 2 and aerial photograph image data I 3 may be such that the first sample area G1 is set from overlapping ranges.
Further, the extraction of the second sample area G2, may be extracted by a technique such as pattern matching the position corresponding to the first sample area G1 a second aerial photograph image data I within 2.
Size of the first sample area G1, for example, when the size of the aerial photograph image data I 1 and 10000 pixels × 10000 pixels, is divided into about 1 / 1000-1 / 10000 of the total. In the number of pixels the aerial photograph image data I 1, when the sides people were 200 split becomes a size of 1/4000 of the original aerial photograph image data I, the magnitude of the first sample area G1 is 50 pixels × 50 Set to pixel.

特徴点抽出手段13は、図2(a),(b)において丸印で示すように、画像に表わされる地物から特徴点Qiを抽出する特徴点抽出フィルタを備え、空中写真画像データIの第1サンプル領域G1及び空中写真画像データIの第2サンプル領域G2に表わされる地物、例えば建物の角、道路の白線の角、地形の角のように周囲に対して明瞭な特徴となる第1及び第2特徴点Q1,Q2として抽出する。具体的な特徴点抽出フィルタには、例えば、Foerstnerフィルタ、SUSANフィルタ、FASTフィルタ等が適用される。 The feature point extraction means 13 includes a feature point extraction filter for extracting a feature point Qi from the feature represented in the image, as indicated by a circle in FIGS. 2A and 2B, and includes aerial photograph image data I 1. the first sample area G1 and the aerial photograph image data second sample area feature represented in G2 of I 2, for example building corners, white lines of the corners of the road, and distinct features relative to the surrounding as the corner of the terrain Are extracted as first and second feature points Q1 and Q2. For example, a Forersner filter, a SUSAN filter, a FAST filter, or the like is applied as a specific feature point extraction filter.

共通特徴点検出手段14は、第1サンプル領域G1と第2サンプル領域G2から共通する共通特徴点(q1;q2)を検出する。共通特徴点検出手段14は、空中写真画像データIの第1サンプル領域G1に含まれる複数の第1特徴点Q1と第2サンプル領域G2に含まれる第2特徴点Q2とをパターンマッチングすることにより共通の特徴点である共通特徴点(q1;q2)を検出する。なお、パターンマッチングでは、第1サンプル領域G1を回転角(κ1,φ1,ω1)により補正し、第2サンプル領域G2を回転角(κ2,φ2,ω2)により補正した状態で第1特徴点Q1と第2特徴点Q2とに共通の共通特徴点(q1;q2)を検出する。つまり、第1サンプル領域G1と第2サンプル領域G2から検出された共通特徴点(q1;q2)は、空中写真画像データIと空中写真画像データIとの対応点である。 The common feature point detector 14 detects a common feature point (q1; q2) from the first sample region G1 and the second sample region G2. Common feature point detection unit 14 is to pattern matching a second feature point Q2 included a plurality of first feature points Q1 included in the first sample area G1 of the aerial photograph image data I 1 and the second sample area G2 To detect a common feature point (q1; q2) which is a common feature point. In the pattern matching, the first feature point Q1 is corrected in a state where the first sample region G1 is corrected by the rotation angles (κ1, φ1, ω1) and the second sample region G2 is corrected by the rotation angles (κ2, φ2, ω2). And a common feature point (q1; q2) common to the second feature point Q2 is detected. That is, the first sample area G1 and the common feature points detected from the second sample area G2 (q1; q2) is a corresponding point of the aerial photograph image data I 1 and the aerial photograph image data I 2.

図3は、3次元空間における空中写真画像データIと空中写真画像データI及び空中写真画像データIの関係を示す図である。
共通特徴点座標位置算出手段15は、共通特徴点検出手段14により検出された共通特徴点(q1;q2)の実際の地物、点Qの地上座標系における座標位置(xQ,yQ,zQ)を算出する。共通特徴点(q1;q2)の位置は、空中写真画像データIの写真座標及び空中写真画像データIの写真座標からそれぞれ既知であるので、焦点距離c1及びc2を用いて写真座標系からカメラ座標系に変換し、外部標定要素の(X1,Y1,Z1,κ1,φ1,ω1)及び(X2,Y2,Z2,κ2,φ2,ω2)を用いてカメラ座標系から地上座標系に変換することで、地上座標上の座標位置(xQ,yQ,zQ)が算出される。
Figure 3 is a diagram showing a relationship between the aerial photograph image data I 1 and the aerial photograph image data I 2 and aerial photograph image data I 3 in a three-dimensional space.
The common feature point coordinate position calculation means 15 is the actual feature of the common feature point (q1; q2) detected by the common feature point detection means 14, the coordinate position (xQ, yQ, zQ) of the point Q in the ground coordinate system. Is calculated. Common feature point; position of (q1 q2), since each aerial photograph image data I 1 of the photographic coordinates and aerial photograph image data I 2 pictures coordinates are known, from the photograph coordinate system with the focal length c1 and c2 Convert to camera coordinate system and convert from camera coordinate system to ground coordinate system using external orientation elements (X1, Y1, Z1, κ1, φ1, ω1) and (X2, Y2, Z2, κ2, φ2, ω2) Thus, the coordinate position (xQ, yQ, zQ) on the ground coordinates is calculated.

以下、共通特徴点座標位置算出手段15により共通特徴点(q1;q2)の地上座標系における座標位置(xQ,yQ,zQ)を算出する方法について具体的に説明する。特徴点q1と特徴点q2とは、地物の同一の点Qが撮影されたものであるので、特徴点q1及び特徴点q2から点Qの座標位置(xQ,yQ,zQ)は以下のように算出される。
空中写真画像データIにおいて特徴点q1の写真座標系における座標位置は(x1,y1)、空中写真画像データIにおいて特徴点q2の写真座標系における座標位置は(x2,y2)と表わされる。特徴点q1の座標位置(x1,y1)及び特徴点q2の座標位置(x2,y2)は、実際には、カメラの撮影中心から焦点距離c1,c2だけ離間した撮影面に投影されたものであるから、撮影位置O,Oの座標位置を撮影中心とし、撮影中心O,Oをそれぞれのカメラ座標系の原点とすれば、カメラ座標において、特徴点q1は座標位置(x1,y1,−c1)、特徴点q2は座標位置(x2,y2,−c2)と表わされる。なお、撮影位置O,Oの地上座標系おける座標位置は、撮影時の外部標定要素によって与えられ、具体的には、撮影位置Oは座標位置(X1,Y1,Z1)、撮影位置Oは座標位置(X2,Y2,Z2)である。
Hereinafter, a method for calculating the coordinate position (xQ, yQ, zQ) of the common feature point (q1; q2) in the ground coordinate system by the common feature point coordinate position calculation unit 15 will be described in detail. Since the feature point q1 and the feature point q2 are obtained by photographing the same point Q of the feature, the coordinate position (xQ, yQ, zQ) of the point Q from the feature point q1 and the feature point q2 is as follows. Is calculated.
Coordinate position in photographic coordinate system of the feature point q1 in aerial photograph image data I 1 is (x1, y1), a coordinate position in the photographic coordinate system of the feature point q2 in aerial photograph image data I 2 is represented as (x2, y2) . The coordinate position (x1, y1) of the feature point q1 and the coordinate position (x2, y2) of the feature point q2 are actually projected on the imaging plane separated by the focal lengths c1, c2 from the imaging center of the camera. Therefore, if the coordinate positions of the photographing positions O 1 and O 2 are set as the photographing center, and the photographing centers O 1 and O 2 are the origins of the respective camera coordinate systems, the feature point q1 in the camera coordinates is the coordinate position (x1, y1, -c1) and the feature point q2 are represented as coordinate positions (x2, y2, -c2). The coordinate positions of the shooting positions O 1 and O 2 in the ground coordinate system are given by an external orientation element at the time of shooting. Specifically, the shooting position O 1 is the coordinate position (X1, Y1, Z1), and the shooting position. O 2 is the coordinate position (X2, Y2, Z2).

よって、Q(xQ,yQ,zQ)は、空中写真画像データIの撮影中心Oと、空中写真画像データIの撮影中心Oと特徴点q1,q2との関係から、前方交差法等の三角測量の原理から求めることができる。例えば以下の式(1)によりQ(xQ,yQ,zQ)を求めることができる。
u1・(Q−O)・u1−Q=−(u2・(Q−O)・u2−Q) …式(1)
u1=R1−1・q1/|q1| …式(2)
u2=R2−1・q2/|q2| …式(3)
ここで、式(2)に示すu1は撮影位置Oから特徴点q1に向かう単位ベクトルを地上座標系で表わしたものであり、式(3)に示すu2は撮影位置Oから特徴点q2に向かう単位ベクトルを地上座標系で表わしたものである。また、R1,R2は、撮影姿勢を表わす回転角(κ1,φ1,ω1)、(κ2,φ2,ω2)によって設定されるカメラ座標系から地上座標系へ座標系を変換する変換行列(回転行列)であり、R1−1及びR2−1は、地上座標系からカメラ座標系へ座標変換する変換行列で、R1及びR2の逆行列である。
Therefore, Q (xQ, yQ, zQ) is a forward intersection method based on the relationship between the photographing center O 1 of the aerial photograph image data I 1 , the photographing center O 2 of the aerial photograph image data I 2 , and the feature points q 1 and q 2. From the principle of triangulation such as For example, Q (xQ, yQ, zQ) can be obtained by the following equation (1).
u1 · (Q-O 1) · u1-Q = - (u2 · (Q-O 2) · u2-Q) ... formula (1)
u1 = R1 -1 · q1 / | q1 | ... formula (2)
u2 = R2 -1 · q2 / | q2 | ... formula (3)
Here are those u1 is shown in equation (2) representing a unit vector directed toward the feature point q1 from the photographing position O 1 in the ground coordinate system, Equation (3) u2 shown in the feature point from the captured position O 2 q2 The unit vector heading to is represented in the ground coordinate system. R1 and R2 are transformation matrices (rotation matrices) for converting the coordinate system from the camera coordinate system to the ground coordinate system set by the rotation angles (κ1, φ1, ω1) and (κ2, φ2, ω2) representing the photographing posture. R1 -1 and R2 -1 are transformation matrices for coordinate transformation from the ground coordinate system to the camera coordinate system, and are inverse matrices of R1 and R2.

特徴点投影座標位置算出手段16は、共通特徴点(q1;q2)が空中写真画像データIに投影されたときの投影点q3の写真座標系での座標位置(x3,y3)を算出する。具体的には、共通特徴点座標位置算出手段15により算出された点Qの座標位置(xQ,yQ,zQ)と、撮影中心Oの座標位置(X3,Y3,Z3)と、投影点q3の座標位置との共線条件に基づいて算出される。
共通特徴点(q1;q2)が投影された空中写真画像データIにおける投影点q3は、カメラ座標系で座標位置(x3,y3,z3)とすると、(x3,y3,z3)=R3・(Q−O)の関係から算出される。R3は、撮影中心O3における撮影姿勢を表わす外部標定要素の回転角(κ3,φ3,ω3)によって設定されるカメラ座標系から地上座標系へ空中写真画像データI上の点を座標変換する変換行列(回転行列)である。つまり、撮影中心Oをカメラ座標系の原点として投影点q3の座標位置(x3,y3,z3)を位置ベクトルと見なせば、位置ベクトル(x3,y3,z3)を実数倍したZ方向の座標位置が焦点距離c3と一致するときがカメラ座標における投影点q3の座標位置であるから、投影点q3のカメラ座標上の座標位置(x3,y3,−c3)におけるx3,y3は、
x3=−c3・(x3/z3)
y3=−c3・(y3/z3)
により求めることができる。つまり、撮影中心Oと投影点q3とを結ぶ線分の空中写真画像データIへの射影によって投影点q3の写真座標系での座標位置(x3,y3)が算出される。従って、カメラ座標系における投影点q3の座標位置(x3,y3,−c3)が算出される。
Feature point projected coordinate position calculation means 16, the common feature point; calculating the coordinate position (x3, y3) of the photograph coordinate system of the projection point q3 when (q1 q2) is projected to aerial photograph image data I 3 . Specifically, the coordinate position of the point Q, which is calculated by the common feature point coordinate position calculation means 15 (xQ, yQ, zQ) and the coordinate position of the taking center O 3 and (X3, Y3, Z3), the projection point q3 It is calculated based on the collinear condition with the coordinate position.
Common feature points (q1; q2) projected point q3 in aerial photograph image data I 3 which is projected, when the coordinate position in the camera coordinate system (x3, y3, z3) is, (x3, y3, z3) = R3 · It is calculated from the relationship (Q−O 3 ). R3 is the rotation angle of the external orientation parameters representing the photographing position in the photographing center O3 (κ3, φ3, ω3) coordinate converting points on aerial photographic image data I 3 from the camera coordinate system which is set to the ground coordinate system by transformation It is a matrix (rotation matrix). That is, regarded as a position vector coordinate position of the projection point q3 and (x3, y3, z3) the imaging center O 3 as the origin of the camera coordinate system, a position vector (x3, y3, z3) a real number times the Z-direction When the coordinate position coincides with the focal distance c3, the coordinate position of the projection point q3 in the camera coordinates is x3, y3 in the coordinate position (x3, y3, -c3) of the projection point q3 on the camera coordinates is
x3 = −c3 · (x3 / z3)
y3 = −c3 · (y3 / z3)
It can ask for. That is, the coordinate position of the photograph coordinate system of the projection point q3 by projection onto the aerial photograph image data I 3 of the line segment connecting the imaging center O 3 and the projection point q3 (x3, y3) is calculated. Accordingly, the coordinate position (x3, y3, −c3) of the projection point q3 in the camera coordinate system is calculated.

このように、算出された投影点q3の座標位置(x3,y3,−c3)は、投影点q3と、撮影中心Oと、点Qの座標位置(xQ,yQ,zQ)との共線条件から数学的に算出されたものであるが、計測された外部標定要素、即ち、空中写真画像データIを撮影したときの撮影中心Oの座標位置(X3,Y3,Z3)及び撮影姿勢を示す回転角(κ3,φ3,ω3)が誤差を含んでいるため、空中写真画像データIにおいて共通特徴点(q1;q2)に対応する対応点としての正しい位置に対して誤差が生じている。外部標定要素の計測精度が十分高い場合においても、特徴点投影座標位置算出手段16によって算出された空中写真画像データIの投影点q3の写真座標系における座標位置(x3,y3)は、共通特徴点(q1;q2)が正しく対応する位置に比べて微小のズレが生じる。この微小のズレは、全ての共通特徴点(q1;q2)が投影された投影点q3において、正しいと思われる位置から同一方向に変位した平行移動として表れることが分かっている。 Thus, the calculated coordinate position of the projected point q3 (x3, y3, -c3) is collinear with the projected point q3, the imaging center O 3, the coordinate position of the point Q (xQ, yQ, zQ) and although those mathematically calculated from the condition, the measured external orientation parameters, i.e., the coordinate position of the taking center O 3 upon shooting aerial photograph image data I 3 (X3, Y3, Z3 ) and photographing posture rotation angle indicating the (κ3, φ3, ω3) since the error is contained, common feature points in the aerial photograph image data I 3 (q1; q2) to the error is caused for the correct position of the corresponding point corresponding Yes. In case the measurement accuracy of the exterior orientation elements is sufficiently high, the coordinate position in the photographic coordinate system of the projection point q3 aerial photograph image data I 3 calculated by the feature point projected coordinate position calculation means 16 (x3, y3) is common A minute shift occurs compared to the position where the feature points (q1; q2) correspond correctly. It is known that this minute shift appears as a parallel displacement displaced in the same direction from a position considered to be correct at the projection point q3 where all the common feature points (q1; q2) are projected.

探索領域設定手段17では、図4(a),(b)に示すように、特徴点投影座標位置算出手段16により空中写真画像データIに投影された投影点q3周りに所定の大きさの探索領域Tを設定する。探索領域Tは、投影点q3が中心に位置するように、所定の大きさの例えば矩形領域で設定される。探索領域Tの大きさは、外部標定要素の計測精度を超えない範囲の大きさ、言い換えると、写真座標系における投影点q3の座標位置(x3,y3)と、投影点q3が空中写真画像データIにおいて共通特徴点(q1;q2)に正しく対応する位置との微小のズレよりも大きく設定される。
なお、空中写真画像データI,I,Iの撮影時に取得される外部標定要素の測定精度が高ければ、探索領域Tの大きさを小さく、測定精度に不安のある場合にはやや探索領域を大きめに設定すると良い。
In the search area setting unit 17, FIG. 4 (a), the (b), the by the feature point projected coordinate position calculation means 16 of a predetermined aerial photograph image data I 3 in the projected projection point q3 around the size of the A search area T is set. The search area T is set, for example, as a rectangular area having a predetermined size so that the projection point q3 is located at the center. The size of the search region T is a size that does not exceed the measurement accuracy of the external orientation element, in other words, the coordinate position (x3, y3) of the projection point q3 in the photographic coordinate system, and the projection point q3 is aerial photographic image data. It is set to be larger than the deviation of the minute of the positions corresponding correctly; (q2 q1) common feature points in I 3.
In addition, if the measurement accuracy of the external orientation elements acquired at the time of photographing the aerial photograph image data I 1 , I 2 , I 3 is high, the size of the search region T is small, and if the measurement accuracy is uneasy, the search is slightly performed. It is better to set the area larger.

誤差ベクトル算出手段18は、投影点q3を含む探索領域Tに対して、投影された共通特徴点(q1;q2)の特徴点q1又は特徴点q2のパターンによりパターンマッチングし、マッチング率が予め設定された閾値以上でマッチングする点の中でマッチング率が最大となる位置を探索領域Tから探索する。なお、パターンマッチングでは、特徴点q1又は特徴点q2のパターンを外部標定要素の回転角(κ1,φ1,ω1)又は回転角(κ2,φ2,ω2)によりそれぞれ補正し、探索領域Tを回転角(κ3,φ3,ω3)により補正したもの同士について行う。そして、マッチング率が最大となる位置と、投影点q3の位置との距離及び方向を算出する。マッチング率には、パターンマッチングで良く一致すればするほど高い値を出力するときの位置を使用する。例えば空中写真画像データIにおいて特徴点q1を囲む画素と、探索領域T内のある画素を囲む画素間の相関係数を算出すれば良い。そして、マッチング率が閾値以上の値で最大となったときの位置を補正点q4の座標位置(x4,y4)とし、補正点q4の座標位置(x4,y4)と投影点q3の座標位置(x3,y3)との位置ずれ量及び位置ずれ方向を算出する。つまり、誤差ベクトル算出手段18は、投影された投影点q3の座標位置(x3,y3)から最も正しいと思われる補正点q4の座標位置(x4,y4)への誤差ベクトルVerr=(x4−x3,y4−y3)を算出する。誤差ベクトルは投影点q3が始点で補正点q4が終点である。そして、空中写真画像データI及びIにおいて共通する全ての共通特徴点(q1;q2)に対して誤差ベクトルVerrを算出することにより、図5に示すように、複数の誤差ベクトルVerr群を算出する。 The error vector calculation means 18 performs pattern matching on the search region T including the projection point q3 with the pattern of the feature point q1 or the feature point q2 of the projected common feature point (q1; q2), and a matching rate is set in advance. The search region T is searched for a position where the matching rate is the maximum among the points that match at or above the threshold value. In the pattern matching, the pattern of the feature point q1 or the feature point q2 is corrected by the rotation angle (κ1, φ1, ω1) or rotation angle (κ2, φ2, ω2) of the external orientation element, respectively, and the search region T is rotated. This is performed for those corrected by (κ3, φ3, ω3). Then, the distance and direction between the position where the matching rate is maximized and the position of the projection point q3 are calculated. As the matching rate, a position at which a higher value is output as the pattern matching is better is used. For example the pixels surrounding the feature point q1 in aerial photograph image data I 1, may be calculated a correlation coefficient between the pixels surrounding a certain pixel within the search area T. Then, the position at which the matching rate becomes the maximum with a value equal to or greater than the threshold value is defined as the coordinate position (x4, y4) of the correction point q4, and the coordinate position (x4, y4) of the correction point q4 and the coordinate position of the projection point q3 ( The positional deviation amount and the positional deviation direction with respect to x3, y3) are calculated. In other words, the error vector calculation means 18 uses the error vector Verr = (x4−x3) from the coordinate position (x3, y3) of the projected projection point q3 to the coordinate position (x4, y4) of the correction point q4 that seems to be most correct. , Y4−y3). The error vector has a projection point q3 as a start point and a correction point q4 as an end point. Then, all the common feature points common to the aerial photograph image data I 1 and I 2; by calculating the error vector Verr against (q1 q2), as shown in FIG. 5, a plurality of error vectors Verr group calculate.

最頻誤差ベクトル検出手段19は、誤差ベクトル算出手段18により算出された誤差ベクトルVerr群のうち、探索領域T内において最も多く頻出する誤差ベクトルVerrを最頻誤差ベクトルVoptとして探索する。外部標定要素の誤差が小さいとき、画像内の局所領域においては、この誤差は、一定方向に一定量になることが数学的に導くことができる。即ち、正しくマッチングしているところは同じ誤差ベクトルを有していると予測することができる。よって最頻誤差ベクトルVoptとなっているところは、正しくマッチングしていると判断できる。   The mode error vector detection means 19 searches the error vector Verr group calculated by the error vector calculation means 18 for the error vector Verr that occurs most frequently in the search region T as the mode error vector Vopt. When the error of the external orientation element is small, it can be mathematically derived that this error becomes a certain amount in a certain direction in the local region in the image. In other words, it can be predicted that a correctly matched portion has the same error vector. Therefore, it can be determined that the mode error vector Vopt is matched correctly.

対応点設定手段20は、最頻誤差ベクトルVoptと同じ誤差ベクトルとなる投影点q3に最頻誤差ベクトルVoptを加えた位置、即ち補正点q4の位置を共通特徴点(q1;q2)に対応する対応点q5の座標位置(x5,y5)として算出する。つまり、算出された対応点q5は、空中写真画像データI,I,Iに共通の対応点として設定される。 Corresponding point setting means 20 corresponds to the common feature point (q1; q2) the position obtained by adding the mode error vector Vopt to the projection point q3 having the same error vector as the mode error vector Vopt, that is, the position of the correction point q4. Calculated as the coordinate position (x5, y5) of the corresponding point q5. That is, the calculated corresponding point q5 is set as a corresponding point common to the aerial photograph image data I 1 , I 2 , and I 3 .

出力手段21は、対応点設定手段20によって算出された対応点q5の座標位置(x5,y5)と、これに対応する第1特徴点Q1の座標位置(x1,y1)と、第2特徴点Q2の座標位置(x2,y2)とを紐付けし、記憶媒体としての対応点データベース7に出力する。   The output means 21 includes the coordinate position (x5, y5) of the corresponding point q5 calculated by the corresponding point setting means 20, the coordinate position (x1, y1) of the first feature point Q1 corresponding thereto, and the second feature point. The coordinate position (x2, y2) of Q2 is linked and output to the corresponding point database 7 as a storage medium.

従って、空中写真画像データI及びIに共通特徴点(q1;q2)である対応点を空中写真画像データIに投影し、上記誤差ベクトルVerrを用いて、統計的に正しいと思われる最頻誤差ベクトルVoptを投影点q3に加えて補正を行うことで簡単に空中写真画像データI,Iに対応する対応点q5の座標位置(x5,y5)を自動で設定することができる。また、空中写真画像データI,Iから抽出された複数の共通特徴点(q1;q2)毎に投影された投影点q3群によって誤差ベクトルVerr群を算出し、誤差ベクトルVerr群のうち最頻の最頻誤差ベクトルVoptを検出すること、言い換えると、誤差ベクトルVerr群のうち統計的に最も多い最頻誤差ベクトルVoptを検出し、当該最頻誤差ベクトルVoptにより空中写真画像データIに対する空中写真画像データIの投影点q3のズレを補正するので、空中写真画像データIと空中写真画像データIとの重複が少なくても、空中写真画像データI,Iの互いに対応する対応点を確実に特定することができる。 Therefore, the common feature points on aerial photographic image data I 1 and I 2; seems to project the (q1 q2) corresponding points is the aerial photograph image data I 3, using the error vector Verr, statistically correct By correcting the mode error vector Vopt by adding it to the projection point q3, the coordinate position (x5, y5) of the corresponding point q5 corresponding to the aerial photograph image data I 1 and I 2 can be set automatically. . In addition, an error vector Verr group is calculated from the projection point q3 group projected for each of the plurality of common feature points (q1; q2) extracted from the aerial photograph image data I 1 and I 2 , and the error vector Verr group is the highest among the error vector Verr groups. Detecting a frequent mode error vector Vopt, in other words, detecting a statistically most frequent mode error vector Vopt in the error vector Verr group, and using the mode error vector Vopt, the aerial image data I 1 is aerial since to correct the deviation of the projection point q3 photographic image data I 3, even with a small overlap with the aerial photograph image data I 1 and the aerial photograph image data I 3, corresponding to each other in the aerial photograph image data I 1, I 3 Corresponding points can be reliably identified.

以下、対応点設定装置1による対応点の設定方法の一実施形態についてフローチャートを用いて説明する。
撮影された空中写真画像データIi(i=1〜21)は、コース番号m(m=1〜3)と、各コース1,2,3において撮影した撮影番号n(n=1〜7)の2つの番号がファイル番号として付され、空中写真画像データファイルm_nとして記憶媒体2に記憶されている。具体的には、図6に示すように、例えば、コース1の場合にはファイル1_1,1_2,・・・、コース2の場合にはファイル2_1,2_2,・・・、コース3の場合にはファイル3_1,3_2,・・・等のように付されている。
Hereinafter, an embodiment of a method for setting corresponding points by the corresponding point setting device 1 will be described with reference to flowcharts.
The photographed aerial photograph image data Ii (i = 1 to 21) includes the course number m (m = 1 to 3) and the photograph numbers n (n = 1 to 7) photographed in the courses 1, 2, and 3. Two numbers are assigned as file numbers, and are stored in the storage medium 2 as aerial photo image data files m_n. Specifically, as shown in FIG. 6, for example, in the case of course 1, files 1_1, 1_2,..., In the case of course 2, files 2_1, 2_2,. Files 3_1, 3_2, and so on are attached.

対応点設定装置1を起動すると、記憶手段に記憶されたプログラムによって画面が表示される。画面には、処理を行う空中写真画像データファイルm_nの読み込みボタンや、処理変数の設定ボタン等が配置され、マウスやキーボードにより入力設定される。入力設定が完了すると、画面には、対応点の設定を開始するファイル名と、これに対応する焦点距離と外部標定要素とが数値として表示される。そして、対応点の設定開始を指示すると、まず、読込手段11により全ての空中写真画像データファイルm_nに記憶される空中写真画像データIiの読込が行われる(ステップ101)。   When the corresponding point setting device 1 is activated, a screen is displayed by a program stored in the storage means. On the screen, an aerial photograph image data file m_n to be processed is loaded, a processing variable setting button, and the like are arranged and set by a mouse or a keyboard. When the input setting is completed, the file name for starting the setting of the corresponding points, the corresponding focal length, and the external orientation element are displayed as numerical values on the screen. When the start of setting corresponding points is instructed, first, the aerial photo image data Ii stored in all the aerial photo image data files m_n is read by the reading means 11 (step 101).

以下の処理は、ファイル番号m_nによって管理されるものとして説明する。
まず、処理を行うファイルのコース番号mと、撮影番号nとをリセットする(ステップ102)。次に、コース番号mを1に設定し(ステップ103)、次に、撮影番号nを1に設定する(ステップ104)。次に、設定されたコース番号m及び撮影番号nにより、処理するファイルの設定を行う。例えば、飛行方向に隣接するファイルm_n,ファイルm_n+1、異なる飛行コースにおいてファイルm_n及びファイルm_n+1に重複するファイルm+1_n、及びファイルm_n及びファイルm_n+1に重複するファイルm+1_n+1とが設定される(ステップ105)。具体的には、m=1,n=1から開始され、ファイル1_1に対応する空中写真画像データIと、ファイル1_2に対応する空中写真画像データIとファイル2_1に対応する空中写真画像データI14との対応点の設定、及びファイル1_1に対応する空中写真画像データIとファイル1_2に対応する空中写真画像データIとファイル2_2に対応する空中写真画像データI13との対応点の設定から行われる(図6参照)。即ち、本実施形態では、空中写真画像データIとIとI14とが重複する領域と、空中写真画像データIとIとI13とが重複する領域とは、略同一と見なすことができるので、空中写真画像データI14とI13とに共通に重複する空中写真画像データIとIとで設定された共通特徴点(q1;q2)を用いて空中写真画像データI14とI13との対応点をそれぞれ算出するようにした。
The following processing will be described assuming that it is managed by the file number m_n.
First, the course number m and the shooting number n of the file to be processed are reset (step 102). Next, the course number m is set to 1 (step 103), and then the shooting number n is set to 1 (step 104). Next, a file to be processed is set according to the set course number m and shooting number n. For example, file m_n, file m_n + 1 adjacent to the flight direction, file m + 1_n overlapping file m_n and file m_n + 1 in different flight courses, and file m + 1_n + 1 overlapping file m_n and file m_n + 1 are set (step 105). Specifically, the aerial photo image data I 1 corresponding to the file 1_1, the aerial photo image data I 2 corresponding to the file 1_2, and the aerial photo image data corresponding to the file 2_1 are started from m = 1 and n = 1. Setting of corresponding points with I 14 and corresponding points between aerial photo image data I 1 corresponding to file 1_1, aerial photo image data I 2 corresponding to file 1_2, and aerial photo image data I 13 corresponding to file 2_2 The setting is performed (see FIG. 6). That is, in this embodiment, the region where the aerial photo image data I 1 , I 2 and I 14 overlap and the region where the aerial photo image data I 1 , I 2 and I 13 overlap are regarded as substantially the same. it is possible, aerial photograph image data I 14 and common feature point set in the aerial photograph image data I 1 and I 2 that overlaps the common and I 13 (q1; q2) aerial photograph image data I using the corresponding points between 14 and I 13 were to be calculated.

次に、サンプル領域設定手段12により空中写真画像データIの空中写真画像データI、空中写真画像データI14及び空中写真画像データI13と重複する領域から所定の大きさの第1サンプル領域G1を抽出し、空中写真画像データIに対して第1サンプル領域G1でパターンマッチングを行い空中写真画像データIから第1サンプル領域G1に対応する第2サンプル領域G2を特定することで、空中写真画像データIと、空中写真画像データIとに互いに対応するサンプル領域を設定する(ステップ106)。 Next, a first sample area having a predetermined size is selected from areas overlapping the aerial photograph image data I 2 , aerial photograph image data I 14, and aerial photograph image data I 13 of the aerial photograph image data I 1 by the sample area setting means 12. extract the G1, by identifying the second sample area G2 corresponding aerial photograph image data I 2 performs pattern matching in a first sample area G1 with respect to the aerial photograph image data I 2 in the first sample area G1, aerial photograph image data I 1, sets a corresponding sample area to one another in the aerial photograph image data I 2 (step 106).

次に、特徴点抽出手段13の特徴点抽出フィルタにより、空中写真画像データIに表される地物から複数の第1特徴点Q1、空中写真画像データIに表される地物から複数の第2特徴点Q2を抽出する。抽出された複数の第1特徴点Q1及び第2特徴点Q2は、空中写真画像データI及び空中写真画像データIの各写真座標における座標位置(x1,y1)及び座標位置(x2,y2)として記憶される(ステップ107)。 Plurality Next, the feature point extraction filter characteristic point extraction unit 13, a first feature point Q1 from the feature of a plurality represented in aerial photograph image data I 1, from the feature represented in aerial photograph image data I 2 The second feature point Q2 is extracted. Extracting a plurality of first feature points Q1 and the second feature point Q2 were a coordinate position in each photograph coordinates of the aerial photograph image data I 1 and the aerial photograph image data I 2 (x1, y1) and the coordinate position (x2, y2 ) Is stored (step 107).

次に、共通特徴点検出手段14により、複数の第1特徴点Q1を複数の第2特徴点Q2に対してパターンマッチングを行い、共通特徴点(q1;q2)の検出を行う。言い換えれば、共通特徴点検出手段14では、空中写真画像データI及び空中写真画像データIに表れる共通の点Qの検出を行う(ステップ108)。 Next, the common feature point detection means 14 performs pattern matching of the plurality of first feature points Q1 with the plurality of second feature points Q2 to detect the common feature points (q1; q2). In other words, the common feature point detection unit 14 detects a common point Q appearing in the aerial photograph image data I 1 and the aerial photograph image data I 2 (step 108).

次に、共通特徴点座標位置算出手段15により、共通特徴点(q1;q2)の地上座標系における点Qの座標位置(xQ,yQ,zQ)を算出する(ステップ109)。具体的には、共通特徴点(q1;q2)の一つである第1特徴点Q1を含む空中写真画像データIの撮影時の焦点距離c1を用いて、写真座標系の座標位置(x1,y1)から撮影位置Oを原点とするカメラ座標系の座標位置(x1,y1,−c1)に変換し、外部標定要素の回転角(κ1,φ1,ω1)から得られる変換行列R1によりカメラ座標系を地上座標系の座標位置(x1g,y1g,−c1g)に変換する。また、共通特徴点(q1;q2)のもう一つの第2特徴点Q2を含む空中写真画像データIの撮影時の内部標定要素である焦点距離c2を用いて、写真座標系の座標位置(x2,y2)から撮影位置Oを原点とするカメラ座標系の座標位置(x2,y2,−c2)に変換し、外部標定要素の回転角(κ2,φ2,ω2)から得られる変換行列R2によりカメラ座標系を地上座標系の座標位置(x2g,y2g,−c2g)に変換する。 Next, the common feature point coordinate position calculation means 15 calculates the coordinate position (xQ, yQ, zQ) of the point Q in the ground coordinate system of the common feature point (q1; q2) (step 109). Specifically, the common feature point; is one with a focal length c1 of the time of photographing aerial photograph image data I 1 including the first feature point Q1, the coordinate position of the photograph coordinate system (q1 q2) (x1 , the coordinate position of the camera coordinate system with its origin at the photographing position O 1 from y1) (x1, y1, converted to -c1), the rotation angle of the exterior orientation elements (.kappa.1, .phi.1, the transformation matrix R1 obtained from .omega.1) The camera coordinate system is converted to the coordinate position (x1g, y1g, -c1g) of the ground coordinate system. The common feature point; other with focal length c2 is an internal orientation parameters at the time of photographing of the aerial photograph image data I 2 including one second feature point Q2, the coordinate position of the photograph coordinate system (q1 q2) ( x2, y2) coordinates of the camera coordinate system to the imaging position O 2 as the origin from (x2, y2, converted to -c2), the rotation angle of the exterior orientation elements (κ2, φ2, ω2) transformation matrix obtained from R2 The camera coordinate system is converted to the coordinate position (x2g, y2g, -c2g) of the ground coordinate system.

そして、地上座標系の座標位置として外部標定要素として測定された撮影位置O(X1,Y1,Z1)と第1特徴点Q1の座標位置(x1g,y1g,−c1g)と点Qの座標位置(xQ,yQ,ZQ)との共線条件、地上座標系の座標位置として外部標定要素として測定された撮影位置O2の座標位置(X2,Y2,Z2)と第2特徴点Q2の座標位置(x2g,y2g,−c2g)と点Qの座標位置(xQ,yQ,ZQ)から三角測量の原理で地上座標系における点Qの座標位置(xQ,yQ,zQ)を算出する。 Then, the photographing position O 1 (X1, Y1, Z1) measured as an external orientation element as the coordinate position of the ground coordinate system, the coordinate position (x1g, y1g, −c1g) of the first feature point Q1, and the coordinate position of the point Q (XQ, yQ, ZQ), the coordinate position (X2, Y2, Z2) of the shooting position O2 measured as an external orientation element as the coordinate position of the ground coordinate system, and the coordinate position of the second feature point Q2 ( x2g, y2g, -c2g) and the coordinate position (xQ, yQ, zQ) of the point Q in the ground coordinate system are calculated by the principle of triangulation from the coordinate position (xQ, yQ, ZQ) of the point Q.

次に、空中写真画像データI及び空中写真画像データIに重複する空中写真画像データI14又は空中写真画像データI13を呼び出すために、画像番号nを制御変数kに置き換える。(ステップ110)。
次に、ステップ110により制御変数kにより空中写真画像データI14の呼び出しを行い、特徴点投影座標算出手段16により、共通特徴点(q1;q2)が空中写真画像データI14に投影されたときの写真座標系での投影点q3の投影座標位置を算出する(ステップ111)。具体的には、地上座標系における空中写真画像データI14を撮影したときの撮影位置O14と共通特徴点(q1;q2)により算出された点Qの座標位置(xQ,yQ,zQ)とを結ぶ直線が空中写真画像データI14と交差するときの交点である投影点q3の写真座標系における座標位置(x3,y3)を算出する。
Next, in order to call the aerial photo image data I 14 or the aerial photo image data I 13 that overlaps the aerial photo image data I 1 and the aerial photo image data I 2 , the image number n is replaced with the control variable k. (Step 110).
Next, the call of the aerial photograph image data I 14 by the control variable k in step 110, the feature point projected coordinate calculating unit 16, the common feature point; when (q1 q2) is projected to aerial photograph image data I 14 The projection coordinate position of the projection point q3 in the photographic coordinate system is calculated (step 111). Specifically, the imaging position O 14 common feature points upon shooting aerial photograph image data I 14 in the ground coordinate system; coordinates of point Q, which is calculated by (q1 q2) (xQ, yQ , zQ) and straight line to calculate the coordinate position (x3, y3) in photographic coordinate system of the projection point q3 is an intersection at which intersects the aerial photograph image data I 14 connecting.

次に、探索領域設定手段17により、投影点q3周りに所定の大きさの探索領域Tを設定する(ステップ112)。
次に、誤差ベクトル算出手段18により、投影点q3を含む探索領域Tに対して、投影された特徴点Q1(Q2)自身をテンプレートFとしてパターンマッチングし(ステップ113)、マッチング率が閾値以上で最も高いマッチング率でマッチングしたときの座標位置を補正点q4として探索領域Tから検出する(ステップ114)。そして、補正点q4の位置と、投影点q3の位置との位置ずれ量及び位置ずれ方向を算出し、誤差ベクトルVerrとして出力する(ステップ115)。
Next, the search area setting means 17 sets a search area T having a predetermined size around the projection point q3 (step 112).
Next, the error vector calculation means 18 pattern-matches the projected feature point Q1 (Q2) itself as the template F with respect to the search region T including the projection point q3 (step 113), and the matching rate is equal to or greater than the threshold value. A coordinate position when matching is performed at the highest matching rate is detected from the search region T as a correction point q4 (step 114). Then, a displacement amount and a displacement direction between the position of the correction point q4 and the position of the projection point q3 are calculated and output as an error vector Verr (step 115).

次に、最頻誤差ベクトル検出手段19により、誤差ベクトルVerrのうち探索領域T内において最も多く頻出する誤差ベクトルVerrを最頻誤差ベクトルVoptとして検出する(ステップ116)。
次に、対応点設定手段20により、誤差ベクトルVerrが最頻誤差ベクトルVoptとなる投影点q3に最頻誤差ベクトルVoptを加えた位置を共通特徴点(q1;q2)に対応する対応点q5の座標位置(x5,y5)として算出する(ステップ117)。つまり、対応点q5は、空中写真画像データI,I,I14に共通のものとして設定される。
次に、空中写真画像データを呼び出す制御変数kが撮影番号n+1と等しいかどうかの判定を行い、制御変数kの値が撮影番号n+1と異なる場合にはステップ119に移行し、制御変数kの値が、撮影番号n+1と等しい場合にはステップ120に移行する(ステップ118)。
制御変数kの値が撮影番号n+1と異なる場合にはステップ119に移行して、制御変数kの値を更新し、制御変数k+1に置き換え(ステップ119)、ステップ111に戻り、ファイル2_2の空中写真画像データI13の処理をステップ111〜ステップ117までを繰り返し行い、空中写真画像データI,I,I13に共通の対応点を設定する。
次に、ステップ118により、撮影番号n+1と等しいと判定された場合には、ステップ120により制御変数kを0(ゼロ)にリセットする(ステップ120)。
次に、撮影番号nが6よりも小さいかどうかの判定を行い、撮影番号nが6よりも小さい場合には、ステップ104に戻り、撮影番号nをn+1に更新し、ステップ105〜ステップ120を行い、撮影番号nが6になるまでステップ104〜ステップ120までを繰り返し行う。また、撮影番号nが6となった場合には、ステップ122に移行する(ステップ121)。
次に、コース番号が3よりも小さいかどうかの判定を行い、コース番号が3よりも小さい場合には、ステップ103に戻り、撮影番号mをm+1に更新し、ステップ104〜ステップ121を行い、コース番号mが3になるまでステップ103〜ステップ121までを繰り返し行う。また、コース番号mが3となった場合には、互いに重複する全ての空中写真画像データI同士において設定された対応点を出力手段21を介して対応点データベース7に出力して終了する(ステップ122)。
Next, the most frequent error vector detection means 19 detects the error vector Verr that occurs most frequently in the search region T from the error vectors Verr as the most frequent error vector Vopt (step 116).
Next, the corresponding point setting means 20 sets the position obtained by adding the mode error vector Vopt to the projection point q3 where the error vector Verr becomes the mode error vector Vopt, and the corresponding point q5 corresponding to the common feature point (q1; q2). The coordinate position (x5, y5) is calculated (step 117). That is, the corresponding point q5 is set to be common to the aerial photograph image data I 1 , I 2 , and I 14 .
Next, it is determined whether or not the control variable k for calling the aerial photograph image data is equal to the shooting number n + 1. If the value of the control variable k is different from the shooting number n + 1, the process proceeds to step 119 and the value of the control variable k is set. Is equal to the shooting number n + 1, the process proceeds to step 120 (step 118).
If the value of the control variable k is different from the shooting number n + 1, the process proceeds to step 119, where the value of the control variable k is updated and replaced with the control variable k + 1 (step 119), and the process returns to step 111, and the aerial photograph of the file 2_2 The processing of the image data I 13 is repeated from step 111 to step 117, and corresponding points common to the aerial photograph image data I 1 , I 2 , I 13 are set.
Next, if it is determined in step 118 that the photographing number is equal to n + 1, the control variable k is reset to 0 (zero) in step 120 (step 120).
Next, it is determined whether or not the shooting number n is smaller than 6. If the shooting number n is smaller than 6, the process returns to step 104, the shooting number n is updated to n + 1, and steps 105 to 120 are performed. Step 104 to Step 120 are repeated until the shooting number n reaches 6. If the shooting number n is 6, the process proceeds to step 122 (step 121).
Next, it is determined whether or not the course number is smaller than 3. If the course number is smaller than 3, the process returns to step 103, the shooting number m is updated to m + 1, and steps 104 to 121 are performed. Steps 103 to 121 are repeated until the course number m becomes 3. If the course number m is 3, the corresponding points set in all the aerial photo image data I that overlap each other are output to the corresponding point database 7 via the output means 21 and the process ends. 122).

なお、空中写真画像データは、デジタルエリアカメラによって記録された地物の画像に限らず、アナログカメラによって撮影されたフィルムからフィルムスキャナによってデジタル化されたものであっても良い。
また、上記実施形態では、図6に示すように、コース方向に互いに重複する空中写真画像データI及び空中写真画像データIと、コース並び方向において空中写真画像データI及び空中写真画像データIが重複する割合よりも小さい割合で空中写真画像データI及び空中写真画像データIに対して重複する空中写真画像データI14又は空中写真画像データI13とに共通する対応点を設定するとして説明したが、上記方法によれば、空中写真画像データI及び空中写真画像データIに対してコース方向に互いに重複する空中写真画像データIと、空中写真画像データI及び空中写真画像データIとの互いに重複する領域から互いに共通する対応点を設定することも可能である。
Note that the aerial photograph image data is not limited to the image of the feature recorded by the digital area camera, but may be digitalized by a film scanner from a film photographed by an analog camera.
In the above embodiment, as shown in FIG. 6, the aerial photograph image data I 1 and the aerial photograph image data I 2 which overlap each other in the course direction, aerial photographic image data I 1 and the aerial photograph image data in the course alignment direction set the corresponding points that are common to the aerial photograph image data I 14 or aerial photographic image data I 13 I 2 overlap at a smaller rate than the rate of overlap with respect to aerial photograph image data I 1 and the aerial photograph image data I 2 As described above, according to the above method, the aerial photo image data I 3 and the aerial photo image data I 1 and the aerial photo image data I 1 and the aerial photo image data I 2 that overlap each other in the course direction are combined. it is also possible to set the corresponding points in common with each other from a region overlapping with the picture image data I 2.

上記実施形態では、対応点設定装置1が、サンプル領域設定手段12と、特徴点抽出手段13と、共通特徴点検出手段14と、共通特徴点座標位置算出手段15とにより構成される共通特徴点設定部10を備え、飛行方向に重複する空中写真画像データIと空中写真画像データIとの対応点となる共通特徴点を設定するとして説明したが、これに限らず、空中写真画像データIと空中写真画像データIとのエピポーラ幾何を利用して、共通特徴点(q1;q2)を設定するようにしても良い。 In the above embodiment, the corresponding point setting device 1 includes the common feature point configured by the sample area setting unit 12, the feature point extraction unit 13, the common feature point detection unit 14, and the common feature point coordinate position calculation unit 15. Although it has been described that the setting unit 10 is provided and sets common feature points that correspond to the aerial photograph image data I 1 and the aerial photograph image data I 2 that overlap in the flight direction, the present invention is not limited to this, but aerial photograph image data using the epipolar geometry between I 1 and aerial photograph image data I 2, the common feature point; it may be set to (q1 q2).

実施形態2
上記実施形態1では、対応点設定装置1が、共通特徴点設定部10を備えるとして説明したが、実施形態2では、共通特徴点設定部10を備えていない点で異なる。即ち、図10に示すように、予めコース1,2,3方向に隣接する空中写真画像データIと空中写真画像データIとにおいて、空中写真画像データIと空中写真画像データIとの対応点である共通特徴点(q1;q2)の3次元空間における座標位置が記憶手段2に予め記憶されている場合、対応点設定装置1は、読込手段11と、特徴点投影座標位置算出手段16と、探索領域設定手段17と、誤差ベクトル算出手段18と、最頻誤差ベクトル検出手段19と、対応点設定手段20と、出力手段21とにより構成するようにしても良い。このように、空中写真画像データIと空中写真画像データIとの対応点である共通特徴点(q1;q2)が設定されている場合、読込手段11により記憶手段2に記憶された空中写真画像データIiと、外部標定要素と、共通特徴点とを読み込み、特徴点投影座標位置算出手段16、探索領域設定手段17、誤差ベクトル算出手段18、最頻誤差ベクトル検出手段19、対応点設定手段20により処理することにより、上記実施形態1と同様に、空中写真画像データIと空中写真画像データIと空中写真画像データIとに共通の対応点q5を設定することができる。
Embodiment 2
In the first embodiment, the corresponding point setting device 1 has been described as including the common feature point setting unit 10. However, the second embodiment is different in that the common feature point setting unit 10 is not provided. That is, as shown in FIG. 10, in the aerial photograph image data I 1 and the aerial photograph image data I 2 that are adjacent in the courses 1, 2, and 3 in advance, the aerial photograph image data I 1 and the aerial photograph image data I 2 If the coordinate position in the three-dimensional space of the common feature point (q1; q2), which is the corresponding point of, is previously stored in the storage unit 2, the corresponding point setting device 1 reads the reading unit 11 and the feature point projected coordinate position calculation. Means 16, search area setting means 17, error vector calculation means 18, mode error vector detection means 19, corresponding point setting means 20, and output means 21 may be used. Thus, the common feature point is a corresponding point of the aerial photograph image data I 1 and the aerial photograph image data I 2; if (q1 q2) is set, the air stored in the storage unit 2 by reading means 11 Photo image data Ii, external orientation elements, and common feature points are read, feature point projected coordinate position calculation means 16, search area setting means 17, error vector calculation means 18, mode error vector detection means 19, and corresponding point setting. by treating means 20, as in embodiment 1, it is possible to set a common corresponding points q5 to the aerial photograph image data I 1 and the aerial photograph image data I 2 and aerial photograph image data I 3.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment.

1 対応点設定装置、11 読込手段、12 サンプル領域設定手段、
13 特徴点抽出手段、14 共通特徴点検出手段、
15 共通特徴点座標位置算出手段、16 特徴点投影座標位置算出手段、
17 探索領域設定手段、18 誤差ベクトル算出手段、
19 最頻誤差ベクトル検出手段、20 対応点設定手段、21 出力手段、
I 空中写真画像データ、Q;Q1;Q2 特徴点、G1;G2 サンプル領域、
T 探索領域、α 対象エリア、
Verr 誤差ベクトル、Vopt 最頻誤差ベクトル。
1 corresponding point setting device, 11 reading means, 12 sample area setting means,
13 feature point extraction means, 14 common feature point detection means,
15 common feature point coordinate position calculating means, 16 feature point projected coordinate position calculating means,
17 search area setting means, 18 error vector calculation means,
19 mode error vector detection means, 20 corresponding point setting means, 21 output means,
I Aerial photo image data, Q; Q1; Q2 feature points, G1; G2 sample area,
T search area, α target area,
Verr error vector, Vopt mode error vector.

Claims (5)

撮影位置と撮影姿勢とを含む外部標定要素が紐付けされ、互いに重複する領域において互いに共通する共通特徴点の座標位置が予め設定された第1空中写真画像データ及び第2空中写真画像データと、前記第1空中写真画像データ及び第2空中写真画像データが重複する割合よりも小さい割合で前記第1空中写真画像データ及び前記第2空中写真画像データに対して重複する第3空中写真画像データとから互いに共通する対応点を設定する空中写真画像データの対応点設定方法であって、
前記第1空中写真画像データ及び前記第2空中写真画像データの前記共通特徴点の座標位置及び前記第1空中写真画像データ及び前記第2空中写真画像データを撮影したときの前記外部標定要素から三角測量の原理に基づいて前記共通特徴点の3次元空間における座標位置を算出するステップと、
前記第3空中写真画像データを撮影したときの座標位置と、前記共通特徴点の3次元空間における座標位置とを結ぶ直線が前記第3空中写真画像データに交差する前記共通特徴点の前記第3空中写真画像データへの投影位置を算出するステップと、
前記投影位置を含む所定の大きさの探索領域を前記第3空中写真画像データに設定するステップと、
前記探索領域に対して前記共通特徴点をパターンマッチングし、マッチング率が閾値以上で最も高いマッチング率でマッチングしたときの前記探索領域における座標位置から前記投影位置までの位置ずれ量及び位置ずれ方向を算出し、誤差ベクトルとして設定するステップと、
前記誤差ベクトルのうち最も多く頻出する最頻誤差ベクトルを検出するステップと、
前記誤差ベクトルが最頻誤差ベクトルとなる位置の前記投影位置に最頻誤差ベクトルを加えた位置を前記共通特徴点に対応する対応点に設定するステップとを含む空中写真画像データの対応点設定方法。
First aerial photo image data and second aerial photo image data in which external orientation elements including a shooting position and a shooting posture are linked, and coordinate positions of common feature points that are common to each other in an overlapping region are preset; Third aerial photo image data that overlaps the first aerial photo image data and the second aerial photo image data at a rate that is smaller than the rate at which the first aerial photo image data and the second aerial photo image data overlap. Corresponding point setting method of aerial photo image data for setting corresponding points common to each other,
Triangulation from the coordinate position of the common feature point of the first aerial photo image data and the second aerial photo image data and the external orientation element when the first aerial photo image data and the second aerial photo image data are taken. Calculating a coordinate position in a three-dimensional space of the common feature points based on a surveying principle;
The third feature point of the common feature point at which a straight line connecting the coordinate position when the third aerial photograph image data is captured and the coordinate position of the common feature point in the three-dimensional space intersects the third aerial photograph image data. Calculating a projection position on the aerial photo image data;
Setting a search area of a predetermined size including the projection position in the third aerial photo image data;
The common feature point is pattern-matched to the search region, and the amount of displacement and the direction of displacement from the coordinate position to the projection position in the search region when the matching rate is equal to or higher than the threshold and the highest matching rate is obtained. Calculating and setting as an error vector;
Detecting the most frequent error vector among the error vectors;
A corresponding point setting method for aerial photographic image data including a step of setting a position obtained by adding a mode error vector to the projection position where the error vector becomes a mode error vector as a corresponding point corresponding to the common feature point .
前記共通特徴点は、前記第2空中写真画像データと重複する前記第1空中写真画像データの領域から所定の大きさの第1サンプル領域を抽出し、前記第1サンプル領域に対応する第2サンプル領域を前記第2空中写真画像データから特定するステップと、
前記第1サンプル領域及び前記第2サンプル領域に表わされた地物の形状のうち特徴のある形状を特徴点抽出フィルタにより第1特徴点及び第2特徴点としてそれぞれ抽出し、抽出された第1特徴点を第2特徴点に対してパターンマッチングして第1特徴点に一致する第2特徴点を検出し、前記第1特徴点と前記第2特徴点とを共通特徴点に設定するステップとにより設定される請求項1記載の空中写真画像データの対応点設定方法。
The common feature point is obtained by extracting a first sample area having a predetermined size from an area of the first aerial photograph image data that overlaps the second aerial photograph image data, and a second sample corresponding to the first sample area. Identifying a region from the second aerial photo image data;
A characteristic shape is extracted as a first feature point and a second feature point by the feature point extraction filter from among the shapes of the features represented in the first sample region and the second sample region, respectively, Pattern matching of one feature point with the second feature point to detect a second feature point matching the first feature point, and setting the first feature point and the second feature point as a common feature point The corresponding point setting method for aerial photo image data according to claim 1, which is set by:
撮影位置と撮影姿勢とを含む外部標定要素が紐付けされ、互いに重複する領域において互いに共通する共通特徴点の座標位置が予め設定された第1空中写真画像データ及び第2空中写真画像データと、前記第1空中写真画像データ及び第2空中写真画像データが重複する割合よりも小さい割合で前記第1空中写真画像データ及び前記第2空中写真画像データに対して重複する第3空中写真画像データとから互いに共通する対応点を設定する空中写真画像データの対応点設定装置であって、
前記第1空中写真画像データ及び前記第2空中写真画像データの前記共通特徴点の座標位置及び前記第1空中写真画像データ及び前記第2空中写真画像データを撮影したときの前記外部標定要素から三角測量の原理に基づいて前記共通特徴点の3次元空間における座標位置を算出する共通特徴点座標位置算出手段と、
前記第3空中写真画像データを撮影したときの座標位置と、前記共通特徴点の3次元空間における座標位置とを結ぶ直線が前記第3空中写真画像データに交差する前記共通特徴点の前記第3空中写真画像データへの投影位置を算出する特徴点投影座標位置算出手段と、
前記投影位置を含む所定の大きさの探索領域を前記第3空中写真画像データに設定する探索領域設定手段と、
前記探索領域に対して前記共通特徴点をパターンマッチングし、マッチング率が閾値以上で最も高いマッチング率でマッチングしたときの前記探索領域における座標位置から前記投影位置までの位置ずれ量及び位置ずれ方向を算出し、誤差ベクトルとして設定する誤差ベクトル算出手段と、
前記誤差ベクトルのうち最も多く頻出する最頻誤差ベクトルを検出する最頻誤差ベクトル検出手段と、
誤差ベクトルが最頻誤差ベクトルとなる位置の前記投影位置に最頻誤差ベクトルを加えた位置を前記共通特徴点に対応する対応点に設定する対応点設定手段とを備える空中写真画像データの対応点設定装置。
First aerial photo image data and second aerial photo image data in which external orientation elements including a shooting position and a shooting posture are linked, and coordinate positions of common feature points that are common to each other in an overlapping region are preset; Third aerial photo image data that overlaps the first aerial photo image data and the second aerial photo image data at a rate that is smaller than the rate at which the first aerial photo image data and the second aerial photo image data overlap. Corresponding point setting device for aerial photo image data for setting corresponding points common to each other,
Triangulation from the coordinate position of the common feature point of the first aerial photo image data and the second aerial photo image data and the external orientation element when the first aerial photo image data and the second aerial photo image data are taken. Common feature point coordinate position calculating means for calculating a coordinate position of the common feature point in a three-dimensional space based on the principle of surveying;
The third feature point of the common feature point at which a straight line connecting the coordinate position when the third aerial photograph image data is captured and the coordinate position of the common feature point in the three-dimensional space intersects the third aerial photograph image data. A feature point projected coordinate position calculating means for calculating a projection position on the aerial photo image data;
Search area setting means for setting a search area of a predetermined size including the projection position in the third aerial photo image data;
The common feature point is pattern-matched to the search region, and the amount of displacement and the direction of displacement from the coordinate position to the projection position in the search region when the matching rate is equal to or higher than the threshold and the highest matching rate is obtained. Error vector calculating means for calculating and setting as an error vector;
A mode error vector detecting means for detecting a mode error vector that occurs most frequently among the error vectors;
Corresponding points of aerial photographic image data comprising corresponding point setting means for setting a position obtained by adding a mode error vector to the projection position where the error vector becomes a mode error vector as a corresponding point corresponding to the common feature point Setting device.
前記共通特徴点は、前記第2空中写真画像データと重複する前記第1空中写真画像データの領域から所定の大きさの第1サンプル領域を抽出し、前記第1サンプル領域に対応する第2サンプル領域を前記第2空中写真画像データから特定するサンプル領域設定手段と、
前記第1サンプル領域及び前記第2サンプル領域に表わされた地物の形状のうち特徴のある形状を特徴点抽出フィルタにより第1特徴点及び第2特徴点としてそれぞれ抽出し、抽出された第1特徴点を第2特徴点に対してパターンマッチングして第1特徴点に一致する第2特徴点を検出し、前記第1特徴点と前記第2特徴点とを共通特徴点に設定する共通特徴点検出手段とにより設定される請求項3記載の空中写真画像データの対応点設定装置。
The common feature point is obtained by extracting a first sample area having a predetermined size from an area of the first aerial photograph image data that overlaps the second aerial photograph image data, and a second sample corresponding to the first sample area. Sample area setting means for specifying an area from the second aerial photo image data;
A characteristic shape is extracted as a first feature point and a second feature point by the feature point extraction filter from among the shapes of the features represented in the first sample region and the second sample region, respectively, Commonly setting one feature point to a second feature point to detect a second feature point that matches the first feature point, and setting the first feature point and the second feature point as a common feature point 4. The corresponding point setting device for aerial photograph image data according to claim 3, which is set by the feature point detecting means.
前記請求項1又は請求項2記載の処理をコンピュータにより実行させる空中写真画像データの対応点設定プログラム。   A corresponding point setting program for aerial photographic image data that causes a computer to execute the processing according to claim 1 or 2.
JP2011199029A 2011-09-13 2011-09-13 Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data Active JP5885974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011199029A JP5885974B2 (en) 2011-09-13 2011-09-13 Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011199029A JP5885974B2 (en) 2011-09-13 2011-09-13 Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data

Publications (2)

Publication Number Publication Date
JP2013061204A JP2013061204A (en) 2013-04-04
JP5885974B2 true JP5885974B2 (en) 2016-03-16

Family

ID=48185996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011199029A Active JP5885974B2 (en) 2011-09-13 2011-09-13 Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data

Country Status (1)

Country Link
JP (1) JP5885974B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6854164B2 (en) 2017-03-22 2021-04-07 株式会社トプコン Survey data processing device, survey data processing method, survey data processing system and survey data processing program
CN111985455A (en) * 2020-09-08 2020-11-24 国网江西省电力有限公司电力科学研究院 Training and identifying method and device for photovoltaic module visible light fault model
CN116772803B (en) * 2023-08-24 2024-02-09 陕西德鑫智能科技有限公司 Unmanned aerial vehicle detection method and device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148012A (en) * 1999-11-19 2001-05-29 Minolta Co Ltd Method and device for searching corresponding point
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
JP4178469B2 (en) * 2003-11-27 2008-11-12 国際航業株式会社 How to configure aerial photo image data set
JP4062631B2 (en) * 2005-11-29 2008-03-19 鹿島建設株式会社 Strain shape measuring method and program for cylindrical ring
JP5134784B2 (en) * 2006-05-30 2013-01-30 株式会社パスコ Aerial photogrammetry
JPWO2008152740A1 (en) * 2007-06-13 2010-08-26 株式会社情報科学テクノシステム Digital aerial 3D measurement system
JP5234894B2 (en) * 2007-06-28 2013-07-10 富士重工業株式会社 Stereo image processing device
JP2011048507A (en) * 2009-08-25 2011-03-10 Geo Solutions Inc Three-dimensional data generation device, three-dimensional data generation method, and program

Also Published As

Publication number Publication date
JP2013061204A (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5134784B2 (en) Aerial photogrammetry
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
CN107492069B (en) Image fusion method based on multi-lens sensor
CN107560603B (en) Unmanned aerial vehicle oblique photography measurement system and measurement method
JP2009177251A (en) Generation method of orthophoto image and photographing device
JP6433200B2 (en) Arithmetic apparatus, arithmetic method, and program
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
WO2004113836A1 (en) Picked-up image display method
JP2008186145A (en) Aerial image processing apparatus and aerial image processing method
JP6877293B2 (en) Location information recording method and equipment
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
CN102519436A (en) Chang'e-1 (CE-1) stereo camera and laser altimeter data combined adjustment method
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
Liu et al. A new approach to fast mosaic UAV images
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP3808833B2 (en) Aerial photogrammetry
JP2011169658A (en) Device and method for pinpointing photographed position
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
CN108955642B (en) Large-breadth equivalent center projection image seamless splicing method
Zhou et al. Automatic orthorectification and mosaicking of oblique images from a zoom lens aerial camera
KR102389762B1 (en) Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JP5088627B2 (en) Multi-matching method
Yang et al. Effect of field of view on the accuracy of camera calibration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160210

R150 Certificate of patent or registration of utility model

Ref document number: 5885974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250