JPWO2008152740A1 - Digital aerial 3D measurement system - Google Patents

Digital aerial 3D measurement system Download PDF

Info

Publication number
JPWO2008152740A1
JPWO2008152740A1 JP2009519130A JP2009519130A JPWO2008152740A1 JP WO2008152740 A1 JPWO2008152740 A1 JP WO2008152740A1 JP 2009519130 A JP2009519130 A JP 2009519130A JP 2009519130 A JP2009519130 A JP 2009519130A JP WO2008152740 A1 JPWO2008152740 A1 JP WO2008152740A1
Authority
JP
Japan
Prior art keywords
point
image
orientation
camera
photograph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009519130A
Other languages
Japanese (ja)
Inventor
文勇 篠原
文勇 篠原
Original Assignee
株式会社情報科学テクノシステム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社情報科学テクノシステム filed Critical 株式会社情報科学テクノシステム
Publication of JPWO2008152740A1 publication Critical patent/JPWO2008152740A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

本発明は、デジタルカメラで撮影した画像から高い精度で3次元座標を算出することができるデジタル空撮3次元計測システムを提供することを目的とするものである。本発明は、デジタルカメラの仕様に基づく内部標定要素と前記デジタルカメラで撮影した複数の航空写真と前記航空写真の撮影に伴い受信したGPSデータをコンピュータに入力し、幾何補正の手段と、連続性解析の手段と、タイポイント抽出の手段と、外部標定の手段と、偏位補正の手段と、ステレオマッチングの手段と、オルソ補正の手段とにより、補正済写真をコンピュータから出力することを特徴とするデジタル空撮3次元計測システムの構成とした。An object of the present invention is to provide a digital aerial photography three-dimensional measurement system capable of calculating three-dimensional coordinates with high accuracy from an image photographed by a digital camera. The present invention inputs an internal orientation element based on the specifications of a digital camera, a plurality of aerial photographs taken with the digital camera, and GPS data received along with the aerial photography, to a computer, geometric correction means, and continuity A corrected photograph is output from a computer by means of analysis, tie point extraction means, external orientation means, deviation correction means, stereo matching means, and ortho correction means. It was set as the structure of the digital aerial photography three-dimensional measurement system.

Description

本発明は、撮像機器としてデジタルカメラを利用して航空機から行う写真測量に関するシステムである。   The present invention is a system related to photogrammetry performed from an aircraft using a digital camera as an imaging device.

写真測量は、対象物を複数の位置・角度から写真に収め、これらの写真を撮影したときのカメラ位置・姿勢の情報を元に、対象物の3次元座標を算出する技術である。写真測量の中でも、飛行する航空機から直下方向を撮影することで地物又は地形の緯度・経度・高度を算出するものを航空写真測量といい、特に写真の記録媒体として化学的なフィルムではなく電子的なメディアを利用するものをデジタル航空写真測量という。
通常、カメラの撮像面に記録される画像は、カメラの画角に入る範囲を中心投影によって射影したものである。即ち、撮像面上の各点からレンズの主点を通る直線を延ばしていったとき、その直線がはじめてぶつかるものがその点に記録される。
したがって、ある写真上に写っている各点の3次元座標は、その写真を撮ったカメラの光学系と、撮ったときの撮像面の位置及び姿勢が分かれば、その光学系を逆にたどっていった場合に得られる各1本の直線上のどこかにある。このとき、同一の対象を違う位置及び姿勢で撮影した写真がもう1枚あれば、同様にして各点に対応する直線を得ることができるが、先の写真と後の写真とで同一の点に対し得られる直線は必ず異なっており、かつ必ず交わる。即ち、その交点が、求める座標にあたる。
従来の航空写真測量においては、専用に開発された大掛かりなシステムを使用することが多く、精度は高いが、導入コストや運用コストも高く、予算規模の大きいプロジェクトでないと困難であった。しかしながら、民生用デジタルカメラの市場も急成長しており、写真測量に耐えうる高解像度を持ったカメラも存在する。
特許文献1である特開2007−108029号公報に記載されているように、撮像部の撮影した撮像データと各地点における撮像部の撮影範囲に対応する地理データとを比較した誤差量に基づいて位置特定部が位置を特定することにより、GPSの衛星補足数が十分確保できない条件下においても測位することができる発明も公開されている。
特許文献2である特開2006−079521号公報に記載されているように、撮影対象物につき撮影位置を異ならせて複数地点からデジタルカメラで撮影した複数の画像情報と、撮影対象物の3次元座標情報とを用い、撮影対象物の所定位置における3次元座標情報に対応する画像情報上での画像座標情報を求め、求められた画像座標情報に対応するRGB値を取得して撮影対象物の正射投影画像を形成する発明も公開されている。
特許文献3である特開2001−114047号公報に記載されているように、車に設置されたカメラからの画像を用いて任意の視点からの画像を合成する際に、路面指標合成手段によって路面投影像に路面以外の物体を区別する指標を合成することで、運転者に路面以外の物体を判断しやすいように提示する発明も公開されている。
特許文献4である特開2006−195758号公報に記載されているように、横軸が平行投影のステレオ画像を2枚取得する画像入力手段と、画像入力手段により得られた2枚の画像のうち1枚の画像における局所領域を変形させた補正画像に対し、もう一枚の画像との類似度を算出する画像照合手段と、画像照合手段により算出された類似度を基に3次元点群を生成する3次元点群生成手段を備える発明も公開されている。
特許文献5である再表2004−038660号公報に記載されているように、基準画像および参照画像に対して、それぞれ所定の相関関係に基づいて対応付けされた複数のウィンドウを設定し、このうち、参照画像に形成された複数のウィンドウを伸縮させて変形させることにより、参照画像における隣接するウィンドウ同士間の離間又は重なり合いを解消させて、基準画像のウィンドウと参照画像のウィンドウとのステレオマッチングを行い、対象物の形状を復元する発明も公開されている。
しかしながら、従来の専用システムは、全てハードウェアで構成されているため、装置全体が大型化しやすく、メンテナンスにも手間が掛かる。また、技術が向上しても部分的に交換することが困難である。
尚、特許文献1である特開2007−108029号公報に記載の発明は、天空画像カメラを使用して赤外線で全周囲を撮像するものであるため、専用のハードウェアが必要となり、民生用デジタルカメラで実現することはできない。
特許文献2である特開2006−079521号公報に記載の発明は、撮影対象物の3次元座標情報から正射投影画像を形成するものであり、撮影対象物を複数地点からデジタルカメラで撮影して3次元座標を算出するものではない。
特許文献3である特開2001−114047号公報に記載の発明は、車両に搭載したカメラで撮影した画像を合成して車両の周囲の状況を判りやすく表示するものであり、画像を補正する等して高精度な3次元座標を算出するものではない。
特許文献4である特開2006−195758号公報に記載の発明は、2台のカメラを固定し、平行移動しながら撮影してステレオマッチングするものであり、カメラの位置や姿勢が不定である場合にも対応できるものではない。
特許文献5である再表2004−038660号公報に記載の発明は、同一対象物を撮影した基準画像と参照画像をそれぞれ同数のウィンドウに分割しウィンドウ同士の対応関係によってステレオマッチングするものであり、2つの画像が重なり合う領域全体にわたって1点ごとの対応関係を求め高精度な3次元座標を算出するものではない。
そこで、本発明は、デジタルカメラで撮影した画像から高い精度で3次元座標を算出することができるデジタル空撮3次元計測システムを提供することを目的とするものである。
Photogrammetry is a technique for calculating a three-dimensional coordinate of an object based on information about the camera position and orientation when the object is photographed from a plurality of positions and angles and these photographs are taken. Among photogrammetry, aerial photogrammetry is a method that calculates the latitude, longitude, and altitude of a feature or terrain by shooting the direction directly from the flying aircraft. Especially, it is not a chemical film but an electronic film as a photo recording medium. What uses traditional media is called digital aerial photogrammetry.
Usually, the image recorded on the imaging surface of the camera is obtained by projecting a range that falls within the angle of view of the camera by central projection. That is, when a straight line passing through the principal point of the lens is extended from each point on the imaging surface, the first collision of the straight line is recorded at that point.
Therefore, the three-dimensional coordinates of each point on a photo follow the optical system in reverse if you know the optical system of the camera that took the photo and the position and orientation of the imaging surface when the photo was taken. It is somewhere on each straight line obtained. At this time, if there is another photo of the same object taken at different positions and orientations, straight lines corresponding to each point can be obtained in the same way, but the same point is used for the previous photo and the subsequent photo. The straight lines obtained for are always different and must intersect. That is, the intersection is the desired coordinate.
Conventional aerial photogrammetry often uses a large-scale system developed exclusively for its use, and it has high accuracy, but is expensive to introduce and operate, and is difficult unless the project has a large budget. However, the consumer digital camera market is also growing rapidly, and there are cameras with high resolution that can withstand photogrammetry.
As described in Japanese Patent Application Laid-Open No. 2007-108029, which is Japanese Patent Application Laid-Open No. 2007-108029, based on an error amount obtained by comparing imaging data captured by the imaging unit and geographic data corresponding to the imaging range of the imaging unit at each point. An invention has also been disclosed in which positioning can be performed even under conditions where the number of GPS satellite supplements cannot be sufficiently secured by specifying the position by the position specifying unit.
As described in Japanese Patent Application Laid-Open No. 2006-079521, which is Japanese Patent Application Laid-Open No. 2006-079521, a plurality of image information captured by a digital camera from a plurality of points with different shooting positions for each shooting target, and a three-dimensional image of the shooting target The coordinate information is used to obtain image coordinate information on the image information corresponding to the three-dimensional coordinate information at the predetermined position of the photographing object, and the RGB value corresponding to the obtained image coordinate information is obtained to obtain the image of the photographing object. An invention for forming an orthographic projection image is also disclosed.
As described in Japanese Patent Application Laid-Open No. 2001-114047, which is Patent Document 3, when an image from an arbitrary viewpoint is synthesized using an image from a camera installed in a car, a road surface is synthesized by a road surface index synthesis unit. An invention is also disclosed in which a projected image is combined with an index for distinguishing an object other than a road surface so that the driver can easily judge an object other than the road surface.
As described in Japanese Patent Application Laid-Open No. 2006-195758, which is Patent Document 4, an image input unit that acquires two stereo images whose horizontal axes are parallel projections, and two images obtained by the image input unit Among them, an image collating unit that calculates a similarity between the corrected image obtained by deforming a local region in one image and another image, and a three-dimensional point cloud based on the similarity calculated by the image collating unit An invention provided with a three-dimensional point cloud generation means for generating is also disclosed.
As described in Japanese Patent Laid-Open No. 2004-038660, which is Patent Document 5, a plurality of windows associated with a base image and a reference image based on a predetermined correlation are set. The stereo image matching between the reference image window and the reference image window can be achieved by eliminating the separation or overlap between adjacent windows in the reference image by expanding and contracting a plurality of windows formed in the reference image. An invention for performing and restoring the shape of an object is also disclosed.
However, since the conventional dedicated system is entirely composed of hardware, the entire apparatus is likely to be large, and maintenance is troublesome. Moreover, even if the technology improves, it is difficult to partially replace the technology.
In addition, since the invention described in Japanese Patent Application Laid-Open No. 2007-108029, which is Patent Document 1, uses a sky image camera to capture the entire periphery with infrared rays, dedicated hardware is required, and consumer digital It cannot be realized with a camera.
The invention described in Japanese Patent Application Laid-Open No. 2006-079521, which is Patent Document 2, forms an orthographic projection image from three-dimensional coordinate information of an object to be imaged, and images the object to be imaged from a plurality of points with a digital camera. Therefore, the three-dimensional coordinates are not calculated.
The invention described in Japanese Patent Application Laid-Open No. 2001-114047, which is Patent Document 3, combines images captured by a camera mounted on a vehicle and displays the situation around the vehicle in an easy-to-understand manner. Thus, high-precision three-dimensional coordinates are not calculated.
The invention described in Japanese Patent Application Laid-Open No. 2006-195758, which is Patent Document 4, is a method in which two cameras are fixed, photographed while moving in parallel and stereo-matched, and the position and orientation of the camera are indefinite. It is not something that can be handled.
The invention described in Japanese Patent Application Laid-Open No. 2004-038660, which is Patent Document 5, divides a standard image obtained by photographing the same object and a reference image into the same number of windows, respectively, and performs stereo matching according to the correspondence between the windows. It does not calculate the correspondence between each point over the entire region where two images overlap, and calculate high-accuracy three-dimensional coordinates.
Therefore, an object of the present invention is to provide a digital aerial imaging three-dimensional measurement system that can calculate three-dimensional coordinates with high accuracy from an image photographed by a digital camera.

本発明は、上記の課題を解決するために、デジタルカメラの仕様に基づく内部標定要素と前記デジタルカメラで撮影した複数の航空写真をコンピュータに入力し、前記内部標定要素を係数として放射方向歪みと接線方向歪みについて前記航空写真の画像上座標を変換した幾何補正済写真のデータを記憶装置に保存する幾何補正の手段と、前記航空写真を記憶装置から読み出すと共に前記航空写真の撮影に伴い受信したGPSデータをコンピュータに入力し、前記航空写真について連続する2枚の写真の重なり具合を求めて前記GPSデータの高度情報を基に撮影位置の差を算出し、前記GPSデータの緯度及び経度情報と比較して各写真に結び付けたカメラ位置のデータを記憶装置に保存する連続性解析の手段と、前記幾何補正済写真と前記カメラ位置を記憶装置から読み出し、前記カメラ位置を基に前記幾何補正済写真のうち隣接する写真同士をペアとしたとき、一方の写真上の複数点が他方の写真のどこに写っているかを画像照合により探し出したタイポイントのデータを記憶装置に保存するタイポイント抽出の手段と、前記内部標定要素と前記幾何補正済写真と前記カメラ位置と前記タイポイントを記憶装置から読み出し、前記タイポイントが前記カメラ位置において直下方向の姿勢で撮影されたと仮定して実空間での中心投影を逆にたどる直線を算出し、ペアの写真における2つの直線間の捩れが最小となるように姿勢を調整した位置姿勢のデータを記憶装置に保存する外部標定の手段と、前記内部標定要素と前記航空写真と前記位置姿勢を記憶装置から読み出し、前記航空写真を前記内部標定要素で幾何補正したものに対し前記位置姿勢を基に直下方向の姿勢で撮影した状態となるように投影し直した偏位補正済写真のデータを記憶装置に保存する偏位補正の手段と、前記位置姿勢と前記偏位補正済写真を記憶装置から読み出し、前記偏位補正済写真のうち重なり合う写真同士をペアにしたとき、一方の写真上の複数の点が他方の写真のどこに写っているかを画像照合により探し出し、前記位置姿勢に基づいて実空間での中心投影を逆にたどる直線を算出して、ペアの写真における2つの直線により求めた3次元座標のデータを記憶装置に保存するステレオマッチングの手段と、前記内部標定要素と前記航空写真と前記位置姿勢と前記3次元座標を記憶装置から読み出し、前記3次元座標で表されるものを前記内部標定要素の幾何的歪みを持った状態で前記位置姿勢の姿勢で撮影した際の対応関係を算出して前記航空写真上の各点を前記3次元座標に結び付け、画像を中心投影から正射影に変換した補正済写真のデータをコンピュータから出力するオルソ補正の手段とからなることを特徴とするデジタル空撮3次元計測システムの構成と、写真測量のタイポイント抽出又はステレオマッチングで画像照合する際の画素値取得において、画像上の点に対して、前記点が中央付近の場合は正方形状、前記点が画像外縁付近の場合は放射方向に引き延ばした形状で設定した枠を、カメラの進行方向に合わせて回転、カメラの傾きに合わせて歪曲、又はカメラの高度に合わせて拡大縮小し、前記枠の形状に合わせて画素値の取得位置を変更して周囲のピクセル中心との距離により画素値を算出することを特徴とする画像照合方法と、写真測量の外部標定で撮影範囲が重なり合う写真の共面条件及び共線条件を利用して行うカメラの姿勢推定において、カメラの進行方向に沿った連続する2枚の写真と、前記写真と撮影範囲が重なり合い且つ進行方向と直交する位置で撮影した写真とで推定することを特徴とする姿勢推定方法と、写真測量の偏位補正で直下方向の中心投影に補正する際において、写真撮影時のカメラの傾きによって傾いた中心投影の写真に対し、撮像面が水平となるようにレンズ主点を中心に回転させ、回転前の撮像面上の各点を回転後の撮影面に投影し直した後、各写真の辺の向きを揃えてリサンプルすることを特徴とする偏位補正方法と、写真測量のステレオマッチングで一方の画像上の各点に対応する他方の画像上の点を探し出す場合において、処理精度の段階としきい値を設定し、帰納的な手順で各点の3次元座標を求めることを特徴とするステレオマッチング方法とにより実現した。   In order to solve the above problems, the present invention inputs an internal orientation element based on the specifications of a digital camera and a plurality of aerial photographs taken by the digital camera to a computer, and uses the internal orientation element as a coefficient and radial distortion. Geometric correction means for storing geometrically corrected photograph data obtained by converting the coordinates on the image of the aerial photograph with respect to the tangential distortion, and reading the aerial photograph from the storage apparatus and receiving the aerial photograph along with the photographing GPS data is input to a computer, the difference between two consecutive photographs of the aerial photograph is calculated to calculate the difference in shooting position based on the altitude information of the GPS data, and the latitude and longitude information of the GPS data Means for continuity analysis for storing in a storage device the data of the camera position associated with each photo in comparison, the geometrically corrected photo and the Read out the camera position from the storage device, and based on the camera position, when adjacent photos of the geometrically corrected photos are paired with each other, check where the multiple points on one photo appear in the other photo Tie point extracting means for storing the tie point data found by the above in a storage device, the internal orientation element, the geometrically corrected photograph, the camera position, and the tie point are read from the storage device, and the tie point is the camera. Position / posture in which the position is adjusted so that the twist between the two straight lines in the pair of photos is minimized by calculating a straight line that reverses the central projection in real space, assuming that the image was taken in the position directly below the position. The external orientation means for storing the data in the storage device, the internal orientation element, the aerial photograph, and the position and orientation are read from the storage device, and the navigation Deviation for storing in a storage device the data of a deviation-corrected photo that has been re-projected so that the photograph is geometrically corrected with the internal orientation element and photographed in a posture directly below based on the position and orientation When the correction means, the position and orientation, and the displacement-corrected photos are read from the storage device and the overlapping photos of the displacement-corrected photos are paired, a plurality of points on one photo are the other photos The image is searched for where the image is, and a straight line that reverses the central projection in the real space is calculated based on the position and orientation, and the data of the three-dimensional coordinates obtained from the two straight lines in the pair of photographs is stored. Stereo matching means stored in the apparatus, the internal orientation element, the aerial photograph, the position and orientation, and the three-dimensional coordinates are read from a storage device, and the one represented by the three-dimensional coordinates is Correspondence when photographing in the position and orientation with the geometric distortion of the part orientation element is calculated, and each point on the aerial photograph is connected to the three-dimensional coordinate, and the image is orthogonally projected from the central projection. A digital aerial three-dimensional measurement system characterized by comprising an orthocorrection means for outputting corrected photo data converted into a digital image from a computer, and image collation by tie point extraction or stereo matching of photogrammetry In the pixel value acquisition, a frame set in a square shape when the point is near the center and a shape extended in the radial direction when the point is near the outer edge of the image, the camera traveling direction Rotate according to the camera tilt, distort according to the camera tilt, or scale according to the camera altitude, change the pixel value acquisition position according to the shape of the frame, and In the image collation method characterized in that the pixel value is calculated based on the distance between the camera and the camera posture estimation performed using the coplanar condition and the collinear condition of the photograph in which the photographing ranges overlap in the external orientation of the photogrammetry A posture estimation method characterized in that estimation is performed by using two consecutive photographs along a traveling direction of the image and a photograph taken at a position where the photograph and the photographing range overlap and are orthogonal to the traveling direction; When correcting the central projection in the direct downward direction with the position correction, for the central projection photo tilted by the camera tilt at the time of taking the photo, rotate it around the lens principal point so that the imaging surface is horizontal, and before the rotation After re-projecting each point on the imaging surface of the camera onto the rotated imaging surface, re-sampling with the orientation of the sides of each photo aligned and stereo matching for photogrammetry Painting A stereo matching method characterized in that, in finding a point on the other image corresponding to each of the above points, a stage of processing accuracy and a threshold are set, and the three-dimensional coordinates of each point are obtained by an inductive procedure And realized.

第1図は本発明であるデジタル空撮3次元計測システムの処理の流れを示すフローチャート、第2図は本発明であるデジタル空撮3次元計測システムの処理、データ及び装置の関係を示す図、第3図は本発明であるデジタル空撮3次元計測システムコンピュータの構成を示す図、第4図は本発明であるデジタル空撮3次元計測システムの画像相関法における図形の変形を示す図、第5図は本発明であるデジタル空撮3次元計測システムの画像相関法における図形の変形を示す図、第6図は本発明であるデジタル空撮3次元計測システムの画素値の取得を示す図、第7図は共面条件及び共線条件を示す図、第8図は本発明であるデジタル空撮3次元計測システムの位置及び姿勢推定における画像の組を示す図、第9図は本発明であるデジタル空撮3次元計測システムの偏位補正の手法を示す図、第10図は本発明であるデジタル空撮3次元計測システムの偏位補正した画像のリサンプルを示す図、第11図は本発明であるデジタル空撮3次元計測システムのステレオマッチングの手法を示す図、第12は本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの斜視図、第13図は本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの平面図、第14図は本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの正面図である。   FIG. 1 is a flowchart showing a processing flow of a digital aerial imaging three-dimensional measurement system according to the present invention, and FIG. 2 is a diagram showing a process of the digital aerial imaging three-dimensional measurement system according to the present invention, the relationship between data and apparatus, FIG. 3 is a diagram showing the configuration of a digital aerial photography three-dimensional measurement system computer according to the present invention, FIG. 4 is a diagram showing graphic deformation in the image correlation method of the digital aerial photography three-dimensional measurement system according to the present invention, FIG. 5 is a diagram showing the deformation of a figure in the image correlation method of the digital aerial imaging 3D measurement system according to the present invention, and FIG. 6 is a diagram showing the acquisition of pixel values of the digital aerial imaging 3D measurement system according to the present invention; FIG. 7 is a diagram showing coplanar conditions and collinear conditions, FIG. 8 is a diagram showing a set of images in position and orientation estimation of the digital aerial imaging three-dimensional measurement system according to the present invention, and FIG. 9 is a diagram showing the present invention. A digital sky FIG. 10 is a diagram showing a method of correcting the deviation of the three-dimensional measurement system, FIG. 10 is a diagram showing resampling of the deviation corrected image of the digital aerial photography three-dimensional measurement system according to the present invention, and FIG. 11 is the present invention. The figure which shows the method of the stereo matching of a digital aerial photography three-dimensional measurement system, The twelfth is a perspective view of the consumer digital camera used with the digital aerial photography three-dimensional measurement system which is this invention, FIG. 13 is the digital which is this invention FIG. 14 is a front view of a consumer digital camera used in the digital aerial photography three-dimensional measurement system according to the present invention, and FIG. 14 is a plan view of the consumer digital camera used in the aerial photography three-dimensional measurement system.

以下に、添付図面に基づいて、本発明であるデジタル空撮3次元計測システムについて詳細に説明する。図1は、本発明であるデジタル空撮3次元計測システムの処理の流れを示すフローチャートである。図2は、本発明であるデジタル空撮3次元計測システムの処理、データ及び装置の関係を示す図である。図3は、本発明であるデジタル空撮3次元計測システムコンピュータの構成を示す図である。
図1に示すように、デジタル空撮3次元計測システム1は、幾何補正2、連続性解析3、タイポイント抽出4、外部標定5、偏位補正6、ステレオマッチング7、及びオルソ補正8の手段よりなる。
幾何補正2では、内部標定9で得られたパラメータを用いて各写真に含まれる歪曲収差を補正した写真を生成する。
連続性解析3では、各写真はGPS信号と同期してシャッターが切られているが、具体的にどの写真がどのGPS記録に対応しているのかを決定する。基準となる1枚の写真とそれに対応するGPS記録を入力すると、それを基準にして、残りの画像とGPS記録とを照合及び解析させる。
タイポイント抽出4では、外部標定5を行うためのデータを生成する。具体的には、撮影範囲の一部が重なる写真同士について、画像照合技術を用いて、共通に写っている特徴的な点を探し出して画像上座標をデータとして保存する。
外部標定5では、各写真の撮像時のカメラの撮像面の位置と姿勢を、GPSにより計測された位置データ及びカメラにより撮影された写真に基づいて、高精度に推定する。
具体的には、各写真がGPS記録通りの位置から直下方向を向いて撮影されたものとの仮定を初期条件とし、タイポイント4aから光学系を逆にたどって得られる光線について本来同一平面上になるはずの各光線同士の捩れが最も小さくなるよう、撮像面の位置と姿勢をニュートン法などの解法によって算出する。また、予め地理座標の分かっている地物(地上基準点)が写真に収められている場合、この推定にその情報を利用することもできるが、必須ではない。
偏位補正6では、ステレオマッチング7の計算を簡便にするため、直下方向を向いて撮影されていた場合に写るはずの画像へと射影し直した写真を生成する。具体的には、各写真の外部標定5の結果を用いて、直下方向を向いて撮影された場合に射影されるはずの位置へと写真上各点の画像上座標を変換し、ステレオマッチングする写真同士で向きを揃えてリサンプルする処理を行う。
ステレオマッチング7では、内部標定9及び外部標定5が済み偏位補正6した後の複数の写真のうち、重なり合う範囲の大きい2枚について、その共通に写る部分の3次元情報を算出する。
具体的には、画像照合技術を用いて各写真上の点の対応関係(一方に写っている点が他方のどこに写っているか)を求め、対応する点同士それぞれについて光学系を逆にたどって得られる直線の交点を導き、その座標を求める。写真はラスター画像であるため、この処理はピクセルごとの対応関係を求めていくことによってなされる。
写真は中心投影であるため、奥行きの探い(高度が高い)ものが写真の外縁付近に写る場合、その影になって見えない範囲(倒れ込み)が発生する。倒れ込みによって隠れる範囲は撮影の位置と角度で変わるため、写真ごとに異なり、この範囲についてのステレオマッチング7を行うことはできない。したがって、穴の無い3次元情報を得たい場合には各写真中の倒れ込みを互いに補えるよう、様々な位置又は角度からの写真を必要とする。
オルソ補正8では、中心投影を正射影に射影し直す。写真は中心投影であるが、ステレオマッチング7の結果として写真上の各点の座標が得られるため、この座標へと各点を写像した後、その奥行き軸(高度の軸)を潰して縦横軸のみにすれば、正射影された写真が得られる。尚、ステレオマッチング7の結果として得られた座標に基づいて3次元データを生成し、テクスチャとしてオルソ補正8された写真を用いれば、3次元写真地図が得られる。
図2に示すように、幾何補正2の手段は、内部標定要素9b及び航空写真10aのデータを入力し、幾何補正済写真2aのデータを出力する。内部標定要素9bの値を係数として、放射方向歪みの式と、接線方向歪みの式を決定し、その逆変換を航空写真10aに施す。具体的には、歪曲の逆変換により画像上座標を変換し、3次内挿などの内挿法によってラスター画像へとリサンプルする処理である。
内部標定要素9bのデータは、カメラ仕様9aのデータを入力とする内部標定9の処理により作成される。カメラ仕様9aのデータのうち民生用デジタルカメラ14の光学系を規定するパラメータと、内部標定9の処理によって決定された光学系の歪みを表すパラメータである。
航空写真10aのデータは、航空撮影10の実施により撮影される。尚、民生用デジタルカメラ14の出力フォーマットに則った電子画像ファイルである。各写真はその前後の写真とそれぞれの撮影範囲の60%以上が重なり合うように撮影され、また、全飛行経路中で最低1枚は、連続しない飛行経路(即ち、交差または並走する経路)から撮られた写真と、互いの撮影範囲の30%以上が重なり合うように撮影される。
幾何補正済写真2aのデータは、航空写真10aのデータのそれぞれから民生用デジタルカメラ14の光学系固有の歪みを取り除いた電子画像ファイルである。
カメラ仕様9aのデータは、民生用デジタルカメラ14のカメラとレンズの主要諸元、即ち、主点位置、焦点距離、画素の寸法、画素の間隔などの属性を有するデータの集合である。
内部標定9の作業は、民生用デジタルカメラ14が持つ光学系の歪み、即ち、カメラ仕様9aによって決まる理想的な中心投影の様子と実際の中心投影の様子との誤差を計測し、それを補正するパラメータを決定する。写真撮影における中心投影は、理想的にはカメラの主点位置、焦点距離、画素の寸法、及び画素の間隔で決定されるが、その決定式自体が近似条件を使っていること、また工作精度の問題などから、現実のレンズは理想的ではなく、歪曲収差等を現物合わせて計測し、理想的な中心投影からの誤差を補正するためのパラメータを決定する必要がある。
具体的には、絶対的な座標が分かっている複数の対象物を、絶対的な座標が分かっている位置から撮影した写真について、理想的条件下でそれら対象物が写るはずの画像上座標(前記決定式で計算される)と実際にそれら対象物が写っている画像上座標とを、放射方向歪みと接線方向歪みを表す画像上座標変換の式にあてはめ解くことで、それら歪みの式がその光学系の歪みを再現する式に相当するときの係数を決定する。その光学系で撮影された写真は、このようにして決定した係数をそれら歪みの式に与えて決定される画像上座標変換の式を用いて逆変換することで、いずれも等しく理想的条件下で撮影された画像へと変換することができる
航空撮影10の作業は、民生用デジタルカメラ14と航空GPS受信機16を、取付・制御用台座15を介して航空機に搭載し、航空GPS受信機16の機能を利用して航空機の軌跡を記録しつつ、取付・制御用台座15の機能を利用して航空GPS受信機16の記録と同期したシャッター信号を民生用デジタルカメラ14に送り、また取付・制御用台座15の機能を利用して民生用デジタルカメラ14を直下方向に向いた姿勢に維持したまま、民生用デジタルカメラ14の機能によって航空機から直下方向の写真を撮影する。
民生用デジタルカメラ14は、市販されている一眼レフデジタルカメラ等である。外部からシャッター信号を受け付けるインタフェースを持ち、それを取付・制御用台座15と繋げる。取り付け部分には汎用性があり、より高性能なカメラが登場した場合には換装することができる。
取付・制御用台座15は、民生用デジタルカメラ14と航空GPS受信機16を搭載し、航空機に取り付ける台座である。航空機由来の振動を吸収し、民生用デジタルカメラ14が常に直下方向を向くよう取付部をモーターで傾斜させる機能を持つ。また、航空GPS受信機16から信号を受信して内蔵のメモリーカードに記録すると同時に、その信号受信と同期して民生用デジタルカメラ14へシャッター信号を送る機能を有する。
航空GPS受信機16は、衛星から発射した時刻信号の電波の到達時間などから、航空機の位置を三次元測位するための受信機である。電子基板は取付・制御用台座15に内蔵され、アンテナのみを電波を受信しやすい航空機外又は機内の適切な場所へ取り付け、アンテナと基板とをケーブルで繋ぐ。
図2に示すように、連続性解析3の手段は、航空写真10a及びGPSデータ12aのデータを入力し、カメラ位置3aのデータを出力する。航空写真10aのうち基準となる1枚の写真と、GPSデータ12aうちその写真に対応するGPS記録を入力すると、まず、その写真とそのGPS記録とを結び付ける。その後、GPS記録と結び付けられた写真に連続する、GPS記録と結び付けられていない写真1枚を航空写真10aから取り出す。一方の写真上からいくつかの点を選び、それらが他方の写真上のどこに写っているかを、画像相関法による画像照合によって探し出し、それら2枚の重なり具合を求める。この重なり具合と、一方の写真に結び付けられたGPS記録の高度情報から、それらの撮影位置の差を実距離に換算し、GPSデータ12aの各緯度・経度情報と比較して、他方の写真の地理座標に対応すべきGPSデータ12aの記録を結び付ける。これを帰納的に繰り返し、航空写真10aの各写真に対応するGPS記録をGPSデータ12aから取り出して結び付けて、カメラ位置3aとする。
GPSデータ12aのデータは、GPS解析12の実施により、航空撮影10の際に飛行経路を記録した航空GPSデータ10bの精度を向上させたデータである。GPS時間、地理座標、移動速度などのデータが含まれる。
カメラ位置3aのデータは、航空写真10aのデータのそれぞれについて、GPSデータ12aの中から、撮影した瞬間に該当する記録(GPS時間、地理座標、移動速度など)を結び付けたデータである。
GPS解析12の処理は、航空GPSデータ10bを移動局データとして、定点GPSデータ11aを基地局データとして、RTK−GPS解析を実施し、より精度の高い航空撮影10の飛行経路を算出する。
航空GPSデータ10bのデータは、航空撮影10の実施の際の飛行経路を、航空GPS受信機16によって記録したデータである。GPS時間、地理座標、移動速度、搬送波などのデータが含まれる。
定点GPSデータ11aのデータは、予め地理座標の分かっている点に定点GPS受信機17を設置し、航空撮影10の実施期間と同じかそれを含む期間中に観測したデータ、及び予め分かっていたその点の地理座標である。GPS時間、搬送波などのデータが含まれる。
定点測位11の作業は、航空撮影10の飛行経路に近く(飛行経路全体が半径10km圏に収まるのが好ましい)、かつ地理座標が予め判明している地点に定点GPS受信機17を設置し、航空撮影10の実施期間と同じかそれを含む期間中、測位する。尚、国土地理院の管理する電子基準点が航空撮影10の飛行経路付近に存在していた場合、その電子基準点による観測は定点測位11の要件を満たし、その電子基準点から提供されるデータは定点GPSデータ11aとして利用できる。
定点GPS受信機17は、地理座標が予め分かっている場所に設置し、衛星から発射した時刻信号の電波の到達時間などから、その地理座標における搬送波を記録するための受信機である。
図2に示すように、タイポイント抽出4の手段は、幾何補正済写真2a及びカメラ位置3aのデータを入力し、タイポイント4aのデータを出力する。また、内部標定要素9bを入力することもできる。カメラ位置3aの写真対位置情報の関係から、幾何補正済写真2aのうちの互いに重なり合う写真同士をペアにする。重なり合うかどうかの判断は、各写真に対応するカメラ位置3aの間の距離が、外部から与えたしきい値を超えるかどうかで決定する。内部標定要素9bを入力する場合、内部標定要素9bの画角とカメラ位置3aの高度から撮影範囲の大きさを概算することでこのしきい値を算出する。次に、ペアごとに一方の写真上からいくつかの点を選び、それらが他方の写真上のどこに写っているかを、画像相関法による画像照合によって探し出し、それぞれの画像上座標の対応関係として記録する。
タイポイント4aのデータは、幾何補正済データ2aのデータのうちの隣接しあう写真同士のペアについて、共通に写っている点のそれぞれの画像上の座標を記録したデータである。
図2に示すように、外部標定5の手段は、幾何補正済写真2a、カメラ位置3a、タイポイント4a及び内部標定要素9bのデータを入力し、位置姿勢5aのデータを出力する。尚、GCPデータ13bのデータを入力することもできる。タイポイント4aの画像上座標について、内部標定要素9bを用いて中心投影を逆にたどり、撮像面への入射光線を算出すると、各ペアのうち一方の写真上の点への入射光線と他方の写真上の対応する点への入射光線とは同一平面上になるはずである。そこで、ニュートン法などの解法を用いて、対応する各光線同士の捩れが最小となるときの各撮像面の位置及び姿勢を算出することで、各写真撮影時の撮像面の位置と姿勢の情報とする。
また、GCPデータ13bを使用する場合、GCPデータ13bの点に対応する写真上各点についても同様に入射光線を算出し、前記解法を用いて、その点に結び付けられた地理座標とその光線との距離も同時に最短になるよう、各撮像面の位置及び姿勢の情報を算出する。尚、その場合、GCPデータ13bの画像上座標を幾何補正済写真2aに合わせて変形させる必要があるため、内部標定要素9bを用いて幾何補正2と同様の前処理をGCPデータ13bに施す。
位置姿勢5aのデータは、幾何補正済写真2aの写真のそれぞれについての撮影した瞬間のカメラの撮像面の位置と姿勢のデータである。
GCPデータ13bのデータは、航空写真10aのうちGCP情報13aの地点が写っている写真について、その画像上座標と地理座標を結び付けたデータである。
GCP指定13の処理は、GCP情報13aの地上基準点の様子から、航空写真10aの画像上でその場所に該当する点を探し出し、その地上基準点の地理座標(緯度、経度、高度)をその画像の画像上座標に結び付けて記録する。
GCP情報13aのデータは、航空撮影10の撮影対象地域のうち、航空撮影10によって航空写真10aに記録され、かつ航空写真10a上での判読が容易である地点の様子(画像判読の手がかりとなる風景写真等)と、その地点の地理座標のデータである。
図2に示すように、偏位補正6の手段は、内部標定要素9b、航空写真10a及び位置姿勢5aのデータを入力し、偏位補正済写真6aのデータを出力する。位置姿勢5aの位置及び姿勢から、幾何補正済写真2aの写真を、カメラが直下を向いていた場合の撮影の状態になるよう射影し直す。
尚、幾何補正済写真2aは一度リサンプルされている画像であるため、これに再び処理を施すことは画像の精細性が失われるおそれがあるので、航空写真10aに内部標定要素9bを用いて幾何補正2を行うところから再計算する。即ち、ここでの処理は、歪曲の逆変換により画像上座標を変換し、位置・姿勢の傾きをキャンセルして直下方向に画像上座標を変換し、3次内挿などの内挿法によりラスター画像へとリサンプルする処理となる。
偏位補正済写真6aのデータは、幾何補正済写真2aの写真のそれぞれについて、直下方向で撮影した場合の写真へと射影し直した電子画像ファイルである。実際には、画像の精細性欠落を避けるために、幾何補正済写真2aを直接処理するのではなく、航空写真10aから光学系固有の歪みを取り除くところから再処理して生成する。
図2に示すように、ステレオマッチング7の手段は、内部標定要素9b、偏位補正済写真6a及び位置姿勢5aのデータを入力し、3次元座標7aのデータを出力する。偏位補正済写真6aのうち重なり合う写真を位置姿勢5aの位置情報を元に選び出しペアにする。このペアの写真同士で共通に含まれる撮影範囲について、一方の写真上の各点が他方の写真上のどこに写っているかを、画像相関法による画像照合によって探し出す。その後、それぞれの写真上の各点について、位置姿勢5aの位置及び姿勢に基づいて、実空間からの中心投影を逆にたどる直線を算出する。外部標定5の処理を経て位置姿勢5aのデータが得られているため、一方の写真のある点から延びる直線は、他方の写真の同じ点から延びる直線との距離が0であるか、又は非常に短い。そこで、その距離の中点をその点の地理座標とする。こうして得られた画像上座標と地理座標の対応関係を記録する。
3次元座標7aのデータは、偏位補正済写真6aの写真のそれぞれについて、他の写真と共通に写っている点の画像上座標と地理座標を結び付けたデータである。
図2に示すように、オルソ補正8の手段は、内部標定要素9b、航空写真10a及び3次元座標7aのデータを入力し、補正済写真8aを出力する。3次元座標7aの地理座標で表される地形を、内部標定要素9bの幾何的歪みを持った状態で、位置姿勢5aによって撮影した場合に、撮像面上の各点がどの地点から射影されるかを画像座標と地理座標の対応関係として算出する。この対応関係によって航空写真10aの画像上各点に地理座標を結び付け、その地理座標に基づいて、各画像座標を中心投影のものから正射影のものへと変換する。変換された画像上座標について3次内挿などの内挿法によりラスター画像へとリサンプルしたものを記録する。
補正済写真8aのデータは、航空写真10aの写真のそれぞれについて、他の写真と共通に写っている範囲を、正射影に射影し直した電子画像ファイルである。
デジタル空撮3次元計測システム1の各手段は、コンピュータ18により実現される。図3に示すように、コンピュータ18は、入力装置18a、中央処理装置18b、記憶装置18c及び出力装置18d等からなる。
入力装置18aは、外部から入力データ18eをコンピュータ18内に取り込む装置である。入力データ18eは、中央処理装置18bの指示により記憶装置18cに保存される。
入力データ18eは、内部標定要素9b、航空写真10a、航空GPSデータ12a、GCPデータ13bなどのデータである。尚、記録媒体等に記録された状態で提供される場合もある。
中央処理装置18bは、命令を解析して処理の実行及び制御を行う装置である。必要に応じて、記憶装置18cからデータを取り出したり、記憶装置18cにデータを保存したりする。
記憶装置18cは、プログラム、入力データ18e、内部データ18f、出力データ18gなどを記録する装置であり、データベースとして構築する場合もある。
内部データ18fは、処理の過程においてコンピュータ18内で作成されるデータである。幾何補正済写真2a、カメラ位置3a、タイポイント4a、位置姿勢5a、偏位補正済写真6a、3次元座標7aなどのデータがある。
出力装置18dは、コンピュータ18から出力データ18gを外部へ取り出す装置である。出力データ18gは、中央処理装置18bの指示により記憶装置18cから呼び出される。
出力データ18gは、補正済写真8aなどのデータである。尚、画面に表示したり、用紙に印刷したり、記録媒体に記録するなどの手段により出力される。
図4及び図5は、本発明であるデジタル空撮3次元計測システムの画像相関法における図形の変形を示す図である。図6は、本発明であるデジタル空撮3次元計測システムの画素値の取得を示す図である。
2枚以上のデジタル画像について、ある1枚の画像上に写っているものが、他の画像上のどこに写っているのかを検出する技術を画像照合という。特に、写真測量においては、ラスター画像として記録された各写真上の各点について、その点が他の写真上のどの点に対応するのかを、画像相関法を用いて検出する。本発明においては、タイポイント抽出4及びステレオマッチング7の手段でこの手法を用いる。
2枚のデジタル画像を画像A、画像Bとする。通常は、まず元となる画像Aについて、画像照合の対象となる点Aを1つ任意に選び出したら、予め定められた長さの辺を持つ正方形の枠Aによってその点Aの周りを囲み、枠A中に含まれる各点Aの画素値Aを取得する。
次に、他方の画像B上に同じ大きさの枠Bを置き、そこに含まれる点Bの画素値Bを取得し、先に取得した枠A内の画素値Aとの相関係数を求める。画像A上の枠Aを固定したまま、他方の画像B上の枠Bを少しずつ動かしながら次々に相関係数を求めていき、相関係数が最も高くなるときの枠Bの中心点Bが、画像A上の枠Aの中心点Aと一致する点とみなす。
図4に示すように、本発明では、画像19上に置く枠20aの形状を変形する。同一のものであっても、画像19外縁付近に写った点21は、中央に写った点20と比べて、倒れ込みが生じるため、周辺の地物が放射方向に引き延ばされた形状で写真上に記録される。そのため、位置が画像19の中央付近であれば正方形の枠20a、外縁付近であれば放射方向に引き延ばした四角形の枠21aとする。
タイポイント抽出4においては、偏位補正6がされておらず個々の画像の向き等が揃っていないので、図5の上段に示すように、タイポイント抽出する写真同士で向きが揃うように枠20aを回転させる。
次に、図5の中段に示すように、カメラの直下方向に対する傾きに合わせて枠20aを歪ませる。このとき用いる傾きの情報は外部から入力することができるが、入力しない場合、傾きは無いものとして扱われる。さらに、図5の下段に示すように、カメラ高度に合わせて枠20aを拡大又は縮小する。このとき用いる高度の情報はカメラ位置3aから得ることができる。
また、図6に示すように、枠20aを変形させるに伴い、相関係数を計算するための画素値20b取得の位置も変更する。変形なしの正方形の枠20aでは各ピクセルの中心から画素値20bを取得していたと考え、各中心点の位置を枠20aの変形に合わせて変更する。
尚、変更された取得位置から画素値20bを取得する際は、まず取得位置がいすれかのピクセル中心と一致する場合は、そのピクセルの画素値20bをそのまま使う。
次に、取得位置が連続する2つのピクセルの中心を結ぶ直線上にある場合は、それらのピクセルの画素値20bをそれぞれ中心と取得位置との距離により内挿した値を使う。
それ以外の場合には、取得位置を囲む最近傍の4つのピクセルの画素値20bをそれぞれ中心と取得位置との距離により内挿した値を使う。尚、内挿に使う式は、3次内挿などの内挿法に従う。
写真上の各点の地理座標を割り出すためには、各写真を撮影したときのカメラの位置と姿勢の情報が必要となる。従来の実測データに基づき、各写真撮影時の撮像装置の位置と姿勢がある程度正確に求められるので、これを初期値として各写真の撮影時の位置及び姿勢の推定を行う。本発明においては、外部標定5の手段でこの手法を用いる。
図7の上段は、共面条件を示す図である。尚、共面条件とは、同一の点を観測した2枚の写真について、その点に対応するそれぞれの撮像面上の点と、それぞれのレンズ主点は、同一の平面上に存在するという性質である。
従来の方法では、撮影範囲が互いに重なり合う2枚の写真について、撮像面22上の点22aに対応する撮像面23上の点23aを画像相関法で探し出す。点22aと点23aの地理座標は、カメラの位置と姿勢を変数とした式で表すことができ、このとき共面条件により、点22a、レンズ主点22b、点23a、レンズ主点23bは、同一の平面上にある。2枚の写真間で対応し合う点の組を多く探し出せば、それらの式と条件を連立させることで、位置と姿勢に含まれる誤差を推定し、その誤差を除去することができる。
図7の下段は、共線条件を示す図である。尚、共線条件とは、撮影範囲の点と、その点に対応する撮像面上の点と、レンズ主点は、同一の直線上に存在するという性質である。
共面条件による推定方法では、各画像間の位置及び姿勢情報のバラつきは除去できるが、全体が同じ誤差を定数的に含んでいる場合には、それを取り除くことはできない。特に、共面条件を適用する2枚の写真のレンズ主点同士を結んだ直線を軸とした回転の自由度に由来する誤差は大きく残る可能性がある。そこで、従来の方法では、いずれかの写真上に写っている地理座標の分かる点を地上基準点とし、撮影範囲24b内の地上基準点24cと、撮像面24上に記録された点24aと、レンズ主点24dについて共線条件を用いて、その写真の位置及び姿勢情報に含まれる誤差を推定し、その誤差を除去する。
本発明では、3枚以上の写真を利用することで、位置の実測データのみから、従来の方法と同程度の推定精度を実現する。即ち、姿勢の実測データを用いず、また地上基準点を用いず、RTK−GPSにより導出された位置データのみを用いる。
図8は、本発明であるデジタル空撮3次元計測システムの位置及び姿勢推定における画像の組を示す図である。航空撮影10において、進行方向に沿った連続する2枚の画像25、25aと撮影範囲が重なり合うよう、これらの進行方向と直交する位置で撮影した画像25bを用意する。
図8の上図に示すように、まず直線上に飛行しながら撮影を行って画像25及び画像25aを得た後、その脇をほぼ平行に飛びながら撮影する飛行経路25cにより画像25bを得る。または、図8の下図に示すように、まず直線上に飛行しながら撮影を行って画像25及び画像25aを得た後、その直線に直交する方向に飛びながら撮影する飛行経路25dにより、画像25bを得る。
このようにして得られた画像25、25a、25bの各2枚ずつのペアにタイポイント抽出4を適用することで得られるタイポイント4aの画像上座標について、内部標定要素9bを用いて中心投影を逆にたどり、各写真撮影時の撮像面への入射光線を算出すると、各ペアのうち一方の写真上の点への入射光線と他方の写真上の対応する点への入射光線とは、同一の地点を観測したそれぞれの撮像面上の点とそれぞれのレンズ主点とを結ぶ直線であるから、共面条件により、同一平面上になるはずである。したがって、初期条件としてこれら各画像がカメラ位置3aの位置情報の位置で、カメラが直下方向を向いた状態で撮影されたものと仮定し、ニュートン法などの解法を用いて、それら3つのペアの間で対応する各光線同士の捩れが最小となるよう各撮像面の位置及び姿勢を算出すると、これが各写真撮影時の撮像面の位置及び姿勢に等しくなる。このとき、3枚の写真のレンズ主点が同一直線上にないため、これら3組の共面条件についてレンズ主点同士を結んだ直線を軸とした回転の自由度は互いに打ち消し合い、この自由度に由来する誤差はごく僅かになる。したがって、共線条件を用いなくとも、非常に高い精度でカメラの位置及び姿勢情報を推定することができる。これら3枚の画像に加えて、これら3枚のいずれかと重なり合う画像があるなら、その画像についても共面条件を適用することにより、その画像の位置及び姿勢情報もあわせて推定することができると同時に、元の3枚についての位置及び姿勢情報の推定も高精度になる。同様にして、帰納的に、推定の対象となる画像を増やすことができる。即ち、3枚以上の画像のグループがこの方法による推定を行うための条件を満たすとき、それらのグループに含まれない画像が、それらのグループに含まれるいずれかの画像と重なり合うなら、その画像もまたそのグループに加えてこの方法による推定の対象とすることができる。また、これらの画像のいずれかにGCPデータ13bの点が写っていた場合、内部標定要素9bを用いて中心投影を逆にたどり、その点への入射光線を算出し、前記解法を用いて、前記各光線の捩れが最小になると同時に、その点に結び付けられた地理座標とその光線との距離も最短になるよう、各撮像面の位置及び姿勢の情報を算出する。尚、その場合、GCPデータ13bの画像上座標を幾何補正済写真2aに合わせて変形させる必要があるため、内部標定要素9bを用いて幾何補正2と同様の前処理をGCPデータ13bに施す。
本発明においては、ステレオマッチング7に先立って、各写真に偏位補正6を施す。即ち、写真撮影時のカメラの傾きによって傾いた中心投影の写真を、直下方向の中心投影に投影し直す処理を行う。
図9は、本発明であるデジタル空撮3次元計測システムの偏位補正の手法を示す図である。低緯度において、緯線及び経線は局所的には正方形状のマス目を形成しているが、カメラが傾いた状態で撮影した撮影写真26は全て歪んだマス目になるので、カメラの傾きの情報を用いて正方形のマス目になるように補正して偏位補正済写真27を生成する。
まず、撮影範囲26bに対して傾いている撮像面26aを、撮影範囲26bからの光線はそのままに水平になるように、レンズ主点26cを中心に回転させる。次に、回転前の画像上各点について、それぞれ対応する各光線が回転後の撮像面27aと交わる位置へと、それらの点の位置を移動させる。
図10は、本発明であるデジタル空撮3次元計測システムの偏位補正した画像のリサンプルを示す図である。撮影写真28の水平化29により移動された各点をラスター画像化するために、リサンプル処理を行って、偏位補正済画像として記録する。このとき、この後のステレオマッチング7の計算を簡便にするために、ステレオマッチングを行う画像同士で画像の辺の向きが揃うようにリサンプルする。特に、連続する写真である場合は、リサンプル後の画像の辺がそれぞれの撮影時における航空機の進行方向28aに揃うように回転29aさせる。
2枚以上のデジタル画像について、画像照合に基づき、あるものがある画像上に写っている画像上座標と、同じものが他の画像上に写っている画像上座標とを求め、そこにそれぞれのカメラの位置及び姿勢を加味することで、そのものの3次元座標を求めることができる。本発明においては、ステレオマッチング7の手段でこの手法を用いる。
共通に写っている範囲の広い2枚の画像について、位置及び姿勢推定手法によりそれらが撮影されたときのカメラの位置及び姿勢を求める。その上で、一方の画像上の各点について、画像相関法により他方の画像上から対応する点を見つけ出す。
図11は、本発明であるデジタル空撮3次元計測システムのステレオマッチングの手法を示す図である。一方の撮像面30上の点30aから光学系を逆に辿り、レンズ主点30bを通って撮影範囲30cにまで延びる直線30dの式は一意に求めることができる。同様に、対応する他方の撮像面31上の点31aから光学系を逆に辿り、レンズ主点31bを通って撮影範囲31cにまで延びる直線31dの式も一意に求めることができる。
点30aと点31aは、同一の物点を異なる中心投影の系で射影したものであるから、直線30dと直線31dは交わるはずで、これらの直線30d、31dの式を連立させて解いた結果がその交点の座標、即ち、3次元座標32にあたる。尚、直線30d、31dが交わらない場合は、2直線の中点を求め、それを3次元座標32とする。
本発明では、偏位補正6を施した互いに重なり合う2枚の画像A、画像Bについて、帰納的な手順で画像A上の各点30aと対応する画像B上の点31aを探し出し、各点の3次元座標32を求める。
第0手順
処理精度の段階分けの数をnとし、しきい値th(1)〜th(n)としきい値diff(1)〜diff(n)を定める。画像A上に動点Xa、画像B上に動点Xbを置き、その初期位置とそれらを動かす方向を定める。
第i手順(i=1〜n)
(第1ステップ)
画像A上の点のうち、第0〜(i−1)手順でまだ対応関係が決まっていない点のうち、動点を動かす方向に関して初期位置に最も近い点に動点Xaを置く。また、画像Bの初期位置に動点Xbを置く。
(第2ステップ)
動点Xa、動点Xbをそれぞれ中心とする枠をWa、Wbとして、画像相関法により枠Waと枠Wbの相関係数ccを求める。相関係数ccがしきい値th(i)以上なら第3ステップへ移り、それ以外は第4ステップへ移る。
(第3ステップ)
動点Xaを含む小範囲Saを取り、小範囲Saに含まれる各点について、その点を中心とする枠Wsと枠Wbとの相関係数をそれぞれ計算し、最も相関係数の高い点をXa’とする。動点Xaと点Xa’の画像上座標しての距離がしきい値diff(i)以下であった場合は第5ステップへ移り、それ以外は第4ステップへ移る。
(第4ステップ)
動点Xbを画像Bの次の点に移して第2ステップに戻る。尚、次の点がなければ第6ステップへ移る。
(第5ステップ)
動点Xaに対応する点をXbとする。
(第6ステップ)
動点Xaを画像A上の次の点に移して第2ステップに戻る。尚、次の点がなければ第(i+1)手順に進む。
第(n+1)手順
第0〜n手順で対応関係が決まった点について、3次元座標を求める。
第(n+2)手順
第0〜n手順で対応関係が決まらなかった点については、その旨を示す値を入れるか、又は第(n+1)手順で得られた3次元座標から3次内挿などの内挿法により内挿した値を入れる。
各点の対応関係が第1〜n手順のどの段階で決まったかによって、その点のステレオマッチ精度を区分し、その区分を色別に表示させると、測量精度分布図を作成することができる。
図12は、本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの斜視図である。図13は、本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの平面図である。図14は、本発明であるデジタル空撮3次元計測システムで使用する民生用デジタルカメラの正面図である。
民生用デジタルカメラ14は、カメラ14a、制御部14b、外フレーム14c、内フレーム14d、モーター14e、取付部14f、及びコイルバネ14g等からなる。
尚、民生用デジタルカメラ14を設置する取付・制御用台座15には、中央に円形の穴15bが空けられ、四隅に民生用デジタルカメラ14を支えるための支柱15aが設けられる。
カメラ14aは、レンズを下に向けて設置される。取付・制御用台座15に固定した際に穴15bを通して写真を撮影することができる。画素数は1200万以上であり、広角レンズを取り付けて使用する。
制御部14bは、カメラ14aの上に設けた箱であり、内部にジャイロを搭載しており、重力方向に対する傾きを検知して、カメラ14aが常に直下方向を向くように制御することができる。
制御部14bには、ケーブルを介して、航空GPSアンテナ16やコンピュータ18等が接続される。カメラとシャッター信号用送信用のケーブルを繋ぎ、GPS信号を受信すると同時にシャッターを切る信号を送る。
外フレーム14cは、内フレーム14dの周囲を覆う略8角形の枠である。内フレーム14dは、ピッチ軸及びロール軸の両方について自由に動く形で外フレーム14cに繋がる。
内フレーム14dは、カメラ14a及び制御部14bが取り付けられる略8角形の枠であり、モーター14eにより傾きを変えることができる。
モーター14eは、カメラ14aの四方に設置され、制御部14bの指示により動作してカメラ14aの傾きを調整する。
取付部14fは、外フレーム14cの四隅において、支柱15aに固定する部分である。四隅とはコイルバネ14gを介して連結しているので、振動を吸収してカメラ14aがぶれるのを防止することができる。
以上のように、本発明であるデジタル空撮3次元計測システムは、計測機器は民生用デジタルカメラとGPSのみだけとなり、精度を維持しつつ、小型、軽量及び低コスト化されるので、コスト的に困難だった小規模プロジェクトにも航空写真測定を利用できるようになる。
また、誤差要素の補正又は除去、カメラ視線方向の推定などをソフトウェアで行うことにより、精度向上のためのバージョンアップが容易となり、ハードウェアで行う場合よりも、高精度に計算することができるようになる。
さらに、民生用デジタルカメラは換装可能であり、民生用デジタルカメラの性能が変わってもソフトウェアを調整するだけで容易に対応することができるので、柔軟に運用することが可能である。
Hereinafter, a digital aerial imaging three-dimensional measurement system according to the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a flowchart showing a processing flow of the digital aerial imaging three-dimensional measurement system according to the present invention. FIG. 2 is a diagram showing the relationship between processing, data, and apparatus of the digital aerial imaging three-dimensional measurement system according to the present invention. FIG. 3 is a diagram showing a configuration of a digital aerial imaging three-dimensional measurement system computer according to the present invention.
As shown in FIG. 1, the digital aerial photography three-dimensional measurement system 1 includes geometric correction 2, continuity analysis 3, tie point extraction 4, external orientation 5, displacement correction 6, stereo matching 7, and ortho correction 8. It becomes more.
In the geometric correction 2, a photograph in which distortion aberration included in each photograph is corrected is generated using the parameters obtained in the internal orientation 9.
In the continuity analysis 3, each photograph is shuttered in synchronization with the GPS signal, but specifically, which photograph corresponds to which GPS record is determined. When a reference photograph and a GPS record corresponding thereto are input, the remaining image and the GPS record are collated and analyzed based on the photograph.
In tie point extraction 4, data for performing external orientation 5 is generated. Specifically, with respect to photographs in which a part of the shooting range overlaps, a characteristic point appearing in common is searched using image matching technology, and the coordinates on the image are stored as data.
In the external orientation 5, the position and orientation of the imaging surface of the camera at the time of capturing each photograph are estimated with high accuracy based on the position data measured by the GPS and the photograph taken by the camera.
Specifically, assuming that each photograph was taken in a direction directly below from the position as recorded in GPS, the initial condition is that rays obtained by tracing the optical system backward from the tie point 4a are essentially on the same plane. The position and orientation of the imaging surface are calculated by a solution such as Newton's method so that the torsion between each light ray that should become is minimized. In addition, when a feature (ground reference point) whose geographical coordinates are known in advance is included in the photograph, the information can be used for this estimation, but it is not essential.
In the displacement correction 6, in order to simplify the calculation of the stereo matching 7, a photograph re-projected to an image that should be taken when the image is taken in the direct downward direction is generated. Specifically, by using the result of the external orientation 5 of each photograph, the coordinates on the image of each point on the photograph are converted to a position that should be projected when the photograph is taken in the direct downward direction, and stereo matching is performed. Resample the photos with the same orientation.
In the stereo matching 7, three-dimensional information of a portion that is common to two images having a large overlapping range is calculated among a plurality of photographs after the internal orientation 9 and the external orientation 5 are applied and the displacement correction 6 is performed.
Specifically, the correspondence between points on each photo is obtained using image matching technology (where the point in one is reflected in the other), and the optical system is traced in reverse for each corresponding point. The intersection of the obtained straight lines is derived and its coordinates are obtained. Since the photograph is a raster image, this processing is performed by obtaining a correspondence relationship for each pixel.
Since the photograph is a central projection, when an object whose depth (high altitude) is found appears in the vicinity of the outer edge of the photograph, an area that cannot be seen in the shadow (falling down) occurs. Since the range hidden by the fall varies depending on the shooting position and angle, it differs from photo to photo, and stereo matching 7 cannot be performed for this range. Therefore, when it is desired to obtain three-dimensional information without a hole, photographs from various positions or angles are required so as to compensate each other for falling in each photograph.
In the ortho correction 8, the central projection is reprojected into an orthogonal projection. Although the photograph is a central projection, the coordinates of each point on the photograph are obtained as a result of stereo matching 7, so after mapping each point to this coordinate, the depth axis (altitude axis) is crushed and the vertical and horizontal axes If it is only, it will be possible to obtain an orthographic photo. A three-dimensional photograph map can be obtained by generating three-dimensional data based on the coordinates obtained as a result of the stereo matching 7 and using a photograph subjected to ortho correction 8 as a texture.
As shown in FIG. 2, the geometric correction 2 means inputs the data of the internal orientation element 9b and the aerial photograph 10a, and outputs the data of the geometrically corrected photograph 2a. Using the value of the internal orientation element 9b as a coefficient, a radial distortion equation and a tangential distortion equation are determined, and the inverse transformation is applied to the aerial photograph 10a. Specifically, it is a process of transforming the coordinates on the image by inverse transformation of the distortion and resampling it into a raster image by an interpolation method such as cubic interpolation.
The data of the internal orientation element 9b is created by the processing of the internal orientation 9 that receives the data of the camera specification 9a. Of the data of the camera specification 9a, there are a parameter that defines the optical system of the consumer digital camera 14 and a parameter that represents the distortion of the optical system determined by the internal orientation 9 processing.
The data of the aerial photograph 10 a is taken by performing the aerial photography 10. The electronic image file conforms to the output format of the consumer digital camera 14. Each photo is taken so that 60% or more of the respective shooting range overlap with the previous and subsequent photos, and at least one of the flight routes is from a non-consecutive flight route (ie crossing or parallel running route). Photographs are taken such that 30% or more of the photographed ranges overlap each other.
The data of the geometrically corrected photograph 2a is an electronic image file obtained by removing distortion inherent to the optical system of the consumer digital camera 14 from each of the data of the aerial photograph 10a.
The data of the camera specification 9a is a set of data having attributes such as the main specifications of the camera and the lens of the consumer digital camera 14, that is, the principal point position, the focal length, the pixel size, and the pixel interval.
The work of internal orientation 9 measures and corrects the distortion of the optical system of the consumer digital camera 14, that is, the error between the ideal central projection determined by the camera specification 9a and the actual central projection. Determine the parameters to be used. The central projection in photography is ideally determined by the camera's principal point position, focal length, pixel dimensions, and pixel spacing, but the decision formula itself uses approximate conditions, and the work accuracy Because of this problem, an actual lens is not ideal, and it is necessary to measure distortion aberration and the like in combination and determine parameters for correcting an error from an ideal central projection.
Specifically, for a photograph taken of a plurality of objects whose absolute coordinates are known from a position where the absolute coordinates are known, the coordinates on the image where the objects should appear under ideal conditions ( (The above calculation formula) and the coordinates on the image in which those objects are actually reflected are applied to the equation on the coordinate transformation on the image representing the radial distortion and the tangential distortion. A coefficient corresponding to an equation for reproducing the distortion of the optical system is determined. The photographs taken with the optical system are all inversely transformed by using the on-image coordinate transformation formula determined by giving the coefficients determined in this way to the distortion formula, so that they are all equally under ideal conditions. Can be converted into images taken with
In the aerial photography 10, the consumer digital camera 14 and the aviation GPS receiver 16 are mounted on the aircraft via the mounting / control base 15, and the trajectory of the aircraft is recorded using the functions of the aviation GPS receiver 16. However, the shutter signal synchronized with the recording of the aviation GPS receiver 16 is sent to the consumer digital camera 14 using the function of the mounting / control base 15, and the consumer signal is sent using the function of the mounting / control base 15. While the digital camera 14 is maintained in a posture facing directly downward, a photograph of the direct downward direction is taken from the aircraft by the function of the consumer digital camera 14.
The consumer digital camera 14 is a commercially available single-lens reflex digital camera or the like. An interface for receiving a shutter signal from the outside is provided and connected to the mounting / control base 15. The mounting part is versatile and can be replaced when a higher performance camera appears.
The mounting / control base 15 includes a consumer digital camera 14 and an aviation GPS receiver 16, and is a base that is attached to an aircraft. It absorbs vibrations derived from aircraft and has a function of tilting the mounting portion with a motor so that the consumer digital camera 14 always faces directly below. It also has a function of receiving a signal from the aviation GPS receiver 16 and recording it on a built-in memory card, and simultaneously sending a shutter signal to the consumer digital camera 14 in synchronization with the signal reception.
The aviation GPS receiver 16 is a receiver for three-dimensionally determining the position of the aircraft from the arrival time of radio waves of time signals emitted from satellites. The electronic board is built in the mounting / control base 15, and only the antenna is attached to an appropriate place outside the aircraft or inside the aircraft where radio waves are easily received, and the antenna and the board are connected by a cable.
As shown in FIG. 2, the means of continuity analysis 3 inputs aerial photograph 10a and GPS data 12a, and outputs data of camera position 3a. When one reference photo in the aerial photograph 10a and a GPS record corresponding to the photo in the GPS data 12a are input, the photograph and the GPS record are first linked. Thereafter, one photograph that is not associated with the GPS record and is continuous with the photograph associated with the GPS record is taken out from the aerial photograph 10a. Several points are selected from one photo, and where they appear on the other photo are searched by image collation by the image correlation method, and the degree of overlap of these two images is obtained. Based on this overlap and the altitude information of the GPS record associated with one of the photos, the difference between the shooting positions is converted into an actual distance, and compared with the latitude / longitude information of the GPS data 12a, The record of the GPS data 12a that should correspond to the geographical coordinates is linked. This is recursively repeated, and GPS records corresponding to each photograph of the aerial photograph 10a are extracted from the GPS data 12a and linked to obtain a camera position 3a.
The data of the GPS data 12a is data in which the accuracy of the aviation GPS data 10b in which the flight route is recorded at the time of the aerial photography 10 is improved by performing the GPS analysis 12. Data such as GPS time, geographic coordinates, and moving speed are included.
The data of the camera position 3a is data in which records (GPS time, geographic coordinates, moving speed, etc.) corresponding to the moment of shooting are linked from the GPS data 12a for each of the data of the aerial photograph 10a.
The processing of the GPS analysis 12 performs RTK-GPS analysis using the aerial GPS data 10b as mobile station data and the fixed-point GPS data 11a as base station data, and calculates the flight path of the aerial imaging 10 with higher accuracy.
The aviation GPS data 10 b is data obtained by recording the flight path when the aerial photography 10 is performed by the aviation GPS receiver 16. Data such as GPS time, geographical coordinates, moving speed, and carrier wave are included.
The data of the fixed point GPS data 11a was previously determined by installing the fixed point GPS receiver 17 at a point where the geographical coordinates are known in advance, and the data observed during or including the aerial shooting 10 implementation period The geographic coordinates of the point. Data such as GPS time and carrier wave are included.
The fixed-point positioning 11 is performed by installing a fixed-point GPS receiver 17 at a point that is close to the flight path of the aerial photography 10 (the entire flight path is preferably within a radius of 10 km) and whose geographical coordinates are known in advance. Positioning is performed during a period that is the same as or includes the aerial photography 10 implementation period. If an electronic reference point managed by the Geospatial Information Authority of Japan exists near the flight path of aerial photography 10, the observation by the electronic reference point satisfies the requirements of fixed point positioning 11, and data provided from the electronic reference point Can be used as fixed-point GPS data 11a.
The fixed-point GPS receiver 17 is a receiver that is installed in a place where the geographical coordinates are known in advance, and records the carrier wave at the geographical coordinates from the arrival time of the radio wave of the time signal emitted from the satellite.
As shown in FIG. 2, the means of tie point extraction 4 inputs the data of the geometrically corrected photograph 2a and the camera position 3a, and outputs the data of the tie point 4a. Also, the internal orientation element 9b can be input. From the relationship of the photo-position information of the camera position 3a, the overlapping photos of the geometrically corrected photos 2a are paired. Whether or not they overlap is determined by whether or not the distance between the camera positions 3a corresponding to each photograph exceeds a threshold given from the outside. When the internal orientation element 9b is input, this threshold value is calculated by estimating the size of the shooting range from the angle of view of the internal orientation element 9b and the altitude of the camera position 3a. Next, select several points from one photo for each pair, find out where they are on the other photo by image matching using the image correlation method, and record the correspondence between the coordinates on each image. To do.
The data of the tie point 4a is data in which the coordinates on each image of the points that are shown in common with respect to pairs of adjacent photographs in the data of the geometrically corrected data 2a are recorded.
As shown in FIG. 2, the external orientation 5 means inputs the data of the geometrically corrected photograph 2a, the camera position 3a, the tie point 4a and the internal orientation element 9b, and outputs the data of the position and orientation 5a. The GCP data 13b data can also be input. For the coordinates on the image of the tie point 4a, the central projection element 9b is used to reverse the central projection, and the incident light ray on the imaging surface is calculated. The incident light at the corresponding point on the photo should be in the same plane. Therefore, by using a solution such as Newton's method, the position and orientation information of the imaging surface at the time of each photo shoot is calculated by calculating the position and orientation of each imaging surface when the twist of each corresponding ray is minimized. And
In addition, when using the GCP data 13b, the incident ray is similarly calculated for each point on the photograph corresponding to the point of the GCP data 13b, and the geographical coordinates associated with the point and the ray are calculated using the above solution. The position and orientation information of each imaging surface is calculated so that the distance between the image pickup surfaces becomes the shortest at the same time. In this case, since it is necessary to change the on-image coordinates of the GCP data 13b in accordance with the geometrically corrected photograph 2a, the GCP data 13b is subjected to pre-processing similar to the geometric correction 2 using the internal orientation element 9b.
The data of the position and orientation 5a is data of the position and orientation of the imaging surface of the camera at the moment when each of the geometrically corrected photos 2a is taken.
The data of the GCP data 13b is data in which the coordinates on the image and the geographic coordinates of the photograph in which the point of the GCP information 13a is reflected in the aerial photograph 10a are linked.
The processing of the GCP designation 13 searches for the point corresponding to the location on the image of the aerial photograph 10a from the state of the ground reference point of the GCP information 13a, and determines the geographical coordinates (latitude, longitude, altitude) of the ground reference point. Record the image linked to the coordinates on the image.
The data of the GCP information 13a is recorded in the aerial photograph 10a by the aerial photograph 10 in the photographing target area of the aerial photograph 10 and is easily read on the aerial photograph 10a (uses a clue for image interpretation). Landscape photograph etc.) and geographical coordinate data of the point.
As shown in FIG. 2, the means for the displacement correction 6 inputs the data of the internal orientation element 9b, the aerial photograph 10a, and the position and orientation 5a, and outputs the data of the displacement corrected photograph 6a. From the position and orientation of the position / orientation 5a, the photograph of the geometrically corrected photograph 2a is re-projected so as to be in a shooting state when the camera is facing directly below.
Since the geometrically corrected photograph 2a is an image that has been resampled once, if the processing is performed again, there is a risk that the definition of the image may be lost. Therefore, the internal orientation element 9b is used in the aerial photograph 10a. Recalculate from where geometric correction 2 is performed. That is, the processing here converts the coordinates on the image by inverse transformation of the distortion, cancels the inclination of the position / orientation, converts the coordinates on the image in the direct downward direction, and rasters by an interpolation method such as cubic interpolation. Processing to resample to an image.
The data of the displacement-corrected photo 6a is an electronic image file obtained by projecting each of the photos of the geometrically corrected photo 2a into a photo when taken in the downward direction. Actually, in order to avoid a lack of definition, the geometrically corrected photograph 2a is not directly processed, but is reprocessed from the aerial photograph 10a where the distortion inherent to the optical system is removed.
As shown in FIG. 2, the stereo matching unit 7 inputs the data of the internal orientation element 9b, the displacement corrected photograph 6a, and the position and orientation 5a, and outputs the data of the three-dimensional coordinate 7a. Of the displacement-corrected photos 6a, overlapping photos are selected based on the position information of the position and orientation 5a and are paired. With respect to the shooting range that is commonly included in the pair of photos, the image collation method is used to find out where each point on one photo appears on the other photo. Thereafter, for each point on each photograph, a straight line that reversely follows the central projection from the real space is calculated based on the position and orientation of the position and orientation 5a. Since the data of the position and orientation 5a is obtained through the processing of the external orientation 5, the distance between the straight line extending from a certain point in one photograph and the straight line extending from the same point in the other photograph is 0, or Short. Therefore, the midpoint of the distance is set as the geographic coordinate of the point. The correspondence between the image coordinates obtained in this way and the geographic coordinates is recorded.
The data of the three-dimensional coordinate 7a is data in which the coordinates on the image and the geographic coordinates of the points appearing in common with other photographs are associated with each of the photographs of the displacement corrected photograph 6a.
As shown in FIG. 2, the orthocorrection means 8 inputs the data of the internal orientation element 9b, the aerial photograph 10a, and the three-dimensional coordinate 7a, and outputs a corrected photograph 8a. When the terrain represented by the geographical coordinates of the three-dimensional coordinate 7a is photographed by the position and orientation 5a with the geometric distortion of the internal orientation element 9b, each point on the imaging surface is projected from which point. Is calculated as the correspondence between image coordinates and geographic coordinates. Based on this correspondence, geographic coordinates are linked to each point on the image of the aerial photograph 10a, and each image coordinate is converted from a central projection to an orthographic projection based on the geographic coordinates. The re-sampled coordinates on the image are resampled into a raster image by an interpolation method such as cubic interpolation.
The data of the corrected photograph 8a is an electronic image file obtained by projecting the range of each of the aerial photographs 10a in common with the other photographs to the orthogonal projection.
Each means of the digital aerial photography three-dimensional measurement system 1 is realized by a computer 18. As shown in FIG. 3, the computer 18 includes an input device 18a, a central processing unit 18b, a storage device 18c, an output device 18d, and the like.
The input device 18a is a device that takes in the input data 18e into the computer 18 from the outside. The input data 18e is stored in the storage device 18c according to an instruction from the central processing unit 18b.
The input data 18e is data such as the internal orientation element 9b, the aerial photograph 10a, the aviation GPS data 12a, and the GCP data 13b. It may be provided in a state of being recorded on a recording medium or the like.
The central processing unit 18b is a device that analyzes instructions and executes and controls processing. If necessary, the data is taken out from the storage device 18c or stored in the storage device 18c.
The storage device 18c is a device that records programs, input data 18e, internal data 18f, output data 18g, and the like, and may be constructed as a database.
The internal data 18f is data created in the computer 18 in the course of processing. There are data such as a geometrically corrected photograph 2a, a camera position 3a, a tie point 4a, a position and orientation 5a, a displacement corrected photograph 6a, and a three-dimensional coordinate 7a.
The output device 18d is a device that extracts output data 18g from the computer 18 to the outside. The output data 18g is called from the storage device 18c according to an instruction from the central processing unit 18b.
The output data 18g is data such as the corrected photograph 8a. It is output by means such as displaying on a screen, printing on paper, or recording on a recording medium.
4 and 5 are diagrams showing the deformation of the figure in the image correlation method of the digital aerial three-dimensional measurement system according to the present invention. FIG. 6 is a diagram showing acquisition of pixel values of the digital aerial imaging three-dimensional measurement system according to the present invention.
A technique for detecting where two or more digital images appear on one image appear on another image is called image verification. In particular, in photogrammetry, for each point on each photo recorded as a raster image, which point on the other photo corresponds to that point is detected using an image correlation method. In the present invention, this method is used by means of tie point extraction 4 and stereo matching 7.
Assume that two digital images are image A and image B. Usually, for the original image A, when one point A to be subjected to image matching is arbitrarily selected, the point A is surrounded by a square frame A having a predetermined length side, The pixel value A of each point A included in the frame A is acquired.
Next, a frame B of the same size is placed on the other image B, the pixel value B of the point B included therein is acquired, and a correlation coefficient with the pixel value A in the frame A acquired previously is obtained. . While the frame A on the image A is fixed, the correlation coefficient is obtained one after another while moving the frame B on the other image B little by little, and the center point B of the frame B when the correlation coefficient becomes the highest is , The point on the image A coincides with the center point A of the frame A.
As shown in FIG. 4, in the present invention, the shape of the frame 20a placed on the image 19 is deformed. Even if they are the same, the point 21 in the vicinity of the outer edge of the image 19 is tilted in comparison with the point 20 in the center, so that the surrounding features are stretched in the radial direction. Recorded above. Therefore, if the position is near the center of the image 19, a square frame 20a is formed. If the position is near the outer edge, a square frame 21a extended in the radial direction is formed.
In the tie point extraction 4, the displacement correction 6 is not performed and the orientations of the individual images are not aligned. Therefore, as shown in the upper part of FIG. Rotate 20a.
Next, as shown in the middle part of FIG. 5, the frame 20 a is distorted in accordance with the inclination with respect to the direction directly below the camera. The tilt information used at this time can be input from the outside, but if it is not input, it is treated as having no tilt. Further, as shown in the lower part of FIG. 5, the frame 20a is enlarged or reduced in accordance with the camera height. The altitude information used at this time can be obtained from the camera position 3a.
Further, as shown in FIG. 6, as the frame 20a is deformed, the position of obtaining the pixel value 20b for calculating the correlation coefficient is also changed. In the square frame 20a without deformation, it is considered that the pixel value 20b is acquired from the center of each pixel, and the position of each center point is changed in accordance with the deformation of the frame 20a.
When acquiring the pixel value 20b from the changed acquisition position, if the acquisition position coincides with any pixel center, the pixel value 20b of the pixel is used as it is.
Next, when the acquisition position is on a straight line connecting the centers of two consecutive pixels, values obtained by interpolating the pixel values 20b of these pixels according to the distance between the center and the acquisition position are used.
In other cases, values obtained by interpolating the pixel values 20b of the four nearest pixels surrounding the acquisition position according to the distance between the center and the acquisition position are used. The expression used for the interpolation follows an interpolation method such as cubic interpolation.
In order to determine the geographical coordinates of each point on the photograph, information on the position and orientation of the camera when each photograph is taken is required. Since the position and orientation of the image pickup apparatus at the time of taking each photograph are accurately obtained to some extent based on the conventional measurement data, the position and orientation at the time of taking each photo are estimated using this as an initial value. In the present invention, this method is used by means of the external orientation 5.
The upper part of FIG. 7 shows coplanar conditions. The coplanar condition is a property that, for two photographs in which the same point is observed, a point on each imaging surface corresponding to that point and each lens principal point exist on the same plane. It is.
In the conventional method, a point 23a on the image pickup surface 23 corresponding to the point 22a on the image pickup surface 22 is searched for by using an image correlation method for two photographs whose shooting ranges overlap each other. The geographical coordinates of the point 22a and the point 23a can be expressed by an equation using the position and orientation of the camera as variables. At this time, the point 22a, the lens principal point 22b, the point 23a, and the lens principal point 23b are They are on the same plane. If many pairs of corresponding points between two photographs are found, by combining these equations and conditions, an error included in the position and orientation can be estimated and the error can be removed.
The lower part of FIG. 7 is a diagram showing collinear conditions. Note that the collinear condition is a property that a point in the photographing range, a point on the imaging surface corresponding to the point, and a lens principal point exist on the same straight line.
In the estimation method based on the coplanar condition, the variation in the position and orientation information between the images can be removed. However, when the entire image includes the same error, it cannot be removed. In particular, an error derived from the degree of freedom of rotation about a straight line connecting the lens principal points of two photographs to which the coplanar condition is applied may remain largely. Therefore, in the conventional method, a point where the geographical coordinates that can be seen in any one of the photographs is known as the ground reference point, the ground reference point 24c in the shooting range 24b, the point 24a recorded on the imaging surface 24, An error included in the position and orientation information of the photograph is estimated using the collinear condition for the lens principal point 24d, and the error is removed.
In the present invention, by using three or more photographs, an estimation accuracy equivalent to that of the conventional method is realized from only the measured position data. That is, only the position data derived by RTK-GPS is used without using the actual measurement data of the posture and without using the ground reference point.
FIG. 8 is a diagram showing a set of images in the position and orientation estimation of the digital aerial photography three-dimensional measurement system according to the present invention. In the aerial photography 10, an image 25b is prepared that is photographed at a position orthogonal to these traveling directions so that the photographing ranges overlap with two consecutive images 25 and 25a along the traveling direction.
As shown in the upper diagram of FIG. 8, first, an image 25 and an image 25a are obtained by flying while flying on a straight line, and then an image 25b is obtained by a flight path 25c that is shot while flying in parallel with the sides. Alternatively, as shown in the lower part of FIG. 8, first, images 25b and 25a are captured while flying on a straight line, and then an image 25b is captured by a flight path 25d that is captured while flying in a direction perpendicular to the straight line. Get.
Using the internal orientation element 9b, central projection is performed on the on-image coordinates of the tie point 4a obtained by applying the tie point extraction 4 to each two pairs of the images 25, 25a, and 25b thus obtained. , And calculating the incident light ray on the imaging surface at the time of each photo shooting, the incident light ray to the point on one photo of each pair and the incident light ray to the corresponding point on the other photo are: Since this is a straight line connecting each point on the imaging surface where the same point is observed and each lens principal point, it should be on the same plane due to coplanar conditions. Therefore, as an initial condition, it is assumed that each of these images is taken at the position of the position information of the camera position 3a and the camera is directed in the direct downward direction, and a solution such as Newton's method is used to solve these three pairs. If the position and orientation of each imaging surface are calculated so that the twisting of the corresponding light rays between them is minimized, this becomes equal to the position and orientation of the imaging surface at the time of each picture taking. At this time, since the lens principal points of the three photographs are not on the same straight line, the degrees of freedom of rotation around the straight lines connecting the lens principal points for these three sets of coplanar conditions cancel each other out. The error due to the degree is negligible. Therefore, it is possible to estimate the position and orientation information of the camera with very high accuracy without using the collinear condition. In addition to these three images, if there is an image that overlaps any of these three images, it is possible to estimate the position and orientation information of the image by applying the coplanar condition to that image as well. At the same time, the position and orientation information of the original three sheets is also estimated with high accuracy. Similarly, the number of images to be estimated can be increased inductively. That is, when a group of three or more images satisfies the conditions for performing the estimation by this method, if an image not included in the group overlaps with any image included in the group, the image is also In addition to the group, it can be a target of estimation by this method. Further, when a point of the GCP data 13b is reflected in any of these images, the center projection is traced backward using the internal orientation element 9b, the incident light ray at the point is calculated, and the solution is used. Information on the position and orientation of each imaging plane is calculated so that the twist of each light ray is minimized and the distance between the geographical coordinates associated with the point and the light ray is also shortest. In this case, since it is necessary to change the on-image coordinates of the GCP data 13b in accordance with the geometrically corrected photograph 2a, the GCP data 13b is subjected to pre-processing similar to the geometric correction 2 using the internal orientation element 9b.
In the present invention, prior to stereo matching 7, displacement correction 6 is applied to each photograph. That is, a process of re-projecting the central projection photograph tilted by the tilt of the camera at the time of taking a picture to the central projection in the direct downward direction is performed.
FIG. 9 is a diagram showing a deviation correction method of the digital aerial photographing three-dimensional measurement system according to the present invention. At low latitudes, the latitudes and meridians locally form square grids, but all of the photographed photographs 26 taken with the camera tilted are distorted grids, so information on the camera tilt Is used to correct the deviation so as to form a square grid, and the deviation-corrected photograph 27 is generated.
First, the imaging surface 26a inclined with respect to the imaging range 26b is rotated around the lens principal point 26c so that the light rays from the imaging range 26b remain horizontal. Next, with respect to each point on the image before rotation, the position of each point is moved to a position where each corresponding light beam intersects with the rotated imaging surface 27a.
FIG. 10 is a diagram showing a resample of an image subjected to displacement correction in the digital aerial imaging three-dimensional measurement system according to the present invention. In order to convert each point moved by the leveling 29 of the photograph 28 into a raster image, a resample process is performed and recorded as a displacement corrected image. At this time, in order to simplify the subsequent calculation of the stereo matching 7, re-sampling is performed so that the directions of the sides of the images are aligned between the images to be stereo matched. In particular, in the case of a series of photographs, the image is rotated 29a so that the sides of the resampled image are aligned with the aircraft traveling direction 28a at the time of each photographing.
For two or more digital images, on the basis of image collation, the coordinates on the image where one image appears on one image and the coordinates on the image where the same image appears on another image are obtained, and By taking the position and orientation of the camera into consideration, the three-dimensional coordinates of the camera can be obtained. In the present invention, this method is used by means of stereo matching 7.
The position and orientation of the camera when the two images having a wide range shown in common are photographed by the position and orientation estimation method are obtained. Then, for each point on one image, a corresponding point is found from the other image by the image correlation method.
FIG. 11 is a diagram showing a stereo matching method of the digital aerial photographing three-dimensional measurement system according to the present invention. The equation of the straight line 30d extending from the point 30a on one imaging surface 30 to the imaging range 30c through the lens principal point 30b in the reverse direction can be uniquely obtained. Similarly, the equation of the straight line 31d extending from the corresponding point 31a on the other imaging surface 31 to the imaging range 31c through the lens principal point 31b can be obtained uniquely.
Since the point 30a and the point 31a are projections of the same object point by different central projection systems, the straight line 30d and the straight line 31d should intersect, and the result of solving the equations of these straight lines 30d and 31d simultaneously Corresponds to the coordinate of the intersection point, that is, the three-dimensional coordinate 32. If the straight lines 30d and 31d do not intersect, the midpoint of the two straight lines is obtained and used as the three-dimensional coordinate 32.
In the present invention, for two overlapping images A and B subjected to the displacement correction 6, a point 31a on the image B corresponding to each point 30a on the image A is found by an inductive procedure. A three-dimensional coordinate 32 is obtained.
Step 0
The number of stages of processing accuracy is n, and threshold values th (1) to th (n) and threshold values diff (1) to diff (n) are determined. The moving point Xa is placed on the image A and the moving point Xb is placed on the image B, and the initial position and the direction in which they are moved are determined.
I-th procedure (i = 1 to n)
(First step)
Among the points on the image A, the moving point Xa is placed at a point closest to the initial position with respect to the direction in which the moving point is moved among the points that have not yet been determined in the 0th to (i-1) steps. Also, the moving point Xb is placed at the initial position of the image B.
(Second step)
The correlation coefficient cc between the frame Wa and the frame Wb is obtained by the image correlation method with the frames centering on the moving point Xa and the moving point Xb, respectively, as Wa and Wb. If the correlation coefficient cc is greater than or equal to the threshold th (i), the process proceeds to the third step, and otherwise, the process proceeds to the fourth step.
(Third step)
The small range Sa including the moving point Xa is taken, and for each point included in the small range Sa, the correlation coefficient between the frame Ws and the frame Wb centered on that point is calculated, and the point having the highest correlation coefficient is calculated. Let Xa ′. If the distance between the moving point Xa and the point Xa ′ on the image is less than or equal to the threshold value diff (i), the process proceeds to the fifth step, and otherwise the process proceeds to the fourth step.
(4th step)
The moving point Xb is moved to the next point of the image B, and the process returns to the second step. If there is no next point, the process proceeds to the sixth step.
(5th step)
A point corresponding to the moving point Xa is defined as Xb.
(6th step)
The moving point Xa is moved to the next point on the image A, and the process returns to the second step. If there is no next point, the process proceeds to the (i + 1) th procedure.
Step (n + 1)
The three-dimensional coordinates are obtained for the points for which the correspondence is determined in the 0th to nth procedures.
Step (n + 2)
For the points for which the correspondence relationship has not been determined in the 0th to nth steps, enter a value indicating that fact, or insert the value from the 3D coordinates obtained in the (n + 1) th step by interpolation such as cubic interpolation. Insert the inserted value.
By classifying the stereo match accuracy of each point according to which stage of the first to n steps the correspondence relationship of each point is determined, and displaying the division for each color, a survey accuracy distribution map can be created.
FIG. 12 is a perspective view of a consumer digital camera used in the digital aerial photography three-dimensional measurement system according to the present invention. FIG. 13 is a plan view of a consumer digital camera used in the digital aerial photography three-dimensional measurement system according to the present invention. FIG. 14 is a front view of a consumer digital camera used in the digital aerial photography three-dimensional measurement system according to the present invention.
The consumer digital camera 14 includes a camera 14a, a controller 14b, an outer frame 14c, an inner frame 14d, a motor 14e, a mounting portion 14f, a coil spring 14g, and the like.
The mounting / control base 15 on which the consumer digital camera 14 is installed is provided with a circular hole 15b in the center and support columns 15a for supporting the consumer digital camera 14 at the four corners.
The camera 14a is installed with the lens facing downward. When fixed to the mounting / control base 15, a photograph can be taken through the hole 15 b. The number of pixels is 12 million or more, and a wide angle lens is attached for use.
The control unit 14b is a box provided on the camera 14a, has a gyro mounted therein, and can detect the inclination with respect to the direction of gravity so that the camera 14a is always directed directly downward.
The aviation GPS antenna 16 and the computer 18 are connected to the control unit 14b via a cable. The camera and the shutter signal transmission cable are connected, and the GPS signal is received and at the same time a signal for releasing the shutter is sent.
The outer frame 14c is a substantially octagonal frame that covers the periphery of the inner frame 14d. The inner frame 14d is connected to the outer frame 14c so as to move freely about both the pitch axis and the roll axis.
The inner frame 14d is a substantially octagonal frame to which the camera 14a and the control unit 14b are attached, and the inclination can be changed by the motor 14e.
The motor 14e is installed on all sides of the camera 14a and operates according to an instruction from the control unit 14b to adjust the tilt of the camera 14a.
The attachment portions 14f are portions that are fixed to the support columns 15a at the four corners of the outer frame 14c. Since the four corners are connected via the coil springs 14g, the camera 14a can be prevented from being shaken by absorbing vibration.
As described above, the digital aerial imaging three-dimensional measurement system according to the present invention includes only a consumer digital camera and a GPS, and is small, light, and low in cost while maintaining accuracy. Aerial photometry will be available for small projects that were difficult to achieve.
In addition, by performing correction or removal of error elements, estimation of the camera line-of-sight direction, etc. with software, it is easy to upgrade to improve accuracy, and calculation can be performed with higher accuracy than with hardware. become.
Furthermore, the consumer digital camera can be replaced, and even if the performance of the consumer digital camera changes, it can be easily handled by adjusting the software, so that it can be operated flexibly.

本発明は、以上の構成であるから以下の効果が得られる。第1に、計測機器は民生用デジタルカメラとGPSのみだけとなり、精度を維持しつつ、小型、軽量及び低コスト化されるので、コスト的に困難だった小規模プロジェクトにも航空写真測量を利用できるようになる。
第2に、誤差要素の補正又は除去、カメラ視線方向の推定などをソフトウェアで行うことにより、精度向上のためのバージョンアップが容易となり、ハードウェアで行う場合よりも、高精度に計算することができるようになる。
第3に、民生用デジタルカメラは換装可能であり、民生用デジタルカメラの性能が変わってもソフトウェアを調整するだけで容易に対応することができるので、柔軟に運用することが可能である。
Since this invention is the above structure, the following effects are acquired. First, the only measuring equipment is a consumer digital camera and GPS, and while maintaining accuracy, it is small, lightweight, and low-cost, so aerial photogrammetry can also be used for small-scale projects that were difficult in terms of cost. become able to.
Second, correction or removal of error elements, estimation of the camera line-of-sight direction, etc. are performed by software, so that version upgrade for improving accuracy is facilitated, and calculation can be performed with higher accuracy than when performed by hardware. become able to.
Thirdly, the consumer digital camera can be replaced, and even if the performance of the consumer digital camera changes, it can be easily handled by adjusting the software, so that it can be operated flexibly.

Claims (5)

デジタルカメラの仕様に基づく内部標定要素と前記デジタルカメラで撮影した複数の航空写真をコンピュータに入力し、前記内部標定要素を係数として放射方向歪みと接線方向歪みについて前記航空写真の画像上座標を変換した幾何補正済写真のデータを記憶装置に保存する幾何補正の手段と、前記航空写真を記憶装置から読み出すと共に前記航空写真の撮影に伴い受信したGPSデータをコンピュータに入力し、前記航空写真について連続する2枚の写真の重なり具合を求めて前記GPSデータの高度情報を基に撮影位置の差を算出し、前記GPSデータの緯度及び経度情報と比較して各写真に結び付けたカメラ位置のデータを記憶装置に保存する連続性解析の手段と、前記幾何補正済写真と前記カメラ位置を記憶装置から読み出し、前記カメラ位置を基に前記幾何補正済写真のうち隣接する写真同士をペアとしたとき、一方の写真上の複数点が他方の写真のどこに写っているかを画像照合により探し出したタイポイントのデータを記憶装置に保存するタイポイント抽出の手段と、前記内部標定要素と前記幾何補正済写真と前記カメラ位置と前記タイポイントを記憶装置から読み出し、前記タイポイントが前記カメラ位置において直下方向の姿勢で撮影されたと仮定して実空間での中心投影を逆にたどる直線を算出し、ペアの写真における2つの直線間の捩れが最小となるように姿勢を調整した位置姿勢のデータを記憶装置に保存する外部標定の手段と、前記内部標定要素と前記航空写真と前記位置姿勢を記憶装置から読み出し、前記航空写真を前記内部標定要素で幾何補正したものに対し前記位置姿勢を基に直下方向の姿勢で撮影した状態となるように投影し直した偏位補正済写真のデータを記憶装置に保存する偏位補正の手段と、前記位置姿勢と前記偏位補正済写真を記憶装置から読み出し、前記偏位補正済写真のうち重なり合う写真同士をペアにしたとき、一方の写真上の複数の点が他方の写真のどこに写っているかを画像照合により探し出し、前記位置姿勢に基づいて実空間での中心投影を逆にたどる直線を算出して、ペアの写真における2つの直線により求めた3次元座標のデータを記憶装置に保存するステレオマッチングの手段と、前記内部標定要素と前記航空写真と前記位置姿勢と前記3次元座標を記憶装置から読み出し、前記3次元座標で表されるものを前記内部標定要素の幾何的歪みを持った状態で前記位置姿勢の姿勢で撮影した際の対応関係を算出して前記航空写真上の各点を前記3次元座標に結び付け、画像を中心投影から正射影に変換した補正済写真のデータをコンピュータから出力するオルソ補正の手段とからなることを特徴とするデジタル空撮3次元計測システム。 Internal orientation elements based on the specifications of the digital camera and a plurality of aerial photographs taken with the digital camera are input to a computer, and the coordinates on the image of the aerial photograph are converted for radial distortion and tangential distortion using the internal orientation elements as coefficients. Geometric correction means for storing the geometrically corrected photograph data in the storage device, and reading the aerial photograph from the storage device and inputting the GPS data received when the aerial photograph was taken into the computer, The difference in the shooting position is calculated based on the altitude information of the GPS data by obtaining the degree of overlap of the two photographs to be performed, and the camera position data associated with each photograph is compared with the latitude and longitude information of the GPS data. Means for continuity analysis stored in a storage device, reading out the geometrically corrected photograph and the camera position from the storage device; Stores tie-point data obtained by image matching to find where multiple points on one photo appear in the other photo when paired with each other in the geometrically corrected photos based on the camera position. Tie point extraction means stored in the apparatus, the internal orientation element, the geometrically corrected photograph, the camera position, and the tie point are read out from a storage device, and the tie point is photographed in a posture in a downward direction at the camera position. Calculate the straight line that reverses the central projection in real space and store the position and orientation data in the storage device with the orientation adjusted so that the twist between the two straight lines in the pair of photos is minimized The orientation means, the internal orientation element, the aerial photograph, and the position and orientation are read from the storage device, and the aerial photograph is geometrically corrected with the internal orientation element. On the other hand, deviation correction means for storing in a storage device the data of a deviation corrected photo re-projected so as to be in a state of being photographed in a posture in a direct downward direction based on the position and orientation, the position and orientation, and the When the deviation-corrected photos are read from the storage device and the overlapping photos of the deviation-corrected photos are paired, the image search is used to find where in the other photo a plurality of points on one photo are located. Stereo matching means for calculating a straight line that reverses the central projection in the real space based on the position and orientation, and storing the three-dimensional coordinate data obtained by the two straight lines in the pair of photographs in a storage device; The internal orientation element, the aerial photograph, the position and orientation, and the three-dimensional coordinates are read from a storage device, and the one represented by the three-dimensional coordinates is displayed in a state having the geometric distortion of the internal orientation elements. Correspondence when shooting in the position / posture orientation is calculated, each point on the aerial photograph is linked to the three-dimensional coordinates, and corrected photo data obtained by converting the image from central projection to orthographic projection is output from the computer A digital aerial three-dimensional measurement system characterized by comprising orthocorrection means. 写真測量のタイポイント抽出又はステレオマッチングで画像照合する際の画素値取得において、画像上の点に対して、前記点が中央付近の場合は正方形状、前記点が画像外縁付近の場合は放射方向に引き延ばした形状で設定した枠を、カメラの進行方向に合わせて回転、カメラの傾きに合わせて歪曲、又はカメラの高度に合わせて拡大縮小し、前記枠の形状に合わせて画素値の取得位置を変更して周囲のピクセル中心との距離により画素値を算出することを特徴とする画像照合方法。 When obtaining pixel values when collating images with photogrammetry tie point extraction or stereo matching, a square shape is used when the point is near the center, and a radial direction when the point is near the outer edge of the image. The frame set in the shape extended to Rotate according to the moving direction of the camera, distorted according to the camera tilt, or scaled according to the camera altitude, and the pixel value acquisition position according to the shape of the frame A pixel value is calculated based on the distance from the center of the surrounding pixels by changing the above. 写真測量の外部標定で撮影範囲が重なり合う写真の共面条件及び共線条件を利用して行うカメラの姿勢推定において、カメラの進行方向に沿った連続する2枚の写真と、前記写真と撮影範囲が重なり合い且つ進行方向と直交する位置で撮影した写真とで推定することを特徴とする姿勢推定方法。 In the camera posture estimation using the coplanar condition and the collinear condition of the photo that overlaps the shooting range in the photogrammetry external orientation, two consecutive photos along the camera traveling direction, the photo and the shooting range A posture estimation method characterized in that estimation is performed with a photograph taken at a position that overlaps and is orthogonal to the traveling direction. 写真測量の偏位補正で直下方向の中心投影に補正する際において、写真撮影時のカメラの傾きによって傾いた中心投影の写真に対し、撮像面が水平となるようにレンズ主点を中心に回転させ、回転前の撮像面上の各点を回転後の撮影面に投影し直した後、各写真の辺の向きを揃えてリサンプルすることを特徴とする偏位補正方法。 When correcting to the central projection in the downward direction by deviation correction of photogrammetry, the center projection is rotated around the lens principal point so that the imaging surface is horizontal with respect to the central projection photo tilted by the camera tilt at the time of photography And re-sampling each point on the imaging surface before rotation onto the imaging surface after rotation, and then re-sampling with the orientation of the sides of each photo aligned. 写真測量のステレオマッチングで一方の画像上の各点に対応する他方の画像上の点を探し出す場合において、処理精度の段階としきい値を設定し、帰納的な手順で各点の3次元座標を求めることを特徴とするステレオマッチング方法。 When searching for a point on the other image corresponding to each point on one image by stereo matching of photogrammetry, set the processing accuracy stage and threshold, and use the inductive procedure to determine the 3D coordinates of each point. A stereo matching method characterized by obtaining.
JP2009519130A 2007-06-13 2007-06-13 Digital aerial 3D measurement system Pending JPWO2008152740A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/062373 WO2008152740A1 (en) 2007-06-13 2007-06-13 Digital aerial photographing three-dimensional measurement system

Publications (1)

Publication Number Publication Date
JPWO2008152740A1 true JPWO2008152740A1 (en) 2010-08-26

Family

ID=40129357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009519130A Pending JPWO2008152740A1 (en) 2007-06-13 2007-06-13 Digital aerial 3D measurement system

Country Status (2)

Country Link
JP (1) JPWO2008152740A1 (en)
WO (1) WO2008152740A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934911A (en) * 2019-03-15 2019-06-25 鲁东大学 Mobile terminal high-precision oblique photograph three-dimensional modeling method based on OpenGL

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812564B2 (en) * 2009-12-24 2015-11-17 株式会社パスコ Three-dimensional structure heat radiation diagnosis apparatus and heat radiation diagnosis program
DE102010019805A1 (en) * 2010-05-06 2011-11-10 Z/I Imaging Ltd. Camera, in particular for taking aerial photographs from airplanes
JP5397956B2 (en) * 2010-05-20 2014-01-22 株式会社 ソキア・トプコン Electronic level
WO2012127601A1 (en) * 2011-03-22 2012-09-27 株式会社パスコ Standing structure heat dissipation diagnostic device, heat dissipation diagnostic program, and heat dissipation diagnostic method
JP5775354B2 (en) 2011-04-28 2015-09-09 株式会社トプコン Takeoff and landing target device and automatic takeoff and landing system
JP5882693B2 (en) 2011-11-24 2016-03-09 株式会社トプコン Aerial photography imaging method and aerial photography imaging apparatus
EP2527787B1 (en) 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
JP5748561B2 (en) * 2011-05-23 2015-07-15 株式会社トプコン Aerial photography imaging method and aerial photography imaging apparatus
JP5885974B2 (en) * 2011-09-13 2016-03-16 アジア航測株式会社 Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
JP6122591B2 (en) 2012-08-24 2017-04-26 株式会社トプコン Photogrammetry camera and aerial photography equipment
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
JP6198223B2 (en) * 2013-10-29 2017-09-20 山九株式会社 3D model creation system
EP3392612B1 (en) * 2015-12-14 2023-05-17 Nikon-Trimble Co., Ltd. Defect detection apparatus and program
US10665035B1 (en) 2017-07-11 2020-05-26 B+T Group Holdings, LLC System and process of using photogrammetry for digital as-built site surveys and asset tracking
CN109029365B (en) * 2018-06-26 2021-05-18 广东电网有限责任公司 Method, system, medium and device for extracting different-side image connection points of electric power corridor
CN109685845B (en) * 2018-11-26 2023-04-07 普达迪泰(天津)智能装备科技有限公司 POS system-based real-time image splicing processing method for FOD detection robot
US11151782B1 (en) 2018-12-18 2021-10-19 B+T Group Holdings, Inc. System and process of generating digital images of a site having a structure with superimposed intersecting grid lines and annotations
CN110533766B (en) * 2019-08-06 2023-04-11 土豆数据科技集团有限公司 Oblique photography image intelligent writing method based on image control-free PPK data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243450A (en) * 2000-02-29 2001-09-07 Ntt Data Creation Kk Method and device for detecting tie point of satellite image and recording medium
JP2004110479A (en) * 2002-09-19 2004-04-08 Topcon Corp Picture calibration method, picture calibration processor, and picture calibration processing terminal
JP2005156514A (en) * 2003-11-27 2005-06-16 Kokusai Kogyo Co Ltd Constitution method of aerial photographic image data set
JP2005308553A (en) * 2004-04-21 2005-11-04 Topcon Corp Three-dimensional image measuring device and method
JP2006018549A (en) * 2004-07-01 2006-01-19 Kokusai Kogyo Co Ltd Retrieval method, display method and management system for stereoscopic photograph image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243450A (en) * 2000-02-29 2001-09-07 Ntt Data Creation Kk Method and device for detecting tie point of satellite image and recording medium
JP2004110479A (en) * 2002-09-19 2004-04-08 Topcon Corp Picture calibration method, picture calibration processor, and picture calibration processing terminal
JP2005156514A (en) * 2003-11-27 2005-06-16 Kokusai Kogyo Co Ltd Constitution method of aerial photographic image data set
JP2005308553A (en) * 2004-04-21 2005-11-04 Topcon Corp Three-dimensional image measuring device and method
JP2006018549A (en) * 2004-07-01 2006-01-19 Kokusai Kogyo Co Ltd Retrieval method, display method and management system for stereoscopic photograph image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934911A (en) * 2019-03-15 2019-06-25 鲁东大学 Mobile terminal high-precision oblique photograph three-dimensional modeling method based on OpenGL

Also Published As

Publication number Publication date
WO2008152740A1 (en) 2008-12-18

Similar Documents

Publication Publication Date Title
JPWO2008152740A1 (en) Digital aerial 3D measurement system
US7773799B2 (en) Method for automatic stereo measurement of a point of interest in a scene
EP1242966B1 (en) Spherical rectification of image pairs
US9998660B2 (en) Method of panoramic 3D mosaicing of a scene
JP3541855B2 (en) Method and apparatus for extracting three-dimensional data
US20150326783A1 (en) Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder
CN105627991A (en) Real-time panoramic stitching method and system for unmanned aerial vehicle images
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
JP5844454B2 (en) Camera calibration method, camera calibration program, and camera calibration apparatus
US20060215935A1 (en) System and architecture for automatic image registration
WO2011019071A1 (en) System that generates map image integration database and program that generates map image integration database
JP5134784B2 (en) Aerial photogrammetry
JP2008186145A (en) Aerial image processing apparatus and aerial image processing method
KR101252680B1 (en) Drawing system of an aerial photograph
CN110703805B (en) Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium
WO1995016895A1 (en) Integrated photographing apparatus mounted on aircraft
JP3808833B2 (en) Aerial photogrammetry
JP2011174799A (en) Photographing route calculation device
CN110986888A (en) Aerial photography integrated method
KR102578056B1 (en) Apparatus and method for photographing for aerial photogrammetry using an air vehicle
JP6305501B2 (en) Calibration method, program, and computer
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
JP3781034B2 (en) Stereo image forming method and apparatus
JP6062020B2 (en) Designated point projection method, program and computer
JP6133057B2 (en) Geographic map landscape texture generation based on handheld camera images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111104