JPH08159762A - Method and apparatus for extracting three-dimensional data and stereo image forming apparatus - Google Patents

Method and apparatus for extracting three-dimensional data and stereo image forming apparatus

Info

Publication number
JPH08159762A
JPH08159762A JP6298224A JP29822494A JPH08159762A JP H08159762 A JPH08159762 A JP H08159762A JP 6298224 A JP6298224 A JP 6298224A JP 29822494 A JP29822494 A JP 29822494A JP H08159762 A JPH08159762 A JP H08159762A
Authority
JP
Japan
Prior art keywords
image
dimensional data
parallax
orientation
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6298224A
Other languages
Japanese (ja)
Other versions
JP3541855B2 (en
Inventor
Toru Inoue
井上  徹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aero Asahi Corp
Original Assignee
Aero Asahi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aero Asahi Corp filed Critical Aero Asahi Corp
Priority to JP29822494A priority Critical patent/JP3541855B2/en
Publication of JPH08159762A publication Critical patent/JPH08159762A/en
Application granted granted Critical
Publication of JP3541855B2 publication Critical patent/JP3541855B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To produce DEM data from video images. CONSTITUTION: An object region is picked up by a video means from the sky (S1). At this time, the position of a camera is measured by a differential GPS. The camera is mounted on a vibration isolator. The inclination of the camera is precisely measured based on the output of a gyroscope and the output of a magnetic bearing sensor. An external locating element is accurately determined by the matching of the fields, which are overlapped by 60% in the video image (S2). The leading line, the central line and the final line in each field are extracted and individually composited, and the continuous mosaic image, which becomes the front visual image, the visual image in direct underside and the rear visual image is formed (S3). The longitudinal parallax is removed from the continuous mosaic image (S4). The parallax difference is computed based on the front visual image and the rear visual image (or visual image in direct underside) (S5), and the altitude is computed based on the parallax difference (S6).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、3次元データ抽出方法
及び装置並びにステレオ画像形成装置に関し、より具体
的には、ビデオ映像から3次元データを抽出する方法及
び装置、並びにビデオ映像からステレオ画像を形成する
ステレオ画像形成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for extracting three-dimensional data and a stereo image forming apparatus, and more specifically, a method and apparatus for extracting three-dimensional data from a video image and a stereo image from the video image. The present invention relates to a stereo image forming apparatus that forms a sheet.

【0002】[0002]

【従来の技術】3次元地形図を作成するには、従来、航
空写真による航空測量技術が利用されている。しかし、
航空測量技術は、現地上空をヘリコプタ又は軽飛行機を
飛ばしながら地上をステレオ撮影し、それで得たステレ
オ写真を解析処理するものであり、ステレオ写真を得る
だけでも多大な費用と時間がかかる上に、その解析にも
非常な手間と費用がかかる。低高度で撮影した空中写真
を使ってステレオ・マッチングにより3次元計測する場
合、オクルージョンの影響によりマッチング・エラーが
発生する。これは、ステレオ画像を形成する2つの画像
が別の視線方向から見られたものであり、観察方向の相
違に起因する画像の相違が、完全なマッチングを不可能
にするからである。従来例は、地上の複数の標定点を使
うことで、このような影響を除去しようとしているが、
これでは自動化は不可能である。
2. Description of the Related Art Conventionally, aerial survey technology using aerial photographs has been used to create a three-dimensional topographic map. But,
The aerial survey technology is to take a stereo image of the ground while flying a helicopter or a light aircraft over the field, and analyze and process the stereo image obtained with it, and it takes a lot of money and time just to obtain a stereo image. The analysis also requires a lot of labor and cost. When three-dimensional measurement is performed by stereo matching using an aerial photograph taken at low altitude, a matching error occurs due to the effect of occlusion. This is because the two images forming the stereo image are viewed from different line-of-sight directions, and the difference in the images due to the difference in the viewing direction makes perfect matching impossible. The conventional example tries to eliminate such an influence by using multiple ground control points.
Automation is not possible with this.

【0003】[0003]

【発明が解決しようとする課題】これに対して、ビデオ
映像を利用して地形図を作成する技術は、自動化しやす
い。しかし、従来の技術では、写真3次元データを抽出
するのに、航空写真測量と同様に、画像内に数点の対空
標識(明確な3次元座標が分かっている標識)が必要と
され、必要な数の対空標識が確保されても、誤差がメー
トル単位で精度が悪く、実用に耐えない。
On the other hand, the technique of creating a topographic map using video images is easy to automate. However, in the conventional technique, in order to extract the three-dimensional data of the photograph, as in the case of the aerial photogrammetry, a few anti-aircraft markers (marks whose clear three-dimensional coordinates are known) are required in the image, which is necessary. Even if a large number of anti-aircraft signs are secured, the error is inaccurate in meters and it is not practical.

【0004】道路、河川及び鉄道等の管理、その新規路
線計画、並びに都市等の開発状況調査には、3次元地形
図が有益であり、3次元地形データを迅速、安価且つ簡
単に入手できるシステムが望まれている。3次元地形デ
ータが得られれば、鳥瞰図も容易に作成(ディスプレイ
表示又はプリンタ出力)でき、各種のシミュレーション
を行なうことができる。また、ビデオ映像処理により3
次元データを得ることができれば、変化部分のみを抽出
するのも容易になるので、都市等の開発状況調査も容易
になる。
A three-dimensional topographic map is useful for the management of roads, rivers, railways, etc., new route plans for it, and surveys on the development status of cities, etc., and a system for obtaining three-dimensional topographic data quickly, inexpensively and easily. Is desired. If three-dimensional topographic data is obtained, a bird's-eye view can be easily created (displayed or output to a printer), and various simulations can be performed. In addition, 3 by video image processing
If the dimensional data can be obtained, it will be easy to extract only the changed portion, and thus it will be easy to survey the development situation of cities and the like.

【0005】本発明は、3次元データを自動抽出する3
次元データ抽出方法及び装置を提示することを目的とす
る。
According to the present invention, three-dimensional data is automatically extracted.
It is an object to present a method and an apparatus for extracting dimension data.

【0006】本発明はまた、ビデオ映像から3次元デー
タを抽出する3次元データ抽出方法及び装置を提示する
ことを目的とする。
Another object of the present invention is to provide a three-dimensional data extracting method and device for extracting three-dimensional data from a video image.

【0007】本発明はまた、ビデオ映像からステレオ画
像(ステレオ・マッチングに適した2つの画像)を形成
するステレオ画像形成装置を提示することを目的とす
る。
Another object of the present invention is to provide a stereo image forming apparatus for forming a stereo image (two images suitable for stereo matching) from a video image.

【0008】[0008]

【課題を解決するための手段】本発明では、ビデオ映像
の所定ラインの画像データを抽出して、視差の異なる連
続モザイク画像を形成する。それらの連続モザイク画像
から縦視差を除去した後、ステレオ・マッチングにより
視差差を算出する。得られた視差差から高さを算出す
る。
According to the present invention, image data of a predetermined line of a video image is extracted to form a continuous mosaic image with different parallax. After removing the vertical parallax from those continuous mosaic images, the parallax is calculated by stereo matching. The height is calculated from the obtained parallax.

【0009】好ましくは、撮影映像の連続する画面か
ら、所定割合で重複する少なくとも3以上の画面を抽出
し、その重複部分で各画面をマッチングし、外部標定要
素を確定する。そして、この標定計算で決定された外部
標定要素に従い、連続モザイク画像の各ラインに外部標
定要素を内挿し、連続モザイク画像の各ラインを、当該
ラインの外部標定要素に従い所定高度への投影画像に変
換する。
Preferably, at least three or more screens that overlap at a predetermined ratio are extracted from successive screens of photographed images, and the screens are matched at the overlapping parts to determine the external orientation element. Then, according to the external orientation element determined by this orientation calculation, the external orientation element is interpolated into each line of the continuous mosaic image, and each line of the continuous mosaic image is converted into a projection image to a predetermined altitude according to the external orientation element of the line. Convert.

【0010】[0010]

【作用】上記の各処理は、コンピュータ上で自動化可能
であり、従って、ビデオ撮影による映像から、ステレオ
・マッチングに必要なステレオ画像を得て、高さを算出
する全行程を、コンピュータ上で自動実行できるように
なり、迅速に所望地域等の3次元データを得ることがで
きる。
The above processes can be automated on a computer. Therefore, the entire process of obtaining the stereo image required for stereo matching from the video imaged and calculating the height is automatically performed on the computer. It becomes possible to execute, and it is possible to quickly obtain three-dimensional data such as a desired area.

【0011】ビデオ映像なので、外部標定要素を確定す
るのに必要な画像情報を豊富に得ることができ、外部標
定要素の精度が高まる。これにより、最終的に得られる
高さデータも精度の良いものになる。また、ステレオ画
像のマッチング演算でも、当該ステレオ画像の中間的な
画像を一時的に作って対応点を連鎖的に検索することに
より、ステレオ写真の場合に比べ、ステレオ画像間の対
応点をより精度良く確定できるようになり、オクルージ
ョンの問題を完全に解決できる。
Since it is a video image, it is possible to obtain abundant image information necessary for determining the external orientation element, and the accuracy of the external orientation element is improved. As a result, the height data that is finally obtained is also highly accurate. In addition, even in the matching operation of stereo images, by temporarily creating an intermediate image of the stereo images and searching for corresponding points in a chained manner, the corresponding points between stereo images can be more accurate than in the case of stereo photographs. You will be able to better determine and completely solve the occlusion problem.

【0012】[0012]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0013】図1は、本発明の一実施例の空中計測シス
テムの概略構成ブロック図、図2は、地上計測システム
の概略構成ブロック図、図3は、地上解析システムの概
略構成ブロック図を示す。
FIG. 1 is a schematic configuration block diagram of an aerial measurement system according to an embodiment of the present invention, FIG. 2 is a schematic configuration block diagram of a ground measurement system, and FIG. 3 is a schematic configuration block diagram of a ground analysis system. .

【0014】図1に示す空中計測システムを説明する。
図1に示す空中計測システムは、本実施例ではヘリコプ
ターに搭載される。本実施例では、高品位カメラ10を
高精度防振安定装置(防振装置)12に搭載し、その高
品位映像信号出力を高品位ビデオ・テープ・レコーダ1
4によりビデオ・テープに記録する。なお、カメラ10
は、一般に下向きであって、直下の映像が走査線に垂直
な方向に移動するように設置される。カメラ10の出力
映像信号は、高品位モニタ16にも印加されている。こ
れにより、カメラ10の被写体及び撮影状況を視覚的に
確認できる。
The aerial measurement system shown in FIG. 1 will be described.
The aerial measurement system shown in FIG. 1 is mounted on a helicopter in this embodiment. In this embodiment, a high-definition camera 10 is mounted on a high-precision image stabilization device (anti-vibration device) 12, and the high-definition video signal output is output from the high-definition video tape recorder 1.
Record on video tape by 4. The camera 10
Is generally downward, and is installed so that the image immediately below moves in a direction perpendicular to the scanning line. The output video signal of the camera 10 is also applied to the high quality monitor 16. As a result, the subject and shooting condition of the camera 10 can be visually confirmed.

【0015】高精度防振安定装置12は、機体からの振
動がカメラ10に影響しないようにする。これにより、
ブレの無い映像を収録できるようになる。即ち、高精度
防振安定装置12は、ジャイロとジンバル・サーボを組
み合わせることにより、カメラの10光軸が機体に発生
するロール軸、ピッチ軸及びヨー軸回りの角度の動揺に
対して慣性空間の一定方向に常に向くような空間安定化
機能を持つ。
The high-precision anti-vibration stabilizer 12 prevents the vibration from the machine body from affecting the camera 10. This allows
You will be able to record video without blur. That is, the high-precision anti-vibration stabilizer 12 combines the gyro and the gimbal servo so that the 10 optical axes of the camera can provide an inertial space against the fluctuations of the roll axis, the pitch axis, and the yaw axis around the machine body. It has a space stabilization function that always faces in a certain direction.

【0016】18は、測定データを収集・記録すると共
に、3軸制御装置20を介して防振安定装置12を制御
し、カメラ制御装置22を介してカメラ10を制御し、
VTR制御装置24を介してVTR14を制御するパー
ソナル・コンピュータである。3軸制御装置20によ
り、防振安定装置12の目標方位を任意に設定でき、カ
メラ制御装置22によりカメラ10のフォーカス、ズー
ム、絞り値及び色バランス等を制御し、VTR制御装置
24により、VTR14の録画開始、録画終了及びポー
ズを制御し、また、カメラ10の出力映像信号と一緒に
記録されるタイムコードを取得して、コンピュータ18
に転送する。このタイムコードは、VTR14に記録さ
れる映像情報と、その他の測定データを地上解析システ
ムで解析する際に同期をとるのに利用される。
Reference numeral 18 collects and records measurement data, controls the image stabilization device 12 via the three-axis control device 20, controls the camera 10 via the camera control device 22,
It is a personal computer that controls the VTR 14 via the VTR controller 24. The three-axis control device 20 can arbitrarily set the target orientation of the image stabilization device 12, the camera control device 22 controls the focus, zoom, aperture value, color balance, etc. of the camera 10, and the VTR control device 24 controls the VTR 14 The recording start, the recording end, and the pause of the computer 18 are controlled, and the time code recorded together with the output video signal of the camera 10 is acquired.
Transfer to. This time code is used to synchronize the video information recorded on the VTR 14 with other measurement data when analyzed by the ground analysis system.

【0017】対地高度センサ26は、対地高度を検出
し、磁方位センサ28は磁方位を検出する。高精度防振
安定装置12によっても、ジャイロ・ドリフトによりゆ
っくりとした方向移動があるので、磁方位センサ28に
より、カメラ10の向きを補正する必要がある。センサ
26,28の出力は、ディジタル・データとして、コン
ピュータ18に印加される。コンピュータ18には他
に、防振安定装置12からカメラ10の3軸方向を示す
3軸ジャイロ・データ(ロール角、ピッチ角及びヨー
角)が入力し、カメラ10からズーム値を示すズーム・
データが入力する。
The ground altitude sensor 26 detects the ground altitude, and the magnetic azimuth sensor 28 detects the magnetic azimuth. Since the azimuth drift causes a slow directional movement even by the high-precision image stabilization device 12, it is necessary to correct the orientation of the camera 10 by the magnetic azimuth sensor 28. The outputs of the sensors 26, 28 are applied to the computer 18 as digital data. In addition, 3-axis gyro data (roll angle, pitch angle and yaw angle) indicating the 3-axis direction of the camera 10 is input to the computer 18 from the image stabilization device 12, and the zoom value indicating the zoom value is input from the camera 10.
Data to enter.

【0018】30はGPS(全地球測位システム)の受
信アンテナ、32はGPSアンテナ30の受信信号から
現在地座標(緯度、経度及び高度)を参集するGPS受
信装置である。GPS受信装置32から出力されるGP
S測位データは、記録するためにコンピュータ18に印
加され、また、ナビゲーションのためにナビゲーション
・システム34にも印加される。ナビゲーション・シス
テム34は、予めフロッピー36に記録しておいたナビ
ゲーション・データ(測線データ)に従い、設定した測
線に対する現在位置をモニタ38の画面に3次元的グラ
フィック表示する。これにより、地上に目標物の無い地
域や分かりにくい地域(例えば、山間地又は海域等)で
所望の測線に沿った撮影が可能になる。
Reference numeral 30 is a GPS (Global Positioning System) receiving antenna, and 32 is a GPS receiving apparatus for collecting current position coordinates (latitude, longitude and altitude) from the received signal of the GPS antenna 30. GP output from the GPS receiver 32
The S positioning data is applied to the computer 18 for recording and also to the navigation system 34 for navigation. The navigation system 34 three-dimensionally graphically displays the current position with respect to the set survey line on the screen of the monitor 38 according to the navigation data (measurement line data) recorded in the floppy 36 in advance. As a result, it is possible to perform imaging along a desired survey line in an area where there is no target on the ground or an area that is difficult to understand (for example, a mountainous area or a sea area).

【0019】なお、GPSの測定精度を向上する方法と
して、座標が既知の基準点でもGPSで測定し、その測
定誤差でGPS測位データを補正するディファレンシャ
ルGPS(D−GPS)方式が知られている。本実施例
では、このディファレンシャルGPS方式を採用し、座
標が既知の基準局の座標を同時にGPSで測定し、その
測定誤差データをGPS補正データとして無線通信によ
りヘリコプターに送信する。通信装置40は、基準局か
らのGPS補正データを受信し、コンピュータ18に転
送する。
As a method of improving the measurement accuracy of GPS, a differential GPS (D-GPS) method is known in which the GPS is measured even at a reference point whose coordinates are known and the GPS positioning data is corrected by the measurement error. . In this embodiment, this differential GPS system is adopted, the coordinates of a reference station whose coordinates are already known are simultaneously measured by GPS, and the measurement error data is transmitted to the helicopter as GPS correction data by wireless communication. The communication device 40 receives the GPS correction data from the reference station and transfers it to the computer 18.

【0020】コンピュータ18は、入力する飛行データ
(対地高度データ、磁方位データ、ズーム・データ、3
軸ジャイロ・データ)とGPS補正データ、VTR制御
装置24からのタイムコードと共に、フロッピー42に
記録する。コンピュータ18はまた、各入力データを必
要によりモニタ44に表示することができ、オペレータ
はキーボード46からコンピュータ18に種々の指示を
入力できる。
The computer 18 inputs flight data (ground altitude data, magnetic direction data, zoom data, 3
Along with the axis gyro data), GPS correction data, and the time code from the VTR controller 24, the data is recorded on the floppy 42. The computer 18 can also display each input data on the monitor 44 as needed, and an operator can input various instructions to the computer 18 from the keyboard 46.

【0021】通信装置40による基準局との通信が不良
になった場合に備えて、本実施例では、図2に示すよう
に、基準局でも、計測したGPS補正データを独自にフ
ロッピーに保存する。即ち、GPS受信装置50は、G
PSアンテナ52の出力からGPSアンテナ52の現在
地を算出し、GPS測位データをコンピュータ54に出
力する。GPSアンテナ52の正確な座標(基準位置デ
ータ)は予め測定されており、そのデータがコンピュー
タ54に入力又は設定されている。コンピュータ54
は、GPS受信装置50からのGPS測位データと基準
位置データとの誤差を算出し、GPS補正データとして
フロッピー56に記録する。勿論、測定時刻の情報も同
時に記録する。GPS測位データ及びその誤差(即ち、
GPS補正データ)は、必要により、モニタ58の画面
に表示される。オペレータはキーボード60により種々
の指令をコンピュータ54に入力できる。コンピュータ
54はまた、通信装置62を介してGPS補正データ
を、図1に示す空中計測システム(のコンピュータ1
8)に送信する。
In the present embodiment, as shown in FIG. 2, the reference station also stores the measured GPS correction data in a floppy disk in case the communication device 40 fails to communicate with the reference station. That is, the GPS receiving device 50 is
The current position of the GPS antenna 52 is calculated from the output of the PS antenna 52, and the GPS positioning data is output to the computer 54. Accurate coordinates (reference position data) of the GPS antenna 52 are measured in advance, and the data are input or set in the computer 54. Computer 54
Calculates the error between the GPS positioning data from the GPS receiver 50 and the reference position data, and records it in the floppy 56 as GPS correction data. Of course, the measurement time information is also recorded at the same time. GPS positioning data and its error (ie,
The GPS correction data) is displayed on the screen of the monitor 58 as necessary. The operator can input various commands to the computer 54 using the keyboard 60. The computer 54 also sends GPS correction data to the computer 1 of the aerial measurement system shown in FIG. 1 via the communication device 62.
Send to 8).

【0022】図1に示す空中計測システム(及び、必要
により図2に示す地上計測システム)により計測された
各データは、図3に示す地上解析システムにより解析さ
れ、3次元データが算出される。即ち、高品位VTR7
0は、図1に示す空中計測システムで録画されたビデオ
・テープを再生し、映像映像信号をフレーム・バッファ
74に、再生されたタイムコードをエンジニアリング・
ワークステーション76に印加する。フレーム・バッフ
ァ74に一時記憶された映像データはモニタ78に印加
され、映像表示される。再生されたタイムコードもモニ
タ78に同時に表示されることがあるのは、いうまもで
もない。
Each data measured by the aerial measurement system shown in FIG. 1 (and the ground measurement system shown in FIG. 2 if necessary) is analyzed by the ground analysis system shown in FIG. 3 to calculate three-dimensional data. That is, high-quality VTR7
0 reproduces the video tape recorded by the aerial measurement system shown in FIG. 1, the video image signal is stored in the frame buffer 74, and the reproduced time code is engineered.
Apply to workstation 76. The video data temporarily stored in the frame buffer 74 is applied to the monitor 78 and displayed as a video. It goes without saying that the reproduced time code may be displayed on the monitor 78 at the same time.

【0023】パーソナル・コンピュータ80は、図1に
示す空中計測システムで同時に収集された飛行データ及
びGPS補正データ(通信不良の場合には、図2に示す
地上計測システムで計測されたGPS補正データ)を読
み出し、GPS測位データをGPS補正データで補正す
と共に、3軸ジャイロ・データを磁方位データで補正
し、その他の計測データ及び一緒に記録されていたタイ
ムコードと共にワークステーション76に転送する。ワ
ークステーション76は、コンピュータ80から供給さ
れるタイムコードに従いVTR70を制御し、同じタイ
ムコードの映像をVTR70に再生させる。これによ
り、ワークステーション76は、撮影時の条件及び撮影
位置と、そのときの撮影映像とを対応付けることがで
き、以下に詳細に説明する演算により、3次元データを
生成する。
The personal computer 80 collects flight data and GPS correction data simultaneously collected by the aerial measurement system shown in FIG. 1 (in the case of communication failure, GPS correction data measured by the ground measurement system shown in FIG. 2). Is read out, the GPS positioning data is corrected with the GPS correction data, the three-axis gyro data is corrected with the magnetic direction data, and the other measurement data and the time code recorded together are transferred to the workstation 76. The workstation 76 controls the VTR 70 according to the time code supplied from the computer 80, and causes the VTR 70 to reproduce an image having the same time code. As a result, the workstation 76 can associate the shooting condition and shooting position with the shot image at that time, and generates three-dimensional data by the calculation described in detail below.

【0024】図4は、本実施例における計測から3次元
データ抽出までのフローを示す。先ず、図1に示す各装
置を航空機に搭載し、対象地域上空を可能な限り一定高
度及び一定速度で飛行しながら対象地域を撮影し、飛行
情報を収録する(S1)。このとき、撮影対象は、基本
的に、カメラ10の走査線の垂直方向に移動していく。
カメラ10により撮影された映像は、VTR14により
ビデオテープに録画される。同時に、カメラ10の正確
な位置(緯度、経度、高さ)と向きの情報が、VTR1
4からのタイムコードと共にフロッピー42に記録され
る。タイムコードは、地上での解析時に、カメラの位置
及び向きと、再生映像との同期をとるのに使用される。
FIG. 4 shows a flow from measurement to three-dimensional data extraction in this embodiment. First, each device shown in FIG. 1 is mounted on an aircraft, the target area is photographed while flying over the target area at a constant altitude and at a constant speed, and flight information is recorded (S1). At this time, the object to be photographed basically moves in the direction perpendicular to the scanning line of the camera 10.
The video image captured by the camera 10 is recorded on the video tape by the VTR 14. At the same time, the information on the accurate position (latitude, longitude, height) and orientation of the camera 10 is displayed by the VTR1.
It is recorded in the floppy 42 together with the time code from 4. The time code is used to synchronize the position and orientation of the camera with the reproduced video during ground analysis.

【0025】カメラ10の位置は、基本的にはGPS受
信機32から出力されるGPS測位データから分かり、
精度向上のために、基準局からのGPS補正データによ
りディファレンシャル処理される。ディファレンシャル
処理は、航空機上でもよいが、GPS補正データの通信
不良などを考慮すると、GPS受信機32の出力(GP
S測位データ)とGPS補正データとを別々にフロッピ
ー42に記録しておき、地上での解析時にディファレン
シャル処理するのが好ましい。GPS補正データの通信
不良があったときには、図2に示す地上計測システムで
記録保存したGPS補正データでGPS測位データをデ
ィファレンシャル処理する。
The position of the camera 10 is basically known from the GPS positioning data output from the GPS receiver 32,
In order to improve the accuracy, differential processing is performed using GPS correction data from the reference station. The differential processing may be performed on the aircraft, but in consideration of poor communication of GPS correction data, the output of the GPS receiver 32 (GP
It is preferable that the S positioning data) and the GPS correction data are separately recorded in the floppy 42 and differentially processed at the time of analysis on the ground. When there is a communication failure of the GPS correction data, the GPS positioning data is differentially processed by the GPS correction data recorded and stored by the ground measurement system shown in FIG.

【0026】カメラ10の向きに関しては、防振安定装
置12のジャイロ・センサの出力を磁方位センサ28の
出力で補正した値をフロッピー42に記録する。具体的
には、3軸の傾き(ピッチ、ロール及びヨー)をフロッ
ピーに記録する。勿論、簡略のため、または、防振安定
装置12の性能が良好な場合や、簡略化してもよい場合
には、カメラ10の傾きが一定であるとしてもよい。
Regarding the orientation of the camera 10, a value obtained by correcting the output of the gyro sensor of the image stabilization device 12 with the output of the magnetic direction sensor 28 is recorded in the floppy 42. Specifically, the tilts (pitch, roll, and yaw) of the three axes are recorded on a floppy disk. Of course, for simplification, or when the performance of the image stabilization device 12 is good, or when it may be simplified, the inclination of the camera 10 may be constant.

【0027】ちなみに、撮影高度を1,000フィート
とし、200万画素CCDイメージ・センサを使用する
ハイビジョン・カメラの場合で、焦点距離が8.5mm
のとき、撮影範囲は339m、分解能は17.7cmで
あり、焦点距離が102.0mmのとき、撮影範囲は2
8m、分解能は1.5cmである。
By the way, in the case of a high-definition camera using a 2 million pixel CCD image sensor with a photographing altitude of 1,000 feet, the focal length is 8.5 mm.
The shooting range is 339 m, the resolution is 17.7 cm, and the shooting range is 2 when the focal length is 102.0 mm.
8 m, resolution is 1.5 cm.

【0028】収録された情報(映像と飛行情報)は、図
3に示す地上解析システムで再生され、解析される。先
に説明したように、ワークステーション76は、コンピ
ュータ80からの撮影時の情報(カメラの位置と方位、
並びにタイムコード)に従い、VTR70を制御し、同
じタイムコードの映像を再生させる。再生された映像信
号は、ディジタル化されて、フレーム・バッファ74に
格納される。このようにして、ワークステーション76
は、映像データと、撮影時のカメラ位置及び傾きのデー
タを得ることができ、標定計算(S2)、連続モザイク
画像作成(S3)、縦視差除去(S4)、視差差算出
(S5)及びDEM作成の各処理を経て、DEMデータ
を出力する。
The recorded information (video and flight information) is reproduced and analyzed by the ground analysis system shown in FIG. As described above, the workstation 76 uses the information from the computer 80 at the time of shooting (camera position and orientation,
In addition, the VTR 70 is controlled according to the time code) to reproduce the video of the same time code. The reproduced video signal is digitized and stored in the frame buffer 74. In this way, the workstation 76
Can obtain video data and camera position and tilt data at the time of shooting, orientation calculation (S2), continuous mosaic image creation (S3), vertical parallax elimination (S4), parallax difference calculation (S5) and DEM. DEM data is output through each process of creation.

【0029】標定計算(S2)を説明する。写真測量で
は、2枚のステレオ画像から3次元計測を行なう場合、
各画像の正確な標定要素が必要になる。標定要素には、
撮影時のカメラの位置及び3軸の傾きからなる外部標定
要素と、カメラ主点位置ズレ量、レンズ歪係数及びフィ
ルム平面度などからなる内部標定要素とがある。内部標
定要素は、カメラ毎に個体差がありうるものも、予め測
定しておくことができる。
The orientation calculation (S2) will be described. In photogrammetry, when performing three-dimensional measurement from two stereo images,
An exact orientation factor for each image is required. The orientation elements include
There are an external orientation element composed of the position of the camera at the time of photographing and an inclination of three axes, and an internal orientation element composed of a camera principal point position displacement amount, a lens distortion coefficient, a film flatness and the like. As for the internal orientation element, it is possible to measure in advance what may have individual differences for each camera.

【0030】外部標定要素は、次のような一般的な写真
測量の手法で求めることができる。即ち、ビデオ撮影時
に同時に収録した飛行情報、具体的にはカメラ10の位
置と傾きから、重複率が60%(又はほぼ60%)にな
るようなシーン(本実施例では、フィールド画)を、撮
影映像から抽出する。例えば、図5に示す例では、シー
ン#1に対してシーン#2は60%重複し、シーン#3
はシーン#2に対して60%重複する。シーン#3はシ
ーン#1に対しても20%重複する。抽出したシーンの
フィールド番号は、後述の縦視差除去処理における外部
標定要素の内挿処理で必要となるので、抽出された各シ
ーンの外部標定要素と対にして、図示しない補助記憶装
置(例えば、ハードディスク装置)に記憶する。
The external orientation element can be obtained by the following general photogrammetric method. That is, a scene (field image in this embodiment) in which the overlap rate becomes 60% (or almost 60%) from the flight information simultaneously recorded at the time of video recording, specifically, the position and inclination of the camera 10, Extract from the captured video. For example, in the example shown in FIG. 5, scene # 2 overlaps scene # 1 by 60%, and scene # 3
Overlaps scene # 2 by 60%. Scene # 3 also overlaps scene # 1 by 20%. The field number of the extracted scene is necessary for the interpolation processing of the external orientation element in the vertical parallax removal processing described later, so the external orientation element of each extracted scene is paired with an auxiliary storage device (not shown) (for example, Hard disk device).

【0031】しかし、飛行情報に従って抽出した3シー
ンの重複部分は、センサ誤差及び地形の高さによる影響
が含まれているので、ピッタリ合うことは稀である。そ
こで、実際には、次のようにして重複部分を確定する。
即ち、図6に示すように、各シーンの重複部分に複数の
マッチング領域を設定し、残差逐次検定法又は相互相関
係数法などのマッチング手法により、各シーンの各マッ
チング領域内で共通ポイントを計算する。この計算は勿
論、自動化可能であり、この共通ポイントをパス・ポイ
ントと呼ぶ。
However, since the overlapping portions of the three scenes extracted according to the flight information include the influence of the sensor error and the height of the terrain, it is rare that they are perfectly matched. Therefore, in practice, the overlapping portion is determined as follows.
That is, as shown in FIG. 6, a plurality of matching regions are set in the overlapping portions of each scene, and common points are set in each matching region of each scene by a matching method such as a residual sequential test method or a cross correlation coefficient method. To calculate. This calculation can of course be automated and this common point is called the pass point.

【0032】立体画像を構成する2つの画像からなる対
をモデルと呼び、その重複部分のパス・ポイントの座標
値から相対的な位置及び傾きの関係を求めるのを相互標
定と呼び、複数のモデルをモデル相互の共通したパス・
ポイントをもとに統一したコース座標系に変換すべく結
合するのを接続標定と呼ぶ。相互標定と接続標定の関係
を図7に示す。
A pair of two images forming a three-dimensional image is called a model, and obtaining the relationship between relative position and inclination from the coordinate values of the path points of the overlapping parts is called mutual orientation. The model has a common path
It is called connection orientation to combine points to convert them into a unified course coordinate system. The relationship between the mutual orientation and the connection orientation is shown in FIG.

【0033】一連の撮影映像で上述の相互標定と接続標
定を繰り返し行なうことにより、各モデルを統一したコ
ース座標系に変換できる。ビデオ撮影時に収録した飛行
情報(外部標定要素)は、その測定系に依存する測定誤
差又は変動を含むが、このような標定計算(相互標定と
接続標定)により、外部標定要素の値を高精度に確定で
きる。
By repeatedly performing the above-described mutual orientation and connection orientation on a series of photographed images, each model can be converted into a unified course coordinate system. The flight information (external orientation element) recorded at the time of video recording contains measurement error or fluctuation depending on the measurement system, but by such orientation calculation (mutual orientation and connection orientation), the value of the external orientation element is highly accurate. Can be confirmed.

【0034】以上により、標定計算(S2)を終了し、
次に、連続モザイク画像を作成する(S3)。カメラの
撮像面(CCD面)と地上撮影範囲の関係は、図8のよ
うになる。ビデオ映像は、周知の通り、1秒間に30フ
レームからなり、1フレームは奇フィールドと偶フィー
ルドの2つのフィールドからなる。奇フィールドと偶フ
ィールドは、走査線が重複しないようにずらして配列さ
れ、1/60秒毎に交互に表示される。
From the above, the orientation calculation (S2) is completed,
Next, a continuous mosaic image is created (S3). The relationship between the image pickup surface (CCD surface) of the camera and the terrestrial image pickup range is as shown in FIG. As is well known, a video image consists of 30 frames per second, and one frame consists of two fields, an odd field and an even field. The odd field and the even field are arranged in a staggered manner so that the scanning lines do not overlap, and are alternately displayed every 1/60 seconds.

【0035】即ち、カメラ10により撮影したビデオ映
像は、1/60秒毎に撮影位置を変えたシーン(フィー
ルド)からなり、本実施例では、図9に示すように、各
フィールドから、その先頭ライン、中心ライン及び最終
ラインの各ライン・データを抽出する。各フィールドの
先頭ラインのデータから形成した画像を前方視画像、各
フィールドの中心ラインのデータから形成した画像を直
下視画像、各フィールドの最終ラインのデータから形成
した画像を後方視画像とそれぞれ呼ぶ。撮影時の移動速
度が一定で、且つカメラの傾きも一定であれば、これ
ら、前方視画像、直下視画像及び後方視画像を使って立
体視することができる。なお、高さを強調する、即ち分
解能を上げるには、短い焦点距離のレンズを使えばよ
い。
That is, the video image photographed by the camera 10 is composed of scenes (fields) whose photographing positions are changed every 1/60 seconds. In this embodiment, as shown in FIG. Each line data of the line, the center line and the last line is extracted. An image formed from the data of the first line of each field is called a forward-view image, an image formed from the data of the center line of each field is called a direct-down view image, and an image formed from the data of the last line of each field is called a rear-view image. . If the moving speed at the time of shooting is constant and the tilt of the camera is also constant, stereoscopic viewing can be performed using these front-view image, direct-down view image, and rear-view image. In order to emphasize the height, that is, to increase the resolution, a lens with a short focal length may be used.

【0036】但し、航空機によるビデオ撮影では、飛行
速度の変化、飛行コースのズレ、飛行高度の変化、及び
3軸(ピッチ、ロール及びヨー)の変化といった変動要
因があり、これらの影響で生じる縦視差を除去する必要
がある(S4)。
However, in video shooting with an aircraft, there are fluctuation factors such as changes in flight speed, deviation in flight course, changes in flight altitude, and changes in three axes (pitch, roll, and yaw). It is necessary to remove parallax (S4).

【0037】縦視差除去処理(S4)では先ず、標定計
算(S2)で得られた重複率60%の各画像の外部標定
要素をもとに、連続モザイク画像(前方視画像、直下視
画像及び後方視画像)の各ライン・データに対応する外
部標定要素の値を内挿する。例えば、図10に示すよう
に、3つの撮影地点P,Q,Rでの外部標定要素、即ち
カメラの位置と傾きが、それぞれ、(Xp,Yp,Zp,
ωp,φp,κp)、(Xq,Yq,Zq,ωq,φq,κq)
及び(Xr,Yr,Zr,ωr,φr,κr)であるとしたと
き、連続モザイク画像上で、各撮影地点P,Q,Rでの
直下視画像に相当するラインにこれらの外部標定要素の
値を割り当て、それ以外のラインには、内挿値を割り当
てる。このようにして、連続モザイク画像の各ライン
に、図11に示すように、外部標定要素(Xi,Yi,Z
i,ωi,φi,κi)を割り当てる。
In the vertical parallax elimination processing (S4), first, based on the external orientation elements of each image having the overlapping ratio of 60% obtained in the orientation calculation (S2), continuous mosaic images (forward-view image, direct-down image and The value of the external orientation element corresponding to each line data of the backward view image) is interpolated. For example, as shown in FIG. 10, the external orientation elements at the three photographing points P, Q, and R, that is, the position and the tilt of the camera are (Xp, Yp, Zp,
ωp, φp, κp), (Xq, Yq, Zq, ωq, φq, κq)
And (Xr, Yr, Zr, ωr, φr, κr), on the continuous mosaic image, the lines of these external orientation elements are located on the lines corresponding to the direct-view images at the respective photographing points P, Q, and R. Values are assigned, and interpolated values are assigned to the other lines. In this way, the external orientation elements (X i , Y i , Z) are added to each line of the continuous mosaic image as shown in FIG.
i , ω i , φ i , κ i ) are assigned.

【0038】本実施例では、写真測量の演算ソフトウエ
アを流用するので、ビデオ映像の座標系を、図12に示
すように、通常の写真測量の単写真の座標系に変換す
る。即
In this embodiment, since the calculation software for photogrammetry is diverted, the coordinate system of the video image is converted into the coordinate system of a single photogram of ordinary photogrammetry as shown in FIG. Immediately

【0039】ち、Then,

【数1】に示すように、画像座標系(u,v)を写真座
標系(x,y)に変換する。
As shown in Equation 1, the image coordinate system (u, v) is transformed into the photographic coordinate system (x, y).

【0040】[0040]

【数1】 x=(u−u0)×xC y=(v−v0)×yC 但し、u0及びv0は、ビデオ画像の中心画像座標値、x
C及びyCは、1画素あたりのx,y方向のCCD結像面
での長さである。
X = (u−u 0 ) × x C y = (v−v 0 ) × y C where u 0 and v 0 are the central image coordinate values of the video image, x
C and y C are the lengths per pixel on the CCD image plane in the x and y directions.

【0041】そして、写真座標系を地上座標系に変換す
る。写真座標系(x,y)と地上座標系(X,Y,Z)
との間には、図13に示す幾何学的関係があり、その変
換式は、下式で表わされる。
Then, the photographic coordinate system is converted into the ground coordinate system. Photographic coordinate system (x, y) and ground coordinate system (X, Y, Z)
There is a geometrical relation shown in FIG. 13 between and, and the conversion formula is represented by the following formula.

【0042】[0042]

【数2】 [Equation 2]

【0043】ここで、fは、画面距離、(Xo,Yo,
Zo)は、写真の投影中心Oの地上座
Here, f is the screen distance, (Xo, Yo,
Zo) is the ground seat with the projection center O of the photograph

【0044】標である。It is a mark.

【数2】は、共線条件式と呼ばれる。9個の係数a11
33は、カメラの撮影軸の傾き(ω,φ,κ)より、数
3により求められる。ω,φ,κはそれぞれX軸、Y軸
及びZ軸のまわりの回転角を示し、それぞれの軸の正方
向に向かって右まわりを正とする。
Equation 2 is called a collinear conditional expression. 9 coefficients a 11 ~
a 33 is obtained by the equation 3 from the inclination (ω, φ, κ) of the photographing axis of the camera. [omega], [phi], and [kappa] represent rotation angles around the X-axis, Y-axis, and Z-axis, respectively, and the clockwise direction is positive in the positive direction of each axis.

【0045】[0045]

【数3】 (Equation 3)

【0046】従って、Therefore,

【0047】[0047]

【数4】 [Equation 4]

【0048】[0048]

【数2】の逆変換式は、次のようになる。即ち、The inverse transformation formula of [Equation 2] is as follows. That is,

【0049】[0049]

【数5】 (Equation 5)

【0050】[0050]

【数2】及び2 and

【数5】における未知変量は、写真の投影中心の地上座
標(Xo,Yo,Zo)及び撮影軸の傾き(ω,φ,
κ)の6つである。この6つの未知変量が外部標定要素
であり、先に求めたライン毎の外部標定要素により、ラ
イン毎に、写真座標系を地上座標系に変換できる。
The unknown variables in Equation (5) are the ground coordinates (Xo, Yo, Zo) of the projection center of the photograph and the tilt (ω, φ,
κ). These six unknown variables are external orientation elements, and the photographic coordinate system can be converted to the ground coordinate system for each line by the previously determined external orientation element for each line.

【0051】このように地上座標系に変換された連続モ
ザイク画像に
A continuous mosaic image converted into the ground coordinate system in this way

【数5】を適用し、図14に示すように、縦視差を除去
した画像を作成する(S4)。即ち、先にライン毎に決
定した外部標定要素を用いて、係数a11〜a33を求め、
連続モザイク画
By applying the equation (5), an image with vertical parallax removed is created as shown in FIG. 14 (S4). That is, using the external orientation elements previously determined for each line, the coefficients a 11 to a 33 are obtained,
Continuous mosaic

【0052】像の前方視画像、直下視画像及び後方視画
像に
The front-view image, nadir-view image, and rear-view image of the image

【数5】を適用して、標高0mに投映した画像を作成す
る。この時、作成する画像の1画素の大きさは、撮影高
度、カメラ焦点距離及びビデオ画像1画素のCCD長等
から計算して、最適な値に設定する。
[Equation 5] is applied to create an image projected at an altitude of 0 m. At this time, the size of one pixel of the image to be created is calculated from the photographing altitude, the camera focal length, the CCD length of one pixel of the video image, and the like, and is set to an optimum value.

【0053】出力画像の1画素の大きさを最適な値に設
定しても、ビデオ撮影時の飛行速度や撮影方向の変化で
画素ヌケの箇所が発生する場合がある。これは、フィル
タ処理により周囲の画素から内挿又は補間する。内挿手
法には、内挿したい点に最も近い観測点の値をそのまま
流用する最近隣内挿法、内挿したい点の周囲の4つの観
測点の値の平均値を求める値とする共一次内挿法、及
び、内挿したい点の周囲の16個の観測点の値を三次畳
み込み処理する三次畳み込み内挿法などがある。
Even if the size of one pixel of the output image is set to an optimum value, there may be some missing pixels due to changes in flight speed and shooting direction during video shooting. This is interpolated or interpolated from surrounding pixels by filtering. For the interpolation method, the nearest neighbor interpolation method in which the value of the observation point closest to the point to be interpolated is diverted as it is, and the co-linearity is used as the value to obtain the average value of the four observation points around the point to be interpolated There are an interpolation method and a cubic convolution interpolation method that performs a cubic convolution process on the values of 16 observation points around the point to be interpolated.

【0054】最近隣内挿法は、最大1/2画素の位置誤
差を生じるが、オリジナルな画像データを壊さない利点
があり、また、アルゴリズムが簡単である。共一次内挿
法は、オリジナルのデータが壊される欠点があるが、平
均化によりスムージングの効果がでる利点がある。三次
畳み込み内挿法は、オリジナルのデータが壊される欠点
があるが、画像の平滑化と鮮鋭化を同時に実現できると
いう利点がある。目的に応じて、また最終結果を見て、
全体又は部分的に何れの内挿法を適用するかを選択すれ
ばよい。
The nearest neighbor interpolation method produces a position error of up to ½ pixel, but has the advantage of not destroying the original image data, and the algorithm is simple. The bilinear interpolation method has a drawback that the original data is destroyed, but has an advantage that the smoothing effect can be obtained by averaging. The cubic convolution interpolation method has a drawback that original data is destroyed, but has an advantage that image smoothing and sharpening can be realized at the same time. Depending on the purpose and seeing the final result,
It suffices to select which interpolation method is applied in whole or in part.

【0055】縦視差を除去した画像から視差差を算出す
る(S5)。視差差の算出には、自動ステレオ・マッチ
ング手法を使用する。本実施例では、図15に示すよう
に、縦視差除去画像の撮影方向が水平走査線に直交する
方向になるように縦視差除去画像を再配列した上で、ス
テレオ・マッチングのための画像、即ち、マッチング画
像を作成する。これにより、以下の処理を高速化できる
だけでなく、処理に必要なメモリ容量を節減できる。
The parallax is calculated from the image from which the vertical parallax is removed (S5). An automatic stereo matching method is used to calculate the parallax. In the present embodiment, as shown in FIG. 15, after the vertical parallax removed images are rearranged so that the shooting direction of the vertical parallax removed images becomes the direction orthogonal to the horizontal scanning line, an image for stereo matching, That is, a matching image is created. As a result, not only the following processing can be speeded up, but also the memory capacity required for the processing can be saved.

【0056】以上の処理により得られたマッチング画像
の前方視画像上に、高さを算出する目的のテンプレート
画像(例えば、N×N画素)を設定し、このテンプレー
ト画像に近似する画像を、他のマッチング画像、即ち後
方視画像又は直下視画像上の所定の探索範囲内で探索す
る。本実施例では、予め縦視差を除去しているので、探
索範囲は、水平走査線に直交する方向のみで良い。マッ
チングしたら、その位置の差、即ち視差差を算出する。
A template image (for example, N × N pixels) whose height is to be calculated is set on the forward-view image of the matching image obtained by the above processing, and an image approximate to this template image is set as another image. Within the predetermined search range on the matching image, that is, the backward-viewing image or the down-looking image. In the present embodiment, since the vertical parallax is removed in advance, the search range is limited to the direction orthogonal to the horizontal scanning line. After matching, the difference between the positions, that is, the parallax is calculated.

【0057】ビデオ映像のフィールドの隣接するライン
のデータから形成したモザイク画像は、非常に良く近似
するが、抽出するラインが離れる程、得られたモザイク
画像は、視線方向がそれだけ異なることになり、最適に
マッチングしたときでも、マッチング・エラーが大きく
なる。そこで、本実施例では、前方視画像と後方視画像
とでステレオ・マッチングする場合でも、中間的なライ
ンからモザイク画像を形成(勿論、縦視差も除去す
る。)し、逐次的に対応点を探索するようにした。これ
により、オクルージョンによる影響を排除でき、高い精
度で対応点を検出できるようになる。
The mosaic image formed from the data of the adjacent lines of the field of the video image is very close to each other, but the farther the extracted lines are, the more the obtained mosaic images have different gaze directions. Even when optimally matched, the matching error becomes large. Therefore, in the present embodiment, even when stereo matching is performed between the front-view image and the rear-view image, a mosaic image is formed from intermediate lines (of course, vertical parallax is removed), and corresponding points are sequentially determined. I tried to explore. As a result, the influence of occlusion can be eliminated and the corresponding points can be detected with high accuracy.

【0058】図17に示すような四角錐台状の物体を例
に、説明する。図18は、この物体をビデオ撮影したと
きの、撮影画面内の抽出ラインと、各ラインを合成して
得られるモザイク画像(縦視差除去済み)との対応を示
す。図18(1)は、先頭ライン及び最終ラインを抽出
する場合、同(2)はより内側のラインを抽出した場
合、同(3)は更に内側のラインを抽出した場合、同
(4)はほぼ中央の隣接するラインを抽出した場合であ
る。このように、本実施例では、本来の前方視画像F1
と後方視画像R1のほかに、中間的な前方視画像F2,
F3,F4及び後方視画像R2,R3,R4がある。中
間的な前方視画F4及び後方視画像R4の代わりに直下
視画像を採用してもよい。
An example of a quadrangular truncated pyramid-shaped object as shown in FIG. 17 will be described. FIG. 18 shows the correspondence between the extracted line in the shooting screen and the mosaic image (vertical parallax removed) obtained by synthesizing each line when the object is video-shot. FIG. 18 (1) shows that when extracting the first line and the last line, (2) when extracting the inner line, (3) when extracting the inner line, and (4) This is the case when the adjacent lines in the approximate center are extracted. Thus, in the present embodiment, the original forward-looking image F1
In addition to the rear-view image R1 and the intermediate front-view image F2.
There are F3, F4 and rear view images R2, R3, R4. Instead of the intermediate front-view image F4 and rear-view image R4, a down-view image may be adopted.

【0059】いうまでもないが、中間的な画像F2,F
3,F4,R2,R3,R4は、必要に応じて、より少
なく又はより多く設定してもよい。試行的なマッチング
演算の結果により、適当な数を設定してもよい。
Needless to say, the intermediate images F2, F
The number of F3, F4, R2, R3, and R4 may be set smaller or larger according to need. An appropriate number may be set according to the result of the trial matching operation.

【0060】前方視画像F1の点Aに対応する点を後方
視画像R1から探索する場合、まず、中間的な前方視線
画像F2上で点Aの対応点を探索する。画像F1と画像
F2は少し視線がずれているだけなので、自動ステレオ
・マッチングによっても、高い精度で対応点を探索でき
る。画像F2で探索した対応点を含むテンプレートが像
を設定し、画像F3上で対応点を探索する。そして、逐
次、画像F4、画像R4、画像R3、画像R2、画像R
1とステレオ・マッチング演算する。このようにして、
画像F1上の点Aの対応点を画像R1上で高い精度で探
知できる。画像F1と画像R1を直接、ステレオ・マッ
チングした場合には、オクルージョンの影響により物体
によっては大きな誤差を避けられないが、本実施例で
は、このように逐次探索することで、オクルージョンの
影響を完全の除去できる。
When searching a point corresponding to the point A of the front-view image F1 from the rear-view image R1, first, a corresponding point of the point A is searched on the intermediate front-view image F2. Since the lines of sight of the images F1 and F2 are slightly deviated from each other, the corresponding points can be searched with high accuracy even by automatic stereo matching. The template including the corresponding points searched for in the image F2 sets an image, and the corresponding points are searched for in the image F3. Then, the image F4, the image R4, the image R3, the image R2, and the image R are sequentially displayed.
Performs a stereo matching operation with 1. In this way,
The corresponding point of the point A on the image F1 can be detected with high accuracy on the image R1. When the image F1 and the image R1 are directly stereo-matched, a large error cannot be avoided depending on the object due to the influence of occlusion. However, in the present embodiment, the sequential search is performed in this manner to completely eliminate the influence of occlusion. Can be removed.

【0061】ここでは、中間的な画像を予め作成すると
したが、視差差算出のためのマッチング演算を実行しな
がら、マッチグ・エラーが許容値以下になるまで2分探
索法により逐次的に中間的な画像を形成して対応点を探
索するようにしてもよい。例えば、後方視画像でのマッ
チング処理で許容値以上のマッチング・エラーがある場
合に、中間的なラインから抽出したモザイク画像を形成
し(勿論、縦視差も除去する。)、そのモザイク画像上
でマッチング演算する。ここで一定精度以上で対応点が
見つかれば、その発見された対応点を目安に、後方視画
像上でマッチング処理により対応点を探索する。中間的
なモザイク画像でも許容値以上のマッチング・エラーが
ある場合には、更に中間的なラインから抽出したモザイ
ク画像を形成し、そのモザイク画像上でマッチング演算
する。このような繰り返し処理により、最終的に、前方
視画像と後方視画像との間で対応点を検出する。おのよ
うにすることで、オクルージョンの影響を完全に排除し
て、高精度で対応点を検出できる。
Here, although it has been stated that an intermediate image is created in advance, while performing the matching operation for calculating the parallax, the intermediate image is sequentially intermediated by the binary search method until the matching error becomes equal to or less than the allowable value. Alternatively, a corresponding image may be formed to search for the corresponding point. For example, if there is a matching error in the backward-looking image that is equal to or greater than the allowable value, a mosaic image extracted from an intermediate line is formed (of course, vertical parallax is also removed), and the mosaic image is displayed on the mosaic image. Perform a matching operation. If a corresponding point is found with a certain accuracy or more, the corresponding point is searched for by the matching process on the backward-view image using the found corresponding point as a guide. If the intermediate mosaic image has a matching error equal to or larger than the allowable value, a mosaic image extracted from an intermediate line is formed and a matching operation is performed on the mosaic image. By such an iterative process, the corresponding points are finally detected between the front-view image and the rear-view image. By doing so, the influence of occlusion can be completely eliminated and the corresponding points can be detected with high accuracy.

【0062】何れにしても、中間的な画像は、マッチン
グ演算に必要な部分のみを形成すれば良い。そうすれ
ば、マッチング演算の時間を短縮でき、中間的な画像デ
ータを格納するメモリ容量も少なくて済む。
In any case, the intermediate image only needs to form the portion necessary for the matching calculation. Then, the matching calculation time can be shortened and the memory capacity for storing intermediate image data can be reduced.

【0063】次に、DEM(Digital Elev
ation Model)を作成するために、下記式に
従い視差差から高さを計算できる。即ち、
Next, a DEM (Digital Elev)
The height can be calculated from the parallax according to the following formula in order to create the ation model). That is,

【0064】[0064]

【数6】h=d×H/B 但し、hは求める高さ(m)、dは視差差(m)、Bは
ベース長(m)、Hは撮影高度(m)である。図19
は、視差差と高さの関係を示す。
Where h is the height (m) to be obtained, d is the parallax (m), B is the base length (m), and H is the photographing altitude (m). FIG.
Indicates the relationship between parallax and height.

【0065】カメラ10のCCD撮像素子の結像面の長
さをc1(mm)、1画素あたりのCCD結像面での長
さをdc(mm)、焦点距離をf(mm)とした場合、
前方視画像と後方視画像による視差差から高さを求める
ときには、
When the length of the image plane of the CCD image pickup device of the camera 10 is c1 (mm), the length of the CCD image plane per pixel is dc (mm), and the focal length is f (mm). ,
When obtaining the height from the parallax between the front-view image and the rear-view image,

【0066】[0066]

【数7】h=d×f/(c1−dc) であり、前方視画像又は後方視画像と直下視画像による
視差差から高さを求めるときには、
## EQU00007 ## h = d.times.f / (c1-dc), and when the height is obtained from the parallax difference between the front-view image or the rear-view image and the direct-view image,

【0067】[0067]

【数8】h=d×2×f/(c1−dc) となる。Equation 8 h = d × 2 × f / (c1-dc)

【0068】高さの精度は、B/H比で決まるが、撮影
時にカメラ10の焦点距離を変えることにより自由に設
定できる。
The height accuracy is determined by the B / H ratio, but can be freely set by changing the focal length of the camera 10 at the time of photographing.

【0069】高さデータが得られたら、メジアン・フィ
ルタ等により、特に周囲のデータより凹凸のあるデータ
を検出し、周囲のデータで修整する。
When the height data is obtained, a median filter or the like is used to detect data having irregularities more than the surrounding data, and the data is corrected with the surrounding data.

【0070】以上の処理により、撮影対象内の所望地域
について高さデータを算出でき、3次元データを得るこ
とができる。
Through the above processing, height data can be calculated for a desired area in the object to be photographed, and three-dimensional data can be obtained.

【0071】本実施例では、対空標識の設置及びその位
置計測のための測量作業が不要になるので、任意の地域
で迅速に調査できる。また、人が立ち入ることの出来な
い危険地域(土砂崩れ、土石流及び火山噴火地帯等)に
ついても、3次元地形図を作成できる。また、標定計算
が自動化されているので、解析処理を手早く進めること
が出来る。高さの精度は、カメラ10の焦点距離を変え
ることで自由に設定できる。
In the present embodiment, the installation work of the anti-aircraft sign and the surveying work for measuring the position thereof are not necessary, so that the survey can be conducted quickly in any area. In addition, 3D topographic maps can be created for dangerous areas where people cannot enter (landslides, debris flows, volcanic eruption areas, etc.). Also, since the orientation calculation is automated, the analysis process can be advanced quickly. The height accuracy can be freely set by changing the focal length of the camera 10.

【0072】本発明は、3次元地形図の作成に留まら
ず、防災情報の収集システム、鉄道や道路などの路線計
画、及び、海・河岸の侵食調査などにも利用できる。
The present invention is not limited to the creation of a three-dimensional topographical map, and can be used for a disaster prevention information collection system, railway and road route planning, and sea / river erosion surveys.

【0073】標定計算(S2)及び視差差算出(S5)
で利用したマッチング手法を簡単に説明する。先に説明
したように、従来、使用されているマッチング手法に
は、残差逐次検定法と相互相関係数法がある。
Orientation calculation (S2) and parallax calculation (S5)
The matching method used in 1. will be briefly described. As described above, conventionally used matching methods include the residual sequential test method and the cross-correlation coefficient method.

【0074】先ず、残差逐次検定法を説明する。図20
に示すようにN×N画素のテンプレート画像を、それよ
り大きいM×M画素の入力画像内の探索範囲(M−N+
1)
First, the residual sequential test method will be described. FIG.
As shown in, the template image of N × N pixels is searched for in the search range (M−N +
1)

【0075】2上で動かし、 2 Move up,

【数9】の残差が最小になった位置で、重ね合わせが達
成されたと看做す。
It is considered that the superposition is achieved at the position where the residual of (Equation 9) is minimized.

【0076】[0076]

【数9】 [Equation 9]

【0077】ただし、(a,b)は、入力画像内におけ
るテンプレート画像の左上位置を示し、I(a,b)(m,
n)は入力画像の部分画像、T(m,n)はテンプレー
ト画像、R(a,b)は、入力画像の部分画像とテンプ
レート画像との残差である。
However, (a, b) indicates the upper left position of the template image in the input image, and I (a, b) (m,
n) is a partial image of the input image, T (m, n) is a template image, and R (a, b) is a residual between the partial image of the input image and the template image.

【0078】重ね合わせがずれていると、各画素につい
て順次加算していくときに残差が急激に増大する。そこ
で、加算の途中で残差があるしきい値を超えたら、重ね
合わせが良くないものと判断して、加算を打ち切り、次
の(a,b)に移行する。これが、残差逐次検定法(s
equentia1 similarity dete
ction algorithmであり、以降SSDA
法と略す。)である。SSDA法は、Barneaらに
よって提案されたが、しきい値をいかに与えるかが問題
であった。この点に関して尾上らは、いかに述べるしき
い値自動決定法を提案している。
If the overlay is deviated, the residual error increases rapidly when the pixels are sequentially added. Therefore, if the residual exceeds a certain threshold during the addition, it is determined that the superposition is not good, the addition is aborted, and the process proceeds to the next (a, b). This is the residual sequential test method (s
equality1 similarity dete
motion algorithm, and SSDA
Abbreviated as law. ). The SSDA method was proposed by Barnea et al., But the problem was how to give a threshold value. In this regard, Onoe et al. Have proposed a threshold automatic determination method.

【0079】尾上らの提案するしきい値自動決定法は、
取り敢えずのしきい値として過去の残差の最小値を採用
する。なお、最初は、しきい値無しで最後まで加算さ
せ、その結果の残差を最初のしきい値とする。以降、最
後まで、しきい値を超えることなく加算されるごとにそ
の残差を新しいしきい値とする。この方法では、常に真
の最小値に達することが保証されている。
The automatic threshold determination method proposed by Onoue et al.
For the time being, the minimum value of the past residual is adopted as the threshold. At the beginning, the threshold value is added to the end without any threshold value, and the resulting residual is used as the first threshold value. After that, until the end, each time the sum is added without exceeding the threshold value, the residual is set as a new threshold value. This method guarantees that the true minimum is always reached.

【0080】SSDA法は、加算だけからなり、しかも
多くの場合に途中で打ち切られるので、計算時間を大幅
に短縮できる。尾上らは、雲の移動追跡に応用して、相
互相関係数による方法と比べて精度が同等、処理時間が
1桁以上短縮というきわめて良好な結果を得ている。
The SSDA method consists of only addition, and in many cases is terminated halfway, so the calculation time can be greatly shortened. Onoe et al. Applied it to cloud movement tracking and obtained extremely good results with the same accuracy and a reduction in processing time of one digit or more compared to the method using the cross-correlation coefficient.

【0081】相互相関係数法を説明する。相互相関係数
法では、
The cross-correlation coefficient method will be described. In the cross-correlation coefficient method,

【数10】が最大になる入力画像内におけるテンプレー
ト画像の左上位置(a,b)を求める。
The upper left position (a, b) of the template image in the input image that maximizes [Formula 10] is obtained.

【0082】[0082]

【数10】 [Equation 10]

【0083】この方法では、SSDA法のような計算の
打ち切りが無いので、計算時間をあまり短縮できない。
しかし、写真測量の分野では、ステレオ航空写真のディ
ジタル画像から格子点の標高を計測し、等高線を描画す
る場合に、左右の画像で対応する点を探索する手法とし
て相互相関係数法が、手軽なのでよく使われている。
With this method, there is no termination of calculation as in the SSDA method, and therefore the calculation time cannot be shortened so much.
However, in the field of photogrammetry, the cross-correlation coefficient method is a convenient method for searching the corresponding points in the left and right images when measuring the elevation of grid points from a stereo aerial photograph digital image and drawing contour lines. So it is often used.

【0084】本実施例によれば、従来良く利用された航
空写真に代わって、高解像度ビデオカメラで収録した映
像からに3次元地形図等を作成できるので、非常に幅広
い用途に利用可能である。例えば、道路、河川及び鉄道
等の各種の管理に利用でき、また、画像処理で変化部分
のみを抽出すれば都市等の開発状況調査に利用できる。
また、3次元鳥瞰図を作成し、新規路線計画の完成状況
をシミュレーションするのにも利用できる。
According to the present embodiment, a three-dimensional topographic map or the like can be created from images recorded by a high-resolution video camera, instead of the aerial photographs that have been conventionally well used, so that it can be used in a very wide range of applications. . For example, it can be used for various management of roads, rivers, railways, etc., and if only the changed portion is extracted by image processing, it can be used for surveying the development status of cities and the like.
It can also be used to create a three-dimensional bird's-eye view and simulate the completion status of a new route plan.

【0085】ヘリコプターから地上を撮影する例で説明
したが、本発明は、ヘリコプター以外に、その他の飛行
機、監視衛星及び地上を走行する自動車から撮影する場
合にも適用できるこというまでもない。
Although an example of photographing the ground from a helicopter has been described, it goes without saying that the present invention can also be applied to the case of photographing from other airplanes, surveillance satellites, and automobiles traveling on the ground in addition to the helicopter.

【0086】また、上記実施例では、フィールド画像の
最先ラインから前方視画像を形成し、最後のラインから
後方視画像を形成したが、それぞれ、2番目以降のライ
ン、最後のラインの1又は2以上前のラインであっても
よいことは勿論である。
Further, in the above embodiment, the front-view image is formed from the frontmost line of the field image and the rear-view image is formed from the last line. It goes without saying that the line may be two or more lines before.

【0087】[0087]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、移動しながらのビデオ撮影により
基礎データを収集でき、その画像処理により高さデータ
を得ることができる。撮影後の解析処理はその全て又は
そのほとんどを自動化できるので、迅速に所望の3次元
データを得ることができるようになる。また、従来より
も安価に3次元データを得ることが出来る。
As can be easily understood from the above description, according to the present invention, basic data can be collected by video shooting while moving, and height data can be obtained by image processing thereof. Since all or most of the post-imaging analysis processing can be automated, desired three-dimensional data can be quickly obtained. Also, three-dimensional data can be obtained at a lower cost than before.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の空中計測システムの概略
構成ブロック図である。
FIG. 1 is a schematic configuration block diagram of an aerial measurement system according to an embodiment of the present invention.

【図2】 本実施例の地上計測システムの概略構成ブロ
ック図である。
FIG. 2 is a schematic configuration block diagram of the ground measurement system of the present embodiment.

【図3】 本実施例の地上解析システムの概略構成ブロ
ック図である。
FIG. 3 is a schematic block diagram of the ground analysis system of the present embodiment.

【図4】 本実施例における計測から3次元データ抽出
までのフロー・チャートである。
FIG. 4 is a flow chart from measurement to three-dimensional data extraction in this embodiment.

【図5】 標定計算のための60%重複シーンの説明図
である。
FIG. 5 is an explanatory diagram of a 60% overlapping scene for orientation calculation.

【図6】 相互標定とパス・ポイントの説明図である。FIG. 6 is an explanatory diagram of mutual orientation and pass points.

【図7】 相互標定と接続標定の説明図である。FIG. 7 is an explanatory diagram of mutual orientation and connection orientation.

【図8】 カメラの撮像面と地上撮影範囲との関係図で
ある。
FIG. 8 is a diagram showing a relationship between an image pickup surface of a camera and a ground shooting range.

【図9】 連続モザイク画像作成の概念図である。FIG. 9 is a conceptual diagram of creating a continuous mosaic image.

【図10】 連続モザイク画像と外部標定要素との関係
図である。
FIG. 10 is a relationship diagram between a continuous mosaic image and an external orientation element.

【図11】 外部標定要素の内挿を説明する図である。FIG. 11 is a diagram illustrating interpolation of external orientation elements.

【図12】 撮像面の画像座標系と写真座標系を説明す
る図である。
FIG. 12 is a diagram illustrating an image coordinate system and a photographic coordinate system of an imaging surface.

【図13】 写真座標系と地上座標系の関係図である。FIG. 13 is a relationship diagram of a photographic coordinate system and a ground coordinate system.

【図14】 縦視差除去の前後の画像例である。FIG. 14 is an example of images before and after vertical parallax removal.

【図15】 視差差算出のためのマッチング画像の説明
図である。
FIG. 15 is an explanatory diagram of matching images for calculating parallax.

【図16】 視差差算出のためのステレオ・マッチング
の説明図である。
[Fig. 16] Fig. 16 is an explanatory diagram of stereo matching for calculating parallax.

【図17】 測定対象とした四角錐台状の物体モデルで
ある。
FIG. 17 is a quadrangular truncated pyramid-shaped object model as a measurement target.

【図18】 図17に示す物体をビデオ撮影したとき
の、撮影画面内の抽出ラインと、各ラインを合成して得
られるモザイク画像(縦視差除去済み)との対応を示す
図である。
[Fig. 18] Fig. 18 is a diagram showing the correspondence between the extracted lines in the shooting screen and the mosaic image (vertical parallax removed) obtained by combining the lines when the object shown in Fig. 17 is video-shot.

【図19】 視差差と高さの関係の説明図である。FIG. 19 is an explanatory diagram of a relationship between parallax and height.

【図20】 入力画像とテンプレート画像のマッチング
の基本図である。
FIG. 20 is a basic diagram of matching between an input image and a template image.

【符号の説明】[Explanation of symbols]

10:高品位カメラ 12:高精度防振安定装置(防振装置) 14:高品位ビデオ・テープ・レコーダ 16:高品位モニタ 18:パーソナル・コンピュータ 20:3軸制御装置 22:カメラ制御装置 24:VTR制御装置 26:対地高度センサ 28:磁方位センサ 30:GPSアンテナ 32:GPS受信装置 34:ナビゲーション・システム 36:フロッピー 38:モニタ 40:通信装置 42:フロッピー 44:モニタ 46:キーボード 50:GPS受信装置 52:GPSアンテナ 54:コンピュータ 56:フロッピー 58:モニタ 60:キーボード 62:通信装置 70:高品位VTR 74:フレーム・バッファ 76:エンジニアリング・ワークステーション 78:モニタ 80:パーソナル・コンピュータ F1:前方視画像 F2,F3,F4:中間的な前方視画像 R1:後方視画像 R2,R3,R4:中間的な後方視画像 10: High-definition camera 12: High-precision anti-vibration stabilizer (anti-vibration device) 14: High-definition video tape recorder 16: High-definition monitor 18: Personal computer 20: 3-axis control device 22: Camera control device 24: VTR control device 26: Earth altitude sensor 28: Magnetic direction sensor 30: GPS antenna 32: GPS receiver 34: Navigation system 36: Floppy 38: Monitor 40: Communication device 42: Floppy 44: Monitor 46: Keyboard 50: GPS reception Device 52: GPS antenna 54: Computer 56: Floppy 58: Monitor 60: Keyboard 62: Communication device 70: High quality VTR 74: Frame buffer 76: Engineering workstation 78: Monitor 80: Personal computer F1: Front view Image F2, F3, F4: Intermediate forward-view image R1: Rear-view image R2, R3, R4: Intermediate backward-view image

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 17/00 7/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location G06T 17/00 7/00

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】 3次元データの抽出対象を移動しながら
撮影し、その映像信号を記録すると共に、撮影するカメ
ラの位置及び傾きを含む撮影情報を記録する基礎情報収
集ステップと、当該基礎情報収集ステップで収集した映
像及び撮影情報から当該抽出対象の3次元データを生成
する3次元データ生成ステップとからなる3次元データ
抽出方法であって、当該3次元データ生成ステップが、 撮影映像の連続する画面の中の所定画面における所定ラ
インの画像データを抽出して、前方視画像、直下視画像
及び後方視画像の少なくとも2つの連続モザイク画像を
生成する連続モザイク画像生成ステップと、 当該連続モザイク画像生成ステップで生成された連続モ
ザイク画像から縦視差を除去する縦視差除去ステップ
と、 当該縦視差除去ステップで縦視差を除去した連続モザイ
ク画像における所定位置に対する視差差を算出する視差
差算出ステップと、 当該視差差算出ステップで算出された視差差から当該所
定位置の高さを算出する高さ算出ステップとからなるこ
とを特徴とする3次元データ抽出方法。
1. A basic information collecting step of shooting a moving object of three-dimensional data while moving, recording a video signal of the moving object, and recording shooting information including a position and a tilt of a camera to shoot, and collecting the basic information. A three-dimensional data extracting method comprising a three-dimensional data generating step of generating three-dimensional data of the extraction target from the image and the photographing information collected in the step, wherein the three-dimensional data generating step is a continuous screen of photographed images. A continuous mosaic image generating step of extracting image data of a predetermined line on a predetermined screen of the image and generating at least two continuous mosaic images of a forward-view image, a down-view image and a backward-view image; In the vertical parallax removal step that removes vertical parallax from the continuous mosaic image generated in From the parallax calculation step that calculates the parallax for the predetermined position in the continuous mosaic image from which the vertical parallax has been removed, and the height calculation step that calculates the height of the predetermined position from the parallax calculated in the parallax calculation step. And a three-dimensional data extraction method.
【請求項2】 更に、撮影映像の連続する画面から、相
互標定及び接続標定により外部標定要素を確定する標定
計算ステップを具備する請求項1に記載の3次元データ
抽出方法。
2. The three-dimensional data extracting method according to claim 1, further comprising a step of calculating orientations for determining the external orientation elements by mutual orientations and connection orientations from consecutive screens of photographed images.
【請求項3】 上記標定計算ステップが、撮影映像の連
続する画面から、所定割合重複する2画面を抽出し、相
互標定する相互標定ステップと、当該相互標定ステップ
により相互標定されたモデルを接続する接続標定ステッ
プとを具備する請求項2に記載の3次元データ抽出方
法。
3. The orientation calculation step extracts two screens that overlap each other by a predetermined ratio from consecutive screens of captured images, and connects the mutual orientation step for mutual orientation and the model mutually oriented by the mutual orientation step. The three-dimensional data extraction method according to claim 2, further comprising a connection orientation step.
【請求項4】 上記所定割合が、60%である請求項3
に記載の3次元データ抽出方法。
4. The predetermined ratio is 60%.
The three-dimensional data extraction method described in 1.
【請求項5】 上記縦視差除去ステップが、上記標定計
算ステップで決定された外部標定要素に従い、上記連続
モザイク画像生成ステップで生成された連続モザイク画
像の各ラインに外部標定要素を内挿する外部標定要素内
挿ステップと、上記連続モザイク画像生成ステップで生
成された連続モザイク画像の各ラインを、当該ラインの
外部標定要素に従い所定高度への投影画像に変換する投
影ステップとからなる請求項2乃至4の何れか1項に記
載の3次元データ抽出方法。
5. The vertical parallax removing step interpolates an external orientation element into each line of the continuous mosaic image generated in the continuous mosaic image generating step according to the external orientation element determined in the orientation calculating step. 3. An orientation element interpolation step, and a projection step of converting each line of the continuous mosaic image generated in the continuous mosaic image generation step into a projection image at a predetermined altitude according to the external orientation element of the line. The three-dimensional data extraction method according to any one of 4 above.
【請求項6】 上記視差差算出ステップは、上記連続モ
ザイク画像の間の1以上の中間的な画像を形成する中間
画像形成ステップと、当該1以上の中間的な画像を経
て、上記連続モザイク画像における対応点を検出する対
応点検出ステップと、当該対応点検出ステップの検出結
果に従い当該対応点の視差差を算出する演算ステップと
を具備する請求項1乃至5の何れか1項に記載の3次元
データ抽出方法。
6. The parallax calculation step comprises an intermediate image forming step of forming one or more intermediate images between the continuous mosaic images, and the continuous mosaic image through the one or more intermediate images. 6. The method according to claim 1, further comprising: a corresponding point detecting step of detecting a corresponding point in step 1; and a calculation step of calculating a parallax of the corresponding point according to a detection result of the corresponding point detecting step. Dimensional data extraction method.
【請求項7】 上記中間画像形成ステップは、撮影映像
の連続する画面の中の所定画面における中間的なライン
の画像データを抽出し、上記中間的な画像を形成する請
求項6に記載の3次元データ抽出方法。
7. The intermediate image forming step according to claim 6, wherein the intermediate line image data is formed by extracting image data of an intermediate line on a predetermined screen among successive screens of the captured video. Dimensional data extraction method.
【請求項8】 上記カメラの位置を検出する手段とし
て、GPS受信手段を具備する請求項1乃至7の何れか
1項に記載の3次元データ抽出方法。
8. The three-dimensional data extraction method according to claim 1, further comprising GPS receiving means as means for detecting the position of the camera.
【請求項9】 更に、GPS受信手段の出力をディファ
レンシャル補正する補正手段を具備する請求項8に記載
の3次元データ抽出方法。
9. The three-dimensional data extraction method according to claim 8, further comprising a correction unit that differentially corrects the output of the GPS receiving unit.
【請求項10】 上記カメラが防振手段により防振され
ている請求項1乃至9の何れか1項に記載の3次元デー
タ抽出方法。
10. The three-dimensional data extraction method according to claim 1, wherein the camera is image-stabilized by image stabilization means.
【請求項11】 3次元データの抽出対象を撮影するビ
デオ・カメラと、当該ビデオ・カメラの位置を測定する
測位手段と、当該ビデオ・カメラによる撮影映像及び当
該測位手段の測定値を記録する記録手段と、当該ビデオ
・カメラ及び当該測位システムを搬送する搬送手段と、
当該記録手段に記録される映像情報及び位置情報を再生
する再生手段と、撮影映像の連続する画面の中の所定画
面における所定ラインの画像データを抽出して、前方視
画像、直下視画像及び後方視画像の少なくとも2つの連
続モザイク画像を生成する連続モザイク画像生成手段
と、当該連続モザイク画像生成手段で生成された連続モ
ザイク画像の縦視差を除去する縦視差除去手段と、当該
縦視差除去手段で縦視差を除去した連続モザイク画像に
おいて視差差を算出する視差差算出手段と、当該視差差
算出手段で算出された視差差から当該所定位置の高さを
算出する高さ算出手段とからなることを特徴とする3次
元データ抽出装置。
11. A video camera for photographing a target for extracting three-dimensional data, a positioning means for measuring the position of the video camera, and a recording for recording a video image taken by the video camera and a measurement value of the positioning means. Means and carrying means for carrying the video camera and the positioning system,
Playback means for playing back video information and position information recorded in the recording means, and image data of a predetermined line in a predetermined screen among continuous screens of captured video are extracted to obtain a front-view image, a down-view image and a rear-view image. With the continuous mosaic image generation unit that generates at least two continuous mosaic images of the visual image, the vertical parallax removal unit that removes the vertical parallax of the continuous mosaic image generated by the continuous mosaic image generation unit, and the vertical parallax removal unit. A parallax calculation unit that calculates a parallax in a continuous mosaic image from which vertical parallax has been removed, and a height calculation unit that calculates the height of the predetermined position from the parallax calculated by the parallax calculation unit. A characteristic three-dimensional data extraction device.
【請求項12】 更に、撮影映像の連続する画面から、
相互標定及び接続標定により外部標定要素を確定する標
定計算手段を具備する請求項11に記載の3次元データ
抽出装置。
12. Further, from a continuous screen of captured images,
The three-dimensional data extraction device according to claim 11, further comprising orientation calculating means for determining an external orientation element by mutual orientation and connection orientation.
【請求項13】 上記標定計算手段が、撮影映像の連続
する画面から、所定割合重複する2画面を抽出し、相互
標定する相互標定ステップと、当該相互標定ステップに
より相互標定されたモデルを接続する接続標定ステップ
とを具備する請求項12に記載の3次元データ抽出装
置。
13. The orientation calculation means extracts two screens that overlap each other at a predetermined ratio from consecutive screens of photographed images, and connects the mutual orientation step of mutual orientation and the model that is mutually oriented by the mutual orientation step. The three-dimensional data extraction device according to claim 12, further comprising a connection orientation step.
【請求項14】 上記所定割合が、60%である請求項
13に記載の3次元データ抽出装置。
14. The three-dimensional data extraction device according to claim 13, wherein the predetermined ratio is 60%.
【請求項15】 上記縦視差除去手段が、上記標定計算
手段で決定された外部標定要素に従い、上記連続モザイ
ク画像生成手段で生成された連続モザイク画像の各ライ
ンに外部標定要素を内挿する外部標定要素内挿手段と、
上記連続モザイク画像生成手段で生成された連続モザイ
ク画像の各ラインを、当該ラインの外部標定要素に従い
所定高度への投影画像に変換する投影手段とからなる請
求項12乃至14の何れか1項に記載の3次元データ抽
出装置。
15. The vertical parallax removing means interpolates an external orientation element into each line of the continuous mosaic image generated by the continuous mosaic image generating means according to the external orientation element determined by the orientation calculating means. Orientation element interpolation means,
The projection means for converting each line of the continuous mosaic image generated by the continuous mosaic image generating means into a projection image at a predetermined altitude according to an external orientation element of the line, according to any one of claims 12 to 14. The three-dimensional data extraction device described.
【請求項16】 上記視差差算出手段は、上記連続モザ
イク画像の間の1以上の中間的な画像を形成する中間画
像形成手段と、当該1以上の中間的な画像を経て、上記
連続モザイク画像における対応点を検出する対応点検出
手段と、当該対応点検出手段の検出結果に従い当該対応
点の視差差を算出する演算手段とを具備する請求項11
乃至15の何れか1項に記載の3次元データ抽出装置。
16. The parallax calculation means is an intermediate image forming means for forming at least one intermediate image between the continuous mosaic images, and the continuous mosaic image is through the at least one intermediate image. 12. A corresponding point detecting means for detecting a corresponding point in claim 1, and a calculating means for calculating a parallax difference of the corresponding point according to a detection result of the corresponding point detecting means.
The three-dimensional data extraction device according to any one of 1 to 15.
【請求項17】 上記中間画像形成手段は、撮影映像の
連続する画面の中の所定画面における中間的なラインの
画像データを抽出し、上記中間的な画像を形成する請求
項16に記載の3次元データ抽出装置。
17. The method according to claim 16, wherein the intermediate image forming means extracts the image data of an intermediate line on a predetermined screen among the continuous screens of the captured video to form the intermediate image. Dimensional data extraction device.
【請求項18】 上記測位手段が、GPS受信手段であ
る請求項11乃至17の何れか1項に記載の3次元デー
タ抽出装置。
18. The three-dimensional data extraction device according to claim 11, wherein the positioning unit is a GPS receiving unit.
【請求項19】 更に、GPS受信手段の出力をディフ
ァレンシャル補正する補正手段を具備する請求項18に
記載の3次元データ抽出装置。
19. The three-dimensional data extraction device according to claim 18, further comprising a correction means for differentially correcting the output of the GPS receiving means.
【請求項20】 上記カメラが、防振手段を介して上記
搬送手段に載置される請求項11乃至19の何れか1項
に記載の3次元データ抽出装置。
20. The three-dimensional data extraction device according to claim 11, wherein the camera is mounted on the transport means via a vibration isolation means.
【請求項21】 上記搬送手段が飛行体である請求項1
1乃至20の何れか1項に記載の3次元データ抽出装
置。
21. The transport means is an aircraft.
The three-dimensional data extraction device according to any one of 1 to 20.
【請求項22】 更に、上記カメラの方位を検出する方
位検出手段を具備し、当該方位検出手段の出力も上記記
録手段に記録される請求項11乃至21の何れか1項に
記載の3次元データ抽出装置。
22. The three-dimensional structure according to claim 11, further comprising azimuth detecting means for detecting the azimuth of the camera, and the output of the azimuth detecting means is also recorded in the recording means. Data extraction device.
【請求項23】 上記搬送手段の移動方向が上記カメラ
の走査線方向に垂直な方向であるように上記カメラが設
置される請求項11乃至22の何れか1項に記載の3次
元データ抽出装置。
23. The three-dimensional data extracting apparatus according to claim 11, wherein the camera is installed so that the moving direction of the carrying means is a direction perpendicular to the scanning line direction of the camera. .
【請求項24】 ビデオ撮影した映像の、画面上の2以
上の異なる所定ライン位置のライン画像データを抽出す
る抽出手段と、同じライン位置のライン画像データを合
成する合成手段とからなることを特徴とするステレオ画
像形成装置。
24. An extracting means for extracting line image data of two or more different predetermined line positions on a screen of a video imaged by video, and a synthesizing means for synthesizing line image data of the same line position. And stereo image forming apparatus.
【請求項25】 更に、上記合成手段で合成した画像の
縦視差を、元になるライン画像データ毎の外部標定要素
により除去する縦視差除去手段を具備する請求項24に
記載のステレオ画像形成装置。
25. The stereo image forming apparatus according to claim 24, further comprising a vertical parallax removing unit that removes the vertical parallax of the image combined by the combining unit by an external orientation element for each original line image data. .
JP29822494A 1994-12-01 1994-12-01 Method and apparatus for extracting three-dimensional data Expired - Fee Related JP3541855B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29822494A JP3541855B2 (en) 1994-12-01 1994-12-01 Method and apparatus for extracting three-dimensional data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29822494A JP3541855B2 (en) 1994-12-01 1994-12-01 Method and apparatus for extracting three-dimensional data

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003426179A Division JP3781034B2 (en) 2003-12-24 2003-12-24 Stereo image forming method and apparatus

Publications (2)

Publication Number Publication Date
JPH08159762A true JPH08159762A (en) 1996-06-21
JP3541855B2 JP3541855B2 (en) 2004-07-14

Family

ID=17856843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29822494A Expired - Fee Related JP3541855B2 (en) 1994-12-01 1994-12-01 Method and apparatus for extracting three-dimensional data

Country Status (1)

Country Link
JP (1) JP3541855B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245462A (en) * 2001-02-14 2002-08-30 Tokyo Inst Of Technol Image change extracting method and its image processing program
JP2002328021A (en) * 2001-04-27 2002-11-15 Hayashi Katsuyoshi Method for measuring damage of disaster using helicopter photographing
JP2004333243A (en) * 2003-05-06 2004-11-25 Pasuko:Kk Method for matching image
JP2006177926A (en) * 2004-12-21 2006-07-06 Korea Electronics Telecommun Method and device for correcting position and attitude information of camera
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2008241491A (en) * 2007-03-28 2008-10-09 Hitachi Ltd Three-dimensional measurement instrument
JP2009103559A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Calibration method and calibration system of stereo camera
US7561165B2 (en) 2002-07-10 2009-07-14 Harman Becker Automotive Systems Gmbh System for texturizing electronic representations of objects
JP2010130122A (en) * 2008-11-26 2010-06-10 Pioneer Electronic Corp Information recording system
JP2010236971A (en) * 2009-03-31 2010-10-21 Osaka City Univ Methods for recording and combining of continuously-imaged color image with distance image, and device therefor
JP2012242321A (en) * 2011-05-23 2012-12-10 Topcon Corp Aerial photograph imaging method and aerial photograph imaging device
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
CN103134475A (en) * 2011-11-24 2013-06-05 株式会社拓普康 Aerial photograph image pickup method and aerial photograph image pickup apparatus
JP2013246111A (en) * 2012-05-29 2013-12-09 Topcon Corp Image acquisition method and imaging device
CN103759713A (en) * 2014-01-02 2014-04-30 中铁第四勘察设计院集团有限公司 Panoramic-image-based dangerous falling rock surveying method
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device
US8953933B2 (en) 2012-10-31 2015-02-10 Kabushiki Kaisha Topcon Aerial photogrammetry and aerial photogrammetric system
US9013576B2 (en) 2011-05-23 2015-04-21 Kabushiki Kaisha Topcon Aerial photograph image pickup method and aerial photograph image pickup apparatus
US9020666B2 (en) 2011-04-28 2015-04-28 Kabushiki Kaisha Topcon Taking-off and landing target instrument and automatic taking-off and landing system
WO2015159835A1 (en) * 2014-04-17 2015-10-22 シャープ株式会社 Image processing device, image processing method, and program
US9609282B2 (en) 2012-08-24 2017-03-28 Kabushiki Kaisha Topcon Camera for photogrammetry and aerial photographic device
JP2018084528A (en) * 2016-11-25 2018-05-31 株式会社トプコン Aerial photograph surveying device and aerial photograph surveying method
WO2018198634A1 (en) 2017-04-28 2018-11-01 ソニー株式会社 Information processing device, information processing method, information processing program, image processing device, and image processing system
WO2019082519A1 (en) 2017-10-26 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and information processing system
CN113371185A (en) * 2021-07-19 2021-09-10 江苏中天吉奥信息技术股份有限公司 Terrain aerial photography surveying method and aerial photography aircraft

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245462A (en) * 2001-02-14 2002-08-30 Tokyo Inst Of Technol Image change extracting method and its image processing program
JP2002328021A (en) * 2001-04-27 2002-11-15 Hayashi Katsuyoshi Method for measuring damage of disaster using helicopter photographing
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
US7643669B2 (en) 2002-07-10 2010-01-05 Harman Becker Automotive Systems Gmbh System for generating three-dimensional electronic models of objects
JP2011018346A (en) * 2002-07-10 2011-01-27 Harman Becker Automotive Systems Gmbh System for texturizing electronic representation of object
US7689032B2 (en) 2002-07-10 2010-03-30 Harman Becker Automotive Systems Gmbh Scanning system for three-dimensional objects
US7561165B2 (en) 2002-07-10 2009-07-14 Harman Becker Automotive Systems Gmbh System for texturizing electronic representations of objects
JP2004333243A (en) * 2003-05-06 2004-11-25 Pasuko:Kk Method for matching image
JP2006177926A (en) * 2004-12-21 2006-07-06 Korea Electronics Telecommun Method and device for correcting position and attitude information of camera
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2008241491A (en) * 2007-03-28 2008-10-09 Hitachi Ltd Three-dimensional measurement instrument
JP2009103559A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Calibration method and calibration system of stereo camera
JP2010130122A (en) * 2008-11-26 2010-06-10 Pioneer Electronic Corp Information recording system
JP2010236971A (en) * 2009-03-31 2010-10-21 Osaka City Univ Methods for recording and combining of continuously-imaged color image with distance image, and device therefor
US9224242B2 (en) 2010-01-26 2015-12-29 Saab Ab Automated three dimensional mapping method
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
US9020666B2 (en) 2011-04-28 2015-04-28 Kabushiki Kaisha Topcon Taking-off and landing target instrument and automatic taking-off and landing system
JP2012242321A (en) * 2011-05-23 2012-12-10 Topcon Corp Aerial photograph imaging method and aerial photograph imaging device
US9013576B2 (en) 2011-05-23 2015-04-21 Kabushiki Kaisha Topcon Aerial photograph image pickup method and aerial photograph image pickup apparatus
CN103134475A (en) * 2011-11-24 2013-06-05 株式会社拓普康 Aerial photograph image pickup method and aerial photograph image pickup apparatus
CN103134475B (en) * 2011-11-24 2015-10-21 株式会社拓普康 Aeroplane photography image pick-up method and aeroplane photography image pick device
US9007461B2 (en) 2011-11-24 2015-04-14 Kabushiki Kaisha Topcon Aerial photograph image pickup method and aerial photograph image pickup apparatus
JP2013246111A (en) * 2012-05-29 2013-12-09 Topcon Corp Image acquisition method and imaging device
US9609282B2 (en) 2012-08-24 2017-03-28 Kabushiki Kaisha Topcon Camera for photogrammetry and aerial photographic device
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device
US8953933B2 (en) 2012-10-31 2015-02-10 Kabushiki Kaisha Topcon Aerial photogrammetry and aerial photogrammetric system
CN103759713A (en) * 2014-01-02 2014-04-30 中铁第四勘察设计院集团有限公司 Panoramic-image-based dangerous falling rock surveying method
WO2015159835A1 (en) * 2014-04-17 2015-10-22 シャープ株式会社 Image processing device, image processing method, and program
JP2018084528A (en) * 2016-11-25 2018-05-31 株式会社トプコン Aerial photograph surveying device and aerial photograph surveying method
WO2018198634A1 (en) 2017-04-28 2018-11-01 ソニー株式会社 Information processing device, information processing method, information processing program, image processing device, and image processing system
US11341608B2 (en) 2017-04-28 2022-05-24 Sony Corporation Information processing device, information processing method, information processing program, image processing device, and image processing system for associating position information with captured images
US11756158B2 (en) 2017-04-28 2023-09-12 Sony Group Corporation Information processing device, information processing method, information processing program, image processing device, and image processing system for associating position information with captured images
WO2019082519A1 (en) 2017-10-26 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and information processing system
US11823447B2 (en) 2017-10-26 2023-11-21 Sony Group Corporation Information processing apparatus, information processing method, program, and information processing system
CN113371185A (en) * 2021-07-19 2021-09-10 江苏中天吉奥信息技术股份有限公司 Terrain aerial photography surveying method and aerial photography aircraft
CN113371185B (en) * 2021-07-19 2023-08-08 江苏中天吉奥信息技术股份有限公司 Terrain aerial investigation method and aerial aircraft

Also Published As

Publication number Publication date
JP3541855B2 (en) 2004-07-14

Similar Documents

Publication Publication Date Title
JP3541855B2 (en) Method and apparatus for extracting three-dimensional data
EP1242966B1 (en) Spherical rectification of image pairs
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
US20170310892A1 (en) Method of 3d panoramic mosaicing of a scene
US5259037A (en) Automated video imagery database generation using photogrammetry
CN110675450B (en) Method and system for generating orthoimage in real time based on SLAM technology
CN102338639B (en) Information processing device and information processing method
KR100671529B1 (en) Drawing method of three-dimensional cubic map using multi aerial photograph image
US8884962B2 (en) Computer arrangement for and method of matching location data of different sources
Morgan Epipolar resampling of linear array scanner scenes
WO2008152740A1 (en) Digital aerial photographing three-dimensional measurement system
JP2008186145A (en) Aerial image processing apparatus and aerial image processing method
KR100671504B1 (en) Method for correcting of aerial photograph image using multi photograph image
KR100373615B1 (en) Method and device for making map using photograph image and method for correcting distortion of photograph image
JP3653769B2 (en) Flow measuring method and apparatus
CN110986888A (en) Aerial photography integrated method
Zhao et al. Updating a digital geographic database using vehicle-borne laser scanners and line cameras
JPH099197A (en) Recording device for consecutive stereo image data
KR102578056B1 (en) Apparatus and method for photographing for aerial photogrammetry using an air vehicle
JP6773473B2 (en) Survey information management device and survey information management method
JP3781034B2 (en) Stereo image forming method and apparatus
JPH0737065A (en) Method and device for preparing development picture
JP2004333921A (en) Distance synchronous type stereoscopic image photographing apparatus
Haala et al. Geometric Processing of High Resolution Airborne Scanner Imagery Using GPS-INS and Ground Control Points
JP2004177362A (en) Method and apparatus for locating, program of locating method, and recording medium where the program is recorded

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040323

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090409

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees