JPH0830194A - Method for forming geospecific texture - Google Patents

Method for forming geospecific texture

Info

Publication number
JPH0830194A
JPH0830194A JP6180401A JP18040194A JPH0830194A JP H0830194 A JPH0830194 A JP H0830194A JP 6180401 A JP6180401 A JP 6180401A JP 18040194 A JP18040194 A JP 18040194A JP H0830194 A JPH0830194 A JP H0830194A
Authority
JP
Japan
Prior art keywords
photograph
points
camera
aerial
ground surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6180401A
Other languages
Japanese (ja)
Other versions
JP3490774B2 (en
Inventor
Takaaki Kikukawa
孝明 菊川
Masato Ogata
正人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Precision Co Ltd
Original Assignee
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Precision Co Ltd filed Critical Mitsubishi Precision Co Ltd
Priority to JP18040194A priority Critical patent/JP3490774B2/en
Publication of JPH0830194A publication Critical patent/JPH0830194A/en
Application granted granted Critical
Publication of JP3490774B2 publication Critical patent/JP3490774B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To form geospecific texture patterns by executing strain correction of aerial photographs. CONSTITUTION:The states of the plural sample points photographed by a camera when this camera is moved virtually over a map and the plural sample points on an actually taken photograph are compared. The position and attitude of the camera where and at which the photograph is taken are then retrieved. The information on the heights at the plural points more than the reference points is obtd. by interpolating the altitude values of the few reference points. Coordinate conversion to the aerial photograph is executed from the ground surface by assuming that the photograph is taken by the camera of the position and attitude determined by a coordinate conversion system to make the points on the ground surface and the points on the aerial photograph correspondent to each other. The image data of the aerial photograph is stored into a memory made correspondent to the ground surface.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、フライトシミュレー
タ等、訓練装置における、窓外視界発生装置に使用す
る、ジオスペシフィックテクスチャパターンの生成方
法、特に空中写真の歪補正に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of generating a geospecific texture pattern used in a window visual field generator in a training device such as a flight simulator, and more particularly to distortion correction of an aerial photograph.

【0002】[0002]

【従来の技術】従来のフライトシミュレータの窓外視界
発生装置における、地表にマッピングするためのテクス
チャパターンに、一様な模様の繰り返しのものがあっ
た。これは、地域の固有性を表現することができず、ま
た、現実性にも欠けるものであった。これに対し、ジオ
スペシフィックテクスチャパターンをマッピングするも
のがあり、これはその地域独特な地形映像を発生させる
ことができるものである。
2. Description of the Related Art In a conventional out-of-window field-of-view generator of a flight simulator, a texture pattern for mapping on the ground surface has a uniform pattern repeated. This was not able to express the peculiarity of the area, and was lacking in reality. On the other hand, there is one that maps a geospecific texture pattern, which can generate a topographic image unique to the area.

【0003】ジオスペシフィックテクスチャパターンの
生成源は、航空機から地表を撮影した、空中写真が考え
られる。その場合、写真が中心投影であるため、地表の
標高の高低による歪みがあり、写真そのものをテクスチ
ャパターンとして使用することはできない。写真をテク
スチャパターンとして使用するには、中心投影像から正
射影像に歪補正しなければならない。
The source of the geospecific texture pattern may be an aerial photograph of the ground surface taken from an aircraft. In that case, since the photograph is a central projection, there is distortion due to the elevation of the ground surface, and the photograph itself cannot be used as a texture pattern. In order to use a photograph as a texture pattern, the distortion must be corrected from the central projection image to the orthogonal projection image.

【0004】カメラで地表を撮影する場合、地表の任意
の点は、簡単な座標変換により、フィルム上のある点に
中心投影される。この座標変換式は、撮影を行った航空
機(カメラ)の位置と姿勢によって与えられる。さら
に、この座標変換式を使って空中写真上から座標変換を
して正射影像に変換することが考えられる。
When photographing the ground surface with a camera, an arbitrary point on the ground surface is center-projected to a certain point on the film by a simple coordinate transformation. This coordinate conversion formula is given by the position and orientation of the aircraft (camera) that took the image. Furthermore, it is conceivable to use this coordinate conversion formula to perform coordinate conversion on the aerial photograph to convert it into an orthogonal projection image.

【0005】[0005]

【発明が解決しようとする課題】しかし、この座標変換
式を使って空中写真上から座標変換をして正射影像に変
換するには、以下のような問題があった。
However, there are the following problems in performing coordinate transformation from an aerial photograph using this coordinate transformation formula to transform it into an orthogonal projection image.

【0006】問題1 空中写真を撮影した航空機の位置
と姿勢が明確でなければならないが、空中写真からこれ
らを数式で得ることはできない。
Problem 1 The position and attitude of the aircraft that took the aerial photograph must be clear, but these cannot be obtained from the aerial photograph by mathematical expressions.

【0007】問題2 空中写真の像にはz方向(高さ方
向)の情報がないため、空中写真のみでは座標変換でき
ない。
Problem 2 Since the image of the aerial photograph has no information in the z direction (height direction), coordinate conversion cannot be performed only by the aerial photograph.

【0008】問題3 問題2を解決するため、地表の点
と空中写真上の点との対応をつける上記座標変換式によ
り地表から空中写真に座標変換するとしても、地表にお
ける非常に細かい標高データが必要となり、これをあら
かじめ準備しておくことは、不可能である。この標高デ
ータを得るための地表の点の数は、運用上必要なジオス
ペシフィック・パターンの分解能に関係しており、航空
機であれば例えば4m四方の分解能が必要である。これ
は、空中写真に座標変換すべき地表の点を地表座標系の
w,Yw平面において、Xw方向、Yw方向に、それぞれ
例えば4m間隔で設定しなければならないことである。
前記地表の各点のZw成分である標高値Zowは、その
X,Y成分であるXow,Yowの関数では与えられないの
で、データとして保持していなければならないが、広域
のジオスペシフィックテクスチャパターンを生成しよう
とする場合、4m間隔の標高データでは膨大な量になっ
てしまうのである。
Problem 3 To solve Problem 2, even if the coordinate conversion from the ground surface to the aerial photograph is performed by the above coordinate conversion formula that associates the points on the ground surface with the points on the aerial photograph, very fine elevation data on the ground surface can be obtained. It is necessary and it is impossible to prepare this in advance. The number of points on the ground surface for obtaining this elevation data is related to the resolution of the geospecific pattern necessary for operation, and for an aircraft, for example, a resolution of 4 m square is required. This point of surface to be coordinate conversion aerial photographs of surface coordinate system X w, in Y w plane, X w-direction, the Y w direction, is the need to set each example 4m intervals.
The elevation value Z ow, which is the Z w component of each point on the ground surface, cannot be given by the function of its X and Y components, X ow and Y ow. When generating a specific texture pattern, the amount of elevation data at intervals of 4 m is enormous.

【0009】この発明は、上記のような問題を解決し、
空中写真の歪補正を半自動的に行い、ジオスペシフィッ
クテクスチャを生成させる方法を提供することを目的と
する。
The present invention solves the above problems,
It is an object of the present invention to provide a method for generating a geospecific texture by semi-automatically correcting distortion of an aerial photograph.

【0010】[0010]

【課題を解決するための手段】この発明に係るジオスペ
シフィックテクスチャパターンの生成方法は、空中写真
によりジオスペシフィックテクスチャパターンを生成す
るものであって、空中写真を画像データとして得ておく
とともに画面上に表示した該空中写真上の任意の複数標
本地点をマウスで画面指示してその位置を実写写真位置
として得ておく第1の過程と、前記画面と同一画面に同
時に表示させ、前記任意の複数標本地点に対応するよう
にマウスで画面指示した地図上の位置を標高値を含めて
地表位置として得ておく第2の過程と、仮想するカメラ
の位置及び姿勢を所定の範囲内で仮想的に変化させて、
前記任意の複数標本地点に対応する第2の過程による地
表位置を、前記カメラにより撮影したときの地表座標系
にある地表上の点をフィルム座標系に変換する変換式に
より、仮想写真位置として座標変換し、前記実写写真位
置に最も近い仮想写真位置を検索し、そのときの仮想さ
れたカメラの位置及び姿勢を前記空中写真を撮影したと
きのカメラの位置及び姿勢とみなす第3の過程と、地表
座標系の複数地点に対応して記憶素子を配列した歪補正
空中写真用メモリを備え、地表座標系について前記複数
地点の数より少なく設定した参照地点の標高値をラグラ
ンジュ補間で補間することにより前記複数地点の補間標
高値を求め、その求めた複数地点の補間標高値の地表位
置を前記第3の過程によりみなされた位置及び姿勢にあ
るカメラによって撮影されたものとして前記変換式を用
いてフィルム座標系に歪補正写真位置として変換し、当
該歪補正写真位置にある前記第1の過程における画像デ
ータを前記複数地点に対応して前記歪補正空中写真用メ
モリに格納する第4の過程とを有するものである。
A method for generating a geospecific texture pattern according to the present invention is for generating a geospecific texture pattern from an aerial photograph, and the aerial photograph is obtained as image data and displayed on the screen. A first process of pointing the arbitrary aerial sample points on the aerial photograph displayed on the screen with a mouse and obtaining the position as a photographed image position; The second process of obtaining the position on the map, which is displayed on the screen with the mouse so as to correspond to the point, as the ground position including the elevation value, and the position and orientation of the virtual camera are virtually changed within a predetermined range. Let me
Coordinates of the ground surface position in the second process corresponding to the arbitrary plurality of sample points as a virtual photograph position by a conversion formula for converting a point on the ground surface in the ground coordinate system when the image is taken by the camera into a film coordinate system. A third step of converting and retrieving a virtual photograph position closest to the photographed image position, and regarding the virtual camera position and posture at that time as the camera position and posture when the aerial photograph was taken; Equipped with a memory for distortion correction aerial photography in which storage elements are arranged corresponding to multiple points on the surface coordinate system, by interpolating the elevation value of the reference point set less than the number of the multiple points on the surface coordinate system by Lagrange interpolation The interpolated elevation values of the plurality of points are obtained, and the ground position of the interpolated elevation values of the obtained plurality of points is determined by the camera in the position and the posture considered in the third step. The distortion-corrected photograph position is converted into a film coordinate system as a shaded object using the conversion formula, and the image data in the first process at the distortion-corrected photograph position is converted into the distortion-corrected aerial image corresponding to the plurality of points. And a fourth step of storing in a photographic memory.

【0011】[0011]

【作用】本発明に係るジオスペシフィックテクスチャパ
ターンの生成方法においては、次のように作用する。ま
ず、空中写真を画像データとして例えばファイル化して
おく。そして、この空中写真から任意の複数標本地点を
選び、その位置を実写写真位置として得ておく。写真上
において、ある一定点が基準位置に定められ、そこから
写真上の各地点の位置が測定される。また、地図上にお
いて、前記の任意の複数標本地点に対応する地点を探し
てその地点の標高値とともにその位置を地表位置として
得ておく。地図上において、ある一定点が基準位置に定
められ、そこから各地表位置が測定される。
In the method of generating a geospecific texture pattern according to the present invention, the following operations are performed. First, an aerial photograph is made into a file as image data, for example. Then, an arbitrary plurality of sample points are selected from this aerial photograph, and the position thereof is obtained as a real photograph position. On the photograph, a certain fixed point is set as a reference position, and the position of each point on the photograph is measured from there. In addition, a point corresponding to the arbitrary plural sample points is searched for on the map, and the position is obtained as the ground surface position together with the elevation value of the point. On the map, a certain fixed point is set as the reference position, and the surface position is measured from that point.

【0012】空中写真は画面上に表示させるようにし、
その表示された画面上で前記任意の複数標本地点をマウ
スで画面指示する。マウス指示により写真上の位置を実
写写真位置として得ることができる。また、地図につい
ても前記空中写真を表示した同一画面に同時に表示させ
るようにし、その表示された画面上で前記任意の複数標
本地点に対応するようにマウスで画面指示する。指示さ
れた位置についての標高値を入力するとともにマウスの
画面指示により地図上の位置を地表位置として得ること
ができる。
The aerial photograph should be displayed on the screen,
On the displayed screen, the user designates the arbitrary plural sample points on the screen. The position on the photograph can be obtained as the photographed photograph position by pointing the mouse. Further, the map is simultaneously displayed on the same screen on which the aerial photograph is displayed, and the screen is designated by the mouse so as to correspond to the arbitrary plural sample points on the displayed screen. It is possible to obtain the position on the map as the ground surface position by inputting the elevation value for the designated position and pointing the screen of the mouse.

【0013】次に、カメラが前記地図によって表わされ
る地形の上空にあるものと仮定して、そのカメラが仮想
的に上空を移動かつ姿勢を変えて撮影すると仮定する。
カメラが地表の基準位置から任意の位置にあるとき地表
を撮影した場合、その地表上の各点は変換式によりフィ
ルム座標系の対応する点に座標変換される。この変換さ
れた位置を仮想写真位置と呼ぶことにする。従って、仮
想カメラが移動する毎に前記任意の複数標本地点に対応
する地図上の地点の仮想写真位置は、フィルム座標系内
で変化することになる。このカメラの移動途中の所定箇
所(計算により一次近似した仮想カメラ位置を中心とし
立方体の各格子点)毎に前記任意の複数標本地点の実写
写真位置と仮想写真位置を比較し、その誤差の最も少な
いものすなわち前記実写写真位置に最も近い仮想写真位
置を検索する。そのときの仮想されたカメラの位置及び
姿勢を前記空中写真を撮影したときのカメラの位置及び
姿勢とみなす。空中写真はカメラの位置、姿勢がいかな
るもので撮影したかの情報はないのであるが、複数箇所
の標本地点の位置が互いに近似していれば、未知である
空中写真のカメラの位置、姿勢は既知のカメラのものと
同じとみなしても差し支えない。
Next, it is assumed that the camera is above the terrain represented by the map, and that the camera virtually moves and changes its attitude to take an image.
When the surface of the earth is photographed when the camera is located at an arbitrary position from the reference position of the surface of the earth, each point on the surface of the earth is coordinate-converted into a corresponding point in the film coordinate system by a conversion formula. This converted position will be called a virtual photograph position. Therefore, every time the virtual camera moves, the virtual photograph position of the point on the map corresponding to the arbitrary plural sample points changes in the film coordinate system. The virtual photograph position and the photographed photograph position of the arbitrary multiple sample points are compared for each predetermined point (each lattice point of the cube centered on the virtual camera position that is linearly approximated by calculation) during the movement of this camera, and the error The fewest, that is, the virtual photograph position closest to the photographed photograph position is searched. The virtual position and orientation of the camera at that time are regarded as the position and orientation of the camera when the aerial photograph was taken. There is no information about the position and orientation of the camera in the aerial photograph, but if the positions of multiple sample points are close to each other, the position and orientation of the camera in the unknown aerial photograph will be unknown. It can be regarded as the same as that of a known camera.

【0014】ここで、空中写真が撮影された地図平面上
の領域を所定の複数に例えば格子状に細分し、その細分
された複数地点に記憶要素を対応させたメモリを用意し
ておく。このメモリを歪補正空中写真用メモリと呼ぶ。
この細分は、歪補正空中写真用メモリが空中写真の画像
データを再生するのに十分な分解能を備えるように行わ
れている。
Here, an area on the map plane where an aerial photograph is taken is subdivided into a plurality of predetermined areas, for example, in a grid pattern, and a memory in which storage elements are associated with the plurality of subdivided points is prepared. This memory is called a distortion correction aerial photograph memory.
This subdivision is carried out so that the distortion-corrected aerial photography memory has sufficient resolution to reproduce the aerial photography image data.

【0015】また、参照地点を前記複数地点の数より少
なく設定しておき、その地点の標高値を記録しておく。
この参照地点の標高値は、前記地図上の領域全てについ
て与えたものではないから、前述のように格子状に細分
した複数地点の標高値を求める。この標高値は標本地点
の標高値を補間することにより補間標高値として求めら
れる。この補間は、ラグランジュ補間により実現するこ
とができる。
Further, the reference point is set to be smaller than the number of the plurality of points, and the altitude value of the point is recorded.
Since the elevation value of this reference point is not given for all the regions on the map, the elevation values of a plurality of points subdivided into a grid are obtained as described above. This altitude value is obtained as an interpolated altitude value by interpolating the altitude value at the sample point. This interpolation can be realized by Lagrange interpolation.

【0016】次に、前述の位置、姿勢にあるとみなされ
たカメラによって、各地点の前記補間標高値の地表を撮
影したものとする。各地点の地表は前述の変換式により
フィルム座標系に歪補正写真位置として変換される。当
初説明したように空中写真が画像データとして得られて
いて、前記歪補正写真位置にある画像データを読出す。
この読出された画像データは各地点の前記補間標高値の
地表を撮影したものであり、補間標高値を得た各地点に
対応して設けた歪補正空中写真用メモリに格納する。歪
補正空中写真用メモリは、地図上の領域を細分化した複
数地点に記憶要素を対応させているから、そこに記憶さ
れている画像データにより表現される地形は地図の表現
と同様に正射影したものとなる。このようにして、空中
写真の画像データが正射影に歪補正されて歪補正空中写
真用メモリに格納されて、ジオスペシフィックテクスチ
ャパターンが生成される。
Next, it is assumed that the surface of the interpolated elevation value at each point is photographed by the camera considered to be in the above-mentioned position and orientation. The ground surface at each point is converted into a film coordinate system as a distortion-corrected photographic position by the conversion formula described above. As described earlier, the aerial photograph is obtained as image data, and the image data at the distortion corrected photograph position is read.
The read image data is obtained by photographing the surface of the interpolated altitude value at each point, and is stored in the distortion correction aerial photograph memory provided corresponding to each point at which the interpolated altitude value is obtained. Since the memory for distortion correction aerial photography corresponds to storage elements at multiple points that subdivide the area on the map, the terrain represented by the image data stored there is an orthographic projection similar to the map representation. It will be what you did. In this way, the image data of the aerial photograph is distortion-corrected to the orthographic projection and stored in the distortion-corrected aerial photograph memory, and the geospecific texture pattern is generated.

【0017】[0017]

【実施例】以下、この発明に係るジオスペシフィックテ
クスチャパターン生成の方法の実施例を図について説明
する。以下、航空写真の撮影高度が約1000mと仮定
して実施例を示す。図1は、空中写真からジオスペシフ
ィックテクスチャを生成する手順及び必要なデータ、フ
ァイルを表わすものであり、図示しないプロセッサによ
り実行される。図1において、(P1)は空中写真及び
地図のデジタルサンプリングの過程を表す。対象となる
地域(ゲーミングエリア)を撮影した複数の空中写真
と、その地域の地図(実施例では1:25000)をス
キャナーにより、例えば100dot/inchの詳細
度でサンプリングし、写真ファイルと地図ファイルを作
成する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a method for generating a geospecific texture pattern according to the present invention will be described below with reference to the drawings. An example will be described below on the assumption that the altitude at which an aerial photograph is taken is about 1000 m. FIG. 1 shows a procedure for generating a geospecific texture from an aerial photograph and necessary data and files, which are executed by a processor (not shown). In FIG. 1, (P1) represents the process of digital sampling of aerial photographs and maps. A plurality of aerial photographs of the target area (gaming area) and a map of the area (1: 25000 in the embodiment) are sampled with a scanner at a detail level of 100 dot / inch, and a photo file and a map file are sampled. create.

【0018】図1において、(P2)は、各写真ファイ
ルに対して、それを撮影したカメラ(航空機に搭載され
る)の位置、姿勢の検索を施すに必要な情報をEWS(E
ngineering Workstation:対話性に優れたマン−マシン
インターフェイスによって、設計者自身によって、対話
的に設計作業を進めることができる小型パーソナルコン
ピュータ等)等の画面上で与える過程を示す。ここで、
情報とは以下の(a)〜(d)である。
In FIG. 1, (P2) shows EWS (E) with the information necessary to search the position and orientation of the camera (mounted on the aircraft) that photographed each photo file.
ngineering Workstation: Shows the process of giving on the screen of a small personal computer, etc., by which the designer himself can interactively proceed with the design work by the man-machine interface with excellent interactivity. here,
The information is the following (a) to (d).

【0019】(なお、本明細書において、ベクトル表
示、例えばベクトルrを、<r>と表示又は白抜きで表
示する。各図におけるベクトルは太字又は白抜きで表示
している。)
(In the present specification, vector display, for example, the vector r is displayed as <r> or displayed in white. The vector in each figure is displayed in bold or white.)

【0020】(a) 写真ファイルの内容をEWS画面
に表示した空中写真の4端にある標準点のピクセル座標
<r>photorg[n] (n=1,2,3,4)。ここでピ
クセル座標はEWS画面上に設けた座標である。
(A) Pixel coordinates <r> photorg [n] (n = 1,2,3,4) of the standard points at the four ends of the aerial photograph in which the contents of the photograph file are displayed on the EWS screen. Here, the pixel coordinates are coordinates provided on the EWS screen.

【0021】(b) 地図ファイルの内容をEWS画面
に表示した地図上の任意の2点のピクセル座標<r>
maporg[n] (n=1,2)及び、各点の緯度、経度。
ここで緯度、経度は地表座標系で表わされる。
(B) Pixel coordinates <r> of arbitrary two points on the map displaying the contents of the map file on the EWS screen
maporg [n] (n = 1, 2) and the latitude and longitude of each point.
Here, the latitude and longitude are represented by the surface coordinate system.

【0022】(c) 空中写真上の任意の5点の標本地
点のピクセル座標<r>photcrsp[n ] (n=1,2,
3,4,5)。
(C) Pixel coordinates of arbitrary 5 sample points on the aerial photograph <r> photcrsp [n ] (n = 1, 2,
3, 4, 5).

【0023】(d) (c)で指定した各標本地点に対
応する地図上の点のピクセル座標<r>mapcrsp[n]
(n=1,2,3,4,5)及び、各点の標高値。
(D) Pixel coordinates <r> mapcrsp [n] of points on the map corresponding to each sample point specified in (c)
(N = 1, 2, 3, 4, 5) and the elevation value of each point.

【0024】これらの情報は、マウスによる画面指定、
及び例えばキーボード操作の数値入力によって行い、写
真ファイル及び地図ファイル内に保存する。図2はこれ
らの入力を行うために、EWSの画面に表示するウィン
ドウを示す。写真表示用ウインドウ21と地図表示用ウ
インドウ22はそれぞれ同じ大きさの表示領域を有し、
その各々の左上をピクセル座標の原点とする。操作者が
前記(c)の標本地点を写真表示用ウインドウ21の写
真上にマウスで指示することにより、図示しないプロセ
ッサの処理でピクセル座標<r>photcrsp[n]が測定さ
れる。これが図1の(P2.1)の過程であり、これに
より測定された位置を実写写真位置とする。さらに前記
(d)のように、その写真表示用ウインドウ21に指示
した写真画面の地点を見ながら地図表示用ウインドウ2
2の地図からその標本地点に対応する地点を探してマウ
スで指示することにより、そのピクセル座標<r>
mapcrsp[n]が測定される。このとき、指示した標本地点
の標高値を数値入力用ウインドウ25の表示を参照しつ
つキー入力する。これが図1の(P2.2)の過程であ
り、これにより測定された位置を地表位置とする。な
お、EWSの画面に表示する他のウインドウとしてファ
イル名入力ウインドウ23、アラート表示用ウインドウ
24がある。
These pieces of information are used to specify a screen with a mouse,
And, for example, by inputting a numerical value by keyboard operation, it is saved in the photo file and the map file. FIG. 2 shows a window displayed on the screen of the EWS for making these inputs. The photo display window 21 and the map display window 22 each have a display area of the same size,
The upper left of each is the origin of pixel coordinates. When the operator points the sample point in (c) on the photograph in the photograph display window 21 with the mouse, the pixel coordinates <r> photcrsp [n] are measured by the processing of the processor (not shown ) . This is the process of (P2.1) in FIG. 1, and the position measured by this is taken as the real photograph position. Further, as in (d) above, the map display window 2 is viewed while looking at the point on the photo screen designated in the photo display window 21.
Find the point corresponding to the sample point from the map of 2 and point it with the mouse, and the pixel coordinate <r>
mapcrsp [n] is measured. At this time, the altitude value of the designated sample point is key-input while referring to the display of the numerical value input window 25. This is the process of (P2.2) in FIG. 1, and the position measured by this is the ground surface position. Other windows displayed on the EWS screen include a file name input window 23 and an alert display window 24.

【0025】図1において、(P3)は、(P2)で入
力した写真上の標本地点のピクセル座標<r>
photcrsp[n]と地図上の点<r>mapcrsp[n]から、空中
写真を撮影したカメラの位置及び姿勢を検索する過程で
ある。この過程の処理フローを図3及び図4に示す。
In FIG. 1, (P3) is the pixel coordinate <r> of the sample point on the photograph input in (P2).
This is the process of searching the position and orientation of the camera that took the aerial photograph from photcrsp [n] and the point <r> mapcrsp [n] on the map. The process flow of this process is shown in FIGS.

【0026】図5は地表を任意の位置及び姿勢にあるカ
メラで撮影した場合の、地表の点のフィルムへの投影を
説明する図である。このとき、地表座標系の地表の点の
フィルム座標系への座標変換は、次の式(1)による。
FIG. 5 is a diagram for explaining the projection of points on the ground surface onto a film when the ground surface is photographed by a camera at an arbitrary position and posture. At this time, the coordinate conversion of the points on the surface of the surface coordinate system to the film coordinate system is performed by the following equation (1).

【0027】[0027]

【数1】 [Equation 1]

【0028】上記式(1)において、Tは式(2)で表
され、
In the above formula (1), T is represented by the formula (2),

【0029】[0029]

【数2】 [Equation 2]

【0030】であり、また、And also

【0031】<r>f:フィルムへ投影された点のフィ
ルム座標系における位置ベクトル、
<R> f : the position vector in the film coordinate system of the point projected on the film,

【0032】Zoc:<r>ocのZ成分、Z oc : Z component of <r> oc ,

【0033】Df:カメラの焦点距離(空中写真に記載
されている)、
D f : focal length of the camera (described in aerial photography),

【0034】<r>ow:地表の点の地表座標系における
位置ベクトル、
<R> ow : a position vector of a point on the ground surface in the ground coordinate system,

【0035】<r>cw:地表座標系におけるカメラの位
置ベクトル、
<R> cw : camera position vector in the surface coordinate system,

【0036】<Z>c/Zc:カメラ座標系におけるZc
軸方向単位ベクトル、
[0036] <Z> c / Z c: Zc in the camera coordinate system
Axial unit vector,

【0037】T:航空機に搭載されたカメラの姿勢によ
る回転変換行列、
T: Rotation conversion matrix according to the attitude of the camera mounted on the aircraft,

【0038】ψ:航空機に搭載されたカメラのZ軸回り
の回転角、
Ψ: rotation angle around the Z axis of the camera mounted on the aircraft,

【0039】θ:航空機に搭載されたカメラのY軸回り
の回転角、
Θ: rotation angle of the camera mounted on the aircraft around the Y axis,

【0040】φ:航空機に搭載されたカメラのX軸回り
の回転角、である。
Φ: The rotation angle of the camera mounted on the aircraft around the X axis.

【0041】図3及び図4において、(S1)〜(S
5)では、仮想するカメラの位置<r>cwの概算を行
う。(S1)では、カメラの位置検索中心<r>cwo
設定する。この設定は、複数標本地点に対応する地図上
のピクセル座標<r>mapcrsp[n]をピクセル座標から地
表座標系に変換し、その平均値をとることにより行う。
この<r>mapcrsp[n]のピクセル座標から地表座標系へ
の変換は、前述の地図上の任意の2点の緯度、経度及び
ピクセル座標<r>maporg[n]を基準点として、そこか
らのピクセル座標の差により地図上すなわち地表座標系
に変換する。(S2)は、航空機に搭載されたカメラの
姿勢検索中心の設定であり、ψo=0,θo=0,φo
0とする。(S3)では、検索中心における回転変換行
列Tを式(2)により計算する。(S4),(S5)
は、カメラあるいはそれを搭載する航空機の位置を、d
<r>cwの間隔で仮想的に移動させながら、地図上の標
本地点を式(1)で座標変換し、写真上の標本地点の座
標との相違が、最も小さくなる<r>cwを求める過程で
ある。カメラの位置の移動は、検索中心を中心とした、
一辺4000mの立方体の内部で行なう。ここで、d<
r>cw=(100m,100m,100m)とする。す
なわち、一辺4000mの立方体は40×40×40個
の立方体に分けられ、この小立方体を特定するため、パ
ラメータk,l,m(−20〜20の整数)を指定す
る。そして、(S4.1)でカメラの位置を式(3)に
より設定する。
In FIGS. 3 and 4, (S1) to (S)
In 5), the position <r> cw of the virtual camera is roughly estimated. In (S1), the camera position search center <r> cwo is set. This setting is performed by converting the pixel coordinates <r> mapcrsp [n] on the map corresponding to a plurality of sample points from the pixel coordinates to the ground coordinate system and taking the average value thereof.
The conversion from the pixel coordinates of this <r> mapcrsp [n] to the surface coordinate system is based on the latitude, longitude and pixel coordinates of any two points on the map described above, using the <r> maporg [n] as a reference point. It is converted to the map, that is, the ground coordinate system, by the difference in the pixel coordinates of. (S2) is the setting of the attitude search center of the camera mounted on the aircraft, and ψ o = 0, θ o = 0, φ o =
Set to 0. In (S3), the rotation conversion matrix T at the search center is calculated by the equation (2). (S4), (S5)
Is the position of the camera or the aircraft carrying it, d
While virtually moving at intervals of <r> cw , the coordinates of the sample points on the map are transformed by the formula (1), and the difference from the coordinates of the sample points on the photograph is found to be <r> cw . It is a process. The movement of the camera position is centered around the search center,
This is done inside a cube measuring 4000m on a side. Where d <
Let r> cw = (100m, 100m, 100m). That is, a cube with a side of 4000 m is divided into 40 × 40 × 40 cubes, and parameters k, l, m (integers of -20 to 20) are specified to specify this small cube. Then, in (S4.1), the position of the camera is set by the equation (3).

【0042】[0042]

【数3】 (Equation 3)

【0043】(S4.2)では地図上の標本地点<r>
mapcrsp[n]を式(1)によりフィルム座標に座標変換し
て、<r>f[n]を計算する。この場合の<r>f[n]は仮
想カメラが撮影した点であるから仮想写真位置である。
(S4.3)では、各標本地点について、前記(S4.
2)で座標変換して得た計算値<r>fと写真上の測定
値(前記図1における(P2)の情報(d)のピクセル
座標)<r>photcrsp[n ]との差をとり、その2乗した
値の大きい標本地点のものをそのカメラの位置<r>
cw[k][l][m]における差D[k][l][m]とする。
In (S4.2), the sampling point <r> on the map
<cr> f [n] is calculated by converting the mapcrsp [n] into film coordinates by the formula (1). In this case, <r> f [n] is a virtual photograph position because it is a point taken by the virtual camera.
In (S4.3), the above (S4.3.
2) The difference between the calculated value <r> f obtained by coordinate conversion in step 2) and the measured value on the photograph (pixel coordinates of the information (d) of (P2) in FIG. 1) <r> photcrsp [n ] is calculated. , The position of the camera <r> for the sample point with the larger squared value
The difference in cw [k] [l] [m] is D [k] [l] [m].

【0044】次に、(S5)では、各点に対応するパラ
メータの組{k,l,m}の内、前記差D[k][l][m]を
最小にする組{ko,lo,mo}を検索する。
Next, in (S5), among the parameter sets {k, l, m} corresponding to the respective points, the set {k o , which minimizes the difference D [k] [l] [m] is set. Search for l o , m o }.

【0045】このように、(S1)〜(S5)でカメラ
の位置<r>cwの概算を行って、その位置が差D[k][l]
[m]を最小にする組{ko,lo,mo}であることが、求
められた。
In this way, the camera position <r> cw is roughly estimated in (S1) to (S5), and the position is calculated as the difference D [k] [l].
It has been determined that the set {k o , l o , m o } that minimizes [m].

【0046】次に、(S6)〜(S12)で、より精度
の高い検索を行い、カメラの位置と姿勢を決定する。位
置の検索中心は、(S6)で、<r>cwo=<r>
cw[ko][lo ][mo]とする。すなわち、前記(S5)で検索
した<r>cw[ko][lo][mo]を新たな検索中心<r>cwo
として再設定する。
Next, in (S6) to (S12), a more accurate search is performed to determine the position and orientation of the camera. The position search center is (S6) and <r> cwo = <r>
cw [ko] [lo ] [mo] . That is, <r> cw [ko] [lo] [mo] searched in (S5) above is used as a new search center <r> cwo.
Reset as.

【0047】(S7)で位置及び回転角の検索間隔の設
定を行う。回転角についてdψ=dθ=dφ=2de
g、位置についてd<r>wc=(50m,50m,50
m)とする。
In (S7), the search interval for position and rotation angle is set. Rotation angle dψ = dθ = dφ = 2de
g, position d <r> wc = (50m, 50m, 50
m).

【0048】(S8)の過程で、d<r>cwの間隔で移
動させるとともに姿勢角ψ、θ、φを変化させ、式
(1)の座標変換の計算結果と、写真上の測定値(前記
図1における(P2)の情報(d)のピクセル座標<r
mapcrsp[n])との比較を行う。姿勢角はパラメータ
j,k,lに与えられる整数によって±20×2deg
だけ2degずつ変化し、位置はパラメータm1,m2,
m3に与えられる整数によって前記再設定した位置から
縦横高さに各±20×50mだけ50mずつ移動する。
In the process of (S8), while moving at intervals of d <r> cw and changing the posture angles ψ, θ, and φ, the calculation result of the coordinate conversion of the equation (1) and the measured value on the photograph ( Pixel coordinates of information (d) of (P2) in FIG. 1 <r
> Mapcrsp [n] ). The posture angle is ± 20 × 2 deg depending on the integers given to the parameters j, k, and l.
Changes by 2 deg, and the position is changed by parameters m1, m2,
By the integer given to m3, the vertical and horizontal heights are moved by 50 m each by ± 20 × 50 m from the reset position.

【0049】(S8.1)の過程で、カメラの位置及び
回転角の設定が式(4)で行われる。すなわち、
In the process of (S8.1), the position of the camera and the rotation angle are set by the equation (4). That is,

【0050】[0050]

【数4】 [Equation 4]

【0051】である。It is

【0052】(S8.2)で、上記のように設定された
角度ψ、θ、φが式(2)に与えられて、回転行列Tが
計算される。さらに、(S8.3)では、地図上の標本
地点<r>mapcrsp[n]を式(1)によりフィルム座標に
座標変換して、<r>f[n]を計算する。この場合の<r
f[n]は仮想カメラが撮影した点であるから仮想写真位
置である。(S8.4)では、各標本地点について、前
記(S8.3)で座標変換して得た値<r>fと写真上
のピクセル座標<r>photcrsp[n]との差をとり、その
2乗した値の大きい標本地点のものをそのカメラの位置
<r>cwにおける差D[j][k][l][m1][m2][m3]とする。
At (S8.2), the angles ψ, θ, and φ set as described above are given to the equation (2), and the rotation matrix T is calculated. Further, in (S8.3), the sample point <r> mapcrsp [n] on the map is coordinate-converted into film coordinates by the equation (1), and <r> f [n] is calculated. <R in this case
> F [n] is a virtual photograph position because it is a point taken by the virtual camera. In (S8.4), for each sample point, the difference between the value <r> f obtained by coordinate conversion in (S8.3) and the pixel coordinate <r> photcrsp [n] on the photograph is calculated, and the difference is calculated. A sample point having a large squared value is defined as a difference D [j] [k] [l] [m1] [m2] [m3] at the camera position <r> cw .

【0053】次に、(S9)では、各パラメータの組
{j,k,l,m1,m2,m3}の内、前記差D[j][k]
[l][m1][m2][m3]を最小にする組{jo,ko,lo,m
1o,m2o,m3o}を検索する。(S10)では、検索し
た差D[jo][ko][lo][m1o][m2o][m3o]が、許容誤差の範
囲内であるか否かを判定し、許容誤差の範囲内すなわち
Next, in (S9), the difference D [j] [k] among the parameter sets {j, k, l, m1, m2, m3} is used.
The set {j o , k o , l o , m that minimizes [l] [m1] [m2] [m3]
Search for 1 o , m2 o , m3 o }. In (S10), it is determined whether or not the retrieved difference D [j o ] [k o ] [l o ] [m1 o ] [m2 o ] [m3 o ] is within the allowable error range, and the allowable difference is determined. Within the margin of error ie

【0054】[0054]

【数5】 D[jo][ko][lo][m1o][m2o][m3o]≦DMAX …(5)[Equation 5] D [j o ] [k o ] [l o ] [m1 o ] [m2 o ] [m3 o ] ≦ DMAX (5)

【0055】を満足すれば、このときの<r>cw,ψ,
θ,φを、写真撮影時のカメラの位置と姿勢であるとす
る。
If r is satisfied, then <r> cw , ψ,
Let θ and φ be the position and orientation of the camera when taking a picture.

【0056】また、上記式(5)を満足しないときは、
(S11)のように、位置及び回転角の検索中心の再設
定を行う。すなわち、前記(S9)で検索した[jo][ko]
[lo][m1o][m2o][m3o]で定まる位置及び姿勢角を式
(6)のように新たな検索中心とする。
When the above equation (5) is not satisfied,
As in (S11), the search center of the position and the rotation angle is reset. That is, [j o ] [k o ] searched in (S9) above.
The position and posture angle determined by [l o ] [m1 o ] [m2 o ] [m3 o ] are set as a new search center as in Expression (6).

【0057】[0057]

【数6】 (Equation 6)

【0058】(S12)で位置及び回転角の検索間隔の
再設定を行う。回転角についてdψ=dψ/2,dθ=
dθ/2,dφ=dφ/2、位置についてd<r>wc
d<r>wc/2として、より細かく変化させる。このよ
うに設定して、(S8)に戻り上述と同様に(S10)
まで進める。
In step S12, the position and rotation angle search intervals are reset. Rotation angle dψ = dψ / 2, dθ =
dθ / 2, dφ = dφ / 2, and position d <r> wc =
A finer change is made as d <r> wc / 2. After setting in this way, the process returns to (S8) and is the same as above (S10).
Proceed to.

【0059】上述のように、(S10)で差D[jo][ko]
[lo][m1o][m2o][m3o]が、許容誤差の範囲内であると判
定された場合は、この[jo][ko][lo][m1o][m2o][m3o]で
定まる位置、姿勢角を空中写真を撮影した位置、姿勢角
として、図1の(P4)の歪補正に進む。(P4)は、
(P3)で求めたカメラの位置、姿勢角<r>cw,ψ,
θ,φを使って、空中写真を歪補正する過程である。空
中写真は、図6のように中心投影であるため、地表の標
高の高低による歪みがあり、地図のように正射影になっ
ていない。そのため、空中写真の点を地図上に正射影し
て歪補正するのである。後述するように、空中写真が撮
影された地図平面上の領域の所定の複数地点に記憶要素
を対応させた歪補正空中写真用メモリ61を用意して、
歪補正を施した後の空中写真の点の画像データを歪補正
空中写真用メモリ61に格納する。ここで歪補正空中写
真用メモリ61は、ある一色の色を記録することができ
る記憶要素の2次元の配列からなり、この記憶要素をテ
クセルと呼ぶ。歪補正空中写真用メモリのテクセル数は
1000×1000個以上程度とする。各テクセルは色
の成分である赤緑青の強度を各8bitで記憶する。図
6において、62はフィルムである。
As described above, the difference D [j o ] [k o ] in (S10).
If [l o ] [m1 o ] [m2 o ] [m3 o ] is determined to be within the tolerance, this [j o ] [k o ] [l o ] [m1 o ] [ The position and posture angle determined by m2 o ] [m3 o ] are set as the position and posture angle at which the aerial photograph was taken, and the process proceeds to the distortion correction of (P4) in FIG. (P4) is
The position and orientation angle of the camera obtained in (P3) <r> cw , ψ,
This is a process of correcting the distortion of the aerial photograph using θ and φ. Since the aerial photograph is a central projection as shown in FIG. 6, it is distorted by the elevation of the ground surface and is not an orthographic projection like a map. Therefore, the points of the aerial photograph are orthographically projected on the map to correct the distortion. As will be described later, a distortion-corrected aerial photograph memory 61 in which storage elements are associated with a plurality of predetermined points in a region on a map plane where an aerial photograph is taken is prepared,
The image data of the points of the aerial photograph after the distortion correction is stored in the distortion-corrected aerial photograph memory 61. Here, the distortion-corrected aerial photograph memory 61 is composed of a two-dimensional array of storage elements capable of recording a certain color, and this storage element is called a texel. The number of texels in the distortion-corrected aerial photography memory is about 1000 × 1000 or more. Each texel stores the intensity of red, green, and blue, which are color components, in 8 bits each. In FIG. 6, reference numeral 62 is a film.

【0060】(P4)の処理をするについて、空中写真
が撮影されている地形に対応する地図の地表座標系のX
w,Yw平面において、Xw軸方向及びYw軸方向ともに、
等間隔(100m)に設定した参照地点の標高値が記録
されているメッシュタイプの標高データ群を用意してお
く。図7はこの標高データ群を模式的に表示した図であ
る。71は地表を編目に分けるメッシュ、72は参照地
点の標高データである。
Regarding the processing of (P4), X in the ground coordinate system of the map corresponding to the topography where the aerial photograph is taken.
In the w and Yw planes, in both the Xw axis direction and the Yw axis direction,
A mesh type elevation data group in which elevation values of reference points set at equal intervals (100 m) are recorded is prepared. FIG. 7 is a diagram schematically showing this elevation data group. Reference numeral 71 is a mesh that divides the ground surface into stitches, and 72 is elevation data of a reference point.

【0061】(P4)の歪補正の処理フローを図8に示
す。図8において、(T1)は地表座標系で座標変換を
行う有効領域を探索する過程である。メッシュ標高デー
タを式(1)で座標変換し、写真の有効範囲に適応する
領域すなわち有効領域を探索する。なお、写真の有効範
囲とは、写真の4端にある標準点を結んだ長方形であ
る。この探索を行う目的は、ある1枚の空中写真の歪補
正を行うとき、歪補正した後の画像データを格納するた
めの歪補正空中写真用メモリを地表座標系Xw,Yw平面
の適切な領域すなわち有効領域に対応させるためであ
る。この地表座標系の有効領域は、この空中写真に写っ
ている領域であり、この領域内の地点<r>owを座標変
換すると写真の有効範囲内に写像されるが、この領域外
の<r>owを座標変換すると、写真の有効範囲外(写真
の枠の外へ)写像されてしまい意味がない。そこで、カ
メラ位置周辺の標高データを式(1)で座標変換し、そ
れが写真の有効範囲内に写像されるか、または、有効範
囲外に写像されるかを調べることで、有効領域を決め
る。有効領域が決まると、そこへ、歪補正空中写真用メ
モリを対応させる(図9参照)ので、歪補正空中写真用
メモリ61の(p,q)=(0,0)でアドレスされる
テクセルに対応する地表座標系における位置ベクトル
が、求めた有効領域91の南西端(Yw方向を北、Xw
向を東とする。)の座標となり、これを<r>memow
する。また、有効領域91の一辺の長さを、歪補正空中
写真用メモリ61のp方向のテクセル数で割った値が地
表座標系におけるテクセル間隔dtexelとなる。
FIG. 8 shows a processing flow of distortion correction of (P4). In FIG. 8, (T1) is a process of searching an effective area in which coordinate conversion is performed in the surface coordinate system. The mesh elevation data is subjected to coordinate conversion by the formula (1) to search for an area that corresponds to the effective range of the photograph, that is, an effective area. The effective range of the photograph is a rectangle connecting standard points at the four ends of the photograph. The purpose of this search is to correct the distortion of one aerial photograph by using a distortion correction aerial photograph memory for storing the image data after the distortion correction in an appropriate area of the ground coordinate system Xw, Yw plane. That is, this is to correspond to the effective area. The effective area of this surface coordinate system is the area shown in this aerial photograph, and if the point <r> ow in this area is coordinate-converted, it will be mapped within the effective range of the photograph. > When the coordinate conversion of ow is performed, it is meaningless because it is mapped outside the effective range of the photograph (outside the frame of the photograph). Therefore, the effective area is determined by converting the altitude data around the camera position by the equation (1) and checking whether it is mapped within the effective range of the photograph or outside the effective range of the photograph. . When the effective area is determined, the distortion-corrected aerial photograph memory is associated therewith (see FIG. 9), so that the texel addressed by (p, q) = (0, 0) of the distortion-corrected aerial photograph memory 61 is set. position vector at the corresponding ground coordinate system, southwestern edge of the effective area 91 obtained (the Y w direction north, X w direction and east.) becomes the coordinates, it is a <r> memow. Further, the length of one side of the effective area 91, the value obtained by dividing becomes texel spacing d texel in ground coordinate system texels number of p direction of the distortion correction aerial photographic memory 61.

【0062】図8において、(T2)はカメラの姿勢角
から回転変換行列Tを計算する過程である。この姿勢角
は、(P3)で求めたものであり、これを式(2)に代
入する。
In FIG. 8, (T2) is a process of calculating the rotation conversion matrix T from the attitude angle of the camera. This posture angle is obtained in (P3) and is substituted into the equation (2).

【0063】図8において、(T3)は歪補正を行う過
程であり、(T3.1)では歪補正空中写真用メモリの
テクセル(p,q)を地表座標系における<r>texelw
に変換する。テクセル(p,q)は式(7)によって座
標変換される。
In FIG. 8, (T3) is the process of distortion correction, and in (T3.1), the texel (p, q) of the memory for distortion correction aerial photography is set to <r> texelw in the ground coordinate system.
Convert to. The texel (p, q) is coordinate-transformed by the equation (7).

【0064】[0064]

【数7】 (Equation 7)

【0065】<r>texelwと<r>memowのベクトルは
2次元である。テクセル(p,q)の地表座標系への変
換と、各ベクトルの関係を図10に示す。
The vectors of <r> texelw and <r> memow are two-dimensional. FIG. 10 shows the relationship between each vector and the conversion of texel (p, q) into the surface coordinate system.

【0066】図8において、(T3.2)は<r>
texelwにおける標高値を与えるために、ラグランジュ補
間を行う過程である。標高値の補間について、図11、
図12により説明する。図11において、メッシュ71
の交差点は標高データが既知の点すなわち参照点であ
る。点Rは標高値を補間しようとする点であり、各テク
セルに対応する<r>texelwの点である。まず、標高デ
ータを使って、X方向、及びY方向にラグランジュ補間
式を適用し、補間中間値A1,A2,A3,A4,B1,B
2,B3,B4を計算する。A1,A2,A3,A4からラグ
ランジュ補間により、点Rの標高値ZAを求める。B1,
B2,B3,B4から同様にして点Rの標高値ZBを求め、
(ZA+ZB)/2を点Rの標高値とする。ラグランジュ
の補間式は次の式(8)を使用する。
In FIG. 8, (T3.2) is <r>.
This is the process of performing Lagrange interpolation to give the elevation value in texelw . Regarding the interpolation of the elevation value, FIG.
This will be described with reference to FIG. In FIG. 11, the mesh 71
The intersection is a point where the elevation data is known, that is, a reference point. The point R is a point where the elevation value is to be interpolated, and is a point of <r> texelw corresponding to each texel. First, using the elevation data, the Lagrange interpolation formula is applied in the X direction and the Y direction, and the interpolation intermediate values A1, A2, A3, A4, B1, B
Calculate 2, B3, B4. The elevation value ZA of the point R is obtained from A1, A2, A3, A4 by Lagrange interpolation. B1,
Similarly, the elevation value ZB of the point R is obtained from B2, B3, and B4,
Let (ZA + ZB) / 2 be the elevation value of point R. The Lagrange's interpolation formula uses the following formula (8).

【0067】[0067]

【数8】 (Equation 8)

【0068】ここで、qn:標高が既知の点のXまたは
Y座標値、
Where q n is the X or Y coordinate value of a point of known altitude,

【0069】Z(qn):点qmにおける標高値、Z (q n ): elevation value at the point q m ,

【0070】A:標高を求めようとするXまたはY座標
A: X or Y coordinate value for which altitude is to be obtained

【0071】である。It is

【0072】図1において、(P5)は、歪補正後の空
中写真をつなぎ合わせる過程である。ゲーミングエリア
全体のジオスペシフィックテクスチャパターンを与える
ためには、数十枚の歪補正写真をつなげる必要がある。
これら数十枚の歪み補正写真は各々のファイルに格納さ
れ、この各々ファイルを、歪補正空中写真用メモリのテ
クセルと関連つけられた地表座標が連続するように、一
つの連続写真ファイルにまとめる。
In FIG. 1, (P5) is a process of joining aerial photographs after distortion correction. In order to give a geospecific texture pattern for the entire gaming area, it is necessary to connect dozens of distortion-corrected photographs.
These dozens of distortion-corrected photographs are stored in respective files, and these files are combined into one continuous photograph file so that the ground coordinates associated with the texels of the distortion-corrected aerial photograph memory are continuous.

【0073】(P6)は、連接した歪補正写真を、ジオ
スペシフィックテクスチャファイルに分割する過程であ
る。このファイルは、ジオスペシフィックテクスチャパ
ターンを格納するファィルであり、このファイルに格納
されているデータをテクスチャパターンとして、ビデオ
プロセッサで用いられる。そのため、このジオスペシフ
ィックテクスチャファイルはマッピングを行うビデオプ
ロセッサが要求するフォーマットを持つ。また、摸擬視
界発生装置は、ゲーミングエリアを地理的に、いくつか
のブロックに分割し、ブロックごとにデータを保持する
ので、ジオスペシフィックテクスチャパターンもこのブ
ロックに対応して分割する必要がある。歪補正後の写真
ファイルはこのブロックに対応していないため、(P
5)で連接を行った後に、(P6)で再びブロック単位
に分割する。
(P6) is a process of dividing the connected distortion-corrected photographs into geospecific texture files. This file is a file that stores a geospecific texture pattern, and the data stored in this file is used as a texture pattern in a video processor. Therefore, this geospecific texture file has a format required by the video processor for mapping. Further, since the pseudo-visual field generator geographically divides the gaming area into several blocks and holds data for each block, it is necessary to divide the geospecific texture pattern corresponding to this block. Since the photo file after distortion correction does not support this block, (P
After performing the connection in 5), it is divided into blocks again in (P6).

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
写真上の複数標本地点の位置と、地図上で移動すると仮
定するカメラで撮影されたと仮定する地図上の複数標本
地点が座標変換された位置との差が、最小となるカメラ
位置を検索することで、空中写真を撮影したカメラの位
置と姿勢とを知ることができ、少ない参照地点の標高値
を補間することで前記参照地点より多い複数地点の高さ
情報を得て、地表の点と空中写真上の点との対応をつけ
る座標変換式により前記定まった位置と姿勢のカメラで
撮影したものとして地表から空中写真に座標変換するこ
とができ、その空中写真の画像データをその地表の座標
に対応させたメモリに格納して、正射影することができ
るから、空中写真の歪補正を半自動的に行い、ジオスペ
シフィックテクスチャパターンを生成させることができ
る。
As described above, according to the present invention,
Searching for the camera position where the difference between the positions of the multiple sampling points on the photograph and the positions of the coordinates of the multiple sampling points on the map assumed to be captured by the camera assumed to move on the map is the smallest. With, it is possible to know the position and orientation of the camera that took the aerial photograph, and by interpolating the elevation values of the few reference points, the height information of a plurality of points greater than the reference points is obtained, and the points on the ground surface and the air are obtained. It is possible to convert the coordinates of the aerial photo into the aerial photo as if the image was taken by the camera with the above-mentioned fixed position and orientation by the coordinate conversion formula that associates the points on the photo with the image data of the aerial photo. Since it can be stored in the corresponding memory and orthographically projected, the distortion correction of the aerial photograph can be performed semi-automatically to generate the geospecific texture pattern.

【図面の簡単な説明】[Brief description of drawings]

【図1】空中写真からジオスペシフィックテクスチャを
生成する手順を説明する図である。
FIG. 1 is a diagram illustrating a procedure for generating a geospecific texture from an aerial photograph.

【図2】EWSの画面に表示したウィンドウを説明する
図である。
FIG. 2 is a diagram illustrating a window displayed on a screen of EWS.

【図3】航空機の位置及び姿勢を検索する過程の処理フ
ローを説明する図であり、前半部を示す。
FIG. 3 is a diagram illustrating a processing flow of a process of searching the position and attitude of an aircraft, showing a first half part.

【図4】航空機の位置及び姿勢を検索する過程の処理フ
ローを説明する図であり、後半部を示す。
FIG. 4 is a diagram illustrating a processing flow of a process of retrieving the position and attitude of an aircraft, and shows the latter half.

【図5】地表を任意の位置及び姿勢にあるカメラで撮影
した場合の、地表の点のフィルムへの投影を説明する図
である。
FIG. 5 is a diagram illustrating the projection of points on the ground surface onto a film when the ground surface is photographed by a camera in an arbitrary position and posture.

【図6】地表からフィルムへの中心投影、地図平面に対
応する歪補正空中写真用メモリと地表との正射影を説明
する図である。
FIG. 6 is a diagram for explaining the central projection of the ground surface onto the film, and the orthogonal projection of the distortion-corrected aerial photography memory corresponding to the map plane and the ground surface.

【図7】参照地点の標高値が記録されているメッシュタ
イプの標高データ群を説明する図である。
FIG. 7 is a diagram illustrating a mesh type elevation data group in which elevation values at reference points are recorded.

【図8】歪補正の処理フローを説明する図である。FIG. 8 is a diagram illustrating a processing flow of distortion correction.

【図9】地表座標系の有効領域と歪補正空中写真用メモ
リとの対応を説明する図である。
FIG. 9 is a diagram illustrating the correspondence between the effective area of the surface coordinate system and the distortion correction aerial photograph memory.

【図10】テクセル(p,q)の地表座標系への変換
と、各ベクトルの関係を示す図である。
FIG. 10 is a diagram showing the conversion of texels (p, q) into the surface coordinate system and the relationship between the vectors.

【図11】標高値の補間を説明する図である。FIG. 11 is a diagram illustrating interpolation of an altitude value.

【図12】二次元のラグランジュ補間を説明する図であ
る。
FIG. 12 is a diagram illustrating two-dimensional Lagrange interpolation.

【符号の説明】[Explanation of symbols]

P1……デジタルサンプリング過程、P2……写真地図
の表示過程、P3……姿勢検索過程、P4……歪補正過
程。
P1 ... Digital sampling process, P2 ... Photo map display process, P3 ... Attitude search process, P4 ... Distortion correction process.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 空中写真によりジオスペシフィックテク
スチャ・パターンを生成する方法において、 空中写真を画像データとして得ておくとともに画面上に
表示した該空中写真上の任意の複数標本地点をマウスで
画面指示してその位置を実写写真位置として得ておく第
1の過程と、 前記画面と同一画面に同時に表示させ、前記任意の複数
標本地点に対応するようにマウスで画面指示した地図上
の位置を標高値を含めて地表位置として得ておく第2の
過程と、 仮想するカメラの位置及び姿勢を所定の範囲内で仮想的
に変化させて、前記任意の複数標本地点に対応する第2
の過程による地表位置を、前記カメラにより撮影したと
きの地表座標系にある地表上の点をフィルム座標系に変
換する変換式により、仮想写真位置として座標変換し、
前記実写写真位置に最も近い仮想写真位置を検索し、そ
のときの仮想されたカメラの位置及び姿勢を前記空中写
真を撮影したときのカメラの位置及び姿勢とみなす第3
の過程と、 地表座標系の複数地点に対応して記憶素子を配列した歪
補正空中写真用メモリを備え、地表座標系について前記
複数地点の数より少なく設定した参照地点の標高値をラ
グランジュ補間で補間することにより前記複数地点の補
間標高値を求め、その求めた複数地点の補間標高値の地
表位置を前記第3の過程によりみなされた位置及び姿勢
にあるカメラによって撮影されたものとして前記変換式
を用いてフィルム座標系に歪補正写真位置として変換
し、当該歪補正写真位置にある前記第1の過程における
画像データを前記複数地点に対応して前記歪補正空中写
真用メモリに格納する第4の過程とを有することを特徴
とするジオスペシフィックテクスチャ生成の方法。
1. A method for generating a geospecific texture pattern from an aerial photograph, wherein an aerial photograph is obtained as image data, and a plurality of arbitrary sample points on the aerial photograph displayed on the screen are indicated on the screen by a mouse. The first step of obtaining the position as a photographed image position, and the position on the map that is displayed on the same screen as the screen at the same time and is pointed by the mouse so as to correspond to the arbitrary multiple sample points And a second process for obtaining a ground surface position including the above, and a second position corresponding to the arbitrary plural sample points by virtually changing the position and orientation of the virtual camera within a predetermined range.
The ground surface position in the process of, by the conversion formula for converting the points on the ground surface in the ground surface coordinate system when taken by the camera into the film coordinate system, coordinate conversion as a virtual photograph position,
A virtual photo position closest to the real photo position is searched, and the virtual camera position and posture at that time are regarded as the camera position and posture when the aerial photo was taken.
And a memory for distortion correction aerial photography in which memory elements are arranged corresponding to multiple points on the surface coordinate system, and the elevation value of the reference point set to be less than the number of the multiple points on the surface coordinate system is calculated by Lagrange interpolation. Interpolation elevation values of the plurality of points are obtained by interpolation, and the conversion is performed by assuming that the ground surface positions of the obtained interpolation elevation values of the plurality of points are taken by the camera in the position and posture considered in the third step. A distortion-corrected photograph position is converted into a film coordinate system using a formula, and the image data in the first step at the distortion-corrected photograph position is stored in the distortion-corrected aerial photograph memory corresponding to the plurality of points. 4. The method for generating geospecific texture, comprising the steps of 4).
JP18040194A 1994-07-11 1994-07-11 How to generate geospecific textures Expired - Fee Related JP3490774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18040194A JP3490774B2 (en) 1994-07-11 1994-07-11 How to generate geospecific textures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18040194A JP3490774B2 (en) 1994-07-11 1994-07-11 How to generate geospecific textures

Publications (2)

Publication Number Publication Date
JPH0830194A true JPH0830194A (en) 1996-02-02
JP3490774B2 JP3490774B2 (en) 2004-01-26

Family

ID=16082602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18040194A Expired - Fee Related JP3490774B2 (en) 1994-07-11 1994-07-11 How to generate geospecific textures

Country Status (1)

Country Link
JP (1) JP3490774B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034346A1 (en) * 1997-12-25 1999-07-08 Toyota Jidosha Kabushiki Kaisha Method and apparatus for processing digital map data
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2003279375A (en) * 2002-03-25 2003-10-02 Kawasaki Heavy Ind Ltd Pseudo eyesight forming device
JP2007034145A (en) * 2005-07-29 2007-02-08 Alps Sha:Kk Map superimposing system and method
US8334903B2 (en) 2002-08-28 2012-12-18 Visual Intelligence, L.P. Retinal array compound camera system having at least three imaging sensors
CN103324023A (en) * 2012-03-19 2013-09-25 联想(北京)有限公司 Device and method for displaying three-dimensional projection
US9797980B2 (en) 2002-09-20 2017-10-24 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
CN112002007A (en) * 2020-08-31 2020-11-27 胡翰 Model obtaining method and device based on air-ground image, equipment and storage medium
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274650A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH06325150A (en) * 1993-05-12 1994-11-25 Hitachi Ltd Method for automatically superimposing photographic image and vector map
JPH0728980A (en) * 1993-07-09 1995-01-31 Kenichi Hyodo Map information system
JPH07281593A (en) * 1994-04-06 1995-10-27 Asia Kosoku Kk Method for two-dimensionally forming digital mosaic photograph map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274650A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH06325150A (en) * 1993-05-12 1994-11-25 Hitachi Ltd Method for automatically superimposing photographic image and vector map
JPH0728980A (en) * 1993-07-09 1995-01-31 Kenichi Hyodo Map information system
JPH07281593A (en) * 1994-04-06 1995-10-27 Asia Kosoku Kk Method for two-dimensionally forming digital mosaic photograph map

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034346A1 (en) * 1997-12-25 1999-07-08 Toyota Jidosha Kabushiki Kaisha Method and apparatus for processing digital map data
US6470265B1 (en) 1997-12-25 2002-10-22 Toyota Jidosha Kabushiki Kaisha Method and apparatus for processing digital map data
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2003279375A (en) * 2002-03-25 2003-10-02 Kawasaki Heavy Ind Ltd Pseudo eyesight forming device
US8334903B2 (en) 2002-08-28 2012-12-18 Visual Intelligence, L.P. Retinal array compound camera system having at least three imaging sensors
US9797980B2 (en) 2002-09-20 2017-10-24 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
JP2007034145A (en) * 2005-07-29 2007-02-08 Alps Sha:Kk Map superimposing system and method
CN103324023A (en) * 2012-03-19 2013-09-25 联想(北京)有限公司 Device and method for displaying three-dimensional projection
CN112002007A (en) * 2020-08-31 2020-11-27 胡翰 Model obtaining method and device based on air-ground image, equipment and storage medium
CN112002007B (en) * 2020-08-31 2024-01-19 胡翰 Model acquisition method and device based on air-ground image, equipment and storage medium

Also Published As

Publication number Publication date
JP3490774B2 (en) 2004-01-26

Similar Documents

Publication Publication Date Title
JP3435084B2 (en) Optical flow estimation method and image composition method
US7583858B2 (en) Image processing based on direction of gravity
CN108765298A (en) Unmanned plane image split-joint method based on three-dimensional reconstruction and system
JP4981135B2 (en) How to create a diagonal mosaic image
US20080279447A1 (en) Computational Solution Of A Building Of Three Dimensional Virtual Models From Aerial Photographs
US20060078215A1 (en) Image processing based on direction of gravity
EP0726543B1 (en) Image processing method and apparatus therefor
GB2144608A (en) Real time perspective display employing digital map generator
CN110246161B (en) Method for seamless splicing of 360-degree panoramic images
CN107862652B (en) Aerial view generation method and device
Hohle Experiences with the production of digital orthophotos
JPH0830194A (en) Method for forming geospecific texture
Mayr et al. A contribution to digital orthophoto generation
JP3218372B2 (en) 3D graphic display method
Hood et al. Image processing techniques for digital orthophotoquad production
JP3411940B2 (en) How to create a two-dimensional digital mosaic photo map
JPH10208074A (en) Picture generation method
CN114913297A (en) Scene orthoscopic image generation method based on MVS dense point cloud
JP2001167249A (en) Method and device for synthesizing image and recording medium stored with image synthesizing program
Bielski et al. Order independent image compositing
JPH11265440A (en) Image compositing method for optional light source position and display device
JP4231279B2 (en) Digital image processing device
JPH09179967A (en) Map data correcting method
JPH0721413A (en) Method and system for generating three-dimensional display video for high altitude photographing image
JPH0969148A (en) Method for preparing map data

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees