JPS62284214A - Attitude decision system of moving image sensor platform, etc. - Google Patents

Attitude decision system of moving image sensor platform, etc.

Info

Publication number
JPS62284214A
JPS62284214A JP62060233A JP6023387A JPS62284214A JP S62284214 A JPS62284214 A JP S62284214A JP 62060233 A JP62060233 A JP 62060233A JP 6023387 A JP6023387 A JP 6023387A JP S62284214 A JPS62284214 A JP S62284214A
Authority
JP
Japan
Prior art keywords
image
sensor
pixels
images
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62060233A
Other languages
Japanese (ja)
Inventor
ピーター・ケー・プライトナー
ロバート・ケー・ヴィンセント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JIOSUPEKUTORA CORP
Original Assignee
JIOSUPEKUTORA CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JIOSUPEKUTORA CORP filed Critical JIOSUPEKUTORA CORP
Publication of JPS62284214A publication Critical patent/JPS62284214A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 3、発明の詳細な説明 [産業上の利用分野] 本発明は広い意味では宇宙船や航空機に取付けられたイ
メージセンサ等の空輸される、又は宇宙空間を運ばれる
プラットホームの姿勢変化を探知するシステムに係るが
、特に地形画像化技術を用いて姿勢変化を探知するシス
テムに係わる。
[Detailed Description of the Invention] 3. Detailed Description of the Invention [Field of Industrial Application] In a broad sense, the present invention relates to a platform that is transported by air or transported in outer space, such as an image sensor attached to a spacecraft or an aircraft. The present invention relates to a system for detecting changes in posture, and particularly relates to a system for detecting changes in posture using terrain imaging technology.

[従来の技術] 多臘ベクトル感応性画鍮走査装置は一般に航空機や人工
衛星に取付けられており、その目的は地球表面上を通過
するときに地球の地形の画像を記録することである。そ
の画像はデータとして記録され、そのデータは一連の走
査線から成る。航空機や宇宙船がその軌道上で動くと伯
の走査線に対する走査線の相対的方向が変わる。
BACKGROUND OF THE INVENTION Multi-vector sensitive image scanning devices are commonly mounted on aircraft and satellites, and their purpose is to record images of the Earth's topography as they pass over the Earth's surface. The image is recorded as data, and the data consists of a series of scan lines. As the aircraft or spacecraft moves in its orbit, the relative direction of the scan line to the bar scan line changes.

航空機や宇宙船の姿勢は地形の画像に不規則な幾何学的
歪曲を生じさせる横揺れ、縦揺れ、揺首、高喰変化、速
度変化による摂動の影響を免かれ得ない。航空機の場合
、ウィンドパフエツトによる摂動は空気密度変化を生じ
させ、うっかりした不注意のコース変化をもたらしてし
まう。
The attitude of an aircraft or spacecraft is subject to perturbations such as roll, pitch, yaw, glide, and speed changes that cause irregular geometric distortions in images of the terrain. In aircraft, perturbations caused by wind perturbations cause air density changes that can lead to inadvertent and inadvertent changes in course.

人工衛星に関する摂動はもつとわずかなものであるが、
これも大気中でのバフエツト(低空軌道中)、軌道I、
II御操縦、及び人工衛生の慣性中心の変化(つまり燃
料消費、アンテナ又は太陽の位置方向の変化)の結果生
ずるものである。
Although perturbations related to artificial satellites are minimal,
This is also a buffet in the atmosphere (in low-altitude orbit), orbit I,
II control and as a result of changes in the center of inertia of the artificial satellite (i.e. changes in fuel consumption, antenna or sun position direction).

[発明が解決しようとする問題点] いわゆる生の画像用データを幾何学的に正しいものにす
るために、一般にはii!i像データのはつぎすした絵
素(画像中位)の正確な場所を地図上で捜すことにより
画像データの2.3の走査線に対し地図上の地上制御点
と絵素を確認することができる。そして全体の画像を数
学的に撓曲させたり、号ンブリングし直したりして、全
地上制御地点にうまく合うようにすることができる。し
かしながらこの方法は時間と記録された画像データを地
上の制御点の位置に手動で相関させるのに必要な労力の
点で特に費用がかかり過ぎるし、修正はもっばら地上制
御の正確さや密度に依存している。
[Problems to be Solved by the Invention] In order to make so-called raw image data geometrically correct, ii! By searching on the map for the exact location of the missing picture element (in the middle of the image) of the i-image data, it is possible to confirm the ground control point and picture element on the map for the 2.3 scan line of the image data. can. The entire image can then be mathematically warped and renumbered to better fit all ground control points. However, this method is too expensive, especially in terms of time and the effort required to manually correlate the recorded image data to the location of ground control points, and corrections depend solely on the accuracy and density of the ground controls. are doing.

この問題点に対する一つの解決方法は、宇宙船や航空機
搭載の水平線探索装置、星指示器及び慣性航行システム
に係わっている。これらの姿勢センサーは、画像データ
の部分的な幾何学的修正に必要な姿勢変化データを感知
し記録する。
One solution to this problem involves horizon finding devices, star indicators, and inertial navigation systems aboard spacecraft or aircraft. These pose sensors sense and record pose change data necessary for partial geometric correction of image data.

そのデータは、少なくとも3つの埋山により最適なもの
とはいえない。第一に上述の機器は本来の記録された地
形にデータではない基準を用いており1、第2に基本又
は第1センサと同じ位置用がかかり、第3にそのlff
1と電力消費の点から応用面で制限を受けるからである
The data cannot be said to be optimal due to at least three missing points. Firstly, the above-mentioned devices use a non-data reference to the original recorded terrain; secondly, the same position as the base or first sensor is used; and thirdly, its lff
This is because there are limitations in terms of application due to power consumption.

上述のように、航空機や人工衛星の地形イメージセンサ
−に使用できるイメージセンサ−プラットホーム等のプ
ラットホームの姿勢変化を感知し記録するための、軽量
でより効率の良いまた安価なシステムが必要とされてい
る。
As mentioned above, there is a need for a lightweight, more efficient, and less expensive system for sensing and recording attitude changes of platforms, such as image sensor platforms that can be used in aircraft and satellite topographic image sensors. There is.

[問題点を解決するための手段] 本発明によれば空輸又は宇宙空間を運ばれる地形イメー
ジヒンサープラットホームの姿勢変化を決定するシステ
ムは、第2センサー・・・なるべくなら、2次元金整色
イメージセンサーを有するもの・・・、と連続的でオー
バラップする瞬間的に得られる2次元画際地形データを
比較するために用いるデジタル画像相関機器を有する。
[Means for Solving the Problems] According to the present invention, a system for determining attitude changes of a terrain imaging Hincer platform transported by air or in space comprises a second sensor...preferably a two-dimensional golden color. It has an image sensor...and a digital image correlation device used to compare continuous, overlapping, instantaneously obtained two-dimensional border topography data.

第2センサーは一連の主画像と従動機を作り出し、各画
像は次の従動機が作られると主画像になる。デジタル画
像相関処理は主画像の複数(なるべくなら5つ)の絵素
を従側像上の同じ地理的位置の点と一致さけるために行
なわれるものである。この相関!i8]Illは、複数
(なるべくなら5つ)の空間的に分配された従動機の絵
素配列の区画を選び、それから各区画に対する無彩色ス
ケール相関係数を見つけるために主画像に対しそれらの
配列を動かすことによって成される。最高相関係数をも
つ位置は、主画像に対応する従動機区画の真位置として
選ばれる。
The second sensor produces a series of main and slave images, each image becoming the main image when the next slave is created. Digital image correlation processing is performed to avoid matching multiple (preferably five) picture elements of the main image with points at the same geographic location on the minor image. This correlation! i8]Ill choose multiple (preferably 5) spatially distributed subdivisions of the slave pixel array and then compare them to the main image to find the achromatic scale correlation coefficient for each subdivision. This is done by moving the array. The position with the highest correlation coefficient is chosen as the true position of the slave segment corresponding to the main image.

従動機の相関絵素の縦横の座標は記録され、主画像と対
応する従動機の相対的な方向は、写真側聞方法で同一平
面を用いるという条件を与えれば、見つけることができ
る。主及び従動機の相対的な方向は唯一センサープラッ
トボームの新しい姿勢−即ら、主画像と従動機とが記録
されるある時間内の点と点との間プラットホームの姿勢
変化−を決めることになる。2次元イメージセンサによ
り得られるデータは後での使用のために保存されるか、
または、センサープラットホームの変化をはっきりさせ
決定づける情報を得るために、また第1センサーによっ
て記録された地形画像用データの幾何学的形状を修正す
るためにリアルタイムで処理される。
The vertical and horizontal coordinates of the correlated picture elements of the slave are recorded, and the relative orientation of the slave corresponding to the main image can be found given the condition of using the same plane in the photolateral method. The relative orientation of the master and slave only determines the new attitude of the sensor platform - i.e. the change in attitude of the platform from point to point in time at which the main image and slave are recorded. Become. Is the data obtained by the two-dimensional image sensor stored for later use?
Alternatively, it is processed in real time to obtain information that defines and determines changes in the sensor platform and to modify the geometry of the terrain image data recorded by the first sensor.

以上のように、本発明の第1の目的は特に簡単・正確・
費用効果の良い又信頼性のある地形画像用多スペクトル
感応性走査装置(センサー)等の空輸又は宇宙空間で運
ばれるプラットホームの方向変化を感知するシステムを
提供することである。
As described above, the first object of the present invention is to provide a particularly simple, accurate and
It is an object of the present invention to provide a cost effective and reliable multispectral sensitive sensor for terrain imaging and a system for sensing changes in orientation of airborne or spaceborne platforms.

また本発明の目的の1つは、上述したように、センサー
プラットホームの姿勢変化が、コンピュータにより実行
され得る数学的な方法を用いて決定されるようなシステ
ムを提供することである。
It is also an object of the present invention, as mentioned above, to provide such a system in which the attitude change of the sensor platform is determined using a mathematical method that can be implemented by a computer.

更に本発明の目的の1つには、上述のように、はぼリア
ルタイムか又はオフラインベースで、リモートセンシン
グされた画像を含む地形データにおける摂動の煤正に用
いられるシステムを提供することがある。
It is a further object of the present invention, as described above, to provide a system that can be used to correct perturbations in terrain data, including remotely sensed imagery, on a nearly real-time or off-line basis.

本発明の目的の1つは前述したように、いかなる形式の
空輸、又はいかなる軌道をとっているプラットホームム
の高度及び速度変化に関連した情報を与えることのでき
るシステムを提供することである。
One of the objects of the invention, as mentioned above, is to provide a system capable of providing information relating to altitude and speed changes of any type of airlift, or of any orbiting platform.

本発明の目的の一つは、前記したように、従来の空輸又
は宇宙空間を運ばれるセンサーに対しても用いることが
でき、特に軽量でコンパクトであるシステムを提供する
ことである。
One of the objects of the invention, as mentioned above, is to provide a system which is particularly lightweight and compact, and which can also be used for conventional airborne or spaceborne sensors.

上記の目的は、本発明の他の目的や利用法に加え、以下
の記述に明示される。
The above objects, as well as other objects and uses of the invention, will be set forth in the following description.

C実施例J 第1図かられかるように、本発明は広くは選ばれた航路
13に沿って飛んでいる人工衛星10や航空機12等の
移動中の輸送機関に搭載のセンサープラットホームの姿
勢変化を感知し、g1測するシステムに係る。プラット
ホームの位置及び姿勢の変化は、それが画像化している
地形に沿ったセンサーの、方向変化として現われ、画像
化用地形データに不規則な幾何学的歪曲を生じさせる。
C Embodiment J As can be seen from FIG. 1, the present invention broadly relates to changes in the attitude of a sensor platform mounted on a moving vehicle such as an artificial satellite 10 or an aircraft 12 flying along a selected route 13. This relates to a system that senses and measures g1. Changes in platform position and attitude manifest as changes in the orientation of the sensor along the terrain it is imaging, causing irregular geometric distortions in the imaging terrain data.

例えばプラットホームはプラットホームの下の地形を検
視し、電気的信号を発生するために作用する全整色又は
多スペクトル感応性走査装置(t−ンサー)を備えてい
る。その信号はコンピュータにより処理され、プラット
ホームが地球の表面上空を通過するとき航路13の下の
地形の画像を作ることができる。イメージセンサ−は、
センシング帯(スワースバス)16に沿って地球表面上
を通過するl12i111に!囲14をbつ。この目的
のために、イメージセンサ−は光学・機械式又はもう少
し近代的なもので1次元の線形配列をもつ第1センサー
として考えられる。これ一般に“ブツシュプルーム″(
長い取手付きで押して使うほうき)又は、゛複線形配列
n (マルヂリニア配列)として知られているものであ
る。
For example, the platform is equipped with a full color or multispectral sensitive scanning device (t-sensor) that operates to view the terrain beneath the platform and generate electrical signals. The signals can be processed by a computer to create an image of the terrain beneath the route 13 as the platform passes over the surface of the Earth. The image sensor is
l12i111 passing over the Earth's surface along sensing zone (swath bus) 16! Box 14 b. For this purpose, the image sensor can be considered as a first sensor of the optical-mechanical or more modern type with a one-dimensional linear array. This is generally known as “butsu plume” (
This is also known as a push broom with a long handle or a multilinear arrangement.

後者のタイプの全整色表示は実例を必要とする場合に用
いられる。いずれの場合もイメージセンサ−は、一般の
焦点面に合う感光性検出器を、他の光学機器、また色々
な種類の電気部品と共に有している。焦点面の方向や姿
勢、光学的照準、また地上からのセンサー高度が地球表
面上の観測の範囲を決定ず”る。
The latter type of full color representation is used where illustration is required. In either case, the image sensor has a photosensitive detector fitted to a common focal plane, along with other optical equipment and various types of electrical components. The direction and attitude of the focal plane, the optical aiming, and the sensor altitude above the ground determine the range of observations on the Earth's surface.

第2図に示されたように、簡易化した地形センサーは、
レンズ24により地形側の直線状の帯18が変換される
1次元又は線形配列センナ−(第1センサー)20を有
する。線形配列センサー(第1センサー)20により地
球の地形上の連続的な帯を繰返し走査することやセンサ
ープラットホームの前進動作は、本質的にセンサーの観
測範囲内での地表の合成図を作るためにコンピュータで
処理できるまとまった画像用データ走査線を得ることに
つながる。
As shown in Figure 2, the simplified terrain sensor is
It has a one-dimensional or linear array sensor (first sensor) 20 in which a linear strip 18 on the terrain side is transformed by a lens 24. The repeated scanning of a continuous swath over the Earth's terrain by the linear array sensor (first sensor) 20 and the forward motion of the sensor platform essentially create a composite map of the Earth's surface within the observation range of the sensor. This results in a collection of image data scan lines that can be processed by a computer.

理想的には、人工衛星10や航空機12に取り付けられ
たセンサープラットホームは、地球表面が地形イメージ
センサ−(第1センサー)20により走査されている間
、一定の速度、姿勢又高麿で安定した又は直線的な航路
13を移動し続ける。このことにより連続的な画像走査
線全てが、それ以前に記録された走査線に対し、完全な
幾何学的関係で記録できる。しかし実際には、航空機1
2の姿勢、高度及び速度の不規則な変化がバフエツト、
空気密度の変化又うっかりした航路変更により生ずる。
Ideally, the sensor platform attached to the artificial satellite 10 or aircraft 12 is stable at a constant speed, attitude, or high altitude while the earth's surface is being scanned by the topographic image sensor (first sensor) 20. Or continue moving along the straight route 13. This allows all successive image scan lines to be recorded in perfect geometric relationship to previously recorded scan lines. However, in reality, aircraft 1
2. Irregular changes in attitude, altitude and speed are buffets,
Caused by changes in air density or inadvertent route changes.

人工衛星10の場合には、大気中でのバフエツト、軌道
制御操縦の影響又燃料消、費、アンテナ、太陽の位置方
向の変化等による人工衛星の重心変化の影響がある。こ
のようなプラットホームの変化はそれに伴う地形イメー
ジセンサ−(第1センサー)20の姿勢変化を生じさせ
、画像データに幾何学的な誤差を生じさせる。第1セン
サー20に強いられる摂動の周波数や大ぎざに関する十
分な・深い知識なしで連続的画像処理により画像データ
の幾何学的誤差を取除くことは非常にむずかしい。本発
明は地形イメージセンサ−プラットホームの姿勢、高度
、及び速度変化を検知するシステムを提供しようとする
ものである。プラッホームの姿勢変化は2つの画像・・
・第2イメージセンサ−により、プラットホームムの航
路に沿った2つの地点から瞬時に得られる2次元のオー
バラップする2つの地形画像・・・を比較することによ
り検知でき計測できるという事実の認識も本発明に含ま
れる事柄である。
In the case of the artificial satellite 10, there are effects of buffets in the atmosphere, orbit control maneuvers, fuel consumption, antennas, changes in the center of gravity of the artificial satellite due to changes in the direction of the sun's position, etc. Such a change in the platform causes an accompanying change in the attitude of the terrain image sensor (first sensor) 20, causing a geometric error in the image data. It is very difficult to remove geometric errors in the image data by continuous image processing without sufficient and in-depth knowledge of the frequency and serrations of the perturbations imposed on the first sensor 20. The present invention seeks to provide a system for sensing attitude, altitude, and velocity changes of a terrain image sensor platform. There are two images of the platform's posture change...
・Recognition of the fact that detection and measurement can be done by comparing two two-dimensional overlapping topographical images obtained instantaneously from two points along the platform's route using the second image sensor. This is a matter included in the present invention.

第2図に示されたように本発明によれば、第2地形画像
倹知器つまり第2センサー22は第1センサー20と同
じプラットホームに取付けられていて、費用の許す範囲
の共通焦点面に付けられた2次元配列をもつ感光性部材
を有している。第2センサー22は、その画像平面が線
形配列の第1センサー20の画像平面に対し平行または
望ましくは同一平面を成すように取付けられている。
In accordance with the present invention, as shown in FIG. 2, the second terrain imager or second sensor 22 is mounted on the same platform as the first sensor 20 and located at a common focal plane to the extent cost permits. The photosensitive member has a two-dimensional array attached thereto. The second sensor 22 is mounted such that its image plane is parallel to, or preferably coplanar with, the image plane of the first sensor 20 in the linear array.

従来の性質をもった適当な電装品(図示せず)が取付け
られ、電気的に第2センサー22を走査し、第1センサ
ー20により走査された地勢の全部あるいは一部の雄親
的なデジタル画像ラスター(即ら一つの枠内の全画像デ
ータは、航路からの同一の観測点から、つまりその時に
瞬間的に得られる)を得る。
Suitable electrical equipment (not shown) of a conventional nature is installed to electrically scan the second sensor 22 and provide a digital representation of all or a portion of the terrain scanned by the first sensor 20. An image raster (i.e. all image data within one frame is obtained from the same observation point along the route, i.e. instantaneously) is obtained.

後者の画像データは、姿勢、高度及び速度の変化を検知
し計測する基準として用いられる。概念的に描かれた第
2図を見ると、レンズ24を通し第2センサー22によ
って走査された走査域26は、直線的な配列をもつ第1
センサー20による走査域とオーバーラツプする。これ
はシスチムニ学の検知から見ると都合が良いと思われる
が、第2センサー22が基準となる地形のオーバーラツ
プしている2次元画像を記録している限り、必要条件で
はない。
The latter image data is used as a reference for detecting and measuring changes in attitude, altitude, and speed. Referring to the conceptually depicted FIG.
This overlaps the scanning area of the sensor 20. Although this may be advantageous from a systemistic sensing perspective, it is not a necessary condition as long as the second sensor 22 records overlapping two-dimensional images of the reference terrain.

次に第3図を見てみると、第2センサー22は地上の走
査域26に相対する一連のオーバラップ画像を記録する
ためのものであることがわかる。各々の画像、つまり走
査域26の各々は「主」画像であり、それに続く画像は
主画像に対する「従」画像を有している。走査域26の
連続画像を記録するときの時間間隔は、センサープラッ
トホームの速度、センサーの全観測範囲、センサープラ
ットホームの姿勢・速度及び高度変化の公称的な碩度、
2次元配列をもつ第2センサー22の構成部品の空間的
解像力及び線型配列をもつ第1センナ−20の構成要素
の空間的解像力によって決まる。走査域26は、航空機
として描か机だセンサープラットホームが取付けられる
航空機12の姿勢・速度及び高度変化により位置や大き
ざが変ってくる。例えば、走査域26aは、センサープ
ラットホームが取付けられる航空機12が正規の航路上
で一定の高度及び速度であると仮定した場合の条件下の
ものに相当する。
Turning now to FIG. 3, it can be seen that the second sensor 22 is for recording a series of overlapping images relative to the scan area 26 on the ground. Each image, or each scan area 26, is a "main" image, and subsequent images have "slave" images to the main image. The time interval for recording successive images of the scan area 26 depends on the speed of the sensor platform, the total observation range of the sensor, the attitude and speed of the sensor platform, and the nominal degree of altitude change;
It depends on the spatial resolution of the components of the second sensor 22, which has a two-dimensional array, and the spatial resolution of the components of the first sensor 20, which has a linear array. The scan area 26 is depicted as an aircraft, and its location and size will change with changes in attitude, speed, and altitude of the aircraft 12 to which the sensor platform is attached. For example, the scan area 26a corresponds to conditions where the aircraft 12 to which the sensor platform is attached is assumed to be on a normal course and at a constant altitude and speed.

走査域26bは、センサープラットホームが取付けられ
る航空機12が横揺れ(ロール)した時に得られる画像
化される地球上の領域を示すものである。
Scan area 26b represents the area of the Earth that is imaged when the aircraft 12 to which the sensor platform is attached rolls.

走査域26dはその前の画像を受けたとぎの高度以上に
センサ−プラットホームが取付けられる航空機12が上
昇したとぎに得ら机る画像を示している。
Scan area 26d represents the image obtained once the aircraft 12 on which the sensor platform is mounted has ascended above the altitude at which the previous image was received.

地形画像センサー(第1センサー)20により記録され
た画像に関する変化は第1図にIWかれている。
Changes in the image recorded by the topographic image sensor (first sensor) 20 are illustrated in FIG.

いかなる場合でも、線型配列の第1センサー20によっ
て記録された画像の変化は第2セン1ナー22によって
記録された画像の変化に直接関与してくる。
In any case, the changes in the image recorded by the first sensor 20 of the linear array are directly related to the changes in the image recorded by the second sensor 22.

というのは、両用1.第2センサー20.22共、互い
に関係付けて固定された焦点面をもつことにより、外力
により同様に摂動されるからである。
This is because dual use 1. This is because the second sensors 20, 22 have fixed focal planes in relation to each other, so that they are similarly perturbed by external forces.

次に、システムの全体を示し、添付図面に基づくさらに
詳細な記述を述べる。主画像とそれに続く原画像の間の
空間的なずれの要因は、センサープラットホームの取付
けられる航空機12の速度と高度から予想することがで
き、画像ラスター即ち、各々、主・原画像を示すデジタ
ルデータの組への補正量とし適用できる。その復、主・
原画像は登録され、主画像からの最低3つ、望ましくは
5つの絵素が原画像からの3つないし5つの区画内の主
画像のものに相当する絵素との相関処理に移る。
Next, the overall system will be shown and a more detailed description will be provided based on the accompanying drawings. The cause of the spatial deviation between the main image and the subsequent original image can be predicted from the speed and altitude of the aircraft 12 on which the sensor platform is mounted, and the image raster, i.e. the digital data representing the main and original images, respectively. It can be applied as a correction amount to the set of The vengeance, Lord.
The original image is registered and at least three and preferably five picture elements from the main image are correlated with picture elements corresponding to those of the main image within three to five sections from the original image.

センナ−プラットホームの速度・姿勢変化(予想された
公称値と比較した場合)、又はセンサープラットホーム
の描く軌線のその部分における姿勢の変化(揺首、横揺
れ、又は縦揺れ)が皆無である場合には完璧な相関処理
が成される。完璧でない場合は、一連の幾何学的な補正
量が原画像の区画に対して適用され、主ii!iWIと
の相関処理が繰返えされる。原画像の区画に対し適用さ
れる補正量の集合は適切に主画像と相関させるもので、
予想された位置(即ち速度と高度)と第1.第2センサ
ー20.22の姿勢からの幾何学的変化を性格付けるも
のである。換言すると、主・従側像間で最大相関係数を
もつ原画像の3又はそれ以上の絵素が第2センサー22
の二次元配列の方向を決定し、従って、主・原画像が記
録される時間内での第1センサー20の位置と姿勢の変
化を決定する。よって地上の基準地域上で姿勢データ獲
得イメージセンサ−により前もって集められた主画像デ
ータに関するセンサープラットホームの位置・姿勢の相
対的時間変化を決定することが可能となる。
There is no change in speed or attitude of the sensor platform (compared to expected nominal values) or attitude change (swing, roll, or pitch) in that part of the sensor platform's trajectory. A perfect correlation process is performed. If it is not perfect, a series of geometric corrections are applied to the segment of the original image and the main ii! The correlation process with iWI is repeated. The set of correction amounts applied to the sections of the original image is appropriately correlated with the main image,
Expected position (i.e. speed and altitude) and 1. It characterizes the geometrical changes from the attitude of the second sensor 20.22. In other words, three or more picture elements of the original image with the maximum correlation coefficient between the main and subordinate images are detected by the second sensor 22.
The direction of the two-dimensional array is determined, and therefore the change in position and orientation of the first sensor 20 during the time that the main/original image is recorded is determined. It is thus possible to determine relative temporal changes in the position and attitude of the sensor platform with respect to the main image data previously collected by the attitude data acquisition image sensor over a reference area on the ground.

第1.第2センサー20.22の絶対高度は、基準地域
が地上のよく知られた場所であるとぎ最も適当に決める
ことが出来る。しかしながら、絶対高度の決定は、航空
機センサープラットホームよりも、数時間あるいは数日
で同じ地球上を通過する人工衛星センサープラットホー
ムに対しての方が幾分現実的である。地上の基準地域が
よく知られていない場所である場合、センサープラット
ホームの姿勢変化や予想位置からの変化は、その前に記
録された基準地域上のセンサープラットホームの姿勢や
位置と比較してセンサーシステム(第2センサー)22
により検知される。これは第1センサー20が少くとも
2つの両会走査線を得る時間内に起きている地形イメー
ジセンサ−(第1センサー)20の高度、速度及び姿勢
の変化により記録された画像を昨工するのに充分である
1st. The absolute altitude of the second sensor 20.22 can be determined most appropriately if the reference area is a well-known location on the ground. However, absolute altitude determination is somewhat more practical for satellite sensor platforms that pass over the same Earth in hours or days than for aircraft sensor platforms. If the terrestrial reference area is an unfamiliar location, changes in sensor platform attitude or change from the expected position will be compared to the previously recorded attitude or position of the sensor platform over the reference area. (Second sensor) 22
Detected by This is because the first sensor 20 acquires at least two scan lines of the images recorded by changes in altitude, velocity, and attitude of the terrain image sensor (first sensor) 20 that occur within the time period. is sufficient.

次に、各々記号rAJ、rBJによって表わされたオー
バーラツプしている主・従動像を示す第4図を見てみよ
う。従動像の複数の地上基準点はマル28で示されてい
る。これと同じ基準点は主画像上では点(基準点)30
によって示されていて、矢印がマル28とそれに対応す
る基準点30に相関させている。第4図に示されている
ように、それぞれA、Bで表されている主・従動像は従
動像の幾何学的に得られたオーバーラツプした部分に描
かれている。オーバーラツプのlは、主・従動像を記録
する間に経過しlこ時間とセンサープラットホームの取
付けられる航空機12の予想速度・高度に基づき数学的
に前もって決めている。
Turn now to FIG. 4, which shows overlapping master and slave images represented by the symbols rAJ and rBJ, respectively. A plurality of ground control points of the driven image are indicated by circles 28. The same reference point is point (reference point) 30 on the main image.
, with arrows correlating the circle 28 and its corresponding reference point 30. As shown in FIG. 4, the master and slave images, designated A and B, respectively, are drawn on geometrically derived overlapping portions of the slave image. The overlap l is predetermined mathematically based on the time elapsed while recording the master and slave images and the expected speed and altitude of the aircraft 12 to which the sensor platform is mounted.

次に必要なのは、主画像に相対する従動像の幾何学的方
向を決めることであり、そうすると地形の一致する基準
点28.30が互いに登録される。つまり、地上の基準
点28.30が「相関コし幾何学的に一致するとぎであ
る。一致する地形の基準点28゜30となる従動像の幾
何学的姿勢は、従画像上の複数の地形点から察しがつく
。これらの点は主画像上に記録された同じ点と高い相関
を示す。これは、従画像上の少くとも3つ、望ましくは
5つの空間的に敗っている基準点を選ぶことによって達
成される。幾何学の簡単な規則から1つの面を決定する
為には3つの点だけしか必要ではないということは知ら
れているけれども、相関処理されるべき点を含む地形は
単純な平面であるとは予測できない。つまり、その地形
上での全ての点の高さを知ることができるとは言えない
。従って、一般には、相対的な意味・・・即ち、主画像
に対応する従動像・・・で数学的な方向の問題を解く全
変数を決めるために、従動像と(相関する)主画像の両
方で確認できる最低5個の点を必要とする写真測量法の
相対方向原理を依りところとする必要がある。写真測量
法の同一平面の条件は、選ばれた5個の点のそれぞれに
対し、地上の点をまずカメラのレンズに結ぶ光線、そし
て次にフィルム画像上の該当する点と第2のフィルム上
の画像の該当する点と共に同じ地上点をカメラのレンズ
に結ぶ光線を必要とし、両方共1つの平面にあることを
条件とする。
What is then required is to determine the geometrical orientation of the slave image relative to the main image, so that the coincident reference points 28,30 of the terrain are registered with each other. In other words, the reference points 28.30 on the ground are ``correlated and geometrically coincide. An inference can be made from the topographic points. These points show a high correlation with the same points recorded on the main image. This means that at least three, preferably five, spatially defeated criteria on the secondary image This is accomplished by choosing points that contain the points to be correlated, although it is known from simple rules of geometry that only three points are needed to determine a surface. The terrain cannot be predicted to be a simple plane, i.e. it is not possible to know the height of every point on it. Photogrammetry requires a minimum of 5 points that can be seen in both the driven image and the (correlated) main image in order to determine all the variables that solve the problem of mathematical direction with the corresponding driven image... It is necessary to rely on the relative direction principle of the method.For each of the five selected points, the coplanar condition of the photogrammetry method requires a ray that first connects the point on the ground to the camera lens, and then requires a ray that connects the camera lens to the same ground point along with the corresponding point on the film image and the corresponding point on the image on the second film, provided that both lie in one plane.

相対方向原理に基づく作業は2つの光線の全ての対が交
差するために少くとも5対の光′III(同一平面条件
を用いるとぎのちの)が、交差することを要する。同一
平面条件とそれを決定する数式の詳細は米国写真測昂協
会「写真側&の手引き」(Manual ofPhot
ogrammetry )に述べられている。(第4版
、55ページ以降参照、版411944.1952、1
96(1,1980,・・・それらの内容はここで参照
文献として用いた。) ここで第6図に目を移すと、従動像の5つの区画34〜
42は、主画像上の基準点37に相関して選ばれている
。区画34〜42の夫々は絵素の9×9の配列として描
かれている。主画像の基準点つまり絵素37とそれに相
対する従動像の区*34〜42の各絵素の間の無彩色ス
クール(明るさ)による相関を決めるために、相関処理
が行われる。無彩色スケール強度つまり明るさの値は、
絵素によって示される地上点の放射束の積分平均の関数
である。事実上、従動像区画34〜42はX、Y方向に
大きくされ(第6図)るので、従動像区画34〜42の
X、Y(座標)とそれに対応する基準点即ち絵素37と
の間で相関処理が行われる。この画像デーク処理技術は
時々[近傍処理J  (neighborhood  
pro−cessinc+ )と呼ばれる技術に見られ
る。最も高い相関係数をもつ従動像区画34〜42の絵
素がその次に選ばれ絵素配列つまり区画内のX、Y座標
が記録される。従動像区1画34〜42で最高相関係数
をもつ絵素の記録された座標は、従区画34〜42の真
の座標を決定し、従って、主画像に対応する全ての従動
像の正しい座標も決める。第5図は、基準点28、30
が一致するように従動像が主画像に対し幾何学的に、2
次元的に歪められた後主画&rAJに対し空間的に登録
された従動像rBJをIllいている。・ 上述したシステムは第1画像データM’Rセンサと共通
な平面つまりそれと同一平面な焦点面に取付けられた1
つの比較的大きな又は5個以上の比較的小さな2次元固
定配列感光性部材を男いることにより実行される。その
配列は゛リアルタイム”(即時応答)で画像相関処理を
行う特別な高速度イメージセンサ−に接続されるか又は
姿勢データM’Rイメージセンサ−により得られる画像
データは、「オフライン」処理用に第1センサーにより
作られる同期信号と必要とあらば第1イメージセンサ−
により得られる画像データの幾何学的修正と一緒に記録
することができる。
Working on the relative direction principle requires that at least five pairs of rays 'III (after using the coplanar condition) intersect in order for every pair of two rays to intersect. For details on the coplanar condition and the formula that determines it, please refer to the American Photometric Association's ``Manual of Photography''.
grammetry). (4th edition, see pages 55 onwards, edition 411944.1952, 1
96 (1, 1980, the contents of which are used here as a reference document.) Turning now to FIG. 6, the five sections 34 to 34 of the driven image
42 is selected in correlation with the reference point 37 on the main image. Each of sections 34-42 is depicted as a 9x9 array of picture elements. Correlation processing is performed to determine the correlation based on achromatic color school (brightness) between the reference point, that is, the picture element 37 of the main image, and each picture element of the sections *34 to 42 of the subordinate image facing thereto. The achromatic color scale intensity or brightness value is
It is a function of the integral average of the radiant flux of the ground point represented by the picture element. In fact, the driven image sections 34 to 42 are enlarged in the X and Y directions (FIG. 6), so that the X, Y (coordinates) of the driven image sections 34 to 42 and the corresponding reference point, that is, the picture element 37, are Correlation processing is performed between the two. This image data processing technique is sometimes used [neighborhood processing J (neighborhood processing J)
This can be seen in a technology called processinc+). The picture element of the driven image section 34-42 with the highest correlation coefficient is selected next and the pixel arrangement, that is, the X and Y coordinates within the section are recorded. The recorded coordinates of the pixel with the highest correlation coefficient in the driven image section 1 picture 34-42 determine the true coordinates of the slave section 34-42 and therefore the correct coordinates of all the driven images corresponding to the main image. Also determine the coordinates. Figure 5 shows reference points 28 and 30.
The driven image is geometrically oriented with respect to the main image by 2
A spatially registered slave image rBJ is created with respect to the dimensionally distorted main image &rAJ. - The above-described system has a first image data sensor mounted in a common plane with the first image data M'R sensor, that is, in a focal plane coplanar with it.
This can be accomplished by using one relatively large or five or more relatively small two-dimensional fixed array of photosensitive members. The array is connected to a special high-speed image sensor that performs image correlation processing in ``real-time'' (immediate response), or the image data obtained by the attitude data M'R image sensor can be sent to the image sensor for ``off-line'' processing. A synchronization signal generated by one sensor and, if necessary, a first image sensor.
The resulting image data can be recorded together with geometric modifications.

これらの処理装置は技術的には従来のものである。従っ
て、ここではその詳細を述べる必要はない。しかしなが
ら、このような処理装置は費用の許す範囲でミシガン州
アンアーバ(A nn  A rbor)のG eo 
 S DeCtra  C0rpOratiOn  で
開発されて上記会社にて入手可能なA T OM (A
 utoa+aticTopography  Map
per )のソフトウェアを含むこともある。その処理
装置の出力は主画像と相関関係のある5つ又はそれ以上
従動像絵素の座標位置又は、主・従動像の平面の式から
成ることもある。センサープラットホーム12がその航
路に沿って移動すると、古い従動像は新しい主画像にな
る。
These processing devices are conventional in technology. Therefore, there is no need to describe the details here. However, such processing equipment is cost-effective and available at GeoGeo, Ann Arbor, Michigan.
A T OM (A
utoa+aticTopography Map
per ) software. The output of the processing unit may consist of coordinate positions of five or more slave image pixels correlated with the main image, or equations of the planes of the master and slave images. As sensor platform 12 moves along its path, the old slave image becomes the new primary image.

しかし、全尿両会の平面は元の主画像にもどってその跡
をたどることができる。
However, the Zenure Ryōkai plane can be traced back to the original main image.

第7図に示されているように、航空If112の高度変
化、従ってセンサープラットホームのそれは、単に画像
の大きざの変化として、又は主・従動像が同一平面では
ないが平行なままでいるような状態の面における主・従
画像上の相関のある絵素の間の距離として検知される。
As shown in Figure 7, the change in altitude of the aircraft If112, and therefore that of the sensor platform, may occur simply as a change in image size, or as the main and slave images remain parallel but not coplanar. It is detected as the distance between correlated picture elements on the main and sub-images in terms of state.

第8図に示すように、主・従動像が同一平面のままでい
る場合、プラットホーム12の速度のみの変化(即ちイ
メージセンサ−も同様)は、画像平面の異なった線型変
換として表される。センサープラットホームが揺首。
As shown in FIG. 8, if the master and slave images remain in the same plane, a change in only the velocity of the platform 12 (and therefore the image sensor as well) will be represented as a different linear transformation of the image plane. The sensor platform is shaking.

縦揺れ、又は横揺れした場合は、主・従動像は同一平面
あるいは平行ではなくなる。プラットホームやセンサー
のピッチの単純な変化による主・従画像平面の非同−面
状態が第9図に描かれている。
When pitching or rolling, the main and slave images are no longer coplanar or parallel. The non-coplanar state of the master and slave image planes due to simple changes in platform and sensor pitch is depicted in FIG.

上述したシステムを実行する一般的なコンピュータプロ
グラム用の論理フローチャークを第10図〜第13図に
示す。第10図を見ると、プログラムの第1ステツプ4
4は主・従動像データを得るために航路に沿った連続し
た座標を有していることがわかる。画像相関処理は、2
度画像化された地形のある領域で相関して一致する点を
確認するために主・従動像のオーバーラツプしている領
域の区画内で行われる。第2ステツプ46では、前述の
写真測量法の相対方向に関する原理を用いて、主画像面
に対応する従側像面の相対方向を決められる。
Logic flowcharts for a typical computer program implementing the system described above are shown in FIGS. 10-13. Looking at Figure 10, the first step of the program, 4
4 has continuous coordinates along the route in order to obtain main and slave image data. Image correlation processing is 2
This is done within the overlapping region sections of the main and slave images to identify correlated and coincident points in a region of the imaged terrain. In a second step 46, the relative orientation of the minor image plane corresponding to the main image plane is determined using the principles of relative orientation of photogrammetry described above.

該原理は、主・従動像内に位置する最低5つの相関−数
点を必要とする。ステップ44用のナブル−チンは第1
1図と第12図に示されている。ステップ48でのサブ
ルーチンの第1スデツプは、前の主・従動像相関行程つ
まりイメージセンサ−のサンプリング間隔により変わる
公称的プラットホーム速度に基づく概算から得られたの
と同じ補正Gを適用することである。オーバーラツプし
ている領域は、もし比較的大ぎな2次元画像配列が姿勢
センサーとして用いられるか又は5つ乃至それ以上の地
形画像区画が上述のように5つ乃至それ以上の比較的小
ざな2次元領域の配列により得られるなら、ステップ5
0のところで少くとも5つ乃至それ以上の区画に分けら
れる。そして、ステップ52では2次元相関を捜す行程
が名主・従動像データ区画で実行される。相関処理を行
うステップ52は、第12図のステップ54での1つの
2次元画像内の最もコントラストがはっきりしている部
分と点又はそのうちの一方をもつ主画像内のコンピュー
タが選択した一致候補領域をもつことにより実行される
。肉眼検査用の類似等価の手順は、はっきりわかる絵素
のグループを選択することであろう。ステップ56では
、もし主画像の一致した候補領域が従動像で適当な強さ
の相関最高値をもたなければ、別の候補領域が処理され
る。それ以外の場合は、その制御はステップ52に移る
The principle requires a minimum of five correlation points located within the master and slave images. The nub-chin for step 44 is the first
1 and 12. The first step of the subroutine, step 48, is to apply the same correction G obtained from the previous master-follower image correlation process, an approximation based on the nominal platform speed as varied by the image sensor sampling interval. . The overlapping region may occur if a relatively large two-dimensional image array is used as an attitude sensor, or if five or more terrain image segments are used as five or more relatively small two-dimensional image arrays as described above. If obtained by array of regions, step 5
At 0, it is divided into at least five or more sections. Then, in step 52, a process of searching for two-dimensional correlations is performed on the head and slave image data sections. The step 52 of performing correlation processing is based on the computer-selected matching candidate region in the main image having the most contrasting part and/or points in one two-dimensional image in step 54 of FIG. It is executed by having . A similar and equivalent procedure for visual inspection would be to select groups of distinct picture elements. In step 56, if the matched candidate region in the main image does not have a correlation peak of suitable strength in the slave image, another candidate region is processed. Otherwise, control passes to step 52.

ステップ46(第10図)を実行するためのり“ブルー
チンは第13図に示されている。方向パラメータの概算
は最初にステップ58で行われ、次に数学的なステップ
が60で行われる。このステップ60は、相関点の5つ
乃至それ以上の対にだいし、主・従動像が同一平面であ
るという理想的な条件下からのずれた分の2乗を最小に
する行程からなる。決定はステップ62でそのずれが限
界値(第1イメージセンサ−によって得られた画像デー
タに対して要求される幾何学的精度によって決まる)よ
りも小さいかどうかでなされる。もしずれが限界値より
も小さければ、ステップ60が繰返えされる。そうでな
ければ、サブルーチンは終了する。この処理工程から出
てくるものは、連続的な焦点面つまり第1イメージセン
サ−とそのプラットホームの位置、姿勢を描く数式の集
合である。「飛行」している部分にそれ以前に記録され
た画像に対する相対的な意味においであるいは地形図に
対する絶対的な意味においてそれらの数式は第1センサ
ーによって得られる画像データの正確な幾何学的関係を
可能にする。後者の場合は、地上に画像データベースと
して特別に確認できる地域を必要とし、それにはその地
域の地図の座標や高度が入っていて前述の相関2.同一
平面試験方法を用いた地形に対し主又は従動像を方向付
けるのに用いることができる。
The flow routine for carrying out step 46 (FIG. 10) is shown in FIG. Step 60 consists of minimizing the square of the deviation from the ideal condition of coplanar master and slave images for five or more pairs of correlation points. A determination is made in step 62 whether the deviation is less than a limit value (determined by the geometric precision required for the image data obtained by the first image sensor); if the deviation is less than the limit value; If so, step 60 is repeated. Otherwise, the subroutine ends. What emerges from this process is to describe the position and orientation of the continuous focal plane or first image sensor and its platform. A set of mathematical formulas that describe the image data obtained by the first sensor, either in a relative sense to the images previously recorded on the "flying" part, or in an absolute sense to the topographic map. Allows precise geometric relationships. In the latter case, a region that can be specially identified as an image database on the ground is required, and it contains the map coordinates and altitude of the region, and the above-mentioned correlation 2. It can be used to orient the primary or secondary image to the terrain using the coplanar test method.

以上のように本発明を説明してきたが、この技術に熟練
した人々は、その技術に対する本発明の意図、範囲から
逸脱することのないように本発明を述べようとしたため
に選ばれた好適実施例の色々な修正(案)や付加(案)
を創作されるかもしれない。従って、請求された中心的
な事項やそれと同等の全ての事項が公正に本発明の範囲
に及ぶここで考えつく可能な保護が考慮されるべぎであ
る。
Having thus described the invention, it is understood by those skilled in the art that preferred embodiments have been chosen to describe the invention in a manner that does not depart from the spirit and scope of the invention for that art. Various modifications (drafts) and additions (drafts) to examples
may be created. Therefore, consideration should be given to possible protections contemplated herein which fairly bring the central claimed subject matter and all equivalents thereof within the scope of the invention.

【図面の簡単な説明】[Brief explanation of the drawing]

添付図面は本明細書の肝要な部分を構成し、明IIIと
m運付けて読まれるべきものであり、かつ、図中の番号
は色々な図の内の部分を示すために施されている。 第1図は移動中のプラットホーム(典型的な例としては
人工衛星や航空機)により運ばれている地形画像センサ
ーのセンシング帯(スワースバス)の図解的透視図であ
り、地形データに大きな幾何学的歪曲を生じさせる小さ
なプラットホームの摂動を示している。 第2図は走査された地形に対する画像地形センサーと姿
勢センサーとの幾何学的関係を示した図解的透視図であ
る。 第3図は、高度センサにより記録された連続的にオーバ
ーラツプしている主・従動像の図解的透視図である。 第4図は連続した主・従動像の図解的な図であり、画像
の地理上の地点は各々マルや点で示されている。 第5図は相関処理が行われた優の主及び従動像の概略図
であり、一致するマルや点により示されている2つの画
像の間の地理的に一致する点が示されている。 第6図は主画像のアウトラインを示す概略図で豆いに数
学的に重ねたり移動したりした従動像から摘出された絵
素の区画や配列を示している。 第7図は、センサープラットホームの変化が高度だけの
場合の主・従動像の正面図である。 第8図はセンサープラットホームの変イヒが速度だけの
場合の主・従動像の正面図である。 第9図はセンサーホームの変化が勾配だ%すの場合の主
・従動像の正面図である。 第10図〜第13図はシステムを実行するためのコンピ
ュータプログラム用フローチャートである。 □ 図中、10は人工衛星、12は航空機、13Gま航
路、14は観測範囲、16はセンシング帯(スワースノ
くス)、20は第1センサー、22は第2センサー、2
4はレンズ、26は走査域、28.30.374.を基
準点く画素)、34〜42は区画である。 特許出願人 ジオスペクトラ・コーポレーション代理人
弁理士  絹 谷 信 雄 (外1名)Figure 
 5 Figure  4 Flgura  10 Figure、  11
The accompanying drawings constitute an essential part of this specification and should be read in conjunction with Figure III, and the numbers in the figures are used to indicate parts within the various figures. . Figure 1 is a schematic perspective view of the sensing band (swath bus) of a terrain imaging sensor carried by a moving platform (typically a satellite or aircraft), which introduces large geometric distortions into the terrain data. It shows a small platform perturbation that causes . FIG. 2 is a schematic perspective view showing the geometrical relationship between the image terrain sensor and the attitude sensor with respect to the scanned terrain. FIG. 3 is a schematic perspective view of successive overlapping master and slave images recorded by the altitude sensor. FIG. 4 is a diagrammatic illustration of a series of master and slave images, with each geographical point of the image indicated by a circle or dot. FIG. 5 is a schematic diagram of the master and slave images that have been correlated, with geographically coincident points between the two images indicated by matching circles and dots. FIG. 6 is a schematic diagram showing the outline of the main image, showing the divisions and arrangement of picture elements extracted from the subordinate image which are mathematically superimposed and moved. FIG. 7 is a front view of the main and slave images when the sensor platform changes only in altitude. FIG. 8 is a front view of the main and driven images when the sensor platform changes only in speed. FIG. 9 is a front view of the main and driven images when the change in the sensor home is a slope. Figures 10-13 are flowcharts for computer programs for implementing the system. □ In the figure, 10 is an artificial satellite, 12 is an aircraft, 13 is a flight route, 14 is an observation range, 16 is a sensing zone (swarth nox), 20 is a first sensor, 22 is a second sensor, 2
4 is a lens, 26 is a scanning area, 28.30.374. 34 to 42 are sections. Patent applicant: Geospectra Corporation Patent attorney: Nobuo Kinutani (1 other person)Figure
5 Figure 4 Flugura 10 Figure, 11

Claims (1)

【特許請求の範囲】 1、地上からある程度の高度をもつた航路に沿って移動
し、該航路に沿って地球表面の連続的な2次元画像を記
録する空輸されるセンサーの姿勢変化を決定する方法に
おいて、次のステップを有するもの。 A、上記航路に沿った第1番目の点における上記地球表
面の第1番目の2次元画像の画素を表現する第1番目の
データグループを作るステップ。 B、上記第1番目の点から空間的にわずかに離れた上記
航路に沿った第2番目の点における上記地球表面の第2
番目の2次元画像の画素を表現する第2番目のデータグ
ループをつくり、少なくとも上記の2つの画像の一部が
互いにオーバーラップするステップ。 ここで上記の画素は、画像上の夫々の場所によりその強
弱が異なり、オーバーラップ部分の第1番目と第2番目
の画像の一致する画素は上記センサーの姿勢変化に応じ
た量により互いに補正されている。 C、オーバーラップしている部分での第1番目と第2番
目の画像の複数の一致する画素を相関処理させるステッ
プ。 ここで相関処理された画素の相対的な位置は上記センサ
ーの姿勢変化を表わしている。 2、上記ステップCが以下のステップを含む特許請求の
範囲第1項に記載の方法。 上記の2つの画像の一方の内に少なくとも3個の空間的
に離れたN×M配列の画素を選ぶステップ。 夫々上記N×M配列に結び付けられるもう一方の上記画
像内に少なくとも3個の空間的に離れた基準絵素(画素
)を選ぶステップ。 3個の基準画素を結び付けられたN×M配列内の画素の
各々と比較するステップ。 3、上記ステップCが以下のステップを含む特許請求の
範囲第2項に記載の方法。 基準画素と結ばれる最も高い相関をもつ上記N×M配列
内の各々の画素の縦・横の座標を記録するステップ。 結ばれた基準画素と最も高い相関をもつ上記N×M配列
内の画素を通る平面を決定するステップ。 4、上記第1番目の画像の平面に対応する平面の姿勢を
決定するステップを含む特許請求の範囲第3項に記載の
方法。 5、上記ステップCが以下のステップを含む特許請求の
範囲第1項に記載の方法。 第1番目の画像内の複数の空間的に離れた画素を選ぶス
テップ。 上記の第2番目の画像内の上記の選ばれた画素の位置を
予示するステップ。 6、上記の選ばれた画素の位置を予示するステップが、
それ以前に作られた上記地球表面の画像内の選ばれた画
素の位置を決定することにより実行される特許請求の範
囲第5項に記載の方法。 7、上記センサーの画像平面が平行となるように、上記
航路に沿つて移動し、上記空輸センサーに対し固定され
た第2センサーを取付けるステップを含む特許請求の範
囲第1項に記載の方法。 8、上記ステップA、Bが2次元配列をもつ感光性物上
に上記地球表面の画像の焦点を合せることにより実行さ
れるところの特許請求の範囲第1項に記載の方法。 9、上記の第1番目と第2番目の画像を登録するステッ
プを含む特許請求の範囲第1項記載の方法。 10、幾何学的な補正を上記の第2番目のデータグルー
プに対し実行するステップを含む特許請求の範囲第1項
に記載の方法。
[Claims] 1. Determine the attitude change of an airborne sensor that moves along a route at a certain altitude above the ground and records continuous two-dimensional images of the earth's surface along the route. A method having the following steps: A. creating a first data group representing pixels of a first two-dimensional image of the Earth's surface at a first point along the route; B. a second point on the Earth's surface at a second point along the route slightly spatially distant from the first point;
creating a second data group representing pixels of the second two-dimensional image, at least a portion of the two images overlapping each other; Here, the above-mentioned pixels have different strengths depending on their respective locations on the image, and the matching pixels of the first and second images in the overlapping part are mutually corrected by an amount according to the attitude change of the above-mentioned sensor. ing. C. Correlating a plurality of matching pixels of the first and second images in the overlapping portion. The relative positions of the pixels subjected to the correlation processing here represent changes in the attitude of the sensor. 2. The method according to claim 1, wherein step C comprises the following steps. Selecting at least three spatially separated N×M array of pixels within one of the two images. selecting at least three spatially separated reference picture elements (pixels) in another said image, each associated with said N×M array; Comparing the three reference pixels to each of the pixels in the associated N×M array. 3. The method according to claim 2, wherein step C comprises the following steps. recording the vertical and horizontal coordinates of each pixel in the N×M array that has the highest correlation with the reference pixel; Determining a plane passing through the pixels in the N×M array that has the highest correlation with the connected reference pixels. 4. The method of claim 3, further comprising the step of determining the pose of a plane corresponding to the plane of the first image. 5. The method of claim 1, wherein step C comprises the following steps: Selecting a plurality of spatially separated pixels within the first image. Foreshadowing the location of said selected pixel in said second image. 6. The step of foreshadowing the position of the selected pixel,
6. The method of claim 5, wherein the method is carried out by determining the location of selected pixels within a previously generated image of the Earth's surface. 7. The method of claim 1, including the step of installing a second sensor moving along the route and fixed relative to the airborne sensor such that the image planes of the sensors are parallel. 8. The method of claim 1, wherein steps A and B are performed by focusing the image of the Earth's surface onto a photosensitive object having a two-dimensional array. 9. The method according to claim 1, further comprising the step of registering the first and second images. 10. The method of claim 1, comprising the step of performing a geometric correction on said second data group.
JP62060233A 1986-03-17 1987-03-17 Attitude decision system of moving image sensor platform, etc. Pending JPS62284214A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US06/840,332 US4802757A (en) 1986-03-17 1986-03-17 System for determining the attitude of a moving imaging sensor platform or the like
US840332 1986-03-17

Publications (1)

Publication Number Publication Date
JPS62284214A true JPS62284214A (en) 1987-12-10

Family

ID=25282065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62060233A Pending JPS62284214A (en) 1986-03-17 1987-03-17 Attitude decision system of moving image sensor platform, etc.

Country Status (4)

Country Link
US (1) US4802757A (en)
JP (1) JPS62284214A (en)
DE (1) DE3708683C2 (en)
FR (1) FR2595817B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110314A (en) * 1988-01-26 1990-04-23 Deutsche Forsch & Vers Luft Raumfahrt Ev Remote investigating method and device for surface of ground
JPH0554128A (en) * 1991-02-07 1993-03-05 Hughes Aircraft Co Formation of automatic video image database using photograph ic measurement
JPH0594514A (en) * 1991-10-01 1993-04-16 Mitsubishi Electric Corp Optical image pickup device and image processing method for the same
JPH07294279A (en) * 1994-04-21 1995-11-10 Nec Corp Image pickup position detector
JPH1054719A (en) * 1996-08-09 1998-02-24 A Tec:Kk Aerial survey photographic method and photographic point mark used therefor
JP2000515982A (en) * 1997-05-12 2000-11-28 サントル、ナショナル、デチュード、スパシアル Image capture method using oversampled push-bloom scanning
JP2011523033A (en) * 2008-04-11 2011-08-04 ニアマップ・ピーティーワイ・リミテッド System and method for capturing large area images in detail including vertically connected cameras and / or distance measuring features
JP2013512621A (en) * 2009-11-24 2013-04-11 マイクロソフト コーポレーション Large format digital camera with multiple optical systems and detector array
JP2013512620A (en) * 2009-11-24 2013-04-11 マイクロソフト コーポレーション Multi-resolution digital large format camera with multiple detector arrays
US9215357B2 (en) 2012-11-13 2015-12-15 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
JP2018513377A (en) * 2015-04-14 2018-05-24 ヴィート エヌブイ System and method for processing ground surface images
US10358235B2 (en) 2008-04-11 2019-07-23 Nearmap Australia Pty Ltd Method and system for creating a photomap using a dual-resolution camera system
CN111536982A (en) * 2020-05-06 2020-08-14 北京工业大学 Method for generating asteroid detector optical navigation image under poor illumination condition

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
NL8900867A (en) * 1989-04-07 1990-11-01 Theo Jogchum Poelstra A SYSTEM OF "IMAGETRY" FOR THE OBTAINMENT OF DIGITAL, 3D TOPOGRAPHIC INFORMATION.
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
US5257209A (en) * 1990-06-26 1993-10-26 Texas Instruments Incorporated Optical flow computation for moving sensors
US5116118A (en) * 1990-06-28 1992-05-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Geometric fiedlity of imaging systems employing sensor arrays
US6005581A (en) * 1994-01-18 1999-12-21 Honeywell, Inc. Terrain elevation path manager
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
FR2752619B1 (en) 1996-08-23 1998-11-13 Thomson Csf AIR-TO-GROUND RECOGNITION METHOD AND DEVICE FOR OPTRONIC EQUIPMENT
DE19735175A1 (en) * 1997-08-13 1999-03-04 Gta Sensorik Gmbh Digital detection of spatial scenes or sets for determining object co-ordinates
DE19902681A1 (en) * 1999-01-23 2000-07-27 Lfk Gmbh Procedure to relocate objects in images, replacing image values of overlap areas by gray values
US8636648B2 (en) 1999-03-01 2014-01-28 West View Research, Llc Endoscopic smart probe
US7914442B1 (en) 1999-03-01 2011-03-29 Gazdzinski Robert F Endoscopic smart probe and method
US10973397B2 (en) 1999-03-01 2021-04-13 West View Research, Llc Computerized information collection and processing apparatus
US8068897B1 (en) 1999-03-01 2011-11-29 Gazdzinski Robert F Endoscopic smart probe and method
DE19962491A1 (en) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Method for the optical monitoring of the surroundings of a moving vehicle
DE10017415A1 (en) * 2000-04-07 2001-10-11 Z I Imaging Gmbh Aerial photo camera, has separate objectives for line and area CCDs calibrates gyroscope drift
GB0019399D0 (en) * 2000-08-07 2001-08-08 Bae Systems Plc Height measurement enhancemsnt
US7046839B1 (en) 2000-09-19 2006-05-16 Spg Hydro International Inc. Techniques for photogrammetric systems
KR100488685B1 (en) * 2002-08-22 2005-05-11 한국과학기술원 Image Processing Method for Automatic Image Registration and Correction
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
FR2882137B1 (en) * 2005-02-15 2007-04-20 Thales Sa DEVICE FOR ACQUIRING A DIGITAL IMAGE BY SCANNING WITH PASSIVE STABILIZATION
US7933001B2 (en) * 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
JP5150307B2 (en) * 2008-03-03 2013-02-20 株式会社トプコン Geographic data collection device
JP5150310B2 (en) * 2008-03-04 2013-02-20 株式会社トプコン Geographic data collection device
US8265817B2 (en) * 2008-07-10 2012-09-11 Lockheed Martin Corporation Inertial measurement with an imaging sensor and a digitized map
US8384524B2 (en) * 2008-11-26 2013-02-26 Honeywell International Inc. Passive surface acoustic wave sensing system
US8212714B1 (en) * 2009-08-31 2012-07-03 Sandia Corporation Using doppler radar images to estimate aircraft navigational heading error
JP5698480B2 (en) 2010-09-02 2015-04-08 株式会社トプコン Measuring method and measuring device
US8965598B2 (en) 2010-09-30 2015-02-24 Empire Technology Development Llc Automatic flight control for UAV based solid modeling
US9476970B1 (en) * 2012-03-19 2016-10-25 Google Inc. Camera based localization
US9716847B1 (en) 2012-09-25 2017-07-25 Google Inc. Image capture device with angled image sensor
CN109891351B (en) * 2016-11-15 2022-05-06 深圳市大疆创新科技有限公司 Method and system for image-based object detection and corresponding movement adjustment manipulation
WO2018126067A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Vector data encoding of high definition map data for autonomous vehicles
CN108885101B (en) * 2017-04-07 2021-03-19 深圳市大疆创新科技有限公司 Control method, processing device, processor, aircraft and somatosensory system
CN109405803A (en) * 2018-10-23 2019-03-01 贵州省第三测绘院 The method and apparatus that Airborne Data Classification obtains
CN114184172A (en) * 2021-10-22 2022-03-15 中石化石油工程技术服务有限公司 Low-altitude aerial survey image control point layout method
CN115951718B (en) * 2023-03-14 2023-05-09 风脉能源(武汉)股份有限公司 Unmanned aerial vehicle-based fan blade inspection local dynamic path planning method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5924365A (en) * 1982-07-30 1984-02-08 Hitachi Ltd Picture processing method
JPS6084610A (en) * 1983-10-17 1985-05-14 Hitachi Ltd Guiding device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DD113809A1 (en) * 1974-05-13 1975-06-20
US4313678A (en) * 1979-09-24 1982-02-02 The United States Of America As Represented By The Secretary Of The Interior Automated satellite mapping system (MAPSAT)
DE3043577C2 (en) * 1980-11-19 1983-11-17 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Photogrammetric device for aircraft and spacecraft for digital terrain display
DE3219032C3 (en) * 1982-05-19 1988-07-07 Messerschmitt-Bölkow-Blohm GmbH, 8000 München STEREOPHOTOGRAMMETRIC RECORDING AND EVALUATION PROCEDURE
US4635203A (en) * 1984-04-06 1987-01-06 Honeywell Inc. Passive range measurement apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5924365A (en) * 1982-07-30 1984-02-08 Hitachi Ltd Picture processing method
JPS6084610A (en) * 1983-10-17 1985-05-14 Hitachi Ltd Guiding device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110314A (en) * 1988-01-26 1990-04-23 Deutsche Forsch & Vers Luft Raumfahrt Ev Remote investigating method and device for surface of ground
JPH0554128A (en) * 1991-02-07 1993-03-05 Hughes Aircraft Co Formation of automatic video image database using photograph ic measurement
JPH0594514A (en) * 1991-10-01 1993-04-16 Mitsubishi Electric Corp Optical image pickup device and image processing method for the same
JPH07294279A (en) * 1994-04-21 1995-11-10 Nec Corp Image pickup position detector
JPH1054719A (en) * 1996-08-09 1998-02-24 A Tec:Kk Aerial survey photographic method and photographic point mark used therefor
JP2000515982A (en) * 1997-05-12 2000-11-28 サントル、ナショナル、デチュード、スパシアル Image capture method using oversampled push-bloom scanning
US10358234B2 (en) 2008-04-11 2019-07-23 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US10358235B2 (en) 2008-04-11 2019-07-23 Nearmap Australia Pty Ltd Method and system for creating a photomap using a dual-resolution camera system
JP2011523033A (en) * 2008-04-11 2011-08-04 ニアマップ・ピーティーワイ・リミテッド System and method for capturing large area images in detail including vertically connected cameras and / or distance measuring features
JP2013512621A (en) * 2009-11-24 2013-04-11 マイクロソフト コーポレーション Large format digital camera with multiple optical systems and detector array
JP2013512620A (en) * 2009-11-24 2013-04-11 マイクロソフト コーポレーション Multi-resolution digital large format camera with multiple detector arrays
US9215357B2 (en) 2012-11-13 2015-12-15 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
JP2018513377A (en) * 2015-04-14 2018-05-24 ヴィート エヌブイ System and method for processing ground surface images
US10634494B2 (en) 2015-04-14 2020-04-28 Vito Nv System and method for processing images of a ground surface
CN111536982A (en) * 2020-05-06 2020-08-14 北京工业大学 Method for generating asteroid detector optical navigation image under poor illumination condition
CN111536982B (en) * 2020-05-06 2023-09-19 北京工业大学 Optical navigation image generation method of asteroid detector under poor illumination condition

Also Published As

Publication number Publication date
US4802757A (en) 1989-02-07
FR2595817A1 (en) 1987-09-18
DE3708683C2 (en) 2000-04-06
FR2595817B1 (en) 1991-04-12
DE3708683A1 (en) 1987-10-01

Similar Documents

Publication Publication Date Title
JPS62284214A (en) Attitude decision system of moving image sensor platform, etc.
US5104217A (en) System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
Muller et al. A program for direct georeferencing of airborne and spaceborne line scanner images
US4347511A (en) Precision navigation apparatus
US6473119B1 (en) Photogrammetic camera
US5596494A (en) Method and apparatus for acquiring digital maps
KR101679456B1 (en) Systems and methods of capturing large area images in detail including cascaded cameras andor calibration features
Zhou et al. Accuracy evaluation of ground points from IKONOS high-resolution satellite imagery
CN110595476B (en) Unmanned aerial vehicle landing navigation method and device based on GPS and image visual fusion
US4313678A (en) Automated satellite mapping system (MAPSAT)
US3191170A (en) Contour mapping system
US4792904A (en) Computerized flight inspection system
EP0737845B1 (en) Integrated photographing apparatus mounted on aircraft
CN106127697A (en) Unmanned aerial vehicle onboard imaging EO-1 hyperion geometric correction method
Welch et al. Cartographic potential of a spacecraft line-array camera system- Stereosat
Lee et al. Georegistration of airborne hyperspectral image data
GB2041689A (en) Vehicle movement sensing
CA2613252A1 (en) Method and apparatus for determining a location associated with an image
US5116118A (en) Geometric fiedlity of imaging systems employing sensor arrays
Wang et al. A method for generating true digital orthophoto map of UAV platform push-broom hyperspectral scanners assisted by lidar
Gibson Photogrammetric calibration of a digital electro-optical stereo imaging system
Sievers et al. Digital satellite image mapping of Antarctica
Li et al. Experimental study on ground point determination from high-resolution airborne and satellite imagery
KR20080033287A (en) Method and apparatus for determining a location associated with an image
Welch Impact of geometry on height measurements from MLA digital image data