RU2641630C2 - Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor - Google Patents

Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor Download PDF

Info

Publication number
RU2641630C2
RU2641630C2 RU2016126236A RU2016126236A RU2641630C2 RU 2641630 C2 RU2641630 C2 RU 2641630C2 RU 2016126236 A RU2016126236 A RU 2016126236A RU 2016126236 A RU2016126236 A RU 2016126236A RU 2641630 C2 RU2641630 C2 RU 2641630C2
Authority
RU
Russia
Prior art keywords
image
frames
reference points
sensor
frame
Prior art date
Application number
RU2016126236A
Other languages
Russian (ru)
Inventor
Олег Юрьевич Казанцев
Сергей Вячеславович Кудрявцев
Александр Анатольевич Николенко
Павел Владимирович Страхов
Борис Михайлович Шурыгин
Глеб Артурович Щербина
Original Assignee
федеральное государственное атономное образовательное учреждение высшего образования "Московский физико-технический институт (государственный университет)"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by федеральное государственное атономное образовательное учреждение высшего образования "Московский физико-технический институт (государственный университет)" filed Critical федеральное государственное атономное образовательное учреждение высшего образования "Московский физико-технический институт (государственный университет)"
Priority to RU2016126236A priority Critical patent/RU2641630C2/en
Application granted granted Critical
Publication of RU2641630C2 publication Critical patent/RU2641630C2/en

Links

Images

Abstract

FIELD: physics.SUBSTANCE: method comprises obtaining a sequence of frames of the slot-type scanning sensor and obtaining a reference image of the underlying surface by the frame sensor. The data received by the slot-type scanning sensor is recorded on the memory device. The image formed from these data by their spatial scanning in the survey direction is compared with the georeferenced reference image and pairs of reference points corresponding to the same objects of the underlying surface are found.EFFECT: eliminating geometric distortions of remote sensing images received by a slot-type sensor, while simultaneously bringing them to a universal coordinate grid.6 cl, 3 dwg

Description

Изобретение относится к способам получения изображений щелевыми сканирующими устройствами при дистанционном зондировании земли, например при авиасъемке. Примером щелевого сканирующего сенсора является гиперспектрометр типа «pushbroom».The invention relates to methods for acquiring images with slit scanning devices for remote sensing of the earth, for example, during aerial photography. An example of a slit scanning sensor is a pushbroom hyperspectrometer.

В связи с непредсказуемым движением платформы-носителя под воздействием внешних факторов, таких как ветер, для получения неискаженного изображения подстилающей поверхности необходима геометрическая коррекция полученных с сенсора данных.Due to the unpredictable movement of the carrier platform under the influence of external factors, such as wind, a geometric correction of the data obtained from the sensor is necessary to obtain an undistorted image of the underlying surface.

Коррекция движения платформы-носителя может обеспечиваться как физическими методами с помощью так называемых гиростабилизированных платформ (гироплатформ), компенсирующих изменение ориентации съемочных устройств в ходе съемки, так и путем математического преобразования координат пикселей результирующего снимка. Недостатком первого подхода является рост стоимости и массогабаритных параметров съемочной аппаратуры, кроме того, в ряде случаев он не обеспечивает полной компенсации нелинейности движения платформы-носителя.Correction of the movement of the carrier platform can be achieved both by physical methods using the so-called gyro-stabilized platforms (gyroplatforms) that compensate for the change in the orientation of the shooting devices during shooting, and by mathematical transformation of the pixel coordinates of the resulting image. The disadvantage of the first approach is the increase in the cost and weight and size parameters of shooting equipment, in addition, in some cases it does not provide full compensation for the non-linearity of the movement of the carrier platform.

Из уровня техники известен способ устранения искажений изображений дистанционного зондирования, связанных со сложной траекторией движения носителя сенсора изображения (Патент РФ на изобретение №2411449, опубликовано 10.02.2011 г.), включающий получение последовательности снимков кадрового сенсора и сканирующего сенсора и их запись на запоминающее устройство, сопоставление последовательных кадров, полученных кадровым сенсором, между собой и построение траектории летательного аппарата. Устройство, работающее по этому способу, включает в себя сканирующий сенсор и кадровый сенсор, причем съемка этими двумя устройствами синхронизована во времени. Полученные кадровым сенсором снимки могут быть сопоставлены между собой с использованием корреляционного метода для последующего восстановления смещения кадров относительно друг друга и восстановления траектории движения, согласно которой происходит преобразование координат снимков сканирующего сенсора и формирование неискаженного изображения.The prior art method for eliminating distortions of remote sensing images associated with a complex path of the image sensor carrier (RF Patent for the invention No. 2411449, published 02.10.2011), including obtaining a sequence of images of a frame sensor and a scanning sensor and recording them on a storage device , the comparison of successive frames received by the frame sensor with each other and the construction of the trajectory of the aircraft. A device operating by this method includes a scanning sensor and a frame sensor, and shooting by these two devices is synchronized in time. The images obtained by the frame sensor can be compared with each other using the correlation method for the subsequent restoration of the frame displacement relative to each other and the restoration of the motion path, according to which the coordinates of the images of the scanning sensor are transformed and an undistorted image is formed.

Недостатками известного способа являются отсутствие получения проекции снимка на географическую сетку, необходимость точной синхронизации двух съемочных устройств во времени и пространственной ориентации, а также невысокая устойчивость к высокочастотным искажениям.The disadvantages of this method are the lack of projection of the image on a geographic grid, the need for accurate synchronization of two shooting devices in time and spatial orientation, as well as low resistance to high-frequency distortion.

Задачей настоящего изобретения является создание системы устранения геометрических искажений изображений дистанционного зондирования, полученных щелевым сенсором, с одновременным их приведением к универсальной координатной сетке, позволяющей использовать их в ГИС-приложениях.The objective of the present invention is to provide a system for eliminating geometric distortions of remote sensing images obtained by a slit sensor, while bringing them to a universal coordinate grid that allows them to be used in GIS applications.

Техническим результатом изобретения является повышение точности геометрической коррекции данных зондирования земной поверхности сканирующими съемочными системами, формирование географически привязанного изображения на основе данных сканирующей съемочной системы.The technical result of the invention is to increase the accuracy of the geometric correction of the sounding data of the earth's surface by scanning survey systems, the formation of a geographically linked image based on the data of the scanning survey system.

Поставленная задача решается, а указанный результат достигается тем, что в способе получения изображения дистанционного зондирования, включающем в себя получение снимка кадрового сенсора и последовательности снимков сканирующего сенсора, снимок кадрового сенсора получают независимо и географически привязывают, производят поиск точек с ярко выраженными особенностями, для которых можно установить их точное соответствие одним и тем же объектам подстилающей поверхности (опорных точек) на обоих изображениях, для кадров сканирующего сенсора, содержащих опорные точки, определяют поперечный относительно направления полета сдвиг, затем для каждого из этих кадров находят угол поворота относительно соответствующей ему опорной точки путем минимизации отличия рассчитанного движения платформы-носителя от равномерного, и, наконец, для кадров, не содержащих опорных точек, смещение и поворот интерполируют. В качестве интерполяционного метода может быть использована линейная интерполяция. В качестве кадрового сенсора может быть применена фотокамера высокого пространственного разрешения, а в качестве сканирующего сенсора возможно использование гиперспектрометра типа «pushbroom».The problem is solved, and this result is achieved by the fact that in the method of obtaining a remote sensing image, which includes obtaining a picture of a frame sensor and a sequence of pictures of a scanning sensor, a picture of the frame sensor is obtained independently and geographically tied, search for points with pronounced features for which it is possible to establish their exact correspondence to the same objects of the underlying surface (reference points) in both images, for frames of scanning sen the ora containing the reference points determine the shift transverse relative to the direction of flight, then for each of these frames the rotation angle is found relative to the corresponding reference point by minimizing the difference between the calculated motion of the carrier platform from uniform, and finally, for frames that do not contain reference points, offset and rotation interpolate. As an interpolation method, linear interpolation can be used. A high-resolution camera can be used as a frame sensor, and a pushbroom hyperspectrometer can be used as a scanning sensor.

Предлагаемый способ поясняется схемами и фотографиями, представленными на чертежах.The proposed method is illustrated by diagrams and photographs presented in the drawings.

Фиг. 2а - схема построения преобразования координат в предлагаемом способе, гдеFIG. 2a is a diagram of the construction of a coordinate transformation in the proposed method, where

1 - опорная точка кадра n1, содержащего опорную точку, до и после преобразования координат;1 - reference point of the frame n 1 containing the reference point, before and after the coordinate transformation;

2 - опорная точка кадра n2, содержащего опорную точку, до и после преобразования координат;2 - reference point of the frame n 2 containing the reference point, before and after the coordinate transformation;

3 - опорная точка кадра n3, содержащего опорную точку, до и после преобразования координат;3 - reference point of the frame n 3 containing the reference point, before and after the coordinate transformation;

4 - середина отрезка, соответствующего кадру n1, содержащего опорную точку, до и после преобразования координат;4 - the middle of the segment corresponding to the frame n 1 containing the reference point, before and after the coordinate transformation;

5 - середина отрезка, соответствующего кадру m12, не содержащего опорную точку. Ее положение интерполируется после окончания нахождения положений кадров, содержащих опорные точки;5 - the middle of the segment corresponding to the frame m 12 that does not contain a reference point. Its position is interpolated after the end of finding the positions of frames containing reference points;

6 - середина отрезка, соответствующего кадру n2, содержащего опорную точку, до и после преобразования координат;6 - the middle of the segment corresponding to frame n 2 containing the reference point, before and after the coordinate transformation;

7 - середина отрезка, соответствующего кадру m23, не содержащего опорную точку. Ее положение интерполируется после окончания нахождения положений кадров, содержащих опорные точки;7 - the middle of the segment corresponding to the frame m 23 that does not contain a reference point. Its position is interpolated after the end of finding the positions of frames containing reference points;

8 - середина отрезка, соответствующего кадру n3, содержащего опорную точку, до и после преобразования координат;8 - the middle of the segment corresponding to frame n 3 containing the reference point, before and after the coordinate transformation;

Фиг. 2b - схема, иллюстрирующая трансформацию положения кадров относительно опорных точек при проведении геометрической коррекции снимка предложенным способом, гдеFIG. 2b is a diagram illustrating the transformation of the position of frames relative to reference points during geometric correction of the image of the proposed method, where

А, В - концы отрезка, соответствующего проекции первого кадра, содержащего опорную точку, на строку в развертке снимка, полученного сканирующим сенсором;A, B - the ends of the segment corresponding to the projection of the first frame containing the reference point, on a line in the scan of the image obtained by the scanning sensor;

С - опорная точка на первом из кадров, содержащих опорную точку, в развертке снимка, полученного сканирующим сенсором;C is the reference point on the first of the frames containing the reference point in the scan of the image obtained by the scanning sensor;

C1 - опорная точка на втором из кадров, содержащих опорную точку, в развертке снимка, полученного сканирующим сенсором;C 1 - reference point on the second of the frames containing the reference point, in the scan of the image obtained by the scanning sensor;

D, Е - концы отрезка, соответствующего проекции первого кадра, содержащего опорную точку, на референсный снимок;D, E - the ends of the segment corresponding to the projection of the first frame containing the reference point on the reference image;

F - опорная точка на референсном снимке, соответствующая опорной точке на первом из кадров, содержащих опорную точку;F is the reference point in the reference image corresponding to the reference point in the first of the frames containing the reference point;

F1 - опорная точка на референсном снимке, соответствующая опорной точке на втором из кадров, содержащих опорную точку;F 1 is the reference point in the reference image corresponding to the reference point in the second of the frames containing the reference point;

Фиг. 2с - схема, иллюстрирующая нахождение углов поворота проекций кадров в системе координат референсного снимка, для двух кадров, содержащих опорные точки, гдеFIG. 2c is a diagram illustrating the determination of the rotation angles of the projections of frames in the coordinate system of the reference image for two frames containing reference points, where

A1, B1 - концы отрезка, соответствующего проекции первого кадра, содержащего опорную точку;A 1 , B 1 - the ends of the segment corresponding to the projection of the first frame containing the reference point;

М1, N1 - концы отрезка, соответствующего проекции второго кадра, содержащего опорную точку;M 1, N 1 - the ends of the segment corresponding to the projection of the second frame containing the reference point;

А - опорная точка, принадлежащая первому кадру;A is the reference point belonging to the first frame;

N - опорная точка, принадлежащая второму кадру;N is the reference point belonging to the second frame;

В - основание перпендикуляра, опущенного из точки N на отрезок A1B1;In - the base of the perpendicular dropped from point N to the segment A 1 B 1 ;

М - основание перпендикуляра, опущенного из точки А на отрезок M1N1;M is the base of the perpendicular dropped from point A to the segment M 1 N 1 ;

α, β - вспомогательные углы, рассчитываемые из ширины отрезков и расстояния между опорными точками и необходимые для построения первого приближения угла поворота проекций кадров сканирующего сенсора в системе координат референсного снимка.α, β are auxiliary angles calculated from the width of the segments and the distance between the reference points and necessary to construct the first approximation of the angle of rotation of the projections of the frames of the scanning sensor in the coordinate system of the reference image.

Фиг. 2d - схема, иллюстрирующая оптимизацию взаимного положения проекций кадров сканирующего сенсора на систему координат референсного снимка, гдеFIG. 2d is a diagram illustrating the optimization of the relative position of the projections of the frames of the scanning sensor on the coordinate system of the reference image, where

α1, α2, α3, α4, α5, α6, α7, α8 - внутренние углы четырехугольников, образованных найденными проекциями кадров на референсный снимок и линиями, попарно соединяющими концы отрезков, соответствующих этим кадрам.α 1 , α 2 , α 3 , α 4 , α 5 , α 6 , α 7 , α 8 are the internal angles of the quadrangles formed by the found projections of the frames on the reference image and the lines pairwise connecting the ends of the segments corresponding to these frames.

Фиг. 3 - слева - изображение, полученное сканирующим гиперспектральным сенсором, после коррекции предлагаемым способом и сопоставленное с референсным снимком кадрового сенсора. Изображения получены в мае 2014 года в окрестности города Плавск Тульской области.FIG. 3 - on the left - the image obtained by the scanning hyperspectral sensor, after correction by the proposed method and compared with the reference image of the frame sensor. Images were obtained in May 2014 in the vicinity of the city of Plavsk, Tula region.

Для выполнения геометрической коррекции используется географически привязанный снимок кадрового сенсора высокого пространственного разрешения, в качестве которого может выступать снимок панхроматической фотокамерой космического базирования, для которой задача географической привязки снимка существенно проще таковой для рассматриваемого сканирующего сенсора со сложной траекторией платформы-носителя. В качестве сканирующего сенсора может выступать гиперспектрометр типа «pushbroom», установленный на авианоситель. Для получения геометрически откорректированного и географически привязанного изображения необходимо вычислить координаты каждого пикселя привязываемого снимка в координатной системе референсного снимка, который считается неискаженным. В предлагаемом способе это преобразование координат конструируется на основе информации о процессе съемки и опорных точек, которые могут задаваться оператором-обработчиком данных.To perform geometric correction, a geographically linked image of a high spatial resolution frame sensor is used, which can be a space-based panchromatic camera, for which the task of geo-referencing the image is much simpler than that for the scanning sensor under consideration with a complex path of the carrier platform. A pushbroom hyperspectrometer mounted on an aircraft carrier can act as a scanning sensor. To obtain a geometrically corrected and geographically referenced image, it is necessary to calculate the coordinates of each pixel of the attached image in the coordinate system of the reference image, which is considered undistorted. In the proposed method, this coordinate transformation is constructed based on information about the shooting process and reference points that can be set by the data processor operator.

Для упрощения алгоритма используются следующие допущения относительно процесса съемки и исходных данных:To simplify the algorithm, the following assumptions are used regarding the shooting process and the source data:

1. Рельеф не вносит существенных искажений в снимок.1. The relief does not introduce significant distortion into the picture.

2. Территория не содержит резких перепадов высот, а высота полета платформы изменяется плавно.2. The territory does not contain sharp elevation changes, and the flight altitude of the platform changes smoothly.

3. Углы крена и тангажа не вносят существенных искажений.3. Roll and pitch angles do not introduce significant distortion.

4. Съемка каждого кадра происходит единовременно для всех пикселей.4. Each frame is shot at a time for all pixels.

5. Опорные точки заданы с наибольшей точностью, которую позволяет выполнить качество изображений.5. Anchor points are set with the greatest accuracy that allows you to perform image quality.

На основе сделанных допущений каждый кадр сканирующего сенсора проецируется в отрезок прямой линии на референсном снимке. Каждый отрезок задается 4 численными параметрами (xr, yr, l, a): двумя координатами центра отрезка в координатной системе референсного снимка (хr, уr), длиной отрезка l и углом поворота относительно нулевого положения а (в качестве нулевого положения принимается горизонтальный отрезок, вектор скорости платформы направлен вверх).Based on the assumptions made, each frame of the scanning sensor is projected into a straight line segment in the reference image. Each segment is defined by 4 numerical parameters (x r , y r , l, a): two coordinates of the center of the segment in the coordinate system of the reference image (x r , y r ), the length of the segment l and the rotation angle relative to the zero position a (as the zero position a horizontal segment is taken, the platform velocity vector is directed upwards).

Каждая пара опорных точек задается их координатами на референсном снимке (хr, уr) и привязываемом снимке (xt, yt). Координата yt является порядковым номером полученного сканирующим сенсором кадра и интерпретируется как целое число. Отношение расстояния от левого края строки, соответствующей кадру, до опорной точки на привязываемом снимке к длине этой строки обозначим как ха (значение 0 соответствует точке на левом крае снимка, 1 - на правом крае). Каждая опорная точка предоставляет дополнительные данные о местоположении отрезка, соответствующего строке yt: точка этого отрезка, которая отсекает его ха-ю долю, фиксируется в положении (хr, уr). Для такого отрезка остаются неизвестными только два параметра (l, а), а параметры {хr, уr) могут быть вычислены на их основе. При наличии двух пар опорных точек с одинаковым yt на их основе можно сразу вычислить точное положение соответствующего отрезка. Указание более двух пар опорных точек с одинаковым yt не допускается. Обозначим множество номеров всех кадров, содержащих опорные точки, за N={ni}, где ni - порядковый номер кадра, содержащего i-ю опорную точку по ходу съемки. Примем также множество номеров кадров, не содержащих опорные точки, за {A/N}={mi,i+i}, где А - множество всех номеров кадров, a i денотирует более ранний по ходу съемки по сравнению с рассматриваемым кадр, содержащий опорную точку (если такого кадра нет, i=0). Нумерацию кадров, не содержащих опорные точки, в подпоследовательности {mi,i+1} для фиксированного i будем вести с помощью верхних индексов. Так, номер первого из кадров, содержащих опорную точку, в принятых обозначениях будет записан как n1; кадр, не содержащий опорной точки и находящийся между вторым и третьим кадрами, содержащими опорные точки, будет записан как m23, при рассмотрении нескольких таких кадров нотация может выглядеть как

Figure 00000001
;
Figure 00000002
для 17 и 42 кадра из подпоследовательности номеров, лежащих между вторым и третьим кадрами, содержащими опорные точки соответственно.Each pair of control points is set by their coordinates on the reference image (x r , y r ) and the attached image (x t , y t ). The y t coordinate is the serial number of the frame received by the scanning sensor and is interpreted as an integer. The ratio of the distance from the left edge of the line corresponding to the frame to the reference point on the attached image to the length of this line is denoted by x a (the value 0 corresponds to the point on the left edge of the image, 1 - on the right edge). Each datum provides additional information about the location of the segment corresponding to line y t: point of this segment, which cuts off its x a stake, is fixed at a position (x r, y r). For such a segment, only two parameters (l, a) remain unknown, and the parameters (x r , y r ) can be calculated on their basis. If there are two pairs of control points with the same y t, based on them, you can immediately calculate the exact position of the corresponding segment. Specifying more than two pairs of control points with the same y t is not allowed. We denote the set of numbers of all frames containing control points by N = {n i }, where n i is the sequence number of the frame containing the ith control point during shooting. We also take the set of frame numbers that do not contain reference points for {A / N} = {m i, i + i }, where A is the set of all frame numbers, ai denotes an earlier frame during the shooting compared to the frame containing the reference point (if there is no such frame, i = 0). The numbering of frames that do not contain reference points in the subsequence {m i, i + 1 } for fixed i will be carried out using superscripts. So, the number of the first of the frames containing the reference point in the accepted notation will be written as n 1 ; a frame that does not contain a reference point and is located between the second and third frames containing reference points will be written as m 23 ; when considering several such frames, the notation may look like
Figure 00000001
;
Figure 00000002
for frames 17 and 42 from a subsequence of numbers lying between the second and third frames containing reference points, respectively.

Алгоритм работает следующим образом. Полученные сканирующим сенсором данные развертываются в прямоугольное изображение, которое бы соответствовало снимку поверхности при равномерном и прямолинейном движении платформы-носителя, как показано на фиг. 1.The algorithm works as follows. The data obtained by the scanning sensor is deployed into a rectangular image that would correspond to a surface image with uniform and rectilinear motion of the carrier platform, as shown in FIG. one.

Далее на референсном снимке и полученной развертке находят пары опорных точек, соответствующих одним и тем же объектам подстилающей поверхности. Этот поиск может производиться оператором-обработчиком данных. После нахождения пар опорных точек происходит идентификация кадров, в которых расположены опорные точки. Список кадров переупорядочивается в соответствии с последовательностью съемки.Next, on the reference image and the resulting scan find pairs of reference points corresponding to the same objects of the underlying surface. This search can be performed by the data processor operator. After finding the pairs of reference points, the identification of the frames in which the reference points are located. The list of frames is reordered according to the sequence of shooting.

На следующем этапе выполняется детектирование ширины отрезков l. Для этого последовательно рассматриваются пары найденных кадров и анализируются данные соответствующих пар опорных точек (С, F) и (С1, F1) (фиг. 2b) с координатами (xt1, yt1, xr1, yr1) и (xt2, yt2, xr2, yr2). Индекс 1 соответствует кадру, снятому ранее, а 2 - кадру, снятому позднее; индекс t обозначает привязываемый снимок, r - референсный снимок. При задании опорных точек оператором-обработчиком данных пара исключается из рассмотрения, если для какой-либо из точек оператор установил фиксированную ширину. В остальных случаях пара используется для вычисления ширины отрезков, если выполняется условие yt2t1<pdw, где pdw - параметр алгоритма, который выражается в количестве пикселей снимка и подбирается экспериментально (так, может использоваться значение pdw=20). Другими словами, отрезки должны находиться достаточно близко друг к другу по времени съемки. Обозначим ширину привязываемого снимка в пикселях как wt, а высоту (количество кадров) как ht. В окрестности рассматриваемой пары кадров предполагается отсутствие искажений, поэтому можно вычислить ширину образа привязываемого снимка на референсном снимке на основе ширины привязываемого снимка и известных расстояний между опорными точками:The next step is the detection of the width of the segments l. For this, pairs of found frames are sequentially examined and the data of the corresponding pairs of reference points (C, F) and (C 1, F 1 ) (Fig. 2b) with coordinates (x t1 , y t1 , x r1 , y r1 ) and (x t2 , y t2 , x r2 , y r2 ). Index 1 corresponds to the frame shot earlier, and 2 - to the frame shot later; the index t denotes the attached snapshot, r is the reference snapshot. When defining reference points by the data processor, the pair is excluded from consideration if the operator has set a fixed width for any of the points. In other cases, the pair is used to calculate the width of the segments if the condition y t2 -y t1 <p dw is fulfilled, where p dw is the algorithm parameter, which is expressed in the number of pixels of the image and is selected experimentally (for example, the value p dw = 20 can be used). In other words, the segments should be close enough to each other in shooting time. Denote the width of the attached image in pixels as w t , and the height (number of frames) as h t . In the vicinity of the pair of frames under consideration, it is assumed that there is no distortion, therefore, it is possible to calculate the width of the image of the attached image on the reference image based on the width of the attached image and the known distances between the reference points:

Figure 00000003
Figure 00000003

Вычисленная ширина присваивается обоим отрезкам, участвовавшим в вычислении.The calculated width is assigned to both segments involved in the calculation.

Далее ширины отрезков вычисляются для остальных отрезков, в которых присутствуют опорные точки. Если некий отрезок находится между двумя отрезками с вычисленной шириной, то его ширина вычисляется линейной интерполяцией между этими отрезками (используется ближайший отрезок с каждой стороны), т.е. предполагается линейная зависимость ширины отрезка от номера строки (кадра). Если же все отрезки, которым на предыдущем этапе была присвоена ширина, находятся только по одну сторону от рассматриваемого отрезка (например, отрезок находится в начале или конце снимка), то для него используется ширина ближайшего подходящего отрезка. Таким образом, каждый отрезок, содержащий опорную точку, получает значение ширины wr.Further, the widths of the segments are calculated for the remaining segments in which there are reference points. If a segment is between two segments with a calculated width, then its width is calculated by linear interpolation between these segments (the closest segment is used on each side), i.e. a linear dependence of the width of the segment on the line (frame) number is assumed. If all the segments to which the width was assigned at the previous stage are located only on one side of the considered segment (for example, the segment is at the beginning or end of the image), then the width of the nearest suitable segment is used for it. Thus, each segment containing the reference point receives a value of width w r .

На следующем этапе вычисляются предпочтительные углы поворота для каждой пары отрезков. Вычисления производятся в координатной системе референсного снимка. Для упрощения расчетов различием ширины отрезков на этом шаге можно пренебречь, используется ширина первого отрезка из пары (на следующем шаге углы будут оптимизированы с учетом различий ширины). Каждый отрезок может вращаться вокруг своей опорной точки. Нужно найти угол, при котором два отрезка образуют прямоугольник. Обозначим отрезки в этом положении как A1B1 и M1N1, а их опорные точки А ∈ A1B1 и N ∈ M1N1 (фиг. 2с). A1B1N1M1 - прямоугольник. Не теряя общности, положим A1A≤M1N. Опустим перпендикуляры AM на M1N1 и NB на A1B1, построив таким образом прямоугольник ABNM.

Figure 00000004
Figure 00000005
Figure 00000006
Далее,
Figure 00000007
Поворот
Figure 00000008
относительно нулевого положения (вектора (1, 0)) вычисляется как
Figure 00000009
а финальный угол поворота вектора
Figure 00000010
равен γ=α+β. Для случая A1A>M1N можно провести аналогичные вычисления. В этом случае α и β можно вычислить по тем же формулам, а итоговый угол поворота равен γ=α+π-β.In the next step, preferred rotation angles for each pair of segments are calculated. The calculations are made in the coordinate system of the reference image. To simplify the calculations, the difference in the width of the segments at this step can be neglected, the width of the first segment from the pair is used (in the next step, the angles will be optimized taking into account the differences in width). Each segment can rotate around its reference point. It is necessary to find the angle at which two segments form a rectangle. We denote the segments in this position as A 1 B 1 and M 1 N 1 , and their reference points A ∈ A 1 B 1 and N ∈ M 1 N 1 (Fig. 2c). A 1 B 1 N 1 M 1 is a rectangle. Without loss of generality, we put A 1 A≤M 1 N. Drop the perpendiculars AM on M 1 N 1 and NB on A 1 B 1 , thus constructing a rectangle ABNM.
Figure 00000004
Figure 00000005
Figure 00000006
Further,
Figure 00000007
Turn
Figure 00000008
relative to the zero position (vector (1, 0)) is calculated as
Figure 00000009
and the final angle of rotation of the vector
Figure 00000010
is equal to γ = α + β. For the case A 1 A> M 1 N, similar calculations can be performed. In this case, α and β can be calculated using the same formulas, and the resulting rotation angle is γ = α + π-β.

Для каждого отрезка, кроме отрезков с первой и последней опорной точкой, вычислено два угла - по одному для каждого из соседних отрезков. Начальный поворот такого отрезка вычисляется как взвешенное среднее между этими двумя углами, а вес слагаемого обратно пропорционален числу кадров между отрезками соответствующей пары:For each segment, except for the segments with the first and last reference point, two angles are calculated - one for each of the adjacent segments. The initial rotation of such a segment is calculated as the weighted average between these two angles, and the weight of the term is inversely proportional to the number of frames between the segments of the corresponding pair:

Figure 00000011
Figure 00000011

Таким образом, чем ближе соседний отрезок к рассматриваемому отрезку, тем больше он влияет на его начальный угол поворота.Thus, the closer the adjacent segment to the segment under consideration, the more it affects its initial angle of rotation.

Полученный угол поворота отрезков вычислен без учета разницы в длине отрезков и положения других отрезков. Далее выполняется итеративная оптимизация углов поворотов с учетом длин и взаимного положения отрезков. На каждой итерации для каждого отрезка рассматриваются два альтернативных положения, повернутые относительно текущего на Δγ по и против часовой стрелки (может использоваться значение Δγ=0,3°). Рассматриваются четырехугольники, образованные этим отрезком, соседними отрезками и боковыми сторонами снимка (фиг. 2d, рассматриваемый отрезок обозначен пунктиром). Из двух положений выбирается то, которое обеспечивает наименьшее значение оптимизационной метрики, в качестве которой может использоваться следующая величина:The obtained angle of rotation of the segments is calculated without taking into account the difference in the length of the segments and the position of other segments. Next, iterative optimization of the rotation angles is performed taking into account the lengths and relative positions of the segments. At each iteration, for each segment, two alternative positions are considered, rotated relative to the current one by Δγ clockwise and counterclockwise (the value Δγ = 0.3 ° can be used). The quadrangles formed by this segment, adjacent segments and the sides of the image are considered (Fig. 2d, the considered segment is indicated by a dotted line). Of the two positions, one is selected that provides the smallest value of the optimization metric, for which the following value can be used:

Figure 00000012
Figure 00000012

т.е. то, при котором четырехугольники приближаются к форме прямоугольника, что соответствует идеальному прямолинейному движению между опорными точками. В конце итерации все отрезки поворачиваются в соответствии с выбранным положением. Для определения стабилизации системы анализируется суммарный (со знаком) угол поворота всех отрезков за последние k итераций (k может быть принято равным 10). Если он меньше 2Δγ, то система стабилизировалась и можно прекращать итерации. Отсутствие стабилизации системы за разумное число итераций свидетельствует об ошибке в расстановке опорных точек или ошибочному определению ширины отрезков, которые приводят к нарушению ориентации четырехугольников, по которым считается метрика.those. the one at which the quadrangles approach the shape of the rectangle, which corresponds to the ideal rectilinear movement between the anchor points. At the end of the iteration, all segments rotate in accordance with the selected position. To determine the stabilization of the system, the total (with a sign) angle of rotation of all segments for the last k iterations is analyzed (k can be taken equal to 10). If it is less than 2Δγ, then the system has stabilized and iteration can be stopped. The lack of stabilization of the system for a reasonable number of iterations indicates an error in the placement of control points or an erroneous determination of the width of the segments, which lead to a disruption in the orientation of the quadrangles by which the metric is considered.

Полученные повороты отрезков, содержащих опорные точки, считаются окончательными. На основе этих поворотов и положений опорных точек вычисляются координаты центров отрезков. Затем с помощью линейной интерполяции вычисляются координаты центров, длины и углы поворота отрезков, на которых нет опорных точек. При отсутствии отрезков с опорными точками с обеих сторон от рассматриваемого отрезка (т.е. если отрезок расположен до первой опорной точки или после последней) используется угол и ширина ближайшего отрезка с опорной точкой, а положение центра вычисляется линейной интерполяцией по двум ближайшим отрезкам с опорными точками, несмотря на то что они расположены по одну сторону от отрезка. Такое вычисление соответствует предположению о прямолинейности движения платформы на участках снимка, не содержащих опорных точек.The resulting rotations of segments containing reference points are considered final. Based on these rotations and the positions of the control points, the coordinates of the centers of the segments are calculated. Then, using the linear interpolation, the coordinates of the centers, the lengths and angles of rotation of the segments on which there are no reference points are calculated. In the absence of segments with anchor points on both sides of the segment in question (i.e., if the segment is located before the first anchor point or after the last), the angle and width of the nearest segment with the anchor point are used, and the center position is calculated by linear interpolation over the two nearest segments with anchor points, despite the fact that they are located on one side of the segment. Such a calculation agrees with the assumption that the movement of the platform is straightforward in the areas of the image that do not contain reference points.

Это проиллюстрировано на фиг. 2а.This is illustrated in FIG. 2a.

Наконец, по полученным координатам строится геометрически откорректированное изображение, которое также является географически привязанным в силу того, что новые координаты пикселей снимка заданы в системе координат референсного снимка, который является географически привязанным.Finally, a geometrically corrected image is constructed from the obtained coordinates, which is also geographically attached due to the fact that the new coordinates of the image pixels are specified in the coordinate system of the reference image, which is geographically attached.

Предлагаемый способ был использован для анализа состояния сельскохозяйственных культур возле города Плавск Тульской области на основе данных гиперспектрального дистанционного зондирования (результат коррекции показан на фиг. 3), что свидетельствует о его промышленной применимости.The proposed method was used to analyze the condition of crops near the city of Plavsk, Tula region based on hyperspectral remote sensing data (the correction result is shown in Fig. 3), which indicates its industrial applicability.

Claims (6)

1. Способ устранения геометрических искажений изображений дистанционного зондирования, полученных щелевым сканирующим сенсором, включающий в себя получение последовательности кадров сканирующего сенсора и ее запись на запоминающее устройство, развертку в порядке получения кадров с формированием неоткорректированного геометрически изображения, отличающийся тем, что на полученном таким образом изображении и референсном изображении, независимо полученном кадровым сенсором, находят пары опорных точек, соответствующие одним и тем же объектам на изображениях, затем для каждого кадра, содержащего опорную точку, определяют его поперечное положение относительно этой опорной точки, для всех таких кадров находят их поворот относительно соответствующих им опорных точек путем минимизации неравномерности рассчитанного движения платформы-носителя между парами кадров, содержащих опорные точки, для кадров, не содержащих опорных точек, их положение интерполируют и формируют истинное изображение зондируемой подстилающей поверхности.1. A method for eliminating geometric distortions of remote sensing images obtained by a slit scanning sensor, which includes obtaining a sequence of frames of a scanning sensor and recording it on a storage device, a scan in the order of obtaining frames with the formation of a geometrically corrected image, characterized in that in the image thus obtained and reference image, independently obtained by the frame sensor, find pairs of reference points corresponding to the same objects in the images, then for each frame containing the reference point, determine its transverse position relative to this reference point, for all such frames find their rotation relative to their corresponding reference points by minimizing the unevenness of the calculated motion of the carrier platform between pairs of frames containing reference points, for frames that do not contain reference points, their position is interpolated and a true image of the probed underlying surface is formed. 2. Способ по п. 1, отличающийся тем, что в качестве щелевого сканирующего сенсора используют гиперспектрометр типа «pushbroom».2. The method according to p. 1, characterized in that a pushbroom hyperspectrometer is used as a slit scanning sensor. 3. Способ по п. 1, отличающийся тем, что в качестве референсного изображения выступает панхроматический снимок высокого пространственного разрешения.3. The method according to p. 1, characterized in that the reference image is a panchromatic image of high spatial resolution. 4. Способ по п. 1, отличающийся тем, что пары опорных точек находятся вручную.4. The method according to p. 1, characterized in that the pairs of reference points are manually. 5. Способ по п. 1, отличающийся тем, что в качестве критерия неравномерности рассчитанного движения платформы-носителя выступает сумма модулей отклонений каждого из внутренних углов четырехугольников, образованных парами последовательных кадров, содержащих опорные точки, и отрезками, соединяющими их концы, от 90°.5. The method according to p. 1, characterized in that the sum of the deviation modules of each of the inner corners of the quadrangles formed by pairs of consecutive frames containing reference points and the segments connecting their ends from 90 ° serves as a criterion for the unevenness of the calculated motion of the carrier platform . 6. Способ по п. 1, отличающийся тем, что интерполяция положения кадров, не содержащих опорные точки, производится линейно.6. The method according to p. 1, characterized in that the interpolation of the position of the frames that do not contain reference points is linear.
RU2016126236A 2016-06-30 2016-06-30 Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor RU2641630C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2016126236A RU2641630C2 (en) 2016-06-30 2016-06-30 Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2016126236A RU2641630C2 (en) 2016-06-30 2016-06-30 Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor

Publications (1)

Publication Number Publication Date
RU2641630C2 true RU2641630C2 (en) 2018-01-18

Family

ID=68235530

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016126236A RU2641630C2 (en) 2016-06-30 2016-06-30 Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor

Country Status (1)

Country Link
RU (1) RU2641630C2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6667661B1 (en) * 2001-05-04 2003-12-23 Euvis, Inc. Laser diode driver with high power efficiency
RU130699U1 (en) * 2013-03-07 2013-07-27 Закрытое акционерное общество "Научно-производственный центр "Реагент" (ЗАО "НПЦ "Реагент") AIRCRAFT HYPERSPECTROMETER

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6667661B1 (en) * 2001-05-04 2003-12-23 Euvis, Inc. Laser diode driver with high power efficiency
RU130699U1 (en) * 2013-03-07 2013-07-27 Закрытое акционерное общество "Научно-производственный центр "Реагент" (ЗАО "НПЦ "Реагент") AIRCRAFT HYPERSPECTROMETER

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Статья "Метод геометрической коррекции гиперспектральных изображений земной поверхности" к журналу "Современенные проблемы дистанционного зондирования Земли из космоса", А.А. Ильин, номер 1, 2012 год, стр. 39-46. *
Статья "Эффективный алгоритм коррекции геометрических искажений в авиационных гиперспектральных изображениях" к журналу "Исследования Земли из космоса", А.О. Казанцев, номер 5, 2009 год, стр. 49-55. *
Статья "Эффективный алгоритм коррекции геометрических искажений в авиационных гиперспектральных изображениях" к журналу "Исследования Земли из космоса", А.О. Казанцев, номер 5, 2009 год, стр. 49-55. Статья "Метод геометрической коррекции гиперспектральных изображений земной поверхности" к журналу "Современенные проблемы дистанционного зондирования Земли из космоса", А.А. Ильин, номер 1, 2012 год, стр. 39-46. *

Similar Documents

Publication Publication Date Title
AU2019302552B2 (en) Synthetic image generation from 3D-point cloud
US8391542B2 (en) Method for estimating the pose of a PTZ camera
US8755632B2 (en) Methods and systems for creating an aligned bank of images with an iterative self-correction technique for coordinate acquisition and object detection
EP1589482B1 (en) Three-dimensional image measuring apparatus and method
JP4926127B2 (en) Front imaging control device for moving body
Morgan Epipolar resampling of linear array scanner scenes
ES2847348T3 (en) Procedure and apparatus for tracking an object
US20190102911A1 (en) Extrinsic calibration of camera systems
US11521333B2 (en) Camera calibration apparatus, camera calibration method, and non-transitory computer readable medium storing program
JP4247371B2 (en) 3D data acquisition device
ES2773841T3 (en) Image processing
WO2008056765A1 (en) Corresponding point searching method, and three-dimensional position measuring method
US9451166B1 (en) System and method for imaging device motion compensation
US20120063668A1 (en) Spatial accuracy assessment of digital mapping imagery
US11538135B2 (en) Automatic multi-image 3D ground control point extraction
JP2006350465A (en) Image matching device, image matching method, and program for image matching
Wang et al. Geometric calibration for the aerial line scanning camera Gfxj
RU2641630C2 (en) Method for eliminating geometric distortions of remote sensing images obtained by slot-type scanning sensor
Ladstädter et al. Monolithic Stitching: One sensor geometry for multiple sensor camera
Shen et al. A fast and robust scan-line search algorithm for object-to-image projection of airborne pushbroom images
RU2798768C1 (en) Method of processing scan images
Pateraki et al. Analysis and performance of the Adaptive Multi-Image matching algorithm for airborne digital sensor ADS40
JP2001512252A (en) Method and apparatus for performing local / global multi-frame alignment for constructing a mosaic image
Zhou et al. Solving the rational polynomial coefficients based on L curve
CN112212833B (en) Mechanical splicing type TDI CCD push-broom camera integral geometric adjustment method

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
QB4A Licence on use of patent

Free format text: LICENCE FORMERLY AGREED ON 20190530

Effective date: 20190530