RU2740435C2 - Method of determining position of region of searching for matches on distortion-degraded images - Google Patents

Method of determining position of region of searching for matches on distortion-degraded images Download PDF

Info

Publication number
RU2740435C2
RU2740435C2 RU2020108613A RU2020108613A RU2740435C2 RU 2740435 C2 RU2740435 C2 RU 2740435C2 RU 2020108613 A RU2020108613 A RU 2020108613A RU 2020108613 A RU2020108613 A RU 2020108613A RU 2740435 C2 RU2740435 C2 RU 2740435C2
Authority
RU
Russia
Prior art keywords
camera
image
values
series
images
Prior art date
Application number
RU2020108613A
Other languages
Russian (ru)
Other versions
RU2020108613A (en
Inventor
Алексей Владимирович Зубарь
Станислав Владимирович Ушнурцев
Александр Николаевич Щербо
Владимир Петрович Пивоваров
Сергей Анатольевич Перов
Яков Вячеславович Алтухов
Дмитрий Сергеевич Емченко
Original Assignee
Алексей Владимирович Зубарь
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Алексей Владимирович Зубарь filed Critical Алексей Владимирович Зубарь
Priority to RU2020108613A priority Critical patent/RU2740435C2/en
Publication of RU2020108613A publication Critical patent/RU2020108613A/en
Application granted granted Critical
Publication of RU2740435C2 publication Critical patent/RU2740435C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

FIELD: physics.
SUBSTANCE: invention relates to the field of information-measuring systems, in particular, systems of technical vision, and is intended for solving problems of automating search of correspondences on two or more digital images. Disclosed is a method of determining the position of the search region of matches on distortion-degraded images. To implement the disclosed method, at least two spaced apart (in any plane) can be used and randomly oriented digital jth video cameras, which enable to capture stereoscopic images of objects of interest and together with a processing system, generating computer vision system. Digital cameras used can be both visible and infrared ranges. First of all, the invention is aimed at use in low-power mobile systems which require real-time operation with distortion-degraded high-resolution images without preliminary processing thereof.
EFFECT: technical result consists in improvement of speed of automatic matching on distortion-degraded images with dynamically changing their spatial position and orientation of high-resolution digital cameras.
1 cl, 6 dwg

Description

Изобретение относится к области информационно-измерительных систем в частности систем технического зрения и предназначается для решения задач автоматизации определения положения и границ областей поиска соответствий на двух и более цифровых изображениях. Изобретение в первую очередь ориентировано на применение в маломощных мобильных системах, предполагающих работу в реальном масштабе времени с дисторсионно-искаженными изображениями высокого разрешения без предварительной их обработки.The invention relates to the field of information-measuring systems, in particular, technical vision systems and is intended to solve the problems of automating the determination of the position and boundaries of search areas for matching on two or more digital images. The invention is primarily focused on the use in low-power mobile systems, involving real-time operation with distortion-distorted high-resolution images without their preliminary processing.

При разработке систем технического зрения (СТЗ) пространственного позиционирования (измерения параметров движения, координат, размеров и т.п.) как самой системы, так и наблюдаемых через ее цифровые камеры объектов, одними из главных требований является осуществление измерений в реальном масштабе времени, высокая точность результатов измерений и вычислительная реализуемость применяемого автоматического определение положения и границ областей поиска соответствий на двух и более цифровых изображениях. Особенно последнее требование актуально при реализации мобильных СТЗ выполняемых на базе ЭВМ с ограниченной вычислительной мощностью. Выполнение данного требования во многом определяет погрешность измерительной системы и возможность проведения точного и высокоскоростного сопоставления соответствующих изображений интересующих объектов на множестве кадров цифровых изображений.When developing technical vision systems (STS) for spatial positioning (measurement of motion parameters, coordinates, dimensions, etc.) of both the system itself and objects observed through its digital cameras, one of the main requirements is the implementation of measurements in real time, high the accuracy of the measurement results and the computational feasibility of the applied automatic determination of the position and boundaries of the search areas for matching on two or more digital images. The latter requirement is especially relevant when implementing mobile STZs based on computers with limited computing power. Fulfillment of this requirement largely determines the error of the measuring system and the possibility of conducting accurate and high-speed comparison of the corresponding images of objects of interest on a set of digital image frames.

В настоящее время различают глобальный и локальный поиск соответствий.Currently, a distinction is made between global and local matching.

Глобальный поиск основывается на минимизации функционала энергии, когда находят расхождение сразу для множества точек (объектов) обрабатываемых изображений. Как правило такие задачи связаны с трехмерной реконструкцией наблюдаемой сцены по множеству разноракурсных изображений. Общий недостаток глобального поиска - это высокая вычислительная сложность.Global search is based on minimizing the energy functional, when the discrepancy is found at once for a set of points (objects) of the processed images. As a rule, such tasks are associated with a three-dimensional reconstruction of the observed scene from a variety of different-angle images. A common disadvantage of global search is high computational complexity.

Особенность локального поиска заключается в том, что поиск соответствий в нем организуется путем последовательного сканирования между локальными участками изображений, как правило это некоторая интересующая область одного изображения и область поиска на другом изображении.The peculiarity of local search is that the search for matches in it is organized by sequential scanning between local areas of images, as a rule, this is a certain area of interest in one image and a search area in another image.

В свою очередь размеры областей поиска и порядок их нахождения будут определять точность поиска и требования к вычислительной мощности ЭВМ.In turn, the sizes of the search areas and the order of their finding will determine the search accuracy and the requirements for the computing power of the computer.

Самый простой по реализации способ определения положения области поиска (при локальном поиске) может быть применен в СТЗ, предполагающей прием цифровых изображений по крайней мере с двух одинаковых видео или фотокамер, расположенных в пространстве строго параллельно друг другу и на одной базовой линии [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12.]. В этом случае, если на изображении 1 левой камеры выделена несущая информацию об интересующем объекте область 4 с центром в точке 3, то на изображении 2 правой камеры участок 6 изображения данного объекта с центром в точке 5 будет иметь такие же вертикальные координаты, что и на изображении 1 (Фиг. 1). Тогда область поиска 7 на изображении 2 может быть ограничена линией от точки 8 до точки 9. Точка 8 характеризует ближайшую, а точка 9 - бесконечно уделенную границы области поиска 7. При этом пиксельные координаты nj+1 и mj+1 удаленной границы 9 на изображении 2 будут равны пиксельным координатам nj и mj центра 3 области 4 характеризующей положение объекта интереса на изображении 1. Ближайшая граница 8 области поиска 7 при таком расположении камер будет находиться на левом крае изображения 2 (nj+1=0) с такой же вертикальной координатой mj+1, что и у границы 9.The simplest way to implement the method for determining the position of the search area (in local search) can be applied in STZ, which involves the reception of digital images from at least two identical videos or cameras located in space strictly parallel to each other and on the same baseline [Zubar A. V., Sidorenko A.A., Tishin S.A., Shcherbo A.N. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12.]. In this case, if on image 1 of the left camera area 4 with the center at point 3 is highlighted, then on image 2 of the right camera, area 6 of the image of this object centered at point 5 will have the same vertical coordinates as on image 1 (Fig. 1). Then the search area 7 on image 2 can be limited by a line from point 8 to point 9. Point 8 characterizes the nearest, and point 9 - the infinitely distant boundaries of the search area 7. In this case, the pixel coordinates n j + 1 and m j + 1 of the remote boundary 9 in image 2 will be equal to the pixel coordinates n j and m j of the center 3 of region 4 characterizing the position of the object of interest in image 1. The nearest border 8 of the search area 7 with this arrangement of cameras will be on the left edge of image 2 (n j + 1 = 0) with the same vertical coordinate m j + 1 as at the boundary 9.

Недостаток данного способа определения положения области поиска соответствий заключается в ограниченности его применения в связи с необходимостью использования только абсолютно одинаковых камер, и в высоких требованиях по обеспечению точного их параллельного размещения в пространстве. Особенно последнее является критичным для применения СТЗ на движущихся мобильных платформах, где ударные и вибрационные нагрузки могут приводить к колебаниям и деформациям корпуса, в том числе и в местах крепления камер, что делает условие обеспечения абсолютной параллельности камер если не практически, то трудно реализуемым.The disadvantage of this method for determining the position of the match search area is the limited use of it due to the need to use only exactly the same cameras, and the high requirements for ensuring their exact parallel placement in space. The latter is especially critical for the use of STZ on moving mobile platforms, where shock and vibration loads can lead to vibrations and deformations of the body, including at the points of camera attachment, which makes the condition of ensuring absolute parallelism of the cameras, if not practically, then difficult to implement.

Нивелирования требования по обеспечению параллельного размещения камер (при чем только в вертикальной и горизонтальной их взаимной ориентации) может быть достигнуто путем расширения области поиска 7, при этом в максимуме область поиска 7 может охватывать практически все изображение 2 (Фиг. 2). Однако в этом случае многократно увеличивается количество вычислительных операций, и соответственно, растут требования к вычислительной мощности ЭВМ. Также достаточно высока вероятность ложного результата поиска в связи с возможностью нахождения в кадре идентичных по форме, ракурсу и окраске объектов.Leveling the requirement to ensure parallel placement of cameras (and only in their vertical and horizontal mutual orientation) can be achieved by expanding the search area 7, while the maximum search area 7 can cover almost the entire image 2 (Fig. 2). However, in this case, the number of computational operations increases many times, and, accordingly, the requirements for the computing power of the computer grow. Also, the probability of a false search result is quite high due to the possibility of finding objects identical in shape, angle and color in the frame.

Все это приводит к тому, что на сегодняшний день данные способы практически не применимы, особенно в тех случаях, когда стоит необходимость проведения измерений в реальном масштабе времени с произвольно расположенных и разных по своим техническим параметрам цифровых видео или фотокамер на базе маломощной ЭВМ.All this leads to the fact that today these methods are practically not applicable, especially in those cases when it is necessary to carry out measurements in real time from randomly located and different in their technical parameters digital video or cameras based on a low-power computer.

Аналогом к заявленному изобретению является способ определения положения области поиска соответствий на цифровых изображениях основанный на их ректификации [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12, Пьянков, Д.И. Пространственная обработка несинхронизированных видеопоследовательностей на основе ректификации кадров // Программные продукты и системы. - №1(101) - Тверь: НИИ «Центрпрограммсистем», 2013 г., с. 61-66]. Сущность ректификации заключается в репроекции плоскостей изображений 1 и 2 таким образом, чтобы они находились в одной плоскости. В результате чего область поиска 7 преобразуется к горизонтальной линии (Фиг. 3). При этом если изображений 1 получено с левой камеры, а изображения 2 - с правой, то ближняя граница 8 области поиска 7 будет находиться на левом крае изображения 8, а дальняя граница 9 - на его правом крае. Вертикальная же координата mj+1, задающая положение области поиска 7 на изображении 2 определяется соответствующей координатой mj центра 3 области интереса 4 на изображении 1.An analogue to the claimed invention is a method for determining the position of the matching search area on digital images based on their rectification [Zubar A. V., Sidorenko A. A., Tishin S. A., Shcherbo A. N. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12, Pyankov, D.I. Spatial processing of unsynchronized video sequences based on rectification of frames // Software products and systems. - No. 1 (101) - Tver: Research Institute "Tsentrprogrammsystem", 2013, p. 61-66]. The essence of rectification lies in the reprojection of the planes of images 1 and 2 so that they are in the same plane. As a result, the search area 7 is converted to a horizontal line (Fig. 3). In this case, if images 1 were obtained from the left camera, and image 2 from the right, then the near border 8 of the search area 7 will be located on the left edge of image 8, and the far border 9 - on its right edge. The vertical coordinate m j + 1 , which specifies the position of the search area 7 in image 2, is determined by the corresponding coordinate m j of the center 3 of the area of interest 4 in image 1.

Различают несколько видов ректификаций, например, планарную, полярную. Вместе с этим общими недостатками организации поиска по ректифицированным изображениям являются:There are several types of rectification, for example, planar, polar. Together with this, the general disadvantages of organizing a search for rectified images are:

- необходимость с высокой точностью установления всех внутренних, в том числе и случайных, параметров камер;- the need to establish with high accuracy all internal, including random, camera parameters;

- сложность осуществления расчетов в реальном времени для изображений высокого разрешения из-за большого количества вычислений, связанных с полной попиксельной переработкой пары изображений;- the complexity of real-time calculations for high-resolution images due to the large number of calculations associated with full pixel-by-pixel processing of a pair of images;

- искажения изображений, связанные с тем, что при устранении проективных искажений с помощью ректификации в том или ином виде всегда осуществляется интерполяция отсчетов, так как фактически после этого этапа поиск соответствий осуществляется «на других» изображениях, отличающихся от исходных;- distortions of images associated with the fact that when eliminating projective distortions using rectification in one form or another, interpolation of readings is always carried out, since in fact, after this stage, the search for matches is carried out “on other” images that differ from the original ones;

- ограниченная возможность применения ректификации, в частности, при обработке дисторсионно-искаженных и «разноракурсных» изображений после проведения ректификации изображения интересующих объектов могут быть настолько деформированы, что само по себе вычисление меры сходства станет невозможным.- the limited possibility of using rectification, in particular, when processing distortion-distorted and "multi-angle" images after rectification, the images of objects of interest can be so deformed that the calculation of the similarity measure by itself becomes impossible.

В качестве прототипа к заявленному изобретению выбран способ определения положения области поиска соответствий на цифровых изображениях вдоль эпиполярных линий [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12, Гошин, Е.В. Модель реконструкции 3D-сцен с учетом эпиполярных ограничений // Молодой ученый. - 2014. - №12. - С. 71-73. - URL https://moluch.ru/archive/71/12174/ (дата обращения: 10.01.2020)]. Нахождение положения эпиполярных линий базируется на модели эпиполярной геометрии, согласно которой все эпиполярные прямые проходят через эпиполюс, а множество эпиполярных плоскостей представляет собой однопараметрическое семейство плоскостей. И если на изображении 1 указан объект (Фиг. 4), то для данного взаимного положения камер на изображении 2 существует только одна линия 7, на которой возможно нахождение изображения этого объекта.As a prototype to the claimed invention, the selected method for determining the position of the search area for matches on digital images along the epipolar lines [A. Zubar, A. Sidorenko, S. A. Tishin, A. Shcherbo. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12, Goshin, E.V. Model of reconstruction of 3D-scenes taking into account epipolar constraints // Young scientist. - 2014. - No. 12. - S. 71-73. - URL https://moluch.ru/archive/71/12174/ (date of access: 10.01.2020)]. Finding the position of epipolar lines is based on the model of epipolar geometry, according to which all epipolar straight lines pass through the epipole, and the set of epipolar planes is a one-parameter family of planes. And if an object is indicated in image 1 (Fig. 4), then for a given relative position of the cameras in image 2 there is only one line 7 on which the image of this object can be found.

Очевидным достоинством такого подхода к определению положения области поиска по сравнению с ректификацией является отсутствие необходимости попиксельной переработки изображений. А из этого следует уменьшение количества вычислительных операций и повышение достоверности результата поиска, так как поиск осуществляется по оригинальным изображениям.An obvious advantage of this approach to determining the position of the search area in comparison with rectification is the absence of the need for pixel-by-pixel image processing. And from this follows a decrease in the number of computational operations and an increase in the reliability of the search result, since the search is carried out according to the original images.

С другой стороны, при нахождении эпиполярных линий так же, как и при ректификации, предварительно должна быть вычислена фундаментальная матрица, для построения которой необходимо точно знать все внутренние параметры камер и их взаимную ориентацию. Следовательно, продуктивность этого способа в случае, когда внутренние параметры камер или неизвестны вовсе, или известны ограниченно, а сами камеры постоянно меняют свою ориентацию, а поиск необходимо осуществлять по видеоряду в реальном масштабе времени, будет снижена.On the other hand, when finding epipolar lines, as well as during rectification, the fundamental matrix must be calculated first, for the construction of which it is necessary to know exactly all the internal parameters of the chambers and their mutual orientation. Consequently, the productivity of this method in the case when the internal parameters of the cameras are either unknown at all, or are known only to a limited extent, and the cameras themselves constantly change their orientation, and the search must be carried out using the video sequence in real time, will be reduced.

Другой важный недостаток связан с тем, что модель эпиполярной геометрии не учитывает дисторсионные искажения изображений. Так, на фигуре 4 показано, что, если изображения 1 и 2 искажены радиальной и тангенциальной дисторсией, область поиска 7 должна быть кривой (Фиг. 5). Модель эпиполярной геометрии не предполагает построение кривых, а, следовательно, для нахождения соответствующей эпиполярной линии необходимо или применять высококачественную и дорогую оптику или осуществлять коррекцию изображений, опять же связанную с их полной попиксельной переработкой. Это многократно увеличивает количество вычислительных операций и время на поиск, а также потребует для проведения измерений в реальном масштабе времени высокопроизводительной СТЗ с мощным графическим процессором. А для маломощных мобильных СТЗ с учетом обеспечения проведения измерений по искаженным дисторсией изображениям высокого разрешения в реальном времени такой способ определения положения области поиска может оказаться неприменим.Another important drawback is related to the fact that the epipolar geometry model does not take into account distortion distortions of images. So, figure 4 shows that if images 1 and 2 are distorted by radial and tangential distortion, the search area 7 should be a curve (Fig. 5). The model of epipolar geometry does not imply the construction of curves, and, therefore, to find the corresponding epipolar line, it is necessary either to use high-quality and expensive optics or to perform image correction, again associated with their complete pixel-by-pixel processing. This greatly increases the number of computational operations and the search time, and also requires a high-performance STZ with a powerful graphics processor to perform measurements in real time. And for low-power mobile STZs, taking into account the provision of measurements on distorted high-resolution images in real time, this method of determining the position of the search area may not be applicable.

Для определения положения области поиска 7 на изображении 2 вдоль эпиполярной линии эпиполярная плоскость принимается безразмерной. В связи с чем область поиска 7 проходит через все изображение 2. И для большинства случаев съемки это вполне справедливо. Но вместе с этим в отдельных ситуациях взаимная ориентация камер может оказаться такова, что область поиска 7 должна проходить не через все изображение (Фиг. 5). При этом ближняя граница 8 области поиска 7 может быть задана из условия минимальной дальности до интересующего объекта, а дальняя граница 9 - максимальной дистанцией, на которой ошибки измерений не превысят некоторое установленное значение, или дальностью за которой все объекты будут рассматриваться как равноудаленные. Введение таких дополнительных ограничений еще больше будет способствовать уменьшению размеров область поиска, и как следствие - снижению количества вычислительных операций при непосредственном проведении поиска.To determine the position of the search area 7 in image 2 along the epipolar line, the epipolar plane is assumed to be dimensionless. In this connection, the search area 7 runs through the entire image 2. And for most shooting cases this is quite true. But at the same time, in some situations, the relative orientation of the cameras may turn out to be such that the search area 7 should not pass through the entire image (Fig. 5). In this case, the near boundary 8 of the search area 7 can be set from the condition of the minimum distance to the object of interest, and the far boundary 9 - by the maximum distance at which the measurement errors do not exceed a certain set value, or the range beyond which all objects will be considered as equidistant. The introduction of such additional restrictions will further help to reduce the size of the search area, and, as a consequence, to reduce the number of computational operations during the direct search.

Таким образом, задача, на решение которой направлено заявленное изобретение, заключается в разработке способа автоматического определения положения ограниченной с двух сторон и адаптивной по форме характеру дисторсии области поиска при условии обеспечения возможности быстрой ее перестройки в случаях динамичного изменения взаимного положения в пространстве камер с неизвестными внутренними параметрами.Thus, the problem to be solved by the claimed invention is to develop a method for automatically determining the position of the search area bounded on both sides and adaptive in the shape of the distortion of the search area, provided that it can be quickly reconstructed in cases of dynamic change in the relative position in the space of cameras with unknown internal parameters.

Решение данной задачи обеспечивается:The solution to this problem is provided by:

во-первых, высокой скоростью перестроения положения и формы области поиска при изменении взаимного положения камер в пространстве за счет введения дополнительных ограничений на возможное положение в пространстве интересующего объекта в виде минимальной

Figure 00000001
и максимальной
Figure 00000002
дальностей измерений, а также отсутствия необходимости предварительной попиксельной переработки изображений, вычисления фундаментальной матрицы и решения сложных систем уравнений.first, the high speed of rebuilding the position and shape of the search area when changing the relative position of cameras in space due to the introduction of additional restrictions on the possible position in space of the object of interest in the form of a minimum
Figure 00000001
and maximum
Figure 00000002
measurement ranges, as well as the absence of the need for preliminary pixel-by-pixel processing of images, calculation of the fundamental matrix and solution of complex systems of equations.

во-вторых, адаптацией формы области поиска к дисторсионным искажениям объективов, погрешностям при производстве, сборке и эксплуатации камер, а также возможностью проведения поиска в условиях, когда известно только разрешения обрабатываемых изображений, за счет применения выражений, позволяющих осуществлять (Фиг. 6):secondly, by adapting the shape of the search area to distortion distortions of lenses, errors in the production, assembly and operation of cameras, as well as the ability to conduct a search in conditions when only the resolution of the processed images is known, through the use of expressions that allow (Fig. 6):

«прямой» переход от пиксельных координат nj и mj изображения интересующего объекта к его метрическим трехмерным координатам

Figure 00000003
в системе координат (СК)
Figure 00000004
j-ой камеры на основании выражения"Direct" transition from pixel coordinates n j and m j of the image of the object of interest to its metric three-dimensional coordinates
Figure 00000003
in coordinate system (SC)
Figure 00000004
j-th camera based on the expression

Figure 00000005
Figure 00000005

где Aj - вектор трехмерных координат

Figure 00000006
центра изображения интересующего объекта на плоскости изображения j-ой камеры, условно отстоящего от оптического центра
Figure 00000007
ее объектива на расстоянии
Figure 00000008
where A j is a vector of three-dimensional coordinates
Figure 00000006
the center of the image of the object of interest on the image plane of the j-th camera, conditionally distant from the optical center
Figure 00000007
her lens in the distance
Figure 00000008

n'j=nj-0,5Nj, m'j=mj-0,5Nj - приведенные пиксельные координаты изображения объекта на изображении j-ой камеры;n ' j = n j -0.5N j , m' j = m j -0.5N j are the given pixel coordinates of the object image on the image of the j-th camera;

αj и βj - углы соответственно, в горизонтальной и вертикальной плоскостях на интересующий объект относительно оптической оси

Figure 00000009
объектива j-ой камеры, вычисляемые согласно выражений:α j and β j - angles, respectively, in the horizontal and vertical planes to the object of interest relative to the optical axis
Figure 00000009
lens of the j-th camera, calculated according to the expressions:

Figure 00000010
Figure 00000010

Figure 00000011
Figure 00000011

Nj и Mj - горизонтальное и вертикальное разрешение изображения j-ой камеры;N j and M j - horizontal and vertical image resolution of the j-th camera;

с0, с1, с2, …cq и d0, d1, d2, …, dq - полиномиальные коэффициенты «прямого» преобразования функций ƒ(n'j) и ƒ(m'j) соответственно,c 0 , c 1 , c 2 , ... c q and d 0 , d 1 , d 2 , ..., d q are the polynomial coefficients of the "direct" transformation of the functions ƒ (n ' j ) and ƒ (m' j ), respectively,

и «обратный» переход от метрических трехмерных координат

Figure 00000012
к плоским пиксельным координатам nj и mj на основании выраженияand "reverse" transition from metric three-dimensional coordinates
Figure 00000012
to flat pixel coordinates n j and m j based on the expression

Figure 00000013
Figure 00000013

где

Figure 00000014
Where
Figure 00000014

Figure 00000015
Figure 00000015

где

Figure 00000016
и
Figure 00000017
- полиномиальные коэффициенты «обратного» преобразования функций ƒ(αj) и ƒ(βj) соответственно,Where
Figure 00000016
and
Figure 00000017
are the polynomial coefficients of the "inverse" transformation of the functions ƒ (α j ) and ƒ (β j ), respectively,

При этом применение полиномов «прямого» (2), (3) и «обратного» (5), (6) преобразования обеспечивает установление математической связи между пиксельными координатами nj, mj изображения объекта и его трехмерными координатами

Figure 00000018
в СК
Figure 00000019
камеры при работе с дисторсионно-искаженными цифровыми изображениями не соответствующими своим разрешением физическому разрешению фотоприемных устройств и применение камер с неизвестными техническими параметрами, в том числе с учетом возможных погрешностей, допущенных при их изготовлении или возникших по вине эксплуатации. При чем вычисляться коэффициенты с0, с1, с2, …cq, d0, d1, d2, …, dq
Figure 00000020
и
Figure 00000021
полиномов (2), (3) и (5), (6) должны для каждой j-ой камеры индивидуально при ее производстве и сборке, или уточняться непосредственно перед применением измерительной системы путем описания полиномами q-го порядка взаимосвязей между вертикальными и горизонтальным углами на интересующий объект относительно j-ой камеры и соответствующими значениями его пиксельных координат на принимаемых с j-ой камеры цифровых изображениях.In this case, the use of polynomials "direct" (2), (3) and "reverse" (5), (6) transformation provides the establishment of a mathematical relationship between the pixel coordinates n j , m j of the object image and its three-dimensional coordinates
Figure 00000018
in the UK
Figure 00000019
cameras when working with distortion-distorted digital images that do not correspond to their resolution to the physical resolution of photodetectors and the use of cameras with unknown technical parameters, including taking into account possible errors made during their manufacture or arising from the fault of operation. Moreover, the coefficients are calculated with 0 , with 1 , with 2 ,… c q , d 0 , d 1 , d 2 ,…, d q
Figure 00000020
and
Figure 00000021
polynomials (2), (3) and (5), (6) must for each j-th chamber individually during its production and assembly, or be refined immediately before using the measuring system by describing the relationships between the vertical and horizontal angles by polynomials of the q-th order to the object of interest relative to the j-th camera and the corresponding values of its pixel coordinates on the digital images received from the j-th camera.

Основным техническим результатом, обеспечиваемым приведенной совокупностью признаков, являются:The main technical result provided by the given set of features are:

- снижение требований к вычислительным ресурсам измерительной вычислительной системы (ЭВМ);- reducing the requirements for computing resources of the measuring computer system (PC);

- повышение скорости проведения автоматического поиска соответствий на дисторсионно-искаженных изображениях с динамично меняющих свои пространственные положение и ориентацию цифровых камер высокого разрешения;- increasing the speed of automatic search for matches on distortion-distorted images from high-resolution digital cameras dynamically changing their spatial position and orientation;

Кроме этого к техническому результату может быть отнесено снижение стоимости и большая простота реализации измерительной системы за счет возможности применения дешевых бытовых «неметрических» камер, в том числе, с неизвестными техническими параметрами.In addition, the technical result can be attributed to a reduction in cost and greater ease of implementation of the measuring system due to the possibility of using cheap household "non-metric" cameras, including those with unknown technical parameters.

Для осуществления заявленного способа могут использоваться по крайней мере две разнесенные в пространстве (при чем в любой плоскости) и произвольно сориентированный цифровые j-ые видеокамеры 10 и 11 (Фиг. 6), обеспечивающие возможность захвата стереоизображений объектов интереса и совместно с обрабатывающей системой (на фиг. 6 не показано) образующие СТЗ. Причем применяемые цифровые камеры могут быть как в видимого, так и инфракрасного диапазонов.To implement the claimed method, at least two spaced apart in space (and in any plane) and arbitrarily oriented digital j-th video cameras 10 and 11 (Fig. 6) can be used, providing the ability to capture stereo images of objects of interest and together with the processing system (on Fig. 6 is not shown) forming the STZ. Moreover, the digital cameras used can be both in the visible and infrared ranges.

Каждая из применяемых j-ых камер, например, камера 10 и 11 (Фиг. 6), может быть установлена на своем кардановом подвесе, обеспечивающем возможность изменения угловой ориентации камеры (в зависимости от необходимости) в горизонтальной, вертикальной и поперечной плоскостях. Каждый из кардановых подвесов в свою очередь может дополнительно содержать датчики углов, осуществляющие получение значений величин углов ориентации камеры (в зависимости от конструкции карданова подвеса) в горизонтальной, вертикальной и поперечной плоскостях. При этом камера 10 и камера 11, датчики угла поворота рам подвеса должны быть выполнены с возможностью передачи в обрабатывающую систему видеоданных и данных о пространственной ориентации камер через кабели (например, кабели универсальной последовательной шины USB) или по беспроводной связи (например, Wi-Fi).Each of the j-th cameras used, for example, camera 10 and 11 (Fig. 6), can be mounted on its gimbal, which provides the ability to change the angular orientation of the camera (depending on the need) in the horizontal, vertical and transverse planes. Each of the gimbals, in turn, may additionally contain angle sensors that obtain the values of the camera orientation angles (depending on the gimbal design) in the horizontal, vertical and transverse planes. In this case, the camera 10 and the camera 11, the sensors of the angle of rotation of the suspension frames should be made with the possibility of transmitting video data and data on the spatial orientation of the cameras to the processing system through cables (for example, cables of the universal serial bus USB) or wirelessly (for example, Wi-Fi ).

Текущие положение и ориентация каждой из j-ых камер определяются по их системам координат (СК)

Figure 00000022
При этом начало
Figure 00000023
каждой из СК
Figure 00000024
располагается в оптическом центре объектива j-ой камеры. Ось
Figure 00000025
направляется строго по оптической оси объектива, ось
Figure 00000026
- влево относительно направления оси
Figure 00000027
вдоль строк цифровых изображений, ось
Figure 00000028
- вверх вдоль столбцов изображений. Так на фиг. 6 в качестве примера показано размещение двух СК 12
Figure 00000029
и 13
Figure 00000030
для камер 10 и 11.The current position and orientation of each of the j-th cameras are determined by their coordinate systems (SC)
Figure 00000022
At the same time, the beginning
Figure 00000023
each of the UK
Figure 00000024
is located in the optical center of the lens of the j-th camera. Axis
Figure 00000025
is directed strictly along the optical axis of the lens, the axis
Figure 00000026
- to the left relative to the direction of the axis
Figure 00000027
along lines of digital images, axis
Figure 00000028
- up along the columns of images. Thus, in FIG. 6 shows as an example the placement of two SK 12
Figure 00000029
and 13
Figure 00000030
for chambers 10 and 11.

В свою очередь для описания пространственного положения и ориентации СК 12 и 13 относительно начальной СК 17 OwXwYwZw применяют матрицы

Figure 00000031
In turn, to describe the spatial position and orientation of SC 12 and 13 relative to the initial SC 17 O w X w Y w Z w use matrices
Figure 00000031

Figure 00000032
Figure 00000032

где

Figure 00000033
Where
Figure 00000033

Figure 00000034
Figure 00000034

Figure 00000035
Figure 00000035

Figure 00000036
Figure 00000036

Figure 00000037
Figure 00000037

Figure 00000038
- углы в горизонтальной, вертикальной и поперечной плоскостях ориентации осей СК 12 и 13 относительно соответствующих осей СК 17;
Figure 00000038
- angles in the horizontal, vertical and transverse planes of orientation of the axes SK 12 and 13 relative to the corresponding axes SK 17;

Figure 00000039
- координаты начала СК 12 и 13 заданные в СК 17.
Figure 00000039
- coordinates of the beginning of SC 12 and 13 given in SC 17.

Цифровые изображения разрешением Nj×Mj, принимаемые с каждой из j-ых камер (фиг. 6), состоят из пикселей. Каждый пиксель характеризуется значением, которое состоит из полутонового значения или цветового значения. В полутоновых изображениях значение пикселя представляет собой одну величину, которая характеризует яркость пикселя. Наиболее общим форматом описания пикселя является байт изображения, в котором значение пикселя представлено восьмиразрядным целым числом, лежащим в диапазоне возможных значений от 0 до 255. Как правило, значение пикселя, равное нулю, используют для обозначения черного пикселя, а значение 255 используют для обозначения белого пикселя. Промежуточные значения описывают различные оттенки полутонов. В цветных изображениях для описания каждого пикселя (расположенного в цветовом пространстве размерности RGB - красный, зеленый, синий) должны быть отдельно определены красная, зеленая и синяя компоненты. Иными словами, значение пикселя фактически представляет собой вектор, описанный тремя числами. Три различные компоненты могут быть сохранены как три отдельных полутоновых изображения, известные как цветовые плоскости (по одной для красного, зеленого и синего цветов), которые можно воссоединять при отображении или при обработке.Digital images with a resolution of N j × M j received from each of the j-th cameras (Fig. 6) are composed of pixels. Each pixel is characterized by a value, which consists of a grayscale value or a color value. In grayscale images, a pixel value is a single value that characterizes the brightness of a pixel. The most common format for describing a pixel is an image byte, in which the pixel value is represented by an eight-bit integer that ranges from 0 to 255. Typically, a pixel value of zero is used to denote a black pixel, and a value of 255 is used to denote white. pixel. Intermediate values describe different shades of midtones. In color images, to describe each pixel (located in an RGB color space - red, green, blue), the red, green and blue components must be separately defined. In other words, the pixel value is actually a vector described by three numbers. The three different components can be saved as three separate halftones, known as color planes (one each for red, green, and blue), which can be reconnected when displayed or processed.

Цифровые изображения 1 и 2 своим центрами 15 и 16 принимают размещенными на оптических осях их объективов в положительных направлениях осей

Figure 00000040
СК 12 и 13 на расстояниях
Figure 00000041
(Фиг. 6). При этом строки изображений 1 и 2 параллельны осям
Figure 00000042
а столбцы - осям
Figure 00000043
Digital images 1 and 2 with their centers 15 and 16 are taken placed on the optical axes of their lenses in the positive directions of the axes
Figure 00000040
SK
12 and 13 at distances
Figure 00000041
(Fig. 6). In this case, rows of images 1 and 2 are parallel to the axes
Figure 00000042
and columns to axes
Figure 00000043

Если, например, в поле зрения камеры 10 находится объект 14 (Фиг. 6), то на цифровом изображении 1 изображению 3 этого объекта будет соответствовать пиксель, положение которого в пиксельной СК изображения 1 будет характеризоваться номером столбца nj и строки mj. Аналогично для камеры 11 на ее изображении 2 координатам изображения 5 объекта 14 будут соответствовать nj+1 и mj+1.If, for example, an object 14 is in the field of view of the camera 10 (Fig. 6), then on the digital image 1 the image 3 of this object will correspond to a pixel whose position in the pixel SC of image 1 will be characterized by the number of the column n j and the row m j . Similarly for the camera 11 on its image 2 the coordinates of the image 5 of the object 14 will correspond to n j + 1 and m j + 1 .

Обрабатывающая система, являющаяся, например, удаленным компьютером, таким как ноутбук или персональный компьютер (рабочая станция), должна обеспечивать выбор пользователем изображений и/или ввод команд обработки и содержать в свою очередь исполняемые модули или команды с возможностью выполнения по меньшей мере одним процессором, пользовательский интерфейс содержащий дисплей, такой как жидкокристаллический монитор, для просмотра видеоданных и устройство управления и ввода данных, такое как клавиатура или указательное устройство (например, манипулятор типа «мышь», шаровой указатель, стилус, сенсорная панель или другое устройство), для обеспечения взаимодействия пользователя с видеоданными.The processing system, which is, for example, a remote computer, such as a laptop or a personal computer (workstation), must provide a user selection of images and / or input processing commands and contain, in turn, executable modules or commands capable of being executed by at least one processor, a user interface containing a display, such as a liquid crystal monitor, for viewing video data, and a control and data input device such as a keyboard or pointing device (for example, a mouse, trackball, stylus, touch pad, or other device) to provide interaction user with video data.

Сущность изобретения поясняется чертежами, которые не охватывают и тем более не ограничивают весь объем притязаний данного изобретения, а являются лишь иллюстрирующими материалами частного случая выполнения, на которых:The essence of the invention is illustrated by drawings, which do not cover and even more so do not limit the entire scope of the claims of this invention, but are only illustrative materials of a particular case of implementation, in which:

на фиг. 1 иллюстрируется способ определения положения области поиска соответствий при применении одинаковых и параллельно расположенных камер;in fig. 1 illustrates a method for determining the position of a search area using identical and parallel cameras;

на фиг. 2 иллюстрируется способ определения положения области поиска соответствий при применении одинаковых, но произвольно расположенных в вертикальной и горизонтальной плоскостях камер;in fig. 2 illustrates a method for determining the position of the search area using the same cameras, but randomly located in the vertical and horizontal planes;

на фиг. 3 иллюстрируется способ определения положения области поиска соответствий при проведении предварительной ректификации изображений обеих камер;in fig. 3 illustrates a method for determining the position of the matching search area during preliminary rectification of images of both cameras;

на фиг. 4 иллюстрируется способ определения положения области поиска соответствий вдоль эпиполярных линий;in fig. 4 illustrates a method for determining the position of a matching region along epipolar lines;

на фиг. 5 иллюстрируется разработанный способ определения положения области поиска соответствий;in fig. 5 illustrates the developed method for determining the position of the search area;

на фиг. 6 показана схема взаимного положения СК камер и их изображений, а также отражены возможное положение изображения интересующего объекта на изображении одной камеры и область поиска соответствий на изображении второй камеры.in fig. 6 shows a diagram of the relative position of CC cameras and their images, and also reflects the possible position of the image of an object of interest on the image of one camera and the search area for matches on the image of the second camera.

Осуществляют заявленный способ следующим образом (фиг. 5-6).The claimed method is carried out as follows (Fig. 5-6).

На изображении 1 камеры 10 в ручном или автоматическом режимах задают пиксельные координаты nj и mj изображения 3 интересующего объекта 14, на основании чего согласно выражений (1-3) вычисляют вектор

Figure 00000044
трехмерных координат изображения 3 в СК 12 камеры.On the image 1 of the camera 10, in manual or automatic modes, the pixel coordinates n j and m j of the image 3 of the object of interest 14 are set, on the basis of which, according to expressions (1-3), the vector is calculated
Figure 00000044
three-dimensional coordinates of the image 3 in the SK 12 camera.

Задают значения минимальной

Figure 00000045
и максимальной
Figure 00000046
дальностей измерений относительно СК камеры 12.Sets the values of the minimum
Figure 00000045
and maximum
Figure 00000046
measurement ranges relative to the SC camera 12.

Разбивают расстояние от

Figure 00000047
до
Figure 00000048
на i интервалов и вычисляют шаг hi, одного интервала согласно выражения
Figure 00000049
Break up the distance from
Figure 00000047
before
Figure 00000048
into i intervals and calculate the step h i , one interval according to the expression
Figure 00000049

Вычисляют матрицу Mj положений объекта 14 в СК 12 камеры 10Calculate the matrix M j of the positions of the object 14 in the SC 12 of the camera 10

Figure 00000050
Figure 00000050

На основании данных с датчиков кардановых подвесов, на которой установлены камеры, или по данным их текущей внешней калибровки вычисляют матрицы положения

Figure 00000051
и
Figure 00000052
в соответствии с выражением (7).Based on the data from the gimbal sensors on which the cameras are installed, or according to their current external calibration, position matrices are calculated
Figure 00000051
and
Figure 00000052
in accordance with expression (7).

Вычисляют матрицу Mj+1 положений объекта 14 в СК 13 камеры 11Calculate the matrix M j + 1 positions of the object 14 in the SC 13 of the camera 11

Figure 00000053
Figure 00000053

Проецируют матрицу Mj+1 на плоскость изображения 2 камеры 11, для чего с учетом значений матрицы Mj+1 вычисляют матрицу

Figure 00000054
The matrix M j + 1 is projected onto the image plane 2 of the camera 11, for which, taking into account the values of the matrix M j + 1, the matrix is calculated
Figure 00000054

Figure 00000055
Figure 00000055

где вектор

Figure 00000056
определяет положение ближней границы 8, а вектор
Figure 00000057
- положение дальней границы 9 области поиска 7 на изображении 2.where vector
Figure 00000056
defines the position of the near border 8, and the vector
Figure 00000057
- the position of the far boundary 9 of the search area 7 in image 2.

Если

Figure 00000058
то любым из известных способов аппроксимируют значения первого и второго столбцов матрицы
Figure 00000059
полиномом
Figure 00000060
g-го порядкаIf
Figure 00000058
then any of the known methods approximate the values of the first and second columns of the matrix
Figure 00000059
polynomial
Figure 00000060
gth order

Figure 00000061
Figure 00000061

где a 0, a 1, a 2, … a g - полиномиальные коэффициенты функции

Figure 00000062
where a 0 , a 1 , a 2 ,… a g are the polynomial coefficients of the function
Figure 00000062

Если

Figure 00000063
то аппроксимируют значения первого и второго столбцов матрицы
Figure 00000064
полиномом
Figure 00000065
If
Figure 00000063
then the values of the first and second columns of the matrix are approximated
Figure 00000064
polynomial
Figure 00000065

Figure 00000066
(12)
Figure 00000066
(12)

где b0, b1, b2, … bg - полиномиальные коэффициенты функции

Figure 00000067
where b 0 , b 1 , b 2 ,… b g are the polynomial coefficients of the function
Figure 00000067

С применением выражения (4) вычисляют пиксельные координаты ближней 8 (вектор Pj+1,0) и дальней 9 (вектор Pj+1,i) границ области поиска 7Using expression (4), the pixel coordinates of the near 8 (vector P j + 1,0 ) and far 9 (vector P j + 1, i ) boundaries of the search area 7

Figure 00000068
Figure 00000068

Figure 00000069
Figure 00000069

Если был получен полином

Figure 00000070
то генерируют ряд
Figure 00000071
номеров столбцов от nj+1,0 до nj+1,i шагом в один пиксель, при этом если nj+1,0≤0, то nj+1,0 принимают, равным нулю, если nj+1,i≥Nj+1-1, то nj+1,i принимают равным Nj+1-1.If a polynomial was obtained
Figure 00000070
then generate a series
Figure 00000071
of column numbers from n j + 1.0 to n j + 1, i in one pixel increments, while if n j + 1.0 ≤0, then n j + 1.0 is taken equal to zero, if n j + 1 , i ≥ N j + 1 -1, then n j + 1, i is taken equal to N j + 1 -1.

Согласно выражения (2) для значений ряда Ln вычисляют ряд

Figure 00000072
Далее на оснований значений Lα вычисляют ряд
Figure 00000073
According to expression (2), for the values of the series L n, the series
Figure 00000072
Further, based on the values of L α, the series
Figure 00000073

Подставляют значения ряда Lx в выражение (11), при этом вычисленные значения

Figure 00000074
записывают ряд
Figure 00000075
The values of the series L x are substituted into expression (11), while the calculated values
Figure 00000074
record a number
Figure 00000075

Преобразуют значения ряда Ly в ряд Lm в соответствии с выражениемConvert the values of the series L y to the series L m in accordance with the expression

Figure 00000076
Figure 00000076

Если был получен полином

Figure 00000077
то генерируют ряд
Figure 00000078
номеров строк от mj+1,0 до mj+1,i, при этом если mj+1,0≤0, то mj+1,0 принимают, равным нулю, если mj+1,i≥Mj+1-1, то mj+1,i принимают равным Mj+1-1.If a polynomial was obtained
Figure 00000077
then generate a series
Figure 00000078
line numbers from m j + 1.0 to m j + 1, i , and if m j + 1.0 ≤0, then m j + 1.0 is taken equal to zero, if m j + 1, i ≥M j + 1 -1, then m j + 1, i is taken equal to M j + 1 -1.

Согласно выражения (3) для значений ряда Lm вычисляют ряд

Figure 00000079
Далее на оснований значений Lβ вычисляют ряд
Figure 00000080
According to expression (3), for the values of the series L m, the series
Figure 00000079
Further, based on the values of L β, the series
Figure 00000080

Подставляют значения ряда Ly в выражение (12), при этом вычисленные значения

Figure 00000081
записывают ряд
Figure 00000082
The values of the series L y are substituted into expression (12), while the calculated values
Figure 00000081
record a number
Figure 00000082

Преобразуют значения ряда Lx в ряд Ln согласно выраженияConvert the values of the series L x to the series L n according to the expression

Figure 00000083
Figure 00000083

На заключительном этапе после вычисления рядов Ln и Lm из их значений формируют массив поискаAt the final stage, after calculating the series L n and L m , a search array is formed from their values

Figure 00000084
Figure 00000084

с округленными до ближайшего целого значениями пиксельных координат nj+1,i и mj+1,i, в своей совокупности определяющими положение дополнительно ограниченной с двух сторон и адаптированной по форме к дисторсионным искажениям объектива области поиска 7 на изображении 2 j+1-ой камеры 11.with rounded to the nearest integer values of pixel coordinates n j + 1, i and m j + 1, i , in their totality, determining the position additionally limited on both sides and adapted in shape to distortion distortions of the lens of the search area 7 in the image 2 j + 1- th camera 11.

Claims (60)

Способ определения положения области поиска соответствий на дисторсионно-искаженных изображениях, заключающийся в приеме цифровых изображений по крайней мере с двух j-й и j+1-й видеокамер и их дальнейшей обработке с целью нахождения области поиска интересующего объекта на изображении j+1-й камеры по известным его пиксельным nj, mj координатам на изображении j-й камеры, где nj - номер столбца, mj - номер строки,A method for determining the position of the search area for matches on distortion-distorted images, which consists in receiving digital images from at least two j-th and j + 1-th video cameras and their further processing in order to find the search area of the object of interest in the j + 1-th image camera by its known pixel n j , m j coordinates on the image of the j-th camera, where n j is the column number, m j is the row number, отличающийся тем, что при определении положения и границ области поиска интересующего объекта на изображении j+1-й камеры по известным его пиксельным координатам nj и mj на изображении j-й камеры вычисляют вектор Aj трехмерных координат изображения этого объекта в системе координат (СК) j-й камеры согласно выражению:characterized in that when determining the position and boundaries of the search area of the object of interest on the image of the j + 1-th camera according to its known pixel coordinates n j and m j on the image of the j-th camera, the vector A j of the three-dimensional coordinates of the image of this object in the coordinate system ( CK) of the j-th chamber according to the expression:
Figure 00000085
Figure 00000085
где Aj - вектор трехмерных координат
Figure 00000086
центра изображения интересующего объекта на плоскости изображения j-й камеры, условно отстоящего от оптического центра
Figure 00000087
ее объектива на расстоянии
Figure 00000088
where A j is a vector of three-dimensional coordinates
Figure 00000086
center of the image of the object of interest on the image plane of the j-th camera, conventionally spaced from the optical center
Figure 00000087
her lens in the distance
Figure 00000088
Figure 00000089
- приведенные пиксельные координаты изображения объекта на изображении j-й камеры;
Figure 00000089
- the given pixel coordinates of the object image on the image of the j-th camera;
αj и βj - углы соответственно в горизонтальной и вертикальной плоскостях на интересующий объект относительно оптической оси
Figure 00000090
объектива j-й камеры, вычисляемые согласно выраженям:
α j and β j - angles, respectively, in the horizontal and vertical planes to the object of interest relative to the optical axis
Figure 00000090
lens of the j-th camera, calculated according to the expressions:
Figure 00000091
Figure 00000091
Figure 00000092
Figure 00000092
Nj и Mj - горизонтальное и вертикальное разрешения изображения j-й камеры;N j and M j - horizontal and vertical image resolution of the j-th camera; с0, с1, с2, … cq и d0, d1, d2, … dq - полиномиальные коэффициенты «прямого» преобразования функций
Figure 00000093
и
Figure 00000094
соответственно;
s 0 , s 1 , s 2 , ... c q and d 0 , d 1 , d 2 , ... d q - polynomial coefficients of the "direct" transformation of functions
Figure 00000093
and
Figure 00000094
respectively;
задают значения минимальной
Figure 00000095
и максимальной
Figure 00000096
дальностей измерений относительной СК j-й камеры;
set the values of the minimum
Figure 00000095
and maximum
Figure 00000096
ranges of measurements of the relative SC of the j-th camera;
разбивают расстояние от
Figure 00000097
до
Figure 00000098
на i интервалов и вычисляют шаг hi одного интервала
split the distance from
Figure 00000097
before
Figure 00000098
into i intervals and calculate the step h i of one interval
Figure 00000099
Figure 00000099
вычисляют матрицу Mj положений объекта в СК j-й камерыcalculate the matrix M j of object positions in the SC of the j-th camera
Figure 00000100
Figure 00000100
на основании принятых данных с датчиков кардановых подвесов, на которых установлены камеры, или по данным их текущей внешней калибровки вычисляют матрицы положения
Figure 00000101
и
Figure 00000102
в соответствии с выражением
position matrices are calculated based on the data received from the gimbal sensors on which the cameras are installed, or according to the data of their current external calibration
Figure 00000101
and
Figure 00000102
according to expression
Figure 00000103
Figure 00000103
где
Figure 00000104
Where
Figure 00000104
Figure 00000105
Figure 00000105
Figure 00000106
Figure 00000106
Figure 00000107
Figure 00000107
Figure 00000108
Figure 00000108
Figure 00000109
Figure 00000109
Figure 00000110
Figure 00000110
Figure 00000111
Figure 00000111
Figure 00000112
Figure 00000112
Figure 00000113
и
Figure 00000114
- углы в горизонтальной, вертикальной и поперечной плоскостях ориентации осей СК соответственно j-й и j+1-й камер относительно соответствующих осей начальной (мировой) СК;
Figure 00000113
and
Figure 00000114
- angles in the horizontal, vertical and transverse planes of the orientation of the axes of the spacecraft, respectively, of the j-th and j + 1-th cameras relative to the corresponding axes of the initial (world) spacecraft;
Figure 00000115
и
Figure 00000116
- координаты начал СК j-й и j+1-й камер, заданные в начальной внешней СК;
Figure 00000115
and
Figure 00000116
- coordinates of the beginning of the CS of the j-th and j + 1-th cameras, specified in the initial external CS;
вычисляют матрицу Mj+1 положений интересующего объекта в СК j+1-й камерыcalculate the matrix M j + 1 of the positions of the object of interest in the SC j + 1-th camera
Figure 00000117
Figure 00000117
проецируют матрицу Mj+1 на плоскость изображения j+1-й камеры, для чего с учетом значений матрицы Mj+1 вычисляют матрицу
Figure 00000118
the matrix M j + 1 is projected onto the image plane of the j + 1-th camera, for which, taking into account the values of the matrix M j + 1, the matrix is calculated
Figure 00000118
Figure 00000119
Figure 00000119
где вектор
Figure 00000120
определяет положение ближней границы, а вектор
Figure 00000121
- положение дальней границы области поиска на изображении j+1-ой камеры;
where vector
Figure 00000120
defines the position of the near border, and the vector
Figure 00000121
- the position of the far boundary of the search area on the image of the j + 1st camera;
при этом если
Figure 00000122
то любым из известных способов аппроксимируют значения первого и второго столбцов матрицы
Figure 00000123
полиномом
Figure 00000124
g-го порядка
while if
Figure 00000122
then any of the known methods approximate the values of the first and second columns of the matrix
Figure 00000123
polynomial
Figure 00000124
gth order
Figure 00000125
Figure 00000125
где a 0, a 1, a 2, … a g - полиномиальные коэффициенты функции
Figure 00000126
where a 0 , a 1 , a 2 ,… a g are the polynomial coefficients of the function
Figure 00000126
если
Figure 00000127
то аппроксимируют значения первого и второго столбцов матрицы
Figure 00000128
полиномом
Figure 00000129
if
Figure 00000127
then the values of the first and second columns of the matrix are approximated
Figure 00000128
polynomial
Figure 00000129
Figure 00000130
Figure 00000130
где b0, b1, b2, … bg - полиномиальные коэффициенты функции
Figure 00000131
where b 0 , b 1 , b 2 ,… b g are the polynomial coefficients of the function
Figure 00000131
вычисляют пиксельные координаты (nj+1,0, mj+1,0 и nj+1,i, mj+1,i) ближней (вектор Pj+1,0) и дальней (вектор Pj+1,i) границ области поиска на изображении j+1-ой камерыcalculate pixel coordinates (n j + 1.0 , m j + 1.0 and n j + 1, i , m j + 1, i ) near (vector P j + 1.0 ) and far (vector P j + 1 , i ) the boundaries of the search area on the image of the j + 1st camera
Figure 00000132
Figure 00000132
Figure 00000133
Figure 00000133
где ƒ(αj+1) и ƒ(βj+1) - функции «обратного» преобразования, вычисляемые согласно выраженийwhere ƒ (α j + 1 ) and ƒ (β j + 1 ) are the “inverse” transformation functions calculated according to the expressions
Figure 00000134
Figure 00000134
Figure 00000135
Figure 00000135
q - порядок (степень) полиномов (13) и (14);q - order (degree) of polynomials (13) and (14);
Figure 00000136
и
Figure 00000137
- полиномиальные коэффициенты «обратного» преобразования функций ƒ(αj+1) и ƒ(βj+1) соответственно;
Figure 00000136
and
Figure 00000137
- polynomial coefficients of the "inverse" transformation of the functions ƒ (α j + 1 ) and ƒ (β j + 1 ), respectively;
если ранее был получен полином
Figure 00000138
то генерируют ряд
Figure 00000139
номеров столбцов от nj+1,0 до nj+1,i шагом в один пиксель, при этом если nj+1,0≤0, то nj+1,0 принимают, равным нулю, если nj+1,i≥Nj+1-1, то nj+1,i принимают равным Nj+1-1;
if a polynomial was obtained earlier
Figure 00000138
then generate a series
Figure 00000139
of column numbers from n j + 1.0 to n j + 1, i in one pixel increments, while if n j + 1.0 ≤0, then n j + 1.0 is taken equal to zero, if n j + 1 , i ≥N j + 1 -1, then n j + 1, i is taken equal to N j + 1 -1;
согласно выражению (2) для значений ряда Ln вычисляют ряд
Figure 00000140
далее на основании значений Lα вычисляют ряд
Figure 00000141
according to expression (2) for the values of the series L n, the series
Figure 00000140
then, based on the values of L α, the series
Figure 00000141
подставляют значения ряда Lx в выражение (9), при этом вычисленные значения
Figure 00000142
записывают ряд
Figure 00000143
substitute the values of the series L x into expression (9), while the calculated values
Figure 00000142
record a number
Figure 00000143
преобразуют значения ряда Ly в ряд Lm в соответствии с выражениемconvert the values of the series L y to the series L m in accordance with the expression
Figure 00000144
Figure 00000144
если же был получен полином
Figure 00000145
то генерируют ряд
Figure 00000146
номеров строк от mj+1,0 до mj+1,i, при этом если mj+1,0≤0, то mj+1,0 принимают, равным нулю, если mj+1,i≥Mj+1-1, то mj+1,i принимают равным Mj+1-1;
if the polynomial was obtained
Figure 00000145
then generate a series
Figure 00000146
line numbers from m j + 1.0 to m j + 1, i , and if m j + 1.0 ≤0, then m j + 1.0 is taken equal to zero, if m j + 1, i ≥M j + 1 -1, then m j + 1, i is taken equal to M j + 1 -1;
согласно выражению (3) для значений ряда Lm вычисляют ряд
Figure 00000147
Далее на основании значений Lβ вычисляют ряд
Figure 00000148
according to expression (3) for the values of the series L m calculate the series
Figure 00000147
Next, based on the values of L β, the series
Figure 00000148
подставляют значения ряда Ly в выражение (10), при этом вычисленные значения
Figure 00000149
записывают ряд
Figure 00000150
substitute the values of the series L y into expression (10), while the calculated values
Figure 00000149
record a number
Figure 00000150
преобразуют значения ряда Lx в ряд Ln согласно выражениюconvert the values of the series L x to the series L n according to the expression
Figure 00000151
Figure 00000151
на заключительном этапе после вычисления рядов Ln и Lm из их значений формируют массив поискаat the final stage, after calculating the series L n and L m , a search array is formed from their values
Figure 00000152
Figure 00000152
с округленными до ближайшего целого значениями пиксельных координат nj+1,i и mj+1,i, в своей совокупности определяющими положение дополнительно ограниченной с двух сторон и адаптированной по форме к дисторсионным искажениям объектива области поиска на изображении j+1-й камеры.with rounded to the nearest integer values of pixel coordinates n j + 1, i and m j + 1, i , in their totality, determining the position of the search area additionally bounded on both sides and adapted in shape to distortion distortions of the lens in the image of the j + 1-th camera ...
RU2020108613A 2020-02-27 2020-02-27 Method of determining position of region of searching for matches on distortion-degraded images RU2740435C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2020108613A RU2740435C2 (en) 2020-02-27 2020-02-27 Method of determining position of region of searching for matches on distortion-degraded images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2020108613A RU2740435C2 (en) 2020-02-27 2020-02-27 Method of determining position of region of searching for matches on distortion-degraded images

Publications (2)

Publication Number Publication Date
RU2020108613A RU2020108613A (en) 2020-07-06
RU2740435C2 true RU2740435C2 (en) 2021-01-14

Family

ID=71509421

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2020108613A RU2740435C2 (en) 2020-02-27 2020-02-27 Method of determining position of region of searching for matches on distortion-degraded images

Country Status (1)

Country Link
RU (1) RU2740435C2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2579532C2 (en) * 2014-02-12 2016-04-10 Алексей Владимирович Зубарь Optoelectronic stereoscopic range-finder
RU2626051C2 (en) * 2016-10-17 2017-07-21 Алексей Владимирович Зубарь Method for determining distances to objects using images from digital video cameras
US20180114336A1 (en) * 2016-10-24 2018-04-26 Industrial Technology Research Institute Positioning method and image capturing device thereof
CN108489398A (en) * 2018-05-21 2018-09-04 华南农业大学 Laser adds the method that monocular vision measures three-dimensional coordinate under a kind of wide-angle scene
RU2697822C2 (en) * 2018-11-19 2019-08-21 Алексей Владимирович Зубарь Method of determining coordinates of objects based on their digital images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2579532C2 (en) * 2014-02-12 2016-04-10 Алексей Владимирович Зубарь Optoelectronic stereoscopic range-finder
RU2626051C2 (en) * 2016-10-17 2017-07-21 Алексей Владимирович Зубарь Method for determining distances to objects using images from digital video cameras
US20180114336A1 (en) * 2016-10-24 2018-04-26 Industrial Technology Research Institute Positioning method and image capturing device thereof
CN108489398A (en) * 2018-05-21 2018-09-04 华南农业大学 Laser adds the method that monocular vision measures three-dimensional coordinate under a kind of wide-angle scene
RU2697822C2 (en) * 2018-11-19 2019-08-21 Алексей Владимирович Зубарь Method of determining coordinates of objects based on their digital images

Also Published As

Publication number Publication date
RU2020108613A (en) 2020-07-06

Similar Documents

Publication Publication Date Title
US20210110599A1 (en) Depth camera-based three-dimensional reconstruction method and apparatus, device, and storage medium
US10594941B2 (en) Method and device of image processing and camera
CN107194962B (en) Point cloud and plane image fusion method and device
US10726580B2 (en) Method and device for calibration
RU2626051C2 (en) Method for determining distances to objects using images from digital video cameras
JP5210203B2 (en) High-precision stereo camera calibration based on image differences
US20170078570A1 (en) Image processing device, image processing method, and image processing program
WO2020001120A1 (en) Light field image correction method, computer-readable storage medium, and electronic terminal
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
CN110738730B (en) Point cloud matching method, device, computer equipment and storage medium
US10277891B2 (en) Image processing apparatus, image processing method, and storage medium
CN116129037B (en) Visual touch sensor, three-dimensional reconstruction method, system, equipment and storage medium thereof
US10664947B2 (en) Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection
WO2023213252A1 (en) Scanning data processing method and apparatus, and device and medium
US9958259B2 (en) Depth value measurement
RU2740435C2 (en) Method of determining position of region of searching for matches on distortion-degraded images
US10089726B2 (en) Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image
JP7150460B2 (en) Image processing device and image processing method
CN116704125A (en) Mapping method, device, chip and module equipment based on three-dimensional point cloud
US11941851B2 (en) Systems and methods for calibrating imaging and spatial orientation sensors
RU2697822C2 (en) Method of determining coordinates of objects based on their digital images
RU2014105235A (en) OPTICAL ELECTRONIC STEREOSCOPIC RANGE
JP6332982B2 (en) Image processing apparatus and method
US9092840B2 (en) Image processing apparatus, control method of the same and non-transitory computer-readable storage medium
Guan et al. An improved fast camera calibration method for mobile terminals