RU2740435C2 - Method of determining position of region of searching for matches on distortion-degraded images - Google Patents
Method of determining position of region of searching for matches on distortion-degraded images Download PDFInfo
- Publication number
- RU2740435C2 RU2740435C2 RU2020108613A RU2020108613A RU2740435C2 RU 2740435 C2 RU2740435 C2 RU 2740435C2 RU 2020108613 A RU2020108613 A RU 2020108613A RU 2020108613 A RU2020108613 A RU 2020108613A RU 2740435 C2 RU2740435 C2 RU 2740435C2
- Authority
- RU
- Russia
- Prior art keywords
- camera
- image
- values
- series
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
Изобретение относится к области информационно-измерительных систем в частности систем технического зрения и предназначается для решения задач автоматизации определения положения и границ областей поиска соответствий на двух и более цифровых изображениях. Изобретение в первую очередь ориентировано на применение в маломощных мобильных системах, предполагающих работу в реальном масштабе времени с дисторсионно-искаженными изображениями высокого разрешения без предварительной их обработки.The invention relates to the field of information-measuring systems, in particular, technical vision systems and is intended to solve the problems of automating the determination of the position and boundaries of search areas for matching on two or more digital images. The invention is primarily focused on the use in low-power mobile systems, involving real-time operation with distortion-distorted high-resolution images without their preliminary processing.
При разработке систем технического зрения (СТЗ) пространственного позиционирования (измерения параметров движения, координат, размеров и т.п.) как самой системы, так и наблюдаемых через ее цифровые камеры объектов, одними из главных требований является осуществление измерений в реальном масштабе времени, высокая точность результатов измерений и вычислительная реализуемость применяемого автоматического определение положения и границ областей поиска соответствий на двух и более цифровых изображениях. Особенно последнее требование актуально при реализации мобильных СТЗ выполняемых на базе ЭВМ с ограниченной вычислительной мощностью. Выполнение данного требования во многом определяет погрешность измерительной системы и возможность проведения точного и высокоскоростного сопоставления соответствующих изображений интересующих объектов на множестве кадров цифровых изображений.When developing technical vision systems (STS) for spatial positioning (measurement of motion parameters, coordinates, dimensions, etc.) of both the system itself and objects observed through its digital cameras, one of the main requirements is the implementation of measurements in real time, high the accuracy of the measurement results and the computational feasibility of the applied automatic determination of the position and boundaries of the search areas for matching on two or more digital images. The latter requirement is especially relevant when implementing mobile STZs based on computers with limited computing power. Fulfillment of this requirement largely determines the error of the measuring system and the possibility of conducting accurate and high-speed comparison of the corresponding images of objects of interest on a set of digital image frames.
В настоящее время различают глобальный и локальный поиск соответствий.Currently, a distinction is made between global and local matching.
Глобальный поиск основывается на минимизации функционала энергии, когда находят расхождение сразу для множества точек (объектов) обрабатываемых изображений. Как правило такие задачи связаны с трехмерной реконструкцией наблюдаемой сцены по множеству разноракурсных изображений. Общий недостаток глобального поиска - это высокая вычислительная сложность.Global search is based on minimizing the energy functional, when the discrepancy is found at once for a set of points (objects) of the processed images. As a rule, such tasks are associated with a three-dimensional reconstruction of the observed scene from a variety of different-angle images. A common disadvantage of global search is high computational complexity.
Особенность локального поиска заключается в том, что поиск соответствий в нем организуется путем последовательного сканирования между локальными участками изображений, как правило это некоторая интересующая область одного изображения и область поиска на другом изображении.The peculiarity of local search is that the search for matches in it is organized by sequential scanning between local areas of images, as a rule, this is a certain area of interest in one image and a search area in another image.
В свою очередь размеры областей поиска и порядок их нахождения будут определять точность поиска и требования к вычислительной мощности ЭВМ.In turn, the sizes of the search areas and the order of their finding will determine the search accuracy and the requirements for the computing power of the computer.
Самый простой по реализации способ определения положения области поиска (при локальном поиске) может быть применен в СТЗ, предполагающей прием цифровых изображений по крайней мере с двух одинаковых видео или фотокамер, расположенных в пространстве строго параллельно друг другу и на одной базовой линии [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12.]. В этом случае, если на изображении 1 левой камеры выделена несущая информацию об интересующем объекте область 4 с центром в точке 3, то на изображении 2 правой камеры участок 6 изображения данного объекта с центром в точке 5 будет иметь такие же вертикальные координаты, что и на изображении 1 (Фиг. 1). Тогда область поиска 7 на изображении 2 может быть ограничена линией от точки 8 до точки 9. Точка 8 характеризует ближайшую, а точка 9 - бесконечно уделенную границы области поиска 7. При этом пиксельные координаты nj+1 и mj+1 удаленной границы 9 на изображении 2 будут равны пиксельным координатам nj и mj центра 3 области 4 характеризующей положение объекта интереса на изображении 1. Ближайшая граница 8 области поиска 7 при таком расположении камер будет находиться на левом крае изображения 2 (nj+1=0) с такой же вертикальной координатой mj+1, что и у границы 9.The simplest way to implement the method for determining the position of the search area (in local search) can be applied in STZ, which involves the reception of digital images from at least two identical videos or cameras located in space strictly parallel to each other and on the same baseline [Zubar A. V., Sidorenko A.A., Tishin S.A., Shcherbo A.N. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12.]. In this case, if on
Недостаток данного способа определения положения области поиска соответствий заключается в ограниченности его применения в связи с необходимостью использования только абсолютно одинаковых камер, и в высоких требованиях по обеспечению точного их параллельного размещения в пространстве. Особенно последнее является критичным для применения СТЗ на движущихся мобильных платформах, где ударные и вибрационные нагрузки могут приводить к колебаниям и деформациям корпуса, в том числе и в местах крепления камер, что делает условие обеспечения абсолютной параллельности камер если не практически, то трудно реализуемым.The disadvantage of this method for determining the position of the match search area is the limited use of it due to the need to use only exactly the same cameras, and the high requirements for ensuring their exact parallel placement in space. The latter is especially critical for the use of STZ on moving mobile platforms, where shock and vibration loads can lead to vibrations and deformations of the body, including at the points of camera attachment, which makes the condition of ensuring absolute parallelism of the cameras, if not practically, then difficult to implement.
Нивелирования требования по обеспечению параллельного размещения камер (при чем только в вертикальной и горизонтальной их взаимной ориентации) может быть достигнуто путем расширения области поиска 7, при этом в максимуме область поиска 7 может охватывать практически все изображение 2 (Фиг. 2). Однако в этом случае многократно увеличивается количество вычислительных операций, и соответственно, растут требования к вычислительной мощности ЭВМ. Также достаточно высока вероятность ложного результата поиска в связи с возможностью нахождения в кадре идентичных по форме, ракурсу и окраске объектов.Leveling the requirement to ensure parallel placement of cameras (and only in their vertical and horizontal mutual orientation) can be achieved by expanding the
Все это приводит к тому, что на сегодняшний день данные способы практически не применимы, особенно в тех случаях, когда стоит необходимость проведения измерений в реальном масштабе времени с произвольно расположенных и разных по своим техническим параметрам цифровых видео или фотокамер на базе маломощной ЭВМ.All this leads to the fact that today these methods are practically not applicable, especially in those cases when it is necessary to carry out measurements in real time from randomly located and different in their technical parameters digital video or cameras based on a low-power computer.
Аналогом к заявленному изобретению является способ определения положения области поиска соответствий на цифровых изображениях основанный на их ректификации [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12, Пьянков, Д.И. Пространственная обработка несинхронизированных видеопоследовательностей на основе ректификации кадров // Программные продукты и системы. - №1(101) - Тверь: НИИ «Центрпрограммсистем», 2013 г., с. 61-66]. Сущность ректификации заключается в репроекции плоскостей изображений 1 и 2 таким образом, чтобы они находились в одной плоскости. В результате чего область поиска 7 преобразуется к горизонтальной линии (Фиг. 3). При этом если изображений 1 получено с левой камеры, а изображения 2 - с правой, то ближняя граница 8 области поиска 7 будет находиться на левом крае изображения 8, а дальняя граница 9 - на его правом крае. Вертикальная же координата mj+1, задающая положение области поиска 7 на изображении 2 определяется соответствующей координатой mj центра 3 области интереса 4 на изображении 1.An analogue to the claimed invention is a method for determining the position of the matching search area on digital images based on their rectification [Zubar A. V., Sidorenko A. A., Tishin S. A., Shcherbo A. N. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12, Pyankov, D.I. Spatial processing of unsynchronized video sequences based on rectification of frames // Software products and systems. - No. 1 (101) - Tver: Research Institute "Tsentrprogrammsystem", 2013, p. 61-66]. The essence of rectification lies in the reprojection of the planes of
Различают несколько видов ректификаций, например, планарную, полярную. Вместе с этим общими недостатками организации поиска по ректифицированным изображениям являются:There are several types of rectification, for example, planar, polar. Together with this, the general disadvantages of organizing a search for rectified images are:
- необходимость с высокой точностью установления всех внутренних, в том числе и случайных, параметров камер;- the need to establish with high accuracy all internal, including random, camera parameters;
- сложность осуществления расчетов в реальном времени для изображений высокого разрешения из-за большого количества вычислений, связанных с полной попиксельной переработкой пары изображений;- the complexity of real-time calculations for high-resolution images due to the large number of calculations associated with full pixel-by-pixel processing of a pair of images;
- искажения изображений, связанные с тем, что при устранении проективных искажений с помощью ректификации в том или ином виде всегда осуществляется интерполяция отсчетов, так как фактически после этого этапа поиск соответствий осуществляется «на других» изображениях, отличающихся от исходных;- distortions of images associated with the fact that when eliminating projective distortions using rectification in one form or another, interpolation of readings is always carried out, since in fact, after this stage, the search for matches is carried out “on other” images that differ from the original ones;
- ограниченная возможность применения ректификации, в частности, при обработке дисторсионно-искаженных и «разноракурсных» изображений после проведения ректификации изображения интересующих объектов могут быть настолько деформированы, что само по себе вычисление меры сходства станет невозможным.- the limited possibility of using rectification, in particular, when processing distortion-distorted and "multi-angle" images after rectification, the images of objects of interest can be so deformed that the calculation of the similarity measure by itself becomes impossible.
В качестве прототипа к заявленному изобретению выбран способ определения положения области поиска соответствий на цифровых изображениях вдоль эпиполярных линий [Зубарь А.В., Сидоренко А.А., Тишин С.А., Щербо А.Н. Анализ способов поиска соответствий на изображениях для маломощных систем технического зрения // Национальные приоритеты России. Сер. 1. Наука и военная безопасность. 2017. №4 (11). С. 5-12, Гошин, Е.В. Модель реконструкции 3D-сцен с учетом эпиполярных ограничений // Молодой ученый. - 2014. - №12. - С. 71-73. - URL https://moluch.ru/archive/71/12174/ (дата обращения: 10.01.2020)]. Нахождение положения эпиполярных линий базируется на модели эпиполярной геометрии, согласно которой все эпиполярные прямые проходят через эпиполюс, а множество эпиполярных плоскостей представляет собой однопараметрическое семейство плоскостей. И если на изображении 1 указан объект (Фиг. 4), то для данного взаимного положения камер на изображении 2 существует только одна линия 7, на которой возможно нахождение изображения этого объекта.As a prototype to the claimed invention, the selected method for determining the position of the search area for matches on digital images along the epipolar lines [A. Zubar, A. Sidorenko, S. A. Tishin, A. Shcherbo. Analysis of ways to search for matches in images for low-power vision systems // National priorities of Russia. Ser. 1. Science and military security. 2017. No. 4 (11). S. 5-12, Goshin, E.V. Model of reconstruction of 3D-scenes taking into account epipolar constraints // Young scientist. - 2014. - No. 12. - S. 71-73. - URL https://moluch.ru/archive/71/12174/ (date of access: 10.01.2020)]. Finding the position of epipolar lines is based on the model of epipolar geometry, according to which all epipolar straight lines pass through the epipole, and the set of epipolar planes is a one-parameter family of planes. And if an object is indicated in image 1 (Fig. 4), then for a given relative position of the cameras in
Очевидным достоинством такого подхода к определению положения области поиска по сравнению с ректификацией является отсутствие необходимости попиксельной переработки изображений. А из этого следует уменьшение количества вычислительных операций и повышение достоверности результата поиска, так как поиск осуществляется по оригинальным изображениям.An obvious advantage of this approach to determining the position of the search area in comparison with rectification is the absence of the need for pixel-by-pixel image processing. And from this follows a decrease in the number of computational operations and an increase in the reliability of the search result, since the search is carried out according to the original images.
С другой стороны, при нахождении эпиполярных линий так же, как и при ректификации, предварительно должна быть вычислена фундаментальная матрица, для построения которой необходимо точно знать все внутренние параметры камер и их взаимную ориентацию. Следовательно, продуктивность этого способа в случае, когда внутренние параметры камер или неизвестны вовсе, или известны ограниченно, а сами камеры постоянно меняют свою ориентацию, а поиск необходимо осуществлять по видеоряду в реальном масштабе времени, будет снижена.On the other hand, when finding epipolar lines, as well as during rectification, the fundamental matrix must be calculated first, for the construction of which it is necessary to know exactly all the internal parameters of the chambers and their mutual orientation. Consequently, the productivity of this method in the case when the internal parameters of the cameras are either unknown at all, or are known only to a limited extent, and the cameras themselves constantly change their orientation, and the search must be carried out using the video sequence in real time, will be reduced.
Другой важный недостаток связан с тем, что модель эпиполярной геометрии не учитывает дисторсионные искажения изображений. Так, на фигуре 4 показано, что, если изображения 1 и 2 искажены радиальной и тангенциальной дисторсией, область поиска 7 должна быть кривой (Фиг. 5). Модель эпиполярной геометрии не предполагает построение кривых, а, следовательно, для нахождения соответствующей эпиполярной линии необходимо или применять высококачественную и дорогую оптику или осуществлять коррекцию изображений, опять же связанную с их полной попиксельной переработкой. Это многократно увеличивает количество вычислительных операций и время на поиск, а также потребует для проведения измерений в реальном масштабе времени высокопроизводительной СТЗ с мощным графическим процессором. А для маломощных мобильных СТЗ с учетом обеспечения проведения измерений по искаженным дисторсией изображениям высокого разрешения в реальном времени такой способ определения положения области поиска может оказаться неприменим.Another important drawback is related to the fact that the epipolar geometry model does not take into account distortion distortions of images. So, figure 4 shows that if
Для определения положения области поиска 7 на изображении 2 вдоль эпиполярной линии эпиполярная плоскость принимается безразмерной. В связи с чем область поиска 7 проходит через все изображение 2. И для большинства случаев съемки это вполне справедливо. Но вместе с этим в отдельных ситуациях взаимная ориентация камер может оказаться такова, что область поиска 7 должна проходить не через все изображение (Фиг. 5). При этом ближняя граница 8 области поиска 7 может быть задана из условия минимальной дальности до интересующего объекта, а дальняя граница 9 - максимальной дистанцией, на которой ошибки измерений не превысят некоторое установленное значение, или дальностью за которой все объекты будут рассматриваться как равноудаленные. Введение таких дополнительных ограничений еще больше будет способствовать уменьшению размеров область поиска, и как следствие - снижению количества вычислительных операций при непосредственном проведении поиска.To determine the position of the
Таким образом, задача, на решение которой направлено заявленное изобретение, заключается в разработке способа автоматического определения положения ограниченной с двух сторон и адаптивной по форме характеру дисторсии области поиска при условии обеспечения возможности быстрой ее перестройки в случаях динамичного изменения взаимного положения в пространстве камер с неизвестными внутренними параметрами.Thus, the problem to be solved by the claimed invention is to develop a method for automatically determining the position of the search area bounded on both sides and adaptive in the shape of the distortion of the search area, provided that it can be quickly reconstructed in cases of dynamic change in the relative position in the space of cameras with unknown internal parameters.
Решение данной задачи обеспечивается:The solution to this problem is provided by:
во-первых, высокой скоростью перестроения положения и формы области поиска при изменении взаимного положения камер в пространстве за счет введения дополнительных ограничений на возможное положение в пространстве интересующего объекта в виде минимальной и максимальной дальностей измерений, а также отсутствия необходимости предварительной попиксельной переработки изображений, вычисления фундаментальной матрицы и решения сложных систем уравнений.first, the high speed of rebuilding the position and shape of the search area when changing the relative position of cameras in space due to the introduction of additional restrictions on the possible position in space of the object of interest in the form of a minimum and maximum measurement ranges, as well as the absence of the need for preliminary pixel-by-pixel processing of images, calculation of the fundamental matrix and solution of complex systems of equations.
во-вторых, адаптацией формы области поиска к дисторсионным искажениям объективов, погрешностям при производстве, сборке и эксплуатации камер, а также возможностью проведения поиска в условиях, когда известно только разрешения обрабатываемых изображений, за счет применения выражений, позволяющих осуществлять (Фиг. 6):secondly, by adapting the shape of the search area to distortion distortions of lenses, errors in the production, assembly and operation of cameras, as well as the ability to conduct a search in conditions when only the resolution of the processed images is known, through the use of expressions that allow (Fig. 6):
«прямой» переход от пиксельных координат nj и mj изображения интересующего объекта к его метрическим трехмерным координатам в системе координат (СК) j-ой камеры на основании выражения"Direct" transition from pixel coordinates n j and m j of the image of the object of interest to its metric three-dimensional coordinates in coordinate system (SC) j-th camera based on the expression
где Aj - вектор трехмерных координат центра изображения интересующего объекта на плоскости изображения j-ой камеры, условно отстоящего от оптического центра ее объектива на расстоянии where A j is a vector of three-dimensional coordinates the center of the image of the object of interest on the image plane of the j-th camera, conditionally distant from the optical center her lens in the distance
n'j=nj-0,5Nj, m'j=mj-0,5Nj - приведенные пиксельные координаты изображения объекта на изображении j-ой камеры;n ' j = n j -0.5N j , m' j = m j -0.5N j are the given pixel coordinates of the object image on the image of the j-th camera;
αj и βj - углы соответственно, в горизонтальной и вертикальной плоскостях на интересующий объект относительно оптической оси объектива j-ой камеры, вычисляемые согласно выражений:α j and β j - angles, respectively, in the horizontal and vertical planes to the object of interest relative to the optical axis lens of the j-th camera, calculated according to the expressions:
Nj и Mj - горизонтальное и вертикальное разрешение изображения j-ой камеры;N j and M j - horizontal and vertical image resolution of the j-th camera;
с0, с1, с2, …cq и d0, d1, d2, …, dq - полиномиальные коэффициенты «прямого» преобразования функций ƒ(n'j) и ƒ(m'j) соответственно,c 0 , c 1 , c 2 , ... c q and d 0 , d 1 , d 2 , ..., d q are the polynomial coefficients of the "direct" transformation of the functions ƒ (n ' j ) and ƒ (m' j ), respectively,
и «обратный» переход от метрических трехмерных координат к плоским пиксельным координатам nj и mj на основании выраженияand "reverse" transition from metric three-dimensional coordinates to flat pixel coordinates n j and m j based on the expression
где Where
где и - полиномиальные коэффициенты «обратного» преобразования функций ƒ(αj) и ƒ(βj) соответственно,Where and are the polynomial coefficients of the "inverse" transformation of the functions ƒ (α j ) and ƒ (β j ), respectively,
При этом применение полиномов «прямого» (2), (3) и «обратного» (5), (6) преобразования обеспечивает установление математической связи между пиксельными координатами nj, mj изображения объекта и его трехмерными координатами в СК камеры при работе с дисторсионно-искаженными цифровыми изображениями не соответствующими своим разрешением физическому разрешению фотоприемных устройств и применение камер с неизвестными техническими параметрами, в том числе с учетом возможных погрешностей, допущенных при их изготовлении или возникших по вине эксплуатации. При чем вычисляться коэффициенты с0, с1, с2, …cq, d0, d1, d2, …, dq и полиномов (2), (3) и (5), (6) должны для каждой j-ой камеры индивидуально при ее производстве и сборке, или уточняться непосредственно перед применением измерительной системы путем описания полиномами q-го порядка взаимосвязей между вертикальными и горизонтальным углами на интересующий объект относительно j-ой камеры и соответствующими значениями его пиксельных координат на принимаемых с j-ой камеры цифровых изображениях.In this case, the use of polynomials "direct" (2), (3) and "reverse" (5), (6) transformation provides the establishment of a mathematical relationship between the pixel coordinates n j , m j of the object image and its three-dimensional coordinates in the UK cameras when working with distortion-distorted digital images that do not correspond to their resolution to the physical resolution of photodetectors and the use of cameras with unknown technical parameters, including taking into account possible errors made during their manufacture or arising from the fault of operation. Moreover, the coefficients are calculated with 0 , with 1 , with 2 ,… c q , d 0 , d 1 , d 2 ,…, d q and polynomials (2), (3) and (5), (6) must for each j-th chamber individually during its production and assembly, or be refined immediately before using the measuring system by describing the relationships between the vertical and horizontal angles by polynomials of the q-th order to the object of interest relative to the j-th camera and the corresponding values of its pixel coordinates on the digital images received from the j-th camera.
Основным техническим результатом, обеспечиваемым приведенной совокупностью признаков, являются:The main technical result provided by the given set of features are:
- снижение требований к вычислительным ресурсам измерительной вычислительной системы (ЭВМ);- reducing the requirements for computing resources of the measuring computer system (PC);
- повышение скорости проведения автоматического поиска соответствий на дисторсионно-искаженных изображениях с динамично меняющих свои пространственные положение и ориентацию цифровых камер высокого разрешения;- increasing the speed of automatic search for matches on distortion-distorted images from high-resolution digital cameras dynamically changing their spatial position and orientation;
Кроме этого к техническому результату может быть отнесено снижение стоимости и большая простота реализации измерительной системы за счет возможности применения дешевых бытовых «неметрических» камер, в том числе, с неизвестными техническими параметрами.In addition, the technical result can be attributed to a reduction in cost and greater ease of implementation of the measuring system due to the possibility of using cheap household "non-metric" cameras, including those with unknown technical parameters.
Для осуществления заявленного способа могут использоваться по крайней мере две разнесенные в пространстве (при чем в любой плоскости) и произвольно сориентированный цифровые j-ые видеокамеры 10 и 11 (Фиг. 6), обеспечивающие возможность захвата стереоизображений объектов интереса и совместно с обрабатывающей системой (на фиг. 6 не показано) образующие СТЗ. Причем применяемые цифровые камеры могут быть как в видимого, так и инфракрасного диапазонов.To implement the claimed method, at least two spaced apart in space (and in any plane) and arbitrarily oriented digital j-
Каждая из применяемых j-ых камер, например, камера 10 и 11 (Фиг. 6), может быть установлена на своем кардановом подвесе, обеспечивающем возможность изменения угловой ориентации камеры (в зависимости от необходимости) в горизонтальной, вертикальной и поперечной плоскостях. Каждый из кардановых подвесов в свою очередь может дополнительно содержать датчики углов, осуществляющие получение значений величин углов ориентации камеры (в зависимости от конструкции карданова подвеса) в горизонтальной, вертикальной и поперечной плоскостях. При этом камера 10 и камера 11, датчики угла поворота рам подвеса должны быть выполнены с возможностью передачи в обрабатывающую систему видеоданных и данных о пространственной ориентации камер через кабели (например, кабели универсальной последовательной шины USB) или по беспроводной связи (например, Wi-Fi).Each of the j-th cameras used, for example,
Текущие положение и ориентация каждой из j-ых камер определяются по их системам координат (СК) При этом начало каждой из СК располагается в оптическом центре объектива j-ой камеры. Ось направляется строго по оптической оси объектива, ось - влево относительно направления оси вдоль строк цифровых изображений, ось - вверх вдоль столбцов изображений. Так на фиг. 6 в качестве примера показано размещение двух СК 12 и 13 для камер 10 и 11.The current position and orientation of each of the j-th cameras are determined by their coordinate systems (SC) At the same time, the beginning each of the UK is located in the optical center of the lens of the j-th camera. Axis is directed strictly along the optical axis of the lens, the axis - to the left relative to the direction of the axis along lines of digital images, axis - up along the columns of images. Thus, in FIG. 6 shows as an example the placement of two
В свою очередь для описания пространственного положения и ориентации СК 12 и 13 относительно начальной СК 17 OwXwYwZw применяют матрицы In turn, to describe the spatial position and orientation of
где Where
- углы в горизонтальной, вертикальной и поперечной плоскостях ориентации осей СК 12 и 13 относительно соответствующих осей СК 17; - angles in the horizontal, vertical and transverse planes of orientation of the
- координаты начала СК 12 и 13 заданные в СК 17. - coordinates of the beginning of
Цифровые изображения разрешением Nj×Mj, принимаемые с каждой из j-ых камер (фиг. 6), состоят из пикселей. Каждый пиксель характеризуется значением, которое состоит из полутонового значения или цветового значения. В полутоновых изображениях значение пикселя представляет собой одну величину, которая характеризует яркость пикселя. Наиболее общим форматом описания пикселя является байт изображения, в котором значение пикселя представлено восьмиразрядным целым числом, лежащим в диапазоне возможных значений от 0 до 255. Как правило, значение пикселя, равное нулю, используют для обозначения черного пикселя, а значение 255 используют для обозначения белого пикселя. Промежуточные значения описывают различные оттенки полутонов. В цветных изображениях для описания каждого пикселя (расположенного в цветовом пространстве размерности RGB - красный, зеленый, синий) должны быть отдельно определены красная, зеленая и синяя компоненты. Иными словами, значение пикселя фактически представляет собой вектор, описанный тремя числами. Три различные компоненты могут быть сохранены как три отдельных полутоновых изображения, известные как цветовые плоскости (по одной для красного, зеленого и синего цветов), которые можно воссоединять при отображении или при обработке.Digital images with a resolution of N j × M j received from each of the j-th cameras (Fig. 6) are composed of pixels. Each pixel is characterized by a value, which consists of a grayscale value or a color value. In grayscale images, a pixel value is a single value that characterizes the brightness of a pixel. The most common format for describing a pixel is an image byte, in which the pixel value is represented by an eight-bit integer that ranges from 0 to 255. Typically, a pixel value of zero is used to denote a black pixel, and a value of 255 is used to denote white. pixel. Intermediate values describe different shades of midtones. In color images, to describe each pixel (located in an RGB color space - red, green, blue), the red, green and blue components must be separately defined. In other words, the pixel value is actually a vector described by three numbers. The three different components can be saved as three separate halftones, known as color planes (one each for red, green, and blue), which can be reconnected when displayed or processed.
Цифровые изображения 1 и 2 своим центрами 15 и 16 принимают размещенными на оптических осях их объективов в положительных направлениях осей СК 12 и 13 на расстояниях (Фиг. 6). При этом строки изображений 1 и 2 параллельны осям а столбцы - осям
Если, например, в поле зрения камеры 10 находится объект 14 (Фиг. 6), то на цифровом изображении 1 изображению 3 этого объекта будет соответствовать пиксель, положение которого в пиксельной СК изображения 1 будет характеризоваться номером столбца nj и строки mj. Аналогично для камеры 11 на ее изображении 2 координатам изображения 5 объекта 14 будут соответствовать nj+1 и mj+1.If, for example, an object 14 is in the field of view of the camera 10 (Fig. 6), then on the
Обрабатывающая система, являющаяся, например, удаленным компьютером, таким как ноутбук или персональный компьютер (рабочая станция), должна обеспечивать выбор пользователем изображений и/или ввод команд обработки и содержать в свою очередь исполняемые модули или команды с возможностью выполнения по меньшей мере одним процессором, пользовательский интерфейс содержащий дисплей, такой как жидкокристаллический монитор, для просмотра видеоданных и устройство управления и ввода данных, такое как клавиатура или указательное устройство (например, манипулятор типа «мышь», шаровой указатель, стилус, сенсорная панель или другое устройство), для обеспечения взаимодействия пользователя с видеоданными.The processing system, which is, for example, a remote computer, such as a laptop or a personal computer (workstation), must provide a user selection of images and / or input processing commands and contain, in turn, executable modules or commands capable of being executed by at least one processor, a user interface containing a display, such as a liquid crystal monitor, for viewing video data, and a control and data input device such as a keyboard or pointing device (for example, a mouse, trackball, stylus, touch pad, or other device) to provide interaction user with video data.
Сущность изобретения поясняется чертежами, которые не охватывают и тем более не ограничивают весь объем притязаний данного изобретения, а являются лишь иллюстрирующими материалами частного случая выполнения, на которых:The essence of the invention is illustrated by drawings, which do not cover and even more so do not limit the entire scope of the claims of this invention, but are only illustrative materials of a particular case of implementation, in which:
на фиг. 1 иллюстрируется способ определения положения области поиска соответствий при применении одинаковых и параллельно расположенных камер;in fig. 1 illustrates a method for determining the position of a search area using identical and parallel cameras;
на фиг. 2 иллюстрируется способ определения положения области поиска соответствий при применении одинаковых, но произвольно расположенных в вертикальной и горизонтальной плоскостях камер;in fig. 2 illustrates a method for determining the position of the search area using the same cameras, but randomly located in the vertical and horizontal planes;
на фиг. 3 иллюстрируется способ определения положения области поиска соответствий при проведении предварительной ректификации изображений обеих камер;in fig. 3 illustrates a method for determining the position of the matching search area during preliminary rectification of images of both cameras;
на фиг. 4 иллюстрируется способ определения положения области поиска соответствий вдоль эпиполярных линий;in fig. 4 illustrates a method for determining the position of a matching region along epipolar lines;
на фиг. 5 иллюстрируется разработанный способ определения положения области поиска соответствий;in fig. 5 illustrates the developed method for determining the position of the search area;
на фиг. 6 показана схема взаимного положения СК камер и их изображений, а также отражены возможное положение изображения интересующего объекта на изображении одной камеры и область поиска соответствий на изображении второй камеры.in fig. 6 shows a diagram of the relative position of CC cameras and their images, and also reflects the possible position of the image of an object of interest on the image of one camera and the search area for matches on the image of the second camera.
Осуществляют заявленный способ следующим образом (фиг. 5-6).The claimed method is carried out as follows (Fig. 5-6).
На изображении 1 камеры 10 в ручном или автоматическом режимах задают пиксельные координаты nj и mj изображения 3 интересующего объекта 14, на основании чего согласно выражений (1-3) вычисляют вектор трехмерных координат изображения 3 в СК 12 камеры.On the
Задают значения минимальной и максимальной дальностей измерений относительно СК камеры 12.Sets the values of the minimum and maximum measurement ranges relative to the
Разбивают расстояние от до на i интервалов и вычисляют шаг hi, одного интервала согласно выражения Break up the distance from before into i intervals and calculate the step h i , one interval according to the expression
Вычисляют матрицу Mj положений объекта 14 в СК 12 камеры 10Calculate the matrix M j of the positions of the object 14 in the
На основании данных с датчиков кардановых подвесов, на которой установлены камеры, или по данным их текущей внешней калибровки вычисляют матрицы положения и в соответствии с выражением (7).Based on the data from the gimbal sensors on which the cameras are installed, or according to their current external calibration, position matrices are calculated and in accordance with expression (7).
Вычисляют матрицу Mj+1 положений объекта 14 в СК 13 камеры 11Calculate the matrix M j + 1 positions of the object 14 in the
Проецируют матрицу Mj+1 на плоскость изображения 2 камеры 11, для чего с учетом значений матрицы Mj+1 вычисляют матрицу The matrix M j + 1 is projected onto the
где вектор определяет положение ближней границы 8, а вектор - положение дальней границы 9 области поиска 7 на изображении 2.where vector defines the position of the
Если то любым из известных способов аппроксимируют значения первого и второго столбцов матрицы полиномом g-го порядкаIf then any of the known methods approximate the values of the first and second columns of the matrix polynomial gth order
где a 0, a 1, a 2, … a g - полиномиальные коэффициенты функции where a 0 , a 1 , a 2 ,… a g are the polynomial coefficients of the function
Если то аппроксимируют значения первого и второго столбцов матрицы полиномом If then the values of the first and second columns of the matrix are approximated polynomial
(12) (12)
где b0, b1, b2, … bg - полиномиальные коэффициенты функции where b 0 , b 1 , b 2 ,… b g are the polynomial coefficients of the function
С применением выражения (4) вычисляют пиксельные координаты ближней 8 (вектор Pj+1,0) и дальней 9 (вектор Pj+1,i) границ области поиска 7Using expression (4), the pixel coordinates of the near 8 (vector P j + 1,0 ) and far 9 (vector P j + 1, i ) boundaries of the
Если был получен полином то генерируют ряд номеров столбцов от nj+1,0 до nj+1,i шагом в один пиксель, при этом если nj+1,0≤0, то nj+1,0 принимают, равным нулю, если nj+1,i≥Nj+1-1, то nj+1,i принимают равным Nj+1-1.If a polynomial was obtained then generate a series of column numbers from n j + 1.0 to n j + 1, i in one pixel increments, while if n j + 1.0 ≤0, then n j + 1.0 is taken equal to zero, if n j + 1 , i ≥ N j + 1 -1, then n j + 1, i is taken equal to N j + 1 -1.
Согласно выражения (2) для значений ряда Ln вычисляют ряд Далее на оснований значений Lα вычисляют ряд According to expression (2), for the values of the series L n, the series Further, based on the values of L α, the series
Подставляют значения ряда Lx в выражение (11), при этом вычисленные значения записывают ряд The values of the series L x are substituted into expression (11), while the calculated values record a number
Преобразуют значения ряда Ly в ряд Lm в соответствии с выражениемConvert the values of the series L y to the series L m in accordance with the expression
Если был получен полином то генерируют ряд номеров строк от mj+1,0 до mj+1,i, при этом если mj+1,0≤0, то mj+1,0 принимают, равным нулю, если mj+1,i≥Mj+1-1, то mj+1,i принимают равным Mj+1-1.If a polynomial was obtained then generate a series line numbers from m j + 1.0 to m j + 1, i , and if m j + 1.0 ≤0, then m j + 1.0 is taken equal to zero, if m j + 1, i ≥M j + 1 -1, then m j + 1, i is taken equal to M j + 1 -1.
Согласно выражения (3) для значений ряда Lm вычисляют ряд Далее на оснований значений Lβ вычисляют ряд According to expression (3), for the values of the series L m, the series Further, based on the values of L β, the series
Подставляют значения ряда Ly в выражение (12), при этом вычисленные значения записывают ряд The values of the series L y are substituted into expression (12), while the calculated values record a number
Преобразуют значения ряда Lx в ряд Ln согласно выраженияConvert the values of the series L x to the series L n according to the expression
На заключительном этапе после вычисления рядов Ln и Lm из их значений формируют массив поискаAt the final stage, after calculating the series L n and L m , a search array is formed from their values
с округленными до ближайшего целого значениями пиксельных координат nj+1,i и mj+1,i, в своей совокупности определяющими положение дополнительно ограниченной с двух сторон и адаптированной по форме к дисторсионным искажениям объектива области поиска 7 на изображении 2 j+1-ой камеры 11.with rounded to the nearest integer values of pixel coordinates n j + 1, i and m j + 1, i , in their totality, determining the position additionally limited on both sides and adapted in shape to distortion distortions of the lens of the
Claims (60)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020108613A RU2740435C2 (en) | 2020-02-27 | 2020-02-27 | Method of determining position of region of searching for matches on distortion-degraded images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020108613A RU2740435C2 (en) | 2020-02-27 | 2020-02-27 | Method of determining position of region of searching for matches on distortion-degraded images |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2020108613A RU2020108613A (en) | 2020-07-06 |
RU2740435C2 true RU2740435C2 (en) | 2021-01-14 |
Family
ID=71509421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2020108613A RU2740435C2 (en) | 2020-02-27 | 2020-02-27 | Method of determining position of region of searching for matches on distortion-degraded images |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2740435C2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2579532C2 (en) * | 2014-02-12 | 2016-04-10 | Алексей Владимирович Зубарь | Optoelectronic stereoscopic range-finder |
RU2626051C2 (en) * | 2016-10-17 | 2017-07-21 | Алексей Владимирович Зубарь | Method for determining distances to objects using images from digital video cameras |
US20180114336A1 (en) * | 2016-10-24 | 2018-04-26 | Industrial Technology Research Institute | Positioning method and image capturing device thereof |
CN108489398A (en) * | 2018-05-21 | 2018-09-04 | 华南农业大学 | Laser adds the method that monocular vision measures three-dimensional coordinate under a kind of wide-angle scene |
RU2697822C2 (en) * | 2018-11-19 | 2019-08-21 | Алексей Владимирович Зубарь | Method of determining coordinates of objects based on their digital images |
-
2020
- 2020-02-27 RU RU2020108613A patent/RU2740435C2/en active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2579532C2 (en) * | 2014-02-12 | 2016-04-10 | Алексей Владимирович Зубарь | Optoelectronic stereoscopic range-finder |
RU2626051C2 (en) * | 2016-10-17 | 2017-07-21 | Алексей Владимирович Зубарь | Method for determining distances to objects using images from digital video cameras |
US20180114336A1 (en) * | 2016-10-24 | 2018-04-26 | Industrial Technology Research Institute | Positioning method and image capturing device thereof |
CN108489398A (en) * | 2018-05-21 | 2018-09-04 | 华南农业大学 | Laser adds the method that monocular vision measures three-dimensional coordinate under a kind of wide-angle scene |
RU2697822C2 (en) * | 2018-11-19 | 2019-08-21 | Алексей Владимирович Зубарь | Method of determining coordinates of objects based on their digital images |
Also Published As
Publication number | Publication date |
---|---|
RU2020108613A (en) | 2020-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210110599A1 (en) | Depth camera-based three-dimensional reconstruction method and apparatus, device, and storage medium | |
US10594941B2 (en) | Method and device of image processing and camera | |
CN107194962B (en) | Point cloud and plane image fusion method and device | |
US10726580B2 (en) | Method and device for calibration | |
RU2626051C2 (en) | Method for determining distances to objects using images from digital video cameras | |
JP5210203B2 (en) | High-precision stereo camera calibration based on image differences | |
US20170078570A1 (en) | Image processing device, image processing method, and image processing program | |
WO2020001120A1 (en) | Light field image correction method, computer-readable storage medium, and electronic terminal | |
JP2012088114A (en) | Optical information processing device, optical information processing method, optical information processing system and optical information processing program | |
CN110738730B (en) | Point cloud matching method, device, computer equipment and storage medium | |
US10277891B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN116129037B (en) | Visual touch sensor, three-dimensional reconstruction method, system, equipment and storage medium thereof | |
US10664947B2 (en) | Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection | |
WO2023213252A1 (en) | Scanning data processing method and apparatus, and device and medium | |
US9958259B2 (en) | Depth value measurement | |
RU2740435C2 (en) | Method of determining position of region of searching for matches on distortion-degraded images | |
US10089726B2 (en) | Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image | |
JP7150460B2 (en) | Image processing device and image processing method | |
CN116704125A (en) | Mapping method, device, chip and module equipment based on three-dimensional point cloud | |
US11941851B2 (en) | Systems and methods for calibrating imaging and spatial orientation sensors | |
RU2697822C2 (en) | Method of determining coordinates of objects based on their digital images | |
RU2014105235A (en) | OPTICAL ELECTRONIC STEREOSCOPIC RANGE | |
JP6332982B2 (en) | Image processing apparatus and method | |
US9092840B2 (en) | Image processing apparatus, control method of the same and non-transitory computer-readable storage medium | |
Guan et al. | An improved fast camera calibration method for mobile terminals |