RU2479039C1 - Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method - Google Patents

Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method Download PDF

Info

Publication number
RU2479039C1
RU2479039C1 RU2012111443/08A RU2012111443A RU2479039C1 RU 2479039 C1 RU2479039 C1 RU 2479039C1 RU 2012111443/08 A RU2012111443/08 A RU 2012111443/08A RU 2012111443 A RU2012111443 A RU 2012111443A RU 2479039 C1 RU2479039 C1 RU 2479039C1
Authority
RU
Russia
Prior art keywords
dimensional model
disparity
image
images
original
Prior art date
Application number
RU2012111443/08A
Other languages
Russian (ru)
Inventor
Павел Вячеславович Скрибцов
Original Assignee
Закрытое акционерное общество "БОУ Лабораториз"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Закрытое акционерное общество "БОУ Лабораториз" filed Critical Закрытое акционерное общество "БОУ Лабораториз"
Priority to RU2012111443/08A priority Critical patent/RU2479039C1/en
Application granted granted Critical
Publication of RU2479039C1 publication Critical patent/RU2479039C1/en

Links

Images

Abstract

FIELD: physics.
SUBSTANCE: method and apparatus employ computer graphics techniques to project (display, render) a primary three-dimensional model onto virtual viewing positions which coincide with positions of capturing the original images. The decoding texture is calculated, which enables to associate projection pixel coordinates with parameters of geometric beams emitted to corresponding points of the three-dimensional model. Stereoscopic juxtaposition of real images with corresponding displayed projections is carried out. Three-dimensional coordinates of the digital model are improved by translation of the found disparities, having the physical meaning of reverse engineering errors, in adjustments to the three-dimensional model using a decoding image. The process can take place iteratively until convergence, during which more accurate and sparse disparity maps and a three-dimensional model will be obtained.
EFFECT: improved quality of disparity maps and accuracy of the reconstructed three-dimensional model owing to simplification of the task of juxtaposing elements of stereoscopic pairs.
9 cl, 15 dwg

Description

Изобретение относится к средствам формирования трехмерных моделей (3D-моделей) на основе двумерных изображений, полученных от камер, а именно к способу улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройству для реализации способа.The invention relates to a means of forming three-dimensional models (3D-models) based on two-dimensional images obtained from cameras, and in particular to a method for improving dense and sparse disparity maps, the accuracy of a reconstructed three-dimensional model and a device for implementing the method.

В настоящее время все чаще и чаще возникает потребность в формировании различных трехмерных моделей, которые могут применяться для различных целей в разных областях. Для этого разработано и существует множество способов и устройств формирования трехмерных сцен.Currently, more and more often there is a need for the formation of various three-dimensional models that can be used for various purposes in different areas. For this, many methods and devices for forming three-dimensional scenes have been developed and exist.

Задача реконструкции трехмерных поверхностей объектов и сцен по двухмерным изображениям актуальна на данный момент в связи с потребностями технологий визуализации трехмерных данных, индустрии развлечений, медицины и других областей. Существующий уровень техники располагает достаточным количеством стереоскопических методов построения карт диспарантностей (англ. "disparity map") и их улучшения методами фильтрации, поскольку карты диспарантностей в сочетании с информацией о параметрах камер, осуществлявших съемку стереопар, позволяют построить трехмерную модель наблюдаемой сцены и содержащихся в ней объектов.The task of reconstructing the three-dimensional surfaces of objects and scenes from two-dimensional images is relevant at the moment in connection with the needs of three-dimensional data visualization technologies, the entertainment industry, medicine and other areas. The current level of technology has a sufficient number of stereoscopic methods for constructing disparity maps (English "disparity map") and their improvement by filtering methods, since disparity maps in combination with information on the parameters of the cameras that captured the stereo pairs make it possible to build a three-dimensional model of the observed scene and contained in it objects.

Всевозможным проблемам вычисления карт диспарантностей посвящается множество публикаций, проанализированных в обзорных работах, посвященных классификации и сравнению различных подходов ([1] D.Scharstein and R.Szeliski, "A taxonomy and evaluation of dense two-frame stereo correspondence algorithms", International Journal of Computer Vision 47 (1/2/3), pp.7-42, 2002, [2] Myron Z.Brown, Darius Burschka and Gregory D.Hager, "Advances in Computational Stereo", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.25, NO.8, August 2003).Various publications devoted to various problems of computing disparity maps are analyzed in review papers devoted to the classification and comparison of various approaches ([1] D. Scharstein and R. Szeliski, "A taxonomy and evaluation of dense two-frame stereo correspondence algorithms", International Journal of Computer Vision 47 (1/2/3), pp. 7-42, 2002, [2] Myron Z. Brown, Darius Burschka and Gregory D. Hager, "Advances in Computational Stereo", IEEE Transactions on Pattern Analysis and Machine Intelligence Vol. 25, NO. 8, August 2003).

Построение плотных карт диспарантностей (dense disparity maps) связано с применением прямоугольных окрестностей пикселей для оценки степени корреляции элементов сопоставляемых изображений. Для построения разреженных карт диспарантностей (sparse disparity maps) путем сопоставления ключевых точек (feature points) на изображениях применяются масштабонезависимые и инвариантные к поворотам дескрипторы ([3] Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150-1157, [4] David Gossow, Peter Decker and Dietrich Paulus, "An Evaluation of Open Source SURF Implementations", Lecture Notes in Computer Science, 2011, Volume 6556/2011, 169-179), которые обычно являются опорными для последующего построения плотных карт диспарантностей ([5] Ju Yong Chang, Kyoung Mu Lee, Sang Uk Lee. Stereo matching using iterative reliable disparity map expansion in the color-spatial-disparity space. Pattern Recognition 40(12): 3705-3713 (2007)).The construction of dense disparity maps is associated with the use of rectangular neighborhoods of pixels to assess the degree of correlation of elements of the compared images. To construct sparse disparity maps by comparing feature points on images, descriptors that are scale-independent and rotationally invariant are used ([3] Lowe, David G. (1999). "Object recognition from local scale-invariant features" Proceedings of the International Conference on Computer Vision. 2. pp. 1150-1157, [4] David Gossow, Peter Decker and Dietrich Paulus, "An Evaluation of Open Source SURF Implementations", Lecture Notes in Computer Science, 2011, Volume 6556 (2011, 169-179), which are usually the basis for the subsequent construction of dense disparity maps ([5] Ju Yong Chang, Kyoung Mu Lee, Sang Uk Lee. Stereo matching using iterative reliable disparity map expansion in the color- spatial-disparity space. Pattern Recognition 40 (12): 3705-3713 (2007)).

Однако при наблюдении объектов с разных ракурсов пропорции двухмерных изображений объектов, составляющих их элементов и текстур отличаются. Например, прямоугольный участок одного изображения может соответствовать трапециевидному участку на другом, при этом форма соответствующего участка зависит от трехмерного расположения данного элемента трехмерного объекта; наблюдаемая с одной точки наблюдения окружность может выглядеть как эллипс с другой (см. пример на ФИГ.2). Это приводит к двум осложнениям. Во-первых, в ходе построения плотной карты диспарантностей вычисление корреляции обычным методом при помощи скользящих окон одинаковой формы для обоих сопоставляемых изображений может давать неоптимальное решение, так как для соответствующих пикселей окрестности не представляются схожими. Во-вторых, поиск соответствий ключевых точек на изображениях от разных точек наблюдения по дескрипторам, устойчивым к поворотам и изменению масштаба, позволяет найти меньшее число соответствий из-за присутствия проективных искажений. Вычисление дескрипторов, инвариантных к проективным искажениям, на практике нецелесообразно, так как многократно увеличит объем вычислений. С ростом базы, то есть расстояния между точками съемки, проблема усугубляется, так как 2D-изображения объектов получаются заснятыми под существенно различающимися углами. Актуальность изобретения повышается в связи с тем, что для получения более точных трехмерных моделей желательно увеличение базы между точками съемки для увеличения точности определения трехмерных координат точек поверхностей объектов методом триангуляции.However, when observing objects from different angles, the proportions of two-dimensional images of objects, their constituent elements and textures are different. For example, a rectangular section of one image may correspond to a trapezoidal section on another, while the shape of the corresponding section depends on the three-dimensional arrangement of a given element of a three-dimensional object; the circle observed from one observation point may look like an ellipse from another (see the example in FIG. 2). This leads to two complications. Firstly, during the construction of a dense disparity map, the calculation of the correlation by the usual method using sliding windows of the same shape for both compared images may not provide an optimal solution, since the neighborhoods do not seem similar for the corresponding pixels. Secondly, the search for correspondence of key points in images from different observation points by descriptors that are resistant to rotations and zooming allows you to find fewer matches due to the presence of projective distortions. The calculation of descriptors that are invariant to projective distortions is not practical in practice, since it will significantly increase the amount of computation. With the growth of the base, that is, the distance between the points of shooting, the problem is aggravated, since 2D images of objects are captured at significantly different angles. The relevance of the invention increases due to the fact that to obtain more accurate three-dimensional models, it is desirable to increase the base between the survey points to increase the accuracy of determining the three-dimensional coordinates of the points of the surfaces of objects using the triangulation method.

Способам уточнения карт диспарантностей и трехмерных моделей посвящается множество таких изобретений, как: US 2006056727 A1, WO 2009069958 A2, US 2011080466 A1, KR 20110090488 A, WO 2009125988 A2, RU 2010103906 A, US 2011222756 A1, US 7561732 B1, KR 20070061094 A, WO 2008029345 A1, CN 101557534 A, US 2010309292 A1, US 2005190180 A1, SU 1830447 A1, SU 1793226 A1, KR 20020095752 A, WO 2004049255 A2, US 2004105580 A1, KR 20070061011 A, US 2011026809 A1, US 2005286758 A1, KR 100943635 B1, WO 2009008864 A1, US 2009324059 A1, WO 2011104151 A1, WO 2011104151 A1, WO 2011081646 A1, KR 20050058085 A, WO 2009134155 A1, RU 2008144840 A, KR 20100088774 A, US 6046763 A, US 2004223640 A1, US 2003091225 A1, WO 2006046180 A1, US 2010182406 A1, JP 2009043221 A, US 2009067705 A1, KR 100762670 B1, US 2011044531 A1, US 2006029270 A1, US 2011080464 A1, WO 2008156450 A1, US 2010208034 A1, US 2009073170 A1, WO 2009061305 A1, US 2006140510 A1, WO 2009124663 A1, KR 20080052363 A, WO 2010007285 A1, US 2010020178 A1, RU 2382406 C1, GB 2478156 A, KR 20100049855 A, US 2010220932 A1, RU 2009110511 A, US 2007286476 A1, WO 2010028718 A2, RU 2008144840 A, RU 2009110511 A, JP 2006012166 A, WO 2011103865 A2, WO 2011118077 A1, WO 2011123174 A1, US 2011304708 A1, WO 2011157454 A1, US 2011091096 A1, WO 2008075271 A2, US 4695156 A, KR 100257335 B1, US 2010053416 A1, KR 20100135032 A, WO 2011014229 A1, KR 20110055020 A. Однако в данных изобретениях в отличие от предлагаемого способа:Many inventions are devoted to methods for refining disparity maps and three-dimensional models, such as: US 2006056727 A1, WO 2009069958 A2, US 2011080466 A1, KR 20110090488 A, WO 2009125988 A2, RU 2010103906 A, US 2011222756 A1, US 7561732 B1, KR 20070061094 A, WO 2008029345 A1, CN 101557534 A, US 2010309292 A1, US 2005190180 A1, SU 1830447 A1, SU 1793226 A1, KR 20020095752 A, WO 2004049255 A2, US 2004105580 A1, KR 20070061011 A, US 2011026809 A1, US 2005286758 A1, KR 100943 B1, WO 2009008864 A1, US 2009324059 A1, WO 2011104151 A1, WO 2011104151 A1, WO 2011081646 A1, KR 20050058085 A, WO 2009134155 A1, RU 2008144840 A, KR 20100088774 A, US 6046763 A, US 2004223640 A1, US 2003091225 WO 2006046180 A1, US 2010182406 A1, JP 2009043221 A, US 2009067705 A1, KR 100762670 B1, US 2011044531 A1, US 2006029270 A1, US 2011080464 A1, WO 2008156450 A1, US 2010208034 A1, US 2009073170 A1, WO 2009061 305 A1, US 2006 140510 A1, WO 2009124663 A1, KR 20080052363 A, WO 2010007285 A1, US 2010020178 A1, RU 2382406 C1, GB 2478156 A, KR 20100049855 A, US 2010220932 A1, RU 2009110511 A, US 2007286476 A1, WO 2010028718 A2 , RU 2008144840 A, RU 2009110511 A, JP 2006012166 A, WO 2011103865 A2, WO 2011118077 A1, WO 2011123174 A1, US 2011304708 A1, WO 2011157454 A1, US 2011091096 A1, WO 2008075271 A2, US 4695156 A, KR 100257335 B1 2010053416 A1, KR 20100135032 A, WO 2011014229 A1, KR 20110055020 A. However, in these inventions, unlike the proposed method:

(а) синтетические виды (virtual view) производятся только как конечный результат, служащий целью просмотра человеком трехмерной сцены с различных точек наблюдения, а не для целей сопоставления с оригинальными изображениями;(a) synthetic views (virtual view) are produced only as the final result, which serves the purpose of a person viewing a three-dimensional scene from various observation points, and not for purposes of comparison with the original images;

(б) не адресуется проблема перспективных искажений в сопоставляемых изображениях;(b) the problem of perspective distortions in the compared images is not addressed;

(в) модули генерации синтетических видов не рассчитывают декодирующие текстуры;(c) modules for the generation of synthetic species do not calculate decoding textures;

(г) не предлагается вычислять декодирующее изображение (текстуру) и применять его для трансляции диспарантностей между оригинальными и синтетическими видами в поправки к исходным картам диспарантностей.(d) it is not proposed to calculate the decoding image (texture) and use it to translate disparities between the original and synthetic types into corrections to the original disparity maps.

Например, в патенте RU 2382406 C1, как и во многих аналогичных патентах из приведенного выше списка, рендерер (отрисовщик, генератор) виртуального вида упомянут, но не имеет обратной связи к блоку вычисления диспарантностей и не осуществляет расчет декодирующего изображения. То есть является только средством отображения информации и не принимает участия в расчетах самой карты диспарантности или ее улучшений. В патенте RU 2419880 C2 в обратной связи, обеспечивающей итеративное улучшение карты диспарантностей, рендерер вида не упомянут, то есть виртуальный вид и декодирующая текстура, как источник дополнительной информации для уточнения карты диспарантности, не рассматривается.For example, in patent RU 2382406 C1, as in many similar patents from the above list, the virtual renderer (drawer, generator) is mentioned, but does not have feedback to the disparity calculation unit and does not calculate the decoding image. That is, it is only a means of displaying information and does not take part in the calculations of the disparity card itself or its improvements. In the patent RU 2419880 C2, in the feedback providing an iterative improvement of the disparity map, the view renderer is not mentioned, that is, the virtual view and the decoding texture are not considered as a source of additional information to clarify the disparity map.

В заявке US 2010295853, опубликована 25.11.2010, описываются способ и система построения трехмерной модели на основе карты глубины и рендеринга.In the application US 2010295853, published November 25, 2010, describes a method and system for constructing a three-dimensional model based on a depth map and rendering.

Однако в известном способе и системе не осуществляется обработка получаемого от камеры изображения путем удаления движущихся объектов, не составляется карта диспаритетов, которая затем учитывается при построении трехмерной модели, а также не осуществляется наложение различных дополнительных объектов.However, in the known method and system, the image received from the camera is not processed by removing moving objects, the disparity map is not compiled, which is then taken into account when constructing a three-dimensional model, and various additional objects are not superimposed.

В статье Sang-Beom LEE, Sung-Yeol KIM и Yo-Sung HO «Multi-view image generation from depth maps and texture images using adaptive smoothing filter», The 2008 International conference on Embedded Systems and Intelligent Technology, February 27-29, 2008, Grand Mercure Fortune Hotel, Bangkok, Thailand, найдена в Интернете по адресу http://imaging.utk.edu/people/sykim/paper/2008_ICESIT_sblee.pdf, описывается способ формирования трехмерной сцены с использованием процесса сглаживания путем удаления пустот, построения карты глубины и рендеринга.In the article by Sang-Beom LEE, Sung-Yeol KIM and Yo-Sung HO “Multi-view image generation from depth maps and texture images using adaptive smoothing filter”, The 2008 International conference on Embedded Systems and Intelligent Technology, February 27-29, 2008, Grand Mercure Fortune Hotel, Bangkok, Thailand, found on the Internet at http://imaging.utk.edu/people/sykim/paper/2008_ICESIT_sblee.pdf, describes how to create a three-dimensional scene using the smoothing process by removing voids, building depth and rendering maps.

Однако в известном способе не осуществляется обработка получаемого от камеры изображения путем удаления движущихся объектов, не составляется карта диспаритетов, которая затем учитывается при построении трехмерной модели, а также не осуществляется наложение различных дополнительных объектов.However, in the known method, the image received from the camera is not processed by removing moving objects, the disparity map is not compiled, which is then taken into account when constructing the three-dimensional model, and various additional objects are not superimposed.

В патенте RU 2423018, опубл. 27.06.2011, описывается способ и система построения трехмерной модели. Для построения трехмерной модели вычисляется карта диспарантности исходного изображения и карта глубины, после чего выполняют сглаживание карты глубины и формируют трехмерную модель.In patent RU 2423018, publ. 06/27/2011, describes a method and system for constructing a three-dimensional model. To build a three-dimensional model, the disparity map of the original image and the depth map are calculated, after which the depth map is smoothed and a three-dimensional model is formed.

Однако в этом патенте не раскрываются такие этапы, как удаление движущихся объектов с последующим заполнением пустых мест, образованных после удаления объектов. Также в этом патенте не описывается этап выполнения рендеринга с наложением различных дополнительных объектов на карту диспаритетов.However, this patent does not disclose such steps as the removal of moving objects, followed by filling in the empty spaces formed after the removal of objects. Also, this patent does not describe the stage of rendering with the imposition of various additional objects on the disparity map.

Задача, на решение которой направлено заявляемое изобретение, заключается в улучшении качества карт диспарантности и точности реконструируемой трехмерной модели за счет упрощения задачи сопоставления элементов стереопар, что достигается путем устранения отличий в пропорциях и масштабах двухмерных изображений объектов, составляющих их элементов и текстур, обусловленных наблюдением сцены с разных ракурсов и расстояний.The problem to which the claimed invention is directed is to improve the quality of disparity maps and the accuracy of the reconstructed three-dimensional model by simplifying the task of comparing elements of stereo pairs, which is achieved by eliminating differences in the proportions and scales of two-dimensional images of objects, their constituent elements and textures, due to observation of the scene from different angles and distances.

Техническим результатом, достигаемым заявленным изобретением, является обеспечение улучшенной системы, способа и машиночитаемого носителя, которые предоставляют расширенные возможности по формированию трехмерных моделей на основе изображений, полученных от камер, с возможностью наложения дополнительных объектов на эти модели, отсутствующих в изображениях, получаемых от камер, без потери реалистичности изображения.The technical result achieved by the claimed invention is the provision of an improved system, method and machine-readable medium, which provide advanced capabilities for the formation of three-dimensional models based on images received from cameras, with the possibility of overlaying additional objects on these models that are not in the images received from cameras, without loss of realism of the image.

Дополнительным техническим результатом является сокращение времени на обработку изображений от камер за счет использования кластеров и распределения заданий между этими кластерами.An additional technical result is the reduction of time for processing images from cameras through the use of clusters and the distribution of tasks between these clusters.

Указанный технический результат достигается тем, что предложен способ и устройство уточнения карты диспарантности (ФИГ.1).The specified technical result is achieved by the fact that the proposed method and device for updating the disparity card (FIG. 1).

При этом способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели включает выполнение следующих операций:In this case, a method for improving the dense and sparse disparity maps, the accuracy of the reconstructed three-dimensional model includes the following operations:

методами компьютерной графики первичную трехмерную модель проецируют (отображают, осуществляют рендеринг) на виртуальную позицию наблюдения, совпадающую с позицией точки съемки первого исходного изображения стереопары, используя в качестве текстуры второе исходное изображение стереопары;using computer graphics methods, the primary three-dimensional model is projected (displayed, rendered) onto a virtual observation position that coincides with the position of the shooting point of the first source image of the stereo pair, using the second source image of the stereo pair as texture;

в ходе проецирования осуществляют расчет декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;during projection, a decoding texture is calculated that allows the coordinates of the projection pixels to be associated with the parameters of the geometric rays released to the corresponding points of the three-dimensional model;

осуществляют стереосопоставление фактических изображений с соответствующими отображенными проекциями, при этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений;stereo-comparing the actual images with the corresponding displayed projections, while the methods of constructing dense disparity maps and searching for point correspondences (sparse disparity maps) work more productively and are able to find a larger number of matches than when comparing the original images;

транслируют найденные таким образом диспарантности между оригинальным и синтетическим изображением (проекцией), имеющие физический смысл ошибок обратного проектирования, в поправки к исходной плотной и/или разреженной карте диспарантности при помощи декодирующей текстуры;translate the disparities found in this way between the original and synthetic image (projection), which have the physical meaning of reverse engineering errors, into corrections to the original dense and / or sparse disparity map using a decoding texture;

осуществляют пересчет трехмерной модели на основе уточненной карты диспарантности.recalculate the three-dimensional model based on the updated disparity map.

Дополнительно, первоначальное приближение трехмерной модели строят при помощи сопоставления других стереопар, полученных в ходе съемки сцены с множества различных точек съемки, операцию, изложенную в п.1 формулы, производят попарно для нескольких или всех точек съемки сцены или повторяют итеративно, вплоть до сходимости (до отсутствия значимых изменений-улучшений в карте диспарантности). Кроме того, для получения исходных изображений используются сферические или цилиндрические камеры; исходную карту диспарантности подвергают фильтрации медианным фильтром или иным фильтром, осуществляющим выравнивание карты диспарантности для исключения импульсного шума; для вычисления (рендеринга) виртуального вида и декодирующей текстуры применяется графический процессор (GPU) и одна из аналогичных технологий программирования графических процессоров или реализации шейдеров (Cg, CUDA, Direct3D, DirectCompute, DirectX, OpenGL, GLSL и т.п.).Additionally, the initial approximation of the three-dimensional model is built by comparing other stereopairs obtained during the shooting of the scene from many different shooting points, the operation described in paragraph 1 of the formula is performed in pairs for several or all of the shooting points of the scene or iterated, up to convergence ( to the absence of significant changes, improvements in the disparity map). In addition, spherical or cylindrical cameras are used to obtain the original images; the original disparity map is filtered by a median filter or another filter that aligns the disparity map to eliminate impulse noise; To calculate (render) the virtual look and decode texture, a graphic processor (GPU) and one of the similar technologies for programming GPUs or implementing shaders (Cg, CUDA, Direct3D, DirectCompute, DirectX, OpenGL, GLSL, etc.) are used.

Способ может включать то, что исходные изображения получаются съемкой сцены не одной камерой из различных точек, а набором камер, находящихся в различных точках сцены.The method may include the fact that the original image is obtained by shooting the scene not with one camera from various points, but with a set of cameras located at different points in the scene.

Технический результат обеспечивается также тем, что устройство для улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели включает:The technical result is also ensured by the fact that the device for improving the dense and sparse disparity maps, the accuracy of the reconstructed three-dimensional model includes:

блок формирования исходной трехмерной модели из исходной карты диспарантности и известных параметров камер, осуществлявших съемку;a unit for generating an initial three-dimensional model from an initial disparity map and known parameters of the cameras that performed the shooting;

блок рендеринга виртуального вида, осуществляющего расчет проекции виртуального вида трехмерной модели, совпадающего с исходной точкой съемки, и соответствующей декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;a virtual view rendering unit that calculates a projection of a virtual view of a three-dimensional model that matches the origin of the survey and the corresponding decoding texture, which allows you to associate the coordinates of the projection pixels with the parameters of the geometric rays released to the corresponding points of the three-dimensional model;

блок вычисления плотной и разреженной карт диспарантностей между оригинальным изображением и синтетической проекцией;a unit for calculating dense and sparse disparity maps between the original image and the synthetic projection;

блок декодирования (трансляции) карты диспарантности в поправки к исходной карте диспарантности при помощи декодирующего изображения.a decoding (broadcasting) block of the disparity card as an amendment to the original disparity card using the decoding image.

При этом методами компьютерной графики первичная трехмерная модель, построенная на основе входной карты диспарантности, проецируется (отображается, осуществляется рендеринг) на виртуальные позиции наблюдения, совпадающие с позициями точек съемки исходных изображений. Важную часть изобретения составляет расчет декодирующей текстуры в ходе проецирования, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели. Осуществляется стереосопоставление фактических изображений с соответствующими отображенными проекциями. При этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений. Это позволяет осуществить уточнение трехмерных координат цифровой модели путем трансляции найденных таким образом диспарантностей, имеющих физический смысл ошибок обратного проектирования, в поправки к трехмерной модели при помощи декодирующего изображения. Процесс может происходить итеративно до сходимости, в ходе него будет получена более точная плотная и разреженная карты диспарантности и трехмерная модель.In this case, using the methods of computer graphics, a primary three-dimensional model based on the input disparity map is projected (displayed, rendered) onto virtual observation positions that coincide with the positions of the shooting points of the source images. An important part of the invention is the calculation of the decoding texture during projection, which allows you to associate the coordinates of the projection pixels with the parameters of geometric rays released to the corresponding points of the three-dimensional model. Stereoscopic comparison of actual images with corresponding displayed projections is carried out. At the same time, methods for constructing dense disparity maps and searching for point correspondences (sparse disparity maps) work more productively and are able to find a larger number of correspondences than when comparing the original images. This allows you to refine the three-dimensional coordinates of the digital model by translating the disparities found in this way, which have the physical meaning of reverse engineering errors, into corrections to the three-dimensional model using the decoding image. The process can occur iteratively until convergence, during which a more accurate dense and sparse disparity map and a three-dimensional model will be obtained.

Способ можно описать и в виде этапов, на которых:The method can be described in the form of stages in which:

а) расщепляют каждое изображение, полученное от каждой камеры, на три изображения;a) split each image received from each camera into three images;

б) фильтруют расщепленные изображения, полученные на этапе а), путем удаления движущихся объектов с каждого расщепленного изображения и объединяют отфильтрованные три изображения в одно изображение;b) filter the split images obtained in step a) by removing moving objects from each split image and combine the filtered three images into one image;

в) разделяют каждое объединенное изображение, полученное на этапе б), для каждой камеры на непересекающиеся блоки;c) divide each combined image obtained in step b) for each camera into disjoint blocks;

г) составляют карту диспаритетов для каждого разделенного изображения, полученного на этапе в), на основе кросс-корреляции;d) compile a disparity map for each divided image obtained in step c) based on cross-correlation;

д) объединяют фрагменты карты диспаритетов для формирования вновь объединенного изображения;e) combine fragments of the disparity map to form a newly combined image;

е) выбирают значения карты диспаритетов, которые больше заданного значения;f) select values of the disparity map that are greater than the set value;

ж) осуществляют фильтрацию упомянутой карты диспаритетов путем удаления частей изображения, в которых диспаритет часто меняется, и заполняют полученные пустые места с учетом средних значений областей, находящихся рядом с границами пустых мест;g) filter the aforementioned disparity map by removing parts of the image in which the disparity often changes, and fill in the resulting blanks, taking into account the average values of the areas near the borders of the blanks;

з) сглаживают каждое отфильтрованное изображение, полученное на этапе ж);h) smooth each filtered image obtained in step g);

и) строят карту глубины для каждого изображения, полученного на этапе з);i) construct a depth map for each image obtained in step h);

к) формируют трехмерную модель путем объединения изображений, полученных на этапе з), для всех камер с учетом полученной карты глубины и выполнения рендеринга объединенных изображений с наложением, по меньшей мере, одного дополнительного объекта на полученное объединенное изображение.j) form a three-dimensional model by combining the images obtained in step h) for all cameras, taking into account the obtained depth map and rendering the combined images with the superposition of at least one additional object on the resulting combined image.

В частном варианте выполнения способа, изображения получают от семи камер. Камеры имеют два положения: верхнее и нижнее. Каждая камера формирует два изображения, которые смещены относительно друг друга по вертикальной оси.In a particular embodiment of the method, images are obtained from seven cameras. The cameras have two positions: upper and lower. Each camera forms two images that are offset relative to each other along a vertical axis.

Для расщепления изображения, выполняемого на этапе а), применяют метод кросс-корреляции. При этом фильтрацию расщепленного изображения выполняют путем попиксельного сравнения трех изображений, полученных от каждой камеры, и выбора среднего значения пикселя.To split the image performed in step a), the cross-correlation method is used. In this case, a split-image filtering is performed by pixel-by-pixel comparison of three images received from each camera and selecting an average pixel value.

На этапе г) непересекающиеся блоки, полученные на этапе в), распределяются по узлам кластера. При этом кластеры являются многопоточными или однопоточными.In step d), the disjoint blocks obtained in step c) are distributed among the cluster nodes. Moreover, clusters are multithreaded or single-threaded.

Кросс-корреляцию, применяемую на этапе г), выполняют путем перемещения шаблона-окна определенного размера по изображению, полученному от верхней камеры, и сравнения изображения в шаблоне-окне с изображением от нижней камеры. Диспаритет, определяемый на этапе г), определяется как функция сдвига по изображению. Причем объединение изображений на этапе к) выполняют в соответствии с алгоритмом разбиения, выполняемым на этапе в).The cross-correlation used in step d) is performed by moving the template window of a certain size from the image received from the upper camera and comparing the image in the template window with the image from the lower camera. The disparity determined in step d) is defined as a function of the shift in the image. Moreover, the combination of images in step k) is performed in accordance with the partitioning algorithm performed in step c).

Заданное значение, используемое на этапе е), является значением корреляции. При этом частями изображения, в которых диспаритет часто меняется, являются области соединения двух фрагментов изображений места, где стоят упомянутые камеры, или другие предметы.The setpoint used in step e) is the correlation value. At the same time, the parts of the image in which the disparity often changes are the areas of connection of the two fragments of images of the place where the cameras are mentioned, or other objects.

Заполнение пустых мест, выполняемое на этапе ж), осуществляют итерационно.Filling in the blanks performed in step g) is carried out iteratively.

Каждая камера формирует два изображения, каждое из которых является панорамой 1105°×180°. Каждое расщепленное изображение, полученное на этапе а), имеет размер 360°×180°.Each camera forms two images, each of which is a panorama of 1105 ° × 180 °. Each split image obtained in step a) has a size of 360 ° × 180 °.

Таким образом, в отличие от известных из уровня техники способов и устройств, заявляемое изобретение представляет собой устройство и способ для улучшения карты диспарантности, основанные на сопоставлении схожих по геометрии синтетических и реальных изображений и позволяющие избежать неэффективности работы алгоритмов сопоставления элементов стереоизображений, обусловленной различиями в ракурсах съемки. Дополнительным положительным эффектом данного изобретения является сокращение диапазона поиска диспарантностей по координате x и y, так, требуемый диапазон поиска величины диспарантности пикселей между синтетическим и реальным изображениями пропорционален величине ошибки в исходной карте диспарантности, которая, как правило, значительно ниже, чем диапазон изменения диспарантности в ходе расчета исходной карты диспарантности. Этот положительный эффект особенно важен в случае, если эпиполярные линии для сопоставления исходных изображений не являются прямыми линиями (например, если съемка производилась сферическими камерами).Thus, in contrast to the methods and devices known from the prior art, the claimed invention is a device and a method for improving the disparity map based on a comparison of synthetic and real images similar in geometry and avoiding the inefficiency of the operation of algorithms for matching stereo image elements due to differences in angles shooting. An additional positive effect of the present invention is to reduce the range of searching for disparities in the x and y coordinates, so the required search range for the disparity of pixels between synthetic and real images is proportional to the error in the original disparity map, which, as a rule, is significantly lower than the range of variation in disparity in the process of calculating the original disparity map. This positive effect is especially important if the epipolar lines for comparing the source images are not straight lines (for example, if shooting was carried out with spherical cameras).

Далее существо заявляемого технического решения поясняется в деталях с привлечением графических материалов.Further, the essence of the claimed technical solution is explained in detail with the involvement of graphic materials.

Фиг.1. Общая принципиальная схема заявляемого устройства.Figure 1. The general schematic diagram of the inventive device.

Фиг.2. Иллюстрация проблемы сопоставления стереоскопических изображений, связанной с перспективными искажениями проекций, полученных при различающихся ракурсах съемки.Figure 2. An illustration of the problem of comparing stereoscopic images associated with perspective distortions of projections obtained with different camera angles.

Фиг.3. Пояснение принципа синтеза декодирующего изображения и сопоставления реальных и синтетических изображений (видов сцены).Figure 3. Explanation of the principle of synthesis of a decoding image and comparison of real and synthetic images (types of scenes).

Фиг.4. Перечень входных и выходных сигналов предлагаемого устройства.Figure 4. The list of input and output signals of the proposed device.

Фиг.5. Внутренняя структура предлагаемого устройства с описанием работы составляющих его блоков.Figure 5. The internal structure of the proposed device with a description of the operation of its constituent blocks.

Фиг.6. Пример изображения «Mountain», снятого в точке А.6. Example of a Mountain image taken at point A.

Фиг.7. Пример изображения, снятого в точке Б.7. Example image taken at point B.

Фиг.8. Пример синтетического вида из точки А, полученного с использованием изображения Б, в качестве текстуры, исходной трехмерной модели и данных о параметрах камер (внутренних и внешних). Очевидность сходства с фактическим изображением, полученным из точки А.Fig. 8. An example of a synthetic view from point A obtained using image B as a texture, an initial three-dimensional model, and data on camera parameters (internal and external). Evidence of similarity with the actual image obtained from point A.

Фиг.9. Визуализация точечных соответствий, полученных для синтеза разреженной карты диспарантностей, в случае сопоставления оригинальных изображений А и В.Fig.9. Visualization of point correspondences obtained for the synthesis of a sparse disparity map in the case of comparing the original images A and B.

Фиг.10. Визуализация примера точечных соответствий, полученных в ходе сопоставления изображения "Mountain" А, и синтетического вида модели, полученной из точки А (изображение А*).Figure 10. Visualization of the example of point correspondence obtained during the comparison of the image "Mountain" A, and the synthetic form of the model obtained from point A (image A *).

Фиг.11. Визуализация точечных соответствий для примера «NYS», полученных с использованием сопоставления исходных изображений А и В.11. Point correspondence visualization for “NYS” example obtained using comparison of source images A and B.

Фиг.12. Визуализация точечных соответствий для примера «NYS», полученных в ходе сопоставления изображения А, и синтетического вида модели, полученной из точки А (изображение А*).Fig. 12. Point correspondence visualization for the “NYS” example obtained by comparing image A and the synthetic look of the model obtained from point A (image A *).

Фиг.13. Пример входной карты диспарантности «NYS», построенной методом SAD.Fig.13. An example of an input NYS disparity card constructed using the SAD method.

Фиг.14. Улучшенная предложенным способом плотная карта диспарантности «NYS».Fig.14. Improved the proposed method of a dense disparity card "NYS".

Фиг.15. Столбчатая диаграмма числа найденных точечных соответствий разреженной карты диспарантностей для примеров «Mountain» и «NYS» в случае сопоставления исходных видов, или видов, полученных в результате применения предложенного в данном изобретении способа.Fig.15. A bar graph of the number of found point correspondences of a sparse disparity map for the examples "Mountain" and "NYS" in the case of comparison of the original species, or species obtained as a result of applying the method proposed in this invention.

На Фиг.2 видно, что камера, наблюдающая трехмерный объект «3D OBJECT» «справа», формирует проекцию В, которая имеет существенные отличия от проекции А, сформированной «левой» камерой. Известные из уровня техники методы сопоставления таких стереопар, применяющие прямоугольные окна для сопоставления (корреляции, совмещения) элементов изображений, будут работать неэффективно, так как они предполагают незначительность геометрических искажений элементов в рамках окна поиска соответствия.Figure 2 shows that the camera observing the three-dimensional object "3D OBJECT" "on the right" forms a projection B, which has significant differences from the projection A formed by the "left" camera. Known from the prior art, methods for comparing such stereopairs using rectangular windows for matching (correlation, alignment) of image elements will not work efficiently, since they assume that the geometric distortions of the elements are insignificant within the match search window.

Для преодоления указанной проблемы в данном способе предлагается формировать для сопоставления изображения В с изображением А синтетическое изображение А*, представляющее собой проекцию для виртуальной точки наблюдения CA трехмерной модели сцены с наложенной на нее текстурой в виде изображения В, полученного из точки наблюдения CB (см. Фиг.3). Если трехмерная модель сцены, использованная для синтеза проекции А*, является приближением к истинной трехмерной модели, то проекция А* будет схожа с исходным изображением А и известные из уровня техники методы построения плотных карт диспарантности (такие как SAD, например), а также методы построения разреженных карт диспарантностей (поиск соответствующих ключевых точек по дескрипторам) будут работать существенно более эффективно, поскольку основные отличия пропорций элементов изображений, связанных с отличающимся ракурсом наблюдения, будут устранены. Степень отличия пропорций будет уменьшаться с улучшением качества трехмерной модели, что позволяет использовать предложенный способ в итеративном режиме. В идеальном (предельном, асимптотическом) случае, если отсутствуют ошибки в определенных положениях (точек съемки) и значениях внутренних параметров камер, трехмерные модели изображения А и А* должны попиксельно совпасть. Различия в изображениях А и А* суть карта диспарантностей между А и А*, которая может быть транслирована в поправки к карте диспарантностей между А и В по формуле:To overcome this problem, in this method, it is proposed to form a synthetic image A * to compare image B with image A, which is a projection for a virtual observation point C A of a three-dimensional scene model with a texture superimposed on it in the form of image B obtained from the observation point C B ( see Figure 3). If the three-dimensional scene model used to synthesize the projection A * is an approximation to the true three-dimensional model, then the projection A * will be similar to the original image A and the well-known methods of constructing dense disparity maps (such as SAD, for example), as well constructing sparse disparity maps (searching for corresponding key points by descriptors) will work much more efficiently, since the main differences in the proportions of image elements associated with a different observation angle will be eliminated. The degree of difference in the proportions will decrease with an improvement in the quality of the three-dimensional model, which makes it possible to use the proposed method in iterative mode. In the ideal (limiting, asymptotic) case, if there are no errors in certain positions (shooting points) and the values of the internal parameters of the cameras, three-dimensional image models A and A * should coincide pixel by pixel. The differences in the images A and A * are the disparity map between A and A *, which can be translated into amendments to the disparity map between A and B according to the formula:

Figure 00000001
Figure 00000001

где x - двумерный координатный вектор {х,у};where x is the two-dimensional coordinate vector {x, y};

DAB(x)* - новые значения карты диспарантности между изображениями A и B (вектор-функция, имеющая две компоненты, - диспарантность по оси x и диспарантность по оси у изображения);D AB (x) * - new values of the disparity map between images A and B (vector function having two components - disparity along the x axis and disparity along the axis of the image);

DAA*(x) - значение карты диспарантности между А и А* (аналогичная по возвращаемым значениям вектор-функция диспарантностей по осям x и y);D AA * (x) is the value of the disparity map between A and A * (a similar vector function of disparity along the x and y axes in return values);

U(x) - вектор-функция (декодирующая текстура), рассчитанная модулем синтеза виртуального вида, значения которой суть значения координат пикселей текстуры В, цвет которых определил цвет пикселя проекции А* с координатой х. Поскольку процесс наложения текстуры известен из уровня техники, можно считать доказанным возможность построения U(x), так как для отображения пикселя x проекции А* в ходе процесса наложения текстуры (определения цвета пикселя x) необходимо получить доступ на чтение к соответствующему элементу текстуры (которым является изображение В), следовательно, необходим расчет адреса текстуры, который по сути и является (с точностью до известного линейного преобразования) значением U(x). На практике, наиболее удобно реализовать расчет U(x) при помощи шейдеров графического процессора, что является понятным для специалиста в области компьютерной графики.U (x) is a vector function (decoding texture), calculated by the virtual-type synthesis module, whose values are the coordinates of the pixels of texture B, the color of which determined the color of the projection pixel A * with the x coordinate. Since the texture mapping process is known from the prior art, the possibility of constructing U (x) can be considered proven, since in order to display the pixel x of the projection A * during the texture mapping process (determining the color of the pixel x), it is necessary to get read access to the corresponding texture element (which is image B), therefore, it is necessary to calculate the texture address, which in essence is (up to a known linear transformation) the value of U (x). In practice, it is most convenient to implement the calculation of U (x) using shaders of the GPU, which is understandable for a specialist in the field of computer graphics.

Для повышения устойчивости процесса сходимости формула (1) может быть модифицирована путем слияния нового и предыдущего значений карт диспарантностей по формулеTo increase the stability of the convergence process, formula (1) can be modified by merging the new and previous values of the disparity maps by the formula

Figure 00000002
,
Figure 00000002
,

где Ф - решающее правило, по которому происходит слияние старых и новых значений диспарантности (например, могут быть разрешены только незначительные изменения диспарантности, не превышающие порога или относительной степени изменения, выраженные в процентном отношении к самой величине диспарантности, и т.п.). Частным случаем функции Ф является взвешенная суммаwhere Φ is the decisive rule by which the merging of old and new disparity values occurs (for example, only insignificant disparity changes can be allowed, not exceeding the threshold or relative degree of change, expressed as a percentage of the disparity value itself, etc.). A special case of the function Ф is the weighted sum

Figure 00000003
,
Figure 00000003
,

где параметр k=0…1 имеет физический смыл скорости сходимости.where the parameter k = 0 ... 1 has a physical meaning of the rate of convergence.

Симметричность процедуры относительно изображений А и В позволяет получить способ уточнения карты диспарантности DBA(x)* путем смены мест переменных А и В.The symmetry of the procedure with respect to images A and B allows you to get a way to refine the disparity map D BA (x) * by changing the places of variables A and B.

Таким образом, для осуществления вышеописанной процедуры необходимо иметь следующий набор входных данных (см. Фиг.4): исходные изображения (стереопара); исходные карты диспарантности, полученные известным уровнем техники, которые играют роль первых приближений; параметры камер.Thus, for the implementation of the above procedure, it is necessary to have the following set of input data (see Figure 4): source images (stereo pair); initial disparity maps obtained by the prior art, which play the role of first approximations; camera settings.

Принципиальная схема устройства, осуществляющего указанный способ, отражена на Фиг.5. Блок А1 осуществляет известным из уровня техники методом формирование трехмерной модели исходя из полученных данных о параметрах камеры (точки съемки) Б и карты диспарантности. Выходом модуля является трехмерная модель сцены в мировой системе координат, которая подается в блок А2, осуществляющий ее рендеринг в виртуальный вид А*, являющийся видом на трехмерную модель из позиции А (используя для этого параметры камеры А), накладывая изображение Б в качестве текстуры модели. Блок А2 имеет два выходных сигнала. Помимо синтеза изображения А*, блок А2 осуществляет расчет декодирующей текстуры U(x) в соответствии с данным выше определением. Первый выход блока А2 (изображение А*) подключен к блоку A3. А второй выход блока А2 (декодирующая текстура) подключен к блоку А4. Блок A3 осуществляет вычисление разреженной и плотной карт диспарантностей между изображениями А и А* одним из известных специалисту способов (например, при помощи SAD). Блок А4 осуществляет декодирование карты диспарантности АА* с применением декодирующего изображения, выполняя вычисления по формуле (1), выходом блока А4 является улучшенное значение карт диспарантностей для точки наблюдения А.Schematic diagram of a device that implements the specified method is reflected in Figure 5. Block A1 implements, using a method known from the prior art, the formation of a three-dimensional model based on the obtained data on the parameters of the camera (shooting point) B and the disparity map. The output of the module is a three-dimensional model of the scene in the world coordinate system, which is fed to block A2, rendering it in a virtual view A *, which is a view of the three-dimensional model from position A (using camera A parameters for this), superimposing image B as the model texture . Block A2 has two output signals. In addition to image synthesis A *, block A2 calculates the decoding texture U (x) in accordance with the definition given above. The first output of block A2 (image A *) is connected to block A3. And the second output of block A2 (decoding texture) is connected to block A4. Block A3 calculates the sparse and dense disparity maps between images A and A * using one of the methods known to the person skilled in the art (for example, using SAD). Block A4 decoding the disparity card AA * using a decoding image, performing calculations according to formula (1), the output of block A4 is the improved value of the disparity cards for observation point A.

На Фиг.6-15 показаны примеры технического результата применения данного способа. Фиг.6 показывает пример оригинального изображения А сцены под кодовым названием «Mountain». Фиг.7 показывает пример оригинального изображения Б, полученного с другой точки съемки. Фиг.8 показывает синтетический вид модели, текструрированной изображением Б с точки наблюдения А. Видно, что пропорции элементов объектов на изображении на Фиг.8 в значительной мере больше соответствуют наблюдаемым пропорциям элементов на Фиг.6. На Фиг.9 отражены результаты запуска процесса поиска точечных соответствий на изображении с применением дескрипторов ключевых точек, инвариантных к масштабу и повороту (построение разреженной карты диспарантности). Фиг.9 представляет собой наложенные друг на друга изображения А и Б, совмещенные ключевые точки которых соединены линиями. Фиг.10 представляет собой аналогичную картину, но для изображений АА*. Видно, что на Фиг.10 количество линий в несколько раз больше, а значит, и найденных соответствий, и следовательно, качество разреженной карты диспарантности лучше, чем на Фиг.9. Также видно, что линии, соединяющие точки на Фиг.10, существенно короче, что позволяет использовать локальность для уточнения и упрощения поиска соответствий. Аналогичные примеры приведены для сцены под кодовым названием «NYS» (Фиг.11 и Фиг.12). На Фиг.13 показана исходная плотная карта диспарантности для точки А сцены «NYS», полученная методом SAD. На Фиг.14 показана улучшенная предлагаемым в данной заявке способом карта диспарантности после трех итераций работы устройства. Визуально наблюдается уменьшение числа артефактов, спеклов и увеличение степени детализации некоторых элементов карты диспарантности. Количественная характеристика увеличения в результате применения способа числа найденных соответствий для сцен «Mountain» и «NYS» приведена на Фиг.15 и отражает приблизительно трехкратное увеличение количества найденных соответствий (столбики диаграммы для сцены «Moutain» были увеличены в 10 раз для удобства восприятия).Figure 6-15 shows examples of the technical result of the application of this method. 6 shows an example of the original image A of the scene, code-named "Mountain". 7 shows an example of an original image B obtained from a different shooting point. Fig. 8 shows a synthetic view of a model textured by image B from the observation point A. It can be seen that the proportions of the elements of the objects in the image in Fig. 8 are much more consistent with the observed proportions of the elements in Fig. 6. Figure 9 shows the results of starting the process of searching for point correspondences in the image using key point descriptors invariant to scale and rotation (building a sparse disparity map). Fig.9 is an overlay image A and B, the combined key points of which are connected by lines. Figure 10 is a similar picture, but for images AA *. It can be seen that in Fig. 10 the number of lines is several times larger, and hence the correspondences found, and therefore, the quality of the sparse disparity map is better than in Fig. 9. It is also seen that the lines connecting the points in FIG. 10 are significantly shorter, which allows the use of locality to refine and simplify the search for matches. Similar examples are given for a scene codenamed “NYS” (FIG. 11 and FIG. 12). Figure 13 shows the original dense disparity map for point A of the NYS scene obtained by SAD. On Fig shows the improved proposed in this application method disparity card after three iterations of the device. Visually, a decrease in the number of artifacts, speckles and an increase in the degree of detail of some elements of the disparity map are observed. The quantitative characteristic of the increase as a result of applying the method of the number of found matches for the Mountain and NYS scenes is shown in Fig. 15 and reflects approximately a three-fold increase in the number of found matches (the columns of the diagram for the Moutain scene were increased 10 times for readability).

Claims (9)

1. Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели, включающий в себя выполнение следующих операций:
методами компьютерной графики первичную трехмерную модель проецируют (отображают, осуществляют рендеринг) на виртуальную позицию наблюдения, совпадающую с позицией точки съемки первого исходного изображения стереопары, используя в качестве текстуры второе исходное изображение стереопары;
в ходе проецирования осуществляют расчет декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;
осуществляют стереосопоставление фактических изображений с соответствующими отображенными проекциями, при этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений;
транслируют найденные таким образом диспарантности между оригинальным и синтетическим изображениями (проекциями), имеющие физический смысл ошибок обратного проектирования, в поправки к исходной плотной и/или разреженной карте диспарантности при помощи декодирующей текстуры;
осуществляют пересчет трехмерной модели на основе уточненной карты диспарантности.
1. A method for improving the dense and sparse disparity maps, the accuracy of the reconstructed three-dimensional model, which includes the following operations:
using computer graphics methods, the primary three-dimensional model is projected (displayed, rendered) onto a virtual observation position that coincides with the position of the shooting point of the first source image of the stereo pair, using the second source image of the stereo pair as texture;
during projection, a decoding texture is calculated that allows the coordinates of the projection pixels to be associated with the parameters of the geometric rays released to the corresponding points of the three-dimensional model;
stereo-comparing the actual images with the corresponding displayed projections, while the methods of constructing dense disparity maps and searching for point correspondences (sparse disparity maps) work more productively and are able to find a larger number of matches than when comparing the original images;
translate the disparities found in this way between the original and synthetic images (projections), which have the physical meaning of reverse engineering errors, into corrections to the original dense and / or sparse disparity map using a decoding texture;
recalculate the three-dimensional model based on the updated disparity map.
2. Способ по п.1, отличающийся тем, что первоначальное приближение трехмерной модели строят при помощи сопоставления других стереопар, полученных в ходе съемки сцены с множества различных точек съемки.2. The method according to claim 1, characterized in that the initial approximation of the three-dimensional model is built by comparing other stereo pairs obtained during shooting the scene from many different shooting points. 3. Способ по п.1, отличающийся тем, что операцию, изложенную в п.1, производят попарно для нескольких или всех точек съемки сцены.3. The method according to claim 1, characterized in that the operation set forth in claim 1, is performed in pairs for several or all points of shooting the scene. 4. Способ по п.1, отличающийся тем, что операции из п.1 повторяют итеративно, вплоть до сходимости (до отсутствия значимых изменений-улучшений в карте диспарантности).4. The method according to claim 1, characterized in that the operations of claim 1 are repeated iteratively, up to convergence (until there are no significant changes, improvements in the disparity map). 5. Способ по п.1, отличающийся тем, что для получения исходных изображений используются сферические или цилиндрические камеры.5. The method according to claim 1, characterized in that to obtain the source image using spherical or cylindrical cameras. 6. Способ по п.1, отличающийся тем, что исходную карту диспарантности подвергают фильтрации медианным фильтром или иным фильтром, осуществляющим выравнивание карты диспарантности для исключения импульсного шума.6. The method according to claim 1, characterized in that the original disparity map is subjected to filtration by a median filter or another filter that aligns the disparity map to eliminate impulse noise. 7. Способ по п.1, отличающийся тем, что для вычисления (рендеринга) виртуального вида и декодирующей текстуры применяется графический процессор (GPU) и одна из аналогичных технологий программирования графических процессоров или реализации шейдеров (Cg, CUDA, Direct3D, DirectCompute, DirectX, OpenGL, GLSL, и т.п.).7. The method according to claim 1, characterized in that a graphic processor (GPU) and one of the similar technologies for programming graphics processors or implementing shaders (Cg, CUDA, Direct3D, DirectCompute, DirectX, are used to calculate (render) the virtual look and decode texture, OpenGL, GLSL, etc.). 8. Способ по п.1, отличающийся тем, что исходные изображения получаются не съемкой сцены одной камерой из различных точек, а набором камер, находящихся в различных точках сцены.8. The method according to claim 1, characterized in that the original image is obtained not by shooting the scene with one camera from various points, but by a set of cameras located at different points in the scene. 9. Устройство для улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели, включающее в себя:
блок формирования исходной трехмерной модели из исходной карты диспарантности и известных параметров камер, осуществлявших съемку;
блок рендеринга виртуального вида, осуществляющего расчет проекции виртуального вида трехмерной модели, совпадающего с исходной точкой съемки, и соответствующей декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;
блок вычисления плотной и разреженной карт диспарантностей между оригинальным изображением и синтетической проекцией;
блок декодирования (трансляции) карты диспарантности в поправки к исходной карте диспарантности при помощи декодирующего изображения.
9. A device for improving the dense and sparse disparity maps, the accuracy of the reconstructed three-dimensional model, including:
a unit for generating an initial three-dimensional model from an initial disparity map and known parameters of the cameras that performed the shooting;
a virtual view rendering unit that calculates a projection of a virtual view of a three-dimensional model that matches the origin of the survey and the corresponding decoding texture, which allows you to associate the coordinates of the projection pixels with the parameters of the geometric rays released to the corresponding points of the three-dimensional model;
a unit for calculating dense and sparse disparity maps between the original image and the synthetic projection;
a decoding (broadcasting) block of the disparity card as an amendment to the original disparity card using the decoding image.
RU2012111443/08A 2012-03-26 2012-03-26 Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method RU2479039C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2012111443/08A RU2479039C1 (en) 2012-03-26 2012-03-26 Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012111443/08A RU2479039C1 (en) 2012-03-26 2012-03-26 Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method

Publications (1)

Publication Number Publication Date
RU2479039C1 true RU2479039C1 (en) 2013-04-10

Family

ID=49152415

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012111443/08A RU2479039C1 (en) 2012-03-26 2012-03-26 Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method

Country Status (1)

Country Link
RU (1) RU2479039C1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018236347A1 (en) * 2017-06-20 2018-12-27 Hewlett-Packard Development Company, L.P. Sensors positions determinations
RU2732989C2 (en) * 2015-06-15 2020-09-28 Кохерент Синкро, С.Л. Method, device and system for generating a video signal
CN111815757A (en) * 2019-06-29 2020-10-23 浙江大学山东工业技术研究院 Three-dimensional reconstruction method for large component based on image sequence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351572B1 (en) * 1997-07-29 2002-02-26 U.S. Philips Corporation Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
RU2291488C9 (en) * 2002-06-24 2007-04-20 Ренат Анатольевич Красноперов Method for stereological examination of objects structural organization
RU2358319C2 (en) * 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Method and device for photorealistic three dimensional simulation of face based on image
RU2382406C1 (en) * 2008-10-10 2010-02-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method of improving disparity map and device for realising said method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351572B1 (en) * 1997-07-29 2002-02-26 U.S. Philips Corporation Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
EP0928460B1 (en) * 1997-07-29 2003-01-29 Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
RU2291488C9 (en) * 2002-06-24 2007-04-20 Ренат Анатольевич Красноперов Method for stereological examination of objects structural organization
RU2358319C2 (en) * 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Method and device for photorealistic three dimensional simulation of face based on image
RU2382406C1 (en) * 2008-10-10 2010-02-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method of improving disparity map and device for realising said method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2732989C2 (en) * 2015-06-15 2020-09-28 Кохерент Синкро, С.Л. Method, device and system for generating a video signal
WO2018236347A1 (en) * 2017-06-20 2018-12-27 Hewlett-Packard Development Company, L.P. Sensors positions determinations
US11263779B2 (en) 2017-06-20 2022-03-01 Hewlett-Packard Development Company, L.P. Sensors positions determinations
CN111815757A (en) * 2019-06-29 2020-10-23 浙江大学山东工业技术研究院 Three-dimensional reconstruction method for large component based on image sequence

Similar Documents

Publication Publication Date Title
US9082224B2 (en) Systems and methods 2-D to 3-D conversion using depth access segiments to define an object
Henry et al. Patch volumes: Segmentation-based consistent mapping with rgb-d cameras
US20130286017A1 (en) Method for generating depth maps for converting moving 2d images to 3d
US20080228449A1 (en) Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080225042A1 (en) Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20080225045A1 (en) Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20080226194A1 (en) Systems and methods for treating occlusions in 2-d to 3-d image conversion
US20080226128A1 (en) System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
US20080226160A1 (en) Systems and methods for filling light in frames during 2-d to 3-d image conversion
KR20120093063A (en) Techniques for rapid stereo reconstruction from images
WO2012117706A1 (en) Video processing device, video processing method, program
Kholil et al. 3D reconstruction using structure from motion (SFM) algorithm and multi view stereo (MVS) based on computer vision
RU2479039C1 (en) Method of enhancing dense and sparse disparity maps, accuracy of reconstructed three-dimensional model and apparatus for realising said method
Izquierdo et al. Image-based rendering and 3D modeling: A complete framework
JP7119023B2 (en) Systems and methods for performing 3D imaging of objects
Lu et al. Depth-based view synthesis using pixel-level image inpainting
Aganj et al. Multi-view texturing of imprecise mesh
Bethmann et al. Object-based semi-global multi-image matching
Zakaria et al. 3D reconstruction of a scene from multiple uncalibrated images using close range photogrammetry
De Cubber et al. Partial differential equation-based dense 3D structure and motion estimation from monocular image sequences
Yang et al. Monocular three dimensional dense surface reconstruction by optical flow feedback
Ismael et al. Actor 3D reconstruction by a scene-based, visual hull guided, multi-stereovision framework
De Cubber et al. Intelligent robots need intelligent vision: visual 3D perception
Weng et al. Pyramid stereo matching for spherical panoramas
Shao Combination of stereo, motion and rendering for 3d footage display

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20140327