RU2726160C1 - Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling - Google Patents

Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling Download PDF

Info

Publication number
RU2726160C1
RU2726160C1 RU2019113117A RU2019113117A RU2726160C1 RU 2726160 C1 RU2726160 C1 RU 2726160C1 RU 2019113117 A RU2019113117 A RU 2019113117A RU 2019113117 A RU2019113117 A RU 2019113117A RU 2726160 C1 RU2726160 C1 RU 2726160C1
Authority
RU
Russia
Prior art keywords
image
texture
deformation
module
pixel
Prior art date
Application number
RU2019113117A
Other languages
Russian (ru)
Inventor
Артем Михайлович СЕВАСТОПОЛЬСКИЙ
Артур Андреевич ГРИГОРЬЕВ
Виктор Сергеевич Лемпицкий
Александр Тимурович ВАХИТОВ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2019113117A priority Critical patent/RU2726160C1/en
Priority to EP19881010.3A priority patent/EP3824432A4/en
Priority to PCT/KR2019/015051 priority patent/WO2020096368A1/en
Priority to US17/282,214 priority patent/US11961205B2/en
Priority to CN201980066712.4A priority patent/CN112823375A/en
Application granted granted Critical
Publication of RU2726160C1 publication Critical patent/RU2726160C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic

Abstract

FIELD: data processing.SUBSTANCE: invention relates to image processing. System comprises an input image input module, a forward deformation module configured to predict for each pixel of the original image of the corresponding position in the target image, wherein forward deformation module is configured to predict forward deformation field, which is aligned with initial image, and a pass filling module configured to fill the blanks resulting from the use of the straightening module.EFFECT: technical result consists in improvement of accuracy of repeated synthesis of image based on input image.13 cl, 7 dwg

Description

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

Настоящее изобретение относится в общем к обработке изображений и более конкретно к повторному синтезу изображений для синтезирования новых видов (проекций) для человека или объекта на основе входного изображения с использованием методов машинного обучения.The present invention relates generally to image processing and, more particularly, to the re-synthesis of images for synthesizing new views (projections) for a person or object based on an input image using machine learning methods.

уровень техникиstate of the art

В последнее время имеется растущий интерес к основанному на обучении повторному синтезу изображения. В этом контексте, задачей машинного обучения является обучение синтезу новых проекций, например, для человека или объекта определенного типа на основе одного или более входных изображений человека или объекта. В крайнем случае, доступна только одна входная проекция. В этом смысле, новая проекция соответствует новому положению камеры и/или новой позе тела человека. В повторном синтезе изображения, измеряют качество целевой проекции и не придают значения качеству промежуточного представления, которое часто неявно или явно соответствует модели сцены (например, 3D реконструкции). Оптимизация качества целевой проекции напрямую часто означает, что качество целевой проекции лучше, особенно когда моделирование сцены является сложным.Recently, there has been a growing interest in learning-based re-synthesis of the image. In this context, the task of machine learning is to train in the synthesis of new projections, for example, for a person or object of a certain type based on one or more input images of a person or object. In extreme cases, only one input projection is available. In this sense, the new projection corresponds to the new position of the camera and / or the new pose of the human body. In repeated image synthesis, the quality of the target projection is measured and the quality of the intermediate representation, which often implicitly or explicitly matches the scene model (for example, 3D reconstruction), is not given importance. Optimizing the quality of the target projection directly often means that the quality of the target projection is better, especially when modeling the scene is difficult.

Различается несколько тенденций. Во-первых, решение сложной проблемы предсказания, которая сопровождает повторный синтез изображения, вызывает необходимость в глубоких сверточных сетях (ConvNets) (см. [15]). Во-вторых, многие решения из уровня техники избегают предсказания пиксельных значений непосредственно из высокоразмерного несверточного представления. Вместо этого, большинство архитектур прибегают к деформации некоторого рода внутри ConvNet (см., например, [5, 30, 20, 3, 23]). Общеизвестно, во многих случаях в уровне техники используется обратная деформация [13], при которой для каждого пиксела в целевом изображении предсказывается местоположение в исходном изображении, из которого пиксел будет скопирован. За процессом деформации часто следует постобработка, такая как коррекция яркости (см. [5]), или сети постобработки.Several trends are different. First, the solution to the complex prediction problem that accompanies image re-synthesis necessitates deep convolution networks (ConvNets) (see [15]). Secondly, many prior art solutions avoid predicting pixel values directly from a high-dimensional non-convolutional representation. Instead, most architectures resort to some kind of deformation inside ConvNet (see, for example, [5, 30, 20, 3, 23]). It is well known that in many cases, the prior art uses reverse deformation [13], in which for each pixel in the target image the location in the original image is predicted from which the pixel will be copied. The deformation process is often followed by post-processing, such as brightness correction (see [5]), or post-processing networks.

Ниже будут описаны некоторые подходы к проблемам, связанным с объективной технической задачей, решаемой настоящим изобретением.Below will be described some approaches to the problems associated with the objective technical problem solved by the present invention.

Повторный синтез на основе деформирования. Существует заметный интерес к использованию глубоких сверточных сетей для формирования реалистичных изображений (см., например, [6]). Когда новые изображения формируются путем изменения геометрии и представления входных изображений, было показано, что использование модулей деформирования заметно улучшает качество повторно синтезированных изображений (см., например, [5, 30]). В этом случае модули деформирования основаны на дифференцируемом слое (обратного) решетчатого дискретизатора, который был впервые введен как часть сетей пространственного преобразователя (STN) (см., например, [13]).Re-synthesis based on deformation. There is considerable interest in using deep convolutional networks to form realistic images (see, for example, [6]). When new images are formed by changing the geometry and representation of the input images, it was shown that the use of deformation modules significantly improves the quality of re-synthesized images (see, for example, [5, 30]). In this case, the deformation modules are based on a differentiable layer of the (inverse) trellis discretizer, which was first introduced as part of the spatial transducer (STN) networks (see, for example, [13]).

Конкурентное реконструирование изображения. Также существуют решения из уровня техники, нацеленные на реконструирование изображения на основе глубоких сверточных сетей. Специальные варианты сверточных архитектур, адаптированных к наличию пропусков во входных данных, включают в себя сверточные нейронные сети Шепарда (Shepard) (см., например, [21]), инвариантные к разреженности сверточные сети (см., например, [25]), сети с частичными свертками (см., например, [17]), сети со стробированными свертками (см., например, [28]). Последний вариант также используется в подходе, который предложен в настоящем раскрытии.Competitive image reconstruction. There are also prior art solutions aimed at reconstructing images based on deep convolutional networks. Special versions of convolutional architectures adapted to the presence of gaps in the input data include Shepard convolutional neural networks (see, for example, [21]), sparse-invariant convolution networks (see, for example, [25]), networks with partial convolutions (see, for example, [17]), networks with gated convolutions (see, for example, [28]). The latter option is also used in the approach proposed in this disclosure.

Так как задачи реконструирования вызывают необходимость условного синтеза содержимого изображения, подходы из уровня техники к реконструированию основываются в значительной степени на вариантах генеративного конкурентного (состязательного) обучения (см., например, [6]). В частности, уровень техники предлагает использование пар дискриминаторов, которые фокусируются на дискриминации между реальными и поддельными примерами на двух различных шкалах (см., например, [16, 11, 28, 4]), где одна из шкал может соответствовать индивидуальным фрагментам (патчам) (напоминающим идею фрагмента GAN из [12]). Здесь, вводится новый тип дискриминатора, который имеет сходную архитектуру с некоторыми из локальных дискриминаторов и с фрагментом GAN, однако проводит различие между двумя различными классами пикселов (известными пикселами в поддельных изображениях по отношению к неизвестным пикселам, также в поддельных изображениях).Since reconstruction tasks make it necessary to conditionally synthesize image content, approaches from the prior art to reconstruction are based largely on options for generative competitive (competitive) training (see, for example, [6]). In particular, the prior art suggests the use of pairs of discriminators that focus on discrimination between real and fake examples on two different scales (see, for example, [16, 11, 28, 4]), where one of the scales can correspond to individual fragments (patches ) (reminiscent of the idea of a GAN fragment from [12]). Here, a new type of discriminator is introduced, which has a similar architecture with some of the local discriminators and the GAN fragment, however it distinguishes between two different classes of pixels (known pixels in fake images with respect to unknown pixels, also in fake images).

Фронтализация лица. Решения из уровня техники, которые концентрируются на повторном синтезе изображения (таком как формирование новых проекций и/или изменение поз (положений тел) для 3D объектов на основе одного входного фотографического изображения или множестве входных фотографических изображений), используют изображения лиц в качестве первичной области. Фронтализованная проекция лица может быть использована как нормализованное представление, чтобы упростить распознавание лица и повысить его качество. Некоторые решения из уровня техники используют обратный дискретизатор для этой задачи. Например, система HF-PIM, которая может рассматриваться в качестве наиболее типичного примера такого подхода, предсказывает цилиндрическую карту текстуры и поле обратного деформирования, требуемое для преобразования цилиндрической карты текстуры в фронтализованную лицевую проекцию. Результат деформирования затем уточняется другой сетью. Многие другие способы, которые в настоящее время рассматриваются как высокоэффективные, такие как CAPG-GAN (см., например, [9]) LB-GAN (см., например, [2]), CPF (см., например, [26]), FF-GAN (см., например, [27]), основаны на сетях кодера-декодера, непосредственно выполняющих желательное преобразование путем представления изображения в низко-размерном латентном пространстве. Дополнительно, сеть повторного синтеза обычно обучается в GAN, настроенном, чтобы создавать выходное представление лица реалистичным и препятствовать различного рода артефактам. Многие из этих способов используют дополнительную информацию, такую как ориентиры (см., например, [9, 29]), локальные фрагменты (см., например, [10]), 3D трансформируемую модель (3DMM, см., например, [1]), оценку (см., например, [27]). Такая дополнительная информация может затем использоваться, либо чтобы обусловить процесс повторного синтеза, либо чтобы сформулировать дополнительные потери путем измерения, до какой степени синтезированное изображение согласуется с доступной дополнительной информацией.Frontalization of the face. Prior art solutions that focus on re-synthesizing an image (such as generating new projections and / or changing poses (body positions) for 3D objects based on one input photographic image or multiple input photographic images) use face images as the primary area. The frontalized face projection can be used as a normalized representation to simplify face recognition and improve its quality. Some prior art solutions use an inverse sampler for this task. For example, the HF-PIM system, which can be considered as the most typical example of such an approach, predicts a cylindrical texture map and a back deformation field required to convert a cylindrical texture map to a frontalized face projection. The result of the deformation is then refined by another network. Many other methods that are currently considered to be highly effective, such as CAPG-GAN (see, for example, [9]) LB-GAN (see, for example, [2]), CPF (see, for example, [26 ]), FF-GAN (see, for example, [27]), are based on encoder-decoder networks that directly perform the desired conversion by representing the image in a low-dimensional latent space. Additionally, the re-synthesis network is usually trained in a GAN configured to create an output representation of the face that is realistic and to prevent various kinds of artifacts. Many of these methods use additional information, such as landmarks (see, for example, [9, 29]), local fragments (see, for example, [10]), 3D transformable model (3DMM, see, for example, [1 ]), an estimate (see, for example, [27]). Such additional information can then be used, either to determine the re-synthesis process, or to formulate additional losses by measuring to what extent the synthesized image is consistent with the additional information available.

Основанный на деформировании повторный синтез всего тела. В уровне техники деформирование используется для синтеза новых проекций человека при условии одной входной проекции (см., например, [24, 23, 19]). Этот подход также использует плотную по положениям тела параметризацию (см., например, [8]) в сети для представления целевой позы человека на повторно синтезированном изображении.Warp-based re-synthesis of the whole body. In the prior art, deformation is used to synthesize new human projections under the condition of a single input projection (see, for example, [24, 23, 19]). This approach also uses dense body positioning (see, for example, [8]) in the network to represent the target pose of a person in a re-synthesized image.

Следует отметить, что все вышеупомянутые типы подходов из уровня техники к повторному синтезу изображения имеют определенные недостатки, и настоящее изобретение нацелено на устранение или по меньшей мере снижение по меньшей мере некоторых из недостатков уровня техники. В частности, недостатки доступных решений из уровня техники относятся к использованию обратного деформирования в повторном синтезе изображения, при котором, для каждого пиксела в целевом изображении, предсказывается местоположение в исходном изображении, из которого пиксел будет скопирован.It should be noted that all of the above types of prior art approaches to image re-synthesis have certain drawbacks, and the present invention is aimed at eliminating or at least reducing at least some of the drawbacks of the prior art. In particular, the disadvantages of the available solutions from the prior art relate to the use of back deformation in image re-synthesis, in which, for each pixel in the target image, the location in the original image from which the pixel will be copied is predicted.

РАСКРЫТИЕ изобретенияDISCLOSURE OF INVENTION

Задача настоящего изобретения состоит в создании нового способа повторного синтеза изображения, который устраняет или по меньшей мере уменьшает все или по меньшей мере некоторые из вышеупомянутых недостатков существующих решений из уровня техники.An object of the present invention is to provide a new image re-synthesis method that eliminates or at least reduces all or at least some of the aforementioned drawbacks of existing prior art solutions.

Технический результат, достигаемый настоящим изобретением, состоит в повышенной точности повторного синтеза изображения для синтезирования новых проекций человека или объекта на основе по меньшей мере одного входного изображения.The technical result achieved by the present invention consists in increased accuracy of image re-synthesis for synthesizing new projections of a person or object based on at least one input image.

В одном аспекте, этот результат достигается системой повторного синтеза изображения, содержащей: модуль ввода исходного изображения; модуль прямого деформирования, выполненный с возможностью предсказания для каждого пиксела исходного изображения соответствующего положения в целевом изображении, причем модуль прямого деформирования выполнен с возможностью предсказания поля прямого деформирования, которое выровнено с исходным изображением; и модуль заполнения пропусков, выполненный с возможностью заполнения пропусков, являющихся результатом применения модуля прямого деформирования.In one aspect, this result is achieved by an image re-synthesis system comprising: an input image input module; a direct deformation module configured to predict, for each pixel of the source image, a corresponding position in the target image, the direct deformation module configured to predict a direct deformation field that is aligned with the original image; and a gap filling module configured to fill the gaps resulting from the use of the direct deformation module.

В варианте осуществления, модуль заполнения пропусков может дополнительно содержать модуль коррекции ошибок деформирования, выполненный с возможностью коррекции ошибок прямого деформирования в целевом изображении.In an embodiment, the omission filling module may further comprise a deformation error correction module configured to correct direct deformation errors in the target image.

Система повторного синтеза изображения может дополнительно содержать архитектуру переноса текстуры, выполненную с возможностью: предсказания полей деформирования для исходного изображения и целевого изображения; отображения исходного изображения в пространство текстуры посредством прямого деформирования, восстановления пространства текстуры в полную текстуру; и отображения полную текстуру обратно в новое положение тела (позу) с использованием обратного деформирования.The image re-synthesis system may further comprise a texture transfer architecture configured to: predict strain fields for the source image and the target image; mapping the original image into the texture space through direct deformation, restoring the texture space to the full texture; and display the full texture back to a new body position (posture) using reverse deformation.

Система повторного синтеза изображения может дополнительно содержать модуль извлечения текстуры, выполненный с возможностью извлечения текстуры из исходного изображения. По меньшей мере модуль прямого деформирования и модуль заполнения пропусков могут быть реализованы как глубокие сверточные нейронные сети.The image re-synthesis system may further comprise a texture extraction module adapted to extract the texture from the original image. At least the direct deformation module and the gap filling module can be implemented as deep convolutional neural networks.

В варианте осуществления, модуль заполнения пропусков может содержать реконструктор пропусков, причем реконструктор пропусков содержит: модуль назначения координат, выполненный с возможностью назначения каждому пикселу p=(x,y) входного изображения пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры; модуль завершения карты текстуры, выполненный с возможностью обеспечения завершенной карты текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения; модуль формирования окончательной текстуры, выполненный с возможностью формирования окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечивать завершенную цветную окончательную текстуру; модуль повторного отображения окончательной текстуры, выполненный с возможностью повторного отображения окончательной текстуры в новую проекцию путем обеспечения другого отображения из координат пикселов изображения на координаты текстуры.In an embodiment, the gaps filling module may comprise a gaps reconstructor, the gaps reconstructor comprising: a coordinate assignment module, configured to assign to each pixel p = (x, y) an input image of a coordinate pair (u, v) of a texture in accordance with a fixed predetermined mapping textures to provide a two-channel map of x and y values in the texture coordinate system; a texture map completion module, configured to provide a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known; a final texture generating unit configured to produce a final texture by mapping image values from positions (x [u, v], y [u, v]) to a texture at positions (u, v) to provide a complete color final texture; a final texture re-mapping module configured to re-display the final texture in a new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture.

По меньшей мере одна из глубоких сверточных сетей может быть обучена с использованием дискриминатора реального/поддельного изображения, выполненного с возможностью различения изображений истинных участков и реконструированных изображений. Система повторного синтеза изображения может дополнительно содержать модуль уточнения изображения, выполненный с возможностью коррекции дефектов выходного изображения.At least one of the deep convolutional networks can be trained using a real / fake image discriminator configured to distinguish between true site images and reconstructed images. The image re-synthesis system may further comprise an image refinement module configured to correct defects in the output image.

В другом аспекте обеспечена система для обучения модуля заполнения пропусков, выполненного с возможностью заполнения пропусков как часть повторного синтеза изображения, причем система выполнена с возможностью обучения модуля заполнения пропусков параллельно и совместно с сетью дискриминатора пропусков, при этом сеть дискриминатора пропусков обучается предсказывать двоичную маску пропусков, а модуль заполнения пропусков обучается минимизировать точность сети дискриминатора пропусков.In another aspect, there is provided a system for training a gap filling module configured to fill gaps as part of image re-synthesis, the system being configured to teach a gap filling module in parallel and together with a gap discriminator network, wherein the gap discriminator network is trained to predict the binary gap mask, and the gap filling module learns to minimize the accuracy of the gap discriminator network.

В еще одном аспекте, изобретение относится к способу повторного синтеза изображения, содержащему этапы: ввода исходного изображения; предсказания, для каждого пиксела исходного изображения, соответствующего положения в целевом изображении, причем предсказывается поле прямого деформирования, которое выровнено с исходным изображением; предсказания двоичной маски пропусков, которые являются результатом прямого деформирования, заполнения пропусков на основе упомянутой двоичной маски пропусков путем формирования изображения текстуры посредством предсказания пары координат в исходном изображении для каждого пиксела в изображении текстуры; и отображения всей текстуры обратно в новое положение тела с использованием обратного деформирования.In another aspect, the invention relates to a method for re-synthesizing an image, comprising the steps of: inputting an original image; predicting, for each pixel of the original image, the corresponding position in the target image, and the field of direct deformation is predicted, which is aligned with the original image; predicting the binary mask of the gaps that result from direct deformation, filling in the gaps based on said binary mask of the gaps by generating a texture image by predicting a pair of coordinates in the original image for each pixel in the texture image; and mapping the entire texture back to a new body position using reverse deformation.

В варианте осуществления, этап заполнения пропусков может содержать этапы: назначения каждому пикселу p=(x,y) входного изображения пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры; обеспечения карты завершенной текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения; формирования окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечить завершенную цветную окончательную текстуру; повторного отображения окончательной текстуры на новую проекцию путем обеспечения другого отображения из координат пикселов изображения на координаты текстуры.In an embodiment, the gap filling step may comprise the steps of: assigning to each pixel p = (x, y) an input image of a coordinate pair (u, v) of a texture in accordance with a fixed predetermined texture mapping to provide a two-channel map of x and y values in the coordinate system textures; providing a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known; forming the final texture by mapping the image values from the positions (x [u, v], y [u, v]) to the texture at the positions (u, v) to provide a complete color final texture; re-mapping the final texture to a new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture.

В еще одном аспекте, изобретение обеспечивает способ обучения модуля заполнения пропусков, выполненного с возможностью заполнения пропусков как часть повторного синтеза изображения, причем способ содержит обучение модуля заполнения пропусков параллельно и совместно с сетью дискриминатора пропусков, при этом сеть дискриминатора пропусков обучается предсказывать двоичную маску пропусков, и модуль заполнения пропусков обучается минимизировать точность сети дискриминатора пропусков.In yet another aspect, the invention provides a method for training a gap filling module configured to fill gaps as part of image re-synthesis, the method comprising training the gap filling module in parallel with and together with a gap discriminator network, wherein the gap discriminator network is trained to predict a binary gap mask, and the gap filling module is trained to minimize the accuracy of the gap discriminator network.

В еще одном аспекте, обеспечен компьютерный программный продукт, содержащий компьютерный программный код, который, при исполнении одним или более процессорами, побуждает один или более процессоров реализовывать способ второго вышеупомянутого аспекта.In yet another aspect, a computer program product is provided comprising computer program code that, when executed by one or more processors, causes one or more processors to implement the method of the second aforementioned aspect.

В еще одном аспекте обеспечен постоянный машиночитаемый носитель, имеющий сохраненный на нем компьютерный программный продукт в соответствии с вышеупомянутым аспектом.In yet another aspect, a permanent computer-readable medium is provided having a computer program product stored thereon in accordance with the aforementioned aspect.

На основании изучения и понимания нижеприведённого описания специалистам в данной области техники должно быть понятно, что заявленное изобретение также может принимать другие формы. Различные этапы способа и компоненты системы могут быть реализованы аппаратными средствами, программным обеспечением и встроенным программным обеспечением или любым их подходящим сочетанием.Based on the study and understanding of the description below, those skilled in the art should understand that the claimed invention may also take other forms. The various steps of the method and system components can be implemented in hardware, software and firmware, or any suitable combination thereof.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

Вслед за кратким описанием изобретения, представленным выше, ниже приведено подробное описание принципов изобретения в качестве примера и со ссылкой на приложенные чертежи, которые приведены лишь в качестве иллюстрации и не предназначены для ограничения объема заявленного изобретения или определения его существенных признаков. На чертежах:Following the brief description of the invention presented above, the following is a detailed description of the principles of the invention as an example and with reference to the accompanying drawings, which are given only as an illustration and are not intended to limit the scope of the claimed invention or to determine its essential features. In the drawings:

Фиг. 1 показывает различие между прямым и обратным деформированием, поясняемое с точки зрения задачи фронтализации лица;FIG. 1 shows the difference between forward and reverse deformation, explained from the point of view of the frontalization of the face;

Фиг. 2 иллюстрирует процесс машинного обучения для реконструирования с дискриминаторами пропусков в соответствии с вариантом осуществления настоящего изобретение;FIG. 2 illustrates a machine learning process for reconstructing with skip discriminators in accordance with an embodiment of the present invention;

Фиг. 3 иллюстрирует процесс фронтализации лица посредством прямого деформирования в соответствии с вариантом осуществления настоящего изобретения;FIG. 3 illustrates a frontalization process of a face by direct deformation in accordance with an embodiment of the present invention;

Фиг. 4 иллюстрирует архитектуру переноса текстуры в соответствии с вариантом осуществления настоящего изобретения;FIG. 4 illustrates a texture transfer architecture in accordance with an embodiment of the present invention;

Фиг. 5 иллюстрирует процесс завершения текстуры для повторного синтеза нового положения тела (позы) в соответствии с вариантом осуществления настоящего изобретения;FIG. 5 illustrates a texture completion process for re-synthesizing a new body position (posture) in accordance with an embodiment of the present invention;

Фиг. 6 иллюстрирует процесс повторного синтеза всего тела с использованием основанного на координатах реконструирования текстуры в соответствии с вариантом осуществления настоящего изобретения.FIG. 6 illustrates a whole-body re-synthesis process using coordinate-based texture reconstruction in accordance with an embodiment of the present invention.

Фиг. 7 показывает блок-схему способа повторного синтеза изображения в соответствии с вариантом осуществления настоящего изобретения.FIG. 7 shows a flowchart of an image re-synthesis method in accordance with an embodiment of the present invention.

ОСУЩЕСТВЛЕНИЕ изобретенияThe implementation of the invention

Настоящее подробное описание приведено, чтобы способствовать пониманию сущности изобретения. Следует отметить, что описание направлено на примерные варианты осуществления изобретения, и на основании тщательного изучения описания со ссылкой на приложенные чертежи специалистом в данной области техники могут быть выполнены другие модификации, варианты и эквивалентные замены в описанном объекте изобретения. Все такие очевидные модификации, варианты и эквиваленты предполагаются входящими в объем заявленного изобретения. Никакие ссылочные позиции или условные обозначения, указанные в этом подробном описании, а также в приложенной формуле изобретения не предназначены для ограничения или определения объема заявленного изобретения каким-либо образом.The present detailed description is provided to facilitate understanding of the invention. It should be noted that the description is directed to exemplary embodiments of the invention, and based on a careful study of the description with reference to the attached drawings, other modifications, variations and equivalent replacements in the described subject matter may be made by a person skilled in the art. All such obvious modifications, variations, and equivalents are intended to be included within the scope of the claimed invention. No reference numerals or conventions indicated in this detailed description, as well as in the attached claims, are intended to limit or determine the scope of the claimed invention in any way.

Настоящее изобретение предлагает новый подход для повторного синтеза изображения на основе по меньшей мере одного входного изображения. Способы и системы согласно изобретению основаны на различных нейронных сетях с возможностью обучения на различных наборах данных, таких как глубокие нейронные сети. Специалисту в данной области техники может быть понятно, что реализации настоящего изобретения не ограничены нейронными сетями, конкретно описанными в настоящем документе, но могут быть осуществлены с использованием других типов сетей, которые могут быть пригодными для данной задачи в пределах контекста настоящего изобретения. Нейронные сети, пригодные для реализации настоящих изобретений, могут быть реализованы материальными и техническими средствами, хорошо известными специалистам в данной области техники, например, но без ограничения указанным, одним или более процессорами, универсальными или специализированными компьютерами, графическими процессорами (GPU) и т.д., управляемыми одной или более компьютерными программами, элементами компьютерных программ, программным кодом и т.д., для реализации методологий согласно изобретению, описанных ниже.The present invention provides a new approach for re-synthesizing an image based on at least one input image. The methods and systems according to the invention are based on various neural networks with the possibility of training on various data sets, such as deep neural networks. One of ordinary skill in the art may understand that implementations of the present invention are not limited to the neural networks specifically described herein, but can be implemented using other types of networks that may be suitable for the task within the context of the present invention. Neural networks suitable for implementing the present invention can be implemented by material and technical means well known to specialists in this field of technology, for example, but not limited to, one or more processors, universal or specialized computers, graphic processors (GPUs), etc. D., managed by one or more computer programs, elements of computer programs, program code, etc., for implementing the methodologies according to the invention described below.

Во-первых, заявленное изобретение будет описано с точки зрения одной или более моделей машинного обучения на основе глубоких сверточных нейронных сетей, предварительно обученных или обучаемых для выполнения конкретной обработки, результатом которой является повторный синтез изображения для синтезирования новых проекций человека или объекта на основе на основе по меньшей мере одного входного изображения.Firstly, the claimed invention will be described in terms of one or more machine learning models based on deep convolutional neural networks, previously trained or trained to perform a specific processing, the result of which is repeated image synthesis for synthesizing new projections of a person or object based on at least one input image.

В итоге, предложенный подход основан на двух вкладах по сравнению с уровнем техники. В качестве первого вклада, предлагается архитектура повторного синтеза на основе прямого деформирования. Процесс деформирования, используемый внутри стадий деформирования согласно подходам из уровня техники, описанным выше, переработан, в частности, путем замены обратного деформирования, широко использовавшегося в уровне техники, на прямое деформирование, обеспечиваемое модулем, который предсказывает соответствующее положение в целевом изображении для каждого пиксела исходного изображения. Изобретателями было обнаружено, что предсказание поля прямого деформирования из исходного изображения является более простой задачей, поскольку поле прямого деформирования выровнено с исходным изображением. Это кардинально отличается от поля обратного деформирования, которое пространственно выровнено с целевым изображением и не является пространственно выровненным с исходным изображением. Наличие пространственного выравнивания между исходным изображением и полем прямого деформирования делает отображение предсказания более простым для обучения для сверточной архитектуры.As a result, the proposed approach is based on two contributions compared to the prior art. As a first contribution, a re-synthesis architecture based on direct deformation is proposed. The deformation process used inside the deformation stages according to the approaches of the prior art described above has been redesigned, in particular, by replacing the back deformation, widely used in the prior art, with the direct deformation provided by a module that predicts the corresponding position in the target image for each pixel of the original Images. The inventors have found that predicting the direct deformation field from the original image is a simpler task since the direct deformation field is aligned with the original image. This is fundamentally different from the back deformation field, which is spatially aligned with the target image and is not spatially aligned with the original image. The presence of spatial alignment between the original image and the direct deformation field makes the prediction display easier to learn for convolutional architecture.

Однако результаты прямого деформирования содержат пропуски, которые необходимо заполнить. Большинство решений из уровня техники подходят к проблеме реконструирования пропусков с использованием конкурентных (состязательных) архитектур. Таким образом, вторым вкладом предложенного изобретения является новый тип дискриминатора пропусков, который является специфическим для задач реконструирования. Дискриминаторы пропусков обучаются только на «поддельных» (т.е. реконструированных) изображениях и не требуют «реальных» изображений. Для каждого поддельного изображения, дискриминатор пропусков обучается предсказывать двоичную маску пропусков, которые были введены в сеть реконструирования. В результате, обучение по отношению к дискриминатору пропусков побуждает сети реконструирования заполнять пропуски таким способом, который делает пропуски неразличимыми.However, the results of direct deformation contain gaps that must be filled. Most of the solutions from the prior art approach the problem of reconstructing passes using competitive (competitive) architectures. Thus, the second contribution of the proposed invention is a new type of skip discriminator, which is specific for reconstruction tasks. Skip discriminators are trained only on “fake” (ie, reconstructed) images and do not require “real” images. For each fake image, the gap discriminator is trained to predict the binary mask of the gaps that were introduced into the reconstruction network. As a result, training with respect to the discriminator of gaps encourages reconstruction networks to fill gaps in a way that makes gaps indistinguishable.

Оба предложенных вклада в уровень техники не являются независимыми, а дополняют друг друга, образуя новый подход к повторному синтезу, который оценивался авторами изобретения для различных задач, таких как фронтализация лица и повторный синтез всего тела.Both of the proposed contributions to the prior art are not independent, but complement each other, forming a new approach to re-synthesis, which was evaluated by the inventors for various tasks, such as frontalization of the face and re-synthesis of the whole body.

Также предложена новая методология для повторного синтеза всего тела. В этой методологии, координаты текстуры тела оцениваются с использованием так называемого метода DensePose (плотного (по всем пикселам) оценивания позы (положения тела)). Текстура заполняется (завершается) с использованием глубокой сверточной сети. Глубокая сверточная сеть может даже использоваться, чтобы предсказывать цвет неизвестных пикселов. В качестве альтернативы, используется глубокая сеть, которая предсказывает для каждого пиксела в изображении текстуры пару координат в исходном изображении (основанное на координатах реконструирование). Последняя схема (основанное на координатах реконструирование) дает намного более резкую текстуру. Завершенная текстура используется для формирования новой проекции полного тела (позы), заданного координатами поверхности тела для каждого пиксела переднего плана в целевом изображении. Опционально, другая глубокая сеть может использоваться для формирования окончательного целевого изображения, принимая сформированное изображение с наложенной текстурой и некоторые другие изображения в качестве входа.A new methodology for the re-synthesis of the whole body is also proposed. In this methodology, the coordinates of the body texture are estimated using the so-called DensePose method (tight (by all pixels) estimation of the posture (body position)). The texture is filled (completed) using a deep convolutional network. A deep convolution network can even be used to predict the color of unknown pixels. Alternatively, a deep network is used, which predicts for each pixel in the texture image a coordinate pair in the original image (coordinate-based reconstruction). The latter scheme (coordinate-based reconstruction) gives a much sharper texture. The completed texture is used to form a new projection of the full body (posture) specified by the coordinates of the body surface for each foreground pixel in the target image. Optionally, another deep network can be used to form the final target image, taking the generated overlay image and some other images as input.

В соответствии с первым аспектом, настоящее изобретение обеспечивает систему 100 повторного синтеза изображения, содержащую:In accordance with a first aspect, the present invention provides an image re-synthesis system 100 comprising:

модуль 110 ввода исходного изображения;a source image input unit 110;

модуль 120 прямого деформирования;direct deformation module 120;

модуль 130 заполнения пропусков.module 130 filling the passes.

Модуль 130 заполнения пропусков дополнительно содержит модуль 131 коррекции ошибок деформирования, выполненный с возможностью коррекции ошибок прямого деформирования в целевом изображении. Модуль 120 прямого деформирования выполнен с возможностью предсказания для каждого пиксела исходного изображения соответствующего положения в целевом изображении, причем модуль прямого деформирования выполнен с возможностью предсказания поля прямого деформирования, которое выровнено с исходным изображением. Модуль 130 заполнения пропусков выполнен с возможностью заполнения пропусков, являющихся результатом применения модуля 120 прямого деформирования.The gap filling module 130 further comprises a deformation error correction module 131 configured to correct forward deformation errors in the target image. Forward strain module 120 is configured to predict, for each pixel of the source image, a corresponding position in the target image, the forward strain module is capable of predicting a forward strain field that is aligned with the original image. The gap filling module 130 is configured to fill the gaps resulting from the use of the direct deformation module 120.

В варианте осуществления, система 100 повторного синтеза изображения дополнительно содержит архитектуру 150 переноса текстуры, выполненную с возможностью: предсказания полей деформирования для исходного изображения и целевого изображения; отображения исходного изображение в пространство текстуры посредством прямого деформирования, восстановления пространства текстуры в полную текстуру; и отображения полной текстуры обратно на новую позу с использованием обратного деформирования.In an embodiment, the image re-synthesis system 100 further comprises a texture transfer architecture 150 configured to: predict warp fields for the source image and the target image; mapping the original image into the texture space through direct deformation, restoring the texture space to the full texture; and display the full texture back to a new pose using reverse deformation.

В примерном варианте осуществления, система 100 повторного синтеза изображения дополнительно содержит модуль 160 извлечения текстуры, выполненный с возможностью извлечения текстуры из исходного изображения. По меньшей мере модуль 120 прямого деформирования и модуль 130 заполнения пропусков могут быть реализованы как глубокие сверточные сети. По меньшей мере одна из этих глубоких сверточных сетей обучается с использованием дискриминатора реального/поддельного изображения, выполненного с возможностью различения изображений истинных участков и реконструированных изображений.In an exemplary embodiment, the image re-synthesis system 100 further comprises a texture extraction module 160 configured to extract the texture from the original image. At least the direct deformation module 120 and the gap filling module 130 can be implemented as deep convolution networks. At least one of these deep convolutional networks is trained using a real / fake image discriminator, capable of distinguishing between images of true sections and reconstructed images.

В варианте осуществления, модуль 130 заполнения пропусков содержит реконструктор 132 пропусков, который, в свою очередь, может содержать по меньшей мере одно из:In an embodiment, the skipping module 130 comprises a skip reconstructor 132, which, in turn, may comprise at least one of:

модуля 1321 назначения координат, выполненного с возможностью назначения каждому пикселу p=(x,y) входного изображения пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры;a coordinate assignment module 1321, configured to assign to each pixel p = (x, y) an input image of a coordinate pair (u, v) of a texture in accordance with a fixed predetermined texture mapping to provide a two-channel map of x and y values in the texture coordinate system;

модуля 1322 завершения карты текстуры, выполненного с возможностью обеспечения завершенной карты текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения;module 1322 texture map completion, configured to provide a complete texture map, where for each pixel (u, v) texture is known the corresponding pixel (x [u, v], y [u, v]) of the image;

модуля 1323 формирования окончательной текстуры, выполненного с возможностью формирования окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечить полную цветную окончательную текстуру;a final texture generating unit 1323 configured to form a final texture by mapping image values from positions (x [u, v], y [u, v]) to a texture at positions (u, v) to provide a full color final texture;

модуля 1342 повторного отображения окончательной текстуры, выполненного с возможностью повторного отображения окончательной текстуры на новую проекцию путем обеспечения другого отображения из координат пикселов изображения в координаты текстуры.module 1342 re-display the final texture, configured to re-display the final texture on a new projection by providing another display from the coordinates of the image pixels in the coordinates of the texture.

В варианте осуществления, система 100 повторного синтеза изображения дополнительно содержит модуль 170 уточнения изображения, выполненный с возможностью коррекции дефектов выходного изображения.In an embodiment, the image re-synthesis system 100 further comprises an image refinement module 170 configured to correct defects in the output image.

В другом аспекте настоящего изобретения, обеспечена система 200 для обучения модуля 130 заполнения пропусков. Система 200 выполнена с возможностью обучения модуля заполнения пропусков параллельно и совместно с сетью 210 дискриминатора пропусков, при этом сеть дискриминатора пропусков 210 обучается предсказывать двоичную маску пропусков, и модуль 130 заполнения пропусков обучается минимизировать точность сети 210 дискриминатора пропусков.In another aspect of the present invention, a system 200 is provided for training a gap filling module 130. The system 200 is configured to train the gap filling module in parallel and in conjunction with the gap discriminator network 210, while the gap discriminator network 210 is trained to predict the binary gap mask, and the gap filling module 130 is trained to minimize the accuracy of the gap discriminator network 210.

Со ссылкой на фиг. 7, в еще одном аспекте настоящее изобретение относится к способу 300 повторного синтеза изображения, содержащему этапы:With reference to FIG. 7, in yet another aspect, the present invention relates to a method 300 for re-synthesizing an image, comprising the steps of:

ввода исходного изображения (S310);input source image (S310);

предсказания для каждого пиксела исходного изображения соответствующего положения в целевом изображении (S320), причем предсказывается поле прямого деформирования, которое выровнено с исходным изображением;predictions for each pixel of the source image of the corresponding position in the target image (S320), and the direct deformation field that is aligned with the original image is predicted;

предсказания двоичной маски пропусков, являющихся результатом прямого деформирования (S330),predictions of the binary mask of gaps resulting from direct deformation (S330),

заполнения пропусков (S340) на основе упомянутой двоичной маски пропусков путем формирования изображения текстуры посредством предсказания пары координат в исходном изображении для каждого пиксела в изображении текстуры; иfilling gaps (S340) based on said binary ghost mask by forming a texture image by predicting a coordinate pair in the original image for each pixel in the texture image; and

отображения полной текстуры обратно на новую позу с использованием обратного деформирования (S350).displaying the full texture back to a new pose using reverse deformation (S350).

В примерном варианте осуществления, этап заполнения пропусков (340) содержит этапы:In an exemplary embodiment, the gap filling step (340) comprises the steps of:

назначения (S341), каждому пикселу p=(x,y) входного изображения, пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры;assigning (S341), to each pixel p = (x, y) of the input image, a coordinate pair (u, v) of the texture in accordance with a fixed predetermined texture mapping, to provide a two-channel map of x and y values in the texture coordinate system;

обеспечения (S342) завершенной карты текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения;providing (S342) a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known;

формирования (S343) окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечить завершенную цветную окончательную текстуру;forming (S343) the final texture by mapping the image values from the positions (x [u, v], y [u, v]) to the texture at the positions (u, v) to provide a complete color final texture;

повторного отображения (S344) окончательной текстуры на новую проекцию путем обеспечения другого отображения из координат пикселов изображения в координаты текстуры.re-mapping (S344) the final texture to the new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture.

Также предложен компьютерный программный продукт 400, содержащий компьютерный программный код 410, который, при исполнении одним или более процессорами, побуждает один или более процессоров реализовывать способ в соответствии с предыдущим аспектом. Компьютерный программный продукт 400 может быть сохранен на постоянном машиночитаемом носителе 500.Also provided is a computer program product 400 comprising computer program code 410, which, when executed by one or more processors, causes one or more processors to implement the method in accordance with the previous aspect. The computer program product 400 may be stored on a permanent computer-readable medium 500.

Со ссылкой далее на фиг. 1, иллюстрируется различие между прямым и обратным деформированием, поясняемое с точки зрения задачи фронтализации лица. В обеих схемах, предсказывается поле деформирования (низ; оттенок=направление, насыщение=величина) из входного изображения (верхнее), и применяется деформирование (справа). В случае прямого деформирования, входное изображение и предсказанное поле выровнены (например, движение кончика носа предсказывается в положении кончика носа). Напротив, в случае обратного деформирования, входное изображение и поле деформирования не выровнены. Методология прямого деформирования в контексте настоящего изобретения будет описана далее более детально.With reference further to FIG. 1, the difference between the forward and reverse deformation is illustrated, explained from the point of view of the frontalization problem of the face. In both schemes, a deformation field (bottom; hue = direction, saturation = magnitude) from the input image (top) is predicted, and deformation (right) is applied. In the case of direct deformation, the input image and the predicted field are aligned (for example, the movement of the tip of the nose is predicted at the position of the tip of the nose). In contrast, in the case of reverse deformation, the input image and the deformation field are not aligned. The direct deformation methodology in the context of the present invention will be described in more detail below.

Специалист в данной области техники может легко понять, что методология, описанная ниже, адаптирована для выполнения глубокими сверточными нейронными сетями, которые могут реализовать элементы системы 100 повторного синтеза изображения согласно изобретению и этапы способа 300 повторного синтеза изображения, как упомянуто выше. Подробное описание методологии, приведённое ниже со ссылкой на математические операции и соотношения между различными элементами данных, может основываться на соответствующих функциях, а не на конкретных элементах системы 100 или способа 300, как описано выше, и в таких случаях специалист в данной области техники может легко получить связи между упомянутыми элементами системы и/или этапами способа, с одной стороны, и соответствующими функциями, упомянутыми ниже, с другой стороны, без необходимости жесткого ограничения объема различных путей реализации упомянутых функций конкретной связью между каждой функцией и соответствующим элементом системы и/или этапом способа. Элементы системы и/или этапы способа, реализуемые глубокими сверточными нейронными сетями, подразумеваются иллюстративными и неограничительными в контексте реализации подхода к повторному синтезу изображения согласно изобретению, как подробно описано ниже.One of skill in the art can readily understand that the methodology described below is adapted to be performed by deep convolutional neural networks that can implement elements of the image re-synthesis system 100 according to the invention and the steps of the image re-synthesis method 300, as mentioned above. A detailed description of the methodology given below with reference to mathematical operations and relations between different data elements can be based on the corresponding functions, and not on specific elements of the system 100 or method 300, as described above, and in such cases, a person skilled in the art can easily to obtain links between the mentioned system elements and / or the steps of the method, on the one hand, and the corresponding functions mentioned below, on the other hand, without the need to strictly limit the scope of various ways of implementing the mentioned functions to a specific relationship between each function and the corresponding system element and / or step way. System elements and / or method steps implemented by deep convolutional neural networks are meant to be illustrative and non-restrictive in the context of implementing the re-image synthesis approach of the invention, as described in detail below.

Повторный синтез путем прямого деформированияRe-synthesis by direct deformations

Допустим, что x является исходным изображением и y является целевым изображением, и допустим, что x[p,q] обозначает элемент изображения (выборку) в целочисленном местоположении (p, q) (которое может быть, например, RGB значением). Пусть w[p, q]=(u[p, q], v[p, q]) является полем деформирования. Часто, это поле деформирования будет предсказываться из x посредством сверточной сети

Figure 00000001
, где
Figure 00000002
является вектором некоторых обучаемых параметров, которые обучаются на определенном наборе данных.Assume that x is a source image and y is a target image, and suppose that x [p, q] denotes an image element (sample) at an integer location (p, q) (which may be, for example, an RGB value). Let w [p, q] = ( u [p, q], v [p, q]) be a deformation field. Often, this warp field will be predicted from x by means of a convolution network
Figure 00000001
where
Figure 00000002
is a vector of some learning parameters that are trained on a particular data set.

Стандартный подход к основанному на деформировании повторному синтезу изображений использует деформирование, чтобы деформировать исходное изображение x в целевое изображение y:The standard approach to warp-based image re-synthesis uses warping to warp the original image x into the target image y :

Figure 00000003
Figure 00000003

где дискретизация в дробных положениях определена билинейно. Более формально, результат обратного деформирования определен как:where discretization in fractional positions is defined bilinearly. More formally, the result of reverse deformation is defined as:

Figure 00000004
Figure 00000004

где билинейное ядро K определено следующим образом:where the bilinear core K is defined as follows:

Figure 00000005
Figure 00000005

так что для каждого (p, q) суммирование в (2) выполняется по i =so for each (p, q) the summation in (2) is performed for i =

Figure 00000006
Figure 00000006

Методология обратного деформирования первоначально была реализована для глубокого распознавания изображения (см., например, [13]) и была позже широко использована для глубокого повторного синтеза изображения (см., например, [5, 30, 20, 3, 23]), став стандартным слоем в пакетах глубокого обучения. Было обнаружено, что, для задач повторного синтеза со значительными геометрическими преобразованиями, использование слоев обратного деформирования обеспечило значительное улучшение в качестве и возможности обобщения по сравнению с архитектурами с повторным синтезом, использующим одни только сверточные слои (см., например, [3]).The reverse deformation methodology was initially implemented for deep image recognition (see, for example, [13]) and was later widely used for deep re-synthesis of an image (see, for example, [5, 30, 20, 3, 23]), becoming standard layer in deep learning packages. It was found that, for re-synthesis problems with significant geometric transformations, the use of back-deformation layers provided a significant improvement in the quality and possibility of generalization compared to architectures with re-synthesis using convolutional layers alone (see, for example, [3]).

Однако обратное деформирование ограничено отсутствием выравнивания между исходным изображением и полем деформирования. Фактически, как можно видеть из выражения (1), представленного выше, вектор

Figure 00000007
, предсказанный сетью
Figure 00000001
для пиксела (p, q), определяет движение для части объекта, которая первоначально проецировалась на пиксел
Figure 00000008
. Например, рассмотрим задачу фронтализации лица, где желательно, чтобы сеть предсказывала поле деформации фронтализации при заданном входном изображении, содержащем нефронтальное изображение лица. Предположим, что положение (p, q) в начальном изображении соответствует кончику носа, в то время как для фронтализованного лица то же самое положение соответствует центру правой щеки. Когда обратное деформирование используется для повторного синтеза, предсказание сети
Figure 00000009
для положения (p, q) должно содержать фронтализующее движение центра правой щеки. В то же время, рецептивное поле выходного блока сети при (p, q) во входном изображении соответствует кончику носа. Таким образом, сеть должна предсказывать движение щеки при наблюдении появления фрагмента, центрированного на носу (см., фиг. 1). Если фронтализующее движение мало, такое рассогласование может быть обработано достаточно глубокой сверточной архитектурой с достаточно большими рецептивными полями. Однако, когда движения становятся большими, такое отображение становится прогрессивно более трудным для обучения для сверточной архитектуры.However, back deformation is limited by the lack of alignment between the original image and the deformation field. In fact, as can be seen from the expression (1) presented above, the vector
Figure 00000007
predicted by the network
Figure 00000001
for a pixel (p, q), defines the motion for the part of the object that was originally projected onto the pixel
Figure 00000008
. For example, consider the face frontalization problem, where it is desirable for the network to predict the frontalization deformation field for a given input image containing a non-frontal face image. Suppose that the position (p, q) in the initial image corresponds to the tip of the nose, while for the frontalized face, the same position corresponds to the center of the right cheek. When back warping is used for re-synthesis, network prediction
Figure 00000009
for position (p, q) it should contain a frontalizing motion of the center of the right cheek. At the same time, the receptive field of the output network block at (p, q) in the input image corresponds to the tip of the nose. Thus, the network should predict the movement of the cheek when observing the appearance of a fragment centered on the nose (see, Fig. 1). If the frontalizing movement is small, such a mismatch can be processed by a sufficiently deep convolutional architecture with sufficiently large receptive fields. However, when movements become large, such a mapping becomes progressively more difficult to learn for convolutional architecture.

Поэтому прямое деформирование, выполняемое модулем прямого деформирования, используется в архитектурах повторного синтеза в соответствии с настоящим изобретением вместо обратного деформирования. Операция прямого деформирования определена так, что следующее равенство выполняется приближенно для выходного изображения yfw:Therefore, direct deformation performed by the direct deformation module is used in re-synthesis architectures in accordance with the present invention instead of back deformation. The direct deformation operation is defined so that the following equality is approximately performed for the output image y fw :

Figure 00000010
Figure 00000010

Таким образом, в случае прямого деформирования, вектор деформации в пикселе [p, q] определяет движение этого пиксела. Чтобы реализовать прямое деформирование, билинейное ядро используется для растеризации исходных пикселов на целевое изображение следующим способом. Во-первых, все вклады от всех пикселов агрегируются с использованием сверточного ядра в карту а агрегатора:Thus, in the case of direct deformation, the deformation vector in the pixel [p, q] determines the motion of this pixel. To implement direct deformation, the bilinear core is used to rasterize the source pixels to the target image in the following way. Firstly, all contributions from all pixels are aggregated using a convolutional core into the aggregator map a :

Figure 00000011
Figure 00000011

Одновременно, общий вес всех вкладов в каждый пиксел накапливается в отдельном агрегаторе w:At the same time, the total weight of all contributions to each pixel is accumulated in a separate aggregator w :

Figure 00000012
Figure 00000012

Наконец, значение в пикселе определяется путем нормализации:Finally, the value in the pixel is determined by normalizing:

Figure 00000013
Figure 00000013

где малая константа

Figure 00000014
предотвращает численные нестабильности. Формально, для каждого целевого положения (i, j) суммирование в (5) и (6) пробегает по всем исходным пикселам (p, q). Однако, поскольку для каждого исходного пиксела (p, q) билинейное ядро
Figure 00000015
принимает ненулевые значения только в цетырех положенниях в целевом изображении, вышеуказанное суммирование может быть вычислено эффективным образом с использованием одного прохода по пикселам исходного изображения. Отметим, что подобные методы используются для частичных сверток (см., например, [17]). Так как операции (5)-(7) являются кусочно-дифференцируемыми по отношению к входному изображению x и полю деформирования (u, v), можно обратно распространить градиенты посредством операции прямого деформирования при обучении сверточной сети.where is the small constant
Figure 00000014
prevents numerical instabilities. Formally, for each target position (i, j), the summation in (5) and (6) runs through all the original pixels (p, q). However, since for each source pixel (p, q) the bilinear core
Figure 00000015
takes nonzero values only in four positions in the target image, the above summation can be calculated efficiently using one pass through the pixels of the original image. Note that similar methods are used for partial convolutions (see, for example, [17]). Since operations (5) - (7) are piecewise differentiable with respect to the input image x and the deformation field ( u, v ), gradients can be redistributed through the direct deformation operation when training a convolutional network.

Основное преимущество прямого деформирования над обратным деформированием состоит в том, что входное изображение и предсказанное поле деформирования выравниваются в случае прямого деформирования, так как предсказание сети в пикселе (p, q) теперь соответствует 2D движению части объекта, которая проецируется на (p, q) во входном изображении. В примере фронтализации, показанном выше, сверточная сеть должна предсказывать фронтализирующее движение кончика носа, на основе рецептивного поля, центрированного на кончике носа. Это отображение легче обучить для сверточной сети, чем в случае обратного деформирования, и этот эффект был экспериментально продемонстрирован.The main advantage of direct deformation over reverse deformation is that the input image and the predicted deformation field are aligned in the case of direct deformation, since the network prediction in the pixel (p, q) now corresponds to the 2D movement of the part of the object that is projected onto (p, q) in the input image. In the frontalization example shown above, the convolutional network should predict the frontalizing movement of the tip of the nose, based on the receptive field centered on the tip of the nose. This mapping is easier to train for a convolutional network than in the case of back deformation, and this effect has been experimentally demonstrated.

Однако, с другой стороны, в большинстве ситуаций, выход yfw операции прямого деформирования содержит ряд пустых пикселов, на которые не отражались никакие исходные пикселы. Двоичная маска пикселов, которые являются непустыми, обозначается m, i.e. m[i,j]=[w[i,j]>0]. Следующая стадия реконструирования тогда необходима для заполнения таких пропусков.However, on the other hand, in most situations, the output y fw of the direct deformation operation contains a series of empty pixels, which were not reflected in any of the original pixels. The binary mask of pixels that are non-empty is denoted by m, ie m [i, j] = [ w [i, j]> 0]. The next stage of reconstruction is then necessary to fill such gaps.

Фиг. 2 иллюстрирует процесс обучения нейронной сети, чтобы выполнять реконструирование пропусков с использованием дискриминаторов пропусков. Авторы настоящего изобретения обучали сеть реконструирования для заполнения пропусков во входном изображении (где известные пикселы определяются маской) с минимизацией потери реконструкции относительно ʺучастка истинностиʺ (ʺground truthʺ - информация, полученная непосредственным наблюдением, в противоположность выведенной информации). Параллельно, сеть сегментации (также упомянутая здесь как дискриминатор пропусков) обучалась предсказывать маску из результата операции заполнения с минимизацией потери предсказания маски. Сеть реконструирования обучалась на конкурентной основе к сети дискриминатора пропусков путем максимизации потери предсказания маски, что обуславливало то, что заполненные части в реконструированном изображении были неразличимы от исходных частей.FIG. 2 illustrates the process of training a neural network to perform gap reconstruction using gap discriminators. The inventors of the present invention trained a reconstruction network to fill in the gaps in the input image (where the known pixels are identified by a mask) while minimizing the reconstruction loss with respect to the “truth section” (“truth truth” is information obtained by direct observation, as opposed to the information displayed). In parallel, the segmentation network (also referred to here as the discriminator of omissions) was trained to predict the mask from the result of the fill operation with minimization of the loss of mask prediction. The reconstruction network was trained on a competitive basis to the pass discriminator network by maximizing the loss of mask prediction, which caused the filled parts in the reconstructed image to be indistinguishable from the original parts.

Процесс ʺреконструированияʺ пропусков, вытекающий из предыдущей стадии прямого деформирования, будет описан далее более детально, для иллюстрации, но не ограничения.The process of “reconstruction” of gaps resulting from the previous stage of direct deformation will be described in more detail below, to illustrate, but not limit.

Реконструирование с дискриминаторами пропусковReconstruction with skip discriminators

Функция

Figure 00000016
завершения изображения с обучаемыми параметрами
Figure 00000017
отображает изображение yfw и маску m на завершенное (реконструированное) изображение yinp:Function
Figure 00000016
completion of the image with training parameters
Figure 00000017
maps the image y fw and the mask m to the completed (reconstructed) image y inp :

Figure 00000018
Figure 00000018

Использование глубоких сетей со стробируемыми свертками для обработки задач реконструирования было экспериментально подтверждено как эффективное в обеспечении хороших архитектур для реконструирования пропусков, являющихся результатом деформирования в процессе повторного синтеза изображения. Независимо от архитектуры

Figure 00000019
, выбор функции потерь для ее обучения играет решающую роль. Наиболее часто, обучение
Figure 00000020
выполняется в контролируемой настройке, которая предусматривает обеспечение набора данных завершенных изображений, проектирование случайного процесса, который закрывает части этих изображений, и обучение сети, чтобы реверсировать этот случайный процесс. Минимизация последующих потерь затем выполняется во время обучения:The use of deep networks with gated convolutions for processing reconstruction tasks has been experimentally confirmed as effective in providing good architectures for reconstructing gaps resulting from deformation during image re-synthesis. Regardless of architecture
Figure 00000019
, the choice of the loss function for its training plays a crucial role. Most often, training
Figure 00000020
performed in a controlled setting, which provides for providing a set of completed image data, designing a random process that covers parts of these images, and training the network to reverse this random process. Minimization of subsequent losses is then performed during training:

Figure 00000021
Figure 00000021

где i производит итерацию по обучающим примерам, и

Figure 00000022
обозначает завершенные изображения. Норма в выражении (9) может быть выбрана как L1 норма (т.е. сумма абсолютных разностей по каждой координате) или как более сложные перцепционные потери, основанные не на разностях между пикселами, а на разностях между представлениями высокого уровня признаков изображения, извлеченными из предварительно обученной сверточной нейронной сети (см., например, [14]).where i iterates through the training examples, and
Figure 00000022
indicates completed images. The norm in expression (9) can be selected as the L1 norm (i.e., the sum of the absolute differences for each coordinate) or as more complex perceptual losses based not on differences between pixels, but on differences between representations of a high level of image features extracted from pre-trained convolutional neural network (see, for example, [14]).

Когда пустые пикселы формируют большие непрерывные пропуски, результаты обучения с пиксельными или перцепционными потерями обычно являются субоптимальными и испытывают недостаток в достоверной крупномасштабной структуре вследствие внутренне присущей мульти-модальности задачи. Использование конкурентного обучения (см., например, [6]) дает значительную поддержку в этом случае. Конкурентное обучение обучает отдельную сеть

Figure 00000023
классификации параллельно с сетью
Figure 00000024
. Цель обучения для
Figure 00000025
состоит в дискриминации между реконструированными и исходными (неискаженными) изображениями:When empty pixels form large continuous gaps, learning results with pixel or perceptual losses are usually suboptimal and lack a reliable large-scale structure due to the intrinsic multi-modality of the task. The use of competitive training (see, for example, [6]) provides significant support in this case. Competitive Learning Teaches a Separate Network
Figure 00000023
classification in parallel with the network
Figure 00000024
. Learning purpose for
Figure 00000025
consists of discrimination between reconstructed and original (undistorted) images:

Figure 00000026
Figure 00000026

Цель обучения для

Figure 00000024
затем расширяется отдельным условием, которое измеряет вероятность дискриминатора, чтобы классифицировать реконструированное изображение как реальное:Learning purpose for
Figure 00000024
then expanded by a separate condition that measures the probability of the discriminator to classify the reconstructed image as real:

Figure 00000027
Figure 00000027

Подходы из уровня техники к конкурентному реконструированию предлагают использование двух дискриминаторов, основанных на том же самом принципе, но сфокусированных на разных частях изображений. Один из них, упоминаемый как глобальный дискриминатор, фокусируется на полном изображении, в то время как другой, локальный дискриминатор, фокусируется на наиболее важной части, например, в непосредственной близости от пропуска или центральной части лица (см., например, [4]).Approaches from the prior art to competitive reconstruction offer the use of two discriminators based on the same principle, but focused on different parts of the images. One of them, referred to as the global discriminator, focuses on the full image, while the other, the local discriminator, focuses on the most important part, for example, in the immediate vicinity of the gap or the central part of the face (see, for example, [4]) .

Настоящее изобретение предлагает использование другого рода дискриминаторов (упоминаемых здесь как дискриминаторы пропусков) для задач реконструирования пропуска. Авторами настоящего изобретения было обнаружено, что люди имеют тенденцию судить об успехе операции реконструирования по их (не)способности идентифицировать области пропуска в реконструированном изображении. Интересно, что люди не нуждаются в том, чтобы знать некоторого рода ʺистинный участокʺ для такого суждения. Чтобы имитировать эту идею, дискриминатор

Figure 00000028
пропуска обучается предсказывать маску m из реконструированного изображения путем минимизации взвешенных потерь кросс-энтропии для двоичной сегментации:The present invention proposes the use of a different kind of discriminators (referred to herein as omission discriminators) for reconstructing the omission. The inventors of the present invention have found that people tend to judge the success of a reconstruction operation by their (in) ability to identify gaps in a reconstructed image. Interestingly, people do not need to know some kind of “true plot” for such a judgment. To mimic this idea, a discriminator
Figure 00000028
the pass learns to predict the mask m from the reconstructed image by minimizing the weighted cross-entropy losses for binary segmentation:

Figure 00000029
Figure 00000029

Здесь, (⋅) обозначает поэлементное произведение (суммирование по всем пикселам) и |m| обозначает число ненулевых пикселов в маске m. По мере развития обучения дискриминатора пропусков, сеть реконструирования обучается, чтобы запутывать дискриминатор пропусков путем максимизации тех же самых потерь кросс-энтропии (12) (таким образом, реализуя игру с нулевой суммой). Новые потери могут использоваться параллельно ʺтрадиционнымʺ конкурентным потерям (11), а также любым другим потерям. Предложенные новые потери применимы к любой проблеме реконструирования/завершения, не обязательно в связи с прямым деформированием.Here, (⋅) denotes the elementwise product (summation over all pixels) and | m | denotes the number of nonzero pixels in the mask m . As the training of the skip discriminator develops, the reconstruction network learns to obfuscate the skip discriminator by maximizing the same cross-entropy losses (12) (thus realizing a zero-sum game). New losses can be used in parallel with дицион traditional ’competitive losses (11), as well as any other losses. The proposed new losses are applicable to any reconstruction / completion problem, not necessarily due to direct deformation.

Обучение с незавершенным истинным участком. В некоторых ситуациях, таких как задачи реконструирования текстуры, завершенные изображения истинного участка недоступны. Вместо этого, каждое изображение

Figure 00000030
истинного участка поступает с двоичной маской
Figure 00000031
известных пикселов. Эта маска должна отличаться от входной маски
Figure 00000032
(иначе, процесс обучения может сходиться к тривиальному решению идентичности для сети реконструирования). В таких ситуациях, потери, характеризуемые приведенными выше выражениями (9)-(11), адаптируются так, что
Figure 00000033
и
Figure 00000034
заменяются на
Figure 00000035
и
Figure 00000036
, соответственно. Интересно, что новые конкурентные потери не учитывают завершенные изображения истинных участков. Поэтому, даже когда завершенные изображения истинных участков недоступны, потери, характеризуемые в выражении (12) выше, могут все еще применяться без модификации (как для обучения дискриминатора пропусков, так и для обучения сети реконструирования).Learning with an unfinished true site. In some situations, such as texture reconstruction tasks, complete images of the true patch are not available. Instead, each image
Figure 00000030
true plot comes with a binary mask
Figure 00000031
known pixels. This mask must be different from the input mask.
Figure 00000032
(otherwise, the learning process may converge to a trivial identity solution for the reconstruction network). In such situations, the losses characterized by the above expressions (9) - (11) are adapted so that
Figure 00000033
and
Figure 00000034
replaced by
Figure 00000035
and
Figure 00000036
, respectively. Interestingly, the new competitive losses do not take into account the completed images of the true sites. Therefore, even when complete images of the true sections are not available, the losses described in expression (12) above can still be applied without modification (both for training the discriminator of omissions and for training the reconstruction network).

Фиг. 3 показывает пример фронтализации лица посредством прямого деформирования в соответствии с по меньшей мере одним вариантом осуществления настоящего изобретения. В этом примере, алгоритм, обученный на 80% случайных выборок из набора данных Multi-PIE, визуально оценивался на основе двух случайно выбранных объектов из контрольного участка. Каждая входной фотоснимок (1-ый ряд на фиг. 3) независимо проходил через регрессор поля деформации, дающий в результате деформированное изображение (2-ой ряд на фиг. 3), и затем через реконструктор, дающий в результате реконструированное изображение с заполненными пропусками и скорректированными ошибками деформирования (3-ий ряд).FIG. 3 shows an example of frontalization of a face by direct deformation in accordance with at least one embodiment of the present invention. In this example, an algorithm trained on 80% of random samples from the Multi-PIE dataset was visually evaluated based on two randomly selected objects from the control plot. Each input photograph (1st row in Fig. 3) independently passed through the deformation field regressor, resulting in a deformed image (2nd row in Fig. 3), and then through the reconstructor, resulting in a reconstructed image with filled gaps and corrected deformation errors (3rd row).

Фиг. 4 иллюстрирует пример архитектуры переноса текстуры в соответствии с по меньшей мере одним вариантом осуществления настоящего изобретения. Архитектура переноса текстуры предсказывает поля деформирования как для исходного, так и для целевого изображений. Затем, после отображения исходного изображение в пространство текстуры через прямое деформирование, оно восстанавливается до полной текстуры и затем отображается обратно на новую позу с использованием обратного деформирования, результат которого затем уточняется. На фиг. 4, 0F и 0в являются прямым и обратным деформированием, соответственно, в то время как WF и WF являются предсказанным и относящимся к истинному участку densepose полями деформирования.FIG. 4 illustrates an example texture transfer architecture in accordance with at least one embodiment of the present invention. The texture transfer architecture predicts warp fields for both the source and target images. Then, after the original image is displayed in the texture space through direct deformation, it is restored to the full texture and then displayed back to a new position using reverse deformation, the result of which is then refined. In FIG. 4, 0F and 0B are the forward and reverse deformations, respectively, while WF and WF are the predicted and true desepose deformation fields.

Фиг. 5 иллюстрирует пример завершения текстуры для задачи повторного синтеза новой позы в соответствии с по меньшей мере одним вариантом осуществления настоящего изобретения. Текстура извлекается из входного изображения человека (первый столбец на фиг. 5). Затем она реконструируется с помощью глубокой сверточной сети. Третий столбец на фиг. 5 показывает результат реконструирования с помощью сети, обученной без дискриминатора пропусков. Добавление дискриминатора пропусков (четвертый столбец на фиг. 5) дает более отчетливые и более достоверные результаты в реконструированных областях. Результирующие текстуры затем накладываются на изображение человека, наблюдаемого в новой позе (столбцы пять и шесть на фиг. 5, соответственно). Последний столбец на фиг. 5 показывает изображение истинного участка для человека в новой позе.FIG. 5 illustrates an example of texture completion for the task of re-synthesizing a new pose in accordance with at least one embodiment of the present invention. The texture is extracted from the input image of the person (the first column in Fig. 5). Then it is reconstructed using a deep convolutional network. The third column in FIG. 5 shows the result of a reconstruction using a network trained without a discriminator of omissions. The addition of the skip discriminator (fourth column in Fig. 5) gives more distinct and more reliable results in the reconstructed areas. The resulting textures are then superimposed on the image of the person observed in a new pose (columns five and six in Fig. 5, respectively). The last column in FIG. 5 shows an image of a true site for a person in a new pose.

Фиг. 6 иллюстрирует пример повторного синтеза всего тела с использованием основанного на координатах реконструирования текстуры. Входное изображение A используется для формирования изображения В текстуры. Применяется основанное на координатах реконструирование, которое предсказывает координаты пикселов в исходном изображении для каждого изображения текстуры. Результат показан в изображении C, где пикселы цвета текстуры дискретизированы из исходного изображения в предписанных координатах. Изображение человека в новой позе (целевое изображение) синтезируется взятием предписанных координат текстуры для пикселов целевого изображения и переноса цветов из текстуры (изображение D). Наконец, отдельная глубокая сеть уточнения трансформирует изображение в новое изображение (изображение E). Изображение F показывает истинное изображение человека в новой позе.FIG. 6 illustrates an example of whole body re-synthesis using coordinate-based texture reconstruction. Input image A is used to form texture image B. A coordinate-based reconstruction is used that predicts the coordinates of the pixels in the original image for each texture image. The result is shown in image C, where texture color pixels are sampled from the original image in the prescribed coordinates. The image of a person in a new position (target image) is synthesized by taking the prescribed texture coordinates for the pixels of the target image and transferring colors from the texture (image D). Finally, a separate deep refinement network transforms the image into a new image (image E). Image F shows the true image of a person in a new pose.

Сквозное обучениеEnd-to-end training

Поскольку сети как прямого деформирования, так и реконструирования являются дифференцируемыми сквозным образом (т.е. частные производные любой функции потерь по отношению к параметрам всех слоев, включая слои перед модулем прямого деформирования и слои с сетью реконструирования, могут быть вычислены с использованием процесса обратного распространения), объединенная система (прямого деформирования и реконструирования) может быть обучена сквозным образом, при применении дискриминатора пропусков, чтобы пытаться предсказывать местоположения пропусков, являющихся результатом процесса прямого деформирования, для объединенной сети.Since the networks of both direct deformation and reconstruction are differentiable in a cross-cutting manner (i.e., partial derivatives of any loss function with respect to the parameters of all layers, including the layers in front of the direct deformation module and the layers with the reconstruction network, can be calculated using the backpropagation process ), an integrated system (direct deformation and reconstruction) can be trained end-to-end by applying a gap discriminator to try to predict the locations of the gaps resulting from the direct deformation process for an integrated network.

Основанное на координатах реконструированиеCoordinate Based Reconstruction

Целью основанного на координатах реконструирования является завершить текстуру, например, человека, представленного на изображении, на основе частей упомянутой текстуры, извлеченных из исходного изображения. Более конкретно, начиная с исходного изображения, выполняются следующие этапы:The purpose of coordinate-based reconstruction is to complete the texture of, for example, the person represented in the image, based on portions of the texture recovered from the original image. More specifically, starting from the original image, the following steps are performed:

1. Запускают предварительно обученную глубокую нейронную сеть, которая назначает, каждому пикселу p=(x,y) входного изображения, пару координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры. В результате, поднабору пикселов текстуры назначаются координаты пикселов, результатом чего является двухканальная карта значений x и y в системе координат текстуры с большим числом пикселов текстуры, для которых это отображение неизвестно.1. A pre-trained deep neural network is launched, which assigns, to each pixel p = (x, y) of the input image, a pair of coordinates (u, v) of the texture in accordance with a fixed predetermined texture mapping. As a result, the pixel coordinates are assigned to the subset of texture pixels, resulting in a two-channel map of x and y values in the texture coordinate system with a large number of texture pixels for which this mapping is unknown.

2. В качестве следующего этапа, запускают вторую глубокую сверточную нейронную сеть h с обучаемыми параметрами μ, так что x- и y-карты завершаются, результатом чего является карта завершенной текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения.2. As the next step, launch the second deep convolutional neural network h with training parameters μ, so that the x- and y-cards are completed, resulting in a map of the completed texture, where for each pixel (u, v) of the texture the corresponding pixel is known ( x [u, v], y [u, v]) images.

3. Окончательную текстуру получают взятием значений изображения (например, в красном, зеленом и синем каналах) в положении (x[u,v],y[u,v]) и помещением их на текстуру в положении (u,v), результатом чего является завершенная цветовая текстура.3. The final texture is obtained by taking the image values (for example, in the red, green and blue channels) in position (x [u, v], y [u, v]) and placing them on the texture in position (u, v) , the result what is the finished color texture.

4. После того как завершенная текстура получена, она используется для текстурирования новой проекции человека в другой позе, для чего обеспечивается другое отображение из координат пикселов изображения в координаты текстуры.4. After the completed texture is obtained, it is used to texture the new projection of the person in a different position, which provides a different mapping from the coordinates of the image pixels to the coordinates of the texture.

Параметры μ могут быть дополнительно оптимизированы, так что последовательность этапов 1-4, описанных выше, формирует близкое соответствие с вторым изображением в паре, когда первое изображение пары использовалось для создания текстуры. Любые стандартные потери (например, попиксельные, перцепционные) могут быть использованы, чтобы измерять степень близости. Дискриминатор пропусков может быть добавлен к обучению сети завершения текстуры.The parameters μ can be further optimized, so that the sequence of steps 1-4 described above forms a close match with the second image in the pair when the first image of the pair was used to create the texture. Any standard loss (e.g., per-pixel, perceptual) can be used to measure the degree of proximity. The skip discriminator can be added to training the network to complete texture.

Наконец, отдельная сеть уточнения может быть использована, чтобы трансформировать повторно текстурированное изображение, полученное в последовательности этапов 1-4, чтобы улучшить визуальное качество. Эта сеть уточнения может обучаться отдельно или совместно с сетью завершения текстуры.Finally, a separate refinement network can be used to transform the re-textured image obtained in the sequence of steps 1-4 in order to improve visual quality. This refinement network can be trained separately or in conjunction with the texture completion network.

Далее представлены некоторые примеры практической реализации подходов согласно изобретению в качестве иллюстрации, но не ограничения. Подход согласно изобретению на основе прямого деформирования с последующей сетью реконструирования, обучаемой с дискриминаторами пропусков, применяется к множеству задач с различными уровнями сложности.The following are some examples of the practical implementation of the approaches according to the invention as an illustration, but not limitation. The approach according to the invention based on direct deformation followed by a reconstruction network trained with skipping discriminators is applied to a variety of problems with different levels of complexity.

Фронтализация лицаFrontalization of the face

В качестве первой задачи, рассматривается подход фронтализации лица, который предназначается, чтобы деформировать изображение не-фронтально ориентированного лица во фронтализованное, при сохранении идентичности, выражения лица и освещения. Способ обучается и оценивается на наборе данных Multi-PIE, что описано, например, в [7], причем набор данных Multi-PIE представляет собой набор данных более чем 750000 изображений верхней части тела 337 людей, изображения которых были получены для четырех сессий с изменяющимися (и известными) проекциями, условиями освещения и выражениями лиц. Использовалась сформированная как U-Net (см., например, [22]) архитектура (N сверточных слоев, N для прямого деформирования, и архитектура типа песочных часов для сети реконструирования).As a first task, the face frontalization approach is considered, which is intended to deform the image of a non-frontally oriented face into a frontalized one, while maintaining identity, facial expression and lighting. The method is trained and evaluated on the Multi-PIE dataset, which is described, for example, in [7], and the Multi-PIE dataset is a dataset of more than 750,000 upper body images of 337 people whose images were obtained for four sessions with varying (and famous) projections, lighting conditions and facial expressions. The architecture used was U-Net (see, for example, [22]) (N convolutional layers, N for direct deformation, and an hourglass-like architecture for the reconstruction network).

Поворот лица и верхней части телаFace and upper body rotation

Для поворота лица методология согласно изобретению обучалась и оценивалась на наборе данных Multi-PIE (см., например, [7]). Для каждого субъекта несколькими камерами было одновременно снято 15 проекций, 13 из которых были размещены вокруг субъекта с регулярными интервалами 15°, в диапазоне от -90° до 90°, в той же самой горизонтальной плоскости, и 2 на поднятом уровне. Каждая коллекция из множества проекций была снята при 19 различных условиях освещения, до 4 сессий и 4 выражений лица. В экспериментах использовалось только 13 камер, размещенных вокруг субъекта в той же самой горизонтальной плоскости. В экспериментах для верхней части туловища, использовались необработанные (исходные) изображения, в то время как в экспериментах для лиц использовался детектор лица MTCNN, чтобы находить граничную рамку лица и кадрировать ее с промежутком 10 пикселов. 128×128 было стандартным разрешением для эксперимента, и все изображения в итоге изменялись по размерам до этого разрешения перед входом в обучающий алгоритм. Фронтализация рассматривается как наиболее важный частный случай задачи поворота в экспериментах.For face rotation, the methodology according to the invention was trained and evaluated on a Multi-PIE data set (see, for example, [7]). For each subject, 15 projections were simultaneously taken using several cameras, 13 of which were placed around the subject at regular intervals of 15 °, in the range from -90 ° to 90 °, in the same horizontal plane, and 2 at an elevated level. Each collection of multiple projections was shot under 19 different lighting conditions, up to 4 sessions and 4 facial expressions. In the experiments, only 13 cameras were used, placed around the subject in the same horizontal plane. In experiments for the upper torso, raw (original) images were used, while in experiments for faces, the MTCNN face detector was used to find the boundary frame of the face and crop it with a gap of 10 pixels. 128 × 128 was the standard resolution for the experiment, and all images were eventually resized to this resolution before entering the training algorithm. Frontalization is considered as the most important special case of the rotation problem in experiments.

Предложенный конвейер повторного синтеза изображения состоит из двух больших частей: регрессор поля деформации, реализованный в форме модуля прямого деформирования, и реконструктор, реализованный в форме модуля заполнения пропусков. Регрессор поля деформации является сверточной сетью (ConvNet)

Figure 00000037
с обучаемыми параметрами
Figure 00000038
, которая следует архитектуре U-Net (см., например, [22]). Обеспечено входное изображение (и два дополнительных массива meshgrid (ячеистой решетки), кодирующих строки и столбцы пикселов), и ConvNet формирует поле смещений, закодированное двумя 2D массивами
Figure 00000039
. Это поле затем трансформируется в поле прямой деформации путем простого суммирования
Figure 00000040
и подается на прямой решетчатый дискретизатор. В описываемом случае,
Figure 00000041
кодирует движение пиксела (p,q) на входном изображении. Отметим, однако, что так же самая конструкция могла бы потенциально использоваться для регрессии поля обратной деформации, если дополнительно применяется обратный дискретизатор.The proposed image re-synthesis conveyor consists of two large parts: a deformation field regressor implemented in the form of a direct deformation module, and a reconstructor implemented in the form of a gap filling module. The warp field regressor is a convolutional network (ConvNet)
Figure 00000037
with learning parameters
Figure 00000038
which follows the U-Net architecture (see, for example, [22]). An input image is provided (and two additional meshgrid (mesh) arrays encoding rows and columns of pixels), and ConvNet generates an offset field encoded by two 2D arrays
Figure 00000039
. This field is then transformed into a direct strain field by simple summation
Figure 00000040
and fed to a direct trellis sampler. In this case,
Figure 00000041
encodes the motion of a pixel (p, q) in the input image. Note, however, that the same design could potentially be used to regress the backward deformation field if an inverse sampler is additionally used.

Вторая часть, реконструктор, является сетью

Figure 00000042
с обучаемыми параметрами
Figure 00000043
также на основе архитектуры U-Net (хотя и без связей пропуска) со всеми свертками, замененными на стробированные свертки. Они являются аттентивными слоями, впервые предложенными в [28], чтобы эффективно обрабатывать сложные задачи реконструирования. Используется стробированная свертка, как определено в [28]:The second part, the reconstructor, is the network
Figure 00000042
with learning parameters
Figure 00000043
also based on the U-Net architecture (albeit without skip connections) with all convolutions replaced with gated convolutions . They are attentive layers, first proposed in [28], to efficiently handle complex reconstruction tasks. A gated convolution is used, as defined in [28]:

Figure 00000044
(13)
Figure 00000044
(13)

где

Figure 00000045
является входным изображением,
Figure 00000046
являются тензорами весов, и
Figure 00000047
и ELU являются сигмоидальной функцией и функцией экспоненциально-линейной единичной активации, соответственно. Реконструктор получает деформированное изображение с пропусками, маску пропусков и положения кодирования тензора ячеистой решетки пикселов и предсказывает реконструированное изображение.Where
Figure 00000045
is an input image
Figure 00000046
are tensors of weights, and
Figure 00000047
and ELU are a sigmoid function and an exponentially linear unit activation function, respectively. The reconstructor receives a deformed image with gaps, a mask of gaps and the encoding position of the pixel mesh lattice tensor and predicts the reconstructed image.

Модель обучается в структуре генеративной конкурентной сети (GAN) и добавлены две сети дискриминаторов. Первый дискриминатор, дискриминатор реального/поддельного изображения, нацелен на различение выходных изображений истинного участка от реконструированных изображений, формируемых генеративной реконструирующей сетью. Дискриминатор

Figure 00000048
реального/поддельного изображения может быть организован как стек плоской и пошаговой сверток, в основном следуя архитектуре части экстрактора признаков VGG-16, за которым следует усредненный опрос и сигмоидальная функция. Результирующее число указывает предсказанную вероятность того, что изображение является «реальным». Второй дискриминатор является дискриминатором
Figure 00000049
пропусков, который нацелен на восстановление маски пропусков из реконструированного изображения путем решения проблемы сегментации. Генератор GAN, напротив, пытается «ввести в заблуждение» дискриминатор пропусков путем формирования изображений с реконструированными областями, неотличимыми от нереконструированных областей.The model is trained in the structure of a generative competitive network (GAN) and two networks of discriminators are added. The first discriminator, the discriminator of the real / fake image, is aimed at distinguishing the output images of the true portion from the reconstructed images generated by the generative reconstructing network. Discriminator
Figure 00000048
a real / fake image can be organized as a stack of flat and step-by-step convolutions, mainly following the architecture of the part of the feature extractor VGG-16, followed by an average survey and sigmoid function. The resulting number indicates the predicted probability that the image is "real." The second discriminator is the discriminator
Figure 00000049
skipping, which aims to restore the skipping mask from the reconstructed image by solving the segmentation problem. The GAN generator, by contrast, is trying to “mislead” the skip discriminator by forming images with reconstructed areas indistinguishable from unreconstructed areas.

Как упомянуто выше, сквозное обучение конвейера является трудной задачей, которое требует тщательного баланса между различными компонентами потерь. Значение потерь Lgenerator для генеративной ConvNet, которая содержит регрессор поля деформации, за которым следует реконструктор, оптимизируется следующим образом:As mentioned above, end-to-end conveyor training is a difficult task that requires a careful balance between the various loss components. The L generator loss value for generative ConvNet, which contains the strain field regressor followed by the reconstructor, is optimized as follows:

Figure 00000050
(14)
Figure 00000050
(fourteen)

где

Figure 00000051
штрафует деформированное изображение и поле деформации, а
Figure 00000052
штрафует только реконструированное изображение,
Figure 00000053
и
Figure 00000054
являются штрафами генератора, соответствующими конкурентному обучению с первым дискриминатором, дискриминатором реального/поддельного изображения, и вторым дискриминатором, дискриминатором пропусков, соответственно. Следовательно, эти компоненты разлагаются на следующие базовые функции потерь:Where
Figure 00000051
fines the deformed image and the deformation field, and
Figure 00000052
fines only the reconstructed image,
Figure 00000053
and
Figure 00000054
are generator penalties corresponding to competitive training with the first discriminator, the real / fake image discriminator, and the second discriminator, the skip discriminator, respectively. Therefore, these components are decomposed into the following basic loss functions:

Figure 00000055
(15)
Figure 00000055
(15)

где

Figure 00000056
являются деформированным изображением и маской без пропусков, полученной прямым дискретизатором
Figure 00000057
является полем прямой деформации и xi является i-ой входной выборкой. Здесь и далее, решетчатая сетка в качестве входа в регрессор поля деформации и реконструктор опущена для ясности.Where
Figure 00000056
are a deformed image and a mask without gaps obtained by the direct sampler
Figure 00000057
is a direct deformation field and x i is the i-th input sample. Hereinafter, the lattice grid as an input to the strain field regressor and the reconstructor is omitted for clarity.

Figure 00000058
(16)
Figure 00000058
(sixteen)

где v является экстрактором признака идентичности. Используется Light-CNN-29, предварительно обученное на наборе данных MS-Celeb-1M в качестве источника инвариантного к идентичности встраивания. Во время обучения, веса v фиксированы.where v is an extractor of an identity tag. Light-CNN-29, previously trained on the MS-Celeb-1M dataset, is used as a source of identity-invariant embedding. During training, v weights are fixed.

Figure 00000059
следует выражению (11), и
Figure 00000060
определяется аналогичным образом:
Figure 00000059
follows the expression (11), and
Figure 00000060
defined in the same way:

Figure 00000061
(17)
Figure 00000061
(17)

Вместе с генератором, оба дискриминатора обновляются вышеупомянутыми потерями (10) и (12).Together with the generator, both discriminators are updated with the aforementioned losses (10) and (12).

Со ссылкой на фиг. 3, иллюстрируется эффективность алгоритма, обученного на поднаборе Multi-PIE 80% случайных выборок и оцениваемого на остальных 20% данных. Результаты, показанные на фиг. 3, соответствуют случайным выборкам из контрольной части.With reference to FIG. 3, illustrates the effectiveness of an algorithm trained on a Multi-PIE subset of 80% random samples and evaluated on the remaining 20% of the data. The results shown in FIG. 3 correspond to random samples from the control part.

Оценка текстуры тела и переноса позыAssess body texture and posture transfer

Методы прямого деформирования и дискриминатора пропусков используются для задачи переноса текстуры. Набор данных DeepFashion (см., например, [18]) был использован для демонстрации эффективности построенной модели, которая восстанавливает полную текстуру человеческого тела, которая может проецироваться на тело любой формы и позу, чтобы сформировать целевое изображение.The methods of direct deformation and discriminator of gaps are used for the texture transfer problem. The DeepFashion dataset (see, for example, [18]) was used to demonstrate the effectiveness of the constructed model, which restores the full texture of the human body, which can be projected onto the body of any shape and posture to form the target image.

Модель выполняет перенос текстуры в четыре этапа:The model performs texture transfer in four steps:

1. Отображать начальное изображение на пространство текстуры и обнаруживать его пропущенные участки1. Display the initial image in the texture space and detect its missing areas

2. Восстанавливать пропущенные участки, чтобы восстановить полную текстуру2. Restore missing areas to restore full texture

3. Проецировать восстановленную текстуру на новую позу тела3. Project the restored texture into a new body pose

4. Уточнять результирующее изображение, чтобы исключить дефекты, появляющиеся после повторного проецирования текстуры.4. Refine the resulting image to eliminate defects that appear after re-projecting the texture.

Все модули, выполняющие эти этапы, могут обучаться одновременно сквозным образом, хотя отдельные функции потерь применяются к выходам каждого модуля. Схему модели можно видеть на фиг. 5.All modules that perform these steps can be trained simultaneously in an end-to-end manner, although separate loss functions are applied to the outputs of each module. The model diagram can be seen in FIG. five.

24 текстуры различных частей тела, помещенных на одно RGB изображение, используются, чтобы предсказывать координаты изображения текстуры для каждого пиксела на исходном изображении в целях отображения входных изображений в пространство текстуры путем формирования их полей деформирования. Поля деформирования как для исходного, так и целевого изображения формируются той же самой сетью с UNet-подобной архитектурой. Поскольку поля деформирования устанавливают соответствие между координатами начального изображения и пространства текстуры, становится возможным формировать изображения текстуры из фотоснимка с использованием прямого деформирования и реконструировать изображение человека из текстуры с использованием обратного деформирования с тем же самым полем деформирования. Чтобы обучать генератор поля деформирования, используется визуализация истинного участка uv, формируемая моделью densepose (см., например, [8]), и штрафовать результирующие поля деформирования с потерями L1 (суммой абсолютного значения разностей):24 textures of various body parts placed on a single RGB image are used to predict the coordinates of the texture image for each pixel in the original image in order to map the input images to the texture space by forming their warp fields. The warp fields for both the source and target images are formed by the same network with a UNet-like architecture. Since the deformation fields establish a correspondence between the coordinates of the initial image and the texture space, it becomes possible to form texture images from a photograph using direct deformation and reconstruct a human image from a texture using reverse deformation with the same deformation field. To train the generator of the deformation field, we use the visualization of the true section uv generated by the densepose model (see, for example, [8]) and fine the resulting deformation fields with losses L1 (the sum of the absolute value of the differences):

Figure 00000062
(18)
Figure 00000062
(18)

где

Figure 00000063
является исходным изображением, WF является полем деформирования истинного участка, и
Figure 00000064
является генератором поля деформирования.Where
Figure 00000063
is the original image, WF is the deformation field of the true portion, and
Figure 00000064
is a deformation field generator.

После того как исходное изображение отображено в пространство текстуры, результирующее изображение текстуры имеет много пропущенных частей (пропусков) вследствие взаимного закрытия частей на исходном изображении. Эти пропущенные части затем реконструируются модулем заполнения пропусков, который является второй частью обучаемой модели.After the original image is mapped to texture space, the resulting texture image has many missing parts (gaps) due to the mutual closure of the parts in the original image. These missing parts are then reconstructed by the gap filling module, which is the second part of the training model.

Обучаемая модель использует стробируемую архитектуру типа песочных часов (см., например, [28]) и дискриминатор пропусков, чтобы формировать достоверные текстуры совместно с l1 потерями. Функция потерь для реконструктора выглядит следующим образом:The trained model uses a gated hourglass architecture (see, for example, [28]) and a skip discriminator to form reliable textures along with l1 losses. The loss function for the reconstructor is as follows:

Figure 00000065
(19)
Figure 00000065
(nineteen)

Здесь tsource and ttarget являются исходной текстурой и целевой структурой, соответственно,

Figure 00000066
является реконструктором, и Lgap вычисляется, как указано в выражении (12), в то время как веса дискриминатора пропусков обновляются по отношению к функции потерь 10.Here t source and t target are the source texture and target structure, respectively,
Figure 00000066
is the reconstructor, and the L gap is calculated as indicated in expression (12), while the weights of the omission discriminator are updated with respect to the loss function 10.

После того как восстановленная текстура сформирована, она может повторно проецироваться обратно на любое тело, закодированное с его полем деформирования. Имея поле деформирования для целевого изображения, сформированное предсказателем поля деформирования, изображение исходно выбранного человека в целевой позе может быть сформировано путем обратного деформирования текстуры целевым полем деформирования.After the reconstructed texture is formed, it can be re-projected back onto any body encoded with its deformation field. Having a deformation field for the target image formed by the predictor of the deformation field, the image of the initially selected person in the target position can be formed by deforming the texture back with the target deformation field.

Хотя достоверная реконструкция текстуры может быть получена таким способом, результирующее деформированное изображение может иметь много дефектов, вызванных расхождениями, наблюдаемыми, когда различные части текстуры соединяются, а также некоторые малые области, отсутствующие в пространстве текстуры. Эти проблемы трудно решить в пространстве текстуры, однако они могут легко решаться в пространстве первоначального изображения. Для этой цели, может быть использован модуль уточнения изображения, воплощенный как сеть уточнения для исключения этих дефектов. Выход сети уточнения является окончательным результатом модели. Вычисляются VGG потери между ним и реальным целевым изображением вместе с дискриминатором реального/поддельного изображения, который пытается провести различие между изображениями из набора данных и сформированными изображениями:Although a reliable reconstruction of the texture can be obtained in this way, the resulting deformed image can have many defects caused by discrepancies observed when different parts of the texture join together, as well as some small areas that are not in the texture space. These problems are difficult to solve in the texture space, but they can easily be solved in the space of the original image. For this purpose, an image refinement module embodied as a refinement network can be used to eliminate these defects. The refinement network output is the final result of the model. The VGG losses between it and the real target image are calculated together with the discriminator of the real / fake image, which tries to distinguish between the images from the data set and the generated images:

Figure 00000067
(20)
Figure 00000067
(20)

где

Figure 00000068
является обратным деформированием, VGG является VGG потерями, т.е. l2 расстоянием между признаками, извлеченными VGG-16 сетью, и
Figure 00000069
является дискриминатором реального/поддельного изображения, функции потерь которого выражены следующим образом:Where
Figure 00000068
is the reverse deformation, VGG is the VGG loss, i.e. l2 the distance between tags extracted by the VGG-16 network, and
Figure 00000069
is a discriminator of a real / fake image, the loss functions of which are expressed as follows:

Figure 00000070
(21).
Figure 00000070
(21).

После описания одной или более моделей машинного обучения на основе глубоких нейронных сетей, предварительно обученных или обучаемых для выполнения задачи повторного синтеза изображения, система 100 повторного синтеза изображения согласно изобретению, которая реализует методологию в соответствии с настоящим изобретением, может быть охарактеризована как содержащая, в частности:After describing one or more machine learning models based on deep neural networks, pre-trained or trained to perform the task of image re-synthesis, the image re-synthesis system 100 according to the invention, which implements the methodology in accordance with the present invention, can be characterized as containing, in particular :

модуль 110 ввода исходного изображения; модуль 120 прямого деформирования, выполненный с возможностью предсказания для каждого пиксела исходного изображения соответствующего положения в целевом изображении, причем модуль 120 прямого деформирования выполнен с возможностью предсказания поля прямого деформирования, которое выровнено с исходным изображением; модуль 130 заполнения пропусков, содержащий дискриминатор 210 пропусков, выполненный с возможностью предсказания двоичной маски пропусков, которая является результатом прямого деформирования, и реконструктор 132 пропусков, выполненный с возможностью заполнения пропусков на основании упомянутой двоичной маски пропусков путем формирования изображения текстуры посредством предсказания пары координат в исходном изображении для каждого пиксела в изображении текстуры; и модуль 180 вывода целевого изображения.a source image input unit 110; a direct deformation module 120 configured to predict, for each pixel of the source image, a corresponding position in the target image, the direct deformation module 120 being configured to predict a direct deformation field that is aligned with the original image; a gap filling module 130 comprising a skipping discriminator 210 configured to predict a binary skipping mask that is a result of direct deformation and a skipping reconstructor 132 configured to fill the skips based on said binary skipping mask by generating a texture image by predicting a coordinate pair in the original image for each pixel in the texture image; and a target image output unit 180.

Модуль 120 прямого деформирования может дополнительно содержать регрессор 121 поля деформации, дающий в результате изображение, полученное прямым деформированием. Модуль 130 заполнения пропусков, как упомянуто выше, может дополнительно содержать модуль 131 коррекции ошибок деформирования, выполненный с возможностью коррекции ошибок прямого деформирования в целевом изображении.The direct deformation module 120 may further comprise a deformation field regressor 121, resulting in an image obtained by direct deformation. The gap filling module 130, as mentioned above, may further comprise a deformation error correction module 131 configured to correct for direct deformation errors in the target image.

В соответствии с по меньшей мере одним вариантом осуществления, система согласно изобретению может дополнительно содержать архитектуру 150 переноса текстуры, выполненную с возможностью: предсказания полей деформирования для исходного изображения и целевого изображения; отображения исходного изображения в текстурное пространство посредством прямого деформирования, восстановления текстурного пространства в полную текстуру; и отображения полной текстуры обратно в новое положение с использованием обратного деформирования.In accordance with at least one embodiment, the system according to the invention may further comprise a texture transfer architecture 150 configured to: predict warp fields for the source image and target image; mapping the original image into the texture space through direct deformation, restoring the texture space to the full texture; and display the full texture back to a new position using reverse deformation.

Система может также дополнительно содержать модуль 160 извлечения текстуры, выполненный с возможностью извлечения текстур(ы) из исходного изображения. В соответствии с изобретением, по меньшей мере модуль 120 прямого деформирования и модуль 130 заполнения пропусков могут быть реализованы как глубокие сверточные нейронные сети. По меньшей мере одна из глубоких сверточных сетей может быть обучена с использованием дискриминатора реального/поддельного изображения, выполненного с возможностью различения изображений истинных участков и реконструированных изображений. Дискриминатор 210 пропусков системы согласно изобретению может обучаться в форме отдельной сети классификации, чтобы различать между реконструированным и первоначальным изображениями посредством предсказания маски m из реконструированного изображения путем минимизации взвешенных потерь кросс-энтропии для двоичной сегментации. Реконструктор 132 пропусков системы согласно изобретению может также содержать: модуль 1321 назначения координат, выполненный с возможностью назначения каждому пикселу p=(x,y) входного изображения пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечивать двухканальную карту значений x и y в системе координат текстуры; модуль 1322 завершения карты текстуры, выполненный с возможностью обеспечения завершенной карты текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения; модуль 1323 формирования окончательной текстуры, выполненный с возможностью формирования окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) в текстуру в положениях (u,v), чтобы обеспечить завершенную цветную окончательную текстуру; модуль повторного отображения окончательной текстуры 1324, выполненный с возможностью повторного отображения окончательной текстуры на новую проекцию путем обеспечения другого отображения из координат пикселов изображения в координаты текстуры.The system may also further comprise a texture extraction module 160 configured to extract the texture (s) from the original image. According to the invention, at least the direct deformation module 120 and the gap filling module 130 can be implemented as deep convolutional neural networks. At least one of the deep convolutional networks can be trained using a real / fake image discriminator configured to distinguish between true plots and reconstructed images. The skip discriminator 210 of the system of the invention can be trained in the form of a separate classification network to distinguish between reconstructed and original images by predicting mask m from the reconstructed image by minimizing weighted cross-entropy losses for binary segmentation. The skip reconstructor 132 of the system according to the invention may also comprise: a coordinate assignment module 1321, configured to assign to each pixel p = (x, y) an input image of a coordinate pair (u, v) of a texture in accordance with a fixed predetermined texture mapping to provide a two-channel map x and y values in the texture coordinate system; a texture map completion module 1322, configured to provide a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known; a final texture generating unit 1323 configured to produce a final texture by mapping image values from positions (x [u, v], y [u, v]) to a texture at positions (u, v) to provide a complete color final texture; a final texture re-mapping unit 1324, configured to re-display the final texture on a new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture.

В по меньшей мере одном варианте осуществления, система повторного синтеза изображения может содержать модуль 170 уточнения изображения, выполненный с возможностью коррекции дефектов выходного изображения, вызванных расхождениями, наблюдаемыми там, где соединяются различные части текстуры.In at least one embodiment, the image re-synthesis system may comprise an image refinement module 170 adapted to correct defects in the output image caused by discrepancies observed where different parts of the texture are connected.

Для специалиста в данной области техники должно быть ясно, что вышеупомянутые модули системы согласно изобретению могут быть реализованы различными средствами программного обеспечения, аппаратными средствами, микропрограммного обеспечения, которые хорошо известны в данной области техники. Например, для выполнения функций и/или обработки, описанных выше, могут предусматриваться различные сочетания аппаратных средств и программного обеспечения, причем эти сочетания будут очевидны для специалиста в данной области техники на основании тщательного изучения вышеприведённого описания. Заявленные изобретения не ограничены какими-либо конкретными формами реализации или сочетаниями, как упомянуто выше, но могут быть реализованы в различных формах в зависимости от конкретной задачи (задач) повторного синтеза изображения, которая должна быть решена.For a person skilled in the art it should be clear that the above-mentioned modules of the system according to the invention can be implemented by various software tools, hardware, firmware, which are well known in the art. For example, to perform the functions and / or processing described above, various combinations of hardware and software may be provided, and these combinations will be obvious to a person skilled in the art based on a thorough study of the above description. The claimed invention is not limited to any specific implementation forms or combinations, as mentioned above, but can be implemented in various forms depending on the specific task (s) of the re-synthesis of the image, which must be solved.

Представленное выше является детальным описанием конкретных примерных вариантов осуществления изобретения, которые предназначены, чтобы иллюстрировать, но не ограничивать материальные и технические средства, которые реализуют соответствующие компоненты системы и этапы способа обработки изображения, их функциональные свойства и соотношения между ними, а также режим работы системы и способа обработки изображения согласно изобретению. Другие варианты осуществления, которые входят в объем настоящего изобретения, могут стать очевидными для специалиста в данной области техники на основании тщательного изучения описания, приведенного выше, со ссылкой на приложенные чертежи, и все такие очевидные модификации, варианты и/или эквивалентные замены предполагаются входящими в объем настоящего изобретения. Порядок, в котором этапы способа согласно изобретению упомянуты в формуле изобретения, не обязательно определяет фактическую последовательность, в которой подразумевается выполнение этапов способа, и некоторые этапы способа могут выполняться по существу одновременно, один за другим или в любой подходящей последовательности, если только иное конкретно не определено и/или обусловлено контекстом настоящего раскрытия. Некоторые этапы способа могут выполняться однократно или соответствующее количество раз, хотя это и не указано в формуле изобретения или где-либо в материалах заявки.The above is a detailed description of specific exemplary embodiments of the invention, which are intended to illustrate, but not limit, the material and technical means that implement the corresponding components of the system and the steps of the image processing method, their functional properties and the relationship between them, as well as the mode of operation of the system and image processing method according to the invention. Other embodiments that fall within the scope of the present invention may become apparent to a person skilled in the art based on a thorough study of the description above with reference to the attached drawings, and all such obvious modifications, variations and / or equivalent replacements are intended to be included in scope of the present invention. The order in which the steps of the method according to the invention are mentioned in the claims does not necessarily determine the actual sequence in which the steps of the method are implied, and some steps of the method can be performed substantially simultaneously, one after another or in any suitable sequence, unless otherwise specifically specified defined and / or determined by the context of this disclosure. Some steps of the method can be performed once or an appropriate number of times, although this is not indicated in the claims or elsewhere in the application materials.

Следует также отметить, что изобретение может также принимать другие формы по сравнению с тем, что описано выше, и некоторые компоненты, модули, элементы, функции могут быть реализованы как программное обеспечение, аппаратные средства, микропрограммное обеспечение, интегральные схемы, FPGA и т.д., где это применимо. Заявленное изобретение или по меньшей мере его конкретные части, компоненты, модули или этапы могут быть реализованы компьютерной программой, сохраненной на машиночитаемом носителе, причем программа при исполнении на универсальном компьютере, GPU, многофункциональном устройстве или любом подходящем устройстве обработки изображения побуждает упомянутое устройство выполнять некоторые или все этапы заявленного способа и/или управлять по меньшей мере некоторыми из компонентов заявленной системы повторного синтеза изображения таким образом, что они работают вышеописанным способом. Примеры машиночитаемого носителя, пригодного для хранения упомянутой компьютерной программы или ее кода, инструкций или элементов или модулей компьютерной программы, могут включать в себя любой тип постоянного машиночитаемого носителя, который известен специалисту в данной области техники.It should also be noted that the invention may also take other forms than what is described above, and some components, modules, elements, functions can be implemented as software, hardware, firmware, integrated circuits, FPGAs, etc. . where applicable. The claimed invention or at least its specific parts, components, modules or steps may be implemented by a computer program stored on a computer-readable medium, the program being executed on a general-purpose computer, GPU, multifunction device, or any suitable image processing device, causes said device to execute some or all steps of the inventive method and / or control at least some of the components of the inventive system for re-synthesis of images in such a way that they work as described above. Examples of computer-readable media suitable for storing said computer program or code, instructions, or elements or modules of a computer program may include any type of permanent computer-readable medium that is known to one skilled in the art.

Все непатентные документы [1]-[30] из уровня техники, упомянутые и рассмотренные в настоящем документе и перечисленные ниже, настоящим включены в настоящее раскрытие путём ссылки, где это применимо.All non-patent documents [1] - [30] of the prior art mentioned and discussed herein and listed below are hereby incorporated into this disclosure by reference, where applicable.

Дополнительные аспекты изобретения могут стать очевидными для специалиста в данной области техники на основании изучения приведенного выше описания со ссылками на чертежи. Специалисту в данной области техники должно быть понятно, что возможны другие варианты осуществления изобретения и что детали изобретения могут быть модифицированы в ряде аспектов без отклонения от концепции изобретения. Таким образом, чертежи и описание должны рассматриваться как имеющие иллюстративный, но не ограничительный характер. Объем заявленного изобретения определяется только приложенной формулой изобретения.Additional aspects of the invention may become apparent to a person skilled in the art based on a study of the above description with reference to the drawings. One skilled in the art will appreciate that other embodiments of the invention are possible and that the details of the invention can be modified in a number of aspects without departing from the concept of the invention. Therefore, the drawings and description should be considered as illustrative, but not restrictive. The scope of the claimed invention is determined only by the attached claims.

Список цитированных источниковList of cited sources

[1] V. Blanz and T. Vetter. Face recognition based on fitting a 3d morphable model. T-PAMI, 25(9):1063-1074, 2003. 2[1] V. Blanz and T. Vetter. Face recognition based on fitting a 3d morphable model. T-PAMI, 25 (9): 1063-1074, 2003.2

[2] J. Cao, Y. Hu, B. Yu, R. He, and Z. Sun. Load balanced gans for multi-view face image synthesis. arXiv preprint arXiv:1802.07447, 2018. 2[2] J. Cao, Y. Hu, B. Yu, R. He, and Z. Sun. Load balanced gans for multi-view face image synthesis. arXiv preprint arXiv: 1802.07447, 2018.2

[3] J. Cao, Y. Hu, H. Zhang, R. He, and Z. Sun. Learning a high fidelity pose invariant model for high-resolution face frontalization. arXiv preprint arXiv:1806.08472, 2018. 1, 3[3] J. Cao, Y. Hu, H. Zhang, R. He, and Z. Sun. Learning a high fidelity pose invariant model for high-resolution face frontalization. arXiv preprint arXiv: 1806.08472, 2018.1,3

[4] J. Deng, S. Cheng, N. Xue, Y. Zhou, and S. Zafeiriou. Uv- gan: adversarial facial uv map completion for pose-invariant face recognition. In Proc. CVPR, pages 7093-7102, 2018. 1, 2, 4[4] J. Deng, S. Cheng, N. Xue, Y. Zhou, and S. Zafeiriou. UV-gan: adversarial facial uv map completion for pose-invariant face recognition. In Proc. CVPR, pages 7093-7102, 2018.1, 2, 4

[5] Y. Ganin, D. Kononenko, D. Sungatullina, and V. Lempitsky. Deepwarp: Photorealistic image resynthesis for gaze manipulation. In European Conference on Computer Vision, pages 311-326. Springer, 2016. 1, 2, 3[5] Y. Ganin, D. Kononenko, D. Sungatullina, and V. Lempitsky. Deepwarp: Photorealistic image resynthesis for gaze manipulation. In European Conference on Computer Vision, pages 311-326. Springer, 2016.1,2,3

[6] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio. Generative adversarial nets. In Advances in neural information processing systems, pages 2672-2680, 2014. 2, 4[6] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio. Generative adversarial nets. In Advances in neural information processing systems, pages 2672-2680, 2014.2,4

[7] R. Gross, I. Matthews, J. Cohn, T. Kanade, and S. Baker. Multi-pie. Image and Vision Computing, 28(5):807-813, 2010. 5[7] R. Gross, I. Matthews, J. Cohn, T. Kanade, and S. Baker. Multi-pie. Image and Vision Computing, 28 (5): 807-813, 2010.5

[8] R. A. Guler, N. Neverova, and I. Kokkinos. DensePose: Dense human pose estimation in the wild. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 2, 8[8] R. A. Guler, N. Neverova, and I. Kokkinos. DensePose: Dense human pose estimation in the wild. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018.2, 8

[9] Y. Hu, X. Wu, B. Yu, R. He, and Z. Sun. Pose-guided photo-realistic face rotation. In Proc. CVPR, 2018. 2[9] Y. Hu, X. Wu, B. Yu, R. He, and Z. Sun. Pose-guided photo-realistic face rotation. In Proc. CVPR, 2018.2

[10] R. Huang, S. Zhang, T. Li, R. He, et al. Beyond face rotation: Global and local perception gan for photorealistic and identity preserving frontal view synthesis. arXiv preprint arXiv:1704.04086, 2017. 2[10] R. Huang, S. Zhang, T. Li, R. He, et al. Beyond face rotation: Global and local perception gan for photorealistic and identity preserving frontal view synthesis. arXiv preprint arXiv: 1704.04086, 2017.2

[11] S. Iizuka, E. Simo-Serra, and H. Ishikawa. Globally and locally consistent image completion. ACM Transactions on Graphics (TOG), 36(4):107, 2017. 1, 2[11] S. Iizuka, E. Simo-Serra, and H. Ishikawa. Globally and locally consistent image completion. ACM Transactions on Graphics (TOG), 36 (4): 107, 2017.1, 2

[12] P. Isola, J. Zhu, T. Zhou, and A. A. Efros. Image-to-image translation with conditional adversarial networks. In Proc. CVPR, pages 5967-5976, 2017. 2[12] P. Isola, J. Zhu, T. Zhou, and A. A. Efros. Image-to-image translation with conditional adversarial networks. In Proc. CVPR, pages 5967-5976, 2017.2

[13] M. Jaderberg, K. Simonyan, A. Zisserman, and K. Kavukcuoglu. Spatial transformer networks. In Proc. NIPS, pages 2017-2025, 2015. 1, 2, 3[13] M. Jaderberg, K. Simonyan, A. Zisserman, and K. Kavukcuoglu. Spatial transformer networks. In Proc. NIPS, pages 2017-2025, 2015.1,2,3

[14] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer and super-resolution. In Proc. ECCV, pages 694-711, 2016. 4[14] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer and super-resolution. In Proc. ECCV, pages 694-711, 2016.4

[15] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel. Backpropagation applied to handwritten zip code recognition. Neural computation, 1(4):541-551, 1989. 1[15] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel. Backpropagation applied to handwritten zip code recognition. Neural computation, 1 (4): 541-551, 1989.1

[16] Y. Li, S. Liu, J. Yang, and M.-H. Yang. Generative face completion. In Proc. CVPR, volume 1, page 3, 2017. 1, 2[16] Y. Li, S. Liu, J. Yang, and M.-H. Yang Generative face completion. In Proc. CVPR, volume 1, page 3, 2017.1,2

[17] G. Liu, F. A. Reda, K. J. Shih, T.-C. Wang, A. Tao, and B. Catanzaro. Image inpainting irregular holes using partial convolutions. arXiv preprint arXiv:1804.07723, 2018. 1, 2, 3[17] G. Liu, F. A. Reda, K. J. Shih, T.-C. Wang, A. Tao, and B. Catanzaro. Image inpainting irregular holes using partial convolutions. arXiv preprint arXiv: 1804.07723, 2018.1,2,3

[18] Z. Liu, P. Luo, S. Qiu, X. Wang, and X. Tang. Deepfashion: Powering robust clothes recognition and retrieval with rich annotations. In Proc. CVPR, pages 1096-1104, 2016. 6[18] Z. Liu, P. Luo, S. Qiu, X. Wang, and X. Tang. Deepfashion: Powering robust clothes recognition and retrieval with rich annotations. In Proc. CVPR, pages 1096-1104, 2016.6

[19] N. Neverova, R. A. Guler, and I. Kokkinos. Dense pose transfer. In The European Conference on Computer Vision (ECCV), September 2018. 2[19] N. Neverova, R. A. Guler, and I. Kokkinos. Dense pose transfer. In The European Conference on Computer Vision (ECCV), September 2018.2

[20] E. Park, J. Yang, E. Yumer, D. Ceylan, and A. C. Berg. Transformation-grounded image generation network for novel 3d view synthesis. In Proc. CVPR, pages 702-711. IEEE, 2017. 1, 3[20] E. Park, J. Yang, E. Yumer, D. Ceylan, and A. C. Berg. Transformation-grounded image generation network for novel 3d view synthesis. In Proc. CVPR, pages 702-711. IEEE, 2017.1,3

[21] J. S. Ren, L. Xu, Q. Yan, and W. Sun. Shepard convolutional neural networks. In Proc. NIPS, pages 901-909, 2015. 1, 2[21] J. S. Ren, L. Xu, Q. Yan, and W. Sun. Shepard convolutional neural networks. In Proc. NIPS, pages 901-909, 2015.1, 2

[22] O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In Proc. MICCAI, pages 234-241. Springer, 2015. 5[22] O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In Proc. MICCAI, pages 234-241. Springer, 2015.5

[23] A. Siarohin, E. Sangineto, S. Lathuilire, and N. Sebe. De¬formable gans for pose-based human image generation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 1, 2, 3[23] A. Siarohin, E. Sangineto, S. Lathuilire, and N. Sebe. De¬formable gans for pose-based human image generation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 1, 2, 3

[24] S. Tulyakov, M.-Y. Liu, X. Yang, and J. Kautz. Moco- gan: Decomposing motion and content for video generation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 2[24] S. Tulyakov, M.-Y. Liu, X. Yang, and J. Kautz. Mocogan: Decomposing motion and content for video generation. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018.2

[25] J. Uhrig, N. Schneider, L. Schneider, U. Franke, T. Brox, and A. Geiger. Sparsity invariant cnns. In International Conference on 3D Vision (3DV), pages 11-20. IEEE, 2017. 1, 2[25] J. Uhrig, N. Schneider, L. Schneider, U. Franke, T. Brox, and A. Geiger. Sparsity invariant cnns. In International Conference on 3D Vision (3DV), pages 11-20. IEEE, 2017.1,2

[26] J. Yim, H. Jung, B. Yoo, C. Choi, D. Park, and J. Kim. Rotating your face using multi-task deep neural network. In Proc. CVPR, pages 676-684, 2015. 2[26] J. Yim, H. Jung, B. Yoo, C. Choi, D. Park, and J. Kim. Rotating your face using multi-task deep neural network. In Proc. CVPR, pages 676-684, 2015.2

[27] X. Yin, X. Yu, K. Sohn, X. Liu, and M. Chandraker. Towards large-pose face frontalization in the wild. In Proc. ICCV, pages 1-10, 2017. 2[27] X. Yin, X. Yu, K. Sohn, X. Liu, and M. Chandraker. Towards large-pose face frontalization in the wild. In Proc. ICCV, pages 1-10, 2017.2

[28] J. Yu, Z. Lin, J. Yang, X. Shen, X. Lu, and T. S. Huang. Free-form image inpainting with gated convolution. arXiv preprint arXiv:1806.03589, 2018. 1, 2, 5, 6, 8[28] J. Yu, Z. Lin, J. Yang, X. Shen, X. Lu, and T. S. Huang. Free-form image inpainting with gated convolution. arXiv preprint arXiv: 1806.03589, 2018.1, 2, 5, 6, 8

[29] J. Zhao, L. Xiong, P. K. Jayashree, J. Li, F. Zhao, Z. Wang, P. S. Pranata, P. S. Shen, S. Yan, and J. Feng. Dual-agent gans for photorealistic and identity preserving profile face synthesis. In Proc. NIPS, pages 66-76, 2017. 2[29] J. Zhao, L. Xiong, P. K. Jayashree, J. Li, F. Zhao, Z. Wang, P. S. Pranata, P. S. Shen, S. Yan, and J. Feng. Dual-agent gans for photorealistic and identity preserving profile face synthesis. In Proc. NIPS, pages 66-76, 2017.2

[30] T. Zhou, S. Tulsiani, W. Sun, J. Malik, and A. A. Efros. View synthesis by appearance flow. In Proc. ECCV, pages 286¬301, 2016. 1, 2, 3.[30] T. Zhou, S. Tulsiani, W. Sun, J. Malik, and A. A. Efros. View synthesis by appearance flow. In Proc. ECCV, pages 286¬301, 2016.1,2,3.

Claims (34)

1. Система повторного синтеза изображения, содержащая:1. The system of re-synthesis of the image, containing: модуль ввода исходного изображения;input image input module; модуль прямого деформирования, выполненный с возможностью предсказания для каждого пиксела исходного изображения соответствующего положения в целевом изображении, причем модуль прямого деформирования выполнен с возможностью предсказания поля прямого деформирования, которое выровнено с исходным изображением; иa direct deformation module configured to predict, for each pixel of the source image, a corresponding position in the target image, the direct deformation module configured to predict a direct deformation field that is aligned with the original image; and модуль заполнения пропусков, выполненный с возможностью заполнения пропусков, являющихся результатом применения прямого деформирования, путем предсказания двоичной маски пропусков, которые являются результатом прямого деформирования, заполнения пропусков на основе упомянутой двоичной маски пропусков путем формирования изображения текстуры посредством предсказания пары координат в исходном изображении для каждого пиксела в изображении текстуры.a gap filling module configured to fill gaps resulting from the application of direct deformation by predicting a binary mask of gaps, which are the result of direct deformation, filling gaps based on said binary mask of gaps by generating a texture image by predicting a coordinate pair in the original image for each pixel in the image texture. 2. Система повторного синтеза изображения по п. 1, в которой модуль заполнения пропусков дополнительно содержит модуль коррекции ошибок деформирования, выполненный с возможностью коррекции ошибок прямого деформирования в целевом изображении.2. The image re-synthesis system according to claim 1, wherein the omission filling module further comprises a deformation error correction module configured to correct direct deformation errors in the target image. 3. Система повторного синтеза изображения по п. 1, дополнительно содержащая архитектуру переноса текстуры, выполненную с возможностью:3. The image re-synthesis system according to claim 1, further comprising a texture transfer architecture configured to: предсказания полей деформирования для исходного изображения и целевого изображения;prediction of warp fields for the source image and the target image; отображения исходного изображения в пространство текстуры посредством прямого деформирования;mapping the original image into the texture space through direct deformation; восстановления пространства текстуры в полную текстуру иrestore texture space to full texture and отображения полной текстуры обратно в новую позу с использованием обратного деформирования.display the full texture back into a new pose using reverse deformation. 4. Система повторного синтеза изображения по п. 1, дополнительно содержащая модуль извлечения текстуры, выполненный с возможностью извлечения текстуры из исходного изображения.4. The image re-synthesis system of claim 1, further comprising a texture extraction module configured to extract the texture from the original image. 5. Система повторного синтеза изображения по п. 1, в которой по меньшей мере модуль прямого деформирования и модуль заполнения пропусков реализованы как глубокие сверточные нейронные сети.5. The image re-synthesis system according to claim 1, wherein at least the direct deformation module and the gap filling module are implemented as deep convolutional neural networks. 6. Система повторного синтеза изображения по п. 1, в которой модуль заполнения пропусков содержит реконструктор пропусков, причем реконструктор пропусков содержит:6. The system for re-synthesis of the image according to claim 1, in which the module for filling in the blanks contains a gap designer, and the gap designer contains: модуль назначения координат, выполненный с возможностью назначения каждому пикселу p=(x,y) входного изображения пары координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры;a coordinate assignment module, configured to assign to each pixel p = (x, y) an input image of a pair of coordinates (u, v) of the texture in accordance with a fixed predetermined texture mapping to provide a two-channel map of x and y values in the texture coordinate system; модуль завершения карты текстуры, выполненный с возможностью обеспечения завершенной карты текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения;a texture map completion module, configured to provide a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known; модуль формирования окончательной текстуры, выполненный с возможностью формирования окончательной текстуры путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечить завершенную цветную окончательную текстуру;a final texture generating unit configured to produce a final texture by displaying image values from positions (x [u, v], y [u, v]) on a texture at positions (u, v) to provide a complete color final texture; модуль повторного отображения окончательной текстуры, выполненный с возможностью повторного отображения окончательной текстуры на новую проекцию путем обеспечения другого отображения из координат пикселов изображения в координаты текстуры.a final texture re-mapping module configured to re-display the final texture on a new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture. 7. Система повторного синтеза изображения по п. 5, в которой по меньшей мере одна из глубоких сверточных сетей обучается с использованием дискриминатора реального/поддельного изображения, выполненного с возможностью различения изображений истинного участка и реконструированных изображений.7. The image re-synthesis system according to claim 5, wherein at least one of the deep convolutional networks is trained using a real / fake image discriminator configured to distinguish between images of the true region and reconstructed images. 8. Система повторного синтеза изображения по п. 4, дополнительно содержащая модуль уточнения изображения, выполненного с возможностью коррекции дефектов выходного изображения.8. The image re-synthesis system according to claim 4, further comprising an image refinement module configured to correct defects in the output image. 9. Система для обучения модуля заполнения пропусков, выполненного с возможностью заполнения пропусков как часть повторного синтеза изображения, причем система выполнена с возможностью обучения модуля заполнения пропусков параллельно и совместно с сетью дискриминатора пропусков, причем сеть дискриминатора пропусков обучается предсказывать двоичную маску пропусков, и модуль заполнения пропусков обучается минимизировать точность сети дискриминатора пропусков.9. A system for training the gap filling module configured to fill the gaps as part of image re-synthesis, the system being configured to teach the gap filling module in parallel and together with the gap discriminator network, the gap discriminator network learning to predict the binary gap mask, and the fill module badges are trained to minimize the accuracy of the bad discriminator network. 10. Способ повторного синтеза изображения, содержащий этапы, на которых:10. A method for re-synthesizing an image comprising the steps of: вводят исходное изображение;enter the original image; предсказывают для каждого пиксела исходного изображения соответствующее положение в целевом изображении, причем предсказывается поле прямого деформирования, которое выровнено с исходным изображением;for each pixel of the source image, a corresponding position in the target image is predicted, and a direct deformation field is predicted that is aligned with the original image; предсказывают двоичную маску пропусков, которые являются результатом прямого деформирования,predict the binary mask of gaps, which are the result of direct deformation, заполняют пропуски на основании упомянутой двоичной маски пропусков путем формирования изображения текстуры посредством предсказания пары координат в исходном изображении для каждого пиксела в изображении текстуры; иfilling gaps based on said binary ghost mask by forming a texture image by predicting a pair of coordinates in the original image for each pixel in the texture image; and отображают полную текстуру обратно на новую позу с использованием обратного деформирования.display the full texture back to a new pose using reverse deformation. 11. Способ повторного синтеза изображения по п. 10,11. The method of re-synthesis of the image according to claim 10, в котором заполнение пропусков содержит этапы, на которых:in which filling in the gaps contains stages in which: назначают каждому пикселу p=(x,y) входного изображения пару координат (u,v) текстуры в соответствии с фиксированным заданным отображением текстуры, чтобы обеспечить двухканальную карту значений x и y в системе координат текстуры;assigning to each pixel p = (x, y) of the input image a pair of coordinates (u, v) of the texture in accordance with a fixed predetermined texture mapping to provide a two-channel map of x and y values in the texture coordinate system; обеспечивают карту завершенной текстуры, где для каждого пиксела (u,v) текстуры известен соответствующий пиксел (x[u,v],y[u,v]) изображения;provide a complete texture map, where for each pixel (u, v) of the texture the corresponding pixel (x [u, v], y [u, v]) of the image is known; формируют окончательную текстуру путем отображения значений изображения из положений (x[u,v],y[u,v]) на текстуру в положениях (u,v), чтобы обеспечить завершенную цветную окончательную текстуру;forming the final texture by mapping the image values from the positions (x [u, v], y [u, v]) to the texture at the positions (u, v) to provide a complete color final texture; повторно отображают окончательную текстуру на новую проекцию путем обеспечения другого отображения из координат пикселов изображения в координаты текстуры.re-display the final texture on a new projection by providing another mapping from the coordinates of the image pixels to the coordinates of the texture. 12. Способ обучения модуля заполнения пропусков, выполненного с возможностью заполнения пропусков как часть повторного синтеза изображения, причем способ содержит этап, на котором обучают модуль заполнения пропусков параллельно и совместно с сетью дискриминатора пропусков, причем сеть дискриминатора пропусков обучается, чтобы предсказывать двоичную маску пропусков, и модуль заполнения пропусков обучается, чтобы минимизировать точность сети дискриминатора пропусков.12. A training method for the gap filling module configured to fill the gaps as part of image re-synthesis, the method comprising the step of teaching the gap filling module in parallel with and together with the gap discriminator network, the gap discriminator network being trained to predict the binary gap mask, and the gap filling module is trained to minimize the accuracy of the gap discriminator network. 13. Постоянный машиночитаемый носитель, на котором сохранён компьютерный программный продукт, содержащий компьютерный программный код, который при исполнении одним или более процессорами побуждает один или более процессоров реализовывать способ по любому одному из пп. 10 или 11.13. A permanent computer-readable medium on which a computer program product is stored containing computer program code, which, when executed by one or more processors, causes one or more processors to implement the method according to any one of claims. 10 or 11.
RU2019113117A 2018-11-09 2019-04-29 Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling RU2726160C1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2019113117A RU2726160C1 (en) 2019-04-29 2019-04-29 Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling
EP19881010.3A EP3824432A4 (en) 2018-11-09 2019-11-07 Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting
PCT/KR2019/015051 WO2020096368A1 (en) 2018-11-09 2019-11-07 Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting
US17/282,214 US11961205B2 (en) 2018-11-09 2019-11-07 Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting
CN201980066712.4A CN112823375A (en) 2018-11-09 2019-11-07 Image resynthesis using forward warping, gap discriminator and coordinate-based inpainting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019113117A RU2726160C1 (en) 2019-04-29 2019-04-29 Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling

Publications (1)

Publication Number Publication Date
RU2726160C1 true RU2726160C1 (en) 2020-07-09

Family

ID=71510552

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019113117A RU2726160C1 (en) 2018-11-09 2019-04-29 Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling

Country Status (1)

Country Link
RU (1) RU2726160C1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2770132C1 (en) * 2021-03-04 2022-04-14 Самсунг Электроникс Ко., Лтд. Image generators with conditionally independent pixel synthesis
CN115111970A (en) * 2022-07-05 2022-09-27 湖南工商大学 Firework forming detection device integrating 2D and 3D visual perception and detection method thereof
RU2787928C1 (en) * 2021-07-20 2023-01-13 Самсунг Электроникс Ко., Лтд. Method for creation of multilayered scene representation and computer device for its implementation
CN115953544A (en) * 2023-03-16 2023-04-11 浪潮电子信息产业股份有限公司 Three-dimensional reconstruction method and device, electronic equipment and readable storage medium
US11823349B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Image generators with conditionally-independent pixel synthesis

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6434280B1 (en) * 1997-11-10 2002-08-13 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US20060133688A1 (en) * 2003-04-29 2006-06-22 Microsoft Corporation System and process for generating high dynamic range video
US20100157078A1 (en) * 2008-12-19 2010-06-24 Qualcomm Incorporated High dynamic range image combining
US20110157408A1 (en) * 2004-08-16 2011-06-30 Tessera Technologies Ireland Limited Foreground/Background Segmentation in Digital Images with Differential Exposure Calculations
RU2648578C1 (en) * 2011-01-12 2018-03-26 Мицубиси Электрик Корпорейшн Image encoding device, image decoding device, image encoding method and image decoding method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6434280B1 (en) * 1997-11-10 2002-08-13 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US20060133688A1 (en) * 2003-04-29 2006-06-22 Microsoft Corporation System and process for generating high dynamic range video
US20110157408A1 (en) * 2004-08-16 2011-06-30 Tessera Technologies Ireland Limited Foreground/Background Segmentation in Digital Images with Differential Exposure Calculations
US20100157078A1 (en) * 2008-12-19 2010-06-24 Qualcomm Incorporated High dynamic range image combining
RU2648578C1 (en) * 2011-01-12 2018-03-26 Мицубиси Электрик Корпорейшн Image encoding device, image decoding device, image encoding method and image decoding method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11823349B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Image generators with conditionally-independent pixel synthesis
RU2770132C1 (en) * 2021-03-04 2022-04-14 Самсунг Электроникс Ко., Лтд. Image generators with conditionally independent pixel synthesis
RU2787928C1 (en) * 2021-07-20 2023-01-13 Самсунг Электроникс Ко., Лтд. Method for creation of multilayered scene representation and computer device for its implementation
CN115111970A (en) * 2022-07-05 2022-09-27 湖南工商大学 Firework forming detection device integrating 2D and 3D visual perception and detection method thereof
CN115111970B (en) * 2022-07-05 2023-11-10 湖南工商大学 Firework forming detection device integrating 2D and 3D visual perception and detection method thereof
CN115953544A (en) * 2023-03-16 2023-04-11 浪潮电子信息产业股份有限公司 Three-dimensional reconstruction method and device, electronic equipment and readable storage medium
CN115953544B (en) * 2023-03-16 2023-05-09 浪潮电子信息产业股份有限公司 Three-dimensional reconstruction method, three-dimensional reconstruction device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
RU2726160C1 (en) Repeated synthesis of image using direct deformation of image, pass discriminator and coordinate-based remodelling
US10593021B1 (en) Motion deblurring using neural network architectures
Wong et al. Bilateral cyclic constraint and adaptive regularization for unsupervised monocular depth prediction
Li et al. Deep learning based imaging data completion for improved brain disease diagnosis
Kiechle et al. A joint intensity and depth co-sparse analysis model for depth map super-resolution
CN112823375A (en) Image resynthesis using forward warping, gap discriminator and coordinate-based inpainting
KR102311796B1 (en) Method and Apparatus for Deblurring of Human Motion using Localized Body Prior
US11625813B2 (en) Automatically removing moving objects from video streams
Qu et al. TransFuse: A unified transformer-based image fusion framework using self-supervised learning
Luvizon et al. Adaptive multiplane image generation from a single internet picture
Tan et al. High dynamic range imaging for dynamic scenes with large-scale motions and severe saturation
Tang et al. Structure-embedded ghosting artifact suppression network for high dynamic range image reconstruction
Gupta et al. A robust and efficient image de-fencing approach using conditional generative adversarial networks
Saint et al. 3dbooster: 3d body shape and texture recovery
Sharma et al. A novel 3d-unet deep learning framework based on high-dimensional bilateral grid for edge consistent single image depth estimation
Shihabudeen et al. Deep learning L2 norm fusion for infrared & visible images
Chouteau et al. Joint Super-Resolution and Image Restoration for PLÉIADES NEO Imagery
BR et al. Machine Learning Application for Evidence Image Enhancement
Vahadane et al. Learning based super-resolution of histological images
US11961205B2 (en) Image resynthesis using forward warping, gap discriminators, and coordinate-based inpainting
Amirkolaee et al. Monocular depth estimation with geometrical guidance using a multi-level convolutional neural network
Mandal et al. Super-resolving a single intensity/range image via non-local means and sparse representation
Lumentut et al. Human motion deblurring using localized body prior
Kumar A VR-based System for Remote Medical Inspection
RU2775825C1 (en) Neural-network rendering of three-dimensional human avatars