RU2582852C1 - Automatic construction of 3d model of face based on series of 2d images or movie - Google Patents
Automatic construction of 3d model of face based on series of 2d images or movie Download PDFInfo
- Publication number
- RU2582852C1 RU2582852C1 RU2015101771/08A RU2015101771A RU2582852C1 RU 2582852 C1 RU2582852 C1 RU 2582852C1 RU 2015101771/08 A RU2015101771/08 A RU 2015101771/08A RU 2015101771 A RU2015101771 A RU 2015101771A RU 2582852 C1 RU2582852 C1 RU 2582852C1
- Authority
- RU
- Russia
- Prior art keywords
- face
- model
- dimensional
- image
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/248—Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY
Изобретение относится к области распознавания образов, а именно к задаче распознавания личности человека по изображению, с помощью способа, устройства и машиночитаемого носителя для автоматического построения 3D модели лица по серии 2D изображений.The invention relates to the field of pattern recognition, and in particular to the task of recognizing a person’s identity by image, using the method, device and computer-readable medium for automatically building a 3D model of a face from a series of 2D images.
УРОВЕНЬ ТЕХНИКИBACKGROUND
Известен способ построения трехмерной модели лица с помощью стереокамеры в целях автоматического распознавания лица человека (RU 2012101848, от 19.01.2012), в котором две или более стереокамер располагают на некотором расстоянии между собой, при этом каждая из стереокамер реконструирует свое трехмерное изображение части лица, потом отдельные части совмещают в одно общее трехмерное изображение, по которому производится распознавание человека.A known method of constructing a three-dimensional model of the face using a stereo camera in order to automatically recognize a person’s face (RU 2012101848, from 01/19/2012), in which two or more stereo cameras are located at some distance between each other, while each of the stereo cameras reconstructs its three-dimensional image of a part of the face, then the individual parts are combined into one common three-dimensional image, which is used to recognize a person.
Недостатками указанного способа является техническая сложность его воплощения, причем кадры должны быть сняты в один и тот же момент времени, а также невозможность работы с уже готовыми изображениями или последовательностью кадров, например, видеофильмом.The disadvantages of this method is the technical complexity of its implementation, and the frames must be shot at the same time, as well as the inability to work with ready-made images or a sequence of frames, for example, a video film.
Известны способы построения трехмерной модели лица лишь по одной или нескольким 2Б изображениям лица. В этих способах получение двумерного изображения может осуществляться всего одной видеокамерой, однако, при этом увеличивается сложность и уменьшается точность построения трехмерной модели лица, которая негативно может повлиять на точность дальнейшего распознавания или идентификации лица человека.Known methods for constructing a three-dimensional model of the face based on only one or more 2B face images. In these methods, obtaining a two-dimensional image can be carried out with just one video camera, however, this increases the complexity and decreases the accuracy of building a three-dimensional model of the face, which can negatively affect the accuracy of further recognition or identification of a person's face.
Среди упомянутых способов известны способы построения трехмерной формы лица человека по одному или более 2Б изображениям, в котором используется трехмерная деформируемая модель лица (US 20070080967 A1, US 7853085 B2, US 7643685 B2, US 7643683 B2, US 7643671 B2, ANIMETRICS INC.). В известных способах на вход устройства поступает изображение лица, а параметры и положения трехмерной модели лица подбираются таким образом, чтобы проекция модели наиболее точно совпадала с изображением лица на серии 2Б изображений.Among the mentioned methods, there are known methods for constructing a three-dimensional shape of a person’s face from one or more 2B images using a three-dimensional deformable face model (US 20070080967 A1, US 7853085 B2, US 7643685 B2, US 7643683 B2, US 7643671 B2, ANIMETRICS INC.). In known methods, a face image is input to the device input, and the parameters and positions of the three-dimensional face model are selected so that the projection of the model most closely matches the face image in a series of 2B images.
Недостатками известных способов являются:The disadvantages of the known methods are:
- ограниченная точность реконструкции, так как трехмерная форма лица описывается некоторой моделью с конечным числом параметров. Поэтому восстановленная форма лица лишь примерно совпадает с исходным лицом. Простая модель может давать ухудшение результатов при изменении расы или возраста человека,- limited reconstruction accuracy, since the three-dimensional shape of the face is described by some model with a finite number of parameters. Therefore, the restored face shape only approximately coincides with the original face. A simple model can result in poor results when a person’s race or age changes,
- точность построения зависит от точности определения на двумерном изображении координат некоторых выбранных точек в уголках губ, глаз и других основных элементов лица, называемых антропометрическими точками. В этих точках осуществляется контроль совпадения проекции трехмерной модели с исходным изображением лица;- the accuracy of the construction depends on the accuracy of determining on the two-dimensional image the coordinates of some selected points in the corners of the lips, eyes and other basic elements of the face, called anthropometric points. At these points, the coincidence of the projection of the three-dimensional model with the original image of the face is controlled;
- первоначальной информацией для построения трехмерной модели являются двумерные координаты антропометрических точек, получаемая трехмерная модель не содержит в себе дополнительной информации, кроме уже присутствующей в двумерном изображении, поэтому может не давать преимущества при распознавании с помощью трехмерного алгоритма сравнения лиц;- the initial information for constructing a three-dimensional model is the two-dimensional coordinates of anthropometric points, the resulting three-dimensional model does not contain additional information except that already present in the two-dimensional image, therefore, it may not give advantages when recognizing using the three-dimensional face comparison algorithm;
- возникает сложность в восстановлении мимических искажений формы лица, так как модель не может быть обучена для повтора всех существующих мимических выражений;- there is a difficulty in reconstructing facial expressions of the facial shape, since the model cannot be trained to repeat all existing facial expressions;
- чем точнее трехмерная модель может аппроксимировать различные формы лица человека, тем дольше время подбора параметров модели для нахождения трехмерной формы лица данного человека.- the more accurately a three-dimensional model can approximate various forms of a person’s face, the longer the time it takes to select the model’s parameters to find the three-dimensional shape of a person’s face.
Другим из возможных способов является известный метод реконструкции трехмерной сцены, по серии изображений под разными углами зрения в случае, когда элемент реконструированной сцены является жестким объектом. Хотя лишь с некоторым приближением можно считать форму лица человека неизменяемой, такой способ тоже представляет интерес. В типичных условиях камеру устанавливают неподвижно, лицо человека перемещается в пространстве в зоне контроля. В системе координат, связанной с лицом, лицо является неподвижным, а камера перемещается относительно предмета, поэтому задачу сводят к реконструкции трехмерной сцены несколькими камерами, взаимное расположение которых заранее неизвестно (см. Д. Форсайт, Ж. Понс, «Компьютерное зрение. Современный подход», Пер. с англ, М.: Издательский дом «Вильяме», 2004 г.). Данную задачу решают поиском сопряженных точек на разных проекциях изображения трехмерной сцены, которые соответствуют одинаковым точкам трехмерной сцены. Эти точки на разных проекциях связаны соотношением Лонгета-Хиггинса (см. Д. Форсайт, Ж. Понс, «Компьютерное зрение. Современный подход», Пер. с англ, М.: Издательский дом «Вильяме», 2004 г., стр. 312) через фундаментальную матрицу, которая содержит в себе информацию о взаимном положении камер. За исключением некоторых вырожденных случаев, которые в общем случае для рассматриваемого изобретения не представляют интереса, фундаментальная матрица может быть рассчитана из двумерных координат сопряженных точек. Факторизация фундаментальной матрицы приводит к матрицам калибровки внутренних и внешних параметров камеры в разных положениях относительно предмета трехмерной сцены. Такая процедура хорошо известна и реализована, например, в библиотеке компьютерного зрения OpenCV. После того, как матрицы калибровки определены для каждого положения камеры, реконструкцию всех точек сцены выполняют стандартными алгоритмами, основанными на триангуляции лучей, выходящих из сопряженных точек на разных проекциях.Another possible method is the well-known method of reconstructing a three-dimensional scene, according to a series of images from different angles of view in the case when the element of the reconstructed scene is a rigid object. Although only with a certain approximation can the human face shape be considered unchanged, this method is also of interest. In typical conditions, the camera is mounted motionless, a person’s face moves in space in the control zone. In the coordinate system associated with the face, the face is stationary, and the camera moves relative to the subject, so the task is reduced to reconstructing a three-dimensional scene with several cameras, the relative position of which is not known in advance (see D. Forsyth, J. Pons, “Computer Vision. A Modern Approach ", Translated from English, Moscow: Publishing House" William ", 2004). This problem is solved by searching for conjugate points on different projections of the image of the three-dimensional scene, which correspond to the same points of the three-dimensional scene. These points on different projections are connected by the Longet-Higgins relation (see D. Forsyth, J. Pons, “Computer Vision. A Modern Approach”, Translated from English, Moscow: Williams Publishing House, 2004, p. 312 ) through the fundamental matrix, which contains information about the relative position of the cameras. Except for some degenerate cases, which are generally not of interest to the invention in question, the fundamental matrix can be calculated from the two-dimensional coordinates of the conjugate points. Factorization of the fundamental matrix leads to calibration matrices for the internal and external parameters of the camera in different positions relative to the subject of the three-dimensional scene. Such a procedure is well known and implemented, for example, in the OpenCV computer vision library. After the calibration matrices are determined for each camera position, the reconstruction of all points in the scene is performed by standard algorithms based on the triangulation of rays emerging from conjugate points on different projections.
Указанный способ является прототипом настоящего изобретения.The specified method is a prototype of the present invention.
Недостатками известного способа являются высокая чувствительность погрешностей реконструкции к точности определения двумерных сопряженных точек, что приводит к искажению трехмерной реконструкции, а также сложность использования указанного способа, в применении к реконструкции формы лица человека, поскольку необходимо учитывать следующие факторы:The disadvantages of this method are the high sensitivity of reconstruction errors to the accuracy of determination of two-dimensional conjugate points, which leads to a distortion of three-dimensional reconstruction, as well as the difficulty of using this method, as applied to reconstruction of the shape of a person’s face, since the following factors must be taken into account:
1) трехмерная сцена должна быть сегментирована на лицо и задний план, так как реконструкция возможна лишь для жесткого тела, у которого относительные размеры не меняются, а когда человек перемещается в пространстве, то лицо человека и задний план не являются одновременно жестким телом;1) a three-dimensional scene should be segmented into a face and a background, since reconstruction is possible only for a rigid body, in which the relative dimensions do not change, and when a person moves in space, then the person’s face and background are not simultaneously a rigid body;
2) в типичных условиях эксплуатации камера видеонаблюдения охватывает большую площадь, и на изображении камеры лицо человека занимает небольшую площадь, при этом углы зрения на различные сопряженные точки, найденные на лице на разных кадрах, достаточно малы. Например, типичными условиями является распознавание лица, имеющего характерные размеры между точками лица порядка 10 см, как в глубину, так и в ширину, с расстояний до камеры несколько метров. В этом случае небольшие погрешности в определении координат сопряженных точек на разных кадрах приводят к большим погрешностям в определении положений камеры относительно лица в разные моменты времени, что вносит ошибку в точность трехмерной реконструкции;2) under typical operating conditions, the CCTV camera covers a large area, and in the image of the camera the person’s face occupies a small area, while the angles of view of the various conjugate points found on the face in different frames are quite small. For example, typical conditions are recognition of a face having characteristic dimensions between face points of the order of 10 cm, both in depth and in width, from a distance of several meters from the camera. In this case, small errors in determining the coordinates of the conjugate points on different frames lead to large errors in determining the positions of the camera relative to the face at different points in time, which introduces an error in the accuracy of three-dimensional reconstruction;
3) для использования указанного способа изображения лица должны быть получены на различных кадрах в различных положениях: чем больше расстояние между различными положениями лица, тем больше стереобаза и лучше точность триангуляции (см. Д. Форсайт, Ж. Понс, «Компьютерное зрение. Современный подход», Пер. с англ, М.: Издательский дом «Вильяме», 2004 г.), в то же время, чем больше перемещение лица, тем больше время между кадрами и больше вероятность того, что изображение лица будет получено с существенным изменением ракурса, причем изменение ракурса негативно влияет на точность вычисления координат антропометрических точек.3) to use this method, facial images must be obtained at different frames in different positions: the greater the distance between different positions of the face, the greater the stereo base and the better the accuracy of triangulation (see D. Forsyth, J. Pons, “Computer Vision. Modern Approach ”, Translated from English, M .: Publishing House“ Williams ”, 2004), at the same time, the greater the movement of the face, the longer the time between frames and the more likely that the image of the face will be obtained with a significant change in angle , and changing the angle negatively affects the accuracy of calculating the coordinates of anthropometric points.
Известен также способ, основанный на использовании метода Ransac (https://ru.wikipedia.org/wiki/RANSAC), в котором среди всех найденных сопряженных точек итеративно отбрасываются точки, вносящие наибольшую ошибку в результат. Однако даже использование указанного способа в случае недостаточно высокой точности определения большинства сопряженных точек, зачастую бывает недостаточным для получения качественной реконструированной трехмерного изображения формы лица.There is also a method based on the use of the Ransac method (https://ru.wikipedia.org/wiki/RANSAC), in which among all the found conjugate points iteratively discarded points that introduce the greatest error in the result. However, even the use of this method in the case of insufficiently high accuracy in determining most of the conjugate points is often insufficient to obtain a high-quality reconstructed three-dimensional image of the face shape.
РАСКРЫТИЕ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION
Задачей настоящего изобретения является создание способа получения качественной трехмерной модели лица человека, в целях повышения точности распознавания лиц на основе сравнения трехмерных форм лиц, позволяющего определить большое количество сопряженных точек на двумерном изображении лица, захваченного с помощью только одного источника, такого как видеокамера, фотокамера, последовательность кадров и т.п.The objective of the present invention is to provide a method for obtaining a high-quality three-dimensional model of a person’s face, in order to increase the accuracy of face recognition based on a comparison of three-dimensional face shapes, which allows to determine a large number of conjugate points in a two-dimensional image of a person captured using only one source, such as a video camera, camera, sequence of frames, etc.
Техническим результатом является повышение точности трехмерной реконструкции лица.The technical result is to increase the accuracy of three-dimensional face reconstruction.
Заявленный технический результат достигается за счет способа автоматического построения 3D модели лица человека, содержащего этапы, на которых:The claimed technical result is achieved due to the method of automatically building a 3D model of a person’s face, containing the stages in which:
- получают от источника данных, информацию содержащую, по меньшей мере, два 2D изображения первого вида, содержащие отображение лица человека;- receive from the data source information containing at least two 2D images of the first type containing a display of a person’s face;
- определяют область лица человека на каждом из упомянутых 2D изображений первого вида;- determine the area of the person’s face on each of the above-mentioned 2D images of the first type;
отличающегося тем, чтоcharacterized in that
- строят, по меньшей мере, одну промежуточную 3D модель области лица, на основании, по меньшей мере, одного упомянутого 2D изображения первого вида;- constructing at least one intermediate 3D model of the face region based on at least one of the aforementioned 2D images of the first kind;
- определяют ракурс лица человека на, по меньшей мере, одной промежуточной 3D модели;- determine the angle of a person’s face in at least one intermediate 3D model;
- изменяют ракурс области лица на упомянутой промежуточной 3D модели;- change the angle of the face on the said intermediate 3D model;
- преобразовывают полученную, по меньшей мере, одну 3D модель области лица в, по меньшей мере, одно 2D изображение второго вида;- convert the obtained at least one 3D model of the face into at least one 2D image of the second type;
- определяют область лица человека на, по меньшей мере, одном 2D изображении второго вида;- determine the region of the person’s face in at least one 2D image of the second type;
- определяют координаты сопряженных точек областей лица на, по меньшей мере, двух 2D изображениях, из которых, по меньшей мере, одно является 2D изображением второго вида;- determine the coordinates of the conjugate points of the areas of the face in at least two 2D images, of which at least one is a 2D image of the second type;
- осуществляют преобразование упомянутых координат сопряженных точек областей лица в двумерные координаты сопряженных точек областей лица на, по меньшей мере, одном 2D изображении первого вида;- carry out the conversion of the mentioned coordinates of the conjugate points of the regions of the face in two-dimensional coordinates of the conjugate points of the regions of the face in at least one 2D image of the first type;
- из полученных координат сопряженных точек вычисляют положение и матрицы калибровки источника на, по меньшей мере, одном 2D изображении первого вида области лица в трехмерной системе координат,- from the obtained coordinates of the conjugate points, the position and matrices of the source calibration are calculated on at least one 2D image of the first kind of the face region in a three-dimensional coordinate system,
и реконструируют двумерные координаты сопряженных точек областей лица на, по меньшей мере, одном 2D изображении первого вида в трехмерную модель лица с помощью упомянутых матриц.and reconstructing the two-dimensional coordinates of the conjugate points of the regions of the face in at least one 2D image of the first kind into a three-dimensional model of the face using the aforementioned matrices.
В частном варианте осуществления изобретения источником данных является видеокамера, или фотокамера, или стереокамера, или последовательность кадров.In a particular embodiment, the data source is a video camera, or a camera, or a stereo camera, or a frame sequence.
В частном варианте осуществления изобретения последовательность кадров представляет собой видеофайл.In a particular embodiment, the frame sequence is a video file.
В частном варианте осуществления изобретения выполняют поворот промежуточной 3D модели для изменения ракурса.In a particular embodiment, the intermediate 3D model is rotated to change the angle.
В частном варианте осуществления изобретения осуществляют определение координат антропометрических точек лица человека на, по меньшей мере, одном 2D изображении первого вида, которые используют для изменения ракурса 3D модели.In a private embodiment of the invention, the coordinates of the anthropometric points of a person’s face are determined on at least one 2D image of the first kind, which are used to change the angle of the 3D model.
В частном варианте осуществления изобретения промежуточная трехмерная модель является деформируемой трехмерной моделью лица, форму и ориентацию которой в трехмерном пространстве подбирают таким образом, чтобы антропометрические точки на трехмерной модели имели проекции на различные 2D изображения первого вида, максимально близкие к координатам двумерных антропометрических точек, определенных на этих 2D изображениях.In a private embodiment of the invention, the intermediate three-dimensional model is a deformable three-dimensional model of the face, the shape and orientation of which in three-dimensional space is selected so that the anthropometric points on the three-dimensional model have projections onto various 2D images of the first kind, as close as possible to the coordinates of two-dimensional anthropometric points defined on these 2D images.
В частном варианте осуществления изобретения координаты двумерных антропометрических точек определяют с помощью двумерного алгоритма поиска.In a particular embodiment, the coordinates of two-dimensional anthropometric points are determined using a two-dimensional search algorithm.
Так же, настоящее изобретение реализуется с помощью устройства и машиночитаемого носителя, которые будут раскрыты далее в настоящих материалах заявки.Also, the present invention is implemented using a device and a machine-readable medium, which will be disclosed further in the present application materials.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS
На Фиг. 1 изображена общая последовательность этапов способа автоматического построения 3D модели лица.In FIG. 1 shows the general sequence of steps of the method for automatically constructing a 3D model of a face.
На Фиг. 2-3 представлены изображения лица человека, снятые одной камерой под разными углами зрения.In FIG. 2-3 are images of a person’s face, shot with the same camera at different angles of view.
На Фиг. 4-8 изображена промежуточная трехмерная модель области лица.In FIG. 4-8 show an intermediate three-dimensional model of the face region.
На Фиг. 9-10 представлены выровненные по ракурсу изображения лица, на которых вычислены сопряженные точки.In FIG. Figures 9-10 show face-aligned images of the face on which the conjugate points are calculated.
На Фиг. 11-12 представлены сопряженные точки на исходных изображениях, вычисленные по координатам сопряженных точек, выровненных по ракурсу изображений лица.In FIG. Figures 11-12 show the conjugate points in the original images calculated by the coordinates of the conjugate points aligned with the angle of the face images.
На Фиг. 13-15 представлена трехмерная реконструкция видимой части лица.In FIG. 13-15 presents a three-dimensional reconstruction of the visible part of the face.
На Фиг. 16 представлен общий вид устройства, реализующего заявленный способ.In FIG. 16 shows a General view of a device that implements the claimed method.
ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION
Для устранения недостатков способа, описанного в прототипе, в настоящем изобретении предлагается использовать предварительное преобразование изображений лица человека, полученных из серии 2D изображений, или из последовательности кадров, например, видеозапись (видеофильм). В настоящем способе применяется метод изменения ракурса области лица человека на исходных изображениях, для чего осуществляется построение промежуточной трехмерной модели лица человека и ее последующее преобразование до необходимого ракурса.To eliminate the disadvantages of the method described in the prototype, the present invention proposes to use a preliminary conversion of images of a person’s face obtained from a series of 2D images, or from a sequence of frames, for example, video recording (video). In the present method, the method of changing the angle of the face of a person in the source images is used, for which purpose an intermediate three-dimensional model of the person’s face is built and its subsequent transformation to the required angle.
В этом случае поиск сопряженных точек осуществляют предварительно на выровненных по ракурсу изображениях лица на каждом из кадров 2D изображения. В данном способе важна обратимость и непрерывность функции преобразования по выравниванию ракурса. В случае использования трехмерной модели лица для ее поворота, можно указать взаимно однозначное обратимое соответствие между исходными точками на изображении лица на исходных кадрах и точками на выровненном изображении лица, при условии видимости указанных точек на изображениях. Обратимость и непрерывность выравнивания не является тривиальной в общем случае для произвольного способа выравнивания к нужному ракурсу.In this case, the search for conjugate points is carried out previously on the face-aligned face images in each of the frames of the 2D image. In this method, the reversibility and continuity of the transformation function for alignment of the angle is important. If you use a three-dimensional model of the face to rotate it, you can specify a one-to-one reversible correspondence between the source points on the face image on the source frames and the points on the aligned face image, provided that these points are visible on the images. Reversibility and continuity of alignment is not trivial in the general case for an arbitrary method of alignment to the desired angle.
Последнее обстоятельство означает, что сопряженные точки могут быть первоначально получены не на исходных изображениях, а на выровненных по ракурсу, и после этого пересчитаны достаточно точно на исходные изображения. Действительно, проективное преобразование и преобразование поворота и пространственного переноса системы координат трехмерной модели лица являются непрерывными функциями, поэтому справедливо соотношение:The latter circumstance means that the conjugate points can be initially obtained not from the original images, but from the aligned ones, and after that they are recounted quite accurately to the original images. Indeed, the projective transformation and the transformation of rotation and spatial transfer of the coordinate system of a three-dimensional face model are continuous functions, therefore, the relation is true:
lim(ε′)=0 при ε→0,lim (ε ′) = 0 as ε → 0,
где ε - погрешность определения сопряженной точки на выровненном изображении лица, ε′ - погрешность определения сопряженной точки на исходном изображении лица.where ε is the error in determining the conjugate point in the aligned face image, ε ′ is the error in determining the conjugate point in the original face image.
На Фиг. 1 приведена последовательность этапов заявленного способа (100) автоматического построения 3D модели лица, которые выполняются в предпочтительном варианте осуществления заявленного изобретения.In FIG. 1 shows the sequence of steps of the claimed method (100) for automatically constructing a 3D model of a face, which are performed in a preferred embodiment of the claimed invention.
На этапе (101) получают от источника данных информацию, содержащую, по меньшей мере, два 2D изображения первого вида, содержащие отображение лица человека. Исходные изображения - изображения первого вида, получают от источника данных, такого как: фотокамера, видеокамера, стереокамера или уже готовая последовательность кадров/изображений, например, видеофильм. На Фиг. 2-3 представлены полученные от источника данных снимки, представляющие собой 2D изображения, снятые одной камерой под разными углами зрения.At step (101), information is received from the data source containing at least two 2D images of the first kind containing a display of a person’s face. Original images - images of the first kind, are obtained from a data source, such as: a camera, video camera, stereo camera or an already prepared sequence of frames / images, for example, a video film. In FIG. 2-3, images obtained from a data source are represented, which are 2D images taken by a single camera at different angles of view.
Далее на этапе (102) определяют область лица человека на каждом из полученных от источника 2D изображений.Next, at step (102), a person’s face region is determined on each of the 2D images received from the source.
На этапе (103) выполняют построение, по меньшей мере, одной промежуточной 3D модели области лица человека, которая строится по исходным изображениям, причем упомянутая промежуточная модель может быть построена по, по меньшей мере, одному 2D изображению, полученному от источника. На Фиг. 4-8 показан процесс построения 3D модели области лица по исходным 2D изображениям. Полученная модель позволяет свободно оперировать ее положением в пространстве независимо от ракурса исходных 2D изображений.At step (103), at least one intermediate 3D model of the human face region is constructed, which is constructed from the original images, said intermediate model being constructed from at least one 2D image obtained from the source. In FIG. Figure 4-8 shows the process of constructing a 3D model of the face region from the original 2D images. The resulting model allows you to freely operate with its position in space, regardless of the angle of the original 2D images.
Затем на этапе (104) определяют ракурс лица человека на полученной промежуточной 3D модели, причем может использоваться как одна, так и множество промежуточных 3D моделей. Если ракурс упомянутой промежуточной 3D модели сильно отличается от ракурса области лица человека, то осуществляют его изменение на этапе (105), для чего выполняют поворот модели области лица до необходимого положения. На Фиг. 9-10 показаны выровненные по ракурсу исходные изображения с камеры с помощью трехмерной модели лица, и на них определены сопряженные точки.Then, at the stage (104), the angle of a person’s face is determined on the obtained intermediate 3D model, and one or many intermediate 3D models can be used. If the angle of the mentioned intermediate 3D model is very different from the angle of the face area of a person, then they are changed at step (105), for which they rotate the model of the face area to the required position. In FIG. 9-10, camera-aligned source images using a three-dimensional face model are shown, and conjugate points are determined on them.
На этапе (106) выполняют преобразование полученной, по меньшей мере, одной 3D модели области лица в, по меньшей мере, одно 2D изображение - изображение второго вида, которое будет иметь необходимый ракурс отображения области лица человека. Далее на этапе (107) определяют область лица человека на, по меньшей мере, одном 2D изображении второго вида и на этапе (108) определяют координаты сопряженных точек областей лица. Для этого используются, по меньшей мере, два 2D изображения, из которых, по меньшей мере, одно является 2D изображением второго вида. Ракурс необходимо изменить таким образом, чтобы получалась группа из, по меньшей мере, двух 2D изображений со схожими ракурсами, по которым можно с высокой степенью точности определить сопряженные точки, причем в упомянутую группу могут входить как только 2D изображения второго вида, так и одно 2D изображение первого вида и одно или более 2D изображений второго вида.At step (106), the obtained at least one 3D model of the face region is converted into at least one 2D image — a second view image that will have the necessary view of the display of the human face region. Next, at step (107), a person’s face region is determined in at least one 2D image of the second type, and at step (108), the coordinates of the conjugate points of the face regions are determined. For this, at least two 2D images are used, of which at least one is a 2D image of a second kind. The view must be changed so that a group of at least two 2D images with similar angles is obtained, from which you can determine the conjugate points with a high degree of accuracy, and this group can include only 2D images of the second type, or one 2D an image of a first view and one or more 2D images of a second view.
На этапе (109) осуществляют преобразование упомянутых координат сопряженных точек областей лица в двумерные координаты сопряженных точек областей лица на, по меньшей мере, одном 2D изображении первого вида, что показано на Фиг. 11-12. Затем на этапе (110) из полученных координат сопряженных точек вычисляют положение и матрицы калибровки источника на, по меньшей мере, одном 2D изображении первого вида области лица в трехмерной системе координат. На этапе (111) реконструируют двумерные координаты сопряженных точек областей лица на, по меньшей мере, одном 2D изображении первого вида в трехмерную модель лица с помощью упомянутых матриц. Результат построения модели, которая имеет правильные пропорции и глубину, показан на Фиг. 13-15.At step (109), said coordinates of the conjugate points of the face regions are converted into two-dimensional coordinates of the conjugate points of the face regions in at least one 2D image of the first kind, as shown in FIG. 11-12. Then, at step (110), from the obtained coordinates of the conjugate points, the position and matrices of the source calibration in the at least one 2D image of the first kind of the face region in the three-dimensional coordinate system are calculated. At step (111), the two-dimensional coordinates of the conjugate points of the face regions in the at least one 2D image of the first kind are reconstructed into a three-dimensional face model using the mentioned matrices. The result of constructing a model that has the correct proportions and depth is shown in FIG. 13-15.
В частном варианте осуществления заявленного изобретения для выполнения поворота 3D модели области лица осуществляют определение координат антропометрических точек лица человека на, по меньшей мере, одном 2D изображении первого вида, которые используют для осуществления упомянутого поворота 2D изображения первого вида. Промежуточная трехмерная модель лица может представлять деформируемую трехмерную модель, форму и ориентацию которой в трехмерном пространстве подбирают таким образом, чтобы антропометрические точки на трехмерной модели имели проекции на различные 2D изображения первого вида, максимально близкие к координатам двумерных антропометрических точек, определенных на этих 2D изображениях. Координаты двумерных антропометрических точек определяют с помощью двумерного алгоритма поиска, например, описанного в работе: Wibowo, Moh Edi & Tjondronegoro, Dian W., «Gradual training of cascaded shape regression for facial landmark localization and pose estimation», In International Conference on Multimedia and Expo 2013, 15-19 July 2013, San Jose, CA.In a particular embodiment of the claimed invention, in order to rotate a 3D model of a face region, the coordinates of the anthropometric points of a person’s face are determined on at least one 2D image of the first kind, which are used to perform the said rotation of the 2D image of the first kind. An intermediate three-dimensional model of a face can represent a deformable three-dimensional model, the shape and orientation of which in three-dimensional space is selected so that the anthropometric points on the three-dimensional model have projections onto various 2D images of the first kind, as close as possible to the coordinates of two-dimensional anthropometric points defined on these 2D images. The coordinates of two-dimensional anthropometric points are determined using a two-dimensional search algorithm, for example, described in: Wibowo, Moh Edi & Tjondronegoro, Dian W., “Gradual training of cascaded shape regression for facial landmark localization and pose estimation”, In International Conference on Multimedia and Expo 2013, July 15-19, 2013, San Jose, CA.
На Фиг. 16 представлен общий вид устройства (200) для автоматического построения 3D модели лица человека. Устройством (200) может являться различный вид программно-аппаратных комплексов, пригодных для осуществления задач автоматического построения 3D модели лица человека, содержащих средство обработки в виде одного или более процессоров (210) и память (220) для хранения машиночитаемых инструкций для автоматического построения 3D-модели лица человека, выполняемых, по меньшей мере, одним процессором (210), и при выполнении которых выполняются вышеуказанные шаги способа автоматического построения 3D модели лица человека, раскрытого в настоящих материалах заявки.In FIG. 16 shows a general view of a device (200) for automatically building a 3D model of a person’s face. The device (200) can be a different type of software and hardware systems suitable for the tasks of automatically building a 3D model of a person’s face, containing processing tools in the form of one or more processors (210) and memory (220) for storing machine-readable instructions for automatically building 3D- models of a person’s face performed by at least one processor (210), and when executed, the above steps are taken to automatically build a 3D model of a person’s face disclosed in these materials Lah application.
В качестве устройства (200) может использоваться, например, один или более стационарных и/или мобильных компьютеров, объединенных посредством сети передачи данных проводного и/или беспроводного типа, карманный компьютер (КПК), планшет, смартфон, фаблет, мейнфрейм и т.п. Память (220) в зависимости от типа устройства (200) может представлять собой, но не ограничиваться: оперативное запоминающее устройство (ОЗУ; RAM), постоянное запоминающее устройство (ПЗУ; ROM), кэш-память, флэш-память, жесткий диск, твердотельный накопитель или любой другой подходящий компонент памяти.As the device (200), for example, one or more stationary and / or mobile computers connected via a wired and / or wireless type data network, a handheld computer (PDA), tablet, smartphone, phablet, mainframe, etc., can be used . The memory (220) depending on the type of device (200) can be, but not limited to: random access memory (RAM; RAM), read-only memory (ROM; ROM), cache memory, flash memory, hard disk, solid state drive or any other suitable memory component.
Заявленное изобретение так же воплощено на машиночитаемом носителе данных, который содержит машиночитаемые инструкции для автоматического построения 3D модели лица человека, которые при их обработке одним или более процессором выполняют вышеуказанные шаги способа автоматического построения 3D модели лица человека. Носитель данных может быть пригодным для применения в вышеупомянутом устройстве автоматического построения 3D модели лица человека, и может представлять собой, но не ограничиваться: USB-флэш карту, SD-, Micro SD -, Mini SD-, XD-, MMC-карту памяти, CD-, DVD-, BlueRay-диск, HDD-, SSD - жесткий диск или любой другой пригодный носитель данных.The claimed invention is also embodied on a computer-readable storage medium that contains computer-readable instructions for automatically building a 3D model of a person’s face, which, when processed by one or more processors, perform the above steps of the method for automatically building a 3D model of a person’s face. The storage medium may be suitable for use in the aforementioned device for automatically constructing a 3D model of a person’s face, and may be, but not limited to: a USB flash drive, SD-, Micro SD-, Mini SD-, XD-, MMC memory card, CD-, DVD-, BlueRay-disk, HDD-, SSD - hard disk or any other suitable storage medium.
Изложенные в настоящих материалах заявки сведения об осуществлении заявленного изобретения не должны трактоваться как сведения, ограничивающие иные, частные варианты осуществления заявленного изобретения, не выходящие за пределы раскрытия информации заявки, и которые должны являться очевидными для специалиста в данной области техники, имеющего обычную квалификацию, на которых рассчитано заявленное техническое решение.The information on the implementation of the claimed invention set forth in these materials of the application should not be interpreted as limiting other, private embodiments of the claimed invention that do not go beyond the disclosure of information of the application, and which should be obvious to a person skilled in the art having the usual qualifications, which calculated the claimed technical solution.
Предложенный способ рекомендован к использованию в аэропортах, вокзалах, метрополитене для использования в системах идентификации личностей, статистического анализа, контроля попыток безбилетного прохождения турникетов, в правоохранительных органах для поиска правонарушителей в потоке людей, для идентификации пользователей компьютера, а также для идентификации личностей на предприятиях с пропускным режимом.The proposed method is recommended for use at airports, train stations, and the subway for use in personal identification systems, statistical analysis, control of ticketless passage of turnstiles, in law enforcement agencies to search for offenders in the flow of people, to identify computer users, and also to identify individuals in enterprises with bandwidth mode.
Claims (9)
- получают от источника данных информацию, содержащую по меньшей мере два 2D изображения первого вида, содержащие отображение лица человека;
- определяют область лица человека на каждом из упомянутых 2D изображений первого вида;
отличающийся тем, что
- строят по меньшей мере одну промежуточную 3D модель области лица на основании по меньшей мере одного упомянутого 2D изображения первого вида;
- определяют ракурс лица человека на по меньшей мере одной промежуточной 3D модели;
- изменяют ракурс области лица на упомянутой промежуточной 3D модели;
- преобразовывают полученную по меньшей мере одну 3D модель области лица в по меньшей мере одно 2D изображение второго вида;
- определяют область лица человека на по меньшей мере одном 2D изображении второго вида;
- определяют координаты сопряженных точек областей лица на по меньшей мере двух 2D изображениях, из которых по меньшей мере одно является 2D изображением второго вида;
- осуществляют преобразование упомянутых координат сопряженных точек областей лица в двумерные координаты сопряженных точек областей лица на по меньшей мере одном 2D изображении первого вида;
- из полученных координат сопряженных точек вычисляют положение и матрицы калибровки источника на по меньшей мере одном 2D изображении первого вида области лица в трехмерной системе координат
и реконструируют двумерные координаты сопряженных точек областей лица на по меньшей мере одном 2D изображении первого вида в трехмерную модель лица с помощью упомянутых матриц.1. A method for automatically building a 3D model of a person’s face, comprising the steps of:
- receive from the data source information containing at least two 2D images of the first type containing a display of a person's face;
- determine the area of the person’s face on each of the above-mentioned 2D images of the first type;
characterized in that
- constructing at least one intermediate 3D model of the face region based on at least one of the aforementioned 2D images of the first kind;
- determine the angle of a person’s face in at least one intermediate 3D model;
- change the angle of the face on the said intermediate 3D model;
- convert the obtained at least one 3D model of the face into at least one 2D image of the second type;
- determine the area of the person’s face in at least one 2D image of the second type;
- determine the coordinates of the conjugate points of the areas of the face in at least two 2D images, of which at least one is a 2D image of the second type;
- carry out the conversion of the mentioned coordinates of the conjugate points of the regions of the face into two-dimensional coordinates of the conjugate points of the regions of the face in at least one 2D image of the first type;
- from the obtained coordinates of the conjugate points, the position and matrices of the source calibration in the at least one 2D image of the first kind of the face region in the three-dimensional coordinate system are calculated
and reconstructing the two-dimensional coordinates of the conjugate points of the regions of the face in at least one 2D image of the first kind into a three-dimensional model of the face using the aforementioned matrices.
- один или более процессоров;
- память для хранения машиночитаемых инструкций;
причем упомянутые инструкции при их выполнении по меньшей мере одним процессором реализуют способ по любому из пп. 1-7.8. A device for automatically building a 3D model of a person’s face, comprising:
- one or more processors;
- memory for storing machine-readable instructions;
wherein said instructions, when executed by at least one processor, implement the method according to any one of claims. 1-7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2015101771/08A RU2582852C1 (en) | 2015-01-21 | 2015-01-21 | Automatic construction of 3d model of face based on series of 2d images or movie |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2015101771/08A RU2582852C1 (en) | 2015-01-21 | 2015-01-21 | Automatic construction of 3d model of face based on series of 2d images or movie |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2582852C1 true RU2582852C1 (en) | 2016-04-27 |
Family
ID=55794717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2015101771/08A RU2582852C1 (en) | 2015-01-21 | 2015-01-21 | Automatic construction of 3d model of face based on series of 2d images or movie |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2582852C1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2671990C1 (en) * | 2017-11-14 | 2018-11-08 | Евгений Борисович Югай | Method of displaying three-dimensional face of the object and device for it |
CN110084884A (en) * | 2019-04-28 | 2019-08-02 | 叠境数字科技(上海)有限公司 | A kind of manikin facial area method for reconstructing |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6002782A (en) * | 1997-11-12 | 1999-12-14 | Unisys Corporation | System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model |
RU2295152C1 (en) * | 2005-09-15 | 2007-03-10 | Роман Павлович Худеев | Method for recognizing face of an individual on basis of video image |
US20070080967A1 (en) * | 2005-10-11 | 2007-04-12 | Animetrics Inc. | Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects |
US7643685B2 (en) * | 2003-03-06 | 2010-01-05 | Animetrics Inc. | Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery |
RU2431190C2 (en) * | 2009-06-22 | 2011-10-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Facial prominence recognition method and device |
RU2523178C2 (en) * | 2009-02-19 | 2014-07-20 | Панасоник Корпорэйшн | Recording medium, playback device and integrated circuit |
RU2524834C2 (en) * | 2009-10-14 | 2014-08-10 | Нокиа Корпорейшн | Autostereoscopic rendering and display apparatus |
-
2015
- 2015-01-21 RU RU2015101771/08A patent/RU2582852C1/en active IP Right Revival
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6002782A (en) * | 1997-11-12 | 1999-12-14 | Unisys Corporation | System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model |
US7643685B2 (en) * | 2003-03-06 | 2010-01-05 | Animetrics Inc. | Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery |
US7643683B2 (en) * | 2003-03-06 | 2010-01-05 | Animetrics Inc. | Generation of image database for multifeatured objects |
US7853085B2 (en) * | 2003-03-06 | 2010-12-14 | Animetrics, Inc. | Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery |
RU2295152C1 (en) * | 2005-09-15 | 2007-03-10 | Роман Павлович Худеев | Method for recognizing face of an individual on basis of video image |
US20070080967A1 (en) * | 2005-10-11 | 2007-04-12 | Animetrics Inc. | Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects |
RU2523178C2 (en) * | 2009-02-19 | 2014-07-20 | Панасоник Корпорэйшн | Recording medium, playback device and integrated circuit |
RU2431190C2 (en) * | 2009-06-22 | 2011-10-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Facial prominence recognition method and device |
RU2524834C2 (en) * | 2009-10-14 | 2014-08-10 | Нокиа Корпорейшн | Autostereoscopic rendering and display apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2671990C1 (en) * | 2017-11-14 | 2018-11-08 | Евгений Борисович Югай | Method of displaying three-dimensional face of the object and device for it |
CN110084884A (en) * | 2019-04-28 | 2019-08-02 | 叠境数字科技(上海)有限公司 | A kind of manikin facial area method for reconstructing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830141B2 (en) | Systems and methods for 3D facial modeling | |
CN107852533B (en) | Three-dimensional content generation device and three-dimensional content generation method thereof | |
KR100714724B1 (en) | Apparatus and method for estimating facial pose, and face recognition system by the method | |
CN110738595B (en) | Picture processing method, device and equipment and computer storage medium | |
US11915514B2 (en) | Method and apparatus for detecting facial key points, computer device, and storage medium | |
Labati et al. | Toward unconstrained fingerprint recognition: A fully touchless 3-D system based on two views on the move | |
US11210804B2 (en) | Methods, devices and computer program products for global bundle adjustment of 3D images | |
WO2020151750A1 (en) | Image processing method and device | |
CN109766876B (en) | Non-contact fingerprint acquisition device and method | |
JP6862584B2 (en) | Image processing system and image processing method | |
CN111091075B (en) | Face recognition method and device, electronic equipment and storage medium | |
TW202026948A (en) | Methods and devices for biological testing and storage medium thereof | |
CN112036339B (en) | Face detection method and device and electronic equipment | |
US9224036B2 (en) | Generating static scenes | |
US11403781B2 (en) | Methods and systems for intra-capture camera calibration | |
WO2021098545A1 (en) | Pose determination method, apparatus, and device, storage medium, chip and product | |
CN110647782A (en) | Three-dimensional face reconstruction and multi-pose face recognition method and device | |
CN116051736A (en) | Three-dimensional reconstruction method, device, edge equipment and storage medium | |
RU2582852C1 (en) | Automatic construction of 3d model of face based on series of 2d images or movie | |
CN109087240B (en) | Image processing method, image processing apparatus, and storage medium | |
US11734948B2 (en) | Device and method for contactless fingerprint acquisition | |
WO2021035674A1 (en) | Image generating method and apparatus, movable platform, and storage medium | |
CN113034345B (en) | Face recognition method and system based on SFM reconstruction | |
Qiu et al. | Crowd counting and density estimation via two-column convolutional neural network | |
Gorbatsevich et al. | Face pose recognition based on monocular digital imagery and stereo-based estimation of its precision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20180122 |
|
NF4A | Reinstatement of patent |
Effective date: 20181211 |
|
QB4A | Licence on use of patent |
Free format text: LICENCE FORMERLY AGREED ON 20190813 Effective date: 20190813 |
|
PC41 | Official registration of the transfer of exclusive right |
Effective date: 20190814 |
|
PC41 | Official registration of the transfer of exclusive right |
Effective date: 20200605 |