RU2004126185A - Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения - Google Patents

Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения Download PDF

Info

Publication number
RU2004126185A
RU2004126185A RU2004126185/09A RU2004126185A RU2004126185A RU 2004126185 A RU2004126185 A RU 2004126185A RU 2004126185/09 A RU2004126185/09 A RU 2004126185/09A RU 2004126185 A RU2004126185 A RU 2004126185A RU 2004126185 A RU2004126185 A RU 2004126185A
Authority
RU
Russia
Prior art keywords
image
contour
profile
pixels
detection unit
Prior art date
Application number
RU2004126185/09A
Other languages
English (en)
Other versions
RU2358319C2 (ru
Inventor
Ин-киу ПАРК (KR)
Ин-киу ПАРК
Хеуй-кеун ЧОХ (KR)
Хеуй-кеун ЧОХ
Владимир ВЕЖНЕВЕЦ (KR)
Владимир ВЕЖНЕВЕЦ
Хой ЧЖАН (KR)
Хой Чжан
Original Assignee
Самсунг Электроникс Ко.,Лтд (Kr)
Самсунг Электроникс Ко.,Лтд
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020040064323A external-priority patent/KR100682889B1/ko
Application filed by Самсунг Электроникс Ко.,Лтд (Kr), Самсунг Электроникс Ко.,Лтд filed Critical Самсунг Электроникс Ко.,Лтд (Kr)
Publication of RU2004126185A publication Critical patent/RU2004126185A/ru
Application granted granted Critical
Publication of RU2358319C2 publication Critical patent/RU2358319C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Claims (56)

1. Способ создания трехмерной фотореалистической модели головы, заключающийся в том, что
(a) обнаруживают фронтальные и профильные особенности во вводимых фронтальном и профильном изображениях,
(b) генерируют трехмерную модель головы путем подгонки трехмерной универсальной модели, используя обнаруженные особенности лица,
(c) генерируют реалистическую текстуру из вводимых фронтального и профильного изображений, и
(d) отображают текстуру на трехмерную модель головы.
2. Способ по п.1, отличающийся тем, что на этапе (b) генерации трехмерной модели головы дополнительно генерируют информацию глубины из фронтального изображения и почти фронтального изображения, выполняют подгонку универсальной модели, используя особенности лица, для определения трехмерной формы конкретного лица, и генерируют подогнанную трехмерную модель головы, используя информацию глубины.
3. Способ по п.1, отличающийся тем, что на этапе (c) дополнительно смешивают с искусственной текстурой.
4. Способ по п.1, отличающийся тем, что на этапе (a) обнаружения фронтальных особенностей обнаруживают область кожи, обнаруживают область лица, обнаруживают ограничивающие глаза рамки, обнаруживают радужные оболочки и нормализуют фронтальное изображение.
5. Способ по п.1, отличающийся тем, что этап (a) обнаружения фронтальных особенностей содержит по меньшей мере один из этапов: обнаруживают контуры глаз, обнаруживают брови, обнаруживают контур губ, обнаруживают контур носа и обнаруживают контур подбородка и щек.
6. Способ по п.4, отличающийся тем, что этап обнаружения области кожи выполняют, используя предварительно обученный байесовский классификатор максимальной вероятности, который классифицирует пиксели изображения на пиксели кожи и пиксели "не-кожи" в нормализованном r-g хроматическом цветовом пространстве.
7. Способ по п.6, отличающийся тем, что на этапе обнаружения области лица
(i) инициализируют наибольший связанный компонент цвета кожи, как область лица,
(ii) инициализируют и расширяют эллипс, перемещая граничные точки эллипса на основе инициализированной области лица, до тех пор, пока эллипс не будет устойчивым,
(iii) определяют рамку, ограничивающую устойчивый эллипс, как область лица.
8. Способ по п.7, отличающийся тем, что при существовании двух наибольших связанных компонентов, имеющих подобные размеры на этапе (i) выбирают один из двух наибольших связанные компонентов, который расположен ближе к центру изображения, как область лица.
9. Способ по п.7, отличающийся тем, что на этапе (ii) инициализации и расширения эллипса определяют прямоугольный образец, центрированный на граничной точке эллипса на основе инициализированной области лица, вычисляют количество пикселей кожи, которые лежат и в данном образце, и в эллипсе, перемещают граничные точки эллипса на предварительно определенное расстояние внутрь, если расчетное количество пикселей кожи меньше предварительно определенного порога, вычисляют количество пикселей кожи, которые лежат внутри данного образца и снаружи эллипса, если расчетное количество пикселей кожи не меньше предварительно определенного порогового значения, и перемещают граничную точку эллипса на предварительно определенное расстояние наружу, если расчетное количество пикселей кожи, которые лежат внутри данного образца и вне эллипса, больше предварительно определенного порога.
10. Способ по п.6, отличающийся тем, что на этапе обнаружения ограничивающих глаза рамок генерируют размытое изображение с помощью фильтрации нижних частот, получают изображение, вычитая размытое изображение из исходного изображения, генерируют новое изображение, вычисляя среднее значение каждого пикселя и соседних с ним пикселей полученном изображении, и преобразуют новое изображение в двоичную форму, используя предварительно определенное пороговое значение, обнаруживают связанные сегменты, как глаза-кандидаты, и определяют ограничивающие глаза рамки, оценивая глаза-кандидаты на основе формы, размера и относительного расположения.
11. Способ по п.4, отличающийся тем, что на этапе обнаружения радужных оболочек обнаруживают радужные оболочки в пределах ограничивающих глаза рамок изображения красного канала.
12. Способ по п.11, отличающийся тем, что дополнительно обнаруживают центры и радиусы радужных оболочек, причем на этапе обнаружения центров и радиусов радужных оболочек сравнивают с пороговым значением количество пикселей, имеющих максимальные значения яркости в каждой ограничивающей глаза рамке изображения красного канала, для определения, существует ли блик, инициализируют центр масс самых темных пикселей, как центр радужной оболочки, если блик не найден, инициализируют центр области с высокой контрастностью около блика, как центр радужной оболочки, если блик существует, расширяют начальный круг в центре радужной оболочки и измеряют градиенты пикселей по кругу, и расширяют начальный круг в центре радужной оболочки и неоднократно измеряют градиенты пикселей по кругу, и выбирают область, имеющую наибольший градиент, как центр радужной оболочки и определяют радиус радужной оболочки.
13. Способ по п.4, отличающийся тем, что на этапе нормализации фронтального изображения вращают фронтальное изображение так, чтобы линия между центрами радужных оболочек была горизонтальной, и масштабируют фронтальное изображение к предварительно определенному разрешению.
14. Способ по п.5, отличающийся тем, что на этапе обнаружения контуров глаз аппроксимируют контуры глаз, используя два полинома для верхнего и нижнего контуров глаза, причем на этапе аппроксимации контура глаза предварительно определяют область поиска в соответствии с центром и радиусом радужной оболочки, выбирают пиксели на каждой горизонтальной линии сканирования на изображении красного канала в области поиска, в которых существуют локальные минимумы или яркость резко изменяется, как левую и правую точки века, выбирают крайнюю левую точку и крайнюю правую точки среди оставшихся точек века, как углы глаза, оценивают кривую верхнего века, используя точки на линии, соединяющей углы глаза способом минимальных квадратов, и оценивают кривую нижнего века, используя выбранные углы глаза и нижнюю точку радужной оболочки.
15. Способ по п.5, отличающийся тем, что на этапе обнаружения бровей аппроксимируют брови, используя полином, который соответствует темным пикселям в предварительно определенной области выше ограничивающих глаза рамок после адаптивной бинаризации.
16. Способ по п.5, отличающийся тем, что на этапе обнаружения контура губ обнаруживают верхнюю и нижнюю губы, причем на этапе обнаружения верхней и нижней губ инициализируют прямоугольник рта, уточняют прямоугольник рта так, чтобы он был меньше, анализируя моменты первого и второго порядка для пикселей цвета "не кожи", генерируют изображение функции губ и вычисляют вероятность того, что каждый пиксель в уточненном прямоугольнике рта принадлежит губам или коже, инициализируют контур губ с помощью эллипса, измеряя центральные моменты второго порядка для пикселей, имеющих большие значения функции губ, динамически перемещают контур губ с помощью направленных внутрь и наружу сил, и с помощью аппроксимации генерируют полином, выражающий контур губ, используя точки перемещенного контура.
17. Способ по п.16, отличающийся тем, что направленная наружу сила является силой, перемещающей точки контура к границе между губами и кожей, а внутренняя сила состоит из внутренней силы формирования, которая формирует контур, чтобы он был эллиптическим, и внутренней силы сглаживания, которую определяют с помощью предварительно определенных факторов, которые включают в себя силу, предотвращающую перемещение точек контура за границу.
18. Способ по п.5, отличающийся тем, что на этапе обнаружения контура носа обнаруживают боковые стороны носа, причем при обнаружении боковых сторон носа выполняют сравнение изображения краев в предварительно определенной области поиска с шаблоном, имеющем предварительно определенную форму, выбирают среди обнаруженных кандидатов, имеющих большие значения соответствий, пару кандидатов, которые удовлетворяют требованию симметрии, и определяют выбранные пары кандидатов, как позиции крыльев носа, и выражают каждую из боковых сторон носа, используя полином, который подгоняют к обнаруженным шаблонам крыльев носа и трем точкам, интерполированным между крылом носа и углами глаза с предварительно определенными коэффициентами.
19. Способ по п.5, отличающийся тем, что на этапе обнаружения контура подбородка и щек вычисляют поля векторов градиента на изображении красного канала, устанавливают начальный шаблон контура в области лица, определенной двумя полиноминальными кривыми, пересекающимися в точке подбородка, расширяют контур подбородка и щек наружу до тех пор, пока контур подбородка и щек не достигнет сильных краев по касательным к кривым, и останавливают расширение контура подбородка и щек, когда контур подбородка и щек достигнет сильных краев по касательным к кривым.
20. Способ по п.1, отличающийся тем, что на этапе (a) обнаружения особенностей профиля обнаруживают область профиля, обнаруживают кривую профиля, обнаруживают опорные точки, и обнаруживают контур уха.
21. Способ по п.20, отличающийся тем, что на этапе обнаружения области профиля классифицируют пиксели на пиксели цвета кожи и пиксели цвета "не кожи", и выбирают наибольший связанный компонент цвета кожи, как область профиля.
22. Способ по п.21, отличающийся тем, что при существовании двух наибольших связанных компонентов, имеющих подобные размеры, один из двух наибольших связанных компонентов, который расположен ближе к центру изображения, выбирают в качестве области профиля.
23. Способ по п.20, отличающийся тем, что на этапе обнаружения кривой профиля обнаруживают правую границу области лица в указанной пользователем ограничивающей рамке, определенной из фронтального изображения, как кривую профиля.
24. Способ по п.20, отличающийся тем, что на этапе обнаружения контура уха инициализируют позицию уха, сравнивая шаблон кривой с изображением профиля, и обнаруживают более точную границу уха, изменяя форму инициализированного шаблона уха, используя алгоритм отслеживания контура.
25. Способ по п.24, отличающийся тем, что на этапе инициализации позиции уха вращают оригинал изображения так, чтобы сегмент между вершиной переносицы носа и точкой подбородка стал вертикальным, и масштабируют длину сегмента к предварительно определенному значению, определяют область поиска уха, сравнивают границу между областью профиля и областью волос с шаблоном кривой для нахождения из двух кривых, соответствующих подсегментов, имеющих подобную форму, обнаруживают сегменты, имеющие подобную форму, с помощью сравнения края, обнаруженного с использованием детектора края, и шаблона уха, если длина сравниваемых сегментов меньше предварительно определенного порогового значения, и вычисляют вектор сдвига подсегментов шаблона к точкам совпавшего изображения с помощью алгоритма наименьших квадратов.
26. Способ по п.2, отличающийся тем, что на этапе генерации информации глубины из фронтального и почти фронтального изображений определяют характерные точки на фронтальном изображении, выполняют основанное на модели Lucas-Kanade отслеживание характерных точек для поиска соответствующих точек на почти фронтальном изображении, получают плотную карту различий с помощью интерполяции данных, используя сравнение соответствий, и преобразуют карту различий в информацию глубины.
27. Способ по п.26, отличающийся тем, что на этапе преобразования карты различий в информацию глубины получают разностное значение между максимальным и минимальным значениями различий, определяют коэффициент с помощью деления разностного значения на ширину головы и умножения полученного результата на предварительно определенную константу, и получают значения глубины пикселя, умножая коэффициент на значение, полученное вычитанием минимального значения различия из измеренного значения различия.
28. Способ по п.1, отличающийся тем, что на этапе подгонки универсальной модели на этапе (b) преобразуют кривые особенностей, обнаруженных на изображениях, в двумерные точки, соответствующие особенностям, определенным в трехмерной универсальной модели, используя соотношения длин для характерных точек на кривой лицевых особенностей трехмерной универсальной модели, и выполняют подгонку трехмерной универсальной модели с помощью 3-этапной трансформации на основе функции с радиальным смещением (RBF) на основе соответствий между особенностями изображений и характерными точками трехмерной универсальной модели.
29. Способ по п.28, отличающийся тем, что при основанной на RBF 3-этапной трансформации устанавливают координаты X и Y перемещенных ключевых точек модели в соответствующие характерные точки изображения, и оставляют координату Z такой же, как в трехмерной универсальной модели, для выполнения RBF интерполяции по фронтальным особенностям, корректируют масштаб изображения профиля с учетом особенностей профиля и используют масштабированные особенности профиля, как входную информацию для RBF интерполяции при сдерживании их координат X, чтобы они остались в их позициях в универсальной модели, и выполняют RBF интерполяцию и по фронтальным, и по профильным особенностям, используя координаты Z, полученные на предыдущем этапе.
30. Способ по п.29, отличающийся тем, что основанную на RBF 3-этапную трансформацию выполняют так, чтобы вершины универсальной полигональной модели перемещались к соответствующим трехмерным точкам, полученным в процессе восстановления информации глубины.
31. Способ по п.1, отличающийся тем, что на этапе (c) генерации реалистической текстуры выполняют коррекцию цвета в вводимых изображениях для компенсации различных условий освещения или различий цветового баланса между камерами, генерируют фронтальную и профильную текстуры путем отображения фронтального и профильного изображений на общую плоскость UV на основе соответствия между вершинами трехмерной модели и проецируемыми двумерными позициями, и объединяют фронтальную и профильную текстуры и искусственную текстуру, используя сплайновый алгоритм в разных разрешениях для завершения текстурирования.
32. Устройство для создания трехмерной фотореалистической модели головы, содержащее блок обнаружения особенностей лица, который обнаруживает фронтальные и профильные особенности во вводимых фронтальном и профильном изображениях, блок подгонки модели лица, который генерирует трехмерную модель головы путем подгонки трехмерной универсальной модели, используя обнаруженные особенности лица, блок генерации текстуры, который генерирует реалистическую текстуру из вводимых фронтального и профильного изображений, и блок отображения, который отображает текстуру на трехмерную модель головы, сгенерированную в блоке подгонки модели лица.
33. Устройство по п.32, отличающееся тем, что блок подгонки модели лица содержит узел генерации информации глубины, который извлекает информацию глубины из фронтального изображения и почти фронтального изображения и генерирует трехмерную модель головы с помощью выполнения подгонки универсальной модели, используя особенности лица, обнаруженные в блока обнаружения особенностей лица, и информацию глубины, сгенерированную в узле генерации информации глубины.
34. Устройство по п.32, отличающееся тем, что блок генерации текстуры смешивает реалистическую текстуру и искусственную текстуру.
35. Устройство по п.32, отличающееся тем, что блок обнаружения особенностей лица содержит узел обнаружения фронтальных особенностей, который обнаруживает фронтальные особенности, и узел обнаружения особенностей профиля, который обнаруживает особенности профиля.
36. Устройство по п.35, отличающееся тем, что узел обнаружения фронтальных особенностей содержит узел обнаружения области кожи, который обнаруживает область кожи, узел обнаружения области лица, который обнаруживает область лица, узел обнаружения ограничивающих глаза рамок, который обнаруживает ограничивающие глаза рамки, узел обнаружения радужной оболочки, который обнаруживает радужные оболочки, и узел нормализации фронтального изображения, который нормализует фронтальное изображение.
37. Устройство по п.36, отличающееся тем, что узел обнаружения области кожи обнаруживает область кожи, используя предварительно обученный байесовский классификатор максимальной вероятности, который классифицирует пиксели изображения на пиксели кожи и пиксели "не-кожи" в нормализованном r-g хроматическом цветовом пространстве.
38. Устройство по п.36, отличающееся тем, что блок обнаружения области лица содержит узел инициализации области лица, который инициализирует наибольший связанный компонент цвета кожи, как область лица, узел стабилизации эллипса, который инициализирует и расширяет эллипс с помощью перемещения граничных точек эллипса на основе инициализированной области лица до тех пор, пока эллипс не будет устойчивым, и узел определения области лица, который определяет ограничивающую устойчивый эллипс рамку, как область лица.
39. Устройство по п.36, отличающееся тем, что узел обнаружения ограничивающих глаза рамок содержит узел генерации размытого изображения, который генерирует размытое изображение с помощью фильтрации нижних частот, узел бинаризации изображения, который генерирует новое изображение путем вычисления среднего значения каждого пикселя и соседних с ним пикселей на изображении, полученном путем вычитания размытого изображения из исходного изображения и преобразования в двоичную форму нового изображения, используя предварительно определенное пороговое значение, узел поиска глаз-кандидатов, который находит связанные сегменты в преобразованном в двоичную форму изображении в узле бинаризации изображения, как глаза-кандидаты, и узел определения ограничивающих глаза рамок, который определяет ограничивающие глаза рамки, оценивая глаза-кандидаты на основе формы, размера и относительного расположения.
40. Устройство по п.36, отличающееся тем, что узел обнаружения радужной оболочки обнаруживает радужные оболочки в пределах ограничивающей глаза рамки на изображении красного канала.
41. Устройство по п.40, отличающееся тем, что узел обнаружения радужной оболочки содержит узел поиска блика, который определяет, существует ли блик, сравнивая количество пикселей, имеющих максимальные значения яркости в каждой ограничивающей глаза рамке изображения красного канала, с пороговым значением, узел инициализации центра радужной оболочки, который инициализирует центр массы самых темных пикселей, как центр радужной оболочки, если блик не найден, и инициализируют центр области с высокой контрастностью около блика, как центр радужной оболочки, если блик существует, узел измерения центра/радиуса радужной оболочки, который неоднократно измеряет градиенты пикселей по начальному кругу в центре радужной оболочки при расширении начального круга, и узел определения радужной оболочки, который определяет область, имеющую наибольший градиент, как центр радужной оболочки, и определяет радиус радужной оболочки.
42. Устройство по п.36, отличающееся тем, что узел нормализации фронтального изображения нормализует фронтальное изображение с путем вращения фронтального изображения так, чтобы линия между центрами радужных оболочек стала горизонтальной, и масштабирования фронтального изображения к предварительно определенному разрешению.
43. Устройство по п.35, отличающееся тем, что узел обнаружения фронтальных особенностей дополнительно содержит по меньшей мере один из узлов: узел обнаружения контура глаз, узел обнаружения бровей, узел обнаружения контура губ, узел обнаружения контура носа и узел обнаружения контура подбородка и щек.
44. Устройство по п.43, отличающееся тем, что узел обнаружения контура глаз аппроксимирует контуры глаз, используя два полинома для верхнего и нижнего контуров глаза, причем аппроксимация контуров глаза включает в себя предварительное определение области поиска в соответствии с центром и радиусом радужной оболочки, выбор пикселей на каждой горизонтальной линии сканирования на изображении в красном канале в области поиска, в которых существуют локальные минимумы или яркость резко изменяется, как левой и правой точек века, выбор крайних левой и правой точек среди оставшихся точек века, как углов глаза, оценку верхней кривой века при использовании точек на линии, соединяющей углы глаза, с помощью способа минимальных квадратов, и оценку нижней кривой века при использовании выбранных углов глаза и нижней точки радужной оболочки.
45. Устройство по п.43, отличающееся тем, что узел обнаружения бровей обнаруживает брови с помощью аппроксимации, используя полином, который соответствует темным пикселям в предварительно определенной области, расположенной выше ограничивающих глаза рамок, после адаптивной бинаризации.
46. Устройство по п.43, отличающееся тем, что узел обнаружения контура губ ищет верхнюю и нижнюю губы, причем обнаружение верхней и нижней губ включает в себя инициализацию прямоугольника рта, уточнение прямоугольника рта для того, чтобы он был меньше, путем анализа моментов первого и второго порядка для пикселей цвета "не-кожи", генерирование изображения функции губ и вычисление вероятности того, что каждый пиксель в уточненном прямоугольнике рта принадлежит губам или коже, инициализацию контура губ с помощью эллипса путем измерения центральных моментов второго порядка для пикселей, имеющих большие значения функции губ, динамическое перемещение контура губ с помощью направленных внутрь и наружу сил, и генерирование полинома, выражающего контур губ путем аппроксимации с использованием точек перемещенного контура.
47. Устройство по п.43, отличающееся тем, что узел обнаружения контура носа обнаруживает боковые стороны носа, причем обнаружение боковых сторон носа включает в себя выполнение сравнения изображения краев в предварительно определенной области поиска с шаблоном, имеющим предварительно определенную форму, выбор среди обнаруженных кандидатов, имеющих большие значения соответствия, пары кандидатов, которые удовлетворяют требованию симметрии, и определение выбранной пары кандидатов, как позиции крыльев носа, и выражение каждой из боковых сторон носа при использовании полинома, который подгоняют к обнаруженным шаблонам крыльев носа и трем точкам, интерполированным между крылом носа и углами глаза с предварительно определенными коэффициентами.
48. Устройство по п.43, отличающееся тем, что узел обнаружения контура подбородка и щек содержит узел вычисления градиента, который вычисляет поле векторов градиента на изображении в красном канале, узел расширения контура подбородка и щек, который определяет положение начального шаблона контура в области лица, определенной двумя полиноминальными кривыми, пересекающимися в точке подбородка, и расширяет контур подбородка и щек наружу до тех пор, пока контур подбородка и щек не достигнет сильных краев по касательным к кривым, и узел определения контура подбородка и щек, который прекращает расширение контура подбородка и щек, когда контур подбородка и щек достиг сильных краев по касательным к кривым.
49. Устройство по п.35, отличающееся тем, что узел обнаружения особенностей профиля содержит узел обнаружения области профиля, узел обнаружения кривой профиля, узел обнаружения опорных точек и узел обнаружения контура уха.
50. Устройство по п.49, отличающееся тем, что узел обнаружения области профиля обнаруживает область профиля путем классификации пикселей на пиксели цвета кожи и пиксели цвета "не-кожи", и выбора наибольшего связанного компонента цвета кожи, как области профиля.
51. Устройство по п.49, отличающееся тем, что узел обнаружения кривой профиля обнаруживает границу правой области лица в указанной пользователем ограничивающей рамке, определенной из фронтального изображения, как кривую профиля.
52. Устройство по п.49, отличающееся тем, что узел обнаружения контура уха обнаруживает контур уха с помощью инициализации позиции уха, сравнивая шаблон кривой с изображением профиля, и обнаруживая более точную границу уха с помощью изменения формы инициализированного шаблона уха, используя алгоритм отслеживания контура.
53. Устройство по п.33, отличающееся тем, что блок генерации информации глубины содержит узел обнаружения характерных точек, который определяет характерные точки на фронтальном изображении и находит соответствующие характерные точки на почти фронтальном изображении, узел получения различий, который получает плотную карту различий с помощью интерполяции данных, используя сравнение соответствий, и узел преобразования различий в информацию глубины, который преобразует карту различий в информацию глубины.
54. Устройство по п.32, отличающееся тем, что блок подгонки универсальной модели содержит узел преобразования в двумерные точки, который преобразует кривые особенностей, обнаруженных на изображениях, в двумерные точки, соответствующие особенностям, определенным в трехмерной универсальной модели, используя соотношения длин для характерных точек на кривой лицевых особенностей трехмерной универсальной модели, и узел подгонки полигональной модели, который выполняет подгонку трехмерной универсальной модели с помощью 3-этапной трансформации на основе функции с радиальным смещением (RBF) на основе соответствий между особенностями изображений и характерными точками трехмерной универсальной модели.
55. Устройство по п.32, отличающееся тем, что блок генерации текстуры содержит узел компенсации вводимого изображения, который компенсирует различные условия освещения или различия цветового баланса между камерами, выполняя коррекцию цвета в вводимых изображениях, узел генерации фронтальной/профильной текстуры, который генерирует фронтальную и профильную текстуры с помощью отображения фронтального и профильного изображений на общую плоскость UV на основе соответствия между вершинами трехмерной модели и проецируемыми двумерными позициями, и узел завершения текстурирования, который объединяет фронтальную и профильную текстуры и искусственную текстуру, используя сплайновый алгоритм в разных разрешениях для завершения текстурирования.
56. Считываемый компьютером носитель информации, содержащий компьютерную программу для осуществления способа по п.1.
RU2004126185/09A 2003-08-29 2004-08-27 Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения RU2358319C2 (ru)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US49869503P 2003-08-29 2003-08-29
US60/498,695 2003-08-29
KR1020040064323A KR100682889B1 (ko) 2003-08-29 2004-08-16 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
KR2004-64323 2004-08-16

Publications (2)

Publication Number Publication Date
RU2004126185A true RU2004126185A (ru) 2006-02-10
RU2358319C2 RU2358319C2 (ru) 2009-06-10

Family

ID=34107026

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2004126185/09A RU2358319C2 (ru) 2003-08-29 2004-08-27 Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения

Country Status (4)

Country Link
EP (1) EP1510973A3 (ru)
JP (1) JP4723834B2 (ru)
CN (1) CN100345165C (ru)
RU (1) RU2358319C2 (ru)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2487411C2 (ru) * 2009-01-19 2013-07-10 Тенсент Текнолоджи (Шэньчжэнь) Компани Лимитед Способ и устройство для изменения формы губ и получения анимации губ в управляемой голосом анимации
US10580527B2 (en) 2013-05-10 2020-03-03 Koninklike Philips N.V. Patient interface device selection system and method based on three-dimensional modelling
RU2720361C1 (ru) * 2019-08-16 2020-04-29 Самсунг Электроникс Ко., Лтд. Обучение по нескольким кадрам реалистичных нейронных моделей голов говорящих персон
US11568645B2 (en) 2019-03-21 2023-01-31 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4539519B2 (ja) * 2005-10-06 2010-09-08 コニカミノルタホールディングス株式会社 立体モデル生成装置および立体モデル生成方法
US7567251B2 (en) * 2006-01-10 2009-07-28 Sony Corporation Techniques for creating facial animation using a face mesh
JP2007299070A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
JP4850768B2 (ja) * 2007-03-27 2012-01-11 独立行政法人情報通信研究機構 3次元の人の顔の表面データを再構築するための装置及びプログラム
US9424488B2 (en) 2007-06-14 2016-08-23 Hewlett-Packard Development Company, L.P. Applying a segmentation engine to different mappings of a digital image
US8564590B2 (en) * 2007-06-29 2013-10-22 Microsoft Corporation Imparting three-dimensional characteristics in a two-dimensional space
JP2009236811A (ja) * 2008-03-28 2009-10-15 Fujifilm Corp 画像処理装置および画像処理方法並びにプログラム
WO2009128784A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd Face expressions identification
WO2009128783A1 (en) * 2008-04-14 2009-10-22 Xid Technologies Pte Ltd An image synthesis method
US8824801B2 (en) * 2008-05-16 2014-09-02 Microsoft Corporation Video processing
US20110298799A1 (en) * 2008-06-03 2011-12-08 Xid Technologies Pte Ltd Method for replacing objects in images
JP2009294895A (ja) * 2008-06-05 2009-12-17 Shift Inc 画像処理装置及び画像処理プログラム
TWI426463B (zh) * 2009-05-08 2014-02-11 Hon Hai Prec Ind Co Ltd 曲面渲染系統及方法
EP2251832A1 (en) * 2009-05-14 2010-11-17 Alcatel Lucent Method for generating a 3-dimensional model of an object
CN101763527B (zh) * 2009-06-17 2012-12-12 中国科学院自动化研究所 基于层状目标侧面纹理分析的张数检测方法
CN101996416B (zh) * 2009-08-24 2015-05-20 三星电子株式会社 3d人脸捕获方法和设备
CN101996415B (zh) * 2009-08-28 2013-10-09 珠海金联安警用技术研究发展中心有限公司 眼球的三维建模方法
US8300929B2 (en) 2009-10-07 2012-10-30 Seiko Epson Corporation Automatic red-eye object classification in digital photographic images
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
JP5793975B2 (ja) * 2010-08-03 2015-10-14 株式会社リコー 画像処理装置、画像処理方法、プログラム、記録媒体
US8786625B2 (en) * 2010-09-30 2014-07-22 Apple Inc. System and method for processing image data using an image signal processor having back-end processing logic
KR101251793B1 (ko) * 2010-11-26 2013-04-08 현대자동차주식회사 차량내 운전자 실제 얼굴 인증 방법
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
RU2448367C1 (ru) * 2011-04-11 2012-04-20 Закрытое акционерное общество "МНИТИ" ЗАО "МНИТИ" Способ повышения визуальной информативности цифровых полутоновых изображений
EP2702533A1 (en) 2011-04-28 2014-03-05 Koninklijke Philips N.V. Face location detection
RU2473124C1 (ru) * 2011-09-23 2013-01-20 Общество С Ограниченной Ответственностью "Виси Рус" Способ обнаружения порнографии на цифровых изображениях (варианты)
JP2013080326A (ja) * 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5842541B2 (ja) * 2011-11-01 2016-01-13 大日本印刷株式会社 三次元ポートレートの作成装置
CN102426712B (zh) * 2011-11-03 2014-07-16 中国科学院自动化研究所 一种基于两幅图像的三维头部建模方法
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
RU2479039C1 (ru) * 2012-03-26 2013-04-10 Закрытое акционерное общество "БОУ Лабораториз" Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа
CN102779278B (zh) * 2012-07-04 2016-08-03 Tcl集团股份有限公司 轮廓提取方法及系统
RU2510897C2 (ru) * 2012-08-06 2014-04-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Юго-Западный государственный университет" (ЮЗГУ) Способ сегментации сложноструктурированных растровых полутоновых изображений на основе составных морфологических операторов
CN102999941B (zh) * 2012-11-13 2016-02-17 中国科学院深圳先进技术研究院 基于遗传操作的三维模型生成方法
CN103234475B (zh) * 2012-11-27 2017-02-08 深圳华用科技有限公司 一种基于激光三角测量法的亚像素表面形态检测方法
KR101397476B1 (ko) * 2012-11-28 2014-05-20 주식회사 에스하이텍 3d 가상성형기를 이용한 가상성형방법
WO2014180944A1 (en) * 2013-05-10 2014-11-13 Koninklijke Philips N.V. 3d modeled visualisation of a patient interface device fitted to a patient's face
JP6297675B2 (ja) * 2013-05-10 2018-03-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d患者インターフェイスデバイス選択システム及び方法
JP6304999B2 (ja) 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
US9679412B2 (en) 2014-06-20 2017-06-13 Intel Corporation 3D face model reconstruction apparatus and method
CN104156915A (zh) * 2014-07-23 2014-11-19 小米科技有限责任公司 肤色调整方法和装置
CN104408462B (zh) * 2014-09-22 2017-10-13 广东工业大学 面部特征点快速定位方法
US9767620B2 (en) 2014-11-26 2017-09-19 Restoration Robotics, Inc. Gesture-based editing of 3D models for hair transplantation applications
US10242278B2 (en) * 2014-12-01 2019-03-26 Koninklijke Philips N.V. Device and method for skin detection
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
CN106033621B (zh) * 2015-03-17 2018-08-24 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
KR102065692B1 (ko) * 2015-04-17 2020-01-13 한국전자통신연구원 3차원 프린팅을 위한 두께 모델 생성 장치 및 방법
US9773022B2 (en) 2015-10-07 2017-09-26 Google Inc. Displaying objects based on a plurality of models
EP3179407B1 (en) * 2015-12-07 2022-07-13 Dassault Systèmes Recognition of a 3d modeled object from a 2d image
CN106920277A (zh) * 2017-03-01 2017-07-04 浙江神造科技有限公司 模拟美容整形效果可视化在线自由面雕的方法及系统
CN106910247B (zh) * 2017-03-20 2020-10-02 厦门黑镜科技有限公司 用于生成三维头像模型的方法和装置
CN108804861B (zh) * 2017-04-26 2023-07-25 中国科学院沈阳自动化研究所 一种具有真实力反馈的脊柱微创手术培训系统及方法
CN108876886B (zh) * 2017-05-09 2021-07-27 腾讯科技(深圳)有限公司 图像处理方法、装置和计算机设备
CN107146273B (zh) * 2017-05-11 2019-12-27 北京航空航天大学 一种面向基于图像头发建模的自适应浮动切线匹配方法
CN107807806A (zh) * 2017-10-27 2018-03-16 广东欧珀移动通信有限公司 显示参数调整方法、装置及电子装置
CN107742275B (zh) * 2017-11-09 2021-02-19 联想(北京)有限公司 一种信息处理方法及电子设备
CN110263603B (zh) * 2018-05-14 2021-08-06 桂林远望智能通信科技有限公司 基于中心损失和残差视觉仿真网络的人脸识别方法及装置
CN109345486A (zh) * 2018-10-24 2019-02-15 中科天网(广东)科技有限公司 一种基于自适应网格变形的人脸图像去模糊方法
CN110555892B (zh) * 2019-08-09 2023-04-25 北京字节跳动网络技术有限公司 多角度图像生成方法、装置及电子设备
CN111222407B (zh) * 2019-11-18 2022-07-01 太原科技大学 一种采用均匀切片和拐点特征提取的腭皱识别方法
CN113034418B (zh) * 2019-12-05 2023-10-13 中国科学院沈阳自动化研究所 面向电子行业的电路板识别与焊盘/芯片快速定位方法
CN113256694B (zh) * 2020-02-13 2024-06-18 北京沃东天骏信息技术有限公司 一种眉笔绘制方法和装置
GB2593441B (en) * 2020-02-21 2023-03-01 Huawei Tech Co Ltd Three-dimensional facial reconstruction
CN113327190A (zh) 2020-02-28 2021-08-31 阿里巴巴集团控股有限公司 图像、数据处理的方法和装置
WO2021171982A1 (ja) * 2020-02-28 2021-09-02 ソニーグループ株式会社 画像処理装置、3dモデルの生成方法、学習方法およびプログラム
US11138781B1 (en) 2020-04-01 2021-10-05 International Business Machines Corporation Creation of photorealistic 3D avatars using deep neural networks
US11373358B2 (en) * 2020-06-15 2022-06-28 Nvidia Corporation Ray tracing hardware acceleration for supporting motion blur and moving/deforming geometry
CN111967526B (zh) * 2020-08-20 2023-09-22 东北大学秦皇岛分校 基于边缘映射和深度学习的遥感图像变化检测方法及系统
CN112017278B (zh) * 2020-08-28 2024-04-26 西安理工大学 一种基于Grasshopper的泳镜造型定制设计方法
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112734895A (zh) * 2020-12-30 2021-04-30 科大讯飞股份有限公司 一种三维人脸处理方法及电子设备
CN113763109A (zh) * 2021-02-03 2021-12-07 北京沃东天骏信息技术有限公司 物品推荐方法、装置、设备及存储介质
JP7492932B2 (ja) 2021-03-19 2024-05-30 株式会社ミマキエンジニアリング 造形システム及び造形方法
JP2022164390A (ja) * 2021-04-16 2022-10-27 ax株式会社 画像生成装置、画像生成方法、プログラム
CN113591658B (zh) * 2021-07-23 2023-09-05 深圳全息信息科技发展有限公司 一种基于距离感应的护眼系统
CN115019021A (zh) * 2022-06-02 2022-09-06 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质
US20220375049A1 (en) * 2022-07-19 2022-11-24 Real Image Technology Co., Ltd Reduction of Glare in Endoscopic Images
CN117058329B (zh) * 2023-10-11 2023-12-26 湖南马栏山视频先进技术研究院有限公司 一种人脸快速三维建模方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325934A (ja) * 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
KR20000064110A (ko) * 2000-08-22 2000-11-06 이성환 얼굴 영상에 기반한 캐릭터 자동 생성 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2487411C2 (ru) * 2009-01-19 2013-07-10 Тенсент Текнолоджи (Шэньчжэнь) Компани Лимитед Способ и устройство для изменения формы губ и получения анимации губ в управляемой голосом анимации
US10580527B2 (en) 2013-05-10 2020-03-03 Koninklike Philips N.V. Patient interface device selection system and method based on three-dimensional modelling
US11568645B2 (en) 2019-03-21 2023-01-31 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
RU2720361C1 (ru) * 2019-08-16 2020-04-29 Самсунг Электроникс Ко., Лтд. Обучение по нескольким кадрам реалистичных нейронных моделей голов говорящих персон

Also Published As

Publication number Publication date
JP4723834B2 (ja) 2011-07-13
CN100345165C (zh) 2007-10-24
EP1510973A3 (en) 2006-08-16
EP1510973A2 (en) 2005-03-02
JP2005078646A (ja) 2005-03-24
CN1607551A (zh) 2005-04-20
RU2358319C2 (ru) 2009-06-10

Similar Documents

Publication Publication Date Title
RU2004126185A (ru) Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
US7835568B2 (en) Method and apparatus for image-based photorealistic 3D face modeling
US9569890B2 (en) Method and device for generating a simplified model of a real pair of spectacles
Huang et al. Facial expression recognition using model-based feature extraction and action parameters classification
Reinders et al. Facial feature localization and adaptation of a generic face model for model-based coding
US7095879B2 (en) System and method for face recognition using synthesized images
CN102419868B (zh) 基于3d头发模板进行3d头发建模的设备和方法
JP5505164B2 (ja) 画像処理装置および方法、並びにプログラム
JP2017016192A (ja) 立体物検知装置及び立体物認証装置
KR102187143B1 (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
JP3432816B2 (ja) 頭部領域抽出装置およびリアルタイム表情追跡装置
Chakravarty et al. Coupled sparse dictionary for depth-based cup segmentation from single color fundus image
JP2000311248A (ja) 画像処理装置
US20230222680A1 (en) System and method for mobile 3d scanning and measurement
US20090213241A1 (en) Image processing apparatus, image processing method, and recording medium
KR100815209B1 (ko) 3차원 영상의 생성을 위한 2차원 영상의 특징 추출 장치및 그 방법과 그를 이용한 3차원 영상의 생성 장치 및 그방법
KR20010084996A (ko) 단일 이미지를 이용한 3차원 아바타 제작 방법 및 이를이용한 자판기
Maninchedda et al. Fast 3d reconstruction of faces with glasses
Vezhnevets et al. Automatic extraction of frontal facial features
Liem et al. Coupled person orientation estimation and appearance modeling using spherical harmonics
Chen et al. Robust iris segmentation algorithm based on self-adaptive Chan–Vese level set model
JP2009217799A (ja) 輪郭検出方法、輪郭検出装置および輪郭検出プログラム
JP2009217798A (ja) 輪郭検出方法、輪郭検出装置および輪郭検出プログラム
Kuo et al. Improved facial feature extraction for model-based multimedia
JP2009193357A (ja) 輪郭検出方法、輪郭検出装置および輪郭検出プログラム