KR100292238B1 - Method for matching of components in facial texture and model images - Google Patents

Method for matching of components in facial texture and model images Download PDF

Info

Publication number
KR100292238B1
KR100292238B1 KR1019980019414A KR19980019414A KR100292238B1 KR 100292238 B1 KR100292238 B1 KR 100292238B1 KR 1019980019414 A KR1019980019414 A KR 1019980019414A KR 19980019414 A KR19980019414 A KR 19980019414A KR 100292238 B1 KR100292238 B1 KR 100292238B1
Authority
KR
South Korea
Prior art keywords
texture
standard shape
shape model
face
texture image
Prior art date
Application number
KR1019980019414A
Other languages
Korean (ko)
Other versions
KR19990086439A (en
Inventor
윤강식
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019980019414A priority Critical patent/KR100292238B1/en
Priority to GB9822138A priority patent/GB2336735A/en
Publication of KR19990086439A publication Critical patent/KR19990086439A/en
Application granted granted Critical
Publication of KR100292238B1 publication Critical patent/KR100292238B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE: A matching method for texture mapping images and durability components of standard shape models is provided to reduce complicated preprocessing by carrying out standard shape models with a face outline by using scale factors of texture face images. CONSTITUTION: A matching method for texture mapping images and durability components of standard shape models includes the steps of obtaining texture face images of a transmitter by a texture image acquiring part(10), providing 3D standard shape models of a wire frame by a standard shape model providing part(20), matching the texture images with outlines of standard shape models by an outline matching part(30), extracting positions of each face component of the face of the texture images in a component position providing part(40) according to characteristic values obtained by a characteristic extracting algorithm based on the knowledge by a component matching part(50), matching the outline matched texture images with components of standard shape models entirely according to the position values, and carrying out texture mapping by projecting texture data of the texture images to the entirely matched standard shape models by a texture mapping part(60).

Description

텍스쳐 맵핑을 위한 텍스쳐 영상과 표준 형상 모델내 구성성분 정합 방법{METHOD FOR MATCHING OF COMPONENTS IN FACIAL TEXTURE AND MODEL IMAGES}METHODS FOR MATCHING OF COMPONENTS IN FACIAL TEXTURE AND MODEL IMAGES}

본 발명은 인간의 형상 모델을 이용한 3차원 형상 모델 기반 코딩 시스템의 텍스쳐 맵핑에 관한 것으로, 보다 상세하게는 텍스쳐 맵핑을 위한 텍스쳐 및 표준 얼굴 영상의 얼굴 구성 성분 정합 방법에 관한 것이다.The present invention relates to texture mapping of a 3D shape model-based coding system using a human shape model, and more particularly, to a method of matching face components of a texture and a standard face image for texture mapping.

3차원 물체 모델, 특히 인간의 형상 모델을 이용한 응용 기술은 비디오 코딩(video coding), 가상현실 및 컴퓨터 그래픽스(computer graphics) 분야에서 응용되고 있다. 현재 진행중인 비디오 코딩(video coding) 분야에서는 좀더 적은 데이터 량으로 만족스러운 화질의 영상을 전송하려는 연구가 지속되고 있다. 전송되는 데이터 량에 따른 연구과제를 살펴보면 크게 HDTV 로부터 시작하여 적게는 현재 활발히 연구되고있는 MPEG4가 있다. 이중 MPEG4 에서는 매우 적은 데이터 량을 이용하여 비디오 신호를 전송하기 때문에 단순히 정보 이론을 이용한 변환, 예를 들면, 코사인 변환(cosine transform) 계수 방법만 사용되는 것이 아니라, 그 밖의 컴퓨터 비젼(computer vision), 컴퓨터 그래픽스에서 사용되는 기술들이 응용되기도 한다.Application techniques using three-dimensional object models, especially human shape models, have been applied in the fields of video coding, virtual reality, and computer graphics. In the field of video coding that is currently in progress, research to transmit a satisfactory image quality with a smaller amount of data continues. Looking at the research projects according to the amount of data to be transmitted, there is MPEG4, which starts from HDTV and is currently being actively studied. In MPEG4, a video signal is transmitted using a very small amount of data. Therefore, not only a transformation using information theory, for example, a cosine transform coefficient method, but also other computer vision, The techniques used in computer graphics are also applied.

일반적으로 비디오 폰 또는 비디오 회의(video conference)에서 보이는 사람의 형태는 허리 이상인 흉부만이 보인다. 특히 말하는 사람의 얼굴이 영상 정보 전달의 대부분을 차지하고 있다. 만약 사람 얼굴 외의 정보, 즉, 배경 정보 등을 무시하고 얼굴 형태에 대한 특징적인 규칙화된 정보만 보낼 수 있다면 전송량을 매우 줄일 수 있을 것이다. 즉 얼굴에 나타나는 일반적인 희, 노, 애, 락 감정 표정 및 말을 할 때의 입 모양에 나타나는 규칙을 찾아내어 하나의 정보화된 코드로 상대편에게 보내고, 상대방에서는 이를 받아서 자신이 갖고 있는 3차원 모델을 수신된 코드에 따라 얼굴 형태를 변형시켜 도시함으로써 전송자의 표정 형태를 적은 데이터 양으로 파악 할 수 있을 것이다.In general, the shape of a person seen in a videophone or video conference only shows the chest above the waist. In particular, the speaker's face takes up most of the video information transmission. If only non-human face information, ie background information, can be ignored and only regular, characteristic information about the face shape can be sent, the transmission rate can be greatly reduced. In other words, it finds the rules of the general face, face, expression, and emotional expressions of the face and mouth when speaking, and sends them to the other party through one informational code. By deforming the face shape according to the received code, the expression shape of the sender may be recognized with a small amount of data.

보다 상세히 말해서, 3차원 모델 기반 코딩 시스템은 비디오폰과 같이 두 사람이 현장에서 실시간으로 이야기를 하며, 소리뿐 아니라 변화하는 얼굴 또는 몸도 같이 실시간으로 전송하는 것을 코딩의 대상으로 한다. 그런데 일반 비디오 코딩과 다른 것은 전송 데이터는 시시각각 변화하는 픽셀들로 이루어진 영상을 취급하는 것이 아니고 어떤 특정한 움직임 변수를 추출하여 전송한 다음, 수신측에서 가지고 있는 자료, 즉, 전송자의 얼굴 영상, 일반적인 3차원 머리 형태 모델, 몸 형태 모델 등과 결합되어 재구성된 후 최종 변화하는 전송자의 얼굴 또는 몸 영상을 구성하는 것이다.More specifically, the three-dimensional model-based coding system targets coding in which two people talk in real time, such as a video phone, and transmit not only sound but also a changing face or body in real time. However, unlike general video coding, the transmission data does not handle an image composed of pixels that change every moment. Instead, it extracts and transmits a certain motion variable, and then the data possessed at the receiving side, that is, the image of the sender's face. It is combined with a dimensional head shape model and a body shape model to form a face or body image of a final changer after reconstruction.

물론, 이와 같은 시스템 구성은 전송하고자 하는 데이터의 양이 데이터 전송 대역폭에 의해 매우 크게 제약을 받아 많은 양은 보내지 못하지만, 쌍방간 정확한 인식을 위한 충분한 화질을 요할 경우 사용될 수 있는 것이다. 대역폭이 커서 충분한 데이터를 보낼 수 있다면 이 시스템의 장점은 그만큼 낮아질 것이다. 왜냐하면, 규칙화된 코드로서는 자연스런 표정을 나타내기에 부족한 감이 있기 때문이다.Of course, such a system configuration can be used when the amount of data to be transmitted is very limited by the data transmission bandwidth but not a large amount, but requires sufficient image quality for accurate recognition between the two parties. If the bandwidth is large enough to send enough data, the advantages of this system will be lower. This is because regular code lacks a natural look.

이러한 3차원 모델 기반 코딩 시스템은 3차원의 와이어 프레임으로 구성된 표준 형상 모델을 전송자 자신의 얼굴 영상에 정합시키고, 전송자 얼굴 영상의 텍스쳐 데이터를 표준형상 모델에 투사(project)하는 텍스쳐 맵핑을 수행한다. 텍스쳐 맵핑은 텍스쳐 영상내 눈, 코, 입 등의 모든 구성 성분의 좌표 값 구하고, 이 좌표값으로 대응하는 표준 형상 모델의 구성 성분을 겹쳐주어야한다.Such a 3D model-based coding system matches a standard shape model consisting of a three-dimensional wire frame to a sender's own face image, and performs texture mapping to project texture data of the sender's face image onto a standard shape model. The texture mapping must obtain the coordinate values of all components such as eyes, nose, mouth, etc. in the texture image, and superimpose the components of the corresponding standard shape model with these coordinate values.

그러나, 표준 형상 모델의 좌표 값 와이어 프레임 구성시 이미 알고 있지만, 텍스쳐 영상의 좌표 값 몇 개의 특징점을 제외하고는 알고 있지 못하기 때문에, 텍스트 맵핑을 위하여 주어진 텍스쳐 영상에서 전송자 자신의 구성 성분의 정확한 위치를 알아야한다. 그러나, 텍스쳐 영상에서 전송자 자신의 구성 성분의 좌표 값 추출하여야는 전처리 단계가 복잡하고 시간이 많이 소요되는 문제가 있었다.However, since we already know when constructing the coordinate value wireframe of the standard shape model, but we do not know a few feature points of the coordinate value of the texture image, the exact location of the sender's own components in the given texture image for text mapping Should know. However, there is a problem that the preprocessing step is complicated and time-consuming to extract coordinate values of the sender's own components from the texture image.

그러므로, 본 발명은 3차원 모델 기반 코딩 시스템에서 텍스쳐 맵핑을 위하여 전송자의 텍스쳐 영상에서 모든 윤곽선 및 구성성분의 좌표값을 추출하지 않고도 표준 형상 모델과 정합하는 방법을 제공하는 것을 그 목적으로 한다.Therefore, an object of the present invention is to provide a method for matching with a standard shape model without extracting the coordinate values of all contours and components in a texture image of a sender for texture mapping in a 3D model-based coding system.

상술한 목적을 달성하기 위한 본 발명에 따르면, 인간의 형상 모델을 이용한 3차원 모델 기반 시스템에서 텍스쳐 맵핑을 위한 텍스쳐 영상과 표준 형상 모델내 구성 성분 정합 방법은: 전송자의 텍스쳐 얼굴 영상을 취득하는 단계; 와이어 프레임의 표준 형상 모델을 제공하는 단계; 상기 텍스쳐 영상과 표준 형상 모델의 얼굴 윤곽선을 정합하는 단계; 지식에 기반한 특징 추출 알고리즘을 이용하여 구한 특징값에 따라 상기 텍스쳐 영상의 얼굴내 각 구성 성분의 위치를 추출하는 단계; 상기 텍스쳐 영상의 얼굴 구성 성분의 위치값을 이용하여 상기 얼굴 윤곽선 정합된 텍스쳐 영상과 표준 형상 모델들간의 구성 성분의 정합을 전체적으로 수행하는 단계; 상기 텍스쳐 영상의 텍스쳐 데이터를 상기 전체적으로 정합된 표준 형상 모델에 투사하여 텍스쳐 맵핑을 수행하는 단계를 포함하며,According to the present invention for achieving the above object, in the three-dimensional model-based system using a human shape model, a texture image for texture mapping and a component matching method in a standard shape model include: acquiring a texture face image of a sender ; Providing a standard shape model of the wire frame; Matching face contours of the texture image with a standard shape model; Extracting a position of each component in the face of the texture image according to a feature value obtained by using a knowledge-based feature extraction algorithm; Performing matching of the components between the face contour-matched texture image and standard shape models as a whole using the position values of the face components of the texture image; Projecting texture data of the texture image onto the globally matched standard shape model to perform texture mapping;

상기 얼굴 윤관선 정합 단계는:The facial limbal matching step is:

상기 텍스쳐 영상의 중심 좌표와 상기 표준 형상 모델의 중심 좌표와의 차를 구하는 단계;Obtaining a difference between a center coordinate of the texture image and a center coordinate of the standard shape model;

상기 차만큼 상기 표준 형상 모델의 중심 좌표를 상기 텍스쳐 영상의 중심 좌표로 이동시켜 상기 텍스쳐 영상의 중심에 상기 표준 형상 모델의 중심을 일치시키는 단계;Moving the center coordinates of the standard shape model to the center coordinates of the texture image by the difference to match the center of the standard shape model to the center of the texture image;

상기 텍스쳐 영상의 스케일 팩터를 이용하여 상기 중심 일치된 표준 형상 모델의 윤곽선을 상기 텍스쳐 영상의 윤곽선에 정합하는 단계를 구비하는 것을 특징으로 한다.And matching the contour of the center-matched standard shape model to the contour of the texture image using the scale factor of the texture image.

도 1은 본 발명의 바람직한 실시예에 따라서 구성된 3차원 모델 기반 코딩시스템의 텍스쳐 맵핑을 위한 얼굴 구성 성분 정합 장치의 개략적인 블록도,1 is a schematic block diagram of a face component matching device for texture mapping in a 3D model based coding system constructed according to a preferred embodiment of the present invention;

도 2a 및 2b는 텍스쳐 맵핑을 위하여 제공되는 텍스쳐 얼굴 영상과 표준 형상 모델을 각기 예시하는 도면,2A and 2B are diagrams illustrating texture face images and standard shape models, respectively, provided for texture mapping;

도 3a, 3b 및 3c는 도 1에 도시된 윤곽선 정합부에서 수행되는 윤곽선 정합의 과정을 단계적으로 예시하는 도면,3A, 3B and 3C are diagrams exemplarily illustrating a process of contour matching performed in the contour matching unit shown in FIG. 1;

도 4는 에지 얼굴 영상으로부터 특징을 추출하기 위한 지식 표현을 예시하는 도면,4 is a diagram illustrating a knowledge representation for extracting features from an edge face image;

도 5는 지식에 기초하여 추출된 텍스쳐 얼굴 영상의 5가지 특징을 예시하는 도면,5 is a diagram illustrating five features of a extracted texture face image based on knowledge;

도 6은 도 1에 도시된 구성 성분 정합부에서 수행되는 얼굴 구성 성분의 정합 결과를 예시하는 도면,6 is a diagram illustrating a result of registration of facial components performed in the component matching unit shown in FIG. 1;

도 7은 도 1에 도시된 텍스쳐 맵핑부에 의해 수행된 텍스쳐 맵핑 결과를 예시하는 도면.FIG. 7 is a diagram illustrating a texture mapping result performed by the texture mapping unit shown in FIG. 1. FIG.

〈도면의 주요부분에 대한 부호의 설명><Explanation of symbols for main parts of drawing>

10 : 텍스쳐 영상 취득부 20 : 표준 형상 모델 제공부10: texture image acquisition unit 20: standard shape model providing unit

30 : 윤곽선 정합부 40 : 구성 성분 위치 제공부30: contour matching unit 40: component position providing unit

50 : 구성 성분 정합부50: component matching part

이하 첨부된 도면을 참조하여 본 발명의 실시예를 하기와 같이 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하면, 본 발명에 따라 3차원 형상모델 기반 코딩 시스템에서 사용되는 얼굴 영상 텍스쳐 맵핑 장치의 개략적인 블록도가 도시된다. 본 발명의 얼굴 영상 텍스쳐 맵핑 장치는 텍스쳐 영상 취득부(10), 표준 형상 모델 제공부(20), 윤곽선 정합부(30), 구성 성분 위치 제공부(40), 구성 성분 정합부(50) 및 텍스쳐 맵핑부(60)를 포함한다.Referring to FIG. 1, a schematic block diagram of a face image texture mapping apparatus used in a 3D shape model based coding system according to the present invention is shown. The facial image texture mapping apparatus of the present invention includes a texture image acquisition unit 10, a standard shape model providing unit 20, an outline matching unit 30, a component position providing unit 40, a component matching unit 50, and The texture mapping unit 60 is included.

텍스쳐 영상 취득부(10)는 도시되지 않은 CCD 디지탈 카메라 등을 이용하여 도 2a에 도시된 바와 같은 512 x 512 픽셀 크기의 2차원 텍스쳐 얼굴 영상(100)을 취득한다. 텍스쳐 영상 취득부(10)는 텍스쳐 얼굴 영상(100)으로부터 몇 개의 특징점, 예로, 이마, 우측 및 좌측 귀, 및 코의 좌표값을 각기 (P1), (P2), (P4) 및 (Pc)로서 추출하여 취득된 텍스쳐 영상(100)의 텍스쳐 값과 함께 윤곽선 정합부(30)로 제공한다.The texture image acquisition unit 10 acquires a two-dimensional texture face image 100 having a size of 512 x 512 pixels as shown in FIG. 2A using a CCD digital camera (not shown). The texture image acquiring unit 10 calculates coordinate values of several feature points, for example, forehead, right and left ears, and nose, from the texture face image 100, respectively (P 1 ), (P 2 ), (P 4 ) and It is provided to the contour matching unit 30 together with the texture value of the texture image 100 extracted and extracted as P c .

표준 형상 모델 제공부(20)는 도 2b에 예시된 바와 같이 3차원의 표준 형상 모델(200)을 가지고 있다. 표준 형상 모델(200)은 실리콘 그래픽스 인터페이스(SGI : Silicon Graphics Interface)사에서 입수 가능한 3D Wavefront 라는 툴(tool)을 이용하여 구성된 다수의 다각형(polygon)을 연결한 망의 형태를 갖는 와이어 프레임(wire frame)이라는 3차원 컴퓨터 그래픽스 형태로 저장되어있다. 표준 형상 모델(200)의 정점(vertex)들은 3차원 좌표값(x, y, z)을 가지며, 각각의 정점의 좌표값은 이미 얼굴 전체의 표준 형상 모델을 구성할 때 알고 있는 값이다. 이러한 표준 형상 모델(200)의 좌표값은 다음단의 윤곽선 정합부(30)에서 2차원의 텍스쳐 얼굴 영상(100)과의 정합을 위하여 모든 z축상의 좌표값을 ″0″으로 설정되어 제공된다.The standard shape model providing unit 20 has a three-dimensional standard shape model 200 as illustrated in FIG. 2B. The standard shape model 200 is a wire frame having a form of a network connecting a plurality of polygons constructed using a tool called 3D Wavefront available from Silicon Graphics Interface (SGI). It is stored in a 3D computer graphics form called a frame. The vertices of the standard shape model 200 have three-dimensional coordinate values (x, y, z), and the coordinate values of each vertex are already known when constructing the standard shape model of the entire face. The coordinate values of the standard shape model 200 are provided by setting the coordinate values on all z-axis to ″ 0 ″ for matching with the two-dimensional texture face image 100 in the contour matching unit 30 of the next stage. .

윤곽선 정합부(30)는 텍스쳐 영상 취득부(10)에서 제공된 텍스쳐 얼굴 영상(100)과 표준 형상 모델 제공부(20)로부터 수신된 표준 형상 모델(200)의 윤곽을 정합한다. 윤곽선 정합부(30)에서 수행되는 윤곽 정합 과정은 하기 도 3을 참조하여 상세히 설명된다.The contour matching unit 30 registers the contours of the texture face image 100 provided by the texture image acquisition unit 10 and the standard shape model 200 received from the standard shape model providing unit 20. The contour matching process performed by the contour matching unit 30 will be described in detail with reference to FIG. 3.

윤곽선 정합부(30)는 먼저, 도 3a에 예시된 바와 같이, 윤곽선 정합을 위하여 동일한 픽셀 좌표계에서 텍스쳐 영상(100)위로 표준 형상 모델(200)을 겹쳐놓는다. 텍스쳐 영상과 표준 형상 모델(200)이 겹쳐지면, 이들 두 영상(100, 200)의 중심이 일치하지 않는다. 따라서, 윤곽선 정합부(30)는 두 영상(100, 200)의 중심을 일치시키기 위하여, 각각의 상기 텍스쳐 영상 및 표준 형상 모델의 중심점으로부터 얼굴 윤곽선까지의 ±x, y 방향의 비율을 이용한다. 보다 상세히 말해서, 텍스쳐 영상(100)의 중심, 예로 코의 좌표(Pc)(도 2a 참조)와 그에 대응하는 표준 형상 모델(200)의 중심 좌표(Qc)(도 2b 참조)와의 x 및 y 방향의 거리차(Δx, Δy)를 하기 수학식 1 및 2를 이용하여 계산한다.The contour matching unit 30 first superimposes the standard shape model 200 on the texture image 100 in the same pixel coordinate system as illustrated in FIG. 3A. When the texture image and the standard shape model 200 overlap, the centers of the two images 100 and 200 do not coincide. Therefore, the contour matching unit 30 uses a ratio of ± x and y directions from the center point of each of the texture image and the standard shape model to the face contour to match the centers of the two images 100 and 200. In more detail, x and the center of the texture image 100, for example, the coordinates of the nose P c (see FIG. 2A) and the corresponding center coordinates Q c (see FIG. 2B) of the standard shape model 200. The distance differences Δx and Δy in the y direction are calculated by using Equations 1 and 2 below.

상술한 수학식 1에서, 거리차(Δx, Δy)에 대하여 정리하면, 하기 수학식 2와 같이 정리된다.In Equation 1 described above, the distance differences Δx and Δy are summarized as in Equation 2 below.

그 다음, 윤곽선 정합부(30)는 상술한 수학식 1 및 2로부터 계산된 거리차(Δx, Δy)를 표준 형상 모델(200)에 적용하여, 도 3b에 도시된 바와 같이 표준 형상 모델(200)의 중심점(Qc)을 텍스쳐 영상(100)의 중심점(Pc)을 향하여 거리차(Δx, Δy)만큼 이동시킨다.Next, the contour matching unit 30 applies the distance differences Δx and Δy calculated from the above Equations 1 and 2 to the standard shape model 200, and as shown in FIG. 3B, the standard shape model 200. ) then the center point (Q c) moved by the center of the texture image (100) (P c) against the distance difference (Δx, Δy) of the.

텍스쳐 영상(100)과 표준 형상 모델(200)의 중심점이 일치된 상태에서, 윤곽선 정합부(30)는 텍스쳐 영상(100)의 스케일 팩터(scale factor)를 표준 형상 모델(200)에 적용하여 표준 형상 모델(200)의 윤곽을 텍스쳐 영상(100)의 윤곽에 정합시킨다. 본 발명에 따른 스케일 팩터는 텍스쳐 영상(100)과 표준형상 모델(200)간의 가로 대 세로의 종횡비로서, 이러한 스케일 팩터를 이용하여 표준 형상 모델(200)의 윤곽을 텍스쳐 영상(100)의 윤곽에 맞추어 원의 형태로 확장시키면서 윤곽선 정합을 수행한다. 도 3c에는 상술한 윤곽선 정합을 위하여 표준 형상 모델(200)의 윤곽이 확장되는 과정이 예시된다. 윤곽선 정합부(30)에서 윤곽 정합된 영상은 다음단의 구성 성분 정합부(50)로 제공된다.In the state where the center points of the texture image 100 and the standard shape model 200 coincide with each other, the contour matching unit 30 applies the scale factor of the texture image 100 to the standard shape model 200 to apply the standard shape model 200. The contour of the shape model 200 is matched to the contour of the texture image 100. The scale factor according to the present invention is an aspect ratio of the aspect ratio between the texture image 100 and the standard shape model 200. The scale factor is used to adjust the outline of the standard shape model 200 to the outline of the texture image 100 using the scale factor. Contour matching is performed while expanding in the form of a circle. 3C illustrates a process in which the outline of the standard shape model 200 is expanded for the above-described contour matching. The image matched by the contour matching unit 30 is provided to the component matching unit 50 of the next stage.

구성 성분 정합부(50)는 윤곽선 정합부(30)에서 윤곽선 정합된 텍스쳐 영상(100)과 표준 형상 모델(200)내에서 눈썹, 눈, 코, 입과 같은 구성 성분간의 정합을 실시한다. 이때, 상술한 바와 같이, 표준 형상 모델(200)의 각 정점의 좌표값은 이미 알고 있지만, 텍스쳐 영상(100)은 이마, 우 및 좌측 귀, 및 코에 대한 좌표값만을 알고 있기 때문에, 하기 기술되는 구성 성분 위치 제공부(40)에서 제공되는 눈썹, 눈, 코, 입과 같은 구성 성분의 위치값을 이용하여 정합을 실시한다.The component matching unit 50 performs matching between the texture image 100, which is contour-matched by the contour matching unit 30, and components such as eyebrows, eyes, nose, and mouth in the standard shape model 200. In this case, as described above, the coordinate values of the vertices of the standard shape model 200 are already known, but since the texture image 100 knows only the coordinate values of the forehead, the right and left ears, and the nose, Matching is performed using the position values of the components, such as eyebrows, eyes, nose, and mouth, which are provided by the component position providing unit 40.

본 발명에 따른 구성 성분 위치 제공부(40)는 CCD 카메라(도시 안됨)를 이용하여 256 x 256 픽셀 크기의 텍스쳐 얼굴 영상을 약 20장 정도를 취득하고, 취득된 텍스쳐 영상을 영상의 밝기가 급격히 변하는 원 영상의 밝기 분포를 이용하는 에지 검출 방법을 이용하여 얼굴 영상에 대하여 에지 부분들을 추출한다. 이렇게 추출된 에지 영상은 도 4에 예시되어있으며, 이 에지 영상을 ″지식에 기반한 특징 추출 알고리즘″을 적용하여 5개의 특징값의 위치를 추출한다. ″지식에 기반한 특징 추출 알고리즘″은 하기와 같이 정의될 수 있다.The component position providing unit 40 according to the present invention acquires about 20 texture face images having a size of 256 x 256 pixels by using a CCD camera (not shown), and rapidly increases the brightness of the image. Edge portions are extracted from the face image using an edge detection method using a brightness distribution of a changing original image. The extracted edge image is illustrated in FIG. 4, and the positions of the five feature values are extracted by applying a ″ knowledge based feature extraction algorithm ″ to the edge image. ″ Knowledge based feature extraction algorithm ″ can be defined as follows.

지식 1 : 도 4에 도시된 에지 영상을 수평 방향으로 투영한 결과 일반적으로 가장 큰 값을 갖는 투영값 부분이 눈 또는 눈썹의 부분이다.Knowledge 1: As a result of projecting the edge image shown in FIG. 4 in the horizontal direction, the portion of the projection value having the largest value is generally the portion of the eye or the eyebrow.

지식 2 : Knowledge 2:

지식 3 : Knowledge 3:

지식 4 : Knowledge 4:

지식 5 : Knowledge 5:

지식 6 : Knowledge 6:

상술한 지식 1은 눈의 y축 값을 가장 큰 수평 투영값에 의해 결정할 수 있음을 의미하고, 이 값은 지식 2, 지식 3 및 지식 4에 의해 검증된다. 지식 2는 눈에서 코까지의 거리가 코에서 입까지의 거리보다 크다는 것을 의미한다. 지식 3은 얼굴이 코를 중심으로 좌우 대칭임을 의미한다. 지식 4는 좌측 눈, 코 그리고 우측 눈의 순서를 나타낸다. 지식 5는 눈썹, 코, 입 그리고 턱의 순서를 나타낸다. 지식 6은 얼굴의 가로 대 세로의 비율이 대략 1 : 1.5 임을 의미한다.Knowledge 1 above means that the y-axis value of the eye can be determined by the largest horizontal projection value, which is verified by knowledge 2, knowledge 3 and knowledge 4. Knowledge 2 means that the distance from the eyes to the nose is greater than the distance from the nose to the mouth. Knowledge 3 means that the face is symmetrical around the nose. Knowledge 4 represents the left eye, nose and right eye sequence. Knowledge 5 represents the order of the eyebrows, nose, mouth and chin. Knowledge 6 means that the ratio of face to face is approximately 1: 1.5.

상술한 지식에 기초한 특징값은, 도 5에 도시된 바와 같이, 얼굴 영상에서 좌 및 우측 눈과 코사이의 대각 거리(a 및 b), 코와 입사이의 거리(c), 눈과 코사이의 직선 거리(d), 그리고 입 가장자리로부터 x축 방향으로의 직선 거리(e)등을 포함한다. 구성 성분 위치 제공부(40)에서 취득한 5개의 특징값은 위치값으로서 구성 성분 정합부(50)로 제공된다.As shown in FIG. 5, the feature values based on the above-described knowledge include the diagonal distances a and b between the left and right eyes and the nose, the distance between the nose and the incident c, and the distance between the eyes and the nose in the face image. A straight line distance d and a straight line distance e from the mouth edge in the x-axis direction. The five feature values acquired by the component position providing unit 40 are provided to the component matching unit 50 as position values.

따라서, 구성 성분 정합부(50)는 윤곽선 정합부(30)에서 윤곽선 정합된 텍스쳐 영상(100)과 표준 형상 모델(200)의 도 3c에 도시된 영상내에서 눈썹, 눈, 코, 입과 같은 구성 성분의 정합을 실시한다. 이때, 상술한 바와 같이, 텍스쳐 영상(100)내 구성 성분의 좌표값을 알지못하기 때문에, 하기 기술되는 구성 성분 위치 제공부(50)에서 제공되는 눈썹, 눈, 코, 입과 같은 구성 성분의 위치값을 이용하여 정합을 실시한다. 구성 성분 정합부(50)에서 실행되는 구성 성분의 정합은 상술한 윤곽선 정합부(30)에서 실행하는 스케일 팩터를 고려하여 수행된다. 도 6은 구성 성분 정합부(50)에 의해 수행된 구성 성분 정합 결과를 예시한다.Accordingly, the component matching unit 50 may be configured such as an eyebrow, an eye, a nose, and a mouth in the image shown in FIG. 3C of the standard shape model 200 and the texture matched image 100 at the contour matching unit 30. Match the components. In this case, as described above, since the coordinate values of the components in the texture image 100 are not known, the components such as eyebrows, eyes, nose, and mouth provided by the component position providing unit 50 described below may be Match using position value. Matching of the components executed in the component matching unit 50 is performed in consideration of the scale factors executed in the above-described contour matching unit 30. 6 illustrates a component matching result performed by the component matching unit 50.

텍스쳐 맵핑부(60)는 도 6에 도시된 정합된 영상에서와 같은 표준 형상 모델 (200)의 폴리곤의 각 정점좌표에 대응하는 텍스쳐 영상(100)의 폴리곤의 텍스쳐 값을 투사시킴으로써 텍스쳐 맵핑을 수행한다. 도 7에는 텍스쳐 맵핑부(60)에 의해 텍스쳐 맵핑된 결과를 예시한다.The texture mapping unit 60 performs texture mapping by projecting texture values of polygons of the texture image 100 corresponding to each vertex coordinate of the polygons of the standard shape model 200 as in the matched image illustrated in FIG. 6. do. 7 illustrates a result of texture mapping by the texture mapping unit 60.

이상 설명한 바와 같이, 인간의 형상 모델을 이용한 3차원 모델 기반 코딩 시스템에서 텍스쳐 맵핑을 위한 얼굴 윤곽선 정합을 위하여 텍스쳐 얼굴 영상의 스케일 팩터를 이용하여 표준 형상 모델과 윤곽선 정합을 수행함으로써 복잡한 전처리 과정이 단축될 수 있으며, 지식에 기반한 특징 추출 알고리즘을 이용하여 텍스쳐 영상의 눈, 코, 입술 등의 구성 성분의 위치를 추출하여 표준 형상 모델의 대응하는 구성 성분 위치에 정확히 텍스쳐 맵핑을 수행할 수 있게된다.As described above, the complex preprocessing process is shortened by performing contour matching with the standard shape model using the scale factor of the texture face image for face contour matching for texture mapping in a 3D model-based coding system using a human shape model. By using a knowledge-based feature extraction algorithm, the positions of components such as eyes, nose, and lips of the texture image may be extracted, and texture mapping may be accurately performed on corresponding component positions of the standard shape model.

Claims (4)

인간의 형상 모델을 이용한 3차원 모델 기반 시스템의 텍스쳐 맵핑 방법에 있어서,In the texture mapping method of a 3D model based system using a human shape model, 전송자의 텍스쳐 얼굴 영상을 취득하는 단계;Acquiring a texture face image of the sender; 와이어 프레임의 3차원 표준 형상 모델을 제공하는 단계;Providing a three-dimensional standard shape model of a wire frame; 상기 텍스쳐 영상과 표준 형상 모델의 얼굴 윤곽선을 정합하는 단계;Matching face contours of the texture image with a standard shape model; 지식에 기반한 특징 추출 알고리즘을 이용하여 구한 특징값에 따라 상기 텍스쳐 영상의 얼굴내 각 구성 성분의 위치를 추출하는 단계;Extracting a position of each component in the face of the texture image according to a feature value obtained by using a knowledge-based feature extraction algorithm; 상기 텍스쳐 영상의 얼굴 구성 성분의 위치값을 이용하여 상기 얼굴 윤곽선 정합된 텍스쳐 영상과 표준 형상 모델들간의 구성 성분의 정합을 전체적으로 수행하는 단계;Performing matching of the components between the face contour-matched texture image and standard shape models as a whole using the position values of the face components of the texture image; 상기 텍스쳐 영상의 텍스쳐 데이터를 상기 전체적으로 정합된 표준 형상 모델에 투사하여 텍스쳐 맵핑을 수행하는 단계를 포함하며;Projecting texture data of the texture image onto the globally matched standard shape model to perform texture mapping; 상기 얼굴 윤관선 정합 단계는:The facial limbal matching step is: 상기 텍스쳐 영상의 중심 좌표와 상기 표준 형상 모델의 중심 좌표와의 차를 구하는 단계;Obtaining a difference between a center coordinate of the texture image and a center coordinate of the standard shape model; 상기 차만큼 상기 표준 형상 모델의 중심 좌표를 상기 텍스쳐 영상의 중심 좌표로 이동시켜 상기 텍스쳐 영상의 중심에 상기 표준 형상 모델의 중심을 일치시키는 단계;Moving the center coordinates of the standard shape model to the center coordinates of the texture image by the difference to match the center of the standard shape model to the center of the texture image; 상기 텍스쳐 영상과 표준 형상 모델간의 스케일 팩터를 이용하여 상기 중심 일치된 표준 형상 모델의 윤곽선을 상기 텍스쳐 영상의 윤곽선에 정합하는 단계를 구비하는 것을 특징으로 하는 3차원 형상 모델 기반 시스템의 텍스쳐 맵핑 방법.And matching the contour of the center-matched standard shape model to the contour of the texture image using a scale factor between the texture image and the standard shape model. 제 1 항에 있어서, 상기 텍스쳐 영상의 중심 좌표와 상기 표준 형상 모델의 중심 좌표와의 차이를 구하는 단계는:The method of claim 1, wherein obtaining a difference between the center coordinates of the texture image and the center coordinates of the standard shape model is as follows: 각각의 상기 텍스쳐 영상 및 표준 형상 모델의 중심점으로부터 각각의 상기 텍스쳐 영상 및 표준 형상 모델의 얼굴 윤곽선까지의 ±x, y 방향의 종횡 비율을 이용하여 계산되는 것을 특징으로 하는 3차원 형상 모델 기반 시스템의 텍스쳐 맵핑 방법.The aspect ratio of the three-dimensional shape model based system, characterized in that calculated using the aspect ratio of ± x, y direction from the center point of each of the texture image and the standard shape model to the face contour of each of the texture image and the standard shape model Texture mapping method. 제 2 항에 있어서, 상기 스케일 팩터는 상기 표준 형상 모델과 상기 텍스쳐 영상의 얼굴 종횡비인 것을 특징으로 하는 3차원 형상 모델 기반 시스템의 텍스쳐 맵핑 방법.The texture mapping method of claim 2, wherein the scale factor is a face aspect ratio of the standard shape model and the texture image. 제 1 항에 있어서, 상기 텍스쳐 영상의 얼굴내 각 구성 성분의 위치를 추출하는 단계는:The method of claim 1, wherein the extracting of the position of each component in the face of the texture image comprises: 상기 텍스쳐 영상에 대한 에지 영상을 구하는 단계;Obtaining an edge image with respect to the texture image; 상기 지식에 기반한 특징 추출 알고리즘을 적용하여, 상기 텍스쳐 얼굴 영상에서 좌 및 우측 눈과 코사이의 대각 거리(a 및 b), 코와 입사이의 거리(c), 눈과 코사이의 직선 거리(d), 그리고 입 가장자리로부터 x축 방향으로의 직선 거리(e)등을 나타내는 특징값을 추출하는 단계를 구비하는 것을 특징으로 하는 3차원 형상 모델기반 시스템의 텍스쳐 맵핑 방법.By applying the knowledge-based feature extraction algorithm, the diagonal distances (a and b) between the left and right eyes and the nose, the distance between the nose and the incidence (c), and the linear distance between the eyes and the nose (d) in the texture face image And extracting feature values representing a straight line distance (e) from the edge of the mouth to the x-axis direction, and the like.
KR1019980019414A 1998-04-24 1998-05-28 Method for matching of components in facial texture and model images KR100292238B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019980019414A KR100292238B1 (en) 1998-05-28 1998-05-28 Method for matching of components in facial texture and model images
GB9822138A GB2336735A (en) 1998-04-24 1998-10-09 Face image mapping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980019414A KR100292238B1 (en) 1998-05-28 1998-05-28 Method for matching of components in facial texture and model images

Publications (2)

Publication Number Publication Date
KR19990086439A KR19990086439A (en) 1999-12-15
KR100292238B1 true KR100292238B1 (en) 2001-06-01

Family

ID=37526226

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980019414A KR100292238B1 (en) 1998-04-24 1998-05-28 Method for matching of components in facial texture and model images

Country Status (1)

Country Link
KR (1) KR100292238B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850660A (en) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk Real time recognition and composition device for image
JPH08305894A (en) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk Three-dimensional image generating device capable of representing wrinkle
JPH1074271A (en) * 1996-08-30 1998-03-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for preparing three-dimensional portrait

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850660A (en) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk Real time recognition and composition device for image
JPH08305894A (en) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk Three-dimensional image generating device capable of representing wrinkle
JPH1074271A (en) * 1996-08-30 1998-03-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for preparing three-dimensional portrait

Also Published As

Publication number Publication date
KR19990086439A (en) 1999-12-15

Similar Documents

Publication Publication Date Title
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
US11887234B2 (en) Avatar display device, avatar generating device, and program
CN106952221B (en) Three-dimensional Beijing opera facial makeup automatic making-up method
JP2008535116A (en) Method and apparatus for three-dimensional rendering
KR101829733B1 (en) Conversion Method For A 2D Image to 3D Graphic Models
CN114821675B (en) Object processing method and system and processor
Goto et al. Facial feature extraction for quick 3D face modeling
EP1320074B1 (en) Method and apparatus for generating texture for a 3D facial model
Richter et al. Real-time reshaping of humans
CN116863044A (en) Face model generation method and device, electronic equipment and readable storage medium
Otsuka et al. Extracting facial motion parameters by tracking feature points
Agawa et al. Image analysis for face modeling and facial image reconstruction
KR100281965B1 (en) Face Texture Mapping Method of Model-based Coding System
KR100292238B1 (en) Method for matching of components in facial texture and model images
KR100902995B1 (en) Method for making face image of golden ratio, and apparatus applied to the same
Leung et al. Realistic video avatar
Rurainsky et al. Template-based eye and mouth detection for 3D video conferencing
WO2022180575A1 (en) Three-dimensional (3d) human modeling under specific body-fitting of clothes
JP2001231037A (en) Image processing system, image processing unit, and storage medium
Xu et al. Three-dimensional face modeling for virtual space teleconferencing systems
KR100408829B1 (en) Face Image Segmentation Method in Model-Based Coding System
KR100278065B1 (en) Apparatus for composing a lip shape in a 3 dimension model-based coding system
KR19990039650A (en) Texture Mapping Method for Lip Animation
Zeng et al. Ultra-low bit rate facial coding hybrid model based on saliency detection
Nagel et al. Automated modelling of real human faces for 3D animation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110302

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee