KR19990031324A - Texture mapping method for lip animation - Google Patents

Texture mapping method for lip animation Download PDF

Info

Publication number
KR19990031324A
KR19990031324A KR1019970051990A KR19970051990A KR19990031324A KR 19990031324 A KR19990031324 A KR 19990031324A KR 1019970051990 A KR1019970051990 A KR 1019970051990A KR 19970051990 A KR19970051990 A KR 19970051990A KR 19990031324 A KR19990031324 A KR 19990031324A
Authority
KR
South Korea
Prior art keywords
lip
texture
shape model
lips
standard shape
Prior art date
Application number
KR1019970051990A
Other languages
Korean (ko)
Inventor
윤강식
Original Assignee
전주범
대우전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자 주식회사 filed Critical 전주범
Priority to KR1019970051990A priority Critical patent/KR19990031324A/en
Publication of KR19990031324A publication Critical patent/KR19990031324A/en

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법에 관한것으로, 종래 기술에서는 입술 부분의 텍스쳐 맵핑을 위하여 전송자 자신의 텍스쳐 입술의 좌표를 모두 구하여하는 단점이 있었다. 그러나, 본 발명의 방법은 정규화된 텍스쳐 영상 입술과 정규화된 표준 형상 모델 입술에서 근사화된 삼각형을 형성하고, 근사화된 삼각형의 선분 비례 관계에 의해 정규화된 텍스쳐 영상 입술상의 후보 특징점들의 좌표값을 구하는 것을 특징으로한다. 따라서, 모든 텍스쳐 영상 입술상의 특징점을 간단한 방식으로 구할 수 있으므로, 계산 시간이 단축될 수 있다.The present invention relates to a texture mapping method for lip shape animation in a facial expression change coding system using a human shape model. In the related art, in order to texture map a lips part, . However, in the method of the present invention, the approximated triangles are formed from the normalized texture image lips and the normalized standard shape model lips, and the coordinate values of the candidate feature points on the normalized texture image lips are obtained by the line-proportional relationship of the approximated triangles . Therefore, since the feature points on all the texture image lips can be obtained by a simple method, the calculation time can be shortened.

Description

입술 애니메이션을 위한 텍스쳐 맵핑 방법Texture mapping method for lip animation

본 발명은 3 차원 모델 기반 코딩 시스템의 얼굴의 표정 변화 코딩에 관한 것으로, 보다 상세하게는 입술 애니메이션을 위한 입술 텍스쳐 맵핑 방법에 관한 것이다.The present invention relates to facial expression change coding of a three-dimensional model-based coding system, and more particularly to a lip texture mapping method for lip animation.

3 차원 물체 모델, 특히 인간의 형상 모델을 이용한 응용 기술은 비디오 코딩(video coding), 가상현실 및 컴퓨터 그래픽스(computer graphics) 분야에서 응용되고 있다. 현재 진행중인 비디오 코딩(video coding) 분야에서는 좀더 적은 데이터량으로 만족스러운 화질의 영상을 전송하려는 연구가 지속되고 있다. 전송되는 데이터량에 따른 연구과제를 살펴보면 크게 HDTV 로부터 시작하여 적게는 현재 활발히 연구되고있는 MPEG4가 있다. 이중 MPEG4 에서는 매우 적은 데이터량을 이용하여 비디오 신호를 전송하기 때문에 단순히 정보 이론을 이용한 변환, 예를 들면, 코사인 변환(cosine transform) 계수 방법만 사용되는 것이 아니라, 그밖의 컴퓨터 비젼(computer vision), 컴퓨터 그래픽스에서 사용되는 기술들이 응용되기도 한다.Application techniques using a three-dimensional object model, in particular a human shape model, have been applied in the fields of video coding, virtual reality and computer graphics. In the ongoing video coding field, research is continuing to transmit satisfactory image quality with a smaller amount of data. The study on the amount of data to be transmitted is as follows. In MPEG4, since a video signal is transmitted using a very small amount of data, not only a conversion using information theory, for example, a cosine transform coefficient method, but also other computer vision, Techniques used in computer graphics are also applied.

일반적으로 비디오 폰 또는 비디오 회의(video conference)에서 보이는 사람의 형태는 허리 이상인 흉부만이 보인다. 특히 말하는 사람의 얼굴이 영상 정보 전달의 대부분을 차지하고 있다. 만약 사람 얼굴 외의 정보, 즉, 배경 정보 등을 무시하고 얼굴 형태에 대한 특징적인 규칙화된 정보만 보낼 수 있다면 전송량을 매우 줄일수 있을 것이다. 즉 얼굴에 나타나는 일반적인 희, 노, 애, 락 감정 표정 및 말을 할 때의 입 모양에 나타나는 규칙을 찾아내어 하나의 정보화된 코드로 상대편에게 보내고, 상대방에서는 이를 받아서 자신이 갖고 있는 3 차원 모델을 수신된 코드에 따라 얼굴 형태를 변형시켜 도시함으로써 전송자의 표정 형태를 적은 데이터 양으로 파악 할 수 있을 것이다.Typically, the shape of a person seen in a videophone or video conference is only the chest, which is above the waist. In particular, the face of the speaker is responsible for the majority of video information transmission. If we can send only the characteristic regularized information about the face type, ignoring the information other than the human face, that is, the background information, the transmission amount can be greatly reduced. In other words, the rules appearing on the face of the common heel, noh, cloak, and rock emotional expressions and the mouth shape of the speech are found and sent to the opponent with one informed code, and the opponent receives the three- By displaying the face shape according to the received code, it is possible to grasp the expression form of the sender with a small amount of data.

보다 상세히 말해서, 3 차원 모델 기반 코딩 시스템은 비디오 폰과 같이 두 사람이 현장에서 실 시간으로 이야기를 하며, 소리뿐아니라 변화하는 얼굴 또는 몸도 같이 실시간으로 전송하는 것을 코딩의 대상으로한다. 그런데 일반 비디오 코딩과 다른 것은 전송 데이터는 시시각각 변화하는 픽셀들로 이루어진 영상을 취급하는 것이 아니고 어떤 특정한 움직임 변수를 추출하여 전송한 다음, 수신측에서 가지고있는 자료, 즉, 전송자의 얼굴 영상, 일반적인 3 차원 머리 형태 모델, 몸 형태 모델등과 결합되어 재구성된후 최종 변화하는 전송자의 얼굴 또는 몸 영상을 구성하는 것이다.More specifically, a three-dimensional model-based coding system is a coding object in which two persons talk in real time in a field like a videophone and transmit not only a sound but also a changing face or body in real time. However, in contrast to general video coding, transmission data does not deal with an image composed of pixels that vary instantaneously. Instead, it extracts a specific motion variable, transmits the data, Dimensional head shape model, body shape model, and the like, and reconstructs the final changed face or body image of the sender.

물론, 이와 같은 시스템 구성은 전송하고자 하는 데이터의 양이 데이터 전송 대역 폭에 의해 매우 크게 제약을 받아 많은 양은 보내지 못하지만, 쌍방간 정확한 인식을 위한 충분한 화질을 요할 경우 사용될 수 있는 것이다. 대역폭이 커서 충분한 데이터를 보낼 수 있다면 이 시스템의 장점은 그만큼 낮아질것이다. 왜냐하면, 규칙화된 코드로서는 자연스런 표정을 나타내기에 부족한 감이 있기 때문이다.Of course, in such a system configuration, the amount of data to be transmitted is very limited by the data transmission bandwidth, so that a large amount of data can not be sent, but it can be used when sufficient image quality is required for accurate recognition between both parties. If the bandwidth is big enough to send enough data, the advantage of this system will be less. This is because the regularized code has a lack of a natural expression.

이러한 3 차원 모델 기반 코딩 시스템에서 상호 전송되는 전송자의 얼굴 영상중에서 입 모양, 특히 입술에 대한 형태는 매우 중요한 시각적 정보를 가지고 있다. 즉, 전송자가 무슨 말을 하고 있으며, 어떤 감정을 나타내고 있는지 입술의 형태로써 가늠할 수가 있기 때문이다.In this 3D model based coding system, mouth shape, especially lip shape, has very important visual information among mutually transmitted face images of the sender. In other words, what the sender is talking about and how he expresses his emotions can be measured in the form of lips.

입술 모양 표현 애니메이션은 한가지 입술 모양으로부터 여러가지 다른 모양의 입술 모양을 합성하는 방식으로, 3 차원의 와이어 프레임으로 구성된 표준 형상 모델 입술을 전송자 자신의 입술에 매칭시키고 텍스쳐 데이터를 투사(projcet)하는 텍스쳐 맵핑을 수행한다. 텍스쳐 맵핑은 텍스쳐 영상 입술의 모든 좌표값을 구하고, 이 좌표값으로 대응하는 표준 형상 모델 입술을 겹쳐주어야한다.Lip shape expression animation is a method of synthesizing lip shapes of various shapes from one lips shape. In this method, a standard shape model lips composed of a three-dimensional wire frame is matched to the lips of the sender itself and a texture mapping . The texture mapping must obtain all the coordinate values of the texture image lip and superimpose the corresponding standard shape model lip with this coordinate value.

그러나, 표준 형상 모델 입술의 좌표값은 와이어 프레임 구성시 이미 알고 있지만, 텍스쳐 영상 입술의 좌표값은 몇개의 특징점을 제외하고는 알고 있지 못한다. 따라서, 나머지 특징점들의 좌표값을 모두 구하는 시간이 많이 소요되는 문제가 있었다.However, the coordinate values of the standard shape model lips are already known in the wire frame construction, but the coordinate values of the texture image lips are not known except for some feature points. Therefore, there is a problem that it takes a lot of time to obtain all the coordinate values of the remaining minutiae.

그러므로, 본 발명은 3 차원 모델 기반 코딩 시스템에서 입술 애니메이션을 위한 입술 텍스쳐 맵핑 방법을 제공하는 것을 그 목적으로한다.Therefore, it is an object of the present invention to provide a lip texture mapping method for lip animation in a three-dimensional model-based coding system.

본 발명의 다른 목적은 3 차원 모델 기반 코딩 시스템에서 입술 텍스쳐 맵핑을 위하여 텍스쳐 영상 입술의 좌표값을 간단한 방식으로 구할 수 있는 개선된 텍스쳐 맵핑 방법을 제공하는 것이다..It is another object of the present invention to provide an improved texture mapping method capable of finding coordinate values of a texture image lip in a simple manner for lip texture mapping in a three-dimensional model-based coding system.

상술한 목적을 달성하기위한 본 발명에 따르면, 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법은: 전송자 얼굴의 기설정 크기의 텍스쳐 영상을 취득하는 단계; 와이어 프레임의 표준 형상 모델로부터 입술 부분을 추출하는 단계; 상기 표준 형상 모델 입술을 상기 텍스쳐 영상 입술에 겹쳐서 일치되도록 매칭시키는 단계; 상기 매칭된 표준 형상 모델 입술에 상기 텍스쳐 영상 입술의 텍스쳐 데이터를 투사하여 텍스쳐 맵핑을 수행하는 단계를 포함하는 것을 특징으로한다.According to another aspect of the present invention, there is provided a texture mapping method for lip shape animation in a facial expression change coding system using a human shape model, comprising: acquiring a texture image of a predetermined size of a sender face; Extracting a lip portion from a standard shape model of the wire frame; Matching the standard shape model lips to overlap the texture image lips; And performing texture mapping by projecting the texture data of the texture image lip onto the matched standard shape model lip.

도 1은 본 발명의 바람직한 실시예에 따라서 구성된 3 차원 모델 기반 코딩시스템의 입술 애니메이션을 위한 텍스쳐 맵핑 장치의 개략적인 블록도,1 is a schematic block diagram of a texture mapping apparatus for lip animation of a three-dimensional model-based coding system constructed in accordance with a preferred embodiment of the present invention;

도 2는 텍스쳐 맵핑을 위하여 제공되는 와이어 프레임 표준 형상 얼굴 모델을 예시하는 도면,2 is a diagram illustrating a wireframe standard shape face model provided for texture mapping,

도 3은 텍스쳐 맵핑을 위하여 제공되는 텍스쳐 얼굴 영상을 예시하는 도면,3 is a diagram illustrating a texture face image provided for texture mapping,

도 4는 표준 형상 얼굴 모델의 입술과 텍스쳐 얼굴 영상을 겹쳐 매칭시키는 과정을 예시하는 도면,4 is a diagram illustrating a process of superimposing and matching a lip of a standard shape face model and a texture face image,

도 5a, 5b, 5c, 5d, 5e는 각기 본 발명에 따른 텍스쳐 맵핑을 위한 텍스쳐 영상 입술의 후보 특징점의 좌표를 구하는 과정을 예시하는 도면,FIGS. 5A, 5B, 5C, 5D and 5E are diagrams for explaining the process of obtaining coordinates of candidate feature points of a texture image lip for texture mapping according to the present invention,

도 6은 본 발명에 따른 입술 텍스쳐 맵핑 결과를 예시하는 도면.6 is a diagram illustrating a lip texture mapping result according to the present invention;

< 주요부분에 대한 부호의 설명 >&Lt; Explanation of symbols for main parts &gt;

10 : 표준 형상 모델 제공부 20 : 표준 형상 모델 입술 추출부10: standard shape model providing unit 20: standard shape model lips extracting unit

30 : 텍스쳐 영상 취득부 40 : 텍스쳐 맵핑부30: texture image acquisition unit 40: texture mapping unit

본 발명의 상기 및 기타 목적과 여러가지 장점은 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로 부터 더욱 명확하게 될 것이다.These and other objects and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하면, 본 발명에 따라 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 애니메이션을 위한 입술의 텍스쳐 맵핑 장치의 개략적인 블록도가 도시된다. 본 발명의 입술 영상 텍스쳐 맵핑 장치는 표준 형상 모델 제공부(10), 표준 형상 모델 입술 추출부(20), 얼굴 텍스쳐 영상 취득부(30) 및 텍스쳐 맵핑부(40)를 포함한다.Referring to FIG. 1, a schematic block diagram of a lip texture mapping apparatus for lip animation in a facial expression change coding system using a human shape model according to the present invention is shown. The lip image texture mapping apparatus of the present invention includes a standard shape model providing unit 10, a standard shape model lip extracting unit 20, a face texture image obtaining unit 30, and a texture mapping unit 40.

표준 형상 모델 제공부(10)는 3 차원의 머리 모델을 가지고있으며, 3 차원 머리 모델(100)은 도 2에 예시된 바와같이 실리콘 그래픽스 인터페이스(SGI : silicon graphics interface) 워크스테이션을 이용하여 구성된 다수의 다각형(polygon)을 연결한 망의 형태를 갖는 와이어 프레임(wire frame)이라는 3 차원 컴퓨터 그래픽스 형태로 저장되어있다. 3차원 머리 모델(100)은 표준 형상 모델 입술 추출부(20)로 제공된다.The standard shape model supplier 10 has a three-dimensional hair model, and the three-dimensional hair model 100 includes a plurality of units configured using a silicon graphics interface (SGI) workstation as illustrated in FIG. Dimensional computer graphics format called a wire frame having the form of a network in which polygons of a polygon are connected. The three-dimensional hair model 100 is provided to the standard shape model lip extracting unit 20.

표준 형상 모델 입술 추출부(20)는 표준 형상 모델 제공부(10)로부터 수신된 와이어 프레임의 3차원 머리 모델로부터 입술 부분(110)만을 추출하고, 추출된 입술 부분(110)을 텍스쳐 맵핑부(40)로 제공한다.The standard shape model lip extracting unit 20 extracts only the lip part 110 from the three-dimensional head model of the wire frame received from the standard shape model providing unit 10 and extracts the extracted lip part 110 from the texture mapping unit 40).

한편, 얼굴 텍스쳐 영상 취득부(30)는 카메라(도시안됨)로부터 제공되는 전송자의 얼굴 영상을 세그멘테이션(sementation) 방식을 이용하여 화소 값이 비슷한 영역으로 분리함으로써 전송자의 실제 2 차원 얼굴 텍스쳐 영상을 추출한다. 추출된 얼굴 텍스쳐 영상은 영상의 밝기가 급격히 변하는 원 영상의 밝기 분포를 이용하는 에지 검출 방법을 이용하여 얼굴 영상에 대하여 에지 부분들을 추출하고, 추출된 에지들의 경계를 나타내는 윤곽선(contour)과 그 영역의 내부에 대한 정보인 내용(content)을 저장한다. 얼굴 텍스쳐 영상 취득부(30)에의해 취득된 텍스쳐 영상은 텍스쳐 맵핑부(40)로 제공된다.On the other hand, the face texture image acquisition unit 30 extracts the actual two-dimensional face texture image of the sender by separating the face image of the sender provided from the camera (not shown) into areas having similar pixel values using a sementation method do. The extracted face texture image is obtained by extracting edge portions of a face image using an edge detection method using brightness distribution of an original image in which the brightness of the image is rapidly changed, extracting a contour representing the boundary of the extracted edges, It stores content, which is information about the inside. The texture image acquired by the face texture image acquisition unit 30 is provided to the texture mapping unit 40. [

텍스쳐 맵핑부(40)는 텍스쳐 영상의 입술(210)의 텍스쳐 데이터를 표준 형상 모델 입술(110)에 투사하는 텍스쳐 맵핑을 수행한다. 텍스쳐 맵핑을 위해서는 먼저, 텍스쳐 영상 입술(210)과 표준 형상 모델 입술(110)을 겹쳐지도록 매칭시켜주어야한다. 따라서, 텍스쳐 맵핑부(40)는 맵핑 얼굴 텍스쳐 영상 취득부(30)로부터 제공된 텍스쳐 영상에 대하여 도 3에 도시된 바와 같은 512 * 512 크기의 윈도우(200)를 형성하고, 윈도우(200)상에 표준 형상 모델의 입술(110)을 합성한다.The texture mapping unit 40 performs texture mapping for projecting the texture data of the lip 210 of the texture image onto the standard shape model lip 110. In order to perform the texture mapping, the texture image lip 210 and the standard shape model lip 110 must be matched to overlap each other. Accordingly, the texture mapping unit 40 forms a window 200 of 512 * 512 size as shown in FIG. 3 for the texture image provided from the mapping face texture image acquisition unit 30, The lip 110 of the standard shape model is synthesized.

도 4는 텍스쳐 얼굴 영상의 윈도우(200)와 표준 형상 모델의 입술(110)과의 합성 결과를 예시하는 도면으로, 표준 형상 모델의 입술(110)은 텍스쳐 얼굴 영상(200)의 입술(210)과 서로 위치적으로 일치하지않음을 알 수 있다. 따라서, 텍스쳐 맵핑부(40)는 표준 형상 모델(100)의 입술(110)이 텍스쳐 얼굴 영상(200)의 입술(210)에 겹쳐져서 매칭되도록하기 위하여 하기 설명되는 바와같은 표준 형상 모델(100)의 입술 부분(110)을 텍스쳐 입술 부분(210)과의 옵셋값만큼 상기 표준 형상 모델의 입술 부분을 이동하여 두 입술의 에지점들을 겹쳐 일치시키는 스케일링을 수행한다.4 is a diagram illustrating a result of combining a window 200 of a texture face image and a lip 110 of a standard shape model. The lip 110 of the standard shape model is a lip 210 of the texture face image 200, Are not locally coincident with each other. Accordingly, the texture mapping unit 40 may include a standard shape model 100 as described below to allow the lips 110 of the standard shape model 100 to overlap and match the lips 210 of the texture face image 200, The lip portion 110 of the standard lip model 110 is moved by the offset value of the texture lip portion 210 with respect to the lip portion of the standard lip model 210 to perform the scaling to overlap the edge points of the two lips.

도 5a 및 5b를 참조하면, 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)이 각기 도시되는데, 텍스쳐 맵핑을 위해서는 텍스쳐 입술(210)의 특징점들( P1 , P2 , . . . , Pn )을 표준 형상 모델 입술의 대응 정점들( P1 , P2 , . . . , Pn )에 일치되도록 하여야한다. 그러나, 3 차원 표준 형상 모델의 각각의 정점(vertex)의 좌표값은 이미 얼굴 전체의 표준 형상 모델을 구성할때 알고 있지만, 2 차원 텍스쳐 영상은 텍스쳐 코딩시 모든 특징점들의 좌표값은 알지 못하고 단지 일부의 특징점 좌표값만을 알고 있다. 따라서, 전체적인 텍스쳐 맵핑을 위해서는 텍스쳐 영상의 나머지 좌표값을 구해야한다. 표준 형상 모델 입술(110)의 정점들은 3 차원 좌표값(x, y, z)을 가지기때문에, 2 차원 텍스쳐 입술(210)상에 디스플레이되기위해서는 모든 z 축상의 좌표값을 "0"로 설정한다. 그러면, 표준 형상 모델 입술(110)의 정점에 대응하는 2차원 텍스쳐 입술(210)의 특징점 Pn ( sn , tn )만 구하면 된다.5A and 5B, a standard shape model lip 110 and a texture image lip 210 are shown, respectively. For texture mapping, the minutiae of the texture lip 210 P 1 ' , P 2 ' ,. . . , P n ' ) To the corresponding vertices of the standard shape model lips ( P 1 , P 2 ,. . . , P n ). However, the coordinate values of the respective vertices of the three-dimensional standard shape model are already known when constructing the standard shape model of the entire face, but in the texture coding, the coordinate values of all the feature points are not known, Only the minutiae coordinate values of the minutiae are known. Therefore, for the overall texture mapping, the remaining coordinate values of the texture image should be obtained. Since the vertices of the standard shape model lips 110 have three-dimensional coordinate values (x, y, z), the coordinate values on all z-axes are set to &quot; 0 &quot; in order to be displayed on the two- . Then, the feature points of the two-dimensional texture lips 210 corresponding to the vertices of the standard shape model lips 110 P n ' ( s n , t n ).

따라서, 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)의 영상을 각기 상기 표준 형상 모델과 텍스쳐 영상의 입술 부분을 각기 가로의 길이로 전체를 정규화하여야한다. 보다 상세히 설명하면, 표준 형상 모델 입술(110)에서 입술 부분의 중심점( P0 )로부터 우측 입술 끝점( Pn )과의 길이( D1 = Pn- P0 )와 좌측 입술 끝점( P1 )과의 길이( D2 = P0- Pn )를 구하고, 두 길이중에서 최대 길이( D = max(D1,D2) )를 취한다. 그 다음, 최대 길이(D)로 표준 형상 모델 입술(110)을 하기 수학식 1과 같이 정규화한다.Therefore, the images of the standard shape model lip 110 and the texture image lip 210 should be normalized to the lengths of the lips of the standard shape model and the texture image, respectively. More specifically, in the standard shape model lip 110, the center point of the lip portion ( P 0 ) To the right lip end point ( P n ) And the length ( D 1 = P n - P 0 ) And the left lip end point P 1 ) And the length ( D 2 = P 0 - P n ), And the maximum length of the two lengths ( D = max (D 1 , D 2 ) ). Next, the standard shape model lip 110 is normalized to the maximum length D as shown in the following equation (1).

상술한 수학식 1에서, xnew와 ynew는 표준 형상 모델 입술(110)의 가로 방향에 존재하는 특징점(P)의 정규화된 좌표값이고, xold와 yold는 정규화 이전의 좌표값이며, x0와 y0는 중심점(P0)의 좌표값을 각기 나타낸다.In the above Equation 1, x new and y new are the normalized coordinate values of the feature points P existing in the horizontal direction of the standard shape model lip 110, x old and y old are the coordinate values before the normalization, x 0 and y 0 represent the coordinate values of the center point (P 0 ), respectively.

마찬가지로, 텍스쳐 영상 입술(210)에 대하여도 최대 길이(D')를 구하고, 이 최대 길이(D')로 텍스쳐 영상 입술(210)을 하기 수학식 2과 같이 정규화한다.Similarly, the maximum length D 'is obtained for the texture image lip 210, and the texture image lip 210 is normalized to the maximum length D' as shown in the following equation (2).

상술한 수학식 2에서, snew와 tnew는 텍스쳐 영상 입술(210)의 가로 방향에 존재하는 특징점(P')의 정규화된 좌표값이고, snew와 tnew는 정규화 이전의 좌표값이며, s0와 t0는 중심점(P0')의 좌표값을 각기 나타낸다. 도 5c에는 정규화된 상태의 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)을 도시한다.In the above Equation 2, s new and t new are normalized coordinate values of the feature point P 'existing in the horizontal direction of the texture image lip 210, s new and t new are coordinate values before normalization, s 0 and t 0 represent coordinate values of the center point (P 0 '), respectively. FIG. 5C illustrates a normal shape model lips 110 and a texture image lips 210 in a normalized state.

그 다음에는 정규화된 표준 형상 모델 입술(110)이 2 차원 텍스쳐 입술(210)의 대응하는 특징점들에 겹쳐지도록 표준 형상 모델 입술(110)의 각 정점들(P1, P2, . . . , Pn)의 좌표값을 2 차원 텍스쳐 입술(210)의 대응하는 특징점들(P1', P2', . . . , Pn')의 좌표값으로 이동시켜야한다. 따라서, 텍스쳐 입술(210)의 특징점들(P1', P2', P4')의 좌표값은 이미 알고있으므로 그들에 대응하는 표준 형상 모델 입술(110)의 대응하는 각 정점들(P1, P2, P4)로 이동시키면되지만, 텍스쳐 입술(210)의 나머지 후보 특징점들, 예로 정점(P3', P5')의 좌표값을 알지못하기때문에 표준 형상 모델 입술(110)의 대응하는 정점(P3, P5)을 이동시킬 수 없을 것이다.Next, each vertex (P 1 , P 2 , ..., P 2 ) of the standard shape model lip 110 is dimensioned so that the normalized standard shape model lip 110 overlaps the corresponding feature points of the two- P n ) to the coordinate values of the corresponding minutiae points P 1 ', P 2 ', ..., P n 'of the two-dimensional texture lip 210. Accordingly, the feature points of the texturing lip (210) (P 1 ', P 2', P 4 ') coordinate value because it already knows the respective vertices of a standard shape model lips 110 corresponding to their corresponding (P 1 of P 2 , P 4 ), but since the coordinate values of the remaining candidate feature points of the texture lip 210, for example, the vertices P 3 'and P 5 ', are unknown, It will not be possible to move the corresponding vertices P 3 , P 5 .

본 발명에 따르면, 텍스쳐 영상 입술(210)의 나머지 정점(P3', P5')의 좌표값을 하기에 설명되는 삼각형 근사화 접근법을 이용하여 구한다.According to the present invention, the coordinate values of the remaining vertices (P 3 ', P 5 ') of the texture image lip 210 are obtained by using the triangle approximation approach described below.

먼저, 정점(P3')의 좌표값을 구하기위하여, 텍스쳐 영상 입술(210)의 한 끝점, 예로 좌측 끝점(P1')을 꼭지점으로하여 그 꼭지점으로부터 한 특징점, 예로 (P2')까지 연장되는 선을 제 1 변(310)으로하고, 표준 형상 모델 입술(110)의 한 끝점, 예로 좌측 끝점(P1)으로부터 텍스쳐 영상 입술(210)의 특징점(P2')에 대응하는 정점(P2)으로 연장하는 선을 제 2 변(320)으로하고, 정점(P2)로부터 특징점(P2')으로 연장하는 제 3 변(330)으로 하는 근사화된 삼각형(300)(도 5d 참조)을 구성한다. 근사화된 삼각형(300)에서, 표준 형상 모델 입술(110)의 제 2 변(320)상의 정점(P3)으로부터 텍스쳐 입술(210)의 제 1 변(310)상의 대응 정점(P3')까지의 변위량( ΔP )은 제 3 변(330)상의 정점(P2)으로부터 정점(P2')에 도달하는 변위량과 비례한다. 이때, 표준 형상 모델 입술(110)의 한 정점(P3)으로부터 텍스쳐 영상 입술(210)의 대응 정점(P3')까지의 변위량( ΔP )은 선분( )으로 표현될 수 있으며, 이 선분( )은 제 3 변의 선분( )과 비례 관계를 갖기 때문에, 하기 수학식 3 및 4를 유도할 수 있다.First, to the vertex (P 3 ') (a to the vertex a feature point from the apex, for example (P 2'), the texture image lips one end, for example the left end point of the (210) P 1) to obtain the coordinate values of the ' The line extending is the first side 310 and a vertex corresponding to the feature point P 2 'of the texture image lip 210 from one end point of the standard shape model lip 110, for example, the left end point P 1 P 2 ) as the second side 320 and a third side 330 extending from the apex P 2 to the characteristic point P 2 '(see FIG. 5D) ). In the approximated triangle 300, from the apex P 3 on the second side 320 of the standard shape model lips 110 to the corresponding apex P 3 'on the first side 310 of the texture lips 210 Displacement amount ΔP Is proportional to the amount of displacement reaching the apex P 2 'from the apex P 2 on the third side 330. At this time, the displacement amount from the vertex P 3 of the standard shape model lip 110 to the corresponding vertex P 3 'of the texture image lip 210 ΔP ) Is the line segment ), And the line segment ( ) Is the line segment of the third side ), The following equations (3) and (4) can be derived.

따라서, 텍스쳐 영상 입술(210)의 나머지 정점(P5')은 특징점(P4', Pn') 및 그에 대응하는 표준 형상 모델 입술(110)의 정점(P4,Pn)의 좌표값을 알고 있으므로 상술한 수학식 3 및 4를 이용하여 구할 수 있을 것이다. 도 5e에는 상술한 과정을 이용하여 텍스쳐 영상 입술(210)에 표준 형상 모델 입술(110)이 매칭된 결과를 예시한다.Therefore, the remaining vertices P 5 'of the texture image lip 210 are the coordinate values of the feature points P 4 ', P n 'and the corresponding vertices P 4 , P n of the standard shape model lip 110 It can be obtained by using the above-mentioned Equations (3) and (4). FIG. 5E illustrates a result of matching the standard shape model lip 110 to the texture image lip 210 using the above-described process.

도 5e에서 매칭된 표준 형상 모델 입술(110)은 하기 수학식 5에 예시된 바와같은 수학식 1의 역변환식을 이용하여 윈도우 상으로 복원된다.The standard shape model lips 110 matched in FIG. 5E are restored on the window using the inverse transformation equation of Equation (1) as illustrated in Equation (5) below.

마찬가지로, 도 5e에서 매칭된 텍스쳐 영상 입술(210)은 하기 수학식 6에 예시된 바와같은 수학식 2의 역변환식을 이용하여 텍스쳐 좌표값으로 복원된다.Similarly, the texture image lips 210 matched in FIG. 5E are restored to texture coordinate values using the inverse transform equation of Equation 2 as illustrated in Equation 6 below.

그 결과, 도 6에 도시된 바와같이, 윈도우상에서 주어진 텍스쳐 좌표값으로 이루어진 텍스쳐 영상 입술(210)의 폴리곤이 그에 대응하는 표준 형상 모델 입술(110)의 폴리곤으로 자연스러운 텍스쳐 맵핑이 이루어진다.As a result, as shown in FIG. 6, a polygon of the texture image lip 210 having a given texture coordinate value on the window is subjected to a natural texture mapping to the polygon of the standard shape model lip 110 corresponding to the polygon.

이상 설명한 바와같이, 인간의 형상 모델을 이용한 3 차원 모델 기반 코딩 시스템에서 입술 애니메이션을 위한 텍스쳐 맵핑시 삼각형 근사화 접근법을 이용하여 텍스쳐 영상 입술의 좌표값을 보다 간단히 구하게되므로, 계산 시간이 줄어들게 되며 얼구 전체에 대한 자연스러운 텍스쳐 맵핑으로 확장할 수 있을 것이다.As described above, in the three-dimensional model-based coding system using the human shape model, the coordinate values of the texture image lips are more easily obtained by using the triangle approximation approach in texture mapping for lip animation, You can extend it to natural texture mapping.

Claims (5)

인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법에 있어서,A texture mapping method for lip shape animation in a facial expression change coding system using a human shape model, 전송자 얼굴의 기설정 크기의 텍스쳐 영상을 취득하는 단계;Acquiring a texture image of a predetermined size of a sender's face; 와이어 프레임의 표준 형상 모델로부터 입술 부분을 추출하는 단계;Extracting a lip portion from a standard shape model of the wire frame; 상기 표준 형상 모델 입술을 상기 텍스쳐 영상 입술에 겹쳐서 일치되도록 매칭시키는 단계;Matching the standard shape model lips to overlap the texture image lips; 상기 매칭된 표준 형상 모델 입술에 상기 텍스쳐 영상 입술의 텍스쳐 데이터를 투사하여 텍스쳐 맵핑을 수행하는 단계를 포함하는 것을 특징으로하는 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법.And projecting texture data of the texture image lip to the matched standard shape model lip to perform texture mapping. 제 1 항에 있어서, 상기 매칭 단계는:2. The method of claim 1, wherein the matching comprises: 상기 표준 형상 모델 입술과 상기 텍스쳐 영상 입술을 각각의 입술 끝점을 기준으로 가로의 길이로 정규화하는 단계;Normalizing the standard shape model lip and the texture image lip to a width of a length based on each lip end point; 상기 정규화된 텍스쳐 영상 입술의 특징점들에 각기 대응하는 상기 정규화된 표준 형상 모델 입술의 정점을 상기 정규화된 텍스쳐 영상 입술의 특징점들의 좌표로 이동시키는 단계;Moving the vertices of the normalized standard shape model lip corresponding to the feature points of the normalized texture image lip to the coordinates of the minutiae points of the normalized texture image lip; 상기 정규화된 텍스쳐 영상 입술의 특징점들 사이의 후보 특징점들의 텍스쳐 좌표를 구하는 단계;Obtaining texture coordinates of candidate feature points between feature points of the normalized texture image lip; 상기 후보 특징점들에 각기 대응하는 상기 정규화된 표준 형상 모델 입술의 정점을 상기 구해진 텍스쳐 좌표를 갖는 후보 특징점의 좌표로 이동하여 매칭시키는 단계를 구비하는 것을 특징으로하는 입술 모양 애니메이션을 위한 텍스쳐 맵핑 방법.Moving the vertices of the normalized standard shape model lips corresponding to the candidate feature points to the coordinates of candidate feature points having the obtained texture coordinates, and matching the vertices of the normalized standard shape model lips to the coordinates of the candidate feature points having the obtained texture coordinates. 제 2 항에 있어서, 상기 표준 형상 모델 입술의 정규화 단계는:3. The method of claim 2, wherein normalizing the standard shape model lips comprises: 상기 표준 형상 모델 입술의 중심점( P0 )로부터 우측 입술 끝점(Pn)과의 제 1 길이(D1= Pn-P0)와 좌측 입술 끝점(P1)과의 제 2 길이(D2= P0- Pn)를 구하는 단계;The center point of the standard shape model lips P 0 Calculating a P n) -) a first length (D 1 = P n -P 0 ) and the second length (D 2 = P 0 of lips and the left side end point (P 1) of the lip and the right end point (P n) from ; 상기 제 1 및 제 2 길이중에서 최대 길이(D = max(D1, D2)를 취하는 단계;Taking a maximum length D = max (D 1 , D 2 ) of the first and second lengths; 하기 수학식 1을 이용하여 상기 표준 형상 모델 입술의 가로 방향의 새로운 좌표를 구하는 단계로서,Obtaining new coordinates in the horizontal direction of the standard shape model lip using the following equation 1, 수학식 1Equation 1 상술한 수학식 1에서, xnew와 ynew는 상기 표준 형상 모델 입술의 가로 방향에 존재하는 정점(P)의 정규화된 좌표값이고, xold와 yold는 정규화 이전의 좌표값이며, x0 y0 는 상기 중심점(P0)의 좌표값을 각기 나타내는 단계를 가지며;In the above Equation 1, x new and y new are the normalized coordinate values of the vertices P existing in the horizontal direction of the standard shape model lip, x old and y old are the coordinate values before the normalization, x 0 Wow y 0 Each representing a coordinate value of the center point (P 0 ); 상기 텍스쳐 영상 입술 정규화 단계는:Wherein the texture image normalizing step comprises: 상기 텍스쳐 영상 입술의 중심점(P0')로부터 우측 입술 끝점(Pn')과의 제 1 길이(D1' )와 좌측 입술 끝점(P1)과의 제 2 길이(D2')를 구하는 단계;The first length D 1 'and the second length D 2 ' between the right lip end point P n 'and the left lip end point P 1 are obtained from the center point P 0 ' of the texture image lip step; 상기 제 1 및 제 2 길이중에서 최대 길이(D' = max(D1', D2')를 취하는 단계;Taking the maximum length D '= max (D 1 ', D 2 ') of the first and second lengths; 하기 수학식 2을 이용하여 상기 텍스쳐 영상 입술의 가로 방향의 새로운 좌표를 구하는 단계로서,Obtaining new coordinates in the horizontal direction of the texture image lip using the following equation (2) 수학식 2Equation 2 상술한 수학식 2에서, snew와 tnew는 상기 텍스쳐 영상 입술의 가로방향에 존재하는 특징점( P′ )의 정규화된 좌표값이고, snew와 tnew는 정규화 이전의 좌표값이며, s0와 t0는 상기 중심점(P0')의 좌표값을 각기 나타내는 단계를 갖는 것을 특징으로하는 입술 모양 애니메이션을 위한 텍스쳐 맵핑 방법.In Equation (2), s new and t new are the feature points existing in the horizontal direction of the texture image lip P ' ), S new and t new are coordinate values before normalization, and s 0 and t 0 have respective coordinate values of the center point (P 0 '). / RTI &gt; 제 2 항에 있어서, 상기 후보 특징점들의 텍스쳐 좌표를 구하는 단계는:3. The method of claim 2, wherein obtaining the texture coordinates of the candidate feature points comprises: 상기 정규화된 텍스쳐 영상 입술의 한 끝점(P1')을 꼭지점으로하여 그 꼭지점으로부터 상기 후보 특징점을 지나 한 특징점까지 연장되는 선을 제 1 변으로하고, 상기 정규화된 표준 형상 모델 입술의 한 끝점으로부터 상기 정규화된 텍스쳐 영상 입술의 상기 특징점에 대응하는 정점으로 연장하는 선을 제 2 변으로하고, 상기 정점으로부터 상기 특징점으로 연장하는 제 3 변으로 하는 근사화된 삼각형을 구성하는 단계;The normalized texture the end point of the image lip (P 1 ') a to the vertex from the vertex and a line extending to the characteristic point a through the candidate feature point in the first side, from the end point of the normalized standard shape model lips Constructing an approximated triangle having a second side extending to a vertex corresponding to the feature point of the normalized texture image lip and a third side extending from the vertex to the feature point; 상기 제 2 변이 상기 제 1 변에 겹쳐지도록 이동되어 매칭될 때, 상기 제 1 변상의 상기 후보 특정 지점으로 이동되는 상기 제 2 변상의 대응 정점의 변위량과 상기 제 3 변의 변위량과의 비례식을 이용하여 상기 후보 특징점의 좌표를 구하는 단계를 구비하는 것을 특징으로하는 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법.Wherein when the second side is shifted to be overlapped with the first side and matched, a proportional expression of the amount of displacement of the corresponding side of the second diagonal phase shifted to the candidate specific point of the first diagonal phase and the amount of displacement of the third side is used And obtaining the coordinates of the candidate feature point. 제 2 항에 있어서, 상기 텍스쳐 맵핑 단계는:3. The method of claim 2, wherein the texture mapping comprises: 상기 매칭된 표준 형상 모델 입술을 하기 수학식 3을 이용하여 복원하는 단계,Restoring the matched standard shape model lip using Equation (3) 수학식 3Equation 3 상기 매칭된 텍스쳐 영상 입술을 하기 수학식 4를 이용하여 텍스쳐 좌표값으로 복원하는 단계,Restoring the matched texture image lips into texture coordinate values using Equation (4) 수학식 4Equation 4 를 구비하는 것을 특징으로하는 입술 애니메이션을 위한 텍스쳐 맵핑 방법.Wherein the texture mapping method comprises:
KR1019970051990A 1997-10-10 1997-10-10 Texture mapping method for lip animation KR19990031324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970051990A KR19990031324A (en) 1997-10-10 1997-10-10 Texture mapping method for lip animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970051990A KR19990031324A (en) 1997-10-10 1997-10-10 Texture mapping method for lip animation

Publications (1)

Publication Number Publication Date
KR19990031324A true KR19990031324A (en) 1999-05-06

Family

ID=66042422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970051990A KR19990031324A (en) 1997-10-10 1997-10-10 Texture mapping method for lip animation

Country Status (1)

Country Link
KR (1) KR19990031324A (en)

Similar Documents

Publication Publication Date Title
Lee et al. Fast head modeling for animation
Akleman et al. Making extreme caricatures with a new interactive 2D deformation technique with simplicial complexes
CN114821675B (en) Object processing method and system and processor
Patel et al. 3D facial model construction and expressions synthesis using a single frontal face image
CN113989434A (en) Human body three-dimensional reconstruction method and device
Richter et al. Real-time reshaping of humans
Akimoto et al. 3D facial model creation using generic model and front and side views of face
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
KR100281965B1 (en) Face Texture Mapping Method of Model-based Coding System
Otsuka et al. Extracting facial motion parameters by tracking feature points
Agawa et al. Image analysis for face modeling and facial image reconstruction
JP2001231037A (en) Image processing system, image processing unit, and storage medium
KR102577135B1 (en) A skeleton-based dynamic point cloud estimation system for sequence compression
Leung et al. Realistic video avatar
JP2001141425A (en) Three-dimensional shape measuring device
KR19990031324A (en) Texture mapping method for lip animation
CN114862716A (en) Image enhancement method, device and equipment for face image and storage medium
KR19990039650A (en) Texture Mapping Method for Lip Animation
KR100408829B1 (en) Face Image Segmentation Method in Model-Based Coding System
KR100822948B1 (en) Improved in-between animation image generation system using vector graphic
Xu et al. Three-dimensional face modeling for virtual space teleconferencing systems
Nagel et al. Automated modelling of real human faces for 3D animation
KR100289703B1 (en) Face Image Matching Method in Model-Based Coding System
KR100292238B1 (en) Method for matching of components in facial texture and model images
JP2940226B2 (en) Image synthesis device

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid