KR19990031324A - Texture mapping method for lip animation - Google Patents
Texture mapping method for lip animation Download PDFInfo
- Publication number
- KR19990031324A KR19990031324A KR1019970051990A KR19970051990A KR19990031324A KR 19990031324 A KR19990031324 A KR 19990031324A KR 1019970051990 A KR1019970051990 A KR 1019970051990A KR 19970051990 A KR19970051990 A KR 19970051990A KR 19990031324 A KR19990031324 A KR 19990031324A
- Authority
- KR
- South Korea
- Prior art keywords
- lip
- texture
- shape model
- lips
- standard shape
- Prior art date
Links
Landscapes
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법에 관한것으로, 종래 기술에서는 입술 부분의 텍스쳐 맵핑을 위하여 전송자 자신의 텍스쳐 입술의 좌표를 모두 구하여하는 단점이 있었다. 그러나, 본 발명의 방법은 정규화된 텍스쳐 영상 입술과 정규화된 표준 형상 모델 입술에서 근사화된 삼각형을 형성하고, 근사화된 삼각형의 선분 비례 관계에 의해 정규화된 텍스쳐 영상 입술상의 후보 특징점들의 좌표값을 구하는 것을 특징으로한다. 따라서, 모든 텍스쳐 영상 입술상의 특징점을 간단한 방식으로 구할 수 있으므로, 계산 시간이 단축될 수 있다.The present invention relates to a texture mapping method for lip shape animation in a facial expression change coding system using a human shape model. In the related art, in order to texture map a lips part, . However, in the method of the present invention, the approximated triangles are formed from the normalized texture image lips and the normalized standard shape model lips, and the coordinate values of the candidate feature points on the normalized texture image lips are obtained by the line-proportional relationship of the approximated triangles . Therefore, since the feature points on all the texture image lips can be obtained by a simple method, the calculation time can be shortened.
Description
본 발명은 3 차원 모델 기반 코딩 시스템의 얼굴의 표정 변화 코딩에 관한 것으로, 보다 상세하게는 입술 애니메이션을 위한 입술 텍스쳐 맵핑 방법에 관한 것이다.The present invention relates to facial expression change coding of a three-dimensional model-based coding system, and more particularly to a lip texture mapping method for lip animation.
3 차원 물체 모델, 특히 인간의 형상 모델을 이용한 응용 기술은 비디오 코딩(video coding), 가상현실 및 컴퓨터 그래픽스(computer graphics) 분야에서 응용되고 있다. 현재 진행중인 비디오 코딩(video coding) 분야에서는 좀더 적은 데이터량으로 만족스러운 화질의 영상을 전송하려는 연구가 지속되고 있다. 전송되는 데이터량에 따른 연구과제를 살펴보면 크게 HDTV 로부터 시작하여 적게는 현재 활발히 연구되고있는 MPEG4가 있다. 이중 MPEG4 에서는 매우 적은 데이터량을 이용하여 비디오 신호를 전송하기 때문에 단순히 정보 이론을 이용한 변환, 예를 들면, 코사인 변환(cosine transform) 계수 방법만 사용되는 것이 아니라, 그밖의 컴퓨터 비젼(computer vision), 컴퓨터 그래픽스에서 사용되는 기술들이 응용되기도 한다.Application techniques using a three-dimensional object model, in particular a human shape model, have been applied in the fields of video coding, virtual reality and computer graphics. In the ongoing video coding field, research is continuing to transmit satisfactory image quality with a smaller amount of data. The study on the amount of data to be transmitted is as follows. In MPEG4, since a video signal is transmitted using a very small amount of data, not only a conversion using information theory, for example, a cosine transform coefficient method, but also other computer vision, Techniques used in computer graphics are also applied.
일반적으로 비디오 폰 또는 비디오 회의(video conference)에서 보이는 사람의 형태는 허리 이상인 흉부만이 보인다. 특히 말하는 사람의 얼굴이 영상 정보 전달의 대부분을 차지하고 있다. 만약 사람 얼굴 외의 정보, 즉, 배경 정보 등을 무시하고 얼굴 형태에 대한 특징적인 규칙화된 정보만 보낼 수 있다면 전송량을 매우 줄일수 있을 것이다. 즉 얼굴에 나타나는 일반적인 희, 노, 애, 락 감정 표정 및 말을 할 때의 입 모양에 나타나는 규칙을 찾아내어 하나의 정보화된 코드로 상대편에게 보내고, 상대방에서는 이를 받아서 자신이 갖고 있는 3 차원 모델을 수신된 코드에 따라 얼굴 형태를 변형시켜 도시함으로써 전송자의 표정 형태를 적은 데이터 양으로 파악 할 수 있을 것이다.Typically, the shape of a person seen in a videophone or video conference is only the chest, which is above the waist. In particular, the face of the speaker is responsible for the majority of video information transmission. If we can send only the characteristic regularized information about the face type, ignoring the information other than the human face, that is, the background information, the transmission amount can be greatly reduced. In other words, the rules appearing on the face of the common heel, noh, cloak, and rock emotional expressions and the mouth shape of the speech are found and sent to the opponent with one informed code, and the opponent receives the three- By displaying the face shape according to the received code, it is possible to grasp the expression form of the sender with a small amount of data.
보다 상세히 말해서, 3 차원 모델 기반 코딩 시스템은 비디오 폰과 같이 두 사람이 현장에서 실 시간으로 이야기를 하며, 소리뿐아니라 변화하는 얼굴 또는 몸도 같이 실시간으로 전송하는 것을 코딩의 대상으로한다. 그런데 일반 비디오 코딩과 다른 것은 전송 데이터는 시시각각 변화하는 픽셀들로 이루어진 영상을 취급하는 것이 아니고 어떤 특정한 움직임 변수를 추출하여 전송한 다음, 수신측에서 가지고있는 자료, 즉, 전송자의 얼굴 영상, 일반적인 3 차원 머리 형태 모델, 몸 형태 모델등과 결합되어 재구성된후 최종 변화하는 전송자의 얼굴 또는 몸 영상을 구성하는 것이다.More specifically, a three-dimensional model-based coding system is a coding object in which two persons talk in real time in a field like a videophone and transmit not only a sound but also a changing face or body in real time. However, in contrast to general video coding, transmission data does not deal with an image composed of pixels that vary instantaneously. Instead, it extracts a specific motion variable, transmits the data, Dimensional head shape model, body shape model, and the like, and reconstructs the final changed face or body image of the sender.
물론, 이와 같은 시스템 구성은 전송하고자 하는 데이터의 양이 데이터 전송 대역 폭에 의해 매우 크게 제약을 받아 많은 양은 보내지 못하지만, 쌍방간 정확한 인식을 위한 충분한 화질을 요할 경우 사용될 수 있는 것이다. 대역폭이 커서 충분한 데이터를 보낼 수 있다면 이 시스템의 장점은 그만큼 낮아질것이다. 왜냐하면, 규칙화된 코드로서는 자연스런 표정을 나타내기에 부족한 감이 있기 때문이다.Of course, in such a system configuration, the amount of data to be transmitted is very limited by the data transmission bandwidth, so that a large amount of data can not be sent, but it can be used when sufficient image quality is required for accurate recognition between both parties. If the bandwidth is big enough to send enough data, the advantage of this system will be less. This is because the regularized code has a lack of a natural expression.
이러한 3 차원 모델 기반 코딩 시스템에서 상호 전송되는 전송자의 얼굴 영상중에서 입 모양, 특히 입술에 대한 형태는 매우 중요한 시각적 정보를 가지고 있다. 즉, 전송자가 무슨 말을 하고 있으며, 어떤 감정을 나타내고 있는지 입술의 형태로써 가늠할 수가 있기 때문이다.In this 3D model based coding system, mouth shape, especially lip shape, has very important visual information among mutually transmitted face images of the sender. In other words, what the sender is talking about and how he expresses his emotions can be measured in the form of lips.
입술 모양 표현 애니메이션은 한가지 입술 모양으로부터 여러가지 다른 모양의 입술 모양을 합성하는 방식으로, 3 차원의 와이어 프레임으로 구성된 표준 형상 모델 입술을 전송자 자신의 입술에 매칭시키고 텍스쳐 데이터를 투사(projcet)하는 텍스쳐 맵핑을 수행한다. 텍스쳐 맵핑은 텍스쳐 영상 입술의 모든 좌표값을 구하고, 이 좌표값으로 대응하는 표준 형상 모델 입술을 겹쳐주어야한다.Lip shape expression animation is a method of synthesizing lip shapes of various shapes from one lips shape. In this method, a standard shape model lips composed of a three-dimensional wire frame is matched to the lips of the sender itself and a texture mapping . The texture mapping must obtain all the coordinate values of the texture image lip and superimpose the corresponding standard shape model lip with this coordinate value.
그러나, 표준 형상 모델 입술의 좌표값은 와이어 프레임 구성시 이미 알고 있지만, 텍스쳐 영상 입술의 좌표값은 몇개의 특징점을 제외하고는 알고 있지 못한다. 따라서, 나머지 특징점들의 좌표값을 모두 구하는 시간이 많이 소요되는 문제가 있었다.However, the coordinate values of the standard shape model lips are already known in the wire frame construction, but the coordinate values of the texture image lips are not known except for some feature points. Therefore, there is a problem that it takes a lot of time to obtain all the coordinate values of the remaining minutiae.
그러므로, 본 발명은 3 차원 모델 기반 코딩 시스템에서 입술 애니메이션을 위한 입술 텍스쳐 맵핑 방법을 제공하는 것을 그 목적으로한다.Therefore, it is an object of the present invention to provide a lip texture mapping method for lip animation in a three-dimensional model-based coding system.
본 발명의 다른 목적은 3 차원 모델 기반 코딩 시스템에서 입술 텍스쳐 맵핑을 위하여 텍스쳐 영상 입술의 좌표값을 간단한 방식으로 구할 수 있는 개선된 텍스쳐 맵핑 방법을 제공하는 것이다..It is another object of the present invention to provide an improved texture mapping method capable of finding coordinate values of a texture image lip in a simple manner for lip texture mapping in a three-dimensional model-based coding system.
상술한 목적을 달성하기위한 본 발명에 따르면, 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 모양 에니메이션을 위한 텍스쳐 맵핑 방법은: 전송자 얼굴의 기설정 크기의 텍스쳐 영상을 취득하는 단계; 와이어 프레임의 표준 형상 모델로부터 입술 부분을 추출하는 단계; 상기 표준 형상 모델 입술을 상기 텍스쳐 영상 입술에 겹쳐서 일치되도록 매칭시키는 단계; 상기 매칭된 표준 형상 모델 입술에 상기 텍스쳐 영상 입술의 텍스쳐 데이터를 투사하여 텍스쳐 맵핑을 수행하는 단계를 포함하는 것을 특징으로한다.According to another aspect of the present invention, there is provided a texture mapping method for lip shape animation in a facial expression change coding system using a human shape model, comprising: acquiring a texture image of a predetermined size of a sender face; Extracting a lip portion from a standard shape model of the wire frame; Matching the standard shape model lips to overlap the texture image lips; And performing texture mapping by projecting the texture data of the texture image lip onto the matched standard shape model lip.
도 1은 본 발명의 바람직한 실시예에 따라서 구성된 3 차원 모델 기반 코딩시스템의 입술 애니메이션을 위한 텍스쳐 맵핑 장치의 개략적인 블록도,1 is a schematic block diagram of a texture mapping apparatus for lip animation of a three-dimensional model-based coding system constructed in accordance with a preferred embodiment of the present invention;
도 2는 텍스쳐 맵핑을 위하여 제공되는 와이어 프레임 표준 형상 얼굴 모델을 예시하는 도면,2 is a diagram illustrating a wireframe standard shape face model provided for texture mapping,
도 3은 텍스쳐 맵핑을 위하여 제공되는 텍스쳐 얼굴 영상을 예시하는 도면,3 is a diagram illustrating a texture face image provided for texture mapping,
도 4는 표준 형상 얼굴 모델의 입술과 텍스쳐 얼굴 영상을 겹쳐 매칭시키는 과정을 예시하는 도면,4 is a diagram illustrating a process of superimposing and matching a lip of a standard shape face model and a texture face image,
도 5a, 5b, 5c, 5d, 5e는 각기 본 발명에 따른 텍스쳐 맵핑을 위한 텍스쳐 영상 입술의 후보 특징점의 좌표를 구하는 과정을 예시하는 도면,FIGS. 5A, 5B, 5C, 5D and 5E are diagrams for explaining the process of obtaining coordinates of candidate feature points of a texture image lip for texture mapping according to the present invention,
도 6은 본 발명에 따른 입술 텍스쳐 맵핑 결과를 예시하는 도면.6 is a diagram illustrating a lip texture mapping result according to the present invention;
< 주요부분에 대한 부호의 설명 >≪ Explanation of symbols for main parts >
10 : 표준 형상 모델 제공부 20 : 표준 형상 모델 입술 추출부10: standard shape model providing unit 20: standard shape model lips extracting unit
30 : 텍스쳐 영상 취득부 40 : 텍스쳐 맵핑부30: texture image acquisition unit 40: texture mapping unit
본 발명의 상기 및 기타 목적과 여러가지 장점은 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로 부터 더욱 명확하게 될 것이다.These and other objects and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1을 참조하면, 본 발명에 따라 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 입술 애니메이션을 위한 입술의 텍스쳐 맵핑 장치의 개략적인 블록도가 도시된다. 본 발명의 입술 영상 텍스쳐 맵핑 장치는 표준 형상 모델 제공부(10), 표준 형상 모델 입술 추출부(20), 얼굴 텍스쳐 영상 취득부(30) 및 텍스쳐 맵핑부(40)를 포함한다.Referring to FIG. 1, a schematic block diagram of a lip texture mapping apparatus for lip animation in a facial expression change coding system using a human shape model according to the present invention is shown. The lip image texture mapping apparatus of the present invention includes a standard shape model providing unit 10, a standard shape model lip extracting unit 20, a face texture image obtaining unit 30, and a texture mapping unit 40.
표준 형상 모델 제공부(10)는 3 차원의 머리 모델을 가지고있으며, 3 차원 머리 모델(100)은 도 2에 예시된 바와같이 실리콘 그래픽스 인터페이스(SGI : silicon graphics interface) 워크스테이션을 이용하여 구성된 다수의 다각형(polygon)을 연결한 망의 형태를 갖는 와이어 프레임(wire frame)이라는 3 차원 컴퓨터 그래픽스 형태로 저장되어있다. 3차원 머리 모델(100)은 표준 형상 모델 입술 추출부(20)로 제공된다.The standard shape model supplier 10 has a three-dimensional hair model, and the three-dimensional hair model 100 includes a plurality of units configured using a silicon graphics interface (SGI) workstation as illustrated in FIG. Dimensional computer graphics format called a wire frame having the form of a network in which polygons of a polygon are connected. The three-dimensional hair model 100 is provided to the standard shape model lip extracting unit 20.
표준 형상 모델 입술 추출부(20)는 표준 형상 모델 제공부(10)로부터 수신된 와이어 프레임의 3차원 머리 모델로부터 입술 부분(110)만을 추출하고, 추출된 입술 부분(110)을 텍스쳐 맵핑부(40)로 제공한다.The standard shape model lip extracting unit 20 extracts only the lip part 110 from the three-dimensional head model of the wire frame received from the standard shape model providing unit 10 and extracts the extracted lip part 110 from the texture mapping unit 40).
한편, 얼굴 텍스쳐 영상 취득부(30)는 카메라(도시안됨)로부터 제공되는 전송자의 얼굴 영상을 세그멘테이션(sementation) 방식을 이용하여 화소 값이 비슷한 영역으로 분리함으로써 전송자의 실제 2 차원 얼굴 텍스쳐 영상을 추출한다. 추출된 얼굴 텍스쳐 영상은 영상의 밝기가 급격히 변하는 원 영상의 밝기 분포를 이용하는 에지 검출 방법을 이용하여 얼굴 영상에 대하여 에지 부분들을 추출하고, 추출된 에지들의 경계를 나타내는 윤곽선(contour)과 그 영역의 내부에 대한 정보인 내용(content)을 저장한다. 얼굴 텍스쳐 영상 취득부(30)에의해 취득된 텍스쳐 영상은 텍스쳐 맵핑부(40)로 제공된다.On the other hand, the face texture image acquisition unit 30 extracts the actual two-dimensional face texture image of the sender by separating the face image of the sender provided from the camera (not shown) into areas having similar pixel values using a sementation method do. The extracted face texture image is obtained by extracting edge portions of a face image using an edge detection method using brightness distribution of an original image in which the brightness of the image is rapidly changed, extracting a contour representing the boundary of the extracted edges, It stores content, which is information about the inside. The texture image acquired by the face texture image acquisition unit 30 is provided to the texture mapping unit 40. [
텍스쳐 맵핑부(40)는 텍스쳐 영상의 입술(210)의 텍스쳐 데이터를 표준 형상 모델 입술(110)에 투사하는 텍스쳐 맵핑을 수행한다. 텍스쳐 맵핑을 위해서는 먼저, 텍스쳐 영상 입술(210)과 표준 형상 모델 입술(110)을 겹쳐지도록 매칭시켜주어야한다. 따라서, 텍스쳐 맵핑부(40)는 맵핑 얼굴 텍스쳐 영상 취득부(30)로부터 제공된 텍스쳐 영상에 대하여 도 3에 도시된 바와 같은 512 * 512 크기의 윈도우(200)를 형성하고, 윈도우(200)상에 표준 형상 모델의 입술(110)을 합성한다.The texture mapping unit 40 performs texture mapping for projecting the texture data of the lip 210 of the texture image onto the standard shape model lip 110. In order to perform the texture mapping, the texture image lip 210 and the standard shape model lip 110 must be matched to overlap each other. Accordingly, the texture mapping unit 40 forms a window 200 of 512 * 512 size as shown in FIG. 3 for the texture image provided from the mapping face texture image acquisition unit 30, The lip 110 of the standard shape model is synthesized.
도 4는 텍스쳐 얼굴 영상의 윈도우(200)와 표준 형상 모델의 입술(110)과의 합성 결과를 예시하는 도면으로, 표준 형상 모델의 입술(110)은 텍스쳐 얼굴 영상(200)의 입술(210)과 서로 위치적으로 일치하지않음을 알 수 있다. 따라서, 텍스쳐 맵핑부(40)는 표준 형상 모델(100)의 입술(110)이 텍스쳐 얼굴 영상(200)의 입술(210)에 겹쳐져서 매칭되도록하기 위하여 하기 설명되는 바와같은 표준 형상 모델(100)의 입술 부분(110)을 텍스쳐 입술 부분(210)과의 옵셋값만큼 상기 표준 형상 모델의 입술 부분을 이동하여 두 입술의 에지점들을 겹쳐 일치시키는 스케일링을 수행한다.4 is a diagram illustrating a result of combining a window 200 of a texture face image and a lip 110 of a standard shape model. The lip 110 of the standard shape model is a lip 210 of the texture face image 200, Are not locally coincident with each other. Accordingly, the texture mapping unit 40 may include a standard shape model 100 as described below to allow the lips 110 of the standard shape model 100 to overlap and match the lips 210 of the texture face image 200, The lip portion 110 of the standard lip model 110 is moved by the offset value of the texture lip portion 210 with respect to the lip portion of the standard lip model 210 to perform the scaling to overlap the edge points of the two lips.
도 5a 및 5b를 참조하면, 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)이 각기 도시되는데, 텍스쳐 맵핑을 위해서는 텍스쳐 입술(210)의 특징점들(
따라서, 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)의 영상을 각기 상기 표준 형상 모델과 텍스쳐 영상의 입술 부분을 각기 가로의 길이로 전체를 정규화하여야한다. 보다 상세히 설명하면, 표준 형상 모델 입술(110)에서 입술 부분의 중심점(
상술한 수학식 1에서, xnew와 ynew는 표준 형상 모델 입술(110)의 가로 방향에 존재하는 특징점(P)의 정규화된 좌표값이고, xold와 yold는 정규화 이전의 좌표값이며, x0와 y0는 중심점(P0)의 좌표값을 각기 나타낸다.In the above Equation 1, x new and y new are the normalized coordinate values of the feature points P existing in the horizontal direction of the standard shape model lip 110, x old and y old are the coordinate values before the normalization, x 0 and y 0 represent the coordinate values of the center point (P 0 ), respectively.
마찬가지로, 텍스쳐 영상 입술(210)에 대하여도 최대 길이(D')를 구하고, 이 최대 길이(D')로 텍스쳐 영상 입술(210)을 하기 수학식 2과 같이 정규화한다.Similarly, the maximum length D 'is obtained for the texture image lip 210, and the texture image lip 210 is normalized to the maximum length D' as shown in the following equation (2).
상술한 수학식 2에서, snew와 tnew는 텍스쳐 영상 입술(210)의 가로 방향에 존재하는 특징점(P')의 정규화된 좌표값이고, snew와 tnew는 정규화 이전의 좌표값이며, s0와 t0는 중심점(P0')의 좌표값을 각기 나타낸다. 도 5c에는 정규화된 상태의 표준 형상 모델 입술(110)과 텍스쳐 영상 입술(210)을 도시한다.In the above Equation 2, s new and t new are normalized coordinate values of the feature point P 'existing in the horizontal direction of the texture image lip 210, s new and t new are coordinate values before normalization, s 0 and t 0 represent coordinate values of the center point (P 0 '), respectively. FIG. 5C illustrates a normal shape model lips 110 and a texture image lips 210 in a normalized state.
그 다음에는 정규화된 표준 형상 모델 입술(110)이 2 차원 텍스쳐 입술(210)의 대응하는 특징점들에 겹쳐지도록 표준 형상 모델 입술(110)의 각 정점들(P1, P2, . . . , Pn)의 좌표값을 2 차원 텍스쳐 입술(210)의 대응하는 특징점들(P1', P2', . . . , Pn')의 좌표값으로 이동시켜야한다. 따라서, 텍스쳐 입술(210)의 특징점들(P1', P2', P4')의 좌표값은 이미 알고있으므로 그들에 대응하는 표준 형상 모델 입술(110)의 대응하는 각 정점들(P1, P2, P4)로 이동시키면되지만, 텍스쳐 입술(210)의 나머지 후보 특징점들, 예로 정점(P3', P5')의 좌표값을 알지못하기때문에 표준 형상 모델 입술(110)의 대응하는 정점(P3, P5)을 이동시킬 수 없을 것이다.Next, each vertex (P 1 , P 2 , ..., P 2 ) of the standard shape model lip 110 is dimensioned so that the normalized standard shape model lip 110 overlaps the corresponding feature points of the two- P n ) to the coordinate values of the corresponding minutiae points P 1 ', P 2 ', ..., P n 'of the two-dimensional texture lip 210. Accordingly, the feature points of the texturing lip (210) (P 1 ', P 2', P 4 ') coordinate value because it already knows the respective vertices of a standard shape model lips 110 corresponding to their corresponding (P 1 of P 2 , P 4 ), but since the coordinate values of the remaining candidate feature points of the texture lip 210, for example, the vertices P 3 'and P 5 ', are unknown, It will not be possible to move the corresponding vertices P 3 , P 5 .
본 발명에 따르면, 텍스쳐 영상 입술(210)의 나머지 정점(P3', P5')의 좌표값을 하기에 설명되는 삼각형 근사화 접근법을 이용하여 구한다.According to the present invention, the coordinate values of the remaining vertices (P 3 ', P 5 ') of the texture image lip 210 are obtained by using the triangle approximation approach described below.
먼저, 정점(P3')의 좌표값을 구하기위하여, 텍스쳐 영상 입술(210)의 한 끝점, 예로 좌측 끝점(P1')을 꼭지점으로하여 그 꼭지점으로부터 한 특징점, 예로 (P2')까지 연장되는 선을 제 1 변(310)으로하고, 표준 형상 모델 입술(110)의 한 끝점, 예로 좌측 끝점(P1)으로부터 텍스쳐 영상 입술(210)의 특징점(P2')에 대응하는 정점(P2)으로 연장하는 선을 제 2 변(320)으로하고, 정점(P2)로부터 특징점(P2')으로 연장하는 제 3 변(330)으로 하는 근사화된 삼각형(300)(도 5d 참조)을 구성한다. 근사화된 삼각형(300)에서, 표준 형상 모델 입술(110)의 제 2 변(320)상의 정점(P3)으로부터 텍스쳐 입술(210)의 제 1 변(310)상의 대응 정점(P3')까지의 변위량(
따라서, 텍스쳐 영상 입술(210)의 나머지 정점(P5')은 특징점(P4', Pn') 및 그에 대응하는 표준 형상 모델 입술(110)의 정점(P4,Pn)의 좌표값을 알고 있으므로 상술한 수학식 3 및 4를 이용하여 구할 수 있을 것이다. 도 5e에는 상술한 과정을 이용하여 텍스쳐 영상 입술(210)에 표준 형상 모델 입술(110)이 매칭된 결과를 예시한다.Therefore, the remaining vertices P 5 'of the texture image lip 210 are the coordinate values of the feature points P 4 ', P n 'and the corresponding vertices P 4 , P n of the standard shape model lip 110 It can be obtained by using the above-mentioned Equations (3) and (4). FIG. 5E illustrates a result of matching the standard shape model lip 110 to the texture image lip 210 using the above-described process.
도 5e에서 매칭된 표준 형상 모델 입술(110)은 하기 수학식 5에 예시된 바와같은 수학식 1의 역변환식을 이용하여 윈도우 상으로 복원된다.The standard shape model lips 110 matched in FIG. 5E are restored on the window using the inverse transformation equation of Equation (1) as illustrated in Equation (5) below.
마찬가지로, 도 5e에서 매칭된 텍스쳐 영상 입술(210)은 하기 수학식 6에 예시된 바와같은 수학식 2의 역변환식을 이용하여 텍스쳐 좌표값으로 복원된다.Similarly, the texture image lips 210 matched in FIG. 5E are restored to texture coordinate values using the inverse transform equation of Equation 2 as illustrated in Equation 6 below.
그 결과, 도 6에 도시된 바와같이, 윈도우상에서 주어진 텍스쳐 좌표값으로 이루어진 텍스쳐 영상 입술(210)의 폴리곤이 그에 대응하는 표준 형상 모델 입술(110)의 폴리곤으로 자연스러운 텍스쳐 맵핑이 이루어진다.As a result, as shown in FIG. 6, a polygon of the texture image lip 210 having a given texture coordinate value on the window is subjected to a natural texture mapping to the polygon of the standard shape model lip 110 corresponding to the polygon.
이상 설명한 바와같이, 인간의 형상 모델을 이용한 3 차원 모델 기반 코딩 시스템에서 입술 애니메이션을 위한 텍스쳐 맵핑시 삼각형 근사화 접근법을 이용하여 텍스쳐 영상 입술의 좌표값을 보다 간단히 구하게되므로, 계산 시간이 줄어들게 되며 얼구 전체에 대한 자연스러운 텍스쳐 맵핑으로 확장할 수 있을 것이다.As described above, in the three-dimensional model-based coding system using the human shape model, the coordinate values of the texture image lips are more easily obtained by using the triangle approximation approach in texture mapping for lip animation, You can extend it to natural texture mapping.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970051990A KR19990031324A (en) | 1997-10-10 | 1997-10-10 | Texture mapping method for lip animation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970051990A KR19990031324A (en) | 1997-10-10 | 1997-10-10 | Texture mapping method for lip animation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR19990031324A true KR19990031324A (en) | 1999-05-06 |
Family
ID=66042422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970051990A KR19990031324A (en) | 1997-10-10 | 1997-10-10 | Texture mapping method for lip animation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR19990031324A (en) |
-
1997
- 1997-10-10 KR KR1019970051990A patent/KR19990031324A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lee et al. | Fast head modeling for animation | |
Akleman et al. | Making extreme caricatures with a new interactive 2D deformation technique with simplicial complexes | |
CN114821675B (en) | Object processing method and system and processor | |
Patel et al. | 3D facial model construction and expressions synthesis using a single frontal face image | |
CN113989434A (en) | Human body three-dimensional reconstruction method and device | |
Richter et al. | Real-time reshaping of humans | |
Akimoto et al. | 3D facial model creation using generic model and front and side views of face | |
KR20010084996A (en) | Method for generating 3 dimension avatar using one face image and vending machine with the same | |
KR100281965B1 (en) | Face Texture Mapping Method of Model-based Coding System | |
Otsuka et al. | Extracting facial motion parameters by tracking feature points | |
Agawa et al. | Image analysis for face modeling and facial image reconstruction | |
JP2001231037A (en) | Image processing system, image processing unit, and storage medium | |
KR102577135B1 (en) | A skeleton-based dynamic point cloud estimation system for sequence compression | |
Leung et al. | Realistic video avatar | |
JP2001141425A (en) | Three-dimensional shape measuring device | |
KR19990031324A (en) | Texture mapping method for lip animation | |
CN114862716A (en) | Image enhancement method, device and equipment for face image and storage medium | |
KR19990039650A (en) | Texture Mapping Method for Lip Animation | |
KR100408829B1 (en) | Face Image Segmentation Method in Model-Based Coding System | |
KR100822948B1 (en) | Improved in-between animation image generation system using vector graphic | |
Xu et al. | Three-dimensional face modeling for virtual space teleconferencing systems | |
Nagel et al. | Automated modelling of real human faces for 3D animation | |
KR100289703B1 (en) | Face Image Matching Method in Model-Based Coding System | |
KR100292238B1 (en) | Method for matching of components in facial texture and model images | |
JP2940226B2 (en) | Image synthesis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |