KR100278065B1 - Apparatus for composing a lip shape in a 3 dimension model-based coding system - Google Patents
Apparatus for composing a lip shape in a 3 dimension model-based coding system Download PDFInfo
- Publication number
- KR100278065B1 KR100278065B1 KR1019970055986A KR19970055986A KR100278065B1 KR 100278065 B1 KR100278065 B1 KR 100278065B1 KR 1019970055986 A KR1019970055986 A KR 1019970055986A KR 19970055986 A KR19970055986 A KR 19970055986A KR 100278065 B1 KR100278065 B1 KR 100278065B1
- Authority
- KR
- South Korea
- Prior art keywords
- lip
- shape
- basic
- lip shape
- degree
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/20—Contour coding, e.g. using detection of edges
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Abstract
본 발명은 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템의 변형 입술 합성 장치에 관한 것으로, 본 발명의 장치는 전송자의 기본 입술 모양을 제공하는 기본 입술 제공부와, 상기 기본 입술 모양로부터 x 및 y 축 방향으로 변형되는 실제 입술 모양의 에지점들의 변화되는 정도를 나타내는 파라미터를 추출하는 수단과, 상기 변형되는 정도를 표현하는 입술 변형 함수를 가지고 있으며, 상기 파라미터값을 상기 함수에 적용하여 상기 기본 입술 모양으로부터 이동된 위치를 계산하는 수단과, 상기 계산된 위치에 따라 상기 기본 입술 모양으로부터 상기 변형된 실제 입술 모양을 합성하는 수단을 포함한다.The present invention relates to a modified lip synthesizing apparatus for a facial expression change coding system using a human shape model. The apparatus of the present invention includes a basic lip providing unit for providing a basic lip shape of a sender, x and means for extracting a parameter indicating the degree of change of the actual lip shape points deformed in the y-axis direction, and a lip deformation function expressing the degree of deformation, and applying the parameter value to the function to perform the basic Means for calculating a position moved from the lip shape, and means for synthesizing the modified actual lip shape from the basic lip shape according to the calculated position.
Description
본 발명은 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에 관한 것으로, 보다 상세하게는 특정한 입술 변형 함수를 이용하여 입술상의 각 에지점의 변형 위치를 찾아 새로운 입술모양을 합성하는 장치에 관한것이다.The present invention relates to a facial expression change coding system using a human shape model, and more particularly, to a device for synthesizing a new lip shape by finding a deformation position of each edge point on a lip using a specific lip deformation function. .
3 차원 물체 모델, 특히 인간의 형상 모델을 이용한 응용 기술은 비디오 코딩(video coding), 가상현실 및 컴퓨터 그래픽스(computer graphics) 분야에서 응용되고 있다. 현재 진행중인 비디오 코딩(video coding) 분야에서는 좀더 적은 데이터량으로 만족스러운 화질의 영상을 전송하려는 연구가 지속되고 있다. 전송되는 데이터량에 따른 연구과제를 살펴보면 크게 HDTV 로부터 시작하여 현재 활발히 연구되고있는 MPEG4가 있다. 이중 MPEG4 에서는 매우 적은 데이터량을 이용하여 비디오 신호를 전송하기 때문에 단순히 정보 이론을 이용한 변환, 예를 들면, 코사인 변환(cosine transform) 계수 방법뿐 아니라, 그밖의 컴퓨터 비젼(computer vision), 컴퓨터 그래픽스에서 사용되는 기술들이 응용되기도 한다.Application techniques using three-dimensional object models, especially human shape models, have been applied in the fields of video coding, virtual reality and computer graphics. In the field of video coding currently underway, research to transmit a satisfactory image quality with a smaller amount of data continues. Looking at the research projects according to the amount of data to be transmitted, there is MPEG4 which is being actively studied starting from HDTV. In MPEG4, a video signal is transmitted using a very small amount of data, so that not only the transformation using information theory such as cosine transform coefficient method but also other computer vision and computer graphics The techniques used may also be applied.
일반적으로 비디오 폰 또는 비디오 회의(video conference)에서 보이는 사람의 형태는 허리 이상인 흉부만이 보인다. 특히 말하는 사람의 얼굴이 영상 정보 전달의 대부분을 차지하고 있다. 만약 사람 얼굴 외의 정보, 즉, 배경 정보 등을 무시하고 얼굴 형태에 대한 특징적인 규칙화된 정보만 보낼 수 있다면 전송량을 매우 줄일수 있을 것이다. 즉 얼굴에 나타나는 일반적인 희, 노, 애, 락 감정 표정 및 말을 할 때의 입 모양에 나타나는 규칙을 찾아내어 하나의 정보화된 코드로 상대편에게 보내고, 상대방에서는 이를 받아서 자신이 갖고 있는 3 차원 모델을 수신된 코드에 따라 얼굴 형태를 변형시켜 도시함으로써 전송자의 표정 형태를 적은 데이터 양으로 파악 할 수 있을 것이다.In general, the shape of a person seen in a videophone or video conference only shows the chest above the waist. In particular, the speaker's face takes up most of the video information transmission. If only non-human face information, ie background information, can be ignored and only regular information on the face shape can be sent, the transmission rate can be greatly reduced. In other words, it finds the rules of the general face, face, expression, and emotions of the face and mouth when speaking, and sends them to the other party through one code. By deforming the face shape according to the received code, the expression shape of the sender may be recognized with a small amount of data.
보다 상세히 말해서, 3 차원 모델 기반 코딩 시스템은 비디오 폰과 같이 두 사람이 현장에서 실 시간으로 이야기를 하며, 소리뿐아니라 변화하는 얼굴 또는 몸도 같이 실시간으로 전송하는 것을 코딩의 대상으로한다. 그런데 일반 비디오 코딩과 다른 것은 전송 데이터는 시시각각 변화하는 픽셀들로 이루어진 영상을 취급하는 것이 아니고 어떤 특정한 움직임 변수를 추출하여 전송한 다음, 수신측에서 가지고있는 자료, 즉, 전송자의 얼굴 영상, 일반적인 3 차원 머리 형태 모델, 몸 형태 모델등과 결합되어 재구성된후 최종 변화하는 전송자의 얼굴 또는 몸 영상을 구성하는 것이다.More specifically, the three-dimensional model-based coding system targets coding in which two people talk in real time, such as a video phone, and transmit not only sound but also a changing face or body in real time. However, unlike general video coding, the transmitted data does not handle an image composed of pixels that change every moment. Instead, it extracts and transmits a certain motion variable, and then has the data on the receiving side, that is, the face of the sender. It is combined with the dimensional head shape model, body shape model, etc. to form the face or body image of the final changer after reconstruction.
물론, 이와 같은 시스템 구성은 전송하고자 하는 데이터의 양이 데이터 전송 대역 폭에 의해 매우 크게 제약을 받아 많은 양은 보내지 못하지만, 쌍방간 정확한 인식을 위한 충분한 화질을 요할 경우 사용될 수 있는 것이다. 대역폭이 커서 충분한 데이터를 보낼 수 있다면 이 시스템의 장점은 그 만큼 낮아질 것이다. 왜냐하면, 규칙화된 코드로서는 자연스런 표정을 나타내기에 부족한 감이 있기 때문이다.Of course, such a system configuration can be used when the amount of data to be transmitted is very limited by the data transmission bandwidth, but not a large amount, but requires sufficient image quality for accurate recognition between the two parties. If the bandwidth is large enough to send enough data, the system's advantages will be lower. This is because regular code lacks a natural look.
이러한 3 차원 모델 기반 코딩 시스템에서 상호 전송되는 전송자의 얼굴 영상중에서 입 모양, 특히 입술에 대한 형태는 매우 중요한 시각적 정보를 가지고 있다. 즉, 전송자가 무슨 말을 하고 있으며, 어떤 감정을 나타내고 있는지 입술의 형태로써 가늠할 수가 있기 때문이다.In the 3D model-based coding system, the shape of the mouth, especially the shape of the lips, has a very important visual information in the face images of the senders. In other words, it is possible to estimate what the sender is saying and what emotions are expressed in the form of lips.
그러나, 종래 사용되고 있는 입술 모양 표현 방식은 한가지 입술 모양으로부터 여러가지 다른 모양의 입술 모양을 합성하는 방식으로, 단순히 입술을 벌리고 닫거나 근육 모델등의 복잡한 과정을 거쳐서 입술 모양을 표현해주고 있다. 보다 상세히 말해서, 기존의 입술 모양 표현 방식은 입술 경계면의 여러 특징점들을 추출한 후 움직임 정도에 따라 이들 특징점들을 미리 정한 일정한 양만큼 움직이는 방법을 이용하여 여러가지 입술 모양을 표현해주고 있다. 따라서, 합성된 입 모양은 단순하며, 또한 상당한 계산시간이 소요되므로 실시간으로 음성과 같이 얼굴 모양을 합성해주는 것이 어려웠다.However, the lip shape expression method used conventionally is a method of synthesizing the lip shapes of different shapes from one lip shape, and simply expresses the lip shape through a complex process such as opening and closing the lips or a muscle model. In more detail, the existing lip shape expression method expresses various lip shapes by extracting various feature points of the lip boundary and moving these feature points by a predetermined amount according to the degree of movement. Therefore, since the synthesized mouth shape is simple and requires considerable calculation time, it is difficult to synthesize a face shape like a voice in real time.
그러므로, 본 발명은 3 차원 모델 기반 코딩 시스템에서 보다 간단한 방식으로 변형 입술을 합성하는 장치를 제공하는 것을 그 목적으로 한다.It is therefore an object of the present invention to provide an apparatus for synthesizing deformed lips in a simpler manner in a three-dimensional model based coding system.
상술한 목적을 달성하기위한 본 발명에 따르면, 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 변형 입술 합성 장치는 전송자 자신의 기본 입술 모양을 제공하는 기본 입술 제공부; 상기 기본 입술 모양으로부터 x 및 y 축 방향으로 변형되는 실제 입술 모양의 에지점들의 변화되는 정도를 나타내는 파라미터를 추출하는 수단; 상기 변형되는 정도를 표현하는 입술 변형 함수를 가지고 있으며, 상기 파라미터값을 상기 입술 변형 함수에 적용하여 상기 기본 입술 모양으로부터 이동된 위치를 계산하는 수단; 상기 계산된 이동 위치에 따라 상기 기본 입술 모양으로부터 상기 변형된 실제 입술 모양을 합성하는 수단을 포함하는 것을 특징으로한다.According to the present invention for achieving the above object, the modified lip synthesizing apparatus in the facial expression change coding system using a human shape model includes a basic lip providing unit for providing a basic lip shape of the sender itself; Means for extracting a parameter representing a degree of change of edge points of an actual lip shape deformed in the x and y axis directions from the basic lip shape; Means for calculating a position shifted from the basic lip shape by having a lip deformation function representing the degree of deformation and applying the parameter value to the lip deformation function; Means for synthesizing the modified actual lip shape from the basic lip shape according to the calculated movement position.
도 1은 본 발명의 바람직한 실시예에 따라서 구성된 3 차원 모델 기반 코딩시스템의 변형 입술 합성 장치의 블록도,1 is a block diagram of a modified lip synthesis apparatus of a three-dimensional model based coding system constructed in accordance with a preferred embodiment of the present invention;
도 2a 및 2b는 각기 기본 입술과 변형된 실제 입술의 형태를 도시하는 도면,2a and 2b show the shape of a primary lip and a modified real lip, respectively;
도 3a, 3b 및 3c는 도 1에 도시된 이동 위치 계산부에서 이용되는 x, y 축 방향으로 움직이는 입술상의 각 에지점에 대한 입술 변형 함수를 예시하는 그래프.3A, 3B and 3C are graphs illustrating a lip deformation function for each edge point on the lips moving in the x and y axis directions used in the movement position calculator shown in FIG.
<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>
10 : 기본 입술 제공부 20 : 영상 처리부10: basic lips providing unit 20: image processing unit
30 : 변위량 추출부 40 : 이동 위치 계산부30: displacement amount extraction unit 40: moving position calculation unit
50 : 입술 모양 합성부50: Lip Shape Synthesis
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1을 참조하면, 본 발명에 따라 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 전송자의 변형 입술을 합성하는 장치의 블록도가 도시된다. 본 발명의 변형 입술 합성 장치는 기본 입술 제공부(10), 영상 처리부(20), 변위량 추출부(30), 이동 위치 계산부(40) 및 변형 입술 합성부(50)를 포함한다.1, a block diagram of an apparatus for synthesizing a modified lip of a sender in a facial expression change coding system using a human shape model according to the present invention is shown. The modified lip synthesizing apparatus of the present invention includes a basic
기본 입술 제공부(10)는 도 2a에 도시된 바와 같은 전송자의 기본 입술 형태(100)를 가지고 있으며, 기본 입술(100)은 그 특징점으로서 우측 및 좌측 입술 가장자리(a 및 b)과 윗입술 하측점(c) 및 아래입술 상측점(d)을 가지고 있는 것으로 도시된다. 도 2a에서 비록 윗입술 하측점(c) 및 아래입술 상측점(d)이 떨어져 있는 것으로 도시되어있지만, 실질적으로 특징점(c 및 d)는 입술을 다물었을때 처럼 서로 붙어있는 것으로 이해하여야할 것이다.The basic
기본 입술 형태(100)는 변위량 추출부(30)과 입술 모양 합성부(50)로 제공된다. 변위량 추출부(30)에서 기본 입술(100)은 그로부터 변형되는 움직임 정도를 나타내는 파라미터를 추출하는데 사용되며, 입술 모양 합성부(50)로 제공된 기본 입술(100)은 그로부터 변형된 정도에 따라 새로운 입술 형태를 합성하는데 사용된다.The
영상 처리부(20)는 카메라(도시안됨)로부터 제공되는 전송자의 입술 모양 영상을 세그멘테이션(sementation) 방식을 이용하여 화소 값이 비슷한 영역으로 분리함으로써 도 2b에 도시된 바와같은 전송자의 실제 입술 영상(200)을 추출한다. 도 2b에서, 변형된 실제 입술 영상(200)은 기본 입술 영상(100)으로부터 변형된 특징점(a', b', c' 및 d')를 가지고 있는 것으로 도시된다. 이렇게 추출된 실제 입술 영상은 영상의 밝기가 급격히 변하는 원 영상의 밝기 분포를 이용하는 에지 검출 방법을 이용하여 입술 영상에서 에지 부분을 추출하고, 추출된 입술의 경계를 나타내는 윤곽선(contour)과 그 영역의 내부에 대한 정보인 내용(content)을 변위량 추출부(30)로 제공한다.The image processor 20 divides the lip image of the sender provided from the camera (not shown) into regions having similar pixel values by using a segmentation method, thereby displaying the
변위량 추출부(30)는 기본 입술 제공부(10)로부터 제공된 전송자의 기본 입술(100)로부터 전송자의 말과 감정 표현에 의해 발생하는 입술 형태의 변화에 따라 변형되는 실제 입술(200)의 변위량을 나타내는 입술 움직임 정도를 추출하여 다음단의 이동 위치 계산부(40)로 제공한다.The
본 발명에 따른 이동 위치 계산부(40)는 하기에 상세히 설명되는 바와 같은 특정 수학식으로 표현되는 입술 변형 함수를 가지고 있으며, 이 입술 변형 함수를 이용하여 변위량 추출부(30)로부터 제공되는 변위량에 따라 입술의 변형된 위치를 계산한다.The movement
도 2a 및 2b를 참조하면, 기본 입술(100)에서 특징점(a, b, c, d)의 위치가 변형되어 특징점(a', b', c' 및 d')의 위치로 이동되었다면, 이동량을 나타내는 파라미터는 윗입술이 x 축 또는 좌우 방향으로 벌어지는 정도(α)와 입술이 y 축 또는 상측 방향으로 올라가는 정도(β) 및 하측 방향으로 내려가는 정도(γ)이다. 이러한 움직임 정도는 변위량 추출부(30)에서 변위량 정보로서 이동 위치 계산부(40)로 전달된다.2A and 2B, if the positions of the feature points a, b, c, and d are deformed and moved to the positions of the feature points a ', b', c 'and d' in the
이동 위치 계산부(40)에 있어서, 입술 변형 함수는 다음과 같이 구성되는 특정함수를 가지고 있다. 즉, 특징점(a, b)로부터 이동된 특징점(a', b')은 x 축 방향으로 우측 및 좌측 가장자리 입술이 ±α 양만큼 움직이게 되고, y 축상으로는 거의 움직임이 없음을 알 수 있다. 이것을 표현하면, 하기 수학식 1과 같다.In the movement
상술한 수학식 1을 나머지 x 축상의 점들에 대하여 적용하면, 특징점(a, b)은 파라미터에 의해 움직이는 하기 수학식 2와 같은 특정함수를 갖는다.Applying
상기 수학식 2에서 특정 함수f(a) 및 f(b) 는 "0" 과 "1" 사이의 값으로, 도 3a에 도시된 바와같이 f(-b) = 1, f(0) = 0, f(a) = 1 을 만족한다.In Equation 2, specific functions f (a) and f (b) are values between "0" and "1", and as shown in FIG. 3A, f (-b) = 1, f (0) = 0 , f (a) = 1 is satisfied.
마찬가지로, 원래의 특징점(c 및 d)의 위치에서 이동된 특징점(c' 및 d')은 x 축 방향으로는 거의 움직임이 없고, y 축 방향으로 윗입술이양만큼 올라가는 움직임이 있고, y 축방향으로 아래 입술이양만큼 내려가는 움직임이 있음을 알 수 있다. 이를 수학식으로 표현하면, 하기 수학식 3과 같다.Similarly, the feature points c 'and d' moved at the positions of the original feature points c and d have little movement in the x-axis direction, and the upper lip in the y-axis direction. There's a movement going up by the amount, the lower lip in the y axis You can see that there is a downward movement. If this is expressed as an equation, Equation 3 below.
상술한 수학식 3을 나머지 y 축상의 점들에 대하여 적용하면, 특징점(c, d)은 파라미터(,)에 의해 움직이는 하기 수학식 4 와 같은 입술 변형 함수를 갖는다.Applying Equation 3 above to the points on the remaining y-axis, the feature points (c, d) is a parameter ( , It has a lip deformation function such as the following equation (4) to move by.
상기 수학식 4에서 특정 함수 g(c) 는 "0" 과 "1" 사이의 값으로, 도 3b에 도시된 바와같이 g(-c) = 0, g(0) = 1, g(c) = 0 을 만족한다. 마찬가지로, 상기 수학식 4에서 특정 함수 h(d) 는 "0" 과 "1" 사이의 값으로, 도 3c에 도시된 바와같이 h(-d) = 0, h(0) = -1, h(d) = 0 을 만족한다.In Equation 4, the specific function g (c) is a value between "0" and "1", and as shown in FIG. 3B, g (-c) = 0, g (0) = 1, g (c) = 0 is satisfied. Similarly, in Equation 4, the specific function h (d) is a value between "0" and "1", and as shown in FIG. 3C, h (-d) = 0, h (0) = -1, h (d) = 0 is satisfied.
이동 위치 계산부(40)는 변형 파라미터 추출부(30)로부터 제공된 파라미터(및)를 상술한 수학식 3 및 4와 같은 특성을 갖는 입술 변형 함수에 적용하여 기본 입술 제공부(10)로부터 제공되는 기본 입술(100)의 에지점들의 위치로부터 이동되는 실제 입술 영상(200)의 위치를 구한다.The
예로, 도 2a에 도시된 입술의 한 에지점 e(x, y)이 변위량(,)만큼 이동되어 도 2b에 도시된 에지점 e'(x, y)로 변위되었다면, 이동 위치 계산부(40)는 이동된 위치 e'(x, y)를 다음과 같은 수학식 5를 이용하여 구할 수 있다.For example, one edge point e (x, y) of the lips shown in FIG. , 2) and moved to the edge point e '(x, y) shown in FIG. 2B, the moving
따라서, 이동 위치 계산부(40)는 입술 변형 함수를 이용하여 변위량(,) 정보에 따라 입술상의 모든 에지점의 이동된 위치를 계산해낼 수 있다. 이동 위치 계산부(40)에서 계산된 이동 위치의 정보는 다음단의 입술 모양 합성부(50)로 제공된다.Therefore, the
그러므로, 입술 모양 합성부(50)는 이동 위치 계산부(40)에서 구해진 이동 위치의 정보값에 따라 기본 입술 제공부(10)로 부터 제공된 기본 입술을 변형하여 변화된 새로운 입술 모양을 합성한다.Therefore, the lip shape combining unit 50 deforms the basic lip provided from the basic
이상 설명한 바와같이, 인간의 형상 모델을 이용한 얼굴의 표정 변화 코딩 시스템에서 전송자의 변형되는 입술상의 변위량을 나타내는 파라미터를 구하고 이 파라미터를 기설정 함수에 적용함으로써 새로운 입술 형상을 구성하는 계산 시간이 줄어들게 되며 입술 모양 합성시 보다 다양한 응용으로 적용이 가능할 것이다.As described above, in the facial expression change coding system using the human shape model, a parameter representing the amount of displacement on the lip of the sender is calculated and applied to the preset function, thereby reducing the computation time for constructing a new lip shape. It will be possible to apply to a variety of applications when lip shape synthesis.
Claims (2)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970055986A KR100278065B1 (en) | 1997-10-29 | 1997-10-29 | Apparatus for composing a lip shape in a 3 dimension model-based coding system |
GB9813898A GB2330973A (en) | 1997-10-29 | 1998-06-26 | Lip image signal reconstruction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970055986A KR100278065B1 (en) | 1997-10-29 | 1997-10-29 | Apparatus for composing a lip shape in a 3 dimension model-based coding system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990034391A KR19990034391A (en) | 1999-05-15 |
KR100278065B1 true KR100278065B1 (en) | 2001-01-15 |
Family
ID=19523681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970055986A KR100278065B1 (en) | 1997-10-29 | 1997-10-29 | Apparatus for composing a lip shape in a 3 dimension model-based coding system |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100278065B1 (en) |
GB (1) | GB2330973A (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100366210B1 (en) * | 2000-01-24 | 2002-12-31 | 한국과학기술원 | Human Head/Face Modeller Generation Method |
KR102544261B1 (en) * | 2022-05-02 | 2023-06-16 | (주)이브이알스튜디오 | Control method of electronic apparatus for providing 3d image representing lip movement reflecting stickiness |
-
1997
- 1997-10-29 KR KR1019970055986A patent/KR100278065B1/en not_active IP Right Cessation
-
1998
- 1998-06-26 GB GB9813898A patent/GB2330973A/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
KR19990034391A (en) | 1999-05-15 |
GB9813898D0 (en) | 1998-08-26 |
GB2330973A (en) | 1999-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783524B2 (en) | Producing realistic talking face with expression using images text and voice | |
US7027054B1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
US6919892B1 (en) | Photo realistic talking head creation system and method | |
US8553037B2 (en) | Do-It-Yourself photo realistic talking head creation system and method | |
US20020164068A1 (en) | Model switching in a communication system | |
Goto et al. | MPEG-4 based animation with face feature tracking | |
Patel et al. | 3D facial model construction and expressions synthesis using a single frontal face image | |
KR100278065B1 (en) | Apparatus for composing a lip shape in a 3 dimension model-based coding system | |
KR100902995B1 (en) | Method for making face image of golden ratio, and apparatus applied to the same | |
Otsuka et al. | Extracting facial motion parameters by tracking feature points | |
KR100281965B1 (en) | Face Texture Mapping Method of Model-based Coding System | |
KR100229538B1 (en) | Apparatus and method for encoding a facial movement | |
Machin | Real-time facial motion analysis for virtual teleconferencing | |
JP2001231037A (en) | Image processing system, image processing unit, and storage medium | |
JPH0714208B2 (en) | Video transmission system | |
KR20010089664A (en) | System and method for three-dimensional modeling | |
KR100220598B1 (en) | Apparatus and method for producing a lip movement parameter in a 3 dimension model-based coding system | |
KR19990039650A (en) | Texture Mapping Method for Lip Animation | |
KR100292238B1 (en) | Method for matching of components in facial texture and model images | |
KR100220699B1 (en) | Apparatus for coding lip shape information in a 3 dimension model-based coding system | |
Nagel et al. | Automated modelling of real human faces for 3D animation | |
CN115294622B (en) | Method, system and storage medium for synthesizing and enhancing voice-driven speaker head motion video | |
Ahn et al. | Automatic FDP (Facial Definition Parameters) Generation for a Video Conferencing System | |
Chang et al. | Virtual Talk: a model-based virtual phone using a layered audio-visual integration | |
Talbi et al. | Towards realistic simulation of facial deformation in sign language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20111004 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20121002 Year of fee payment: 13 |
|
LAPS | Lapse due to unpaid annual fee |