KR20000043591A - Method for segmenting facial image in model-basis coding system - Google Patents

Method for segmenting facial image in model-basis coding system Download PDF

Info

Publication number
KR20000043591A
KR20000043591A KR1019980059989A KR19980059989A KR20000043591A KR 20000043591 A KR20000043591 A KR 20000043591A KR 1019980059989 A KR1019980059989 A KR 1019980059989A KR 19980059989 A KR19980059989 A KR 19980059989A KR 20000043591 A KR20000043591 A KR 20000043591A
Authority
KR
South Korea
Prior art keywords
face image
texture
model
facial
vertex
Prior art date
Application number
KR1019980059989A
Other languages
Korean (ko)
Other versions
KR100408829B1 (en
Inventor
이민섭
Original Assignee
전주범
대우전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자 주식회사 filed Critical 전주범
Priority to KR10-1998-0059989A priority Critical patent/KR100408829B1/en
Publication of KR20000043591A publication Critical patent/KR20000043591A/en
Application granted granted Critical
Publication of KR100408829B1 publication Critical patent/KR100408829B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Abstract

PURPOSE: A method for segmenting a facial image is provided to reduce calculating complexity and to maintain a gentle facial contour, by segmenting facial components such as eyes, a nose, ears, a mouth to search the components in the facial image, when a texture facial image is interfaced with a three-dimensional face model in a three-dimensional model-basis coding system. CONSTITUTION: A method for segmenting facial components of a texture facial image, in a three-dimensional model-basis coding system, comprises the steps of: supplying a three-dimensional facial model composed of many polygonal wire frames; interfacing a facial contour of the three-dimensional facial model with the texture facial image; combining vertex regions, extended with each polygonal vertex interfaced on each facial component on the center, according to groups having similar pixel dispersion values, and generating the combined regions; absorbing external pixels having similarities with internal pixels of the combined regions, in the combined regions as pixel units, and segmenting each facial component in the texture facial image.

Description

모델 기반 부호화 시스템에서의 얼굴 영상 세그멘테이션 방법Face Image Segmentation Method in Model-Based Coding System

본 발명은 얼굴 영상 매핑 시스템에 관한 것으로서, 보다 상세하게는 3차원 모델 기반 부호화 시스템에서 텍스쳐 얼굴 영상을 3차원 얼굴 모델에 정합시키는 과정에서 얼굴 영상내 눈, 코, 귀, 입등과 같은 구성 요소의 위치를 찾기위하여 이들 영역을 세그멘테이션(segmentation)하는 방법에 관한 것이다.The present invention relates to a face image mapping system. More specifically, the present invention relates to a face image mapping system. In detail, the present invention relates to a face image mapping system. It relates to a method of segmenting these areas to find a location.

화상 전화, 화상 회의 및 고화질 텔레비전 시스템과 같은 디지탈 텔레비전 시스템에서는, 영상 프레임 신호 내에 있는 영상 신호가 화소값이라 지칭되는 일련의 디지털 데이터로 이루어져 있기 때문에, 각 영상 프레임 신호를 정의하기 위해서는 많은 양의 디지탈 데이터가 필요하게 된다. 그러나, 통상의 전송 채널의 이용 가능한 주파수 대역폭이 제한되어 있기 때문에, 이를 통해 많은 양의 디지털 데이터를 전송하기 위해서는, 인간의 형상을 전송하기 위해 채용되는 화상 전화 및 화상 회의 시스템과 같은 저비트율 영상 신호 부호화기의 경우, 다양한 데이터 압축 기법을 사용하여 데이터 량을 줄이거나 압축할 필요가 있다.In digital television systems such as video telephony, video conferencing, and high-definition television systems, because a video signal within a video frame signal consists of a series of digital data called pixel values, a large amount of digital is required to define each video frame signal. You need data. However, because the available frequency bandwidth of conventional transmission channels is limited, in order to transmit large amounts of digital data through them, low bit rate video signals such as video telephony and video conferencing systems employed to transmit human shapes In the case of an encoder, it is necessary to reduce or compress the amount of data using various data compression techniques.

한편, 화상 전화 및 화상 회의 시스템에서는, 영상이 주로 인간의 상반신과 같은 머리 및 어깨 부분으로 구성된다. 시청자의 주된 관심은 인간의 얼굴이고, 시청자는 배경 장면이나 다른 요소들이 아니라, 특히 인간이 영상 장면에서 말할 때 움직이게 되는 입술, 턱, 머리 등을 포함하는 입 주변과 같은 움직이는 부분에 관심을 집중하게 된다. 따라서, 얼굴의 형상에 관한 일반적인 정보만을 전송하는 경우, 디지털 데이터의 양은 상당히 줄어들게 된다.On the other hand, in video telephony and video conferencing systems, video is mainly composed of head and shoulder portions, such as the human torso. The main concern of the viewer is the human face, and the viewer focuses on the moving parts, not the background scenes or other elements, especially around the mouth, including the lips, chin, head, etc., which are moved when the human speaks in the video scene. do. Thus, if only general information about the shape of the face is transmitted, the amount of digital data is significantly reduced.

따라서, 3차원 모델 기반 코딩 시스템에 있어서는, 끊임없이 변화하는 모든 화소값들을 전송하는 대신, 특정한 움직임 변수가 얼굴 영상으로부터 추출되어 수신단으로 전송된다. 수신단에서는 얼굴 영상을 재구성하기 위하여, 수신된 움직임 변수가 수신단으로 미리 전송된 사람의 기본 얼굴 영상과 합쳐지는데, 사람의 기본 얼굴 영상은 그 사람의 텍스쳐 얼굴 영상을 3차원 얼굴 모델과 정합하여 얻는다.Therefore, in the 3D model-based coding system, instead of transmitting all the constantly changing pixel values, a specific motion variable is extracted from the face image and transmitted to the receiving end. In order to reconstruct the face image at the receiver, the received motion variable is merged with the basic face image of the person previously transmitted to the receiver. The basic face image of the person is obtained by matching the texture face image of the person with a three-dimensional face model.

통상의 3차원 모델 기반 부호화 시스템에 따르면, 사람의 텍스쳐 얼굴 영상을 3차원 얼굴 모델에 정합하는 과정은 먼저, 두 얼굴 영상을 서로 겹치는 것이다. 그런 다음, 텍스쳐 얼굴 영상의 종횡비가 계산된다. 계산된 비율에 기초하여, 3차원 얼굴 모델이 확장 또는 축소되어 텍스쳐 얼굴 영상과 정합된다.According to a conventional 3D model-based encoding system, a process of matching a texture face image of a person to a 3D face model firstly overlaps two face images. Then, the aspect ratio of the texture face image is calculated. Based on the calculated ratio, the three-dimensional face model is expanded or contracted to match the texture face image.

그 후, 눈, 코 및 입과 같은 구성 요소들의 위치가 텍스쳐 얼굴 영상 및 확장 또는 축소된 3차원 얼굴 모델에서 감지되고, 텍스쳐 얼굴 영상 내의 각 구성 요소는 확장 또는 축소된 3차원 얼굴 모델 내의 해당 구성 요소에 정합된다. 그리고, 텍스쳐 얼굴 영상의 텍스쳐 데이터가 3차원 얼굴 모델에 투사된다.Then, the positions of the components, such as eyes, nose and mouth, are detected in the texture face image and the expanded or reduced three-dimensional face model, and each component in the texture face image is a corresponding component in the expanded or reduced three-dimensional face model. Matches an element. The texture data of the texture face image is projected onto the 3D face model.

상술한 텍스쳐 얼굴 영상과 3차원 얼굴 모델의 정합 과정에 있어서, 3차원 얼굴 모델의 구성 요소들의 위치는 미리 알려져 있지만, 텍스쳐 얼굴 영상의 구성 요소들의 위치는 몇몇 특징점들을 제외하고는 알려져 있지 않다. 따라서, 텍스쳐 얼굴 영상과 3차원 얼굴 모델의 정확한 정합을 위해서는 텍스쳐 얼굴 영상내에서 어느 부분이 3차원 얼굴 모델과 정합되는 얼굴 부위인가를 찾아야하고 또한 얼굴을 구성하는 모든 눈, 코, 귀, 입 등이 텍스쳐 얼굴 영상내에서 추출되어야 한다. 그 다음에, 이를 종합적으로 분석하여 얼굴이라는 판단을 내려야한다.In the matching process of the texture face image and the 3D face model, the positions of the components of the 3D face model are known in advance, but the positions of the components of the texture face image are not known except for some feature points. Therefore, in order to accurately match the texture face image with the 3D face model, it is necessary to find out which part of the texture face image is matched with the 3D face model, and all eyes, noses, ears, mouths, etc. constituting the face. It should be extracted in this texture face image. Next, it must be comprehensively analyzed to determine the face.

전형적인 판단 방법은 세그멘테이션 알고리즘을 이용하는 것으로, 텍스쳐 얼굴 영상내 모든 구성 요소들, 즉, 눈, 코, 귀, 입 등에 대한 임의의 부분 영상을 3차원 얼굴 모델과 대비하여 가장 유사한 영역을 찾아낸다. 그 다음, 3차원 얼굴 모델에 대비된 텍스쳐 얼굴 영상의 각 구성 요소의 상대적 위치를 결정함으로써 개략적인 얼굴 구성 요소가 추출된다. 마지막으로, 추출된 얼굴 구성 요소의 영역을 구성요소별로 구획화함으로써 얼굴 영상을 세그멘테이션한다.A typical decision method is to use a segmentation algorithm, which finds the most similar area by comparing any partial image of all components in the texture face image, namely, eyes, nose, ears, mouth, etc., with the three-dimensional face model. Next, a rough face component is extracted by determining the relative position of each component of the texture face image compared to the three-dimensional face model. Finally, the face image is segmented by segmenting the extracted face component area by component.

그러나, 상술한 세그멘테이션 기법은 구성 요소의 추출 결과의 정확성에 따라 계산량이 무시하지 못할 정도로 많아지게 되며, 정합에 사용되는 각 구성 요소별 영상 데이터 역시 추출의 정확성을 기하기 위하여 많은 형태를 갖추고 있어야 한다. 또한, 자연스러운 형태의 얼굴 윤곽 추출은 얼굴 구성 요소의 추출과 별개로 복잡한 알고리즘을 필요로 한다.However, the above-described segmentation technique has a large amount of calculation that cannot be ignored depending on the accuracy of the extraction result of the component, and the image data of each component used for matching must also have many forms in order to ensure the accuracy of extraction. . In addition, natural shape contour extraction requires complex algorithms separate from the extraction of facial components.

본 발명은 상술한 바와 같은 종래의 문제점을 해결하기 위해 안출된 것으로서, 3차원 모델 기반 부호화 시스템에서 사용되는 텍스쳐 얼굴 영상의 각 구성 요소를 효과적으로 세그멘테이션 하는 방법을 제공하는 것을 그 목적으로 한다.The present invention has been made to solve the above-described problems, and an object thereof is to provide a method for effectively segmenting each component of a texture face image used in a 3D model-based encoding system.

상술한 바와 같은 목적을 달성하기 위하여 본 발명의 세그멘테이션 방법은: 다수의 다각형의 와이어프레임으로 구성된 3차원 얼굴 모델을 제공하는 단계; 상기 3차원 얼굴 모델의 윤곽선과 상기 텍스쳐 얼굴 영상을 정합하는 단계; 상기 텍스쳐 얼굴 영상내 각 구성요소상에 정합된 각각의 다각형의 버텍스를 중심으로 확장된 버텍스 영역을 유사한 픽셀 분산값을 갖는 그룹별로 합병하여 합병된 영역을 생성하는 단계; 상기 합병된 영역내 픽셀과 유사성 있는 상기 합병된 영역 외부의 픽셀을 픽셀 단위로 상기 합병된 영역내에 흡수하여 상기 텍스쳐 얼굴 영상내 각각의 구성요소를 세그멘테이션하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the object as described above, the segmentation method of the present invention comprises: providing a three-dimensional face model consisting of a plurality of polygonal wireframe; Registering contours of the three-dimensional face model and the texture face image; Generating a merged area by merging vertex areas that are extended around vertices of respective polygons matched on each component in the texture face image by groups having similar pixel dispersion values; And segmenting each component in the texture face image by absorbing pixels outside the merged area, which are similar to pixels in the merged area, in the merged area on a pixel-by-pixel basis.

도 1은 본 발명에 따른 모델 기반 부호화 시스템에서 사용되는 얼굴 영상 정합 장치의 개략적인 블록 구성도,1 is a schematic block diagram of a face image matching device used in a model-based encoding system according to the present invention;

도 2a는 사용자의 텍스쳐 얼굴 영상, 도 2b는 3차원 얼굴 모델, 도 2c는 정합된 얼굴 영상을 각기 예시하는 도면,FIG. 2A illustrates a texture face image of a user, FIG. 2B illustrates a three-dimensional face model, and FIG. 2C illustrates a matched face image, respectively.

도 3a 및 3b는 도 1에 도시된 제 1 세그멘테이션 블록에 의해 수행되는 확장된 텍스트 영역을 생성하는 과정을 설명하는 도면,3A and 3B illustrate a process of generating an extended text area performed by the first segmentation block illustrated in FIG. 1;

도 4는 도 2에 도시된 제 2 세그멘테이션 블록에 의해 수행되는 텍스쳐 얼굴 영상 세그멘테이션 과정을 설명하는 도면.FIG. 4 is a diagram illustrating a texture face image segmentation process performed by the second segmentation block illustrated in FIG. 2.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 텍스쳐 얼굴 영상 취득부 20 : 영역 설정부10: texture face image acquisition unit 20: area setting unit

30 : 3차원 얼굴 모델 제공부 40 : 얼굴 정합부30: 3D face model provider 40: face matching unit

50 : 제 1 세그멘테이션 블록 52 : 버텍스 영역 형성부50: first segmentation block 52: vertex region forming unit

54 : 분산값 계산부 56 : 버텍스 영역 합병부54: variance value calculator 56: vertex region merger

60 : 제 2 세그멘테이션 블록 100 : 텍스쳐 얼굴 영상60: second segment block 100: texture face image

200 : 3차원 얼굴 모델 400 : 합병된 영역200: three-dimensional face model 400: merged area

이하, 본 발명에 따른 텍스쳐 얼굴 영상내 구성 요소 세그멘테이션 방법은 첨부된 도면을 참조하여 다음과 같이 상세히 설명될 것이다.Hereinafter, the component segmentation method in the texture face image according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 따른 모델 기반 부호화 시스템의 개략적인 블록 구성도로서, 텍스쳐 얼굴 영상 취득부(10), 영역 설정부(20), 정합부(30), 제 1 세그멘테이션 블록(40) 및 제 2 세그멘테이션 블록(50)을 포함한다.1 is a schematic block diagram of a model-based encoding system according to an exemplary embodiment of the present invention, wherein the texture face image acquisition unit 10, the region setting unit 20, the matching unit 30, and the first segmentation block ( 40 and a second segmentation block 50.

텍스쳐 얼굴 영상 취득부(10)는 예를 들어, CCD(charge coupled device) 디지털 카메라 등을 사용하여 전송자의 텍스쳐 얼굴 영상을 생성한다. 텍스쳐 영상 취득부(10)에 의해 포착된 텍스쳐 얼굴 영상은 도 2a에 도시된 바와 같이, 텍스쳐 영상 취득부(10)의 디스플레이(도시안됨)상에 디스플레이 되며, 이 텍스쳐 얼굴 영상(100)은 예를 들어 512 × 512 화소 크기를 갖는다.The texture face image acquisition unit 10 generates a texture face image of the sender using, for example, a charge coupled device (CCD) digital camera. The texture face image captured by the texture image acquisition unit 10 is displayed on the display (not shown) of the texture image acquisition unit 10 as shown in FIG. 2A, and the texture face image 100 is an example. For example it has a size of 512 × 512 pixels.

영역 설정부(20)는 텍스쳐 영상 취득부(10)에 의해 생성된 텍스쳐 얼굴 영상(100)에 대하여 최소의 영상 처리를 실행하기 위하여 주변 배경 등을 제거하고 얼굴 부위만을 추출하기 위한 영역을 설정한다. 도 2b를 참조하여 설명되는 바와 같이, 본 발명에 따라 설정되는 얼굴 부위 영역(110)은 텍스쳐 얼굴 영상(100)의 좌측 옆 얼굴과 좌측 귀로 분리되는 좌측 수직 선분(112), 우측 옆 얼굴과 우측 귀로 분리되는 우측 수직 선분(114), 눈썹 위의 앞 이마를 가로지르는 상측 수평 선분(116), 아래 턱을 가로지르는 하측수평 선분(118)에 의해 형성되는 사각형 영역을 포함한다. 또한 사각형의 얼굴 부위 영역(110)은 얼굴의 좌우 대칭으로 상측 및 하측 수평선분(116 및 118)을 이등분하는 중앙 선분(120)으로 분리될 수 도 있다. 이러한 얼굴 부위 영역 설정은 사용자에 의해 디스플레이상의 텍스쳐 얼굴 영상(100)을 보고 설정하는 방법으로 수행한다. 영역 설정부(20)에 의해 얼굴 부위 영역 설정된 텍스쳐 얼굴 영상(100)은 얼굴 정합부(40)로 제공된다.The region setting unit 20 sets an area for removing a surrounding background and extracting only a face part in order to perform a minimum image processing on the texture face image 100 generated by the texture image acquisition unit 10. . As described with reference to FIG. 2B, the facial region area 110 set according to the present invention includes a left vertical line 112, a right side face, and a right side separated into a left side face and a left ear of the texture face image 100. A right vertical segment 114 separated by the ear, an upper horizontal segment 116 across the front forehead above the eyebrows, and a rectangular region formed by the lower horizontal segment 118 across the lower jaw. In addition, the quadrangular face region 110 may be divided into a central segment 120 that bisects the upper and lower horizontal horizontal segments 116 and 118 in the symmetrical direction of the face. The face region area setting is performed by a user viewing and setting the texture face image 100 on the display. The texture face image 100 set by the region setting unit 20 to the face region is provided to the face matching unit 40.

한편, 3차원 표준 모델 제공부(30)는 3 차원의 머리 모델을 가지고있으며, 3 차원 얼굴 모델(200)은 도 2b에 예시된 바와같이 실리콘 그래픽스 인터페이스(SGI : silicon graphics interface) 워크스테이션을 이용하여 구성된 다수의 다각형(polygon)을 연결한 망의 형태를 갖는 와이어 프레임(wire frame)이라는 3 차원 컴퓨터 그래픽스 형태로 저장되어있다. 3차원 얼굴 모델(200)은 얼굴 정합부(40)로 제공된다.Meanwhile, the 3D standard model providing unit 30 has a 3D head model, and the 3D face model 200 uses a silicon graphics interface (SGI) workstation as illustrated in FIG. 2B. It is stored in the form of a three-dimensional computer graphics called a wire frame (wire frame) in the form of a network connecting a plurality of polygons configured. The 3D face model 200 is provided to the face matching unit 40.

얼굴 정합부(40)는 텍스쳐 영상 취득부(10)로부터 제공된 텍스쳐 얼굴 영상(100)과 3차원 모델 제공부(30)로부터 제공되는 3차원 얼굴 모델(200)의 윤곽을 정합한다. 얼굴 정합부(40)에서 수행되는 얼굴 정합 과정은 동일한 2차원 픽셀 좌표계에서 텍스쳐 얼굴 영상(100)위로 3차원 얼굴 모델(200)을 겹쳐놓고, 3차원 얼굴 모델(200)의 좌우 종횡비를 텍스쳐 얼굴 영상(100)의 좌우 종횡비에 맞게 확장 또는 축소시킨다. 그 다음, 확장된 3차원 얼굴 모델(200)의 좌우 대칭점중 가장 위 부분과, 텍스쳐 얼굴 영상(100)의 중앙 수직 선분(120)과 상 수평 선분(116)이 교차하는 점이 일치하도록 3 차원 얼굴 모델(200)를 평행 이동시키고, 3차원 얼굴 모델(200)의 가장 아래부분과 텍스쳐 얼굴 영상(100)의 하측 수평 선분(118)이 일치되게 3차원 얼굴 모델(200)의 각 버텍스의 y 좌표값을 재조절하며, 텍스쳐 얼굴 영상(100)의 좌우 수직 선분(112, 114)와 3차원 얼굴 모델(200)의 좌우 부분이 일치되게 3차원 얼굴 모델(200)의 각 버텍스의 x 좌표값을 재조절한다. 얼굴 정합부(40)에 의해 얼굴 정합된 결과는 도 2c에 얼굴 영상(300)으로서 예시되며, 이때 텍스쳐 얼굴 영상(100)과 3차원 얼굴 모델(200)간에 정확한 정합이 이루어지지는 않지만, 대략 많은 부위가 겹치게되며, 텍수쳐 얼굴 영상(100)내에 3차원 얼굴 모델(200)을 구성하는 와이어프레임의 버텍스중 많은 수가 일치하게된다. 따라서, 얼굴 정합부(40)는 정합된 얼굴 영상(300)으로부터 텍스쳐 얼굴 영상(200)의 구성요소, 즉, 눈, 코, 입 등의 개략적인 위치를 파악할 수 있다.The face matching unit 40 matches the contours of the texture face image 100 provided from the texture image obtaining unit 10 and the 3D face model 200 provided from the 3D model providing unit 30. The face matching process performed by the face matching unit 40 superimposes the three-dimensional face model 200 on the texture face image 100 in the same two-dimensional pixel coordinate system, and textures the left and right aspect ratios of the three-dimensional face model 200. It expands or contracts to fit the left and right aspect ratios of the image 100. Next, the three-dimensional face such that the uppermost part of the left and right symmetry points of the extended three-dimensional face model 200 and the intersection point of the center vertical segment 120 and the image horizontal segment 116 of the texture face image 100 coincide with each other. The y coordinates of the vertices of the 3D face model 200 are moved in parallel, and the bottom horizontal segment 118 of the texture face image 100 coincides with the bottom part of the 3D face model 200. Readjust the value, and adjust the x coordinate value of each vertex of the 3D face model 200 so that the left and right vertical segments 112 and 114 of the texture face image 100 and the left and right portions of the 3D face model 200 coincide with each other. Readjust. The result of the face registration by the face matching unit 40 is illustrated as the face image 300 in FIG. 2C, where the exact matching between the texture face image 100 and the three-dimensional face model 200 is not achieved, but is approximately. Many parts overlap, and many of the vertices of the wire frames constituting the 3D face model 200 in the texture face image 100 coincide. Accordingly, the face matching unit 40 may grasp components of the texture face image 200 from the matched face image 300, that is, the rough positions of eyes, nose, mouth, and the like.

본 발명에 따른 제 1 및 제 2 세그멘테이션 블록(50 및 60)은 얼굴 정합부(40)에 의해 형성된 정합된 얼굴 영상(300)의 눈, 코, 입 등의 구성 요소를 서로 구별되는 영역으로 설정하는 세그멘테이션 과정을 실행하며, 본 발명의 세그멘터이션은 와이어프레임을 구성하는 다각형들의 버텍스를 기초로하여 수행된다.The first and second segmentation blocks 50 and 60 according to the present invention set the elements such as eyes, nose, and mouth of the matched face image 300 formed by the face matching unit 40 as areas distinguished from each other. The segmentation process is performed, and the segmentation of the present invention is performed based on vertices of polygons constituting the wireframe.

본 발명에 따른 세그멘테이션 과정은 도 3 및 도 4를 참조하여 설명되며, 도 3에는 정합된 얼굴 영상(300)의 일부 영역상에 정합된 3차원 얼굴 모델(200)의 다각형이 예시된다.The segmentation process according to the present invention will be described with reference to FIGS. 3 and 4, and FIG. 3 illustrates a polygon of the three-dimensional face model 200 matched on a partial region of the matched face image 300.

도 1에서와 같이 제 1 세그멘테이션 블록(50)은 버텍스 영역 형성부(52), 분산값 계산부(54) 및 버텍스 영역 합병부(56)를 구비하는 것으로 도시된다. 버텍스 영역 형성부(52)는 정합된 얼굴 영상(300)의 각 구성요소상에 정합된 각각의 버텍스(310, 320, 330, 340, 350, 360, 370)를 중심으로 확장된 버텍스 영역을 형성한다. 도 3에는 도면의 간단한 도시를 위하여 버텍스(310, 320, 360)에 대응하는 확장된 버텍스 영역(315, 325, 365)만이 도시된다. 버텍스 영역 형성부(52)에서 형성된 확장된 버텍스 영역(315, 325, 365)과 관련한 정보는 분산값 계산부(54) 및 버텍스 영역 합병부(56)로 제공된다.As shown in FIG. 1, the first segmentation block 50 includes a vertex region forming unit 52, a dispersion value calculating unit 54, and a vertex region merging unit 56. The vertex area forming unit 52 forms an extended vertex area around each of the vertices 310, 320, 330, 340, 350, 360, and 370 matched on each component of the matched face image 300. do. In FIG. 3, only the expanded vertex regions 315, 325, 365 corresponding to the vertices 310, 320, 360 are shown for simplicity of the drawing. Information related to the extended vertex areas 315, 325, and 365 formed in the vertex area forming unit 52 is provided to the dispersion value calculator 54 and the vertex area merger 56.

분산값 계산부(54)는 대응하는 버텍스를 중심으로 확장된 버텍스 영역(315, 325, 365, . . .)들의 반경(R)내에 포함된 픽셀들의 분산값을 계산하고, 계산된 분산값을 기설정된 기준 분산값과 비교한다. 이때, 계산된 분산값이 기준 분산값보다 작거나 같다면, 확장된 버텍스 영역(315, 325, 365, . . .)내에 포함된 픽셀들은 모두 특정한 하나의 구성요소를 규정하는 원소로서 판단될 수 있을 것이다. 그러나, 계산된 분산값이 기준 분산값보다 크다면, 확장된 버텍스 영역(315, 325, 365, . . .)내에 특정 구성요소이외의 다른 구성요소의 패턴이 포함되어 있거나, 특정 구성요소의 에지가 있는 것으로 판단될 수 있다. 분산값 계산부(54)에서 비교된 확장된 버텍스 영역에 관한 정보는 버텍스 영역 합병부(56)로 제공된다.The variance value calculator 54 calculates a variance value of the pixels included in the radius R of the vertex areas 315, 325, 365,... That extend around the corresponding vertex, and calculates the calculated variance value. Compare with the preset reference variance value. At this time, if the calculated variance value is less than or equal to the reference variance value, all pixels included in the extended vertex areas 315, 325, 365,... May be determined as elements defining one specific component. There will be. However, if the calculated variance is greater than the reference variance, then the extended vertex region 315, 325, 365,... Contains a pattern of components other than the specific component, or an edge of the specific component. It can be determined that there is. The information about the expanded vertex area compared in the variance value calculator 54 is provided to the vertex area merger 56.

본 발명에 따르면, 기준 분산값은 얼굴내 각 구성요소의 세그멘테이션 영역마다 상이한 값으로 설정된다. 또한, 각각의 확장된 버텍스 영역(315, 325, 365)은 각기 대응하는 버텍스를 중심으로 5 내지 10 픽셀을 반경으로 하며, 이 반경은 인접한 버텍스들을 연결하는 선분 길이(L)의 절반보다 크게 형성하는 것이 바람직하다. 이것은 분산값 계산부(54)에서 확장된 버텍스 영역(315, 325, 365, . . .)내에 포함된 픽셀들의 분산값을 평가하는데 유용하기 때문이다.According to the present invention, the reference variance value is set to a different value for each segmentation region of each component in the face. In addition, each extended vertex region 315, 325, 365 has a radius of 5 to 10 pixels around each corresponding vertex, the radius of which is greater than half the line length L connecting the adjacent vertices. It is desirable to. This is because the dispersion value calculator 54 is useful for evaluating the dispersion value of the pixels included in the extended vertex areas 315, 325, 365,...

버텍스 영역 합병부(56)는 분산값 계산부(54)로부터 제공된 확장된 버텍스 영역(54)의 분산 정보에 따라 확장된 버텍스 영역을 합병한다. 보다 상세히 말해서, 버텍스 영역 합병부(56)는 인접하는 확장된 버텍스 영역, 예로 영역(315, 325, 365)들간의 유사성을 조사하여, 유사성이 있는 확장된 버텍스 영역 그룹을 분류하고, 분류된 버텍스 영역 그룹들을 하나의 영역으로 합병한다. 도 3b에는 유사성있는 확장된 버텍스 영역 그룹을 하나의 영역으로 합병한 합병 영역(400)을 예시하며, 합병되지않은 영역은 분류된 버텍스 영역 그룹과 유사성이 없는 버텍스 영역 그룹을 나타내는 것으로 에지를 포함하거나 또는 다른 얼굴 구성요소가 포함된 것으로 간주될 수 있다. 버텍스 영역 합병부(56)에 의해 합병된 영역(400)에 관한 정보는 제 2 세그멘테이션 블록(60)으로 제공된다.The vertex area merging unit 56 merges the expanded vertex area according to the dispersion information of the expanded vertex area 54 provided from the dispersion value calculator 54. More specifically, the vertex region merging unit 56 examines similarities between adjacent extended vertex regions, for example, regions 315, 325, and 365, classifies groups of expanded vertex regions with similarities, and classifies the vertices. Merges zone groups into one zone. 3B illustrates a merge region 400 in which similar expanded vertex region groups are merged into one region, and the unmerged region represents a vertex region group having no similarity to the classified vertex region group, and includes edges. Or other facial component. Information about the area 400 merged by the vertex area merging unit 56 is provided to the second segmentation block 60.

제 2 세그멘테이션 블록(60)은 제 1 세그멘테이션 블록(50)에의해 형성된 합병된 영역(400)내 픽셀과 유사성을 갖는 합병된 영역(400) 외부의 픽셀(410)을 픽셀 단위로 합병된 영역(400)내에 흡수하여 텍스쳐 얼굴 영상(100)내 각각의 구성요소를 구분하는 세그멘테이션 영역을 형성한다. 이때, 제 2 세그멘테이션 블록(60)에서 합병된 영역(400)내 픽셀과 그 영역 외부에 있는 픽셀간의 유사성 판단은 합병된 영역(400)내 픽셀들의 평균 휘도와 그 영역 외부에 있는 픽셀 휘도의 차가 기설정된 기준 휘도값 이상일 때로 한다. 또한, 제 2 세그멘테이션 블록(60)에 의한 픽셀 흡수는 도 4에 도시된 바와 같이 버텍스 영역 그룹들로 구성된 합병된 영역(400)과 다른 분산값을 갖는 또 다른 합병된 영역, 예로 영역(500)이 발견될 때 까지 또는 텍스쳐 얼굴 영상(100)의 에지가 발견될 때 까지 수행된다. 그 결과, 텍스쳐 얼굴 영상(100)내 각 구성요소를 세그멘테이션할 수 있게된다.The second segmentation block 60 merges the pixels 410 outside the merged area 400 having the similarity with pixels in the merged area 400 formed by the first segmentation block 50 in a pixel unit. Absorption in 400 forms a segmentation area that distinguishes each element in the texture face image 100. In this case, in the second segmentation block 60, the similarity determination between the pixels in the merged region 400 and the pixels outside the region is determined by the difference between the average luminance of the pixels in the merged region 400 and the pixel luminance outside the region. It is assumed to be equal to or more than the preset reference luminance value. In addition, the pixel absorption by the second segmentation block 60 is further merged region, eg, region 500, having a variance value different from the merged region 400 composed of vertex region groups as shown in FIG. 4. Until it is found or until the edge of the texture face image 100 is found. As a result, it is possible to segment each component in the texture face image 100.

그러므로, 본 발명에 따라서, 3차원 얼굴 모델을 이용하여 텍스쳐 얼굴 영상을 구성하는 눈, 코, 입등과 같은 구성요소를 세그멘테이션하므로, 종래 기술에 비하여 계산상의 복잡함을 줄일 수 있고, 보다 부드러운 얼굴 윤곽을 유지할 수 있다.Therefore, according to the present invention, since the components such as eyes, nose, mouth, etc. constituting the texture face image are segmented using the three-dimensional face model, computational complexity can be reduced, and smoother face contours can be reduced. I can keep it.

Claims (4)

3차원 모델 기반 부호화 시스템에서 텍스쳐 얼굴 영상의 구성요소를 세그멘테이션하는 방법에 있어서,A method of segmenting components of a texture face image in a 3D model-based encoding system, 다수의 다각형의 와이어프레임으로 구성된 3차원 얼굴 모델을 제공하는 단계와;Providing a three-dimensional face model composed of a plurality of polygonal wireframes; 상기 3차원 얼굴 모델의 윤곽선과 상기 텍스쳐 얼굴 영상을 정합하는 단계;Registering contours of the three-dimensional face model and the texture face image; 상기 텍스쳐 얼굴 영상내 각 구성요소상에 정합된 각각의 다각형의 버텍스를 중심으로 확장된 버텍스 영역을 유사한 픽셀 분산값을 갖는 그룹별로 합병하여 합병된 영역을 생성하는 단계;Generating a merged area by merging vertex areas that are extended around vertices of respective polygons matched on each component in the texture face image by groups having similar pixel dispersion values; 상기 합병된 영역내 픽셀과 유사성 있는 상기 합병된 영역 외부의 픽셀을 픽셀 단위로 상기 합병된 영역내에 흡수하여 상기 텍스쳐 얼굴 영상내 각각의 구성요소를 세그멘테이션하는 단계를 포함하는 것을 특징으로 하는 모델 기반 부호화 시스템의 얼굴 영상 세그멘테이션 방법.And segmenting each component in the texture face image by absorbing pixels outside the merged area similarly to the pixels in the merged area into the merged area in units of pixels. Face image segmentation method of the system. 제 1 항에 있어서, 상기 합병 영역 생성단계는:The method of claim 1, wherein the merging region generation step: 상기 텍스쳐 얼굴 영상 영역내 각 구성요소상에 정합된 각각의 다각형의 버텍스를 중심으로 확장된 버텍스 영역을 형성하는 단계;Forming an extended vertex area around a vertex of each polygon matched on each component in the texture face image area; 각각의 상기 확장된 버텍스 영역내 픽셀들의 분산값을 계산하는 단계;Calculating a variance value of the pixels in each of the extended vertex regions; 상기 분산값을 각각의 구성요소의 기설정 기준 분산값과 비교하는 단계;Comparing the variance value with a preset reference variance value of each component; 상기 기설정 기준 분산값을 만족하는 확장된 버텍스 영역을 각 구성요소별로 그룹화하는 단계;Grouping extended vertex areas for each component that satisfy the preset reference dispersion value; 상기 확장된 버텍스 영역 그룹을 합병하여 상기 구성요소마다 상기 합병된 영역을 형성하는 단계를 구비하는 것을 특징으로 하는 모델 기반 부호화 시스템의 얼굴 영상 세그멘테이션 방법.And merging the expanded vertex region group to form the merged region for each of the components. 제 1 항에 있어서, 상기 세그멘테이션 단계는:The method of claim 1, wherein the segmentation step is: 상기 합병된 영역의 경계상의 각 점을 확장 시작점으로 설정하는 단계;Setting each point on the boundary of the merged area as an extension start point; 상기 확장 시작점상의 픽셀 값과 유사한 값을 갖는 상기 확장 시작점에 인접한 픽셀을 선택하는 단계;Selecting a pixel adjacent the extension start point having a value similar to a pixel value on the extension start point; 상기 확장 시작점상의 픽셀 값과 유사하지 않은 상기 확장 시작점에 인접한 픽셀이 발견될 때 까지 상기 선택된 인접 픽셀을 상기 합병된 영역에 흡수하여 상기 각 구성요소를 세그먼트하는 단계를 구비하는 것을 특징으로 하는 모델 기반 부호화 시스템의 얼굴 영상 세그멘테이션 방법.And segmenting each of the components by absorbing the selected adjacent pixels into the merged region until a pixel adjacent to the expansion start point that is not similar to the pixel value on the expansion start point is found. Face Image Segmentation Method of Coding System. 제 1 항에 있어서, 상기 방법은 상기 텍스쳐 얼굴 영상의 얼굴 부위를 규정하는 영역을 형성하여 상기 얼굴 부위 영역내에 상기 3차원 얼굴 모델을 정합하는 단계를 더 포함하는 것을 특징으로 하는 모델 기반 부호화 시스템의 얼굴 영상 세그멘테이션 방법.The method of claim 1, further comprising: forming an area defining a face portion of the texture face image to match the three-dimensional face model within the face region. Facial image segmentation method.
KR10-1998-0059989A 1998-12-29 1998-12-29 Face Image Segmentation Method in Model-Based Coding System KR100408829B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-1998-0059989A KR100408829B1 (en) 1998-12-29 1998-12-29 Face Image Segmentation Method in Model-Based Coding System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-1998-0059989A KR100408829B1 (en) 1998-12-29 1998-12-29 Face Image Segmentation Method in Model-Based Coding System

Publications (2)

Publication Number Publication Date
KR20000043591A true KR20000043591A (en) 2000-07-15
KR100408829B1 KR100408829B1 (en) 2004-01-24

Family

ID=19566847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0059989A KR100408829B1 (en) 1998-12-29 1998-12-29 Face Image Segmentation Method in Model-Based Coding System

Country Status (1)

Country Link
KR (1) KR100408829B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100439577B1 (en) * 2001-08-25 2004-07-12 이상욱 Triangular mesh segmentation apparatus and method based on surface normal
KR100915574B1 (en) * 2007-12-17 2009-09-07 한국전자통신연구원 Remeshing apparatus and method to restore sharp features of surface mesh smoothed enough
CN113838212A (en) * 2021-09-22 2021-12-24 杭州趣村游文旅集团有限公司 Block splicing method of digital country three-dimensional model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113767439A (en) 2019-04-23 2021-12-07 宝洁公司 Apparatus and method for visualizing cosmetic skin properties
US11348366B2 (en) 2019-04-23 2022-05-31 The Procter And Gamble Company Apparatus and method for determining cosmetic skin attributes

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100439577B1 (en) * 2001-08-25 2004-07-12 이상욱 Triangular mesh segmentation apparatus and method based on surface normal
KR100915574B1 (en) * 2007-12-17 2009-09-07 한국전자통신연구원 Remeshing apparatus and method to restore sharp features of surface mesh smoothed enough
US8269771B2 (en) 2007-12-17 2012-09-18 Electronics And Telecommunications Research Institute Remeshing method and apparatus for restoring sharp features of mesh made smooth enough
CN113838212A (en) * 2021-09-22 2021-12-24 杭州趣村游文旅集团有限公司 Block splicing method of digital country three-dimensional model

Also Published As

Publication number Publication date
KR100408829B1 (en) 2004-01-24

Similar Documents

Publication Publication Date Title
JP4198054B2 (en) 3D video conferencing system
Kompatsiaris et al. Spatiotemporal segmentation and tracking of objects for visualization of videoconference image sequences
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
Ohm An object-based system for stereoscopic viewpoint synthesis
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
Yin et al. Generating realistic facial expressions with wrinkles for model-based coding
KR20140074201A (en) Tracking device
US7139439B2 (en) Method and apparatus for generating texture for 3D facial model
KR100408829B1 (en) Face Image Segmentation Method in Model-Based Coding System
CN109448093B (en) Method and device for generating style image
Kompatsiaris et al. 3-D model-based segmentation of videoconference image sequences
Rurainsky et al. Template-based eye and mouth detection for 3D video conferencing
KR100289703B1 (en) Face Image Matching Method in Model-Based Coding System
KR100902995B1 (en) Method for making face image of golden ratio, and apparatus applied to the same
Otsuka et al. Extracting facial motion parameters by tracking feature points
KR100289702B1 (en) Face Image Matching Method Using Panorama Image in Model-based Coding System
JPH0714208B2 (en) Video transmission system
KR100281969B1 (en) Partial Contour Registration Method of Face-Matched Texture Images
KR100281970B1 (en) Face Image Matching Method Using Panorama Image in Model-based Coding System
KR20010089664A (en) System and method for three-dimensional modeling
KR20000044789A (en) Face profile line approximation method by using standard face profile pattern
KR100292238B1 (en) Method for matching of components in facial texture and model images
KR19990039650A (en) Texture Mapping Method for Lip Animation
KR100220598B1 (en) Apparatus and method for producing a lip movement parameter in a 3 dimension model-based coding system
JP2002230572A (en) Method and device for image effect, method and device for image interpolation

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111101

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20121101

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee