KR20090125905A - Apparatus and method for complexing image in visual communication terminal - Google Patents

Apparatus and method for complexing image in visual communication terminal Download PDF

Info

Publication number
KR20090125905A
KR20090125905A KR1020080051970A KR20080051970A KR20090125905A KR 20090125905 A KR20090125905 A KR 20090125905A KR 1020080051970 A KR1020080051970 A KR 1020080051970A KR 20080051970 A KR20080051970 A KR 20080051970A KR 20090125905 A KR20090125905 A KR 20090125905A
Authority
KR
South Korea
Prior art keywords
region
image
area
feature point
face
Prior art date
Application number
KR1020080051970A
Other languages
Korean (ko)
Other versions
KR100958595B1 (en
Inventor
이현주
박성준
Original Assignee
이현주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현주 filed Critical 이현주
Priority to KR1020080051970A priority Critical patent/KR100958595B1/en
Publication of KR20090125905A publication Critical patent/KR20090125905A/en
Application granted granted Critical
Publication of KR100958595B1 publication Critical patent/KR100958595B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: An apparatus and a method for combining images in an image communication terminal are provided to combine various character images with a facial image obtained from a camera, thereby showing the face of a user. CONSTITUTION: A face area decision unit(130) decides a face area. An outline detection unit(135) detects an outline area in the face area. A characteristic point decision unit(140) decides each characteristic point in an eye area, a nose area, and a lip area. An image combining unit(145) combines an image of a camera with a prepared character image based on the characteristic point.

Description

영상통신단말기의 영상 합성 장치 및 방법{apparatus and method for complexing image in visual communication terminal}Apparatus and method for complexing image in visual communication terminal

본 발명은 영상통신단말기의 영상 합성 장치 및 방법에 관한 것으로, 특히 카메라로부터 획득한 얼굴 영상에 다양한 캐릭터 이를 테면, 콧수염이나 안경 혹은 눈물 영상을 합성함으로써, 통화중인 상대측 영상통신단말기로 사용자의 감정 상태나 다양한 캐릭터로 꾸며진 사용자의 얼굴을 표현할 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법에 관한 것이다.The present invention relates to an image synthesizing apparatus and method of a video communication terminal, and in particular, by synthesizing various characters, such as a mustache, glasses or tear images, to a face image obtained from a camera, the emotional state of the user to the video communication terminal on the other side of the call The present invention relates to an image synthesizing apparatus and method for a video communication terminal capable of expressing a user's face decorated with various characters.

근래 들어, 정보/통신분야의 비약적인 발전에 힘입어 전국민의 필수 휴대품이라고 할 정도로 이동통신 단말기가 보편화되어 있고, 나아가 음성통화나 문자메시지의 송/수신이 주기능이었던 것은 이미 오래전이며, 새로운 기술의 출현에 따라 다종다양한 기능을 갖는 신모델 들이 속속 출시되어 구 모델들을 빠르게 대체하고 있다.In recent years, thanks to the rapid development of information and communication fields, mobile communication terminals have become so popular that they are essential portable devices for the whole nation. Furthermore, voice calls and text messages have been the main functions. With the advent of the new models with various functions are released one after another to replace the old models quickly.

특히, 영상전화나 영상회의 시스템을 지원하는 3 세대(Generation)용 통신망, 이를 테면 W-CDMA망 혹은 이의 발전 모델인 차세대(4세대) 이동통신망 이를 테면, 와이브로(wireless broadband; WiBro)망이 구축되어 정지 또는 이동 중에도 이 동통신 단말기를 통해 통화 상대방과 음성 및 영상을 주고받을 수 있는 영상전화 서비스가 도입된 상태이다.In particular, a third generation communication network supporting video telephony or a video conferencing system, such as a W-CDMA network or a next generation (fourth generation) mobile communication network, which is a development model thereof, such as a wireless broadband (WiBro) network is established. In the state of being stopped or moving, a video telephone service is introduced to exchange voice and video with a call counterpart through a mobile communication terminal.

이렇게 영상전화 서비스가 상용화되면서 한편으로는, 감추고 싶은 자신의 모습이 여과 없이 통화중인 상대방에게 보여줄 수 있다는 문제점이 있었다. 예를 들어, 자다 일어나 부은 눈이나 엉망인 머리 혹은 화장기 없는 맨 얼굴 등이 지인이 아닌 일반 사람들에게도 전달될 수 있는바, 사용자의 사생활에 지장을 초래할 수 있다는 것이다.As the video phone service became commercially available, on the other hand, there was a problem that one's self-hidden appearance could be shown to the other party on the phone without filtering. For example, sleeping eyes, messed up hair, or bare face without a toilet can be passed on to people who are not acquaintances, which can interfere with the privacy of users.

이에, 본 출원인은 사용자의 얼굴을 보호하고 나아가, 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 영상 합성방안을 연구하여 본 발명에 이르게 되었다.Accordingly, the present inventors have led to the present invention by studying an image synthesis method that can protect the user's face and further enhance the user's face in a fun or beautiful way.

본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성하여 사용자의 얼굴을 다양하게 꾸며줄 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-described problem, and finds a feature part of the face (eg, eyes, nose or mouth) in an image obtained from the camera, and based on the found feature part, It is an object of the present invention to provide an image synthesizing apparatus and method for a video communication terminal that can decorate a user's face by synthesizing a character image prepared in advance.

전술한 목적을 달성하기 위해 본 발명에 따른 영상통신단말기의 영상 합성 장치는 카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부; 상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상합성부를 포함하여 이루어진다.In order to achieve the above object, an image synthesizing apparatus of an image communication terminal according to the present invention comprises: a binarization unit for binarizing a camera image acquired by a camera into a skin region and a non-skin region; A face region determiner configured to determine a face region among the flesh colors divided by the binarization part; An outline detection unit detecting an outline area in the face area determined by the face area determination unit; The face region determined by the face region determiner is divided into four parts and divided into an eyebrow region, an eye region, a nose region, and a lip region, and a feature point of the eye is determined from an outline region existing in the eye region, and is present in the nose region. A feature point determination unit for determining a feature point of the nose in the contour region, and a feature point determination unit for determining a feature point of the lips in the contour region existing in the lip region and the feature point determined by the feature point determination unit, which are previously prepared with the camera image. It comprises an image synthesis unit for synthesizing the character image.

전술한 구성에서, 상기 이진화부는 상기 카메라 영상의 RGB 성분을 YUV 포맷 으로 변환한 다음, 이진화하는 것이 바람직하다. 즉, 상기 이진화부는 밝기 성분을 배제한 색상 성분을 가지고 카메라 영상을 이진화(살색 및 비살색)하는 것이다.In the above configuration, the binarization unit preferably converts the RGB component of the camera image into a YUV format and then binarizes it. That is, the binarization unit binarizes (colors and uncolors) the camera image with color components excluding brightness components.

상기 특징점 결정부는 얼굴 영역을 눈썹, 눈, 코 및 입술 영역으로 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다.Preferably, the feature point determination unit equalizes the spacing between the regions in four equal parts of the eyebrow, eye, nose and lip regions.

상기 영상 합성 장치는 상기 이진화부에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하여 상기 얼굴영역 결정부로 출력하는 노이즈제거부를 더 포함하여 이루어지는 것이 바람직하다.The image synthesizing apparatus may further include a noise removing unit configured to perform erosion and expansion operations on the binary image by the binarization unit and output the same to the face region determination unit.

상기 얼굴영역 결정부는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것이 바람직하다. 즉, 상기 얼굴영역 결정부는 라벨링 연산에 의해서 라벨링된 살색 영영들 중에서 가장 큰 것을 얼굴영역으로 결정하는 것이다.Preferably, the face region determiner determines a face region using a labeling operation. That is, the face region determination unit determines the largest one of the flesh color areas labeled by the labeling operation as the face region.

상기 윤곽선 검출부는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것이 바람직하다.The contour detector may detect the contour region by using a horizontal Sobel mask operation.

상기 특징점 결정부는 상기 윤곽선 검출부에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것이 바람직하다. 즉, 이러한 특징점 결정부의 기능에 따르면 미리 정해진 크기 이하인 것(잡티나 노이즈)들은 제외되기 때문에 특징점의 결정이 보다 정확해질 수 있다. The feature point determiner may perform a labeling operation on the contour areas detected by the contour detector, and remove those having a predetermined size or less from the labeled contour areas. That is, according to the function of the feature point determiner, since the thing less than a predetermined size (blemish or noise) is excluded, the feature point can be more accurately determined.

상기 영상합성부는 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복 귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것이 바람직하다.The image synthesis unit generates a first synthesis image by finding a change region in the camera image based on the feature point determined by the feature point determiner and replacing the change region with a character image prepared in advance, and the first synthesis image. It is preferable to generate a second composite image by finding a return region and replacing the return region with the camera image.

상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 검정이나 흰색부분이 상기 복귀영역이 되는 것이 바람직하다.The character image is composed of a character part and a black or white part that is distinguished from the character part, and the black or white part is preferably the return area.

상기 영상 합성부는 상기 2차 합성영상에서 결함영역을 보정하는 것이 바람직하다.Preferably, the image synthesizing unit corrects a defect area in the secondary composite image.

상기 영상 합성부는 상기 결함영역을 상기 카메라 영상으로 대체하는 것이 바람직하다.The image synthesizing unit replaces the defective area with the camera image.

또한, 본 발명에 따른 영상통신단말기의 영상 합성 방법은 카메라로부터 획득한 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상 합성 장치가 구비되어 있는 영상통신단말기에서 수행되며, 상기 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 (a) 단계; 상기 (a) 단계에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 (b) 단계; 상기 (b) 단계에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 (c) 단계; 상기 (c) 단계에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 (d) 단계 및 상기 (d) 단계에 의해 결정 된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 (e) 단계를 포함하여 이루어진다.In addition, the video synthesizing method of the video communication terminal according to the present invention is performed in the video communication terminal is provided with a video synthesizing apparatus for synthesizing the camera image obtained from the camera and the character image prepared in advance, the color gamut of the camera image (A) binarizing the non-pigmented region; (B) determining a face region from the skin color areas classified by the skin color in step (a); (C) detecting the contour area from the face area determined by step (b); Dividing the face area determined by the step (c) into four equal parts into eyebrow area, eye area, nose area and lip area, determine the feature point of the eye in the contour area existing in the eye area, present in the nose area Determining a feature point of the nose in the contour area, and determining the feature point of the lips in the contour area existing in the lip area based on the feature point determined by (d) and (d). And (e) synthesizing the prepared character image.

전술한 구성에서, 상기 (a) 단계는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것에 의해 수행되는 것이 바람직하다.In the above configuration, step (a) is preferably performed by converting the RGB component of the camera image to YUV format and then binarizing.

상기 (d) 단계는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것에 의해 수행되는 것이 바람직하다.The step (d) is preferably performed by equalizing the spacing between the areas in four equal parts.

상기 영상 합성 방법은 상기 (a) 단계에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하는 (ab) 단계를 더 포함하되, 상기 (b) 단계는 상기 (ab) 단계를 거친 이진 영상에서 얼굴 영역을 결정하는 것에 의해 수행되는 것이 바람직하다.The image synthesizing method further includes (ab) performing an erosion and expansion operation on the binary image according to the step (a), wherein the step (b) includes a face region in the binary image that has undergone the step (ab). Preferably by determining

상기 (b) 단계는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것에 의해 수행되는 것이 바람직하다.Step (b) is preferably performed by determining a face region using a labeling operation.

상기 (c) 단계는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것에 의해 수행되는 것이 바람직하다.Step (c) is preferably performed by detecting the contour area using a horizontal Sobel mask operation.

상기 (d) 단계는 상기 (c) 단계에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것에 의해 수행되는 것이 바람직하다.The step (d) is preferably performed by performing a labeling operation on the contour areas detected by the step (c), and removing those below the predetermined size among the labeled contour areas.

상기 (e) 단계는 상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것 에 의해 수행되는 것이 바람직하다.In step (e), a first synthesis image is generated by finding a change area in the camera image based on the feature point determined in step (d) and replacing the change area with a character image prepared in advance. The method may be performed by finding a return region in the second composite image and generating a second composite image by replacing the returned region with the camera image.

상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 (e) 단계에서 복귀영역의 탐색은 상기 검정이나 흰색부분을 찾는 과정인 것이 바람직하다.The character image is composed of a character part and a black or white part that is distinguished from the character part. In the step (e), the search for the return area is preferably a process of finding the black or white part.

상기 영상 합성 방법은 상기 (e) 단계에 의해 생성된 2차 합성영상에서 결함영역을 보정하는 (f) 단계를 더 포함하여 이루어지는 것이 바람직하다.The image synthesizing method may further comprise (f) correcting a defective area in the secondary composite image generated by the step (e).

상기 (f) 단계는 상기 결함영역을 상기 카메라 영상으로 대체하는 것에 의해 수행되는 것이 바람직하다.The step (f) is preferably performed by replacing the defective area with the camera image.

본 발명에 따른 영상통신단말기의 영상 합성 장치 및 방법에 따르면, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성함으로써, 영상전화시 자신의 얼굴 중에 상대방에게 보여주고 싶지 않은 일부를 가리거나 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 효과가 있다.According to an image synthesizing apparatus and method of a video communication terminal according to the present invention, a feature part of a face (for example, an eye, a nose, or a mouth) is found in an image obtained from a camera, and the image is obtained from the camera based on the found feature part. By synthesizing the character image prepared in advance in the image, there is an effect that can hide the part of his or her face that you do not want to show to the other person during the video call or decorate the user's face in a fun or beautiful way.

이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 영상통신단말기의 영상 합성 장치 및 방법에 대해서 상세하게 설명하는데, 그에 앞서 도 1을 참조로 하여 영상전화 서비스가 구현될 수 있는 네트워크 구성을 살펴보기로 한다.Hereinafter, a video synthesizing apparatus and method for a video communication terminal according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. A network configuration in which a video telephony service can be implemented with reference to FIG. Let's look at.

도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.1 is a diagram illustrating a network in which a video phone service may be implemented.

도 1에 도시한 바와 같이, 영상전화 서비스를 구현하는 시스템의 네트워크 구성은 영상전화 기능을 각각 갖추고 있는 컴퓨터, 유선전화기 및 이동통신단말기(이하, 이들을 통칭하여 '영상통신단말기'라 한다)(100)가 영상통신망(200)에 의해 연결되어 이루어진다. 또한, 영상통신망(200)은 게이트웨이(300)에 인터넷(400)에도 연결될 수 있는바, 이에 의해 영상통신단말기(100)는 캐릭터 제공서버(500)로부터 영상 합성에 필요한 각종 캐릭터들을 내려받을 수 있다.As shown in FIG. 1, a network configuration of a system for implementing a video telephony service includes a computer, a wired telephone, and a mobile communication terminal (hereinafter, collectively referred to as a video communication terminal) each having a video telephony function (100). ) Is connected by the video communication network (200). In addition, the video communication network 200 may be connected to the Internet 400 to the gateway 300, whereby the video communication terminal 100 may download various characters necessary for image synthesis from the character providing server 500. .

여기서, 영상통신망(200)은 W-CDMA 망으로 구현될 수 있는바, 이의 구체적인 구성은 이동국, 즉 이동통신단말기와의 사이에서 무선신호 송수신, 무선채널 부호화 및 복호화, 신호의 세기와 화질 측정, 기저대역 신호처리, 다이버시티, 무선자원관리 및 자체 유지보수 기능을 수행하는 기지국과, 다수의 기지국을 제어하여 기지국과의 정합, 셀간 핸드오버 처리 및 호 제어 등의 기능을 수행하는 무선망 제어기(Radio Network Controller)와, 유선전화기 또는 웹캠을 갖춘 컴퓨터가 연결되는 영상전화용 회선교환망과, 영상전화용 회선교환망과 무선망 제어기 사이에서 영상 통화 및 각종 부가기능을 제공하고, 통화로를 설정하며, 여러 다른 장비들 및 외부망과의 연결을 제공하는 이동 교환기(Mobile Switching Center; MSC)를 포함하여 이루어질 수 있다.Here, the video communication network 200 may be implemented as a W-CDMA network, the specific configuration of which is a radio signal transmission and reception, wireless channel encoding and decoding between the mobile station, that is, the mobile communication terminal, signal strength and image quality measurement, A base station that performs baseband signal processing, diversity, radio resource management, and self-maintenance functions, and a wireless network controller that controls a plurality of base stations, performs matching with base stations, inter-cell handover processing, and call control. It provides a video call and various additional functions between a radio network controller, a video telephone line switching network to which a wired telephone or a webcam-equipped computer is connected, and a video telephone line switching network and a wireless network controller. It may comprise a Mobile Switching Center (MSC) that provides connectivity to various other equipment and external networks.

다음으로, 인터넷(400)은 잘 알려진 바와 같이, 전 세계에 산재해 있는 TCP/IP(Transmission Control Protocol/ Internet Protocol)라는 통신규약에 기반이 된 컴퓨터망을 유/무선을 통해 연결하는 네트워크들의 네트워크로 해석하여야 할 것이다. 여기서, 무선으로 인터넷(400)에 접근하는 방식에는 WAP(Wireless Application Protocol)이나 WIPI(Wireless Internet Platform for Interoperability)의 등의 플랫폼을 기반으로 이동통신망을 통해 접근하거나 공중 무선 LAN과 액세스 포인트(Access Point)를 통해 접근하는 무선인터넷과, ADSL 수준의 품질과 비용으로 정지 또는 저속 이동 중에도 고속 인터넷 접속할 수 있는 무선 인터넷 서비스인 와이브로(Wireless Broadband; WiBro) 일명, 휴대인터넷이 있을 수 있다.Next, the Internet 400, as is well known, is a network of networks that connect a computer network based on a communication protocol called TCP / IP (Transmission Control Protocol / Internet Protocol) scattered around the world through wired / wireless networks. Should be interpreted as Here, the method of wirelessly accessing the Internet 400 is based on a platform such as WAP (Wireless Application Protocol) or WIPI (Wireless Internet Platform for Interoperability), or accesses through a mobile communication network or uses a public wireless LAN and an access point. Wi-Fi, a wireless Internet service that can provide high-speed Internet access even when stationary or slow, at ADSL quality and cost, and also known as a portable Internet.

도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이고, 도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다.2 is a block diagram of an image communication terminal equipped with an image synthesizing apparatus according to an embodiment of the present invention, and FIGS. 7 to 15 are screen views of images processed by the image synthesizing apparatus shown in FIG. 2.

도 2에 도시한 바와 같이, 본 발명의 영상통신단말기(100)는 카메라(115), 도 7에 도시한 바와 같이 카메라(115)에서 획득한 영상(이하, '카메라영상'이라 한다)을 살색 영역과 그 이외 영역으로 이진화하는 이진화부(120), 이진화부(120)에 의해 이진화 처리된 영상에서 노이즈 성분을 제거하여 출력하는 노이즈 제거부(125), 도 8에 도시한 바와 같이 이진화부(120)의 이진화에 의해 살색으로 분류된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부(130), 도 9에 도시한 바와 같이 얼굴영역 결정부(130)에 의해 찾은 얼굴영역에서 윤곽선 영역 즉, 눈, 코 및 입의 경계 부위를 검출하는 윤곽선 검출부(135), 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점 즉, 영상 합성의 기준점을 결정하는 특징점 결정부(140), 도 10 내지 도 12에 도시한 바와 같이 특징점을 기준으로 하여 카메 라영상과 캐릭터영상을 합성하여 출력하는 영상합성부(145), 캐릭터 제공서버(500)로부터 내려받은 각종 캐릭터영상이 저장되어 있는 캐릭터영상 저장부(150), 안테나를 통해 기지국과 무선주파수(RF) 신호를 송/수신하는 RF 송/수신부(155), 키입력부(165), 표시부(160) 및 영상합성부(145)에 의해 합성된 영상을 송신하도록 RF 송/수신부(155)를 제어하는 등 영상통신단말기(100)를 총괄적으로 제어하는 제어부(110)를 포함하여 이루어질 수 있다.As shown in FIG. 2, the video communication terminal 100 of the present invention fleshes out an image (hereinafter, referred to as a 'camera image') obtained by the camera 115 and the camera 115 as shown in FIG. 7. Binarization unit 120 for binarizing regions and other regions, noise removal unit 125 for removing noise components from binarized images by binarization unit 120, and outputting them, as shown in FIG. The face region determination unit 130 determines the face region among the skin regions classified as flesh colors by the binarization of 120, and as shown in FIG. 9, the outline region in the face region found by the face region determination unit 130. , Contour detection unit 135 for detecting boundary portions of eyes, nose and mouth, feature point determination unit 140 for determining a feature point of a face, that is, a reference point for image synthesis, in the contour area detected by the contour detection unit 135, FIG. As shown in 10 to 12 The image synthesizer 145 for synthesizing and outputting the camera image and the character image based on the feature points, the character image storage unit 150 and the antenna storing various character images downloaded from the character providing server 500. RF transmission / reception to transmit an image synthesized by an RF transmitter / receiver 155, a key input unit 165, a display unit 160, and an image synthesizer 145, which transmit / receive a radio frequency (RF) signal with a base station. The controller 110 may be configured to collectively control the video communication terminal 100, such as to control the receiver 155.

전술한 구성에서, 이진화부(120)는 카메라영상의 RGB 성분을 YUV 포맷으로 변환하고(아래 수학식 1 참조), 그 다음 V값에서 이를 테면, 10~60 사이의 값은 살색 성분으로 그 이외 값은 비살색 성분으로 구분하여 카메라 영상을 이진화하는 것이다. 그 결과, 도 7에 도시한 바와 같은 검정 영역(살색 영역)과 흰 영역(비살색 영역)으로 이진화된 영상정보가 노이즈 제거부(125)로 출력되는 것이다. 여기서, 살색 성분으로 인정되는 V값의 범위를 10 내지 60으로 하였으나, 인종에 따라 다른 범위로 설정될 수 있다.In the above-described configuration, the binarization unit 120 converts the RGB component of the camera image into the YUV format (see Equation 1 below), and then, at a V value, for example, a value between 10 and 60 is a flesh component. The value is to binarize the camera image by dividing it into non-pigmented components. As a result, the image information binarized into the black region (colored region) and the white region (non-colored region) as shown in FIG. 7 is output to the noise removing unit 125. Here, although the range of the V value recognized as the flesh component is set to 10 to 60, it may be set to another range depending on race.

Y = 0.3R + 0.59G + 0.11BY = 0.3R + 0.59G + 0.11B

U = (B - Y) * 0.493U = (B-Y) * 0.493

V= (R - Y) * 0.877V = (R-Y) * 0.877

YUV는 잘 알려진 바와 같이, Y(휘도성분), U(휘도성분과 적색성분의 차) 및 V(휘도성분과 청색성분의 차)의 3가지 정보로 색을 나타내는 형식이다. 위 식에서 보듯, 이진화부(120)는 휘도(밝기) 성분을 배제한 상태에서 색상 성분인 V(혹은 U) 값을 이용하여 영상을 이진화하는 것이다.As is well known, YUV is a format in which color is represented by three pieces of information: Y (luminance component), U (difference between luminance component and red component), and V (difference between luminance component and blue component). As shown in the above equation, the binarization unit 120 binarizes an image using a V (or U) value of a color component in a state in which a luminance (brightness) component is excluded.

다음으로, 노이즈 제거부(125)는 영상처리 기법으로 잘 알려져 있는 이진 모폴로지 연산 중, 침식(erosion)연산과 팽창(dilation)연산을 수행하여 이진화부(125)로부터 입력되는 이진 영상에서 살색 영역과 그외 영역을 뚜렷하게 구별하는 것이다.Next, the noise removing unit 125 performs an erosion operation and a dilation operation during a binary morphology operation that is well known as an image processing technique. Other areas are clearly distinguished.

보다 구체적으로, 침식연산은 물체(살색 영역)에 대해 배경(그외 영역)을 확장시키고 물체의 크기를 축소하는 역할을 한다. 그 결과, 도 7을 보게 되면 얼굴 영역의 주변에 있는 잡티 성분들이 제거 혹은 축소된다. 그 대신, 원래 이미지(얼굴영역)의 크기도 작아지게 되는바, 작아진 이미지를 원래의 크기로 복원하기 위해 팽창연산을 거치게 된다. 즉, 팽창연산은 물체의 최외각을 확장하는 역할을 한다. 따라서, 물체의 크기는 확장되고 배경은 축소된다.More specifically, the erosion operation serves to expand the background (other regions) and reduce the size of the object with respect to the object (shaded area). As a result, referring to FIG. 7, blemish components around the face area are removed or reduced. Instead, the size of the original image (face area) is also reduced, which undergoes an expansion operation to restore the smaller image to its original size. In other words, the expansion operation extends the outermost angle of the object. Thus, the size of the object is expanded and the background is reduced.

다음으로, 얼굴영역 결정부(130)는 이진 영상에서 얼굴영역을 결정하는 기능을 수행하는 것이다.Next, the face region determiner 130 performs a function of determining the face region in the binary image.

구체적으로 설명하자면, 얼굴영역 결정부(130)는 먼저, 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한다.Specifically, the face region determiner 130 first performs a labeling operation of assigning different numbers to the skin regions.

도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.5 illustrates an example of such a labeling operation.

즉, 얼굴영역 결정부(130)는 8-근방화소(혹은 4-근방화소) 라벨링 기법을 이용하여 살색 영역들에 각각 다른 번호를 붙여 이진 영상을 재구성한다. 여기서, 근방화소란 영상처리 분야에서 잘 알려진 바와 같이, 번호를 붙이게 되는 관심화소에 인접한 화소를 의미한다.That is, the face region determiner 130 reconstructs the binary image by assigning different numbers to the skin regions using an 8-near-pixel (or 4-near-pixel) labeling technique. Here, the near-pixel refers to a pixel adjacent to the pixel of interest to be numbered, as is well known in the field of image processing.

이를 테면, 얼굴영역 결정부(130)는 도 5에 도시한 바와 같이, 관심화소에 255(살색 성분)에 '31'이라는 숫자를 부여한다. 그 다음, 8개의 인접화소 중에서 어느 하나로 중심을 이동한 후, 해당 화소에 동일한 번호, '31'을 라벨링한다. 이렇게 반복적으로 라벨링을 수행하다 보면, 결국, 중심을 이동할 만한 살색 성분이 없게되어 하나의 살색 영역에 대한 라벨링 과정을 마무리하게 된다. 그리고, 위와 같은 방식으로 다른 살색 영역에 대해 '31'과는 다른 번호를 부여한다.For example, as illustrated in FIG. 5, the face region determiner 130 assigns the number of '31' to 255 (color component) to the pixel of interest. Next, the center is moved to one of eight adjacent pixels, and then the same number '31' is labeled on the corresponding pixel. This repetitive labeling results in no labeling component that can move the center, thus completing the labeling process for a single skinning region. In the same manner as above, a different number from '31' is assigned to the other skin region.

이렇듯 모든 살색 영역들에 대한 라벨링 과정을 마무리한 다음으로는, 도 8에 도시한 바와 같이 라벨링된 것들 중에서 가장 큰 영역(20)만을 남기고 다른 부분을 제거한다.After finishing the labeling process for all skin areas as described above, other parts are removed while leaving only the largest area 20 among those labeled as shown in FIG. 8.

큰 영역(20)을 제외한 나머지를 제거하고 나서 마지막으로, 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.After removing the remainder except the large area 20, the face area 10 including the large area 20 is determined.

다음으로, 윤곽선 검출부(135)는 영상처리 분야에서 잘 알려져 있는 소벨 마스크(sobel mask) 연산을 수행하는 것이다.Next, the contour detector 135 performs a sobel mask operation that is well known in the image processing art.

도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.6 is a diagram illustrating an example of an application result of a Sobel mask operation.

도 6에 도시한 바와 같이, 제일 왼쪽의 원 이미지를 수직(Gx) 방향 및 수평(Gy) 방향으로 소벨마스크를 씌워 연산하게 되면, 수직 방향의 윤곽선과 수평 방향의 윤곽선이 검출되는 것이다.As shown in FIG. 6, when the leftmost circle image is calculated by covering the Sobel mask in the vertical (G x ) direction and the horizontal (G y ) direction, the vertical outline and the horizontal outline are detected.

즉, 윤곽선 검출부(135)는 도 9에 도시한 바와 같이, 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하는 것이다.That is, the contour detector 135 detects the contour region 11 corresponding to the eyes, nose, mouth, and eyebrows by applying a horizontal Sobel mask to the face region 10 as shown in FIG. 9.

다음으로, 특징점 결정부(140)는 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점을 결정하는 기능을 수행한다.Next, the feature point determiner 140 determines a feature point of the face in the outline region detected by the outline detector 135.

구체적으로, 특징점 결정부(140)는 먼저, 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한다.Specifically, the feature point determiner 140 first labels the contour regions detected by the contour detector 135 with different numbers.

그 다음으로는, 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 다시 말해, 라벨링된 것들 중에서 크기가 일정치 이하인 것들을 제거하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)만을 남겨 놓게 된다.Next, the face contours and blemishes are removed. In other words, one of the labeled ones is removed below a certain size, leaving only the contour area 11 corresponding to the eyes, nose, mouth and eyebrows.

그 다음으로는, 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한다. 여기서, 특징점 결정부(140)는 얼굴 영역(10)을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다. 다시 말해, 특징점 결정부(140)는 네 영역을 등 간격으로 구분하는 것이다. 물론, 이렇게 등 간격으로 하다 보면 목 부분이 얼굴 영역(10)에 포함되어 얼굴의 특징 부위를 구분하는데 있어서 오류가 생길 수 있다. 그럼에도 불구하고, 영상처리의 단순화 다시 말해, 저사양의 컴퓨터에서도 특징점 결정이 원활하게 이루어지게 하기 위해서는 이렇게 등 간격으로 처리하는 것이 가장 바람직하다. 또한, 목은 얼굴보다는 뒤쪽에 있기 때문에 즉, 어둡기 때문에 본 출원인이 여러 가지 조건 하에서 이진화하여 본 결과에 따르면, 목의 대부분은 얼굴 영역에 포함되어 않는 것을 확인할 수 있었다. 결국, 등 간격으로 한다 하여도 얼굴의 특징 부위가 정확히 구분됨을 확인하였다.Next, the facial region 10 is divided into four regions in the vertical direction, that is, eyebrow region, eye region, nose region and lip region. Here, the feature point determiner 140 may equalize the spacing between the regions in four equal parts of the facial region 10. In other words, the feature point determiner 140 divides the four regions at equal intervals. Of course, such an interval may cause an error in distinguishing a feature part of the face by including the neck part in the face area 10. Nevertheless, simplification of image processing, that is, processing at equal intervals is most preferable in order to smoothly determine feature points even in low-end computers. In addition, since the neck is behind the face rather than the face, that is, the present inventors binarized under various conditions, and according to the results, it was confirmed that most of the neck was not included in the face region. As a result, it was confirmed that the features of the face were correctly classified even at the intervals of the backs.

그 다음으로는, 도 9에 도시한 바와 같이 눈영역 내에 존재하는 윤곽선 영역에서 눈 특징점(14)을 결정하고, 코영역 내에 존재하는 윤곽선 영역에서 코 특징점(15)을 결정하며, 입술영역 내에 존재하는 윤곽선 영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역 내에 존재하는 윤곽선 영역에서 눈썹 특징점(13)을 결정한다. 여기서, 특징점 결정부(140)는 도 9에 도시한 바와 같이, 눈썹, 눈, 코 및 입술 영역별로 제일 아래에 위치하는 좌표를 특징점으로 결정할 수 있다. 이때, 윤곽선 영역(11)에서 어떤 좌표를 특징점으로 결정하느냐는 매핑할 캐릭터영상에 따라 달라질 수 있다. 이를 테면, 속눈썹 화장의 효과를 주기 위한 이미지 합성일 경우에는 눈 영역에서 제일 위에 위치하는 좌표가 특징점이 될 수 있다.Next, as shown in FIG. 9, the eye feature point 14 is determined in the outline region existing in the eye region, the nose feature point 15 is determined in the outline region existing in the nose region, and is present in the lip region. The lip feature point 16 is determined in the outline region, and further, the eyebrow feature point 13 is determined in the outline region existing in the brow region. Here, as illustrated in FIG. 9, the feature point determiner 140 may determine coordinates located at the bottom of each of the eyebrow, eye, nose, and lip regions as the feature points. In this case, which coordinate is determined as the feature point in the contour area 11 may vary depending on the character image to be mapped. For example, in the case of image synthesis to give the effect of eyelash makeup, the coordinate located at the top of the eye region may be a feature point.

결국, 영상합성부(145)는 특징점 결정부(140)에 의해 결정된 특징점을 기준으로 하여 이를 테면, 도 10에 도시한 바와 같이 스파이더맨 마스크를 얼굴에 씌운다거나, 도 11에 도시한 바와 같이 선글라스를 얼굴에 씌운다거나, 도 12에 도시한 바와 같이 입술에 사탕을 매핑하게 된다.As a result, the image synthesizing unit 145 covers the face of the Spider-Man mask as shown in FIG. 10 or sunglasses as shown in FIG. 11 based on the feature points determined by the feature point determining unit 140. Is covered on the face, or the candy is mapped to the lips as shown in FIG.

구체적으로, 영상합성부(145)는 먼저, 특징점 이를 테면, 눈 특징점(14)을 기준으로 하여 카메라영상(30)에서 캐릭터영상(40)으로 대체될 변경영역(31)을 찾아 이곳을 캐릭터영상(40)으로 대체하여 도 13에 도시한 바와 같이, 1차 합성영상을 생성한다.Specifically, the image synthesizing unit 145 first finds the change area 31 to be replaced with the character image 40 in the camera image 30 based on the feature point, for example, the eye feature point 14, and places the character image therein. Substituting for 40, as shown in FIG. 13, a primary composite image is generated.

그 다음으로는, 캐릭터영상(40)으로 대체된 변경영역(31)에서 원래의 카메라영상(30)으로 복귀되어야 하는 복귀영역을 찾게 된다. 즉, 캐릭터영상(40)은 도 13에 도시한 바와 같이, 안경과 콧수염처럼 실질적으로 필요한 캐릭터 부분과 이와 뚜렷하게 구별되는 검정 부분으로 구성되는데, 영상합성부(145)는 이러한 검정 부분 즉, 복귀영역을 찾는 것이다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 1을 이용하여 복귀영역을 찾을 수 있다. 또한, 캐릭터영상(40)에서 캐릭터 부분이 어두운 색 계통이게 되면, 불필요한 부분은 이와 대비되도록 흰색이 될 수 있다.Next, a return area to be returned to the original camera image 30 is found in the changed area 31 replaced with the character image 40. That is, as shown in FIG. 13, the character image 40 includes a character part that is substantially necessary, such as glasses and a mustache, and a black part distinctly distinguished from the character part. The image synthesis unit 145 includes the black part, that is, the return area. Will find. Here, the image synthesis unit 145 may find the return area using, for example, conditional sentence 1 below. In addition, when the character portion in the character image 40 is a dark color system, the unnecessary portion may be white to contrast with this.

조건문 1Conditional statement 1

if(image->imageData[(640 * y + x) *3] == 0)if (image-> imageData [(640 * y + x) * 3] == 0)

그 다음으로는, 상기한 복귀영역을 원래의 카메라영상(30)으로 대체하여 도 14에 도시한 바와 같이, 2차 합성영상을 생성하고, 이를 제어부(110)로 출력할 수 있다. 여기서, 영상합성부(145)는 이를 테면, 상기한 조건문 1을 만족하는 복귀영역에 대해 아래 실행문을 이용하여 복귀영역을 원래의 카메라영상(30)으로 대체할 수 있다.Subsequently, as shown in FIG. 14, the returned region may be replaced with the original camera image 30 to generate a second composite image and output the second composite image to the controller 110. For example, the image synthesis unit 145 may replace the return region with the original camera image 30 by using the following execution statement for the return region that satisfies the conditional statement 1 described above.

실행문Execution statement

image->imageData[(640 * y +x)] = image_copy->imageData[(640 * y + x)];image-> imageData [(640 * y + x)] = image_copy-> imageData [(640 * y + x)];

한편, 이렇게 생성된 2차 합성영상을 보게 되면 복귀 과정에서 캐릭터영상(40)에 근접한 카메라영상(30)의 화소가 원래의 값을 갖지 못하고 결함이 생기는 문제점이 있을 수 있다.On the other hand, when viewing the secondary composite image generated in this way, there may be a problem in that a pixel of the camera image 30 proximate to the character image 40 does not have an original value and a defect occurs in the return process.

따라서, 다시 한번 영상합성부(145)는 이러한 결함 영역(32)을 찾아 이를 카메라영상(30)으로 보정하여 도 15에 도시한 바와 같이, 최종 합성영상을 생성하고, 이를 제어부(100)로 출력하는 것이 바람직하다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 2를 이용하여 결함 영역(32)을 찾을 수 있다.Therefore, once again, the image synthesis unit 145 finds the defect area 32 and corrects it to the camera image 30 to generate the final composite image as shown in FIG. 15, and outputs it to the control unit 100. It is desirable to. Here, the image synthesis unit 145 may find the defect area 32 using, for example, conditional sentence 2 below.

조건문 2Conditional statement 2

if((unsigned char)image->imageData[(640 * y + x) *3] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 1] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 2]<10 )if ((unsigned char) image-> imageData [(640 * y + x) * 3] <10 && (unsigned char) image-> imageData [(640 * y + x) * 3 + 1] <10 && (unsigned char) image-> imageData [(640 * y + x) * 3 + 2] <10)

도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.3 and 4 are flowcharts illustrating an image synthesizing method of a video communication terminal according to an embodiment of the present invention.

먼저, 도 3에 도시한 바와 같이 단계 S11에서는 카메라(115)에 의해 영상을 획득한다. 그 다음, 이진화부(120)는 단계 S13에서 카메라영상의 RGB 성분을 YUV 포맷으로 변환한 후, 단계 S15로 진행하여 살색 성분과 그 이외의 비살색 성분으로 구분하여 카메라 영상을 이진화하게 된다.First, as shown in FIG. 3, an image is acquired by the camera 115 in step S11. Next, the binarization unit 120 converts the RGB component of the camera image into the YUV format in step S13, and proceeds to step S15 to binarize the camera image by dividing it into a skin color component and other non-color skin components.

다음으로, 단계 S17에서는 노이즈제거부(125)에 의해 이진 영상에 대해 침식 및 팽창 연산을 수행하여 잡티를 제거하게 된다.Next, in operation S17, the noise removing unit 125 performs erosion and expansion operations on the binary image to remove blemishes.

다음으로, 얼굴영역 결정부(130)는 단계 S19에서 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한 후, 단계 S21로 진행하여 라벨링된 것들 중에서 가장 큰 영역(20; 도 8 참조)만을 남기고 다른 부분을 제거한다. 그런 다음으로는, 도 8에 도시한 바와 같이 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.Next, the face area determiner 130 performs a labeling operation for assigning different numbers to the skin color areas in step S19, and then proceeds to step S21 to display the largest area 20 among the labeled ones; Other parts are removed, leaving only the FIG. 8). Next, as shown in FIG. 8, the facial region 10 including the large region 20 is determined.

다음으로, 단계 S23에서 윤곽선 검출부(135)는 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하게 된다.Next, in step S23, the contour detector 135 detects the contour region 11 corresponding to the eyes, nose, mouth, and eyebrows by applying a horizontal Sobel mask to the face region 10.

다음으로, 특징점 결정부(140)는 단계 S25에서 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한 후, 단계 S27로 진행하여 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 그런 다음, 단계 S29에서는 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한 후, 단계 S31로 진행하여 눈영역에서 눈 특징점(14)을 결정하고, 코영역에서 코 특징점(15)을 결정하며, 입술영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역에서 눈썹 특징점(13)을 결정하게 된다.Next, the feature point determiner 140 labels the contour areas detected by the contour detector 135 in a different number at step S25, and then proceeds to step S27 to remove contours and blemishes of the face. Next, in step S29, the facial region 10 is divided into four regions in the vertical direction, that is, the eyebrow region, the eye region, the nose region, and the lip region, and the flow proceeds to step S31 to determine the eye feature point 14 in the eye region. The nose feature point 15 is determined in the nose area, the lip feature point 16 is determined in the lip area, and the eyebrow feature point 13 is determined in the eyebrow area.

다음으로, 단계 S33에서 영상 합성부(145)는 결정된 특징점 중에서 어느 하나를 기준으로 하여 카메라영상과 캐릭터영상을 합성하게 되는데, 이에 대한 구체적인 루틴은 도 4를 참조로 하여 설명한다.Next, in step S33, the image synthesizing unit 145 synthesizes the camera image and the character image based on any one of the determined feature points. A detailed routine thereof will be described with reference to FIG. 4.

즉, 도 4에 도시한 바와 같이 영상 합성부(145)는 단계 S331에서 특징점을 기준으로 하여 카메라영상에서 변경영역을 찾은 후, 단계 S332로 진행하여 찾은 변경영역을 캐릭터영상으로 대체하여 1차 합성영상을 생성한다. 그런 다음, 단계 S333에서는 1차 합성영상에서 복귀영역을 찾은 후, 단계 S334으로 진행하여 복귀영역을 카메라영상으로 대체하여 2차 합성영상을 생성한다.That is, as shown in FIG. 4, the image synthesizing unit 145 finds a change region in the camera image based on the feature point in step S331, and then proceeds to step S332 to replace the found change region with a character image for primary synthesis. Create an image. Then, in step S333, after finding the return region in the primary composite image, the flow proceeds to step S334 to replace the return region with a camera image to generate a second composite image.

다음으로, 단계 S335에서는 영상합성부(145)에 의해 2차 합성영상에서 결함영역을 찾은 후, 단계 S336에서 결함영역을 카메라영상으로 대체하여 2차 합성영상을 보정하게 된다. 그런 다음, 단계 S337로 진행하여 보정된 최종 합성영상의 데이터를 제어부(110)로 출력하는 것이다.Next, in step S335, after finding the defective area in the secondary synthesized image by the image synthesizer 145, the secondary synthesized image is corrected by replacing the defective area with the camera image in step S336. Then, the process proceeds to step S337 to output the data of the corrected final composite image to the controller 110.

본 발명의 영상통신단말기의 영상 합성 장치 및 방법은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.The video synthesizing apparatus and method of the video communication terminal of the present invention are not limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea of the present invention.

도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.1 is a diagram illustrating a network in which a video phone service may be implemented.

도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이다.2 is a block diagram of a video communication terminal having an image synthesizing apparatus according to an embodiment of the present invention.

도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.3 and 4 are flowcharts illustrating an image synthesizing method of a video communication terminal according to an embodiment of the present invention.

도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.5 illustrates an example of such a labeling operation.

도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.6 is a diagram illustrating an example of an application result of a Sobel mask operation.

도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다. 7 to 15 are diagrams illustrating screens of images processed by the image synthesizing apparatus shown in FIG. 2.

*** 도면의 주요 부분에 대한 부호의 설명 ****** Explanation of symbols for the main parts of the drawing ***

100: 영상통신단말기100: video communication terminal

110: 제어부 115: 카메라110: control unit 115: camera

120: 이진화부 125: 노이즈제거부120: binarization unit 125: noise removing unit

130: 얼굴영역 결정부 135: 윤곽선 검출부130: face area determination unit 135: contour detection unit

140: 특징점 결정부 145: 영상합성부140: feature point determiner 145: image synthesizer

150: 캐릭터영상 저장부 155: RF 송/수신부150: character image storage unit 155: RF transmission and reception unit

160: 표시부 165: 키입력부160: display unit 165: key input unit

200: 영상통신망 300: 게이트웨이200: video communication network 300: gateway

400: 인터넷 500: 케릭터 제공서버400: Internet 500: Character server

Claims (23)

카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부;A binarization unit for binarizing the camera image acquired by the camera into a skin region and a non-skin region; 상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부;A face region determiner configured to determine a face region among the flesh colors divided by the binarization part; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부;An outline detection unit detecting an outline area in the face area determined by the face area determination unit; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및The face region determined by the face region determiner is divided into four parts and divided into an eyebrow region, an eye region, a nose region, and a lip region, and a feature point of the eye is determined from an outline region existing in the eye region, and is present in the nose region. A feature point determiner for determining a feature point of the nose in the outline region to determine a feature point of the lips in the outline region existing in the lip region; 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상합성부를 포함하여 이루어진 영상통신단말기의 영상 합성 장치.And an image synthesizing unit for synthesizing the camera image with a character image prepared in advance on the basis of the feature point determined by the feature point determining unit. 제 1항에 있어서,The method of claim 1, 상기 이진화부는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.The binarization unit converts the RGB component of the camera image into a YUV format, and then binarizes the video synthesizing apparatus of the video communication terminal. 제 2항에 있어서,The method of claim 2, 상기 특징점 결정부는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the feature point determiner is configured to equalize the spacing between the areas in four equal parts of the face area. 제 1항에 있어서,The method of claim 1, 상기 이진화부에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하여 상기 얼굴영역 결정부로 출력하는 노이즈제거부를 더 포함하여 이루어진 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And a noise removing unit for performing an erosion and expansion operation on the binary image by the binarization unit and outputting the noise to the face region determination unit. 제 1항에 있어서,The method of claim 1, 상기 얼굴영역 결정부는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the face region determiner determines a face region using a labeling operation. 제 1항에 있어서,The method of claim 1, 상기 윤곽선 검출부는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the contour detector detects the contour region using a horizontal Sobel mask operation. 제 1항에 있어서,The method of claim 1, 상기 특징점 결정부는 상기 윤곽선 검출부에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the feature point determiner performs a labeling operation on the contour areas detected by the contour detector, and removes those having a predetermined size or less from the labeled contour areas. 제 1항 내지 제 7항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 7, 상기 영상합성부는 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.The image synthesis unit generates a first synthesis image by finding a change region in the camera image based on the feature point determined by the feature point determiner and replacing the change region with a character image prepared in advance, and the first synthesis image. And a second composite image by replacing the returned region with the camera image by finding a return region in. 제 8항에 있어서,The method of claim 8, 상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되,The character image is composed of a character portion and a black or white portion that is distinct from the character portion, 상기 검정이나 흰색부분이 상기 복귀영역이 되는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the black or white portion is the return region. 제 9항에 있어서,The method of claim 9, 상기 영상 합성부는 상기 2차 합성영상에서 결함영역을 보정하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the image synthesizing unit corrects a defect area in the secondary synthesized image. 제 10항에 있어서,The method of claim 10, 상기 영상 합성부는 상기 결함영역을 상기 카메라 영상으로 대체하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.And the image synthesizing unit replaces the defective area with the camera image. 카메라로부터 획득한 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상 합성 장치가 구비되어 있는 영상통신단말기에서 수행되며,It is performed in a video communication terminal equipped with a video synthesizing apparatus for synthesizing a camera image obtained from the camera and a character image prepared in advance, 상기 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 (a) 단계;(A) binarizing the camera image into a skin region and a non-color region; 상기 (a) 단계에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 (b) 단계;(B) determining a face region from the skin color areas classified by the skin color in step (a); 상기 (b) 단계에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 (c) 단계;(C) detecting the contour area from the face area determined by step (b); 상기 (c) 단계에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 (d) 단계 및Dividing the face area determined by the step (c) into four equal parts into eyebrow area, eye area, nose area and lip area, determine the feature point of the eye in the contour area existing in the eye area, present in the nose area (D) determining a feature point of the nose in the contour region, and determining a feature point of the lips in the contour region existing in the lip region; and 상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 (e) 단계를 포함하여 이루어진 영상통신단말기의 영상 합성 방법.And (e) synthesizing the camera image with a previously prepared character image based on the feature point determined by step (d). 제 12항에 있어서,The method of claim 12, 상기 (a) 단계는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (a) is performed by converting the RGB component of the camera image into a YUV format and then binarizing the video. 제 13항에 있어서,The method of claim 13, 상기 (d) 단계는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (d) of the video communication terminal, characterized in that the step of equalizing the interval between the four areas in equal division. 제 12항에 있어서,The method of claim 12, 상기 (a) 단계에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하는 (ab) 단계를 더 포함하되,(A) further comprising the step of performing the erosion and expansion operation on the binary image by the step (a), 상기 (b) 단계는 상기 (ab) 단계를 거친 이진 영상에서 얼굴 영역을 결정하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (b) is performed by determining a face region in the binary image which has passed the step (ab). 제 12항에 있어서,The method of claim 12, 상기 (b) 단계는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (b) is performed by determining a face region using a labeling operation. 제 12항에 있어서,The method of claim 12, 상기 (c) 단계는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (c) is performed by detecting the contour region using a horizontal Sobel mask operation. 제 12항에 있어서,The method of claim 12, 상기 (d) 단계는 상기 (c) 단계에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (d) is performed by performing a labeling operation on the contour areas detected by the step (c), and removing those having a predetermined size or less among the labeled contour areas. Image synthesis method. 제 12항 내지 제 18항 중 어느 한 항에 있어서,The method according to any one of claims 12 to 18, 상기 (e) 단계는 상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.In step (e), a first synthesis image is generated by finding a change area in the camera image based on the feature point determined in step (d) and replacing the change area with a character image prepared in advance. And a second composite image is generated by finding a return region in the second composite image and replacing the returned region with the camera image. 제 19항에 있어서,The method of claim 19, 상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되,The character image is composed of a character portion and a black or white portion that is distinct from the character portion, 상기 (e) 단계에서 복귀영역의 탐색은 상기 검정이나 흰색부분을 찾는 과정인 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The search of the return region in the step (e) is a process of synthesizing the video or communication terminal, characterized in that finding the black or white part. 제 20항에 있어서,The method of claim 20, 상기 (e) 단계에 의해 생성된 2차 합성영상에서 결함영역을 보정하는 (f) 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.And (f) correcting the defective area in the secondary synthesized image generated by the step (e). 제 21항에 있어서,The method of claim 21, 상기 (f) 단계는 상기 결함영역을 상기 카메라 영상으로 대체하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.The step (f) is performed by replacing the defective area with the camera image. 제 12항 내지 제 22항 중 어느 한 항의 영상통신단말기의 영상 합성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer-readable medium having recorded thereon a program for executing the video synthesizing method of the video communication terminal according to any one of claims 12 to 22.
KR1020080051970A 2008-06-03 2008-06-03 apparatus and method for complexing image in visual communication terminal KR100958595B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080051970A KR100958595B1 (en) 2008-06-03 2008-06-03 apparatus and method for complexing image in visual communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080051970A KR100958595B1 (en) 2008-06-03 2008-06-03 apparatus and method for complexing image in visual communication terminal

Publications (2)

Publication Number Publication Date
KR20090125905A true KR20090125905A (en) 2009-12-08
KR100958595B1 KR100958595B1 (en) 2010-05-18

Family

ID=41687219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080051970A KR100958595B1 (en) 2008-06-03 2008-06-03 apparatus and method for complexing image in visual communication terminal

Country Status (1)

Country Link
KR (1) KR100958595B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150001539A (en) 2013-06-27 2015-01-06 삼성전기주식회사 Terminal device
CN106980845A (en) * 2017-04-24 2017-07-25 西安电子科技大学 The crucial independent positioning method of face based on structured modeling
KR20220015469A (en) * 2019-07-03 2022-02-08 로브록스 코포레이션 Animated faces using texture manipulation
KR20230041122A (en) * 2021-09-16 2023-03-24 주식회사 이엔터 Special effect production system using face recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292305A (en) 2000-02-02 2001-10-19 Casio Comput Co Ltd Image data synthesizer, image data synthesis system, image data synthesis method and recording medium
JP3920889B2 (en) * 2004-12-28 2007-05-30 沖電気工業株式会社 Image synthesizer
KR20050018921A (en) * 2005-02-01 2005-02-28 황지현 Automatic hairstyle simulation method and system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150001539A (en) 2013-06-27 2015-01-06 삼성전기주식회사 Terminal device
CN106980845A (en) * 2017-04-24 2017-07-25 西安电子科技大学 The crucial independent positioning method of face based on structured modeling
CN106980845B (en) * 2017-04-24 2020-02-21 西安电子科技大学 Face key point positioning method based on structured modeling
KR20220015469A (en) * 2019-07-03 2022-02-08 로브록스 코포레이션 Animated faces using texture manipulation
KR20230041122A (en) * 2021-09-16 2023-03-24 주식회사 이엔터 Special effect production system using face recognition

Also Published As

Publication number Publication date
KR100958595B1 (en) 2010-05-18

Similar Documents

Publication Publication Date Title
CN102884536B (en) The colour of skin and feature detection for video conference compression
CN109639982A (en) A kind of image denoising method, device, storage medium and terminal
CN104424624B (en) A kind of optimization method and device of image synthesis
CN108337465A (en) Method for processing video frequency and device
EP2627069B1 (en) Method and wireless handheld device for determining image hue
CN103442137B (en) A kind of method of checking the other side&#39;s conjecture face in mobile phone communication
CN1849823A (en) Video communications method and system
US9196029B2 (en) Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium
CN105874506A (en) Image blur with preservation of detail
KR100958595B1 (en) apparatus and method for complexing image in visual communication terminal
CN108289185B (en) Video communication method, device and terminal equipment
CN113206971B (en) Image processing method and display device
CN106530309B (en) A kind of video matting method and system based on mobile platform
CN113723385B (en) Video processing method and device and neural network training method and device
CN108198146B (en) Noise reduction method, equipment and computer readable storage medium
CN107920213A (en) Image synthesizing method, terminal and computer-readable recording medium
CN111784568A (en) Face image processing method and device, electronic equipment and computer readable medium
WO2021077863A1 (en) Terminal message processing method, image recognition method, and apparatuses, medium and system
EP4276733A1 (en) Image processing method and apparatus, and device and readable storage medium
CN110020645B (en) Image processing method and device, computing equipment and storage medium
CN108153809A (en) Picture identification method, recognition methods, terminal and computer readable storage medium
CN109859115A (en) A kind of image processing method, terminal and computer readable storage medium
KR100464079B1 (en) Face detection and tracking of video communication system
KR100948369B1 (en) Apparatus and method for complexing image in visual communication terminal
JPH06309433A (en) Picture identification system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee