KR20090125905A - Apparatus and method for complexing image in visual communication terminal - Google Patents
Apparatus and method for complexing image in visual communication terminal Download PDFInfo
- Publication number
- KR20090125905A KR20090125905A KR1020080051970A KR20080051970A KR20090125905A KR 20090125905 A KR20090125905 A KR 20090125905A KR 1020080051970 A KR1020080051970 A KR 1020080051970A KR 20080051970 A KR20080051970 A KR 20080051970A KR 20090125905 A KR20090125905 A KR 20090125905A
- Authority
- KR
- South Korea
- Prior art keywords
- region
- image
- area
- feature point
- face
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004891 communication Methods 0.000 title claims abstract description 33
- 230000000536 complexating effect Effects 0.000 title 1
- 230000000007 visual effect Effects 0.000 title 1
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 41
- 230000015572 biosynthetic process Effects 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 18
- 238000003786 synthesis reaction Methods 0.000 claims description 18
- 239000002131 composite material Substances 0.000 claims description 16
- 210000004709 eyebrow Anatomy 0.000 claims description 14
- 230000002950 deficient Effects 0.000 claims description 8
- 230000003628 erosive effect Effects 0.000 claims description 7
- 230000007547 defect Effects 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 4
- 238000001308 synthesis method Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010295 mobile communication Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상통신단말기의 영상 합성 장치 및 방법에 관한 것으로, 특히 카메라로부터 획득한 얼굴 영상에 다양한 캐릭터 이를 테면, 콧수염이나 안경 혹은 눈물 영상을 합성함으로써, 통화중인 상대측 영상통신단말기로 사용자의 감정 상태나 다양한 캐릭터로 꾸며진 사용자의 얼굴을 표현할 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법에 관한 것이다.The present invention relates to an image synthesizing apparatus and method of a video communication terminal, and in particular, by synthesizing various characters, such as a mustache, glasses or tear images, to a face image obtained from a camera, the emotional state of the user to the video communication terminal on the other side of the call The present invention relates to an image synthesizing apparatus and method for a video communication terminal capable of expressing a user's face decorated with various characters.
근래 들어, 정보/통신분야의 비약적인 발전에 힘입어 전국민의 필수 휴대품이라고 할 정도로 이동통신 단말기가 보편화되어 있고, 나아가 음성통화나 문자메시지의 송/수신이 주기능이었던 것은 이미 오래전이며, 새로운 기술의 출현에 따라 다종다양한 기능을 갖는 신모델 들이 속속 출시되어 구 모델들을 빠르게 대체하고 있다.In recent years, thanks to the rapid development of information and communication fields, mobile communication terminals have become so popular that they are essential portable devices for the whole nation. Furthermore, voice calls and text messages have been the main functions. With the advent of the new models with various functions are released one after another to replace the old models quickly.
특히, 영상전화나 영상회의 시스템을 지원하는 3 세대(Generation)용 통신망, 이를 테면 W-CDMA망 혹은 이의 발전 모델인 차세대(4세대) 이동통신망 이를 테면, 와이브로(wireless broadband; WiBro)망이 구축되어 정지 또는 이동 중에도 이 동통신 단말기를 통해 통화 상대방과 음성 및 영상을 주고받을 수 있는 영상전화 서비스가 도입된 상태이다.In particular, a third generation communication network supporting video telephony or a video conferencing system, such as a W-CDMA network or a next generation (fourth generation) mobile communication network, which is a development model thereof, such as a wireless broadband (WiBro) network is established. In the state of being stopped or moving, a video telephone service is introduced to exchange voice and video with a call counterpart through a mobile communication terminal.
이렇게 영상전화 서비스가 상용화되면서 한편으로는, 감추고 싶은 자신의 모습이 여과 없이 통화중인 상대방에게 보여줄 수 있다는 문제점이 있었다. 예를 들어, 자다 일어나 부은 눈이나 엉망인 머리 혹은 화장기 없는 맨 얼굴 등이 지인이 아닌 일반 사람들에게도 전달될 수 있는바, 사용자의 사생활에 지장을 초래할 수 있다는 것이다.As the video phone service became commercially available, on the other hand, there was a problem that one's self-hidden appearance could be shown to the other party on the phone without filtering. For example, sleeping eyes, messed up hair, or bare face without a toilet can be passed on to people who are not acquaintances, which can interfere with the privacy of users.
이에, 본 출원인은 사용자의 얼굴을 보호하고 나아가, 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 영상 합성방안을 연구하여 본 발명에 이르게 되었다.Accordingly, the present inventors have led to the present invention by studying an image synthesis method that can protect the user's face and further enhance the user's face in a fun or beautiful way.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성하여 사용자의 얼굴을 다양하게 꾸며줄 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-described problem, and finds a feature part of the face (eg, eyes, nose or mouth) in an image obtained from the camera, and based on the found feature part, It is an object of the present invention to provide an image synthesizing apparatus and method for a video communication terminal that can decorate a user's face by synthesizing a character image prepared in advance.
전술한 목적을 달성하기 위해 본 발명에 따른 영상통신단말기의 영상 합성 장치는 카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부; 상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상합성부를 포함하여 이루어진다.In order to achieve the above object, an image synthesizing apparatus of an image communication terminal according to the present invention comprises: a binarization unit for binarizing a camera image acquired by a camera into a skin region and a non-skin region; A face region determiner configured to determine a face region among the flesh colors divided by the binarization part; An outline detection unit detecting an outline area in the face area determined by the face area determination unit; The face region determined by the face region determiner is divided into four parts and divided into an eyebrow region, an eye region, a nose region, and a lip region, and a feature point of the eye is determined from an outline region existing in the eye region, and is present in the nose region. A feature point determination unit for determining a feature point of the nose in the contour region, and a feature point determination unit for determining a feature point of the lips in the contour region existing in the lip region and the feature point determined by the feature point determination unit, which are previously prepared with the camera image. It comprises an image synthesis unit for synthesizing the character image.
전술한 구성에서, 상기 이진화부는 상기 카메라 영상의 RGB 성분을 YUV 포맷 으로 변환한 다음, 이진화하는 것이 바람직하다. 즉, 상기 이진화부는 밝기 성분을 배제한 색상 성분을 가지고 카메라 영상을 이진화(살색 및 비살색)하는 것이다.In the above configuration, the binarization unit preferably converts the RGB component of the camera image into a YUV format and then binarizes it. That is, the binarization unit binarizes (colors and uncolors) the camera image with color components excluding brightness components.
상기 특징점 결정부는 얼굴 영역을 눈썹, 눈, 코 및 입술 영역으로 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다.Preferably, the feature point determination unit equalizes the spacing between the regions in four equal parts of the eyebrow, eye, nose and lip regions.
상기 영상 합성 장치는 상기 이진화부에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하여 상기 얼굴영역 결정부로 출력하는 노이즈제거부를 더 포함하여 이루어지는 것이 바람직하다.The image synthesizing apparatus may further include a noise removing unit configured to perform erosion and expansion operations on the binary image by the binarization unit and output the same to the face region determination unit.
상기 얼굴영역 결정부는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것이 바람직하다. 즉, 상기 얼굴영역 결정부는 라벨링 연산에 의해서 라벨링된 살색 영영들 중에서 가장 큰 것을 얼굴영역으로 결정하는 것이다.Preferably, the face region determiner determines a face region using a labeling operation. That is, the face region determination unit determines the largest one of the flesh color areas labeled by the labeling operation as the face region.
상기 윤곽선 검출부는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것이 바람직하다.The contour detector may detect the contour region by using a horizontal Sobel mask operation.
상기 특징점 결정부는 상기 윤곽선 검출부에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것이 바람직하다. 즉, 이러한 특징점 결정부의 기능에 따르면 미리 정해진 크기 이하인 것(잡티나 노이즈)들은 제외되기 때문에 특징점의 결정이 보다 정확해질 수 있다. The feature point determiner may perform a labeling operation on the contour areas detected by the contour detector, and remove those having a predetermined size or less from the labeled contour areas. That is, according to the function of the feature point determiner, since the thing less than a predetermined size (blemish or noise) is excluded, the feature point can be more accurately determined.
상기 영상합성부는 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복 귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것이 바람직하다.The image synthesis unit generates a first synthesis image by finding a change region in the camera image based on the feature point determined by the feature point determiner and replacing the change region with a character image prepared in advance, and the first synthesis image. It is preferable to generate a second composite image by finding a return region and replacing the return region with the camera image.
상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 검정이나 흰색부분이 상기 복귀영역이 되는 것이 바람직하다.The character image is composed of a character part and a black or white part that is distinguished from the character part, and the black or white part is preferably the return area.
상기 영상 합성부는 상기 2차 합성영상에서 결함영역을 보정하는 것이 바람직하다.Preferably, the image synthesizing unit corrects a defect area in the secondary composite image.
상기 영상 합성부는 상기 결함영역을 상기 카메라 영상으로 대체하는 것이 바람직하다.The image synthesizing unit replaces the defective area with the camera image.
또한, 본 발명에 따른 영상통신단말기의 영상 합성 방법은 카메라로부터 획득한 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상 합성 장치가 구비되어 있는 영상통신단말기에서 수행되며, 상기 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 (a) 단계; 상기 (a) 단계에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 (b) 단계; 상기 (b) 단계에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 (c) 단계; 상기 (c) 단계에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 (d) 단계 및 상기 (d) 단계에 의해 결정 된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 (e) 단계를 포함하여 이루어진다.In addition, the video synthesizing method of the video communication terminal according to the present invention is performed in the video communication terminal is provided with a video synthesizing apparatus for synthesizing the camera image obtained from the camera and the character image prepared in advance, the color gamut of the camera image (A) binarizing the non-pigmented region; (B) determining a face region from the skin color areas classified by the skin color in step (a); (C) detecting the contour area from the face area determined by step (b); Dividing the face area determined by the step (c) into four equal parts into eyebrow area, eye area, nose area and lip area, determine the feature point of the eye in the contour area existing in the eye area, present in the nose area Determining a feature point of the nose in the contour area, and determining the feature point of the lips in the contour area existing in the lip area based on the feature point determined by (d) and (d). And (e) synthesizing the prepared character image.
전술한 구성에서, 상기 (a) 단계는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것에 의해 수행되는 것이 바람직하다.In the above configuration, step (a) is preferably performed by converting the RGB component of the camera image to YUV format and then binarizing.
상기 (d) 단계는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것에 의해 수행되는 것이 바람직하다.The step (d) is preferably performed by equalizing the spacing between the areas in four equal parts.
상기 영상 합성 방법은 상기 (a) 단계에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하는 (ab) 단계를 더 포함하되, 상기 (b) 단계는 상기 (ab) 단계를 거친 이진 영상에서 얼굴 영역을 결정하는 것에 의해 수행되는 것이 바람직하다.The image synthesizing method further includes (ab) performing an erosion and expansion operation on the binary image according to the step (a), wherein the step (b) includes a face region in the binary image that has undergone the step (ab). Preferably by determining
상기 (b) 단계는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것에 의해 수행되는 것이 바람직하다.Step (b) is preferably performed by determining a face region using a labeling operation.
상기 (c) 단계는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것에 의해 수행되는 것이 바람직하다.Step (c) is preferably performed by detecting the contour area using a horizontal Sobel mask operation.
상기 (d) 단계는 상기 (c) 단계에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것에 의해 수행되는 것이 바람직하다.The step (d) is preferably performed by performing a labeling operation on the contour areas detected by the step (c), and removing those below the predetermined size among the labeled contour areas.
상기 (e) 단계는 상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것 에 의해 수행되는 것이 바람직하다.In step (e), a first synthesis image is generated by finding a change area in the camera image based on the feature point determined in step (d) and replacing the change area with a character image prepared in advance. The method may be performed by finding a return region in the second composite image and generating a second composite image by replacing the returned region with the camera image.
상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 (e) 단계에서 복귀영역의 탐색은 상기 검정이나 흰색부분을 찾는 과정인 것이 바람직하다.The character image is composed of a character part and a black or white part that is distinguished from the character part. In the step (e), the search for the return area is preferably a process of finding the black or white part.
상기 영상 합성 방법은 상기 (e) 단계에 의해 생성된 2차 합성영상에서 결함영역을 보정하는 (f) 단계를 더 포함하여 이루어지는 것이 바람직하다.The image synthesizing method may further comprise (f) correcting a defective area in the secondary composite image generated by the step (e).
상기 (f) 단계는 상기 결함영역을 상기 카메라 영상으로 대체하는 것에 의해 수행되는 것이 바람직하다.The step (f) is preferably performed by replacing the defective area with the camera image.
본 발명에 따른 영상통신단말기의 영상 합성 장치 및 방법에 따르면, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성함으로써, 영상전화시 자신의 얼굴 중에 상대방에게 보여주고 싶지 않은 일부를 가리거나 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 효과가 있다.According to an image synthesizing apparatus and method of a video communication terminal according to the present invention, a feature part of a face (for example, an eye, a nose, or a mouth) is found in an image obtained from a camera, and the image is obtained from the camera based on the found feature part. By synthesizing the character image prepared in advance in the image, there is an effect that can hide the part of his or her face that you do not want to show to the other person during the video call or decorate the user's face in a fun or beautiful way.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 영상통신단말기의 영상 합성 장치 및 방법에 대해서 상세하게 설명하는데, 그에 앞서 도 1을 참조로 하여 영상전화 서비스가 구현될 수 있는 네트워크 구성을 살펴보기로 한다.Hereinafter, a video synthesizing apparatus and method for a video communication terminal according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. A network configuration in which a video telephony service can be implemented with reference to FIG. Let's look at.
도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.1 is a diagram illustrating a network in which a video phone service may be implemented.
도 1에 도시한 바와 같이, 영상전화 서비스를 구현하는 시스템의 네트워크 구성은 영상전화 기능을 각각 갖추고 있는 컴퓨터, 유선전화기 및 이동통신단말기(이하, 이들을 통칭하여 '영상통신단말기'라 한다)(100)가 영상통신망(200)에 의해 연결되어 이루어진다. 또한, 영상통신망(200)은 게이트웨이(300)에 인터넷(400)에도 연결될 수 있는바, 이에 의해 영상통신단말기(100)는 캐릭터 제공서버(500)로부터 영상 합성에 필요한 각종 캐릭터들을 내려받을 수 있다.As shown in FIG. 1, a network configuration of a system for implementing a video telephony service includes a computer, a wired telephone, and a mobile communication terminal (hereinafter, collectively referred to as a video communication terminal) each having a video telephony function (100). ) Is connected by the video communication network (200). In addition, the
여기서, 영상통신망(200)은 W-CDMA 망으로 구현될 수 있는바, 이의 구체적인 구성은 이동국, 즉 이동통신단말기와의 사이에서 무선신호 송수신, 무선채널 부호화 및 복호화, 신호의 세기와 화질 측정, 기저대역 신호처리, 다이버시티, 무선자원관리 및 자체 유지보수 기능을 수행하는 기지국과, 다수의 기지국을 제어하여 기지국과의 정합, 셀간 핸드오버 처리 및 호 제어 등의 기능을 수행하는 무선망 제어기(Radio Network Controller)와, 유선전화기 또는 웹캠을 갖춘 컴퓨터가 연결되는 영상전화용 회선교환망과, 영상전화용 회선교환망과 무선망 제어기 사이에서 영상 통화 및 각종 부가기능을 제공하고, 통화로를 설정하며, 여러 다른 장비들 및 외부망과의 연결을 제공하는 이동 교환기(Mobile Switching Center; MSC)를 포함하여 이루어질 수 있다.Here, the
다음으로, 인터넷(400)은 잘 알려진 바와 같이, 전 세계에 산재해 있는 TCP/IP(Transmission Control Protocol/ Internet Protocol)라는 통신규약에 기반이 된 컴퓨터망을 유/무선을 통해 연결하는 네트워크들의 네트워크로 해석하여야 할 것이다. 여기서, 무선으로 인터넷(400)에 접근하는 방식에는 WAP(Wireless Application Protocol)이나 WIPI(Wireless Internet Platform for Interoperability)의 등의 플랫폼을 기반으로 이동통신망을 통해 접근하거나 공중 무선 LAN과 액세스 포인트(Access Point)를 통해 접근하는 무선인터넷과, ADSL 수준의 품질과 비용으로 정지 또는 저속 이동 중에도 고속 인터넷 접속할 수 있는 무선 인터넷 서비스인 와이브로(Wireless Broadband; WiBro) 일명, 휴대인터넷이 있을 수 있다.Next, the Internet 400, as is well known, is a network of networks that connect a computer network based on a communication protocol called TCP / IP (Transmission Control Protocol / Internet Protocol) scattered around the world through wired / wireless networks. Should be interpreted as Here, the method of wirelessly accessing the Internet 400 is based on a platform such as WAP (Wireless Application Protocol) or WIPI (Wireless Internet Platform for Interoperability), or accesses through a mobile communication network or uses a public wireless LAN and an access point. Wi-Fi, a wireless Internet service that can provide high-speed Internet access even when stationary or slow, at ADSL quality and cost, and also known as a portable Internet.
도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이고, 도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다.2 is a block diagram of an image communication terminal equipped with an image synthesizing apparatus according to an embodiment of the present invention, and FIGS. 7 to 15 are screen views of images processed by the image synthesizing apparatus shown in FIG. 2.
도 2에 도시한 바와 같이, 본 발명의 영상통신단말기(100)는 카메라(115), 도 7에 도시한 바와 같이 카메라(115)에서 획득한 영상(이하, '카메라영상'이라 한다)을 살색 영역과 그 이외 영역으로 이진화하는 이진화부(120), 이진화부(120)에 의해 이진화 처리된 영상에서 노이즈 성분을 제거하여 출력하는 노이즈 제거부(125), 도 8에 도시한 바와 같이 이진화부(120)의 이진화에 의해 살색으로 분류된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부(130), 도 9에 도시한 바와 같이 얼굴영역 결정부(130)에 의해 찾은 얼굴영역에서 윤곽선 영역 즉, 눈, 코 및 입의 경계 부위를 검출하는 윤곽선 검출부(135), 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점 즉, 영상 합성의 기준점을 결정하는 특징점 결정부(140), 도 10 내지 도 12에 도시한 바와 같이 특징점을 기준으로 하여 카메 라영상과 캐릭터영상을 합성하여 출력하는 영상합성부(145), 캐릭터 제공서버(500)로부터 내려받은 각종 캐릭터영상이 저장되어 있는 캐릭터영상 저장부(150), 안테나를 통해 기지국과 무선주파수(RF) 신호를 송/수신하는 RF 송/수신부(155), 키입력부(165), 표시부(160) 및 영상합성부(145)에 의해 합성된 영상을 송신하도록 RF 송/수신부(155)를 제어하는 등 영상통신단말기(100)를 총괄적으로 제어하는 제어부(110)를 포함하여 이루어질 수 있다.As shown in FIG. 2, the
전술한 구성에서, 이진화부(120)는 카메라영상의 RGB 성분을 YUV 포맷으로 변환하고(아래 수학식 1 참조), 그 다음 V값에서 이를 테면, 10~60 사이의 값은 살색 성분으로 그 이외 값은 비살색 성분으로 구분하여 카메라 영상을 이진화하는 것이다. 그 결과, 도 7에 도시한 바와 같은 검정 영역(살색 영역)과 흰 영역(비살색 영역)으로 이진화된 영상정보가 노이즈 제거부(125)로 출력되는 것이다. 여기서, 살색 성분으로 인정되는 V값의 범위를 10 내지 60으로 하였으나, 인종에 따라 다른 범위로 설정될 수 있다.In the above-described configuration, the
U = (B - Y) * 0.493U = (B-Y) * 0.493
V= (R - Y) * 0.877V = (R-Y) * 0.877
YUV는 잘 알려진 바와 같이, Y(휘도성분), U(휘도성분과 적색성분의 차) 및 V(휘도성분과 청색성분의 차)의 3가지 정보로 색을 나타내는 형식이다. 위 식에서 보듯, 이진화부(120)는 휘도(밝기) 성분을 배제한 상태에서 색상 성분인 V(혹은 U) 값을 이용하여 영상을 이진화하는 것이다.As is well known, YUV is a format in which color is represented by three pieces of information: Y (luminance component), U (difference between luminance component and red component), and V (difference between luminance component and blue component). As shown in the above equation, the
다음으로, 노이즈 제거부(125)는 영상처리 기법으로 잘 알려져 있는 이진 모폴로지 연산 중, 침식(erosion)연산과 팽창(dilation)연산을 수행하여 이진화부(125)로부터 입력되는 이진 영상에서 살색 영역과 그외 영역을 뚜렷하게 구별하는 것이다.Next, the
보다 구체적으로, 침식연산은 물체(살색 영역)에 대해 배경(그외 영역)을 확장시키고 물체의 크기를 축소하는 역할을 한다. 그 결과, 도 7을 보게 되면 얼굴 영역의 주변에 있는 잡티 성분들이 제거 혹은 축소된다. 그 대신, 원래 이미지(얼굴영역)의 크기도 작아지게 되는바, 작아진 이미지를 원래의 크기로 복원하기 위해 팽창연산을 거치게 된다. 즉, 팽창연산은 물체의 최외각을 확장하는 역할을 한다. 따라서, 물체의 크기는 확장되고 배경은 축소된다.More specifically, the erosion operation serves to expand the background (other regions) and reduce the size of the object with respect to the object (shaded area). As a result, referring to FIG. 7, blemish components around the face area are removed or reduced. Instead, the size of the original image (face area) is also reduced, which undergoes an expansion operation to restore the smaller image to its original size. In other words, the expansion operation extends the outermost angle of the object. Thus, the size of the object is expanded and the background is reduced.
다음으로, 얼굴영역 결정부(130)는 이진 영상에서 얼굴영역을 결정하는 기능을 수행하는 것이다.Next, the
구체적으로 설명하자면, 얼굴영역 결정부(130)는 먼저, 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한다.Specifically, the
도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.5 illustrates an example of such a labeling operation.
즉, 얼굴영역 결정부(130)는 8-근방화소(혹은 4-근방화소) 라벨링 기법을 이용하여 살색 영역들에 각각 다른 번호를 붙여 이진 영상을 재구성한다. 여기서, 근방화소란 영상처리 분야에서 잘 알려진 바와 같이, 번호를 붙이게 되는 관심화소에 인접한 화소를 의미한다.That is, the
이를 테면, 얼굴영역 결정부(130)는 도 5에 도시한 바와 같이, 관심화소에 255(살색 성분)에 '31'이라는 숫자를 부여한다. 그 다음, 8개의 인접화소 중에서 어느 하나로 중심을 이동한 후, 해당 화소에 동일한 번호, '31'을 라벨링한다. 이렇게 반복적으로 라벨링을 수행하다 보면, 결국, 중심을 이동할 만한 살색 성분이 없게되어 하나의 살색 영역에 대한 라벨링 과정을 마무리하게 된다. 그리고, 위와 같은 방식으로 다른 살색 영역에 대해 '31'과는 다른 번호를 부여한다.For example, as illustrated in FIG. 5, the
이렇듯 모든 살색 영역들에 대한 라벨링 과정을 마무리한 다음으로는, 도 8에 도시한 바와 같이 라벨링된 것들 중에서 가장 큰 영역(20)만을 남기고 다른 부분을 제거한다.After finishing the labeling process for all skin areas as described above, other parts are removed while leaving only the
큰 영역(20)을 제외한 나머지를 제거하고 나서 마지막으로, 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.After removing the remainder except the
다음으로, 윤곽선 검출부(135)는 영상처리 분야에서 잘 알려져 있는 소벨 마스크(sobel mask) 연산을 수행하는 것이다.Next, the
도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.6 is a diagram illustrating an example of an application result of a Sobel mask operation.
도 6에 도시한 바와 같이, 제일 왼쪽의 원 이미지를 수직(Gx) 방향 및 수평(Gy) 방향으로 소벨마스크를 씌워 연산하게 되면, 수직 방향의 윤곽선과 수평 방향의 윤곽선이 검출되는 것이다.As shown in FIG. 6, when the leftmost circle image is calculated by covering the Sobel mask in the vertical (G x ) direction and the horizontal (G y ) direction, the vertical outline and the horizontal outline are detected.
즉, 윤곽선 검출부(135)는 도 9에 도시한 바와 같이, 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하는 것이다.That is, the
다음으로, 특징점 결정부(140)는 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점을 결정하는 기능을 수행한다.Next, the
구체적으로, 특징점 결정부(140)는 먼저, 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한다.Specifically, the
그 다음으로는, 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 다시 말해, 라벨링된 것들 중에서 크기가 일정치 이하인 것들을 제거하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)만을 남겨 놓게 된다.Next, the face contours and blemishes are removed. In other words, one of the labeled ones is removed below a certain size, leaving only the contour area 11 corresponding to the eyes, nose, mouth and eyebrows.
그 다음으로는, 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한다. 여기서, 특징점 결정부(140)는 얼굴 영역(10)을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다. 다시 말해, 특징점 결정부(140)는 네 영역을 등 간격으로 구분하는 것이다. 물론, 이렇게 등 간격으로 하다 보면 목 부분이 얼굴 영역(10)에 포함되어 얼굴의 특징 부위를 구분하는데 있어서 오류가 생길 수 있다. 그럼에도 불구하고, 영상처리의 단순화 다시 말해, 저사양의 컴퓨터에서도 특징점 결정이 원활하게 이루어지게 하기 위해서는 이렇게 등 간격으로 처리하는 것이 가장 바람직하다. 또한, 목은 얼굴보다는 뒤쪽에 있기 때문에 즉, 어둡기 때문에 본 출원인이 여러 가지 조건 하에서 이진화하여 본 결과에 따르면, 목의 대부분은 얼굴 영역에 포함되어 않는 것을 확인할 수 있었다. 결국, 등 간격으로 한다 하여도 얼굴의 특징 부위가 정확히 구분됨을 확인하였다.Next, the
그 다음으로는, 도 9에 도시한 바와 같이 눈영역 내에 존재하는 윤곽선 영역에서 눈 특징점(14)을 결정하고, 코영역 내에 존재하는 윤곽선 영역에서 코 특징점(15)을 결정하며, 입술영역 내에 존재하는 윤곽선 영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역 내에 존재하는 윤곽선 영역에서 눈썹 특징점(13)을 결정한다. 여기서, 특징점 결정부(140)는 도 9에 도시한 바와 같이, 눈썹, 눈, 코 및 입술 영역별로 제일 아래에 위치하는 좌표를 특징점으로 결정할 수 있다. 이때, 윤곽선 영역(11)에서 어떤 좌표를 특징점으로 결정하느냐는 매핑할 캐릭터영상에 따라 달라질 수 있다. 이를 테면, 속눈썹 화장의 효과를 주기 위한 이미지 합성일 경우에는 눈 영역에서 제일 위에 위치하는 좌표가 특징점이 될 수 있다.Next, as shown in FIG. 9, the
결국, 영상합성부(145)는 특징점 결정부(140)에 의해 결정된 특징점을 기준으로 하여 이를 테면, 도 10에 도시한 바와 같이 스파이더맨 마스크를 얼굴에 씌운다거나, 도 11에 도시한 바와 같이 선글라스를 얼굴에 씌운다거나, 도 12에 도시한 바와 같이 입술에 사탕을 매핑하게 된다.As a result, the
구체적으로, 영상합성부(145)는 먼저, 특징점 이를 테면, 눈 특징점(14)을 기준으로 하여 카메라영상(30)에서 캐릭터영상(40)으로 대체될 변경영역(31)을 찾아 이곳을 캐릭터영상(40)으로 대체하여 도 13에 도시한 바와 같이, 1차 합성영상을 생성한다.Specifically, the
그 다음으로는, 캐릭터영상(40)으로 대체된 변경영역(31)에서 원래의 카메라영상(30)으로 복귀되어야 하는 복귀영역을 찾게 된다. 즉, 캐릭터영상(40)은 도 13에 도시한 바와 같이, 안경과 콧수염처럼 실질적으로 필요한 캐릭터 부분과 이와 뚜렷하게 구별되는 검정 부분으로 구성되는데, 영상합성부(145)는 이러한 검정 부분 즉, 복귀영역을 찾는 것이다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 1을 이용하여 복귀영역을 찾을 수 있다. 또한, 캐릭터영상(40)에서 캐릭터 부분이 어두운 색 계통이게 되면, 불필요한 부분은 이와 대비되도록 흰색이 될 수 있다.Next, a return area to be returned to the
조건문 1Conditional statement 1
if(image->imageData[(640 * y + x) *3] == 0)if (image-> imageData [(640 * y + x) * 3] == 0)
그 다음으로는, 상기한 복귀영역을 원래의 카메라영상(30)으로 대체하여 도 14에 도시한 바와 같이, 2차 합성영상을 생성하고, 이를 제어부(110)로 출력할 수 있다. 여기서, 영상합성부(145)는 이를 테면, 상기한 조건문 1을 만족하는 복귀영역에 대해 아래 실행문을 이용하여 복귀영역을 원래의 카메라영상(30)으로 대체할 수 있다.Subsequently, as shown in FIG. 14, the returned region may be replaced with the
실행문Execution statement
image->imageData[(640 * y +x)] = image_copy->imageData[(640 * y + x)];image-> imageData [(640 * y + x)] = image_copy-> imageData [(640 * y + x)];
한편, 이렇게 생성된 2차 합성영상을 보게 되면 복귀 과정에서 캐릭터영상(40)에 근접한 카메라영상(30)의 화소가 원래의 값을 갖지 못하고 결함이 생기는 문제점이 있을 수 있다.On the other hand, when viewing the secondary composite image generated in this way, there may be a problem in that a pixel of the
따라서, 다시 한번 영상합성부(145)는 이러한 결함 영역(32)을 찾아 이를 카메라영상(30)으로 보정하여 도 15에 도시한 바와 같이, 최종 합성영상을 생성하고, 이를 제어부(100)로 출력하는 것이 바람직하다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 2를 이용하여 결함 영역(32)을 찾을 수 있다.Therefore, once again, the
조건문 2Conditional statement 2
if((unsigned char)image->imageData[(640 * y + x) *3] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 1] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 2]<10 )if ((unsigned char) image-> imageData [(640 * y + x) * 3] <10 && (unsigned char) image-> imageData [(640 * y + x) * 3 + 1] <10 && (unsigned char) image-> imageData [(640 * y + x) * 3 + 2] <10)
도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.3 and 4 are flowcharts illustrating an image synthesizing method of a video communication terminal according to an embodiment of the present invention.
먼저, 도 3에 도시한 바와 같이 단계 S11에서는 카메라(115)에 의해 영상을 획득한다. 그 다음, 이진화부(120)는 단계 S13에서 카메라영상의 RGB 성분을 YUV 포맷으로 변환한 후, 단계 S15로 진행하여 살색 성분과 그 이외의 비살색 성분으로 구분하여 카메라 영상을 이진화하게 된다.First, as shown in FIG. 3, an image is acquired by the
다음으로, 단계 S17에서는 노이즈제거부(125)에 의해 이진 영상에 대해 침식 및 팽창 연산을 수행하여 잡티를 제거하게 된다.Next, in operation S17, the
다음으로, 얼굴영역 결정부(130)는 단계 S19에서 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한 후, 단계 S21로 진행하여 라벨링된 것들 중에서 가장 큰 영역(20; 도 8 참조)만을 남기고 다른 부분을 제거한다. 그런 다음으로는, 도 8에 도시한 바와 같이 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.Next, the
다음으로, 단계 S23에서 윤곽선 검출부(135)는 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하게 된다.Next, in step S23, the
다음으로, 특징점 결정부(140)는 단계 S25에서 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한 후, 단계 S27로 진행하여 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 그런 다음, 단계 S29에서는 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한 후, 단계 S31로 진행하여 눈영역에서 눈 특징점(14)을 결정하고, 코영역에서 코 특징점(15)을 결정하며, 입술영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역에서 눈썹 특징점(13)을 결정하게 된다.Next, the
다음으로, 단계 S33에서 영상 합성부(145)는 결정된 특징점 중에서 어느 하나를 기준으로 하여 카메라영상과 캐릭터영상을 합성하게 되는데, 이에 대한 구체적인 루틴은 도 4를 참조로 하여 설명한다.Next, in step S33, the
즉, 도 4에 도시한 바와 같이 영상 합성부(145)는 단계 S331에서 특징점을 기준으로 하여 카메라영상에서 변경영역을 찾은 후, 단계 S332로 진행하여 찾은 변경영역을 캐릭터영상으로 대체하여 1차 합성영상을 생성한다. 그런 다음, 단계 S333에서는 1차 합성영상에서 복귀영역을 찾은 후, 단계 S334으로 진행하여 복귀영역을 카메라영상으로 대체하여 2차 합성영상을 생성한다.That is, as shown in FIG. 4, the
다음으로, 단계 S335에서는 영상합성부(145)에 의해 2차 합성영상에서 결함영역을 찾은 후, 단계 S336에서 결함영역을 카메라영상으로 대체하여 2차 합성영상을 보정하게 된다. 그런 다음, 단계 S337로 진행하여 보정된 최종 합성영상의 데이터를 제어부(110)로 출력하는 것이다.Next, in step S335, after finding the defective area in the secondary synthesized image by the
본 발명의 영상통신단말기의 영상 합성 장치 및 방법은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.The video synthesizing apparatus and method of the video communication terminal of the present invention are not limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea of the present invention.
도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.1 is a diagram illustrating a network in which a video phone service may be implemented.
도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이다.2 is a block diagram of a video communication terminal having an image synthesizing apparatus according to an embodiment of the present invention.
도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.3 and 4 are flowcharts illustrating an image synthesizing method of a video communication terminal according to an embodiment of the present invention.
도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.5 illustrates an example of such a labeling operation.
도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.6 is a diagram illustrating an example of an application result of a Sobel mask operation.
도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다. 7 to 15 are diagrams illustrating screens of images processed by the image synthesizing apparatus shown in FIG. 2.
*** 도면의 주요 부분에 대한 부호의 설명 ****** Explanation of symbols for the main parts of the drawing ***
100: 영상통신단말기100: video communication terminal
110: 제어부 115: 카메라110: control unit 115: camera
120: 이진화부 125: 노이즈제거부120: binarization unit 125: noise removing unit
130: 얼굴영역 결정부 135: 윤곽선 검출부130: face area determination unit 135: contour detection unit
140: 특징점 결정부 145: 영상합성부140: feature point determiner 145: image synthesizer
150: 캐릭터영상 저장부 155: RF 송/수신부150: character image storage unit 155: RF transmission and reception unit
160: 표시부 165: 키입력부160: display unit 165: key input unit
200: 영상통신망 300: 게이트웨이200: video communication network 300: gateway
400: 인터넷 500: 케릭터 제공서버400: Internet 500: Character server
Claims (23)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080051970A KR100958595B1 (en) | 2008-06-03 | 2008-06-03 | apparatus and method for complexing image in visual communication terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080051970A KR100958595B1 (en) | 2008-06-03 | 2008-06-03 | apparatus and method for complexing image in visual communication terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090125905A true KR20090125905A (en) | 2009-12-08 |
KR100958595B1 KR100958595B1 (en) | 2010-05-18 |
Family
ID=41687219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080051970A KR100958595B1 (en) | 2008-06-03 | 2008-06-03 | apparatus and method for complexing image in visual communication terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100958595B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150001539A (en) | 2013-06-27 | 2015-01-06 | 삼성전기주식회사 | Terminal device |
CN106980845A (en) * | 2017-04-24 | 2017-07-25 | 西安电子科技大学 | The crucial independent positioning method of face based on structured modeling |
KR20220015469A (en) * | 2019-07-03 | 2022-02-08 | 로브록스 코포레이션 | Animated faces using texture manipulation |
KR20230041122A (en) * | 2021-09-16 | 2023-03-24 | 주식회사 이엔터 | Special effect production system using face recognition |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001292305A (en) | 2000-02-02 | 2001-10-19 | Casio Comput Co Ltd | Image data synthesizer, image data synthesis system, image data synthesis method and recording medium |
JP3920889B2 (en) * | 2004-12-28 | 2007-05-30 | 沖電気工業株式会社 | Image synthesizer |
KR20050018921A (en) * | 2005-02-01 | 2005-02-28 | 황지현 | Automatic hairstyle simulation method and system |
-
2008
- 2008-06-03 KR KR1020080051970A patent/KR100958595B1/en not_active IP Right Cessation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150001539A (en) | 2013-06-27 | 2015-01-06 | 삼성전기주식회사 | Terminal device |
CN106980845A (en) * | 2017-04-24 | 2017-07-25 | 西安电子科技大学 | The crucial independent positioning method of face based on structured modeling |
CN106980845B (en) * | 2017-04-24 | 2020-02-21 | 西安电子科技大学 | Face key point positioning method based on structured modeling |
KR20220015469A (en) * | 2019-07-03 | 2022-02-08 | 로브록스 코포레이션 | Animated faces using texture manipulation |
KR20230041122A (en) * | 2021-09-16 | 2023-03-24 | 주식회사 이엔터 | Special effect production system using face recognition |
Also Published As
Publication number | Publication date |
---|---|
KR100958595B1 (en) | 2010-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102884536B (en) | The colour of skin and feature detection for video conference compression | |
CN109639982A (en) | A kind of image denoising method, device, storage medium and terminal | |
CN104424624B (en) | A kind of optimization method and device of image synthesis | |
CN108337465A (en) | Method for processing video frequency and device | |
EP2627069B1 (en) | Method and wireless handheld device for determining image hue | |
CN103442137B (en) | A kind of method of checking the other side's conjecture face in mobile phone communication | |
CN1849823A (en) | Video communications method and system | |
US9196029B2 (en) | Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium | |
CN105874506A (en) | Image blur with preservation of detail | |
KR100958595B1 (en) | apparatus and method for complexing image in visual communication terminal | |
CN108289185B (en) | Video communication method, device and terminal equipment | |
CN113206971B (en) | Image processing method and display device | |
CN106530309B (en) | A kind of video matting method and system based on mobile platform | |
CN113723385B (en) | Video processing method and device and neural network training method and device | |
CN108198146B (en) | Noise reduction method, equipment and computer readable storage medium | |
CN107920213A (en) | Image synthesizing method, terminal and computer-readable recording medium | |
CN111784568A (en) | Face image processing method and device, electronic equipment and computer readable medium | |
WO2021077863A1 (en) | Terminal message processing method, image recognition method, and apparatuses, medium and system | |
EP4276733A1 (en) | Image processing method and apparatus, and device and readable storage medium | |
CN110020645B (en) | Image processing method and device, computing equipment and storage medium | |
CN108153809A (en) | Picture identification method, recognition methods, terminal and computer readable storage medium | |
CN109859115A (en) | A kind of image processing method, terminal and computer readable storage medium | |
KR100464079B1 (en) | Face detection and tracking of video communication system | |
KR100948369B1 (en) | Apparatus and method for complexing image in visual communication terminal | |
JPH06309433A (en) | Picture identification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |