KR100935482B1 - System and method for providing synthetic images - Google Patents

System and method for providing synthetic images Download PDF

Info

Publication number
KR100935482B1
KR100935482B1 KR1020080028523A KR20080028523A KR100935482B1 KR 100935482 B1 KR100935482 B1 KR 100935482B1 KR 1020080028523 A KR1020080028523 A KR 1020080028523A KR 20080028523 A KR20080028523 A KR 20080028523A KR 100935482 B1 KR100935482 B1 KR 100935482B1
Authority
KR
South Korea
Prior art keywords
face
image
background image
user
size
Prior art date
Application number
KR1020080028523A
Other languages
Korean (ko)
Other versions
KR20090103128A (en
Inventor
이진근
Original Assignee
주식회사 제스틴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제스틴 filed Critical 주식회사 제스틴
Priority to KR1020080028523A priority Critical patent/KR100935482B1/en
Publication of KR20090103128A publication Critical patent/KR20090103128A/en
Application granted granted Critical
Publication of KR100935482B1 publication Critical patent/KR100935482B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 네트워크를 통해 사용자 단말기와 유무선으로 연결되어 사용자에게 얼굴이미지와 배경이미지를 합성한 합성이미지를 제공하는 합성이미지 제공시스템에 관한 것으로, 사용자 단말기로부터 얼굴이미지를 수신하는 얼굴이미지 수신부, 수신된 얼굴이미지로부터 3D 얼굴을 생성하는 3D 얼굴 생성부, 포즈데이터 추출부로부터 받은 포즈데이터를 이용하여 3D 얼굴로부터 포즈가 변환된 3D 얼굴을 생성하는 얼굴포즈 변환부, 크기 및 위치데이터 추출부로부터 받은 크기 및 위치데이터를 이용하여 3D 얼굴로부터 얼굴크기 및 위치가 변환된 3D 얼굴을 생성하는 얼굴크기 및 위치 변환부, 3D 얼굴로부터 2D 얼굴을 생성하는 2D 얼굴 생성부를 포함하는 얼굴이미지 변환서버와, 사용자가 선택한 배경이미지에 대한 전화번호를 사용자에게 전송하는 배경이미지 선택부, 배경이미지에서 얼굴의 포즈데이터를 추출하는 포즈데이터 추출부, 배경이미지에서 얼굴영역의 크기 및 위치데이터를 추출하는 크기 및 위치데이터 추출부, 2D 얼굴 생성부로부터 얼굴이미지를 전달받아 배경이미지와 합성하는 이미지 합성부를 포함하는 이미지 합성서버를 구비한다.

Figure R1020080028523

The present invention relates to a composite image providing system for providing a composite image obtained by synthesizing a face image and a background image to a user by being connected to a user terminal via wired or wireless network. The face image receiving unit for receiving a face image from a user terminal, 3D face generator for generating 3D faces from face images, face pose converter for generating 3D faces with poses converted from 3D faces using pose data received from pose data extractors, and sizes received from size and position data extractors And a face image conversion server including a face size and position conversion unit for generating a 3D face whose face size and position are converted from the 3D face using position data, and a 2D face generation unit for generating a 2D face from the 3D face. Background to send the phone number for the selected background image to the user Unknown selection unit, a pose data extractor for extracting pose data of a face from a background image, a size and position data extractor for extracting size and position data of a face region from a background image, and a background image received from a 2D face generator. An image synthesizing server including an image synthesizing unit for synthesizing an image is provided.

Figure R1020080028523

Description

합성이미지 제공시스템 및 방법{System and method for providing synthetic images}System and method for providing synthetic images

본 발명은 이미지를 합성하는 방법에 관한 것으로, 특히 배경이미지에 사람의 얼굴이미지를 합성하여 인터넷이나 모바일을 통해 서비스를 제공할 수 있는 시스템 및 방법에 대한 것이다. The present invention relates to a method for synthesizing an image, and more particularly, to a system and a method for providing a service through the Internet or a mobile by synthesizing a face image of a person on a background image.

최근 디지털 카메라가 널리 보급되면서, 배경이미지에 사람의 얼굴이미지를 합성하거나 개별적으로 촬영한 여러 사람의 얼굴이미지를 함께 촬영한 것처럼 합성하는 기술이 널리 보편화되었다. 특히, 요즘 거의 모든 핸드폰에 디지털 카메라가 장착되고 있기 때문에, 핸드폰 카메라로 촬영한 얼굴사진과 특수한 아이콘을 합성하거나 또는 특수한 배경이미지와 합성할 수 있는 기본적인 기능이 이미 핸드폰에 의해 제공되고 있다. Recently, as the digital camera has been widely used, a technology of synthesizing a human face image with a background image or a face image of several individual images taken together is widely used. In particular, since almost all mobile phones are equipped with a digital camera, a basic function of synthesizing a face photograph and a special icon taken with a mobile phone camera or a special background image is already provided by the mobile phone.

하지만, 이러한 이미지 합성 기술 및 서비스는 배경이미지와 얼굴이미지 각각을 단순히 위치조정만을 이용해 합성하기 때문에 현실감이 떨어지는 문제점이 있었다. 특히, 2차원적인 얼굴이미지를 배경이미지에 합성하고자 하는 경우, 배경이미지의 방향과 일치하지 않거나 배경에 이미 포함된 다른 사람들의 얼굴 방향과 일 치하지 않아 결과적으로 어색한 합성이미지가 만들어졌다. However, such image compositing technology and service has a problem that the reality is lowered because the composition of each of the background image and the face image using only the position adjustment. In particular, when a two-dimensional face image is to be synthesized into a background image, it does not match the direction of the background image or the face direction of other people already included in the background, resulting in an awkward composite image.

아울러, 얼굴이미지를 배경이미지에 합성할 때 단순히 이미지의 크기나 위치만을 조정하게 되면, 배경이미지의 조명방법과 얼굴이미지의 조명방법이 달라 합성이미지의 현실감이 떨어지는 단점이 있었다. In addition, when simply adjusting the size or position of the image when composing the face image to the background image, the lighting method of the background image and the illumination method of the face image are different, so the reality of the synthesized image is deteriorated.

그리고 이러한 이미지 합성은 특수 소프트웨어를 이용하여 사용자가 직접 작업해야 하기 때문에, 이미지 합성 기술을 습득하지 못한 일반인은 현실감 있는 합성이미지를 만들기 어려웠다. And since such image compositing has to be done by the user by using special software, it is difficult for the general public who has not acquired image compositing technology to make realistic composite image.

본 발명은 상기한 점을 감안하여 발명된 것으로, 배경이미지에 얼굴이미지를 합성할 때 얼굴이미지의 포즈, 크기 및 위치, 조명을 고려하여 현실감 있는 합성이미지를 생성하고, 이를 핸드폰 사용자에게 자동으로 제공할 수 있는 시스템과 방법을 제공함에 그 목적이 있다. The present invention has been invented in view of the above points, and when the face image is synthesized in the background image, a realistic composite image is generated in consideration of the pose, size, position, and lighting of the face image, and automatically provided to the mobile phone user. The goal is to provide a system and method that can do this.

본 발명의 일측면에 의한 합성이미지 제공시스템은, 네트워크를 통해 사용자 단말기와 유무선으로 연결되어 사용자에게 얼굴이미지와 배경이미지를 합성한 합성이미지를 제공하는 합성이미지 제공시스템에 있어서, 사용자 단말기로부터 얼굴이미지를 수신하는 얼굴이미지 수신부, 수신된 얼굴이미지로부터 3D 얼굴을 생성하는 3D 얼굴 생성부, 포즈데이터 추출부로부터 받은 포즈데이터를 이용하여 3D 얼굴로부터 포즈가 변환된 3D 얼굴을 생성하는 얼굴포즈 변환부, 크기 및 위치데이터 추출부로부터 받은 크기 및 위치데이터를 이용하여 3D 얼굴로부터 얼굴크기 및 위치가 변환된 3D 얼굴을 생성하는 얼굴크기 및 위치 변환부, 3D 얼굴로부터 2D 얼굴을 생성하는 2D 얼굴 생성부를 포함하는 얼굴이미지 변환서버 및, 사용자가 선택한 배경이미지에 대한 전화번호를 사용자에게 전송하는 배경이미지 선택부, 배경이미지에서 얼굴의 포즈데이터를 추출하는 포즈데이터 추출부, 배경이미지에서 얼굴영역의 크기 및 위치데이터를 추출하는 크기 및 위치데이터 추출부, 2D 얼굴 생성부로부터 얼굴이미지를 전달받아 배경이미지와 합성하는 이미지 합성부를 포함하는 이 미지 합성서버를 구비한다. In the composite image providing system according to an aspect of the present invention, in the composite image providing system for providing a composite image synthesized by combining a face image and a background image to a user connected to the user terminal via wired or wireless network, the face image from the user terminal A face image receiving unit for receiving a 3D face generating unit for generating a 3D face from the received face image, a face pose converting unit for generating a 3D face having a pose converted from the 3D face using the pose data received from the pose data extracting unit, A face size and position converter for generating a 3D face whose face size and position are converted from the 3D face using the size and position data received from the size and position data extracting unit, and a 2D face generator for generating a 2D face from the 3D face. A face image conversion server for performing Background image selection unit to send a picture number to the user, Pose data extraction unit to extract the pose data of the face from the background image, Size and position data extraction unit to extract the size and position data of the face area from the background image, 2D face generation It is provided with an image synthesizing server including an image synthesizing unit which receives a face image from the unit and synthesizes the background image.

이때, 배경이미지는 3D 좌표계를 이용하여 템플릿(Template)으로 만들어져 합성이미지 제공시스템에 저장되어 있는 것이 바람직하다. At this time, the background image is preferably made of a template (Template) using the 3D coordinate system and stored in the composite image providing system.

그리고, 포즈데이터 추출부는 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출하고, x,y,z 축을 기준으로 하여 특징점의 회전값을 추출하며, 얼굴포즈 변환부는 회전값을 이용하여 포즈가 변환된 3D 얼굴을 생성하는 것이 바람직하다. The pose data extractor extracts the feature points of the basic model face from the region where the user's face image is to be synthesized in the background image template, extracts the rotation values of the feature points based on the x, y, and z axes, and the face pose converter rotates them. It is preferable to generate a 3D face whose pose is converted using the value.

합성이미지 제공시스템에서, 이미지 합성서버는 배경이미지에서 조명 정보를 추출하는 조명정보 추출부를 더 포함하고, 얼굴이미지 변환서버는 조명정보 추출부로부터 받은 조명정보를 3D 얼굴에 적용하여 배경이미지의 조명과 어울리는 3D 얼굴을 생성하는 조명정보 적용부를 더 포함하는 것이 바람직하다. 이때, 배경이미지에는 조명의 위치, 종류, 색상에 대한 데이터가 저장되어 있고, 조명정보 추출부는 이러한 조명의 위치, 종류, 색상에 대한 데이터를 추출한다. 조명의 종류는 'Spotlight', 'Directional Light' 또는 'Point Light'이 될 수 있다. In the composite image providing system, the image synthesizing server further includes a lighting information extracting unit extracting lighting information from the background image, and the face image converting server applies the lighting information received from the lighting information extracting unit to the 3D face and the lighting of the background image. It is preferable to further include an illumination information applying unit for generating a matching 3D face. In this case, the background image stores data about the location, type, and color of the light, and the lighting information extractor extracts data about the location, type, and color of the light. The type of light can be 'Spotlight', 'Directional Light' or 'Point Light'.

본 발명의 다른 측면에 의한 합성이미지 제공방법은, 네트워크를 통해 사용자 단말기와 유무선으로 연결되어 사용자에게 얼굴이미지와 배경이미지를 합성한 합성이미지를 제공하는 합성이미지 제공시스템에서 수행되는 합성이미지 제공방법에 있어서, (a) 사용자 단말기가 합성이미지 제공시스템에 접속하여 배경이미지를 선택하는 단계, (b) 사용자 단말기가 선택된 배경이미지에 대한 전화번호를 수신하는 단계, (c) 사용자 단말기가 수신된 전화번호를 이용하여 얼굴이미지를 합성이미 지 제공시스템에 전송하는 단계, (d) 합성이미지 제공시스템이 수신된 얼굴이미지로부터 3D 얼굴이미지를 생성하는 단계, (e) 합성이미지 제공시스템이 배경이미지의 포즈데이터를 이용하여 3D 얼굴의 포즈를 변환하는 단계, (f) 합성이미지 제공시스템이 배경이미지의 크기 및 위치데이터를 이용하여 3D 얼굴의 크기 및 위치를 변환하는 단계, (g) 합성이미지 제공시스템이 3D 얼굴로부터 2D 얼굴이미지를 생성하는 단계, (h) 합성이미지 제공시스템이 2D 얼굴이미지와 배경이미지를 합성하는 단계 및, (i) 합성이미지 제공시스템이 사용자 단말기에게 합성이미지를 전송하는 단계를 포함한다. According to another aspect of the present invention, there is provided a composite image providing method comprising: a composite image providing method performed in a composite image providing system connected to a user terminal and a wired or wireless network to provide a composite image obtained by synthesizing a face image and a background image to a user. (A) the user terminal accessing the composite image providing system to select a background image, (b) the user terminal receiving a telephone number for the selected background image, (c) the user terminal received the telephone number Transmitting a face image to the composite image providing system using the following steps; (d) generating a 3D face image from the received facial image by the composite image providing system; and (e) pose data of the background image by the composite image providing system. Converting the pose of the 3D face using the (F) composite image providing system the background image Converting the size and position of the 3D face using the size and position data; (g) generating a 2D face image from the 3D face by the composite image providing system; and (h) creating a 2D face image from the 3D face. Synthesizing the images, and (i) synthesizing the image transmission system to the user terminal.

이때, (a) 단계에서 배경이미지는 3D 좌표계를 이용하여 템플릿(Template)으로 만들어져 합성이미지 제공시스템에 저장되어 있는 것이 바람직하다. At this time, the background image in step (a) is preferably made of a template (Template) using the 3D coordinate system and stored in the composite image providing system.

그리고, (d) 단계는, (d1) 수신된 얼굴이미지에서 얼굴 영역을 검출하는 단계, (d2) 검출된 얼굴 영역 내에서 얼굴의 각 특징점을 추출하는 단계, (d3) 3D 얼굴 모형에서 사용자의 얼굴 특징점이 반영된 사용자 3D 얼굴 모형을 생성하는 단계 및, (d4) 상기 (d1) 단계에서 검출된 사용자 얼굴 영역의 텍스처(Texture)를 사용자 3D 얼굴 모형에 매핑하는 단계를 포함할 수 있다. And, step (d), (d1) detecting the face area in the received face image, (d2) extracting each feature point of the face in the detected face area, (d3) the user of the 3D face model The method may include generating a user 3D face model reflecting a facial feature point, and (d4) mapping a texture of the user face region detected in the step (d1) to the user 3D face model.

또한, (e) 단계는, 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출하고, x,y,z 축을 기준으로 하여 특징점의 회전값을 추출함으로써 3D 얼굴의 포즈를 변환하는 것이 바람직하다. Also, in the step (e), the feature point of the basic model face is extracted from the region where the user's face image is to be synthesized in the background image template, and the rotation value of the feature point is extracted based on the x, y, and z axes to pose the 3D face. It is preferable to convert.

합성이미지 제공방법에 있어서, (f) 단계 후에, 합성이미지 제공시스템이 배경이미지의 조명정보가 적용된 3D 얼굴을 생성하는 단계를 더 포함하는 것이 바람 직하고, 배경이미지에 저장된 조명의 위치, 종류, 색상에 대한 데이터를 추출하여 이를 3D 얼굴에 적용한다. 조명의 종류는 'Spotlight', 'Directional Light' 또는 'Point Light'일 수 있다. In the composite image providing method, after step (f), the synthetic image providing system further comprises the step of generating a 3D face to which the lighting information of the background image is applied, the location, type, Extract data about color and apply it to 3D faces. The kind of light may be 'Spotlight', 'Directional Light' or 'Point Light'.

상기한 바와 같이 본 발명에 의하면, 얼굴이미지를 배경이미지에 합성할 때 단순히 얼굴이미지의 크기나 위치만을 조정하는 것이 아니라, 포즈와 조명방법을 배경이미지와 통일시켜 현실감 있는 합성이미지를 생성할 수 있는 효과가 있다. As described above, according to the present invention, when combining a face image with a background image, not only the size or position of the face image is adjusted, but also a pose and lighting method can be combined with the background image to generate a realistic composite image. It works.

아울러, 핸드폰 사용자가 손쉽게 자신의 얼굴이미지를 이용하여 합성이미지를 제공받을 수 있는 효과가 있다. In addition, there is an effect that a mobile phone user can be provided with a composite image using his face image easily.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세하게 설명하기로 한다. 그러나, 이하의 실시예는 이 기술분야에서 통상적인 지식을 가진 자에게 본 발명이 충분히 이해되도록 제공되는 것으로서 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 기술되는 실시예에 한정되는 것은 아니다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the following embodiments are provided to those skilled in the art to fully understand the present invention, and may be modified in various forms, and the scope of the present invention is limited to the embodiments described below. It doesn't happen.

도 1은 본 발명의 바람직한 실시예에 의한 합성이미지 제공시스템을 설명하기 위한 블록도이고, 도 2는 본 발명의 바람직한 실시예에 의한 합성이미지 제공방법을 설명하기 위한 흐름도이다. 1 is a block diagram illustrating a composite image providing system according to a preferred embodiment of the present invention, Figure 2 is a flow chart illustrating a composite image providing method according to a preferred embodiment of the present invention.

먼저, 도 1을 참조하면 본 발명의 바람직한 실시예에 의한 합성이미지 제공시스템(110)은 네트워크를 통해 사용자 단말기(100)와 유무선으로 연결되며, 사용 자 단말기(100)로는 휴대폰, 컴퓨터 등 유무선 통신이 가능한 단말기이면 특정한 것에 한정되지 않는다. First, referring to FIG. 1, the composite image providing system 110 according to a preferred embodiment of the present invention is connected to the user terminal 100 through a network in a wired or wireless manner, and as a user terminal 100, a wired or wireless communication such as a mobile phone or a computer. It is not limited to a specific thing as long as this terminal is possible.

도 1에 도시된 바와 같이 본 발명의 바람직한 실시예에 의한 합성이미지 제공시스템(110)은 사용자로부터 얼굴이미지를 수신하여 배경이미지에 합성하기에 적합하도록 변환하는 얼굴이미지 변환서버(120)와, 사용자로부터 선택된 배경이미지와 변환된 얼굴이미지를 합성하는 이미지 합성서버(130)를 구비한다. 얼굴이미지 변환서버(120)는 얼굴이미지 수신부(121), 3D 얼굴 생성부(122), 얼굴포즈 변환부(123), 얼굴크기 및 위치변환부(124), 조명정보 적용부(125) 및 2D 얼굴 생성부(126)를 포함하고, 이미지 합성서버(130)는 배경이미지 선택부(131), 포즈데이터 추출부(132), 크기 및 위치데이터 추출부(133), 조명정보 추출부(134) 및 이미지 합성부(135)를 포함한다. As shown in FIG. 1, a composite image providing system 110 according to a preferred embodiment of the present invention receives a face image from a user and converts the image to be suitable for compositing with a background image. And an image synthesizing server 130 for synthesizing the converted face image with the selected background image. The face image conversion server 120 includes a face image receiving unit 121, a 3D face generating unit 122, a face pose converting unit 123, a face size and position converting unit 124, an illumination information applying unit 125, and 2D. And a face generator 126, and the image synthesis server 130 includes a background image selector 131, a pose data extractor 132, a size and position data extractor 133, and an illumination information extractor 134. And an image synthesizer 135.

도 2에는 도 1에 도시된 합성이미지 제공시스템(110)에서 수행되는 합성이미지 제공방법의 흐름이 도시되어 있다. 이하, 합성이미지 제공시스템(110)에서 수행되는 합성이미지 제공방법에 대해 상세히 설명한다. 2 shows a flow of a composite image providing method performed in the composite image providing system 110 shown in FIG. Hereinafter, the composite image providing method performed by the composite image providing system 110 will be described in detail.

먼저, 사용자가 자신의 얼굴이미지를 합성하기 위한 배경이미지를 선택한다(제200단계). 배경이미지는 미리 만들어져 합성이미지 제공시스템(110)에 저장되어 있고, 사용자는 유선 인터넷 또는 무선 인터넷을 통해 여러개의 배경이미지 중에서 원하는 것을 선택할 수 있다. First, the user selects a background image for synthesizing his face image (step 200). The background image is prepared in advance and stored in the composite image providing system 110, and the user can select a desired one from a plurality of background images through the wired Internet or the wireless Internet.

배경이미지는 사용자의 얼굴이미지와 매칭되어 합성될 수 있도록 얼굴이미지가 합성되는 영역의 크기정보, 위치정보, 포즈정보, 조명정보를 저장하고 있다. 사 용자가 선택한 배경이미지에 대한 정보는 이미지 합성서버(130)의 배경이미지 선택부(131)에 기록된다. The background image stores the size information, the location information, the pose information, and the lighting information of the region where the face image is synthesized so as to be matched with the user's face image. Information about the background image selected by the user is recorded in the background image selection unit 131 of the image synthesis server 130.

배경이미지는 예를 들어 3D 좌표계를 이용하여 템플릿(Template)으로 만들어질 수 있다. 3D 좌표계는 x, y, z축으로 구성되어 있으며, x와 y축은 배경이미지의 실제 크기를 나타낸다. 즉, 합성할 배경이미지 템플릿의 크기가 320*240인 경우, 배경 이미지의 좌표는 x(L) = 320, y(H) = 240, z = 0이 된다. 따라서, 합성될 사용자의 3D 얼굴 모형은 320*240*0 좌표 내에 위치하게 된다. 여기서, 3D 얼굴 모형의 z좌표는 3D 얼굴 모형의 중심축이 된다. 3D 얼굴 모형의 위치는 x와 y값만 변화되어 배경이미지 템플릿의 특정 위치에 배치된다. 예를 들어, 도 3a는 배경이미지로 만들어지기 전의 이미지 원본을 나타내고, 도 3b는 사용자 얼굴이 들어갈 영역이 빈 공간으로 표시된 배경이미지를 나타낸다. The background image can be made into a template using, for example, a 3D coordinate system. The 3D coordinate system consists of x, y, and z axes, and the x and y axes represent the actual size of the background image. That is, when the size of the background image template to be synthesized is 320 * 240, the coordinates of the background image are x (L) = 320, y (H) = 240, and z = 0. Thus, the 3D face model of the user to be synthesized is located in 320 * 240 * 0 coordinates. Here, the z-coordinate of the 3D face model is the central axis of the 3D face model. The position of the 3D face model changes only the x and y values and is placed at a specific position of the background image template. For example, FIG. 3A shows an image original before being made into a background image, and FIG. 3B shows a background image in which an area for a user's face is represented by an empty space.

사용자가 배경이미지를 선택하면, 이미지 합성서버(130)의 배경이미지 선택부(131)는 선택된 배경이미지에 대한 전화번호, 예를 들어 SMS(short message service) 번호나 MMS(Multimedia Message Service)를 사용자에게 전송한다(제201단계). 합성이미지 제공시스템(110)에 저장된 모든 배경이미지에는 개별적인 전화번호가 부여되어 있기 때문에, 사용자는 선택한 배경이미지에 해당하는 전화번호를 전달받게 된다. When the user selects a background image, the background image selection unit 131 of the image synthesis server 130 uses a phone number for the selected background image, for example, a short message service (SMS) number or a multimedia message service (MMS). In step 201, it is transmitted to the server. Since all the background images stored in the composite image providing system 110 are given individual phone numbers, the user receives a phone number corresponding to the selected background image.

다음으로, 사용자는 수신한 전화번호를 이용하여 얼굴이미지를 합성이미지 제공시스템(110)으로 전송한다(제202단계). 얼굴이미지는 사용자가 핸드폰 카메라 로 촬영한 사진일 수 있으며, SMS 서비스나 MMS 서비스 방식을 이용할 수 있다. 합성이미지 제공시스템(110)의 얼굴이미지 수신부(121)는 사용자로부터 수신된 얼굴이미지를 저장한다. 따라서, 얼굴이미지 수신부(121)에 얼굴이미지가 등록되어 있을 경우, 사용자는 얼굴이미지를 매번 MMS로 첨부하는 번거로움 없이, 합성하려는 배경이미지의 고유번호만 SMS로 전송하여 회원이 원하는 합성이미지를 제공받을 수 있다.Next, the user transmits the face image to the composite image providing system 110 using the received telephone number (step 202). The face image may be a picture taken by the user with a mobile phone camera, and may use an SMS service or an MMS service method. The face image receiving unit 121 of the composite image providing system 110 stores the face image received from the user. Therefore, when the face image is registered in the face image receiving unit 121, the user transmits only the unique number of the background image to be synthesized by SMS to the SMS without the hassle of attaching the face image to MMS every time to provide the desired composite image. I can receive it.

이러한 모바일 메시징 서비스를 이용하여 합성이미지를 요청받고, 사용자가 원하는 합성이미지를 생성시키는 방법은, 사용자들이 합성이미지를 생성시킬 때, 모바일 또는 유선 인터넷의 서비스에 접속할 필요 없이, 합성이미지의 고유 MMS 번호만 알면 언제 어디서든 합성이미지를 제공받을 수 있는 장점이 있다. 특히, 모바일 인터넷의 접속 비용의 부담을 느끼는 사용자에게 저렴한 비용으로 서비스를 제공할 수 있다The method of receiving a composite image using the mobile messaging service and generating the composite image desired by the user is that when the user generates the composite image, a unique MMS number of the composite image is required without the user having to access a mobile or wired Internet service. If you know that you can get a composite image anytime, anywhere. In particular, the service can be provided at a low cost to the user who feels the burden of the connection cost of the mobile Internet.

이어서, 얼굴이미지 변환서버(120)의 3D 얼굴 생성부(122)는 수신된 2D 얼굴이미지로부터 3D 얼굴이미지를 생성한다(제203단계). 3D 얼굴이미지를 생성하는 구체적인 방법은 도 4를 참조하여 설명한다. Subsequently, the 3D face generator 122 of the face image conversion server 120 generates a 3D face image from the received 2D face image (step 203). A detailed method of generating a 3D face image will be described with reference to FIG. 4.

도 4에 도시된 바와 같이, 수신된 2D 얼굴이미지에서 얼굴 영역을 검출한다. 검출된 얼굴 영역의 텍스처(Texture)는 3D 얼굴 모델링에 매핑할 때 사용된다. 그리고, 검출된 얼굴 영역 내에서 얼굴의 각 특징점(눈썹, 눈, 코, 입술, 얼굴형 등)을 추출한다. 이어서, 기존의 3D 얼굴 모형에서 사용자의 얼굴 특징점이 반영된 사 용자 3D 얼굴 모형을 생성한다. 그리고, 사용자의 얼굴 텍스처를 사용자 3D 얼굴 모형에 매핑한다. 따라서 사용자가 입력한 얼굴 사진의 텍스처를 사용하기 때문에 현실감 있는 3D 얼굴을 생성할 수 있다. As shown in FIG. 4, the face region is detected from the received 2D face image. The texture of the detected face area is used when mapping to 3D face modeling. Then, each feature point (eyebrow, eyes, nose, lips, facial shape, etc.) of the face is extracted in the detected face region. Subsequently, a user 3D face model is generated in which the user's face feature points are reflected from the existing 3D face model. Then, the user's face texture is mapped to the user's 3D face model. Therefore, since the texture of the face photograph input by the user is used, a realistic 3D face can be generated.

사용자의 3D 얼굴을 생성한 후에, 배경이미지의 포즈데이터를 이용하여 얼굴의 포즈를 변환한다(제204단계). 즉, 이미지 합성서버(130)의 포즈데이터 추출부(132)는 배경이미지에서 포즈데이터를 추출하여 이를 얼굴포즈 변환부(123)로 전달하고, 얼굴포즈 변환부(123)는 이러한 포즈데이터를 이용하여 3D 얼굴로부터 포즈가 변환된 3D 얼굴을 생성한다. After generating the 3D face of the user, the pose of the face is converted using the pose data of the background image (step 204). That is, the pose data extractor 132 of the image synthesis server 130 extracts the pose data from the background image and transfers the pose data to the face pose converter 123, and the face pose converter 123 uses the pose data. To generate a 3D face whose pose is converted from the 3D face.

구체적으로, 얼굴포즈 변환부(123)는 사용자의 3D 얼굴이미지가 배경이미지 템플릿에 자연스럽게 매칭될 수 있도록 3D 얼굴의 포즈를 변환시키는데, 3D 얼굴 모형의 회전값을 이용한다. 3D 얼굴 모형의 회전값은 원본 배경이미지로부터 다음과 같이 추출할 수 있다. In detail, the face pose converter 123 converts a pose of the 3D face so that the 3D face image of the user may naturally match the background image template, and uses the rotation value of the 3D face model. The rotation value of the 3D face model can be extracted from the original background image as follows.

도 5에 도시된 바와 같이, 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출한다. 얼굴의 회전값을 알기 위해서는 예를 들어 총 9개(왼쪽눈, 오른쪽눈, 미간 중심점, 코 끝점, 왼쪽 볼 중심점, 오른쪽 볼 중심점, 왼쪽 턱 끝점, 오른쪽 턱 끝점, 턱 중심점)의 특징점이 필요하며, 얼굴 분석 기술은 AAM(Active Appearance Model) 기술 등으로 자동 추출될 수 있다.As shown in FIG. 5, the feature point of the basic model face is extracted from a region in which the face image of the user is to be synthesized in the background image template. In order to know the rotation of the face, for example, 9 feature points (left eye, right eye, brow center point, nose end point, left ball center point, right ball center point, left chin end point, right chin end point, chin center point) The facial analysis technology can be automatically extracted using AAM (Active Appearance Model) technology.

이렇게 추출된 기본 모델의 얼굴 특징점은 해당 모델 얼굴의 정면 3D 얼굴 모형과 비교되어, 각 특징점이 어떻게 이동하였는지를 산출할 수 있다. 도 6a는 정면일 때의 3D 얼굴 모형의 특징점 위치를 나타내는 것이고, 도 6b는 배경이미지 템플릿에서 요구하는 3D 얼굴 모형의 특징점 위치를 나타내는 것이다. 즉, 도 6a의 왼쪽눈(E1), 오른쪽눈(E2), 미간 중심점(M0), 코 끝점(N0), 왼쪽 볼 중심점(C1), 오른쪽 볼 중심점(C2), 왼쪽 턱 끝점(S1), 오른쪽 턱 끝점(S2), 턱 중심점(S0)과, 도 6b의 왼쪽눈(E1), 오른쪽눈(E2), 미간 중심점(M0), 코 끝점(N0), 왼쪽 볼 중심점(C1), 오른쪽 볼 중심점(C2), 왼쪽 턱 끝점(S1), 오른쪽 턱 끝점(S2), 턱 중심점(S0)을 상호 비교함으로써 회전값을 추출한다. The facial feature points of the extracted basic model may be compared with the front 3D face model of the corresponding model face to calculate how each feature point is moved. FIG. 6A shows the position of the feature point of the 3D face model when it is in front, and FIG. 6B shows the position of the feature point of the 3D face model required by the background image template. That is, the left eye (E1), the right eye (E2), the center of the cranial center (M0), the nose end point (N0), the left ball center point (C1), the right ball center point (C2), the left jaw end point (S1) of Figure 6a, Right jaw end point (S2), jaw center point (S0), left eye (E1), right eye (E2), cranial center point (M0), nose end point (N0), left ball center point (C1), right ball of FIG. 6B The rotation value is extracted by comparing the center point C2, the left jaw end point S1, the right jaw end point S2, and the jaw center point S0 with each other.

3D 얼굴 모형의 회전값은 x,y,z 축을 기준으로 하여 추출할 수 있다. 도 7은 x축을 기준으로 하여 고개가 옆으로 기울어진 정도를 측정하는 것을 나타낸다. 기본 3D 얼굴 모형의 미간 특징점(M0)를 기준으로 왼쪽눈(E1)과 오른쪽눈(E2)을 이용하여 3D 얼굴 모형이 x축을 기준으로 회전된 각도 즉, ∠ Rx가 고개를 기울어진 각도가 된다.The rotation value of the 3D face model can be extracted based on the x, y, and z axes. 7 shows the measurement of the degree of inclination of the head on the basis of the x-axis. Using the left eye (E1) and the right eye (E2), based on the lumbar feature point (M0) of the basic 3D face model, the angle at which the 3D face model is rotated about the x-axis, that is, the angle ∠ Rx is tilted. .

도 8은 y축을 기준으로 하여 3D 얼굴 모형이 옆으로 고개를 돌린 정도를 측정하는 것을 나타낸다. 도 8에 도시된 바와 같이, C1-S1의 거리(Δ(C1-S1))와 C2-S2의 거리(Δ(C2-S2))의 비를 통해 3D 얼굴이 회전된 값을 추출할 수 있다. 즉, C1-S1의 길이가 C2-S2의 길이보다 길면, 3D 얼굴 모형의 고개를 왼쪽으로 돌리는 데이터가 산출된다.8 illustrates measuring the degree of turning the 3D face model to the side based on the y-axis. As shown in FIG. 8, the value of the 3D face rotated may be extracted through the ratio of the distance Δ (C1-S1) of C1-S1 and the distance Δ (C2-S2) of C2-S2. . That is, if the length of C1-S1 is longer than the length of C2-S2, data for turning the head of the 3D face model to the left is calculated.

도 9는 z축을 기준으로 하여 3D 얼굴 모형이 고개를 상하로 움직인 정도를 측정하는 것을 나타낸다. 도 9에 나타낸 바와 같이, N0와 S0의 길이를 측정하여 이 길이가 정면을 바라보는 기본 3D 얼굴 모형의 N0와 S0의 길이보다 짧으면, 3D 얼굴 모형이 고개를 숙이거나 올린 것으로 판단한다. 그리고, S1과 S2의 길이를 측정하여 이것이 기본 3D 얼굴 모형의 기본값보다 길면 턱이 앞으로 나온 것이므로 고개를 올린 것으로 판단하고, S1과 S2의 길이가 기본값보다 짧으면 턱이 안으로 들어간 것이므로 고개를 숙인 것으로 판단한다. 이러한 N0, S0와 S1, S2의 길이를 통해 고개를 상하로 움직인 데이터를 산출할 수 있다.9 illustrates measuring the degree to which the 3D face model moves the head up and down based on the z-axis. As shown in FIG. 9, when the lengths of N0 and S0 are measured and this length is shorter than the lengths of N0 and S0 of the basic 3D face model facing the front, it is determined that the 3D face model bows or raises his head. If the length of S1 and S2 is longer than the default value of the basic 3D face model, it is determined that the head is raised because the jaw is forward. do. Through the lengths of N0, S0, S1, and S2, data obtained by moving the head up and down can be calculated.

얼굴포즈 변환부(123)는 도 7-9와 같이 추출된 포즈데이터를 이용하여 사용자의 3D 얼굴로부터 포즈가 변환된 3D 얼굴을 생성하는 것이다. The face pose converter 123 generates a 3D face whose pose is converted from the 3D face of the user using the extracted pose data as shown in FIGS. 7-9.

얼굴의 포즈를 변환한 후에, 배경이미지의 크기 및 위치데이터를 이용하여 얼굴이미지의 크기 및 위치를 변환한다(제205단계). 즉, 이미지 합성서버(130)의 크기 및 위치데이터 추출부(133)는 배경이미지에서 크기 및 위치데이터를 추출하여 이를 크기 및 위치변환부(124)로 전달하고, 크기 및 위치변환부(124)는 이러한 크기 및 위치데이터를 이용하여 배경이미지의 적당한 자리에 얼굴이미지가 위치하도록 3D 얼굴의 크기 및 위치를 변환한다. After converting the pose of the face, the size and position of the face image are converted using the size and position data of the background image (step 205). That is, the size and position data extraction unit 133 of the image synthesis server 130 extracts the size and position data from the background image and transfers it to the size and position conversion unit 124, the size and position conversion unit 124 The size and position data are used to convert the size and position of the 3D face so that the face image is positioned at an appropriate position of the background image.

먼저, 3D 얼굴 모형의 크기는 다음과 같이 변환한다. 도 10에서 나타내어진 바와 같이, 크기 및 위치데이터 추출부(133)는 배경이미지 템플릿에서 요구하는 얼굴 크기 데이터(△x(x2-x1), △y(y2-y1))를 추출한다. First, the size of the 3D face model is converted as follows. As shown in FIG. 10, the size and position data extractor 133 extracts face size data Δx (x2-x1) and Δy (y2-y1) required by the background image template.

그런데, 사용자가 전송한 2D 얼굴이미지로부터 생성한 3D 얼굴 모형은 도 11에서 보는 바와 같이, 기본적인 크기가 Fx, Fy, Fz로 설정되어 있다. 그리고, 얼굴 포즈 변환부(123)에서 얼굴 포즈가 변환되면서 Fx, Fy, Fz도 같이 변환되게 된다. 따라서, 변환된 Fx, Fy 데이터를 이용하여 얼굴이미지의 크기를 배경이미지 템플릿의 크기(△x, △y)에 맞게 조정함으로써, 얼굴 크기 및 위치변환부(124)에서 사용자 얼굴의 크기를 변환하게 된다. However, as shown in FIG. 11, the 3D face model generated from the 2D face image transmitted by the user has a basic size of Fx, Fy, and Fz. Then, the face pose is converted by the face pose converting unit 123, and Fx, Fy, and Fz are also converted together. Accordingly, by adjusting the size of the face image to the size (Δx, Δy) of the background image template by using the converted Fx and Fy data, the face size and position conversion unit 124 converts the size of the user's face. do.

그리고, 3D 얼굴 모형의 위치는 다음과 같이 변환할 수 있다. And, the position of the 3D face model can be converted as follows.

배경이미지 템플릿에는 사용자의 3D 얼굴 모형이 위치할 위치값이 미리 입력되어 있다. 즉, 도 12에서 보는 바와 같이, 배경이미지 템플릿에 사용자의 얼굴이미지가 합성될 위치가 저장되어 있고, 크기 및 위치데이터 추출부(133)에서는 배경이미지 템플릿에서 이러한 위치데이터를 추출한다. 도 12를 참조하면, 사용자의 얼굴이 합성될 위치는 얼굴의 중심점을 임의로 선정하여 Tx, Ty라고 할 수 있으며, 3D 얼굴 모형의 z축은 '0'으로 고정시킨다. 그러면, 얼굴크기 및 위치변환부(124)에서 사용자의 3D 얼굴 모형을 배경이미지 템플릿의 위치데이터 Tx, Ty에 맞추어 변환시킨다. In the background image template, a position value in which the 3D face model of the user is to be placed is input in advance. That is, as shown in FIG. 12, the position where the face image of the user is synthesized is stored in the background image template, and the size and position data extractor 133 extracts the position data from the background image template. Referring to FIG. 12, a position at which a user's face is to be synthesized may be referred to as Tx and Ty by arbitrarily selecting a center point of the face, and the z-axis of the 3D face model is fixed to '0'. Then, the face size and position conversion unit 124 converts the user's 3D face model in accordance with the position data Tx, Ty of the background image template.

크기 및 위치를 변환한 후에, 배경이미지의 조명정보가 적용된 얼굴이미지를 생성한다(제206단계). 즉, 이미지 합성서버(130)의 조명정보 추출부(134)는 배경이미지에서 조명정보를 추출하여 이를 조명정보 적용부(125)로 전달하고, 조명정보 적용부(125)는 이러한 조명정보를 3D 얼굴에 적용하여 배경이미지의 조명과 어울리는 3D 얼굴을 생성한다. After converting the size and the position, a face image to which the lighting information of the background image is applied is generated (operation 206). That is, the lighting information extracting unit 134 of the image synthesis server 130 extracts the lighting information from the background image and transmits it to the lighting information applying unit 125, and the lighting information applying unit 125 transmits the lighting information to the 3D. Apply to the face to create a 3D face that matches the lighting of the background image.

3D 얼굴 모형에 조명 효과를 부여하는 이유는, 배경이미지 템플릿에서 요구 하는 조명과 유사한 조명 효과를 3D 얼굴 모델에 부여하여, 사용자가 배경에서 실제로 사진을 찍은 듯한 효과를 주기 위해서이다. 이러한 조명 효과를 부여하는 것은 3차원 공간에서 이뤄질 수 있기 때문에 사용자의 3D 얼굴 모형이 필요하며, 사용자의 3D 얼굴 모형은 배경이미지에서 요구하는 포즈로 얼굴이 회전되었으므로, 3D 얼굴 모형의 z축 폭인 z축 데이터 값 △z를 구해 (사용자 얼굴의 측면 윤곽을 얻어 낼 수 있다.) The reason that the lighting effect is applied to the 3D face model is to give the 3D face model a lighting effect similar to that required by the background image template, so that the user can actually take a picture in the background. Since this lighting effect can be performed in three-dimensional space, the user's 3D face model is required. Since the user's 3D face model is rotated to the pose required by the background image, z is the z-axis width of the 3D face model. Obtain the axis data value Δz (to get the side profile of the user's face)

이러한 z축 데이터 값(△z)은 포즈 변환된 Fx, Fy, Fz와 배경이미지가 요구하는 3D 얼굴 모형의 크기인 △x, △y로부터 다음과 같이 산출될 수 있다.The z-axis data value Δz may be calculated as follows from Δx and Δy, which are the size of the 3D face model required by the pose transformed Fx, Fy, Fz and the background image.

Fx : Fz= △x : △zFx: Fz = Δx: Δz

Fy : Fz = △y : △zFy: Fz = Δy: Δz

∴ △z = (Fz * △x) / Fx 또는 △z = (Fz * △y) / Fy△ Δz = (Fz * Δx) / Fx or Δz = (Fz * Δy) / Fy

아울러, 배경이미지 템플릿에는 조명의 위치, 종류, 색상에 대한 데이터가 저장되어 있고, 조명정보 추출부(134)가 이러한 위치, 종류, 색상 데이터를 배경이미지로부터 추출하면 조명정보 적용부(125)가 사용자 3D 얼굴 모형에 위치, 종류, 색상에 따라 조명 효과가 부여된 3D 얼굴 모형을 생성하게 된다. In addition, the background image template stores the data of the position, type, and color of the light, and when the illumination information extraction unit 134 extracts the position, type, and color data from the background image, the illumination information application unit 125 A 3D face model with lighting effects is created according to the location, type, and color of the user 3D face model.

구체적으로, 도 13은 3D 얼굴 좌표계에서 조명의 위치와 방향을 설명하기 위한 도면이다. 도 13을 참조하면, 3D 얼굴 좌표계에서 조명이 위치할 좌표는 Lpx, Lpy, Lpz라고 지정할 수 있고, 이러한 위치에서 비추어지는 조명의 방향은 Ldx, Ldy, Ldz로 설정할 수 있다. 이렇게 배경이미지 템플릿에서 추출된 조명의 위치 및 방향 정보에 따라 사용자 3D 얼굴 모형에 조명 효과를 부여하면, 사용자 얼굴이미 지가 배경이미지의 분위기에 매칭되도록 할 수 있다. Specifically, FIG. 13 is a diagram for explaining the position and direction of illumination in the 3D face coordinate system. Referring to FIG. 13, coordinates where the lighting is to be positioned in the 3D face coordinate system may be designated as Lpx, Lpy, and Lpz, and the direction of the illumination shining at such a position may be set as Ldx, Ldy, and Ldz. When the lighting effect is applied to the user 3D face model according to the location and direction information of the light extracted from the background image template, the user's face image can be matched with the atmosphere of the background image.

다음으로, 조명의 종류에 대해 설명하면, 3차원에서 빛이란 3개의 종류로 구분할 수 있다. 예를 들어, 3D 얼굴 좌표계에 설정할 수 있는 조명의 종류는 'Spotlight', 'Directional Light', 'Point Light'가 있다. Next, a description will be given of the type of illumination, three kinds of light in three dimensions. For example, the types of lights that can be set in the 3D face coordinate system are 'Spotlight', 'Directional Light', and 'Point Light'.

'Spotlight'란 빛이 원뿔 모양으로 방출하도록 설정하는 방식이다. 광원 즉, 배경이미지 템플릿에 기억된 빛의 위치에서 사용자의 3D 얼굴 모형에 빛을 원뿔 모양으로 발산시켜 3D 얼굴 모형에 음영을 표현할 수 있다. 이러한 'Spotlight' 효과는 배경이미지가 무대 또는 밀폐된 공간 등인 경우에 사용되어 배경이미지를 보다 분위기 있게 할 수 있다. 'Spotlight'의 경우, 광원에서 빛이 발산하는 방향 설정이 필요하므로, 조명의 위치 정보 뿐만 아니라 방향 정보인 Ldx, Ldy, Ldz 데이터가 필요하다. 'Spotlight' is a way of setting the light to emit a cone. In the light source, that is, the position of the light stored in the background image template, the user may express a shadow on the 3D face model by emitting light in a conical shape to the 3D face model of the user. This 'spotlight' effect may be used when the background image is a stage or an enclosed space to make the background image more atmospheric. In the case of 'Spotlight', since the direction of light emission from the light source is required, Ldx, Ldy, and Ldz data, which are direction information as well as position information of illumination, are required.

'Directional Light'란 태양광선과 같은 효과를 주는 조명이므로, 배경이미지 공간이 야외일 때 사용될 수 있다. 이러한 'Directional Light'는 배경이미지 내 3D 얼굴 모형에 부드러운 효과를 연출할 수 있게 해준다. 이러한 'Directional Light'는 태양광선과 같기 때문에 조명의 방향이 설정될 필요가 없다. 따라서, 조명의 위치 정보만 필요하며, Ldx, Ldy, Ldz의 모든 값은 '0'이 된다.'Directional Light' is a light that has the same effect as sunlight, so it can be used when the background space is outdoors. This 'Directional Light' makes it possible to create a smooth effect on the 3D face model in the background image. Since 'Directional Light' is like sunlight, the direction of the light does not need to be set. Therefore, only the position information of the illumination is required, and all values of Ldx, Ldy, and Ldz are '0'.

'Point Light'란 광원을 중심으로 모든 방향으로 빛을 발산하는 조명이며, 전구를 켠듯한 효과를 줄 수 있다. 'Point Light'에서도 조명의 위치 정보만 필요하고 조명의 방향은 설정될 필요가 없으며, 사용자의 3D 얼굴 모형을 실내에서 찍은 듯한 효과를 주어 배경이미지에 합성시킬 수 있다.'Point Light' is a light that emits light in all directions centering on the light source, and it can give an effect as if the bulb is turned on. In 'Point Light', only the location information of the lighting is needed and the direction of the lighting does not need to be set, and the user's 3D face model can be synthesized in the background image by giving the effect that it is taken indoors.

이어서, 조명 색상에 대해 설명하면, 사용자에게 제공되는 배경이미지에서 사용되는 다양한 조명 색상이 3D 얼굴 모형에 매칭되게 설정시켜야 한다. 이 경우, 조명 색상은 RGB 색상 코드를 이용하여 설정시킬 수 있다. 도 14는 3D 얼굴 모형에 부여할 수 있는 조명의 RGB 색상표이다. 도 15는 임의의 조명 위치에서 조명의 종류 및 색상이 반영된 3D 얼굴 모형을 나타낸다. 이러한 방식으로 조명의 색상을 조정하여, 사용자가 고른 배경이미지에 매칭되게 3D 얼굴 영상을 변환시킬 수 있다. 도 15를 보면, 조명의 종류 및 색상에 따라 3D 얼굴 모형에 부여되는 조명 효과의 차이를 알 수 있다. Subsequently, when the lighting color is described, various lighting colors used in the background image provided to the user must be set to match the 3D face model. In this case, the illumination color can be set using an RGB color code. 14 is an RGB color table of illumination that can be given to a 3D face model. FIG. 15 illustrates a 3D face model in which light types and colors are reflected at arbitrary lighting positions. In this way, the color of the light may be adjusted to convert the 3D face image to match the background image selected by the user. Referring to FIG. 15, it is possible to know a difference in lighting effects applied to the 3D face model according to the type and color of lighting.

이상 설명한 바와 같이 얼굴이미지에 포즈, 크기 및 위치, 조명 정보를 반영한 후에, 얼굴이미지 변환서버(120)의 2D 얼굴 생성부(126)는 3D 얼굴로부터 2D 얼굴 이미지를 생성한다(제207단계). 2D 얼굴 이미지를 생성하는 이유는 합성시키고자 하는 배경이미지가 2D 이고, 최종적으로 사용자에게 전송할 합성이미지도 2D이기 때문이다. As described above, after the pose, size, position, and illumination information are reflected in the face image, the 2D face generator 126 of the face image conversion server 120 generates a 2D face image from the 3D face (step 207). The reason for generating the 2D face image is that the background image to be synthesized is 2D, and the synthesized image to be transmitted to the user is also 2D.

다음으로, 이미지 합성서버(130)의 이미지 합성부(135)는 2D 얼굴 생성부(126)로부터 2D 얼굴 이미지를 전달받아 배경이미지와 합성한다(제208단계). 이에 대해서는 도 16을 참조하여 설명한다. 도 16의 (a)는 3D 좌표계 내에서 배경이미지 템플릿이 요구하는 데이터를 기반으로 3D 얼굴 모형의 포즈, 크기 및 위치가 변환된 후 해당 얼굴에 조명 효과가 부여된 상태를 나타낸다. 이러한 도 16의 (a)는 배경이미지 템플릿인 도 16의 (b)와 합성되어 최종적으로 도 16의 (c)가 된다. Next, the image synthesizing unit 135 of the image synthesizing server 130 receives the 2D face image from the 2D face generating unit 126 and synthesizes it with the background image (step 208). This will be described with reference to FIG. 16. FIG. 16A illustrates a state in which a lighting effect is applied to a face after the pose, size, and position of the 3D face model are converted based on data required by the background image template in the 3D coordinate system. 16 (a) is synthesized with (b) of FIG. 16, which is a background image template, and finally (c) of FIG.

따라서, 합성이미지 제공시스템(110)은 사용자 얼굴이미지와 배경이미지가 합성된 합성이미지인 도 16의 (c)를 사용자에게 전송한다(제209단계). 이미지 전송은 MMS 방식을 이용할 수 있으며, 사용자는 수신한 합성이미지를 자신의 단말기에 배경 등으로 활용할 수 있다. Accordingly, the composite image providing system 110 transmits (c) of FIG. 16, which is a composite image obtained by synthesizing the user's face image and the background image, to the user (step 209). Image transmission may use the MMS method, and the user may use the received composite image as a background on his terminal.

도 1은 본 발명의 바람직한 실시예에 의한 합성이미지 제공시스템을 설명하기 위한 블록도, 1 is a block diagram illustrating a composite image providing system according to a preferred embodiment of the present invention;

도 2는 본 발명의 바람직한 실시예에 의한 합성이미지 제공방법을 설명하기 위한 흐름도, 2 is a flowchart illustrating a method for providing a composite image according to a preferred embodiment of the present invention;

도 3a는 배경이미지로 만들어지기 전의 이미지 원본을 나타내고, 도 3b는 사용자 얼굴이 들어갈 영역이 빈 공간으로 표시된 배경이미지를 나타내며, FIG. 3A shows the original image before being made into the background image, and FIG. 3B shows the background image in which the area where the user's face is to be placed is shown as empty space.

도 4는 2D 얼굴이미지로부터 3D 얼굴이미지를 생성하는 방법을 설명하는 예시도, 4 is an exemplary view illustrating a method of generating a 3D face image from a 2D face image;

도 5는 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출하는 것을 설명하는 예시도, 5 is an exemplary diagram illustrating extracting feature points of a basic model face from a region in which a face image of a user is to be synthesized in a background image template;

도 6a는 정면일 때의 3D 얼굴 모형의 특징점 위치를 나타내는 도면, 도 6b는 배경이미지 템플릿에서 요구하는 3D 얼굴 모형의 특징점 위치를 나타내는 도면, Figure 6a is a view showing the position of the feature point of the 3D face model when the front, Figure 6b is a view showing the position of the feature point of the 3D face model required by the background image template,

도 7은 x축을 기준으로 하여 3D 얼굴 모형의 회전값을 추출하는 것을 설명하는 예시도, 7 is an exemplary diagram illustrating extracting a rotation value of a 3D face model based on the x-axis.

도 8은 y축을 기준으로 하여 3D 얼굴 모형의 회전값을 추출하는 것을 설명하는 예시도, 8 is an exemplary diagram illustrating extracting a rotation value of a 3D face model based on the y-axis.

도 9는 z축을 기준으로 하여 3D 얼굴 모형의 회전값을 추출하는 것을 설명하는 예시도, 9 is an exemplary diagram illustrating extracting a rotation value of a 3D face model based on the z axis;

도 10은 크기 및 위치데이터 추출부가 배경이미지 템플릿에서 요구하는 얼굴 크기 데이터를 추출하는 것을 설명하는 예시도, 10 is an exemplary view illustrating that the size and location data extraction unit extracts the face size data required by the background image template;

도 11은 3D 얼굴 모형의 크기 설정을 설명하는 예시도, 11 is an exemplary diagram for explaining size setting of a 3D face model;

도 12는 크기 및 위치데이터 추출부가 배경이미지 템플릿에서 위치데이터를 추출하는 것을 설명하는 예시도, 12 is an exemplary view illustrating that the size and location data extraction unit extracts location data from a background image template;

도 13은 3D 얼굴 좌표계에서 조명의 위치와 방향을 설명하는 도면, 13 is a view for explaining the position and direction of the illumination in the 3D face coordinate system,

도 14는 3D 얼굴 모형에 부여할 수 있는 조명의 RGB 색상표를 설명하는 예시도, 14 is an exemplary diagram illustrating an RGB color table of illumination that can be given to a 3D face model.

도 15는 임의의 조명 위치에서 조명의 종류 및 색상이 반영된 3D 얼굴 모형을 나타낸 예시도, 15 is an exemplary view illustrating a 3D face model in which light types and colors are reflected at arbitrary lighting positions;

도 16은 2D 얼굴 이미지와 배경이미지를 합성하는 것을 설명하는 예시도이다.FIG. 16 is an exemplary view illustrating the synthesis of a 2D face image and a background image.

Claims (13)

네트워크를 통해 사용자 단말기와 유무선으로 연결되어 사용자에게 얼굴이미지와 배경이미지를 합성한 합성이미지를 제공하는 합성이미지 제공시스템에 있어서, In the composite image providing system that is connected to the user terminal and wired or wirelessly through a network to provide a composite image of a face image and a background image to the user, 사용자 단말기로부터 얼굴이미지를 수신하는 얼굴이미지 수신부, 수신된 얼굴이미지로부터 3D 얼굴을 생성하는 3D 얼굴 생성부, 포즈데이터 추출부로부터 받은 포즈데이터를 이용하여 3D 얼굴로부터 포즈가 변환된 3D 얼굴을 생성하는 얼굴포즈 변환부, 크기 및 위치데이터 추출부로부터 받은 크기 및 위치데이터를 이용하여 3D 얼굴로부터 얼굴크기 및 위치가 변환된 3D 얼굴을 생성하는 얼굴크기 및 위치 변환부, 조명정보 추출부로부터 받은 조명정보를 3D 얼굴에 적용하여 배경이미지의 조명과 어울리는 3D 얼굴을 생성하는 조명정보 적용부 및, 3D 얼굴로부터 2D 얼굴을 생성하는 2D 얼굴 생성부를 포함하는 얼굴이미지 변환서버;A face image receiver for receiving a face image from a user terminal, a 3D face generator for generating a 3D face from the received face image, and a pose converted from a 3D face using the pose data received from the pose data extractor. Face size and position conversion unit using the size and position data received from the face pose converting unit, size and position data extracting unit, and the face size and position converting unit to generate a 3D face whose face size and position are converted from the illumination information extracting unit. A face image conversion server including an illumination information applying unit generating a 3D face that matches the illumination of the background image by applying the 3D face to the 3D face, and a 2D face generating unit generating a 2D face from the 3D face; 사용자가 선택한 배경이미지에 대한 전화번호를 사용자에게 전송하는 배경이미지 선택부, 배경이미지에서 얼굴의 포즈데이터를 추출하는 포즈데이터 추출부, 배경이미지에서 얼굴영역의 크기 및 위치데이터를 추출하는 크기 및 위치데이터 추출부, 배경이미지에서 조명의 위치, 종류, 색상에 대한 정보를 추출하는 조명정보 추출부 및, 2D 얼굴 생성부로부터 얼굴이미지를 전달받아 배경이미지와 합성하는 이미지 합성부를 포함하는 이미지 합성서버를 구비하되, Background image selection unit to send the user's phone number for the background image selected by the user, Pose data extraction unit for extracting the pose data of the face from the background image, Size and position of extracting the size and position data of the face area from the background image An image synthesis server including a data extractor, an illumination information extractor for extracting information about a location, a type, and a color of a light from a background image, and an image synthesizer that receives a face image from a 2D face generator and synthesizes the background image with a background image; But 상기 배경이미지는 3D 좌표계를 이용하여 템플릿(Template)으로 만들어져 합성이미지 제공시스템에 저장되어 있는 것을 특징으로 하는 합성이미지 제공시스템.The background image is a composite image providing system, characterized in that the template is made using a 3D coordinate system and stored in the composite image providing system. 삭제delete 제1항에 있어서, The method of claim 1, 상기 포즈데이터 추출부는 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출하고, x,y,z 축을 기준으로 하여 특징점의 회전값을 추출하며, The pose data extracting unit extracts a feature point of the basic model face from a region of the background image template to which the user's face image is synthesized, extracts a rotation value of the feature point based on the x, y, and z axes, 상기 얼굴포즈 변환부는 회전값을 이용하여 포즈가 변환된 3D 얼굴을 생성하는 것을 특징으로 하는 합성이미지 제공시스템.And the face pose converter generates a 3D face whose pose is converted using a rotation value. 삭제delete 삭제delete 제1항에 있어서, 조명의 종류는 'Spotlight', 'Directional Light' 또는 'Point Light'인 것을 특징으로 하는 합성이미지 제공시스템.The system of claim 1, wherein the type of illumination is 'spotlight', 'direction light', or 'point light'. 네트워크를 통해 사용자 단말기와 유무선으로 연결되어 사용자에게 얼굴이미지와 배경이미지를 합성한 합성이미지를 제공하는 합성이미지 제공시스템에서 수행되는 합성이미지 제공방법에 있어서, In the composite image providing method performed in the composite image providing system that is connected to the user terminal and a wired or wireless network through the network to provide a composite image of the face image and the background image to the user, (a) 사용자 단말기가 합성이미지 제공시스템에 접속하여 배경이미지를 선택하는 단계;(a) the user terminal accessing the composite image providing system and selecting a background image; (b) 사용자 단말기가 선택된 배경이미지에 대한 전화번호를 수신하는 단계;(b) the user terminal receiving a phone number for the selected background image; (c) 사용자 단말기가 수신된 전화번호를 이용하여 얼굴이미지를 합성이미지 제공시스템에 전송하는 단계;(c) transmitting, by the user terminal, a face image to the composite image providing system using the received telephone number; (d) 합성이미지 제공시스템이 수신된 얼굴이미지로부터 3D 얼굴이미지를 생성하는 단계;(d) generating a 3D face image from the received face image by the composite image providing system; (e) 합성이미지 제공시스템이 배경이미지의 포즈데이터를 이용하여 3D 얼굴의 포즈를 변환하는 단계;(e) converting a pose of the 3D face by using the pose data of the background image by the composite image providing system; (f) 합성이미지 제공시스템이 배경이미지의 크기 및 위치데이터를 이용하여 3D 얼굴의 크기 및 위치를 변환하는 단계;(f) the composite image providing system converting the size and position of the 3D face using the size and position data of the background image; (g) 합성이미지 제공시스템이 배경이미지에 저장된 조명의 위치, 종류, 색상에 대한 데이터를 추출하여 3D 얼굴에 적용함으로써 배경이미지의 조명정보가 적용된 3D 얼굴을 생성하는 단계;(g) generating a 3D face to which the lighting information of the background image is applied by extracting data on the position, type, and color of the light stored in the background image and applying the same to the 3D face; (h) 합성이미지 제공시스템이 3D 얼굴로부터 2D 얼굴이미지를 생성하는 단계;(h) generating a 2D face image from the 3D face by the composite image providing system; (i) 합성이미지 제공시스템이 2D 얼굴이미지와 배경이미지를 합성하는 단계 및;(i) synthesizing the 2D face image and the background image by the composite image providing system; (j) 합성이미지 제공시스템이 사용자 단말기에게 합성이미지를 전송하는 단계를 포함하되, (j) comprising the step of transmitting the composite image to the user terminal by the composite image providing system, 상기 (a) 단계에서 배경이미지는 3D 좌표계를 이용하여 템플릿(Template)으로 만들어져 합성이미지 제공시스템에 저장되어 있는 것을 특징으로 하는 합성이미지 제공방법.In step (a), the background image is a composite image providing method, characterized in that the template is made using a 3D coordinate system and stored in the composite image providing system. 삭제delete 제7항에 있어서, 상기 (d) 단계는, The method of claim 7, wherein step (d), (d1) 수신된 얼굴이미지에서 얼굴 영역을 검출하는 단계;(d1) detecting a face area in the received face image; (d2) 검출된 얼굴 영역 내에서 얼굴의 각 특징점을 추출하는 단계;(d2) extracting each feature point of the face in the detected face area; (d3) 3D 얼굴 모형에서 사용자의 얼굴 특징점이 반영된 사용자 3D 얼굴 모형을 생성하는 단계 및;(d3) generating a user 3D face model in which the facial feature points of the user are reflected from the 3D face model; (d4) 상기 (d1) 단계에서 검출된 사용자 얼굴 영역의 텍스처(Texture)를 사용자 3D 얼굴 모형에 매핑하는 단계를 포함하는 것을 특징으로 하는 합성이미지 제공방법.and (d4) mapping a texture of the user face region detected in the step (d1) to a user 3D face model. 제7항에 있어서, 상기 (e) 단계는, The method of claim 7, wherein the step (e), 배경이미지 템플릿에서 사용자의 얼굴이미지가 합성될 영역으로부터 기본 모델 얼굴의 특징점을 추출하고, x,y,z 축을 기준으로 하여 특징점의 회전값을 추출함으로써 3D 얼굴의 포즈를 변환하는 것을 특징으로 하는 합성이미지 제공방법.The composition of the 3D face is transformed by extracting feature points of the basic model face from the region where the user's face image is to be synthesized in the background image template and extracting rotation values of the feature points based on the x, y, and z axes. How to provide an image. 삭제delete 삭제delete 제7항에 있어서, 조명의 종류는 'Spotlight', 'Directional Light' 또는 'Point Light'인 것을 특징으로 하는 합성이미지 제공방법.The method of claim 7, wherein the type of illumination is 'Spotlight', 'Directional Light' or 'Point Light'.
KR1020080028523A 2008-03-27 2008-03-27 System and method for providing synthetic images KR100935482B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080028523A KR100935482B1 (en) 2008-03-27 2008-03-27 System and method for providing synthetic images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080028523A KR100935482B1 (en) 2008-03-27 2008-03-27 System and method for providing synthetic images

Publications (2)

Publication Number Publication Date
KR20090103128A KR20090103128A (en) 2009-10-01
KR100935482B1 true KR100935482B1 (en) 2010-01-06

Family

ID=41532694

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080028523A KR100935482B1 (en) 2008-03-27 2008-03-27 System and method for providing synthetic images

Country Status (1)

Country Link
KR (1) KR100935482B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206736B1 (en) * 2011-06-22 2012-11-30 중앙대학교 산학협력단 Apparatus and method for detecting rotated face region
US10621422B2 (en) 2016-12-16 2020-04-14 Samsung Electronics Co., Ltd. Method and apparatus for generating facial expression and training method for generating facial expression
US10860841B2 (en) 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
KR102371145B1 (en) 2021-11-10 2022-03-07 주식회사 스누아이랩 Apparatus for Image Synthesis and Driving Method Thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101220098B1 (en) * 2011-05-12 2013-01-11 한국항공대학교산학협력단 Transform system and method to convert 2D images to 3D stereoscopic images for low power devices
KR101373631B1 (en) * 2012-09-17 2014-03-12 (주)지니트 System for composing images by real time and method thereof
KR101406413B1 (en) * 2013-10-02 2014-06-13 강효진 Creating and Sharing Method Of Image Bundle Including Partial Image, Adding Method Of New Partial Image To Image Bundle, Image Displaying Method Of Image Bundle, and Image Bundle Sharing System
KR101424726B1 (en) * 2014-03-26 2014-08-04 (주)아이니티 Method for providing photo printing service
KR101720607B1 (en) * 2016-01-14 2017-03-28 김인환 Image photographing apparuatus and operating method thereof
KR102306824B1 (en) * 2019-01-03 2021-09-30 김은희 Online shopping mall homepage service system
KR102235127B1 (en) 2019-12-18 2021-04-01 세종대학교산학협력단 Adaptive fusion method of multimodal images and apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system
KR20040051381A (en) * 2002-12-12 2004-06-18 성윤모 Sythesis of Hydroxyapatite Nanopowder
KR20050094217A (en) * 2004-03-22 2005-09-27 엘지전자 주식회사 Apparatus and method for porviding animation effect using of auto face dection
KR20050110836A (en) * 2004-05-19 2005-11-24 엘지전자 주식회사 Sticker photographing method for mobile communication device
KR20060002265A (en) * 2004-07-01 2006-01-09 삼성전자주식회사 Electrode for plasma generating apparatus and method of manufacturing the same
KR20070086774A (en) * 2004-12-28 2007-08-27 오끼 덴끼 고오교 가부시끼가이샤 Image composition device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system
KR20040051381A (en) * 2002-12-12 2004-06-18 성윤모 Sythesis of Hydroxyapatite Nanopowder
KR20050094217A (en) * 2004-03-22 2005-09-27 엘지전자 주식회사 Apparatus and method for porviding animation effect using of auto face dection
KR20050110836A (en) * 2004-05-19 2005-11-24 엘지전자 주식회사 Sticker photographing method for mobile communication device
KR20060002265A (en) * 2004-07-01 2006-01-09 삼성전자주식회사 Electrode for plasma generating apparatus and method of manufacturing the same
KR20070086774A (en) * 2004-12-28 2007-08-27 오끼 덴끼 고오교 가부시끼가이샤 Image composition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206736B1 (en) * 2011-06-22 2012-11-30 중앙대학교 산학협력단 Apparatus and method for detecting rotated face region
US10621422B2 (en) 2016-12-16 2020-04-14 Samsung Electronics Co., Ltd. Method and apparatus for generating facial expression and training method for generating facial expression
US10860841B2 (en) 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
US11688105B2 (en) 2016-12-29 2023-06-27 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
KR102371145B1 (en) 2021-11-10 2022-03-07 주식회사 스누아이랩 Apparatus for Image Synthesis and Driving Method Thereof

Also Published As

Publication number Publication date
KR20090103128A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
KR100935482B1 (en) System and method for providing synthetic images
JP6785282B2 (en) Live broadcasting method and equipment by avatar
CN109427083B (en) Method, device, terminal and storage medium for displaying three-dimensional virtual image
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
US10573067B1 (en) Digital 3D model rendering based on actual lighting conditions in a real environment
JP4880350B2 (en) Augmented reality system for identifying real marker objects
TW202117673A (en) An ar scene image processing method electronic equipment and storage medium
JP6674192B2 (en) Image processing apparatus and image processing method
JP2017059235A (en) Apparatus and method for adjusting brightness of image
CN106062862A (en) System and method for immersive and interactive multimedia generation
JP2004145448A (en) Terminal device, server device, and image processing method
KR20100026240A (en) 3d hair style simulation system and method using augmented reality
CN101968892A (en) Method for automatically adjusting three-dimensional face model according to one face picture
JP2017054337A (en) Image processor and method
KR102486094B1 (en) Smart mirror providing virtual fitting augemented image and operating method thereof
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
US11830129B2 (en) Object relighting using neural networks
JPWO2020161816A1 (en) Mixed reality display device and mixed reality display method
JP2024028853A (en) Video processing method, server device and computer program
JP6691631B1 (en) Movie processing method, server device, and computer program
KR102337020B1 (en) Augmented reality video production system and method using 3d scan data
CN111311759B (en) Mobile augmented reality video editing system
JP5894505B2 (en) Image communication system, image generation apparatus, and program
KR100632533B1 (en) Method and device for providing animation effect through automatic face detection
JP2005181688A (en) Makeup presentation

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
E801 Decision on dismissal of amendment
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20090114

Effective date: 20090916

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee