KR101681501B1 - System and method for creating face avatar - Google Patents

System and method for creating face avatar Download PDF

Info

Publication number
KR101681501B1
KR101681501B1 KR1020160081080A KR20160081080A KR101681501B1 KR 101681501 B1 KR101681501 B1 KR 101681501B1 KR 1020160081080 A KR1020160081080 A KR 1020160081080A KR 20160081080 A KR20160081080 A KR 20160081080A KR 101681501 B1 KR101681501 B1 KR 101681501B1
Authority
KR
South Korea
Prior art keywords
image
face
facial
grid
user terminal
Prior art date
Application number
KR1020160081080A
Other languages
Korean (ko)
Inventor
김용수
박종현
Original Assignee
(주) 키글
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 키글 filed Critical (주) 키글
Priority to KR1020160081080A priority Critical patent/KR101681501B1/en
Application granted granted Critical
Publication of KR101681501B1 publication Critical patent/KR101681501B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • G06T3/0012
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an avatar face generating system and a method thereof. The method comprises the following steps of: displaying an image including a face on a user terminal; enabling the user terminal to extract a face portion image from the image; and enabling the user terminal to insert the extracted face portion image into image content.

Description

아바타 얼굴 생성 시스템 및 방법{SYSTEM AND METHOD FOR CREATING FACE AVATAR}TECHNICAL FIELD [0001] The present invention relates to an avatar face generation system,

본 발명은 아바타 얼굴 생성 시스템 및 방법에 관한 것으로, 보다 상세하게는 얼굴 부분 이미지를 추출하고, 추출한 상기 얼굴 부분 이미지에 표정을 형성하는 아바타 얼굴 생성 시스템 및 방법에 관한 것이다.The present invention relates to an avatar face generation system and method, and more particularly, to an avatar face generation system and method for extracting a face portion image and forming a facial expression on the extracted facial portion image.

아바타(avatar)는 온라인 게임이나 채팅, 가상 공간 등에서 사용자의 역할을 대신하는 애니메이션 캐릭터를 뜻하는 말로 1990년대 인터넷 보급과 더불어 활발히 도입되기 시작하였으며 2000년대에 실제 사람의 사실성보다는 3D 그래픽 캐릭터의 관점에서 세컨드라이프(Second Life)나 리니지 등의 서비스에서 활용되고 있다.An avatar is an animated character that replaces the role of a user in online games, chatting, and virtual space. It started to be actively introduced with the Internet in the 1990s. In the 2000s, It is used in services such as Second Life and Lineage.

컴퓨터 그래픽스 기술의 발달로 인해 보다 사실적인 인체 표현이 가능한 아바타 기술이 영화나 CF를 중심으로 활발히 활용되고 있으며, 최근에는 컴퓨터 그래픽 기술과 컴퓨터 비전 기술의 결합으로 인한 시너지 효과 및 센서 기술과 컴퓨팅 하드웨어의 발전으로 인해 실제 사용자의 외형이나 움직임을 사실적으로 표현할 수 있는 실사 인체 아바타에 대한 연구와 산업으로의 응용이 활발히 진행되고 있다. The development of computer graphics technology has enabled avatars to be more realistic in terms of human body expressions. They are actively used mainly in films and CFs. In recent years, synergy effects of computer graphics technology and computer vision technology, sensor technology and computing hardware Actual human body avatars that can express the physical appearance and movement of real users due to development are being actively researched and applied to industries.

한편 사용자는 자신만의 아바타를 만들고 싶어하며, 사용자와 완전히 동떨어진 아바타가 아니라, 사용자의 특성을 반영하는 아바타를 갖고 싶어하는 욕구도 같이 증가하고 있다.On the other hand, users want to create their own avatars, and the desire to have an avatar that reflects the characteristics of the user, rather than an avatar completely separate from the user, is also increasing.

하지만, 사용자의 대표적 특성인 얼굴이 반영된 아바타 제공 기술은 아바타의 표정이 하나의 표정으로 한정되어 있는 문제가 있다.However, there is a problem that the face of the avatar is limited to a single expression.

대한민국 등록특허공보 제10-1629219호(2016.06.03.등록)Korean Registered Patent No. 10-1629219 (Registered on Mar. 23, 2016)

본 발명은 상기한 문제점을 해결하기 위해 발명된 것으로, 그 목적은 다양한 표정의 아바타 얼굴 부분 이미지를 제공 할 수 있는 아바타 얼굴 생성 시스템 및 방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide an avatar face generation system and method capable of providing avatar face portion images of various facial expressions.

또한, 본 발명의 다른 목적은 하나의 얼굴 부분 이미지를 이용하여 다양한 표정의 얼굴 부분 이미지를 형성할 수 있는 아바타 얼굴 생성 시스템 및 방법을 제공하는 것을 다른 목적으로 한다.It is another object of the present invention to provide a system and method for generating an avatar face that can form facial part images of various facial expressions using one facial part image.

본 발명의 일 실시예에 따른 아바타 얼굴 생성 방법은 아바타 얼굴 생성 시스템이, 사용자 단말에 얼굴을 포함하는 이미지가 디스플레이 되는 단계; 사용자 단말이 상기 이미지에서 얼굴 부분 이미지를 추출하는 단계; 및 사용자 단말이 추출된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계를 포함할 수 있다.A method for generating an avatar face according to an exemplary embodiment of the present invention includes: displaying an image including a face on a user terminal; The user terminal extracting a face portion image from the image; And inserting the facial part image extracted by the user terminal into the image content.

또한 상기 사용자 단말이 상기 이미지에서 얼굴 부분 이미지를 추출하는 단계는, 사용자 단말이 얼굴을 포함하는 상기 이미지에 대한 사용자의 터치를 인식하는 단계; 사용자 단말이 사용자의 상기 터치가 폐구간을 형성하는지 결정하는 단계; 및 사용자 단말이 상기 폐구간에서 얼굴 부분 이미지를 추출하는 단계를 포함할 수 있다.In addition, the step of the user terminal extracting the face portion image from the image includes: recognizing the user's touch on the image including the face; Determining if the user terminal forms the closed interval of the user's touch; And extracting a face portion image from the user terminal in the closed interval.

또한 상기 사용자 단말이 추출된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계는, 사용자 단말이 추출된 상기 얼굴 부분 이미지에 격자를 형성하는 단계; 사용자 단말이 상기 얼굴 부분 이미지가 웃음, 슬픔, 화남 및 놀람 중 적어도 하나의 표정을 형성할 수 있도록 상기 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하는 단계; 사용자 단말이 왜곡된 상기 얼굴 부분 이미지를 보정하는 단계; 및 사용자 단말이 보정된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계를 포함할 수 있다.In addition, the step of inserting the facial part image extracted by the user terminal into the image content may include: forming a lattice on the facial part image extracted by the user terminal; Distorting a portion of the grid formed in the face portion image such that the user terminal can form at least one of the facial portion image of laughter, sadness, anger and surprise; Correcting the distorted face portion image of the user terminal; And inserting the facial portion image corrected by the user terminal into the image content.

또한 상기 사용자 단말이 상기 얼굴 부분 이미지가 웃음, 슬픔, 화남 및 놀람 중 적어도 하나의 표정을 형성할 수 있도록 상기 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하는 단계는, 사용자 단말이 서버로부터 기준 표정 이미지 및 기준 표정 정보를 전송 받는 단계; 및 전송 받은 상기 기준 표정 이미지 및 상기 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하는 단계를 포함할 수 있다.The step of distorting a portion of the grid formed in the face portion image such that the user terminal can form at least one of a face image, a laugh, a sadness, an angry face, and a surprise, And receiving reference facial expression information; And distorting a part of the grid formed on the facial image using the reference facial expression image and the reference facial expression information.

또한 상기 전송 받은 상기 기준 표정 이미지 및 상기 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하는 단계는, 사용자 단말이 상기 기준 표정 이미지에 형성된 격자와 상기 얼굴 부분 이미지에 형성된 격자를 비교하는 단계; 및 사용자 단말이 상기 기준 표정 이미지에 형성된 격자와 상이한 상기 얼굴 부분 이미지에 형성된 격자에 해당하는 상기 얼굴 부분 이미지를 상기 기준 표정 정보를 이용하여 왜곡하는 단계를 포함할 수 있다.The step of distorting a part of the lattice formed on the facial part image using the reference facial expression image and the reference facial expression information may further comprise the steps of: Comparing; And distorting the face portion image corresponding to the grid formed on the face portion image different from the grid formed in the reference facial image using the reference facial expression information.

또한 상기 기준 표정 정보를 이용하여 왜곡하는 단계는, 상기 기준 표정 정보의 개수만큼 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡을 수행하되, 수행된 상기 왜곡들에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 왜곡하는 단계에 해당할 수 있다.The step of distorting using the reference facial expression information may include performing distortion for forming a facial expression on the face partial image by the number of the reference facial expression information, obtaining an average value of the performed distortions, It may correspond to a step of distortion using an average value.

또한 상기 기준 표정 정보를 이용하여 왜곡하는 단계는, 기수집된 다수의 동일 표정 정보의 평균 왜곡정도를 산출해 이를 기반으로 왜곡하는 단계에 해당할 수 있다.Also, the step of distorting using the reference facial expression information may correspond to a step of calculating the average degree of distortion of the plurality of identical facial expression information collected and distorting based on the calculated average degree of distortion.

또한 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계 이후에, 사용자 단말의 클릭, 스와이프 입력 또는 화면상의 상기 얼굴 부분 이미지 주변의 위기물건의 사용자 터치 접촉에 따라 기설정된 여러 종류의 표정 중 기설정된 해당 표정을 출력하는 단계를 더 포함할 수 있다.In addition, after the step of inserting the facial part image into the image content, a predetermined corresponding one of the predetermined types of facial expressions is selected according to the click, swipe input of the user terminal, or user touching of the crisis object around the image of the face part on the screen And outputting a facial expression.

또한 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계 이후에, 상기 얼굴 부분 이미지가 삽입된 이미지 콘텐츠는 전자 동화책의 일부에 삽입되어 상기 전자 동화책의 페이지 내용에 따른 기설정된 표정 변화가 이루어져 출력되거나 사용자 터치 접촉에 따라 기설정된 여러 종류의 표정 중 기설정된 해당 표정을 출력하는 단계를 더 포함할 수 있다.In addition, after the step of inserting the facial part image into the image content, the image content in which the facial part image is inserted is inserted into a part of the electronic still image book, and a predetermined facial expression change according to the page content of the electronic story book is output, And outputting the predetermined facial expression among the predetermined types of facial expressions according to the contact.

본 발명의 일 실시예에 따른 아바타 생성 시스템은 얼굴을 포함하는 이미지에서 얼굴 부분 이미지를 추출하고, 추출된 상기 얼굴 부분 이미지에 표정을 형성하는 사용자 단말; 및 상기 사용자 단말이 상기 얼굴 부분 이미지에 표정을 형성할 수 있도록 기준 표정 이미지 및 기준 표정 정보를 전송하는 서버를 포함하고, 상기 사용자 단말은, 상기 얼굴 부분 이미지를 추출하는 얼굴 추출 모듈; 및 상기 얼굴 추출 모듈이 추출한 얼굴 부분 이미지에 표정을 형성하는 표정 형성 모듈을 포함하며, 상기 표정 형성 모듈은, 추출된 상기 얼굴 부분 이미지에 격자를 형성하는 격자 형성 모듈; 상기 격자 형성 모듈이 상기 얼굴 부분 이미지에 형성한 격자 중 일부를 왜곡시켜 표정을 형성하는 이미지 왜곡 모듈; 및 상기 이미지 왜곡 모듈이 왜곡한 상기 얼굴 부분 이미지를 보정하는 보정모듈을 포함할 수 있다.An avatar generation system according to an embodiment of the present invention includes a user terminal for extracting a face portion image from an image including a face and forming a face on the extracted face portion image; And a server for transmitting a reference facial expression image and reference facial expression information so that the user terminal can form a facial expression on the facial partial image, wherein the user terminal comprises: a face extraction module for extracting the facial part image; And a facial expression forming module for forming a facial expression on the facial part image extracted by the facial expression extracting module, wherein the facial expression forming module comprises: a lattice forming module for forming a lattice on the extracted facial part image; An image distortion module for distorting a part of the grating formed on the face portion image by the grating forming module to form a facial expression; And a correction module for correcting the facial part image distorted by the image distortion module.

본 발명에 따른 아바타 얼굴 생성 시스템 및 방법에 의하면, 다양한 표정의 아바타 얼굴 부분 이미지를 제공 할 수 있는 효과가 있다.According to the avatar face generation system and method of the present invention, an avatar face portion image having various facial expressions can be provided.

또한, 하나의 얼굴 부분 이미지를 이용하여 다양한 표정의 얼굴 부분 이미지를 형성할 수 있는 효과가 있다.In addition, there is an effect that a facial part image having various facial expressions can be formed by using one facial part image.

또한, 다양한 표정으로 형성된 얼굴 부분 이미지를 서버에 저장할 수 있는 효과가 있다. In addition, there is an effect that a face part image formed with various facial expressions can be stored in a server.

또한, 상기 서버에 저장된 얼굴 부분 이미지를 다양한 기기에서 공유할 수 있는 효과가 있다.In addition, there is an effect that a face partial image stored in the server can be shared by various devices.

또한, 사용자의 다양한 얼굴 부분 이미지로 아바타의 얼굴을 형성하여 사용자가 이용하는 컨텐츠에 대한 몰입감을 높이는 효과가 있다.In addition, there is an effect that the face of the avatar is formed by various face part images of the user, thereby enhancing the immersion feeling for the content used by the user.

도 1은 본 발명의 일실시예에 따른 아바타 얼굴 생성 시스템을 나타내는 도면이다.
도 2는 사용자 단말의 구성을 나타내는 도면이다.
도 3은 표정 형성 모듈의 구성을 나타내는 도면이다.
도 4는 얼굴 부분 이미지에 격자가 형성된 모습을 나타낸 도면이다.
도 5는 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 웃는 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이다.
도 6은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 슬픈 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이다.
도 7은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 화난 표정을 형성하기 위한 기준 표정 정보를 나타낸 도면이다.
도 8은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 놀란 표정을 형성하기 위한 기준 표정 정보를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 아바타 얼굴 생성 방법을 나타내는 플로우 차트이다.
도 10 내지 도 14는 본 발명의 일실시예에 따라 생성된 얼굴 부분 이미지와 이미지 콘텐츠가 결합된 모습을 나타낸 도면이다.
1 is a diagram illustrating an avatar face generation system according to an embodiment of the present invention.
2 is a diagram showing a configuration of a user terminal.
3 is a diagram showing the configuration of the facial expression forming module.
4 is a view showing a state where a lattice is formed on a facial part image.
FIG. 5 is a view showing a reference facial image for forming a smiling facial expression by distorting a part of a lattice formed on a facial part image.
6 is a view showing a reference facial image for forming a sad facial expression by distorting a part of a lattice formed on a facial part image.
7 is a view showing reference expression information for forming an angular expression by distorting a part of a lattice formed on a facial part image.
8 is a view showing reference expression information for forming a surprised expression by distorting a part of the lattice formed in the facial part image.
FIG. 9 is a flowchart illustrating an avatar face generation method according to an embodiment of the present invention.
FIGS. 10 to 14 are views showing a combination of a face part image and image content generated according to an embodiment of the present invention.

이하의 설명에서 본 발명에 대한 이해를 명확히 하기 위하여, 본 발명의 특징에 대한 공지의 기술에 대한 설명은 생략하기로 한다. 이하의 실시 예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아님은 당연할 것이다. 따라서, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 속할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. The following examples are intended to illustrate the present invention and should not be construed as limiting the scope of the present invention. Accordingly, equivalent inventions performing the same functions as the present invention are also within the scope of the present invention.

이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same reference numerals denote the same components, and unnecessary redundant explanations and descriptions of known technologies will be omitted.

본 발명의 실시 예에서 '통신', '통신망' 및 '네트워크'는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In the embodiment of the present invention, 'communication', 'communication network' and 'network' can be used in the same sense. The three terms refer to wired and wireless local area and wide area data transmission and reception networks capable of transmitting and receiving a file between a user terminal, a terminal of another user, and a download server.

이하, 첨부된 도면을 참조하여 본 발명에 의한 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 아바타 얼굴 생성 시스템을 나타내는 도면이다.1 is a diagram illustrating an avatar face generation system according to an embodiment of the present invention.

도 1을 참조하면, 아바타 얼굴 생성 시스템(10)은 사용자 단말(100) 및 서버(200)를 포함한다.Referring to FIG. 1, an avatar face generation system 10 includes a user terminal 100 and a server 200.

사용자 단말(100) 및 서버(200)는 인터넷을 포함하는 네트워크를 통해 서로 통신을 수행한다.The user terminal 100 and the server 200 communicate with each other via a network including the Internet.

사용자 단말(100)은 스마트폰, 테블릿 및 노트북을 포함하는 모바일 기기에 해당할 수 있으나 본 발명의 범위가 이에 한정되는 것은 아니고 데스크 톱과 같은 비 모바일 기기에 해당할 수 있다. The user terminal 100 may correspond to a mobile device including a smart phone, a tablet, and a notebook, but the scope of the present invention is not limited thereto and may correspond to a non-mobile device such as a desktop.

사용자 단말(100)은 아바타 얼굴 생성 방법을 수행하기 위한 애플리케이션을 서버(200)로부터 다운로드 할 수 있다.The user terminal 100 may download an application for performing the avatar face generation method from the server 200. [

사용자 단말(100)은 서버(200)와 연동하여 동작하여 사용자 단말(100)에서 생성한 얼굴 부분 이미지를 서버(200)로 전송할 수 있다.The user terminal 100 may operate in conjunction with the server 200 and may transmit the facial image generated by the user terminal 100 to the server 200. [

이를 위해 본 발명의 일실시예에 따른 사용자 단말(100)에는 서버(200)와 연동하여 동작하기 위한 소정의 애플리케이션이 기 설정되어야 한다.For this, a predetermined application for operating in conjunction with the server 200 must be previously set in the user terminal 100 according to an embodiment of the present invention.

상기 애플리케이션이란 사용자 단말(100)이 서버(200)와 연동하여 동작하고, 사용자가 사용자 단말(100)을 통해 아바타 얼굴 생성 방법을 수행하기 위하여 사용자 단말(100)에 설치하는 클라이언트 프로그램으로 정의 할 수 있다.The application may be defined as a client program installed in the user terminal 100 in order to perform the avatar face creation method through the user terminal 100 in cooperation with the server 200 have.

서버(200)는 사용자 단말(100)로 아바타 얼굴 생성 방법을 수행하기 위한 애플리케이션을 제공할 수 있고, 사용자 단말(100)이 전송한 얼굴 부분 이미지를 저장할 수 있으며, 저장된 상기 얼굴 부분 이미지를 요청하는 다양한 기기로 전송할 수 있다. The server 200 may provide an application for performing an avatar face generation method to the user terminal 100, may store the facial part image transmitted by the user terminal 100, and may request the facial part image stored It can be transmitted to various devices.

서버(200)에는 사용자 단말(100)에서 추출한 얼굴 부분 이미지를 보정할 때 얼굴 형태의 기준이 되는 타원형, 역삼각형, 마름모, 역오각형 및 사각형의 얼굴 형태 등을 포함하는 특정 모형의 얼굴 형태가 기준 얼굴 형태 정보로 저장된다. When the facial image extracted from the user terminal 100 is corrected, the server 200 determines whether the facial shape of the specific model including the elliptical shape, inverted triangle, rhombus, inverted pentagon, And stored as face type information.

서버(200)는 사용자 단말(100)에서 얼굴 부분 이미지의 원형을 손상시키지 않으며 타원형에 가까운 형태가 되도록 보정하기 위한 변환 데이터를 저장 할 수 있다. The server 200 may store the transformation data for correcting the shape of the facial portion image so as not to damage the original shape of the facial portion image and to be close to the elliptical shape.

서버(200)는 사용자 단말(100)이 얼굴 부분 이미지에 형성된 격자 중 일부분을 왜곡하여 얼굴 부분 이미지에 표정을 형성할 때, 표정을 형성하기 위하여 어느 격자를 어떻게 왜곡시켜야 웃는 표정, 슬픈 표정, 화난 표정 및 놀란 표정이 되는지의 기준이 되는 기준 표정 이미지를 저장한다.When the user terminal 100 distorts a part of the lattice formed on the facial part image to form a facial part image, the server 200 must distort the lattice in order to form a facial expression such as smile expression, sad expression, And stores the reference facial image as a criterion of whether facial expression or surprise facial expression is obtained.

서버(200)는 이미지들에 표현된 표정 정보의 빅 데이터를 획득하고, 획득된 상기 빅 데이터를 이용하여 격자 왜곡 정도의 기준이 되는 기준 표정 정보를 생성한다. The server 200 acquires the big data of the facial expression information expressed in the images and generates the reference facial expression information which is a reference of the degree of lattice distortion using the obtained big data.

서버(200)는 빅 데이터에 포함된 이미지들에 표현된 눈과 입의 모양을 기준으로 기준 표정 정보를 생성할 수 있고, 상기 이미지들에 표현된 개개인들의 눈과 입의 모양은 상이하므로 복수의 기준 표정 정보가 생성될 수 있다. 즉, 서버(200)는 2개 이상 복수의 기준 표정 정보를 생성하여 저장할 수 있다. The server 200 can generate reference expression information based on the shapes of the eyes and mouths expressed in the images included in the big data and the shapes of eyes and mouths of the individuals represented in the images are different, The reference facial expression information can be generated. That is, the server 200 may generate and store a plurality of reference expression information.

서버(200)는 사용자 단말(100)로부터 기 전송된 얼굴 부분 이미지를 저장할 수 있다. 이렇게 저장된 상기 얼굴 부분 이미지는 사용자 단말(100)을 포함한 사용자의 다양한 기기로 전송될 수 있다.The server 200 may store the facial part image transmitted from the user terminal 100. [ The stored facial image may be transmitted to various devices of the user including the user terminal 100.

서버(200)는 사용자 단말(100)로 전송하기 위한 이미지 콘텐츠(image contents) 정보를 저장할 수 있다. 여기에서 이미지 콘텐츠 정보는 사용자 단말(100)에서 디스플레이 되는 메인화면 테마, 아바타 설정 화면, 놀이 화면(예를 들면, 직업 놀이, 자동차 놀이 등), 동화 화면(예를 들면, 인기 동화, 인성 동화 등) 및 포토 존 화면(예를 들면, 타요 애니메이션 포토존 등) 등을 포함할 수 있으나 이에 한정되는 것은 아니고, 사용자 단말(100)에서 디스플레이 될 수 있는 이미지라면 어떠한 것이라도 이미지 콘텐츠 정보가 될 수 있다.The server 200 may store image contents information to be transmitted to the user terminal 100. Here, the image content information includes a main screen theme, an avatar setting screen, a play screen (for example, a vocational play, a car play, etc.), a moving picture screen (for example, a popular fairy tale, ), And a photo zone screen (e.g., a toe animation photo zone, etc.), but the present invention is not limited thereto. Any image that can be displayed on the user terminal 100 can be image content information.

서버(200)는 클라우드 서버가 적당하나 이에 한정되는 것은 아니며, 데이터의 수집, 저장, 관리 및 전송이 가능하면 본 발명의 서버가 될 수 있다.The server 200 may be a server of the present invention if a cloud server is suitable but is not limited thereto and data collection, storage, management, and transmission are possible.

여기서 사용된 '서버'라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.As used herein, the term " server " refers to a logical building block, and is not necessarily a physically distinct component. It is obvious to those skilled in the art to which the present invention belongs.

도 2는 사용자 단말의 구성을 나타내는 도면이다.2 is a diagram showing a configuration of a user terminal.

도 2를 참조하면, 사용자 단말(100)은 제어 모듈(110), 디스플레이 모듈(120), 얼굴 추출 모듈(130), 표정 형성 모듈(140), 통신 모듈(150) 및 데이터베이스(160)를 포함한다.2, the user terminal 100 includes a control module 110, a display module 120, a face extraction module 130, a facial expression forming module 140, a communication module 150, and a database 160 do.

제어 모듈(110)은 사용자 단말(100)의 전반적인 동작을 제어하고, 사용자 단말(100)에 설치된 애플리케이션의 동작을 관리한다.The control module 110 controls the overall operation of the user terminal 100 and manages the operation of the application installed in the user terminal 100.

사용자는 제어 모듈(110)에 포함된 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠 등의 입력 수단을 이용하여 사용자 단말(100)의 전반적인 동작을 제어하고, 사용자 단말(100)에 설치된 애플리케이션의 동작을 관리할 수 있다. The user can operate the overall operation of the user terminal 100 using input means such as a key pad, a dome switch, a touch pad (static pressure / static electricity), and a jog wheel included in the control module 110 And manage the operation of the application installed in the user terminal 100. [

제어 모듈(110)은 사용자의 아바타 얼굴 생성 시스템(10) 가입 및 사용자에게 제공되는 아바타 얼굴 생성 시스템(10)에 대한 전반적인 정보를 관리한다. 사용자는 사용자 단말(100)을 통해 서버(200)에 아바타 얼굴 생성 시스템(10) 가입을 위한 기본적인 개인정보를 제공하고, 아바타 얼굴 생성 시스템(10) 가입 이후에는 아바타 얼굴 생성 시스템(10)에 대한 범위 및 권한을 설정한다. 예를 들면, 제어 모듈(110)은 사용자가 본 발명의 일실시예에 따라 사용자 단말(100)에서 생성한 얼굴 부분 이미지를 서버(200)로 전송할지 여부를 관리할 수 있다.The control module 110 manages the overall information about the avatar face generation system 10 subscription of the user and the avatar face generation system 10 provided to the user. The user provides basic personal information for subscription to the avatar face generation system 10 to the server 200 through the user terminal 100 and provides basic personal information for subscription to the avatar face generation system 10 after subscription to the avatar face generation system 10. [ Set scope and permissions. For example, the control module 110 can manage whether or not the user transmits the facial partial image generated by the user terminal 100 to the server 200 according to an embodiment of the present invention.

이러한 정보들은 사용자별로 로그인 정보로서 관리되며, 제어 모듈(110)은 상기 로그인 정보를 후술하는 데이터베이스(160)에 저장한다. 상기 로그인 정보는 사용자의 개인 정보 및 사용자가 소지한 사용자 단말(100)의 식별정보를 포함한다.Such information is managed as login information for each user, and the control module 110 stores the login information in a database 160 described later. The login information includes personal information of the user and identification information of the user terminal 100 held by the user.

디스플레이 모듈(120)은 후술하는 데이터베이스(160)에 기 저장된 얼굴 부분 이미지, 이미지 콘텐츠 정보 및 후술하는 표정 형성 모듈(140)이 생성한 얼굴 부분 이미지를 디스플레이 한다.The display module 120 displays the facial part image, the image content information, and the face part image generated by the facial expression forming module 140 described below in the database 160, which will be described later.

디스플레이 모듈(120)은 사용자 단말(100)의 터치 여부를 인식하고, 사용자 단말(100)에 설치된 애플리케이션과 연관된 터치(예를 들면, 디스플레이 모듈(120)에 디스플레이 된 아이콘 터치)라고 결정된 경우 사용자 단말(100)에 설치된 애플리케이션을 활성화한다. The display module 120 recognizes whether the user terminal 100 is touched and if it is determined that the touch associated with the application installed in the user terminal 100 (for example, touching the icon displayed on the display module 120) Thereby activating an application installed in the server 100. [

또한, 디스플레이 모듈(120)은 얼굴이 포함된 이미지가 디스플레이 모듈(120)에 디스플레이 된 경우, 디스플레이 된 상기 이미지에 대한 사용자의 터치 여부를 인식한다.Also, the display module 120 recognizes whether or not the user touches the displayed image when an image including a face is displayed on the display module 120.

디스플레이 모듈(120)은 얼굴이 포함된 이미지가 디스플레이 모듈(120)에 디스플레이 된 경우, 사용자의 터치가 디스플레이 모듈(120)에 디스플레이 된 상기 이미지 상에서 일정시간 이상 접촉되어 상하 또는 좌우로 이동하며 일정 면적 이상을 터치하거나, 사용자의 터치가 디스플레이 모듈(120)에 디스플레이 된 상기 이미지 상에서 폐구간을 형성하면 상기 이미지에서 사용자에 의해 터치된 상기 일정 면적 또는 사용자의 터치가 형성한 상기 폐구간을 얼굴 부분으로 결정한다. When the image including the face is displayed on the display module 120, the display module 120 contacts the image displayed on the display module 120 over a predetermined period of time to move up or down or left and right, Or when the user's touch forms a closed section on the image displayed on the display module 120, the predetermined section touched by the user or the closed section formed by the user's touch is referred to as a face section .

얼굴 추출 모듈(130)은 사용자 단말(100)에 설치된 애플리케이션을 이용하여 디스플레이 모듈(120)이 결정한 상기 얼굴 부분에서 얼굴 부분 이미지를 추출한다.The face extraction module 130 extracts a face portion image from the face portion determined by the display module 120 using an application installed in the user terminal 100. [

얼굴 추출 모듈(130)은 추출한 상기 얼굴 부분 이미지가 일반적인 얼굴 형태와 상이한 경우, 일반적인 얼굴 형태로 상기 얼굴 부분 이미지를 보정할 수 있다. 이때, 얼굴 추출 모듈(130)은 후술하는 통신 모듈(150)을 통해 서버(200)로부터 일반적인 얼굴 형태의 기준이 되는 기준 얼굴 형태 정보를 수신하고, 상기 기준 얼굴 형태 정보를 이용하여 상기 얼굴 부분 이미지를 보정할 수 있다. The face extraction module 130 can correct the face portion image in a general face form when the extracted face portion image is different from a common face shape. At this time, the face extraction module 130 receives the reference face type information as a general face type reference from the server 200 through the communication module 150, which is described later, Can be corrected.

얼굴 추출 모듈(130)이 얼굴 부분 이미지를 보정하는 것에 관하여 좀 더 상세히 살펴보면, 얼굴 추출 모듈(130)은 추출된 상기 얼굴 부분 이미지가 기준 얼굴 형태 정보인 타원형, 역삼각형, 마름모, 역오각형 및 사각형을 포함하는 특정 모형의 얼굴 형태에 해당하는지 결정한다. 예컨대, 타원형으로 결정된 경우 별다른 보정을 수행하지 않으나, 역삼각형, 마름모, 역오각형 및 사각형 중 어느 하나라고 결정되면 추출된 얼굴 부분 이미지를 최대한 원형을 손상시키지 않으며 타원형에 가까운 형태가 되도록 서버(200)에 저장된 변환 데이터를 이용하여 상기 얼굴 부분 이미지를 보정한다. The face extraction module 130 determines whether or not the extracted face image is an ellipse, an inverted triangle, a rhombus, an inverted pentagon, and a rectangle, which are reference face type information, And the face type of the specific model including the model. For example, if it is determined to be an elliptical shape, no correction is performed. If it is determined to be one of an inverted triangle, a rhombus, an inverted pentagon, and a rectangle, the server 200 searches the extracted facial region image for an elliptical shape, The facial part image is corrected using the conversion data stored in the facial part image.

표정 형성 모듈(140)은 사용자 단말(100)에 설치된 애플리케이션을 이용하여 얼굴 추출 모듈(130)이 추출한 상기 얼굴 부분 이미지에 표정이 형성되도록 후술하는 통신 모듈(150)이 서버(200)로부터 수신한 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지를 왜곡한다. The facial expression forming module 140 may be configured to receive a facial image from the server 200 using the application installed in the user terminal 100 so that the communication module 150, The face portion image is distorted using the reference facial expression information.

표정 형성 모듈(140)은 얼굴 추출 모듈(130)이 추출한 상기 얼굴 부분 이미지에 표정이 형성되도록 상기 얼굴 부분 이미지를 왜곡하여 표정이 형성된 얼굴 부분 이미지를 생성한다. The facial expression forming module 140 generates a facial part image in which the facial part image is formed by distorting the facial part image so that a facial expression is formed on the facial part image extracted by the facial expression extraction module 130. [

표정 형성 모듈(140)이 표정을 형성하기 위하여 얼굴 부분 이미지를 왜곡하는 정도는 서버(200)에 저장된 기준 표정 정보를 이용하여 결정한다.The extent to which the facial expression forming module 140 distorts the face portion image to form a facial expression is determined using the reference facial expression information stored in the server 200. [

표정 형성 모듈(140)이 얼굴 부분 이미지를 왜곡하여 표정을 형성하는 방법은 한 번에 상기 얼굴 부분 이미지를 왜곡하여 표정을 형성하는 것이 아니라 여러 번 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡을 수행하고, 수행한 상기 왜곡에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 상기 얼굴 부분 이미지를 왜곡한다. 예컨대, 상기 얼굴 부분 이미지에 표정을 형성하기 위한 상기 기준 표정 정보는 2개 이상이 서버(200)에 저장될 수 있고, 상기 기준 표정 정보의 개수만큼 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡이 수행될 수 있다. 따라서 표정 형성 모듈(140)은 상기 얼굴 부분 이미지에 수행된 상기 왜곡들에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 상기 얼굴 부분 이미지를 왜곡할 수 있다. The method in which the facial expression forming module 140 distorts the facial part image to form a facial expression does not distort the facial part image at one time to form a facial expression, but rather performs distortion to form a facial expression in the facial part image several times And obtains an average value of the distortion performed, and uses the obtained average value of the distortion to distort the face portion image. For example, the reference facial expression information for forming a facial expression in the facial part image may be stored in the server 200, and distortion for forming a facial expression in the facial part image by the number of reference facial expression information . Accordingly, the facial expression forming module 140 may obtain an average value of the distortions performed on the face portion image, and may distort the face portion image using the obtained mean value of the distortion.

통신 모듈(150)은 사용자 단말(100)과 서버(200) 사이에 통신을 가능하게 한다.The communication module 150 enables communication between the user terminal 100 and the server 200.

통신 모듈(150)은 표정 형성 모듈(140)이 생성한 얼굴 부분 이미지를 서버(200)로 전송한다. The communication module 150 transmits the facial part image generated by the facial expression forming module 140 to the server 200.

통신 모듈(150)은 서버(200)가 전송한 서버(200)에 기 저장된 얼굴 부분 이미지를 수신한다.The communication module 150 receives the image of the face portion previously stored in the server 200 transmitted by the server 200.

통신 모듈(150)은 서버(200)가 전송한 이미지 콘텐츠 정보를 수신한다.The communication module 150 receives the image content information transmitted by the server 200.

통신 모듈(150)은 서버(200)가 전송한 기준 얼굴 형태 정보를 수신한다.The communication module 150 receives the reference face type information transmitted by the server 200.

통신 모듈(150)은 서버(200)가 전송한 기준 표정 이미지 및 기준 표정 정보를 수신한다.The communication module 150 receives the reference facial expression image and reference facial expression information transmitted from the server 200. [

데이터베이스(160)는 제어 모듈(110)이 관리하는 사용자별 로그인 정보를 저장한다.The database 160 stores login information for each user managed by the control module 110.

데이터베이스(160)는 얼굴 추출 모듈(130)이 추출한 얼굴 부분 이미지, 표정 형성 모듈(140)이 생성한 얼굴 부분 이미지 및 서버(200)에서 전송된 얼굴 부분 이미지, 서버(200)에서 전송된 이미지 콘텐츠(image contents) 정보, 서버(200)에서 전송된 기준 표정 이미지 및 기준 표정 정보 및 서버(200)에서 전송된 기준 얼굴 형태 정보를 저장한다. The database 160 includes a face part image extracted by the face extraction module 130, an image of a face part generated by the facial expression forming module 140, an image of a face part transmitted from the server 200, the reference facial expression image and the reference facial expression information transmitted from the server 200, and the reference facial type information transmitted from the server 200. [

도 3은 표정 형성 모듈의 구성을 나타내는 도면이고, 도 4는 얼굴 부분 이미지에 격자가 형성된 모습을 나타낸 도면이고, 도 5는 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 웃는 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이고, 도 6은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 슬픈 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이고, 도 7은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 화난 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이고, 도 8은 얼굴 부분 이미지에 형성된 격자 중 일부를 왜곡하여 놀란 표정을 형성하기 위한 기준 표정 이미지를 나타낸 도면이다.FIG. 3 is a view showing a configuration of a facial expression forming module, FIG. 4 is a view showing a state where a grid is formed on an image of a face part, FIG. 5 is a diagram showing a reference for forming a smiling face by distorting a part of a grid formed on a face part image 6 is a view showing a reference facial image for forming a sad facial expression by distorting a part of a lattice formed on a facial part image, and Fig. 7 is a view showing a reference facial image for distorting a part of the lattice formed in the facial part image, FIG. 8 is a view showing a reference facial image for forming a surprising facial expression by distorting a part of a lattice formed in a facial part image.

도 3을 참조하면, 표정 형성 모듈(140)은 격자 형성 모듈(142), 이미지 왜곡 모듈(144) 및 보정 모듈(146)을 포함한다.Referring to FIG. 3, the facial expression module 140 includes a lattice-forming module 142, an image distortion module 144, and a correction module 146.

도3 및 도 4를 참조하면, 격자 형성 모듈(142)은 얼굴 추출 모듈(130)이 추출하여 보정한 얼굴 부분 이미지에 격자를 형성한다. 3 and 4, the lattice-forming module 142 forms a lattice in the facial part image extracted and corrected by the face extracting module 130. [

격자 형성 모듈(142)이 형성하는 격자의 모양은 사각형이 적당하나 이에 한정되는 것은 아니고, 얼굴 부분 이미지에 일정한 규칙을 가지는 격자를 형성할 수 있다면 그물형, 원형, 삼각형 및 마름모 등의 격자를 형성하는 것도 가능하다.The grating formed by the grating forming module 142 may have a square shape, but is not limited thereto. If a grating having a certain rule can be formed on the facial portion image, a grating such as a net shape, a circle shape, a triangle shape and a rhombus may be formed It is also possible to do.

격자 형성 모듈(142)이 형성하는 격자의 개수 30개가 적당하나 이에 한정되는 것은 아니고, 후술하는 이미지 왜곡 모듈(144)이 상기 얼굴 부분 이미지를 왜곡 시켜 상기 얼굴 부분 이미지에 표정이 형성될 수 있는 격자의 수라면 격자의 수가 좀 더 많거나 좀 더 적어도 무방하다.The number of gratings formed by the grating forming module 142 is preferably 30, but the present invention is not limited thereto. The image distortion module 144, which will be described later, may distort the facial part image and form a lattice The number of gratings is more or less at least.

격자 형성 모듈(142)이 형성하는 격자는 수직과 수평의 선으로 격자를 형성하는 것이 적당하나, 얼굴 부분 이미지에 일정한 규칙을 가지는 격자를 형성할 수 있다면 좌, 우 사선으로 격자를 형성할 수도 있다. The grating formed by the grating forming module 142 may form a grating with vertical and horizontal lines. However, if the grating having a certain rule can be formed in the facial portion image, a grating may be formed with left and right slant lines .

도 4 및 도 5 내지 도 8을 참조하면, 이미지 왜곡 모듈(144)은 서버(200)로부터 수신한 기준 표정 이미지 및 기준 표정 정보를 이용하여 격자 형성 모듈(142)에 의해 상기 얼굴 부분 이미지에 형성된 격자 중 일부 격자에 해당하는 상기 얼굴 부분 이미지를 왜곡한다.4 and 5 to 8, the image distortion module 144 may generate the image of the facial part formed by the grid forming module 142 using the reference facial image and the reference facial expression information received from the server 200 The image of the face portion corresponding to some of the gratings is distorted.

도 4 내지 도 8의 격자 내부에 표현된 S11, S12 등의 문자는 격자의 위치를 나타내고, 격자의 위치를 나타내는 문자가 동일한 경우 도 4 내지 도 8에서 동일한 위치의 격자를 나타낸다.The characters S11, S12, etc. expressed in the lattice of Figs. 4 to 8 indicate the position of the lattice, and when the characters indicating the position of the lattice are the same, they denote the lattice at the same position in Figs.

이미지 왜곡 모듈(144)이 상기 얼굴 부분 이미지를 왜곡하여 웃는 표정을 형성하는 것을 살펴보기 위하여 도 4 및 도 5를 참조하면, 도 5의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 기준 표정 이미지가 도 4의 격자 내부의 상기 얼굴 부분 이미지와 차이가 나는 것을 알 수 있다. Referring to FIGS. 4 and 5, in order to see that the image distortion module 144 distorts the facial part image to form a smiling face, The reference facial image of FIG. 4A differs from the facial portion image of the inside of the grid of FIG.

도 5는 웃는 표정을 나타내기 위한 기준 표정 이미지이므로 도 5의 격자 내부의 기준 표정 이미지와 상이한 도 4의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 상기 얼굴 부분 이미지를 도 5에 표현된 기준 표정 이미지처럼 왜곡하면 웃는 표정의 얼굴 부분 이미지 형성이 가능하다. 즉, 도 4의 S31, S32, S34 및 S35에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 아랫부분이 위를 향하도록 격자를 왜곡하고, 도 4의 S52, S53 및 S54에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분이 아래를 향하도록 상기 격자들을 왜곡하면 웃는 표정의 얼굴 부분 이미지 형성이 가능하다. 5 is a reference facial image for displaying a smiling facial expression. Therefore, the face facial image inside the lattice of FIG. 4 is different from the reference facial image of FIG. 5 in the S31, S32, S34, S35, S52, S53, If the image is distorted as shown in the reference facial image shown in Fig. That is, the lattice formed on the facial part image corresponding to S31, S32, S34 and S35 of Fig. 4 is distorted such that the lower part of the lattice is directed upward, The grating formed on the partial image can form a facial portion image of a smiling face if the gratings are distorted such that the top of the grating is directed downward.

이미지 왜곡 모듈(144)이 상기 얼굴 부분 이미지를 왜곡하여 슬픈 표정을 형성하는 것을 살펴보기 위하여 도 4 및 도 6을 참조하면, 도 6의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 기준 표정 이미지가 도 4의 격자 내부의 상기 얼굴 부분 이미지와 차이가 나는 것을 알 수 있다. S32, S34, S35, S52, S53, and S54 of FIG. 6 to see that the image distortion module 144 distorts the facial portion image to form a sad expression. Referring to FIGS. 4 and 6, The reference facial image of FIG. 4A differs from the facial portion image of the inside of the grid of FIG.

도 6은 슬픈 표정을 나타내기 위한 기준 표정 이미지이므로 도 6의 격자 내부의 기준 표정 이미지와 상이한 도 4의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 상기 얼굴 부분 이미지를 도 6에 표현된 기준 표정 이미지처럼 왜곡하면 슬픈 표정의 얼굴 부분 이미지 형성이 가능하다. 즉, 도 4의 S31, S32, S34 및 S35에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분과 아랫부분이 가운데 부분을 향하도록 격자를 왜곡한 후, S31 및 S32 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 반시계 방향으로 왜곡하고, S34 및 S35 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 시계 방향으로 왜곡한다. 6, S31, S32, S34, S35, S52, S53 and S54 of FIG. 4 which are different from the reference facial image in the grid of FIG. 6 because they are reference facial images for displaying sad facial expressions, If the image is distorted as shown in the reference facial image, it is possible to form a face image of a sad facial expression. That is, the grid formed on the face portion image corresponding to S31, S32, S34, and S35 of FIG. 4 is obtained by distorting the grid such that the upper portion and the lower portion of the grid face the center portion, The lattice formed on the face portion image corresponding to S34 and S35 is distorted in the clockwise direction.

또한, 도 4의 S52, S53 및 S54에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 아랫부분이 위를 향하도록 상기 격자들을 왜곡하면 슬픈 표정의 얼굴 부분 이미지 형성이 가능하다. In addition, the lattice formed on the facial part image corresponding to S52, S53, and S54 of Fig. 4 can form a sad facial facial part image if the lattices are distorted such that the lower part of the lattice is directed upward.

이미지 왜곡 모듈(144)이 상기 얼굴 부분 이미지를 왜곡하여 화난 표정을 형성하는 것을 살펴보기 위하여 도 4 및 도 7을 참조하면, 도 7의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 기준 표정 이미지가 도 4의 격자 내부의 상기 얼굴 부분 이미지와 차이가 나는 것을 알 수 있다. S32, S34, S35, S52, S53, and S54 of FIG. 7 to see that the image distortion module 144 distorts the facial portion image to form an angry look. Referring to FIGS. 4 and 7, The reference facial image of FIG. 4A differs from the facial portion image of the inside of the grid of FIG.

도 7은 화난 표정을 나타내기 위한 기준 표정 이미지이므로 도 7의 격자 내부의 기준 표정 이미지와 상이한 도 4의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 상기 얼굴 부분 이미지를 도 7에 표현된 기준 표정 이미지처럼 왜곡하면 화난 표정의 얼굴 부분 이미지 형성이 가능하다. 즉, 도 4의 S31, S32, S34 및 S35에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분과 아랫부분이 가운데 부분을 향하도록 격자를 왜곡한 후, S31 및 S32 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 시계 방향으로 왜곡하고, S34 및 S35 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 반시계 방향으로 왜곡한다. 7 is S31, S32, S34, S35, S52, S53 and S54 of FIG. 4, which are different from the reference facial image in the grid of FIG. 7 because it is a reference facial expression image for displaying an angry facial expression. If the image is distorted as shown in the reference facial image, it is possible to form the facial part image of the angry facial expression. That is, the grid formed on the face portion image corresponding to S31, S32, S34, and S35 of FIG. 4 is obtained by distorting the grid such that the upper portion and the lower portion of the grid face the center portion, And the lattice formed on the facial part image corresponding to S34 and S35 is distorted in the counterclockwise direction.

또한, 도 4의 S52, S53 및 S54에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분과 아랫부분이 가운데 부분을 향하도록 상기 격자들을 왜곡하면 화난 표정의 얼굴 부분 이미지 형성이 가능하다. In addition, if the grids formed in the face portion image corresponding to S52, S53, and S54 in FIG. 4 are distorted such that the upper and lower portions of the grating face the middle portions, an image of a face portion of an angry face can be formed.

이미지 왜곡 모듈(144)이 상기 얼굴 부분 이미지를 왜곡하여 놀란 표정을 형성하는 것을 살펴보기 위하여 도 4 및 도 8을 참조하면, 도 8의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 기준 표정 이미지가 도 4의 격자 내부의 상기 얼굴 부분 이미지와 차이가 나는 것을 알 수 있다. Referring to FIGS. 4 and 8, in order to see that the image distortion module 144 distorts the facial part image to form a surprised facial image, The reference facial image of FIG. 4A differs from the facial portion image of the inside of the grid of FIG.

도 8은 놀란 표정을 나타내기 위한 기준 표정 이미지이므로 도 8의 격자 내부의 기준 표정 이미지와 상이한 도 4의 S31, S32, S34, S35, S52, S53 및 S54 격자 내부의 상기 얼굴 부분 이미지를 도 8에 표현된 기준 표정 이미지처럼 왜곡하면 놀란 표정의 얼굴 부분 이미지 형성이 가능하다. 즉, 도 4의 S31, S32, S34 및 S35에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분과 아랫부분을 팽창시켜 좀 더 원형에 가깝도록 격자를 왜곡한다. 8 is a reference facial image for showing a surprised facial expression, the facial part image in the lattice of S31, S32, S34, S35, S52, S53 and S54 in Fig. 4, which is different from the reference facial image in Fig. 8, If the image is distorted as shown in the reference facial image shown in Fig. That is, the grids formed in the facial portion images corresponding to S31, S32, S34, and S35 of FIG. 4 expand the upper and lower portions of the grating to distort the grating so as to be closer to a circle.

또한, 도 4의 S52, S53 및 S54에 해당하는 상기 얼굴 부분 이미지에 형성된 격자는 격자의 윗부분과 아랫부분을 팽창시켜 좀 더 원형에 가깝도록 격자를 왜곡하면 놀란 표정의 얼굴 부분 이미지 형성이 가능하다. In addition, the lattice formed on the facial part image corresponding to S52, S53 and S54 of Fig. 4 can form a surprising facial image by distorting the lattice such that the upper part and the lower part of the lattice are expanded to be closer to the circular shape .

이미지 왜곡 모듈(144)이 표정을 형성하기 위하여 얼굴 부분 이미지를 왜곡하는 정도는 서버(200)에 저장된 기준 표정 정보를 이용하여 결정한다.The extent to which the image distortion module 144 distorts the face portion image to form a facial expression is determined using the reference facial expression information stored in the server 200. [

이미지 왜곡 모듈(144)이 얼굴 부분 이미지를 왜곡하여 표정을 형성하는 방법은 한 번에 상기 얼굴 부분 이미지를 왜곡하여 표정을 형성하는 것이 아니라 여러 번 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡을 수행하고, 수행한 상기 왜곡에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 상기 얼굴 부분 이미지를 왜곡한다. 예컨대, 상기 얼굴 부분 이미지에 표정을 형성하기 위한 상기 기준 표정 정보는 2개 이상이 서버(200)에 저장될 수 있고, 상기 기준 표정 정보의 개수만큼 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡이 수행될 수 있다. 따라서 이미지 왜곡 모듈(144)은 상기 얼굴 부분 이미지에 수행된 상기 왜곡들에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 상기 얼굴 부분 이미지를 왜곡할 수 있다. The image distortion module 144 distorts the facial part image to form a facial expression. The facial part image is distorted at one time to form a facial image, but the facial part image is distorted to form a facial image on the facial part image many times And obtains an average value of the distortion performed, and uses the obtained average value of the distortion to distort the face portion image. For example, the reference facial expression information for forming a facial expression in the facial part image may be stored in the server 200, and distortion for forming a facial expression in the facial part image by the number of reference facial expression information . Accordingly, the image distortion module 144 may obtain an average value of the distortions performed on the face portion image, and may distort the face portion image using the obtained mean value of the distortion.

구체적으로, 도 4 및 도 5를 참고하여 설명하면, 이미지 왜곡 모듈(144)은 눈과 입이 표정 변화를 위해 왜곡이 이루어질 수 있으며, 이를 위해 눈과 입이 위치한 격자를 찾아 설정한다. 도 4의 경우 눈의 경우, s31,32와 s34와 35에 해당하며, 입의 경우 s52,53,54에 해당한다. 해당 부분의 왜곡을 하기로 설정하며, 왜곡의 정도를 위하여, 여러번(ex. 100회 이상) 해당 부분의 왜곡이 이루어진 다음 왜곡의 평균값이 취해져서 최종 왜곡이 이루어질 수 있다. Specifically, referring to FIGS. 4 and 5, the image distortion module 144 may be distorted for eye and mouth facial expressions, and for this purpose, the eye and mouth are located and set. In the case of Fig. 4, s31, 32, s34 and 35 correspond to the eyes, and s52, 53 and 54 correspond to the eyes. The distortion of the relevant part is set to be, and for the degree of distortion, the corresponding part is distorted several times (eg, 100 times or more), and then an average value of the distortion is taken, and the final distortion can be achieved.

여기서, 상기 왜곡은 대체적으로 기존에 기수집한 여러개의 해당 표정(예컨대, 슬픔)의 왜곡 정도의 평균값을 취해 이루어질 수도 있다.Here, the distortion may be generally obtained by taking an average value of degrees of distortion of a plurality of corresponding facial expressions (for example, sadness) collected in the past.

보정 모듈(146)은 이미지 왜곡 모듈(144)이 왜곡한 얼굴 부분 이미지를 보정한다.The correction module 146 corrects the distorted facial portion image by the image distortion module 144. [

보정 모듈(146)은 이미지 왜곡 모듈(144)에 의해 왜곡된 격자의 주변 격자도 자연스럽게 보이도록 왜곡한다.Correction module 146 is distorted by the image distortion module 144 such that the surrounding lattice of the distorted grating also appears natural.

보정 모듈(146)은 상기 얼굴 부분 이미지에 빈 여백이 생겼을 경우, 얼굴색과 동일한 색으로 빈 여백을 채우는 보정을 수행한다.The correction module 146 performs correction to fill the blank margin with the same color as the face color when a blank margin occurs in the face portion image.

보정 모듈(146)은 상기 얼굴 부분 이미지가 입을 벌린 이미지인 경우, 표준적인 입 내부의 이미지로 입 내부를 채우는 보정을 수행할 수 있다.Correction module 146 may perform a correction to fill the mouth interior with an image within the standard mouth if the facial part image is an open mouth image.

보정 모듈(146)은 상기 얼굴 부분 이미지의 외곽 라인에 돌출 부분이 있는 경우, 돌출 부분을 상기 얼굴 이미지의 외곽 라인에 맞추는 보정을 수행할 수 있다. The correction module 146 may perform a correction to align the protruded portion with the outline line of the face image when the protruded portion exists in the outline line of the face portion image.

여기서 사용된 '모듈'이라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.As used herein, the term " module " refers to a logical building block, and is not necessarily a physically distinct component, as is apparent to those skilled in the art.

도 9는 본 발명의 일실시예에 따른 아바타 얼굴 생성 방법을 나타내는 플로우 차트이고, 도 10 내지 도 14는 본 발명의 일실시예에 따라 생성된 얼굴 부분 이미지와 이미지 콘텐츠가 결합된 모습을 나타낸 도면이다.FIG. 9 is a flowchart illustrating a method of generating an avatar face according to an embodiment of the present invention. FIGS. 10 to 14 illustrate a combined face portion image and image content generated according to an embodiment of the present invention to be.

도 9를 참조하면, 사용자 단말에 얼굴이 표시된 이미지를 디스플레이 한다(S900).Referring to FIG. 9, an image displaying a face on the user terminal is displayed (S900).

여기서 얼굴이 표시된 이미지는 증명사진과 같이 얼굴이 강조된 이미지일 수도 있으나 이에 한정되는 것은 아니고, 얼굴이 표시되고 얼굴을 인식하는 것이 가능한 이미지라면 어떠한 것이라도 무방하다.Here, an image in which a face is displayed may be an image in which a face is emphasized as in an ID photo, but the present invention is not limited thereto, and any image can be used as long as it is an image in which a face is displayed and a face can be recognized.

사용자 단말이 사용자의 터치 여부를 인식한다(S910).The user terminal recognizes whether the user touches the terminal (S910).

여기서 사용자 단말(100)의 디스플레이 모듈(120)은 얼굴이 포함된 이미지가 디스플레이 모듈(120)에 디스플레이 된 경우, 디스플레이 된 상기 이미지에 대한 사용자의 터치 여부를 인식한다.Here, if the image including the face is displayed on the display module 120, the display module 120 of the user terminal 100 recognizes whether the displayed image is touched by the user.

사용자의 터치가 폐구간을 형성하면, 상기 폐구간을 얼굴 부분으로 결정한다(S920).If the user's touch forms a closed section, the closed section is determined as a face section (S920).

이때, 사용자 단말(100)의 디스플레이 모듈(120)은 얼굴이 포함된 이미지가 디스플레이 모듈(120)에 디스플레이 된 경우, 사용자의 터치가 디스플레이 모듈(120)에 디스플레이 된 상기 이미지 상에서 일정시간 이상 접촉되어 상하 또는 좌우로 이동하며 일정 면적 이상을 터치하거나, 사용자의 터치가 디스플레이 모듈(120)에 디스플레이 된 상기 이미지 상에서 폐구간을 형성하면 상기 이미지에서 사용자에 의해 터치된 상기 일정 면적 또는 사용자의 터치가 형성한 상기 폐구간을 얼굴 부분으로 결정한다. In this case, when the image including the face is displayed on the display module 120, the display module 120 of the user terminal 100 contacts the image displayed on the display module 120 for a predetermined time or longer When the user touches a predetermined area or more, or when the user's touch forms a closed section on the image displayed on the display module 120, the predetermined area or the touch of the user touched by the user in the image is formed And determines the closed section as the facial part.

사용자 단말(100)에서 얼굴 부분이라고 결정되면, 상기 폐구간에서 얼굴 부분 이미지를 추출한다(S930).If it is determined in the user terminal 100 that the facial portion is present, the facial portion image is extracted from the closed section (S930).

이때, 사용자 단말(100)의 얼굴 추출 모듈(130)은 사용자 단말(100)에 설치된 애플리케이션을 이용하여 디스플레이 모듈(120)이 결정한 상기 얼굴 부분에서 얼굴 부분 이미지를 추출한다.At this time, the face extraction module 130 of the user terminal 100 extracts the face part image from the face part determined by the display module 120 using the application installed in the user terminal 100.

사용자 단말(100)의 얼굴 추출 모듈(130)은 추출한 상기 얼굴 부분 이미지가 일반적인 얼굴 형태와 상이한 경우, 일반적인 얼굴 형태로 상기 얼굴 부분 이미지를 보정할 수 있다. 이때, 얼굴 추출 모듈(130)은 통신 모듈(150)을 통해 서버(200)로부터 일반적인 얼굴 형태의 기준이 되는 기준 얼굴 형태 정보를 수신하고, 상기 기준 얼굴 형태 정보를 이용하여 상기 얼굴 부분 이미지를 보정할 수 있다. The face extraction module 130 of the user terminal 100 can correct the face portion image in a general face form when the extracted face portion image is different from a common face shape. At this time, the face extraction module 130 receives reference face type information as a general face type reference from the server 200 through the communication module 150, and corrects the face part image using the reference face type information can do.

추출된 상기 얼굴 부분 이미지에 격자를 형성한다(S940).A grid is formed on the extracted facial part image (S940).

이때, 사용자 단말(100)의 격자 형성 모듈(142)은 얼굴 추출 모듈(130)이 추출하여 보정한 얼굴 부분 이미지에 격자를 형성한다. At this time, the grid formation module 142 of the user terminal 100 forms a grid on the facial part image extracted and corrected by the face extraction module 130.

추출된 얼굴 부분 이미지가 표정을 형성하도록 격자 중 일부를 왜곡한다(S950).Some of the lattices are distorted so that the extracted face portion image forms a facial expression (S950).

이때, 사용자 단말(100)의 이미지 왜곡 모듈(144)은 서버(200)로부터 수신한 기준 표정 이미지 및 기준 표정 정보를 이용하여 격자 형성 모듈(142)에 의해 형성된 격자 중 일부 격자에 해당하는 얼굴 부분 이미지를 왜곡한다.At this time, the image distortion module 144 of the user terminal 100 uses the reference facial expression image and the reference facial expression information received from the server 200 to generate facial features corresponding to a part of the lattice formed by the lattice- Distort the image.

왜곡된 얼굴 부분 이미지를 보정한다(S960).The distorted face portion image is corrected (S960).

사용자 단말(100)의 보정 모듈(146)은 이미지 왜곡 모듈(144)이 왜곡한 얼굴 부분 이미지를 보정한다.The correction module 146 of the user terminal 100 corrects the distorted facial portion image by the image distortion module 144. [

사용자 단말에 이미지 콘텐츠를 디스플레이하고, 보정된 얼굴 부분 이미지를 디스플레이 된 이미지 콘텐츠의 케릭터 얼굴 부분에 삽입한다(S970).The image content is displayed on the user terminal, and the corrected face portion image is inserted into the character face portion of the displayed image content (S970).

도 10 내지 도 14를 참조하면, 도 10은 테마를 가진 메인화면에 본 발명의 일 실시예에 따라 생성된 얼굴 부분 이미지가 결합된 모습을 나타내며, 도 11은 본 발명의 일 실시예에 따라 생성된 얼굴 부분 이미지를 이용하여 아바타를 설정하기 위한 화면을 나타낸다.10 to 14, FIG. 10 shows a combined image of a face part generated according to an exemplary embodiment of the present invention on a main screen having a theme, and FIG. 11 shows an example of a face image generated according to an embodiment of the present invention And displays the screen for setting the avatar using the facial part image.

도 10을 참고하면, 보정 생성된 얼굴 부분 이미지는 사용자의 클릭, 스와이프 입력 또는 상기 보정 생성된 얼굴 부분 이미지 주변의 위기 물건, 예컨대 버스 등의 접촉에 따라 기설정된 여러 종류의 표정 중 기설정된 표정이 출력될 수 있다.Referring to FIG. 10, the corrected face portion image may be a face image of a user's click, swipe input, or a preset facial expression among various types of facial expressions preset according to the contact of a crisis object, such as a bus, Can be output.

도 12는 작업 놀이, 자동차 놀이 등의 놀이화면에 본 발명의 일 실시예에 따라 생성된 얼굴 부분 이미지가 결합된 모습을 나타낸 것이고, 도 13은 인기동화 및 인성동화의 동화하면에 본 발명의 일 실시예에 따라 생성된 얼굴 부분 이미지가 결합된 모습을 나타내며, 도 14는 꼬마버스 타요의 애니메이션 포토존 이미지 콘텐츠 및 상기 애니메이션 포토존 이미지 콘텐츠에 본 발명의 일 실시예에 따라 생성된 얼굴 부분 이미지가 결합된 모습을 나타낸 것이다. FIG. 12 is a view showing a combined image of a face part generated according to an embodiment of the present invention on a play screen such as a work play, a car play, and the like. FIG. FIG. 14 is a view showing an example of a combined image of a face image generated according to an embodiment of the present invention, and FIG. 14 is a view showing a combined image of a face image generated according to an embodiment of the present invention, .

추가적으로, 보정 생성된 얼굴 부분 이미지는 전자 동화책의 일부에 삽입되어 전자 동화책의 내용에 따른 기설정된 표정 변화가 이루어져 출력될 수 있으며, 이때에도 사용자의 클릭, 스와이프 입력 등에 따른 변화 출력이 이루어질 수 있다.In addition, the corrected face portion image may be inserted into a portion of the electronic still book to output a predetermined facial expression change according to the contents of the electronic still book, and at this time, a change output may be performed according to the user's click, swipe, .

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to at least one.

또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art.

이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As a storage medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements.

기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100....사용자 단말
110....제어 모듈
120....디스플레이 모듈
130....얼굴 추출 모듈
140....표정 형성 모듈
150....통신 모듈
160....데이터베이스
200....서버
100 .... user terminal
110 .... control module
120 .... display module
130 .... Facial Extraction Module
140 .... facial expression forming module
150 .... Communication module
160 .... database
200 .... server

Claims (10)

사용자 단말이 얼굴을 포함하는 이미지를 디스플레이하는 단계;
사용자 단말이 상기 이미지에서 얼굴 부분 이미지를 추출하는 단계; 및
사용자 단말이 추출된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계를 포함하며,
상기 사용자 단말이 추출된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계는,
사용자 단말이 추출된 상기 얼굴 부분 이미지에 격자를 형성하는 단계;
사용자 단말이 상기 얼굴 부분 이미지가 웃음, 슬픔, 화남 및 놀람 중 하나의 표정을 형성할 수 있도록 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하는 단계;
사용자 단말이 왜곡된 상기 얼굴 부분 이미지를 보정하는 단계; 및
사용자 단말이 보정된 상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계를 포함하며,
상기 사용자 단말이 상기 얼굴 부분 이미지가 웃음, 슬픔, 화남 및 놀람 중 하나의 표정을 형성할 수 있도록 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하는 단계는,
사용자 단말이 서버로부터 웃음, 슬픔, 화남 및 놀람 중 하나의 표정에 관한 기준 표정 이미지 및 기준 표정 정보를 전송받는 단계; 및
전송받은 상기 기준 표정 이미지 및 상기 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하는 단계를 포함하며,
상기 전송받은 상기 기준 표정 이미지 및 상기 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하는 단계는,
사용자 단말이 상기 기준 표정 이미지에 형성된 격자 내 이미지와 상기 얼굴 부분 이미지에 형성된 격자 내 이미지를 비교하는 단계; 및
사용자 단말이 상기 기준 표정 이미지에 형성된 격자 내 이미지와 상이한 상기 얼굴 부분 이미지에 형성된 격자 내 이미지를 상기 기준 표정 정보를 이용하여 왜곡하는 단계를 포함하며,
사용자 단말이 상기 기준 표정 이미지에 형성된 격자 내 이미지와 상이한 상기 얼굴 부분 이미지에 형성된 격자 내 이미지를 상기 기준 표정 정보를 이용하여 왜곡하는 단계는:
상기 얼굴 부분 이미지가 웃는 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 아랫부분이 얼굴의 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분이 얼굴의 아랫 방향을 향하도록 이미지를 왜곡하는 단계;
상기 얼굴 부분 이미지가 슬픈 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 오른쪽 눈에 해당하는 격자 내 이미지가 반시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 왼쪽 눈에 해당하는 격자 내 이미지가 시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 아랫부분이 얼굴의 윗 방향을 향하도록 이미지를 왜곡하는 단계;
상기 얼굴 부분 이미지가 화난 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 오른쪽 눈에 해당하는 격자 내 이미지가 시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 왼쪽 눈에 해당하는 격자 내 이미지가 반시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하는 단계; 및
상기 얼굴 부분 이미지가 놀란 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 윗 방향 및 아랫 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 윗 방향 및 아랫 방향을 향하도록 이미지를 왜곡하는 단계를 포함하는 아바타 얼굴 생성 방법.
Displaying an image including a face of a user terminal;
The user terminal extracting a face portion image from the image; And
Inserting the face portion image from which the user terminal is extracted into the image content,
Wherein the step of inserting the facial part image extracted by the user terminal into the image content comprises:
Forming a grid on the face portion image from which the user terminal is extracted;
Distorting an image corresponding to a portion of a grid formed in the face portion image such that the user terminal can form a face image of one of laughter, sadness, anger and surprise;
Correcting the distorted face portion image of the user terminal; And
Inserting the facial part image corrected by the user terminal into the image content,
The step of distorting the image corresponding to a portion of the grid formed on the face portion image such that the user terminal can form a facial image of one of laughing, sadness, anger and surprise,
Receiving a reference facial expression image and reference facial expression information related to facial expressions of laughter, sadness, anger, and surprise from a server; And
And distorting an image corresponding to a part of the grid formed on the facial part image using the reference facial expression image and the reference facial expression information,
Wherein the step of distorting an image corresponding to a part of the grid formed on the facial part image using the reference facial expression image and the reference facial expression information,
The user terminal comparing the in-grid image formed on the reference facial image with the in-grid image formed on the facial feature image; And
The user terminal distorting the in-grid image formed on the face partial image different from the in-grid image formed on the reference facial image using the reference facial expression information,
Distorting an in-grid image formed on the face portion image different from an in-grid image formed on the reference facial image using the reference facial expression information, the user terminal comprising:
The image is distorted so that the lower part of the image in the lattice corresponding to the eyes of the face is directed to the upper side of the face so that the facial part image forms a smiling face and the upper part of the lattice image corresponding to the mouth of the face is facial Distorting the image so as to face downward;
The image is distorted such that the upper and lower portions of the image in the grid corresponding to the eyes of the face are directed to the lower and upper sides of the face, respectively, so that the face portion image forms a sad expression, Distorting the image so that the image rotates counterclockwise, distorting the image so that the image in the grid corresponding to the left eye of the face rotates clockwise, and the lower part of the image in the grid corresponding to the mouth of the face, Distorting the image so as to face upward;
The image is distorted such that the upper and lower portions of the in-grid image corresponding to the eyes of the face are directed to the lower and upper sides of the face, respectively, so that the facial portion image forms an angry facial expression, Distort the image so that my image rotates clockwise, distort the image so that the image in the grid corresponding to the left eye of the face rotates counterclockwise, and the top and bottom of the image in the grid corresponding to the mouth of the face Distorting the image so as to face the lower and upper sides of the face, respectively; And
The image is distorted so that the upper and lower portions of the image in the grid corresponding to the eyes of the face are directed to the upper and lower sides of the face, respectively, so that the face portion image forms a surprised expression, And distorting the image such that the top and bottom portions of the image are directed upward and downward, respectively, of the face.
제1항에 있어서,
상기 사용자 단말이 상기 이미지에서 얼굴 부분 이미지를 추출하는 단계는,
사용자 단말이 얼굴을 포함하는 상기 이미지에 대한 사용자의 터치를 인식하는 단계;
사용자 단말이 사용자의 상기 터치가 폐구간을 형성하는지 결정하는 단계; 및
사용자 단말이 상기 폐구간에서 얼굴 부분 이미지를 추출하는 단계
를 포함하는 아바타 얼굴 생성 방법.
The method according to claim 1,
Wherein the step of the user terminal extracting a face portion image from the image comprises:
Recognizing a user's touch on the image including a face by a user terminal;
Determining if the user terminal forms the closed interval of the user's touch; And
The user terminal extracts a face part image in the closed interval
And generating an avatar face image.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 기준 표정 정보를 이용하여 왜곡하는 단계는,
상기 기준 표정 정보의 개수만큼 상기 얼굴 부분 이미지에 표정을 형성하기 위한 왜곡을 수행하되, 수행된 상기 왜곡들에 대한 평균값을 구하고, 구해진 상기 왜곡의 평균값을 이용하여 왜곡하는 단계
에 해당하는 아바타 얼굴 생성 방법.
The method according to claim 1,
Wherein the step of distorting using the reference facial expression information comprises:
Performing distortion to form a facial expression on the facial part image by the number of the reference facial expression information, obtaining an average value of the performed distortions, and distorting the obtained average using the obtained average value of the distortions
The face of the avatar is generated.
제1항에 있어서,
상기 기준 표정 정보를 이용하여 왜곡하는 단계는,
기수집된 다수의 동일 표정 정보의 평균 왜곡정도를 산출해 이를 기반으로 왜곡하는 단계
에 해당하는 아바타 얼굴 생성 방법.
The method according to claim 1,
Wherein the step of distorting using the reference facial expression information comprises:
Calculating the average degree of distortion of the plurality of identical facial expression information collected and distorting based on the calculated average degree of distortion
The face of the avatar is generated.
제6항에 있어서,
상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계 이후에,
사용자 단말의 클릭, 스와이프 입력 또는 화면상의 상기 얼굴 부분 이미지 주변의 위기물건의 사용자 터치 접촉에 따라 기설정된 여러 종류의 표정 중 기설정된 해당 표정을 출력하는 단계
를 더 포함하는 아바타 얼굴 생성 방법.
The method according to claim 6,
After inserting the facial part image into the image content,
Outputting a predetermined facial expression among a plurality of predetermined facial expressions according to a click, a swipe input of a user terminal, or a user touch contact of a crisis object around the face partial image on the screen
And generating an avatar face image.
제6항에 있어서,
상기 얼굴 부분 이미지를 이미지 콘텐츠에 삽입하는 단계 이후에,
상기 얼굴 부분 이미지가 삽입된 이미지 콘텐츠는 전자 동화책의 일부에 삽입되어 상기 전자 동화책의 페이지 내용에 따른 기설정된 표정 변화가 이루어져 출력되거나 사용자 터치 접촉에 따라 기설정된 여러 종류의 표정 중 기설정된 해당 표정을 출력하는 단계
를 더 포함하는 아바타 얼굴 생성 방법.
The method according to claim 6,
After inserting the facial part image into the image content,
The image content in which the face part image is inserted is inserted into a part of the electronic still book so that a preset facial expression change according to the page contents of the electronic story book is outputted and outputted or a predetermined facial expression among various kinds of facial expressions preset according to the user touch Step for output
And generating an avatar face image.
얼굴을 포함하는 이미지에서 얼굴 부분 이미지를 추출하고, 추출된 상기 얼굴 부분 이미지에 표정을 형성하는 사용자 단말을 포함하고,
상기 사용자 단말은,
상기 얼굴 부분 이미지를 추출하는 얼굴 추출 모듈; 및
상기 얼굴 추출 모듈이 추출한 얼굴 부분 이미지에 표정을 형성하는 표정 형성 모듈을 포함하며,
상기 표정 형성 모듈은,
추출된 상기 얼굴 부분 이미지에 격자를 형성하는 격자 형성 모듈;
상기 얼굴 부분 이미지가 웃음, 슬픔, 화남 및 놀람 중 하나의 표정을 형성할 수 있도록 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하는 이미지 왜곡 모듈; 및
상기 이미지 왜곡 모듈이 왜곡한 상기 얼굴 부분 이미지를 보정하는 보정모듈을 포함하며,
상기 사용자 단말은 서버로부터 웃음, 슬픔, 화남 및 놀람 중 하나의 표정에 관한 기준 표정 이미지 및 기준 표정 정보를 전송받고,
전송받은 상기 기준 표정 이미지 및 상기 기준 표정 정보를 이용하여 상기 얼굴 부분 이미지에 형성된 격자 중 일부에 해당하는 이미지를 왜곡하고,
상기 이미지 왜곡 모듈은:
상기 기준 표정 이미지에 형성된 격자 내 이미지와 상기 얼굴 부분 이미지에 형성된 격자 내 이미지를 비교하고,
상기 기준 표정 이미지에 형성된 격자 내 이미지와 상이한 상기 얼굴 부분 이미지에 형성된 격자 내 이미지를 상기 기준 표정 정보를 이용하여 왜곡하되,
상기 얼굴 부분 이미지가 웃는 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 아랫부분이 얼굴의 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분이 얼굴의 아랫 방향을 향하도록 이미지를 왜곡하고,
상기 얼굴 부분 이미지가 슬픈 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 오른쪽 눈에 해당하는 격자 내 이미지가 반시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 왼쪽 눈에 해당하는 격자 내 이미지가 시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 아랫부분이 얼굴의 윗 방향을 향하도록 이미지를 왜곡하고,
상기 얼굴 부분 이미지가 화난 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 오른쪽 눈에 해당하는 격자 내 이미지가 시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 왼쪽 눈에 해당하는 격자 내 이미지가 반시계 방향으로 회전하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 아랫 방향 및 윗 방향을 향하도록 이미지를 왜곡하고, 그리고
상기 얼굴 부분 이미지가 놀란 표정을 형성하도록, 얼굴 중 눈에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 윗 방향 및 아랫 방향을 향하도록 이미지를 왜곡하고, 얼굴 중 입에 해당하는 격자 내 이미지의 윗부분 및 아랫부분이 각각 얼굴의 윗 방향 및 아랫 방향을 향하도록 이미지를 왜곡하는 아바타 얼굴 생성 시스템.
A user terminal for extracting a face portion image from an image including a face and forming a face on the extracted face portion image,
The user terminal comprises:
A face extraction module for extracting the face portion image; And
And a facial expression forming module for forming facial expressions on the facial part image extracted by the face extracting module,
The facial expression forming module includes:
A grid forming module for forming a grid in the extracted facial part image;
An image distortion module for distorting the image corresponding to a part of the grid formed in the face portion image such that the face portion image forms a face of laughter, sadness, angryness and surprise; And
And a correction module for correcting the image of the face part distorted by the image distortion module,
The user terminal receives a reference facial expression image and reference facial expression information regarding a facial expression of laughter, sadness, anger, and surprise from a server,
A reference facial expression image and a reference facial expression information, the image corresponding to a part of the lattice formed on the facial part image is distorted,
Said image distortion module comprising:
Compares an in-grid image formed on the reference facial expression image with an in-grid image formed on the face partial image,
Wherein the reference image is generated by using the reference facial expression information,
The image is distorted so that the lower part of the image in the lattice corresponding to the eyes of the face is directed to the upper side of the face so that the facial part image forms a smiling face and the upper part of the lattice image corresponding to the mouth of the face is facial Distort the image so that it faces downward,
The image is distorted such that the upper and lower portions of the image in the grid corresponding to the eyes of the face are directed to the lower and upper sides of the face, respectively, so that the face portion image forms a sad expression, Distorting the image so that the image rotates counterclockwise, distorting the image so that the image in the grid corresponding to the left eye of the face rotates clockwise, and the lower part of the image in the grid corresponding to the mouth of the face, Distort the image to face upward,
The image is distorted such that the upper and lower portions of the in-grid image corresponding to the eyes of the face are directed to the lower and upper sides of the face, respectively, so that the facial portion image forms an angry facial expression, Distort the image so that my image rotates clockwise, distort the image so that the image in the grid corresponding to the left eye of the face rotates counterclockwise, and the top and bottom of the image in the grid corresponding to the mouth of the face Distort the image to face down and up, respectively, of the face, and
The image is distorted so that the upper and lower portions of the image in the grid corresponding to the eyes of the face are directed to the upper and lower sides of the face, respectively, so that the face portion image forms a surprised expression, An avatar face generation system that distorts the image so that the top and bottom portions of the image face upward and downward, respectively.
KR1020160081080A 2016-06-28 2016-06-28 System and method for creating face avatar KR101681501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160081080A KR101681501B1 (en) 2016-06-28 2016-06-28 System and method for creating face avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160081080A KR101681501B1 (en) 2016-06-28 2016-06-28 System and method for creating face avatar

Publications (1)

Publication Number Publication Date
KR101681501B1 true KR101681501B1 (en) 2016-12-01

Family

ID=57577233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160081080A KR101681501B1 (en) 2016-06-28 2016-06-28 System and method for creating face avatar

Country Status (1)

Country Link
KR (1) KR101681501B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102198844B1 (en) 2019-06-26 2021-01-05 서울대학교 산학협력단 the avatar mask up-loading service based on facial recognition
KR102353556B1 (en) 2021-11-01 2022-01-20 강민호 Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face
KR20230080543A (en) * 2021-11-30 2023-06-07 (주) 키글 System for creating face avatar

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR101629219B1 (en) 2014-05-23 2016-06-13 정성 An elevator monitor that restricts access through face recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR101629219B1 (en) 2014-05-23 2016-06-13 정성 An elevator monitor that restricts access through face recognition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102198844B1 (en) 2019-06-26 2021-01-05 서울대학교 산학협력단 the avatar mask up-loading service based on facial recognition
KR102353556B1 (en) 2021-11-01 2022-01-20 강민호 Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face
KR20230080543A (en) * 2021-11-30 2023-06-07 (주) 키글 System for creating face avatar
KR102553432B1 (en) * 2021-11-30 2023-07-10 (주) 키글 System for creating face avatar

Similar Documents

Publication Publication Date Title
KR102658960B1 (en) System and method for face reenactment
US20220004765A1 (en) Image processing method and apparatus, and storage medium
US20210295020A1 (en) Image face manipulation
US20230154121A1 (en) Side-by-side character animation from realtime 3d body motion capture
US20220150285A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
WO2018077206A1 (en) Augmented reality scene generation method, device, system and equipment
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
US12002175B2 (en) Real-time motion transfer for prosthetic limbs
US11763481B2 (en) Mirror-based augmented reality experience
CN113112580B (en) Method, device, equipment and medium for generating virtual image
KR101743763B1 (en) Method for providng smart learning education based on sensitivity avatar emoticon, and smart learning education device for the same
WO2016122973A1 (en) Real time texture mapping
CN106200960A (en) The content display method of electronic interactive product and device
KR101743764B1 (en) Method for providing ultra light-weight data animation type based on sensitivity avatar emoticon
KR101681501B1 (en) System and method for creating face avatar
US20230362333A1 (en) Data processing method and apparatus, device, and readable storage medium
KR20160010810A (en) Realistic character creation method and creating system capable of providing real voice
KR102079321B1 (en) System and method for avatar service through cable and wireless web
WO2023129391A1 (en) Protecting image features in stylized representations of a source image
KR20200134623A (en) Apparatus and Method for providing facial motion retargeting of 3 dimensional virtual character
KR20190137021A (en) Device of generating animation character and Method thereof
KR102553432B1 (en) System for creating face avatar
KR20230163907A (en) Systen and method for constructing converting model for cartoonizing image into character image, and image converting method using the converting model
CN118298081A (en) Data processing method, device, equipment and readable storage medium
CN117011910A (en) Image processing method, image processing device, computer device, storage medium, and program product

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 4