KR20180065951A - Apparatus for virtual plastic surgery based on subjective preference and method for the same - Google Patents

Apparatus for virtual plastic surgery based on subjective preference and method for the same Download PDF

Info

Publication number
KR20180065951A
KR20180065951A KR1020170167638A KR20170167638A KR20180065951A KR 20180065951 A KR20180065951 A KR 20180065951A KR 1020170167638 A KR1020170167638 A KR 1020170167638A KR 20170167638 A KR20170167638 A KR 20170167638A KR 20180065951 A KR20180065951 A KR 20180065951A
Authority
KR
South Korea
Prior art keywords
preference
user
attribute
face model
virtual
Prior art date
Application number
KR1020170167638A
Other languages
Korean (ko)
Other versions
KR102147061B1 (en
Inventor
황본우
윤승욱
임성재
박창준
최진성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20180065951A publication Critical patent/KR20180065951A/en
Application granted granted Critical
Publication of KR102147061B1 publication Critical patent/KR102147061B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are an apparatus and a method for virtual face plastic surgery. According to an embodiment of the present invention, the apparatus for virtual face plastic surgery may include an attribute-specific preference evaluation processing unit for receiving an attribute-specific preference for at least one predetermined example face model from at least one experiment subject and storing the attribute-specific preference; an experiment subject tendency learning processing unit for classifying and managing the at least one experiment subject into a plurality of predetermined tendency groups on the basis of the attribute-specific preference of the at least one experiment subject; a user tendency classification processing unit for receiving an attribute-specific preference for the at least one predetermined example face model from the user, and determining a tendency group of the at least one user on the basis of the received attribute-specific preference; and a virtual plastic surgery information processing unit for creating a preferred face model on the basis of the attribute-specific preference of the user and the attribute-specific preference of the experiment subject corresponding to the tendency group of the user, and creating a virtual plastic surgery face model by applying the preferred face model to a face model of the user. According to the present disclosure, provided are an apparatus and a method in which a user without having knowledge about face plastic surgery may estimate a face model after a harmonized plastic surgery of his or her face only by inputting simple information.

Description

사용자의 주관적 선호도를 반영한 가상 얼굴 성형 장치 및 방법{APPARATUS FOR VIRTUAL PLASTIC SURGERY BASED ON SUBJECTIVE PREFERENCE AND METHOD FOR THE SAME}[0001] APPARATUS FOR VIRTUAL PLASTIC SURGERY BASED ON SUBJECTIVE PREFERENCE AND METHOD FOR THE SAME [0002]

본 개시는 3차원 정보를 생성하는 기술에 관한 것이며, 보다 구체적으로는 사용자의 선호도를 확인 및 반영하여 3D 얼굴 모델 정보를 생성하는 방법 및 장치에 대한 것이다.The present disclosure relates to a technique for generating three-dimensional information, and more particularly, to a method and apparatus for generating 3D face model information by confirming and reflecting a user's preference.

최근에는 개인의 외모를 중요시하는 현대사회의 문화에 따라 성형 수술에 대한 관심이 많아지고 있다. 이에 따라 적은 비용과 시간으로 자신의 성형 후 모습을 쉽게 예측하여 볼 수 있는 가상 성형 시스템의 개발이 이루어지고 있다. In recent years, interest in cosmetic surgery has been increasing in accordance with the culture of modern society, which emphasizes personal appearance. Accordingly, a virtual molding system capable of easily predicting the shape of the user after molding is being developed with low cost and time.

종래의 가상 얼굴 성형 장치는 얼굴을 구성하는 개체(예컨대, 눈, 코, 입, 턱 등)별 모델을 구성하고, 각각의 객체에 대한 모델을 사용하여 국부적인 개체를 조합을 하거나 개체의 형태를 조절점 또는 슬라이드 바 등과 같은 사용자 인터페이스를 활용하여 수정 또는 변형할 수 있도록 구성되었다. Conventional virtual facial shaping apparatuses constitute a model for individual objects (e.g., eyes, nose, mouth, jaw, etc.) constituting a face, and combine local objects by using a model for each object, And can be modified or modified using a user interface such as a control point or a slide bar.

이러한 종래의 가상 얼굴 성형 장치는 성형의 대상이 되는 얼굴을 구성하는 개체에 대한 선별적 선택이 용이하다는 장점이 있지만, 성형에 대한 전문적인 지식이 없이는 사용자의 이상형 얼굴을 얻기 위해 오랜 시간 동안 많은 시행착오를 거듭하거나, 얼굴을 구성하는 개체들이 조화를 이루지 못하여 사용자의 실제 얼굴 모델과 유사하지 않은 결과를 출력하는 등의 문제가 발생될 수 있다. Such a conventional virtual facial shaping apparatus has an advantage that it is easy to selectively select individuals constituting a face to be formed. However, without expert knowledge of forming, many attempts are made to obtain a user's idealized face for a long time It is possible to cause problems such as repeatedly making a mistake or failing to harmonize the individuals constituting the face and outputting results that are not similar to the user's actual face model.

본 개시의 기술적 과제는 얼굴 성형에 대한 지식이 없는 사용자가 단순한 정보의 입력만으로도 자신의 조화로운 성형 후 얼굴 모델을 예측할 수 있는 장치 및 방법을 제공하는 것이다. An object of the present invention is to provide a device and a method for a user who is not knowledgeable about face shaping to predict his or her harmoniously formed face model by simply inputting information.

본 개시의 다른 기술적 과제는 사용자가 미리 정해진 예제 얼굴 모델에 대한 선호도만을 입력하더라도, 사용자의 만족도가 높은 성형 후 얼굴 모델을 예측 및 제공할 수 있는 장치 및 방법을 제공하는 것이다. It is another object of the present invention to provide an apparatus and method for predicting and providing a post-forming face model with a high degree of user satisfaction even if the user only inputs preference for a predetermined example face model.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면 가상 얼굴 성형 장치가 제공될 수 있다. 상기 장치는 가상 얼굴 성형 장치는 적어도 하나의 피실험자로부터, 미리 정해진 적어도 하나의 예제 얼굴 모델에 대한 속성별 선호도를 입력받아 저장하는 속성별 선호도 평가 처리부와, 상기 적어도 하나의 피실험자의 속성별 선호도에 기초하여, 상기 적어도 하나의 피실험자를 미리 정해진 복수의 성향 그룹으로 분류 및 관리하는 피실험자 성향 학습 처리부와, 사용자로부터 상기 미리 정해진 적어도 하나의 예제 얼굴 모델에 대한 속성별 선호도를 입력받고, 입력받은 상기 속성별 선호도에 기초하여 상기 적어도 하나의 사용자의 성향 그룹을 결정하는 사용자 성향 분류 처리부와, 상기 사용자의 속성별 선호도와, 상기 사용자의 성향 그룹에 대응되는 상기 피실험자의 속성별 선호도에 기초한 선호 얼굴 모델을 생성하고, 상기 선호 얼굴 모델을 상기 사용자의 얼굴 모델에 적용하여 가상 성형 얼굴 모델을 생성하는 가상 성형정보 처리부를 포함할 수 있다.According to an aspect of the present disclosure, a virtual facial shaping apparatus can be provided. Wherein the virtual face forming apparatus comprises: a preference-by-attribute evaluation processing unit for receiving and storing preference-by-attribute preferences for at least one predetermined example face model from at least one subject; A subject preference learning processing unit for classifying and managing the at least one subject in a predetermined plurality of preference groups, and a user preference input unit for inputting a preference for each attribute of the predetermined at least one example face model from the user, A user preference classifying processor for determining the preference group of at least one user based on the preference and a preference face model based on the preference for each attribute of the user and the preference for each attribute of the user corresponding to the user's preference group And the preferred face model Applied to a group of users face model may include forming a virtual information processing unit for generating a virtual model molding face.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 얼굴 성형에 대한 지식이 없는 사용자가 단순한 정보의 입력만으로도 자신의 조화로운 성형 후 얼굴 모델을 예측할 수 있는 장치 및 방법이 제공될 수 있다.According to the present disclosure, it is possible to provide an apparatus and a method which allow a user who is not knowledgeable of face shaping to predict his or her harmonized post-model with only the input of information.

또한, 본 개시에 따르면, 사용자가 미리 정해진 예제 얼굴 모델에 대한 선호도만을 입력하더라도, 사용자의 만족도가 높은 성형 후 얼굴 모델을 예측할 수 있는 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, an apparatus and a method for predicting a post-molding face model having a high degree of satisfaction of a user can be provided even if the user inputs only the pre-determined preference for the sample face model.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치의 구성을 도시하는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 속성별 선호도 평가 처리부의 상세 구성을 도시하는 도면이다.
도 3은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비된 예제 얼굴 모델 DB의 예제 얼굴 모델의 데이터 구조를 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비된 피실험자 선호도 DB의 피실험자에 대한 속성별 선호도 데이터 구조를 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 피실험자 성향 학습 처리부의 상세 구성을 도시하는 도면이다.
도 6은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비된 성향 분류기 파라미터 DB의 성향 분류기 파라미터 데이터 구조를 예시하는 도면이다.
도 7은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비된 피실험자 선호도 보조 DB의 구조를 예시하는 도면이다.
도 8은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 사용자 성향 분류 처리부의 상세 구성을 도시하는 도면이다.
도 9는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비된 사용자 정보 DB의 사용자 정보의 데이터 구조를 예시하는 도면이다.
도 10은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 가상 성형정보 처리부의 상세 구성을 도시하는 도면이다.
도 11은 본 개시의 일 실시예에 따른 일 실시예에 따른 가상 성형정보 생성 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
1 is a block diagram showing a configuration of an apparatus for generating virtual formation information according to an embodiment of the present disclosure.
2 is a diagram showing a detailed configuration of a preference evaluation processing unit for each attribute provided in the virtual formed information generating apparatus according to the embodiment of the present disclosure.
3 is a diagram illustrating a data structure of an example face model of an example face model DB provided in the virtual forming information generating apparatus according to an embodiment of the present disclosure.
FIG. 4 is a diagram illustrating a preference data structure for each subject of a subject of a subject's preference DB provided in the virtual formed information generating apparatus according to an embodiment of the present disclosure; FIG.
FIG. 5 is a diagram showing a detailed configuration of a subject tendency learning processing unit provided in the virtual formed information generating apparatus according to an embodiment of the present disclosure. FIG.
6 is a diagram illustrating a propensity classifier parameter data structure of the propensity classifier parameter DB included in the virtual forming information generating apparatus according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating a structure of a subject preference assistance DB provided in the virtual formation information generation apparatus according to an embodiment of the present disclosure.
8 is a diagram showing a detailed configuration of a user propensity classification processing unit provided in the virtual formed information generation apparatus according to an embodiment of the present disclosure.
9 is a diagram illustrating a data structure of user information of a user information DB included in the virtual forming information generating apparatus according to an embodiment of the present disclosure.
10 is a diagram showing a detailed configuration of a virtual forming information processing unit provided in the virtual forming information generating apparatus according to an embodiment of the present disclosure.
11 is a block diagram illustrating a computing system that executes a virtual forming information generating apparatus according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치의 구성을 도시하는 블록도이다. 1 is a block diagram showing a configuration of an apparatus for generating virtual formation information according to an embodiment of the present disclosure.

도 1을 참조하면, 가상 성형정보 생성 장치(10)는 입출력 인터페이스(11), 입출력 장치(12), 속성별 선호도 평가 처리부(13), 피실험자 성향 학습 처리부(14), 사용자 성향 분류 처리부(15), 및 가상 성형정보 처리부(16)를 포함할 수 있다. 또한, 가상 성형정보 생성 장치(10)는 예제 얼굴 모델 DB(100), 피실험자 선호도 DB(200), 성향 분류기 파라이터 DB(300), 피실험자 선호도 보조 DB(400), 및 사용자 정보 DB(500)를 포함할 수 있다.1, the virtual forming information generating apparatus 10 includes an input / output interface 11, an input / output device 12, a property preference evaluation processing unit 13, a subject's subject learning processing unit 14, a user propensity classification processing unit 15 ), And a virtual forming information processing unit 16. The virtual molding information generation apparatus 10 includes an example face model DB 100, a subject preference DB 200, a propensity classifier parameterizer 300, a subject preference aiding DB 400, and a user information DB 500, . ≪ / RTI >

본 개시의 일 실시예서서, 피실험자와 사용자는 모두 가상 성형정보 생성 장치를 사용하는 사용자일 수 있으나, 가상 성형정보 생성 장치의 설명시 사용자의 특성에 따라 구분하기 위하여, 얼굴 모델의 속성별 선호도를 기반으로 성향 학습에 참여되는 사용자를 피실험자로 지칭하고, 가상 성형정보를 생성하는데 참여되는 사용자를 사용자로 지칭한다. In the embodiment of the present disclosure, both the user and the user may be a user who uses the virtual forming information generating apparatus. However, in order to distinguish the virtual forming information generating apparatus according to the characteristics of the user, The user participating in the inclination learning is referred to as the subject, and the user participating in the generation of the virtual forming information is referred to as the user.

입출력 인터페이스(11)는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치(10)에 구비된 기능부가 제공하는 데이터, 또는 가상 성형정보 생성 장치(10)에 구비된 기능부가 제공하는 다양한 서비스에 대응되는 유저 인터페이스를, 입출력 장치(12)에 제공할 수 있다. 이에 대응하여, 입출력 장치(12)는 가상 성형정보 생성 장치(10)에 구비된 기능부가 제공하는 데이터, 또는 유저 인터페이스를 출력장치(예, 디스플레이, 터치스크린 장치) 등을 통해 출력할 수 있다. The input / output interface 11 is a device for inputting data provided by a function provided in the virtual forming information generating apparatus 10 according to an embodiment of the present disclosure, or various services provided by a function unit provided in the virtual forming information generating apparatus 10 And can provide the corresponding user interface to the input / output device 12. In response, the input / output device 12 can output the data provided by the function unit provided in the virtual molding information generation apparatus 10, or the user interface through an output device (e.g., a display, a touch screen device) or the like.

또한, 입출력 장치(12)는 사용자 또는 피실험자로부터 키 입력을 수신할 수 있는 입력 장치를 포함할 수 있으며, 입력장치(예, 키보드 장치, 마우스 장치)에서 발생되는 입력을 입출력 인터페이스(11)를 통해 가상 성형정보 생성 장치(10)에 구비된 가상 성형정보 생성 장치(10)에 구비되는 기능부 제공할 수 있다. 입출력 장치(12)에 구비되는 입력장치는 물리적인 키 패드 또는 터치스크린 장치에 표시되는 가상의 키패드 등을 포함할 수 있다. The input / output device 12 may include an input device capable of receiving a key input from a user or a subject, and may receive input from an input device (e.g., a keyboard device, a mouse device) via the input / output interface 11 It is possible to provide a function section provided in the virtual molding information generation apparatus 10 provided in the virtual molding information generation apparatus 10. [ The input device included in the input / output device 12 may include a physical keypad or a virtual keypad displayed on the touch screen device.

속성별 선호도 평가 처리부(13)는 예제 얼굴 모델 DB(100)와 피실험자 선호도 DB(200)와 연동되어 동작할 수 있다. 속성별 선호도 평가 처리부(13)는 예제 얼굴 모델 DB(100)에 저장된 예제 얼굴을 입출력 장치(12)를 통해 표시하고, 표시된 예제 얼굴 모델에 대한 속성별 선호도를 입력받을 수 있는 환경(예, 사용자 인터페이스)을 제공할 수 있다. 예컨대, 속성별 선호도 평가 처리부(13)는 입출력 장치(12)를 통해 표시되는 적어도 하나의 예제 얼굴 모델에 대한 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)을 표시하고, 각 속성의 선호도를 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 그리고, 속성별 선호도 평가 처리부(13)는 적어도 하나의 피실험자로부터 적어도 하나의 예제 얼굴 모델에 대한 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)의 각각에 대한 선호도를 입력받고, 이를 피실험자 선호도 DB(200)에 저장할 수 있다.The attribute-based preference evaluation processing unit 13 can operate in conjunction with the example face model DB 100 and the subject's preference DB 200. The attribute-based preference evaluation processing unit 13 displays an example face stored in the example face model DB 100 through the input / output device 12 and displays an environment (e.g., a user Interface). For example, the attribute preference evaluation processing unit 13 displays attributes (e.g., cuteness, sexyness, elegance, cleanliness, friendliness, etc.) of at least one example face model displayed through the input / output device 12, It is possible to provide a user interface for receiving the preference of each attribute. The attribute-based preference evaluation processing unit 13 receives preferences for each of the attributes (e.g., cuteness, sexyness, elegance, cleanliness, friendliness, etc.) of at least one example face model from at least one subject , And stores it in the subject's preference DB 200.

한편, 속성별 선호도 평가에 사용되는 예제 얼굴 모델 DB(100)에는 다양한 예제 얼굴 모델이 저장될 수 있다. On the other hand, various example face models can be stored in the example face model DB (100) used for property preference evaluation.

예제 얼굴 모델은 일반적으로 귀여움, 섹시함, 우아함, 청순함, 친근함 등 피실험자나 사용자의 선호도 속성면에서 평가 점수가 높을 가능성이 있는 얼굴 모형에 대한 모델을 포함할 수 있다. 나아가, 예제 얼굴 모델은 형태 정보와 질감 정보를 포함할 수 있으며, 더 나아가 형태 정보와 질감 정보는 서로 분리되어 저장될 수 있다. Example face models can include models for face models that are likely to have high scores in terms of preference attributes of subjects or users, such as cuteness, sexyness, elegance, cleanliness, friendliness. Furthermore, the exemplary face model may include shape information and texture information, and further, shape information and texture information may be stored separately from each other.

본 개시의 일 실시예에서, 예제 얼굴 모델은 3D 얼굴 모델을 포함할 수 있다. 또한, 3D 얼굴 모델은 실제 인물의 얼굴을 촬영하여 생성된 실제 얼굴 모델, 전문 3D 디자이너의 수작업을 통해 참조 얼굴 템플릿을 변형한 가상 얼굴 모델, 또는 실제 인물의 얼굴을 촬영하여 생성된 얼굴 모델을 디자이너 수작업을 통해 수정하여 생성된 혼합 얼굴 모델을 포함할 수 있다. In one embodiment of the present disclosure, the example face model may include a 3D face model. In addition, the 3D face model may be a real face model generated by photographing a face of a real person, a virtual face model obtained by manually transforming a reference face template through a professional 3D designer, or a face model generated by photographing a face of a real person And may include a mixed face model generated by modifying by hand.

한편, 피실험자 성향 학습 처리부(14)는 피실험자 선호도 DB(200), 성향 분류기 파라미터 DB(300), 및 피실험자 선호도 보조 DB(400)와 연동되어 동작할 수 있다. Meanwhile, the subject's subject propensity learning processing unit 14 may operate in conjunction with the subject's preference DB 200, the propensity classifier parameter DB 300, and the subject's preference aiding DB 400.

피실험자 선호도 DB(200)에는 다수의 피실험자로부터 적어도 하나의 얼굴 모델의 평가 결과로 입력된 다수의 속성별 선호도가 저장될 수 있는데, 피실험자 성향 학습 처리부(14)는 다수의 속성별 선호도의 특성을 검출하고, 이를 기반으로 피실험자의 성향을 복수의 그룹으로 분류하는 학습을 수행할 수 있다. The subject preference DB 200 may store a plurality of preference preferences inputted from a plurality of subjects as the evaluation result of at least one face model. The subject subject preference learning processing unit 14 detects a plurality of preference preference characteristics And can classify the subjects' tendencies into a plurality of groups on the basis thereof.

이때, 피실험자 성향 학습 처리부(14)는 분류된 그룹 단위로, 속성별 선호도의 특성을 분리하여 성향 분류기 파라미터 DB(300)에 저장할 수 있으며, 피실험자 성향 그룹에 따라 피실험자 선호도 평가 결과를 각각 다른 DB를 구성하는 피실험자 선호도 보조 DB(400)에 저장할 수 있다. 예컨대, 피실험자 성향 그룹이 M(M은 자연수)개로 분류될 경우, 피실험자 선호도 보조 DB(400)에는 M개의 DB가 구비될 수 있으며, 각각의 DB에는 각각의 그룹이 할당되고, 각 그룹에 대응되는 피실험자의 선호도 평가 결과가 저장될 수 있다.At this time, the subject's propensity learning processing unit 14 can separate the characteristics of preference by attribute in the classified group unit and store the characteristics of the preference in the propensity classifier parameter DB 300. Also, the subject's preference evaluation result is classified into different DB Can be stored in the constituent participant preference sub-DB 400. For example, when the subject tendency group is classified into M (M is a natural number) group, M subjects DBs may be provided in the subject's preference aiding DB 400, each group is assigned to each DB, The subject's preference evaluation result may be stored.

사용자 성향 분류 처리부(15)는 예제 얼굴 모델 DB(100) 및 성향 분류기 파라이터 DB(300)와 연동되어 동작할 수 있다. The user propensity classification processing unit 15 can operate in conjunction with the example face model DB 100 and the propensity classifier parser DB 300.

사용자 성향 분류 처리부(15)는 예제 얼굴 모델 DB(100)에 저장된 예제 얼굴을 입출력 장치(12)를 통해 표시하고, 표시된 예제 얼굴 모델에 대한 속성별 선호도를 입력받을 수 있는 환경(예, 사용자 인터페이스)을 제공할 수 있다. 예컨대, 사용자 성향 분류 처리부(15)는 입출력 장치(12)를 통해 표시되는 적어도 하나의 예제 얼굴 모델에 대한 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)을 표시하고, 각 속성의 선호도를 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 그리고, 사용자 성향 분류 처리부(15)는 사용자로부터 적어도 하나의 예제 얼굴 모델에 대한 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)의 각각에 대한 선호도를 입력받을 수 있다. The user propensity classification processing unit 15 displays an example face stored in the example face model DB 100 through the input / output device 12 and displays an environment in which the preference for the attribute of the displayed example face model can be inputted ). ≪ / RTI > For example, the user propensity classification processing unit 15 displays attributes (e.g., cuteness, sexyness, elegance, cleanliness, friendliness, etc.) of at least one example face model displayed through the input / output device 12, It is possible to provide a user interface for receiving the preference of the attribute. The user propensity classification processing unit 15 may receive the preferences for each of the attributes (e.g., cuteness, sexyness, elegance, cleanliness, friendliness, etc.) of at least one example face model from the user.

또한, 사용자 성향 분류 처리부(15)는 사용자로부터 입력된 선호도로부터 사용자 특성을 검출하고, 성향 분류기 파라이터 DB(300)를 사용하여, 검출된 사용자 특성에 대응되는 피실험자 성향 그룹을 결정할 수 있다. In addition, the user propensity classification processing unit 15 may detect the user characteristics from the preferences inputted from the user, and use the propensity classifier parser DB 300 to determine the user tendency groups corresponding to the detected user characteristics.

나아가, 사용자 성향 분류 처리부(15)는 사용자 정보 DB(500)와 연동되어 동작할 수 있다. 구체적으로, 사용자 성향 분류 처리부(15)는 사용자 계정을 관리할 수 있는 환경을 제공하고, 사용자 계정 단위로 속성별 선호도와, 사용자 성향 그룹을 저장 및 관리할 수 있다.Furthermore, the user propensity classification processing unit 15 may operate in conjunction with the user information DB 500. [ Specifically, the user propensity classification processing unit 15 provides an environment for managing user accounts, and can store and manage user preference groups and user preference groups in units of user accounts.

예를 들어, 사용자 성향 분류 처리부(15)는 사용자 계정을 생성하는 환경을 제공하여, 사용자 계정 관리에 필요한 정보(예, 아이디, 비밀번호, 개인 식별번호, 개인인증 정보(예, 이메일, 연락처 등) 등)를 입력받아 사용자 계정을 생성할 수 있다. 그리고, 사용자 성향 분류 처리부(15)는 사용자 계정에 접근하는데 필요한 정보(예, 아이디, 비밀번호 등)를 입력받고, 입력받은 정보가 유효한 정보일 경우에 한하여, 해당 사용자 계정에 대응되는 속성별 선호도와, 사용자 성향 그룹에 대한 정보를 생성 및 제공할 수 있다.For example, the user preference classification processing unit 15 may provide an environment for creating a user account, so that information necessary for user account management (e.g., ID, password, personal identification number, personal authentication information Etc.) to create a user account. The user propensity classification processing unit 15 receives information (e.g., ID, password, and the like) necessary for accessing the user account, and only when the input information is valid information, , And may generate and provide information about user preference groups.

한편, 가상 성형정보 처리부(16)는 예제 얼굴 모델 DB(100), 피실험자 선호도 보조 DB(400), 및 사용자 정보 DB(500)와 연동되어 동작할 수 있다. Meanwhile, the virtual molding information processing unit 16 can operate in conjunction with the example face model DB 100, the subject preference aiding DB 400, and the user information DB 500.

가상 성형정보 처리부(16)는 사용자 정보 DB(500)를 통해, 사용자 계정에 대응되는 속성별 선호도와, 사용자 성향 그룹에 대한 정보를 확인할 수 있다. 즉, 가상 성형정보 처리부(16)는 사용자 계정에 대응되는, 얼굴 모델별 속성별 선호도(이하, 제1선호도 정보라 함)를 확인할 수 있다. 또한, 사용자 계정에 대응되는 제1선호도 정보를 표시하면서, 제1선호도 정보를 수정할 수 있는 환경을 제공할 수 있다. 이를 통해, 가상 성형정보 처리부(16)는 사용자에 의해 수정된 속성별 선호도(이하, '제2속성별 선호도'라 함)를 확인할 수 있다. 나아가, 가상 성형정보 처리부(16)는 해당 사용자의 성향 그룹에 저장된 얼굴 모델에 대한 속성별 선호도(이하, 제3선호도 정보라 함)를 확인할 수 있다. 그리고, 가상 성형정보 처리부(16)는 제1, 제2, 및 제3선호도 정보 중 적어도 하나를 조합하여 가중치 정보를 생성할 수 있다. The virtual molding information processing unit 16 can confirm the preference for each attribute corresponding to the user account and the information about the user tendency group through the user information DB 500. [ That is, the virtual molding information processing unit 16 can confirm the preference (hereinafter, referred to as first preference information) for each attribute of the face model corresponding to the user account. In addition, the first preference information corresponding to the user account can be displayed while the first preference information can be modified. Thus, the virtual forming information processing unit 16 can confirm the preference of each attribute (hereinafter, referred to as 'preference for each second attribute') modified by the user. Furthermore, the virtual molding information processing unit 16 can check the preference (hereinafter referred to as third preference information) of each face model stored in the user's preference group. Then, the virtual forming information processing unit 16 can generate weight information by combining at least one of the first, second, and third preference information.

나아가, 가상 성형정보 처리부(16)는 전술한 바와 같은 동작을 통해 생성한 가중치 정보에 기초하여 사용자의 선호 얼굴 모델을 생성할 수 있다.Further, the virtual formation information processing unit 16 can generate the user's preferred face model based on the weight information generated through the above-described operation.

한편, 가상 성형정보 처리부(16)는 사용자의 얼굴을 촬영한 이미지를 사용하여, 사용자 얼굴 모델을 생성할 수 있다. 그리고, 가상 성형정보 처리부(16)는 선호 얼굴 모델을, 사용자 얼굴 모델에 적용하여, 가상 성형 얼굴 모델을 생성할 수 있다.On the other hand, the virtual molding information processing unit 16 can generate the user's face model using the image of the user's face. Then, the virtual formation information processing unit 16 can apply the preferred face model to the user's face model to generate a virtual formed face model.

또한, 가상 성형정보 처리부(16)는 생성된 선호 얼굴 모델 또는 가상 성형 얼굴 모델을 제공하는 환경(예, 선호 얼굴 모델 제공 인터페이스, 가상 성형 얼굴 모델 제공 인터페이스 등))을 제공할 수 있다. Further, the virtual forming information processing unit 16 may provide an environment (e.g., a preferred face model providing interface, a virtual forming face model providing interface, and the like) that provides the generated preferred face model or the virtual formed face model.

나아가, 생성된 선호 얼굴 모델 또는 가상 성형 얼굴 모델을 제공하는 환경(예, 선호 얼굴 모델 제공 인터페이스, 가상 성형 얼굴 모델 제공 인터페이스 등))은 생성된 선호 얼굴 모델 또는 가상 성형 얼굴 모델에 대한 피드백 정보 또는 선호도 수정 정보를 입력받을 수 있는 환경을 포함할 수 있다. 예를 들어, 가상 성형정보 처리부(16)는 선호도 수정 정보를 입력할 수 있는 버튼을 통해, 사용자로부터 얼굴 모델에 대한 속성별 선호도를 재 입력받을 수 있으며, 재입력받은 속성별 선호도에 제2선호도 정보를 조합한 가중치 정보, 선호 얼굴 모델, 및 가상 성형 얼굴 모델 등을 재생성할 수 있다. Further, an environment (e.g., a preferred face model providing interface, a virtual molded face model providing interface, and the like) that provides a generated preferred face model or a virtual molded face model may include feedback information on the generated preferred face model or virtual formed face model, And an environment in which preference correction information can be input. For example, the virtual molding information processing unit 16 can re-input the preference for each attribute of the face model from the user through the button for inputting the preference correction information, and the second preference Weight information, a preferred face model, and a virtual formed face model can be regenerated.

이하, 전술한 설명 및 하기에 첨부되는 도면과 이에 대한 설명을 통해, 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 각 구성부의 구성을 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the configuration of each component included in the virtual formed information generating apparatus according to an embodiment of the present disclosure will be described in detail with reference to the above description and drawings and the accompanying drawings.

우선, 도 2는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 속성별 선호도 평가 처리부의 상세 구성을 도시하는 도면이다. 2 is a diagram showing a detailed configuration of a preference evaluation processing unit for each attribute included in the virtual formed information generating apparatus according to an embodiment of the present disclosure.

속성별 선호도 평가 처리부(20)는 예제 얼굴 재생부(21), 속성별 선호도 평가부(22), 및 선호도 저장부(23)를 포함할 수 있다. The attribute-based preference evaluation processing unit 20 may include an example face playback unit 21, an attribute-based preference evaluation unit 22, and a preference storage unit 23.

예제 얼굴 재생부(21)는 피실험자가 예제 얼굴의 속성별 선호도를 평가할 수 있도록 예제 얼굴 모델 DB(100)에 저장된 예제 얼굴 모델을 순차 또는 동시에 입출력 인터페이스(11)를 통해 입출력 장치(12)에 제공할 수 있다.The example face reproducing section 21 provides the example face models stored in the example face model DB 100 to the input / output device 12 through the input / output interface 11 sequentially or simultaneously at the same time so that the subject can evaluate the preference of the example face by attribute can do.

예제 얼굴 모델 DB(100)에 저장된 예제 얼굴 모델은 도 3과 같이 예시될 수 있다. 나아가, 예제 얼굴 모델(101)은 형태 정보(102)와 질감 정보(103)를 포함할 수 있으며, 더 나아가 형태 정보(102)와 질감 정보(103)는 서로 분리되어 저장될 수 있다. The example face model stored in the example face model DB 100 can be illustrated as shown in FIG. Further, the example face model 101 may include morphological information 102 and texture information 103, and further, morphological information 102 and texture information 103 may be stored separately from each other.

한편, 속성별 선호도 평가부(22)는 예제 얼굴 재생부(21)가 제공하는 적어도 하나의 예제 얼굴 모델과 동기화되며, 예제 얼굴 재생부(21)에 의해 제공되는 예제 얼굴 모델에 대한 적어도 하나의 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)을 표시하고, 각 속성에 대한 선호도를 입력할 수 있는 환경(예, 사용자 인터페이스)을 제공할 수 있다. On the other hand, the property-based preference evaluating unit 22 is synchronized with at least one example face model provided by the example face reproducing unit 21, and at least one of the at least one example face model provided by the example face reproducing unit 21 (E.g., a user interface) that displays attributes (e.g., cuteness, sexyness, elegance, cleanliness, friendliness, etc.) and can input preferences for each attribute.

또한, 속성별 선호도 평가부(22)는 전술한 환경(예, 사용자 인터페이스)을 통해 피 실험자로부터 입력되는 예제 얼굴 모델에 대한 속성별 선호도를 수치화 하여 선호도 저장부(23)에 제공할 수 있다.The attribute-based preference evaluating unit 22 may provide the preference storage unit 23 with the preference for each attribute of the exemplary face model input from the subject via the environment (e.g., user interface) described above.

선호도 저장부(23)는 피실험자가 평가한 예제 얼굴 모델에 대한 속성별 선호도 수치를 피실험자 선호도 DB(200)에 저장할 수 있다. The preference storage unit 23 may store the preference value for each attribute of the example face model evaluated by the subject in the subject's preference DB 200. [

예컨대, 피실험자 선호도 DB(200)에 저장되는 속성별 선호도 수치는 도 4와 같이 예시될 수 있다. For example, the preference value for each attribute stored in the subject's preference DB 200 can be illustrated as shown in FIG.

피실험자 선호도 DB(200)에는 복수의 피실험자에 대한 속성별 선호도 수치가 저장될 수 있는데, 각각의 피실험자의 속성별 선호도 수치(201)는 복수의 예제 얼굴 모델에 대한 속성별 선호도 수치를 포함할 수 있다. 예제 얼굴 모델에 대한 속성별 선호도 수치(202)는 각 예제 모델에 대한 속성(203)과 각 속성에 대한 선호도 수치(204)를 포함할 수 있다.The subject's preference DB 200 may store a preference value by attribute for a plurality of subjects. The preference value 201 by attribute of each subject may include a preference value by attribute for a plurality of example face models . The attribute preference value 202 for the example face model may include an attribute 203 for each example model and a preference value 204 for each attribute.

본 개시의 일 실시예에서, 속성별 선호도 평가 처리부(20)가 가상 성형정보 생성 장치 내에 구비되는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니다. 다른 예로서, 속성별 선호도 평가 처리부(20)는 예제 얼굴 재생부(21), 속성별 선호도 평가부(22), 선호도 저장부(23), 예제 얼굴 모델 DB(100), 및 피실험자 선호도 DB(200)와 함께, 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 더 구비하여 별도의 속성별 선호도 평가장치로서 구비될 수도 있다. 이 경우, 속성별 선호도 평가장치는 다른 전자장치와 유/무선 통신을 통해 예제 얼굴 모델 DB(100), 및 피실험자 선호도 DB(200)에 저장된 데이터를 송수신할 수 있다. In the embodiment of the present disclosure, the attribute-based preference evaluation processing unit 20 is provided in the virtual molding information generation apparatus, but the present disclosure is not limited thereto. As another example, the attribute-based preference evaluation processing unit 20 includes an example face playback unit 21, an attribute preference evaluating unit 22, a preference storage unit 23, an example face model DB 100, and a subject preference DB Output interface 11, an input / output device 12, and a communication interface (not shown) together with the input / output interface 200, as shown in FIG. In this case, the attribute-based preference evaluating device can transmit / receive data stored in the example face model DB 100 and the subject's preference DB 200 through wired / wireless communication with other electronic devices.

또 다른 예로서, 속성별 선호도 평가장치는 예제 얼굴 재생부(21), 속성별 선호도 평가부(22), 선호도 저장부(23), 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 구비할 수 있으며, 다른 전자장치에 구비된 얼굴 모델 DB(100) 및 피실험자 선호도 DB(200)에 대응되는 데이터를 송수신할 수 있다. As another example, the attribute-based preference evaluating apparatus includes an example face reproducing unit 21, an attribute preference evaluating unit 22, a preference storing unit 23, an input / output interface 11, an input / output device 12, (Not shown), and can transmit and receive data corresponding to the face model DB 100 and the subject's preference DB 200 provided in other electronic devices.

도 5는 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 피실험자 성향 학습 처리부의 상세 구성을 도시하는 도면이다. FIG. 5 is a diagram showing a detailed configuration of a subject tendency learning processing unit provided in the virtual formed information generating apparatus according to an embodiment of the present disclosure. FIG.

본 개시의 일 실시예에 따른 피실험자 성향 학습 처리부(50)는 선호도 특성 생성부(51), 성향 분류기 학습부(52), 성향 분류기 파라미터 저장부(53), 성향 분류부(54), 및 성향별 선호도 저장부(55)를 포함할 수 있다.The subject tendency learning processing unit 50 according to an embodiment of the present disclosure includes a preference characteristic generation unit 51, a propensity classifier learning unit 52, a propensity classifier parameter storage unit 53, a propensity classifying unit 54, And a star preference storage unit 55.

선호도 특성 생성부(51)는 피 실험자별로 예제 얼굴 모델들의 속성별 선호도를 하나의 특성값으로 변환할 수 있다. 예컨대, 선호도 특성 생성부(51)는 각각의 피실험자에 대한 N개의 예제 얼굴 모델에 대한 속성별 선호도를 하나의 벡터로 변환할 수 있다. 즉, 선호도 특성 생성부(51)는 i번째 피실험자에 대한 N개의 예제 얼굴 모델에 대한 속성별 선호도를 하기의 수학식 1에 예시되는 벡터(Xi)로 변환할 수 있다. The preference characteristic generation unit 51 may convert the preference for each attribute of the example face models into one characteristic value for each subject. For example, the preference characteristic generation unit 51 may convert the preference per attribute of N sample face models for each subject into one vector. That is, the preference characteristic generation unit 51 may convert the preference for each of the N example face models for the i-th subject into the vector X i illustrated in Equation (1) below.

Figure pat00001
Figure pat00001

수학식 1에서

Figure pat00002
는 각각 k번째 예제 얼굴 모델에 대한 귀여움 속성의 선호도 수치, 섹시함 속성의 선호도 수치, 우아함 속성의 선호도 수치, 청순함 속성의 선호도 수치, 친근함 속성의 선호도 수치를 나타낸다. In Equation (1)
Figure pat00002
Represents the preference value of the cuteness attribute for the k-th example face model, the preference value of the sexy attribute, the preference value of the elegance attribute, the preference value of the innocent attribute, and the preference value of the affinity attribute.

비록 본 개시의 실시예에서, 선호도 속성을 귀여움, 섹시함, 우아함, 청순함, 친근함 등으로 예시하였으나, 본 개시가 이를 한정하는 것은 아니며, 다양하게 변경할 수 있음은 물론이다. Although embodiments of the present disclosure illustrate preference attributes as cuteness, sexyness, elegance, cleanliness, friendliness, etc., the present disclosure is not limited thereto, and may be variously changed.

성향 분류기 학습부(52)는 벡터로 변환된 각 피실험자의 선호도 벡터의 집합을 사용하여 일반적으로 비지도 학습에 사용되는 k-평균 알고리즘(k-means algorithm), 계층적 분류 알고리즘(hierarchical clustering algorithm), 평균 이동 알고리즘(mean-shift algorithm) 등을 통해 각 피실험자의 성향을 미리 정해진 수(예를 들어, M개, M은 자연수)의 피실험자 성향 그룹으로 분류할 수 있는 분류기를 구성할 수 이다. The hunting classifier learning unit 52 generates a k-means algorithm, a hierarchical clustering algorithm, and the like, which are generally used for non-background learning using a set of preference vectors of each subject converted into a vector, (For example, M, M is a natural number) of the subject's tendency through a mean-shift algorithm, for example.

성향 분류기 파라미터 저장부(53)는 구성된 성향 분류기의 동작에 필요한 파라미터 등(601, 도 6참조)을 성향 분류기 파라미터 DB(300)에 저장할 수 있다.The propensity classifier parameter storage unit 53 may store, in the propensity classifier parameter DB 300, a parameter 601 (see FIG. 6) necessary for the operation of the configured propensity classifier.

여기서 성향 분류기 파라미터는 상기 다양한 비지도 학습 분류기 알고리즘에 의해 분류기가 분류 동작할 때 필요한 파라미터이다. 예를 들어 k-평균 알고리즘을 사용한 분류기의 경우, 성향 분류기 파라미터는 정해진 그룹의 개수, 각 그룹의 평균값 등을 포함할 수 있다. Here, the propensity classifier parameter is a parameter required when the classifier classifies by the various non-geometry learning classifier algorithms. For example, in the case of a classifier using a k-means algorithm, the propensity classifier parameter may include a predetermined number of groups, an average value of each group, and the like.

성향 분류부(54)는 선호도 특성 생성부(51)를 통해 변환된 각 피실험자 선호도 특성(예, 벡터)을 성향 분류기 파라미터 DB(300)에 저장된 파라미터를 반영한 성향 분류기를 이용하여 각 피실험자별 성향을 M개의 피실험자 성향 그룹 중에 하나로 분류한다. The propensity classifying unit 54 classifies each subject's preference characteristic (e.g., vector) transformed through the preference characteristic generating unit 51 into the propensity for each subject using the propensity classifier that reflects the parameters stored in the propensity classifier parameter DB 300 It is categorized as one of the M subject-oriented groups.

나아가, 각 피실험자별 성향은 M개의 피실험자 성향 그룹 중 하나의 그룹으로 분류되는 것이 바람직하나, 하나 이상의 그룹에 속할 가능성이 있는 경우에는 복수의 그룹에 속하는 것도 가능하다. Further, it is preferable that the tendency of each subject is classified into one group among the M subject incentive groups, but it is also possible to belong to a plurality of groups if they are likely to belong to one or more groups.

성향별 선호도 저장부(55)는 피실험자 성향 분류 결과에 따라 피실험자 선호도 DB(200)에 저장되어 있는 피실험자 선도호 수치를 피실험자 성향 그룹에 따라 나누어 피실험자 선호도 보조 DB(400)에 저장할 수 있다.The preference preference storage unit 55 may store the preference score stored in the subject preference DB 200 according to the subject's preference classification result according to the subject's preference group and store the preference preference value in the subject's preference assistance DB 400.

예컨대, 피실험자 선호도 보조 DB(400)에는 복수의 DB(400-1, 400-2, ... 400-n)가 구비될 수 있으며, 각각의 피실험자 선호도 보조 DB(400-1, 400-2, ... 400-n)는 각각 피실험자 성향 그룹에 대응되도록 구비될 수 있다. 예컨대, 제1피실험자 성향 그룹에 속한 피실험자의 속성별 선호도는 제1피실험자 선호도 보조 DB(400-1)에 저장될 수 있으며, 제2피실험자 성향 그룹에 속한 피실험자의 속성별 선호도는 제2피실험자 선호도 보조 DB(400-2)에 저장될 수 있다.For example, a plurality of DBs 400-1, 400-2, ..., 400-n may be provided in the subject's affinity support DB 400, and each of the subject's affinity preferences DB 400-1, ..., 400-n may correspond to the subject's tendency group, respectively. For example, the preferences of the subjects belonging to the first subject's tendency group can be stored in the first subject's preference assistance DB 400-1, and the preference of the subjects belonging to the second subject's preference group can be stored in the second subject's preference assistance And may be stored in the DB 400-2.

본 개시의 일 실시예에서, 피실험자 성향 학습 처리부(50)가 가상 성형정보 생성 장치 내에 구비되는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니다. 다른 예로서, 피실험자 성향 학습 처리부(50)는 선호도 특성 생성부(51), 성향 분류기 학습부(52), 성향 분류기 파라미터 저장부(53), 성향 분류부(54), 및 성향별 선호도 저장부(55)와 함께, 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 더 구비하여 별도의 피실험자 성향 학습 처리장치로서 구비될 수도 있다. 이 경우, 피실험자 성향 학습 처리장치는 다른 전자장치와 유/무선 통신을 통해 예제 얼굴 모델 DB(100), 성향 분류기 파라미터 DB(300), 및 피실험자 선호도 보조 DB(400)에 저장된 데이터를 송수신할 수 있다. In the embodiment of the present disclosure, the subject-oriented learning processing unit 50 is provided in the virtual forming information generating apparatus, but the present disclosure is not limited thereto. As another example, the subject tendency learning processing unit 50 includes a preference characteristic generation unit 51, a propensity classifier learning unit 52, a propensity classifier parameter storage unit 53, a propensity classifying unit 54, Output interface 11, an input / output device 12, and a communication interface (not shown) together with the input / output interface 55, and may be provided as a separate subject's subject learning processing device. In this case, the subject's propensity learning processing apparatus can transmit and receive data stored in the example face model DB 100, the propensity classifier parameter DB 300, and the subject's preference aiding DB 400 via wired / wireless communication with other electronic devices have.

또 다른 예로서, 피실험자 성향 학습 처리장치는 선호도 특성 생성부(51), 성향 분류기 학습부(52), 성향 분류기 파라미터 저장부(53), 성향 분류부(54), 성향별 선호도 저장부(55), 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 구비할 수 있으며, 다른 전자장치에 구비된 예제 얼굴 모델 DB(100), 성향 분류기 파라미터 DB(300), 및 피실험자 선호도 보조 DB(400)에 대응되는 데이터를 송수신할 수 있다. As another example, the subject's propensity learning processing apparatus includes a preference characteristic generation unit 51, a propensity classifier learning unit 52, a propensity classifier parameter storage unit 53, a propensity classifying unit 54, a propensity preference storage unit 55 (Not shown), and an example facial model DB 100, a propensity classifier parameter DB 300, and a facial classifier parameter database 300 provided in other electronic devices, and an input / output interface 11, an input / output device 12, Data corresponding to the subject's preference sub-DB 400 can be transmitted and received.

도 8은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 사용자 성향 분류 처리부의 상세 구성을 도시하는 도면이다. 8 is a diagram showing a detailed configuration of a user propensity classification processing unit provided in the virtual formed information generation apparatus according to an embodiment of the present disclosure.

사용자 성향 분류 처리부(80)는 사용자 계정 관리부(81), 예제 얼굴 재생부(82), 속성별 선호도 평가부(83), 선호도 저장부(84), 선호도 특성 생성부(85), 사용자 성향 분류부(86), 및 사용자 성향 저정부(87)를 포함할 수 있다. The user preference classification processing unit 80 includes a user preference classifying unit 83, a preference storing unit 84, a preference characteristic generating unit 85, a user preference classifying unit 84, Unit 86, and a user propensity lowering unit 87. [

사용자 계정 관리부(81)는 사용자 계정을 관리할 수 있는 환경을 제공하고, 사용자 계정 단위로 속성별 선호도와, 사용자 성향 그룹을 저장 및 관리할 수 있다. 예를 들어, 사용자 계정 관리부(81)는 사용자 계정을 생성하는 환경을 제공하여, 사용자 계정 관리에 필요한 정보(예, 아이디, 비밀번호, 개인 식별번호, 개인인증 정보(예, 이메일, 연락처 등) 등)를 입력받아 사용자 계정을 생성할 수 있다. 사용자 계정 관리부(81)는 생성된 사용자 계정을 사용자 정보 DB(500)에 저장하여 관리할 수 있다. 그리고, 사용자 계정 관리부(81)는 사용자 계정에 접근하는데 필요한 정보(예, 아이디, 비밀번호 등)를 입력받고, 입력받은 정보가 유효한 정보일 경우에 한하여, 해당 사용자 계정에 접근할 수 있다.The user account management unit 81 provides an environment for managing user accounts, and can store and manage user preference groups and user preference groups in units of user accounts. For example, the user account management unit 81 provides an environment for creating a user account, and provides information necessary for user account management (e.g., ID, password, personal identification number, personal authentication information ) To create a user account. The user account management unit 81 can store the generated user account in the user information DB 500 and manage the same. The user account management unit 81 receives information (e.g., ID, password, etc.) necessary for accessing the user account, and can access the user account only when the received information is valid information.

예제 얼굴 재생부(82)는 사용자가 예제 얼굴의 속성별 선호도를 평가할 수 있도록 예제 얼굴 모델 DB(100)에 저장된 예제 얼굴 모델을 순차 또는 동시에 입출력 인터페이스(11)를 통해 입출력 장치(12)에 제공할 수 있다.The example face reproducer 82 sequentially provides the example face models stored in the example face model DB 100 to the input / output device 12 through the input / output interface 11 so that the user can evaluate the preference for each attribute of the example face can do.

속성별 선호도 평가부(83)는 예제 얼굴 재생부(82)가 제공하는 적어도 하나의 예제 얼굴 모델과 동기화되며, 예제 얼굴 재생부(82)에 의해 제공되는 예제 얼굴 모델에 대한 적어도 하나의 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)을 표시하고, 각 속성에 대한 선호도를 입력할 수 있는 환경(예, 사용자 인터페이스)을 제공할 수 있다.The attribute-based preference evaluating unit 83 is synchronized with at least one example face model provided by the example face reproducing unit 82 and is provided with at least one attribute (for example, (E.g., a user interface) that can display the preferences for each attribute and display preferences for each attribute (e.g., cuteness, sexyness, elegance, purity, friendliness, etc.).

또한, 속성별 선호도 평가부(83)는 전술한 환경(예, 사용자 인터페이스)을 통해 피 실험자로부터 입력되는 예제 얼굴 모델에 대한 속성별 선호도를 수치화 하여 선호도 저장부(23)에 제공할 수 있다.The attribute-based preference evaluating unit 83 may provide the preference storage unit 23 with the preference for each attribute of the example face model input from the subject via the above-described environment (e.g., user interface).

선호도 저장부(84)는 사용가 평가한 예제 얼굴 모델에 대한 속성별 선호도 수치를 저장 및 관리할 수 있다. 예를 들어, 선호도 저장부(84)는 사용가 평가한 예제 얼굴 모델에 대한 속성별 선호도 수치를 사용자 정보 DB(500)에 저장할 수 있다. The preference storage unit 84 can store and manage the preference value for each attribute of the sample face model evaluated by use. For example, the preference storage unit 84 may store the preference value by attribute for the sample face model evaluated by use in the user information DB 500. [

선호도 특성 생성부(85)는 사용자가 평가한 예제 얼굴 모델에 대한 속성별 선호도 수치를 적어도 하나의 특성값으로 변환할 수 있다. 예컨대, 선호도 특성 생성부(85)는 사용자에 대한 N개의 예제 얼굴 모델 각각에 대한 속성(예, 귀여움, 섹시함, 우아함, 청순함, 친근함 등)에 대한 선호도 수치를 적어도 하나의 벡터 값으로 변환할 수 있다. The preference property generation unit 85 may convert the preference value by attribute of the sample face model evaluated by the user into at least one property value. For example, the preference characteristic generation unit 85 generates a preference characteristic value for each of the N sample face models for the user (e.g., cute, sexy, elegant, clean, friendliness, etc.) Can be converted.

성향 분류부(86)는 상기 선호도 특성 생성부(85)에 의해 생성된 선호도 특성(예, 벡터)을, 성향 분류기 파라미터 DB(300)에 저장된 파라미터를 반영한 성향 분류기를 이용하여 사용자의 성향을 M개의 성향 그룹 중에 하나로 분류할 수 있다. The propensity classifying section 86 classifies the preference characteristic (e.g., vector) generated by the preference characteristic generating section 85 as the propensity of the user by using the propensity classifier that reflects the parameters stored in the propensity classifier parameter DB 300 as M It can be categorized into one of groups of tendency.

사용자 성향 저장부(87)는 성향 분류부(86)로부터 사용자의 성향 분류 결과를 제공받고, 이를 사용자 정보 DB(500)에 저장할 수 있다. The user propensity storage unit 87 may receive the propensity classification result of the user from the propensity classifying unit 86 and may store it in the user information DB 500.

이에 따라, 사용자 정보 DB(500)는 도 9에 예시되는 바와 같이, 사용자 계정 정보(901), 사용자 성향 그룹 정보(902), 및 예제 얼굴 모델에 대한 속성별 선호도 수치(903)를 저장 및 관리할 수 있다.9, the user information DB 500 stores and manages the user account information 901, the user preference group information 902, and the attribute preference value 903 for the example face model can do.

나아가, 예제 얼굴 재생부(82) 및 속성별 선호도 평가부(83)는 전술한 속성별 선호도 평가 처리부(20)에 구비된 예제 얼굴 재생부(21) 및 속성별 선호도 평가부(22)와 동일한 방식에 의해 예제 얼굴 모델의 재생과, 속성별 선호도 평가 동작을 수행할 수 있다. 또한, 선호도 특성 생성부(85) 및 사용자 성향 분류부(86)는 전술한 피실험자 성향 학습 처리부(50)에 구비된 선호도 특성 생성부(51) 및 성향 분류부(54)와 동일한 방식에 의해 선호도 특성을 생성하고, 사용자 성향을 분류할 수 있다. Furthermore, the example face regenerating unit 82 and the property-specific preference evaluating unit 83 are the same as the example face regenerating unit 21 and the property-specific preference evaluating unit 22 provided in the above- It is possible to perform the reproduction of the example face model and the preference evaluation operation for each attribute. The preference characteristic generating unit 85 and the user propensity classifying unit 86 classify preference characteristics by the same method as the preference characteristic generating unit 51 and the propensity classifying unit 54 provided in the above- You can create properties and classify user preferences.

한편, 본 개시의 일 실시예에서, 사용자 성향 분류 처리부(80)가 가상 성형정보 생성 장치 내에 구비되는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니다. 다른 예로서, 사용자 성향 분류 처리부(80)는 사용자 계정 관리부(81), 예제 얼굴 재생부(82), 속성별 선호도 평가부(83), 선호도 저장부(84), 선호도 특성 생성부(85), 사용자 성향 분류부(86), 사용자 성향 저정부(87), 예제 얼굴 모델 DB(100), 성향 분류기 파라미터 DB(300), 및 사용자 정보 DB(500)와 함께, 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 더 구비하여 별도의 사용자 성향 분류장치로서 구비될 수도 있다. 이 경우, 사용자 성향 분류장치는 다른 전자장치와 유/무선 통신을 통해 예제 얼굴 모델 DB(100), 성향 분류기 파라미터 DB(300), 및 사용자 정보 DB(500)에 저장된 데이터를 송수신할 수 있다. On the other hand, in the embodiment of the present disclosure, the user propensity classification processing unit 80 is provided in the virtual forming information generating apparatus, but the present disclosure is not limited thereto. As another example, the user propensity classification processing unit 80 includes a user's account management unit 81, an example face playback unit 82, a property preference evaluation unit 83, a preference storage unit 84, a preference property generation unit 85, An input / output interface 11, an input / output interface 11, an input / output interface 11, an input / output interface 11, an input / output interface 11, an input / output interface 11, An apparatus 12, and a communication interface (not shown), and may be provided as a separate user propensity classifying apparatus. In this case, the user propensity classifying device can transmit and receive data stored in the example face model DB 100, the propensity classifier parameter DB 300, and the user information DB 500 through wired / wireless communication with other electronic devices.

또 다른 예로서, 사용자 성향 분류장치는 사용자 계정 관리부(81), 예제 얼굴 재생부(82), 속성별 선호도 평가부(83), 선호도 저장부(84), 선호도 특성 생성부(85), 사용자 성향 분류부(86), 사용자 성향 저정부(87), 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 구비할 수 있으며, 다른 전자장치에 구비된 예제 얼굴 모델 DB(100), 성향 분류기 파라미터 DB(300), 및 사용자 정보 DB(500)에 대응되는 데이터를 송수신할 수 있다. As another example, the user propensity classification apparatus may include a user account management unit 81, an example face playback unit 82, a property preference evaluation unit 83, a preference storage unit 84, a preference property generation unit 85, And may include a preference classifying unit 86, a user preference lowering unit 87, an input / output interface 11, an input / output device 12, and a communication interface (not shown) The user data DB 100, the propensity classifier parameter DB 300, and the user information DB 500. [

도 10은 본 개시의 일 실시예에 따른 가상 성형정보 생성 장치에 구비되는 가상 성형정보 처리부의 상세 구성을 도시하는 도면이다. 10 is a diagram showing a detailed configuration of a virtual forming information processing unit provided in the virtual forming information generating apparatus according to an embodiment of the present disclosure.

도 10을 참조하면, 가상 성형정보 처리부(1000)는 사용자 얼굴 촬영부(1001), 사용자 얼굴 모델 생성부(1002), 사용자 얼굴 모델 저장부(1003), 속성별 선호도 조절부(1004), 선호도 중첩 가중치 생성부(1005), 선호 얼굴 모델 생성부(1006), 가상 성형 얼굴 모델 생성부(1007), 가상 성형 얼굴 모델 재생부(1008), 및 가상 성형 얼굴 모델 저장부(1009)를 포함할 수 있다.10, the virtual molding information processing unit 1000 includes a user's face photographing unit 1001, a user's face model generating unit 1002, a user's face model storage unit 1003, a property preference adjusting unit 1004, The preferred embodiment of the present invention includes the overlap weight generation unit 1005, the preferred face model generation unit 1006, the virtual molded face model generation unit 1007, the virtual molded face model reproduction unit 1008, and the virtual molded face model storage unit 1009 .

사용자 얼굴 촬영부(1001)는 적어도 하나의 카메라와, 패턴광, 깊이 센서, 레이저 등을 이용하여 객체의 3차원 데이터를 생성하는 삼차원 스캐너를 포함할 수 있다. 특히, 사용자 얼굴 촬영부(1001)는 사용자의 얼굴 영역에 대한 3차원 스캐닝을 수행하여, 사용자 얼굴 영상 데이터를 생성할 수 있다. The user's face photographing unit 1001 may include a three-dimensional scanner that generates three-dimensional data of an object using at least one camera, a pattern light, a depth sensor, a laser, and the like. In particular, the user's face photographing unit 1001 can perform three-dimensional scanning on the face region of the user to generate user face image data.

사용자 얼굴 모델 생성부(1002)는 사용자 얼굴 촬영부(1001)에서 생성된 사용자 얼굴 영상 데이터를 사용하여 사용자의 3차원 얼굴 데이터를 생성할 수 있다. 예를 들어, 사용자 얼굴 모델 생성부(1002)는 사용자 얼굴 영상 데이터를 참조 얼굴 템플릿에 적용하여 3차원 얼굴 데이터를 생성하거나, 사용자 얼굴 촬영부(1001)에 구비된 스테레오 카메라 또는 여러 대의 카메라로부터 촬영된 2장이상의 사용자 얼굴 영상 데이터로부터 3차원 얼굴 데이터를 복원하거나, 사용자 얼굴 촬영부(1001)에 구비된 깊이 센서를 통해 획득한 깊이 영상을 참조 얼굴 템플릿에 적용하여 3차원 얼굴 데이터를 복원할 수 있다. The user's face model generation unit 1002 can generate the user's three-dimensional face data using the user's face image data generated by the user's face photographing unit 1001. [ For example, the user's face model generation unit 1002 generates three-dimensional face data by applying user face image data to a reference face template, or generates three-dimensional face data from a stereo camera or a plurality of cameras provided in the user face photographing unit 1001 Dimensional face data can be restored by restoring the three-dimensional face data from two or more user face image data obtained by the user face photographing unit 1001 or applying the depth image acquired through the depth sensor provided in the user face photographing unit 1001 to the reference face template have.

나아가, 사용자 얼굴 모델 생성부(1002)는 Blanz 1999 방식(V. Blanz and T. Vetter, “A morphable model for the synthesis of 3D faces,” In Proc. ACM SIGGRAPH, Los Angeles, CA, 1999.), Sumner2004 방식(R. W. Sumner, J. Popovic, “Deformation transfer for triangle meshes,” In Proc. ACM SIGGRAPH, Los Angeles, CA, 2004.), Beeler2010 방식(T. Beeler, B. Bickel, P. Beardsley, R. Sumner, M. Gross, “High-Quality Single-Shot Capture of Facial Geometry,” Proc. ACM SIGGRAPH, Los Angeles, CA, 2010.), Roth2016 방식(J. Roth, Y. Tong, X. Liu, “Adaptive 3D Face Reconstruction from Unconstrained Photo Collections,” Proc. IEEE Computer Vision and Pattern Recognition(CVPR 2016), Las Vegas, NV, Jun. 2016), Kazemi2014 방식(V. Kazemi, C. Keskin, J. Taylor, P. Kohli, and S. Izadi, “Real-time Face Reconstruction from a Single Depth Image,” In Proc. International Conference in 3D Vision (3DV 2014), Tokyo, Japan, Dec. 2014.) 등의 방식 중, 적어도 하나의 방식에 기초하여 3차원 얼굴 데이터 복원을 처리할 수 있다. Further, the user's face model generation unit 1002 may be configured to generate the user's face using the Blanz 1999 method (V. Blanz and T. Vetter, "A morphable model for the synthesis of 3D faces," In Proc. ACM SIGGRAPH, Los Angeles, (Sumner 2004, RW Sumner, J. Popovic, Deformation transfer for triangle meshes, In Proc. ACM SIGGRAPH, Los Angeles, CA, 2004); Beeler 2010 system (T. Beeler, B. Bickel, P. Beardsley, R. J. Roth, Y. Tong, X. Liu, " Adaptive < / RTI > 3D Face Reconstruction from Unconstrained Photo Collections, Proc. IEEE Computer Vision and Pattern Recognition (CVPR 2016), Las Vegas, NV, Jun. 2016), Kazemi2014 method (V. Kazemi, C. Keskin, J. Taylor, P. Kohli , and S. Izadi, "Real-time Face Reconstruction from a Single Depth Image," In Proc. International Conference on 3D Vision (3DV 2014), Tokyo, Japan, Dec. 2014.) On Seconds may process the three-dimensional face data restoring.

사용자 얼굴 모델 저장부(1003)는 사용자 얼굴 모델 생성부(1002)에 의해 생성된 3차원 얼굴 데이터를 사용자 정보 DB(500)에 저장할 수 있다.The user's face model storage unit 1003 can store the three-dimensional face data generated by the user's face model generation unit 1002 in the user information DB 500.

속성별 선호도 조절부(1004)는 사용자 정보 DB(500)에 저장된 사용자의 속성별 선호도(이하, '제1속성별 선호도'라 함)를 입출력 인터페이스(11)와 입출력 장치(12)를 통해 표시하면서, 사용자의 속성별 선호도를 수정할 수 있는 환경을 제공할 수 있다. 이를 통해, 속성별 선호도 조절부(1004)는 사용자에 의해 수정된 속성별 선호도(이하, '제2속성별 선호도'라 함)를 확인할 수 있다.The attribute preference adjusting unit 1004 displays the user preference for each attribute stored in the user information DB 500 through the input / output interface 11 and the input / output device 12 , It is possible to provide an environment in which the preference of each user can be modified. Accordingly, the preference-by-attribution adjusting unit 1004 can confirm the preference for each attribute (hereinafter, referred to as 'preference for each second attribute') modified by the user.

선호도 중첩 가중치 생성부(1005)는 속성별 선호도 조절부(1004)로부터 제1속성별 선호도와 제2속성별 선호도를 제공받을 수 있다. 그리고, 선호도 중첩 가중치 생성부(1005)는 사용자 성향 그룹에 대응되는 피실험자 선호도 보조DB(400)로부터 피실험자의 속성별 선호도(이하, '제3속성별 선호도'라 함)를 확인할 수 있다.The preference overlap weight generation unit 1005 may receive the preference for each first attribute and the preference for each second attribute from the per attribute preference adjuster 1004. The preference overlap weight generation unit 1005 can check the preference of each participant (hereinafter referred to as 'preference for each third property') from the subject's preference aiding DB 400 corresponding to the user preference group.

나아가, 선호도 중첩 가중치 생성부(1005)는 제1, 제2, 및 제3속성별 선호도중 적어도 하나를 조합하여 선호도 가중치 정보를 생성할 수 있다. Furthermore, the preference overlap weight generation unit 1005 may generate preference weight information by combining at least one of the first, second, and third preference preferences.

제1속성별 선호도(Eu)는 하기의 수학식 2와 같이 예시할 수 있으며, 제2속성별 선호도(b)는 하기의 수학식 3과 같이 예시할 수 있으며, 제3속성별 선호도는 하기의 수학식 4와 같이 예시할 수 있다. The preference (E u ) for each first attribute can be illustrated as the following Equation (2), the preference for each second attribute (b) can be exemplified as the following Equation (3) (4) " (4) "

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

수학식 4에서, Eii번째 피실험자에 대한 속성별 선호도를 나타낸다. 그리고, 제3속성별 선호도는 사용자 성향 그룹에 대응되는 피실험자 선호도 보조DB(400)에 포함되는 복수의 피실험자에 대한 속성별 선호도이므로, 복수의 피 실험자의 수(P)만큼의 속성별 선호도를 포함할 수 있으며, 이를 고려하여 하기의 수학식 5와 같이 나타낼 수 있다.In Equation (4), E i represents the preference of each i- th subject for each attribute. The preference by the third attribute is preference by attribute for a plurality of subjects included in the subject's preference sub-DB 400 corresponding to the user preference group, so that the preference for each attribute by the number P of the plurality of subjects is included And can be represented as Equation (5) below.

Figure pat00006
Figure pat00006

다른 예로서, 선호도 중첩 가중치 생성부(1005)는 제1 및 제3속성별 선호도를 조합하여 하기의 수학식 6과 같이 구성할 수 있다. As another example, the preference overlap weight generation unit 1005 may be configured as shown in Equation (6) by combining preferences for the first and third attributes.

Figure pat00007
Figure pat00007

다른 예로서, 선호도 중첩 가중치 생성부(1005)는 제3속성별 선호도를 배제하고, 제1속성별 선호도만을 이용하여 하기의 수학식 7과 같이 구성할 수 있다. As another example, the preference overlap weight generation unit 1005 may be configured as shown in Equation (7) using only the preference for each first attribute, excluding the preference for each third preference.

Figure pat00008
Figure pat00008

한편, 선호도 중첩 가중치 생성부(1005)는 제1, 제2, 및 제3속성별 선호도 중 적어도 하나를 조합하여 선호도 가중치 정보를 생성할 수 있는데, 선호도 가중치 정보는 제1, 제2, 및 제3속성별 선호도와 하기의 수학식 8과 같은 관계임을 예시할 수 있다.On the other hand, the preference weighting weight generator 1005 may generate preference weighting information by combining at least one of preferences of the first, second, and third attributes. The preference weighting information may be weighted by the first, 3 property and the following equation (8).

Figure pat00009
Figure pat00009

또한, 선호도 가중치 정보는 예제 얼굴 모델을 중첩하여 선호 얼굴 모델을 구성하는게 사용하기 위한 것으로써, 각 예제 얼굴 모델에 대한 가중치를 포함하여 구성될 수 있다. 이를 고려하여 선호도 가중치 정보는 하기의 수학식 9와 같이 나타낼 수 있다.In addition, the preference weight information is used for constructing the preferred face model by superimposing the example face models, and may include the weight values for the respective example face models. The preference weight information can be expressed by Equation (9) below.

Figure pat00010
Figure pat00010

수학식 9에서, Wl은 l번째(l은 자연수) 얼굴 모델에 대한 가중치를 나타낼 수 있다. 나아가, 선호도 가중치 정보(W)는

Figure pat00011
이고,
Figure pat00012
의 조건을 만족하여야만 왜곡 없이 선호 얼굴 모델의 생성이 가능하다. 따라서, 선호도 중첩 가중치 생성부(1005)는 전술한 수학식 8과 선호도 가중치 정보(W)의 제약 조건(
Figure pat00013
,
Figure pat00014
)을 동시에 만족하는 가중치 정보를 Quadratic programming 기법을 통해 산출할 수 있다. In Equation (9), W l can represent a weight for the l-th (l is a natural number) face model. Further, the preference weight information W
Figure pat00011
ego,
Figure pat00012
It is possible to generate the preferred face model without distortion. Therefore, the preference overlap weight generation unit 1005 generates the preference weight weight value W based on the above-described Equation (8) and constraint conditions of the preference weight information W
Figure pat00013
,
Figure pat00014
) Can be calculated through the quadratic programming technique.

또한, 다른 예로서, 선호도 중첩 가중치 생성부(1005)는 가중치 정보(W)에 대한 견고한 조건(hard constraints)(

Figure pat00015
,
Figure pat00016
)을 전술한 수학식 8에 부드러운 조건(soft constraints)으로 변형 및 반영하여 가중치 정보를 산출할 수도 있다. As another example, the preference overlapping weight generator 1005 may generate hard constraints for the weight information W (e.g.,
Figure pat00015
,
Figure pat00016
) May be transformed into soft constraints in Equation (8) to reflect the weight information.

한편, 선호 얼굴 모델 생성부(1006)는 가중치 정보(W)를 각 대응하는 예제 얼굴 모델을 구성하는 형태 정보의 정점 데이터에 적용하고, 적용된 예제 얼굴 모델을 조합하여 선호 얼굴 모델을 생성할 수 있다. On the other hand, the preferred face model generation unit 1006 can apply the weight information W to the vertex data of the type information constituting each corresponding example face model, and generate the preferred face model by combining the applied example face models .

가상 성형 얼굴 모델 생성부(1007)는 사용자 정보 DB(500)에 저장된 사용자 얼굴 모델에, Deformation Gradient 방법에 기초하여 선호 얼굴 모델 생성부(1006)에서 생성된 선호 얼굴 모델의 변형을 적용함으로써, 사용자 얼굴 모델에 대한 정점의 위치가 변경된 가상 성형 얼굴 모델을 생성할 수 있다. 예컨대, 가상 성형 얼굴 모델 생성부(1007)는 하기의 수학식 10의 연산을 통해 가상 성형 얼굴 모델을 생성할 수 있다. The virtual formed face model generation unit 1007 applies deformation of the favorite face model generated in the preferred face model generation unit 1006 to the user's face model stored in the user information DB 500 based on the Deformation Gradient method, It is possible to generate a virtual formed face model in which the position of a vertex of the face model is changed. For example, the virtual formed face model generation unit 1007 can generate a virtual formed face model through the calculation of Equation (10).

Figure pat00017
Figure pat00017

수학식 10에서,

Figure pat00018
은 전체 삼각 메쉬의 수, j는 삼각 메쉬의 인덱스,
Figure pat00019
Figure pat00020
는 각각 선호 얼굴 모델과 사용자 얼굴의 j번째 메쉬의 3x3 변환 함수를 나타낸다. 그리고, 각 정점이 한 점에서 만나는 조건(
Figure pat00021
)에서 각 메쉬의 변환 함수의 frobenius 거리를 최소화하는 정점들(
Figure pat00022
)을 산출할 수 있다. In Equation (10)
Figure pat00018
Is the total number of triangular meshes, j is the triangular mesh index,
Figure pat00019
Wow
Figure pat00020
Represent the 3x3 transform functions of the preferred face model and the jth mesh of the user's face, respectively. Then, the condition that each vertex meets at one point (
Figure pat00021
) Vertices minimizing the frobenius distance of each mesh's transform function (
Figure pat00022
) Can be calculated.

나아가, 가상 성형 얼굴 모델 생성부(1007)는 사용자의 취향을 반영하기 위해, 사용자 얼굴 모델에 전술한 가중치를 반영하고, 가중치가 반영된 사용자 얼굴 모델을 전술한 수학식 10을 통해 생성된 가상 성형 얼굴 모델과 선형 중첩 처리함으로써 최종 가상 성형 얼굴 모델을 생성할 수도 있다. Further, in order to reflect the user's taste, the virtual molded face model generation unit 1007 reflects the user's face model to the user's face model, and stores the user's face model in which the weight is reflected, The final virtual molded face model can be generated by linear superposition processing with the model.

가상 성형 얼굴 모델 재생부(1008)는 가상 성형 얼굴 모델 생성부(1007)로부터 가상 성형 얼굴 모델(또는 최종 가상 성형 얼굴 모델)을 제공받고, 입출력 인터페이스(11) 및 입출력 장치(12)를 통해 가상 성형 얼굴 모델(또는 최종 가상 성형 얼굴 모델)을 표시할 수 있다. The virtual molded face model reproduction unit 1008 receives the virtual molded face model (or the final virtual molded face model) from the virtual molded face model generation unit 1007 and receives the virtual molded face model A molded face model (or a final virtual molded face model) can be displayed.

한편, 가상 성형 얼굴 모델 저장부(1009)는 가상 성형 얼굴 모델 생성부(1007)가 생성한 가상 성형 얼굴 모델(또는 최종 가상 성형 얼굴 모델)을 사용자 정보 DB(500)에 저장 및 관리할 수 있다. On the other hand, the virtual molded face model storage unit 1009 can store and manage the virtual molded face model (or the last virtual molded face model) generated by the virtual molded face model generation unit 1007 in the user information DB 500 .

본 개시의 일 실시예에서, 가상 성형정보 처리부(1000)가 가상 성형정보 생성 장치 내에 구비되는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니다. 다른 예로서, 가상 성형정보 처리부(1000)는 사용자 얼굴 촬영부(1001), 사용자 얼굴 모델 생성부(1002), 사용자 얼굴 모델 저장부(1003), 속성별 선호도 조절부(1004), 선호도 중첩 가중치 생성부(1005), 선호 얼굴 모델 생성부(1006), 가상 성형 얼굴 모델 생성부(1007), 가상 성형 얼굴 모델 재생부(1008), 가상 성형 얼굴 모델 저장부(1009), 예제 얼굴 모델 DB(100), 피실험자 선호도 보조 DB(400), 및 사용자 DB(500)와 함께, 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 더 구비하여 별도의 가상 성형정보 처리장치로서 구비될 수도 있다. 이 경우, 가상 성형정보 처리장치는 다른 전자장치와 유/무선 통신을 통해 예제 얼굴 모델 DB(100), 피실험자 선호도 보조 DB(400), 및 사용자 DB(500)에 저장된 데이터를 송수신할 수 있다. In the embodiment of the present disclosure, the virtual forming information processing unit 1000 is provided in the virtual forming information generating apparatus, but the present disclosure is not limited thereto. As another example, the virtual molding information processing unit 1000 includes a user's face photographing unit 1001, a user's face model generating unit 1002, a user's face model storage unit 1003, a preference degree adjusting unit 1004, A virtual formed face model storage unit 1009, a sample facial model DB 1002, a virtual face model storage unit 1004, Input interface 11, input / output device 12, and communication interface (not shown) together with the user's personal preference information processing device 100, subject's affinity assist DB 400 and user DB 500, As shown in FIG. In this case, the virtual molding information processing device can transmit and receive data stored in the example face model DB 100, the subject's preference aiding DB 400, and the user DB 500 via wired / wireless communication with other electronic devices.

또 다른 예로서, 가상 성형정보 처리장치(1000)는 사용자 얼굴 촬영부(1001), 사용자 얼굴 모델 생성부(1002), 사용자 얼굴 모델 저장부(1003), 속성별 선호도 조절부(1004), 선호도 중첩 가중치 생성부(1005), 선호 얼굴 모델 생성부(1006), 가상 성형 얼굴 모델 생성부(1007), 가상 성형 얼굴 모델 재생부(1008), 가상 성형 얼굴 모델 저장부(1009), 입출력 인터페이스(11), 입출력 장치(12), 및 통신 인터페이스(미도시)를 구비할 수 있으며, 다른 전자장치에 구비된 예제 얼굴 모델 DB(100), 피실험자 선호도 보조 DB(400), 및 사용자 DB(500)에 대응되는 데이터를 송수신할 수 있다. As another example, the virtual forming information processing apparatus 1000 includes a user's face photographing section 1001, a user's face model generating section 1002, a user's face model storing section 1003, a property preference adjusting section 1004, A virtual molding face model storage unit 1009, a virtual molding face model storage unit 1009, an input / output interface (I / O) interface unit 1005, a preferred face model generation unit 1006, An object model DB 100, a subject's preference aiding DB 400, and a user DB 500, which are provided in other electronic devices, can be included in the input / output device 11, the input / output device 12, and the communication interface (not shown) And can transmit and receive data corresponding to the data.

도 11은 본 개시의 일 실시예에 따른 일 실시예에 따른 가상 성형정보 생성 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다. 11 is a block diagram illustrating a computing system that executes a virtual forming information generating apparatus according to an embodiment of the present disclosure.

도 11을 참조하면, 컴퓨팅 시스템은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.11, a computing system includes at least one processor 1100, a memory 1300, a user interface input device 1400, a user interface output device 1500, a storage 1600, , And a network interface 1700. [

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a memory device 1300 and / or a semiconductor device that performs processing for instructions stored in the storage 1600. Memory 1300 and storage 1600 may include various types of volatile or non-volatile storage media. For example, the memory 1300 may include a ROM (Read Only Memory) and a RAM (Random Access Memory).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Thus, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by processor 1100, or in a combination of the two. The software module may reside in a storage medium (i.e., memory 1300 and / or storage 1600) such as a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, You may. An exemplary storage medium is coupled to the processor 1100, which can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral to the processor 1100. [ The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (1)

적어도 하나의 피실험자로부터, 미리 정해진 적어도 하나의 예제 얼굴 모델에 대한 속성별 선호도를 입력받아 저장하는 속성별 선호도 평가 처리부와,
상기 적어도 하나의 피실험자의 속성별 선호도에 기초하여, 상기 적어도 하나의 피실험자를 미리 정해진 복수의 성향 그룹으로 분류 및 관리하는 피실험자 성향 학습 처리부와,
사용자로부터 상기 미리 정해진 적어도 하나의 예제 얼굴 모델에 대한 속성별 선호도를 입력받고, 입력받은 상기 속성별 선호도에 기초하여 상기 적어도 하나의 사용자의 성향 그룹을 결정하는 사용자 성향 분류 처리부와,
상기 사용자의 속성별 선호도와, 상기 사용자의 성향 그룹에 대응되는 상기 피실험자의 속성별 선호도에 기초한 선호 얼굴 모델을 생성하고, 상기 선호 얼굴 모델을 상기 사용자의 얼굴 모델에 적용하여 가상 성형 얼굴 모델을 생성하는 가상 성형정보 처리부를 포함함을 특징으로 하는 가상 얼굴 성형 장치.
A preference-based preference evaluation processing unit for receiving and storing preference-by-attribute preferences for at least one predetermined example face model from at least one subject,
A subject tendency learning processing unit for classifying and managing the at least one subject to a predetermined plurality of tendency groups on the basis of the preference for each attribute of the at least one subject,
A user propensity classifying processor for receiving a preference for each attribute of the predetermined at least one example face model from a user and determining a propensity group of the at least one user based on the preference for each attribute,
A preferred face model is generated based on the user's preference for each attribute and the user's preference for the attribute of the user corresponding to the user's preference group and the preferred face model is applied to the user's face model And a virtual molding information processing unit for performing virtual molding of the virtual face.
KR1020170167638A 2016-12-07 2017-12-07 Apparatus for virtual plastic surgery based on subjective preference and method for the same KR102147061B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160165986 2016-12-07
KR1020160165986 2016-12-07

Publications (2)

Publication Number Publication Date
KR20180065951A true KR20180065951A (en) 2018-06-18
KR102147061B1 KR102147061B1 (en) 2020-08-28

Family

ID=62767747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167638A KR102147061B1 (en) 2016-12-07 2017-12-07 Apparatus for virtual plastic surgery based on subjective preference and method for the same

Country Status (1)

Country Link
KR (1) KR102147061B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102588813B1 (en) * 2022-07-18 2023-10-12 이옥희 System for recommending eyebrow treatment customized based on artificial intelligence vision verification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000635A (en) * 2007-03-12 2009-01-08 주식회사 케이티 3d face modeling system and method considering the individual's preferences for beauty
KR20140006138A (en) * 2012-06-26 2014-01-16 동서대학교산학협력단 Virtual cosmetic surgery device and virtual cosmetic surgery system thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000635A (en) * 2007-03-12 2009-01-08 주식회사 케이티 3d face modeling system and method considering the individual's preferences for beauty
KR20140006138A (en) * 2012-06-26 2014-01-16 동서대학교산학협력단 Virtual cosmetic surgery device and virtual cosmetic surgery system thereof

Also Published As

Publication number Publication date
KR102147061B1 (en) 2020-08-28

Similar Documents

Publication Publication Date Title
US20210406987A1 (en) Recommendation system, method and computer program product based on a user's physical features
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
Cheng et al. Structure-preserving neural style transfer
US10031351B2 (en) Method and system to create custom, user-specific eyewear
Zhu et al. Barbershop: Gan-based image compositing using segmentation masks
Kemelmacher-Shlizerman et al. Illumination-aware age progression
CN104715023B (en) Method of Commodity Recommendation based on video content and system
TWI573093B (en) Method of establishing virtual makeup data, electronic device having method of establishing virtual makeup data and non-transitory computer readable storage medium thereof
JP6956389B2 (en) Makeup support device and makeup support method
WO2020216033A1 (en) Data processing method and device for facial image generation, and medium
JP2008538998A (en) Use of time when recognizing a person in an image
JP2001268594A (en) Client server system for three-dimensional beauty simulation
JP6207210B2 (en) Information processing apparatus and method
US11507781B2 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
Kezebou et al. TR-GAN: Thermal to RGB face synthesis with generative adversarial network for cross-modal face recognition
Jampour et al. Face inpainting based on high-level facial attributes
US20230090253A1 (en) Systems and methods for authoring and managing extended reality (xr) avatars
CN107145741B (en) Ear diagnosis data acquisition method and device based on image analysis
Chandaliya et al. Child face age progression and regression using self-attention multi-scale patch gan
Carrigan et al. Expression Packing: As‐Few‐As‐Possible Training Expressions for Blendshape Transfer
Sadhya et al. A comprehensive survey of unimodal facial databases in 2D and 3D domains
Lienhard et al. How to predict the global instantaneous feeling induced by a facial picture?
KR102147061B1 (en) Apparatus for virtual plastic surgery based on subjective preference and method for the same
CN112991003A (en) Private customization method and system
KR20100137964A (en) System and method for providing service of child's fortune telling using face recognition technology

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant