KR101959253B1 - Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup - Google Patents

Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup Download PDF

Info

Publication number
KR101959253B1
KR101959253B1 KR1020180073624A KR20180073624A KR101959253B1 KR 101959253 B1 KR101959253 B1 KR 101959253B1 KR 1020180073624 A KR1020180073624 A KR 1020180073624A KR 20180073624 A KR20180073624 A KR 20180073624A KR 101959253 B1 KR101959253 B1 KR 101959253B1
Authority
KR
South Korea
Prior art keywords
makeup
color
image
instruction
unit
Prior art date
Application number
KR1020180073624A
Other languages
Korean (ko)
Other versions
KR20180080703A (en
Inventor
곽택종
안명진
김혜련
명준오
황윤정
이상민
이천구
장민열
Original Assignee
주식회사 엘지생활건강
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지생활건강 filed Critical 주식회사 엘지생활건강
Priority to KR1020180073624A priority Critical patent/KR101959253B1/en
Publication of KR20180080703A publication Critical patent/KR20180080703A/en
Application granted granted Critical
Publication of KR101959253B1 publication Critical patent/KR101959253B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 실제 화장 행동양식을 반영한 메이크업 시뮬레이션 장치 및 방법에 관한 것으로, 얼굴이 포함된 제1 이미지를 획득하는 단계, 메이크업 영역을 선택하는 제1 명령을 수신하는 단계, 그라데이션 효과를 선택하는 제2 명령을 수신하는 단계 및 얼굴 중 제1 명령에 의해 선택된 메이크업 영역에 제2 명령에 따른 그라데이션 효과를 적용한 이미지를 표시하는 단계를 포함할 수 있다.The present invention relates to an apparatus and method for making a makeup simulation that reflects an actual makeup behavior pattern, comprising: acquiring a first image including a face; receiving a first command for selecting a makeup region; And displaying an image obtained by applying a gradation effect according to the second instruction to the makeup area selected by the first one of the faces.

Description

실제 화장 행동양식을 반영한 메이크업 시뮬레이션 장치 및 방법{Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a makeup simulation apparatus and a makeup simulation method,

본 발명은 가상 메이크업 시뮬레이션 장치 및 방법에 관한 것으로, 보다 상세하게는, 사람들의 실제 화장 행동양식을 반영한 메이크업 시뮬레이션 장치 및 방법에 관한 것이다.The present invention relates to a virtual makeup simulation apparatus and method, and more particularly, to an apparatus and method for makeup simulation that reflects people's actual makeup behavior patterns.

본 발명은 복수의 색상선택과 사용으로 인한 효과 또는 그라데이션 효과와 같은 메이크업의 다양한 행동 양식을 구현함으로써 자연스러운 가상 메이크업 시뮬레이션을 제공하는 메이크업 시뮬레이션 장치 및 방법에 관한 것이다.The present invention is directed to a makeup simulation apparatus and method that provides natural virtual makeup simulations by implementing various behavioral styles of makeup, such as effects or gradient effects resulting from multiple color selection and use.

최근 사람들의 화장품 및 메이크업 방법에 관한 관심이 더욱 증가하고 있다. 시중에는 매우 다양한 화장품이 판매되고 있으며, 기능이 유사한 화장품들도 매우 다양하게 존재한다.Recently, interest in cosmetics and make-up methods of people is increasing. A wide variety of cosmetics are on the market, and cosmetics with similar functions are available in a wide variety.

사람들은 자신의 피부가 지성, 중성, 건성인지 여부에 따라서 화장품과 메이크업 방법을 선택하기도 하며, 트러블이 많은지 피지가 많은지 피부색이 어떤지에 따라서 서로 다른 화장품을 사용한다.People choose cosmetics and makeup methods depending on whether their skin is oily, neutral, or dry, and use different cosmetics depending on whether they have a lot of trouble, sebum or skin color.

또한, 사람들은 나이, 트렌드, 외출장소에 따라서 사용하는 화장품이나 메이크업 방식을 변경하기도 한다.People also change their cosmetics and makeup methods depending on their age, trends, and places of outing.

그러나, 너무나 다양한 화장품이 판매되고 있으며, 매일 새로운 제품이 나오고, 새로운 메이크업 방법이 제시되고 있는 실정에서, 사람들은 자신에게 적합하고 필요한 제품에 대한 정보를 획득하기 힘든 실정이다.However, since so many different cosmetics are sold, new products come out every day and new make-up methods are presented, it is difficult for people to obtain information about products that are suitable for them.

사람들은 자신에게 맞는 메이크업 방법을 알기 위하여 많은 시행착오를 거치며 자신의 얼굴에 직접 메이크업을 해본다. 그러나, 이러한 방법은, 너무나 많은 시간과 비용이 발생하며, 피부 트러블 발생의 원인이 되기도 한다.People try to make make-up on their own face by going through many trial and error in order to know the make-up method suitable for them. However, such a method causes too much time and expense, and causes skin troubles.

따라서, 사람들이 보다 쉽게 자신이 원하는 메이크업 방법과 메이크업에 사용되는 화장품을 알 수 있는 방법이나 장치가 필요하다.Thus, there is a need for a method or apparatus that allows people to more easily understand the makeup method they want and the cosmetic used for makeup.

최근에 자신의 사진에 가상적으로 메이크업을 할 수 있는 장치들이 나오고 있으나, 하나의 색상을 선택하면 그 색이 사진에 입혀지는 방식으로 실제 화장과는 달리 부자연스러운 문제가 있다.In recent years, there have been devices that can make makeup virtually on their own photographs. However, there is an unnatural problem that unlike actual makeup, the way a color is picked up in a photo is selected.

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 복수 색상의 화장품을 덧바르는 행위, 그라데이션 효과를 주는 행위 등 실제 화장의 다양한 행동양식을 제공하는 가상 메이크업 방법 및 장치를 제공하는 것을 목적으로 한다SUMMARY OF THE INVENTION It is an object of the present invention to provide a virtual make-up method and apparatus for providing a variety of behaviors of actual makeup, such as applying a cosmetic product of a plurality of colors, or giving a gradation effect

상기한 목적을 달성하기 위한 가상 메이크업 시뮬레이션 방법은, 가상적으로 메이크업을 시뮬레이션하는 방법에 있어서, 얼굴이 촬영된 이미지를 획득하는 이미지 획득단계; 색상 정보를 수신하는 색상정보 수신단계; 그라데이션(Gradation) 정보를 수신하는 그라데이션정보 수신단계; 및 상기 수신한 색상 정보 및 상기 수신한 그라데이션 정보를 이용하여 상기 획득한 얼굴이 촬영된 이미지에 적용하는 이미지 적용단계를 포함하는 것을 특징으로 한다.A virtual makeup simulation method for achieving the above object is a method for simulating makeup virtually, comprising the steps of: acquiring an image of a face; A color information receiving step of receiving color information; A gradation information receiving step of receiving gradation information; And an image applying step of applying the acquired face information to the photographed image using the received color information and the received gradation information.

바람직하게는, 상기 가상 메이크업 시뮬레이션 방법은, 상기 획득한 얼굴이 촬영된 이미지를 이용하여 화장 영역을 선택하는 메이크업 적용단계를 더 포함하는 것을 특징으로 한다.Preferably, the virtual makeup simulation method further comprises a makeup applying step of selecting a makeup area using the captured image of the obtained face.

바람직하게는, 상기 색상 정보는 단색, 적어도 둘 이상의 색, 혼합하고자 하는 적어도 둘 이상의 색 또는 덧바르고자 하는 적어도 둘이상의 색 중 적어도 어느 하나인 것을 특징으로 한다.Preferably, the color information is at least one of a monochromatic color, at least two colors, at least two colors to be mixed, or at least two colors to be superimposed.

바람직하게는, 상기 그라데이션 정보는 선형, 방사형, 사각형 또는 경로형 중 적어도 어느 하나인 것을 특징으로 한다.Preferably, the gradient information is at least one of linear, radial, quadrangular, or path type.

바람직하게는, 상기 가상 메이크업 시뮬레이션 방법은, 상기 수신된 색상정보, 상기 수신된 그라데이션 정보 및 상기 이미지 적용단계에서 적용된 이미지에 관한 정보를 저장하는 설정방법 저장단계를 더 포함하는 것을 특징으로 한다.Preferably, the virtual makeup simulation method further includes a setting method storing step of storing information on the received color information, the received gradation information, and an image applied in the image applying step.

상기한 목적을 달성하기 위한 가상 메이크업 시뮬레이션 장치는, 가상적으로 메이크업을 시뮬레이션하는 장치에 있어서, 얼굴이 촬영된 이미지를 획득하는 이미지 획득부; 색상 정보를 수신하는 색상정보 수신부; 그라데이션(Gradation) 정보를 수신하는 그라데이션정보 수신부; 및 상기 수신한 색상 정보 및 상기 수신한 그라데이션 정보를 이용하여 상기 획득한 얼굴이 촬영된 이미지에 적용하는 이미지 적용부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an apparatus for simulating makeup, the apparatus comprising: an image acquiring unit for acquiring an image of a face; A color information receiver for receiving color information; A gradation information receiving unit for receiving gradation information; And an image application unit for applying the acquired face information to the photographed image using the received color information and the received gradation information.

바람직하게는, 상기 가상 메이크업 시뮬레이션 장치는, 상기 획득한 얼굴이 촬영된 이미지를 이용하여 화장 영역을 선택하는 메이크업 적용부를 더 포함하는 것을 특징으로 한다.Preferably, the virtual make-up simulation apparatus further includes a makeup application unit for selecting a makeup area using the captured image of the obtained face.

바람직하게는, 상기 색상 정보는 단색, 적어도 둘 이상의 색, 혼합하고자 하는 적어도 둘 이상의 색 또는 덧바르고자 하는 적어도 둘이상의 색 중 적어도 어느 하나인 것을 특징으로 한다.Preferably, the color information is at least one of a monochromatic color, at least two colors, at least two colors to be mixed, or at least two colors to be superimposed.

바람직하게는, 상기 그라데이션 정보는 선형, 방사형, 사각형 또는 경로형 중 적어도 어느 하나인 것을 특징으로 한다.Preferably, the gradient information is at least one of linear, radial, quadrangular, or path type.

바람직하게는, 상기 수신된 색상정보, 상기 수신된 그라데이션 정보 및 상기 이미지 적용부에서 적용된 이미지에 관한 정보를 저장하는 설정방법 저장부를 더 포함하는 것을 특징으로 한다.Preferably, the image processing apparatus further includes a setting method storing unit that stores the received color information, the received gradation information, and information on an image applied by the image applying unit.

본 발명은 사용자가 자신의 얼굴이 촬영된 사진에 자연스럽고 다양한 방식으로 메이크업을 해봄으로써, 자신의 얼굴에 적합한 메이크업 방식을 적은 시행착오만으로도 찾을 수 있다.The present invention allows a user to make-up a makeup method suitable for his / her face by trial and error by making a makeup in a natural and various manner to a photograph of his / her face.

도 1은 본 발명의 바람직한 실시예에 따른 가상 메이크업 시뮬레이션 장치에 관한 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 가상 메이크업 시뮬레이션 방법에 관한 흐름도이다.
1 is a block diagram of a virtual makeup simulation apparatus according to a preferred embodiment of the present invention.
FIG. 2 is a flowchart of a virtual makeup simulation method according to a preferred embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하의 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the following description and the accompanying drawings, substantially the same components are denoted by the same reference numerals, respectively, and redundant description will be omitted. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

어떤 구성요소가 다른 구성요소에 “연결되어”있다거나 “접속되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다거나 “직접 접속되어”있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

도 1은 본 발명의 바람직한 실시예에 따른 가상 메이크업 시뮬레이션 장치에 관한 블록도이다.1 is a block diagram of a virtual makeup simulation apparatus according to a preferred embodiment of the present invention.

도 1을 참조하면, 이미지 획득부(110), 이미지 분석부(120), 화장방법 선택부(130), 메이크업 적용부(150), 메이크업 적용부(150) 및 설정방법 저장부(160)를 포함한다.1, an image obtaining unit 110, an image analyzing unit 120, a makeup method selecting unit 130, a makeup applying unit 150, a makeup applying unit 150, and a setting method storing unit 160 .

이미지 획득부(110)는, 얼굴이 촬영된 이미지를 획득한다. 얼굴이 촬영된 이미지는 사진 뿐만 아니라 동영상을 포함할 수 있다.The image obtaining unit 110 obtains an image of a face. An image in which a face is photographed can include not only a photograph but also a moving image.

이미지 분석부(120)는 이미지 획득부(110)에서 획득된 이미지에서 얼굴을 분석하여 이미지의 얼굴부분에서 각 영역을 분할한다. 분할된 영역에 관한 정보는 메이크업영역 선택부(140)에서 이용될 수 있다.The image analyzer 120 analyzes the face of the image obtained by the image acquiring unit 110 and divides each region in the face portion of the image. Information on the divided area can be used in the makeup area selection unit 140. [

각 영역을 분할하는 것은, 메이크업 방법에 상이한 점이 많은 눈, 눈썹, 입술, 볼 또는 코 등을 구분하기 위한 것이다.The division of each region is intended to distinguish the eyes, eyebrows, lips, balls or nose which have many differences in the make-up method.

이미지 분석부(120)는 획득된 이미지에서 특징점을 추출하여 눈, 코 및 입을 판단하는 방식으로 얼굴을 분석할 수 있다.The image analyzer 120 may analyze the face by extracting the feature points from the acquired image to determine the eyes, nose, and mouth.

또한, 이미지 분석부(120)는 뎁스맵, 색도 변화, 경계선 파악 등을 이용하여 획득된 이미지에서 얼굴의 윤곽을 파악한다.In addition, the image analysis unit 120 grasps the outline of a face in an image obtained by using a depth map, chromaticity change, boundary line grasp, or the like.

화장방법 선택부(130)는 사용자로부터 입력을 수신하여 화장의 방법을 선택한다.The makeup method selection unit 130 receives an input from a user and selects a makeup method.

구체적으로 화장방법 선택부(130)는 설정방법 선택부(132) 및 수동방법 선택부(134)를 포함할 수 있다.Specifically, the make-up method selecting unit 130 may include a setting method selecting unit 132 and a manual method selecting unit 134.

설정방법 선택부(132)는 설정방법 저장부(160)에 저장된 정보를 이용하거나, 설정방법 저장부(160)에서 생성된 설정을 선택하여 메이크업 방법을 선택한다. 보다 상세하게는 설정방법 저장부(160)에서 설명한다.The setting method selecting unit 132 selects the makeup method by using the information stored in the setting method storing unit 160 or by selecting the setting created in the setting method storing unit 160. [ More specifically, the setting method storage unit 160 will be described.

수동방법 선택부(134)는 사용자로부터 입력을 수신하여 색상 선택, 그라데이션 효과 선택 등을 선택하도록 한다. 즉, 사용자의 입력이 수동방법 선택부(134)로 전송된 경우, 수동방법 선택부(134)는 메이크업 적용부(150)로 신호를 전송하여 사용자가 메이크업 영역을 선택할 수 있도록 한다.The manual method selection unit 134 receives an input from a user and selects a color selection, a gradation effect selection, and the like. That is, when the user's input is transmitted to the manual method selection unit 134, the manual method selection unit 134 transmits a signal to the makeup application unit 150 so that the user can select a makeup area.

메이크업영역 선택부(140)는 사용자의 입력을 수신하여 메이크업 영역을 지정한다.The makeup area selection unit 140 receives a user's input and designates a makeup area.

메이크업영역 선택부(140)가 사용자의 입력을 수신하는 방법은 음성 입력, 터치입력, 키보드 입력 또는 마우스 입력 등 다양한 방식의 입력을 감지하여 수신할 수 있다.The method of receiving the user's input by the makeup area selection unit 140 may be performed by sensing various types of input such as voice input, touch input, keyboard input, or mouse input.

구체적으로는, 메이크업영역 선택부(140)가 메이크업 영역을 사용자의 의도대로 정확하게 지정하기 위하여, 획득된 이미지 상에 터치 입력 또는 마우스 입력을 이용하여 입력을 수신하는 것이 바람직할 것이다.Specifically, it is preferable that the makeup area selection unit 140 receives the input using the touch input or the mouse input on the obtained image so as to accurately specify the makeup area according to the user's intention.

메이크업영역 선택부(140)가 메이크업을 시뮬레이션 할 영역을 지정하면, 메이크업 적용부(150)가 색상 선택과 그라데이션 선택에 관한 정보를 수신하여 이미지에 적용한다.When the makeup area selection unit 140 specifies an area for simulating makeup, the makeup application unit 150 receives information on color selection and gradation selection and applies the information to the image.

메이크업 적용부(150)는 사용자의 입력을 수신하여 색상을 선정하고, 그라데이션 효과를 결정한다.The makeup application unit 150 receives a user's input, selects a color, and determines a gradation effect.

메이크업 적용부(150)가 사용자의 입력을 수신하는 방법은 음성 입력, 터치입력, 키보드 입력 또는 마우스 입력 등 다양한 방식의 입력을 감지하여 수신할 수 있다.The method by which the makeup application unit 150 receives the input of the user can receive and receive various types of input such as voice input, touch input, keyboard input, or mouse input.

구체적으로, 메이크업 적용부(150)는 사용자에게 여러 종류의 색상과 여러 종류의 그라데이션 효과를 시각적으로 제시하고, 사용자는 제시한 것을 터치 패드나 마우스를 이용하여 입력하면, 입력을 수신하고 수신한 바에 따라서 색상과 그라데이션 효과를 결정하고 이를 이미지 획득부(110)에서 획득한 이미지에 적용한다.Specifically, the makeup application unit 150 visually presents various kinds of colors and gradation effects to the user, and when the user inputs the presentation using the touch pad or the mouse, the user receives the input, Accordingly, the color and gradation effects are determined and applied to the image acquired by the image acquisition unit 110.

보다 구체적으로, 메이크업 적용부(150)는 사용자 선택 수신부(152), 색상 적용부(154) 및 그라데이션 적용부(156)를 포함한다.More specifically, the makeup application unit 150 includes a user selection receiving unit 152, a color application unit 154, and a gradient application unit 156.

사용자 선택 수신부(152)는 앞서 설명한 바와 같이, 색상 및 그라데이션 효과에 대한 사용자의 입력을 수신하다. 색상에 대한 사용자의 입력은 색상정보 수신부에서 수신할 수 있으며, 그라데이션 효과에 대한 사용자의 입력은 그라데이션정보 수신부에서 수신할 수 있다.The user selection receiver 152 receives the user's input for color and gradation effects, as described above. The user's input on the color can be received by the color information receiving unit, and the user's input on the gradation effect can be received by the gradation information receiving unit.

예를들어, 사용자는 사용자 선택 수신부(152)가 디스플레이를 통하여 시각적으로 제시하는 색상 또는 그라데이션 효과 중에서 원하는 것을 터치나 마우스를 이용하여 선택하면 사용자 선택 수신부(152)는 이를 수신하여 사용자가 원하는 색상 또는 그라데이션 효과에 관한 정보를 획득한다.For example, when the user selects one of the color or gradation effects visually presented through the display by the user selection receiving unit 152 using the touch or the mouse, the user selection receiving unit 152 receives the color or gradation effect, Gain information about the gradient effect.

보다 구체적으로 예를 들면, 사용자 선택 수신부(152)가 제시하는 색상은 단색, 적어도 둘 이상의 색, 혼합하고자 하는 적어도 둘 이상의 색, 또는 덧바르고자 하는 적어도 둘 이상의 색 중 적어도 어느 하나가 될 수 있다. 사용자가 적어도 둘 이상의 색을 선택한 경우, 선택한 둘 이상의 색을 혼합 할 수도 있고 각각 다른 영역에 사용될 수도 있다. 사용자 선택 수신부(152)는 둘 이상의 색을 선택할 때, 혼합 여부에 관한 정보도 수신할 수 있다.More specifically, for example, the color presented by the user selection receiving unit 152 may be at least one of a single color, at least two colors, at least two colors to be mixed, or at least two colors to be overwritten . If the user selects at least two colors, he or she can mix the two or more selected colors or use them in different areas. When the user selection receiving unit 152 selects two or more colors, the user selection receiving unit 152 may also receive information on whether or not to mix.

사용자 선택 수신부(152)가 수신하는 그라데이션 효과를 예를 들어 설명하면, 사용자 선택 수신부(152)는 없음, 선형, 방사형, 사각형 또는 경로형 중 어느 하나를 사용자가 선택할 수 있도록 디스플레이 상에 제시한다. 사용자가 선형, 방사형, 사각형 또는 경로형 중 어느 하나를 선택하면, 그라데이션 적용 정도를 0초과 100이하에서 선택 할 수 있도록 한다. 사용자가 그라데이션 효과와 정도를 선택하면, 사용자 선택 수신부(152)는 선택을 입력받아 선택 정보를 그라데이션 적용부(156)로 전송할 수 있다.For example, the gradation effect received by the user selection receiving unit 152 may be displayed on a display such that the user can select one of the none, linear, radial, square, or path types. If the user selects any one of linear, radial, square, and path types, the degree of gradation application can be selected from more than 0 to less than 100. When the user selects the gradation effect and degree, the user selection receiving unit 152 receives the selection and transmits the selection information to the gradation application unit 156. [

사용자 선택 수신부(152)에서 수신한 정보는 이미지 적용부로 전송된다.The information received by the user selection receiving unit 152 is transmitted to the image application unit.

이미지 적용부는 색상 적용부(154) 및 그라데이션 적용부(156)를 포함한다. 사용자 선택 수신부(152)에서 수신한 정보가 색상 선택에 관한 정보이면 색상 적용부(154)에서 가상 메이크업 시뮬레이션을 수행하며, 수신한 정보가 그라데이션 효과에 관한 정보이면 그라데이션 적용부(156)에서 가상 메이크업 시뮬레이션을 수행한다.The image application unit includes a color application unit 154 and a gradient application unit 156. If the information received by the user selection receiving unit 152 is information related to color selection, the color application unit 154 performs virtual makeup simulation. If the received information is information on the gradation effect, the gradation application unit 156 applies the virtual make- Simulation is performed.

색상 적용부(154)는, 사용자 선택 수신부(152)로부터 수신한 색상 정보가 단색인 경우, 수신한 단색을 이미지 획득부(110)에서 획득한 이미지에 적용한다. 색상 적용부(154)가 이미지에 색상을 적용시, 메이크업영역 선택부(140)에서 선택된 영역에만 한정하여 적용하는 것이 바람직하다.The color application unit 154 applies the received single color to the image acquired by the image acquisition unit 110 when the color information received from the user selection receiving unit 152 is monochrome. It is preferable that the color application unit 154 applies only to the area selected by the makeup area selection unit 140 when color is applied to the image.

구체적으로, 색상 적용부(154)는 사용자 선택 수신부(152)로부터 수신한 정보에 그라데이션 효과의 선택이 없는 경우, 색상 적용부(154)에서 사용자 선택 수신부(152)에서 수신된 정보를 이미지에 적용하여 가상 메이크업을 시뮬레이션한다.The color application unit 154 applies the information received from the user selection and reception unit 152 to the image in the color application unit 154 when there is no selection of the gradation effect in the information received from the user selection and reception unit 152 Thereby simulating the virtual makeup.

색상 적용부(154)가 사용자 선택 수신부(152)로부터 수신한 정보가 적어도 둘 이상의 색상에 관한 정보인 경우, 색상 적용부(154)는 둘 이상의 색상을 혼합하여 이미지에 적용할지, 하나의 색상을 이미지에 적용한 후 다른 색상을 덧바르는 형식으로 적용할지 또는 메이크업영역 선택부(140)에서 선택된 영역 내에서 영역을 분할하여 각각의 색상을 적용할지에 관하여 판단한다. 판단은, 사용자 선택 수신부(152)가 사용자로부터 입력받은 정보를 색상 적용부(154)가 수신하여 판단한다.If the color application unit 154 receives information from the user selection and reception unit 152 for at least two or more colors, the color application unit 154 may mix two or more colors to apply to the image, It is determined whether to apply the color to the image, add another color, or divide the area within the area selected by the makeup area selection unit 140 to apply each color. The color application unit 154 receives the information received from the user by the user selection receiving unit 152 and determines the determination.

판단에 따라서, 각각 미리 설정된 바에 기반하여 이미지 획득부(110)에서 획득한 이미지에 적용한다. 미리 설정된 바는 둘 이상의 색상을 혼합한후 이미지에 적용하는 것과 이미지에 하나의 색상을 적용한 후 다른 색상을 덧바르는 것은 서로 차이가 발생하도록 설정되는 것이 바람직하다.And applies it to the image obtained by the image obtaining unit 110 based on the preset bar according to the judgment. Preferably, the predetermined bar is set to blend two or more colors and then apply them to the image, and to apply a single color to the image and then add different colors.

그라데이션 적용부(156)는 사용자 선택 수신부(152)가 수신한 사용자 입력 중에서 그라데이션 효과에 대한 선택이 존재하는 경우, 이미지에 색상을 적용하는 경우, 그라데이션 효과를 발생하도록 한다.When there is a selection of the gradation effect among the user inputs received by the user selection receiving unit 152, the gradation applying unit 156 generates a gradation effect when color is applied to the image.

그라데이션 적용부(156)는 사용자 선택 수신부(152)에서 그라데이션 효과의 종류 및 정도에 관한 정보를 수신하고, 수신한 정보에 기반하여 이미지 획득부(110)에서 획득한 이미지에 그라데이션 효과를 적용한다.The gradation application unit 156 receives information on the type and degree of the gradation effect in the user selection receiving unit 152 and applies a gradation effect to the image acquired by the image obtaining unit 110 based on the received information.

그라데이션 적용부(156)는 색상 적용부(154)가 이미지에 색상을 적용한 후에 그라데이션을 적용하여 그라데이션 적용한 가상 메이크업의 상태를 나타낼 수 있으며, 색상 적용부(154)가 이미지에 색상을 적용할 때 그라데이션 효과를 함께 적용하여 나타낼 수 도 있다.The gradation application unit 156 may apply a gradation to the image after applying the color to the image, and may indicate the state of the virtual makeup applied to the image. When the color application unit 154 applies color to the image, Effects can be applied together.

색상을 적용한 후에 그라데이션을 적용하여 가상 메이크업의 상태를 사용자에게 제공하는 것이 그라데이션의 효과를 시각적으로 인지할 수 있으므로 바람직할 것이다.Applying the gradient after applying the color to provide the state of the virtual makeup to the user may be desirable because it can visually recognize the effect of the gradient.

설정방법 저장부(160)에서는 사용자의 선택정보와 선택에 기반하여 색상 또는 그라데이션을 적용한 이미지를 수집하여 저장한다.The setting method storage unit 160 collects and stores an image to which a color or gradation is applied based on the selection information of the user and the selection.

설정방법 저장부(160)에서는 사용자의 메이크업영역 선택부(140)에서의 선택 및 사용자 선택 수신부(152)에서 수신한 색상에 관한 정보와 그라데이션에 관한 정보를 수집하여 저장한다. 또한, 설정방법 저장부(160)에서는 색상 적용부(154) 및 그라데이션 적용부(156)에서 적용된 이미지를 수집하여 저장한다.The setting method storage unit 160 collects and stores information on the color and gradation information received from the user's makeup area selection unit 140 and the user selection and reception unit 152. [ In addition, the setting method storage unit 160 collects and stores images applied by the color application unit 154 and the gradient application unit 156.

설정방법 저장부(160)는 수집하여 저장한 정보를 이용하여 설정을 생성할 수 있다. 예를 들어, 사용자가 메이크업영역 선택부(140)에서 얼굴전체를 선택하고, 색상은 8번째와 12번째 색상을 선택하고, 색상의 적용 방법으로 12번째 색상을 먼저 적용한 후 8번째 색상을 덧바르는 것으로 선택하고, 그라데이션 효과로 방사형을 선택하고, 그라데이션 효과의 적용 정도를 2단계로 적용하여 가상 메이크업을 수행한 경우, 설정방법 저장부(160)는 해당 사용자의 선택을 하나의 설정으로 생성할 수 있다. 또한, 설정방법 저장부(160)는 생성된 설정과 해당 사용자의 선택을 적용한 가상 메이크업 수행 결과를 맵핑할 수 있다.The setting method storage unit 160 may generate settings using information collected and stored. For example, when the user selects the entire face in the makeup region selection unit 140, selects the eighth and twelfth colors as the colors, applies the twelfth color first by applying the color, and adds the eighth color The radial type is selected by the gradation effect, and the degree of application of the gradation effect is applied in two steps to perform the virtual makeup, the setting method storage unit 160 can generate the selection of the user in one setting have. In addition, the setting method storage unit 160 may map the generated setting and the result of the virtual makeup applying the selection of the user.

사용자가 메이크업방법 선택부(130)의 설정방법 선택부(132)에서 생성된 설정을 선택하면, 해당 선택에 맵핑되는 가상 메이크업 수행 결과를 제공하거나, 새롭게 획득된 이미지에 해당 선택을 적용한 가상 메이크업 수행 결과를 제공하는 것이다.When the user selects a setting generated by the setting method selecting unit 132 of the makeup method selecting unit 130, the user performs a virtual makeup operation in which a result of the virtual makeup mapped to the selected selection is provided, Results.

설정방법 저장부(160)를 이용하면, 사용자는 자신의 마음에 드는 결과를 저장하여 필요할 때마다 제공받을 수 있다.Using the setting method storage unit 160, the user can save his / her favorite results and receive the desired results whenever necessary.

본 발명에 따른 가상 메이크업 시뮬레이션 장치(100)는 사용자가 자신의 얼굴이 촬영된 사진에 자연스럽고 다양한 방식으로 메이크업을 해봄으로써, 자신의 얼굴에 적합한 메이크업 방식을 적은 시행착오만으로도 찾을 수 있다.The virtual makeup simulation apparatus 100 according to the present invention can make a makeup method suitable for the face of the user by trial and error by making the makeup in a natural and various manner to the photograph of the user's face.

도 2는 본 발명의 바람직한 실시예에 따른 가상 메이크업 시뮬레이션 방법에 관한 흐름도이다.FIG. 2 is a flowchart of a virtual makeup simulation method according to a preferred embodiment of the present invention.

도 2를 참조하면, 이미지 획득부(110)가 얼굴이 촬영된 이미지를 획득한다(S210 단계).Referring to FIG. 2, the image obtaining unit 110 obtains a photographed image of the face (S210).

이미지 분석부(120)가 이미지 획득부(110)에서 획득한 이미지를 분석하여 얼굴의 영역을 분할한다(S220 단계).The image analysis unit 120 analyzes the image acquired by the image acquisition unit 110 to divide the face region (step S220).

메이크업방법 선택부(130)가 사용자로부터 메이크업 방법을 설정된 바에 따를지 수동으로 선택할지에 관한 정보를 수신한다(S230 단계).The makeup method selection unit 130 receives information on whether to manually or manually select a makeup method from the user (step S230).

사용자가 설정된 바에 따를 것이라 선택한 경우, 설정방법 선택부(132)가 사용자가 선택한 설정과 맵핑된 결과를 설정방법 저장부(160)로부터 수신하여 사용자에게 제공한다(S240 단계).If the user selects to be set according to the set bar, the setting method selecting unit 132 receives the mapped result with the setting selected by the user from the setting method storing unit 160 and provides the received result to the user (step S240).

사용자가 수동으로 선택한 경우, 수동방법 선택부(134)는 메이크업영역 선택부(140)로 신호를 전송하여, 메이크업영역 선택부(140)가 사용자에게 메이크업 영역을 제시하여 사용자의 입력을 수신하도록 한다(S250 단계).When the user manually selects the manual method selection unit 134, the manual method selection unit 134 transmits a signal to the makeup area selection unit 140, and the makeup area selection unit 140 presents the makeup area to the user to receive the user's input (Step S250).

메이크업 영역이 선택된 후, 사용자 선택 수신부(152)는 사용자로부터 색상에 관한 정보 및 그라데이션 효과에 관한 정보를 수신한다(S260 단계).After the make-up area is selected, the user selection receiving unit 152 receives information on the color and the gradation effect from the user (step S260).

색상 적용부(154)는 사용자 선택 수신부(152)에서 수신한 색상에 관한 정보와 메이크업영역 선택부(140)에서 수신한 정보를 이용하여 이미지 획득부(110)에서 획득한 이미지에 가상 메이크업을 시뮬레이션 한다(S270 단계). 그라데이션 적용부(156)는 사용자 선택 수신부(152)에서 수신한 그라데이션 효과에 관한 정보와 메이크업영역 선택부(140)에서 수신한 정보를 이용하여 이미지 획득부(110)에서 획득한 이미지에 가상 메이크업을 시뮬레이션 한다(S270 단계). 즉, 색상 적용부(154)는 사용자가 선택한 색상을 사용자가 선택한 영역에 적용하고, 그라데이션 적용부(156)는 사용자가 선택한 그라데이션 효과를 사용자가 선택한 영역에 적용한다.The color application unit 154 simulates the virtual makeup on the image acquired by the image acquisition unit 110 using the color information received by the user selection receiving unit 152 and the information received from the makeup region selection unit 140 (Step S270). The gradation applying unit 156 applies a virtual makeup to the image acquired by the image obtaining unit 110 using the information on the gradation effect received by the user selecting and receiving unit 152 and the information received by the makeup area selecting unit 140 (Step S270). That is, the color application unit 154 applies the color selected by the user to the region selected by the user, and the gradient applying unit 156 applies the gradation effect selected by the user to the region selected by the user.

설정방법 저장부(160)는 사용자 선택 정보 및 결과를 저장하고, 저장한 결과를 이용하여 설정으로 생성한다(S280 단계). 즉, 설정방법 저장부(160)는 이미지 획득부(110)에서 획득한 이미지, 메이크업영역 선택부(140)가 수신한 정보 및 사용자 선택 수신부(152)가 수신한 정보 및 가상 메이크업 시뮬레이션 한 이미지를 저장한다. 또한, 메이크업영역 선택부(140)가 수신한 정보 및 사용자 선택 수신부(152)가 수신한 정보를 하나의 설정으로 생성하여, 메이크업방법 선택부(130)에서 사용자가 해당 설정 선택시 이미지 획득부(110)에서 획득한 이미지와 가상 메이크업 시뮬레이션 한 이미지를 제공할 수 있다.The setting method storage unit 160 stores the user selection information and the result, and generates the setting using the stored result (step S280). That is, the setting method storage unit 160 stores the image obtained by the image obtaining unit 110, the information received by the makeup area selecting unit 140, the information received by the user selecting and receiving unit 152, and the virtual makeup simulated image . In addition, the information received by the makeup region selection unit 140 and the information received by the user selection receiving unit 152 are generated in a single setting, and the makeup method selection unit 130 selects an image acquisition unit 110) and a virtual makeup simulated image.

본 발명에 따른 가상 메이크업 시뮬레이션 방법은 사용자가 자신의 얼굴이 촬영된 사진에 자연스럽고 다양한 방식으로 메이크업을 해봄으로써, 자신의 얼굴에 적합한 메이크업 방식을 적은 시행착오만으로도 찾을 수 있다.   The virtual makeup simulation method according to the present invention allows a user to make up a makeup method suitable for his or her face by trial and error by performing makeup in a natural and various manner on a photograph of his / her face.

본 발명의 바람직한 실시예에 따른 가상 메이크업 시뮬레이션 장치(100)의 블럭도는 발명의 원리를 구체화하는 예시적인 개념적 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도는 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.It should be understood that the block diagram of the virtual makeup simulation apparatus 100 according to the preferred embodiment of the present invention represents exemplary conceptual aspects embodying the principles of the invention. Similarly, all of the flowcharts should be understood to represent various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether the computer or processor is explicitly shown.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다. The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (20)

얼굴이 포함된 제1 이미지를 획득하는 단계;
메이크업 영역을 선택하는 제1 명령을 수신하는 단계;
색상 및 그라데이션 효과를 선택하는 제2 명령을 수신하는 단계; 및
상기 얼굴 중 상기 제1 명령에 의해 선택된 메이크업 영역에 상기 제2 명령에 따른 색상 및 그라데이션 효과를 적용한 이미지를 표시하는 단계를 포함하고,
상기 제2 명령을 수신하는 단계는
색상 및 복수개의 그라데이션 효과를 표시하는 단계,
상기 색상을 선택하는 명령을 수신하는 단계,
상기 복수개의 그라데이션 효과 중 어느 하나를 선택하는 명령을 수신하는 단계를 포함하며,
상기 복수개의 그라데이션 효과 각각은 조합되는 색상의 종류, 색상 분포 모양이 상이하고,
상기 색상을 선택하는 명령을 수신하는 단계는
둘 이상의 색상이 선택된 경우 색상 혼합 여부에 관한 정보를 수신하는 단계를 포함하고,
상기 색상 혼합 여부에 관한 정보에 기초하여 둘 이상의 색상을 혼합하여 제1 이미지에 적용할지 또는 하나의 색상을 제1 이미지에 적용한 후 다른 색상을 더 적용할지를 판단하는 단계를 더 포함하고,
상기 둘 이상의 색상을 혼합하여 제1 이미지에 적용한 경우의 이미지와 상기 하나의 색상을 제1 이미지에 적용한 후 다른 색상을 더 적용한 경우의 이미지는 상이한
메이크업 시뮬레이션 방법.
Obtaining a first image including a face;
Receiving a first instruction to select a makeup area;
Receiving a second command to select a color and a gradient effect; And
Displaying an image obtained by applying a color and gradation effect according to the second instruction to a makeup area selected by the first instruction of the face,
The step of receiving the second instruction
Displaying a color and a plurality of gradation effects,
Receiving an instruction to select the color,
Receiving an instruction to select any one of the plurality of gradation effects,
Wherein each of the plurality of gradation effects has a different color type and color distribution shape,
The step of receiving an instruction to select the color
Receiving information about whether a color is blended if more than one color is selected,
Further comprising determining whether to apply two or more hues to the first image or to apply one hue to the first image and then to apply another hue based on the information on whether or not to mix the colors,
An image when the two or more colors are mixed and applied to the first image and an image when the one color is applied to the first image and the other color is further applied are different
Makeup simulation method.
삭제delete 제1항에 있어서,
상기 제2 명령에 따라 선택된 그라데이션 효과의 적용 정도를 선택하는 제3 명령을 수신하는 단계; 및
상기 제3 명령에 따라 그라데이션 효과의 농담을 조절한 이미지를 표시하는 단계를 더 포함하는,
메이크업 시뮬레이션 방법.
The method according to claim 1,
Receiving a third command to select a degree of application of the gradient effect selected in accordance with the second command; And
And displaying an image in which a gradation effect of the gradation effect is adjusted according to the third instruction.
Makeup simulation method.
제1항에 있어서,
상기 제2 명령을 수신하는 단계는
색상의 개수 또는 색상 종류를 선택하는 명령을 수신하는 단계를 포함하는,
메이크업 시뮬레이션 방법.
The method according to claim 1,
The step of receiving the second instruction
Receiving a command to select a color number or color type;
Makeup simulation method.
제1항에 있어서,
상기 제2 명령을 수신하는 단계는
상기 제1 명령에 의해 선택된 메이크업 영역에 적용될 그라데이션 모양을 선택하는 명령을 수신하는 단계를 포함하는,
메이크업 시뮬레이션 방법.
The method according to claim 1,
The step of receiving the second instruction
And receiving an instruction to select a gradient shape to be applied to the makeup area selected by the first instruction.
Makeup simulation method.
제1항에 있어서,
상기 제1 이미지에서 상기 얼굴의 특징점을 추출하여 눈, 코 또는 입을 구분하는 단계를 더 포함하는,
메이크업 시뮬레이션 방법.
The method according to claim 1,
Further comprising the step of extracting feature points of the face in the first image to distinguish the eyes, nose, or mouth.
Makeup simulation method.
제1항에 있어서,
저장명령을 수신하면 상기 제1 및 제2 명령에 따른 메이크업 정보를 저장하는 단계를 더 포함하고,
상기 메이크업 정보는
상기 제1 명령을 통해 선택된 메이크업 영역에 상기 제2 명령을 통해 선택된 색상 및 그라데이션 효과를 적용하는 메이크업 방식인,
메이크업 시뮬레이션 방법.
The method according to claim 1,
Storing the makeup information according to the first and second instructions upon receiving the save command,
The makeup information
And a makeup method for applying a color and gradation effect selected through the second instruction to the makeup area selected through the first instruction,
Makeup simulation method.
제7항에 있어서,
상기 저장명령에 따라 저장된 메이크업 정보에 대응하는 메이크업 스타일을 생성하는 단계를 더 포함하는,
메이크업 시뮬레이션 방법.
8. The method of claim 7,
Further comprising creating a makeup style corresponding to the stored makeup information in accordance with the save command.
Makeup simulation method.
제8항에 있어서,
얼굴이 포함된 제2 이미지를 획득하는 단계; 및
상기 메이크업 스타일을 선택하는 명령을 수신하면 상기 제2 이미지에 포함된 얼굴에 상기 메이크업 정보를 반영한 이미지를 표시하는 단계를 더 포함하는,
메이크업 시뮬레이션 방법.
9. The method of claim 8,
Obtaining a second image including a face; And
Displaying an image reflecting the makeup information on a face included in the second image upon receiving the instruction to select the makeup style,
Makeup simulation method.
제1항에 있어서,
저장명령을 수신하면 상기 제1 명령에 의해 선택된 메이크업 영역에 상기 제2 명령에 따른 색상 및 그라데이션 효과가 적용된 이미지를 저장하는 단계를 더 포함하는,
메이크업 시뮬레이션 방법.
The method according to claim 1,
Further comprising the step of storing an image to which a color and gradation effect according to the second instruction is applied to the makeup area selected by the first instruction upon receiving the save instruction,
Makeup simulation method.
얼굴이 포함된 제1 이미지를 획득하는 이미지 획득부;
메이크업 영역을 선택하는 제1 명령을 수신하는 메이크업영역 선택부;
색상 및 그라데이션 효과를 선택하는 제2 명령을 수신하는 메이크업방법 선택부; 및
상기 얼굴 중 상기 제1 명령에 의해 선택된 메이크업 영역에 상기 제2 명령에 따른 색상 및 그라데이션 효과를 적용하는 메이크업 적용부; 및
상기 메이크업 적용부에 의해 상기 얼굴에 상기 색상 및 그라데이션 효과를 적용한 이미지를 표시하는 디스플레이를 포함하며,
상기 디스플레이는
색상 및 복수개의 그라데이션 효과를 표시하고,
상기 메이크업방법 선택부는
상기 색상을 선택하는 명령과 상기 복수개의 그라데이션 효과 중 어느 하나를 선택하는 명령을 통해 상기 제2 명령을 수신하며,
상기 복수개의 그라데이션 효과 각각은 조합되는 색상의 종류, 색상 분포 모양이 상이하며,
상기 메이크업 적용부는
색상, 색상 혼합 여부에 관한 정보 및 그라데이션 효과에 대한 입력을 수신하는 사용자 선택 수신부와,
상기 사용자 선택 수신부를 통해 선택된 색상을 상기 제1 이미지에 적용하는 색상 적용부와,
상기 그라데이션 효과가 선택된 경우 상기 제1 이미지에 선택된 그라데이션 효과를 적용하는 그라데이션 적용부를 포함하고,
상기 색상 적용부는
둘 이상의 색상이 선택된 경우 선택된 둘 이상의 색상을 혼합하여 제1 이미지에 적용할지 또는 하나의 색상을 제1 이미지에 적용한 후 다른 색상을 더 적용할지를 판단하고,
상기 디스플레이는
상기 둘 이상의 색상을 혼합하여 제1 이미지에 적용한 경우의 이미지와 상기 하나의 색상을 제1 이미지에 적용한 후 다른 색상을 더 적용한 경우의 이미지를 상이하게 표시하는
장치.
An image obtaining unit obtaining a first image including a face;
A make-up area selecting unit for receiving a first command for selecting a make-up area;
A make-up method selecting unit receiving a second command for selecting a color and a gradation effect; And
A makeup application unit applying a color and gradation effect according to the second instruction to a makeup area selected by the first instruction among the faces; And
And a display unit for displaying an image obtained by applying the color and gradation effect to the face by the makeup application unit,
The display
Color and multiple gradation effects,
The makeup method selection unit
Receiving the second instruction through a command for selecting the color and a command for selecting any one of the plurality of gradation effects,
Wherein each of the plurality of gradation effects has a different color type and color distribution shape,
The makeup application unit
A user selection receiving unit for receiving information on color and color blending and an input for a gradation effect,
A color application unit for applying a color selected through the user selection receiving unit to the first image;
And a gradation applying unit applying the gradation effect selected in the first image when the gradation effect is selected,
The color application unit
When two or more colors are selected, it is determined whether the two or more selected colors are mixed and applied to the first image or one color is applied to the first image,
The display
An image when the two or more colors are mixed and applied to the first image and an image when the one color is applied to the first image and the other color is further applied are displayed differently
Device.
삭제delete 제11항에 있어서,
상기 메이크업 방법 선택부는
상기 제2 명령에 따라 선택된 그라데이션 효과의 적용 정도를 선택하는 제3 명령을 수신하고,
상기 메이크업 적용부는
상기 제3 명령에 따라 그라데이션 효과의 농담을 조절하는,
장치.
12. The method of claim 11,
The makeup method selection unit
A third command for selecting a degree of application of the gradation effect selected in accordance with the second command,
The makeup application unit
And adjusting a gradation of the gradation effect according to the third instruction,
Device.
제11항에 있어서,
상기 메이크업방법 선택부는
색상의 개수 또는 색상 종류를 선택하는 명령을 수신하는,
장치.
12. The method of claim 11,
The makeup method selection unit
Receiving a command to select a number of colors or a color type,
Device.
제11항에 있어서,
상기 메이크업방법 선택부는
상기 제1 명령에 의해 선택된 메이크업 영역에 적용될 그라데이션 모양을 선택하는 명령을 수신하는,
장치.
12. The method of claim 11,
The makeup method selection unit
And a command to select a gradient shape to be applied to the makeup area selected by the first instruction,
Device.
제11항에 있어서,
상기 제1 이미지에 포함된 상기 얼굴의 특징점을 추출하여 눈, 코 또는 입을 구분하는 이미지 분석부를 더 포함하는,
장치.
12. The method of claim 11,
Further comprising an image analyzer for extracting feature points of the face included in the first image to distinguish the eyes,
Device.
제11항에 있어서,
저장명령을 수신하면 상기 제1 및 제2 명령에 따른 메이크업 정보를 저장하는 저장부를 더 포함하고,
상기 메이크업 정보는
상기 제1 명령을 통해 선택된 메이크업 영역에 상기 제2 명령을 통해 선택된 색상 및 그라데이션 효과를 적용하는 메이크업 방식인,
장치.
12. The method of claim 11,
Further comprising a storage unit for storing makeup information according to the first and second instructions upon receipt of a save command,
The makeup information
And a makeup method for applying a color and gradation effect selected through the second instruction to the makeup area selected through the first instruction,
Device.
제17항에 있어서,
상기 저장부는
저장된 메이크업 정보에 대응하는 메이크업 스타일을 생성하는,
장치.
18. The method of claim 17,
The storage unit
Creating a makeup style corresponding to the stored makeup information,
Device.
제18항에 있어서,
상기 이미지 획득부는
얼굴이 포함된 제2 이미지를 획득하고,
상기 메이크업 적용부는
상기 메이크업 스타일을 선택하는 명령을 수신하면 상기 제2 이미지에 포함된 얼굴에 상기 메이크업 정보를 반영하는,
장치.
19. The method of claim 18,
The image obtaining unit
Acquiring a second image including a face,
The makeup application unit
And when it receives the instruction to select the makeup style, reflects the makeup information on the face included in the second image,
Device.
제11항에 있어서,
상기 메이크업 적용부에 의해 상기 얼굴에 상기 색상 및 그라데이션 효과를 적용한 이미지를 저장하는 저장부를 더 포함하는,
장치.
12. The method of claim 11,
And a storage unit for storing an image obtained by applying the color and gradation effects to the face by the makeup application unit.
Device.
KR1020180073624A 2018-06-26 2018-06-26 Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup KR101959253B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180073624A KR101959253B1 (en) 2018-06-26 2018-06-26 Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180073624A KR101959253B1 (en) 2018-06-26 2018-06-26 Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120064583A Division KR101874122B1 (en) 2012-06-15 2012-06-15 Method and Appratus for Simulation of Virtual Makeup

Publications (2)

Publication Number Publication Date
KR20180080703A KR20180080703A (en) 2018-07-12
KR101959253B1 true KR101959253B1 (en) 2019-03-19

Family

ID=62919780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180073624A KR101959253B1 (en) 2018-06-26 2018-06-26 Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup

Country Status (1)

Country Link
KR (1) KR101959253B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102293108B1 (en) * 2020-11-23 2021-08-25 주식회사 알리아스 System for video image extraction from a person with makeup and projection onto the other's face
WO2022097823A1 (en) * 2020-11-05 2022-05-12 주식회사 알리아스 System for extracting video image of makeup-applied person and projecting same to face

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094536A (en) * 2010-01-07 2010-04-30 Kao Corp Makeup simulation method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094536A (en) * 2010-01-07 2010-04-30 Kao Corp Makeup simulation method

Also Published As

Publication number Publication date
KR20180080703A (en) 2018-07-12

Similar Documents

Publication Publication Date Title
US10849408B2 (en) Virtual hair consultation
US10292481B2 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
US6719565B1 (en) Hair color advice system
JP5324031B2 (en) Beauty simulation system
KR101488491B1 (en) Method for providing virtual hairstyle and apparatus using the same
JP2007257165A (en) Makeup simulation method
KR101959253B1 (en) Apparatus and Method for makeup simulation reflecting real behavior patterns of makeup
JP7463774B2 (en) MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM
JP3390558B2 (en) Lip color advice system and method
KR20210032489A (en) Simulation method of rendering of makeup products on the body area
KR20150098130A (en) Apparatus and Method for Recommending Cosmetic based on User Skin Information
KR101874122B1 (en) Method and Appratus for Simulation of Virtual Makeup
JP2000194835A (en) Makeup advice system
JP6165187B2 (en) Makeup evaluation method, makeup evaluation system, and makeup product recommendation method
JP2013178789A (en) Beauty simulation system
JP6128356B2 (en) Makeup support device and makeup support method
JP2010094536A (en) Makeup simulation method
CA2651539C (en) Method and apparatus for hair colour simulation
KR20200067102A (en) Method for simulating the realistic rendering of a makeup product
JPH06319613A (en) Make-up support device for face
JP6128357B2 (en) Makeup support device and makeup support method
JP3459400B2 (en) Hair color advice system
JP2010073222A (en) Makeup simulation method
US11369183B2 (en) Camera with calibration device for hair analysis
JP2001190525A (en) Base makeup, cosmetics-selecting method and base makeup cosmetics-selecting information map

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant