KR20120066773A - 휴대용 단말기를 이용한 가상 화장 방법 - Google Patents

휴대용 단말기를 이용한 가상 화장 방법 Download PDF

Info

Publication number
KR20120066773A
KR20120066773A KR1020100128039A KR20100128039A KR20120066773A KR 20120066773 A KR20120066773 A KR 20120066773A KR 1020100128039 A KR1020100128039 A KR 1020100128039A KR 20100128039 A KR20100128039 A KR 20100128039A KR 20120066773 A KR20120066773 A KR 20120066773A
Authority
KR
South Korea
Prior art keywords
face
terminal
user
layer
virtual makeup
Prior art date
Application number
KR1020100128039A
Other languages
English (en)
Inventor
박필제
Original Assignee
고스트리트(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고스트리트(주) filed Critical 고스트리트(주)
Priority to KR1020100128039A priority Critical patent/KR20120066773A/ko
Publication of KR20120066773A publication Critical patent/KR20120066773A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • H04B1/401Circuits for selecting or indicating operating mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 휴대용 단말기를 이용한 가상 화장 방법에 관한 것으로, 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 및 제어부를 포함하는 휴대용 단말기를 이용한 가상 메이크업 방법에 있어서, (a) 상기 카메라를 이용하여 대상자의 얼굴을 촬영하여 상기 표시부에 표시하는 단계, (b) 상기 제어부에 의해 상기 촬영된 얼굴의 입체적 형상을 분석하여 입체적인 얼굴 윤곽 레이어를 형성하는 단계 및 (c) 가상 화장 도구를 이용하여 상기 표시부에 현시된 얼굴 위에 하나 이상의 가상 메이크업 레이어를 페이팅하는 단계를 포함하며, 상기 얼굴 윤곽 레이어는 상기 표시부에 현시되지 아니하며, 상기 메이크업 레이어는 상기 얼굴 윤곽 레이어의 외면을 적어도 부분적으로 페인팅하는 것으로 이루어지며, 상기 얼굴 윤곽 레이어는 상기 카메라에 의해 촬영되는 사용자의 얼굴의 변화에 상응하여 함께 변화함으로써, 상기 메이크업 레이어가 상기 사용자의 얼굴 변화에 대응하여 함께 변화되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법을 제공한다.
본 발명에 따르면, 휴대용 단말기에 장착된 카메라를 이용하여 사용자의 표정 변화 등을 실시간으로 반영할 수 있는 가상 화장 방법에 관한 것이다.

Description

휴대용 단말기를 이용한 가상 화장 방법{A Method Of Virtual Make-up Using Mobile Device}
본 발명은 휴대용 단말기를 이용한 가상 화장 방법에 관한 것으로, 특히 휴대용 단말기에 장착된 카메라를 이용하여 사용자의 표정 변화 등을 실시간으로 반영할 수 있는 가상 화장 방법에 관한 것이다.
종래, 메이크업을 위한 상품의 판매 등을 위하여, 실제로 메이크업을 실시하지 않고 컴퓨터상에서 메이크업 후의 얼굴을 시뮬레이션 하는 기술이 알려져 있다. 그러나, 이러한 기술의 경우에는 시뮬레이션 결과가 정지화면으로 표시되기 때문에, 사용자의 표정이 변화한 때의 메이크업 후의 얼굴을 용이하게 확인할 수 없었다. 그래서, 사용자의 표정의 변화를 포착한 동화상 내에서 화장을 시뮬레이션하는 기술의 개발이 진행되고 있다.
그러나, 동화상을 이용한 화장 시뮬레이션 장치는 사용자의 표정의 변화를 입 및 두 눈에 대응하는 화소영역으로 특정하고, 그 화소영역을 템플릿 매칭에 의해 추적함으로써, 페이스 메이크를 실시하는 화장 영역을 산출하고 있다. 이와 같이, 사용자의 표정의 변화를 입 및 두 눈에 대응하는 화소영역으로 추적하는 것은 컴퓨터의 처리부담이 크고, 눈을 감은 경우 등에 대한 정확한 대처가 어렵다는 문제가 있다.
또한, 종래의 시뮬레이션 방법에 의하면 사용자의 모습을 특정 시점, 예컨대 정면에서만 볼 수 있다는 단점이 있기 때문에, 사용자의 모습을 전방향에서 볼 수 있는 가상 메이크업 방법이 요구되고 있다.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로, 카메라를 통해 표시되는 사용자의 얼굴을 바탕으로 실시간으로 정확하게 메이크업 할 수 있는 휴대용 단말기를 이용한 가상 화장 방법을 제공하는 것을 목적으로 한다.
이를 위하여 본 발명은 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 및 제어부를 포함하는 휴대용 단말기를 이용한 가상 메이크업 방법에 있어서, (a) 상기 카메라를 이용하여 대상자의 얼굴을 촬영하여 상기 표시부에 표시하는 단계, (b) 상기 제어부에 의해 상기 촬영된 얼굴의 입체적 형상을 분석하여 입체적인 얼굴 윤곽 레이어를 형성하는 단계 및 (c) 가상 화장 도구를 이용하여 상기 표시부에 현시된 얼굴 위에 하나 이상의 가상 메이크업 레이어를 페이팅하는 단계를 포함하며, 상기 얼굴 윤곽 레이어는 상기 표시부에 현시되지 아니하며, 상기 메이크업 레이어는 상기 얼굴 윤곽 레이어의 외면을 적어도 부분적으로 페인팅하는 것으로 이루어지며, 상기 얼굴 윤곽 레이어는 상기 카메라에 의해 촬영되는 사용자의 얼굴의 변화에 상응하여 함께 변화함으로써, 상기 메이크업 레이어가 상기 사용자의 얼굴 변화에 대응하여 함께 변화되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법을 제공한다.
또한 본 발명은 다른 양태로서 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 제1 제어부, 및 통신모듈을 포함하는 제1 휴대용 단말기 및 표시부, 제2 제어부, 및 통신모듈을 포함하는 제2 휴대용 단말기를 이용한 가상 메이크업 방법에 있어서, (a) 상기 제1 단말기 및 제2 단말기가 각각의 통신모듈에 의해 유무선으로 연결되어 동기화하는 단계, (b) 상기 제1 단말기의 카메라를 이용하여 사용자의 얼굴을 촬영하여, 상기 제1 단말기 및 제2 단말기의 표시부에 각각 현시하는 단계, (c) 상기 촬영된 얼굴의 입체적 형상을 분석하여 입체적인 얼굴 윤곽 레이어를 형성하는 단계, (d) 상기 얼굴 윤곽 레이어를 상기 제1 단말기 및 제2 단말기가 공유하는 단계, 및 (e) 상기 제2 단말기에 제공된 가상 화장 도구를 이용하여 상기 제2 단말기의 표시부에 현시된 얼굴 위에 가상 메이크업 레이어를 페인팅하는 단계를 포함하며, 상기 얼굴 윤곽 레이어는 상기 제1 단말기 및 제2 단말기의 표시부에 현시되지 아니하며, 상기 메이크업 레이어는 상기 얼굴 윤곽 레이어의 외면을 적어도 부분적으로 페인팅하는 것으로 이루어지며, 상기 얼굴 윤곽 레이어는 상기 카메라에 의해 촬영되는 사용자의 얼굴의 변화에 상응하여 함께 변화함으로써, 상기 메이크업 레이어가 상기 사용자의 얼굴 변화에 대응하여 함께 변화되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법을 제공한다.
전술한 바와 같이, 본 발명에 따르면, 사용자의 얼굴을 입체적으로 분석하여 얼굴 윤곽 레이어를 형성한 후 메이크업 레이어를 채색함으로서 사용자의 표정변화에 대응함은 물론, 가상 메이크업된 사용자의 얼굴을 다각도에서 관찰하는 것이 가능하다.
도 1은 본 발명에 따른 실시예를 설명하는 개략적인 순서도,
도 2는 본 발명에 따른 다른 실시예를 설명하는 개략적인 순서도이다.
이하, 첨부 도면을 참조하여 본 발명 및 본 발명의 바람직한 실시예를 상세하게 설명한다.
본 발명은 휴대용 단말기를 이용한 가상 메이크업 방법에 관한 것으로, 특히 실제로 대상의 얼굴에 메이크업을 하지는 않더라도, 대상의 표정 변화 등에 대응하여 함께 변화될 수 있는 가상 메이크업 방법을 제공한다.
기본적으로, 본 발명에 따른 가상 메이크업 방법에 사용되는 단말기는 대상자의 화상을 촬영하기 위한 카메라, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 및 카메라 및 표시부를 제어하기 위한 제어부를 포함하여 이루어진다.
도 1은 본 발명의 일실시예에 따른 가상 메이크업 방법을 나타내는 순서도이다.
도 1을 참조하면, 본 발명에 따른 가상 메이크업 방법은 크게 제1 ~ 3 단계로 이루어진다.
기본적으로, 본 발명에 따른 가상 화장 방법에 사용되는 단말기는 대상자의 화상을 촬영하기 위한 카메라, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 및 카메라 및 표시부를 제어하기 위한 제어부를 포함하여 이루어진다.
제1 단계는 카메라를 이용하여 가상 메이크업을 실시할 대상자의 얼굴을 촬영하고, 촬영된 얼굴을 단말기의 표시부에 표시하는 단계(S100)이다. 이때, 카메라에 의한 촬영은 스틸 사진의 촬영이거나, 연속적인 동영상의 촬영이 될 수 있다. 전자의 경우에는 하기하는 바와 같이 적어도 2장 이상, 바람직하게는 3장 이상의 상이한 각도에서 촬영한 스틸 사진이 요구되며, 후자의 경우에는 동영상을 구성하는 여러 스틸 사진 중에서 상이한 각도에서 촬영된 스틸 사진을 추출하여 사용할 수 있다.
제2 단계는 상기 촬영된 얼굴의 입체적 형상을 분석하여 대상 얼굴의 입체적인 얼굴 윤곽 레이어를 형성하는 단계(S110)이다. 여기서, 얼굴 윤곽 레이어는 얼굴의 윤곽을 입체적인 3D 형태로 모델링하는 것을 의미한다.
구체적으로, 제1 단계에서 촬영한 스틸 사진을 이용하여 얼굴 윤곽 레이어를 형성하기 위해서는, 적어도 2장 이상의 사진이 필요하다. 즉, 상이한 각도에서 촬영한 2장 이상의 사진을 종합 분석하여, 대상 얼굴의 입체적인 형상을 예측하여 얼굴 윤곽 레이어를 형성하는 것이다.
2장의 사진을 이용할 경우에는 대상 얼굴의 정면사진과, 얼굴의 정면을 기준으로 좌측 또는 우측으로 30~45도 회전된 각도에서 촬영한 사진 중 하나를 사용하는 것이 바람직하다. 이 경우, 대상의 얼굴의 한 쪽(정면을 기준으로 좌측 또는 우측) 만을 바탕으로 얼굴 윤곽 레이어를 형성하게 되므로, 형성되는 얼굴 윤곽 레이어는 좌우 대칭형이 될 수 밖다.
일반적으로 사람의 얼굴은 눈, 코, 입 등 좌우가 완전히 일치하지 않는 경우가 많다. 따라서, 이러한 비대칭성을 반영하기 위해서는 적어도 3장의 사진을 이용하는 것이 바람직하다.
이렇게 3장의 사진을 이용할 경우에는 대상얼굴의 정면사진과, 얼굴의 정면을 기준으로 좌측 및 우측으로 각각 30~45도 회전된 각도에서 촬영한 사진을 사용하는 것이 바람직하다.
보다 정확한 얼굴 윤곽 레이어를 형성하기 위해서는 동영상촬영을 이용하는 것이 바람직하다. 일반적으로 동영상은 15 ~ 60 fps, 즉 초당 15 ~ 60 장의 스틸 사진이 촬영되어 이들 사진을 연속적으로 보여주는 것이기 때문에, 대상의 얼굴을 1초만 입체적으로 스캔한다고 하더라도 15 ~ 60 장의 스틸 사진이 얻어질 수 있다.
동영상 촬영의 경우에는 대상 얼굴의 정면을 기준으로 -90 ~ 90 도, 바람직하게는 -45 ~ 45 도의 영역을 스캔하여 촬영하는 것이 바람직하다.
이렇게 얻어진 얼굴 윤곽 레이어는 단말기에 직접적으로 현시되지 않는다. 본 발명에 따르면, 단말기에는 제1 단계에서 촬영한 대상의 얼굴모습만이 현시되도록 구성된다. 제2 단계에서 형성된 얼굴 윤곽 레이어는 후술하는 바와 같이 가상 메이크업 레이어를 페인팅하는 데 사용된다.
제3 단계는 가상 화장 도구를 이용하여 상기 표시부에 현시된 얼굴 위에 가상 메이크업을 레이어를 페인팅하는 단계(S120)이다.
가상 화장 도구는 상기 단말기의 화면에 표시되는 인터페이스로서, 예컨대 눈화장을 위한 다양한 색상의 팔레트 도구, 입술에 바르는 다양한 색상의 립스틱 팔레트 도구 등이 될 수 있다.
본 발명에 따른 가상 메이크업을 실행하기 위해서는 제1 단계에서 촬영된 얼굴의 모습 위에 가상 화장 도구에서 선택된 색상이 페인팅되어야 한다.
종래의 가상 메이크업 방법의 경우에는, 본 발명의 가상 화장 도구와 유사한 수단, 예컨대 그래픽 소프트웨어와 같은 도구의 브러시, 펜 등을 이용하여 단순히 대상 얼굴의 스틸 사진 위에 특정 색상을 특정 위치에 페인팅 하는 것에 불과하였다.
그러나, 본 발명은 대상 얼굴의 움직임 또는 대상 얼굴의 관찰하는 시점을 변화시키면서 대상 얼굴에 가상 메이크업 결과를 관찰할 수 있는 가상 메이크업 방법을 제공하다.
이를 위하여, 본 발명은 상기 가상 화장 도구를 이용하여 상기 제2 단계(S110)에서 형성된 얼굴 윤곽 레이어 위에 가상 메이크업 레이어가 페인팅 되는 것을 특징으로 한다. 구체적으로, 가상 메이크업 레이어는 입체적으로 모델링된 얼굴 윤곽 레이어의 외주면의 일부 또는 전부에 적층되는 특정 색상으로 채색된 레이어로 이루어진다.
이때, 가상 메이크업 레이어는 하나 이상의 레이어가 될 수 있다. 구체적으로 가상 메이크업 레이어는 눈썹화장을 위한 눈썹 레이어, 눈 화장을 위한 눈 레이어, 입술 화장을 위한 입술 레이어 등, 대상 얼굴에 채색되는 각 부분별로 별도로 형성되는 것이 바람직하다. 이렇게 다수의 레이어를 형성하는 경우, 추후 가상 메이크업의 수정 작업을 용이하게 수행하는 것이 가능하다. 예컨대, 눈썹, 눈, 입술 등의 가상 메이크업을 모두 종료한 다음 입술 부분의 색상이 마음에 들지 않는 경우, 또는 다른 색상으로 입술을 채색하고자 하는 경에는 단순히 입술 레이어만을 삭제하고 새로운 입술 레이어를 형성할 수 있다.
도 2는 본 발명의 다른 실시예에 따른 가상 메이크업 방법을 나타내는 순서도이다.
본 발명은 전술한 실시예와 달리, 2개의 단말기를 이용하여 원격지에 위치한 사람이 대상 얼굴에 가상 메이크업을 실시하고, 그 결과를 2개의 단말기에서 동시에 관찰할 수 있는 가상 메이크업 방법을 제공한다.
도 2를 참조하면, 본 발명의 또 다른 가상 메이크업 방법은 제1 ~ 5 단계로 이루어진다.
본 실시예에 따르면, 가상 메이크업을 실시하기 위하여 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 제1 제어부, 및 통신모듈을 포함하는 제1 휴대용 단말기 및 표시부, 제2 제어부, 및 통신모듈을 포함하는 제2 휴대용 단말기를 사용한다. 여기서, 제1 단말기는 가상 메이크업 대상이 사용하는 단말기이며, 제2 단말기는 대상에게 가상 메이크업을 실시하는 사람이 사용하는 단말기를 의미한다.
제1 단계는 제1 단말기 및 제2 단말기를 유무선으로 연결하여 동기화하는 단계(S200)이다. 이때 유무선 연결은 각 단말기에 제공된 통신 모듈을 사용한다. 구체적으로 제1 단말기와 제2 단말기는 일반 통신망, 또는 인터넷망을 통하여 유무선으로 연결되는 것이 바람직하다.
또한, 제1 단말기와 제2 단말기가 동기화된다는 의미는 구체적으로 제1 단말기와 제2 단말기의 표시부에 동일한 영상이 표시되는 것을 포함한다.
제2 단계는 제1 단말기의 카메라를 이용하여 대상의 얼굴을 촬영하고, 촬영된 얼굴을 제1 단말기 및 제2 단말기의 표시부에 각각 현시하는 단계(S210)이다. 전술한 제1 단계에서 제1 단말기와 제2 단말기가 예컨대 인터넷망 등을 통하여 유무선으로 연결되어 있으므로, 제1 단말기에서 촬영된 화상이 인터넷망 등을 경유하여 제2 단말기로 실시간으로 전송됨으로써 제1 단말기와 제2 단말기가 동일한 화면을 공유하는 것이 가능하다.
제3 단계는 제1 단말기를 통해 촬영된 입체적 형상을 분석하여 대상의 입체적인 얼굴 윤곽 레이어를 형성하는 단계(S220)이다. 이때 입체적인 얼굴 윤곽 레이어는 제1 단말기 또는 제2 단말기 중 하나의 단말기에서 형성되는 것으로 설정할 수 있다. 경우에 따라, 제1 단말기 또는 제2 단말기 중 하나는 얼굴 윤곽 레이어를 형성할 수 있으며, 다른 하나는 얼굴 윤곽 레이어를 자체적으로 형성하지 못하는 경우에도 어느 한 단말기에서 얼굴 윤곽 레이어를 형성한 후 타 단말기로 전송하는 것이 가능하다.
또한, 얼굴 윤곽 레이어를 형성하는 것에 대하여는 전술한 도 1의 실시예와 동일하므로, 상세한 설명은 생략한다.
제4 단계는 제3 단계(S220)에서 형성된 얼굴 윤곽 레이어를 제1 단말기와 제2 단말기가 공유하는 단계(S230, S240)이다. 이 때의 공유방법은 제2 단계(S210)의 촬영된 얼굴의 공유방법과 동일하다. 다만, 얼굴 윤곽 레이어가 양 단말기에 표시되지 않는다는 것은 전술한 실시예와 같다. 즉, 제1 단말기 또는 제2 단말기에서 얼굴 윤곽 레이어가 형성되면, 타 단말기로 상기 얼굴 윤곽레이어가 전송되며(S230), 전송이 완료되면 제1 단말기 및 제2 단말기에 사용자의 얼굴이 각각 현시된다(S240).
제5 단계는 제2 단말기에 제공된 가상 화장 도구를 이용하여 가상 메이크업 레이어를 페인팅 하는 단계(S250)이다. 이때에도, 제2 단말기에 의해 가상 메이크업이 이루어지면 유무선 방식으로 연결된 제1 단말기에도 동일한 결과물이 출력될 수 있다(S260).
따라서, 본 실시예에 따르면, 가상 화장을 원하는 대상이 제1 단말기를 이용하여 자신의 얼굴이 포함된 화상을 촬영하고, 촬영된 화상을 원격지의 제2 단말기에 전송함으로써, 제2 단말기를 소지한 타인, 예컨대 코디네이터 또는 전문 메이크업 아티스트가 대상의 얼굴에 가상 메이크업을 실시할 수 있다.
전술한 바와 같이, 본 발명에 따르면 대상의 얼굴을 분석하여 입체적 형상으로 모델링하고, 상기 모델링한 결과물과 대상의 얼굴을 연동함으로써 대상 얼굴의 표정 변화 또는 관찰하는 각도의 변화에 대응하여 가상 메이크업의 결과물을 확인할 수 있다.

Claims (15)

  1. 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 및 제어부를 포함하는 휴대용 단말기를 이용한 가상 메이크업 방법에 있어서,
    (a) 상기 카메라를 이용하여 대상자의 얼굴을 촬영하여 상기 표시부에 표시하는 단계;
    (b) 상기 제어부에 의해 상기 촬영된 얼굴의 입체적 형상을 분석하여 입체적인 얼굴 윤곽 레이어를 형성하는 단계; 및
    (c) 가상 화장 도구를 이용하여 상기 표시부에 현시된 얼굴 위에 하나 이상의 가상 메이크업 레이어를 페이팅하는 단계;를 포함하며,
    상기 얼굴 윤곽 레이어는 상기 표시부에 현시되지 아니하며,
    상기 메이크업 레이어는 상기 얼굴 윤곽 레이어의 외면을 적어도 부분적으로 페인팅하는 것으로 이루어지며,
    상기 얼굴 윤곽 레이어는 상기 카메라에 의해 촬영되는 사용자의 얼굴의 변화에 상응하여 함께 변화함으로써, 상기 메이크업 레이어가 상기 사용자의 얼굴 변화에 대응하여 함께 변화되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  2. 제1항에 있어서,
    상기 (b) 단계에서, 상기 입체적인 얼굴 윤곽 레이어는 적어도 2장 이상의 스틸 사진을 분석하여 형성되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  3. 제2항에 있어서,
    상기 적어도 2장의 스틸 사진은 사용자 얼굴의 정면을 기준으로 각각 상이한 각도에서 촬영되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  4. 제3항에 있어서,
    상기 적어도 2장의 스틸 사진은 사용자 얼굴의 정면사진 및 상기 사용자 얼굴의 정면을 기준으로 좌측 또는 우측으로 30~45도 회전된 각도에서 촬영한 사진을 포함하는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  5. 제1항에 있어서,
    상기 (b) 단계에서, 상기 입체적인 얼굴 윤곽 레이어는 적어도 3장 이상의 스틸 사진을 분석하여 형성되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  6. 제5항에 있어서,
    상기 적어도 3장의 스틸 사진은 사용자 얼굴의 정면을 기준으로 각각 상이한 각도에서 촬영되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  7. 제3항에 있어서,
    상기 적어도 3장의 스틸 사진은 사용자 얼굴의 정면사진 및 상기 사용자 얼굴의 정면을 기준으로 좌측 및 우측으로 30~45도 회전된 각도에서 촬영한 사진을 포함하는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  8. 카메라부, 터치입력이 가능한 터치스크린으로 구성되는 표시부, 제1 제어부, 및 통신모듈을 포함하는 제1 휴대용 단말기 및 표시부, 제2 제어부, 및 통신모듈을 포함하는 제2 휴대용 단말기를 이용한 가상 메이크업 방법에 있어서,
    (a) 상기 제1 단말기 및 제2 단말기가 각각의 통신모듈에 의해 유무선으로 연결되어 동기화하는 단계;
    (b) 상기 제1 단말기의 카메라를 이용하여 사용자의 얼굴을 촬영하여, 상기 제1 단말기 및 제2 단말기의 표시부에 각각 현시하는 단계;
    (c) 상기 촬영된 얼굴의 입체적 형상을 분석하여 입체적인 얼굴 윤곽 레이어를 형성하는 단계;
    (d) 상기 얼굴 윤곽 레이어를 상기 제1 단말기 및 제2 단말기가 공유하는 단계; 및
    (e) 상기 제2 단말기에 제공된 가상 화장 도구를 이용하여 상기 제2 단말기의 표시부에 현시된 얼굴 위에 가상 메이크업 레이어를 페인팅하는 단계;를 포함하며,
    상기 얼굴 윤곽 레이어는 상기 제1 단말기 및 제2 단말기의 표시부에 현시되지 아니하며,
    상기 메이크업 레이어는 상기 얼굴 윤곽 레이어의 외면을 적어도 부분적으로 페인팅하는 것으로 이루어지며,
    상기 얼굴 윤곽 레이어는 상기 카메라에 의해 촬영되는 사용자의 얼굴의 변화에 상응하여 함께 변화함으로써, 상기 메이크업 레이어가 상기 사용자의 얼굴 변화에 대응하여 함께 변화되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  9. 제8항에 있어서,
    상기 (c) 단계에서, 상기 입체적인 얼굴 윤곽 레이어는 적어도 2장 이상의 스틸 사진을 분석하여 형성되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  10. 제9항에 있어서,
    상기 적어도 2장의 스틸 사진은 사용자 얼굴의 정면을 기준으로 각각 상이한 각도에서 촬영되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  11. 제9항에 있어서,
    상기 적어도 2장의 스틸 사진은 사용자 얼굴의 정면사진 및 상기 사용자 얼굴의 정면을 기준으로 좌측 또는 우측으로 30 ~ 45° 회전된 각도에서 촬영한 사진을 포함하는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  12. 제8항에 있어서,
    상기 (b) 단계에서, 상기 입체적인 얼굴 윤곽 레이어는 적어도 3장 이상의 스틸 사진을 분석하여 형성되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  13. 제9항에 있어서,
    상기 적어도 3장의 스틸 사진은 사용자 얼굴의 정면을 기준으로 각각 상이한 각도에서 촬영되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  14. 제9항에 있어서,
    상기 적어도 3장의 스틸 사진은 사용자 얼굴의 정면사진 및 상기 사용자 얼굴의 정면을 기준으로 좌측 및 우측으로 30 ~ 45° 회전된 각도에서 촬영한 사진을 포함하는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
  15. 제8항에 있어서,
    상기 (c) 단계에서, 상기 얼굴 윤곽 레이어는 상기 제1 제어부 또는 제2 제어부 중 어느 하나에 의해 형성되는 것을 특징으로 하는 휴대용 단말기를 이용한 가상 메이크업 방법.
KR1020100128039A 2010-12-15 2010-12-15 휴대용 단말기를 이용한 가상 화장 방법 KR20120066773A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100128039A KR20120066773A (ko) 2010-12-15 2010-12-15 휴대용 단말기를 이용한 가상 화장 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100128039A KR20120066773A (ko) 2010-12-15 2010-12-15 휴대용 단말기를 이용한 가상 화장 방법

Publications (1)

Publication Number Publication Date
KR20120066773A true KR20120066773A (ko) 2012-06-25

Family

ID=46686002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100128039A KR20120066773A (ko) 2010-12-15 2010-12-15 휴대용 단말기를 이용한 가상 화장 방법

Country Status (1)

Country Link
KR (1) KR20120066773A (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083345B2 (en) 2015-05-05 2018-09-25 Myongsu Choe Makeup supporting methods for creating and applying a makeup guide content to makeup user's face on a real-time basis
KR101940555B1 (ko) * 2017-09-01 2019-01-21 (주)비버스팩토리 인터넷 개인 방송에서 가상 컨텐츠 삽입 시스템 및 방법
KR20220019610A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220019613A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 코스메틱 오브젝트의 소싱을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220019614A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템
KR20220022433A (ko) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 메이크업 이펙트의 선택적 적용과 코스메틱 오브젝트의 바잉 서비스 제공 시스템
KR20220022435A (ko) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 커뮤니케이션 중 웨어링 이펙트 실시간 반영 시스템
WO2023054736A1 (ko) * 2021-09-28 2023-04-06 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
WO2024058468A1 (ko) * 2022-09-16 2024-03-21 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083345B2 (en) 2015-05-05 2018-09-25 Myongsu Choe Makeup supporting methods for creating and applying a makeup guide content to makeup user's face on a real-time basis
KR101940555B1 (ko) * 2017-09-01 2019-01-21 (주)비버스팩토리 인터넷 개인 방송에서 가상 컨텐츠 삽입 시스템 및 방법
KR20220019610A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220019613A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 코스메틱 오브젝트의 소싱을 통한 선택적 메이크업 이펙팅 적용 시스템
KR20220019614A (ko) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 메이크업 이펙트가 선택적으로 적용된 이미지의 포스팅에 대한 리워드 제공 시스템
KR20220022433A (ko) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 메이크업 이펙트의 선택적 적용과 코스메틱 오브젝트의 바잉 서비스 제공 시스템
KR20220022435A (ko) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 커뮤니케이션 중 웨어링 이펙트 실시간 반영 시스템
WO2023054736A1 (ko) * 2021-09-28 2023-04-06 주식회사 타키온비앤티 유저의 페이셜 인식을 통한 선택적 메이크업 이펙팅 적용 시스템
WO2024058468A1 (ko) * 2022-09-16 2024-03-21 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Similar Documents

Publication Publication Date Title
KR20120066773A (ko) 휴대용 단말기를 이용한 가상 화장 방법
KR102069964B1 (ko) 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법
US20210177124A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US9595127B2 (en) Three-dimensional collaboration
US10325407B2 (en) Attribute detection tools for mixed reality
US11736756B2 (en) Producing realistic body movement using body images
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
EP3096208B1 (en) Image processing for head mounted display devices
US20120162384A1 (en) Three-Dimensional Collaboration
US10373348B2 (en) Image processing apparatus, image processing system, and program
CN107211165A (zh) 用于自动延迟视频演示的装置、系统和方法
CN107274491A (zh) 一种三维场景的空间操控虚拟实现方法
CN108762508A (zh) 一种基于vr体验舱的人体与虚拟人合成系统及方法
Treepong et al. Makeup creativity enhancement with an augmented reality face makeup system
CN117292097B (zh) Ar试穿互动体验方法及系统
KR20150093930A (ko) 증강현실을 이용한 메이크업 장치 및 방법
RU2735066C1 (ru) Способ отображения широкоформатного объекта дополненной реальности
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
JP6738780B2 (ja) 頬紅案内装置及びその方法
WO2017147826A1 (zh) 智能设备的图像处理方法及装置
CN116012564B (zh) 一种三维模型与实景照片智能融合的设备与方法
JP2001216531A (ja) 3次元仮想空間参加者表示方法及び3次元仮想空間表示装置
KR102138620B1 (ko) 증강현실을 이용한 3d 모델 구현시스템 및 이를 이용한 구현방법
Woodward et al. An interactive 3D video system for human facial reconstruction and expression modeling
JP2024054570A (ja) 合成映像提供システム

Legal Events

Date Code Title Description
N231 Notification of change of applicant
N231 Notification of change of applicant
N231 Notification of change of applicant
WITN Withdrawal due to no request for examination