KR20240038537A - 디스플레이 장치 및 이의 제어 방법 - Google Patents

디스플레이 장치 및 이의 제어 방법 Download PDF

Info

Publication number
KR20240038537A
KR20240038537A KR1020220144592A KR20220144592A KR20240038537A KR 20240038537 A KR20240038537 A KR 20240038537A KR 1020220144592 A KR1020220144592 A KR 1020220144592A KR 20220144592 A KR20220144592 A KR 20220144592A KR 20240038537 A KR20240038537 A KR 20240038537A
Authority
KR
South Korea
Prior art keywords
makeup
information
area
region
interest
Prior art date
Application number
KR1020220144592A
Other languages
English (en)
Inventor
한지연
김선혜
이가희
이교희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/012885 priority Critical patent/WO2024058468A1/ko
Publication of KR20240038537A publication Critical patent/KR20240038537A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

디스플레이 장치의 제어 방법이 개시된다. 본 제어 방법은, 사용자에 의해 선택된 메이크업 스타일을 식별하는 단계, 카메라를 통해 사용자의 얼굴이 촬영되면, 사용자의 얼굴 영상을 디스플레이하는 단계, 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 사용자의 얼굴의 각 영역 별로 획득하는 단계, 사용자의 얼굴 영상에서 관심 영역이 선택되면, 획득된 메이크업 정보 및 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 다른 영역 간의 메이크업 매칭률을 산출하는 단계, 및 산출된 메이크업 매칭률에 기초하여 관심 영역 또는 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계를 포함한다.

Description

디스플레이 장치 및 이의 제어 방법{DISPLAY APPARATUS AND CONTROLLING METHOD THEROF}
본 개시는 디스플레이 장치 및 이의 제어 방법에 관한 것으로, 보다 상세하게는, 메이크업 가이드를 제공하는 디스플레이 장치 및 이의 제어 방법에 관한 것이다.
최근, 사람들은 소셜 플랫폼을 통해 자신의 메이크업이나 패션을 타인과 공유하고 있다. 특히, 메이크업의 경우, 많은 인플루언서들이 다양한 스타일의 컨텐츠를 제작 및 배포하고 있으며, 사람들은 이를 보고 메이크업 방법이나 스타일을 따라하는 경우가 많다.
하지만, 인플루언서들의 컨텐츠를 그대로 따라하는 데는 시간의 소모가 크며, 이를 따라하더라도 자신과는 잘 어울리지 않아 메이크업을 실패하는 경우가 자주 일어난다. 따라서, 원하는 메이크업 스타일을 자신과 잘 어울리게 구현하도록 가이드를 제공하는 기술이 필요하다.
본 개시의 일 실시 예에 따른, 카메라를 포함하는 디스플레이 장치의 제어 방법은, 사용자에 의해 선택된 메이크업 스타일을 식별하는 단계, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계, 및 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다.
또한, 상기 메이크업 매칭률을 산출하는 단계는, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계, 및 상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계를 포함할 수 있다.
또한, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계, 및 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계를 포함할 수 있다.
또한, 상기 메이크업 매칭률을 산출하는 단계는, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계, 및 상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계를 포함할 수 있다.
또한, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계, 및 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계를 포함할 수 있다.
또한, 상기 식별하는 단계는, 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하는 단계, 및 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 단계를 포함할 수 있다.
또한, 상기 메이크업 가이드는, 상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다.
또한, 메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받는 단계를 포함하고, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따른 디스플레이 장치는, 디스플레이, 카메라, 및 사용자에 의해 선택된 메이크업 스타일을 식별하고, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하도록 상기 디스플레이를 제어하고, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하고, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하고, 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다.
또한, 상기 적어도 하나의 프로세서는, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, 상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, 상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다.
또한, 상기 메이크업 가이드는, 상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보가 입력되면, 상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른, 디스플레이 장치의 프로세서에 의해 실행되는 경우 상기 디스플레이 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은, 사용자에 의해 선택된 메이크업 스타일을 식별하는 단계, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계, 및 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도,
도 3은 메이크업 스타일 추천 영상의 예시도,
도 4a는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면,
도 4b는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면,
도 4c는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면,
도 5a는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면,
도 5b는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면,
도 6은 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도, 및
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 나타내는 흐름도이다.
이하 도면을 참조하여 설명되는 본 개시의 다양한 실시 예들은 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 개시를 설명함에 있어, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 동일한 구성의 중복 설명은 되도록 생략하기로 한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 개시에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 개시에서, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 개시의 실시 예들에서 사용되는 용어들은 다르게 정의되지 않는 한, 해당 기술 분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.
이하에서 첨부된 도면을 참조하여 본 개시의 다양한 실시 예를 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 1에 따르면, 디스플레이 장치(100)는 다양한 메이크업 스타일을 추천할 수 있다(11). 예를 들어, 디스플레이 장치(100)에는 후술할 본 개시의 다양한 실시 예들에 따른 기능을 수행하기 위한 메이크업 가이드 앱이 설치될 수 있으며, 사용자는 메이크업 가이드 앱을 실행시킬 수 있다.
메이크업 가이드 앱이 실행되면, 디스플레이 장치(100)는, 예를 들어, 인플루언서의 다양한 메이크업 스타일 영상(정지 영상, 동영상)이나, 디스플레이 장치(100)에 저장된 사용자의 영상 등을 사용자가 선택할 수 있도록 디스플레이함으로써, 사용자에게 다양한 메이크업 스타일들을 추천할 수 있다.
사용자가 하나의 메이크업 스타일을 선택하면(12), 디스플레이 장치(100)는 카메라 앱을 실행시켜, 사용자가 자신의 현재 메이크업 상태를 촬영하도록 할 수 있다(13). 이때, 사용자의 얼굴이 촬영되도록 가이드 UI(User Interface)를 디스플레이할 수도 있다.
사용자의 현재 상태가 촬영되면, 디스플레이 장치(100)는 촬영된 영상을 디스플레이하고, 디스플레이된 영상을 분석하여 사용자의 얼굴 영역별 메이크업 정보를 획득할 수 있다. 이때, 얼굴 영역별 메이크업 정보는, 사용자의 얼굴 영역(예를 들어, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등을 포함할 수 있다.) 각각에 대한 컬러 정보, 텍스쳐 정보, 강조 정도 정보를 포함할 수 있으니, 이에 한정되는 것은 아니다.
한편, 사용자는 디스플레이된 영상에서 얼굴 영역들 중 관심 영역을 선택할 수 있다. 이때, 디스플레이 장치(100)는 사용자가 관심 영역을 선택하도록 안내하는 가이드 UI를 디스플레이할 수도 있다.
사용자가 촬영된 사진을 기반으로 관심 영역을 선택하면(14), 디스플레이 장치(100)는 사용자의 영상을 분석하여 획득된 얼굴 영역별 메이크업 정보와 추천 영상에서 선택된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 얼굴의 다른 영역들 간의 메이크업 매칭률을 산출할 수 있다.
이때, 매칭 데이터베이스는, 컬러 매칭 데이터베이스, 텍스쳐 매칭 데이터 베이스, 강조 정보 매칭 데이터베이스를 포함할 수 있다. 컬러 매칭 데이터베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 컬러 정보를 포함할 수 있다. 텍스쳐 매칭 데이터 베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 텍스쳐 정보를 포함할 수 있다. 강조 정보 매칭 데이터베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 텍스쳐 정보를 포함할 수 있다.
예를 들어, 사용가가 새로 산 아이메이크업 제품을 사용하여 아이메이크업을 하고 나서, 현재 아이메이크업 상태에 어울리도록 "내추럴 스타일"의 메이크업을 하고 싶은 경우, 사용자는 추천 영상에서 "내추럴 스타일"에 대응되는 이미지를 선택하고, 디스플레이된 영상에서 "눈"을 관심 영역으로 선택할 수 있다.
이 경우, 디스플레이 장치(100)는 디스플레이된 영상을 분석하여 사용자의 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등에 대한 현재의 컬러 정보, 텍스쳐 정보, 강조 정도 정보를 획득할 수 있다. 또한, 디스플레이 장치(100)는 내추럴 스타일에 대응되는 매칭 데이터베이스를 획득할 수 있다.
이에 따라, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 컬러에 매칭되는 나머지 영역들의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 컬러 정보를 영역별로 비교하여, 나머지 영역들 각각의 컬러 매칭률을 산출할 수 있다. 이때, 산출되는 컬러 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 컬러가 눈 영역의 현재 컬러와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 컬러에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다.
한편, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 텍스쳐에 매칭되는 나머지 영역들의 텍스쳐에 대한 정보를, 내추럴 스타일에 대응되는 텍스쳐 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 텍스쳐 정보와 텍스쳐 매칭 데이터베이스에서 식별된 나머지 영역들의 텍스쳐 정보를 영역별로 비교하여, 나머지 영역들 각각의 텍스쳐 매칭률을 산출할 수 있다. 이때, 산출되는 텍스쳐 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 텍스쳐가 눈 영역의 현재 텍스쳐와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 텍스쳐에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다.
또한, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 강조 정도에 매칭되는 나머지 영역들의 컬러에 대한 강조 정도를, 내추럴 스타일에 대응되는 강조 정도 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 강조 정도 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 강조 정도 정보를 영역별로 비교하여, 나머지 영역들 각각의 강조 정도 매칭률을 산출할 수 있다. 이때, 산출되는 강조 정도 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 강조 정도가 눈 영역의 현재 강조 정도와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 강조 정도에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다.
이와 같이, 관심 영역과 얼굴의 다른 영역들 간의 메이크업 매칭률이 산출되면, 디스플레이 장치(100)는 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된 메이크업 가이드를 디스플레이할 수 있다.
상술한 예에서, 사용자의 현재 눈 영역의 컬러는 "a"이고, 입술 영역의 컬러는 "b"이지만, 눈 영역의 컬러 "a"에 어울리는 입술 영역의 컬러는 "c"인 것으로 컬러 매칭 데이터베이스에서 식별된 경우, 디스플레이 장치(100)는 관심 영역인 눈 영역과 다른 영역인 입술 영역의 컬러 정보 즉, "b"와 "c"를 비교하여 눈 영역과 입술 영역의 컬러 매칭률을 산출할 수 있으며, 이에 따라, 내추럴 메이크업 스타일을 구현하기 위해 입술 영역의 컬러 "b"를 "c"로 수정할 것을 가이드하는 메이크업 가이드를 디스플레이할 수 있을 것이다. 텍스쳐나 강조 정도에 대한 메이크업 가이드 역시 이와 유사한 방법으로 제공될 수 있을 것이다.
이때, 메이크업 가이드는, 실시 예에 따라, 텍스트 형태의 가이드 메시지, 메이크업 방법을 보여주는 관련 영상, 또는 관련 메이크업 제품 추천의 형태로 디스플레이될 수 있다.
이상과 같은 본 개시의 일 실시 예에 따르면, 사용자는 추천된 메이크업 스타일들 중 원하는 메이크업 스타일을 선택하고, 자신의 얼굴 영역 중 관심 영역을 선택함으로써, 원하는 메이크업 스타일이 자신의 현재 상태를 기준으로 완성될 수 있도록 메이크업 가이드를 제공받을 수 있다. 이에 따라, 사용자는 보다 편리하고 정확하게 자신이 원하는 메이크업 스타일을 완성할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도이다. 도 2에 따르면, 디스플레이 장치(100)는 카메라(110), 프로세서(120) 및 디스플레이(130)를 포함한다.
카메라(110)는 주변 환경을 촬영하여 이미지를 획득할 수 있다. 이미지는 하나의 프레임을 포함하는 정적 이미지와 복수의 프레임을 포함하는 동적 이미지를 포함할 수 있다. 예를 들어, 카메라(110)는 RGB 카메라, 뎁스 카메라, 광각 카메라, 망원 카메라 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
디스플레이(130)는 프로세서(120)의 제어를 받아 정지 영상, 동영상, 유저 인터페이스(UI), 아이콘 등과 같은 각종 시각 정보를 디스플레이할 수 있다. 이를 위해, 디스플레이(170)는 LCD(Liquid Crystal Display Panel), LED(light emitting diode), OLED(Organic Light Emitting Diodes), 마이크로 LED 등과 같은 다양한 형태로 구현될 수 있다. 또한, 디스플레이(130)는 터치 패널과 결합되어 터치 스크린 형태로 구현될 수도 있다.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 이때, 프로세서(120)는 적어도 하나의 프로세서(120)를 포함할 수 있다. 예를 들어, 프로세서(120)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP))를 하나 또는 그 이상 포함할 수 있다.
특히, 프로세서(120)는 사용자에 의해 선택된 메이크업 스타일을 식별할 수 있다. 예를 들어, 프로세서(120)는 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이할 수 있다. 이때, 복수의 이미지는 인플루언서의 메이크업 스타일 영상일 수도 있고, 메이크업 방법을 보여주는 동영상의 썸네일 수도 있고, 디스플레이 장치(100)에 저장된 사용자의 메이크업 이미지일 수도 있다.
이에 따라, 사용자에 의해 하나의 이미지가 선택되면, 프로세서(120)는 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다. 구체적으로, 복수의 이미지가 메이크업 스타일 별로 디스플레이된 경우, 사용자에 의해 하나의 이미지가 선택되면, 프로세서(120)는 선택된 이미지가 어떤 메이크업 스타일에 대응되는지 바로 식별할 수 있다. 또는, 프로세서(120)는 사용자에 의해 선택된 이미지를 분석하여 해당 이미지가 어떤 메이크업 스타일에 대응되는지 식별할 수 있다. 이때, 다양한 영상 인식 기술이나, 영상이 입력되면 입력된 영상에 대한 메이크업 스타일을 출력하도록 학습된 인공 지능 모델 등이 이용될 수 있다. 보다 구체적인 내용은 본 개시의 요지와 무관하므로, 설명을 생략한다.
또한, 일 실시 예에 따르면, 프로세서(120)는 다양한 메이크업 스타일들을 포함하는 메이크업 스타일 리스트를 텍스트 형태로 디스플레이하고, 사용자가 리스트에서 하나의 메이크업 스타일을 선택하면, 선택된 메이크업 스타일을 식별할 수 있다. 이때, 실시 예에 따라, 메이크업 스타일에 대응되는 이미지와 해당 메이크업 스타일을 나타내는 텍스트가 함께 디스플레이될 수도 있음은 물론이다.
도 3은 디스플레이(130)에 디스플레이된 메이크업 스타일 추천 영상의 예시도이다. 도 3을 참조하면, 클래식 메이크업, 네추럴 메이크업, 봄 분위기 메이크업, 시크 메이크업 등과 같은 다양한 메이크업 스타일들이 관련 이미지와 함께 디스플레이된 것을 볼 수 있다. 사용자는 디스플레이된 이미지들 중 하나를 선택하여 복수의 메이크업 스타일 중 자신이 원하는 메이크업 스타일을 선택할 수 있다.
이와 같이, 메이크업 스타일이 선택되면, 프로세서(120)는 사용자의 현재 상태를 촬영하도록 카메라(110)를 제어할 수 있다. 예를 들어, 프로세서(120)는 사용자의 얼굴을 촬영할 것을 안내하는 가이드 UI를 디스플레이하고, 카메라 앱을 실행하여 카메라(110)가 사용자의 현재 상태를 촬영하도록 할 수 있다.
카메라(110)를 통해 사용자의 얼굴이 촬영되면, 프로세서(120)는 사용자의 얼굴 영상을 디스플레이하도록 디스플레이(130)를 제어할 수 있다.
이상에서는, 메이크업 스타일 선택후에 사용자의 얼굴이 촬영되는 경우를 예로 들었으나, 실시 예가 이에 한정되는 것은 아니다. 즉, 실시 예에 따라, 사용자의 얼굴 촬영 후에 메이크업 스타일의 선택이 이루어질 수도 있다.
이에 따라, 프로세서(120)는, 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 획득할 수 있다. 이때, 메이크업 정보는, 사용자의 얼굴의 영역 별로 각각 획득될 수 있다.
구체적으로, 프로세서(120)는, 다양한 영상 분석 기술을 이용하여, 얼굴의 각 영역을 식별하고 식별된 각 영역에 대한 메이크업 정보를 획득할 수 있다. 또는 프로세서(120)는, 얼굴 영상이 입력되면 얼굴의 각 영역에 대한 메이크업 정보를 출력하도록 학습된 인공 지능 모델을 이용하여, 얼굴의 각 영역에 대한 메이크업 정보를 획득할 수도 있다. 이에 관한 보다 자세한 내용은 보다 구체적인 내용은 본 개시의 요지와 무관하므로 설명을 생략한다.
예를 들어, 컬러 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 컬러가 어떤 컬러인지에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 텍스쳐 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 매트한 정도, 쉬머한 정도, 글리터한 정도, 글로시한 정도에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 강조 정도 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 넓이, 두께, 농도, 채도 등에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 가령, 강조 정도 정보는, 아이 메이크업의 영역, 넓이, 농도, 아이 라인의 두께, 아이 라인의 꼬리 방향, 립 라인, 입꼬리 방향에 관한 정보, 눈, 코 및 볼 영역의 그라데이션에 관한 정보 등을 포함할 수 있다.
한편, 프로세서(120)는 사용자의 얼굴 영상에서 관심 영역이 선택되면, 메이크업 정보 및 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다.
예를 들어, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상에서 관심 영역을 선택할 것을 안내하는 가이드 UI를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 이에 따라, 사용자는 디스플레이된 얼굴 영상에서 관심 영역을 선택할 수 있다. 그러나, 이에 한정되는 것은 아니다.
관심 영역이 선택되면, 프로세서(120)는 관심 영역과 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다. 구체적으로, 프로세서(120)는 사용자의 얼굴 영상을 분석하여 획득한 메이크업 정보 및 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다.
이때, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스는, 디스플레이 장치(100)의 저장부(150) 또는 외부 서버로부터 획득될 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 스타일 별 매칭 데이터베이스를 저장할 수 있다. 이 경우, 프로세서(120) 저장된 메이크업 스타일 별 매칭 데이터베이스로부터, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 획득할 수 있다. 또는 일 실시 예에 따르면, 프로세서(120)는 메이크업 스타일 별 매칭 데이터베이스를 저장하고 있는 외부 서버로, 사용자가 선택한 메이크업 스타일에 관한 정보를 전송하고, 외부 서버로부터 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 수신하여 획득할 수도 있다. 이와 같이 획득된 매칭 데이터베이스는, 도 1에서 전술한 바와 같이, 사용자가 선택한 메이크업 스타일에 대응되는, 컬러 매칭 데이터베이스, 텍스쳐 매칭 데이터 베이스, 강조 정보 매칭 데이터베이스를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 사용자가 선택한 관심 영역은 포인트 영역일 수 있다. 포인트 영역은, 얼굴의 영역들 중 사용자가 만족스럽게 메이크업을 한 영역일 수 있다. 사용자는 포인트 영역을 기준으로 나머지 영역들을 메이크업하여, 선택한 메이크업 스타일을 완성하고 싶을 수 있다. 예를 들어, 사용자는 새로 구입한 아이메이크업 제품이나 꼭 사용하고 싶은 아이메이크업 제품을 활용하여 아이메이크업을 완성 한 후, 그와 어울리게 나머지 영역들을 메이크업하여 원하는 메이크업 스타일(예를 들어, 내추럴 메이크업 스타일)을 완성하고 싶을 수 있다.
따라서, 사용자가 선택한 관심 영역이 포인트 영역인 경우, 프로세서(120)는 포인트 영역을 기준으로 얼굴의 다른 영역의 매칭률을 산출하고, 이에 기초하여 메이크업 가이드를 디스플레이할 수 있다.
예를 들어, 사용자가 "내추럴 스타일"을 선택하고, 포인트 영역을 "눈"으로 선택한 경우, 프로세서(120)는 현재 사용자의 눈 영역의 컬러에 매칭되는 나머지 영역들의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 나머지 영역들의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 컬러 정보를 영역별로 비교하여, 나머지 영역들 각각의 컬러 매칭률을 산출할 수 있다. 이때, 현재 컬러 정보와 비교되는 컬러 정보는, 눈 영역의 컬러를 기준으로 컬러 매칭 데이터베이스에서 식별된 것이므로, 산출된 컬러 매칭률은 눈 영역을 기준으로 한 나머지 영역들 각각의 컬러 매칭률이 될 수 있다. 이와 마찬가지로, 프로세서(120)는 눈 영역을 기준으로 한 나머지 영역들의 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다.
이와 같이, 메이크업 매칭률이 산출되면, 프로세서(120)는 산출된 메이크업 매칭률에 기초하여 포인트 영역에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다.
구체적으로, 프로세서(120)는 포인트 영역을 기준으로 한 다른 영역의 컬러 매칭률에 기초하여 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 포인트 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률에 기초하여 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 포인트 영역을 기준으로 한 다른 영역의 강조 정보 매칭률에 기초하여 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다.
도 4a, 도 4b 및 도 4b는 본 개시의 일 실시 예에 따라 포인트 영역이 선택된 경우, 메이크업 가이드가 디스플레이된 일 예를 도시하고 있다.
먼저, 도 4a에 도시된 바와 같이, 촬영된 사용자의 얼굴 영상이 디스플레이(130)에 디스플레이될 수 있다. 이 경우, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 사용자의 얼굴의 영역 별로 각각 획득할 수 있다.
이후, 사용자는 포인트 영역을 선택할 수 있다. 도 4b는 눈 영역이 포인트 영역으로 선택된 예를 도시하고 있다. 이와 같이, 눈 영역이 포인트 영역으로 선택되면, 프로세서(120)는 선택된 눈 영역을 기준으로, 다른 영역의 컬러 매칭률을 산출하고, 이에 기초하여 도 4c에 도시된 바와 같은 다른 영역에 대한 메이크업 가이드를 디스플레이할 수 있다.
한편, 도 4b에서는, 안내 메시지가 메이크업 가이드로 디스플레이된 것을 예로 들었으나, 이에 한정되는 것은 아니다. 예를 들어, 메이크업 가이드는 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된 안내 메시지 뿐만 아니라, 메이크업 방법과 관련된 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다.
이때, 프로세서(120)는 매칭률이 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 매칭률에 따른 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 사용자가 선택한 관심 영역은 보완 영역일 수 있다. 예를 들어, 사용자는 메이크업을 완료한 후 추가적으로 보완하고 싶은 영역이 있을 수 있으며, 이를 관심 영역으로 선택할 수 있다.
보완 영역은 포인트 영역과 달리, 사용자가 보완하고 싶은 영역이므로, 사용자가 선택한 관심 영역이 보완 영역인 경우, 프로세서(120)는 얼굴의 나머지 영역들을 기준으로 보완 영역의 매칭률을 산출하고, 이에 기초하여 메이크업 가이드를 디스플레이할 수 있다.
예를 들어, 사용자가 "내추럴 스타일"을 선택하고, 보완 영역을 "볼"로 선택한 경우, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 컬러에 매칭되는 볼 영역의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 볼 영역의 컬러 정보를 비교하여, 볼 영역의 컬러 매칭률을 산출할 수 있다. 이때, 현재 볼의 현재 컬러 정보와 비교되는 컬러 정보는, 나머지 영역들의 컬러를 기준으로 컬러 매칭 데이터베이스에서 식별된 것이므로, 산출된 컬러 매칭률은 나머지 영역들을 기준으로 한 볼 영역의 컬러 매칭률이 될 수 있다.
이와 마찬가지로, 프로세서(120)는 볼을 제외한 나머지 영역들을 기준으로 한 볼 영역의 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다. 예를 들어, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 텍스쳐에 매칭되는 볼 영역의 텍스쳐에 대한 정보를, 내추럴 스타일에 대응되는 텍스쳐 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 텍스쳐 정보와 텍스쳐 매칭 데이터베이스에서 식별된 볼 영역의 텍스쳐 정보를 비교하여, 나머지 영역들을 기준으로 한 볼 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 강조 정도에 매칭되는 볼 영역의 강조 정도에 대한 정보를, 내추럴 스타일에 대응되는 강조 정도 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 강조 정도 정보와 텍스쳐 매칭 데이터베이스에서 식별된 볼 영역의 강조 정도 정보를 비교하여, 나머지 영역들을 기준으로 한 볼 영역의 강조 정도 매칭률을 산출할 수 있다.
이와 같이, 메이크업 매칭률이 산출되면, 프로세서(120)는 산출된 메이크업 매칭률에 기초하여 보완 영역에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다.
구체적으로, 프로세서(120)는 나머지 영역들을 기준으로 한 보완 영역의 컬러 매칭률에 기초하여 보완 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 나머지 영역들을 기준으로 한 보완 영역의 텍스쳐 매칭률에 기초하여 보완 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 나머지 영역들을 기준으로 한 보완 영역의 강조 정보 매칭률에 기초하여 보완 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다.
도 5a 및 도 5b는 본 개시의 일 실시 예에 따라 보완 영역이 선택된 경우, 메이크업 가이드가 디스플레이된 일 예를 도시하고 있다.
먼저, 도 4a에 도시된 바와 같이, 촬영된 사용자의 얼굴 영상이 디스플레이(130)에 디스플레이될 수 있다. 이 경우, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 사용자의 얼굴의 영역 별로 각각 획득할 수 있다.
이후, 사용자는 도 5a에 도시된 바와 같이, 보완 영역을 선택할 수 있다. 도 4a는 볼 영역이 보완 영역으로 선택된 예를 도시하고 있다. 이와 같이, 볼 영역이 보완 영역으로 선택되면, 프로세서(120)는 얼굴의 나머지 영역들을 기준으로, 볼 영역의 컬러 매칭률을 산출하고, 이에 기초하여 도 5b에 도시된 바와 같은 볼 영역에 대한 메이크업 가이드를 디스플레이할 수 있다.
이때, 프로세서(120)는 도 5b의 참조 번호 51과 같이, 볼 영역의 현재 메이크업 상태에 관한 코멘트 및 매칭률을 높이기 위한 메이크업 방법에 관한 동영상을 포함하는 메이크업 가이드를 디스플레이할 수 있다. 또는 프로세서(120)는 도 5b의참조 번호 52와 같이, 매칭률을 높이기 위한 메이크업 제품에 관한 추천을 포함하는 메이크업 가이드를 디스플레이할 수도 있다. 그러나, 이는 일 실시 예일 뿐, 메이크업 가이드가 이에 한정되는 것은 아니다.
프로세서(120)는 매칭률이 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 매칭률에 따른 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 프로세서(120)는 사용자가 포인트 영역 또는 보완 영역 중 하나를 선택하도록 안내하는 가이드 UI를 디스플레이할 수 있다. 이때, 포인트 영역과 보완 영역을 설명하는 안내 메시지기 함께 디스플레이될 수 있다.
사용자가 포인트 영역을 선택하고, 얼굴의 일 영역을 선택하면, 선택된 영역은 포인트 영역이 되며, 이에 따라, 포인트 영역을 기준으로 한 다른 영역에 대한 메이크업 가이드가 디스플레이될 수 있다. 만일, 사용자가 보완 영역을 선택하고, 얼굴의 일 영역을 선택하면, 선택된 영역은 보완 영역이 되며, 이에 따라, 얼굴의 나머지 영역들을 기준으로 한 보완 영역에 대한 메이크업 가이드가 디스플레이 될 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 사용자는 컨텍스트 정보를 입력할 수 있다. 예를 들어, 사용자는 관심 영역을 선택하면서, 메이크업 목적, 방문 장소 또는 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력할 수 있다. 이때, 컨텍스트 정보는 사용자의 음성이나, 메시지 입력을 통해 디스플레이 장치(100)에 입력될 수 있다.
이에 따라, 프로세서(120)는 사용자의 컨텍스트 정보를 반영하여 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 이때, 프로세서(120)는 매칭률 및 컨텍스트 정보가 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률 및 컨텍스트에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 사용자의 컨텍스트 정보를 반영한 메이크업 가이드를 디스플레이할 수 있으나, 이에 한정되는 것은 아니다.
예를 들어, 메이크업 목적으로 "증명 사진"이 입력된 경우, 프로세서(120)는 입술 메이크업에 대해 그라데이션 립보다 풀 립을 추천하는 등 컨텍스트에 맞는 추가적인 메이크업 가이드를 디스플레이할 수 있다.
또한, 예를 들어, 사용자가 포인트 영역으로 선택한 눈 영역의 메이크업에 사용한 제품에 관한 정보가 입력된 경우, 프로세서(120)는 사용된 제품의 특성을 반영하여 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 사용자가 아무런 메이크업도 하지 않은 경우, 사용자가 선택한 포인트 영역에 대한 메이크업에 대한 가이드를 제공할 수 있다.
예를 들어, 프로세서(120)는 사용자의 현재 메이크업 상태에 관한 정보를 입력받을 수 있다. 예를 들어, 프로세서(120)는 메이크업 전인지 또는 메이크업 중인지 여부를 선택할 수 있는 UI를 디스플레이하고, 이를 통해 사용자가 메이크업 전 상태인지 아니면, 메이크업 중인 상태인지를 식별할 수 있다. 또는, 사용자의 얼굴 영상을 분석하여 사용자의 현재 메이크업 상태를 판단할 수도 있다.
이에 따라, 사용자가 메이크업 전 상태인 것으로 식별되면, 프로세서(120)는 사용자가 선택한 메이크업 스타일에 대응되는 포인트 영역의 메이크업 방법에 관한 메이크업 가이드 영상을 제공하여 사용자가 포인트 메이크업을 처음부터 수행할 수 있도록 할 수 있다.
한편, 메이크업 중인 상태로 식별되었으나, 포인트 영역의 메이크업이 부족한 것으로 식별되면, 즉, 현재 사용자의 포인트 영역의 메이크업 정보에 대응되는 정보가 매칭 데이터베이스에 없다고 판단되면, 프로세서(120)는 사용자가 선택한 메이크업 스타일에 대응되는 포인트 영역의 메이크업 방법에 관한 메이크업 가이드 영상을 제공할 수 있다. 또는, 사용자가 선택한 메이크업 스타일로 메이크업을 수행한 히스토리가 영상으로 디스플레이 장치(100)에 저장되어 있는 경우, 해당 영상을 제공하여 포인트 영역에 대한 메이크업 가이드를 제공할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 프로세서(120)는 포인트 영역을 기준으로 한 나머지 영역들 각각의 매칭률을 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 예를 들어, 프로세서(120)는 포인트 영역을 기준으로 한 나머지 영역들 각각의 매칭률을, 얼굴 영상 내에서 나머지 영역들 각각에 인접하여 디스플레이할 수 있으나, 이에 한정되는 것은 아니다.
이때, 디스플레이되는 매칭률은, 포인트 영역을 기준으로 한 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 모두 고려하여 하나의 수치로 디스플레이될 수 있다. 예를 들어, 프로세서(120)는 포인트 영역을 기준으로 한 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률에 대한 매칭률 평균값을 산출하고, 산출된 평균값을 다른 영역의 매칭률로 디스플레이할 수 있다. 사용자는 이를 통해 나머지 영역의 메이크업 매칭률을 시각적으로 확인할 수 있게 된다.
도 6은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 도시한 블럭도이다. 도 6은 디스플레이 장치(100)에 포함될 수 있는 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 6에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다. 도 6을 설명함에 있어, 전술한 것과 중복되는 내용은 설명을 생략하거나 간략히 한다.
도 6에 따르면, 디스플레이 장치(100)는, 카메라(110), 프로세서(120), 디스플레이(130), 통신부(140), 저장부(150), 마이크(160), 스피커(170), 사용자 입력부(180)를 포함할 수 있다.
통신부(140)는 다양한 유형의 통신방식에 따라 다양한 외부 기기와 통신을 수행할 수 있다.
예를 들어, 통신부(130)는 메이크업 스타일 별 매칭 데이터베이스를 저장하고 있는 외부 서버 통신할 수 있다. 이에 따라, 프로세서(120)는, 통신부(140)를 통해, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 외부 서버로 요청하여 수신할 수 있다. 또한, 통신부(140)는 인터넷 통신을 수행할 수 있다. 이에 따라, 프로세서(120)는 통신부(140)를 통해, 메이크업 방법과 관련된 다양한 컨텐츠나 메이크업 제품에 관한 각종 정보를 수신할 수 있다.
이를 위해, 통신부(140)는 유, 무선 랜 통신 모듈을 포함할 수 있다. 또한, 통신부(130)는 실시 예에 따라 근거리 무선 통신 모듈(미도시)이나, 이동 통신 모듈을 포함할 수도 있다. 여기서, 근거리 무선 통신 모듈(미도시)은 예를 들어, 블루투스(Bluetooth) 모듈, 지그비(ZigBee) 모듈, NFC(Near Field Communication) 모듈 등과 같이 근거리에 위치한 전자 장치와 무선으로 데이터 통신을 수행하는 통신 모듈을 말한다. 또한, 이동 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 통신을 수행하는 통신 모듈을 말한다.
실시 예에 따라 통신부(140)는 방송 수신 모듈을 포함할 수도 있으며, USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394, RS-232 등의 유선 통신 모듈(미도시) 중 적어도 하나를 포함할 수도 있다.
저장부(150)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 운영체제(Operating System: OS)를 저장할 수 있다. 또한, 저장부(150)는 전술한 디스플레이 장치(100)의 다양한 기능을 수행하기 위한 각종 알고리즘, 프로그램, 데이터 등을 저장할 수 있다. 특히, 저장부(150)는 전술한 각종 인공 지능 모델, 메이크업 가이드 테이블, 매칭 데이터베이스를 저장할 수 있다. 또한, 저장부(150)는 카메라(110)를 구동하기 위한 카메라 앱, 전술한 메이크업 가이드 동작을 수행하기 위한 메이크업 가이드 앱 등을 저장할 수 있다. 또한, 저장부(150)은 음성 인식 기능을 수행하기 위한 음성 인식 모듈 등을 저장할 수도 있으나, 이에 한정되는 것은 아니다.
이를 위해, 저장부(150)는 DRAM, SRAM과 같은 휘발성 메모리, 전원이 오프된 상태에서도 정보를 유지할 수 있는 EEPOM과 플래시 메모리 등과 같은 비휘발성 메모리를 포함할 수 있다. 또한, 저장부(150)는 하드 디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 전자 장치(100)에 탈,부착 가능한 메모리 카드(예, SD 카드, 메모리 스틱)등을 포함할 수 있다.
마이크(160)는 주변 환경의 사운드 또는 사용자의 음성을 입력받을 수 있다. 프로세서(120)는 입력된 사운드 또는 음성 신호를 식별할 수 있고, 입력된 사운드 또는 음성 신호에 대응되는 동작을 수행할 수 있다. 예를 들어, 마이크(160)는 일반 마이크, 서라운드 마이크, 지향성 마이크 등을 포함할 수 있다.
스피커(170)는 사운드 신호를 출력할 수 있다. 예를 들어, 스피커(170)는 전술한 디스플레이 장치(100)의 동작과 관련된 각종 메시지나 문의, 알림, 가이드 등을 음성이나 알림음으로 출력할 수 있다.
사용자 입력부(180)는 제어 명령, 선택 명령, 입력 명령 등과 같은 각종 사용자 명령을 입력받을 수 있다. 예를 들어, 사용자 입력부(180)는 전술한 사용자의 컨텍스트 정보를 입력받을 수 있다. 또한, 사용자는 전술한 각종 UI를 통한 선택 명령을입력 받을 수 있다.
이를 위해, 사용자 입력부(180)는, 키보드, 버튼, 키 패드, 터치 패드, 터치 스크린을 포함할 수 있다. 또는, 사용자 입력부(180)는 입출력 포트로 구현될 수 있다. 이 경우, 사용자 입력부(180)는 입출력 인터페이스로 불릴 수 있다. 사용자 입력부(180)가 입출력 포트로 구현되는 경우, 입출력 포트는 HDMI(High-Definition Multimedia Interface), DP(DisplayPort), RGB, DVI(Digital Visual Interface), USB(Universal Serial Bus), 썬더볼트, 오디오 잭, 비디오 잭 등을 포함할 수 있다. 사용자 입력부(180)는 입력 장치, 입력부, 입력 모듈 등으로 불릴 수 있고, 입출력 포트로 구현되는 경우, 입출력 장치, 입출력부, 입출력 모듈 등으로 불릴 수도 있다.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 특히, 프로세서(120)는 전술한 본 개시의 다양한 실시 예들에 따른 디스플레이 장치(100)의 동작을 수행하기 위해, 각종 연산 및 데이터 처리를 수행할 수 있으며, 다른 구성 요소들의 동작을 제어할 수 있다.
이를 위해, 프로세서(120)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(120)에 연결된 하드웨어 또는 소프트웨어 구성 요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(120)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 도시한 흐름도이다.
도 7에 따르면, 디스플레이 장치(100)는 사용자에 의해 선택된 메이크업 스타일을 식별할 수 있다(S710). 예를 들어, 디스플레이 장치(100)는 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하고, 복수의 이미지 중 하나의 이미지가 선택되면, 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다.
이후, 카메라(110)를 통해 사용자의 얼굴이 촬영되면, 디스플레이 장치(100)는 사용자의 얼굴 영상을 디스플레이(130)에 디스플레이할 수 있다(S720).
한편, 디스플레이 장치(100)는 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를, 사용자의 얼굴의 각 영역 별로 획득할 수 있다(S730).
또한, 디스플레이 장치(100)는 사용자의 얼굴 영상에서 관심 영역이 선택되면, 메이크업 정보 및 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다(S740). 이때, 매칭 데이터베이스는, 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함할 수 있다.
이와 같이, 메이크업 매칭률이 산출되면, 디스플레이 장치(100)는, 메이크업 매칭률에 기초하여 관심 영역 또는 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 컬러 정보에 기초하여 컬러 매칭 데이터베이스에 포함된 다른 영역의 컬러 정보를 식별하고, 컬러 매칭 데이터베이스에서 식별된 다른 영역의 컬러 정보와 메이크업 정보에 포함된 다른 영역의 컬러 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 컬러 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 텍스쳐 정보에 기초하여 텍스쳐 매칭 데이터베이스에 포함된 다른 영역의 텍스쳐 정보를 식별하고, 텍스쳐 매칭 데이터베이스에서 식별된 다른 영역의 텍스쳐 정보와 메이크업 정보에 포함된 다른 영역의 텍스쳐 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 강조 정도 정보에 기초하여 강조 정도 매칭 데이터베이스에 포함된 다른 영역의 강조 정도 정보를 식별하고, 강조 정도 매칭 데이터베이스에서 식별된 다른 영역의 강조 정도 정보와 메이크업 정보에 포함된 다른 영역의 강조 정도 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 강조 정도 매칭률을 산출할 수 있다.
한편, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 컬러 매칭률에 기초하여 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률에 기초하여 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 강조 정보 매칭률에 기초하여 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 컬러 정보에 기초하여 컬러 매칭 데이터베이스에 포함된 관심 영역의 컬러 정보를 식별하고, 컬러 매칭 데이터베이스에서 식별된 관심 영역의 컬러 정보 정보와, 메이크업 정보에 포함된 관심 영역의 컬러 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 컬러 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 텍스쳐 정보에 기초하여 텍스쳐 매칭 데이터베이스에 포함된 관심 영역의 텍스쳐 정보를 식별하고, 텍스쳐 매칭 데이터베이스에서 식별된 관심 영역의 텍스쳐 정보 정보와, 메이크업 정보에 포함된 관심 영역의 텍스쳐 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 강조 정도 정보에 기초하여 강조 정도 매칭 데이터베이스에 포함된 관심 영역의 강조 정도 정보를 식별하고, 강조 정도 매칭 데이터베이스에서 식별된 관심 영역의 강조 정도 정보 정보와, 메이크업 정보에 포함된 관심 영역의 강조 정도 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 강조 정도 매칭률을 산출할 수 있다.
한편, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 컬러 매칭률에 기초하여 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 텍스쳐 매칭률에 기초하여 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 강조 정보 매칭률에 기초하여 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 메이크업 가이드는, 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 목적, 방문 장소 또는 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받고, 입력된 사용자의 컨텍스트 정보를 반영하여 메이크업 가이드를 디스플레이할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자는 원하는 메이크업 스타일을 선택하고, 자신의 얼굴 영역 중 관심 영역을 선택함으로써, 자신이 원하는 메이크업 스타일을 완성시키기 위한 적절한 메이크업 가이드를 제공받을 수 있다. 이에 따라, 사용자는 자신의 현재 상태를 기준으로 보다 편리하고 정확하게 원하는 메이크업 스타일을 완성시킬 수 있다.
한편, 본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 여기서, 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 디스플레이 장치(100)를 포함할 수 있다.
상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 개시에 따른 실시 예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 따라서, 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 디스플레이 장치 110: 카메라
120: 프로세서 130: 디스플레이

Claims (17)

  1. 카메라를 포함하는 디스플레이 장치의 제어 방법에 있어서,
    사용자에 의해 선택된 메이크업 스타일을 식별하는 단계;
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계;
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계;
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계; 및
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하고,
    상기 매칭 데이터베이스는,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는 제어 방법.
  2. 제 1 항에 있어서,
    상기 메이크업 매칭률을 산출하는 단계는,
    상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계; 및
    상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계;를 포함하는 제어 방법.
  3. 제 2 항에 있어서,
    상기 메이크업 가이드를 디스플레이하는 단계는,
    상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계;
    상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계; 및
    상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하는 제어 방법.
  4. 제 1 항에 있어서,
    상기 메이크업 매칭률을 산출하는 단계는,
    상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계; 및
    상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계;를 포함하는 제어 방법.
  5. 제 4 항에 있어서,
    상기 메이크업 가이드를 디스플레이하는 단계는,
    상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계;
    상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계; 및
    상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하는 제어 방법.
  6. 제 1 항에 있어서,
    상기 식별하는 단계는,
    복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하는 단계; 및
    상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 단계;를 포함하는 제어 방법.
  7. 제 1 항에 있어서,
    상기 메이크업 가이드는,
    상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함하는 제어 방법.
  8. 제 1 항에 있어서,
    메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받는 단계;를 포함하고,
    상기 메이크업 가이드를 디스플레이하는 단계는,
    상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이하는 제어 방법.
  9. 디스플레이 장치에 있어서,
    디스플레이;
    카메라; 및
    사용자에 의해 선택된 메이크업 스타일을 식별하고,
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하도록 상기 디스플레이를 제어하고,
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하고,
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하고,
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 적어도 하나의 프로세서;를 포함하고,
    상기 매칭 데이터베이스는,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는 디스플레이 장치.
  10. 제 9 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고,
    상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 디스플레이 장치.
  11. 제 10 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 디스플레이 장치.
  12. 제 9 항에 있어서,
    상기 프로세서는,
    상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고,
    상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 디스플레이 장치.
  13. 제 12 항에 있어서,
    상기 디스플레이 장치는,
    상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 디스플레이 장치.
  14. 제 9 항에 있어서,
    상기 적어도 하나의 프로세서는,
    복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 디스플레이 장치.
  15. 제 9 항에 있어서,
    상기 메이크업 가이드는,
    상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함하는 디스플레이 장치.
  16. 제 9 항에 있어서,
    상기 적어도 하나의 프로세서는,
    메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보가 입력되면, 상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 디스플레이 장치.
  17. 디스플레이 장치의 프로세서에 의해 실행되는 경우 상기 디스플레이 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 동작은,
    사용자에 의해 선택된 메이크업 스타일을 식별하는 단계;
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계;
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계;
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계; 및
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하고,
    상기 매칭 데이터베이스는,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는 기록 매체.
KR1020220144592A 2022-09-16 2022-11-02 디스플레이 장치 및 이의 제어 방법 KR20240038537A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/012885 WO2024058468A1 (ko) 2022-09-16 2023-08-30 디스플레이 장치 및 이의 제어 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220117459 2022-09-16
KR20220117459 2022-09-16

Publications (1)

Publication Number Publication Date
KR20240038537A true KR20240038537A (ko) 2024-03-25

Family

ID=90473928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220144592A KR20240038537A (ko) 2022-09-16 2022-11-02 디스플레이 장치 및 이의 제어 방법

Country Status (1)

Country Link
KR (1) KR20240038537A (ko)

Similar Documents

Publication Publication Date Title
US10657652B2 (en) Image matting using deep learning
WO2021169307A1 (zh) 人脸图像的试妆处理方法、装置、计算机设备和存储介质
US10607372B2 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
JP2022532443A (ja) 制御されていない照明条件の画像中の肌色を識別する技術
KR20210119438A (ko) 얼굴 재연을 위한 시스템 및 방법
WO2016165615A1 (zh) 一种即时视频中的表情特效动画加载方法和电子设备
US10354124B2 (en) Electronic apparatus and controlling method for improve the image quality preference of skin area
US10755487B1 (en) Techniques for using perception profiles with augmented reality systems
KR102045575B1 (ko) 스마트 미러 디스플레이 장치
US11586841B2 (en) Method and system for generating user driven adaptive object visualizations using generative adversarial network models
US11558561B2 (en) Personalized videos featuring multiple persons
US10685457B2 (en) Systems and methods for visualizing eyewear on a user
WO2022093958A1 (en) Adaptive skeletal joint smoothing
US20170185365A1 (en) System and method for screen sharing
CN110472558B (zh) 图像处理方法和装置
US11830129B2 (en) Object relighting using neural networks
US12079927B2 (en) Light estimation using neural networks
US20210217074A1 (en) Systems and methods for providing a style recommendation
KR20240038537A (ko) 디스플레이 장치 및 이의 제어 방법
US20230054283A1 (en) Methods and apparatuses for generating style pictures
WO2021244040A1 (zh) 人脸表情编辑方法及电子设备
WO2024058468A1 (ko) 디스플레이 장치 및 이의 제어 방법
US20200320761A1 (en) Structural facial modifications in images
KR20210061869A (ko) 증강현실 콘텐츠 제작 방법 및 장치