KR20210077275A - 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템 - Google Patents

제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템 Download PDF

Info

Publication number
KR20210077275A
KR20210077275A KR1020190168731A KR20190168731A KR20210077275A KR 20210077275 A KR20210077275 A KR 20210077275A KR 1020190168731 A KR1020190168731 A KR 1020190168731A KR 20190168731 A KR20190168731 A KR 20190168731A KR 20210077275 A KR20210077275 A KR 20210077275A
Authority
KR
South Korea
Prior art keywords
electronic device
image
user
processor
display
Prior art date
Application number
KR1020190168731A
Other languages
English (en)
Other versions
KR102356023B1 (ko
Inventor
강인하
Original Assignee
강인하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강인하 filed Critical 강인하
Priority to KR1020190168731A priority Critical patent/KR102356023B1/ko
Publication of KR20210077275A publication Critical patent/KR20210077275A/ko
Application granted granted Critical
Publication of KR102356023B1 publication Critical patent/KR102356023B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

전자 장치가 개시된다. 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 촬영된 외부 객체가 저장되는 메모리와, 프로세서를 포함하고, 프로세서는 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어하는 것을 특징으로 한다.

Description

제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템{SERVER FOR MATCHING PRODUCT WITH BUYER AND MATCHING SYSTEM HAVING THE SAME}
본 발명의 다양한 실시예들은 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템에 관한 것이다. 구체적으로는, 화장품을 선택하고자 하는 사용자가 적절한 상품 또는 화장법을 선택하도록 도움을 주는 전자 장치 및 이를 포함하는 매칭 시스템에 관한 것이다.
증강 현실(AR, artificial reality) 기술의 발전으로, 현실 세계가 투영된 이미지에 컴퓨터나 전자 장치에 의해 생성된 이미지 또는 정보를 표시하는 직관적인 서비스에 관한 관심이 증가하고 있다. 또한, 증강 현실에 따라, 사용자는 실제로 맵핑된 제품을 볼 수 있고, 직접 사용하지 않더라도, 제품에 대한 결과를 바로 획득할 수 있다. 데이터 전송 속도가 더울 빨라진 mmWave를 이용하는 5G통신에서, 증강 현실 기술의 사용은 증가할 것으로 보인다.
증강 현실을 통하여, 사용자는 제품이 적용된 결과를 바탕으로 직접 제품의 구매까지 이를 수 있고, 증강현실이 적용된 이미지를 실시간으로 공유하거나, 저장된 화면을 통하여 다른 사람과 의견을 공유할 수 있다.
통신 기술 및 전자 장치의 발달로, 전자 장치의 사용자들은 장소나 시간에 구애받지 않고 쇼핑몰에서 물품을 구매할 수 있다. 판매자 입장에서도, 온라인 쇼핑몰은 제품을 전시할 공간이 필요가 없어, 공간효율성을 높일 수 있다. 사용자는 시공간의 제약에서 벗어나고, 판매자 입장에는 공간 효율성을 높일 수 있어 점차 온라인 쇼핑몰은 증가하는 추세이다.
온라인 쇼핑몰은 SNS에서 사용자들의 평가를 통하여, 제품의 광고 또는 홍보가 이루어 질 수 있다. 특히 젊은 층에서는 SNS등에서 획득한 정보를 바탕으로, 기존의 컴퓨터이외에 스마트폰을 이용한 어플리케이션을 통하여 쇼핑몰에 접근하고 있다. 스마트폰의 등장으로 다양한 형태의 온라인 판매가 진행되고 있다.
다양한 실시예에 따르는, 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템은 증강 현실을 통하여, 사용자의 얼굴에 가상의 메이크업을 수행하고, 해당 결과를 제공할 수 있다. 메이크업을 접해보지 못한 사회 초년생은 메이크업의 순서나, 제품에 대한 정보가 부족하여 필요할 때, 메이크업을 진행하기 어려운 문제가 발생한다.
또한, 메이크업을 위한 사용자들은 서로 다른 얼굴형을 가지고, 각각의 얼굴형에 따른 효과를 가지는 제품이 다를 수 있으므로, 이를 고려하여, 제품을 제공할 필요가 있다.
온라인 쇼핑몰의 경우, 제공되는 정보가 너무 광범위하여 사용자의 제품 선택에 문제가 발생할 수 있어, 사용자의 얼굴형, 피부 상태등을 종합적으로 고려하여, 제품을 제공할 수 있는 방안(solution)이 필요하다.
일 실시예에 따르는 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.
다른 실시예에 따르는 전자 장치는, 힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징, 상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이, 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서(CP, communication processor), 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.
다양한 실시예에 따르는, 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템은 증강 현실을 통하여, 사용자의 얼굴에 적용된 메이크업과 관련된 제품 정보를 제공할 수 있고, 적용된 제품이외 다른 제품을 적용해볼 수 있어, 직관적으로 제품의 효과를 파악할 수 있다.
메이크업을 위한 사용자들은 서로 다른 얼굴형을 가지고, 각각의 얼굴형에 적합한 제품을 적용함으로써, 사용자는 최적의 화장 결과물을 획득할 수 있고, 해당 결과를 통해 제품의 주문이 가능하다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경내에서 동작하는 전자 장치 및 외부 전자 장치의 블록도이다.
도 2는, 다양한 실시예들에 따르는 외부 전자 장치를 구성하는 인공 신경망 모델의 개념도이다.
도 3은, 다양한 실시예들에 따르는 전자 장치의 블록도이다.
도 4는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 표현한 도면이다.
도 5는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 바탕으로 추천하는 복수이 제2 이미지들을 표현한 도면이다.
도 6은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품 정보를 표현한 도면이다.
도 7은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품을 단계별로 표현한 도면이다.
도 8은 다양한 실시예들에 따르는 플렉서블 디스플레이를 포함하는 전자 장치를 나타낸다.
도 9는 다양한 실시예들에 따르는 전자 장치의 동작을 나타내는 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경내에서 동작하는 전자 장치의 블록도이다.
인공 신경망은 입력에 대하여 일반화된 출력(generalized output)을 제공하기 위한 하드웨어, 소프트웨어 또는 이들의 조합을 의미할 수 있다.
예를 들어, 인공 신경망은, 합성곱 신경망 (CNN, Convolutional Neural Network), 마르코프 체인(Markov Chain), 또는 이진화 신경망 (BNN, binarized neural network) 등을 시뮬레이션하기 위한 어플리케이션 및 상기 어플리케이션을 실행하기 위한 프로세서에 기반하여 작동할 수 있다.
도 1을 참조하면, 외부 전자 장치(101)(예를 들면, 신경망 장치)는 훈련을 통하여 머신 러닝을 수행할 수 있는 장치로서, 인공 신경망으로 구성된 모델을 이용하여 학습하는 장치를 포함할 수 있다. 예를 들면, 신경망 장치(101)는 데이터 마이닝, 데이터 분석, 및 머신 러닝 알고리즘(예: 딥 러닝 알고리즘 (deep learning algorithm))을 위해 이용되는 정보를 입력, 출력, 데이터 베이스 구축 및 저장하도록 구성될 수 있다.
신경망 장치(101)는 통신 프로세서(150)를 통하여 전자 장치(100)와 데이터를 송수신할 수 있고, 전자 장치(100)로부터 전달받은 데이터를 분석하거나 학습하여 결과값을 도출할 수 있다. 신경망 장치(101)는 전자 장치(100)의 연산을 분산하여 처리할 수 있다.
신경망 장치(101)는 서버로 구현될 수 있다. 또한 신경망 장치(101)는 복수로 구성되어 신경망 장치 세트를 이룰 수 있다. 각각의 신경망 장치(101)는 연산을 분산하여 처리할 수 있고, 분산 처리된 데이터를 바탕으로 데이터 분석 및 학습을 통하여 결과값을 도출할 수 있다. 신경망 장치(101)는 머신 러닝 알고리즘 등을 이용하여 획득한 결과값을 외부 전자 장치 또는 다른 신경망 장치로 전송할 수 있다.
다양한 실시예에 따르면, 신경망 장치(101)는 입력부(110), 제1 프로세서(120), 제1 메모리(130), 러닝 프로세서(140) 및 통신 프로세서(150)(CP, communication processor)를 포함할 수 있다.
다양한 실시예에 따르면, 입력부(110)는 인공 신경망 모델 학습을 통한 출력값을 도출하기 위한 입력 데이터를 획득할 수 있다. 입력부(110)는 가공되지 않은 입력 데이터를 획득할 수 있다. 제1 프로세서(120) 또는 러닝 프로세서(140)는 가공되지 않은 입력 데이터를 전처리하여 인공 신경망 모델 학습에 입력 가능한 훈련 데이터를 생성할 수 있다. 상기 전처리는 입력 데이터로부터 특징점을 추출하는 것일 수 있다. 상술한 바와 같이 입력부(110)는 통신 프로세서(150)를 통하여 데이터를 수신하여 입력 데이터를 획득하거나 데이터를 전처리할 수 있다.
다양한 실시예에 따르면, 제1 프로세서(120)는 전자 장치(100)에서 사용 히스토리 정보를 수집하여 메모리(130)에 저장할 수 있다. 제1 프로세서(120)는 저장된 사용 히스토리 정보 및 예측 모델링을 통하여 특정 기능을 실행하기 위한 최상의 조합을 결정할 수 있다. 제1 프로세서(120)는 입력부(110)로부터 이미지 정보, 오디오 정보, 데이터 또는 사용자 입력 정보를 수신할 수 있다.
다양한 실시예에 따르면, 제1 프로세서(120)는 정보를 실시간으로 수집하고 정보를 처리 또는 분류하고, 처리된 정보를 메모리(130), 메모리(130)의 데이터 베이스 또는 러닝 프로세서(140)에 저장할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)의 동작이 데이터 분석 및 머신 러닝 알고리즘을 바탕으로 결정될 때, 제1 프로세서(120)는 결정된 동작을 실행하기 위해 전자 장치(100)의 구성요소를 제어할 수 있다. 그리고, 제1 프로세서(120)는 제어 명령에 따라 전자 장치(100)를 제어하여 결정된 동작을 수행할 수 있다.
제1 프로세서(120)는 특정 동작이 수행되는 경우, 데이터 분석 및 머신 러닝 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습한 정보의 업데이트를 수행할 수 있다. 제1 프로세서(120)는 러닝 프로세서(140)과 함께, 업데이트 된 정보에 기초하여 데이터 분석 및 머신 러닝 알고리즘 및 성능의 정확성을 향상시킬 수 있다.
제1 메모리(130)는 얼굴 형상 정보(131), 메이크업 정보(132), 구매 정보(133), 및 인공 신경망 모델(134)을 저장할 수 있다.
다양한 실시예에 따르면, 제1 메모리(130)는 통신 프로세서(150) 또는 입력부(110)에서 획득된 사용자의 얼굴, 형상, 모양, 또는 색채 및 제품의 정보 등을 할당된 영역에 저장할 수 있다. 다양한 실시예에 따르면, 제1 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터, 또는 학습 히스토리 등을 저장할 수 있다. 제1 메모리(130)는 프로세서에 의해 실행될 복수의 인스트럭션을 저장할 수 있다.
다양한 실시예에 따르면, 인공 신경망 모델(134)은 제1 메모리(130)에 할당된 공간에 저장될 수 있다. 상기 제1 메모리(130)에 할당된 공간은 러닝 프로세서(140)를 통하여 학습 중 또는 학습된 인공 신경망 모델(134)을 저장하며, 학습을 통하여 인공 신경망 모델(134)이 갱신되면, 갱신된 인공 신경망 모델(134)을 저장할 수 있다. 상기 제1 메모리(130)에 할당된 공간은 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다.
다양한 실시예에 따르면, 제1 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터를 저장, 분류가능한 데이터 베이스를 포함할 수 있다.
다양한 실시예에 따르면, 러닝 프로세서(140)는 제1 프로세서(120)가 입력부(110)를 통해 획득한 입력 데이터를 전처리한 데이터를 바로 획득하여 인공 신경망 모델(134)을 학습하거나, 메모리(130)의 데이터 베이스에 저장된 전처리된 입력 데이터를 획득하여 인공 신경망 모델(134)을 학습할 수 있다. 예를 들면, 러닝 프로세서(140)는 다양한 학 습 기법을 이용하여 인공 신경망 모델(134)을 반복적으로 학습시켜 최적화된 인경 신경망 모델(134) 파라미터를 획득할 수 있다.
다양한 실시예에 따르면, 학습된 모델은 데이터 베이스에서 인공 신경망 모델(134)을 갱신할 수 있다. 러닝 프로세서(140)는 신경망 장치(101)에 통합되거나, 제1 메모리(130)에 구현될 수 있다. 구체적으로 러닝 프로세서(140)는 제1 메모리(130)를 사용하여 구현될 수 있다.
다양한 실시예에 따르면, 러닝 프로세서(140)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 장치에서 사용하기 위해 데이터를 식별, 색인화, 카테고리화, 조작, 저장, 검색 및 출력하기 위해 데이터를 하나 이상의 데이터베이스에 저장하도록 구성될 수 있다. 여기서, 데이터베이스는 제1 메모리(130), 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 단말기에 의해 액세스 가능한 다른 원격 메모리 위치를 이용하여 구현될 수 있다 러닝 프로세서(140)에 저장된 정보는 다양한 상이한 유형의 데이터 분석 알고리즘 및 기계 학습 알고리즘 중 임의의 것을 사용하여 제1 프로세서(120)에 의해 이용될 수 있다. 예를 들면, 이러한, 알고리즘의 예로는, k-최근 인접 시스템, 퍼지 논리 (예: 가능성 이론), 신경 회로망, 볼츠만 기계, 벡터 양자화, 펄스 신경망, 지원 벡터 기계, 최대 마진 분류기, 힐 클라이밍, 유도 논리 시스템 베이지안 네트워크, 페리트넷 (예: 유한 상태 머신, 밀리 머신, 무어 유한 상태 머신), 분류기 트리 (예: 퍼셉트론 트리, 지원 벡터 트리, 마코프 트리, 의사 결정 트리 포리스트, 임의의 포리스트), 판독 모델 및 시스템, 인공 융합, 센서 융합, 이미지 융합, 보강 학습, 증강 현실, 패턴 인식, 자동화 된 계획 등을 포함한다.
통신 프로세서(150)는 무선 통신부(미도시) 및 인터페이스부(미도시)를 포함하는 구성을 의미할 수 있다. 즉, 통신 프로세서(150)는 유무선 통신이나 인터페이스를 통하여 다른 장치와 데이터를 송수신할 수 있는 프로세서일 수 있다.
학습 모델이 업데이트되는 경우, 업데이트된 학습 모델은 통신 프로세서(150)를 통해 단말기 또는 외부 장치와 같은 다른 장치에 전송되어 탑재될 수 있다.
통신 프로세서(150)는 외부의 다양한 단말과 통신할 수 있다. 예를 들면, 전자 장치(100)와 유 무선 통신을 할 수 있다. 통신은 LAN 연결된 유선 통신일 수 있고, LTE(long term evolution), mmWave 등과 같은 무선 통신일 수 있다.
전자 장치(100)는 통신이 가능한 전자 장치, 예를 들면, 스마트폰, 태블릿 PC, 네트워크 연결된 컴퓨터 또는 랩탑 등일 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 전자 장치(100)는 개설된 통신 채널을 통하여, 외부 전자 장치(101)로 얼국 형상 정보(131)를 전송할 수 있다. 전자 장치(100)는 사용자가 사용하는 단말일 수 있다. 전자 장치(100)는 사용자가 촬영한 이미지를 전자 장치(100)내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 전자 장치(100)는 전자 장치(100)에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 저장 장치에 저장된 얼굴 형상 정보를 전자 장치(100)로 전달할 수 있다. 통신 프로세서(150)로 전달된 얼굴 형상 정보(131)는 메모리(130)의 할당된 영역에 저장될 수 있다. 얼굴 형상 정보(131)는 사용자 얼굴의 형상, 모양 또는 색채를 포함할 수 있다.
다양한 실시예에 따르면, 메이크업 정보(132)는 제1 메모리(130)에 저장될 수 있다. 다른 외부 전자 장치(미도시)는 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 상기 다른 외부 전자 장치는 개설된 통신 채널을 통하여, 전자 장치(100)로 메이크업 정보(132)를 전송할 수 있다. 상기 다른 외부 전자 장치는 화장품 제조사 또는 판매자가 입력한 제품 정보를 상기 다른 외부 전자 장치 내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 상기 다른 외부 전자 장치 내에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 외부 전자 장치(101)는 저장 장치에 저장된 메이크업 정보(132)를 수신할 수 있다. 통신 프로세서(150)로 전달된 메이크업 정보(132)는 메모리(130)의 할당된 영역에 저장될 수 있다. 메이크업 정보(132)는 화장품 제조사 또는 판매자가 입력한 색상, 화장 샘플, 또는 포토폴리오가 포함된 정보일 수 있다. 메이크업 정보(132)는 판매자 또는 제조사가 입력한 정보뿐만 아니라, 러닝 프로세서(140)에 의해서 구동된 인공 신경망 모델에 의해서 판단된 얼굴형에 적합하거나 인기있는 화장품 정보 또는 화장법을 포함할 수 있다.
다양한 실시예에 따르면, 메이크업 정보(132)는 입력부(110)를 통하여, 직접 입력될 수 있다.
다양한 실시예에 따르면, 외부 사용자 단말(전자 장치(100)와 유사한 모바일 장치)은 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 전자 장치(100)는 개설된 통신 채널을 통하여, 외부 전자 장치(101)로 구매 정보(133)를 전송할 수 있다. 전자 장치(100)는 사용자 또는 구매자가 사용하는 단말일 수 있다. 전자 장치(100)는 사용자가 입력한 구매 정보를 전자 장치(100)내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 전자 장치(100)에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 전자 장치(100)는 저장 장치에 저장된 구매자 정보를 외부 전자 장치(101)로 전달할 수 있다. 통신 프로세서(150)로 전달된 구매 정보(133)는 메모리(130)의 할당된 영역에 저장될 수 있다.
다양한 실시예에 따르면, 구매 정보(133)는 입력부(110)를 통하여, 직접 입력될 수 있다. 구매 정보(133)는 복수의 사용자들의 얼굴 형상에 따른 분류, 사용자들이 구매한 제품 정보, 각각의 사용자의 제품 평가 또는 검색한 제품의 히스토리, 이전 구매 내역등을 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 외부 전자 장치 또는 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치(100)는 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 서버 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리) 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(100) 및 외부 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는, 다양한 실시예들에 따르는 전자 장치를 구성하는 인공 신경망 모델의 개념도이다.
도 2를 참조하면, 일반적인 합성곱 신경망은 컨벌루션 레이어(201), 및 풀링 레이어(pooling layer)(202)를 이용한 입력 데이터(210)의 특성 추출(11) 및 완전 연결 레이어(290)를 이용한 입력 데이터(210)의 분류(12)에 사용될 수 있다.
다양한 실시예에 따르면, 컨벌루션 레이어(201)는 합성곱 연산을 통해 입력 데이터(210)의 의미있는 특징들을 추출하는 레이어일 수 있다. 예를 들면, 컨벌루션 레이어(201)는 입력 데이터(210)에 특정 크기의 필터 또는 커널 매트릭스(kernel(weight) matrix)(230)를 적용하여 다음 레이어에 전달할 새로운 데이터를 생성할 수 있다. 이와 같은 컨벌루션 레이어(201)의 입출력 데이터는 특징 맵(feature maps)으로 지칭될 수 있다.
합성곱 신경망 모델에 입력된 데이터가 RGB 성분과 같이 복수의 성분을 포함하는 입력 이미지인 경우, 입력 데이터는 복수의 채널로 구성될 수 있다. 예를 들면, 컨벌루션 레이어(201)의 입출력 데이터가 2차원 이미지의 공간 이외에 채널을 포함하고, 입출력 데이터의 특징 맵은 3차원 형태로 이루어 질 수 있다.
다양한 실시예에 따르면, 풀링 레이어(202)는 서브 샘플링(Sub-sampling)을 통하여 입력받은 데이터를 축소할 수 있다. 예를 들면, 풀링 레이어(202)는 최대 풀링(max pooling) 및 평균 풀링(average pooling)과 같은 풀링 기법을 통해 데이터를 샘플링 함으로써 데이터의 크기를 축소할 수 있다.
다양한 실시예에 따르면, 완전 연결 레이어(290)는 컨벌루션 레이어(201) 및 풀링 레이어(202)를 통해 전달된 특징을 바탕으로 데이터 분류를 수행하기 위한 레이어로서, 3차원 형태의 특징 맵을 평탄화된 1차원 형태의 데이터를 입력 받을 수 있다. 이와 같이 완전 연결 레이어(290)를 통과한 1차원 형태의 데이터는 활성화 함수를 통해 출력신호로 변환될 수 있다. 합성곱 신경망은 컨벌루션 레이어 및 풀링 레이어를 사용하여 입력 데이터(예: 입력 이미지)에 대한 특징 맵의 3차원 형상을 유지할 수 있으므로, 입력 이미지의 화소 또는 채널 사이의 관련성에 관한 정보가 손실되는 것을 방지하여 이미지 인식률을 높일 수 있다.
다양한 실시예에 따르면, 제1 프로세서(120)는 특징 맵의 특징점들을 바탕으로 다양한 이미지들의 유사도를 판단할 수 있다. 또한, 제1 프로세서(120)는 특징점들 각각에 가중치를 다르게 부여하여, 이미지의 유사판단에서 중요하게 판단하는 구성에 더 특징을 줄 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치(101)의 블록도이다. 도 3의 전자 장치(100)는 도 1의 전자 장치(100)를 포함할 수 있다. 다양한 실시예들에 따른 전자 장치(100)는 프로세서(310), 메모리(320), 통신 프로세서(330), 디스플레이(340) 또는 카메라(350) 중 적어도 하나를 포함할 수 있다. 도 2를 프로세서(310), 메모리(320), 통신 프로세서(330), 디스플레이(340) 및/또는 카메라(350)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 일 실시예에 따른 전자 장치(100)는 도 2에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.
일 실시예에 따른 전자 장치(100)의 프로세서(310)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(310)의 개수는 하나 이상일 수 있다. 예를 들어, 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)에 기반하여, 복수의 프로세서(310)가 전자 장치(100) 내에 포함될 수 있다.
일 실시예에 따른 전자 장치(100)의 메모리(320)는 프로세서(310)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(320)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.
메모리(320) 내에서, 프로세서(310)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(100) 및/또는 전자 장치(100)의 프로세서(310)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행하여, 이미지로부터 사용자의 신체 치수를 측정하거나, 및/또는 상기 이미지를 캡쳐하기 위한 가이드를 제공하기 위한 하나 이상의 동작을 수행할 수 있다.
일 실시예에 따른 전자 장치(100)의 통신 프로세서(330)는 전자 장치(100) 및 전자 장치(100)와 구별되는 외부 전자 장치(예: 도 1의 외부 전자 장치(101)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 상기 외부 전자 장치는, 예를 들어, 상품을 제작하거나, 및/또는 판매하는 서비스 제공자(Service Provider)의 서버를 포함할 수 있다. 통신 프로세서(330)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(Optic/Electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 프로세서(330)는, 이더넷(ethernet), LAN(Local Area Network), WAN(Wide Area Network), WiFi(Wireless Fidelity), LTE(Long Term Evolution), 5G NR(New Radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.
일 실시예에 따른 전자 장치(100)의 디스플레이(340)는 사용자에게 시각화된 정보를 출력할 수 있다. 예를 들어, 디스플레이(340)는, 프로세서(310)와 같은 컨트롤러(예를 들어, 프로세서(310)에 포함된 GPU(Graphic Processing Unit))에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(340)는 CRT(Cathode Ray Tube), FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.
비록 도시되지 않았지만, 일 실시예에 따른 전자 장치(100)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(100)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(100)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.
일 실시예에 따른 전자 장치(100)의 카메라(350)는 지정된 공간(예를 들어, 카메라(350)의 전방의 공간)의 빛에 기반하여, 프로세서(310) 및/또는 메모리(320)에서 이용할 수 있는 포맷(usable format)을 가지는 전기 신호를 생성할 수 있다. 예를 들어, 카메라(350)는 2차원 배열된 복수의 포토 다이오드(Photo Diode, PD))를 포함할 수 있다. 카메라(350)가 수신하는 파장의 종류는 가시 광선(visible light)에 제한되지 않으며, 적외선 광 및/또는 자외선 광을 포함할 수 있다. 예를 들어, 카메라(350)는 피사체를 향해 적외선을 조사한 다음, 피사체에서 반사된 적외선을 수신하여 깊이 맵(depth-map)을 획득하는 ToF(Time of Flight) 센서를 포함할 수 있다. 이 경우, 카메라(350)는 가시 광선에 기반하는 프레임 및 상기 프레임에 대응하는 깊이 맵을 출력할 수 있다.
일 실시예에 따른 카메라(350)는 지정된 주기마다, 복수의 포토 다이오드 각각의 전기 신호에 기반하는 프레임을 출력할 수 있다. 카메라(350)가 프레임을 출력하는 주기는 프레임율(frames per second, fps)으로 참조될 수 있다. 상기 프레임은 프로세서(310) 및/또는 메모리(320)로 송신될 수 있다. 전자 장치(101)가 포함하는 카메라(350)의 개수는 도 2의 일 실시예에 제한되니 않으며, 예를 들어, 듀얼 카메라, 트리플 카메라와 같이 2 이상일 수 있다.
다양한 실시예들에 따른 전자 장치(100)는 카메라(350)로부터 하나 이상의 피사체를 포함하는 프레임을 획득할 수 있다. 상기 하나 이상의 피사체는 전자 장치(100)의 사용자의 신체 부위(예를 들어, 사용자의 얼굴) 및/또는 상기 신체 부위의 크기를 보다 정확하게 측정하는데 이용될 수 있는 피사체(예: 사용자 주위에 있는 사물)를 포함할 수 있다. 프레임 내에서 상기 하나 이상의 피사체를 식별하는 것에 응답하여, 전자 장치(100)는 상기 피사체의 크기와 관련된 하나 이상의 파라미터를 획득할 수 있다. 또는, 전자 장치(100)는 카메라(350)를 제어하여 상기 프레임 보다 상대적으로 높은 해상도를 가지는 이미지를 획득할 수 있다. 전자 장치(100)가 상기 피사체의 크기와 관련된 하나 이상의 파라미터를 획득하는 것은, 상기 이미지에 기반하여 수행될 수 있다.
일 실시예에 따른 전자 장치(100)는 프레임 내에서 식별된 상기 하나 이상의 피사체의 크기에 기반하여, 사용자에게 상기 프레임 내에서 상기 하나 이상의 피사체의 구도(composition)를 변경하기 위한 정보를 출력할 수 있다. 예를 들어, 프레임 내에서 식별된 상기 하나 이상의 피사체의 크기가 너무 작거나, 및/또는 상기 하나 이상의 피사체가 프레임의 중심에 존재하지 않는 경우, 전자 장치(100)는 사용자에게 프레임 내에서 상기 하나 이상의 피사체의 크기 및/또는 위치를 조절하기 위한 정보를 출력할 수 있다.
전자 장치(100)는 카메라(350)를 통하여 ToF맵을 획득하여, 사용자의 신체부위에 대한 3D이미지를 획득할 수 있고, 전자 장치(100)는 자체적으로 3D이미지의 특징점을 획득할 수 있다. 또한, 전자 장치(100)는 신경망 장치(예: 도 1의 외부 전자 장치(101)로 3D이미지 관련 데이터를 전송하고, 신경망 장치에서 처리된 특징점 및 유사 얼굴형태에 관한 데이터를 수신할 수 있다.
이하, 도 4 내지 도 8 에서는 전자 장치(100) 또는 전자 장치(100)의 프로세서(310)에 의해서 구현되는 실시예들을 구체적으로 설명하고, 도 9 에서는 전자 장치(100) 또는 전자 장치(100)의 프로세서(310)의 동작을 구체적으로 설명한다.
도 4는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 표현한 도면이다.
전자 장치(100)는 폴더블 디바이스 일 수 있다. 전자 장치(800)는 힌지 구조에 연결되는 제1 하우징 구조, 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징 및 상기 폴더블 하우징에 배치되는 플렉서블 디스플레이(340)를 포함할 수 있다. 플렉서블 디스플레이(340)는 제1 하우징 구조의 일면으로부터 제2 하우징 구조의 일면으로 연장되어 형성될 수 있다. 플렉서블 디스플레이(340)는 펼침 상태(unfolding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면에 배치되어 하나의 평면으로 형성될 수 있다. 플렉서블 디스플레이(340)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 마주보게 배치됨에 따라 접히는 형태를 유지할 수 있다. 다른 실시예에 따르면, 플렉서블 디스플레이(340)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 바깥으로 바라보게 배치됨에 따라 디스플레이는 외부로 노출되는 형태를 유지할 수 있다.
다양한 실시예에 따르면, 플렉서블 디스플레이(340)는 제1 영역(341), 제2 영역(342) 및 접힘 영역(343)을 포함할 수 있다. 접힘 영역(343)은 힌지 구조가 배치되는 영역에 대응되는 플렉서블 디스플레이(340) 상의 영역일 수 있고, 플렉서블 디스플레이가 접혀지는 영역일 수 있다. 제1 영역(341) 및 제2 영역(342)는 힌지 축을 중심으로 대칭되도록 배치되어 접힘 영역(343)으로부터 연장되는 영역일 수 있다.
도 4를 참조하면, 전자 장치(100)는 디스플레이(340)에 사용자의 신체 일부인 얼굴이 포함된 제1 이미지(410)를 표현할 수 있다. 전자 장치(100)는 디스플레이(340)의 제1 영역(341) 또는 제2 영역(342)중 하나에 제1 이미지(410)를 표시할 수 있다. 전자 장치(100)는 카메라(350)를 통하여, 사용자의 얼굴과 관련된 제1 이미지(410)를 획득할 수 있다. 카메라(350)는 사용자의 얼굴을 향해 적외선을 조사한 다음, 얼굴에서 반사된 적외선을 수신하여 깊이 맵(depth-map)을 획득하는 ToF(Time of Flight) 센서를 포함할 수 있다. 이 경우, 카메라(350)는 가시 광선에 기반하는 프레임 및 상기 프레임에 대응하는 깊이 맵을 출력할 수 있다. 이러한 깊이에 따른 얼굴 깊이를 추출한다음, 특징점을 기준으로 얼굴의 윤곽선(420)을 획득할 수 있다. 획득된 얼굴의 윤곽선(420)은 전자 장치내에 저장되거나, 외부 전자 장치(예: 도 1의 외부 전자 장치(101))로 송신될 수 있다. 외부 전자 장치는 얼굴의 윤곽선(420) 또는 윤곽선(420)과 관련된 데이터를 수신하여, 인공 신경망 모델(예: 도 1의 인공 신경망 모델(134))을 통하여, 유사한 얼굴의 윤곽을 찾을 수 있다.
전자 장치(100) 또는 전자 장치(100)에 포함된 프로세서(예: 도 3의 프로세서(310))는 사용자의 얼굴이 표현된 제1 이미지(410)가 위치하지 않는 제2 영역(342)에 디스플레이할 수 있다. 다른 실시예에 따르면, 제1 이미지(410)가 제1 영역(341) 및 제2 영역(342)에 걸쳐 디스플레이되는 경우, 제1 이미지(410)의 일부에 중첩되도록 팔레트(480)를 디스플레이할 수 있다. 팔레트(480)는 다양한 색상으로 이루어질 수 있다. 팔레트(480)는 선택된 화장품이 가지는 색상의 종류를 다양하게 표현할 수 있으며, 같은 종류의 화장품이 가지는 색상을 표현할 수 있다. 예를 들면, 사용자가 선택한 제품이 있는 경우, 전자 장치(100)는 디스플레이(340)에 제품이 표현가능한 색상을 포함하는 팔레트(480)를 디스플레이할 수 있다. 다른 예를 들면, 사용자가 제품을 선택하지 않는 경우, 전자 장치(100)는 서버에 입력되어 있는 제품의 색상을 모두 포함하는 팔레트(480)를 디스플레이할 수 있다. 이후에 사용자가 제품을 선택하면, 전자 장치(100)는 선택된 제품의 팔레트(480)를 디스플레이할 수 있고, 복수개의 제품을 선택하면, 복수개의 제품이 표현할 수 있는 색상의 팔레트(480)를 디스플레이할 수 있다. 팔레트(480)의 개수보다 색상이 많은 경우, 다른 색상을 볼 수 있도록 팔레트(480) 주위에 버튼(450)이 있을 수 있다. 버튼(450)을 터치하거나 호버링하면, 전자 장치(100)는 팔레트(480)에 포함된 색상을 변경할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)와 입력 신호를 주고받을 수 있는 입력장치(예: 스타일러스 펜, 키보드, 마우스 등) 또는 외부 객체(예를 들면, 사용자의 신체 일부)를 통하여, 전자 장치(100)는 사용자가 팔레트(480)에서 선택한 색상을 제1 이미지(410)에 표현할 수 있다. 예를 들면, 사용자가 입력 장치 또는 외부 객체로 팔레트의 색상을 선택한 후, 제1 이미지(410)의 일부(390)에 터치 또는 호버링을 통하여 색상을 표현할 수 있다.
예를 들면, 전자 장치는 카메라(예: 도 3의 카메라(350))를 통하여 사용자의 신체 일부 또는 얼굴이 표현된 제1 이미지를 획득하고, HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여 상기 제1 이미지에서 (사용자가 들고 있는) 스타일러스 펜(또는 상기 스타일러스 펜의 윤곽선)을 인식할 수 있다.
또한, 일 예로, 상기 스타일러스 펜은 펜의 끝 부분(또는 펜촉 부분 또는 펜의 단부)에 형성되는 제1 버튼(예를 들어, 펜촉의 형상을 할 수 있다)을 포함하거나 스타일러스 펜의 본체 또는 본체의 일 측면에 형성되는 제2 버튼을 포함할 수 있다. 예를 들면, 사용자는 상기 스타일러스 펜으로 자신의 얼굴을 누르면 상기 제1 버튼이 (얼굴에) 눌리게 될 수 있다. 이 때 전자 장치는, 상기 제1 버튼이 눌리는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다. 또한, 예를 들면, 사용자는 자신의 손으로 스타일러스 펜의 본체 또는 본체의 일 측면에 형성되는 제2 버튼을 누를 수 있다. 이 때 전자 장치는, 상기 제2 버튼이 눌리는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.
다른 예로, 상기 제1 이미지에서 스타일러스 펜과 사용자의 신체 일부 또는 얼굴 사이의 거리가 소정의 기준치 이하로 가까워지면(또는 신체 일부 또는 얼굴 주변에 위치시키면), 소정의 입력 신호가 획득된 것으로 볼 수 있다. 이 때 전자 장치는, 스타일러스 펜과 사용자의 신체 일부 또는 얼굴 사이의 거리가 소정의 기준치 이하로 가까워지는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.
또 다른 예로, 상기 제1 이미지에서 스타일러스 펜의 위치가 소정의 시간보다 정지된 경우, 소정의 입력 신호가 획득된 것으로 볼 수 있다. 이 때 전자 장치는, 스타일러스 펜의 위치가 정지되어 있는 시간 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.
도 5는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 바탕으로 추천하는 복수이 제2 이미지들을 표현한 도면이다.
도 5를 참조하면, 전자 장치(100)는 디스플레이(340) 상에 제1 이미지(410)로부터 수정된 제2 이미지(411, 412)를 디스플레이할 수 있다. 전자 장치(100)는 송신한 얼굴의 윤곽선(420) 또는 윤곽선(420)과 관련된 데이터를 송신할 수 있다. 외부 전자 장치는 수신된 데이터를 바탕으로 인공 신경망 모델(예: 도 1의 134)을 통하여 도 2에 상술한 인공신경망 모델을 구현하여 특징점을 추출할 수 있다. 외부 전자 장치는 추출된 특징점들을 바탕으로 유사한 얼굴형을 찾을 수 있다.
다양한 실시예에 따르면, 외부 전자 장치는 얼굴형과 관련된 데이터를 할당된 메모리(예: 도 1의 제1 메모리(130))에 저장할 수 있다. 얼굴형과 관련된 데이터는 사용자들이 외부 전자 장치를 이용하면서 등록될 수 있다. 다양한 실시예에 따르면, 외부 전자 장치는 사용자들의 얼굴형과, 사용자들이 선택한 화장품, 사용자들의 선호도를 포함할 수 있다. 외부 전자 장치는 얼굴형에 따라 선호되는 사용자들의 화장품을 매칭할 수 있고, 우선순위를 부여할 수 있다. 또한, 외부 전자 장치는 얼굴형에 따라 적용된 화장품들의 평점을 포함하는 데이터를 포함할 수 있다.
전자 장치(100)는 외부 전자 장치로부터 추천된 제품이 적용된 제2 이미지(411)를 디스플레이할 수 있다. 제2 이미지(411)는 외부 전자 장치로부터 추천된 제품을 바탕으로, 전자 장치(100)에서 생성된 이미지이거나 외부 전자 장치에서 제품을 매칭시켜 전자 장치(100)로 전송된 이미지일 수 있다. 제2 이미지(411)는 복수개의 이미지일 수 있으며, 보여지는 순서는 이전 사용자들의 선호도에 따른 순서로 노출될 수 있다.
디스플레이(340)는 복수개의 제2 이미지(411, 412)를 표현하기 위하여, 다음 이미지로 전환하기 위한 버튼(415)을 표현할 수 있다. 사용자에 의해 버튼에 입력이 인가되는 경우, 제2 이미지는 제2 이미지(411)에서 제2 이미지(412)로 변환될 수 있다.
다양한 실시예에 따르면, 디스플레이(340)는 제2 이미지(411)가 표현되는 동안, 추천 아이콘 또는 문구(345a, 345b)를 표현할 수 있다. 추천 아이콘(345a, 345b)에 입력된 정보는 외부 전자 장치에서 사용자의 선호도를 판단하는데 이용될 수 있다. 다양한 실시예에 따르면, 추천 아이콘은 처음에는 색상이 빈 아이콘(345a)이고, 사용자의 입력이 있은 후 색상을 포함하는 아이콘(345b)로 변환될 수 있다. 다른 예를 들면, 추천 아이콘(345a, 345b)를 클릭하면, 평점을 입력할 수 있는 창이 뜰 수 있고, 입력된 평점은 외부 전자 장치로 전달될 수 있다. 다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 팔레트(예: 도4의 팔레트(480)), 추천 아이콘(345a, 345b)는 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다.
전달된 평점 또는 추천수를 바탕으로, 외부 전자 장치의 인공 신경망 모델은 사용자의 얼굴 윤곽에 따른 선호도가 높은 순서로 화장품을 정렬할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는 사용자에 의해서 일부 메이크업을 수정할 수 있다. 예를 들면, 제2 이미지(411)은 최초로 사용자가 전달받은 제2 이미지 일 수 있고, 사용자의 선택에 의해 헤어와 눈화장이 변경될 수 있다. 사용자가 헤어쪽을 선택하면, 다른 헤어 모양이나 색상을 팔레트(480)가 위치한 자리에 표현할 수 있고, 이를 바탕으로 사용자가 헤어디자인을 수정할 수 있다. 동일한 방법으로 눈화장을 수정하여 제2 이미지(412)를 형성할 수 있다. 사용자가 최종적으로 선택하고 만족을 나타내는 의미로 추천 아이콘(345b)를 클릭할 수 있다. 이경우, 전자 장치(100)는 제2 이미지(411)은 낮은 선호도를 표현하고, 제3 이미지(412)는 높은 선호도로 데이터를 작성하여 외부 전자 장치로 전송할 수 있다. 외부 전자 장치는 이와 관련된 내용을 저장 장치에 저장하여, 이후 다른 사용자에게 화장품 또는 화장법을 추천할 때 사용할 수 있다.
도 6은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품 정보를 표현한 도면이다.
도 6을 참조하면, 사용자는 전자 장치(100)를 통하여 제2 이미지(412)에 사용된 제품의 정보를 확인할 수 있다. 전자 장치(100)는 디스플레이(340)를 통해 제2 이미지(412) 및 제2 이미지(412)에 적용된 메이크업 제품의 리스트(430)를 디스플레이할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는 제2 이미지(412)와 관련된 데이터 및 제2 이미지(412)에 사용된 제품과 관련된 데이터를 외부 전자 장치로부터 수신할 수 있다. 제2 이미지(412)에 사용된 제품과 관련된 데이터는 리스트로 만들어져서 디스플레이(340)에 표시될 수 있다. 사용자는 리스트에 표시된 제품명을 터치(435)하거나, 제2 이미지(412)의 일부를 터치(425)할 수 있다. 제2 이미지(412)의 일부나 제품명을 터치하는 경우, 전자 장치(100)는 제품에 대한 설명이 표현되는 창(420)을 제2 이미지 상에 오버랩되거나, 빈공간에서 디스플레이할 수 있다. 제품에 대한 설명이 표현되는 창(420)은 제품의 정보, 제품의 제조사, 가격등을 포함할 수 있고, 주문버튼을 포함할 수 있다. 추가적으로, 제품의 상세정보를 얻을 수 있는 링크등을 포함할 수 있다. 사용자는 다른 부위에 적용된 제품을 확인하고자 하는 경우, 제품 리스트(430)에서 다른 제품을 클릭하거나, 제2 이미지(412)의 다른 부위를 선택할 수 있다.
다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 제품에 대한 설명이 표현되는 창(420) 및 제품 리스트(430)는 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다.
다양한 실시예에 따르면, 사용자가 제품 리스트(430)나 제2 이미지(412)의 일부를 터치(425)하는 경우, 프로세서(예: 도 3의 프로세서(310))는 입력을 인식할 수 있다. 인식된 입력을 바탕으로 프로세서는 입력에 대응되는 제품 정보를 디스플레이(340)상에 팝업되는 제품에 대한 설명이 표현된 창(420)형태로 제공할 수 있다. 프로세서는 사용자가 창(420)에 포함된 주문하기 버튼을 클릭하게 되면, 제품의 주문과 관련된 창으로 전환할 수 있고, 제품명이나 제조사를 클릭하면, 제품에 관한 정보 또는 제조사의 다른 제품에 관한 정보를 디스플레이하여 사용자에게 제공할 수 있다.
도 7은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품을 단계별로 표현한 도면이다.
도 7을 참조하면, 전자 장치(100)는 디스플레이(340)에 제1 이미지(예: 도 4의 제1 이미지(410))로부터 제2 이미지(예: 도 5의 제2 이미지(411, 412)) 중 사용자가 선택한 제2 이미지(412)로 화장하는 순서를 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는 외부 전자 장치로부터 인공 신경망을 통해 획득된 유사한 얼굴형에서 적용된 화장법을 수신할 수 있다. 사용자는 화장법이 복수개인 경우, 하나를 선택할 수 있고, 전자 장치(100)는 선택된 화장법을 순서에 따라 디스플레이(340)를 통하여 각 단계별로 디스플레이할 수 있다. 전자 장치(100)는 각 단계별로 적용된 화장법에 관련된 정보가 포함된 창(420)을 표시할 수 있고, 창(420)은 사용자의 입력에 따라 열거나 닫을 수 있다.
STEP X에서, 전자 장치(100)는 볼터치 단계에 적용된 제품과 제품이 적용된 이미지를 제공할 수 있다. 예를 들면, 디스플레이(340)는 제1 이미지(410)와 디스플레이(340)의 일 영역에, 현재 단계(441)를 제공할 수 있다. 현재 단계(441) 표시 영역은 STEP X임을 표시할 수 있고, 현재 단계에서 적용된 제품을 창(420)을 통해서 정보를 제공할 수 있다.
디스플레이(340)는 제1 이미지(410)에 현재 단계(441)에서 적용된 화장(442)(예: 볼터치)을 맵핑하여 표현할 수 있다.
STEP X+1에서, 전자 장치(100)는 눈화장 단계에 적용된 제품과 제품이 적용된 이미지를 제공할 수 있다. 현재단계(443)는 STEP X에서 STEP X+1로 변경될 수 있고, 디스플레이는 현재 단계(443)에서 적용된 제품을 창(420)을 통해서 정보를 제공할 수 있다. 현재 단계에서 적용된 제품이 복수개 인 경우, 창(420)을 통해서 복수개의 제품 정보를 제공할 수 있다.
디스플레이(340)는 제1 이미지(410)에 현재의 이전 단계(441)인 STEP X에서 적용된 화장(442)(예: 볼터치)을 맵핑하고, 추가로, 현재 단계(443)인 STEP X+1에서 적용된 화장(444)(예: 눈화장)을 맵핑하여 표현할 수 있다.
다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 제품에 대한 설명이 표현되는 창(420) 은 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다. 다양한 실시예에 따르면, 현재 단계(441, 443)의 표현은 디스플레이(340)의 제1 영역(예: 도 4의 제1 영역(341)), 제2 영역(예: 도 4의 제2 영역(342)) 및 접힘 영역(예: 도 4의 접힘 영역(343))에 걸쳐 표현될 수 있다. 다른 실시예를 들면, 도 7에 도시된 바와 상이하게, 현재 단계(441, 443)의 표현은 디스플레이(340)의 제1 영역(341) 또는 제2 영역(343)중 어느 하나에 배치될 수 있다.
도 8은 다양한 실시예들에 따르는 플렉서블 디스플레이를 포함하는 전자 장치를 나타낸다.
전자 장치(800)는 화장이 적용된 제2 이미지(411)를 디스플레이 함과 동시에 다른 영역에서는 채팅창(890), 제품 리스트(430), 및 팔레트(480)를 디스플레이(840)에 나타낼 수 있다.
전자 장치(800)는 폴더블 디바이스 일 수 있다. 전자 장치(800)는 힌지 구조에 연결되는 제1 하우징 구조, 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징 및 상기 폴더블 하우징에 배치되는 플렉서블 디스플레이(840)를 포함할 수 있다. 플렉서블 디스플레이(840)는 제1 하우징 구조의 일면으로부터 제2 하우징 구조의 일면으로 연장되어 형성될 수 있다. 플렉서블 디스플레이(840)는 펼침 상태(unfolding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면에 배치되어 하나의 평면으로 형성될 수 있다. 플렉서블 디스플레이(840)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 마주보게 배치됨에 따라 접히는 형태를 유지할 수 있다. 다른 실시예에 따르면, 플렉서블 디스플레이(840)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 바깥으로 바라보게 배치됨에 따라 디스플레이는 외부로 노출되는 형태를 유지할 수 있다.
다양한 실시예에 따르면, 플렉서블 디스플레이(840)는 제1 영역(841), 제2 영역(842) 및 접힘 영역(843)을 포함할 수 있다. 접힘 영역(843)은 힌지 구조가 배치되는 영역에 대응되는 플렉서블 디스플레이(840) 상의 영역일 수 있고, 플렉서블 디스플레이가 접혀지는 영역일 수 있다. 제1 영역(841) 및 제2 영역(842)는 힌지 축을 중심으로 대칭되도록 배치되어 접힘 영역(843)으로부터 연장되는 영역일 수 있다.
다양한 실시예에 따르면, 전자 장치(100)의 프로세서(310)는 플렉서블 디스플레이(840)의 제1 영역(841) 또는 제2 영역(842)에 제1 이미지(410) 또는 제2 이미지(411)을 표현하도록 제어할 수 있다. 프로세서(310)는 플렉서블 디스플레이(840)의 나머지 영역에서, 제1 이미지(410) 또는 제2 이미지(411) 이외의 화장 정보가 포함된 제품 리스트(430), 채팅창(890), 팔레트(480)를 표현할 수 있다. 예를 들면, 제1 영역(841)에 제2 이미지(411) 및 추천 아이콘(345)를 표현하고, 제2 영역(842)에 제품 리스트(430), 채팅창(890), 팔레트(480)를 표현할 수 있다. 사용자가 제품 리스트(430)의 제품을 선택하는 경우, 제2 영역(842)에 제품의 정보가 팝업창으로 표현될 수 있다. 채팅창(890)은 전자 장치(100)의 사용자 및 외부 전자 장치(101) 또는 외부 서버를 통해 연결된 사용자의 입력이 출력될 수 있다.
도 9는 다양한 실시예들에 따르는 전자 장치의 동작을 나타내는 흐름도이다.
도 9를 참조하면, 전자 장치(예: 도 1의 전자 장치(100))는 적어도 하나의 프로세서(예: 도 3의 프로세서(310))에 의해 실행될 때에, 적어도 하나의 프로세서가, 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고(S910), 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고(S920), 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고(S930), 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다(S940).
S910 동작에서, 전자 장치는 카메라(예: 도 3의 카메라(350))를 통하여 사용자의 신체일부 또는 얼굴이 표현된 제1 이미지를 획득할 수 있다. 제1 이미지는 얼굴의 굴곡을 표현하기 위하여 깊이 정보를 포함할 수 있으며, 디스플레이(예: 도 3의 디스플레이(340))의 아래에 중첩되도록 배치되는 인 디스플레이 카메라일 수 있다. 제1 이미지는 전면 카메라뿐만 아니라 후면 카메라를 통해 획득한 이미지일 수 있다.
S920 동작에서, 전자 장치는 획득된 이미지를 바탕으로 유사한 얼굴형을 검출할 수 있다. 다양한 실시예에 따르면, 전자 장치는 제1 이미지에 표현된 얼굴형으로부터 특징점을 획득할 수 있고, 특징점을 바탕으로 유사한 얼굴을 판단할 수 있다. 또한, 전자 장치는 획득된 이미지에 포함된 높이 정보 및 색상 정보를 인공 신경망 모델이 포함된 외부 전자 장치(예: 도 1의 외부 전자 장치(101))로 송신하여, 인공 신경망 모델을 통하여 특징점을 추출하여, 기존에 저장되어 있던 얼굴 모형으로부터 유사한 얼굴형을 찾을 수 있다.
S930 동작에서, 전자 장치는 얼굴형에 따른 화장품 및 화장법을 검색할 수 있다. 전자 장치는 자체 어플리케이션 또는, 저장되어 있는 데이터를 통하여, 해당 얼굴형에 적합한 화장품 및 화장법을 제공할 수 있다. 또한, 전자 장치는, 외부 전자 장치로부터 해당 얼굴형에 적합한 화장품 및 화장법과 관련된 데이터를 수신할 수 있다. 예를 들면, 외부 전자 장치는 사용자의 얼굴형에 유사한 얼굴형의 사용자들이 추천하는 제품과 사용한 제품들을 판단하여, 가중치를 부여하거나, 점수를 평가하여, 우선순위를 정하여 전자 장치로 전달할 수 있다. 또한 외부 전자 장치는 유사한 얼굴형의 사용자들이 추천하는 화장법 및 적용한 화장법을 판단하여 우선순위를 정하여 전자 장치로 전달할 수 있다.
S940 동작에서, 전자 장치는 화장품이 적용된 얼굴을 디스플레이를 통해 표현할 수 있다. 다양한 실시예에 따르면, 전자 장치는, 추천된 화장품 또는 화장법이 적용된 제2 이미지를 사용자에게 디스플레이할 수 있다. 사용자는 해당 화장품 또는 화장법이 마음에 들지 않는다면, 다음 순위의 화장품 또는 화장법이 적용된 제2 이미지를 요청할 수 있고, 전자 장치는 요청에 응답하여 차순위 제2 이미지를 제공할 수 있다. 전자 장치는 사용자가 제품의 정보 또는 주문과 관련된 신호를 요청하는 경우, 제품의 정보 또는 주문 링크가 담긴 창을 디스플레이할 수 있다.
상술한 다양한 실시예에 따르는 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 프로세서에 의해 상기 인스트럭션들을 실행할 시, 상기 제1 이미지에 외부 객체의 접근을 감지하고, 상기 감지된 외부 객체를 통한 특정한 입력이 있는 경우, 디스플레이에 표시하도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 외부 객체는 상기 전자 장치와 신호를 송 수신할 수 있는 외부 전자 장치일 수 있고, 상기 특정한 입력은 상기 제1 이미지의 일부에 상기 화장품의 효과가 적용된 이미지로 표현하기 위한 입력일 수 있다.
다양한 실시예에 따르면, 상기 검출된 얼굴형과 관련된 데이터는 사용자의 얼굴형상 및 색상을 포함할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 디스플레이를 통해 외부에 노출시킬 때, 복수의 색상을 포함하는 팔레트를 상기 제1 이미지 또는 상기 제2 이미지의 일부 영역에 중첩(overlap)되도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 디스플레이는 상기 제2 이미지가 노출될 때, 추천을 위한 객체를 표현하고, 상기 프로세서는 상기 객체를 통하여 신호가 입력되면, 상기 추천 정보를 상기 외부 전자 장치로 송신하도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 디스플레이는 상기 제1 이미지 또는 상기 제2 이미지가 노출될 때, 다른 사용자와의 커뮤니케이션을 위한 창(window)을 제공하고, 상기 프로세서는 상기 창은 상기 전자 장치의 사용자 및 상기 외부 전자 장치 또는 외부 서버를 통해 연결된 사용자의 입력이 출력되도록 제어할 수 있다.
다양한 실시예에 따르면, 프로세서는, 상기 제2 이미지에 적용된 복수의 제품 리스트를 상기 디스플레이를 통해 디스플레이하고, 상기 복수의 제품리스트에서 상기 제품을 선택할 때, 상기 제품의 정보, 가격, 또는 주문과 관련된 창을 상기 디스플레이를 통해 디스플레이하도록 제어할 수 있다.
다양한 실시예에 따르는 전자 장치는 힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징, 상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이. 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 플렉서블 디스플레이를 통해 외부에 노출시킬 때, 상기 제1 이미지 또는 상기 제2 이미지를 상기 제1 영역에 디스플레이하고, 복수의 색상을 포함하는 팔레트를 상기 제2 영역에 디스플레이하도록 제어할 수 있다.
본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (10)

  1. 전자 장치(electronic device)에 있어서,
    하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서(CP, communication processor);
    이미지를 획득하기 위한 카메라;
    상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이;
    상기 촬영된 외부 객체가 저장되는 메모리; 및
    상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
    상기 메모리는, 복수의 인스트럭션들을 저장하고,
    상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
    상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고,
    상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고,
    상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고,
    상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고,
    상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 적어도 하나의 프로세서에 의해 상기 인스트럭션들을 실행할 시,
    상기 제1 이미지에 외부 객체의 접근을 감지하고,
    상기 감지된 외부 객체를 통한 특정한 입력이 있는 경우, 디스플레이에 표시하도록 제어하는 전자 장치.
  3. 제2항에 있어서,
    상기 외부 객체는 상기 전자 장치와 신호를 송 수신할 수 있는 외부 전자 장치일 수 있고,
    상기 특정한 입력은 상기 제1 이미지의 일부에 상기 화장품의 효과가 적용된 이미지로 표현하기 위한 입력인 전자 장치.
  4. 제1항에 있어서,
    상기 검출된 얼굴형과 관련된 데이터는 사용자의 얼굴형상 및 색상을 포함하는 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 디스플레이를 통해 외부에 노출시킬 때, 복수의 색상을 포함하는 팔레트를 상기 제1 이미지 또는 상기 제2 이미지의 일부 영역에 중첩(overlap)되도록 제어하는 전자 장치.
  6. 제1항에 있어서,
    상기 디스플레이는 상기 제2 이미지가 노출될 때, 추천을 위한 객체를 표현하고,
    상기 프로세서는 상기 객체를 통하여 신호가 입력되면, 상기 추천과 관련된 정보를 상기 외부 전자 장치로 송신하도록 제어하는 전자 장치.
  7. 제1항에 있어서,
    상기 디스플레이는 상기 제1 이미지 또는 상기 제2 이미지가 노출될 때, 다른 사용자와의 커뮤니케이션을 위한 창(window)을 제공하고,
    상기 창은 상기 전자 장치의 사용자 및 상기 외부 전자 장치 또는 외부 서버를 통해 연결된 사용자의 입력이 출력되는 전자 장치.
  8. 제1항에 있어서,
    프로세서는, 상기 제2 이미지에 적용된 복수의 제품 리스트를 상기 디스플레이를 통해 디스플레이하고,
    상기 복수의 제품리스트에서 상기 제품을 선택할 때, 상기 제품의 정보, 가격, 또는 주문과 관련된 창을 상기 디스플레이를 통해 디스플레이하도록 제어하는 전자 장치.
  9. 전자 장치(electronic device)에 있어서,
    힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징;
    상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이;
    하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서(CP, communication processor);
    이미지를 획득하기 위한 카메라;
    상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이;
    상기 촬영된 외부 객체가 저장되는 메모리; 및
    상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
    상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고,
    상기 메모리는, 복수의 인스트럭션들을 저장하고,
    상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
    상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고,
    상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고,
    상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고,
    상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고,
    상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어하는 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 플렉서블 디스플레이를 통해 외부에 노출시킬 때, 상기 제1 이미지 또는 상기 제2 이미지를 상기 제1 영역에 디스플레이하고, 복수의 색상을 포함하는 팔레트를 상기 제2 영역에 디스플레이하도록 제어하는 전자 장치.
KR1020190168731A 2019-12-17 2019-12-17 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템 KR102356023B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168731A KR102356023B1 (ko) 2019-12-17 2019-12-17 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190168731A KR102356023B1 (ko) 2019-12-17 2019-12-17 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템

Publications (2)

Publication Number Publication Date
KR20210077275A true KR20210077275A (ko) 2021-06-25
KR102356023B1 KR102356023B1 (ko) 2022-01-25

Family

ID=76629296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168731A KR102356023B1 (ko) 2019-12-17 2019-12-17 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템

Country Status (1)

Country Link
KR (1) KR102356023B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010007775A (ko) * 2000-09-06 2001-02-05 권대현 실시간 대화 서비스를 이용한 의류 코디네이션 시스템
JP2004228888A (ja) * 2003-01-22 2004-08-12 Make Softwear:Kk 写真自動販売機
KR20130080937A (ko) * 2012-01-06 2013-07-16 삼성전자주식회사 플랙서블 디스플레이를 구비하는 단말장치의 화면 표시장치 및 방법
WO2018135665A1 (ja) * 2017-01-23 2018-07-26 らしさ・ドット・コム株式会社 提案システム、提案方法、サーバ及びコンピュータプログラム
KR20180130778A (ko) * 2017-05-30 2018-12-10 주식회사 트위니 화장품 추천 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체, 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램 및 화장품 추천 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010007775A (ko) * 2000-09-06 2001-02-05 권대현 실시간 대화 서비스를 이용한 의류 코디네이션 시스템
JP2004228888A (ja) * 2003-01-22 2004-08-12 Make Softwear:Kk 写真自動販売機
KR20130080937A (ko) * 2012-01-06 2013-07-16 삼성전자주식회사 플랙서블 디스플레이를 구비하는 단말장치의 화면 표시장치 및 방법
WO2018135665A1 (ja) * 2017-01-23 2018-07-26 らしさ・ドット・コム株式会社 提案システム、提案方法、サーバ及びコンピュータプログラム
KR20180130778A (ko) * 2017-05-30 2018-12-10 주식회사 트위니 화장품 추천 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체, 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램 및 화장품 추천 시스템

Also Published As

Publication number Publication date
KR102356023B1 (ko) 2022-01-25

Similar Documents

Publication Publication Date Title
US11682141B2 (en) Item recommendations based on image feature data
KR102123780B1 (ko) 자동 가이드식 이미지 캡쳐 및 프레젠테이션
US9607010B1 (en) Techniques for shape-based search of content
US20190042079A1 (en) Electronic device and method for providing search result thereof
KR20180089855A (ko) 상품을 추천하는 디바이스 및 방법
US20200342320A1 (en) Non-binary gender filter
US11605176B2 (en) Retrieving images that correspond to a target body type and pose
US20200372560A1 (en) Method for exploring and recommending matching products across categories
KR102356023B1 (ko) 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템
KR102299393B1 (ko) 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템
US11430030B1 (en) Generation of recommendations for visual product details
US20230401632A1 (en) Methods and Systems for Initiating a Virtual Try-On Application Running on a Computer System and Providing Interactive Augmented Reality (AR) Graphics

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant