KR102356023B1 - Server for matching product with buyer and matching system having the same - Google Patents

Server for matching product with buyer and matching system having the same Download PDF

Info

Publication number
KR102356023B1
KR102356023B1 KR1020190168731A KR20190168731A KR102356023B1 KR 102356023 B1 KR102356023 B1 KR 102356023B1 KR 1020190168731 A KR1020190168731 A KR 1020190168731A KR 20190168731 A KR20190168731 A KR 20190168731A KR 102356023 B1 KR102356023 B1 KR 102356023B1
Authority
KR
South Korea
Prior art keywords
electronic device
image
user
processor
display
Prior art date
Application number
KR1020190168731A
Other languages
Korean (ko)
Other versions
KR20210077275A (en
Inventor
강인하
Original Assignee
강인하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강인하 filed Critical 강인하
Priority to KR1020190168731A priority Critical patent/KR102356023B1/en
Publication of KR20210077275A publication Critical patent/KR20210077275A/en
Application granted granted Critical
Publication of KR102356023B1 publication Critical patent/KR102356023B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 촬영된 외부 객체가 저장되는 메모리와, 프로세서를 포함하고, 프로세서는 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어하는 것을 특징으로 한다.An electronic device is disclosed. The electronic device includes a communication processor for communicating with one or more user terminals, a camera for acquiring an image, a display for transmitting the acquired image and information to a user, a memory in which a photographed external object is stored, and a processor, the processor acquires a first image related to the user's face through a camera, detects data related to a face shape similar to the user based on the acquired first image, and transmits the detected face shape related data to an external electronic device transmit, receive, from an external electronic device, data on cosmetics and makeup methods with a high preference according to a user's similar face shape by using an artificial neural network, and receive a second cosmetic or makeup method with a high preference according to a user's similar face shape It is characterized in that the image is controlled to be displayed through the display.

Description

제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템{SERVER FOR MATCHING PRODUCT WITH BUYER AND MATCHING SYSTEM HAVING THE SAME}Electronic device for product and user matching, and matching system including the same

본 발명의 다양한 실시예들은 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템에 관한 것이다. 구체적으로는, 화장품을 선택하고자 하는 사용자가 적절한 상품 또는 화장법을 선택하도록 도움을 주는 전자 장치 및 이를 포함하는 매칭 시스템에 관한 것이다.Various embodiments of the present invention relate to an electronic device for matching a product and a user, and a matching system including the same. Specifically, it relates to an electronic device that helps a user who wants to select cosmetics to select an appropriate product or makeup method, and a matching system including the same.

증강 현실(AR, artificial reality) 기술의 발전으로, 현실 세계가 투영된 이미지에 컴퓨터나 전자 장치에 의해 생성된 이미지 또는 정보를 표시하는 직관적인 서비스에 관한 관심이 증가하고 있다. 또한, 증강 현실에 따라, 사용자는 실제로 맵핑된 제품을 볼 수 있고, 직접 사용하지 않더라도, 제품에 대한 결과를 바로 획득할 수 있다. 데이터 전송 속도가 더울 빨라진 mmWave를 이용하는 5G통신에서, 증강 현실 기술의 사용은 증가할 것으로 보인다.With the development of augmented reality (AR) technology, interest in an intuitive service for displaying an image or information generated by a computer or electronic device on a projected image of the real world is increasing. In addition, according to the augmented reality, the user can actually see the mapped product, and can directly obtain the result for the product, even if it is not directly used. In 5G communication using mmWave, which has an even faster data transfer rate, the use of augmented reality technology is expected to increase.

증강 현실을 통하여, 사용자는 제품이 적용된 결과를 바탕으로 직접 제품의 구매까지 이를 수 있고, 증강현실이 적용된 이미지를 실시간으로 공유하거나, 저장된 화면을 통하여 다른 사람과 의견을 공유할 수 있다.Through augmented reality, a user can directly purchase a product based on a product applied result, share an image to which augmented reality is applied in real time, or share an opinion with other people through a stored screen.

통신 기술 및 전자 장치의 발달로, 전자 장치의 사용자들은 장소나 시간에 구애받지 않고 쇼핑몰에서 물품을 구매할 수 있다. 판매자 입장에서도, 온라인 쇼핑몰은 제품을 전시할 공간이 필요가 없어, 공간효율성을 높일 수 있다. 사용자는 시공간의 제약에서 벗어나고, 판매자 입장에는 공간 효율성을 높일 수 있어 점차 온라인 쇼핑몰은 증가하는 추세이다.With the development of communication technologies and electronic devices, users of electronic devices may purchase items at a shopping mall regardless of place or time. From the seller's point of view, the online shopping mall does not need a space to display products, so space efficiency can be improved. The number of online shopping malls is gradually increasing because users can be freed from the constraints of time and space and space efficiency can be increased for sellers.

온라인 쇼핑몰은 SNS에서 사용자들의 평가를 통하여, 제품의 광고 또는 홍보가 이루어 질 수 있다. 특히 젊은 층에서는 SNS등에서 획득한 정보를 바탕으로, 기존의 컴퓨터이외에 스마트폰을 이용한 어플리케이션을 통하여 쇼핑몰에 접근하고 있다. 스마트폰의 등장으로 다양한 형태의 온라인 판매가 진행되고 있다.In the online shopping mall, advertisements or promotions of products can be made through the evaluation of users on SNS. In particular, young people are accessing shopping malls through applications using smartphones in addition to the existing computers based on information obtained from SNS, etc. With the advent of smartphones, various types of online sales are in progress.

다양한 실시예에 따르는, 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템은 증강 현실을 통하여, 사용자의 얼굴에 가상의 메이크업을 수행하고, 해당 결과를 제공할 수 있다. 메이크업을 접해보지 못한 사회 초년생은 메이크업의 순서나, 제품에 대한 정보가 부족하여 필요할 때, 메이크업을 진행하기 어려운 문제가 발생한다.According to various embodiments of the present disclosure, an electronic device for matching a product with a user and a matching system including the same may perform virtual makeup on a user's face and provide a corresponding result through augmented reality. Newcomers who have never experienced makeup have a problem in that they do not have enough information about makeup procedures or products, so it is difficult to apply makeup when necessary.

또한, 메이크업을 위한 사용자들은 서로 다른 얼굴형을 가지고, 각각의 얼굴형에 따른 효과를 가지는 제품이 다를 수 있으므로, 이를 고려하여, 제품을 제공할 필요가 있다.In addition, since users for makeup have different face shapes and products having effects according to each face shape may be different, it is necessary to provide products in consideration of this.

온라인 쇼핑몰의 경우, 제공되는 정보가 너무 광범위하여 사용자의 제품 선택에 문제가 발생할 수 있어, 사용자의 얼굴형, 피부 상태등을 종합적으로 고려하여, 제품을 제공할 수 있는 방안(solution)이 필요하다.In the case of an online shopping mall, since the information provided is too extensive, a problem may occur in the user's product selection, so a solution is needed to provide the product by comprehensively considering the user's face shape and skin condition. .

일 실시예에 따르는 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.An electronic device according to an embodiment includes a communication processor for communicating with one or more user terminals, a camera for acquiring an image, a display for transmitting the acquired image and information to a user, and a memory for storing the photographed external object; , at least one processor operatively coupled with the communication processor and the memory, wherein the memory stores a plurality of instructions, the plurality of instructions, when executed by the at least one processor, the at least One processor acquires a first image related to the user's face through the camera, detects data related to a face shape similar to the user based on the acquired first image, and includes the detected face shape and Transmitting related data to an external electronic device, and using an artificial neural network to receive data on cosmetics and makeup methods with high preference according to a user's similar face shape, and preference according to a similar face shape to the user from the external electronic device It is possible to control to display a second image to which cosmetics or a cosmetic method having a high value is applied through the display.

다른 실시예에 따르는 전자 장치는, 힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징, 상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이, 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서(CP, communication processor), 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.An electronic device according to another embodiment includes a foldable housing including a first housing structure connected to a hinge structure and a second housing structure contacting the first housing structure with the hinge structure as an axis, the first housing structure A flexible display extending from one surface to one surface of the second housing structure, a communication processor (CP) for communicating with one or more user terminals, a camera for acquiring an image, and transmitting the acquired image and information to a user and a display, a memory in which the photographed external object is stored, and at least one processor operably coupled to the communication processor and the memory, wherein the flexible display is located in which the hinge structure is located. a folding area corresponding to the area, a first area extending from the folding area to one edge of the first housing structure, and symmetrical about the first housing structure and the hinge structure, and the second area from the folding area a second region extending to an edge of a housing structure, wherein the memory stores a plurality of instructions, wherein the plurality of instructions, when executed by the at least one processor, cause the at least one processor to: A first image related to a user's face is acquired through a camera, data related to a face shape similar to the user is detected based on the acquired first image, and data related to the detected face shape are transmitted to an external electronic device. to receive, from the external electronic device, data on cosmetics and makeup methods with a high preference according to a user's similar face shape by using an artificial neural network, and receive cosmetics or makeup methods with a high preference according to a face shape similar to the user. The applied second image may be controlled to be displayed through the display.

다양한 실시예에 따르는, 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템은 증강 현실을 통하여, 사용자의 얼굴에 적용된 메이크업과 관련된 제품 정보를 제공할 수 있고, 적용된 제품이외 다른 제품을 적용해볼 수 있어, 직관적으로 제품의 효과를 파악할 수 있다.According to various embodiments, an electronic device for matching a product and a user and a matching system including the same may provide product information related to makeup applied to the user's face through augmented reality, and apply products other than the applied product. You can try it, and you can intuitively understand the effect of the product.

메이크업을 위한 사용자들은 서로 다른 얼굴형을 가지고, 각각의 얼굴형에 적합한 제품을 적용함으로써, 사용자는 최적의 화장 결과물을 획득할 수 있고, 해당 결과를 통해 제품의 주문이 가능하다.Users for makeup have different face shapes, and by applying a product suitable for each face shape, the user can obtain an optimal makeup result, and can order products through the result.

도 1은, 다양한 실시예들에 따른, 네트워크 환경내에서 동작하는 전자 장치 및 외부 전자 장치의 블록도이다.
도 2는, 다양한 실시예들에 따르는 외부 전자 장치를 구성하는 인공 신경망 모델의 개념도이다.
도 3은, 다양한 실시예들에 따르는 전자 장치의 블록도이다.
도 4는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 표현한 도면이다.
도 5는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 바탕으로 추천하는 복수이 제2 이미지들을 표현한 도면이다.
도 6은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품 정보를 표현한 도면이다.
도 7은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품을 단계별로 표현한 도면이다.
도 8은 다양한 실시예들에 따르는 플렉서블 디스플레이를 포함하는 전자 장치를 나타낸다.
도 9는 다양한 실시예들에 따르는 전자 장치의 동작을 나타내는 흐름도이다.
1 is a block diagram of an electronic device and an external electronic device operating in a network environment, according to various embodiments of the present disclosure;
2 is a conceptual diagram of an artificial neural network model constituting an external electronic device according to various embodiments of the present disclosure.
3 is a block diagram of an electronic device according to various embodiments of the present disclosure;
4 is a diagram illustrating a first image in an electronic device according to various embodiments of the present disclosure;
5 is a diagram illustrating a plurality of second images recommended based on a first image in an electronic device according to various embodiments of the present disclosure;
6 is a diagram illustrating product information applied to a second image in an electronic device according to various embodiments of the present disclosure;
7 is a view illustrating a product applied to a second image in an electronic device according to various embodiments in stages.
8 illustrates an electronic device including a flexible display according to various embodiments of the present disclosure.
9 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure;

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring the gist of the present invention by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings. In addition, the size of each component does not fully reflect the actual size. In each figure, the same or corresponding elements are assigned the same reference numerals.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be understood that each block of the flowchart diagrams and combinations of the flowchart diagrams may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment are not described in the flowchart block(s). It creates a means to perform functions. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. It is also possible that the instructions stored in the flow chart block(s) produce an article of manufacture containing instruction means for performing the function described in the flowchart block(s). The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in the flowchart block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is also possible for the functions recited in blocks to occur out of order. For example, two blocks shown one after another may be performed substantially simultaneously, or the blocks may sometimes be performed in the reverse order according to a corresponding function.

이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this case, the term '~ unit' used in this embodiment means software or hardware components such as field-programmable gate array (FPGA) or ASIC (Application Specific Integrated Circuit), and '~ unit' refers to what role carry out the However, '-part' is not limited to software or hardware. '~' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Accordingly, as an example, '~' indicates components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.In describing embodiments of the present invention in detail, an example of a specific system will be mainly targeted, but the main subject matter to be claimed in the present specification is to extend the scope disclosed herein to other communication systems and services having a similar technical background. It can be applied within a range that does not deviate significantly, and this will be possible at the discretion of a person with technical knowledge skilled in the art.

도 1은, 다양한 실시예들에 따른, 네트워크 환경내에서 동작하는 전자 장치의 블록도이다.1 is a block diagram of an electronic device operating in a network environment, according to various embodiments of the present disclosure;

인공 신경망은 입력에 대하여 일반화된 출력(generalized output)을 제공하기 위한 하드웨어, 소프트웨어 또는 이들의 조합을 의미할 수 있다.The artificial neural network may refer to hardware, software, or a combination thereof for providing a generalized output with respect to an input.

예를 들어, 인공 신경망은, 합성곱 신경망 (CNN, Convolutional Neural Network), 마르코프 체인(Markov Chain), 또는 이진화 신경망 (BNN, binarized neural network) 등을 시뮬레이션하기 위한 어플리케이션 및 상기 어플리케이션을 실행하기 위한 프로세서에 기반하여 작동할 수 있다.For example, the artificial neural network includes an application for simulating a convolutional neural network (CNN), a Markov chain, or a binarized neural network (BNN), and a processor for executing the application. can work based on

도 1을 참조하면, 외부 전자 장치(101)(예를 들면, 신경망 장치)는 훈련을 통하여 머신 러닝을 수행할 수 있는 장치로서, 인공 신경망으로 구성된 모델을 이용하여 학습하는 장치를 포함할 수 있다. 예를 들면, 신경망 장치(101)는 데이터 마이닝, 데이터 분석, 및 머신 러닝 알고리즘(예: 딥 러닝 알고리즘 (deep learning algorithm))을 위해 이용되는 정보를 입력, 출력, 데이터 베이스 구축 및 저장하도록 구성될 수 있다. Referring to FIG. 1 , an external electronic device 101 (eg, a neural network device) is a device capable of performing machine learning through training, and may include a device for learning using a model composed of an artificial neural network. . For example, the neural network device 101 may be configured to input, output, build a database, and store information used for data mining, data analysis, and machine learning algorithms (eg, deep learning algorithms). can

신경망 장치(101)는 통신 프로세서(150)를 통하여 전자 장치(100)와 데이터를 송수신할 수 있고, 전자 장치(100)로부터 전달받은 데이터를 분석하거나 학습하여 결과값을 도출할 수 있다. 신경망 장치(101)는 전자 장치(100)의 연산을 분산하여 처리할 수 있다.The neural network device 101 may transmit/receive data to and from the electronic device 100 through the communication processor 150 , and may derive a result value by analyzing or learning data received from the electronic device 100 . The neural network device 101 may distribute and process the computation of the electronic device 100 .

신경망 장치(101)는 서버로 구현될 수 있다. 또한 신경망 장치(101)는 복수로 구성되어 신경망 장치 세트를 이룰 수 있다. 각각의 신경망 장치(101)는 연산을 분산하여 처리할 수 있고, 분산 처리된 데이터를 바탕으로 데이터 분석 및 학습을 통하여 결과값을 도출할 수 있다. 신경망 장치(101)는 머신 러닝 알고리즘 등을 이용하여 획득한 결과값을 외부 전자 장치 또는 다른 신경망 장치로 전송할 수 있다.The neural network device 101 may be implemented as a server. In addition, the neural network device 101 may be configured in plurality to form a neural network device set. Each of the neural network devices 101 may process the operation by distributing it, and may derive a result value through data analysis and learning based on the distributed processed data. The neural network device 101 may transmit a result obtained by using a machine learning algorithm or the like to an external electronic device or another neural network device.

다양한 실시예에 따르면, 신경망 장치(101)는 입력부(110), 제1 프로세서(120), 제1 메모리(130), 러닝 프로세서(140) 및 통신 프로세서(150)(CP, communication processor)를 포함할 수 있다.According to various embodiments, the neural network device 101 includes an input unit 110 , a first processor 120 , a first memory 130 , a learning processor 140 , and a communication processor 150 (CP). can do.

다양한 실시예에 따르면, 입력부(110)는 인공 신경망 모델 학습을 통한 출력값을 도출하기 위한 입력 데이터를 획득할 수 있다. 입력부(110)는 가공되지 않은 입력 데이터를 획득할 수 있다. 제1 프로세서(120) 또는 러닝 프로세서(140)는 가공되지 않은 입력 데이터를 전처리하여 인공 신경망 모델 학습에 입력 가능한 훈련 데이터를 생성할 수 있다. 상기 전처리는 입력 데이터로부터 특징점을 추출하는 것일 수 있다. 상술한 바와 같이 입력부(110)는 통신 프로세서(150)를 통하여 데이터를 수신하여 입력 데이터를 획득하거나 데이터를 전처리할 수 있다.According to various embodiments, the input unit 110 may obtain input data for deriving an output value through artificial neural network model learning. The input unit 110 may acquire raw input data. The first processor 120 or the learning processor 140 may preprocess the raw input data to generate training data that can be input to the artificial neural network model learning. The pre-processing may be to extract a feature point from the input data. As described above, the input unit 110 may receive data through the communication processor 150 to obtain input data or pre-process the data.

다양한 실시예에 따르면, 제1 프로세서(120)는 전자 장치(100)에서 사용 히스토리 정보를 수집하여 메모리(130)에 저장할 수 있다. 제1 프로세서(120)는 저장된 사용 히스토리 정보 및 예측 모델링을 통하여 특정 기능을 실행하기 위한 최상의 조합을 결정할 수 있다. 제1 프로세서(120)는 입력부(110)로부터 이미지 정보, 오디오 정보, 데이터 또는 사용자 입력 정보를 수신할 수 있다. According to various embodiments, the first processor 120 may collect usage history information from the electronic device 100 and store it in the memory 130 . The first processor 120 may determine the best combination for executing a specific function through the stored usage history information and predictive modeling. The first processor 120 may receive image information, audio information, data, or user input information from the input unit 110 .

다양한 실시예에 따르면, 제1 프로세서(120)는 정보를 실시간으로 수집하고 정보를 처리 또는 분류하고, 처리된 정보를 메모리(130), 메모리(130)의 데이터 베이스 또는 러닝 프로세서(140)에 저장할 수 있다. According to various embodiments, the first processor 120 collects information in real time, processes or classifies the information, and stores the processed information in the memory 130 , the database of the memory 130 or the learning processor 140 . can

다양한 실시예에 따르면, 전자 장치(100)의 동작이 데이터 분석 및 머신 러닝 알고리즘을 바탕으로 결정될 때, 제1 프로세서(120)는 결정된 동작을 실행하기 위해 전자 장치(100)의 구성요소를 제어할 수 있다. 그리고, 제1 프로세서(120)는 제어 명령에 따라 전자 장치(100)를 제어하여 결정된 동작을 수행할 수 있다.According to various embodiments, when the operation of the electronic device 100 is determined based on data analysis and a machine learning algorithm, the first processor 120 controls the components of the electronic device 100 to execute the determined operation. can In addition, the first processor 120 may control the electronic device 100 according to the control command to perform the determined operation.

제1 프로세서(120)는 특정 동작이 수행되는 경우, 데이터 분석 및 머신 러닝 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습한 정보의 업데이트를 수행할 수 있다. 제1 프로세서(120)는 러닝 프로세서(140)과 함께, 업데이트 된 정보에 기초하여 데이터 분석 및 머신 러닝 알고리즘 및 성능의 정확성을 향상시킬 수 있다.When a specific operation is performed, the first processor 120 analyzes historical information indicating the execution of the specific operation through data analysis and machine learning algorithms and techniques, and updates previously learned information based on the analyzed information. can be done The first processor 120 may improve the accuracy of data analysis and machine learning algorithms and performance based on the updated information together with the learning processor 140 .

제1 메모리(130)는 얼굴 형상 정보(131), 메이크업 정보(132), 구매 정보(133), 및 인공 신경망 모델(134)을 저장할 수 있다. The first memory 130 may store face shape information 131 , makeup information 132 , purchase information 133 , and an artificial neural network model 134 .

다양한 실시예에 따르면, 제1 메모리(130)는 통신 프로세서(150) 또는 입력부(110)에서 획득된 사용자의 얼굴, 형상, 모양, 또는 색채 및 제품의 정보 등을 할당된 영역에 저장할 수 있다. 다양한 실시예에 따르면, 제1 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터, 또는 학습 히스토리 등을 저장할 수 있다. 제1 메모리(130)는 프로세서에 의해 실행될 복수의 인스트럭션을 저장할 수 있다. According to various embodiments, the first memory 130 may store the user's face, shape, shape, or color and product information obtained from the communication processor 150 or the input unit 110 in the allocated area. According to various embodiments, the first memory 130 may store input data obtained from the input unit 110 , learned data, or a learning history. The first memory 130 may store a plurality of instructions to be executed by the processor.

다양한 실시예에 따르면, 인공 신경망 모델(134)은 제1 메모리(130)에 할당된 공간에 저장될 수 있다. 상기 제1 메모리(130)에 할당된 공간은 러닝 프로세서(140)를 통하여 학습 중 또는 학습된 인공 신경망 모델(134)을 저장하며, 학습을 통하여 인공 신경망 모델(134)이 갱신되면, 갱신된 인공 신경망 모델(134)을 저장할 수 있다. 상기 제1 메모리(130)에 할당된 공간은 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다. According to various embodiments, the artificial neural network model 134 may be stored in a space allocated to the first memory 130 . The space allocated to the first memory 130 stores the artificial neural network model 134 that is being trained or learned through the learning processor 140, and when the artificial neural network model 134 is updated through learning, the updated artificial neural network model 134 is updated. The neural network model 134 may be stored. The space allocated to the first memory 130 may store the learned model by dividing it into a plurality of versions according to a learning time point or learning progress.

다양한 실시예에 따르면, 제1 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터를 저장, 분류가능한 데이터 베이스를 포함할 수 있다. According to various embodiments, the first memory 130 may include a database capable of storing and classifying input data obtained from the input unit 110 and the learned data.

다양한 실시예에 따르면, 러닝 프로세서(140)는 제1 프로세서(120)가 입력부(110)를 통해 획득한 입력 데이터를 전처리한 데이터를 바로 획득하여 인공 신경망 모델(134)을 학습하거나, 메모리(130)의 데이터 베이스에 저장된 전처리된 입력 데이터를 획득하여 인공 신경망 모델(134)을 학습할 수 있다. 예를 들면, 러닝 프로세서(140)는 다양한 학 습 기법을 이용하여 인공 신경망 모델(134)을 반복적으로 학습시켜 최적화된 인경 신경망 모델(134) 파라미터를 획득할 수 있다.According to various embodiments, the learning processor 140 learns the artificial neural network model 134 by directly acquiring data obtained by preprocessing the input data obtained by the first processor 120 through the input unit 110 , or the memory 130 ), it is possible to learn the artificial neural network model 134 by acquiring the preprocessed input data stored in the database. For example, the learning processor 140 may iteratively learn the artificial neural network model 134 using various learning techniques to obtain optimized parameters of the neural network model 134 .

다양한 실시예에 따르면, 학습된 모델은 데이터 베이스에서 인공 신경망 모델(134)을 갱신할 수 있다. 러닝 프로세서(140)는 신경망 장치(101)에 통합되거나, 제1 메모리(130)에 구현될 수 있다. 구체적으로 러닝 프로세서(140)는 제1 메모리(130)를 사용하여 구현될 수 있다. According to various embodiments, the trained model may update the artificial neural network model 134 in the database. The learning processor 140 may be integrated into the neural network device 101 or implemented in the first memory 130 . Specifically, the learning processor 140 may be implemented using the first memory 130 .

다양한 실시예에 따르면, 러닝 프로세서(140)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 장치에서 사용하기 위해 데이터를 식별, 색인화, 카테고리화, 조작, 저장, 검색 및 출력하기 위해 데이터를 하나 이상의 데이터베이스에 저장하도록 구성될 수 있다. 여기서, 데이터베이스는 제1 메모리(130), 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 단말기에 의해 액세스 가능한 다른 원격 메모리 위치를 이용하여 구현될 수 있다 러닝 프로세서(140)에 저장된 정보는 다양한 상이한 유형의 데이터 분석 알고리즘 및 기계 학습 알고리즘 중 임의의 것을 사용하여 제1 프로세서(120)에 의해 이용될 수 있다. 예를 들면, 이러한, 알고리즘의 예로는, k-최근 인접 시스템, 퍼지 논리 (예: 가능성 이론), 신경 회로망, 볼츠만 기계, 벡터 양자화, 펄스 신경망, 지원 벡터 기계, 최대 마진 분류기, 힐 클라이밍, 유도 논리 시스템 베이지안 네트워크, 페리트넷 (예: 유한 상태 머신, 밀리 머신, 무어 유한 상태 머신), 분류기 트리 (예: 퍼셉트론 트리, 지원 벡터 트리, 마코프 트리, 의사 결정 트리 포리스트, 임의의 포리스트), 판독 모델 및 시스템, 인공 융합, 센서 융합, 이미지 융합, 보강 학습, 증강 현실, 패턴 인식, 자동화 된 계획 등을 포함한다.According to various embodiments, the learning processor 140 generally identifies, indexes, categorizes, manipulates, stores, retrieves, and outputs data for use in supervised or unsupervised learning, data mining, predictive analytics, or other devices. may be configured to store data in one or more databases for Here, the database may be implemented using the first memory 130 , a memory maintained in a cloud computing environment, or another remote memory location accessible by the terminal through a communication method such as a network stored in the learning processor 140 . The information may be utilized by the first processor 120 using any of a variety of different types of data analysis algorithms and machine learning algorithms. For example, examples of such algorithms include k-recent adjacency systems, fuzzy logic (eg likelihood theory), neural networks, Boltzmann machines, vector quantization, pulse neural networks, support vector machines, maximum margin classifiers, hill climbing, derivation Logical Systems Bayesian Networks, Peritnets (e.g. Finite State Machines, Milli Machines, Moore Finite State Machines), Classifier Trees (e.g. Perceptron Trees, Support Vector Trees, Markov Trees, Decision Tree Forests, Arbitrary Forests), Read Models and systems, artificial fusion, sensor fusion, image fusion, reinforcement learning, augmented reality, pattern recognition, automated planning, and more.

통신 프로세서(150)는 무선 통신부(미도시) 및 인터페이스부(미도시)를 포함하는 구성을 의미할 수 있다. 즉, 통신 프로세서(150)는 유무선 통신이나 인터페이스를 통하여 다른 장치와 데이터를 송수신할 수 있는 프로세서일 수 있다.The communication processor 150 may refer to a configuration including a wireless communication unit (not shown) and an interface unit (not shown). That is, the communication processor 150 may be a processor capable of transmitting and receiving data with other devices through wired/wireless communication or an interface.

학습 모델이 업데이트되는 경우, 업데이트된 학습 모델은 통신 프로세서(150)를 통해 단말기 또는 외부 장치와 같은 다른 장치에 전송되어 탑재될 수 있다.When the learning model is updated, the updated learning model may be transmitted and loaded to another device such as a terminal or an external device through the communication processor 150 .

통신 프로세서(150)는 외부의 다양한 단말과 통신할 수 있다. 예를 들면, 전자 장치(100)와 유 무선 통신을 할 수 있다. 통신은 LAN 연결된 유선 통신일 수 있고, LTE(long term evolution), mmWave 등과 같은 무선 통신일 수 있다.The communication processor 150 may communicate with various external terminals. For example, it may perform wired/wireless communication with the electronic device 100 . The communication may be LAN-connected wired communication or wireless communication such as long term evolution (LTE), mmWave, and the like.

전자 장치(100)는 통신이 가능한 전자 장치, 예를 들면, 스마트폰, 태블릿 PC, 네트워크 연결된 컴퓨터 또는 랩탑 등일 수 있다.The electronic device 100 may be an electronic device capable of communication, for example, a smart phone, a tablet PC, a network-connected computer, or a laptop.

다양한 실시예에 따르면, 전자 장치(100)는 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 전자 장치(100)는 개설된 통신 채널을 통하여, 외부 전자 장치(101)로 얼국 형상 정보(131)를 전송할 수 있다. 전자 장치(100)는 사용자가 사용하는 단말일 수 있다. 전자 장치(100)는 사용자가 촬영한 이미지를 전자 장치(100)내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 전자 장치(100)는 전자 장치(100)에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 저장 장치에 저장된 얼굴 형상 정보를 전자 장치(100)로 전달할 수 있다. 통신 프로세서(150)로 전달된 얼굴 형상 정보(131)는 메모리(130)의 할당된 영역에 저장될 수 있다. 얼굴 형상 정보(131)는 사용자 얼굴의 형상, 모양 또는 색채를 포함할 수 있다. According to various embodiments, the electronic device 100 may establish a communication channel with the communication processor 150 of the external electronic device 101 . The electronic device 100 may transmit the earpiece shape information 131 to the external electronic device 101 through the established communication channel. The electronic device 100 may be a terminal used by a user. The electronic device 100 may store an image captured by the user in a storage device (eg, a memory) in the electronic device 100 . The electronic device 100 may transmit face shape information stored in the storage device to the electronic device 100 through a communication channel established with the electronic device through a communication unit or a communication interface included in the electronic device 100 . The face shape information 131 transmitted to the communication processor 150 may be stored in an allocated area of the memory 130 . The face shape information 131 may include the shape, shape, or color of the user's face.

다양한 실시예에 따르면, 메이크업 정보(132)는 제1 메모리(130)에 저장될 수 있다. 다른 외부 전자 장치(미도시)는 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 상기 다른 외부 전자 장치는 개설된 통신 채널을 통하여, 전자 장치(100)로 메이크업 정보(132)를 전송할 수 있다. 상기 다른 외부 전자 장치는 화장품 제조사 또는 판매자가 입력한 제품 정보를 상기 다른 외부 전자 장치 내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 상기 다른 외부 전자 장치 내에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 외부 전자 장치(101)는 저장 장치에 저장된 메이크업 정보(132)를 수신할 수 있다. 통신 프로세서(150)로 전달된 메이크업 정보(132)는 메모리(130)의 할당된 영역에 저장될 수 있다. 메이크업 정보(132)는 화장품 제조사 또는 판매자가 입력한 색상, 화장 샘플, 또는 포토폴리오가 포함된 정보일 수 있다. 메이크업 정보(132)는 판매자 또는 제조사가 입력한 정보뿐만 아니라, 러닝 프로세서(140)에 의해서 구동된 인공 신경망 모델에 의해서 판단된 얼굴형에 적합하거나 인기있는 화장품 정보 또는 화장법을 포함할 수 있다.According to various embodiments, the makeup information 132 may be stored in the first memory 130 . Another external electronic device (not shown) may establish a communication channel with the communication processor 150 of the external electronic device 101 . The other external electronic device may transmit the makeup information 132 to the electronic device 100 through an established communication channel. The other external electronic device may store product information input by a cosmetic manufacturer or a seller in a storage device (eg, a memory) in the other external electronic device. The external electronic device 101 may receive the makeup information 132 stored in the storage device through a communication channel established with the electronic device through the communication unit or communication interface included in the other external electronic device. The makeup information 132 transmitted to the communication processor 150 may be stored in an allocated area of the memory 130 . The makeup information 132 may be information including a color, a makeup sample, or a portfolio input by a cosmetic manufacturer or seller. The makeup information 132 may include not only information input by the seller or the manufacturer, but also information on cosmetics suitable for a face shape determined by an artificial neural network model driven by the learning processor 140 or popular cosmetic information or makeup methods.

다양한 실시예에 따르면, 메이크업 정보(132)는 입력부(110)를 통하여, 직접 입력될 수 있다. According to various embodiments, the makeup information 132 may be directly input through the input unit 110 .

다양한 실시예에 따르면, 외부 사용자 단말(전자 장치(100)와 유사한 모바일 장치)은 외부 전자 장치(101)의 통신 프로세서(150)와 통신 채널을 개설할 수 있다. 전자 장치(100)는 개설된 통신 채널을 통하여, 외부 전자 장치(101)로 구매 정보(133)를 전송할 수 있다. 전자 장치(100)는 사용자 또는 구매자가 사용하는 단말일 수 있다. 전자 장치(100)는 사용자가 입력한 구매 정보를 전자 장치(100)내에 있는 저장 장치(예를 들면, 메모리)에 저장할 수 있다. 전자 장치(100)에 포함된 통신부 또는 통신 인터페이스를 통하여 전자 장치와 개설된 통신 채널을 통하여, 전자 장치(100)는 저장 장치에 저장된 구매자 정보를 외부 전자 장치(101)로 전달할 수 있다. 통신 프로세서(150)로 전달된 구매 정보(133)는 메모리(130)의 할당된 영역에 저장될 수 있다. According to various embodiments, an external user terminal (a mobile device similar to the electronic device 100 ) may establish a communication channel with the communication processor 150 of the external electronic device 101 . The electronic device 100 may transmit the purchase information 133 to the external electronic device 101 through the established communication channel. The electronic device 100 may be a terminal used by a user or a purchaser. The electronic device 100 may store purchase information input by the user in a storage device (eg, memory) in the electronic device 100 . The electronic device 100 may transmit purchaser information stored in the storage device to the external electronic device 101 through a communication channel established with the electronic device through a communication unit or communication interface included in the electronic device 100 . The purchase information 133 transmitted to the communication processor 150 may be stored in an allocated area of the memory 130 .

다양한 실시예에 따르면, 구매 정보(133)는 입력부(110)를 통하여, 직접 입력될 수 있다. 구매 정보(133)는 복수의 사용자들의 얼굴 형상에 따른 분류, 사용자들이 구매한 제품 정보, 각각의 사용자의 제품 평가 또는 검색한 제품의 히스토리, 이전 구매 내역등을 포함할 수 있다.According to various embodiments, the purchase information 133 may be directly input through the input unit 110 . The purchase information 133 may include classification according to face shapes of a plurality of users, product information purchased by users, a history of each user's product evaluation or searched product, and previous purchase details.

본 문서에 개시된 다양한 실시예들에 따른 외부 전자 장치 또는 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치(100)는 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 서버 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.An external electronic device or an electronic device according to various embodiments disclosed in this document may be a device of various types. The electronic device 100 may include, for example, a portable communication device (eg, a smartphone), a computer device, a server device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but it should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B," "A, B or C," "at least one of A, B and C," and "A , B, or C" each may include all possible combinations of items listed together in the corresponding one of the phrases. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is "coupled" or "connected" to another (eg, second) component, with or without the terms "functionally" or "communicatively". When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. As used herein, the term “module” may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리) 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(100) 및 외부 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document include software (eg, a storage medium (eg, internal memory) or external memory) readable by a machine (eg, the electronic device 101) including one or more instructions stored in the software ( For example, it can be implemented as a program). For example, the processor (eg, the processor 120) of the device (eg, the electronic device 100 and the external electronic device 101) calls at least one of the one or more instructions stored from the storage medium, can run it This makes it possible for the device to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

도 2는, 다양한 실시예들에 따르는 전자 장치를 구성하는 인공 신경망 모델의 개념도이다.2 is a conceptual diagram of an artificial neural network model constituting an electronic device according to various embodiments of the present disclosure.

도 2를 참조하면, 일반적인 합성곱 신경망은 컨벌루션 레이어(201), 및 풀링 레이어(pooling layer)(202)를 이용한 입력 데이터(210)의 특성 추출(11) 및 완전 연결 레이어(290)를 이용한 입력 데이터(210)의 분류(12)에 사용될 수 있다.Referring to FIG. 2 , a typical convolutional neural network includes feature extraction 11 of input data 210 using a convolutional layer 201 and a pooling layer 202 and input using a fully connected layer 290 . It can be used for classification 12 of data 210 .

다양한 실시예에 따르면, 컨벌루션 레이어(201)는 합성곱 연산을 통해 입력 데이터(210)의 의미있는 특징들을 추출하는 레이어일 수 있다. 예를 들면, 컨벌루션 레이어(201)는 입력 데이터(210)에 특정 크기의 필터 또는 커널 매트릭스(kernel(weight) matrix)(230)를 적용하여 다음 레이어에 전달할 새로운 데이터를 생성할 수 있다. 이와 같은 컨벌루션 레이어(201)의 입출력 데이터는 특징 맵(feature maps)으로 지칭될 수 있다.According to various embodiments, the convolutional layer 201 may be a layer that extracts meaningful features of the input data 210 through a convolution operation. For example, the convolutional layer 201 may generate new data to be transmitted to the next layer by applying a filter or a kernel (weight) matrix 230 of a specific size to the input data 210 . Such input/output data of the convolutional layer 201 may be referred to as feature maps.

합성곱 신경망 모델에 입력된 데이터가 RGB 성분과 같이 복수의 성분을 포함하는 입력 이미지인 경우, 입력 데이터는 복수의 채널로 구성될 수 있다. 예를 들면, 컨벌루션 레이어(201)의 입출력 데이터가 2차원 이미지의 공간 이외에 채널을 포함하고, 입출력 데이터의 특징 맵은 3차원 형태로 이루어 질 수 있다.When the data input to the convolutional neural network model is an input image including a plurality of components, such as RGB components, the input data may consist of a plurality of channels. For example, the input/output data of the convolutional layer 201 may include channels in addition to the space of the two-dimensional image, and the feature map of the input/output data may be formed in a three-dimensional form.

다양한 실시예에 따르면, 풀링 레이어(202)는 서브 샘플링(Sub-sampling)을 통하여 입력받은 데이터를 축소할 수 있다. 예를 들면, 풀링 레이어(202)는 최대 풀링(max pooling) 및 평균 풀링(average pooling)과 같은 풀링 기법을 통해 데이터를 샘플링 함으로써 데이터의 크기를 축소할 수 있다.According to various embodiments, the pooling layer 202 may reduce input data through sub-sampling. For example, the pooling layer 202 may reduce the size of data by sampling data through pooling techniques such as max pooling and average pooling.

다양한 실시예에 따르면, 완전 연결 레이어(290)는 컨벌루션 레이어(201) 및 풀링 레이어(202)를 통해 전달된 특징을 바탕으로 데이터 분류를 수행하기 위한 레이어로서, 3차원 형태의 특징 맵을 평탄화된 1차원 형태의 데이터를 입력 받을 수 있다. 이와 같이 완전 연결 레이어(290)를 통과한 1차원 형태의 데이터는 활성화 함수를 통해 출력신호로 변환될 수 있다. 합성곱 신경망은 컨벌루션 레이어 및 풀링 레이어를 사용하여 입력 데이터(예: 입력 이미지)에 대한 특징 맵의 3차원 형상을 유지할 수 있으므로, 입력 이미지의 화소 또는 채널 사이의 관련성에 관한 정보가 손실되는 것을 방지하여 이미지 인식률을 높일 수 있다.According to various embodiments, the fully connected layer 290 is a layer for performing data classification based on the features transmitted through the convolutional layer 201 and the pooling layer 202 , and a three-dimensional feature map is flattened. One-dimensional data can be input. As described above, the one-dimensional data that has passed through the fully connected layer 290 may be converted into an output signal through an activation function. Convolutional neural networks can use convolutional layers and pooling layers to maintain the three-dimensional shape of feature maps for input data (e.g. input images), thus avoiding loss of information about the associations between pixels or channels in the input image. This can increase the image recognition rate.

다양한 실시예에 따르면, 제1 프로세서(120)는 특징 맵의 특징점들을 바탕으로 다양한 이미지들의 유사도를 판단할 수 있다. 또한, 제1 프로세서(120)는 특징점들 각각에 가중치를 다르게 부여하여, 이미지의 유사판단에서 중요하게 판단하는 구성에 더 특징을 줄 수 있다.According to various embodiments, the first processor 120 may determine the similarity of various images based on the feature points of the feature map. In addition, the first processor 120 may assign different weights to each of the feature points to give more features to the configuration that is important in determining the similarity of the image.

도 3은 다양한 실시예들에 따른 전자 장치(101)의 블록도이다. 도 3의 전자 장치(100)는 도 1의 전자 장치(100)를 포함할 수 있다. 다양한 실시예들에 따른 전자 장치(100)는 프로세서(310), 메모리(320), 통신 프로세서(330), 디스플레이(340) 또는 카메라(350) 중 적어도 하나를 포함할 수 있다. 도 2를 프로세서(310), 메모리(320), 통신 프로세서(330), 디스플레이(340) 및/또는 카메라(350)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 일 실시예에 따른 전자 장치(100)는 도 2에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.3 is a block diagram of an electronic device 101 according to various embodiments. The electronic device 100 of FIG. 3 may include the electronic device 100 of FIG. 1 . The electronic device 100 according to various embodiments may include at least one of a processor 310 , a memory 320 , a communication processor 330 , a display 340 , and a camera 350 . 2, the processor 310, the memory 320, the communication processor 330, the display 340, and/or the camera 350 are electrically connected to each other by an electronic component such as a communication bus. electronically and/or operably coupled with each other. The type and/or number of hardware components included in the electronic device 101 is not limited to that illustrated in FIG. 2 . The electronic device 100 according to an embodiment may include only some of the hardware components illustrated in FIG. 2 .

일 실시예에 따른 전자 장치(100)의 프로세서(310)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(310)의 개수는 하나 이상일 수 있다. 예를 들어, 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)에 기반하여, 복수의 프로세서(310)가 전자 장치(100) 내에 포함될 수 있다.The processor 310 of the electronic device 100 according to an embodiment may include a hardware component for processing data based on one or more instructions. Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU). The number of processors 310 may be one or more. For example, a plurality of processors 310 may be included in the electronic device 100 based on a dual core, a quad core, or a hexa core.

일 실시예에 따른 전자 장치(100)의 메모리(320)는 프로세서(310)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(320)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 320 of the electronic device 100 according to an embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor 310 . The memory 320 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). have. The volatile memory may include, for example, at least one of a dynamic RAM (DRAM), a static RAM (SRAM), a cache RAM, and a pseudo SRAM (PSRAM). The non-volatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC). can

메모리(320) 내에서, 프로세서(310)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(100) 및/또는 전자 장치(100)의 프로세서(310)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행하여, 이미지로부터 사용자의 신체 치수를 측정하거나, 및/또는 상기 이미지를 캡쳐하기 위한 가이드를 제공하기 위한 하나 이상의 동작을 수행할 수 있다. In the memory 320 , one or more instructions indicating an operation to be performed by the processor 310 on data may be stored. A set of instructions may be referred to as firmware, an operating system, a process, a routine, a sub-routine, and/or an application. For example, the electronic device 100 and/or the processor 310 of the electronic device 100 executes a set of a plurality of instructions distributed in the form of an application, and uses the image of the user's body One or more actions may be performed to measure dimensions and/or to provide a guide for capturing the image.

일 실시예에 따른 전자 장치(100)의 통신 프로세서(330)는 전자 장치(100) 및 전자 장치(100)와 구별되는 외부 전자 장치(예: 도 1의 외부 전자 장치(101)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 상기 외부 전자 장치는, 예를 들어, 상품을 제작하거나, 및/또는 판매하는 서비스 제공자(Service Provider)의 서버를 포함할 수 있다. 통신 프로세서(330)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(Optic/Electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 프로세서(330)는, 이더넷(ethernet), LAN(Local Area Network), WAN(Wide Area Network), WiFi(Wireless Fidelity), LTE(Long Term Evolution), 5G NR(New Radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.The communication processor 330 of the electronic device 100 according to an embodiment provides an electrical connection between the electronic device 100 and an external electronic device distinct from the electronic device 100 (eg, the external electronic device 101 of FIG. 1 ). It may include hardware components to support transmission and/or reception of signals. The external electronic device may include, for example, a server of a service provider that manufactures and/or sells a product. The communication processor 330 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter. Communication processor 330, Ethernet (ethernet), LAN (Local Area Network), WAN (Wide Area Network), WiFi (Wireless Fidelity), LTE (Long Term Evolution), 5G NR (New Radio) of various types such as Transmission and/or reception of electrical signals may be supported based on the protocol.

일 실시예에 따른 전자 장치(100)의 디스플레이(340)는 사용자에게 시각화된 정보를 출력할 수 있다. 예를 들어, 디스플레이(340)는, 프로세서(310)와 같은 컨트롤러(예를 들어, 프로세서(310)에 포함된 GPU(Graphic Processing Unit))에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(340)는 CRT(Cathode Ray Tube), FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.The display 340 of the electronic device 100 according to an embodiment may output visualized information to the user. For example, the display 340 is controlled by a controller such as the processor 310 (eg, a graphic processing unit (GPU) included in the processor 310 ) to display information visualized to the user. can be printed out. The display 340 may include a cathode ray tube (CRT), a flat panel display (FPD), and/or electronic paper. The FPD may include a liquid crystal display (LCD), a plasma display panel (PDP), and/or one or more light emitting diodes (LEDs). The LED may include an organic LED (OLED).

비록 도시되지 않았지만, 일 실시예에 따른 전자 장치(100)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(100)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(100)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다. Although not shown, the electronic device 100 according to an embodiment may include an output means for outputting information in a form other than a visualized form. For example, the electronic device 100 may include a speaker for outputting an acoustic signal. For example, the electronic device 100 may include a motor for providing haptic feedback based on vibration.

일 실시예에 따른 전자 장치(100)의 카메라(350)는 지정된 공간(예를 들어, 카메라(350)의 전방의 공간)의 빛에 기반하여, 프로세서(310) 및/또는 메모리(320)에서 이용할 수 있는 포맷(usable format)을 가지는 전기 신호를 생성할 수 있다. 예를 들어, 카메라(350)는 2차원 배열된 복수의 포토 다이오드(Photo Diode, PD))를 포함할 수 있다. 카메라(350)가 수신하는 파장의 종류는 가시 광선(visible light)에 제한되지 않으며, 적외선 광 및/또는 자외선 광을 포함할 수 있다. 예를 들어, 카메라(350)는 피사체를 향해 적외선을 조사한 다음, 피사체에서 반사된 적외선을 수신하여 깊이 맵(depth-map)을 획득하는 ToF(Time of Flight) 센서를 포함할 수 있다. 이 경우, 카메라(350)는 가시 광선에 기반하는 프레임 및 상기 프레임에 대응하는 깊이 맵을 출력할 수 있다.The camera 350 of the electronic device 100 according to an embodiment is configured to operate in the processor 310 and/or the memory 320 based on light from a designated space (eg, a space in front of the camera 350). It is possible to generate an electrical signal having a usable format. For example, the camera 350 may include a plurality of photodiodes (PDs) arranged in two dimensions. The type of wavelength that the camera 350 receives is not limited to visible light, and may include infrared light and/or ultraviolet light. For example, the camera 350 may include a Time of Flight (ToF) sensor that irradiates infrared rays toward a subject and then receives infrared rays reflected from the subject to obtain a depth-map. In this case, the camera 350 may output a frame based on visible light and a depth map corresponding to the frame.

일 실시예에 따른 카메라(350)는 지정된 주기마다, 복수의 포토 다이오드 각각의 전기 신호에 기반하는 프레임을 출력할 수 있다. 카메라(350)가 프레임을 출력하는 주기는 프레임율(frames per second, fps)으로 참조될 수 있다. 상기 프레임은 프로세서(310) 및/또는 메모리(320)로 송신될 수 있다. 전자 장치(101)가 포함하는 카메라(350)의 개수는 도 2의 일 실시예에 제한되니 않으며, 예를 들어, 듀얼 카메라, 트리플 카메라와 같이 2 이상일 수 있다. The camera 350 according to an embodiment may output a frame based on an electrical signal of each of the plurality of photodiodes at designated periods. A period in which the camera 350 outputs a frame may be referred to as a frame rate (frames per second, fps). The frame may be transmitted to the processor 310 and/or the memory 320 . The number of cameras 350 included in the electronic device 101 is not limited to the embodiment of FIG. 2 , and may be two or more, for example, a dual camera or a triple camera.

다양한 실시예들에 따른 전자 장치(100)는 카메라(350)로부터 하나 이상의 피사체를 포함하는 프레임을 획득할 수 있다. 상기 하나 이상의 피사체는 전자 장치(100)의 사용자의 신체 부위(예를 들어, 사용자의 얼굴) 및/또는 상기 신체 부위의 크기를 보다 정확하게 측정하는데 이용될 수 있는 피사체(예: 사용자 주위에 있는 사물)를 포함할 수 있다. 프레임 내에서 상기 하나 이상의 피사체를 식별하는 것에 응답하여, 전자 장치(100)는 상기 피사체의 크기와 관련된 하나 이상의 파라미터를 획득할 수 있다. 또는, 전자 장치(100)는 카메라(350)를 제어하여 상기 프레임 보다 상대적으로 높은 해상도를 가지는 이미지를 획득할 수 있다. 전자 장치(100)가 상기 피사체의 크기와 관련된 하나 이상의 파라미터를 획득하는 것은, 상기 이미지에 기반하여 수행될 수 있다.The electronic device 100 according to various embodiments may obtain a frame including one or more subjects from the camera 350 . The one or more subjects may include a body part (eg, the user's face) of the user of the electronic device 100 and/or a subject (eg, an object around the user) that can be used to more accurately measure the size of the body part. ) may be included. In response to identifying the one or more objects in the frame, the electronic device 100 may acquire one or more parameters related to the size of the objects. Alternatively, the electronic device 100 may control the camera 350 to obtain an image having a relatively higher resolution than that of the frame. The electronic device 100 obtaining one or more parameters related to the size of the subject may be performed based on the image.

일 실시예에 따른 전자 장치(100)는 프레임 내에서 식별된 상기 하나 이상의 피사체의 크기에 기반하여, 사용자에게 상기 프레임 내에서 상기 하나 이상의 피사체의 구도(composition)를 변경하기 위한 정보를 출력할 수 있다. 예를 들어, 프레임 내에서 식별된 상기 하나 이상의 피사체의 크기가 너무 작거나, 및/또는 상기 하나 이상의 피사체가 프레임의 중심에 존재하지 않는 경우, 전자 장치(100)는 사용자에게 프레임 내에서 상기 하나 이상의 피사체의 크기 및/또는 위치를 조절하기 위한 정보를 출력할 수 있다. The electronic device 100 according to an embodiment may output information for changing the composition of the one or more objects in the frame to the user based on the size of the one or more objects identified in the frame. have. For example, if the size of the one or more objects identified within a frame is too small, and/or if the one or more objects do not exist in the center of the frame, the electronic device 100 informs the user of the one or more objects within the frame. Information for adjusting the size and/or position of the above objects may be output.

전자 장치(100)는 카메라(350)를 통하여 ToF맵을 획득하여, 사용자의 신체부위에 대한 3D이미지를 획득할 수 있고, 전자 장치(100)는 자체적으로 3D이미지의 특징점을 획득할 수 있다. 또한, 전자 장치(100)는 신경망 장치(예: 도 1의 외부 전자 장치(101)로 3D이미지 관련 데이터를 전송하고, 신경망 장치에서 처리된 특징점 및 유사 얼굴형태에 관한 데이터를 수신할 수 있다.The electronic device 100 may acquire a ToF map through the camera 350 to acquire a 3D image of a user's body part, and the electronic device 100 may acquire feature points of the 3D image by itself. In addition, the electronic device 100 may transmit 3D image related data to the neural network device (eg, the external electronic device 101 of FIG. 1 ), and may receive data on feature points and similar face shapes processed by the neural network device.

이하, 도 4 내지 도 8 에서는 전자 장치(100) 또는 전자 장치(100)의 프로세서(310)에 의해서 구현되는 실시예들을 구체적으로 설명하고, 도 9 에서는 전자 장치(100) 또는 전자 장치(100)의 프로세서(310)의 동작을 구체적으로 설명한다.Hereinafter, embodiments implemented by the electronic device 100 or the processor 310 of the electronic device 100 will be described in detail with reference to FIGS. 4 to 8 , and in FIG. 9 , the electronic device 100 or the electronic device 100 . The operation of the processor 310 of the will be described in detail.

도 4는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 표현한 도면이다.4 is a diagram illustrating a first image in an electronic device according to various embodiments of the present disclosure;

전자 장치(100)는 폴더블 디바이스 일 수 있다. 전자 장치(800)는 힌지 구조에 연결되는 제1 하우징 구조, 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징 및 상기 폴더블 하우징에 배치되는 플렉서블 디스플레이(340)를 포함할 수 있다. 플렉서블 디스플레이(340)는 제1 하우징 구조의 일면으로부터 제2 하우징 구조의 일면으로 연장되어 형성될 수 있다. 플렉서블 디스플레이(340)는 펼침 상태(unfolding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면에 배치되어 하나의 평면으로 형성될 수 있다. 플렉서블 디스플레이(340)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 마주보게 배치됨에 따라 접히는 형태를 유지할 수 있다. 다른 실시예에 따르면, 플렉서블 디스플레이(340)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 바깥으로 바라보게 배치됨에 따라 디스플레이는 외부로 노출되는 형태를 유지할 수 있다.The electronic device 100 may be a foldable device. The electronic device 800 includes a foldable housing including a first housing structure connected to a hinge structure, a second housing structure contacting the first housing structure with the hinge structure as an axis, and a flexible display disposed in the foldable housing ( 340) may be included. The flexible display 340 may be formed to extend from one surface of the first housing structure to one surface of the second housing structure. The flexible display 340 may be disposed on one surface of the first housing structure and one surface of the second housing structure in an unfolding state to form a single plane. The flexible display 340 may maintain a folded shape as one surface of the first housing structure and one surface of the second housing structure are disposed to face each other in a folding state. According to another embodiment, the flexible display 340 maintains a shape exposed to the outside as one surface of the first housing structure and one surface of the second housing structure are disposed to face each other outward in a folding state. can

다양한 실시예에 따르면, 플렉서블 디스플레이(340)는 제1 영역(341), 제2 영역(342) 및 접힘 영역(343)을 포함할 수 있다. 접힘 영역(343)은 힌지 구조가 배치되는 영역에 대응되는 플렉서블 디스플레이(340) 상의 영역일 수 있고, 플렉서블 디스플레이가 접혀지는 영역일 수 있다. 제1 영역(341) 및 제2 영역(342)는 힌지 축을 중심으로 대칭되도록 배치되어 접힘 영역(343)으로부터 연장되는 영역일 수 있다.According to various embodiments, the flexible display 340 may include a first area 341 , a second area 342 , and a folded area 343 . The folded area 343 may be an area on the flexible display 340 corresponding to the area where the hinge structure is disposed, and may be an area in which the flexible display is folded. The first region 341 and the second region 342 may be symmetrical about the hinge axis and extend from the folded region 343 .

도 4를 참조하면, 전자 장치(100)는 디스플레이(340)에 사용자의 신체 일부인 얼굴이 포함된 제1 이미지(410)를 표현할 수 있다. 전자 장치(100)는 디스플레이(340)의 제1 영역(341) 또는 제2 영역(342)중 하나에 제1 이미지(410)를 표시할 수 있다. 전자 장치(100)는 카메라(350)를 통하여, 사용자의 얼굴과 관련된 제1 이미지(410)를 획득할 수 있다. 카메라(350)는 사용자의 얼굴을 향해 적외선을 조사한 다음, 얼굴에서 반사된 적외선을 수신하여 깊이 맵(depth-map)을 획득하는 ToF(Time of Flight) 센서를 포함할 수 있다. 이 경우, 카메라(350)는 가시 광선에 기반하는 프레임 및 상기 프레임에 대응하는 깊이 맵을 출력할 수 있다. 이러한 깊이에 따른 얼굴 깊이를 추출한다음, 특징점을 기준으로 얼굴의 윤곽선(420)을 획득할 수 있다. 획득된 얼굴의 윤곽선(420)은 전자 장치내에 저장되거나, 외부 전자 장치(예: 도 1의 외부 전자 장치(101))로 송신될 수 있다. 외부 전자 장치는 얼굴의 윤곽선(420) 또는 윤곽선(420)과 관련된 데이터를 수신하여, 인공 신경망 모델(예: 도 1의 인공 신경망 모델(134))을 통하여, 유사한 얼굴의 윤곽을 찾을 수 있다. Referring to FIG. 4 , the electronic device 100 may display a first image 410 including a face, which is a part of the user's body, on the display 340 . The electronic device 100 may display the first image 410 in one of the first area 341 or the second area 342 of the display 340 . The electronic device 100 may acquire the first image 410 related to the user's face through the camera 350 . The camera 350 may include a Time of Flight (ToF) sensor that irradiates infrared rays toward the user's face and then receives the infrared rays reflected from the face to obtain a depth-map. In this case, the camera 350 may output a frame based on visible light and a depth map corresponding to the frame. After extracting the face depth according to the depth, the contour line 420 of the face may be obtained based on the feature point. The obtained face outline 420 may be stored in the electronic device or transmitted to an external electronic device (eg, the external electronic device 101 of FIG. 1 ). The external electronic device may receive the outline 420 or data related to the outline 420 of the face and find a similar facial outline through an artificial neural network model (eg, the artificial neural network model 134 of FIG. 1 ).

전자 장치(100) 또는 전자 장치(100)에 포함된 프로세서(예: 도 3의 프로세서(310))는 사용자의 얼굴이 표현된 제1 이미지(410)가 위치하지 않는 제2 영역(342)에 디스플레이할 수 있다. 다른 실시예에 따르면, 제1 이미지(410)가 제1 영역(341) 및 제2 영역(342)에 걸쳐 디스플레이되는 경우, 제1 이미지(410)의 일부에 중첩되도록 팔레트(480)를 디스플레이할 수 있다. 팔레트(480)는 다양한 색상으로 이루어질 수 있다. 팔레트(480)는 선택된 화장품이 가지는 색상의 종류를 다양하게 표현할 수 있으며, 같은 종류의 화장품이 가지는 색상을 표현할 수 있다. 예를 들면, 사용자가 선택한 제품이 있는 경우, 전자 장치(100)는 디스플레이(340)에 제품이 표현가능한 색상을 포함하는 팔레트(480)를 디스플레이할 수 있다. 다른 예를 들면, 사용자가 제품을 선택하지 않는 경우, 전자 장치(100)는 서버에 입력되어 있는 제품의 색상을 모두 포함하는 팔레트(480)를 디스플레이할 수 있다. 이후에 사용자가 제품을 선택하면, 전자 장치(100)는 선택된 제품의 팔레트(480)를 디스플레이할 수 있고, 복수개의 제품을 선택하면, 복수개의 제품이 표현할 수 있는 색상의 팔레트(480)를 디스플레이할 수 있다. 팔레트(480)의 개수보다 색상이 많은 경우, 다른 색상을 볼 수 있도록 팔레트(480) 주위에 버튼(450)이 있을 수 있다. 버튼(450)을 터치하거나 호버링하면, 전자 장치(100)는 팔레트(480)에 포함된 색상을 변경할 수 있다.The electronic device 100 or a processor included in the electronic device 100 (eg, the processor 310 of FIG. 3 ) is located in the second area 342 in which the first image 410 expressing the user's face is not located. can be displayed. According to another embodiment, when the first image 410 is displayed over the first area 341 and the second area 342 , the palette 480 may be displayed to overlap a part of the first image 410 . can The palette 480 may be formed of various colors. The palette 480 may variously express the type of color of the selected cosmetics, and may express the color of the same type of cosmetics. For example, when there is a product selected by the user, the electronic device 100 may display a palette 480 including colors in which the product can be expressed on the display 340 . As another example, when the user does not select a product, the electronic device 100 may display the palette 480 including all colors of the product input to the server. Thereafter, when the user selects a product, the electronic device 100 may display a palette 480 of the selected product, and when a plurality of products are selected, a palette 480 of a color that the plurality of products can express is displayed. can do. If there are more colors than the number of palettes 480 , there may be buttons 450 around the palette 480 to view other colors. When the button 450 is touched or hovered, the electronic device 100 may change a color included in the palette 480 .

다양한 실시예에 따르면, 전자 장치(100)와 입력 신호를 주고받을 수 있는 입력장치(예: 스타일러스 펜, 키보드, 마우스 등) 또는 외부 객체(예를 들면, 사용자의 신체 일부)를 통하여, 전자 장치(100)는 사용자가 팔레트(480)에서 선택한 색상을 제1 이미지(410)에 표현할 수 있다. 예를 들면, 사용자가 입력 장치 또는 외부 객체로 팔레트의 색상을 선택한 후, 제1 이미지(410)의 일부(390)에 터치 또는 호버링을 통하여 색상을 표현할 수 있다.According to various embodiments, through an input device (eg, a stylus pen, a keyboard, a mouse, etc.) capable of exchanging an input signal with the electronic device 100 or an external object (eg, a part of the user's body), the electronic device Reference numeral 100 denotes a color selected by the user from the palette 480 in the first image 410 . For example, after a user selects a color of a palette with an input device or an external object, the color may be expressed through a touch or hovering on a portion 390 of the first image 410 .

예를 들면, 전자 장치는 카메라(예: 도 3의 카메라(350))를 통하여 사용자의 신체 일부 또는 얼굴이 표현된 제1 이미지를 획득하고, HOG(Histogram of Oriented Gradient), Haar-like feature, Co-occurrence HOG, LBP(local binary pattern), FAST(features from accelerated segment test) 등과 같은 객체 특징 추출을 위한 다양한 알고리즘을 통하여 상기 제1 이미지에서 (사용자가 들고 있는) 스타일러스 펜(또는 상기 스타일러스 펜의 윤곽선)을 인식할 수 있다.For example, the electronic device acquires a first image in which a part of the user's body or face is expressed through a camera (eg, the camera 350 of FIG. 3 ), a Histogram of Oriented Gradient (HOG), a Haar-like feature, Through various algorithms for object feature extraction such as co-occurrence HOG, local binary pattern (LBP), features from accelerated segment test (FAST), etc., the stylus pen (held by the user) in the first image (or the stylus pen outline) can be recognized.

또한, 일 예로, 상기 스타일러스 펜은 펜의 끝 부분(또는 펜촉 부분 또는 펜의 단부)에 형성되는 제1 버튼(예를 들어, 펜촉의 형상을 할 수 있다)을 포함하거나 스타일러스 펜의 본체 또는 본체의 일 측면에 형성되는 제2 버튼을 포함할 수 있다. 예를 들면, 사용자는 상기 스타일러스 펜으로 자신의 얼굴을 누르면 상기 제1 버튼이 (얼굴에) 눌리게 될 수 있다. 이 때 전자 장치는, 상기 제1 버튼이 눌리는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다. 또한, 예를 들면, 사용자는 자신의 손으로 스타일러스 펜의 본체 또는 본체의 일 측면에 형성되는 제2 버튼을 누를 수 있다. 이 때 전자 장치는, 상기 제2 버튼이 눌리는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.In addition, as an example, the stylus pen may include a first button (eg, may have the shape of a pen tip) formed on the tip of the pen (or the nib or the end of the pen) or the body or the body of the stylus pen. It may include a second button formed on one side of the. For example, when the user presses his or her face with the stylus pen, the first button may be pressed (on the face). At this time, while the first button is pressed, the electronic device may output an image (or makeup result) to which makeup (or cosmetics) is applied to a part of the user's body or face located at a point close to the nib portion of the stylus pen. have. Also, for example, the user may press the second button formed on the main body of the stylus pen or one side of the main body with his/her hand. At this time, while the second button is pressed, the electronic device may output an image (or makeup result) to which makeup (or cosmetics) is applied to a part of the user's body or face located at a point close to the nib of the stylus pen. have.

다른 예로, 상기 제1 이미지에서 스타일러스 펜과 사용자의 신체 일부 또는 얼굴 사이의 거리가 소정의 기준치 이하로 가까워지면(또는 신체 일부 또는 얼굴 주변에 위치시키면), 소정의 입력 신호가 획득된 것으로 볼 수 있다. 이 때 전자 장치는, 스타일러스 펜과 사용자의 신체 일부 또는 얼굴 사이의 거리가 소정의 기준치 이하로 가까워지는 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.As another example, if the distance between the stylus pen and the user's body part or face in the first image is close to or less than a predetermined reference value (or positioned near the body part or face), it can be considered that a predetermined input signal has been obtained. have. At this time, while the distance between the stylus pen and the user's body part or face approaches a predetermined reference value or less, the electronic device applies makeup (or An image (or makeup result) to which cosmetics) is applied can be output.

또 다른 예로, 상기 제1 이미지에서 스타일러스 펜의 위치가 소정의 시간보다 정지된 경우, 소정의 입력 신호가 획득된 것으로 볼 수 있다. 이 때 전자 장치는, 스타일러스 펜의 위치가 정지되어 있는 시간 동안, 상기 스타일러스 펜의 펜촉 부분에 가까운 지점에 위치하는 사용자의 신체 일부 또는 얼굴에 화장(또는 화장품)이 적용된 이미지(또는 화장 결과물)를 출력할 수 있다.As another example, when the position of the stylus pen in the first image is stopped for a predetermined time, it may be considered that a predetermined input signal is obtained. At this time, the electronic device displays an image (or makeup result) to which makeup (or cosmetics) is applied to a part of the user's body or face located at a point close to the nib portion of the stylus pen while the position of the stylus pen is stopped. can be printed out.

도 5는, 다양한 실시예들에 따르는 전자 장치에서 제1 이미지를 바탕으로 추천하는 복수이 제2 이미지들을 표현한 도면이다.5 is a diagram illustrating a plurality of second images recommended based on a first image in an electronic device according to various embodiments of the present disclosure;

도 5를 참조하면, 전자 장치(100)는 디스플레이(340) 상에 제1 이미지(410)로부터 수정된 제2 이미지(411, 412)를 디스플레이할 수 있다. 전자 장치(100)는 송신한 얼굴의 윤곽선(420) 또는 윤곽선(420)과 관련된 데이터를 송신할 수 있다. 외부 전자 장치는 수신된 데이터를 바탕으로 인공 신경망 모델(예: 도 1의 134)을 통하여 도 2에 상술한 인공신경망 모델을 구현하여 특징점을 추출할 수 있다. 외부 전자 장치는 추출된 특징점들을 바탕으로 유사한 얼굴형을 찾을 수 있다. Referring to FIG. 5 , the electronic device 100 may display second images 411 and 412 corrected from the first image 410 on the display 340 . The electronic device 100 may transmit the transmitted face outline 420 or data related to the outline 420 . The external electronic device may implement the artificial neural network model described above in FIG. 2 through an artificial neural network model (eg, 134 of FIG. 1 ) based on the received data to extract key points. The external electronic device may find a similar face shape based on the extracted feature points.

다양한 실시예에 따르면, 외부 전자 장치는 얼굴형과 관련된 데이터를 할당된 메모리(예: 도 1의 제1 메모리(130))에 저장할 수 있다. 얼굴형과 관련된 데이터는 사용자들이 외부 전자 장치를 이용하면서 등록될 수 있다. 다양한 실시예에 따르면, 외부 전자 장치는 사용자들의 얼굴형과, 사용자들이 선택한 화장품, 사용자들의 선호도를 포함할 수 있다. 외부 전자 장치는 얼굴형에 따라 선호되는 사용자들의 화장품을 매칭할 수 있고, 우선순위를 부여할 수 있다. 또한, 외부 전자 장치는 얼굴형에 따라 적용된 화장품들의 평점을 포함하는 데이터를 포함할 수 있다.According to various embodiments, the external electronic device may store face shape related data in an allocated memory (eg, the first memory 130 of FIG. 1 ). Data related to the face shape may be registered while users use an external electronic device. According to various embodiments, the external electronic device may include users' face shapes, cosmetics selected by users, and user preferences. The external electronic device may match user's preferred cosmetics according to the face shape, and may give priority to the user's cosmetics. Also, the external electronic device may include data including ratings of cosmetics applied according to the face shape.

전자 장치(100)는 외부 전자 장치로부터 추천된 제품이 적용된 제2 이미지(411)를 디스플레이할 수 있다. 제2 이미지(411)는 외부 전자 장치로부터 추천된 제품을 바탕으로, 전자 장치(100)에서 생성된 이미지이거나 외부 전자 장치에서 제품을 매칭시켜 전자 장치(100)로 전송된 이미지일 수 있다. 제2 이미지(411)는 복수개의 이미지일 수 있으며, 보여지는 순서는 이전 사용자들의 선호도에 따른 순서로 노출될 수 있다.The electronic device 100 may display a second image 411 to which a product recommended by an external electronic device is applied. The second image 411 may be an image generated by the electronic device 100 based on a product recommended by the external electronic device or an image transmitted to the electronic device 100 by matching a product in the external electronic device. The second image 411 may be a plurality of images, and the displayed order may be exposed in an order according to the preference of previous users.

디스플레이(340)는 복수개의 제2 이미지(411, 412)를 표현하기 위하여, 다음 이미지로 전환하기 위한 버튼(415)을 표현할 수 있다. 사용자에 의해 버튼에 입력이 인가되는 경우, 제2 이미지는 제2 이미지(411)에서 제2 이미지(412)로 변환될 수 있다. The display 340 may express a button 415 for switching to the next image in order to display the plurality of second images 411 and 412 . When an input is applied to the button by the user, the second image may be converted from the second image 411 to the second image 412 .

다양한 실시예에 따르면, 디스플레이(340)는 제2 이미지(411)가 표현되는 동안, 추천 아이콘 또는 문구(345a, 345b)를 표현할 수 있다. 추천 아이콘(345a, 345b)에 입력된 정보는 외부 전자 장치에서 사용자의 선호도를 판단하는데 이용될 수 있다. 다양한 실시예에 따르면, 추천 아이콘은 처음에는 색상이 빈 아이콘(345a)이고, 사용자의 입력이 있은 후 색상을 포함하는 아이콘(345b)로 변환될 수 있다. 다른 예를 들면, 추천 아이콘(345a, 345b)를 클릭하면, 평점을 입력할 수 있는 창이 뜰 수 있고, 입력된 평점은 외부 전자 장치로 전달될 수 있다. 다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 팔레트(예: 도4의 팔레트(480)), 추천 아이콘(345a, 345b)는 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다.According to various embodiments, the display 340 may display a recommendation icon or phrase 345a or 345b while the second image 411 is displayed. Information input to the recommendation icons 345a and 345b may be used in an external electronic device to determine a user's preference. According to various embodiments, the recommendation icon may initially have an empty color 345a, and may be converted into an icon 345b including a color after a user input. As another example, when the recommendation icons 345a and 345b are clicked, a window for inputting a rating may appear, and the input rating may be transmitted to an external electronic device. According to various embodiments, when the second images 411 and 412 are vertically displayed, the second images 411 and 412 are the first area (eg, the first area 341 of FIG. 4 ) or the second area. (eg, the second area 342 of FIG. 4 ), the palette (eg, the palette 480 of FIG. 4 ), and the recommendation icons 345a and 345b are the first area 341 or the second area Among the 342 , the second images 411 and 412 may be displayed in a non-displayed area.

전달된 평점 또는 추천수를 바탕으로, 외부 전자 장치의 인공 신경망 모델은 사용자의 얼굴 윤곽에 따른 선호도가 높은 순서로 화장품을 정렬할 수 있다.Based on the delivered rating or the number of recommendations, the artificial neural network model of the external electronic device may sort the cosmetics in the order of preference according to the user's face contour.

다양한 실시예에 따르면, 전자 장치(100)는 사용자에 의해서 일부 메이크업을 수정할 수 있다. 예를 들면, 제2 이미지(411)은 최초로 사용자가 전달받은 제2 이미지 일 수 있고, 사용자의 선택에 의해 헤어와 눈화장이 변경될 수 있다. 사용자가 헤어쪽을 선택하면, 다른 헤어 모양이나 색상을 팔레트(480)가 위치한 자리에 표현할 수 있고, 이를 바탕으로 사용자가 헤어디자인을 수정할 수 있다. 동일한 방법으로 눈화장을 수정하여 제2 이미지(412)를 형성할 수 있다. 사용자가 최종적으로 선택하고 만족을 나타내는 의미로 추천 아이콘(345b)를 클릭할 수 있다. 이경우, 전자 장치(100)는 제2 이미지(411)은 낮은 선호도를 표현하고, 제3 이미지(412)는 높은 선호도로 데이터를 작성하여 외부 전자 장치로 전송할 수 있다. 외부 전자 장치는 이와 관련된 내용을 저장 장치에 저장하여, 이후 다른 사용자에게 화장품 또는 화장법을 추천할 때 사용할 수 있다.According to various embodiments, the electronic device 100 may correct some makeup by a user. For example, the second image 411 may be a second image first received by the user, and hair and eye makeup may be changed by the user's selection. When the user selects the hair side, a different hair shape or color can be expressed at the position where the palette 480 is located, and the user can modify the hair design based on this. The second image 412 may be formed by correcting eye makeup in the same manner. The user may finally select and click the recommendation icon 345b to indicate satisfaction. In this case, the electronic device 100 may create data with a high preference for the second image 411 and high preference for the second image 411 and transmit it to the external electronic device. The external electronic device may store the related content in the storage device, and then use it when recommending cosmetics or make-up methods to other users.

도 6은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품 정보를 표현한 도면이다.6 is a diagram illustrating product information applied to a second image in an electronic device according to various embodiments of the present disclosure;

도 6을 참조하면, 사용자는 전자 장치(100)를 통하여 제2 이미지(412)에 사용된 제품의 정보를 확인할 수 있다. 전자 장치(100)는 디스플레이(340)를 통해 제2 이미지(412) 및 제2 이미지(412)에 적용된 메이크업 제품의 리스트(430)를 디스플레이할 수 있다. Referring to FIG. 6 , the user may check information on the product used in the second image 412 through the electronic device 100 . The electronic device 100 may display the second image 412 and the list 430 of makeup products applied to the second image 412 through the display 340 .

다양한 실시예에 따르면, 전자 장치(100)는 제2 이미지(412)와 관련된 데이터 및 제2 이미지(412)에 사용된 제품과 관련된 데이터를 외부 전자 장치로부터 수신할 수 있다. 제2 이미지(412)에 사용된 제품과 관련된 데이터는 리스트로 만들어져서 디스플레이(340)에 표시될 수 있다. 사용자는 리스트에 표시된 제품명을 터치(435)하거나, 제2 이미지(412)의 일부를 터치(425)할 수 있다. 제2 이미지(412)의 일부나 제품명을 터치하는 경우, 전자 장치(100)는 제품에 대한 설명이 표현되는 창(420)을 제2 이미지 상에 오버랩되거나, 빈공간에서 디스플레이할 수 있다. 제품에 대한 설명이 표현되는 창(420)은 제품의 정보, 제품의 제조사, 가격등을 포함할 수 있고, 주문버튼을 포함할 수 있다. 추가적으로, 제품의 상세정보를 얻을 수 있는 링크등을 포함할 수 있다. 사용자는 다른 부위에 적용된 제품을 확인하고자 하는 경우, 제품 리스트(430)에서 다른 제품을 클릭하거나, 제2 이미지(412)의 다른 부위를 선택할 수 있다.According to various embodiments, the electronic device 100 may receive data related to the second image 412 and data related to a product used in the second image 412 from the external electronic device. Data related to the product used in the second image 412 may be listed and displayed on the display 340 . The user may touch 435 the product name displayed on the list or touch 425 a portion of the second image 412 . When a part of the second image 412 or a product name is touched, the electronic device 100 may overlap a window 420 in which a product description is expressed on the second image or may display it in an empty space. The window 420 in which the description of the product is expressed may include product information, a product manufacturer, a price, and the like, and may include an order button. Additionally, it may include a link to obtain detailed product information. When the user wants to check a product applied to another part, he or she may click another product in the product list 430 or select another part of the second image 412 .

다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 제품에 대한 설명이 표현되는 창(420) 및 제품 리스트(430)는 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다.According to various embodiments, when the second images 411 and 412 are vertically displayed, the second images 411 and 412 are the first area (eg, the first area 341 of FIG. 4 ) or the second area. (eg, the second area 342 of FIG. 4 ), the window 420 in which a product description is expressed, and the product list 430 are the first area 341 or the second area 342 . Among them, the second images 411 and 412 may be displayed in a non-displayed area.

다양한 실시예에 따르면, 사용자가 제품 리스트(430)나 제2 이미지(412)의 일부를 터치(425)하는 경우, 프로세서(예: 도 3의 프로세서(310))는 입력을 인식할 수 있다. 인식된 입력을 바탕으로 프로세서는 입력에 대응되는 제품 정보를 디스플레이(340)상에 팝업되는 제품에 대한 설명이 표현된 창(420)형태로 제공할 수 있다. 프로세서는 사용자가 창(420)에 포함된 주문하기 버튼을 클릭하게 되면, 제품의 주문과 관련된 창으로 전환할 수 있고, 제품명이나 제조사를 클릭하면, 제품에 관한 정보 또는 제조사의 다른 제품에 관한 정보를 디스플레이하여 사용자에게 제공할 수 있다.According to various embodiments, when the user touches 425 a part of the product list 430 or the second image 412 , the processor (eg, the processor 310 of FIG. 3 ) may recognize the input. Based on the recognized input, the processor may provide product information corresponding to the input in the form of a window 420 in which a description of the product popped up on the display 340 is expressed. When the user clicks an order button included in the window 420 , the processor may switch to a window related to an order of the product, and when a product name or manufacturer is clicked, information about the product or information about other products of the manufacturer can be displayed and provided to the user.

도 7은, 다양한 실시예들에 따르는 전자 장치에서 제2 이미지에 적용된 제품을 단계별로 표현한 도면이다.7 is a diagram illustrating a product applied to a second image in an electronic device according to various embodiments in stages.

도 7을 참조하면, 전자 장치(100)는 디스플레이(340)에 제1 이미지(예: 도 4의 제1 이미지(410))로부터 제2 이미지(예: 도 5의 제2 이미지(411, 412)) 중 사용자가 선택한 제2 이미지(412)로 화장하는 순서를 제공할 수 있다.Referring to FIG. 7 , the electronic device 100 displays a second image (eg, second images 411 and 412 of FIG. 5 ) from a first image (eg, the first image 410 of FIG. 4 ) on the display 340 . )), the order of applying makeup to the second image 412 selected by the user may be provided.

다양한 실시예에 따르면, 전자 장치(100)는 외부 전자 장치로부터 인공 신경망을 통해 획득된 유사한 얼굴형에서 적용된 화장법을 수신할 수 있다. 사용자는 화장법이 복수개인 경우, 하나를 선택할 수 있고, 전자 장치(100)는 선택된 화장법을 순서에 따라 디스플레이(340)를 통하여 각 단계별로 디스플레이할 수 있다. 전자 장치(100)는 각 단계별로 적용된 화장법에 관련된 정보가 포함된 창(420)을 표시할 수 있고, 창(420)은 사용자의 입력에 따라 열거나 닫을 수 있다.According to various embodiments, the electronic device 100 may receive a makeup method applied to a similar face shape obtained through an artificial neural network from an external electronic device. When there are a plurality of makeup methods, the user may select one, and the electronic device 100 may display the selected makeup methods in each step through the display 340 in order. The electronic device 100 may display a window 420 including information related to a makeup method applied in each step, and the window 420 may be opened or closed according to a user's input.

STEP X에서, 전자 장치(100)는 볼터치 단계에 적용된 제품과 제품이 적용된 이미지를 제공할 수 있다. 예를 들면, 디스플레이(340)는 제1 이미지(410)와 디스플레이(340)의 일 영역에, 현재 단계(441)를 제공할 수 있다. 현재 단계(441) 표시 영역은 STEP X임을 표시할 수 있고, 현재 단계에서 적용된 제품을 창(420)을 통해서 정보를 제공할 수 있다. In STEP X, the electronic device 100 may provide a product applied to the ball touch step and an image to which the product is applied. For example, the display 340 may provide the current stage 441 to the first image 410 and one area of the display 340 . The display area of the current step 441 may display STEP X, and information about the product applied in the current step may be provided through the window 420 .

디스플레이(340)는 제1 이미지(410)에 현재 단계(441)에서 적용된 화장(442)(예: 볼터치)을 맵핑하여 표현할 수 있다.The display 340 may represent the first image 410 by mapping the makeup 442 (eg, a cheek touch) applied in the current step 441 .

STEP X+1에서, 전자 장치(100)는 눈화장 단계에 적용된 제품과 제품이 적용된 이미지를 제공할 수 있다. 현재단계(443)는 STEP X에서 STEP X+1로 변경될 수 있고, 디스플레이는 현재 단계(443)에서 적용된 제품을 창(420)을 통해서 정보를 제공할 수 있다. 현재 단계에서 적용된 제품이 복수개 인 경우, 창(420)을 통해서 복수개의 제품 정보를 제공할 수 있다.In STEP X+1, the electronic device 100 may provide a product applied to the eye makeup step and an image to which the product is applied. The current step 443 may be changed from STEP X to STEP X+1, and the display may provide information about the product applied in the current step 443 through the window 420 . When there are a plurality of products applied in the current stage, information on a plurality of products may be provided through the window 420 .

디스플레이(340)는 제1 이미지(410)에 현재의 이전 단계(441)인 STEP X에서 적용된 화장(442)(예: 볼터치)을 맵핑하고, 추가로, 현재 단계(443)인 STEP X+1에서 적용된 화장(444)(예: 눈화장)을 맵핑하여 표현할 수 있다.The display 340 maps the makeup 442 (eg, a cheek touch) applied in STEP X, which is the current previous stage 441 , to the first image 410 , and furthermore, the current stage 443 STEP X+ The makeup 444 (eg, eye makeup) applied in 1 may be mapped and expressed.

다양한 실시예에 따르면, 제2 이미지(411, 412)를 세로로 디스플레이하는 경우, 제2 이미지(411, 412)는 제1 영역(예: 도 4의 제1 영역(341)) 또는 제2 영역(예: 도 4의 제2 영역(342))에 디스플레이 될 수 있고, 제품에 대한 설명이 표현되는 창(420) 은 제1 영역(341) 또는 제2 영역(342) 중 제2 이미지(411, 412)가 디스플레이 되지 않은 영역에 디스플레이될 수 있다. 다양한 실시예에 따르면, 현재 단계(441, 443)의 표현은 디스플레이(340)의 제1 영역(예: 도 4의 제1 영역(341)), 제2 영역(예: 도 4의 제2 영역(342)) 및 접힘 영역(예: 도 4의 접힘 영역(343))에 걸쳐 표현될 수 있다. 다른 실시예를 들면, 도 7에 도시된 바와 상이하게, 현재 단계(441, 443)의 표현은 디스플레이(340)의 제1 영역(341) 또는 제2 영역(343)중 어느 하나에 배치될 수 있다.According to various embodiments, when the second images 411 and 412 are vertically displayed, the second images 411 and 412 are the first area (eg, the first area 341 of FIG. 4 ) or the second area. (eg, the second area 342 of FIG. 4 ), and the window 420 in which a product description is expressed is the second image 411 of the first area 341 or the second area 342 . , 412) may be displayed in a non-displayed area. According to various embodiments, the representation of the current step 441 , 443 is a first area (eg, the first area 341 of FIG. 4 ), a second area (eg, the second area of FIG. 4 ) of the display 340 . 342 ) and a fold region (eg, fold region 343 in FIG. 4 ). For another example, different from that shown in FIG. 7 , the representation of the current step 441 , 443 may be placed in either the first area 341 or the second area 343 of the display 340 . have.

도 8은 다양한 실시예들에 따르는 플렉서블 디스플레이를 포함하는 전자 장치를 나타낸다.8 illustrates an electronic device including a flexible display according to various embodiments of the present disclosure.

전자 장치(800)는 화장이 적용된 제2 이미지(411)를 디스플레이 함과 동시에 다른 영역에서는 채팅창(890), 제품 리스트(430), 및 팔레트(480)를 디스플레이(840)에 나타낼 수 있다. The electronic device 800 may display the second image 411 to which the makeup is applied and, at the same time, display the chat window 890 , the product list 430 , and the palette 480 in another area on the display 840 .

전자 장치(800)는 폴더블 디바이스 일 수 있다. 전자 장치(800)는 힌지 구조에 연결되는 제1 하우징 구조, 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징 및 상기 폴더블 하우징에 배치되는 플렉서블 디스플레이(840)를 포함할 수 있다. 플렉서블 디스플레이(840)는 제1 하우징 구조의 일면으로부터 제2 하우징 구조의 일면으로 연장되어 형성될 수 있다. 플렉서블 디스플레이(840)는 펼침 상태(unfolding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면에 배치되어 하나의 평면으로 형성될 수 있다. 플렉서블 디스플레이(840)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 마주보게 배치됨에 따라 접히는 형태를 유지할 수 있다. 다른 실시예에 따르면, 플렉서블 디스플레이(840)는 접힘 상태(folding state)에서 제1 하우징 구조의 일면과 제2 하우징 구조의 일면이 서로 바깥으로 바라보게 배치됨에 따라 디스플레이는 외부로 노출되는 형태를 유지할 수 있다.The electronic device 800 may be a foldable device. The electronic device 800 includes a foldable housing including a first housing structure connected to a hinge structure, a second housing structure contacting the first housing structure with the hinge structure as an axis, and a flexible display disposed in the foldable housing ( 840) may be included. The flexible display 840 may be formed to extend from one surface of the first housing structure to one surface of the second housing structure. The flexible display 840 may be disposed on one surface of the first housing structure and one surface of the second housing structure in an unfolding state to form a single plane. The flexible display 840 may maintain a folded shape as one surface of the first housing structure and one surface of the second housing structure are disposed to face each other in a folding state. According to another embodiment, the flexible display 840 maintains a shape exposed to the outside as the one surface of the first housing structure and the one surface of the second housing structure are disposed to face each other outward in the folding state. can

다양한 실시예에 따르면, 플렉서블 디스플레이(840)는 제1 영역(841), 제2 영역(842) 및 접힘 영역(843)을 포함할 수 있다. 접힘 영역(843)은 힌지 구조가 배치되는 영역에 대응되는 플렉서블 디스플레이(840) 상의 영역일 수 있고, 플렉서블 디스플레이가 접혀지는 영역일 수 있다. 제1 영역(841) 및 제2 영역(842)는 힌지 축을 중심으로 대칭되도록 배치되어 접힘 영역(843)으로부터 연장되는 영역일 수 있다.According to various embodiments, the flexible display 840 may include a first area 841 , a second area 842 , and a folded area 843 . The folded area 843 may be an area on the flexible display 840 corresponding to the area where the hinge structure is disposed, or may be an area in which the flexible display is folded. The first region 841 and the second region 842 may be symmetrical about the hinge axis and extend from the folded region 843 .

다양한 실시예에 따르면, 전자 장치(100)의 프로세서(310)는 플렉서블 디스플레이(840)의 제1 영역(841) 또는 제2 영역(842)에 제1 이미지(410) 또는 제2 이미지(411)을 표현하도록 제어할 수 있다. 프로세서(310)는 플렉서블 디스플레이(840)의 나머지 영역에서, 제1 이미지(410) 또는 제2 이미지(411) 이외의 화장 정보가 포함된 제품 리스트(430), 채팅창(890), 팔레트(480)를 표현할 수 있다. 예를 들면, 제1 영역(841)에 제2 이미지(411) 및 추천 아이콘(345)를 표현하고, 제2 영역(842)에 제품 리스트(430), 채팅창(890), 팔레트(480)를 표현할 수 있다. 사용자가 제품 리스트(430)의 제품을 선택하는 경우, 제2 영역(842)에 제품의 정보가 팝업창으로 표현될 수 있다. 채팅창(890)은 전자 장치(100)의 사용자 및 외부 전자 장치(101) 또는 외부 서버를 통해 연결된 사용자의 입력이 출력될 수 있다.According to various embodiments, the processor 310 of the electronic device 100 displays the first image 410 or the second image 411 in the first area 841 or the second area 842 of the flexible display 840 . can be controlled to express In the remaining area of the flexible display 840 , the processor 310 includes a product list 430 including makeup information other than the first image 410 or the second image 411 , a chat window 890 , and a palette 480 . ) can be expressed. For example, the second image 411 and the recommendation icon 345 are expressed in the first area 841 , and the product list 430 , the chat window 890 , and the palette 480 are displayed in the second area 842 . can be expressed When the user selects a product in the product list 430 , product information may be displayed in a pop-up window in the second area 842 . The chat window 890 may output an input of a user of the electronic device 100 and a user connected through the external electronic device 101 or an external server.

도 9는 다양한 실시예들에 따르는 전자 장치의 동작을 나타내는 흐름도이다.9 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure;

도 9를 참조하면, 전자 장치(예: 도 1의 전자 장치(100))는 적어도 하나의 프로세서(예: 도 3의 프로세서(310))에 의해 실행될 때에, 적어도 하나의 프로세서가, 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고(S910), 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고(S920), 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고(S930), 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다(S940).Referring to FIG. 9 , when the electronic device (eg, the electronic device 100 of FIG. 1 ) is executed by at least one processor (eg, the processor 310 of FIG. 3 ), the at least one processor is configured to perform the operation through the camera. A first image related to the user's face is acquired (S910), and data related to a face shape similar to the user is detected based on the acquired first image (S920), and the data related to the detected face shape is detected (S920). It transmits to an external electronic device and receives, from the external electronic device, data on cosmetics and makeup methods with a high preference according to a user's similar face shape by using an artificial neural network (S930), and receives a preference according to a similar face shape to the user (S930). It is possible to control to display a second image to which cosmetics or a makeup method having a high value is applied through the display (S940).

S910 동작에서, 전자 장치는 카메라(예: 도 3의 카메라(350))를 통하여 사용자의 신체일부 또는 얼굴이 표현된 제1 이미지를 획득할 수 있다. 제1 이미지는 얼굴의 굴곡을 표현하기 위하여 깊이 정보를 포함할 수 있으며, 디스플레이(예: 도 3의 디스플레이(340))의 아래에 중첩되도록 배치되는 인 디스플레이 카메라일 수 있다. 제1 이미지는 전면 카메라뿐만 아니라 후면 카메라를 통해 획득한 이미지일 수 있다. In operation S910 , the electronic device may acquire a first image in which the user's body part or face is expressed through a camera (eg, the camera 350 of FIG. 3 ). The first image may include depth information in order to express the curvature of the face, and may be an in-display camera disposed to overlap under a display (eg, the display 340 of FIG. 3 ). The first image may be an image acquired through the rear camera as well as the front camera.

S920 동작에서, 전자 장치는 획득된 이미지를 바탕으로 유사한 얼굴형을 검출할 수 있다. 다양한 실시예에 따르면, 전자 장치는 제1 이미지에 표현된 얼굴형으로부터 특징점을 획득할 수 있고, 특징점을 바탕으로 유사한 얼굴을 판단할 수 있다. 또한, 전자 장치는 획득된 이미지에 포함된 높이 정보 및 색상 정보를 인공 신경망 모델이 포함된 외부 전자 장치(예: 도 1의 외부 전자 장치(101))로 송신하여, 인공 신경망 모델을 통하여 특징점을 추출하여, 기존에 저장되어 있던 얼굴 모형으로부터 유사한 얼굴형을 찾을 수 있다. In operation S920, the electronic device may detect a similar face shape based on the acquired image. According to various embodiments, the electronic device may obtain a feature point from the face shape expressed in the first image, and may determine a similar face based on the feature point. In addition, the electronic device transmits height information and color information included in the acquired image to an external electronic device including an artificial neural network model (eg, the external electronic device 101 of FIG. 1 ) to determine the feature points through the artificial neural network model. By extracting, a similar face type can be found from the previously stored face model.

S930 동작에서, 전자 장치는 얼굴형에 따른 화장품 및 화장법을 검색할 수 있다. 전자 장치는 자체 어플리케이션 또는, 저장되어 있는 데이터를 통하여, 해당 얼굴형에 적합한 화장품 및 화장법을 제공할 수 있다. 또한, 전자 장치는, 외부 전자 장치로부터 해당 얼굴형에 적합한 화장품 및 화장법과 관련된 데이터를 수신할 수 있다. 예를 들면, 외부 전자 장치는 사용자의 얼굴형에 유사한 얼굴형의 사용자들이 추천하는 제품과 사용한 제품들을 판단하여, 가중치를 부여하거나, 점수를 평가하여, 우선순위를 정하여 전자 장치로 전달할 수 있다. 또한 외부 전자 장치는 유사한 얼굴형의 사용자들이 추천하는 화장법 및 적용한 화장법을 판단하여 우선순위를 정하여 전자 장치로 전달할 수 있다. In operation S930, the electronic device may search for cosmetics and makeup methods according to the face shape. The electronic device may provide cosmetics and makeup methods suitable for a corresponding face shape through its own application or stored data. Also, the electronic device may receive data related to cosmetics and makeup methods suitable for a corresponding face shape from the external electronic device. For example, the external electronic device may determine products recommended by users with a face shape similar to the user's face shape and products used by users, assign weights, evaluate scores, set priorities, and transmit them to the electronic device. In addition, the external electronic device may determine a makeup method recommended by users with a similar face shape and a makeup method applied, set a priority, and transmit it to the electronic device.

S940 동작에서, 전자 장치는 화장품이 적용된 얼굴을 디스플레이를 통해 표현할 수 있다. 다양한 실시예에 따르면, 전자 장치는, 추천된 화장품 또는 화장법이 적용된 제2 이미지를 사용자에게 디스플레이할 수 있다. 사용자는 해당 화장품 또는 화장법이 마음에 들지 않는다면, 다음 순위의 화장품 또는 화장법이 적용된 제2 이미지를 요청할 수 있고, 전자 장치는 요청에 응답하여 차순위 제2 이미지를 제공할 수 있다. 전자 장치는 사용자가 제품의 정보 또는 주문과 관련된 신호를 요청하는 경우, 제품의 정보 또는 주문 링크가 담긴 창을 디스플레이할 수 있다.In operation S940, the electronic device may express a face to which cosmetics are applied through the display. According to various embodiments, the electronic device may display a second image to which a recommended cosmetic or makeup method is applied to the user. If the user does not like the corresponding cosmetic or makeup method, the user may request a second image to which the next-order cosmetic or makeup method is applied, and the electronic device may provide the next-ordered second image in response to the request. When a user requests a signal related to product information or an order, the electronic device may display a window containing product information or an order link.

상술한 다양한 실시예에 따르는 전자 장치는 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.The electronic device according to various embodiments described above includes a communication processor for communicating with one or more user terminals, a camera for acquiring an image, a display for transmitting the acquired image and information to a user, and storing the captured external object. a memory, the communication processor, and at least one processor operably coupled to the memory, the memory storing a plurality of instructions, the plurality of instructions comprising: the at least one processor When executed by , the at least one processor acquires a first image related to the user's face through the camera, and based on the acquired first image, detects data related to a face shape similar to the user, and , transmits data related to the detected face shape to an external electronic device, and receives, from the external electronic device, data on cosmetics and makeup methods with high preference according to a user's similar face shape by using an artificial neural network, and the user It is possible to control to display a second image to which a cosmetic or makeup method having a high preference is applied according to a face shape similar to , through the display.

다양한 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 프로세서에 의해 상기 인스트럭션들을 실행할 시, 상기 제1 이미지에 외부 객체의 접근을 감지하고, 상기 감지된 외부 객체를 통한 특정한 입력이 있는 경우, 디스플레이에 표시하도록 제어할 수 있다.According to various embodiments, when the at least one processor executes the instructions, the processor detects an approach of an external object to the first image, and when there is a specific input through the sensed external object, a display It can be controlled to display in .

다양한 실시예에 따르면, 상기 외부 객체는 상기 전자 장치와 신호를 송 수신할 수 있는 외부 전자 장치일 수 있고, 상기 특정한 입력은 상기 제1 이미지의 일부에 상기 화장품의 효과가 적용된 이미지로 표현하기 위한 입력일 수 있다.According to various embodiments, the external object may be an external electronic device capable of transmitting and receiving signals to and from the electronic device, and the specific input is for expressing an image in which the cosmetic effect is applied to a part of the first image. It can be an input.

다양한 실시예에 따르면, 상기 검출된 얼굴형과 관련된 데이터는 사용자의 얼굴형상 및 색상을 포함할 수 있다.According to various embodiments, the data related to the detected face shape may include a user's face shape and color.

다양한 실시예에 따르면, 상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 디스플레이를 통해 외부에 노출시킬 때, 복수의 색상을 포함하는 팔레트를 상기 제1 이미지 또는 상기 제2 이미지의 일부 영역에 중첩(overlap)되도록 제어할 수 있다.According to various embodiments, when the processor exposes the first image or the second image to the outside through the display, a palette including a plurality of colors is applied to a partial region of the first image or the second image. It can be controlled to overlap.

다양한 실시예에 따르면, 상기 디스플레이는 상기 제2 이미지가 노출될 때, 추천을 위한 객체를 표현하고, 상기 프로세서는 상기 객체를 통하여 신호가 입력되면, 상기 추천 정보를 상기 외부 전자 장치로 송신하도록 제어할 수 있다.According to various embodiments, the display represents an object for recommendation when the second image is exposed, and the processor controls to transmit the recommendation information to the external electronic device when a signal is input through the object can do.

다양한 실시예에 따르면, 상기 디스플레이는 상기 제1 이미지 또는 상기 제2 이미지가 노출될 때, 다른 사용자와의 커뮤니케이션을 위한 창(window)을 제공하고, 상기 프로세서는 상기 창은 상기 전자 장치의 사용자 및 상기 외부 전자 장치 또는 외부 서버를 통해 연결된 사용자의 입력이 출력되도록 제어할 수 있다.According to various embodiments, when the first image or the second image is exposed, the display provides a window for communication with another user, and the processor provides the window with the user of the electronic device and It is possible to control an input of a user connected through the external electronic device or an external server to be output.

다양한 실시예에 따르면, 프로세서는, 상기 제2 이미지에 적용된 복수의 제품 리스트를 상기 디스플레이를 통해 디스플레이하고, 상기 복수의 제품리스트에서 상기 제품을 선택할 때, 상기 제품의 정보, 가격, 또는 주문과 관련된 창을 상기 디스플레이를 통해 디스플레이하도록 제어할 수 있다.According to various embodiments, the processor may display a plurality of product lists applied to the second image through the display, and when selecting the product from the plurality of product lists, information related to the product information, price, or order A window may be controlled to be displayed through the display.

다양한 실시예에 따르는 전자 장치는 힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징, 상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이. 하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서, 이미지를 획득하기 위한 카메라, 상기 획득된 이미지 및 사용자가에게 정보를 전달하는 디스플레이, 상기 촬영된 외부 객체가 저장되는 메모리와, 상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고, 상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고, 상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고, 상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 높은 화장품 및 화장법에 관한 데이터를 수신하고, 상기 사용자와 유사한 얼굴형에 따라 선호도가 높은 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어할 수 있다.An electronic device according to various embodiments of the present disclosure includes a foldable housing including a first housing structure connected to a hinge structure, a second housing structure contacting the first housing structure with the hinge structure as an axis, and one surface of the first housing structure A flexible display extending from one surface of the second housing structure. A communication processor for communicating with one or more user terminals, a camera for acquiring an image, a display for transmitting the acquired image and information to a user, a memory in which the photographed external object is stored, the communication processor and the memory; at least one processor operably coupled to, wherein the flexible display includes a folding area corresponding to an area in which the hinge structure is located, and extending from the folding area to an edge of the first housing structure a first region formed as an axis, and a second region symmetrical about the axis of the first housing structure and the hinge structure, and extending from the folding region to one edge of the second housing structure, wherein the memory includes: store instructions, and when the plurality of instructions are executed by the at least one processor, the at least one processor obtains a first image related to the user's face through the camera, and the obtained first image based on , detects data related to a face shape similar to the user, transmits data related to the detected face shape to an external electronic device, and uses an artificial neural network from the external electronic device to obtain a face shape similar to the user Accordingly, it is possible to receive data on cosmetics and makeup methods with high preference, and control to display a second image to which cosmetics or makeup methods with high preference are applied according to a face shape similar to the user through the display.

다양한 실시예에 따르면, 상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 플렉서블 디스플레이를 통해 외부에 노출시킬 때, 상기 제1 이미지 또는 상기 제2 이미지를 상기 제1 영역에 디스플레이하고, 복수의 색상을 포함하는 팔레트를 상기 제2 영역에 디스플레이하도록 제어할 수 있다.According to various embodiments, when the processor exposes the first image or the second image to the outside through the flexible display, the processor displays the first image or the second image on the first area, and A color palette may be controlled to be displayed in the second area.

본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. Methods according to the embodiments described in the claims or specifications of the present disclosure may be implemented in the form of hardware, software, or a combination of hardware and software.

소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다. When implemented in software, a computer-readable storage medium storing one or more programs (software modules) may be provided. One or more programs stored in the computer-readable storage medium are configured to be executable by one or more processors in an electronic device (device). One or more programs include instructions for causing an electronic device to execute methods according to embodiments described in a claim or specification of the present disclosure.

이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. Such programs (software modules, software) include random access memory, non-volatile memory including flash memory, read only memory (ROM), electrically erasable programmable ROM (EEPROM: Electrically Erasable Programmable Read Only Memory), magnetic disc storage device, Compact Disc-ROM (CD-ROM), Digital Versatile Discs (DVDs), or any other form of It may be stored in an optical storage device or a magnetic cassette. Alternatively, it may be stored in a memory composed of a combination of some or all thereof. In addition, each configuration memory may be included in plurality.

또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다. In addition, the program is transmitted through a communication network composed of a communication network such as the Internet, Intranet, Local Area Network (LAN), Wide LAN (WLAN), or Storage Area Network (SAN), or a combination thereof. It may be stored on an attachable storage device that can be accessed. Such a storage device may be connected to a device implementing an embodiment of the present disclosure through an external port. In addition, a separate storage device on the communication network may be connected to the device implementing the embodiment of the present disclosure.

상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다. In the specific embodiments of the present disclosure described above, components included in the disclosure are expressed in the singular or plural according to the specific embodiments presented. However, the singular or plural expression is appropriately selected for the context presented for convenience of description, and the present disclosure is not limited to the singular or plural element, and even if the element is expressed in plural, it is composed of the singular or singular. Even an expressed component may be composed of a plurality of components.

한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, although specific embodiments have been described in the detailed description of the present disclosure, various modifications are possible without departing from the scope of the present disclosure. Therefore, the scope of the present disclosure should not be limited to the described embodiments and should be defined by the claims described below as well as the claims and equivalents.

Claims (10)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 전자 장치(electronic device)에 있어서,
힌지 구조에 연결되는 제1 하우징 구조, 상기 힌지 구조를 축으로 하여 상기 제1 하우징 구조와 접하는 제2 하우징 구조를 포함하는 폴더블 하우징;
상기 제1 하우징 구조의 일면으로부터 상기 제2 하우징 구조의 일면으로 연장되는 플렉서블 디스플레이;
하나 이상의 사용자 단말과 통신하기 위한 통신 프로세서(CP, communication processor);
이미지를 획득하기 위한 카메라;
상기 획득된 이미지 및 정보를 사용자에게 전달하는 디스플레이;
상기 획득된 이미지가 저장되는 메모리; 및
상기 통신 프로세서 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
상기 플렉서블 디스플레이는, 상기 힌지 구조가 위치하는 영역에 대응되는 폴딩 영역, 상기 폴딩 영역으로부터 상기 제1 하우징 구조의 일 가장자리로 연장되는 제1 영역, 및 상기 제1 하우징 구조와 상기 힌지 구조를 축으로하여 대칭되고, 상기 폴딩 영역으로부터 상기 제2 하우징 구조의 일 가장자리로 연장되는 제2 영역을 포함하고,
상기 메모리는, 복수의 인스트럭션들을 저장하고,
상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하고,
상기 획득된 제1 이미지를 바탕으로, 상기 사용자와 유사한 얼굴형과 관련된 데이터를 검출하고,
상기 검출된 얼굴형과 관련된 데이터를 외부 전자 장치로 송신하고,
상기 외부 전자 장치로부터, 인공 신경망을 활용하여 사용자의 유사한 얼굴형에 따라 선호도가 미리 설정된 값보다 큰 화장품 및 화장법에 관한 데이터를 수신하고,
상기 사용자와 유사한 얼굴형에 따라 선호도가 미리 설정된 값보다 큰 화장품 또는 화장법이 적용된 제2 이미지를 상기 디스플레이를 통해 표시하도록 제어하며,
상기 카메라는 피사체를 향해 적외선을 조사한 다음, 피사체에서 반사된 적외선을 수신하여 깊이 맵(depth-map)을 획득하는 ToF(Time of Flight) 센서를 포함하며,
상기 적어도 하나의 프로세서는,
상기 카메라를 통하여 사용자의 얼굴과 관련된 제1 이미지를 획득하되,
상기 카메라를 통하여 ToF맵을 획득하여 사용자의 얼굴에 대한 3D 이미지를 획득하며,
상기 적어도 하나의 프로세서는,
상기 플렉서블 디스플레이에 상기 제1 이미지로부터 선택한 제2 이미지로 화장하는 순서를 제공하며,
상기 프로세서는 상기 제1 이미지 또는 상기 제2 이미지를 상기 플렉서블 디스플레이를 통해 외부에 노출시킬 때, 상기 제1 이미지 또는 상기 제2 이미지를 상기 제1 영역에 디스플레이하고, 복수의 색상을 포함하는 팔레트를 상기 제2 영역에 디스플레이하도록 제어하고
상기 전자 장치와 입력 신호를 주고받을 수 있는 입력장치로부터 상기 팔레트에서 색상을 선택하는 입력 신호를 받은 경우, 선택된 색상을 제1 이미지에 표현하는, 전자 장치.
In an electronic device,
a foldable housing including a first housing structure connected to the hinge structure and a second housing structure contacting the first housing structure with the hinge structure as an axis;
a flexible display extending from one surface of the first housing structure to one surface of the second housing structure;
a communication processor (CP, communication processor) for communicating with one or more user terminals;
a camera for acquiring images;
a display for transmitting the acquired image and information to a user;
a memory in which the acquired image is stored; and
at least one processor operably coupled to the communication processor and the memory;
The flexible display may include a folding area corresponding to an area in which the hinge structure is located, a first area extending from the folding area to one edge of the first housing structure, and the first housing structure and the hinge structure as an axis. and a second region symmetrical to and extending from the folding region to one edge of the second housing structure,
The memory stores a plurality of instructions,
The plurality of instructions, when executed by the at least one processor, causes the at least one processor to
Obtaining a first image related to the user's face through the camera,
Detecting data related to a face shape similar to the user based on the acquired first image,
transmitting data related to the detected face shape to an external electronic device;
Receives, from the external electronic device, data on cosmetics and makeup methods in which preference is greater than a preset value according to a user's similar face shape by using an artificial neural network,
Controlling to display a second image to which cosmetics or makeup methods having a preference greater than a preset value according to a face shape similar to the user are applied through the display,
The camera includes a Time of Flight (ToF) sensor that irradiates infrared rays toward a subject and then receives infrared rays reflected from the subject to obtain a depth-map,
The at least one processor,
Obtaining a first image related to the user's face through the camera,
Obtaining a ToF map through the camera to obtain a 3D image of the user's face,
The at least one processor,
providing an order of applying makeup to the second image selected from the first image on the flexible display,
When the processor exposes the first image or the second image to the outside through the flexible display, the processor displays the first image or the second image in the first area, and displays a palette including a plurality of colors. control to display in the second area;
When an input signal for selecting a color from the palette is received from an input device capable of exchanging an input signal with the electronic device, the electronic device expresses the selected color in a first image.
삭제delete
KR1020190168731A 2019-12-17 2019-12-17 Server for matching product with buyer and matching system having the same KR102356023B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190168731A KR102356023B1 (en) 2019-12-17 2019-12-17 Server for matching product with buyer and matching system having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190168731A KR102356023B1 (en) 2019-12-17 2019-12-17 Server for matching product with buyer and matching system having the same

Publications (2)

Publication Number Publication Date
KR20210077275A KR20210077275A (en) 2021-06-25
KR102356023B1 true KR102356023B1 (en) 2022-01-25

Family

ID=76629296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190168731A KR102356023B1 (en) 2019-12-17 2019-12-17 Server for matching product with buyer and matching system having the same

Country Status (1)

Country Link
KR (1) KR102356023B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228888A (en) * 2003-01-22 2004-08-12 Make Softwear:Kk Automatic photograph vending machine
WO2018135665A1 (en) * 2017-01-23 2018-07-26 らしさ・ドット・コム株式会社 Proposal system, proposal method, server, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010007775A (en) * 2000-09-06 2001-02-05 권대현 Coordination system for clothes using a realtime chatting service
KR20130080937A (en) * 2012-01-06 2013-07-16 삼성전자주식회사 Apparatus and method for dislplaying a screen of portable device having a flexible display
KR20180130778A (en) * 2017-05-30 2018-12-10 주식회사 트위니 Cosmetic recommendation method, and recording medium storing program for executing the same, and recording medium storing program for executing the same, and cosmetic recommendation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004228888A (en) * 2003-01-22 2004-08-12 Make Softwear:Kk Automatic photograph vending machine
WO2018135665A1 (en) * 2017-01-23 2018-07-26 らしさ・ドット・コム株式会社 Proposal system, proposal method, server, and computer program

Also Published As

Publication number Publication date
KR20210077275A (en) 2021-06-25

Similar Documents

Publication Publication Date Title
US11682141B2 (en) Item recommendations based on image feature data
KR102520627B1 (en) Apparatus and method and for recommending products
KR102123780B1 (en) Automatic-guided image capturing and presentation
US9607010B1 (en) Techniques for shape-based search of content
US11605176B2 (en) Retrieving images that correspond to a target body type and pose
KR20230025906A (en) Systems and methods for improved facial attribute classification and its use
US11972466B2 (en) Computer storage media, method, and system for exploring and recommending matching products across categories
KR102356023B1 (en) Server for matching product with buyer and matching system having the same
KR102299393B1 (en) Server for matching product with buyer and matching system having the same
US11430030B1 (en) Generation of recommendations for visual product details
US20230401632A1 (en) Methods and Systems for Initiating a Virtual Try-On Application Running on a Computer System and Providing Interactive Augmented Reality (AR) Graphics
KR20220163430A (en) Identification of Physical Products for Augmented Reality Experiences in Messaging Systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant