KR102167230B1 - SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE - Google Patents

SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE Download PDF

Info

Publication number
KR102167230B1
KR102167230B1 KR1020180015280A KR20180015280A KR102167230B1 KR 102167230 B1 KR102167230 B1 KR 102167230B1 KR 1020180015280 A KR1020180015280 A KR 1020180015280A KR 20180015280 A KR20180015280 A KR 20180015280A KR 102167230 B1 KR102167230 B1 KR 102167230B1
Authority
KR
South Korea
Prior art keywords
makeup
user terminal
user
iot
beauty device
Prior art date
Application number
KR1020180015280A
Other languages
Korean (ko)
Other versions
KR20190100515A (en
Inventor
강인하
Original Assignee
주식회사 콜라주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 콜라주 filed Critical 주식회사 콜라주
Priority to KR1020180015280A priority Critical patent/KR102167230B1/en
Publication of KR20190100515A publication Critical patent/KR20190100515A/en
Application granted granted Critical
Publication of KR102167230B1 publication Critical patent/KR102167230B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템에 있어서, 하나 이상의 화장품을 수용하는 팔레트를 포함하고, 사용자 단말과 연동되며, 상기 사용자 단말과 통신할 수 있는, 상기 IoT 뷰티 디바이스; 및 상기 IoT 뷰티 디바이스 또는 상기 사용자 단말에 포함된 적어도 하나의 센서를 이용하여 사용자의 얼굴특징을 획득하고, 상기 획득된 사용자의 얼굴특징에 대응하는 화장보조 정보를 획득하고, 상기 획득된 화장보조 정보를 출력하는, 상기 사용자 단말; 을 포함하는, 시스템이 개시된다.What is claimed is: 1. A system for providing an artificial intelligence makeup assistant service using an IoT beauty device, comprising: the IoT beauty device comprising a palette for accommodating one or more cosmetics, interworking with a user terminal, and communicating with the user terminal; And acquiring a facial feature of a user using at least one sensor included in the IoT beauty device or the user terminal, acquiring makeup assistance information corresponding to the acquired facial feature of the user, and obtaining the obtained makeup assistance information. Outputting, the user terminal; A system comprising: is disclosed.

Description

IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템 {SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE}A system that provides artificial intelligence makeup assistance services using IoT beauty devices {SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE}

본 발명은 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템에 관한 것이다. The present invention relates to a system for providing an artificial intelligence makeup assistant service using an IoT beauty device.

최근에는 K-뷰티라는 신조어가 생길 정도로 다양한 화장기법들이 개발 및 공유되고 있고, 이를 따라하고자 하는 수요도 증가하고 있다. 이에 사용자별로 최적화된 화장정보를 제공하기 위하여, 인공지능을 이용하여 사용자의 화장을 보조할 수 있는 시스템의 개발이 요구된다.Recently, various cosmetic techniques have been developed and shared to the extent that a new word called K-beauty has arisen, and the demand to imitate them is also increasing. Accordingly, in order to provide optimized makeup information for each user, there is a need to develop a system that can assist users with makeup using artificial intelligence.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.The artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns, judges, and becomes smarter. As artificial intelligence systems are used, their recognition rate improves and users' tastes can be understood more accurately, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.Artificial intelligence technology consists of machine learning (deep learning) and component technologies using machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies/learns the features of input data by itself, and element technology is a technology that simulates functions such as cognition and judgment of the human brain using machine learning algorithms such as deep learning. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology that recognizes and applies/processes human language/text, and includes natural language processing, machine translation, dialogue systems, question and answer, and speech recognition/synthesis. Visual understanding is a technology that recognizes and processes objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, and image improvement. Inference prediction is a technique that logically infers and predicts information by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification), knowledge management (data utilization), and the like. Motion control is a technology that controls autonomous driving of a vehicle and movement of a robot, and includes movement control (navigation, collision, driving), operation control (behavior control), and the like.

공개특허공보 제10-2013-0127278호, 2013.11.22 공개Patent Publication No. 10-2013-0127278, published on November 22, 2013

본 발명이 해결하고자 하는 과제는 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a system for providing an artificial intelligence makeup aid service using an IoT beauty device.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템은, 하나 이상의 화장품을 수용하는 팔레트를 포함하고, 사용자 단말과 연동되며, 상기 사용자 단말과 통신할 수 있는, 상기 IoT 뷰티 디바이스 및 상기 IoT 뷰티 디바이스 또는 상기 사용자 단말에 포함된 적어도 하나의 센서를 이용하여 사용자의 얼굴특징을 획득하고, 상기 획득된 사용자의 얼굴특징에 대응하는 화장보조 정보를 획득하고, 상기 획득된 화장보조 정보를 출력하는, 상기 사용자 단말을 포함한다.A system for providing an artificial intelligence makeup assistance service using an IoT beauty device according to an aspect of the present invention for solving the above-described problem includes a palette for receiving one or more cosmetics, and is interlocked with a user terminal, and the user Using the IoT beauty device and at least one sensor included in the IoT beauty device or the user terminal, which can communicate with a terminal, obtains a user's facial features, and a makeup aid corresponding to the acquired facial features of the user And the user terminal, which obtains information and outputs the obtained makeup aid information.

또한, 상기 IoT 뷰티 디바이스는, 제1 본체 및 상기 제1 본체와 틸팅 가능하게 결합되는 제2 본체를 포함하고, 상기 제2 본체의 후면은 상기 사용자 단말의 후면과 틸팅 가능하게 결합되고, 상기 제2 본체는 틸팅되어 상기 사용자 단말을 지지할 수 있도록 구성되는 것을 특징으로 할 수 있다.In addition, the IoT beauty device includes a first body and a second body that is tiltably coupled to the first body, and a rear surface of the second body is tiltably coupled to the rear surface of the user terminal, and the second body 2 The main body may be tilted to be configured to support the user terminal.

또한, 상기 제1 본체는 상기 제2 본체와 틸팅 및 스위블 가능하게 결합되고, 상기 제1 본체의 양면에는 각각 거울, 디스플레이 및 상기 팔레트 중 하나가 구비될 수 있다.In addition, the first body may be coupled to the second body to be tilted and swiveled, and one of a mirror, a display, and the pallet may be provided on both surfaces of the first body, respectively.

또한, 상기 IoT 뷰티 디바이스는, 상기 제1 본체가 상기 제2 본체로부터 틸팅되면, 상기 사용자 단말에 알림 신호를 전송하고, 상기 사용자 단말은, 상기 IoT 뷰티 디바이스로부터 상기 알림 신호가 수신되면, 상기 인공지능 화장보조 서비스를 제공하기 위한 애플리케이션을 실행할 수 있다.In addition, the IoT beauty device transmits a notification signal to the user terminal when the first body is tilted from the second body, and the user terminal receives the notification signal from the IoT beauty device, the artificial You can run applications to provide intelligent makeup assistance services.

또한, 상기 사용자 단말은, 상기 사용자의 얼굴특징에 대응하는 하나 이상의 화장보조 영상을 검색하고, 상기 검색된 하나 이상의 화장보조 영상을 하나 이상의 항목에 기초하여 평가하고, 상기 하나 이상의 항목은, 상기 하나 이상의 화장보조 영상 각각이 상기 사용자의 얼굴특징에 대응하는 정도 및 상기 하나 이상의 화장보조 영상 각각의 인기도와 관련된 항목을 포함할 수 있다.In addition, the user terminal searches for one or more makeup auxiliary images corresponding to the user's facial features, and evaluates the searched one or more makeup auxiliary images based on one or more items, and the one or more items include the one or more Each of the makeup auxiliary images may include an item related to a degree corresponding to the user's facial features and a popularity of each of the one or more makeup auxiliary images.

또한, 상기 사용자 단말은, 상기 하나 이상의 항목 각각에 대한 가중치를 설정하고, 상기 설정된 가중치에 기초하여 상기 하나 이상의 항목 각각에 대한 평가결과를 합산하고, 상기 합산 결과에 기초하여 상기 하나 이상의 화장보조 영상 각각에 대한 평가결과를 산출하고, 상기 평가 결과에 따라 상기 사용자 단말에서 출력될 화장보조 영상을 결정하고, 상기 결정된 화장보조 영상을 출력할 수 있다.In addition, the user terminal sets a weight for each of the one or more items, sums the evaluation results for each of the one or more items based on the set weight, and the one or more makeup auxiliary images based on the sum result. An evaluation result for each may be calculated, a makeup auxiliary image to be output from the user terminal may be determined according to the evaluation result, and the determined makeup auxiliary image may be output.

또한, 상기 사용자 단말은 상기 적어도 하나의 센서를 이용하여 상기 사용자의 움직임을 인식하고, 상기 인식 결과에 기초하여 상기 사용자의 화장단계를 판단하고, 상기 사용자의 화장단계에 대응하는 화장보조 정보를 출력할 수 있다.In addition, the user terminal recognizes the user's movement using the at least one sensor, determines the user's makeup step based on the recognition result, and outputs makeup assistance information corresponding to the user's makeup step. can do.

또한, 상기 팔레트는 상기 팔레트에 수용되는 하나 이상의 화장품 각각에 대한 접촉을 감지할 수 있는 하나 이상의 센서를 포함하고, 상기 IoT 뷰티 디바이스는, 상기 하나 이상의 화장품 중 하나에 대한 접촉이 감지되면, 상기 접촉이 감지된 화장품에 대한 정보를 상기 사용자 단말에 전송하고, 상기 사용자 단말은, 상기 IoT 뷰티 디바이스로부터 수신된 정보에 기초하여 상기 접촉이 감지된 화장품을 이용하는 방법에 대한 정보를 출력할 수 있다.In addition, the palette includes one or more sensors capable of detecting contact with each of the one or more cosmetics accommodated in the palette, and the IoT beauty device, when a contact with one of the one or more cosmetics is detected, the contact The detected information on the cosmetic may be transmitted to the user terminal, and the user terminal may output information on a method of using the cosmetic in which the contact is detected based on the information received from the IoT beauty device.

또한, 상기 시스템은, 상기 사용자 단말과 통신가능한 화장도구를 더 포함하고, 상기 사용자 단말은, 상기 화장도구와 통신하여 상기 화장도구의 위치 및 움직임을 판단하고, 상기 화장도구의 종류, 상기 화장도구의 위치 및 움직임에 기초하여 상기 화장단계를 판단할 수 있다.In addition, the system further includes a makeup tool capable of communicating with the user terminal, wherein the user terminal determines the position and movement of the makeup tool by communicating with the makeup tool, and the type of the makeup tool, the makeup tool The make-up step can be determined based on the position and movement of.

또한, 상기 사용자 단말은, 상기 출력된 화장보조 정보와 상기 인식된 상기 사용자의 움직임을 비교하고, 상기 화장보조 정보와 상기 사용자의 움직임이 상이한 것으로 판단되는 경우, 상기 사용자에게 알림을 제공하고, 상기 사용자의 움직임과 상이한 상기 화장보조 정보의 구간을 다시 출력할 수 있다.In addition, the user terminal compares the output makeup assistance information with the recognized movement of the user, and when it is determined that the makeup assistance information and the movement of the user are different, provides a notification to the user, and the The section of the makeup assistance information different from the user's movement may be output again.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 사용자 단말과 연동되는 휴대가 용이한 뷰티 디바이스가 제공되며, 나아가 뷰티 디바이스에 IoT 기능을 부여함으로써 사용자 단말과 연동되며, 사용자 단말은 인공지능에 기초한 화장보조 정보를 제공함으로써 사용자가 어디서나 손쉽게 화장을 할 수 있도록 하는 효과가 있다.According to the disclosed embodiment, a beauty device that is easy to carry in connection with the user terminal is provided, and further, by providing an IoT function to the beauty device, the user terminal is connected to the user terminal, and the user terminal provides makeup aid information based on artificial intelligence. It has the effect of allowing you to easily apply makeup anywhere.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시 예에 따른 IoT 뷰티 디바이스의 시스템을 도시한 도면이다.
도 2는 사용자 단말에 IoT 뷰티 디바이스가 결합된 일 예를 도시한 도면이다.
도 3은 사용자 단말의 후면에 장착된 IoT 뷰티 디바이스가 사용자 단말을 지지하는 일 예를 도시한 도면이다.
도 4는 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 일 예를 도시한 도면이다.
도 5는 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 다른 일 예를 도시한 도면이다.
도 6은 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 또 다른 일 예를 도시한 도면이다.
도 7은 일 실시 예에 따라 회전부를 포함하는 IoT 뷰티 디바이스를 도시한 도면이다.
도 8은 도 7에 도시된 실시 예에 따라 제1 본체가 회전되는 일 예를 도시한 도면이다.
도 9(a)는 개시된 실시 예에 따른 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법의 일 예를 도시한 도면이다.
도 9(b)는 개시된 실시 예에 따른 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법의 일 예를 도시한 도면이다.
도 10(a)는 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 사용자의 화장단계에 대응하는 화장보조 정보를 제공하는 방법을 도시한 도면이다.
도 10(b)는 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 사용자의 화장단계에 대응하는 화장보조 정보를 제공하는 방법을 도시한 도면이다.
도 11(a)는 다른 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다.
도 11(b)는 다른 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다.
도 12(a)는 또 다른 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다.
도 12(b)는 또 다른 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다.
1 is a diagram illustrating a system of an IoT beauty device according to an embodiment.
2 is a diagram illustrating an example in which an IoT beauty device is coupled to a user terminal.
3 is a diagram illustrating an example in which an IoT beauty device mounted on a rear surface of a user terminal supports a user terminal.
4 is a diagram illustrating an example of an unfolded state of the first body in the embodiment shown in FIG. 3.
FIG. 5 is a view showing another example of an unfolded state of the first body in the embodiment shown in FIG. 3.
6 is a view showing another example of a state in which the first body is unfolded in the embodiment shown in FIG. 3.
7 is a diagram illustrating an IoT beauty device including a rotating part according to an exemplary embodiment.
8 is a diagram illustrating an example in which a first body is rotated according to the embodiment shown in FIG. 7.
9A is a diagram illustrating an example of a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to the disclosed embodiment.
9(b) is a diagram illustrating an example of a method of providing an artificial intelligence makeup assistant service using an IoT beauty device according to the disclosed embodiment.
FIG. 10A is a diagram illustrating a method of providing makeup assistance information corresponding to a user's makeup step using an IoT beauty device and a user terminal according to an embodiment.
10B is a diagram illustrating a method of providing makeup assistance information corresponding to a user's makeup step using an IoT beauty device according to an embodiment.
FIG. 11(a) is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to another embodiment.
11(b) is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device according to another embodiment.
12A is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to another embodiment.
12(b) is a diagram illustrating a method of providing an artificial intelligence makeup assistance service using an IoT beauty device according to another embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 IoT 뷰티 디바이스의 시스템을 도시한 도면이다.1 is a diagram illustrating a system of an IoT beauty device according to an embodiment.

도 1을 참조하면, 시스템은 서버(10), IoT 뷰티 디바이스(100) 및 사용자 단말(200)을 포함한다.Referring to FIG. 1, the system includes a server 10, an IoT beauty device 100, and a user terminal 200.

일 실시 예에서, 서버(10) 및 사용자 단말(200)은 하나 이상의 프로세서를 포함하는 모든 종류의 컴퓨팅 장치를 포함하는 개념으로 이해된다.In one embodiment, the server 10 and the user terminal 200 are understood as a concept including all kinds of computing devices including one or more processors.

예를 들어, 사용자 단말(200)은 스마트폰, 태블릿 PC, 랩탑 및 데스크탑 컴퓨터 중 하나로 이해될 수 있으나, 이에 제한되지 않는다.For example, the user terminal 200 may be understood as one of a smartphone, a tablet PC, a laptop, and a desktop computer, but is not limited thereto.

일 실시 예에서, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 블루투스를 이용하여 통신한다. 블루투스의 종류는 제한되지 않으며, 블루투스 클래식, 블루투스 3.0, BLE 등을 포함할 수 있으나, 이에 제한되지 않는다.In one embodiment, the IoT beauty device 100 communicates with the user terminal 200 using Bluetooth. The type of Bluetooth is not limited, and may include Bluetooth Classic, Bluetooth 3.0, BLE, etc., but is not limited thereto.

일 실시 예에서, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 근거리 무선 통신 또는 네트워크를 통하여 통신할 수 있다.In an embodiment, the IoT beauty device 100 may communicate with the user terminal 200 through short-range wireless communication or a network.

네트워크는, 근거리 통신망(Local Area Network: LAN), 광역 통신망(Wide Area Network: WAN) 또는 부가가치 통신망(Value Added Network: VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The network is a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), or a mobile radio communication network or a satellite communication network. It can be implemented with any type of wireless network.

또한, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 IoT 전용망을 통해 통신할 수 있다. 예를 들어, IoT 전용망은 LoRa 등을 포함할 수 있으나, 이에 제한되지 않는다.In addition, the IoT beauty device 100 may communicate with the user terminal 200 through a dedicated IoT network. For example, the dedicated IoT network may include LoRa, but is not limited thereto.

일 실시 예에서, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 탈부착 가능하게 결합될 수 있다.In one embodiment, the IoT beauty device 100 may be detachably coupled to the user terminal 200.

IoT 뷰티 디바이스(100)가 사용자 단말(200)과 결합되어 이용되는 실시 예들에 대해서는 도 2 내지 도 8을 참조하여 이하에서 구체적으로 설명한다.Embodiments in which the IoT beauty device 100 is used in combination with the user terminal 200 will be described in detail below with reference to FIGS. 2 to 8.

일 실시 예에서, 사용자 단말(200)은 네트워크를 통하여 서버(10)와 통신한다. 사용자 단말(200)은 개시된 실시 예에 따른 인공지능 화장보조 서비스를 제공하기 위한 정보의 적어도 일부를 서버(10)로부터 수신한다.In one embodiment, the user terminal 200 communicates with the server 10 via a network. The user terminal 200 receives from the server 10 at least a part of information for providing an artificial intelligence makeup assistant service according to the disclosed embodiment.

일 실시 예에서, IoT 뷰티 디바이스(100) 또한 독자적인 네트워크 통신모듈을 구비함으로써, 서버(10)와 통신하여 개시된 실시 예에 따른 인공지능 화장보조 서비스를 제공하기 위한 정보의 적어도 일부를 수신할 수 있다.In one embodiment, the IoT beauty device 100 also includes an independent network communication module, so that at least a portion of information for providing an artificial intelligence makeup assistance service according to the disclosed embodiment may be received by communicating with the server 10. .

일 실시 예에서, IoT 뷰티 디바이스(100)는 제1 본체(110) 및 제2 본체(120)를 포함한다. 일 실시 예에서, 제1 본체(110) 및 제2 본체(120)는 힌지결합되고, IoT 뷰티 디바이스(100)는 제1 본체(110) 및 제2 본체(120)를 힌지를 이용하여 여닫을 수 있는 형태로 구성될 수 있다.In one embodiment, the IoT beauty device 100 includes a first body 110 and a second body 120. In one embodiment, the first body 110 and the second body 120 are hinge-coupled, and the IoT beauty device 100 can open and close the first body 110 and the second body 120 using a hinge. It can be configured in the form of a

일 실시 예에서, 제1 본체(110) 및 제2 본체(120)에는 서로 다른 구성이 포함될 수 있다. 예를 들어, 제1 본체(110) 및 제2 본체(120)는 각각 거울, 디스플레이, 하나 이상의 화장품을 포함하는 팔레트 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다.In an embodiment, different components may be included in the first body 110 and the second body 120. For example, the first body 110 and the second body 120 may each include at least one of a mirror, a display, and a palette including one or more cosmetics, but are not limited thereto.

또한, 제1 본체(110) 및 제2 본체(120) 중 적어도 하나는 양면으로 구성될 수 있으며, 양면에 각각 거울, 디스플레이, 하나 이상의 화장품을 포함하는 팔레트 중 적어도 하나를 포함할 수 있다.In addition, at least one of the first body 110 and the second body 120 may be configured on both sides, and each may include at least one of a mirror, a display, and a palette including one or more cosmetics on both sides.

또한, 제1 본체(110) 및 제2 본체(120)는 상호 틸팅(펼침) 및 스위블(회전) 가능하게 결합될 수 있다.In addition, the first body 110 and the second body 120 may be coupled to each other so as to be able to tilt (unfold) and swivel (rotate).

도 2는 사용자 단말에 IoT 뷰티 디바이스가 결합된 일 예를 도시한 도면이다.2 is a diagram illustrating an example in which an IoT beauty device is coupled to a user terminal.

도 2를 참조하면, 사용자 단말(200)의 후면에 IoT 뷰티 디바이스(100)가 결합되어 있다. IoT 뷰티 디바이스(100)는 제1 본체(110) 및 제2 본체(120)가 힌지(130)로 결합되어 접고 펼침이 가능한 구조로 구성되며, 일 측면이 사용자 단말(200)의 후면과 결합될 수 있다.Referring to FIG. 2, the IoT beauty device 100 is coupled to the rear of the user terminal 200. The IoT beauty device 100 has a structure in which the first body 110 and the second body 120 are combined with a hinge 130 to be folded and unfolded, and one side of the IoT beauty device 100 is combined with the rear surface of the user terminal 200. I can.

사용자 단말(200)의 후면에 IoT 뷰티 디바이스(100)가 결합되는 방법은 제한되지 않으며, 적어도 하나의 접착수단 또는 적어도 하나의 끼움결합 수단이 사용될 수 있으나, 이에 제한되는 것은 아니다.A method of coupling the IoT beauty device 100 to the rear surface of the user terminal 200 is not limited, and at least one adhesive means or at least one fitting means may be used, but is not limited thereto.

도 3은 사용자 단말의 후면에 장착된 IoT 뷰티 디바이스가 사용자 단말을 지지하는 일 예를 도시한 도면이다.3 is a diagram illustrating an example in which an IoT beauty device mounted on a rear surface of a user terminal supports a user terminal.

일 실시 예에서, IoT 뷰티 디바이스(100)는 적어도 하나의 절첩가능한 결합수단(140)을 이용하여 사용자 단말(200)과 결합된다.In one embodiment, the IoT beauty device 100 is coupled to the user terminal 200 using at least one foldable coupling means 140.

예를 들어, IoT 뷰티 디바이스(100)는 하나 이상의 힌지를 포함하는 결합수단(140)을 이용하여 사용자 단말(200)과 결합되고, 결합수단(140)을 펼침으로써 IoT 뷰티 디바이스(100)가 사용자 단말(200)을 지지할 수 있다.For example, the IoT beauty device 100 is coupled to the user terminal 200 using a coupling means 140 including one or more hinges, and the IoT beauty device 100 is opened by opening the coupling means 140 The terminal 200 can be supported.

즉, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 절첩가능하게 결합됨으로써, 펼침 상태에서 사용자 단말(200)을 지지하는 거치대로서 이용될 수 있다.That is, the IoT beauty device 100 may be collapsible with the user terminal 200, and thus may be used as a cradle supporting the user terminal 200 in an unfolded state.

도 4는 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 일 예를 도시한 도면이다.4 is a diagram illustrating an example of an unfolded state of the first body in the embodiment shown in FIG. 3.

도 4를 참조하면, 도 3에 도시된 실시예에서 IoT 뷰티 디바이스(100)의 제1 본체(110)가 사용자 단말(200)과 유사한 각도로 펼쳐져 있다. 예를 들어, 제2 본체(120)는 사용자 단말(200)을 지지하기 위하여 이용되고, 제1 본체(110)의 일 측면에는 거울, 팔레트 또는 디스플레이가 구비되어, 사용자가 사용자 단말(200)의 화면을 보면서 제1 본체(110)에 구비된 거울, 팔레트 또는 디스플레이를 이용하도록 구성될 수 있다.Referring to FIG. 4, in the embodiment shown in FIG. 3, the first body 110 of the IoT beauty device 100 is unfolded at an angle similar to that of the user terminal 200. For example, the second body 120 is used to support the user terminal 200, and a mirror, a pallet, or a display is provided on one side of the first body 110 so that the user It may be configured to use a mirror, a pallet, or a display provided in the first body 110 while viewing the screen.

도 5는 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 다른 일 예를 도시한 도면이다.FIG. 5 is a view showing another example of an unfolded state of the first body in the embodiment shown in FIG. 3.

도 5를 참조하면, 제1 본체(110)가 지면으로부터 수직하거나 그와 유사한 각도로 펼쳐진 일 예가 도시되어 있다.Referring to FIG. 5, there is shown an example in which the first body 110 is unfolded vertically from the ground or at an angle similar thereto.

이 경우, 제2 본체(120)의 일 측면과, 제1 본체(110)의 상기 제2 본체(120)의 일 측면과 마주보는 방향에 각각 거울, 팔레트 및 디스플레이 중 적어도 하나가 구비될 수 있다.In this case, at least one of a mirror, a pallet, and a display may be provided in a direction facing one side of the second body 120 and one side of the second body 120 of the first body 110, respectively. .

또한, 제1 본체(110)의 다른 일 측면에도 거울, 팔레트 및 디스플레이 중 적어도 하나가 구비될 수 있다.In addition, at least one of a mirror, a pallet, and a display may be provided on the other side of the first body 110.

사용자는 사용자 단말(200)의 전면 방향에서 사용자 단말(200)의 화면과 제1 본체(110)의 사용자 단말(200)방향에 구비된 거울, 팔레트 또는 디스플레이를 함께 이용할 수 있다. 또한, 사용자는 사용자 단말(200)의 후면 방향에서 제1 본체(110) 및 제2 본체(120)의 일 측면에 각각 구비된 거울, 팔레트 또는 디스플레이를 함께 이용할 수 있다.The user may use the screen of the user terminal 200 in the front direction of the user terminal 200 and a mirror, pallet, or display provided in the direction of the user terminal 200 of the first body 110 together. In addition, the user may use a mirror, a pallet, or a display respectively provided on one side of the first body 110 and the second body 120 in the rear direction of the user terminal 200.

도 6은 도 3에 도시된 실시예에서 제1 본체를 펼친 상태의 또 다른 일 예를 도시한 도면이다.6 is a view showing another example of a state in which the first body is unfolded in the embodiment shown in FIG. 3.

도 6을 참조하면, 제1 본체(110)가 제2 본체(120)와 유사한 각도로 펼쳐져 있는 일 예가 도시되어 있다.Referring to FIG. 6, an example in which the first body 110 is unfolded at an angle similar to that of the second body 120 is shown.

이 경우, 제2 본체(120)의 일 측면과, 제1 본체(110)의 상기 제2 본체(120)의 일 측면과 마주보는 방향에 각각 거울, 팔레트 및 디스플레이 중 적어도 하나가 구비될 수 있다.In this case, at least one of a mirror, a pallet, and a display may be provided in a direction facing one side of the second body 120 and one side of the second body 120 of the first body 110, respectively. .

사용자는 사용자 단말(200)의 후면 방향에서 제1 본체(110) 및 제2 본체(120)의 일 측면에 각각 구비된 거울, 팔레트 또는 디스플레이를 함께 이용할 수 있다.The user may use a mirror, a pallet, or a display respectively provided on one side of the first body 110 and the second body 120 in the rear direction of the user terminal 200.

도 7은 일 실시 예에 따라 회전부를 포함하는 IoT 뷰티 디바이스를 도시한 도면이다.7 is a diagram illustrating an IoT beauty device including a rotating part according to an exemplary embodiment.

도 7을 참조하면, IoT 뷰티 디바이스(100)는 제1 본체(110)를 회전시킬 수 있는 회전부(150)를 더 포함한다.Referring to FIG. 7, the IoT beauty device 100 further includes a rotating part 150 capable of rotating the first body 110.

회전부(150)는 도 7에 도시된 형태와 같이 힌지(130)와 별도로 구비되어, 제1 본체(110)와 회전가능한 연결부재로 연결될 수 있다. 다른 예로, 회전부(150)는 제1 본체(110)와 제2 본체(120)가 상호 틸팅(펼침) 및 스위블(회전) 가능하게 결합되도록 하는 볼 형태의 피벗 힌지를 포함할 수도 있다.The rotating part 150 is provided separately from the hinge 130 as shown in FIG. 7, and may be connected to the first body 110 by a rotatable connecting member. As another example, the rotation unit 150 may include a ball-shaped pivot hinge that allows the first body 110 and the second body 120 to be mutually tilted (unfolded) and swiveled (rotated).

따라서, 제1 본체(110)의 제1 면(112) 및 제2 면(114)을 포함하는 양면에 구비된 거울, 팔레트 또는 디스플레이가 제1 본체(110)의 회전에 따라 각각 양면에서 선택적으로 이용될 수 있다.Accordingly, mirrors, pallets, or displays provided on both sides including the first side 112 and the second side 114 of the first body 110 are selectively selected from both sides according to the rotation of the first body 110. Can be used.

도 8은 도 7에 도시된 실시 예에 따라 제1 본체가 회전되는 일 예를 도시한 도면이다.8 is a diagram illustrating an example in which a first body is rotated according to the embodiment shown in FIG. 7.

도 8에 도시된 바와 같이, 제1 본체(110)는 회전부(150)를 통하여 회전가능하며, 제1 면(112) 및 제2 면(114)이 각각 사용자 단말(200)의 전면 방향과 후면 방향에서 선택적으로 이용될 수 있다.As shown in Figure 8, the first body 110 is rotatable through the rotating unit 150, the first surface 112 and the second surface 114, respectively, the front direction and the rear of the user terminal 200 Can be used selectively in the direction.

이하에서는, IoT 뷰티 디바이스(100)를 이용하여 인공지능 화장보조 서비스를 제공하는 일 예를 도 9 내지 도 12를 참조하여 설명한다. Hereinafter, an example of providing an artificial intelligence makeup assistant service using the IoT beauty device 100 will be described with reference to FIGS. 9 to 12.

인공지능 기술은 머신러닝(Machine Learning, 기계학습) 기술을 포함하며, 머신러닝 기술 중에서도 특히 영상을 분석하는 데 널리 이용되는 딥러닝(Deep Learning) 기술을 포함한다.Artificial intelligence technology includes machine learning (machine learning) technology, and among machine learning technology, it includes deep learning technology, which is particularly widely used to analyze images.

딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Deep learning is a set of machine learning algorithms that attempts high-level abstractions (summarizing key contents or functions in a large amount of data or complex data) through a combination of several nonlinear transducers. Is defined. Deep learning can be seen as a branch of machine learning that teaches computers how people think in a large framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is any data, it is represented in a form that can be understood by a computer (for example, in the case of an image, pixel information is expressed as a column vector, etc.) and a lot of research (how to do better) to apply it to learning. How to create representation techniques and how to create models to learn them) is in progress. As a result of these efforts, various deep learning techniques have been developed. Examples of deep learning techniques include Deep Neural Networks (DNN), Convolutional deep Neural Networks (CNN), Reccurent Neural Networks (RNN), and Deep Belief Networks (DBN). have.

심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Deep Neural Networks (DNNs) are artificial neural networks (ANNs) composed of a plurality of hidden layers between an input layer and an output layer.

이하에서는, 인공지능을 이용하여 사용자에게 최적화된 화장보조 정보를 제공하는 화장보조 서비스를 구체적으로 설명한다.Hereinafter, a makeup assistance service that provides optimized makeup assistance information to a user using artificial intelligence will be described in detail.

도 9 내지 도 12와 관련하여 설명되는 IoT 뷰티 디바이스(100)는 도 2 내지 도 8과 관련하여 설명된 구조로 구성될 수 있으나, 이에 제한되지 않으며, 필요에 따라 다양한 형태의 IoT 뷰티 디바이스(100)가 선택 및 이용될 수 있다.The IoT beauty device 100 described with reference to FIGS. 9 to 12 may be configured in the structure described with respect to FIGS. 2 to 8, but is not limited thereto, and various types of IoT beauty device 100 as needed. ) Can be selected and used.

또한, 도 9 내지 도 12와 관련하여 설명되는 화장보조 서비스를 제공하는 방법은 사용자 단말(200)의 처리 및 제어에 의하여 수행될 수 있으나, 다른 실시 예에 따르면 화장보조 서비스는 하나 이상의 프로세서, 네트워크 통신모듈 및 디스플레이를 포함하는 뷰티 디바이스(100)에 의하여 독립적으로 수행될 수도 있다.In addition, the method of providing a makeup assistance service described in connection with FIGS. 9 to 12 may be performed by processing and control of the user terminal 200, but according to another embodiment, the makeup assistance service may include one or more processors and a network. It may be independently performed by the beauty device 100 including a communication module and a display.

이하에서는, 뷰티 디바이스(100)가 사용자 단말(200)과 결합되어 이용되는 방법에 대해서 구체적으로 설명한다. 하지만, 사용자 단말(200)의 프로세서, 네트워크 통신모듈 및 디스플레이는 뷰티 디바이스(100)에 독립적으로 각각 구비된 프로세서, 네트워크 통신모듈 및 디스플레이로 대체될 수 있다.Hereinafter, a method of using the beauty device 100 in combination with the user terminal 200 will be described in detail. However, the processor, the network communication module, and the display of the user terminal 200 may be replaced with a processor, a network communication module, and a display independently provided in the beauty device 100.

도 9(a)는 개시된 실시 예에 따른 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법의 일 예를 도시한 도면이다. 도 9(a)는 IoT 뷰티 디바이스과 사용자 단말이 분리되어 서로 연동될 수 있음을 도시한 도면이다.9A is a diagram illustrating an example of a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to the disclosed embodiment. 9(a) is a diagram showing that an IoT beauty device and a user terminal can be separated and interlocked with each other.

도 9(b)는 개시된 실시 예에 따른 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법의 일 예를 도시한 도면이다. 9(b) is a diagram illustrating an example of a method of providing an artificial intelligence makeup assistant service using an IoT beauty device according to the disclosed embodiment.

도 9(a)를 참조하면, 사용자 단말(200)의 전면부와 IoT 뷰티 디바이스(100)의 제1 본체(110)의 제1 면(112)이 도시되어 있다. Referring to FIG. 9A, a front portion of the user terminal 200 and a first surface 112 of the first body 110 of the IoT beauty device 100 are illustrated.

도 9(b)를 참조하면, 디스플레이를 포함하는 제2 본체(120)와 IoT 뷰티 디바이스(100)의 제1 본체(110)의 제1 면(112)이 도시되어 있다. 이하에서 도 9(a)와 관련하여 사용자 단말(200)이 수행하는 것으로 설명되는 내용은 도 9(b)의 제2 본체(120)에 의하여 동일하게 수행될 수 있다. 즉, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 연결되어 사용될 수도 있고, 사용자 단말(200) 없이 독립적으로도 개시된 실시 예를 수행할 수 있다.Referring to FIG. 9B, a second body 120 including a display and a first surface 112 of the first body 110 of the IoT beauty device 100 are illustrated. Hereinafter, the contents described as being performed by the user terminal 200 with respect to FIG. 9(a) may be similarly performed by the second body 120 of FIG. 9(b). That is, the IoT beauty device 100 may be used in connection with the user terminal 200 or may independently perform the disclosed embodiment without the user terminal 200.

도 9에 도시된 실시 예에서, 제1 본체(110)의 제1 면(112)에는 하나 이상의 화장품을 포함하는 팔레트(170)가 구비된다. 팔레트(170)에 포함되는 화장품의 종류는 제한되지 않으며, 다양한 색조 화장품과 기초 화장품 등이 포함될 수 있다.In the embodiment illustrated in FIG. 9, a pallet 170 including one or more cosmetics is provided on the first surface 112 of the first body 110. The types of cosmetics included in the palette 170 are not limited, and various color cosmetics and basic cosmetics may be included.

일 실시 예에서, 사용자 단말(200)의 전면부에는 하나 이상의 카메라(210)가 구비될 수 있다. 일 실시 예에서, 제1 본체(110)의 제1 면(112)에는 하나 이상의 센서(160)가 구비될 수 있다. 센서(160)는 이미지 센서를 포함할 수 있으며, 사용자 단말(200)의 제어에 따라 발광하는 발광부가 포함될 수 있다.In one embodiment, one or more cameras 210 may be provided on the front side of the user terminal 200. In an embodiment, one or more sensors 160 may be provided on the first surface 112 of the first body 110. The sensor 160 may include an image sensor, and a light emitting unit that emits light under the control of the user terminal 200 may be included.

도 1과 관련하여 설명한 바와 같이, 사용자 단말(200)과 IoT 뷰티 디바이스(100)는 블루투스를 이용하여 통신할 수 있으며, 그 외에도 다양한 근거리 무선통신, 유선통신 및 네트워크를 통한 통신방법이 사용자 단말(200)과 IoT 뷰티 디바이스(100)의 통신에 사용될 수 있다.As described in connection with FIG. 1, the user terminal 200 and the IoT beauty device 100 can communicate using Bluetooth, and in addition, various short-range wireless communication, wired communication, and communication methods through a network are also provided by the user terminal ( 200) and the IoT beauty device 100 may be used for communication.

일 실시 예에서, 센서(160) 및 카메라(210)중 적어도 하나는, 사용자에 대한 정보를 수집하는 데 이용된다.In one embodiment, at least one of the sensor 160 and the camera 210 is used to collect information about the user.

예를 들어, 센서(160) 및 카메라(210)중 적어도 하나는, 사용자의 얼굴 모양과 피부상태에 대한 정보를 수집하는 데 이용된다. 예를 들어, 수집되는 정보는 사용자의 이목구비 형태와, 사용자의 피부색(피부톤), 피부성질(예를 들어, 건성, 지성, 복합성 등) 및 기타 사용자 피부의 특이사항(예를 들어, 트러블이나 상처 등)과 관련된 정보를 수집한다.For example, at least one of the sensor 160 and the camera 210 is used to collect information on the user's face shape and skin condition. For example, the information collected includes the user's appearance and features, the user's skin color (skin tone), skin characteristics (e.g., dry, oily, complex, etc.), and other peculiarities of the user's skin (e.g., trouble or wound). Etc.).

사용자 단말(200)은 수집된 정보에 기초하여 사용자의 화장을 보조하는 정보를 출력한다. 예를 들어, 사용자 단말(200)은 사용자의 피부색과 피부성질에 잘 맞는 화장법과 관련된 영상을 획득하여, 재생할 수 있다. The user terminal 200 outputs information that assists the user's makeup based on the collected information. For example, the user terminal 200 may acquire and reproduce an image related to a makeup method that suits the user's skin color and skin properties.

예를 들어, 사용자 단말(200)은 사용자의 피부색 및 피부성질과 유사한 화장 개인방송 BJ의 유투브 화장영상을 검색 및 재생할 수 있다. 다른 예로, 사용자 단말(200)은 사용자의 피부색 및 피부성질과 유사한 사람을 대상으로 하는 유투브 화장영상을 검색 및 재생할 수 있다.For example, the user terminal 200 may search and reproduce a YouTube makeup image of a personal makeup broadcast BJ similar to the user's skin color and skin properties. As another example, the user terminal 200 may search and play a YouTube makeup image targeting a person similar to the user's skin color and skin properties.

일 실시 예에서, 사용자 단말(200)은 사용자의 피부색 및 피부성질과 유사한 BJ의 영상 또는 그와 관련된 정보를 제공하는 영상을 검색하되, 검색된 영상들을 소정의 기준에 따라 필터링하거나, 평가하여 최적의 영상을 제공할 수 있다.In one embodiment, the user terminal 200 searches for an image of a BJ similar to the user's skin color and skin properties, or an image that provides information related thereto, and filters or evaluates the searched images according to a predetermined criterion. Video can be provided.

예를 들어, 사용자 단말(200)은 사용자의 피부색 및 피부성질과 유사한 BJ의 영상 또는 그와 관련된 정보를 제공하는 영상들 중 가장 구독수, 팔로워 수, 공감 수, 좋아요 수 등 해당 영상의 인기도 또는 영향력을 평가하여, 가장 인기도 또는 영향력이 높은 것으로 판단되는 영상을 선택하여 제공할 수 있다.For example, the user terminal 200 is the popularity of the video, such as the number of subscriptions, the number of followers, the number of sympathies, the number of likes, among the videos of the BJ that are similar to the user's skin color and skin characteristics, or videos that provide information related thereto. By evaluating the influence, it is possible to select and provide the video judged to have the most popularity or the highest influence.

또한, 사용자 단말(200)은 각 영상의 인기도 또는 영향력에 따른 점수를 부여하고, 각 영상에 등장하는 모델과 사용자의 얼굴형태, 피부색 및 피부상태의 유사성에 따른 점수를 부여하여, 총 점수가 가장 높은 영상을 사용자에게 제공할 수 있다.In addition, the user terminal 200 assigns a score according to the popularity or influence of each image, and assigns a score according to the similarity between the model appearing in each image and the user's face shape, skin color, and skin condition, so that the total score is the most. Higher images can be provided to users.

사용자 단말(200)이 각 영상을 평가함에 있어, 각 영상의 인기도나 영향력, 그리고 각 영상과 사용자가 매칭되는 정도에 각각 가중치를 부여하고, 가중치가 반영된 점수를 산출 및 제공할 수 있다.When the user terminal 200 evaluates each image, a weight is assigned to the popularity or influence of each image, and the degree of matching between each image and a user, and a score reflecting the weight may be calculated and provided.

가중치는 자동으로 부여될 수도 있고, 사용자의 선택에 따라 서로 다르게 설정될 수도 있다. 예를 들어, 사용자는 자신과 매칭수준이 조금 떨어지더라도 더 유명하고 인기있는 영상을 보고자 할 수도 있고, 상대적으로 인지도가 떨어지더라도 자신과 가장 잘 매칭되는 영상을 보고자 할 수도 있다.The weight may be automatically assigned or may be set differently according to the user's selection. For example, a user may want to see a more famous and popular video even if the matching level with him is slightly lower, or may want to see a video that best matches his/her own even if the level of recognition is relatively low.

따라서, 사용자 단말(200)은 이를 고려하여 자동으로 영상을 추천하거나, 사용자의 선택에 따라 평가항목별로 상이한 가중치를 부여하여 점수를 산출하고, 산출된 점수에 따라 영상을 추천할 수 있다.Accordingly, the user terminal 200 may automatically recommend an image in consideration of this, or calculate a score by assigning a different weight to each evaluation item according to the user's selection, and recommend the image according to the calculated score.

상기한 개인방송, BJ 및 유투브 등과 관련된 예시는 이해를 돕기 위한 예로서 제시된 것으로, 본 발명의 범위는 이에 제한되지 않음은 물론이다.Examples related to the above personal broadcasting, BJ and YouTube are presented as examples to aid understanding, and the scope of the present invention is of course not limited thereto.

일 실시 예에서, 사용자 단말(200)은 사용자의 피부색과 피부성질을 대상으로 구성된 화장보조 정보를 획득한다. 예를 들어, 화장보조 정보는 사용자에게 잘 맞는 화장품의 종류, 화장순서 및 각 순서에 따른 구체적인 화장방법을 포함한다.In an embodiment, the user terminal 200 acquires makeup assistance information configured for the user's skin color and skin properties. For example, the makeup aid information includes a type of cosmetic product suitable for a user, a makeup order, and a specific makeup method according to each procedure.

일 실시 예에서, 사용자 단말(200)은 사용자의 동작 및 사용자가 손에 들고 있는 도구를 인식하여, 사용자가 어떤 화장을 하려고 하는지 인식할 수 있다. 예를 들어, 사용자 단말(200)은 사용자가 손에 립스틱을 들고 입술 방향으로 움직이는 동작을 인식하면, 립스틱을 이용하여 화장하는 화장보조 영상을 재생할 수 있다.In an embodiment, the user terminal 200 may recognize a user's motion and a tool held by the user, and recognize which makeup the user intends to wear. For example, if the user terminal 200 recognizes a motion of the user holding a lipstick in his hand and moving in the direction of the lips, the user terminal 200 may reproduce a make-up auxiliary image using the lipstick.

일 실시 예에서, IoT 뷰티 디바이스(100)는 제1 본체(110)의 펼침 동작이 인식되는 경우, 사용자 단말(200)에 알림 정보를 제공할 수 있다.In an embodiment, the IoT beauty device 100 may provide notification information to the user terminal 200 when the unfolding motion of the first body 110 is recognized.

사용자 단말(200)은 IoT 뷰티 디바이스(100)로부터 수신되는 정보에 기초하여 IoT 뷰티 디바이스(100)의 열림을 인식하고, 자동으로 인공지능 화장보조 서비스를 실행할 수 있다. 예를 들어, 인공지능 화장보조 서비스를 제공하는 애플리케이션을 실행할 수 있다.The user terminal 200 may recognize the opening of the IoT beauty device 100 based on information received from the IoT beauty device 100 and automatically execute an artificial intelligence makeup assistant service. For example, you can run an application that provides artificial intelligence makeup assistance services.

따라서, 사용자는 별도로 인공지능 화장보조 서비스를 실행시킬 필요 없이, IoT 뷰티 디바이스(100)를 펼쳐서 여는 동작만으로 인공지능 화장보조 서비스를 실행시킬 수 있다.Accordingly, the user can execute the artificial intelligence makeup assistance service only by opening and opening the IoT beauty device 100 without having to separately execute the artificial intelligence makeup assistance service.

사용자는 사용자 단말(200)을 통해 제공되는 인공지능 화장보조 서비스를 이용하여 화장을 수행할 수 있다.The user may perform makeup using an artificial intelligence makeup assistant service provided through the user terminal 200.

일 실시 예에서, 사용자가 화장을 수행하는 영상은 카메라(210)에 의해 촬영 및 저장될 수 있다. 일 실시 예에서, 사용자가 화장을 수행하는 영상은 서버(10)에 업로드될 수 있다.In an embodiment, an image of a user performing makeup may be photographed and stored by the camera 210. In an embodiment, an image of a user performing makeup may be uploaded to the server 10.

일 실시 예에서, 사용자가 화장을 수행하는 영상은 서버(10)를 통해 소셜 네트워크 서비스에 공유될 수 있다. 다른 실시 예에서, 사용자가 화장을 수행하는 영상은 서버(10)의 데이터베이스에 저장되고, 다양한 사용자들이 화장을 수행하는 영상은 서버(10)에 의하여 빅 데이터로서 관리될 수 있다.In an embodiment, an image of a user performing makeup may be shared to a social network service through the server 10. In another embodiment, an image in which a user performs makeup may be stored in a database of the server 10, and an image in which various users perform makeup may be managed as big data by the server 10.

서버(10)는 데이터베이스에 저장된, 사용자들이 화장을 수행하는 영상을 서로 다른 사용자에게 화장을 돕기 위하여 제공할 수 있다. 또한, 서버(10)는 데이터베이스에 저장된, 사용자들이 화장을 수행하는 영상을 이용하여 사용자의 얼굴모양, 피부색 및 피부상태에 따른 화장방법을 학습하고, 향후 사용자의 얼굴모양, 피부색 및 피부상태에 따라 최적화된 화장방법을 제공할 수 있다.The server 10 may provide images of users performing make-up, stored in a database, to different users to help make-up. In addition, the server 10 learns makeup methods according to the user's face shape, skin color, and skin condition by using images stored in the database, which users perform makeup, and in the future, according to the user's face shape, skin color, and skin condition. It can provide an optimized cosmetic method.

IoT 뷰티 디바이스(100)는 팔레트 안의 내용물을 리필(refill)할 수 있다. IoT 뷰티 디바이스(100)를 통해 사용자는 매번 새로운 제품으로 내용물의 교체가 가능할 수 있다.The IoT beauty device 100 may refill the contents in the pallet. Through the IoT beauty device 100, a user can replace the contents with a new product every time.

리필에 사용될 수 있는 대상체는 QR코드 또는 바코드와 같은 특정 표식을 포함할 수 있으나, 이에 한정되는 것은 아니며 모바일 기기가 인식할 수 있는 특정 표식을 포함할 수 있다. IoT 뷰티 디바이스(100)가 특정 표식을 인식하게 되면 해당 리필의 대상이 되는 제품 관련 컨텐츠를 자동으로 모바일 전화기 화면에 제공할 수 있다. 해당 리필의 대상이 되는 제품 관련 컨텐츠는 지속적으로 업데이트 될 수 있다. 즉, 리필의 대상이 되는 제품 관련 컨텐츠는 User Created Contents 및 마케팅/광고 컨텐츠를 모두 포할 수 있다.The object that can be used for refill may include a specific mark such as a QR code or a barcode, but is not limited thereto and may include a specific mark that can be recognized by a mobile device. When the IoT beauty device 100 recognizes a specific mark, content related to a product to be refilled may be automatically provided on the mobile phone screen. Contents related to products subject to the refill may be continuously updated. That is, the product-related content subject to refill may include both User Created Contents and marketing/advertising content.

또한 상기 기술한 특정 표식은 서버(10)와 연동되어 있어 사용자가 제작한 표식만 인식할 수 있게 함으로써 유사품 및 복제품의 판매를 방지할 수 있다.In addition, since the above-described specific mark is interlocked with the server 10, only the mark made by the user can be recognized, thereby preventing the sale of similar products and duplicates.

도 10(a)는 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 사용자의 화장단계에 대응하는 화장보조 정보를 제공하는 방법을 도시한 도면이다. 도 10(a)는 IoT 뷰티 디바이스과 사용자 단말이 분리되어 서로 연동될 수 있음을 도시한 도면이다.FIG. 10A is a diagram illustrating a method of providing makeup assistance information corresponding to a user's makeup step using an IoT beauty device and a user terminal according to an embodiment. 10(a) is a diagram showing that the IoT beauty device and the user terminal can be separated and interlocked with each other.

도 10(b)는 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 사용자의 화장단계에 대응하는 화장보조 정보를 제공하는 방법을 도시한 도면이다. 10B is a diagram illustrating a method of providing makeup assistance information corresponding to a user's makeup step using an IoT beauty device according to an embodiment.

도 10(a)를 참조하면, 도 9(a)와 마찬가지로 사용자 단말(200) 및 제1 본체(110)에 구비된 팔레트(170)가 도시되어 있다.Referring to FIG. 10(a), as in FIG. 9(a), the user terminal 200 and the pallet 170 provided in the first body 110 are illustrated.

도 10(b)를 참조하면, 도 9(b)와 마찬가지로 제2 본체(120) 및 제1 본체(110)에 구비된 팔레트(170)가 도시되어 있다.Referring to FIG. 10(b), as in FIG. 9(b), the second body 120 and the pallet 170 provided in the first body 110 are shown.

이하에서 도 10(a)와 관련하여 사용자 단말(200)이 수행하는 것으로 설명되는 내용은 도 10(b)의 제2 본체(120)에 의하여 동일하게 수행될 수 있다. 즉, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 연결되어 사용될 수도 있고, 사용자 단말(200) 없이 독립적으로도 개시된 실시 예를 수행할 수 있다.Hereinafter, the contents described as being performed by the user terminal 200 with respect to FIG. 10(a) may be similarly performed by the second body 120 of FIG. 10(b). That is, the IoT beauty device 100 may be used in connection with the user terminal 200 or may independently perform the disclosed embodiment without the user terminal 200.

일 실시 예에서, 사용자 단말(200)은 카메라(210)를 이용한 이미지 분석을 통하여 사용자의 화장단계를 판단하고, 사용자의 화장단계에 대응하는 화장보조 정보를 제공한다.In one embodiment, the user terminal 200 determines the user's makeup step through image analysis using the camera 210 and provides makeup assistance information corresponding to the user's makeup step.

예를 들어, 사용자 단말(200)은 사용자가 브러쉬(30)를 들고 있는 경우, 사용자가 브러쉬(30)를 이용한 화장을 할 것이라고 판단하며, 브러쉬(30)를 이용하는 화장방법을 표시할 수 있다For example, when the user holds the brush 30, the user terminal 200 determines that the user will do makeup using the brush 30, and may display a makeup method using the brush 30.

일 실시 예에서, 사용자 단말(200)에 표시되는 영상은 기존에 촬영된 화장방법과 관련된 영상일 수도 있고, 서버(10)의 학습에 의하여 자동으로 생성된, 사용자의 얼굴모양, 피부색 및 피부상태에 기초하여 최적화된 화장방법을 알려주는 영상일 수도 있다. 일 실시 예에서, 최적화된 화장방법을 알려주는 영상은 2D 애니메이션 또는 3D 렌더링을 통하여 생성 및 표시되거나, 증강현실 형태로 표시될 수도 있다. 이 경우, 사용자 단말(200)은 인식된 브러쉬(30)에 대응하는 가상의 브러쉬(32)를 화면에 표시할 수 있다.In one embodiment, the image displayed on the user terminal 200 may be an image related to an existing makeup method, or automatically generated by learning of the server 10, the user's face shape, skin color, and skin condition. It may be a video that informs you of an optimized makeup method based on. In an embodiment, an image indicating an optimized makeup method may be generated and displayed through 2D animation or 3D rendering, or may be displayed in the form of augmented reality. In this case, the user terminal 200 may display a virtual brush 32 corresponding to the recognized brush 30 on the screen.

사용자 단말(200)은 인식된 브러쉬(30)의 위치가 반영된 영상을 표시하고, 해당 위치에서 브러쉬를 어느 방향으로 어떻게 움직여야 하는지에 대한 팁을 제공할 수 있다.The user terminal 200 may display an image in which the position of the recognized brush 30 is reflected, and may provide a tip for how and in which direction the brush should be moved at the corresponding position.

일 실시 예에서, IoT 뷰티 디바이스(100)는 팔레트(170)의 특정 화장품(172)에 브러쉬(30)가 접촉하는 것을 감지할 수 있다. 예를 들어, 팔레트(170)에는 하나 이상의 센서가 구비되어, 브러쉬(30)가 접촉한 화장품(172)에 대한 정보를 획득할 수 있다.In one embodiment, the IoT beauty device 100 may detect that the brush 30 contacts a specific cosmetic 172 of the palette 170. For example, one or more sensors may be provided on the palette 170 to obtain information on the cosmetics 172 contacted by the brush 30.

IoT 뷰티 디바이스(100)는 브러쉬(30)가 접촉한 화장품의 종류, 특성 및 색상 등과 관련한 정보를 사용자 단말(200)에 전송한다. 사용자 단말(200)은 수신된 정보에 기초하여 가상의 브러쉬(32)에 화장품(172)에 대응하는 속성의 화장품이 발라져 있는 것으로 판단하고, 사용자의 움직임에 따라 가상의 영상에 화장품(172)에 대응하는 속성의 화장품이 칠해진 영상을 표시할 수 있다.The IoT beauty device 100 transmits information related to the type, characteristic, and color of cosmetics that the brush 30 has contacted to the user terminal 200. Based on the received information, the user terminal 200 determines that cosmetics having properties corresponding to the cosmetics 172 are applied to the virtual brush 32, and applies the cosmetics 172 to the virtual image according to the user's movement. It is possible to display an image painted with cosmetics with corresponding attributes.

일 실시 예에서, 사용자 단말(200)은 사용자의 모습을 촬영한 영상을 표시하고, 화장보조 영상을 이와 결합한 증강현실 형태로 제공할 수 있다.In an embodiment, the user terminal 200 may display an image photographed of the user's image and provide a makeup aid image in the form of an augmented reality combined with the image.

사용자 단말(200)은 IoT 뷰티 디바이스(100)에서 화장품(172)이 선택된 정보를 획득하면, 화장품(172)에 대응하는 색상 및 속성에 따라 화장품을 바르기 적합한 위치, 방향, 강도 및 순서와 관련된 정보를 제공할 수 있다.When the user terminal 200 acquires the information selected by the cosmetics 172 from the IoT beauty device 100, information related to the appropriate location, direction, intensity, and order to apply the cosmetics according to the color and properties corresponding to the cosmetics 172 Can provide.

예를 들어, 사용자 단말(200)은 화장품(172)의 색상 및 종류에 따라, 증강현실을 통해 사용자의 얼굴에 화장품(172)이 이미 칠해진 형태의 영상을 표시할 수 있다.For example, the user terminal 200 may display an image in a form in which the cosmetics 172 is already painted on the user's face through augmented reality according to the color and type of the cosmetics 172.

또한, 사용자 단말(200)은 영상과 같이 화장품을 칠하기 위해서는 어떠한 위치, 방향, 강도 및 순서로 화장품을 칠해야 하는지에 대한 정보를 함께 제공할 수 있다.In addition, the user terminal 200 may also provide information on a position, direction, intensity, and order in which the cosmetics are to be painted in order to paint the cosmetics, such as an image.

사용자 단말(200)은 사용자가 실제로 화장품을 칠하는 것을 인식하고, 사용자가 제공된 정보에 따라 화장품을 칠하고 있는지 여부를 판단할 수 있다.The user terminal 200 may recognize that the user is actually painting cosmetics, and determine whether or not the user is painting cosmetics according to the provided information.

사용자 단말(200)은 사용자가 제공된 정보와 다르게 화장품을 칠하는 경우, 관련된 알림이나 경고를 제공하고, 이를 정정하기 위한 방법을 알려줄 수 있다.When the user paints cosmetics differently from the information provided by the user, the user terminal 200 may provide a related notification or warning, and inform a method for correcting this.

일 실시 예에서, 브러쉬(30)는 IoT 뷰티 디바이스(110) 또는 사용자 단말(200)과 연동될 수 있는 통신수단이 구비된 IoT 브러쉬일 수 있다. 사용자 단말(200)은 브러쉬의 위치 및 움직임을 인식하여 사용자가 화장을 어떻게 하고 있는지에 대한 정보를 획득할 수 있고, 이에 대응하는 화장보조 정보를 제공할 수 있다.In one embodiment, the brush 30 may be an IoT brush provided with a communication means capable of interworking with the IoT beauty device 110 or the user terminal 200. The user terminal 200 may acquire information on how the user is wearing makeup by recognizing the position and movement of the brush, and may provide makeup assistance information corresponding thereto.

도 11(a)는 다른 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다. 도 11(a)는 IoT 뷰티 디바이스과 사용자 단말이 분리되어 서로 연동될 수 있음을 도시한 도면이다.FIG. 11(a) is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to another embodiment. 11(a) is a diagram showing that an IoT beauty device and a user terminal can be separated and interlocked with each other.

도 11(b)는 다른 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다.11(b) is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device according to another embodiment.

이하에서 도 11(a)와 관련하여 사용자 단말(200)이 수행하는 것으로 설명되는 내용은 도 11(b)의 제2 본체(120)에 의하여 동일하게 수행될 수 있다. 즉, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 연결되어 사용될 수도 있고, 사용자 단말(200) 없이 독립적으로도 개시된 실시 예를 수행할 수 있다.Hereinafter, the contents described as being performed by the user terminal 200 with respect to FIG. 11(a) may be similarly performed by the second body 120 of FIG. 11(b). That is, the IoT beauty device 100 may be used in connection with the user terminal 200 or may independently perform the disclosed embodiment without the user terminal 200.

도 11을 참조하면, 사용자 단말(200)의 화면이 제1 화면(220) 및 제2 화면(230)으로 분할된 일 예가 도시되어 있다. 도 11을 참조하면, 사용자 단말(200)은 제1 화면(220)에 화장보조 영상을 표시하고, 제2 화면(230)에 카메라(210)를 통하여 촬영된 사용자의 영상을 표시한다. Referring to FIG. 11, an example in which the screen of the user terminal 200 is divided into a first screen 220 and a second screen 230 is illustrated. Referring to FIG. 11, the user terminal 200 displays a makeup aid image on a first screen 220 and a user's image captured through the camera 210 on a second screen 230.

사용자는 제2 화면(230)을 거울처럼 이용할 수 있고, 제1 화면(220)에 표시되는 화장보조 영상과 제2 화면(230)에 표시되는 자신의 영상을 비교하면서 화장을 할 수 있다.The user may use the second screen 230 as a mirror, and may apply makeup while comparing the makeup assistant image displayed on the first screen 220 with his own image displayed on the second screen 230.

일 실시 예에서, 사용자 단말(200)은 제1 화면(220)과 제2 화면(230)을 비교하여, 제2 화면(230)에 표시되는 사용자의 동작이 제1 화면(220)에 표시되는 화장보조 영상의 동작과 상이한 경우 알림을 제공하고, 제1 화면(220)에 표시되는 화장보조 영상의 동작과 어떤 부분이 상이한지 비교하여 표시할 수 있다.In one embodiment, the user terminal 200 compares the first screen 220 and the second screen 230, and the user's motion displayed on the second screen 230 is displayed on the first screen 220. When different from the operation of the makeup auxiliary image, a notification may be provided, and the operation of the makeup auxiliary image displayed on the first screen 220 may be compared and displayed.

사용자 단말(200)은 제1 화면(220)과 제2 화면(230) 사이에 차이점이 발견되는 경우, 제1 화면(220)의 화장보조 영상의 재생을 중지하거나 되감기하고, 동일한 구간을 다시 재생하거나 느리게 재생하여, 사용자가 잘못된 부분을 용이하게 다시 따라할 수 있도록 할 수 있다.When a difference is found between the first screen 220 and the second screen 230, the user terminal 200 stops or rewinds the reproduction of the makeup aid image on the first screen 220, and plays the same section again. Or slow playback, allowing the user to easily repeat the wrong part again.

도 12(a)는 또 다른 일 실시 예에 따라 IoT 뷰티 디바이스 및 사용자 단말을 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다. 도 12(a)는 IoT 뷰티 디바이스과 사용자 단말이 분리되어 서로 연동될 수 있음을 도시한 도면이다.12A is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device and a user terminal according to another embodiment. 12(a) is a diagram showing that an IoT beauty device and a user terminal can be separated and interlocked with each other.

도 12(b)는 또 다른 일 실시 예에 따라 IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 방법을 도시한 도면이다. 12(b) is a diagram illustrating a method of providing an artificial intelligence makeup assistant service using an IoT beauty device according to another embodiment.

이하에서 도 12(a)와 관련하여 사용자 단말(200)이 수행하는 것으로 설명되는 내용은 도 12(b)의 제2 본체(120)에 의하여 동일하게 수행될 수 있다. 즉, IoT 뷰티 디바이스(100)는 사용자 단말(200)과 연결되어 사용될 수도 있고, 사용자 단말(200) 없이 독립적으로도 개시된 실시 예를 수행할 수 있다.Contents described below as being performed by the user terminal 200 with respect to FIG. 12(a) may be performed in the same manner by the second body 120 of FIG. 12(b). That is, the IoT beauty device 100 may be used in connection with the user terminal 200 or may independently perform the disclosed embodiment without the user terminal 200.

도 12를 참조하면, IoT 뷰티 디바이스(100)의 제1 본체(110)의 일 측면은 거울 디스플레이를 포함한다.Referring to FIG. 12, one side of the first body 110 of the IoT beauty device 100 includes a mirror display.

일 실시 예에서, 거울 디스플레이는 거울을 이용하여 사용자의 모습을 반사하되, 거울의 후면에 디스플레이가 구비되거나, 거울의 전면에 투명 디스플레이가 구비되어, 사용자의 거울상에 영상을 중첩하여 표시할 수 있다.In one embodiment, the mirror display reflects the user's image using a mirror, but a display is provided on the rear of the mirror or a transparent display is provided on the front of the mirror, so that an image may be superimposed on the user's mirror and displayed .

다른 실시 예에서, 거울 디스플레이는 카메라를 이용하여 사용자의 모습을 촬영한 영상을 거울상으로 표시하고, 이에 다른 영상을 중첩하여 표시할 수 있다.In another embodiment, the mirror display may display an image of a user's image using a camera in a mirror image, and other images may be superimposed thereon.

일 실시 예에서, 제1 본체(110)에는 슬라이딩 방식으로 인출 가능한 팔레트(180)가 더 포함될 수 있다. 팔레트(180)가 제1 본체(110)로부터 인출되는 방법은 이에 제한되지 않으며, 제1 본체(110)와 분리된 별도의 팔레트가 이용될 수도 있다.In an embodiment, the first body 110 may further include a pallet 180 that can be pulled out in a sliding manner. The method in which the pallet 180 is withdrawn from the first body 110 is not limited thereto, and a separate pallet separated from the first body 110 may be used.

일 실시 예에서, 제1 본체(110)에는 사용자의 모습이 표시되고, 사용자 단말(200)에는 화장보조 영상이 표시된다.In one embodiment, a user's image is displayed on the first body 110 and a makeup assistant image is displayed on the user terminal 200.

일 실시 예에서, 사용자 단말(200)은 IoT 뷰티 디바이스(100)에 화장보조 정보를 제공하고, 제1 본체(110)는 사용자의 모습에 화장보조 정보를 중첩하여 표시할 수 있다.In an embodiment, the user terminal 200 may provide makeup assistance information to the IoT beauty device 100, and the first body 110 may display the makeup assistance information superimposed on the user's appearance.

도 12를 참조하면, 사용자의 선택에 따라, 또는 사용자 단말(200)에 의하여 자동으로 설정된 순서에 따라, 제1 본체(110)에 표시된 사용자의 모습에 화장보조 정보, 즉 화장방법을 알려주는 정보가 중첩되어 표시된다. Referring to FIG. 12, according to a user's selection or according to an order automatically set by the user terminal 200, makeup aid information, that is, information indicating a makeup method, on the appearance of the user displayed on the first body 110 Is displayed overlaid.

예를 들어, 제1 본체(110)에 표시된 사용자의 모습에 아이라인을 그리는 방법을 알려주는 정보가 중첩되어 표시될 수 있다.For example, information indicating how to draw an eyeline may be superimposed on the user's image displayed on the first body 110 and displayed.

일 실시 예에서, 화장보조 정보가 제공되는 부분은 확대되어 별도의 위치(40)에 표시될 수 있다.In one embodiment, the portion where the makeup auxiliary information is provided may be enlarged and displayed at a separate location 40.

사용자가 화장을 수행하는 영상과, 사용자가 제공되는 화장보조 정보에 따라 화장을 수행하는 영상, 사용자의 화장에 대한 평가, 사용자가 제공된 화장정보에 따라 화장을 수행하는지 여부에 대한 피드백 등 개시된 실시 예에 따른 인공지능 화장보조 서비스가 제공되는 과정에서 획득되는 정보들은 서버(10)에 의하여 빅 데이터로 저장된다.An image of a user performing makeup, an image of performing makeup according to the makeup aid information provided by the user, an evaluation of the user's makeup, feedback on whether the user performs makeup according to the provided makeup information, etc. Information obtained in the process of providing the artificial intelligence makeup assistant service according to the method is stored as big data by the server 10.

서버(10)는 저장된 빅 데이터를 이용하여 사용자의 얼굴 특성에 따른 최적화된 화장방법을 학습하고, 화장방법을 제공하는 방법에 있어 사용자가 쉽게 따라할 수 있도록 화장방법을 제공하는 방법을 학습할 수 있다.The server 10 can learn a method of providing a make-up method so that the user can easily follow the method of providing a make-up method and learn an optimized make-up method according to the characteristics of the user's face using the stored big data. have.

따라서, 개시된 실시 예에 따른 인공지능 화장보조 서비스는, 서비스가 제공됨에 따라 인공지능이 더욱 발전하는 방향으로 학습되어, 점차로 개선된 서비스를 제공할 수 있다. Accordingly, the artificial intelligence makeup assistance service according to the disclosed embodiment is learned in a direction in which artificial intelligence further develops as the service is provided, and thus, gradually improved services can be provided.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

10: 서버
100: IoT 뷰티 디바이스
200: 사용자 단말
10: server
100: IoT beauty device
200: user terminal

Claims (11)

IoT 뷰티 디바이스를 이용하여 인공지능 화장보조 서비스를 제공하는 시스템에 있어서,
하나 이상의 화장품을 수용하는 팔레트를 포함하고, 사용자 단말과 연동되며, 상기 사용자 단말과 통신할 수 있는, 상기 IoT 뷰티 디바이스; 및
상기 IoT 뷰티 디바이스 또는 상기 사용자 단말에 포함된 적어도 하나의 센서를 이용하여 사용자의 얼굴특징을 획득하고, 상기 획득된 사용자의 얼굴특징에 대응하는 화장보조 정보를 획득하고, 상기 획득된 화장보조 정보를 출력하는, 상기 사용자 단말;
상기 획득된 사용자의 얼굴특징에 대응하는 화장보조 정보를 획득하고, 상기 획득된 화장보조 정보를 디스플레이에 출력하는 제어부;를 포함하되;
상기 사용자 단말은 상기 적어도 하나의 센서를 이용하여 상기 사용자의 움직임을 인식하고, 상기 인식 결과에 기초하여 상기 사용자의 화장단계를 판단하고, 상기 사용자의 화장단계에 대응하는 화장보조 정보를 출력하며;
상기 팔레트는 상기 팔레트에 수용되는 하나 이상의 화장품 각각에 대한 접촉을 감지할 수 있는 하나 이상의 센서를 포함하고,
상기 IoT 뷰티 디바이스는, 상기 하나 이상의 화장품 중 하나에 대한 접촉이 감지되면, 상기 접촉이 감지된 화장품에 대한 정보를 상기 사용자 단말에 전송하고,
상기 사용자 단말은,
상기 IoT 뷰티 디바이스로부터 수신된 정보에 기초하여 상기 접촉이 감지된 화장품을 이용하는 방법에 대한 정보를 출력하는, 시스템.
In a system that provides artificial intelligence makeup assistance services using an IoT beauty device,
The IoT beauty device comprising a palette for accommodating one or more cosmetics, interworking with a user terminal, and capable of communicating with the user terminal; And
Acquires a user's facial features using at least one sensor included in the IoT beauty device or the user terminal, acquires makeup assistance information corresponding to the acquired facial features of the user, and stores the obtained makeup assistance information Outputting, the user terminal;
Including; a control unit for acquiring the makeup assistance information corresponding to the acquired facial features of the user, and outputting the obtained makeup assistance information on a display;
The user terminal recognizes the user's movement using the at least one sensor, determines the user's makeup step based on the recognition result, and outputs makeup assistance information corresponding to the user's makeup step;
The pallet includes one or more sensors capable of sensing contact with each of the one or more cosmetics accommodated in the pallet,
The IoT beauty device, when a contact with one of the one or more cosmetics is detected, transmits information on the cosmetics for which the contact is detected to the user terminal,
The user terminal,
A system for outputting information on a method of using the cosmetic in which the contact is detected based on the information received from the IoT beauty device.
제1 항에 있어서,
상기 IoT 뷰티 디바이스는:
제1 본체; 및
상기 제1 본체와 틸팅 가능하게 결합되는 제2 본체; 를 포함하고,
상기 제2 본체의 후면은 상기 사용자 단말의 후면과 틸팅 가능하게 결합되고,
상기 제2 본체는 틸팅되어 상기 사용자 단말을 지지할 수 있도록 구성되는 것을 특징으로 하는, 시스템.
The method of claim 1,
The IoT beauty device is:
A first body; And
A second body that is tiltably coupled to the first body; Including,
The rear surface of the second body is tiltably coupled to the rear surface of the user terminal,
The system, characterized in that the second body is configured to be tilted to support the user terminal.
제2 항에 있어서,
상기 제1 본체는 상기 제2 본체와 틸팅 및 스위블 가능하게 결합되고,
상기 제1 본체의 양면에는 각각 거울, 디스플레이 및 상기 팔레트 중 하나가 구비되는, 시스템.
The method of claim 2,
The first body is coupled to the second body to be tilted and swiveled,
The system, wherein one of a mirror, a display and the pallet is provided on both sides of the first body.
제2 항에 있어서,
상기 IoT 뷰티 디바이스는,
상기 제1 본체가 상기 제2 본체로부터 틸팅되면, 상기 사용자 단말에 알림 신호를 전송하고,
상기 사용자 단말은, 상기 IoT 뷰티 디바이스로부터 상기 알림 신호가 수신되면, 상기 인공지능 화장보조 서비스를 제공하기 위한 애플리케이션을 실행하는, 시스템.
The method of claim 2,
The IoT beauty device,
When the first body is tilted from the second body, it transmits a notification signal to the user terminal,
The user terminal, when the notification signal is received from the IoT beauty device, executes an application for providing the artificial intelligence makeup assistant service.
제1 항에 있어서,
상기 사용자 단말은,
상기 사용자의 얼굴특징에 대응하는 하나 이상의 화장보조 영상을 검색하고, 상기 검색된 하나 이상의 화장보조 영상을 하나 이상의 항목에 기초하여 평가하고,
상기 하나 이상의 항목은, 상기 하나 이상의 화장보조 영상 각각이 상기 사용자의 얼굴특징에 대응하는 정도 및 상기 하나 이상의 화장보조 영상 각각의 인기도와 관련된 항목을 포함하는, 시스템.
The method of claim 1,
The user terminal,
Searching for one or more makeup auxiliary images corresponding to the user's facial features, and evaluating the searched one or more makeup auxiliary images based on one or more items,
The one or more items include items related to a degree to which each of the one or more makeup auxiliary images corresponds to a facial feature of the user and a popularity of each of the one or more makeup auxiliary images.
제5 항에 있어서,
상기 사용자 단말은,
상기 하나 이상의 항목 각각에 대한 가중치를 설정하고, 상기 설정된 가중치에 기초하여 상기 하나 이상의 항목 각각에 대한 평가결과를 합산하고, 상기 합산 결과에 기초하여 상기 하나 이상의 화장보조 영상 각각에 대한 평가결과를 산출하고, 상기 평가 결과에 따라 상기 사용자 단말에서 출력될 화장보조 영상을 결정하고, 상기 결정된 화장보조 영상을 출력하는, 시스템.
The method of claim 5,
The user terminal,
Set a weight for each of the one or more items, sum the evaluation results for each of the one or more items based on the set weight, and calculate an evaluation result for each of the one or more makeup aid images based on the summation result And, according to the evaluation result, determining a makeup auxiliary image to be output from the user terminal, and outputting the determined makeup auxiliary image.
삭제delete 삭제delete 제1 항에 있어서,
상기 시스템은,
상기 사용자 단말과 통신가능한 화장도구를 더 포함하고,
상기 사용자 단말은,
상기 화장도구와 통신하여 상기 화장도구의 위치 및 움직임을 판단하고, 상기 화장도구의 종류, 상기 화장도구의 위치 및 움직임에 기초하여 상기 화장단계를 판단하는, 시스템.
The method of claim 1,
The system,
Further comprising a cosmetic tool capable of communicating with the user terminal,
The user terminal,
A system for determining the position and movement of the makeup tool by communicating with the makeup tool, and determining the makeup step based on the type of the makeup tool and the position and movement of the makeup tool.
제1 항에 있어서,
상기 사용자 단말은,
상기 출력된 화장보조 정보와 상기 인식된 상기 사용자의 움직임을 비교하고, 상기 화장보조 정보와 상기 사용자의 움직임이 상이한 것으로 판단되는 경우, 상기 사용자에게 알림을 제공하고, 상기 사용자의 움직임과 상이한 상기 화장보조 정보의 구간을 다시 출력하는, 시스템.

The method of claim 1,
The user terminal,
Comparing the output makeup assistance information with the recognized movement of the user, and when it is determined that the makeup assistance information and the movement of the user are different, a notification is provided to the user, and the makeup different from the movement of the user A system that outputs the section of auxiliary information again.

삭제delete
KR1020180015280A 2018-02-07 2018-02-07 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE KR102167230B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180015280A KR102167230B1 (en) 2018-02-07 2018-02-07 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180015280A KR102167230B1 (en) 2018-02-07 2018-02-07 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE

Publications (2)

Publication Number Publication Date
KR20190100515A KR20190100515A (en) 2019-08-29
KR102167230B1 true KR102167230B1 (en) 2020-10-19

Family

ID=67776109

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180015280A KR102167230B1 (en) 2018-02-07 2018-02-07 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE

Country Status (1)

Country Link
KR (1) KR102167230B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102448593B1 (en) * 2020-01-03 2022-09-28 배민준 Intelligent cosmetic guide method and apparatus for said method
KR102318394B1 (en) 2020-08-06 2021-10-27 주식회사 더발라 playing back section moving apparatus using learning
KR102314167B1 (en) * 2021-06-25 2021-10-18 주식회사 우분트디자인 Method of curating beauty care products by analyzing user's facial contour and skin type

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130127278A (en) 2012-05-14 2013-11-22 문경철 A case for portable terminal
KR20160142742A (en) * 2015-06-03 2016-12-13 삼성전자주식회사 Device and method for providing makeup mirror
KR101777337B1 (en) * 2015-11-24 2017-09-15 주식회사 원데이원커뮤니케이션 Mobile phone case with separable and combinable makeup palette

Also Published As

Publication number Publication date
KR20190100515A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
CN110249360B (en) Apparatus and method for recommending products
Souhila et al. Optical flow based robot obstacle avoidance
Van den Bergh et al. Real-time 3D hand gesture interaction with a robot for understanding directions from humans
Yan et al. A survey on perception methods for human–robot interaction in social robots
KR102167230B1 (en) SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE
Gutmann et al. 3D perception and environment map generation for humanoid robot navigation
KR20200085142A (en) Apparatus and method for generating map data of cleaning space
US9939272B1 (en) Method and system for building personalized knowledge base of semantic image segmentation via a selective random field approach
Wilhelm et al. A multi-modal system for tracking and analyzing faces on a mobile robot
US20210326673A1 (en) Artificial intelligence learning method and operating method of robot using the same
Bellone et al. Unevenness point descriptor for terrain analysis in mobile robot applications
Siva et al. Robot perceptual adaptation to environment changes for long-term human teammate following
Castellano et al. Pepper4Museum: towards a human-like museum guide
Afif et al. An efficient object detection system for indoor assistance navigation using deep learning techniques
Nirgudkar et al. Massmind: Massachusetts maritime infrared dataset
Lin et al. Understanding human hand gestures for learning robot pick-and-place tasks
Fu et al. Self-supervised learning of LiDAR odometry based on spherical projection
Li et al. A kinect-sensor-based tracked robot for exploring and climbing stairs
KR102151006B1 (en) Method for providing shopping information on each product and electronic device for executing the method
Wu et al. Optimized visual recognition algorithm in service robots
Hu et al. Computer vision for sight: Computer vision techniques to assist visually impaired people to navigate in an indoor environment
KR20200107488A (en) Virtual makeup composition processing method
Manso et al. A novel robust scene change detection algorithm for autonomous robots using mixtures of gaussians
Barnes et al. Embodied categorisation for vision-guided mobile robots
Nunes Deep emotion recognition through upper body movements and facial expression

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant