KR102525624B1 - 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템 - Google Patents

인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102525624B1
KR102525624B1 KR1020220164488A KR20220164488A KR102525624B1 KR 102525624 B1 KR102525624 B1 KR 102525624B1 KR 1020220164488 A KR1020220164488 A KR 1020220164488A KR 20220164488 A KR20220164488 A KR 20220164488A KR 102525624 B1 KR102525624 B1 KR 102525624B1
Authority
KR
South Korea
Prior art keywords
user
color
preferred
bag
information
Prior art date
Application number
KR1020220164488A
Other languages
English (en)
Inventor
김유리
Original Assignee
김유리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김유리 filed Critical 김유리
Priority to KR1020220164488A priority Critical patent/KR102525624B1/ko
Application granted granted Critical
Publication of KR102525624B1 publication Critical patent/KR102525624B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Game Theory and Decision Science (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

일실시예에 따른 장치는, 사용자의 단말로부터 사용자의 얼굴이 포함된 사용자 이미지를 획득하고, 사용자 이미지를 기초로, 사용자에 대응하는 퍼스널 컬러를 확인하고, 사용자의 단말로부터 사용자의 선호 색상을 획득하고, 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상을 기초로, 사용자와 매칭된 가방의 색상을 추천한다.

Description

인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROVIDING A BAG THAT MATCHES A CUSTOMER'S PERSONAL COLOR BASED ON ARTIFICIAL INTELLIGENCE}
아래 실시예들은 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공하기 위한 기술에 관한 것이다.
정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객이 요구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객의 선호도를 파악하는 것이 중요하다 특히, 고객에게 서비스가 전달되는 순간에 해당 고객의 선호 정보를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 선호도 정보를 파악하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 사용자 선호도 정보를 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있으며, 이외에도 사용자의 선호도를 조사하여 사용자의 선호도에 맞추어서 맞춤형 물품을 제공할 수 있다.
사람은 각 개인마다 고유의 특징적인 신체 색을 가지고 있다. 이와 같은 개인마다의 고유의 특징적인 신체 색을 퍼스널 컬러(Personal Color)라 한다. 즉, 퍼스널 컬러는 인격적 색체와 신체적 특징으로 나타나는 피부, 머리카락 및 눈동자의 색채 등 각자 타고난 고유의 인체 색상을 의미한다.
현대 패션 산업에서 패션 액세서리 중 특히 가방은 다양화, 개성화 되어가는 경향을 보이며, 단순한 장식의 개념을 벗어나서 공간성을 지닌 조형물로 발전하고 있다.
따라서, 사용자의 퍼스널 컬러, 사용자의 선호 색상 및 데이터를 통해 사용자에게 적합한 가방을 추천하는 기술에 대한 연구가 요구된다.
한국등록특허 제10-2447426호 한국등록특허 제10-1874631호 한국공개특허 제10-2022-0126909호 한국공개특허 제10-2021-0085433호
실시예들은 인공지능 기반 퍼스널 컬러와 매칭되는 가방의 색상을 추천하고자 한다.
실시예들은 사용자가 선호하는 글귀를 기초로, 글귀에 포함된 키워드를 확인하여 색상과 매칭된 키워드를 통해 사용자의 선호 색상을 획득하고자 한다.
실시예들은 사용자의 SNS 및 사용자와 동일한 퍼스널 컬러를 가진 타사용자가 구매한 제품의 데이터를 통해 사용자의 선호 색상을 추천하고자 한다.
실시예들은 인공지능 기반으로 사용자 이미지로부터 사용자의 퍼스널 컬러를 획득하고자 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법은 사용자의 단말로부터 상기 사용자의 얼굴이 포함된 사용자 이미지를 획득하는 단계; 상기 사용자 이미지를 기초로, 상기 사용자에 대응하는 퍼스널 컬러를 확인하는 단계; 상기 사용자 단말로부터 상기 사용자의 선호 색상을 획득하는 단계; 및 상기 사용자에 대응하는 퍼스널 컬러 및 상기 사용자의 선호 색상을 기초로, 상기 사용자와 매칭된 가방의 색상을 추천하는 단계를 포함한다.
상기 사용자 단말로부터 상기 사용자의 선호 색상을 획득하는 단계는, 상기 사용자 단말로부터 선호 글귀, 문학 작품 및 상기 사용자가 작성한 글귀 중 적어도 하나를 포함하는 사용자 선호 글귀 정보를 수신하는 단계, 키워드 - 색상 매칭 데이터베이스를 이용하여 상기 사용자 선호 글귀 정보에서 색상과 매칭되는 키워드를 추출하는 단계, 상기 사용자 선호 글귀 정보에 포함된 제1 키워드에 매칭된 제1 색상과 제2 키워드에 매칭된 제2 색상을 확인하는 단계, 상기 사용자 선호 글귀 정보에 포함된 상기 제1 키워드와 상기 제2 키워드의 비율을 확인하는 단계, 및 상기 제1 키워드와 상기 제2 키워드의 비율을 인공신경망에 입력하여 상기 사용자의 선호 색상을 출력하는 단계를 포함하고, 상기 인공신경망은, 상기 제1 키워드의 비율과 상기 제2 키워드의 비율에 따라 상기 제1 색상과 상기 제2 색상을 혼합한 색상을 출력하기 위한 인공신경망을 포함한다.
상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하는 단계는, 상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하지 않았거나, 상기 사용자의 단말로부터 색상 추천 요청을 수신하는 단계, 상기 사용자의 SNS를 통해 상기 사용자가 작성한 게시글을 획득하는 단계, 상기 게시글에 포함된 이미지를 추출하여 제1 그룹으로 분류하는 단계, 상기 제1 그룹으로 분류된 이미지를 기초로, 상기 사용자가 포함된 이미지를 제1-1그룹으로 분류하는 단계, 상기 제1-1 그룹에 포함된 이미지에서 상기 사용자를 추출하고, 상기 사용자가 착용하고 있는 의상 및 장식품을 부속품으로 추출하는 단계, 및 상기 부속품의 색상 값을 추출하고, 가장 많이 포함된 색상 값을 기초로, 사용자의 선호 색상을 선정하는 단계를 포함하고, 상기 제1 그룹으로 분류되는 이미지는 상기 사용자의 SNS 계정에 업로드된 게시글의 평균 좋아요 수 이상인 이미지이고, 상기 퍼스널 컬러는 상기 가방의 제1 부위의 색상으로 결정되고, 상기 선호 색상은 상기 가방의 제2 부위의 색상으로 결정된다.
상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하는 단계는, 상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하지 않았거나, 상기 사용자의 단말로부터 색상 추천 요청을 수신하는 단계, 판매 데이터베이스를 통해 상기 사용자의 퍼스널 컬러와 같은 사용자에 대응하는 판매 데이터를 획득하는 단계; 상기 판매 데이터를 통해 미리 설정된 기준 값보다 많이 판매된 색상을 상위 색상으로 선정하는 단계; 및 상기 상위 색상 중 미리 설정된 기간동안 가장 많이 판매된 색상을 사용자의 선호 색상으로 선정하는 단계를 포함한다.
상기 사용자 이미지를 기초로, 상기 사용자에 대응하는 퍼스널 컬러를 확인하는 단계는, 상기 사용자 이미지를 기초로, 상기 사용자 얼굴 객체를 추출하는 단계, 상기 사용자 얼굴 객체로부터 상기 사용자의 눈동자 영역을 분리하고, 상기 눈동자 영역의 픽셀 값을 분석하여 상기 눈동자 영역의 픽셀 값을 포함하는 눈동자 정보를 생성하는 단계, 상기 사용자의 얼굴 객체로부터 상기 사용자의 입술 영역을 분리하고, 상기 입술 영역의 픽셀 값을 분석하여 상기 입술 영역의 픽셀 값을 포함하는 입술 정보를 생성하는 단계, 상기 사용자의 얼굴 객체로부터 상기 사용자의 피부 영역을 분리하고, 상기 피부 영역의 픽셀 값을 분석하여 상기 피부 영역의 픽셀 값을 포함하는 피부 정보를 생성하는 단계, 상기 사용자의 얼굴 객체로부터 상기 사용자의 머리카락 영역을 분리하고, 상기 머리카락 영역의 픽셀 값을 분석하여 상기 머리카락 영역의 픽셀 값을 포함하는 머리카락 정보를 생성하는 단계, 상기 눈동자 정보, 상기 입술 정보, 상기 피부 정보, 상기 머리카락 정보를 기초로, 제1 입력 신호를 생성하는 단계, 상기 제1 입력 신호를 상기 제1 입력 신호에 기반하여 퍼스널 컬러를 도출하는 제1 인공신경망에 적용하여 제1 출력 신호를 출력하는 단계, 및 상기 제1 출력 신호를 기초로, 상기 사용자에 대응하는 퍼스널 컬러를 도출하는 단계를 포함한다.
인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법은 상기 사용자의 단말로부터 가방 주문 정보를 수신하는 단계, 상기 가방 주문 정보에 따라 가방을 제작한 기업과 관련된 정보를 포함하는 공통 정보가 배치되는 제1 부분 및 상기 사용자의 정보를 포함하는 가변 정보가 배치되는 제2 부분을 포함하는 인쇄용 출력 파일을 생성하는 단계, 상기 인쇄용 출력 파일을 상기 사용자의 단말에 전송하고, 상기 사용자의 단말로부터 상기 인쇄용 출력 파일에 대한 상기 사용자의 가방 제작 요청을 수신하는 단계, 상기 가방의 제1 부분에 대한 출력 요청을 프린터 장치에 전송하는 단계, 상기 제2 부분에 게재되는 상기 가변 정보의 배열을 서로 다른 제1 배열 및 제2 배열로 결정하는 단계, 상기 가변 정보에 포함된 사용자의 전화번호의 끝자리가 홀수인 경우, 상기 제1 배열을 이용하여 상기 가변 정보를 상기 제2 부분에 표시하는 단계, 상기 가변 정보에 포함된 사용자의 전화번호의 끝자리가 짝수인 경우, 상기 제2 배열을 이용하여 상기 가변 정보를 상기 제2 부분에 표시하는 단계, 상기 가방의 제2 부분에 대한 출력 요청을 프린터 장치에 전송하는 단계, 및 상기 가방의 제작이 완료되면, 상기 사용자의 단말로 가방 제작 완료 메시지를 전송하는 단계를 더 포함한다.
실시예들은 인공지능 기반 퍼스널 컬러와 매칭되는 가방의 색상을 추천할 수 있다.
실시예들은 사용자가 선호하는 글귀를 기초로, 글귀에 포함된 키워드를 확인하여 색상과 매칭된 키워드를 통해 사용자의 선호 색상을 획득할 수 있다.
실시예들은 사용자의 SNS 및 사용자와 동일한 퍼스널 컬러를 가진 타사용자가 구매한 제품의 데이터를 통해 사용자의 선호 색상을 추천할 수 있다.
실시예들은 인공지능 기반으로 사용자 이미지로부터 사용자의 퍼스널 컬러를 획득할 수 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상을 적용하여 가방의 색상을 추천 및 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 사용자가 선호하는 글귀를 기초로, 사용자의 선호 색상을 획득하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 사용자의 SNS에 업로드 된 게시글을 통해 사용자의 선호 색상을 선정하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 사용자와 일치하는 퍼스널 컬러의 타사용자에게 판매된 가방의 색상을 기초로 사용자의 선호 색상을 선정하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 사용자 이미지를 기초로 사용자에 대응하는 퍼스널 컬러를 도출하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 커스텀 문구를 추가로 수신하여 출력물을 제작하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 사용자의 단말(100), 및 장치(200)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
사용자의 단말(100)은 자신의 퍼스널 컬러 및 선호 색상의 가방을 구매하고자 하는 사용자가 사용하는 단말로, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자의 단말(100)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
사용자의 단말(100)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자의 단말(100)은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
사용자의 단말(100)은 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 사이트에 접속되거나, 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자의 단말(100)은 웹 사이트 또는 애플리케이션을 통해 장치(200)와 연동될 수 있다.
도1 및 이하의 설명에서는, 설명의 편의상, 사용자의 단말(100) 하나만을 도시하고 설명하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 사용자의 단말(100)과 유무선으로 통신하도록 구성될 수 있으며, 사용자의 단말(100)로부터 사용자와 관련된 정보를 획득할 수 있다.
장치(200)는 사용자의 단말(100)로부터 사용자의 얼굴이 포함된 사용자 이미지를 획득하고, 사용자 이미지를 기초로, 사용자에 대응하는 퍼스널 컬러를 확인하고, 사용자의 단말로부터 사용자의 선호 색상을 획득하고, 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상을 기초로, 사용자와 매칭된 가방의 색상을 추천할 수 있다.
장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상으로 색상 값을 획득하지 않았거나 사용자의 단말(100)로부터 색상 추천 요청을 수신할 경우, 사용자의 단말(100)로부터 수신한 사용자 선호 글귀 정보, 키워드-색상 매칭 데이터베이스를 이용하여 색상과 매칭되는 키워드를 추출하고, 추출된 키워드의 비율을 확인하여 사용자의 선호 색상을 출력할 수 있다.
장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상으로 색상 값을 획득하지 않았거나 사용자의 단말(100)로부터 색상 추천 요청을 수신할 경우, 사용자의 SNS 또는 사용자와 같은 퍼스널 컬러의 타사용자의 판매 데이터를 획득하여 획득한 정보를 가공 및 분석하여 사용자의 선호 색상을 추천할 수 있다.
또한, 장치(200)는 사용자의 단말(100)로부터 사용자의 얼굴이 포함된 사용자 이미지를 획득하고, 사용자 이미지를 통해 사용자 얼굴 객체를 추출하고, 사용자 얼굴 객체를 통해 사용자의 눈동자 정보, 사용자의 입술 정보, 사용자의 피부 정보, 사용자의 머리카락 정보를 생성하여, 생성된 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보를 인공신경망에 적용하여 사용자에 대응하는 퍼스널 컬러를 도출할 수 있다.
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.
도 2는 일실시예에 따른 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상을 적용하여 가방의 색상을 추천 및 제공하는 과정을 설명하기 위한 순서도이다.
도 2을 참조하면, 먼저, S201 단계에서, 장치(200)는 사용자의 단말(100)로부터 사용자의 얼굴이 포함된 사용자 이미지를 획득할 수 있다.
S202 단계에서, 장치(200)는 사용자 이미지를 기초로, 사용자에 대응하는 퍼스널 컬러를 확인할 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 획득한 사용자 이미지 상에서 사용자 얼굴 객체와 배경을 분리하여 사용자 얼굴 객체를 추출할 수 있고, 추출된 사용자 얼굴 객체로부터 눈동자 영역, 입술 영역, 피부 영역, 머리카락 영역을 분리할 수 있다. 장치(200)는 분리된 눈동자 영역을 분석하여 눈동자 정보를 생성하고, 분리된 입술 영역을 분석하여 입술 정보를 생성하고, 분리된 피부 영역을 분석하여 피부 정보를 생성하고, 분리된 머리카락 영역을 분석하여 머리카락 정보를 생성할 수 있다. 또한, 장치(200)는 생성된 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보를 인공신경망에 적용하여 사용자에 대응하는 퍼스널 컬러를 도출할 수 있다. 이와 관련하여 구체적인 설명은 도 6을 참조하기로 한다.
S203 단계에서, 장치(200)는 사용자의 단말로부터 사용자의 선호 색상을 획득할 수 있다. 이때, 사용자의 선호 색상은 CSS 색상명, 헥스 코드 #RRGGBB, 10진 코드 (R,G,B) 중 하나로 표현될 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 사용자가 어떤 색상을 선호하는지 획득할 수 있다. 예를 들어, 사용자가 파란색을 선호할 경우, 장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상으로 파란색 또는 #0000FF 또는 (0,0,255)을 획득할 수 있다.
또한, 장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상 대신 사용자가 선호하는 글귀를 획득하여, 사용자가 선호하는 글귀를 기초로, 사용자의 선호 색상을 획득할 수도 있다.
또한, 장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상을 획득하지 않았거나 사용자의 단말(100)로부터 색상 추천 요청을 수신할 수도 있는데, 이러한 경우, 장치(200)는 사용자의 SNS에 업로드 된 게시글을 확인하여, 사용자의 선호 색상을 추천할 수도 있고, 사용자와 일치하는 퍼스널 컬러의 타 사용자에게 판매한 판매 데이터를 통해 사용자의 선호 색상을 추천할 수도 있다.
이와 관련하여 구체적인 설명은 도 3, 도 4 및 도 5를 참조하기로 한다.
S204 단계에서, 장치(200)는 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상을 기초로, 사용자와 매칭된 가방의 색상을 추천할 수 있다.
구체적으로, 장치(200)는 사용자 이미지로부터 추출한 사용자에 대응하는 퍼스널 컬러와 사용자의 단말(100)로부터 획득한 사용자의 선호 색상을 비교하여 일치하는지 여부를 확인할 수 있다.
장치(200)는 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상을 비교한 결과, 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상이 일치한다고 확인되면, 사용자와 매칭된 가방의 색상으로 해당 색상을 추천할 수 있다.
장치(200)는 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상을 비교한 결과, 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상이 일치하지 않는다고 확인되면, 사용자와 매칭된 가방의 색상으로 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상을 혼합하여 추천할 수 있고, 이때 혼합 비율은 사용자에 대응하는 퍼스널 컬러의 비중을 더 높게 둘 수 있다. 또한, 장치(200)는 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상을 비교한 결과, 사용자에 대응하는 퍼스널 컬러와 사용자의 선호 색상이 일치하지 않는다고 확인되면, 사용자와 매칭된 가방의 색상으로 가방의 부위별로 색상을 다르게 추천할 수 있으며, 예를 들어 가방의 제1 부위의 색상은 사용자에 대응하는 퍼스널 컬러로 추천하고, 가방의 제2 부위의 색상은 사용자의 선호 색상으로 추천할 수 있다.
이로 인해, 장치(200)는 사용자에 대응하는 퍼스널 컬러 및 사용자의 선호 색상으로 사용자와 매칭된 가방의 색상을 추천할 수 있고, 사용자는 사용자 맞춤형 색상의 가방을 구매할 수 있다.
도 3은 일실시예에 따른 사용자가 선호하는 글귀를 기초로, 사용자의 선호 색상을 획득하는 과정을 설명하기 위한 순서도이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(200)는 사용자의 단말(100)로부터 선호 글귀, 문학 작품 및 사용자가 작성한 글귀 중 적어도 하나를 포함하는 사용자 선호 글귀 정보를 수신할 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 노란색, 검정색, 빨간색, 파란색과 같은 사용자가 선호하는 색상을 획득할 수도 있고, 사용자가 선호하는 색상이 뚜렷하게 없을 경우, 사용자의 단말(100)로부터 선호 글귀, 문학 작품 및 사용자가 작성한 글귀 중 적어도 하나를 포함하는 사용자 선호 글귀 정보를 수신할 수 있다. 이때, 선호 글귀 정보는 사용자가 좋아하는 문장일 수도 있고, 사용자가 좋아하는 시일 수도 있고, 사용자가 좋아하는 음악의 가사일 수도 있고, 사용자가 좋아하는 문학 작품의 구절일 수도 있다.
예를 들어, 장치(200)는 사용자의 단말(100)로부터 사용자 선호 글귀 정보로 '푸른 빛이 너무 좋아 창가에서 올려다본 나의 하늘은 어제는 바다가 되고 오늘은 숲이 되고 내일은 또 무엇이 될까 몹시 갑갑하고 울고 싶을 때 문득 쳐다본 나의 하늘이 지금은 집이 되고 호수가 되고 들판이 된다.'를 수신할 수 있다.
S302 단계에서, 장치(200)는 키워드-색상 매칭 데이터베이스를 이용하여 사용자 선호 글귀 정보에서 색상과 매칭되는 키워드를 추출할 수 있다. 이때, 키워드-색상 데이터베이스는 키워드와 색상이 매칭되어 저장되어 있는 데이터베이스로, 장치(200)에 포함될 수 있으며, 장치(200)를 관리하는 관리자의 입력에 따라 키워드-색상 데이터베이스에 키워드와 색상이 매칭되어 저장될 수 있다. 예를 들어, 키워드-색상 데이터베이스에 바다-파랑, 호수-파랑, 사과-빨강, 들판-초록, 개나리-노랑, 하늘-파랑, 모래-갈색, 레몬-노랑, 숲-초록, 감-주황, 눈-하양, 귤-주황, 불-빨강 등이 매칭되어 저장되어 있을 수 있으며, 키워드-색상 데이터베이스에 저장된 키워드-색상은 실시 예가 수행됨에 따라 점점 늘어날 수 있다.
구체적으로, 장치(200)는 키워드-색상 매칭 데이터베이스를 이용하여 사용자의 단말(100)로부터 수신한 사용자 선호 글귀 정보에 포함된 키워드들 중 색상과 매칭되는 키워드를 추출할 수 있다.
예를 들어, 장치(200)는 사용자의 단말(100)로부터 사용자 선호 글귀 정보로 '푸른 빛이 너무 좋아 창가에서 올려다본 나의 하늘은 어제는 바다가 되고 오늘은 숲이 되고 내일은 또 무엇이 될까 몹시 갑갑하고 울고 싶을 때 문득 쳐다본 나의 하늘이 지금은 집이 되고 호수가 되고 들판이 된다.'를 수신하고, 키워드-색상 데이터베이스에 바다-파랑, 호수-파랑, 사과-빨강, 들판-초록, 개나리-노랑, 하늘-파랑, 모래-갈색, 레몬-노랑, 숲-초록, 감-주황, 눈-하양, 귤-주황, 불-빨강이 매칭되어 저장되어 있을 경우, 장치(200)는 사용자 선호 글귀 정보 및 키워드-색상 데이터베이스로부터 사용자 선호 글귀 정보에 포함된 키워드 중 색상과 매칭되는 키워드로 파랑과 매칭된 하늘, 파랑과 매칭된 바다, 초록과 매칭된 숲, 파랑과 매칭된 호수, 초록과 매칭된 들판을 추출할 수 있다.
S303 단계에서, 장치(200)는 사용자 선호 글귀 정보에 포함된 제1 키워드에 매칭된 제1 색상과 제2 키워드에 매칭된 제2 색상을 확인할 수 있다.
구체적으로, 장치(200)는 사용자 선호 글귀 정보에 포함된 키워드 중 색상과 매칭된 키워드를 추출할 수 있고, 제1 키워드에 매칭된 제1 색상, 제2 키워드에 매칭된 제2 색상을 확인할 수 있다. 이때, 제1 키워드는 제1 색상과 매칭된 키워드로, 제1 키워드에 포함된 키워드는 하나일 수 있고, 복수 개일 수도 있다. 제2 키워드는 제2 색상과 매칭된 키워드로 제2 키워드에 포함된 키워드는 하나일 수 있고, 복수 개일 수도 있다. 또한, 설명의 편의상, 제1 키워드, 제2 키워드, 제1 색상, 제2 색상만 설명하였으나, 제3 키워드, 제4 키워드 등 더 많은 키워드가 포함될 수 있고, 제3 색상, 제4 색상 등 더 많은 색상이 포함될 수 있다.
예를 들어, 장치(200)는 사용자의 단말(100)로부터 사용자 선호 글귀 정보로 '푸른 빛이 너무 좋아 창가에서 올려다본 나의 하늘은 어제는 바다가 되고 오늘은 숲이 되고 내일은 또 무엇이 될까 몹시 갑갑하고 울고 싶을 때 문득 쳐다본 나의 하늘이 지금은 집이 되고 호수가 되고 들판이 된다.'를 수신하고, 키워드-색상 데이터베이스에 바다-파랑, 호수-파랑, 사과-빨강, 들판-초록, 개나리-노랑, 하늘-파랑, 모래-갈색, 레몬-노랑, 숲-초록, 감-주황, 눈-하양, 귤-주황, 불-빨강이 매칭되어 저장되어 있을 경우, 장치(200)는 사용자 선호 글귀 정보 및 키워드-색상 데이터베이스로부터 사용자 선호 글귀 정보에 포함된 키워드 중 색상과 매칭되는 키워드로 파랑과 매칭된 하늘, 파랑과 매칭된 바다, 초록과 매칭된 숲, 파랑과 매칭된 호수, 초록과 매칭된 들판을 추출하고, 제1 키워드인 하늘, 바다, 호수와 매칭된 제1 색상인 파랑과 제2 키워드인 숲, 들판과 매칭된 제2 색상인 초록을 확인할 수 있다.
S304 단계에서, 장치(200)는 사용자 선호 글귀 정보에 포함된 제1 키워드와 제2 키워드의 비율을 확인할 수 있다.
구체적으로, 장치(200)는 사용자 선호 글귀 정보에 포함된 제1 색상과 매칭된 제1 키워드와 제2 색상과 매칭된 제2 키워드의 비율을 확인할 수 있다.
예를 들어, 장치(200)는 사용자의 단말(100)로부터 사용자 선호 글귀 정보로 '푸른 빛이 너무 좋아 창가에서 올려다본 나의 하늘은 어제는 바다가 되고 오늘은 숲이 되고 내일은 또 무엇이 될까 몹시 갑갑하고 울고 싶을 때 문득 쳐다본 나의 하늘이 지금은 집이 되고 호수가 되고 들판이 된다.'를 수신하고, 키워드-색상 데이터베이스에 바다-파랑, 호수-파랑, 사과-빨강, 들판-초록, 개나리-노랑, 하늘-파랑, 모래-갈색, 레몬-노랑, 숲-초록, 감-주황, 눈-하양, 귤-주황, 불-빨강이 매칭되어 저장되어 있을 경우, 장치(200)는 제1 키워드인 하늘, 바다, 호수와 매칭된 제1 색상인 파랑과 제2 키워드인 숲, 들판과 매칭된 제2 색상인 초록을 확인할 수 있고, 사용자 선호 글귀 정보에 포함된 제1 키워드의 개수가 4개임을 확인하고, 제2 키워드의 개수가 2개임을 확인하여, 제1 키워드와 제2 키워드의 비율을 4:2로 확인할 수 있다.
S305 단계에서, 장치(200)는 제1 키워드와 제2 키워드의 비율을 인공신경망에 입력하여 사용자의 선호 색상을 출력할 수 있다. 이때, 사용자의 선호 색상은 CSS 색상명, 헥스 코드 #RRGGBB, 10진 코드 (R,G,B) 중 하나로 표현될 수 있다.
구체적으로, 장치(200)는 확인된 제1 키워드와 제2 키워드의 비율을 제1 키워드의 비율과 제2 키워드의 비율에 따라 제1 색상과 제2 색상을 혼합한 색상을 출력하기 위한 인공신경망에 입력하여 사용자의 선호 색상을 출력할 수 있다.
도 4는 일실시예에 따른 사용자의 SNS에 업로드 된 게시글을 통해 사용자의 선호 색상을 선정하는 과정을 설명하기 위한 순서도이다.
도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상을 획득하지 않았거나 사용자의 단말(100)로부터 색상 추천 요청을 수신할 수 있다.
예를 들어, 사용자가 자신이 어떤 색상을 선호하는지 모르는 경우, 사용자의 단말(100)은 장치(200)로 색상 추천 요청을 전송할 수 있고, 장치(200)는 사용자의 단말(100)로부터 색상 추천 요청을 수신할 수 있다.
S402 단계에서, 장치(200)는 사용자의 SNS를 통해 사용자가 작성한 게시글을 획득할 수 있다. 여기서, SNS는 블로그, 인스타그램 등을 포함할 수 있으며, 사용자의 SNS는 사용자가 소유하고 있는 블로그, 또는 사용자가 소유하고 있는 인스타그램이 될 수 있다. 또한, 장치(200)는 사용자의 SNS를 통해 사용자가 작성한 게시글을 획득하기 위해 사용자의 SNS가 포함된 웹 사이트에 접속할 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 사용자의 SNS 계정과 관련되 정보를 획득할 수 있고, 획득한 정보를 통해 웹 사이트에 접속하여 사용자의 SNS를 확인할 수 있다. 또한, 장치(200)는 사용자의 SNS를 통해 사용자가 작성한 게시글을 획득할 수 있다.
S403 단계에서, 장치(200)는 게시글에 포함된 이미지를 추출하여 제1 그룹으로 분류할 수 있다.
구체적으로 장치(200)는 사용자의 SNS를 통해 사용자가 작성한 게시글을 획득할 수 있고, 획득한 게시글에 포함된 이미지를 제1 그룹으로 분류할 수 있다. 또한, 장치(200)는 사용자의 SNS를 통해 게시글에 매칭된 좋아요 수 및 사용자의 SNS에 업로드 된 게시글의 평균 좋아요 수를 더 획득할 수 있고, 게시글에 포함된 이미지를 제1 그룹으로 분류하는 과정에서 해당 이미지를 포함하는 게시글의 좋아요 수가 게시글의 평균 좋아요 수보다 높은지 여부를 확인하여, 해당 이미지를 포함하는 게시글의 좋아요 수가 게시글의 평균 좋아요 수보다 높을 경우, 해당 이미지를 제1 그룹으로 분류하고, 해당 이미지를 포함하는 게시글의 좋아요 수가 게시글의 평균 좋아요 수보다 높지 않을 경우, 해당 이미지를 제1 그룹으로 분류하지 않을 수 있다.
S404 단계에서, 장치(200)는 제1 그룹으로 분류된 이미지를 기초로, 사용자가 포함된 이미지를 제1-1 그룹으로 분류할 수 있다.
구체적으로, 장치(200)는 제1 그룹으로 분류된 이미지를 A 인공신경망에 적용하여 제1 그룹으로 분류된 이미지 중 사용자가 포함된 이미지를 제1-1 그룹으로 분류할 수 있다. 또한, A 인공신경망은 입력된 이미지를 통해 해당 이미지에 사용자가 포함되었는지 여부를 출력하는 인공신경망으로, A 인공신경망은 사용자의 단말(100)로부터 획득한 사용자의 얼굴이 포함된 사용자 이미지를 통해 학습될 수 있다.
S405 단계에서, 장치(200)는 제1-1 그룹에 포함된 이미지에서 사용자를 추출하고, 사용자가 착용하고 있는 의상 및 장식품을 부속품으로 추출할 수 있다. 이 때, 장식품은 사용자가 착용하고 있는 악세서리, 모자, 가방 중 하나일 수 있다.
구체적으로, 장치(200)는 제1-1 그룹에 포함된 이미지 상에서 사용자의 외곽선을 인식한 후 인식된 사용자의 외곽선을 기준으로 사용자와 배경을 분리할 수 있고, 분리된 사용자를 객체로 검출할 수 있다. 또한, 장치(200)는 검출된 객체에서 사용자의 얼굴 외곽선을 인식한 후 인식된 사용자의 얼굴 외곽선을 기준으로 사용자의 얼굴과 의상, 악세서리, 모자, 가방을 포함하는 부속품을 분리할 수 있다.
S406 단계에서, 장치(200)는 부속품의 색상 값을 추출하고, 가장 많이 포함된 색상 값을 기초로, 사용자의 선호 색상을 선정할 수 있다. 이때, 사용자의 선호 색상은 CSS 색상명, 헥스 코드 #RRGGBB, 10진 코드 (R,G,B) 중 하나로 표현될 수 있다.
구체적으로, 장치(200)는 사용자의 얼굴과 분리된 부속품의 색상 값을 추출 및 분석하여, 가장 많이 포함된 색상 값을 기초로, 사용자의 선호 색상을 선정할 수 있다.
도 5는 일실시예에 따른 사용자와 일치하는 퍼스널 컬러의 타사용자에게 판매된 가방의 색상을 기초로 사용자의 선호 색상을 선정하는 과정을 설명하기 위한 순서도이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 사용자의 단말(100)로부터 사용자의 선호 색상을 획득하지 않았거나 사용자의 단말(100)로부터 색상 추천 요청을 수신할 수 있다.
예를 들어, 사용자가 자신이 어떤 색상을 선호하는지 모르는 경우, 사용자의 단말(100)은 장치(200)로 색상 추천 요청을 전송할 수 있고, 장치(200)는 사용자의 단말(100)로부터 색상 추천 요청을 수신할 수 있다.
S502 단계에서, 장치(200)는 판매 데이터베이스를 통해 사용자의 퍼스널 컬러와 같은 사용자에 대응하는 판매 데이터를 획득할 수 있다. 이때, 판매 데이터베이스는 가방을 구매한 사용자에 대응하는 판매 데이터가 저장되어 있는 데이터베이스로, 판매 데이터베이스는 장치(200)에 포함되어 있거나, 장치(200)와 유무선으로 통신할 수 있다. 또한, 판매 데이터는 가방을 구매한 사용자의 퍼스널 컬러를 포함하는 개인 정보, 가방이 판매된 시점의 정보, 판매된 가방의 색상 정보, 판매된 가방의 개수 정보를 포함할 수 있다.
구체적으로, 장치(200)는 판매 데이터베이스를 통해 사용자의 퍼스널 컬러와 같은 타 사용자에 대응하는 판매 데이터를 획득할 수 있다.
S503 단계에서, 장치(200)는 판매 데이터를 통해 미리 설정된 기준 값보다 많이 판매된 색상을 상위 색상으로 선정할 수 있다. 여기서 기준 값은 미리 설정된 값으로 실시 예에 따라 달라질 수 있다.
구체적으로, 장치(200)는 판매 데이터베이스를 통해 사용자의 퍼스널 컬러와 같은 타 사용자의 판매 데이터를 획득할 수 있고, 획득한 판매 데이터를 통해 미리 설정된 기준 값보다 많이 판매된 색상을 상위 색상으로 선정할 수 있다.
S504 단계에서, 장치(200)는 상위 색상 중 미리 설정된 기간 동안 가장 많이 판매된 색상을 사용자의 선호 색상으로 선정할 수 있다. 여기서 기간은 미리 설정된 기간으로 실시 예에 따라 달라질 수 있으며, 기간은 사용자의 선호 색상을 선정하는 시점의 계절에 기초하여 설정될 수도 있다.
구체적으로, 장치(200)는 판매 데이터베이스를 통해 사용자의 퍼스널 컬러와 같은 타 사용자의 판매 데이터를 획득할 수 있고, 획득한 판매 데이터를 통해 미리 설정된 기준 값보다 많이 판매된 색상을 상위 색상으로 선정할 수 있고, 상위 색상 중 미리 설정된 기간 동안 가장 많이 판매된 색상을 사용자의 선호 색상으로 선정할 수 있다.
이로 인해, 장치(200)는 사용자의 퍼스널 컬러와 같은 사용자가 많이 구매한 색상을 상위 색상으로 선정하고, 상위 색상 중 현재 또는 현재 계절에 가장 많이 판매된 색상을 사용자의 선호 색상으로 선정하여, 사용자의 퍼스널 컬러에 적합하고, 또한 사용자가 가방을 구매할 시점에 적합한 색상의 가방을 추천할 수 있다.
도 6은 일실시예에 따른 사용자 이미지를 기초로 사용자에 대응하는 퍼스널 컬러를 도출하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 사용자 이미지를 기초로, 사용자 얼굴 객체를 추출할 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 사용자 얼굴이 포함된 사용자 이미지를 획득할 수 있고, 사용자 이미지 상에서 사용자 얼굴 객체와 배경을 분리하는 작업을 수행할 수 있다. 사용자 이미지 상에서 사용자 얼굴 객체와 배경을 분리하기 위해 장치(200)는 사용자 얼굴 객체의 형태를 분석하여 사용자 얼굴 객체와 배경을 분리할 수도 있고, 사용자 얼굴 객체의 픽셀 값을 분석하여 사용자 얼굴 객체와 배경을 분리할 수 있다.
예를 들어, 장치(200)는 사용자 이미지로부터 미리 정의된 유사 범위의 패턴이 사용자 이미지 내에서 미리 정의된 기준을 넘어서 반복되는지 여부에 따라 사용자 이미지로부터 배경을 추출하고, 추출된 배경을 사용자 이미지로부터 분리하여 사용자 얼굴 객체를 추출할 수 있다.
S602 단계에서, 장치(200)는 사용자 얼굴 객체로부터 사용자의 눈동자 영역을 분리하고, 눈동자 영역의 픽셀 값을 분석하여 눈동자 영역의 픽셀 값을 포함하는 눈동자 정보를 생성할 수 있다.
구체적으로, 장치(200)는 추출된 사용자 얼굴 객체로부터 사용자의 눈동자 영역을 분리할 수 있고, 분리된 눈동자 영역의 픽셀 값을 분석하여 눈동자 영역의 픽셀 값을 포함하는 눈동자 정보를 생성할 수 있다. 또한, 장치(200)는 눈동자 영역을 세밀하게 분리하기 위해 각 얼굴 영역에 대응하는 데이터를 수집 및 가공함으로써 눈동자 영역에 대응하는 특징을 학습할 수 있고, 사용자 얼굴 객체로부터 눈동자 영역을 분리할 수 있다.
S603 단계에서, 장치(200)는 사용자 얼굴 객체로부터 사용자의 입술 영역을 분리하고, 입술 영역의 픽셀 값을 분석하여 입술 영역의 픽셀 값을 포함하는 입술 정보를 생성할 수 있다.
구체적으로, 장치(200)는 추출된 사용자 얼굴 객체로부터 사용자의 입술 영역을 분리할 수 있고, 분리된 입술 영역의 픽셀 값을 분석하여 입술 영역의 픽셀 값을 포함하는 입술 정보를 생성할 수 있다. 또한, 장치(200)는 입술 영역을 세밀하게 분리하기 위해 각 얼굴 영역에 대응하는 데이터를 수집 및 가공함으로써 입술 영역에 대응하는 특징을 학습할 수 있고, 사용자 얼굴 객체로부터 입술 영역을 분리할 수 있다.
S604 단계에서, 장치(200)는 사용자 얼굴 객체로부터 사용자의 피부 영역을 분리하고, 피부 영역의 픽셀 값을 분석하여 피부 영역의 픽셀 값을 포함하는 피부 정보를 생성할 수 있다.
구체적으로, 장치(200)는 추출된 사용자 얼굴 객체로부터 사용자의 피부 영역을 분리할 수 있고, 분리된 피부 영역의 픽셀 값을 분석하여 피부 영역의 픽셀 값을 포함하는 피부 정보를 생성할 수 있다. 또한, 장치(200)는 피부 영역을 세밀하게 분리하기 위해 각 얼굴 영역에 대응하는 데이터를 수집 및 가공함으로써 피부 영역에 대응하는 특징을 학습할 수 있고, 사용자 얼굴 객체로부터 피부 영역을 분리할 수 있다.
S605 단계에서, 장치(200)는 사용자 얼굴 객체로부터 사용자의 머리카락 영역을 분리하고, 머리카락 영역의 픽셀 값을 분석하여 머리카락 영역의 픽셀 값을 포함하는 머리카락 정보를 생성할 수 있다.
구체적으로, 장치(200)는 추출된 사용자 얼굴 객체로부터 사용자의 머리카락 영역을 분리할 수 있고, 분리된 머리카락 영역의 픽셀 값을 분석하여 머리카락 영역의 픽셀 값을 포함하는 머리카락 정보를 생성할 수 있다. 또한, 장치(200)는 머리카락 영역을 세밀하게 분리하기 위해 각 얼굴 영역에 대응하는 데이터를 수집 및 가공함으로써 머리카락 영역에 대응하는 특징을 학습할 수 있고, 사용자 얼굴 객체로부터 머리카락 영역을 분리할 수 있다.
S606 단계에서, 장치(200)는 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보를 기초로, 제1 입력 신호를 생성할 수 있다.
구체적으로, 장치(200)는 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보를 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보는 제2 인공신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 제1 입력 신호를 생성할 수 있다.
S607 단계에서, 장치(200)는 제1 입력 신호를 제1 입력 신호에 기반하여 퍼스널 컬러를 도출하는 제2 인공신경망에 적용하여 제1 출력 신호를 생성할 수 있다.
제2 인공신경망은 입력된 눈동자 정보, 입술 정보, 피부 정보, 머리카락 정보에 따라 사용자의 퍼스널 컬러, 즉 색상 값을 출력하는 인공지능 모델로, 트레이닝 눈동자 정보들, 트레이닝 입술 정보들, 트레이닝 피부 정보들, 트레이닝 머리카락 정보들, 제1 출력 신호들 및 트레이닝 퍼스널 컬러들에 기초하여 미리 학습될 수 있다. 여기서, 트레이닝 퍼스널 컬러들은 트레이닝 눈동자 정보들, 트레이닝 입술 정보들, 트레이닝 피부 정보들, 트레이닝 머리카락 정보들에 각각 대응하는 색상 값들이고, 제1 출력 신호들은 트레이닝 눈동자 정보들, 트레이닝 입술 정보들, 트레이닝 피부 정보들, 트레이닝 머리카락 정보들이 제2 인공신경망에 적용되어 생성된 출력 신호들이며, 제1 인공신경망은 제1 출력 신호들 및 트레이닝 점수들의 차이들에 기초하여 생성된 트레이닝 에러들을 최소화하여 학습된다.
제2 인공신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제2 인공신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다. 강화 학습에 따라 학습되는 제2 인공신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 사용자의 눈동자 정보, 사용자의 입술 정보, 사용자의 피부 정보, 사용자의 머리카락 정보에 따라 적합한 색상 값을 출력할수록 보상값이 높아질 수 있으며, 제2 보상은 사용자의 눈동자 정보, 사용자의 입술 정보, 사용자의 피부 정보, 사용자의 머리카락 정보에 따라 적합하지 않은 색상 값을 출력하지 않을수록 보상값이 높아질 수 있다.
S608 단계에서, 장치(200)는 제1 출력 신호를 기초로, 사용자에 대응하는 퍼스널 컬러를 도출할 수 있다.
구체적으로, 장치(200)는 제2 인공신경망을 통해 출력된 제1 출력 신호를 기초로, 사용자에 대응하는 퍼스널 컬러를 도출할 수 있다. 이때, 퍼스널 컬러는 색상 값일 수 있으며, CSS 색상명, 헥스 코드 #RRGGBB, 10진 코드 (R,G,B) 중 하나로 표현될 수 있다.
한편, 장치(200)는 사용자 맞춤형 가방을 생성하기 위해 사용자의 퍼스널 컬러에 매칭된 색상을 추천하는 것 뿐만 아니라 사용자로부터 사용자가 가방에 새기고자 하는 커스텀 문구를 추가 획득하여 획득한 커스텀 문구를 가방에 부착할 수 있는 스티커 형식의 출력물로 생성하여 사용자에게 출력물과 가방을 함께 제공할 수 있다.
도 7은 일실시예에 따른 커스텀 문구를 추가로 수신하여 출력물을 제작하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저 S701 단계에서, 장치(200)는 사용자의 단말(100)로부터 가방 주문 정보를 수신할 수 있다.
여기서, 가방 주문 정보는 가방 제작을 주문하기 위해 요구되는 정보로서, 가방과 관련된 정보, 가방을 제작한 제작자와 관련된 정보, 사용자와 관련된 정보를 포함할 수 있다. 이때, 가방을 제작한 제작자와 관련된 정보는 가방과 관련된 정보에 포함될 수 있다.
가방과 관련된 정보는 사용자가 구매하고자 하는 가방의 제품명, 가방의 크기, 가방의 재질, 사용자의 퍼스널 컬러와 매칭된 가방의 색상, 제작자와 관련된 정보가 새겨지는 부분의 레이아웃, 및 사용자와 관련된 정보가 새겨지는 부분의 레이아웃을 포함할 수 있다.
제작자와 관련된 정보는 가방을 제작한 제작자의 이름, 제작자의 로고 중 적어도 하나를 포함할 수 있다.
사용자와 관련된 정보는 사용자가 커스텀할 문구와 관련된 정보로, 사용자의 이름, 사용자의 연락처, 사용자가 가방에 새기고자 하는 이미지 또는 텍스트를 포함할 수 있다.
이때, 가방을 제작한 제작자와 관련된 정보는 장치(200)에 포함된 데이터베이스에 가방과 매칭하여 저장될 수 있다. 즉, 장치(200)는 사용자의 단말(100)로부터 사용자가 구매하고자 하는 가방과 관련된 정보, 사용자와 관련된 정보를 수신할 수 있고, 데이터베이스로부터 사용자가 구매하고자 하는 가방과 관련된 정보에 매칭된 가방을 제작한 제작자와 관련된 정보를 획득할 수 있다
S702 단계에서, 장치(200)는 가방 주문 정보에 따라 제1 부분 및 제2 부분을 포함하는 인쇄용 출력 파일을 생성할 수 있다.
여기서, 제1 부분은 가방을 제작한 제작자와 관련된 정보가 배치되는 부분을 의미하고, 제2 부분은 사용자와 관련된 정보가 배치되는 부분을 의미할 수 있다.
구체적으로, 장치(200)는 사용자의 단말(100)로부터 획득한 가방 주문 정보에 포함된 가방의 정보를 기초로, 가방을 제작한 제작자와 관련된 정보가 배치되는 부분인 제1 부분의 레이아웃을 결정할 수 있고, 가방의 정보를 기초로, 사용자와 관련된 정보가 배치되는 부분인 제2 부분의 레이아웃을 결정할 수 있다.
이때, 레이아웃은, 각각의 텍스트 또는 이미지의 위치, 폰트, 크기, 스타일 및 색상을 포함할 수 있다.
예를 들어, 제작자와 관련된 정보로 제작자의 로고를 획득하고, 사용자와 관련된 정보로 사용자의 연락처를 수신한 경우, 장치(200)는 가방의 정보를 기초로, 제1 부분의 레이아웃 및 제2 부분의 레이아웃을 확인할 수 있고, 확인 결과에 따라 제1 부분의 레이아웃을 기초로, 제작자의 로고의 위치, 제작자의 로고의 크기, 제작자의 로고의 색상을 결정할 수 있고, 제2 부분의 레이아웃을 기초로, 사용자의 연락처의 위치, 사용자의 연락처의 크기, 사용자의 연락처의 색상을 결정할 수 있다.
즉, 장치(200)는 사용자의 단말로부터 획득한 가방 주문 정보를 기초로, 가방을 제작한 제작자와 관련된 정보, 가방을 주문한 사용자와 관련된 정보를 분류할 수 있고, 가방 주문 정보에 포함된 가방의 정보를 기초로, 가방에 새겨질 제작자와 관련된 정보가 배치되는 제1 부분의 레이아웃 및 가방에 새겨질 사용자와 관련된 정보가 배치되는 제2 부분의 레이아웃을 결정하여 인쇄용 출력 파일을 생성할 수 있다.
S703 단계에서, 장치(200)는 인쇄용 출력 파일을 사용자의 단말(100)에 전송하고, 사용자의 단말(100)로부터 인쇄용 출력 파일에 대한 사용자의 가방 제작 요청을 수신할 수 있다. 여기서, 인쇄용 출력 파일은 제작자와 관련된 정보 및 사용자와 관련된 정보가 가방 제작을 위해 자동 편집되어 가방에 부착될 프린팅 스티커 형식의 출력하기 위해 생성된 파일을 의미할 수 있다. 예를 들어, 인쇄용 출력 파일의 형식은 BMP, JPEGM GIF, PNG, PS, PDF, EPS, AI 및 PSD 등을 포함할 수 있으나 이에 한정되지는 않는다.
즉, 장치(200)는 사용자의 단말(100)로 제작하고자 하는 가방에 대한 인쇄용 출력 파일을 전송할 수 있으며, 사용자의 단말(100)로부터 인쇄용 출력 파일에 대한 사용자의 가방 제작 요청을 수신할 수 있다.
S704 단계에서, 장치(200)는 가방의 제1 부분에 대한 출력 요청을 프린터 장치에 전송할 수 있다.
즉, 장치(200)는 가방 주문 정보에 따라 제작자와 관련된 정보가 배치되는 제1 부분에 대한 출력 요청을 프린터 장치에 전송할 수 있다.
S705 단계에서, 장치(200)는 제2 부분에 게재되는 사용자와 관련된 정보의 배열을 서로 다른 제1 배열 및 제2 배열로 결정할 수 있다.
여기서, 사용자와 관련된 정보의 배열은 사용자와 관련된 정보의 순서 및 배치 방법 등을 포함할 수 있으나 이에 한정되지는 않는다.
예를 들어, 장치(200)는 사용자의 이름, 사용자의 연락처, 사용자가 가방에 새기고자 하는 이미지 또는 텍스트 순인 제1 배열 및 사용자가 가방에 새기고자 하는 이미지 또는 텍스트 이름, 사용자의 이름, 사용자의 연락처 순인 제2 배열을 결정할 수 있다.
일실시예에 따르면, 장치(200)는 가방의 제2 부분에 대한 출력 요청을 프린터 장치에 전송하기 전 제2 부분을 편집할 수 있다.
S706 단계에서, 장치(200)는 사용자와 관련된 정보에 포함된 사용자의 연락처의 끝자리가 홀수인 경우, 제1 배열을 이용하여 사용자와 관련된 정보를 제2 부분에 표시할 수 있다.
예를 들어, 사용자와 관련된 정보에 포함된 사용자의 연락처의 끝자리가 홀수인 경우, 장치(200)는 사용자의 이름, 사용자의 연락처, 사용자가 가방에 새기고자 하는 이미지 또는 텍스트 순인 제1 배열을 이용하여 사용자와 관련된 정보를 제2 부분에 표시할 수 있다.
S707 단계에서, 장치(200)는 사용자와 관련된 정보에 포함된 사용자의 연락처의 끝자리가 짝수인 경우, 제2 배열을 이용하여 사용자와 관련된 정보를 제2 부분에 표시
예를 들어, 사용자와 관련된 정보에 포함된 사용자의 전화번호의 끝자리가 짝수인 경우, 장치(200)는 사용자가 가방에 새기고자 하는 이미지 또는 텍스트 이름, 사용자의 이름, 사용자의 연락처 순인 제2 배열을 이용하여 사용자와 관련된 정보를 제2 부분에 표시할 수 있다.
S708 단계에서, 장치(200)는 가방의 제2 부분에 대한 출력 요청을 프린터 장치에 전송할 수 있다.
즉, 장치(200)는 가방 주문 정보에 따라 사용자와 관련된 정보가 배치되는 제2 부분에 대한 출력 요청을 프린터 장치에 전송할 수 있다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 7을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법에 있어서,
    사용자의 단말로부터 상기 사용자의 얼굴이 포함된 사용자 이미지를 획득하는 단계;
    상기 사용자 이미지를 기초로, 상기 사용자에 대응하는 퍼스널 컬러를 확인하는 단계;
    상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하는 단계; 및
    상기 사용자에 대응하는 퍼스널 컬러 및 상기 사용자의 선호 색상을 기초로, 상기 사용자와 매칭된 가방의 색상을 추천하는 단계를 포함하고,
    상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하는 단계는,
    상기 사용자의 단말로부터 선호 글귀, 문학 작품 및 상기 사용자가 작성한 글귀 중 적어도 하나를 포함하는 사용자 선호 글귀 정보를 수신하는 단계,
    키워드 - 색상 매칭 데이터베이스를 이용하여 상기 사용자 선호 글귀 정보에서 색상과 매칭되는 키워드를 추출하는 단계,
    상기 사용자 선호 글귀 정보에 포함된 제1 키워드에 매칭된 제1 색상과 제2 키워드에 매칭된 제2 색상을 확인하는 단계,
    상기 사용자 선호 글귀 정보에 포함된 상기 제1 키워드와 상기 제2 키워드의 비율을 확인하는 단계, 및
    상기 제1 키워드와 상기 제2 키워드의 비율을 제1 인공신경망에 입력하여 상기 사용자의 선호 색상을 출력하는 단계를 포함하고,
    상기 제1 인공신경망은,
    상기 제1 키워드의 비율과 상기 제2 키워드의 비율에 따라 상기 제1 색상과 상기 제2 색상을 혼합한 색상을 출력하기 위한 인공신경망을 포함하고,
    상기 사용자의 단말로부터 상기 사용자의 선호 색상을 획득하는 단계는,
    상기 사용자의 SNS를 통해 상기 사용자가 작성한 게시글을 획득하는 단계,
    상기 게시글에 포함된 이미지를 추출하여 제1 그룹으로 분류하는 단계,
    상기 제1 그룹으로 분류된 이미지를 기초로, 상기 사용자가 포함된 이미지를 제1-1그룹으로 분류하는 단계,
    상기 제1-1 그룹에 포함된 이미지에서 상기 사용자를 추출하고, 상기 사용자가 착용하고 있는 의상 및 장식품을 부속품으로 추출하는 단계, 및
    상기 부속품의 색상 값을 추출하고, 가장 많이 포함된 색상 값을 기초로, 사용자의 선호 색상을 선정하는 단계를 더 포함하고,
    상기 제1 그룹으로 분류되는 이미지는 상기 사용자의 SNS 계정에 업로드된 게시글의 평균 좋아요 수 이상인 이미지이고,
    상기 퍼스널 컬러는 상기 가방의 제1 부위의 색상으로 결정되고, 상기 선호 색상은 상기 가방의 제2 부위의 색상으로 결정되는,
    인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법.
  2. 삭제
  3. 삭제
KR1020220164488A 2022-11-30 2022-11-30 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템 KR102525624B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220164488A KR102525624B1 (ko) 2022-11-30 2022-11-30 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220164488A KR102525624B1 (ko) 2022-11-30 2022-11-30 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102525624B1 true KR102525624B1 (ko) 2023-04-26

Family

ID=86099420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220164488A KR102525624B1 (ko) 2022-11-30 2022-11-30 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102525624B1 (ko)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110094435A (ko) * 2010-02-16 2011-08-24 주식회사 누리지미디어 소셜 네트워크 기반 패션 콘텐츠 서비스 시스템
KR20150093332A (ko) * 2014-02-07 2015-08-18 정연아 퍼스널 컬러 매칭 시스템 및 방법
KR101874631B1 (ko) 2016-12-20 2018-08-02 박은아 퍼스널 컬러 코칭 커리큘럼 제공 방법
KR20190007187A (ko) * 2017-07-12 2019-01-22 주식회사 샤인위드 퍼스널 컬러의 네일 매칭 시스템 및 방법
KR20210030178A (ko) * 2019-09-09 2021-03-17 권수희 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법, 장치 및 프로그램
KR20210085433A (ko) 2019-12-30 2021-07-08 영진전문대학 산학협력단 퍼스널 컬러 추천 서비스 시스템
KR20220126909A (ko) 2021-03-10 2022-09-19 이지현 인공지능 기반 맞춤형 퍼스널 컬러 진단에 따른 화장품 추천 시스템
KR20220127470A (ko) * 2021-03-11 2022-09-20 노재은 가중치를 이용한 사용자 취향분석 및 공연 리스트업 시스템
KR102447426B1 (ko) 2022-07-08 2022-09-27 클로우플레이크(주) 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110094435A (ko) * 2010-02-16 2011-08-24 주식회사 누리지미디어 소셜 네트워크 기반 패션 콘텐츠 서비스 시스템
KR20150093332A (ko) * 2014-02-07 2015-08-18 정연아 퍼스널 컬러 매칭 시스템 및 방법
KR101874631B1 (ko) 2016-12-20 2018-08-02 박은아 퍼스널 컬러 코칭 커리큘럼 제공 방법
KR20190007187A (ko) * 2017-07-12 2019-01-22 주식회사 샤인위드 퍼스널 컬러의 네일 매칭 시스템 및 방법
KR20210030178A (ko) * 2019-09-09 2021-03-17 권수희 이미지 및 텍스트 통합분석에 기반한 패션 트렌드 예측방법, 장치 및 프로그램
KR20210085433A (ko) 2019-12-30 2021-07-08 영진전문대학 산학협력단 퍼스널 컬러 추천 서비스 시스템
KR20220126909A (ko) 2021-03-10 2022-09-19 이지현 인공지능 기반 맞춤형 퍼스널 컬러 진단에 따른 화장품 추천 시스템
KR20220127470A (ko) * 2021-03-11 2022-09-20 노재은 가중치를 이용한 사용자 취향분석 및 공연 리스트업 시스템
KR102447426B1 (ko) 2022-07-08 2022-09-27 클로우플레이크(주) 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
CN110785767B (zh) 紧凑的无语言面部表情嵌入和新颖三元组的训练方案
Barros et al. Developing crossmodal expression recognition based on a deep neural model
CN110796190A (zh) 具有深度学习特征的指数建模
CN109508375A (zh) 一种基于多模态融合的社交情感分类方法
CN115345278A (zh) 卷积神经网络的结构学习
KR102468827B1 (ko) 인공지능 기반 상품 소싱 및 카테고리 맞춤형 리뷰 분석 서비스 제공 방법, 장치 및 시스템
CN115917535A (zh) 推荐模型的训练方法、推荐方法、装置及计算机可读介质
KR20200036680A (ko) 감정 정보 획득을 위한 전자 장치 및 방법
KR102469679B1 (ko) 인공지능 기반의 맞춤형 음식 추천 방법 및 장치
Karthik et al. Sarcastic user behavior classification and prediction from social media data using firebug swarm optimization-based long short-term memory
Jaroli et al. Deep learning model based novel semantic analysis
KR102601446B1 (ko) 인공지능 모델을 활용한 인플루언서 기반 판매 제품매칭 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102586799B1 (ko) 인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법, 장치 및 시스템
KR102552856B1 (ko) 커머스 연계 콘텐츠 제공 플랫폼 서비스를 위한 키워드 추출 및 콘텐츠 템플릿 생성 자동화 방법, 장치 및 시스템
KR102463875B1 (ko) 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템
Wu et al. A Federated Deep Learning Framework for Privacy-Preserving Consumer Electronics Recommendations
KR102525624B1 (ko) 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템
KR102615445B1 (ko) 대변 이미지 분석 기반 영양 정보 제공 방법, 장치 및 시스템
KR102521020B1 (ko) 인공지능 모델을 이용한 갤러리, 작가 및 소비자 매칭 및 결제 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102476815B1 (ko) 인공지능 기반 스톡 이미지 자동 추출 방법, 장치 및 시스템
Apicella et al. Sparse dictionaries for the explanation of classification systems
KR102662214B1 (ko) 사용자 개인 성향에 기반한 진주를 포함하는 쥬얼리 제품 추천 방법
KR102618066B1 (ko) 군인 기반 커뮤니티 애플리케이션에서 자연어 처리 및 이미지 대조를 기반으로 하여 군사 보안을 강화하는 방법, 장치 및 시스템
KR102564182B1 (ko) 인공지능 모델을 활용하여 영상 데이터 기반 얼굴 표정 영상 추출 및 이를 활용한 콘텐츠 생성 방법, 장치 및 시스템
KR102636797B1 (ko) 인공지능 모델을 활용하여 해시태그 기반 노트 주제 및 노트 콘텐츠 분석을 통해 사용자 심리 상태를 분석하고 이에 대한 솔루션 제공 방법, 장치 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant