KR102447426B1 - 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템 - Google Patents

초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102447426B1
KR102447426B1 KR1020220084111A KR20220084111A KR102447426B1 KR 102447426 B1 KR102447426 B1 KR 102447426B1 KR 1020220084111 A KR1020220084111 A KR 1020220084111A KR 20220084111 A KR20220084111 A KR 20220084111A KR 102447426 B1 KR102447426 B1 KR 102447426B1
Authority
KR
South Korea
Prior art keywords
customer
color
product
analyzing
data
Prior art date
Application number
KR1020220084111A
Other languages
English (en)
Inventor
이용관
이상희
권진용
Original Assignee
클로우플레이크(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 클로우플레이크(주) filed Critical 클로우플레이크(주)
Priority to KR1020220084111A priority Critical patent/KR102447426B1/ko
Application granted granted Critical
Publication of KR102447426B1 publication Critical patent/KR102447426B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0629Directed, with specific intent or strategy for generating comparisons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법에 있어서, 제1 고객을 촬영하여 생성된 제1 이미지가 획득되면, 상기 제1 이미지를 기초로, 상기 제1 고객의 퍼스널 컬러를 분석하는 단계; 상기 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터가 획득되면, 상기 제1 고객의 SNS 자료 및 카드 결제 내역 및 위치 기록 데이터를 기초로, 상기 제1 고객의 행동 데이터를 분석하는 단계; 상기 제1 고객의 퍼스널 컬러와 상기 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성하는 단계; 상기 매칭 결과를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 상기 제1 고객의 라이프스타일을 예측하는 단계; 및 상기 제1 고객의 라이프스타일을 기반으로, 상기 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말로 제공하는 단계를 포함하는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법이 제공된다.

Description

초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR RECOMMENDING LIFESTYLE GUIDE INFORMATION ANALYZING PERSONAL COLOR AND TIMELINE BASED BEHAVIORAL DATA FOR HYPER PERSONALIZATION}
아래 실시예들은 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하기 위한 기술에 관한 것이다.
사람은 각 개인마다 고유의 특징적인 신체 색을 가지고 있다. 이와 같은 개인마다의 고유의 특징적인 신체 색을 퍼스널 컬러(Personal Color)라 한다. 즉, 퍼스널 컬러는 인격적 색체와 신체적 특징으로 나타나는 피부, 머리카락 및 눈동자의 색채 등 각자 타고난 고유의 인체 색상을 의미한다.
최근 화장술 및 패션 기술에 대한 관심이 많아지면서 이러한 퍼스널 컬러를 진단하여 사용자의 신체 색상에 가장 적합한 유형을 분류하고 유형에 어울리는 색채를 제안하는 퍼스널 컬러 시스템이 제안되었다.
기존의 퍼스널 컬러 시스템은 타고난 신체의 색(피부색, 머리카락색, 눈동자색)을 통해 봄, 여름, 가을, 겨울의 사계절 유형으로 분류하는 방식이 가장 보편적으로 많이 이용되는 방식이다. 이와 같이 사계절 유형으로 분류하는 방식은 일반적으로 따듯하고 부드러운 신체 색을 지닌 사람을 봄 유형, 차갑고 부드러운 신체 색을 지닌 사람을 여름 유형, 따뜻하면서도 짙은 신체 색을 지닌 사람을 가을 유형, 차갑고 강한 느낌의 신체 색을 지닌 사람을 겨울 유형으로 분류하고 있다. 이러한 사계절 유형 각각에 대응되어 복수의 서로 다른 색상이 정의되어 있으며, 사계절 유형에 따르면 따듯하면서 부드러운 색은 봄, 차가우면서 부드러운 색은 여름, 따뜻하면서 딱딱한 색은 가을, 차가우면서 딱딱한 색은 겨울로 분류한다.
이를 통해 퍼스널 컬러 시스템은 사용자의 신체 색을 기반으로 결정된 계정 유형에 속하는 색상을 추천하며, 해당 색상을 기초로 사용자가 화장품이나 머리 또는 의복의 색상을 결정하여 사용자의 이미지를 개선시킬 수 있다.
하지만, 퍼스널 컬러를 이용해서 사용자의 라이프스타일에 도움이 되는 정보를 추천하는데 한계가 있다.
따라서, 라이프스타일에 도움이 되는 정보를 추천하는데 있어, 다양한 데이터의 분석 결과를 이용하여 정보를 추천하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.
한국공개특허 제10-2020-0025291호 한국공개특허 제10-2020-0066970호 한국공개특허 제10-2020-0045759호 한국공개특허 제10-2019-0136483호
일실시예에 따르면, 제1 고객을 촬영하여 생성된 제1 이미지가 획득되면, 제1 이미지를 기초로, 제1 고객의 퍼스널 컬러를 분석하고, 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터가 획득되면, 제1 고객의 SNS 자료 및 카드 결제 내역 및 위치 기록 데이터를 기초로, 제1 고객의 행동 데이터를 분석하고, 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성하고, 매칭 결과를 제1 인공 신경망에 적용하여, 제1 인공 신경망의 출력을 기초로, 제1 고객의 라이프스타일을 예측하고, 제1 고객의 라이프스타일을 기반으로, 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말로 제공하는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법에 있어서, 제1 고객을 촬영하여 생성된 제1 이미지가 획득되면, 상기 제1 이미지를 기초로, 상기 제1 고객의 퍼스널 컬러를 분석하는 단계; 상기 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터가 획득되면, 상기 제1 고객의 SNS 자료 및 카드 결제 내역 및 위치 기록 데이터를 기초로, 상기 제1 고객의 행동 데이터를 분석하는 단계; 상기 제1 고객의 퍼스널 컬러와 상기 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성하는 단계; 상기 매칭 결과를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 상기 제1 고객의 라이프스타일을 예측하는 단계; 및 상기 제1 고객의 라이프스타일을 기반으로, 상기 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말로 제공하는 단계를 포함하는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법이 제공된다.
상기 제1 고객의 퍼스널 컬러를 분석하는 단계는, 상기 제1 이미지에서 상기 제1 고객의 머리카락이 있는 제1 영역, 상기 제1 고객의 눈동자가 있는 제2 영역, 상기 제1 고객의 얼굴이 있는 제3 영역을 각각 인식하는 단계; 상기 제1 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제1 영역의 대표 색상을 제1 컬러로 설정하고, 상기 제2 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제2 영역의 대표 색상을 제2 컬러로 설정하고, 상기 제3 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제3 영역의 대표 색상을 제3 컬러로 설정하는 단계; 및 상기 제1 컬러, 상기 제2 컬러 및 상기 제3 컬러의 조합을 기반으로, 상기 제1 고객의 퍼스널 컬러를 분석하는 단계를 포함하고, 상기 제1 고객의 행동 데이터를 분석하는 단계는, 상기 제1 고객의 SNS 자료를 기반으로, 상기 제1 고객의 선호 성향을 분석하는 단계; 상기 제1 고객의 카드 결제 내역을 기반으로, 상기 제1 고객의 소비 패턴을 분석하는 단계; 상기 제1 고객의 위치 기록 데이터를 기반으로, 상기 제1 고객의 이동 패턴을 분석하는 단계; 및 상기 제1 고객의 선호 성향, 상기 제1 고객의 소비 패턴 및 상기 제1 고객의 이동 패턴을 취합하여, 상기 제1 고객의 행동 데이터를 분석하는 단계를 포함할 수 있다.
상기 제1 고객을 위한 추천 가이드 정보를 상기 제1 고객 단말로 제공하는 단계는, 상기 제1 고객의 라이프스타일과 동일한 라이프스타일을 가지는 고객들을 그룹화하여, 제1 고객 그룹으로 분류하는 단계; 상기 제1 고객 그룹에 속하는 고객들 각각의 선호 성향에 기초하여, 상기 제1 고객 그룹에 속하는 고객들이 선호할 것으로 예상되는 제1 상품을 추천 상품으로 선정하는 단계; 상기 제1 상품의 출시 색상과 상기 제1 고객의 퍼스널 컬러를 비교하여, 상기 제1 상품의 출시 색상 중에서 상기 제1 고객의 퍼스널 컬러와 어울릴 것으로 예상되는 제1 색상을 추천 색상으로 선정하는 단계; 상기 제1 고객의 이동 패턴에 기초하여, 상기 제1 상품을 판매하는 판매점들 중에서 상기 제1 고객의 동선과 가장 가깝게 위치하는 것으로 확인되는 제1 판매점을 추천 판매점으로 선정하는 단계; 상기 제1 판매점의 업종이 제1 업종으로 확인되면, 상기 제1 고객의 소비 패턴에 기초하여, 상기 제1 업종에 대해 향후 소비가 이루어질 것으로 예상되는 소비 예측 시기를 설정하는 단계; 및 상기 소비 예측 시기가 도래한 것으로 확인되면, 상기 제1 상품, 상기 제1 색상 및 상기 제1 판매점에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계를 포함하고, 상기 제1 상품, 상기 제1 색상 및 상기 제1 판매점에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계는, 상기 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 있는지 여부를 확인하는 단계; 및 상기 제1 판매점에서 제1 결제 수단으로 결제 시 혜택이 있는 것으로 확인되면, 상기 제1 결제 수단에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계를 포함할 수 있다.
일실시예에 따르면, 제1 고객을 촬영하여 생성된 제1 이미지가 획득되면, 제1 이미지를 기초로, 제1 고객의 퍼스널 컬러를 분석하고, 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터가 획득되면, 제1 고객의 SNS 자료 및 카드 결제 내역 및 위치 기록 데이터를 기초로, 제1 고객의 행동 데이터를 분석하고, 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성하고, 매칭 결과를 제1 인공 신경망에 적용하여, 제1 인공 신경망의 출력을 기초로, 제1 고객의 라이프스타일을 예측하고, 제1 고객의 라이프스타일을 기반으로, 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말로 제공함으로써, 퍼스널 컬러와 행동 데이터를 분석하여 라이프스타일에 도움이 되는 추천 가이드 정보를 제공할 수 있는 효과가 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 제1 인공 신경망의 학습을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 퍼스널 컬러를 분석하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 행동 데이터를 분석하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 추천 가이드 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 결제 수단에 추천 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 추천 결제 수단 목록을 제공하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 상품의 반출량을 관리하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제2 인공 신경망을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 상품 판매 내역을 통해 상품의 반출량을 확인하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 상품으로 구현될 수 있다.
실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 고객 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 복수의 고객 단말(100) 및 장치(200)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
복수의 고객 단말(100) 각각은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 바람직하게, 도 1에 도시된 바와 같이, 제1 고객 단말(110), 제2 고객 단말(120), 제3 고객 단말(130) 등은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.
복수의 고객 단말(100) 각각은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 복수의 고객 단말(100)은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
복수의 고객 단말(100) 각각은 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 복수의 고객 단말(100) 각각은 웹 페이지 또는 애플리케이션을 통해 장치(200)와 연동될 수 있다.
복수의 고객 단말(100) 각각은 장치(200)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(200)에 접속할 수 있다.
이하에서는 설명의 편의상, 제1 고객 단말(110)의 동작을 위주로 설명하지만, 제2 고객 단말(120) 등의 다른 고객 단말에서 제1 고객 단말(110)의 동작을 대신 수행할 수 있는 것은 물론이다.
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.
장치(200)는 복수의 고객 단말(100)과 유무선으로 통신하도록 구성될 수 있으며, 복수의 고객 단말(100) 각각의 동작을 제어하고, 복수의 고객 단말(100) 각각의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.
한편, 설명의 편의를 위해 도 1에서는 복수의 고객 단말(100) 중 제1 고객 단말(110), 제2 고객 단말(120) 및 제3 고객 단말(130)만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.
일실시예에 따르면, 장치(200)는 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천할 수 있다.
구체적으로, 장치(200)는 고객의 머리카락 색, 눈동자 색, 피부 색을 기반으로, 고객의 퍼스널 컬러를 분석할 수 있고, 퍼스널 컬러를 통해 신체나이, 성향 등을 유추할 수도 있다. 여기서, 퍼스널 컬러는 고객과 가장 어울리는 색상 또는 고객을 대표하는 색상을 의미할 수 있다.
장치(200)는 고객의 SNS 자료, SMS 자료, 카드 결제 내역, GPS 좌표를 이용한 위치 기록 데이터 등을 기초로, 고객의 행동 데이터를 분석할 수 있다. 여기서, 행동 데이터는 타임라인 기반으로 생성될 수 있고, 선호 성향(선호하는 스타일, 화장법 등), GPS 좌표를 통한 이동 패턴, 금융 소비 패턴(온라인, 오프라인 등)에 대한 데이터를 포함할 수 있다.
장치(200)는 퍼스널 컬러와 행동 데이터를 매칭하여, 인공지능을 기반으로 고객의 라이프스타일을 예측할 수 있고, 예측된 라이프스타일에 도움이 되는 추천 가이드 정보를 제공할 수 있다. 여기서, 추천 가이드 정보는 상품, 색상, 동선, 금융 등을 추천하는 추천 정보를 포함할 수 있다.
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.
도 2는 일실시예에 따른 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 고객을 촬영하여 생성된 제1 이미지를 획득할 수 있다. 여기서, 제1 이미지는 2D 이미지일 수도 있고, 3D 이미지일 수도 있으며, 2D 이미지 및 3D 이미지의 병합으로 구성될 수도 있다.
구체적으로, 제1 고객 단말(110)은 제1 고객의 얼굴이 있는 부분을 촬영하여 제1 이미지를 생성할 수 있고, 제1 고객의 요청에 의해 제1 이미지에 대한 정보 제공이 허용되면, 장치(200)는 제1 고객 단말(110)로부터 제1 이미지를 획득할 수 있다.
S202 단계에서, 장치(200)는 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터를 획득할 수 있다.
구체적으로, 제1 고객의 요청에 의해 제1 고객의 SNS 자료에 대한 정보 제공이 허용되면, 장치(200)는 제1 고객의 SNS 자료를 관리하는 외부 서버로부터 제1 고객의 SNS 자료를 수신하여 획득할 수 있다. 여기서, 제1 고객의 SNS 자료는 제1 고객의 SNS 계정에 업로드된 게시 자료를 의미할 수 있다.
또한, 제1 고객의 요청에 의해 제1 고객의 카드 결제 내역에 대한 정보 제공이 허용되면, 장치(200)는 제1 고객의 카드 결제 내역을 관리하는 외부 서버로부터 제1 고객의 카드 결제 내역을 수신하여 획득할 수 있다. 여기서, 제1 고객의 카드 결제 내역은 제1 고객이 어느 시점에 어느 가맹점에서 얼마나 많은 금액을 카드로 결제하였는지 나타내는 리스트로 구성될 수 있다,
또한, 제1 고객의 요청에 의해 제1 고객의 위치 기록 데이터에 대한 정보 제공이 허용되면, 장치(200)는 제1 고객의 위치 기록 데이터를 관리하는 외부 서버로부터 제1 고객의 위치 기록 데이터를 수신하여 획득할 수 있다. 여기서, 제1 고객의 위치 기록 데이터는 제1 고객 단말(110)의 GPS를 통해 추적되어 기록될 수 있고, 타임라인을 통해 언제 어디에서 위치하였는지 나타내는 동선으로 구성될 수 있다.
S203 단계에서, 장치(200)는 제1 이미지를 기초로, 제1 고객의 퍼스널 컬러를 분석할 수 있다. 여기서, 제1 고객의 퍼스널 컬러는 제1 고객과 가장 어울리는 색상 또는 제1 고객을 대표하는 색상을 의미할 수 있다. 제1 고객의 퍼스널 컬러는 분석하는 과정에 대한 자세한 설명은 도 4를 참조하여 후술하기로 한다.
S204 단계에서, 장치(200)는 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터를 기초로, 제1 고객의 행동 데이터를 분석할 수 있다. 여기서, 제1 고객의 행동 데이터는 제1 고객의 행동에 대한 특징을 나타내는 데이터를 의미할 수 있고, 제1 고객의 선호 성향, 소비 패턴 및 이동 패턴에 대한 데이터를 포함할 수 있다. 제1 고객의 행동 데이터를 분석하는 과정에 대한 자세한 설명은 도 5를 참조하여 후술하기로 한다.
S205 단계에서, 장치(200)는 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성할 수 있다. 즉, 장치(200)는 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭하여, 제1 고객의 퍼스널 컬러와 제1 고객의 행동에 대한 특징을 매칭한 매칭 결과를 생성할 수 있다.
S206 단계에서, 장치(200)는 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭한 매칭 결과를 제1 인공 신경망에 적용할 수 있다. 여기서, 제1 인공 신경망은 퍼스널 컬러와 행동 데이터의 매칭 결과를 입력 받은 후, 퍼스널 컬러와 행동에 대한 특징을 기반으로 라이프스타일을 예측하여 출력하는 알고리즘일 수 있다. 제1 인공 신경망은 도 3을 참조하여 후술되는 방법을 통해 학습될 수 있다.
S207 단계에서, 장치(200)는 제1 인공 신경망의 출력을 기초로, 제1 고객의 라이프스타일을 예측할 수 있다. 여기서, 라이프스타일은 생활 습관, 생활 패턴 등의 라이프스타일이 어떠한 스타일인지 나타내기 위한 것으로, 생활 방식, 행동 방식 등의 다양한 기준을 통해 여러 스타일로 구분될 수 있다. 예를 들어, 라이프스타일은 외부 활동이 많은 스타일, 내부 활동이 많은 스타일, 주간 활동이 많은 스타일, 야간 활동이 많은 스타일, 특정 브랜드의 상품을 선호하는 스타일 등의 다양한 기준을 통해 구분될 수 있다.
일실시예에 따르면, 제1 인공 신경망은 퍼스널 컬러와 행동 데이터를 매칭한 매칭 결과를 통해, 라이프스타일이 어떠한 스타일인지 예측하도록 학습될 수 있다. 이를 통해, 제1 인공 신경망은 고객의 퍼스널 컬러와 고객의 행동에 대한 특징을 고려하여, 고객의 라이프스타일을 예측하여 출력할 수 있다.
예를 들어, 제1 인공 신경망은 제1 고객의 퍼스널 컬러와 제1 고객의 행동 데이터를 매칭한 매칭 결과를 입력 받은 후, 제1 고객의 퍼스널 컬러가 제1 색상으로 확인되고 제1 고객의 행동에 대한 특징이 스포츠 의류를 선호하는 선호 성향, 오프라인 쇼핑 위주의 소비 패턴, 활동 반경이 넓은 이동 패턴으로 확인되면, 제1 고객의 퍼스널 컬러, 선호 성향, 소비 패턴 및 이동 패턴을 기반으로, 제1 고객의 라이프스타일을 외부 활동을 활발히 수행하는 스타일인 제1 라이프스타일로 예측하여 출력할 수 있으며, 장치(200)는 제1 인공 신경망의 출력을 통해, 제1 고객의 라이프스타일에 대한 예측 결과를 제1 라이프스타일로 확인할 수 있다.
S208 단계에서, 장치(200)는 제1 고객의 라이프스타일을 기반으로, 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말(110)로 제공할 수 있다. 여기서, 추천 가이드 정보는 제1 고객의 라이프스타일에 도움을 주기 위해 추천하는 가이드 정보로, 상품, 색상, 동선, 금융 등 라이프스타일에 도움이 되는 다양한 것들을 추천하는 추천 정보를 포함할 수 있다.
예를 들어, 장치(200)는 제1 고객의 라이프스타일이 외부 활동을 활발히 수행하는 스타일인 제1 라이프스타일로 예측되면, 제1 라이프스타일의 고객에게 잘 맞을 것으로 예상되는 상품, 색상, 동선, 금융 등을 분석하여, 분석된 결과를 제1 고객을 위한 추천 가이드 정보로 제공할 수 있다. 제1 고객을 위한 추천 가이드 정보를 제공하는 과정에 대한 자세한 설명은 도 6을 참조하여 후술하기로 한다.
도 3은 일실시예에 따른 제1 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 제1 인공 신경망은 퍼스널 컬러와 행동 데이터의 매칭 결과를 입력 받은 후, 퍼스널 컬러와 행동에 대한 특징을 기반으로 라이프스타일을 예측하여 출력하는 알고리즘일 수 있다. 제1 인공 신경망의 학습이 이루어지는 학습 장치는 학습된 제1 인공 신경망을 이용하여 라이프스타일을 예측하는 장치(200)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 제1 인공 신경망이 학습되는 과정을 설명한다.
먼저, S301 단계에서, 학습 장치는 퍼스널 컬러와 행동 데이터의 매칭 결과를 기초로 입력을 생성할 수 있다.
구체적으로, 학습 장치는 퍼스널 컬러와 행동 데이터를 매칭한 후, 매칭된 결과에 대한 전처리를 수행할 수 있다. 전처리가 수행된 매칭 결과를 제1 인공 신경망의 입력으로 그래도 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S302 단계에서, 학습 장치는 제1 인공 신경망에 입력을 적용할 수 있다. 제1 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 제1 인공 신경망일 수 있다. 제1 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 제1 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 특정 퍼스널 컬러와 어울리는 라이프스타일을 예측하면 보상값이 높아질 수 있으며, 제2 보상은 특정 행동(소비 패턴, 이동 패턴, 선호 성향 등)과 어울리는 라이프스타일을 예측하면 보상값이 높아질 수 있다.
S303 단계에서, 학습 장치는 제1 인공 신경망으로부터 출력을 획득할 수 있다. 제1 인공 신경망의 출력은 퍼스널 컬러와 행동 데이터의 매칭 결과를 통해 라이프스타일을 예측한 결과일 수 있다. 이때, 제1 인공 신경망은 퍼스널 컬러와 행동에 대한 특징을 고려하여, 어울리는 라이프스타일을 예측하여 출력할 수 있다.
S304 단계에서, 학습 장치는 제1 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상 등으로 나뉠 수 있다.
구체적으로, 학습 장치는 특정 퍼스널 컬러와 어울리는 라이프스타일을 정확하게 예측하면 제1 보상을 많이 수여하고, 특정 행동과 어울리는 라이프스타일을 정확하게 예측하면 제2 보상을 많이 수여할 수 있다.
S305 단계에서, 학습 장치는 평가를 기초로 제1 인공 신경망을 갱신할 수 있다.
구체적으로, 학습 장치는 제1 인공 신경망이 퍼스널 컬러와 행동 데이터의 매칭 결과를 통해 어울리는 라이프스타일을 예측하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 제1 인공 신경망을 갱신할 수 있다.
예를 들어, 학습 장치는 퍼스널 컬러가 제1 색상이면서 소비 패턴이 오프라인 쇼핑 위주인 행동 특징을 가질 때, 어울리는 라이프스타일을 제1 라이프스타일로 분류한 것에 대해 문제가 있는 경우, 제1 색상 및 오프라인 쇼핑 위주인 행동 특징을 가지는 고객에 대한 라이프스타일을 제1 라이프스타일로 분류한 것에 대해 문제가 있음을 나타내는 정보를 포함하는 제1 학습 데이터를 생성하고, 제1 학습 데이터를 제1 인공 신경망에 적용하여, 퍼스널 컬러가 제1 색상이면서 소비 패턴이 오프라인 쇼핑 위주인 행동 특징을 가지는 고객들이 제1 라이프스타일로 분류되지 않도록, 제1 인공 신경망을 학습시키는 과정을 통해, 제1 인공 신경망을 갱신할 수 있다.
또한, 학습 장치는 퍼스널 컬러가 제2 색상이면서 이동 패턴이 활동 반경이 넓은 행동 특징을 가질 때, 어울리는 라이프스타일을 제2 라이프스타일로 분류한 것에 대해 문제가 없는 경우, 제2 색상 및 활동 반경이 넓은 행동 특징을 가지는 고객에 대한 라이프스타일을 제2 라이프스타일로 분류한 것에 대해 문제가 없음을 나타내는 정보를 포함하는 제2 학습 데이터를 생성하고, 제2 학습 데이터를 제1 인공 신경망에 적용하여, 퍼스널 컬러가 제2 색상이면서 이동 패턴이 활동 반경이 넓은 행동 특징을 가지는 고객들이 제2 라이프스타일로 분류되도록, 제1 인공 신경망을 학습시키는 과정을 통해, 제1 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
학습 장치는 상기와 같은 제1 인공 신경망의 학습 과정을 반복함으로써, 제1 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 학습 장치는 퍼스널 컬러와 행동 데이터의 매칭 결과를 통해 어울리는 라이프스타일을 예측하여 출력하는 제1 인공 신경망을 학습시킬 수 있다.
즉, 학습 장치는 퍼스널 컬러와 행동 데이터를 매칭한 매칭 결과를 통해, 어울리는 라이프스타일을 예측할 때, 제1 보상, 제2 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제1 인공 신경망을 학습시킬 수 있다.
도 4는 일실시예에 따른 퍼스널 컬러를 분석하는 과정을 설명하기 위한 순서도이다.
도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1 이미지에서 제1 고객의 머리카락이 있는 제1 영역을 인식할 수 있다.
S402 단계에서, 장치(200)는 제1 이미지에서 제1 고객의 눈동자가 있는 제2 영역을 인식할 수 있다.
S403 단계에서, 장치(200)는 제1 이미지에서 제1 고객의 얼굴이 있는 제3 영역을 인식할 수 있다. 이때, 장치(200)는 제1 고객의 얼굴 중 뺨이 있는 부분을 제3 영역으로 인식할 수 있다.
S404 단계에서, 장치(200)는 제1 영역 내에 있는 색상을 화소 별로 분석하여, 제1 영역의 대표 색상을 제1 컬러로 설정할 수 있다.
구체적으로, 장치(200)는 제1 영역 내에 있는 색상을 화소 별로 분석하여, 제1 영역 내에 있는 전체 화소를 색상 계열에 따라 분류할 수 있다. 여기서, 색상 계열은 빨강, 주황, 노랑, 초록, 파랑, 남색, 보라 등의 색상으로 구분될 수 있다.
예를 들어, 제1 영역 내에 있는 화소 중 제1 화소의 RGB 값이 (250, 10, 0)이고, 제2 화소의 RGB 값이(250, 0, 10)인 경우, 장치(200)는 제1 화소 및 제2 화소를 빨강 색상 계열로 분류할 수 있다. 즉, 장치(200)는 빨강 색상과 어느 정도 유사한 색상을 나타내고 있는 화소를 빨강 색상 계열로 분류할 수 있다. 이때, 제1 영역 내에 있는 화소가 100개의 화소로 구성되어 있는 경우, 장치는 100개의 화소 별로 색상을 분석하여, 100개의 화소를 각각 색상 계열에 따라 분류할 수 있다.
이후, 장치(200)는 제1 영역 내에 있는 색상을 색상 계열에 따라 분류한 결과, 화소 수가 가장 많은 제1 색상 계열을 확인할 수 있다.
예를 들어, 제1 영역 내에 있는 전체 화소를 색상 계열에 따라 분류한 결과, 빨강 색상 계열로 분류된 화소의 수가 50개이고, 노랑 색상 계열로 분류된 화소의 수가 30개이고, 파랑 색상 계열로 분류된 화소의 수가 10개인 경우, 장치(200)는 제1 색상 계열을 빨강 색상 계열로 확인할 수 있다.
이후, 장치(200)는 제1 색상 계열을 제1 영역의 대표 색상인 제1 컬러로 설정할 수 있다.
S405 단계에서, 장치(200)는 제2 영역 내에 있는 색상을 화소 별로 분석하여, 제2 영역의 대표 색상을 제2 컬러로 설정할 수 있다.
구체적으로, 장치(200)는 제2 영역 내에 있는 색상을 화소 별로 분석하여, 제2 영역 내에 있는 전체 화소를 색상 계열에 따라 분류하고, 제2 영역 내에 있는 색상을 색상 계열에 따라 분류한 결과, 화소 수가 가장 많은 제2 색상 계열을 확인하고, 제2 색상 계열을 제2 영역의 대표 색상인 제2 컬러로 설정할 수 있다.
S406 단계에서, 장치(200)는 제3 영역 내에 있는 색상을 화소 별로 분석하여, 제3 영역의 대표 색상을 제3 컬러로 설정할 수 있다.
구체적으로, 장치(200)는 제3 영역 내에 있는 색상을 화소 별로 분석하여, 제3 영역 내에 있는 전체 화소를 색상 계열에 따라 분류하고, 제3 영역 내에 있는 색상을 색상 계열에 따라 분류한 결과, 화소 수가 가장 많은 제3 색상 계열을 확인하고, 제3 색상 계열을 제3 영역의 대표 색상인 제3 컬러로 설정할 수 있다.
S407 단계에서, 장치(200)는 제1 컬러, 제2 컬러 및 제3 컬러의 조합을 기반으로, 제1 고객의 퍼스널 컬러를 분석할 수 있다.
예를 들어, 장치(200)는 제1 컬러, 제2 컬러 및 제3 컬러의 조합을 기반으로, 제1 고객과 가장 어울리는 색상을 제1 고객의 퍼스널 컬러로 분석할 수 있고, 제1 컬러, 제2 컬러 및 제3 컬러의 조합을 기반으로, 제1 고객을 대표할 수 있는 색상을 제1 고객의 퍼스널 컬러로 분석할 수도 있다.
도 5는 일실시예에 따른 행동 데이터를 분석하는 과정을 설명하기 위한 순서도이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 제1 고객의 SNS 자료를 기반으로, 제1 고객의 선호 성향을 분석할 수 있다.
구체적으로, 장치(200)는 제1 고객의 SNS 계정에 업로드된 게시 자료에 포함되어 있는 동영상, 이미지, 글자 등을 분석하여, 제1 고객이 선호하는 선호 성향을 분석할 수 있다.
예를 들어, 장치(200)는 제1 고객의 SNS 계정에 특정 스타일의 옷 사진이 다수 게시되어 있는 경우, 해당 스타일의 옷을 제1 고객의 선호 성향으로 분석할 수 있으며, 제1 고객의 SNS 계정에 특정 화장법의 동영상이 다수 게시되어 있는 경우, 해당 화장법을 제1 고객의 선호 성향으로 분석할 수 있다.
S502 단계에서, 장치(200)는 제1 고객의 카드 결제 내역을 기반으로, 제1 고객의 소비 패턴을 분석할 수 있다.
구체적으로, 장치(200)는 제1 고객의 카드 결제 내역 자료를 기반으로, 카드 사용 가맹점의 위치가 어디인지 확인한 후, 제1 고객이 주로 어느 지역에서 카드를 많이 사용하였는지를 파악하여, 제1 고객의 소비 패턴을 분석할 수 있다.
또한, 장치(200)는 제1 고객의 카드 결제 내역 자료를 기반으로, 편의점, 병원, 약국, 쇼핑몰, 마트 등의 카드 사용 가맹점의 업종을 확인하여, 제1 고객이 주로 어느 업종의 가맹점에서 카드를 많이 사용하였는지를 파악하여, 제1 고객의 소비 패턴을 분석할 수 있다.
또한, 장치(200)는 제1 고객의 카드 결제 내역 자료를 기반으로, 카드 사용 시간이 언제인지 확인한 후, 제1 고객이 주로 어느 시간에 카드를 많이 사용하였는지를 파악하여, 제1 고객의 소비 패턴을 분석할 수 있다.
S503 단계에서, 장치(200)는 제1 고객의 위치 기록 데이터를 기반으로, 제1 고객의 이동 패턴을 분석할 수 있다.
구체적으로, 장치(200)는 제1 고객의 위치 기록 데이터를 기반으로, 제1 고객이 어디를 얼마나 많이 방문하고, 어느 지점에서 얼마나 오랜 시간 체류하고, 어느 동선으로 자주 이동하는지를 파악하여, 제1 고객의 이동 패턴을 분석할 수 있다.
S504 단계에서, 장치(200)는 제1 고객의 선호 성향, 제1 고객의 소비 패턴 및 제1 고객의 이동 패턴을 취합하여, 제1 고객의 행동 데이터를 분석할 수 있다.
즉, 장치(200)는 제1 고객의 선호 성향을 분석한 결과, 제1 고객의 소비 패턴을 분석한 결과, 제1 고객의 이동 패턴을 분석한 결과를 모두 취합하여, 제1 고객의 행동 데이터를 생성할 수 있다.
도 6은 일실시예에 따른 추천 가이드 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 고객의 라이프스타일과 동일한 라이프스타일을 가지는 고객들을 그룹화하여, 제1 고객 그룹으로 분류할 수 있다.
예를 들어, 장치(200)는 제1 고객의 라이프스타일이 제1 라이프스타일로 예측되면, 제1 라이프스타일을 가지는 고객들을 제1 고객 그룹으로 분류할 수 있다.
S602 단계에서, 장치(200)는 제1 고객 그룹에 속하는 고객들 각각의 선호 성향에 기초하여, 제1 고객 그룹에 속하는 고객들이 선호할 것으로 예상되는 제1 상품을 추천 상품으로 선정할 수 있다.
예를 들어, 제2 고객, 제3 고객 및 제4 고객이 제1 고객 그룹에 속하는 경우, 장치(200)는 제2 고객의 선호 성향을 통해 제2 고객이 선호할 것으로 예상되는 상품 리스트인 제1 리스트를 추출하고, 제3 고객의 선호 성향을 통해 제3 고객이 선호할 것으로 예상되는 상품 리스트인 제2 리스트를 추출하고, 제4 고객의 선호 성향을 통해 제4 고객이 선호할 것으로 예상되는 상품 리스트인 제3 리스트를 추출할 수 있으며, 제1 리스트, 제2 리스트 및 제3 리스트를 비교한 결과, 제1 리스트, 제2 리스트 및 제3 리스트 각각에 제1 상품이 포함되어 있는 것으로 확인되면, 제1 고객 그룹에 속하는 고객들이 제1 상품을 선호할 것으로 예상할 수 있고, 제1 상품을 추천 상품으로 선정할 수 있다.
S603 단계에서, 장치(200)는 제1 상품이 추천 상품으로 선정되면, 제1 상품의 출시 색상을 확인한 후, 제1 상품의 출시 색상과 제1 고객의 퍼스널 컬러를 비교하여, 제1 상품의 출시 색상 중에서 제1 고객의 퍼스널 컬러와 어울릴 것으로 예상되는 제1 색상을 추천 색상으로 선정할 수 있다.
예를 들어, 제1 상품의 출시 색상이 제1 색상, 제2 색상 및 제3 색상인 경우, 장치(200)는 제1 색상과 제1 고객의 퍼스널 컬러가 어울리는지 분석하고, 제2 색상과 제1 고객의 퍼스널 컬러가 어울리는지 분석하고, 제3 색상과 제1 고객의 퍼스널 컬러가 어울리는지 분석할 수 있으며, 제1 상품의 출시 색상과 제1 고객의 퍼스널 컬러가 어울리는지 분석한 결과를 비교하여, 제1 색상과 제1 고객의 퍼스널 컬러가 가장 어울릴 것으로 분석되면, 제1 색상을 추천 색상으로 선정할 수 있다.
S604 단계에서, 장치(200)는 제1 상품이 추천 상품으로 선정되면, 제1 상품을 판매하는 판매점들을 확인한 후, 제1 고객의 이동 패턴에 기초하여, 제1 상품을 판매하는 판매점들 중에서 제1 고객의 동선과 가장 가깝게 위치하는 것으로 확인되는 제1 판매점을 추천 판매점으로 선정할 수 있다.
예를 들어, 제1 고객의 이동 패턴을 분석한 결과, A 지점에서 B 지점으로 출퇴근하는 것으로 이동 패턴이 분석되면, 장치(200)는 A 지점에서 B 지점으로 이동하는 동선과 제1 상품을 판매하는 판매점들의 위치를 비교하여, A 지점에서 B 지점으로 이동하는 동선과 제1 판매점이 위치가 가장 가까운 것으로 확인되면, 제1 판매점을 추천 판매점으로 선정할 수 있다.
S605 단계에서, 장치(200)는 제1 판매점이 추천 판매점으로 선정되면, 제1 판매점의 업종을 제1 업종으로 확인할 수 있다. 여기서, 업종은 편의점, 병원, 약국, 쇼핑몰, 마트 등의 카드 사용 가맹점의 업종으로 구분될 수 있다.
S606 단계에서, 장치(200)는 제1 판매점의 업종이 제1 업종으로 확인되면, 제1 고객의 소비 패턴에 기초하여, 제1 업종에 대해 향후 소비가 이루어질 것으로 예상되는 소비 예측 시기를 설정할 수 있다.
구체적으로, 장치(200)는 제1 고객의 카드 결제 내역을 통해, 편의점, 병원, 약국, 쇼핑몰, 마트 등의 카드 사용 가맹점의 업종을 확인하여, 업종 별로 제1 고객의 소비 패턴을 분석할 수 있다.
예를 들어, 장치(200)는 평균적으로 하루에 한번 저녁 시간 마다 편의점 업종에서 카드 결제가 이루어진 것으로 확인되면, 하루에 한번 편의점을 저녁 시간에 방문하는 것으로 소비 패턴을 분석할 수 있으며, 평균적으로 월요일 마다 마트 업종에서 카드 결제가 이루어진 것으로 확인되면, 일주일에 한번 마트를 월요일에 방문하는 것으로 소비 패턴을 분석할 수 있으며, 평균적으로 한달에 한번 월초 마다 쇼핑몰 업종에서 카드 결제가 이루어진 것으로 확인되면, 한달에 한번 쇼핑몰을 월초에 방문하는 것으로 소비 패턴을 분석할 수 있다.
이후, 장치(200)는 제1 판매점의 업종이 제1 업종으로 확인되면, 제1 고객의 제1 업종에 대한 소비 패턴을 기반으로. 제1 업종에 대해 향후 소비가 이루어질 것으로 예상되는 소비 예측 시기를 설정할 수 있다.
예를 들어, 장치(200)는 제1 업종이 편의점 업종인 경우, 편의점 업종의 소비 패턴이 주로 저녁 시간에 소비가 이루어진 것으로 분석되면, 오후 6시를 편의점 업종의 소비 예측 시기로 설정할 수 있으며, 제1 업종이 마트 업종인 경우, 마트 업종의 소비 패턴이 주로 월요일에 소비가 이루어진 것으로 분석된 경우, 월요일을 편의점 업종의 소비 예측 시기로 설정할 수 있으며, 제1 업종이 쇼핑몰 업종인 경우, 쇼핑몰 업종의 소비 패턴이 주로 월초에 소비가 이루어진 것으로 분석된 경우, 1일을 쇼핑몰 업종의 소비 예측 시기로 설정할 수 있다.
S607 단계에서, 장치(200)는 제1 업종에 대한 소비 예측 시기가 설정되면, 소비 예측 시기가 도래하였는지 여부를 확인할 수 있다.
예를 들어, 장치(200)는 제1 업종이 편의점 업종인 경우, 편의점 업종의 소비 예측 시기가 오후 6시로 설정되어 있는 것으로 확인되면, 오후 6시를 지나야 소비 예측 시기가 도래한 것으로 확인할 수 있고, 제1 업종이 마트 업종인 경우, 마트 업종의 소비 예측 시기가 월요일로 설정되어 있는 것으로 확인되면, 월요일 오전 9시가 지나야 소비 예측 시기가 도래한 것으로 확인할 수 있고, 제1 업종이 쇼핑몰 업종인 경우, 쇼핑몰 업종의 소비 예측 시기가 1일로 설정되어 있는 것으로 확인되면, 1일 오전 9시가 지나야 소비 예측 시기가 도래한 것으로 확인할 수 있다.
S607 단계에서 소비 예측 시기가 도래한 것으로 확인되면, S608 단계에서, 장치(200)는 제1 상품, 제1 색상 및 제1 판매점에 대한 추천 정보를 제1 고객 단말(110)로 제공할 수 있다. 여기서, 제1 상품, 제1 색상 및 제1 판매점에 대한 추천 정보는 제1 고객을 위한 추천 가이드 정보로 제공될 수 있다. 이를 통해, 제1 고객을 위한 추천 상품으로 제1 상품을 추천하고, 제1 고객을 위한 추천 색상으로 제1 색상을 추천하고, 제1 고객을 위한 추천 판매점으로 제1 판매점을 추천할 수 있다.
도 7은 일실시예에 따른 결제 수단에 추천 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 있는지 여부를 확인할 수 있다. 여기서, 혜택은 할인, 적립, 쿠폰 등을 포함할 수 있고, 결제 수단은 카드, 간편 결제 등을 포함할 수 있다.
S701 단계에서 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 있는 것으로 확인되면, S702 단계에서, 장치(200)는 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 하나만 있는지 여부를 확인할 수 있다.
S702 단계에서 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 하나가 아닌 복수의 결제 수단이 있는 것으로 확인되면, S801 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 8을 참조하여 후술하기로 한다.
S702 단계에서 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 하나만 있는 것으로 확인되면, S703 단계에서, 장치(200)는 제1 판매점에서 제1 결제 수단으로 결제 시 혜택이 있는 것을 확인할 수 있다.
예를 들어, 제1 결제 수단으로 제1 판매점에서 결제 시 10% 적립되는 혜택이 제공되는 경우, 장치(200)는 제1 판매점에서 제1 결제 수단으로 결제 시 혜택이 있는 것을 확인할 수 있다.
S704 단계에서, 장치(200)는 제1 결제 수단에 대한 추천 정보를 제1 고객 단말(110)로 제공할 수 있다. 이때, 장치(200)는 제1 고객이 보유한 결제 수단을 확인하여, 제1 고객이 제1 결제 수단을 보유하고 있지 않은 것으로 확인되면, 제1 결제 수단에 대한 추천 정보를 제1 고객 단말(110)로 제공할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 고객이 보유하고 있는 결제 수단 리스트가 고객 별로 구분되어 저장되어 있다.
도 8은 일실시예에 따른 추천 결제 수단 목록을 제공하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 제1 판매점에서 결제 시 혜택이 있는 결제 수단으로 복수의 결제 수단들이 있는 것을 확인할 수 있다.
S802 단계에서, 장치(200)는 제1 판매점에서 결제 시 혜택이 있는 결제 수단으로 복수의 결제 수단들이 있는 것으로 확인되면, 복수의 결제 수단들로 추천 결제 수단 목록을 생성할 수 있다.
장치(200)는 추천 결제 수단 목록이 생성되면, 추천 결제 수단 목록에 제1 고객이 보유한 결제 수단이 포함되어 있는지 여부를 확인할 수 있고, 추천 결제 수단 목록에 제1 고객이 보유한 제2 결제 수단이 포함되어 있는 것으로 확인되면, 추천 결제 수단 목록에서 제2 결제 수단을 삭제할 수 있다.
S803 단계에서, 장치(200)는 추천 결제 수단 목록에 포함된 결제 수단 별로 제1 판매점에서 결제 시 제공되는 혜택의 크기를 혜택량으로 산출할 수 있고, 추천 결제 수단 목록에 포함된 결제 수단들 각각의 혜택량을 기준으로, 혜택량이 클수록 높은 점수를 부여하여, 추천 결제 수단 목록에 포함된 결제 수단들 각각에 대한 제1 점수를 산정할 수 있다.
예를 들어, 추천 결제 수단 목록에 제1 결제 수단, 제2 결제 수단 및 제3 결제 수단이 포함되어 있는 경우, 장치(200)는 제1 결제 수단을 통해 제공되는 혜택을 확인하여, 제1 결제 수단으로 제1 판매점에서 결제 시 5% 적립되는 혜택이 제공되는 것을 확인할 수 있고, 제2 결제 수단을 통해 제공되는 혜택을 확인하여, 제2 결제 수단으로 제1 판매점에서 결제 시 10% 적립되는 혜택이 제공되는 것을 확인할 수 있고, 제3 결제 수단을 통해 제공되는 혜택을 확인하여, 제3 결제 수단으로 제1 판매점에서 결제 시 15% 적립되는 혜택이 제공되는 것을 확인할 수 있다.
이후, 장치(200)는 제1 결제 수단으로 제1 판매점에서 결제 시 제공되는 혜택량에 따라 제1 결제 수단에 대한 제1 점수를 5점으로 산정하고, 제2 결제 수단으로 제1 판매점에서 결제 시 제공되는 혜택량에 따라 제2 결제 수단에 대한 제1 점수를 10점으로 산정하고, 제3 결제 수단으로 제1 판매점에서 결제 시 제공되는 혜택량에 따라 제3 결제 수단에 대한 제1 점수를 15점으로 산정할 수 있다.
S804 단계에서, 장치(200)는 제1 고객 그룹에 속하는 고객들이 추천 결제 수단 목록에 포함된 결제 수단들을 보유하고 있는지 확인하여, 추천 결제 수단 목록에 포함된 결제 수단 별로 결제 수단을 보유한 고객 수를 보유량으로 산출하고, 추천 결제 수단 목록에 포함된 결제 수단들 각각의 보유량을 기준으로, 보유량이 많을수록 높은 점수를 부여하여, 추천 결제 수단 목록에 포함된 결제 수단들 각각에 대한 제2 점수를 산정할 수 있다.
예를 들어, 추천 결제 수단 목록에 제1 결제 수단, 제2 결제 수단 및 제3 결제 수단이 포함되어 있고, 제1 고객 그룹에 제2 고객, 제3 고객 및 제4 고객이 포함되어 있고, 제2 고객이 제1 결제 수단 및 제2 결제 수단을 보유하고 있고, 제3 고객이 제1 결제 수단 및 제3 결제 수단을 보유하고 있고, 제4 고객이 제1 결제 수단 및 제2 결제 수단을 보유하고 있는 경우, 장치(200)는 제1 결제 수단을 3명의 고객이 보유하고 있으므로, 제1 결제 수단의 보유량을 3으로 산출하고, 제2 결제 수단을 2명의 고객이 보유하고 있으므로, 제2 결제 수단의 보유량을 2로 산출하고, 제3 결제 수단을 1 명의 고객이 보유하고 있으므로, 제3 결제 수단의 보유량을 1로 산출할 수 있다.
이후, 장치(200)는 제1 결제 수단의 보유량에 따라 제1 결제 수단에 대한 제2 점수를 15점으로 산정하고, 제2 결제 수단의 보유량에 따라 제2 결제 수단에 대한 제2 점수를 10점으로 산정하고, 제3 결제 수단의 보유량에 따라 제3 결제 수단에 대한 제2 점수를 5점으로 산정할 수 있다.
S805 단계에서, 장치(200)는 추천 결제 수단 목록에 포함된 결제 수단들 각각의 출시일을 기준으로, 출시일이 느릴수록 높은 점수를 부여하여, 추천 결제 수단 목록에 포함된 결제 수단들 각각에 대한 제3 점수를 산정할 수 있다.
예를 들어, 추천 결제 수단 목록에 제1 결제 수단, 제2 결제 수단 및 제3 결제 수단이 포함되어 있는 경우, 장치(200)는 제1 결제 수단의 출시일을 확인하여, 제1 결제 수단이 2020년1월1일에 출시된 것을 확인할 수 있고, 제2 결제 수단의 출시일을 확인하여, 제2 결제 수단이 2021년1월1일에 출시된 것을 확인할 수 있고, 제3 결제 수단의 출시일을 확인하여, 제3 결제 수단이 2022년1월1일에 출시된 것을 확인할 수 있다.
이후, 장치(200)는 제1 결제 수단의 출시일에 따라 제1 결제 수단에 대한 제3 점수를 5점으로 산정하고, 제2 결제 수단의 출시일에 따라 제2 결제 수단에 대한 제3 점수를 10점으로 산정하고, 제3 결제 수단의 출시일에 따라 제3 결제 수단에 대한 제3 점수를 15점으로 산정할 수 있다.
S806 단계에서, 장치(200)는 추천 결제 수단 목록에 포함된 결제 수단 별로, 제1 점수, 제2 점수 및 제3 점수를 합산한 합산 점수를 산출할 수 있다.
S807 단계에서, 장치(200)는 제1 점수, 제2 점수 및 제3 점수를 합산한 합산 점수를 이용하여, 추천 결제 수단 목록에 포함된 결제 수단들 각각의 우선순위를 설정할 수 있다.
예를 들어, 제1 결제 수단의 합산 점수가 20점이고, 제2 결제 수단의 합산 점수가 25점이고, 제3 결제 수단의 합산 점수가 15점인 경우, 장치(200)는 제2 결제 수단의 우선순위를 1순위로 설정하고, 제1 결제 수단의 우선순위를 2순위로 설정하고, 제3 결제 수단의 우선순위를 3순위로 설정할 수 있다.
S808 단계에서, 장치(200)는 추천 결제 수단 목록에 포함된 결제 수단들 각각에 설정된 우선순위를 이용하여, 우선순위가 높은 순으로 추천 결제 수단 목록을 정렬할 수 있다.
S809 단계에서, 장치(200)는 추천 결제 수단 목록을 제1 고객 단말(110)로 제공할 수 있다.
도 9는 일실시예에 따른 상품의 반출량을 관리하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(200)는 제1 시점에 제1 판매점의 창고에 보관되어 있는 상품을 촬영하여 생성된 제2-1 이미지를 획득할 수 있다.
구체적으로, 제1 판매점에는 상품을 보관하는 창고가 구비되어 있으며, 창고 내부에는 상품들을 보관하기 위한 보관함이 구비되어 있을 수 있다. 제1 판매점을 운영하는 판매자가 제1 판매자인 경우, 제1 판매자 단말은 제1 시점에 제1 판매자 단말에 구비된 카메라를 이용하여 창고의 보관함에 진열되어 있는 상품에 대한 촬영을 수행하여 제2-1 이미지를 생성할 수 있다. 장치(200)는 제1 시점에 제1 판매점의 창고에 보관되어 있는 상품을 촬영하여 제2-1 이미지가 생성되면, 제1 판매자 단말로부터 제2-1 이미지를 획득할 수 있다. 이를 위해, 제1 판매자 단말은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
일실시예에 따르면, 제1 판매자 단말에 포함되어 있는 카메라는 영상 촬영을 위한 Full HD(High Definition) 화질의 카메라 장비로서, 30내지 60프레임을 기준으로 하는 촬영 장비일 수 있다. 카메라는 노출, 셔터스피드, 감도를 자동으로 조절할 수 있으며, 사용자의 편의에 따라 수동 조절이 가능할 수 있다.
S902 단계에서, 장치(200)는 제2-1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.
구체적으로, 장치(200)는 제2-1 이미지의 픽셀을 색 정보로 인코딩 하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 이미지를 인코딩할 수 있다.
S903 단계에서, 장치(200)는 제1 입력 신호를 제2 인공 신경망에 입력할 수 있다.
일실시예에 따르면, 제2 인공 신경망은 컨볼루션 신경망으로 구현되어, 컨볼루션 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며, 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 은닉층과 출력층을 가지고 있다. 인공지능 기반의 상품 반출량 관리 방법을 위한 컨볼루션 신경망에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 컨볼루션 신경망의 출력층 노드는 총 50개로 할 수 있다. 컨볼루션 신경망에 대한 자세한 설명은 도 10을 참조하여 후술한다.
S904 단계에서, 장치(200)는 컨볼루션 신경망인 제2 인공 신경망의 입력의 대한 결과에 기초하여, 제2 인공 신경망의 출력값인 제1 출력 신호를 획득할 수 있다.
일실시예에 따르면, 컨볼루션 신경망의 50개 출력층 노드는 상위 25개의 출력층 노드와 하위 25개의 출력층 노드를 포함할 수 있다. 컨볼루션 신경망의 50개 출력층 노드 중 상위 25개의 출력층 노드는 상품의 종류를 지시할 수 있다. 하위 25개의 노드는 상위 25개의 노드에 대응하는 상품의 재고량을 지시할 수 있다. 컨볼루션 신경망의 출력에 관한 자세한 설명은 도 10을 참조하여 후술한다.
S905 단계에서, 장치(200)는 제1 출력 신호를 기초로, 제1 시점에 보관되어 있는 상품의 종류 및 재고량을 분석할 수 있다. 즉, 장치(200)는 제1 시점에 창고에 보관되어 있는 상품의 종류가 어느 것인지 분석하고, 상품의 종류 별로 재고량이 몇 개인지 분석할 수 있다.
S906 단계에서, 장치(200)는 제2 시점에 제1 판매점의 창고에 보관되어 있는 상품을 촬영하여 생성된 제2-2 이미지를 획득할 수 있다. 여기서, 제2 시점은 제1 시점으로부터 기준 기간이 지난 후의 시점을 의미하고, 기준 기간은 실시예에 따라 상이하게 설정될 수 있다. 예를 들어, 제1 시점이 13시인데, 기준 기간이 5시간으로 설정되어 있는 경우, 제2 시점은 18시일 수 있다.
구체적으로, 제1 판매점 단말은 제2 시점에 제1 판매점 단말에 구비된 카메라를 이용하여 창고의 보관함에 진열되어 있는 상품에 대한 촬영을 수행하여 제2-2 이미지를 생성할 수 있다. 장치(200)는 제2 시점에 제1 판매점의 창고에 보관되어 있는 상품을 촬영하여 제2-2 이미지가 생성되면, 제1 판매자 단말로부터 제2-2 이미지를 획득할 수 있다.
S907 단계에서, 장치(200)는 제2-2 이미지를 인코딩 하여 제2 입력 신호를 생성할 수 있다.
S908 단계에서, 장치(200)는 제2 입력 신호를 제2 인공 신경망에 입력할 수 있다.
S909 단계에서, 장치(200)는 제2 인공 신경망의 입력의 대한 결과에 기초하여, 제2 인공 신경망의 출력값인 제2 출력 신호를 획득할 수 있다.
S910 단계에서, 장치(200)는 제2 출력 신호를 기초로, 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 분석할 수 있다. 즉, 장치(200)는 제2 시점에 창고에 보관되어 있는 상품의 종류가 어느 것인지 분석하고, 상품의 종류 별로 재고량이 몇 개인지 분석할 수 있다.
S911 단계에서, 장치(200)는 제1 시점에 보관되어 있는 상품의 종류 및 재고량과 제2 시점에 보관되어 있는 상품의 종류 및 재고량을 비교하여, 제1 시점과 제2 시점 간에 재고량 차이가 있는 상품이 있는지 여부를 확인할 수 있다.
예를 들어, 제1 시점에 제1 상품이 5개, 제2 상품이 4개 보관되어 있는 것으로 확인되고, 제2 시점에 제1 상품이 4개, 제2 상품이 4개 보관되어 있는 것으로 확인되면, 장치(200)는 제1 시점과 제2 시점 간에 제1 상품의 재고량이 차이가 있는 것으로 확인할 수 있다.
S911 단계에서 제1 상품의 재고량이 차이가 있는 것으로 확인되면, S912 단계에서, 장치(200)는 제1 시점과 제2 시점 간에 차이나는 제1 상품의 재고량을 제1 상품의 반출량으로 산출할 수 있다.
구체적으로, 제1 시점에 창고에 보관되어 있는 제1 상품의 재고량이 제1 수량이고, 제2 시점에 창고에 보관되어 있는 제1 상품의 재고량이 제2 수량인 경우, 장치(200)는 제1 수량 및 제2 수량이 상이한 것으로 확인되면, 제1 시점과 제2 시점 간에 제1 상품의 재고량이 차이가 있는 것으로 확인할 수 있으며, 제1 수량에서 제2 수량을 차감하여, 제1 상품의 반출량을 산출할 수 있다.
예를 들어, 제1 시점에 제1 상품이 창고에 5개 보관되어 있는 것으로 확인되고, 제2 시점에 제1 상품이 창고에 4개 보관되어 있는 것으로 확인되면, 장치(200)는 5개에서 4개를 차감하여, 1개를 제1 상품의 반출량으로 산출할 수 있다.
도 10은 일실시예에 따른 제2 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 장치(200)는 제1 판매자 단말의 카메라를 통한 촬영으로 생성된 이미지를 인코딩 하여 입력 신호를 생성할 수 있으며, 제2 인공 신경망(1001)은 입력 신호를 입력으로 하고, 상품의 종류(1002) 및 상품의 재고량(1003)을 출력으로 할 수 있다.
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 제2 인공 신경망(1001)은 컨볼루션 신경망으로 구현되어, 제2 인공 신경망(1001)은 특징 추출 신경망(1010)과 분류 신경망(1020)으로 구성될 수 있으며, 특징 추출 신경망(1010)은 상품을 찍은 이미지에서 상품과 배경을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1020)은 그로부터 상품을 종류별로 분류하고, 상품의 종류별로 각각의 재고량을 파악하는 작업을 수행하도록 할 수 있다. 특징 추출 신경망(1010)이 상품과 배경과 구분하는 방법은, 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 상품과 배경의 경계로 삼을 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 특징 추출 신경망(1010)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따른 분류 신경망(1020)은 특징 추출 신경망(1010)을 통해 배경으로부터 구분된 상품을 그 형태 및 연속성에 따라 상품의 종류(1002)를 구분하고, 상품의 재고량(1003)을 상품의 종류 별로 파악할 수 있다. 상품의 비교를 위해 데이터베이스에 저장된 정보들을 활용할 수 있다. 분류 신경망(1020)은 상품의 종류(1002)를 파악하는 작업을 우선으로 하며, 파악된 상품의 형태 및 크기에 따라 상품의 재고량(1003) 파악을 용이하도록 할 수 있다.
일실시예에 따르면, 분류 신경망(1020)은 은닉층과 출력층을 가지고 있다. 장치(200) 내의 제2 인공 신경망(1001)에서는 일반적으로 은닉층이 5개 이상 존재하며, 각 은닉층의 노드는 80개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제2 인공 신경망(1001)의 출력층 노드는 총 50개로 할 수 있다.
일실시예에 따른 제2 인공 신경망(1001)의 출력은 출력층의 50개 노드 중 상위 25개의 노드는 상품의 종류(1002)를 지시할 수 있고, 하위 25개의 노드는 상위 노드에 각각 대응하는 상품의 재고량(1003)을 지시할 수 있다. 상위 25개의 노드와 하위 25개의 노드를 대응시키는 방식은 상위 n번 째 노드와 하위 n번 째 노드를 대응시키는 방식으로, 전체에서 n번 째 노드가 전체에서 25+n번 째 노드에 대응하는 방식으로 진행될 수 있다. 예를 들어, 1번 째 노드는 26번 째 노드에 대응하며, 2번 째 노드는 27번 째 노드에, 10번 째 노드는 35번 째 노드에, 25번 재 노드는 50번 째 노드에 대응하는 방식으로 진행될 수 있다. 상품의 종류(1002)는 상품에 대응하는 코드 정보로 출력될 수 있으나, 이에 국한하지 않는다. 제2 인공 신경망(1001)의 50개의 출력층 노드 중 출력값이 없는 출력층 노드는 숫자 ‘0’을 그 출력값으로 출력할 수 있다. 상위 25개의 노드 중에 이 숫자 ‘0’이 포함되는 노드들은 해당하는 상품이 없는 것으로 간주될 수 있다. 만약 분류된 상품의 종류가 25개 이상일 경우, 남은 상품은 미리 생성한 출력값이 모두 처리된 후 이어서 자동으로 처리될 수 있다.
일실시예에 따르면, 제2 인공 신경망(1001)은 사용자가 제2 인공 신경망(1001)에 따른 상품 파악의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 학습 신호를 전달받아 학습할 수 있다. 제2 인공 신경망(1001)에 따른 상품 파악의 문제점은 상품의 종류(1002) 및 상품의 재고량(1003)에 문제가 있는 경우를 의미할 수 있다.
일실시예에 따른 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 제2 인공 신경망(1001)은 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 제2 인공 신경망(1001)은 제1 인공 신경망이 학습되는 과정과 동일한 방식을 통해 학습될 수 있다.
도 11은 일실시예에 따른 상품 판매 내역을 통해 상품의 반출량을 확인하는 과정을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(200)는 제1 상품의 반출량이 산출되어, 제1 상품의 반출량이 0보다 큰 것으로 확인되면, 기준 기간 동안 판매된 제1 판매점의 상품 판매 내역을 획득할 수 있다. 여기서, 기준 기간은 제1 시점부터 제2 시점까지의 기간을 의미할 수 있고, 상품 판매 내역은 제1 판매점이 어느 시점에 어느 상품을 얼마나 많이 판매하였는지 나타내는 리스트로 구성될 수 있다.
예를 들어, 제1 시점이 13시이고, 제2 시점이 18시인 경우, 장치(200)는 13시부터 18시까지 판매된 제1 판매점의 상품 판매 내역을 획득할 수 있다.
S1102 단계에서, 장치(200)는 기준 기간 동안 판매된 제1 판매점의 상품 판매 내역을 기초로, 기준 기간 동안 판매된 상품의 종류 및 판매량을 분석할 수 있다.
예를 들어, 기준 기간이 13시부터 18시까지이고, 14시에 판매된 상품 판매 내역에는 제1 상품이 1개, 제2 상품이 2개 판매되어 있고, 15시에 판매된 상품 판매 내역에는 제2 상품이 1개, 제3 상품이 2개 판매되어 있는 경우, 장치(200)는 기준 기간 동안에 제1 상품이 1개, 제2 상품이 3개, 제3 상품이 2개 판매된 것으로, 판매된 상품의 종류 및 판매량을 분석할 수 있다.
S1103 단계에서, 장치(200)는 기준 기간 동안 판매된 상품의 종류 및 판매량에 대한 분석 결과에서, 제1 상품의 판매량을 확인할 수 있다. 즉, 장치(200)는 기준 기간 동안 제1 상품이 판매된 것으로 확인되면, 기준 기간 동안 판매된 제1 상품의 판매량을 확인할 수 있다.
S1104 단계에서, 장치(200)는 제1 상품의 반출량과 제1 상품의 판매량이 일치하는지 여부를 확인할 수 있다.
S1104 단계에서 제1 상품의 반출량과 제1 상품의 판매량이 일치하는 것으로 확인되면, S1105 단계에서, 장치(200)는 제1 상품의 반출량에 문제가 없는 것으로 판단할 수 있다.
S1104 단계에서 제1 상품의 반출량과 제1 상품의 판매량이 일치하지 않는 것으로 확인되면, S1106 단계에서, 장치(200)는 제1 상품의 반출량에 문제가 있는 것으로 판단할 수 있다.
S1107 단계에서, 장치(200)는 제1 상품에 대한 반출량 확인 알림 메시지를 제1 판매자 단말로 전송할 수 있다. 여기서, 제1 상품에 대한 반출량 확인 알림 메시지는 제1 상품의 판매량과 반출량이 상이하여, 반출량에 대한 확인이 필요한 것을 알려주는 알림 메시지이다.
도 12는 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 11을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 11을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 11을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(220)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(200)와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법에 있어서,
    제1 고객을 촬영하여 생성된 제1 이미지가 획득되면, 상기 제1 이미지를 기초로, 상기 제1 고객의 퍼스널 컬러를 분석하는 단계;
    상기 제1 고객의 SNS 자료, 카드 결제 내역 및 위치 기록 데이터가 획득되면, 상기 제1 고객의 SNS 자료 및 카드 결제 내역 및 위치 기록 데이터를 기초로, 상기 제1 고객의 행동 데이터를 분석하는 단계;
    상기 제1 고객의 퍼스널 컬러와 상기 제1 고객의 행동 데이터를 매칭하여, 매칭 결과를 생성하는 단계;
    상기 매칭 결과를 제1 인공 신경망에 적용하여, 상기 제1 인공 신경망의 출력을 기초로, 상기 제1 고객의 라이프스타일을 예측하는 단계; 및
    상기 제1 고객의 라이프스타일을 기반으로, 상기 제1 고객을 위한 추천 가이드 정보를 제1 고객 단말로 제공하는 단계를 포함하고,
    상기 제1 고객의 퍼스널 컬러를 분석하는 단계는,
    상기 제1 이미지에서 상기 제1 고객의 머리카락이 있는 제1 영역, 상기 제1 고객의 눈동자가 있는 제2 영역, 상기 제1 고객의 얼굴이 있는 제3 영역을 각각 인식하는 단계;
    상기 제1 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제1 영역의 대표 색상을 제1 컬러로 설정하고, 상기 제2 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제2 영역의 대표 색상을 제2 컬러로 설정하고, 상기 제3 영역 내에 있는 색상을 화소 별로 분석하여, 상기 제3 영역의 대표 색상을 제3 컬러로 설정하는 단계; 및
    상기 제1 컬러, 상기 제2 컬러 및 상기 제3 컬러의 조합을 기반으로, 상기 제1 고객의 퍼스널 컬러를 분석하는 단계를 포함하고,
    상기 제1 고객의 행동 데이터를 분석하는 단계는,
    상기 제1 고객의 SNS 자료를 기반으로, 상기 제1 고객의 선호 성향을 분석하는 단계;
    상기 제1 고객의 카드 결제 내역을 기반으로, 상기 제1 고객의 소비 패턴을 분석하는 단계;
    상기 제1 고객의 위치 기록 데이터를 기반으로, 상기 제1 고객의 이동 패턴을 분석하는 단계; 및
    상기 제1 고객의 선호 성향, 상기 제1 고객의 소비 패턴 및 상기 제1 고객의 이동 패턴을 취합하여, 상기 제1 고객의 행동 데이터를 분석하는 단계를 포함하고,
    상기 제1 고객을 위한 추천 가이드 정보를 상기 제1 고객 단말로 제공하는 단계는,
    상기 제1 고객의 라이프스타일과 동일한 라이프스타일을 가지는 고객들을 그룹화하여, 제1 고객 그룹으로 분류하는 단계;
    상기 제1 고객 그룹에 속하는 고객들 각각의 선호 성향에 기초하여, 상기 제1 고객 그룹에 속하는 고객들이 선호할 것으로 예상되는 제1 상품을 추천 상품으로 선정하는 단계;
    상기 제1 상품의 출시 색상과 상기 제1 고객의 퍼스널 컬러를 비교하여, 상기 제1 상품의 출시 색상 중에서 상기 제1 고객의 퍼스널 컬러와 어울릴 것으로 예상되는 제1 색상을 추천 색상으로 선정하는 단계;
    상기 제1 고객의 이동 패턴에 기초하여, 상기 제1 상품을 판매하는 판매점들 중에서 상기 제1 고객의 동선과 가장 가깝게 위치하는 것으로 확인되는 제1 판매점을 추천 판매점으로 선정하는 단계;
    상기 제1 판매점의 업종이 제1 업종으로 확인되면, 상기 제1 고객의 소비 패턴에 기초하여, 상기 제1 업종에 대해 향후 소비가 이루어질 것으로 예상되는 소비 예측 시기를 설정하는 단계; 및
    상기 소비 예측 시기가 도래한 것으로 확인되면, 상기 제1 상품, 상기 제1 색상 및 상기 제1 판매점에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계를 포함하고,
    상기 제1 상품, 상기 제1 색상 및 상기 제1 판매점에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계는,
    상기 제1 판매점에서 결제 시 혜택이 있는 결제 수단이 있는지 여부를 확인하는 단계; 및
    상기 제1 판매점에서 제1 결제 수단으로 결제 시 혜택이 있는 것으로 확인되면, 상기 제1 결제 수단에 대한 추천 정보를 상기 제1 고객 단말로 제공하는 단계를 포함하는,
    초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법.
  2. 삭제
  3. 삭제
KR1020220084111A 2022-07-08 2022-07-08 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템 KR102447426B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220084111A KR102447426B1 (ko) 2022-07-08 2022-07-08 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220084111A KR102447426B1 (ko) 2022-07-08 2022-07-08 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102447426B1 true KR102447426B1 (ko) 2022-09-27

Family

ID=83452312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220084111A KR102447426B1 (ko) 2022-07-08 2022-07-08 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102447426B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525624B1 (ko) 2022-11-30 2023-04-26 김유리 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140147168A (ko) * 2013-06-18 2014-12-30 아주대학교산학협력단 개인화된 라이프 스타일 모델링 장치 및 방법
KR20190136483A (ko) 2018-05-31 2019-12-10 (주)라온스퀘어 뷰티 콘텐츠 제공방법
KR20200025291A (ko) 2018-08-30 2020-03-10 홍은비 사용자 단말기를 이용한 퍼스널 컬러진단을 통한 쇼핑서비스 제공방법 및 그 시스템
KR20200045759A (ko) 2018-10-23 2020-05-06 홍은비 퍼스널 컬러 매칭 스타일링 시스템
KR20200066970A (ko) 2018-12-03 2020-06-11 손원호 고객의 보유 패션 아이템 기반 맞춤형 자동 코디 제안과 상품 추천 시스템과 서비스 방법 및 정보 관리 시스템
KR20210051272A (ko) * 2019-10-30 2021-05-10 주식회사 포켓메모리 생활패턴정보분석 ai를 통한 스타일 제안 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140147168A (ko) * 2013-06-18 2014-12-30 아주대학교산학협력단 개인화된 라이프 스타일 모델링 장치 및 방법
KR20190136483A (ko) 2018-05-31 2019-12-10 (주)라온스퀘어 뷰티 콘텐츠 제공방법
KR20200025291A (ko) 2018-08-30 2020-03-10 홍은비 사용자 단말기를 이용한 퍼스널 컬러진단을 통한 쇼핑서비스 제공방법 및 그 시스템
KR20200045759A (ko) 2018-10-23 2020-05-06 홍은비 퍼스널 컬러 매칭 스타일링 시스템
KR20200066970A (ko) 2018-12-03 2020-06-11 손원호 고객의 보유 패션 아이템 기반 맞춤형 자동 코디 제안과 상품 추천 시스템과 서비스 방법 및 정보 관리 시스템
KR20210051272A (ko) * 2019-10-30 2021-05-10 주식회사 포켓메모리 생활패턴정보분석 ai를 통한 스타일 제안 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525624B1 (ko) 2022-11-30 2023-04-26 김유리 인공지능 기반 고객의 퍼스널 컬러와 매칭되는 가방 제공 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
KR102404511B1 (ko) 인공지능 기반 사용자 맞춤형 상품 정보 추천 방법, 장치 및 시스템
KR102407595B1 (ko) 메타버스 기반 와이너리 체험 서비스 제공 방법, 장치 및 시스템
KR102546871B1 (ko) 인공지능 모델 기반 b2b 식자재 및 부자재의 유통의 주문 히스토리의 패턴 분석을 통한 주문 정보 추천 방법, 장치 및 시스템
KR102533442B1 (ko) 인공지능 모델을 기반으로 온라인 판매를 위한 제품 기획 및 마케팅 전략 도출 방법, 장치 및 시스템
KR102508232B1 (ko) 인공지능 기반 마트 운영을 위한 재고의 유통관리 방법, 장치 및 시스템
KR102447549B1 (ko) Nft 기반 아트워크와 연계된 쥬얼리 거래 서비스 제공 방법, 장치 및 시스템
KR102553041B1 (ko) 인공지능 모델 기반 사용자 및 인테리어 공급자 매칭 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102551997B1 (ko) 콘텐츠 시청 성향 분석 기반 광고 콘텐츠 기획 자동화 및 커머스 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102447426B1 (ko) 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템
KR102552856B1 (ko) 커머스 연계 콘텐츠 제공 플랫폼 서비스를 위한 키워드 추출 및 콘텐츠 템플릿 생성 자동화 방법, 장치 및 시스템
KR102601446B1 (ko) 인공지능 모델을 활용한 인플루언서 기반 판매 제품매칭 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102554580B1 (ko) 인공지능 모델 기반 식자재 및 부자재의 유통 주문 히스토리의 패턴 분석을 통한 물류 창고의 안전 재고량의 추정 및 주문 알람 서비스 제공 방법, 장치 및 시스템
KR102426803B1 (ko) 인공지능 기반 제품의 해외 판매 페이지 자동 업로드 방법, 장치 및 시스템
KR102541147B1 (ko) 블록체인 기반 매출채권 거래 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102536063B1 (ko) 인공지능 기반 기업용 매출 및 매입 정산 솔루션 제공 방법, 장치 및 시스템
KR102520597B1 (ko) 시장 분석 및 업체 니즈를 고려한 제품 매칭 방법
KR102463875B1 (ko) 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템
KR102447046B1 (ko) 인공지능 기반 임상시험 프로토콜 설계 방법, 장치 및 시스템
KR102474974B1 (ko) 인공지능 기반 브랜드 분석 방법, 장치 및 시스템
KR102533258B1 (ko) 인공 신경망을 활용한 냉동식품의 효율적인 물류 서비스 제공 방법, 장치 및 시스템
KR102653142B1 (ko) 멀티 도메인 변수를 활용한 인공지능 모델 기반 수요 예측 및 구독 솔루션 제공 방법, 장치 및 시스템
KR102669470B1 (ko) 식자재 유통 처리를 위한 재고 관리 및 수요 예측 방법, 장치 및 시스템
KR102475813B1 (ko) 인공지능 기반 스마트 팩토리 구동 시뮬레이션 방법
KR102536360B1 (ko) 컨테이너의 센서 정보를 기초로 일상 소비 상품의 개인화된 자동 주문 서비스 제공 방법, 장치 및 시스템
KR102643054B1 (ko) 상업용 건물 관리 정보 현황 조회 및 관리 요청 플랫폼 서비스 제공 방법, 장치 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant