KR102517728B1 - 연합 학습에 기반한 상품 추천 장치 및 방법 - Google Patents

연합 학습에 기반한 상품 추천 장치 및 방법 Download PDF

Info

Publication number
KR102517728B1
KR102517728B1 KR1020220086226A KR20220086226A KR102517728B1 KR 102517728 B1 KR102517728 B1 KR 102517728B1 KR 1020220086226 A KR1020220086226 A KR 1020220086226A KR 20220086226 A KR20220086226 A KR 20220086226A KR 102517728 B1 KR102517728 B1 KR 102517728B1
Authority
KR
South Korea
Prior art keywords
customer
learning
federated learning
model
client terminal
Prior art date
Application number
KR1020220086226A
Other languages
English (en)
Inventor
정효용
Original Assignee
주식회사 애자일소다
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 애자일소다 filed Critical 주식회사 애자일소다
Priority to KR1020220086226A priority Critical patent/KR102517728B1/ko
Application granted granted Critical
Publication of KR102517728B1 publication Critical patent/KR102517728B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

연합 학습에 기반한 상품 추천 장치 및 방법을 개시한다. 본 발명은 연합 학습(Federated Learning)을 통해 시계열 기반의 고객 데이터를 분석하여 다음 발생 정보를 예측하고 예측된 정보에 기반하여 고객 맞춤형 정보를 추천할 수 있다.

Description

연합 학습에 기반한 상품 추천 장치 및 방법{APPARATUS AND METHOD FOR RECOMMENDING PRODUCTS BASED ON FEDERATED LEARNING}
본 발명은 연합 학습에 기반한 상품 추천 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 연합 학습(Federated Learning)을 통해 시계열 기반의 고객 데이터를 분석하여 다음 발생 정보를 예측하고 예측된 정보에 기반하여 고객 맞춤형 정보를 추천하는 연합 학습에 기반한 상품 추천 장치 및 방법에 관한 것이다.
최근 클라우드 기술 및 인공지능(Artificial Intelligence, AI)과 기계학습(Machine Learning, ML) 기술이 발전함에 따라, 인공지능 및 기계학습 서비스들이 높은 정확도로 제공되고 있다.
이러한 고도의 정확도를 유지하기 위해서는 학습을 위한 대용량의 데이터와 이를 처리할 수 있는 고성능의 컴퓨팅 자원이 필요하다.
종래에는 고성능의 서버 또는 클라우드 등에 학습용 데이터를 모아두고 이를 통한 학습을 진행하였으나, 최근 들어 개인정보 보호 등의 문제가 제기되면서 대용량의 학습 데이터를 클라우드 상에 보관하는 것에 대한 문제가 발생되고 있다.
이러한 문제를 해결하기 위해, 연합학습(Federated Learning, FL)이 제안되었다.
연합학습은 다수의 로컬 클라이언트와 하나의 중앙 서버가 협력하여 데이터가 탈중앙화된 상황에서 모델을 학습하는 기술로서, 로컬 클라이언트는 사물 인터넷 기기, 모바일 단말 등을 포함할 수 있다.
또한, 연합학습은 데이터 프라이버시 향상과 커뮤니케이션 효율성, 이 두 가지 장점 때문에 유용하게 쓰일 수 있다.
이러한 연합학습을 이용하면, 예를 들어 병원의 임상 데이터와 같은 환자 개인정보가 보호되어야 하는 상황에서 데이터 유출 없이 학습이 가능하다.
또한, 수 만개의 로컬 디바이스의 데이터를 모두 중앙 서버로 전송하게 되면 네트워크 트래픽과 저장(Storege) 비용이 증가하는데, 연합학습을 사용하면 로컬 클라이언트에 설치된 학습 모델의 업데이트 정보만을 주고 받으므로 커뮤니케이션 비용이 상당히 줄어들게 되는 장점이 있다.
도1은 일반적인 연합 학습을 설명하기 위해 나타낸 예시도이다.
도1을 참조하면, 연합학습을 수행하기 위해 복수의 개별 모바일 단말(11, 11a, 11b)로 이루어진 로컬 클라이언트(10)와 하나의 중앙 서버(20)가 구성될 수 있다.
임의의 데이터(30)가 개별 모바일 단말(11)에 저장된 데이터를 이용하여 인공지능 모델이 학습되고, 다양한 사용자의 개별 모바일 단말(11a, 11b)에서 학습된 결과인 파라미터 정보(40, 40a, 40b) 들은 글로벌 모델의 정보가 있는 중앙 서버(20)로 전송된다.
중앙 서버(20)는 전송된 파라미터 정보(40, 40a, 40b)를 이용하여 글로벌 모델을 학습(50)하고, 학습된 결과(60)는 다시 개별 모바일 단말(11, 11a, 11b)로 전송하는 과정을 반복 수행한다.
이러한 연합학습은 데이터가 한 곳에 모이지 않고 학습 자체가 데이터 생성원인 개별 모바일 단말(11, 11a, 11b)에서 진행되므로 개인정보 유출을 원천적으로 차단하는 효과가 있다.
한편, 딥러닝 기술은 인공지능 기술 중 하나로 컴퓨터가 데이터 축적을 통해 인간의 학습능력을 지니도록 할 수 있다.
이러한 딥러닝 기술이 접목된 새로운 추천 알고리즘을 상품에 적용하게 되면, 사람들의 개인정보 및 상품에 대한 구매이력 등의 데이터를 축적함으로써, 정확도 높은 분석이 가능하게 되어 개인별 맞춤형 상품을 추천할 수 있게 된다.
따라서, 딥러닝 기술이 접목된 새로운 추천 알고리즘을 상품에 적용하여 개인별 맞춤형 정보를 추천할 수 있는 기법에 대한 연구가 필요하다.
한국 공개특허공보 공개번호 제10-2021-0066754호(발명의 명칭: 연합 학습을 활용한 사용자 특성 분석을 위한 딥러닝 모델 생성 방법)
이러한 문제점을 해결하기 위하여, 본 발명은 연합 학습(Federated Learning)을 통해 시계열 기반의 고객 데이터를 분석하여 다음 발생 정보를 예측하고 예측된 정보에 기반하여 고객 맞춤형 정보를 추천하는 연합 학습에 기반한 상품 추천 장치 및 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 연합 학습에 기반한 상품 추천 장치로서, 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받는 입력부; 트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 연합 학습(Federated Learning)을 수행하여 사전 학습(Pre training)하고, 상기 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 상기 사전 학습된 예측 모델의 파라미터를 조정한 전이 학습(Fine tuning)을 수행하여 고객의 다음 추천 정보를 예측하는 연합 학습 모델부; 및 상기 연합 학습 모델부에서 예측된 고객의 다음 추천 정보를 출력하는 출력부;를 포함한다.
또한, 상기 실시 예에 따른 연합 학습 모델부는 연합 모델 서버부와, A 클라이언트 단말, B 클라이언트 단말 내지 n 클라이언트 단말을 구비하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 연합 모델 서버부는 A 클라이언트 단말, B 클라이언트 단말 내지 n 클라이언트 단말이 예측 모델을 학습하도록 관리할 수 있다.
또한, 상기 실시 예에 따른 연합 모델 서버부는 A 클라이언트 단말이 자신의 학습 데이터에 기반하여 학습된 예측 모델을 B 클라이언트 단말로 제공되도록 하고, 상기 B 클라이언트 단말이 자신의 학습 데이터에 기반하여 상기 학습된 예측 모델을 추가 학습하도록 관리하며, 추가 학습된 예측 모델을 다음 클라이언트 단말로 제공되도록 하여 개별 클라이언트 단말을 이용한 연합 학습이 수행되도록 관리하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 예측 모델은 빈칸 채우기(Masked Language Modeling, MLM) 및 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 예측 모델은 고객의 행동 및 날짜를 포함한 고객 행동 데이터를 벡터 값으로 변환하는 제1 네트워크; 상기 제1 네트워크와 병렬로 구성되고 항목 및 항목 값을 포함한 고객 프로파일 데이터를 벡터 값으로 변환하는 제2 네트워크; 및 Classifier를 기반으로 상기 제1 네트워크를 통해 출력되는 고객 행동 데이터의 벡터 값과, 제2 네트워크를 통해 출력되는 고객 프로파일 데이터의 벡터 값을 합하여 고객 추천 정보를 분류하는 제3 네트워크로 구성된 것을 특징으로 한다.
또한, 상기 실시 예에 따른 제1 네트워크는 고객의 행동 및 날짜를 각각 임베딩(embedding)하여 합 연산한 결과와 횟수를 피드 포워드(Feed Forward)한 것을 결합(concatenate)하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 트랜스포머 아키텍처 알고리즘을 통해 고객의 행동, 날짜, 횟수에 대한 고객 행동 데이터에 대응하는 벡터 값으로 출력할 수 있다.
또한, 상기 실시 예에 따른 제2 네트워크는 항목을 임베딩을 통해 벡터 값으로 변환한 결과와 항목 값을 곱 연산하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 트랜스포머 아키텍처 알고리즘을 통해 항목 및 항목 값에 대한 고객 프로파일 데이터에 대응하는 벡터 값으로 출력하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 고객의 행동은 고객이 이용한 정보 중에서, 고객이 이용한 가맹점의 이름, 가맹점 주소, 가맹점에서 결제한 금액이고, 날짜는 고객이 가맹점을 이용한 날짜 및 시간이며, 횟수는 가맹점을 이용한 횟수인 것을 특징으로 한다.
또한, 상기 실시 예에 따른 항목은 고객의 나이 및 성별 중 적어도 하나이고, 항목 값은 상기 나이 및 성별을 나타내는 수치인 것을 특징으로 한다.
또한, 본 발명의 일 실시 예는 연합 학습에 기반한 상품 추천 방법으로서, a) 입력부가 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받는 단계; b) 연합 학습 모델부가 트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 연합 학습(Federated Learning)을 수행하여 사전 학습(Pre training)하는 단계; c) 상기 연합 학습 모델부가 상기 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 상기 사전 학습된 예측 모델의 파라미터를 조정한 전이 학습(Fine tuning)을 수행하여 고객의 다음 추천 정보를 예측하는 단계; 및 d) 출력부가 상기 연합 학습 모델부에서 예측된 고객의 다음 추천 정보를 출력하는 단계를 포함한다.
또한, 상기 실시 예에 따른 b) 단계는 연합 학습 모델부가 네트워크를 통해 연결된 A 클라이언트 단말, B 클라이언트 단말 내지 n 클라이언트 단말이 예측 모델을 학습하도록 관리하며, 상기 연합 학습 모델부는 A 클라이언트 단말이 자신의 학습 데이터에 기반하여 학습된 예측 모델을 B 클라이언트 단말로 제공되도록 하고, 상기 B 클라이언트 단말이 자신의 학습 데이터에 기반하여 상기 학습된 예측 모델을 추가 학습하도록 관리하며, 추가 학습된 예측 모델을 다음 클라이언트 단말로 제공되도록 하여 개별 클라이언트 단말을 이용한 연합 학습이 수행되도록 관리하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 b)단계는 예측 모델이 빈칸 채우기(Masked Language Modeling, MLM) 및 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 고객 행동 데이터는 고객의 행동 및 날짜를 포함할 수 있다.
또한, 상기 실시 예에 따른 고객의 행동은 고객이 이용한 정보 중에서, 고객이 이용한 가맹점의 이름, 가맹점 주소, 가맹점에서 결제한 금액이고, 날짜는 고객이 가맹점을 이용한 날짜 및 시간이며, 횟수는 가맹점을 이용한 횟수인 것을 특징으로 한다.
또한, 상기 실시 예에 따른 고객 프로파일 데이터는 항목 및 항목 값을 포함할 수 있다.
또한, 상기 실시 예에 따른 항목은 고객의 나이 및 성별 중 적어도 하나이고, 항목 값은 상기 나이 및 성별을 나타내는 수치인 것을 특징으로 한다.
본 발명은 연합 학습을 통해 시계열 기반의 고객 데이터를 분석하여 예측되는 다음 발생 정보로부터 고객 맞춤형 정보를 추천하여 제공할 수 있는 장점이 있다.
도1은 일반적인 연합 학습을 설명하기 위해 나타낸 예시도.
도2는 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치의 구성을 나타낸 블록도.
도3은 도2의 실시 예에 따른 연합 학습에 기반한 상품 추천 장치의 사전 학습 과정을 설명하기 위해 나타낸 예시도.
도4는 도2의 실시 예에 따른 분류 모델을 설명하기 위해 나타낸 블록도.
도5는 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치 방법을 설명하기 위해 나타낸 흐름도.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.
도2는 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치의 구성을 나타낸 블록도이고, 도3은 도2의 실시 예에 따른 연합 학습에 기반한 상품 추천 장치의 사전 학습 과정을 설명하기 위해 나타낸 예시도이며, 도4는 도2의 실시 예에 따른 분류 모델을 설명하기 위해 나타낸 블록도이다.
도2 내지 도4를 참조하면, 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치(100)는 연합 학습(Federated Learning)을 통해 시계열 기반의 고객 데이터를 분석하여 다음 발생 정보를 예측하고 예측된 정보에 기반하여 고객 맞춤형 정보를 추천하는 구성으로서, 입력부(110)와, 연합 학습 모델부(120)와, 출력부(130)를 포함하여 구성될 수 있다.
입력부(110)는 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받을 수 있다.
여기서, 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터는 시간의 차례대로 발생되는 이벤트 정보로서, 예를 들면, 임의의 고객 'A'가 시간의 차례(또는 순서)대로 사용한 시계열 기반의 카드 승인 정보일 수 있다.
즉, "2022-01-03, 오후 12시 30분, 서울 강남구 청담동 XX번지, xxx 스파게티에서 2만 5천원 결제" -> "2022-01-03, 오후 1시 02분, 서울 강남구 청담동 YY번지, yyy 커피점에서 9800원 결제" -> "2022-01-03, 오후 7시 21분, 서울 서초구 방배동 ZZ번지, zzz 식당에서 3만원 결제" 등과 같이 시간의 차례대로 배열된 카드 승인 정보일 수 있다.
또한, 시계열 기반의 카드 승인 정보는 결제 정보뿐만 아니라, 취소, 환불 등의 정보를 포함할 수도 있다.
또한, 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터는 텍스트 데이터, 이미지 데이터 또는 미리 설정된 임의의 토큰 형태로 입력될 수도 있다.
또한, 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터는 고객 'A'가 임의의 가맹점에서 결제한 내역 정보일 수도 있고, 고객 'A'가 임의의 콘텐츠를 사용한 결제 내역 정보일 수도 있다.
본 실시 예에서는 설명의 편의를 위해 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 카드 승인 정보로 설명하지만, 이에 한정되는 것은 아니고 시계열적으로 획득 가능한 정보는 모두 포함될 수 있다.
예를 들어, 영화 추천, 음식 메뉴 추천, 맛집 또는 음식점 추천, 여행지 추천, 데이터 코스 추천, 자동차 추천, 매입 주택 추천, 매입 건물 추천, 전세물 추천, 금융 상품 추천, 채용 직원 추천, 외주사 추천, 공급 업체 추천, 진학 학교 추천, 학원 추천, 결혼 상대 추천, 호텔 추천, 항공 예약 추천, 선박 예약 추천, 가전제품 추천, 전자기기 추천, 변호사 추천, 변리사 추천, 전문의 추천, 전문가 추천, 학원 강사 추천, 서적 추천, 병원 추천, 게임 추천, 소프트웨어 추천 등에 다양하게 적용될 수 있다.
연합 학습 모델부(120)는 고객의 카드 승인 정보를 하나의 시계열적 문서로 보고, 트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 연합 학습(Federated Learning)에 기반하여 사전 학습(Pre training)을 수행할 수 있다.
이때, 연합 학습 모델부(120)는 A 클라이언트 단말(122)이 트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 사전 학습할 수 있도록 연합 모델 서버부(121)를 통해 A 클라이언트 단말(122)로 예측 모델을 다운로드할 수 있다.
트랜스포머 아키텍처 알고리즘은 시퀀스-투-시퀀스(seq2seq) 모델로서, 데이터에 순서가 있고 출력 그 자체가 시퀀스인 문제에 적합하다.
이러한, 트랜스포머 아키텍처 알고리즘은 버트(Bidirectional Encoder Representations from Transformers, BERT), GPT(Generative Pretrained Transformer), GPT2, GPT3, MT-NLG(Megatron-Turing Natural Language Generation), 스위치 트랜스포머(Switch Transformer) 등이 있으며, 본 발명의 실시 예에서는 편의상 BERT 기반의 알고리즘을 사용하는 것에 대하여 설명하기로 한다.
또한, 트랜스포머 아키텍처 알고리즘은 인코더와 디코더가 결합된 모델로 구성될 수도 있다.
인코더는 텍스트를 임베딩(Embedding)하여 인코딩하는 구성으로서, 예를 들어, BERT, XLNet, ALBERT, RoBERTa, Electra 등이 있으며, MAM(Masked Action Modeling) 방법으로 학습할 수 있다.
또한, 디코더는 인코더로부터 출력되는 피처(Feature)들을 마스크를 이용한 셀프 어텐션을 이용하여 디코딩하는 구성으로서, GPT, GPT2, GPT3의 경우 Next Action Prediction 등의 방법으로 학습할 수 있다.
또한, 연합 학습 모델부(120)는 A 클라이언트 단말(122)이 다운로드 받은 예측 모델을 학습하여 훈련된 A 예측 모델을 연합 모델 서버부(121)로 업로드 받고, A 클라이언트 단말(122)에서 훈련된 A 예측 모델을 B 클라이언트 단말(123)로 제공할 수 있다.
또한, 연합 학습 모델부(120)는 B 클라이언트 단말(123)이 제공받은 A 예측 모델을 추가 학습하여 훈련된 B 예측 모델을 연합 모델 서버부(121)로 업로드 받고, B 클라이언트 단말(123)에서 추가 훈련된 B 예측 모델을 다음의 클라이언트 단말로 제공하여 예측 모델이 계속 발전될 수 있도록 한다.
즉, 연합 학습 모델부(120)는 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)을 통해 훈련된 예측 모델을 서로 다른 자신의 학습 데이터를 이용하여 추가 학습을 수행하고, 훈련된 예측 모델을 연합 모델 서버부(121)로 공유하는 과정을 지속적으로 수행함으로써, 예측 모델의 성능이 향상될 수 있도록 한다.
여기서, A 클라이언트 단말(122)은 A 카드사의 학습 데이터를 이용하여 모델 학습을 수행하는 A 카드사 서버일 수 있고, B 클라이언트 단말(123)은 B 카드사의 학습 데이터를 이용하여 학습을 수행하는 B 카드사 서버일 수 있으며, n 클라이언트 단말(124)은 N 카드사의 학습 데이터를 이용하여 학습을 수행하는 N 카드사 서버일 수 있다.
또한, A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)은 특정 태스크에 대해 자사의 데이터 셋을 이용하여 BERT 기반의 예측 모델을 사전 학습할 수도 있다.
BERT 기반 예측 모델의 사전 학습을 위해 모든 문장을 토큰화해 토큰들을 추출하는 토큰 임베딩과, 주어진 두 문장을 구별하는 세그먼트 임베딩과, 단어의 순서와 관련된 정보에 대한 위치 임베딩을 수행할 수 있다.
또한, 사전 학습은 빈칸 채우기(Masked Language Modeling, MLM)와, 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습을 수행할 수 있다.
빈칸 채우기(MLM)는 예를 들어, 주어진 입력 문장에서 전체 단어의 15%를 무작위로 마스킹(Masking)하고, 마스크된 단어를 예측하도록 모델을 학습할 수 있다.
또한, 다음 문장 예측(NSP)은 두 문장을 입력하고, 두 번째 문장이 첫 번째 문장의 다음 문장인지 여부를 분류하여 예측하도록 모델을 학습할 수 있다.
또한, BERT 기반의 예측 모델은 고객의 행동 및 날짜를 포함한 고객 행동 데이터를 벡터 값으로 변환하는 제1 네트워크와, 제1 네트워크와 병렬로 구성되고 항목 및 항목 값을 포함한 고객 프로파일 데이터를 벡터 값으로 변환하는 제2 네트워크와, Classifier를 기반으로 제1 네트워크를 통해 출력되는 고객 행동 데이터의 벡터 값과, 제2 네트워크를 통해 출력되는 고객 프로파일 데이터의 벡터 값을 합하여 고객 추천 정보를 분류하는 제3 네트워크로 구성될 수 있다.
제1 네트워크는 고객의 행동 및 날짜를 각각 임베딩(embedding)하여 합 연산한 결과와 횟수를 피드 포워드(Feed Forward)한 것을 결합(concatenate)하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 BERT 알고리즘에 입력함으로써, 고객의 행동, 날짜, 횟수에 대한 고객 행동 데이터에 대응하는 벡터 값으로 변환하여 출력할 수 있다.
여기서, 고객의 행동은 고객이 이용한 정보 중에서, 고객이 이용한 가맹점의 이름, 가맹점 주소, 가맹점에서 결제한 금액이고, 날짜는 고객이 가맹점을 이용한 날짜 및 시간이며, 횟수는 가맹점을 이용한 횟수일 수 있다.
또한, 제2 네트워크는 항목을 임베딩을 통해 벡터 값으로 변환한 결과와 항목 값을 곱 연산하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 BERT 알고리즘에 입력함으로써, 항목 및 항목 값에 대한 고객 프로파일 데이터에 대응하는 벡터 값으로 변환하여 출력할 수 있다.
여기서, 항목은 고객의 나이 및 성별 중 적어도 하나이고, 항목 값은 상기 나이 및 성별을 나타내는 수치일 수 있다.
제3 네트워크는 Classifier를 기반으로 제1 네트워크 및 제2 네트워크를 통해 출력된 벡터 값들을 합함으로써, 고객에게 적합한 상품, 다음 방문 업종, 가맹점, 콘텐츠 등을 분류 및 예측할 수 있다.
또한, 연합 학습 모델부(120)는 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)에서 학습된 결과인 파라미터 정보들을 업로드 받아 연합 학습 서버부(121)의 BERT 기반 예측 모델을 학습하고, 학습된 결과는 다시 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)로 전송하는 과정을 반복 수행하여 예측 모델의 성능이 향상될 수 있도록 한다.
또한, 연합 학습 모델부(120)는 입력부(110)를 통해 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터가 입력되면, 입력된 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 사전 학습된 BERT 기반 예측 모델의 파라미터를 조정하여 전이 학습(Fine tuning)을 추가 수행할 수 있다.
또한, 연합 학습 모델부(120)는 추가 전이 학습을 통해 학습된 최종 모델을 기반으로 고객에게 적합한 다음 추천 정보, 예를 들어, 상품, 다음 방문 업종, 가맹점, 콘텐츠 등을 분류 및 예측할 수 있다.
출력부(130)는 연합 학습 모델부(120)에서 예측된 고객의 다음 추천 정보를 출력할 수 있다.
다음은 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 방법을 설명한다.
도5는 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치 방법을 설명하기 위해 나타낸 흐름도이다.
도2 내지 도5를 참조하면, 본 발명의 일 실시 예에 따른 연합 학습에 기반한 상품 추천 장치 방법은 입력부(110)가 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받는다(S100).
연합 학습 모델부(120)는 BERT 기반의 예측 모델을 연합 학습을 수행하여 사전 학습을 수행(S200)할 수 있다.
S200 단계에서, 연합 학습 모델부(120)는 A 클라이언트 단말(122)이 BERT 기반의 예측 모델을 사전 학습할 수 있도록 연합 모델 서버부(121)를 통해 A 클라이언트 단말(122)로 예측 모델을 다운로드할 수 있다.
또한, 연합 학습 모델부(120)는 A 클라이언트 단말(122)이 다운로드 받은 예측 모델을 학습하여 훈련된 A 예측 모델을 연합 모델 서버부(121)로 업로드 받고, A 클라이언트 단말(122)에서 훈련된 A 예측 모델을 B 클라이언트 단말(123)로 제공할 수 있다.
또한, 연합 학습 모델부(120)는 B 클라이언트 단말(123)이 제공받은 A 예측 모델을 추가 학습하여 훈련된 B 예측 모델을 연합 모델 서버부(121)로 업로드 받고, B 클라이언트 단말(123)에서 추가 훈련된 B 예측 모델을 다음의 클라이언트 단말로 제공하여 예측 모델이 계속 발전될 수 있도록 한다.
즉, 연합 학습 모델부(120)는 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)을 통해 훈련된 예측 모델을 서로 다른 자신의 학습 데이터를 이용하여 추가 학습을 수행하고, 훈련된 예측 모델을 연합 모델 서버부(121)로 공유하는 과정을 지속적으로 수행함으로써, 예측 모델의 성능이 향상될 수 있도록 한다.
여기서, A 클라이언트 단말(122)은 A 카드사의 학습 데이터를 이용하여 모델 학습을 수행하는 A 카드사 서버일 수 있고, B 클라이언트 단말(123)은 B 카드사의 학습 데이터를 이용하여 학습을 수행하는 B 카드사 서버일 수 있으며, n 클라이언트 단말(124)은 N 카드사의 학습 데이터를 이용하여 학습을 수행하는 N 카드사 서버일 수 있다.
또한, A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)은 특정 태스크에 대해 자사의 데이터 셋을 이용하여 BERT 기반의 예측 모델을 사전 학습할 수도 있다.
또한, BERT 기반 예측 모델은 주어진 입력 문장에서 전체 단어의 15%를 무작위로 마스킹(Masking)하고, 마스크된 단어를 예측하도록 모델을 학습하는 빈칸 채우기(Masked Language Modeling, MLM)와, 두 문장을 입력하고, 두 번째 문장이 첫 번째 문장의 다음 문장인지 여부를 분류하여 예측하도록 모델을 학습하는 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습을 수행할 수 있다.
또한, BERT 기반 예측 모델은 제1 네트워크를 통해 고객의 행동 및 날짜를 각각 임베딩(embedding)하여 합 연산한 결과와 횟수를 피드 포워드(Feed Forward)한 것을 결합(concatenate)하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 BERT 알고리즘에 입력함으로써, 고객의 행동, 날짜, 횟수에 대한 고객 행동 데이터에 대응하는 벡터 값으로 변환하여 출력할 수 있다.
또한, BERT 기반 예측 모델은 제2 네트워크를 통해 항목을 임베딩을 통해 벡터 값으로 변환한 결과와 항목 값을 곱 연산하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 BERT 알고리즘에 입력함으로써, 항목 및 항목 값에 대한 고객 프로파일 데이터에 대응하는 벡터 값으로 변환하여 출력할 수 있다.
또한, BERT 기반 예측 모델은 제3 네트워크를 통해 Classifier를 기반으로 제1 네트워크 및 제2 네트워크를 통해 출력된 벡터 값들을 합함으로써, 고객에게 적합한 상품, 다음 방문 업종, 가맹점, 콘텐츠 등을 분류 및 예측할 수 있다.
즉, S200 단계에서 연합 학습 모델부(120)는 사전 학습을 통해 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)에서 학습된 결과인 파라미터 정보들을 업로드 받아 연합 학습 서버부(121)의 BERT 기반 예측 모델을 학습하고, 학습된 결과는 다시 A 클라이언트 단말(122), B 클라이언트 단말(123), ‥, n 클라이언트 단말(124)로 전송하는 과정을 반복 수행하여 예측 모델의 성능이 향상될 수 있도록 한다.
계속해서, 연합 학습 모델부(120)는 S100 단계에서 입력된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 사전 학습된 BERT 기반 예측 모델의 파라미터를 조정하여 전이 학습(Fine tuning)을 추가 수행(S300)할 수 있다.
또한, S300 단계에서, 연합 학습 모델부(120)는 추가 전이 학습을 통해 학습된 최종 모델을 기반으로 고객에게 적합한 다음 추천 정보, 예를 들어, 상품, 다음 방문 업종, 가맹점, 콘텐츠, 할인 쿠폰 등을 분류 및 예측할 수 있다.
S300 단계에서 연합 학습 모델부(120)를 통해 예측된 고객의 다음 추천 정보는 출력부(130)를 통해 출력(S400)될 수 있다.
따라서, 연합 학습을 통해 시계열 기반의 고객 데이터를 분석하여 예측되는 다음 발생 정보로부터 고객 맞춤형 정보를 추천하여 제공할 수 있다.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.
100 : 상품 추천 장치
110 : 입력부
120 : 연합 학습 모델부
121 : 연합 모델 서버부
122 : A 클라이언트 단말부
123 : B 클라이언트 단말부
124 : n 클라이언트 단말부
130 : 출력부

Claims (12)

  1. 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받는 입력부(110);
    트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 연합 학습(Federated Learning)을 수행하여 사전 학습(Pre training)하고, 상기 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 상기 사전 학습된 예측 모델의 파라미터를 조정한 전이 학습(Fine tuning)을 수행하여 고객의 다음 추천 정보를 예측하는 연합 학습 모델부(120); 및
    상기 연합 학습 모델부(120)에서 예측된 고객의 다음 추천 정보를 출력하는 출력부(130);를 포함하고,
    상기 연합 학습 모델부(120)는 연합 모델 서버부(121)와, 네트워크를 통해 연결된 A 클라이언트 단말(122), B 클라이언트 단말(123) 내지 n 클라이언트 단말(124)을 구비하며,
    상기 연합 모델 서버부(121)는 A 클라이언트 단말(122), B 클라이언트 단말(123) 내지 n 클라이언트 단말(124)이 예측 모델을 학습하도록 관리하되,
    상기 A 클라이언트 단말(122)이 자신의 학습 데이터에 기반하여 학습된 A 예측 모델을 B 클라이언트 단말(123)로 제공되도록 하고,
    상기 A 클라이언트 단말(122)에서 학습된 A 예측 모델을 이용하여 상기 B 클라이언트 단말(123)이 자신의 학습 데이터에 기반한 추가 학습을 통해 훈련한 B 예측 모델을 다음 클라이언트 단말로 제공하여 이전 클라이언트 단말이 학습을 통해 훈련한 예측 모델과 해당 클라이언트 단말의 학습 데이터에 기반한 연합 학습이 수행되도록 관리하는 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 예측 모델은 빈칸 채우기(Masked Language Modeling, MLM) 및 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습하는 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  4. 제 1 항에 있어서,
    상기 예측 모델은 고객의 행동 및 날짜를 포함한 고객 행동 데이터를 벡터 값으로 변환하는 제1 네트워크;
    상기 제1 네트워크와 병렬로 구성되고 항목 및 항목 값을 포함한 고객 프로파일 데이터를 벡터 값으로 변환하는 제2 네트워크; 및
    Classifier를 기반으로 상기 제1 네트워크를 통해 출력되는 고객 행동 데이터의 벡터 값과, 제2 네트워크를 통해 출력되는 고객 프로파일 데이터의 벡터 값을 합하여 고객 추천 정보를 분류하는 제3 네트워크로 구성된 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  5. 제 4 항에 있어서,
    상기 제1 네트워크는 고객의 행동 및 날짜를 각각 임베딩(embedding)하여 합 연산한 결과와 횟수를 피드 포워드(Feed Forward)한 것을 결합(concatenate)하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 트랜스포머 아키텍처 알고리즘을 통해 고객의 행동, 날짜, 횟수에 대한 고객 행동 데이터에 대응하는 벡터 값으로 출력하고,
    상기 제2 네트워크는 항목을 임베딩을 통해 벡터 값으로 변환한 결과와 항목 값을 곱 연산하여 정규화한 벡터 값을 'N'개의 인코더 블록으로 구성된 트랜스포머 아키텍처 알고리즘을 통해 항목 및 항목 값에 대한 고객 프로파일 데이터에 대응하는 벡터 값으로 출력하는 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  6. 제 4 항에 있어서,
    상기 고객의 행동은 고객이 이용한 정보 중에서, 고객이 이용한 가맹점의 이름, 가맹점 주소, 가맹점에서 결제한 금액이고, 날짜는 고객이 가맹점을 이용한 날짜 및 시간이며, 횟수는 가맹점을 이용한 횟수인 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  7. 제 4 항에 있어서,
    상기 항목은 고객의 나이 및 성별 중 적어도 하나이고, 항목 값은 상기 나이 및 성별을 나타내는 수치인 것을 특징으로 하는 연합 학습에 기반한 상품 추천 장치.
  8. a) 입력부(110)가 시간의 차례대로 배열된 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 입력받는 단계;
    b) 연합 학습 모델부(120)가 트랜스포머 아키텍처 알고리즘 기반의 예측 모델을 연합 학습(Federated Learning)을 수행하여 사전 학습(Pre training)하는 단계;
    c) 상기 연합 학습 모델부(120)가 상기 시계열 기반의 고객 행동 데이터와 고객 프로파일 데이터를 기반으로 상기 사전 학습된 예측 모델의 파라미터를 조정한 전이 학습(Fine tuning)을 수행하여 고객의 다음 추천 정보를 예측하는 단계; 및
    d) 출력부(130)가 상기 연합 학습 모델부(120)에서 예측된 고객의 다음 추천 정보를 출력하는 단계를 포함하고,
    상기 b) 단계는 연합 학습 모델부(120)가 네트워크를 통해 연결된 A 클라이언트 단말(122), B 클라이언트 단말(123) 내지 n 클라이언트 단말(124)이 예측 모델을 학습하도록 관리하되,
    상기 연합 학습 모델부(120)는 A 클라이언트 단말(122)이 자신의 학습 데이터에 기반하여 학습된 A 예측 모델을 B 클라이언트 단말(123)로 제공되도록 하고,
    상기 A 클라이언트 단말(122)에서 학습된 A 예측 모델을 이용하여 상기 B 클라이언트 단말(123)이 자신의 학습 데이터에 기반한 추가 학습을 통해 훈련한 B 예측 모델을 다음 클라이언트 단말로 제공하여 이전 클라이언트 단말이 학습을 통해 훈련한 예측 모델과 해당 클라이언트 단말의 학습 데이터에 기반한 연합 학습이 수행되도록 관리하는 것을 특징으로 하는 연합 학습에 기반한 상품 추천 방법.
  9. 삭제
  10. 제 8 항에 있어서,
    상기 b)단계는 예측 모델이 빈칸 채우기(Masked Language Modeling, MLM) 및 다음 문장 예측(Next Sentence Prediction, NSP) 태스크를 기반으로 사전 학습하는 것을 특징으로 하는 연합 학습에 기반한 상품 추천 방법.
  11. 제 8 항에 있어서,
    상기 고객 행동 데이터는 고객의 행동 및 날짜를 포함하고,
    상기 고객의 행동은 고객이 이용한 정보 중에서, 고객이 이용한 가맹점의 이름, 가맹점 주소, 가맹점에서 결제한 금액이고, 날짜는 고객이 가맹점을 이용한 날짜 및 시간이며, 횟수는 가맹점을 이용한 횟수인 것을 특징으로 하는 연합 학습에 기반한 상품 추천 방법.
  12. 제 8 항에 있어서,
    상기 고객 프로파일 데이터는 항목 및 항목 값을 포함하고,
    상기 항목은 고객의 나이 및 성별 중 적어도 하나이고, 항목 값은 상기 나이 및 성별을 나타내는 수치인 것을 특징으로 하는 연합 학습에 기반한 상품 추천 방법.
KR1020220086226A 2022-07-13 2022-07-13 연합 학습에 기반한 상품 추천 장치 및 방법 KR102517728B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220086226A KR102517728B1 (ko) 2022-07-13 2022-07-13 연합 학습에 기반한 상품 추천 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220086226A KR102517728B1 (ko) 2022-07-13 2022-07-13 연합 학습에 기반한 상품 추천 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102517728B1 true KR102517728B1 (ko) 2023-04-04

Family

ID=85929145

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220086226A KR102517728B1 (ko) 2022-07-13 2022-07-13 연합 학습에 기반한 상품 추천 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102517728B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102710161B1 (ko) * 2023-10-12 2024-09-26 주식회사 인터파크트리플 트랜스포머 기반의 신경망 모델을 이용하여 사용자의 여행 일정을 추천하는 서버 및 그 동작 방법
KR102710196B1 (ko) * 2023-10-12 2024-09-26 주식회사 인터파크트리플 트랜스포머 기반의 복수개의 신경망 모델들을 이용하여 사용자에게 적합한 복수개의 여행 일정들을 추천하는 서버 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210066754A (ko) 2019-11-28 2021-06-07 경희대학교 산학협력단 연합 학습을 활용한 사용자 특성 분석을 위한 딥 러닝 모델 생성 방법
KR20210132500A (ko) * 2020-04-27 2021-11-04 한국전자기술연구원 연합 학습 시스템 및 방법
KR102358119B1 (ko) * 2021-05-31 2022-02-09 주식회사 애자일소다 Bert 기반의 고객 상품 추천 장치 및 방법
KR20220097666A (ko) * 2020-12-30 2022-07-08 동국대학교 산학협력단 동적 메모리 기반의 신경망을 이용한 Few-Shot 텍스트 분류 장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210066754A (ko) 2019-11-28 2021-06-07 경희대학교 산학협력단 연합 학습을 활용한 사용자 특성 분석을 위한 딥 러닝 모델 생성 방법
KR20210132500A (ko) * 2020-04-27 2021-11-04 한국전자기술연구원 연합 학습 시스템 및 방법
KR20220097666A (ko) * 2020-12-30 2022-07-08 동국대학교 산학협력단 동적 메모리 기반의 신경망을 이용한 Few-Shot 텍스트 분류 장치 및 그 방법
KR102358119B1 (ko) * 2021-05-31 2022-02-09 주식회사 애자일소다 Bert 기반의 고객 상품 추천 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102710161B1 (ko) * 2023-10-12 2024-09-26 주식회사 인터파크트리플 트랜스포머 기반의 신경망 모델을 이용하여 사용자의 여행 일정을 추천하는 서버 및 그 동작 방법
KR102710196B1 (ko) * 2023-10-12 2024-09-26 주식회사 인터파크트리플 트랜스포머 기반의 복수개의 신경망 모델들을 이용하여 사용자에게 적합한 복수개의 여행 일정들을 추천하는 서버 및 그 동작 방법

Similar Documents

Publication Publication Date Title
KR102517728B1 (ko) 연합 학습에 기반한 상품 추천 장치 및 방법
US20220237368A1 (en) Systems and methods for machine content generation
Kazak et al. Artificial intelligence in the tourism sphere
US10657543B2 (en) Targeted e-commerce business strategies based on affiliation networks derived from predictive cognitive traits
US20210042476A1 (en) Intelligent Routing Services and Systems
US20210103865A1 (en) Data analysis using natural language processing to obtain insights relevant to an organization
Fabrice Yaméogo et al. Comparing methods for generating a two-layered synthetic population
Hossain et al. Sentilstm: a deep learning approach for sentiment analysis of restaurant reviews
Mahajan et al. Predicting geolocation of tweets: using combination of CNN and BiLSTM
Dessí et al. Deep learning adaptation with word embeddings for sentiment analysis on online course reviews
CN110443236A (zh) 贷后文本要点信息提取方法及装置
Du et al. Helpfulness prediction for online reviews with explicit content-rating interaction
CN112801425B (zh) 信息点击率的确定方法、装置、计算机设备和存储介质
Rani et al. Attention mechanism with gated recurrent unit using convolutional neural network for aspect level opinion mining
Zhang et al. Integrating an attention mechanism and convolution collaborative filtering for document context-aware rating prediction
Shah et al. User review classification and star rating prediction by sentimental analysis and machine learning classifiers
Kim et al. The method for generating recommended candidates through prediction of multi-criteria ratings using cnn-bilstm
Singh et al. AI-based personality prediction for human well-being from text data: a systematic review
Jain et al. Sentiment analysis in airline data: customer rating based recommendation prediction using WEKA
Obadić et al. Addressing item-cold start problem in recommendation systems using model based approach and deep learning
dos Santos Neto et al. A survey and study impact of tweet sentiment analysis via transfer learning in low resource scenarios
Purba et al. A hybrid convolutional long short-term memory (CNN-LSTM) based natural language processing (NLP) model for sentiment analysis of customer product reviews in Bangla
Florea et al. Artificial neural networks applied for predicting and explaining the education level of Twitter users
Asha et al. A comprehensive survey on web recommendations systems with special focus on filtering techniques and usage of machine learning
KR102339793B1 (ko) Han 기반의 상품 추천 장치 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant