KR20240000837A - 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치 - Google Patents

이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치 Download PDF

Info

Publication number
KR20240000837A
KR20240000837A KR1020220077527A KR20220077527A KR20240000837A KR 20240000837 A KR20240000837 A KR 20240000837A KR 1020220077527 A KR1020220077527 A KR 1020220077527A KR 20220077527 A KR20220077527 A KR 20220077527A KR 20240000837 A KR20240000837 A KR 20240000837A
Authority
KR
South Korea
Prior art keywords
item
heads
collaborative filtering
class
learning
Prior art date
Application number
KR1020220077527A
Other languages
English (en)
Inventor
유환조
권원빈
황준영
강성구
이동하
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020220077527A priority Critical patent/KR20240000837A/ko
Publication of KR20240000837A publication Critical patent/KR20240000837A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

다중 목표로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법은 서비스 장치가 사용자의 정보를 입력받는 단계, 상기 서비스 장치가 사용자의 정보와 후보 아이템 정보를 단일-클래스 협업 필터링 모델에 입력하여 상기 사용자의 상기 후보 아이템에 대한 선호도 점수를 산출하는 단계 및 상기 서비스 장치가 상기 선호도 점수를 기준으로 상기 후보 아이템을 추천 아이템으로 삼을지 결정하는 단계를 포함한다.

Description

이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치{ITEM RECOMMENDATION METHOD BASED ON ONE-CLASS COLLABORATIVE FILTERING WITH HETEROGENEOUS OBJECTIVES AND SERVICE APPARATUS}
이하 설명하는 기술은 단일-클래스 협업 필터링 기반한 아이템 추천 기법에 관한 것이다.
추천 시스템은 사용자들의 과거 이용 기록을 분석하여 해당 사용자가 선호할 만한 아이템을 찾아 제시한다. 협업 필터링(collaborative filtering)은 추천 기법 중 가장 활발히 연구되어 오고 있는 기술이다. 협업 필터링은 사용자들이 특정 아이템들에 대한 선호도를 기반으로 수행되는데 이러한 선호도는 크게 명시적 피드백(다중-클래스 환경)과 암시적 피드백(단일-클래스 환경)으로 표현된다. 단일-클래스 협업 필터링 기술은 사용자의 암묵적 선호(클릭 등)를 기준으로 아이템을 추천한다.
한국등록특허 제10-1907008호
종래 단일-클래스 협업 필터링은 단일 손실 함수를 학습에 사용하였다. 단일-클래스 환경의 데이터 집합은 사용자들의 평가 또는 구매 유무의 정보만을 갖기 때문에 평가 또는 구매한 상품들에 대한 사용자의 실제 선호도를 구별하기 어렵다. 따라서 단일 손실 함수 기반의 협업 필터링은 서로 다른 유형의 데이터들 특징을 충분하게 반영하기 어렵다. 한편, 기계 학습 분야에서 다중 손실 함수 기반의 모델은 손실 함수 간의 상호작용을 고려하지 못한다는 한계가 있었다.
이하 설명하는 기술은 이종 손실 함수가 나타내는 지식들의 합의를 기준으로 학습되는 단일-클래스 협업 필터링을 제공하고자 한다.
이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법은 서비스 장치가 사용자의 정보를 입력받는 단계, 상기 서비스 장치가 사용자의 정보와 후보 아이템 정보를 단일-클래스 협업 필터링 모델에 입력하여 상기 사용자의 상기 후보 아이템에 대한 선호도 점수를 산출하는 단계 및 상기 서비스 장치가 상기 선호도 점수를 기준으로 상기 후보 아이템을 추천 아이템으로 삼을지 결정하는 단계를 포함한다.
단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치는 사용자의 정보를 입력받는 입력장치, 후보 아이템들의 정보 및 사용자 정보와 아이템 정보를 기준으로 아이템 선호도를 예측하는 단일-클래스 협업 필터링 모델을 저장하는 저장장치 및 상기 입력된 사용자의 정보 및 상기 후보 아이템들 중 어느 하나의 후보 아이템의 정보를 상기 단일-클래스 협업 필터링 모델에 입력하여 상기 어느 하나의 후보 아이템에 대한 선호도 점수를 산출하고, 상기 선호도 점수를 기준으로 상기 어느 하나의 후보 아이템을 추천 아이템으로 삼을지 판단하는 연산장치를 포함한다.
이하 설명하는 기술은 다수의 이종 손실 함수들이 포착하는 상이한 지식들을 이용하여 정확도 높은 아이템을 추천할 수 있다. 이하 설명하는 기술은 추천 시스템이 사용되는 다양한 분야에서 사용자의 만족도 및 서비스 제공자의 수익을 증대할 수 있다.
도 1은 협업 필터링 기반의 추천 시스템에 대한 예이다.
도 2는 딥러닝 기반의 협업 필터링 모델의 학습 과정에 대한 예이다.
도 3은 순위 합의 과정에 대한 예이다.
도 4는 아이템을 추천하는 서비스 장치에 대한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 단일-클래스 협업 필터링(One-Class Collaborative Filtering, OCCF) 기반 기술이다. 이하 서비스 장치가 OOCF 기반으로 아이템을 추천한다고 설명한다. 서비스 장치는 PC, 스마트 기기, 서비스 서버, 프로그램이 임베딩된 칩셋 등 다양한 형태로 구현될 수 있다.
추천 시스템은 다양한 분야에서 사용된다. 예컨대, 추천 시스템은 전자 상거래 서비스, 웹 페이지 검색 서비스, 콘텐츠(영상, 음악, 앱, 서적 등) 제공 서비스, 광고 서비스 등에서 활용될 수 있다.
아이템은 추천 시스템이 사용되는 분야에 따라 다양한 항목들이 될 수 있다. 예컨대, 아이템은 상품, 디지털 콘텐츠(영상, 음악, 앱 등), 키워드 기반 검색 결과(검색 결과 표시되는 항목들), 온라인 광고 콘텐츠 등이 될 수 있다.
도 1은 협업 필터링 기반의 추천 시스템(100)에 대한 예이다. 도 1에서 서비스 장치는 서버인 예를 도시하였다.
사용자 단말(110)은 사용자 정보를 추출한다. 사용자 단말(110)은 사용자가 특정 서비스를 받기 위하여 사용하는 장치이다. 사용자 단말(110)은 PC, 스마트기기, 웨어러블 기기, 가상현실(VR) 장비, 증강현실 장비 등일 수 있다. 사용자 A는 사용자 단말(110)을 통해 전용 애플리케이션 또는 웹 브라우저를 통해 전자 상거래 사이트 등에 접속할 수 있다. 또는 사용자 A는 현실 세계에서 특정 서비스 영역(특정 거리, 특정 상점 등)에 위치하면서 사용자 단말(110)을 통해 아이템을 추천받을 수도 있다. 사용자 단말(110)은 사용자 정보(예컨대, 사용자 식별자)를 서비스 장치(130)에 전송한다. 사용자 정보는 사용자가 입력한 정보(로그인 정보), 기기에 사전 저장된 식별 정보 또는 사용자 단말(110) 자체의 고유 식별 번도 등일 수 있다. 여기서 사용자 정보는 아이템 추천을 위하여 필요한 사용자측의 정보를 말한다.
서비스 장치(130)는 사용자 단말(110)로부터 직접 사용자 정보를 획득할 수 있다. 또는 서비스 장치(130)는 사용자 단말(110)로부터 일정한 식별 정보를 수신하고, 해당 식별 정보를 사용자 데이터베이스(120)에 쿼리하여 사용자 정보를 추출할 수도 있다. 예컨대, 사용자 A가 특정 서비스를 위하여 사전에 회원 가입을 한 경우 서비스 장치(130)는 해당 사용자에 대한 정보를 저장하고 관리하는데, 이 경우 서비스 장치(130)가 보유한 데이터에서 사용자 A의 사용자 정보를 추출할 수 있다.
서비스 장치(130)는 사전에 구축한 OOCF 모델을 이용하여 사용자 정보를 기준으로 해당 사용자에 추천할 아이템을 결정한다. 서비스 장치(130)는 사용자 정보와 특정 아이템에 대한 정보를 OOCF 모델에 입력하여 해당 아이템에 대한 선호도를 예측한다. 서비스 장치(130)는 다수의 아이템들 중 선호도가 높은 어느 하나 또는 상위 아이템 정보를 추천 아이템으로 결정할 수 있다. 서비스 장치(130)는 사용자 단말(110)에 추천 아이템의 정보를 전송한다. 사용자 단말(110)은 추천 아이템 정보를 출력하여 사용자에게 제공할 수 있다. 이후 사용자 단말(110)은 사용자 A로부터 특정 아이템에 대한 선택 입력을 받아 서비스 장치(130)에 전달할 수 있다. 서비스 장치(130)는 선택된 아이템과 관련된 정보 내지 서비스를 사용자 단말(110)에 제공할 수 있다.
이하 설명하는 기술은 딥러닝 기반의 협업 필터링(Neural Collaborative Filtering, NCF)이다. NCF 모델에 대하여 간략하게 설명한다.
기본적인 NCF 모델은 임베딩된 사용자 벡터와 아이템 벡터를 입력받아 특징을 추출하는 다중 계층으로 구성되며 출력 계층은 활성화 함수를 이용하여 최종 예측값을 출력한다. 사용자 벡터와 아이템 벡터는 각각 사용자와 아이템에 대한 정보가 원핫벡터 코딩된 결과이다.
또한, NCF 모델은 GMF(Generalized Matrix Factorization) 계층, MLP(Multi-Layer Perceptron) 계층 및 GMF 계층의 출력과 MLP 계층의 출력을 입력받아 최종 예측값을 출력하는 NueML 계층으로 구성될 수도 있다. GMF 계층과 MLP 계층은 각각 사용자 벡터와 아이템 벡터를 각각 다른 상태로 입력받는다. GMF 계층은 사용자 벡터와 아이템 벡터에 대한 요소별 행렬 곱(element-wise product)을 입력받는다. GMF 계층은 입력값에 가중치를 적용한 후 시그모이드(sigmoid)와 같은 활성화 함수를 통해 출력을 산출한다. MLP 계층은 사용자 벡터와 아이템 벡터를 결합(concatenation)한 벡터를 입력받는다. MLP 계층은 다수의 은닉 계층을 통해 입력값에 대하여 특징이 도출된 벡터를 산출한다. MLP는 활성화 함수로 ReLU를 사용할 수 있다. NueML 계층은 GMF 계층의 출력 벡터와 MLP 계층의 출력 벡터를 결합한 값을 입력받아 시그모이드 활성함수를 거쳐 예측값을 출력한다.
NCF 모델은 사전에 학습되어야 한다. 학습 데이터는 사용자 정보와 해당 사용자의 아이템 선호도 정보이다. 학습 과정을 통해 NCF 모델은 입력되는 사용자에 대하여 특정 아이템에 대한 선호도 점수를 산출하게 된다.
도 2는 딥러닝 기반의 협업 필터링 모델의 학습 과정에 대한 예이다. 도 2에서 'user'는 사용자 벡터이고, 'item'은 아이템 벡터이다. 'user-item encoder'는 입력 벡터에서 특징을 추출하는 계층(들)으로 구성되는 인코더이다. 'head'는 인코더가 출력하는 특징을 입력받아 예측값을 출력하는 계층을 말한다. 헤드는 전연결 계층과 같은 구성일 수 있다. 헤드는 특정 손실 함수로 학습된다. LCF는 손실 함수를 나타낸다.
학습 과정은 학습 장치가 수행한다고 가정한다. 학습 장치는 데이터 처리 및 학습 과정 수행이 가능한 컴퓨터 장치를 의미한다. 학습 장치는 학습 데이터를 이용하여 학습 대상인 단일-클래스 기반 협업 필터링 모델을 학습시킨다.
복수의 헤드들(헤드 A ~ 헤드 E)은 서로 다른 이종의 손실 함수로 각각 학습된다. 학습 장치는 복수의 헤드들의 다중 관점을 일정하게 합의(consensus)한다. 이후 복수의 헤드들(헤드 A ~ 헤드 E)은 합의한 정보에 따라 다시 각각 학습된다(합의 학습, consensus learning). 이때 합의한 정보 별도의 손실 함수로 구성된다. 따라서, 각 헤드는 두 가지 손실 함수로 학습된다. 이하 구체적인 학습 과정을 설명한다.
U는 사용자 집합이고, I는 아이템 집합이라고 정의한다. 암묵적 사용자-아이템 상관 관계는 이진 행렬 R ∈ {0,1}|U|×|I|로 표현할 수 있다. rui=1은 사용자 u가 아이템 i에 일정 상관 관계가 있음을 나타내고, rui=10은 사용자 u가 아이템 i에 일정 상관 관계가 없음을 나타낸다. 여기서 상관 관계는 클릭, 구매 등의 관계를 의미할 수 있다. O+ = {(u,i)|rui=1}가 알려진 사용자-아이템 상관 관계의 집합이라고 정의하고, O-= {(u,i)|rui=1}가 알려지지 않은 사용자-아이템 상관 관계의 집합이라고 정의한다. = {(u,i,j)|rui=1∧rui=0}은 사용자 u가 아이템 i에 대해서는 상관 관계 있지만, j에 대해서는 상관 관계 없는 상태를 나타내는 사용자-아이템 상관 관계의 집합이라고 정의한다.
학습 대상인 모델은 OCCF이다. OOCF는 복수의 목표를 이루는 방향으로 학습된다. 동시에 OOCF는 복수의 목표들의 합의를 기준으로 학습된다. 이와 같은 학습 방식을 다중 목표 합의 학습이라고 명명한다. OOCF 학습 과정에서 목표는 손실 함수로 정의된다. OOCF를 위한 다양한 손실 함수가 정의될 수 있다. 따라서 다중 목표 합의 학습은 이종의 다수의 손실 함수가 정의되면 충분하다.
다만, 이하 설명의 편의를 위하여 연구자가 사용한 특정 목표들을 이용한 학습 과정과 학습된 OOCF의 성능을 설명한다. 연구자는 5개의 목표(손실 함수)를 사용하는 모델을 구축하였다. 연구자는 최근 연구에서 제시되었던 5개의 목표를 사용하였다. 5개의 목표는 CF-x, x ∈ {A,B,C,D,E}로 표기한다.
목표 A(CF-A)
BPR(Bayesian personalized ranking)은 모델 최적화에 활용된다. BRP은 사후 확률(posterior probability) 을 최대화한다. θ는 모델 파라미터이다. 는 사용자 u가 아이템 i를 아이템 j보다 선호할 확률이라고 정의한다. σ(·)는 시그모이드 함수이다. 는 OOCF가 예측하는 사용자 u와 아이템 i의 상관 관계 점수이다. 목표 A에 대한 손실 함수는 아래 수학식 1과 같이 표현할 수 있다.
사전 확률(prior probability) p(θ)는 정규 분포를 적용하여 ∥θ∥2로 연산할 수 있다. 수학식 1은 단순화를 위하여 사전 확률을 제거하였다.
목표 B(CF-B)
최근 많은 연구에서 객체간 거리를 기준으로 학습하는 메트릭 러닝(metric learning)이 사용되고 있다. 사용자의 아이템 선호 강도는 표현 공간에서의 객체간 유클리디언(Euclidean) 거리에 반비례한다. 즉, 이다. 목표 B에 대한 손실 함수는 아래 수학식 2와 같이 표현할 수 있다.
[x]+ = max(x,0)는 힌지 손실(hinge loss)이고, m은 마진(margin)을 의미한다.
목표 C(CF-C)
이진 크로스 엔트로피는 학습모델에서 가장 많이 활용되는 목표이다. 이진 크로스 엔트로피는 베르누이 분포(Bernoulli distribution)에서 사용자의 선호 정보가 샘플링된다고 가정한다. 즉, 이고, 이다. 목표 C에 대한 손실 함수는 아래 수학식 3과 같이 표현할 수 있다.
목표 D(CF-D)
가우시안 분포는 표본 추출 분포로 자주 사용된다. 즉, 이고, 고정된 분산 σ2를 갖는다. 목표 D에 대한 손실 함수는 아래 수학식 4와 같이 표현할 수 있다.
목표 E(CF-E)
다항 분포(multinomial distribution)는 자연어 처리 모델에서 자주 사용된다. 다항 분포는 사용자의 선호도 정보가 로 샘플링된다고 가정한다. 이고, 이다. 목표 E에 대한 손실 함수는 아래 수학식 5와 같이 표현할 수 있다.
인코더는 사용자 벡터와 아이템 벡터를 입력받아 특징을 추출한다. 다중 목표 합의 학습기반의 OOCF는 학습을 위하여 부가적인 헤드들을 사용한다. 헤드들은 각각 서로 다른 목표(손실 함수)를 기준으로 학습된다. 그리고, 헤드들은 다수의 서로 다른 헤드들의 관점들의 합의에 따라 다시 학습된다. 전체 손실 함수는 아래 수학식 6과 같이 표현할 수 있다.
는 헤드의 집합이고, 는 t 번째 학습 과정에서 헤드 x의 손실 함수를 의미한다. 는 t 번째 학습 과정에서 헤드 x에서 동적으로 조절되는 파라미터를 말한다.
각 헤드 x는 아래 수학식 7과 같이 두 개의 손실 항목 기본 CF 손실 및 합의 학습 손실 로 학습된다.
α는 각 학의 학습의 효과를 제어하는 하이퍼 파라미터이다.
이종의 손실 함수를 이용한 합의 학습에 대하여 설명한다. 손실 함수들은 서로 예측값의 분포 및 의미가 상이할 수 있다. 예컨대, =0은 CF-A에서는 약한 관계를 의미하지만, CF-B에서는 강한 관계를 의미할 수 있다. 따라서, 먼저 손실 함수들은 상호 학습이 가능하도록 일정하게 통일된 형태로 표현되어야 한다. 또한, 전체 헤드들의 성능 향상에 도움이되는 합의가 생성되어야 한다.
이를 위하여 연구자는 사용자와 아이템의 관계를 일정한 점수로 표현하지 않고, 순위 정보(ranking information)로 표현하였다. 순위 정보는 아이템들에 대한 상대적 선호도를 표현한다. 이와 같은 순위 정보는 모든 헤드들로부터 추출 가능한 보편적인 지식 정보이다. 따라서 순위 정보는 출력 분포가 다른 헤드들 사이에서 교환 가능한 지식 정보이다.
학습 장치는 각 헤드로부터 사용자별로 아이템들에 대한 예측 점수를 정렬하여 순위 리스트를 생성한다. 는 학습 에포크(epoch) t에서 헤드 x로부터 획득한 순위 리스트라고 정의한다. 각 아이템의 중요도는 상위 N개의 추천에 포함되는지에 따라 결정할 수 있다.
학습 장치는 전체 헤드들을 대상으로 로부터 아이템의 중요도에 따라 순위를 재평가하여 순위 합의 를 생성할 수 있다. 아이템의 중요도는 두 가지 요소로 평가될 수 있다. 두 가지 요소는 순위 위치 및 일관도(consistency)이다. 순위 위치는 각 아이템에 대한 사용자의 잠재적 선호도를 나타낸다. 일관도는 반복되는 학습 과정에서 예측되는 순위가 얼마나 일정한지를 나타내는 정보이다.
rankt(x,i)는 에서 아이템 i에 대한 순위라고 정의한다. rankt(x,i)는 낮은 값일 수록 높은 순위를 나타낸다. 즉, rankt(x,i) = 0이 가장 높은 순위이다. 순위 위치에 따른 아이템 i의 중요도는 아래 수학식 8과 같이 표현될 수 있다.
f는 단조 감소 함수로서, 연구자는 f(k) = e-k/T를 사용하여 높은 순위가 더욱 강조되게 하였다. 여기서 T는 강조 정도를 조절하는 하이퍼파라미터이다.
각 순위 리스트로부터 일관된 예측(=정확한 예측)인지 식별하기 위하여 일관도는 아래 수학식 9와 같이 표현될 수 있다.
std[·]는 표준 편차를 나타낸다. 학습 장치는 일정 시간 구간에서의 예측값을 기준으로 일관도를 연산할 수 있다. 예컨대, 학습 장치는 t-W ~ t 시간 구간의 예측값을 이용할 수 있다. W는 일정한 윈도우 크기이다.
최종적으로 순위 합의(ranking consensus)는 순위 위치와 일관도를 모두 이용하여 산출되는 중요도에 따라 결정될 수 있다. 아이템 i에 대한 중요도 는 아래 수학식 10과 같이 표현될 수 있다.
combine(·,·)는 두 개의 요소들을 동시에 고려하기 위한 함수이다. 연구자는 해당 함수를 단순 합산(addition)으로 이용하였다.
도 3은 순위 합의 과정에 대한 예이다. 도 3은 전술한 순위 합의 과정의 개념을 도시한다. 학습 장치는 전체 헤드들 각각으로부터 일정한 시간 구간에서 예측한 값에 따라 순위 위치를 산출하고, 다른 구간에서 산출한 순위 위치를 고려하여 일관도를 결정한 후 최종적으로 순위 합의를 결정한다. 합의 과정은 예측된 순위에 일관성이 없는 경우(잦은 변화가 있는 경우) 일정한 패널티를 부여하여 높은 순위뿐만 아니라 높은 일관도를 갖는 아이템의 추천 가능성을 높인다.
학습 장치는 순위 합의 결과를 이용하여 각 헤드의 성능이 향상되도록 학습을 수행한다. 특정 헤드가 순위 합의를 기준으로 추가 학습되면, 해당 헤드는 보다 정확한 합의를 하게된다. 이와 같은 학습 과정을 반복하면 각 헤드들은 보다 정확한 예측이 가능하도록 학습된다.
학습 장치는 순위 합의 πt에 따라 순위 순서가 결정되도록 각 헤드 x를 학습시킨다. 연구자는 Plackett-Luce 모델 기반의 순위 조합(permutation)의 확률로 순위 순서 가능성을 정의하고, 최대한 진성 순위 순서에 일치하도록 모델을 학습하였다. 연구자는 상위 N개의 순위 조합 가능성을 아래 수학식 11과 같이 정의하였고, N개 내에서의 정확한 순위 순서는 무시하도록 하였다. 이 경우 각 헤드는 N개 상위 랭크에 속한 아이템 집합을 기준으로 학습된다.
는 상위 N개 아이템의 부분 집합이고, θ는 모델 파라미터들이다. πt(k)는 순위 합의 πt의 k번째 아이템이고, 는 (u,πt(k))에 대하여 헤드 x가 예측한 점수이다.
학습 장치는 최대한 각 헤드가 합의 순위에 부합하는 점수를 산출하도록 학습을 수행한다. 수학식 7에서 설명한 합의 학습 손실은 아래 수학식 12와 같이 표현될 수 있다. 수학식 12의 합의 학습 손실은 기본 CF 손실에 사용된 동일한 배치 B에 속한 사용자들에 대한 손실을 정의한다.
는 사용자 u에 대한 상위 N개의 순위 합의이다.
헤드들은 이종 손실 함수로 최적화된다. 학습 과정에서 특정 헤드가 지나치게 빠르게 학습되거나 정보를 주도하면 헤드 간의 합의에 불균형을 초래할 수 있다. 따라서, 학습 장치는 모든 헤드들이 유사한 정도로 학습되도록(= 유사한 학습률) 공유 파라미터 θs에 따라 각 헤드들의 그레디언트 스케일을 조절할 수 있다. 연구자는 그레드언트 정규화 기법을 적용하여 공유 파라미터가 모든 헤드들에 유효한 특징에 작용하게 하였다. 각 학습 단계 t에서 헤드 x에 대한 상대적 학습률 은 아래 수학식 13과 같이 정의할 수 있다.
는 초기 손실이다. 가 작은 값이라면 헤드 x는 다른 헤드들에 비하여 빨리 최적화되고 있다는 의미이다. 학습 장치는 상대적 학습률에 따라 각 헤드의 크레디언트 스케일을 조정한다. 가 헤드 x의 손실에 따른 그레디언트 스케일이라고 정의한다. 는 학습 장치가 목표하는 그레디언트 스케일(타깃 그레디언트 스케일)이다. 아래 수학식 14와 같이 그레디언트 정규화는 그레디언트 스케일들 사이의 거리를 최소화하는 방식으로 진행될 수 있다.
타깃 그레디언트 스케일은 상수에 해당하므로, 는 상대적 학습률 에 따라 결정된다. 결정된 그레디언트 는 다음 학습 단계에서 를 업데이트한다. 마지막으로 를 만족하도록 정규화된다.
학습이 완료된 후 추론(아이템 추천) 과정에서 사용되는 OOCF 모델은 학습 과정 중 학습된 복수의 헤드들 중 어느 하나만을 사용할 수 있다. 이는 서비스 및 시스템 요구에 부합하는 특정 헤드를 사용하는 것이다. 또는 OOCF 모델은 전체 헤드들을 사용하고, 전체 헤드들의 결과를 종합한 결과를 사용할 수 있다. 서비스 장치가 학습된 OOCF 모델이 출력하는 값을 기준으로 특정 사용자에 대한 아이템을 추천한다.
연구자는 종래 연구에서 공개된 데이터 세트를 이용하여 제안한 OOCF의 성능을 평가하였다. 연구자는 3가지 데이터 세트 CiteULike(HaoWang, Binyi Chen, andWu-Jun Li. 2013. Collaborative topic regression with social regularization for tag recommendation. In IJCAI.), Ciao(Jiliang Tang, Huiji Gao, and Huan Liu. 2012. mTrust: discerning multi-faceted trust in a connected world. In WSDM.) 및 Foursquare(Yiding Liu, Tuan-Anh Nguyen Pham, Gao Cong, and Quan Yuan. 2017. An Experimental Evaluation of Point-of-Interest Recommendation in Location-Based Social Networks. PVLDB 2017, 1010-1021)를 사용하였다. 아래 표 1은 단일 목표를 사용한 모델(singleCF)와 전술한 다중 목표 합의 학습을 수행한 모델(ConCF)의 성능을 평가한 결과이다. 연구자는 0.05 레벨에서 대응 표본 T 검정(paired t-test)을 하였다. R@K는 상위 K개 순위 리스트에 유저와 관련 있는 아이템이 몇 개가 있는지 평가한 결과이고, N@K는 상위 K개 랭킹 리스트에 유저와 관련 있는 아이템들이 얼마나 높은 랭킹을 갖는지 평가한 결과이다.
표 1에서 ConCF 항목에서 개별 목적(CF-A ~ CF-E)는 합의 학습 후 해당하는 하나의 헤드를 사용하여 예측한 결과를 의미하고, Consensus는 다수의 헤드들의 추론을 종합한 결과를 사용한 것을 의미한다. Gain.Best는 단일 목표(singleCF) 대비 ConCF 중 단일 헤드를 사용한 모델에서 최대 향상된 게인(gain)을 나타내고, Gain.Con.은 단일 목표(singleCF) 대비 ConCF 중 다수 헤드의 합의 결과를 사용한 모델에서 최대 향상된 게인을 나타낸다. 표 1을 살펴보면 단일 목표(singleCF)를 사용한 경우보다 다중 목표 합의 학습을 수행한 모델(ConCF)이 월등하게 높다는 것을 알 수 있다.
도 4는 아이템을 추천하는 서비스 장치(200)에 대한 예이다. 서비스 장치(200)는 전술한 서비스 장치(도 1의 130)에 해당한다.
서비스 장치(200)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 서비스 장치(200)는 PC와 같은 컴퓨터 장치, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.
서비스 장치(200)는 저장장치(210), 메모리(220), 연산장치(230), 인터페이스 장치(240), 통신장치(250) 및 출력장치(260)를 포함할 수 있다.
저장장치(210)는 전술한 다중 목표 합의 학습을 수행한 OOCF 모델을 저장할 수 있다. OOCF 모델은 학습 과정에서 사용한 다수의 헤드들 중 서비스에 맞는 어느 하나의 헤드만으로 구성된 모델일 수 있다. 또는 OOCF 모델은 학습 과정에서 사용한 다수의 헤드들을 포함한 모델일 수 있다. 후자의 경우 서비스 장치(200)는 각각의 헤드들이 예측하는 값을 종합하여 최종 아이템을 추천할 수 있다. 예컨대, 서비스 장치(200)는 헤드들 중 다수가 추천한 아이템을 최종적인 추천 아이템으로 결정할 수 있다.
저장장치(210)는 다수의 후보 아이템들에 대한 정보를 저장할 수 있다.
저장장치(210)는 사용자 정보에 따라 아이템을 추천하는 과정을 제어하는 코드 내지 프로그램을 저장할 수 있다.
메모리(220)는 서비스 장치가 추천 아이템을 결정하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.
인터페이스 장치(240)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(240)는 물리적으로 연결된 입력 장치 또는 외부 저장장치로부터 사용자 정보를 입력받을 수 있다. 인터페이스 장치(240)는 사용자 정보에 따라 결정된 추천 아이템 정보를 외부 객체에 전달할 수도 있다.
통신장치(250)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(250)는 외부 객체로부터 사용자 정보를 수신할 수 있다. 또는 통신장치(250)는 사용자 정보에 따라 결정된 추천 아이템 정보를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.
인터페이스 장치(240) 및 통신장치(250)는 사용자 또는 다른 물리적 객체로부터 일정한 데이터를 주고받는 구성이므로, 포괄적으로 입출력장치라고도 명명할 수 있다. 정보 내지 데이터 입력 기능에 한정하면 인터페이스 장치(240) 및 통신장치(250)는 입력장치라고 할 수도 있다.
출력장치(260)는 일정한 정보를 출력하는 장치이다. 출력장치(260)는 데이터 처리 과정에 필요한 인터페이스, 추천 아이템, 등을 출력할 수 있다. 서버와 같은 서비스 장치는 별도의 출력장치(260)가 없을 수 있다.
연산 장치(230)는 다수의 후보 아이템들 중 어느 하나를 대상으로 해당 사용자가 선호하는지 예측할 수 있다. 예컨대, 연산 장치(230)는 사용자 정보 및 어느 하나의 후보 아이템 정보를 OOCF 모델에 입력하여 해당 후보 아이템에 대한 사용자의 선호도를 예측할 수 있다. OOCF 모델은 해당 아이템에 대한 예측 점수를 산출한다.
연산 장치(230)는 사용자 정보 및 아이템 정보를 일정하게 임베딩(원-핫 벡터 코딩 등)하여 사용자 벡터 및 아이템 벡터를 생성할 수 있다. 연산 장치(230)는 구축된 OOCF에 사용자 벡터 및 아이템 벡터를 입력하여 해당 해당 아이템에 대한 예측 점수를 산출할 수 있다.
연산 장치(230)는 다수의 후보 아이템들에 대하여 동일한 과정을 반복하여 각 아이템에 대한 사용자의 선호도를 예측할 수 있다. 연산 장치(230)는 후보 아이템들 중 선호도가 높은 하나 또는 상위 다수개의 아이템(들)을 추천 아이템으로 결정할 수 있다. 또는 연산 장치(230)는 후보 아이템에 대한 선호도(점수)가 임계값 이상인 경우 해당 후보 아이템을 추천 아이템으로 결정할 수도 있다.
연산 장치(230)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
또한, 상술한 바와 같은 다중 목표 합의 학습 방법 내지 단일-클래스 기반 협업 필터링 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (10)

  1. 서비스 장치가 사용자의 정보를 입력받는 단계;
    상기 서비스 장치가 사용자의 정보와 후보 아이템 정보를 단일-클래스 협업 필터링 모델에 입력하여 상기 사용자의 상기 후보 아이템에 대한 선호도 점수를 산출하는 단계; 및
    상기 서비스 장치가 상기 선호도 점수를 기준으로 상기 후보 아이템을 추천 아이템으로 삼을지 결정하는 단계를 포함하되,
    학습 과정에서 상기 단일-클래스 협업 필터링 모델은 인코더와 복수의 헤드(head)들을 포함하고, 상기 복수의 헤드들은 각각 이종의 목표를 나타내는 서로 다른 손실 함수로 학습되는 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법.
  2. 제1항에 있어서,
    상기 상기 복수의 헤드들은 상기 복수의 헤드들의 예측 결과를 기준으로 상기 복수의 헤드들의 예측 정확도를 동시에 향상시킬 수 있는 합의 손실 함수를 더 이용하여 학습되는 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법.
  3. 제2항에 있어서,
    상기 합의손실 함수는 상기 복수의 헤드들이 학습 과정에서 예측하는 아이템의 순위 위치 및 반복되는 학습 과정(epoch)에서 동일한 아이템이 동일한 순위 위치에 있는지에 따라 결정되는 일관도를 변수로 갖는 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법.
  4. 제1항에 있어서,
    상기 복수의 헤드들은 학습 과정에서 상대적 학습률을 기준으로 학습률이 최대한 균일화되도록 그레디언트가 조절되는 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법.
  5. 제1항에 있어서,
    상기 단일-클래스 협업 필터링 모델은 학습 과정에서 사용된 상기 복수의 헤드들 중 적어도 하나의 헤드를 이용하여 상기 선호도 점수를 산출하는 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법.
  6. 사용자의 정보를 입력받는 입력장치;
    후보 아이템들의 정보 및 사용자 정보와 아이템 정보를 기준으로 아이템 선호도를 예측하는 단일-클래스 협업 필터링 모델을 저장하는 저장장치; 및
    상기 입력된 사용자의 정보 및 상기 후보 아이템들 중 어느 하나의 후보 아이템의 정보를 상기 단일-클래스 협업 필터링 모델에 입력하여 상기 어느 하나의 후보 아이템에 대한 선호도 점수를 산출하고, 상기 선호도 점수를 기준으로 상기 어느 하나의 후보 아이템을 추천 아이템으로 삼을지 판단하는 연산장치를 포함하되,
    학습 과정에서 상기 단일-클래스 협업 필터링 모델은 인코더와 복수의 헤드(head)들을 포함하고, 상기 복수의 헤드들은 각각 이종의 목표를 나타내는 서로 다른 손실 함수로 학습되는 단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치.
  7. 제6항에 있어서,
    상기 상기 복수의 헤드들은 상기 복수의 헤드들의 예측 결과를 기준으로 상기 복수의 헤드들의 예측 정확도를 동시에 향상시킬 수 있는 합의 손실 함수를 더 이용하여 학습되는 단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치.
  8. 제7항에 있어서,
    상기 합의손실 함수는 상기 복수의 헤드들이 학습 과정에서 예측하는 아이템의 순위 위치 및 반복되는 학습 과정(epoch)에서 동일한 아이템이 동일한 순위 위치에 있는지에 따라 결정되는 일관도를 변수로 갖는 단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치.
  9. 제6항에 있어서,
    상기 복수의 헤드들은 학습 과정에서 상대적 학습률을 기준으로 학습률이 최대한 균일화되도록 그레디언트가 조절되는 단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치.
  10. 제6항에 있어서,
    상기 단일-클래스 협업 필터링 모델은 학습 과정에서 사용된 상기 복수의 헤드들 중 적어도 하나의 헤드를 이용하여 상기 선호도 점수를 산출하는 단일-클래스 협업 필터링 기반으로 아이템을 추천하는 서비스 장치.
KR1020220077527A 2022-06-24 2022-06-24 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치 KR20240000837A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220077527A KR20240000837A (ko) 2022-06-24 2022-06-24 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220077527A KR20240000837A (ko) 2022-06-24 2022-06-24 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치

Publications (1)

Publication Number Publication Date
KR20240000837A true KR20240000837A (ko) 2024-01-03

Family

ID=89538812

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220077527A KR20240000837A (ko) 2022-06-24 2022-06-24 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치

Country Status (1)

Country Link
KR (1) KR20240000837A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907008B1 (ko) 2017-06-15 2018-10-15 한양대학교 산학협력단 단일 클래스 협업 필터링 환경에서 무관심 아이템 결정 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907008B1 (ko) 2017-06-15 2018-10-15 한양대학교 산학협력단 단일 클래스 협업 필터링 환경에서 무관심 아이템 결정 방법 및 장치

Similar Documents

Publication Publication Date Title
Vullam et al. Multi-agent personalized recommendation system in e-commerce based on user
CN111966914B (zh) 基于人工智能的内容推荐方法、装置和计算机设备
EP4181026A1 (en) Recommendation model training method and apparatus, recommendation method and apparatus, and computer-readable medium
CN112487278A (zh) 推荐模型的训练方法、预测选择概率的方法及装置
KR102404511B1 (ko) 인공지능 기반 사용자 맞춤형 상품 정보 추천 방법, 장치 및 시스템
KR102468827B1 (ko) 인공지능 기반 상품 소싱 및 카테고리 맞춤형 리뷰 분석 서비스 제공 방법, 장치 및 시스템
WO2022016556A1 (zh) 一种神经网络蒸馏方法以及装置
CN110008397B (zh) 一种推荐模型训练方法及装置
WO2023011382A1 (zh) 推荐方法、推荐模型训练方法及相关产品
US11853901B2 (en) Learning method of AI model and electronic apparatus
WO2024131762A1 (zh) 一种推荐方法及相关设备
WO2023185925A1 (zh) 一种数据处理方法及相关装置
Deng et al. Neural variational collaborative filtering with side information for top-K recommendation
CN116205700A (zh) 目标产品的推荐方法、装置、计算机设备和存储介质
Manimurugan et al. A user-based video recommendation approach using CAC filtering, PCA with LDOS-CoMoDa
Liu et al. [Retracted] Deep Learning and Collaborative Filtering‐Based Methods for Students’ Performance Prediction and Course Recommendation
KR20240000837A (ko) 이종 목표들로 학습된 단일-클래스 협업 필터링 기반의 아이템 추천 방법 및 서비스 장치
Wang et al. An empirical study of personal factors and social effects on rating prediction
CN112488355A (zh) 基于图神经网络预测用户评级的方法和装置
KR20200029647A (ko) 사용자 개인화에 의한 큐레이터 전자상거래 시스템의 일반화 방법
WO2022262561A1 (zh) 多媒体资源的处理方法、装置、设备及存储介质
CN116628236B (zh) 多媒体信息的投放方法、装置、电子设备及存储介质
CN115309975B (zh) 基于交互特征的产品推荐方法及系统
US20240152512A1 (en) Machine learning for dynamic information retrieval in a cold start setting
CN117636141A (zh) 多目标预测方法、装置、设备和介质