KR102476056B1 - 아이템 추천방법, 시스템, 전자기기 및 기록매체 - Google Patents

아이템 추천방법, 시스템, 전자기기 및 기록매체 Download PDF

Info

Publication number
KR102476056B1
KR102476056B1 KR1020210008893A KR20210008893A KR102476056B1 KR 102476056 B1 KR102476056 B1 KR 102476056B1 KR 1020210008893 A KR1020210008893 A KR 1020210008893A KR 20210008893 A KR20210008893 A KR 20210008893A KR 102476056 B1 KR102476056 B1 KR 102476056B1
Authority
KR
South Korea
Prior art keywords
training
item
user
feature
module
Prior art date
Application number
KR1020210008893A
Other languages
English (en)
Other versions
KR20210095579A (ko
Inventor
량휘 천
옌 푸
췐빈 왕
샤오슈엔 양
리엔강 펑
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210095579A publication Critical patent/KR20210095579A/ko
Application granted granted Critical
Publication of KR102476056B1 publication Critical patent/KR102476056B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 출원은 아이템 추천 및 모델 훈련 방법, 시스템, 전자기기 및 기록매체를 개시하였으며, 인공지능 분야에 관한 것이다. 구체적인 실현 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하고, 상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하며, 상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하며, 상기 N개 아이템의 식별자에 기초하여, 상기 유저에게 상기 N개 아이템의 관련 정보를 추천한다. 본 출원의 기술 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델을 통해 아이템을 추천하며, 계산량을 효과적으로 줄일 수 있고, 계산 오류를 피할 수 있으며, 추천 정확도를 높일 수 있다. 또한 아이템 추천의 지능성을 효과적으로 높이고, 아이템 추천 효율을 향상시킬 수 있다.

Description

아이템 추천방법, 시스템, 전자기기 및 기록매체 {METHOD, SYSTEM, ELECTRONIC DEVICE AND STORAGE MEDIUM FOR ITEM RECOMMENDATION}
본 출원은 컴퓨터 기술분야에 관한 것이고, 특히 인공지능, 구체적으로 아이템 추천 방법 및 모델 훈련 방법, 시스템, 전자기기 및 기록매체에 관한 것이다.
인터넷이 지금까지 발전하면서 각종 인터넷 제품이 파생되었다. 예를 들어 전자상거래와 같은 쇼핑 플랫폼의 등장에 의해 사람들의 생활방식이 바뀌고 쇼핑의 편리성을 높아졌다.
다양한 인터넷 애플리케이션 제품에서 유저는 관심 아이템을 독립적으로 선택하거나 시스템이 유저에게 아이템을 추천할 수 있다. 예를 들어, 기존 아이템 추천 시스템에서는 협업 필터링 추천 방식을 채택할 수 있다. 예를 들어, 업계에서 일반적으로 아이템 기반 협업 필터링 추천인 itemCF(Collaborative Filtering) 또는 유저 기반 협업 필터링 추천인 userCF을 사용한다. itemCF는 두 아이템에 모두 관심을 가지는 유저들의 중복 수량을 사용하여 두 아이템 사이의 유사도를 측정한 다음 유저의 과거 아이템을 기반으로 유사한 후보 아이템을 추천한다. userCF는 두 유저가 모두 관심을 가지는 아이템들의 중복 수량을 사용하여 두 유저 사이의 유사도를 측정한 다음 유사 유저 그룹이 좋아하는 아이템을 기반으로 타겟 유저에게 후보 아이템을 추천한다.
그러나, 유저 수가 많거나 아이템 수가 많으면 상기 추천 방안의 계산량 대가가 매우 커서 계산 오류가 발생하기 쉽고 추천 방안의 아이템 추천 정확도가 떨어질 수 있다.
상기 기술적 과제를 해결하기 위해, 본 출원은 아이템 추천 방법 및 모델 훈련 방법, 시스템, 전자기기 및 기록매체를 제공하여, 아이템 추천 정확도를 높인다.
한편, 본 출원은
사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하는 단계,
상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하는 단계,
상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 단계,
상기 N개 아이템의 식별자에 기초하여, 상기 유저에게 상기 N개 아이템의 관련 정보를 추천하는 단계를 포함하는 아이템 추천 방법을 제공한다.
또한 선택적으로, 상기 방법에서, 상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 단계는
상기 아이템 특징 표현 데이터베이스에서 상기 유저 특징 표현과 관련성이 가장 높은 N개 아이템 특징 표현을 검색하는 단계,
상기 N개 아이템 특징 표현에 대응되는 상기 N개 아이템의 식별자를 획득하는 단계를 포함한다.
또한 선택적으로, 상기 방법에서, 상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈을 포함하며, 상기 리콜 태스크 모듈과 상기 클릭률 추정 태스크 모듈 사이는 연합 학습을 거친다.
다른 한편, 본 출원은
복수개의 훈련 데이터를 수집하는 단계,
상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 행하는 단계를 포함하며,
각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 제공한다.
또한 선택적으로, 상기 방법에서, 상기 복수개의 훈련 데이터를 사용하여 , 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 행하는 단계는:
각각의 상기 훈련 데이터에 대하여, 상기 훈련 유저의 적어도 2개의 특징 정보를 임베딩 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻는 단계,
상기 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻는 단계,
상기 리콜 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현 및 상기 훈련 아이템의 조합적 특징 표현을 각각 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻는 단계,
상기 리콜 태스크 모듈에서 상기 훈련 유저의 특징 표현과 상기 훈련 아이템 특징 표현을 곱하여 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스를 얻는 단계,
상기 클릭률 추정 태스크 모듈에서 상기 훈련 유저의 조합적 특징 표현과 상기 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률을 얻는 단계,
상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지(旣知)된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하는 단계,
상기 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하고, 수렴되지 않을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하는 단계,
수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계를 포함한다.
또한 선택적으로, 상기 방법에서, 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하는 단계는
상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제1 교차-엔트로피 함수를 생성하는 단계,
상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제2 교차-엔트로피 함수를 생성하는 단계,
상기 제1 교차-엔트로피 함수와 상기 제2 교차-엔트로피 함수의 합을 구하여, 상기 포괄적인 교차-엔트로피 손실 함수를 얻는 단계를 포함한다.
또한 선택적으로, 상기 방법에서, 상기 포괄적인 교차-엔트로피 손실 함수가 상기 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우,
계속하여 상기 복수개의 훈련 데이터를 사용하여, 상기 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지, 상기 리콜 태스크 모듈을 훈련하며, 상기 리콜 태스크 모듈의 파라미터를 결정하여, 상기 리콜 태스크 모듈을 결정하며, 따라서 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계를 더 포함한다.
또 다른 한편, 본 출원은
사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하는 구축 모듈,
상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하는 특징 획득 모듈,
상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 아이템 획득 모듈,
상기 N개 아이템의 식별자에 기초하여, 상기 유저에게 상기 N개 아이템의 관련 정보를 추천하는 추천 모듈을 포함하는 아이템 추천 시스템을 제공한다.
또 다른 한편, 본 출원은
복수개의 훈련 데이터를 수집하는 수집모듈,
상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 행하는 훈련 모듈을 포함하며,
각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하는 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치를 제공한다.
또 다른 한편, 본 출원은
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서로 하여금 상기 방법을 수행하도록 하는 전자기기를 제공한다.
또 다른 한편, 본 출원은 컴퓨터 명령이 기억되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체를 제공하며, 상기 컴퓨터 명령은 상기 컴퓨터로 하여금 상기 방법을 수행하도록 한다.
상술한 발명 중의 일 실시예는 아래와 같은 이점 또는 유익한 효과를 갖는다. 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중의 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하고, 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하며, 유저 특징 표현 및 아이템 특징 표현 데이터베이스에 기반하여, 추천할 N개 아이템의 식별자를 획득하며, N개 아이템의 식별자에 기반하여, 유저에게 N개 아이템의 관련 정보를 추천함으로써 기존기술과 비교할 시, 본 출원의 기술 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델을 통해 아이템을 추천하며, 계산량을 효과적으로 줄일 수 있고, 계산 오류를 피할 수 있으며, 추천 정확도를 높일 수 있다. 또한 아이템 추천의 지능성을 효과적으로 높이고, 아이템 추천 효율을 향상시킬 수 있다.
또한, 본 출원의 유저가 아이템을 클릭하는 태스크 모델에 포함되는 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈은 2개의 서로 독립적인 태스크이므로, 클릭률 추정 태스크 모듈에서 유저 특징 표현 및 아이템 특징 표현을 상호작용시킬 수 있다. 따라서, 훈련 시, 당해 클릭률 추정 태스크 모듈은 역전파를 통해, 임베딩 처리 모듈 중의 embedding 파라미터에 영향을 미칠 수 있어, 유저 특징 표현 및 아이템 특징 표현 사이의 상호작용이 있는 정보가 embedding 파라미터에 기록되게 되며, 리콜 태스크에 영향을 주게 되어 리콜 효과가 더 우수하게 되며, 아이템 추천 효과를 더욱 효과적으로 높일 수 있다.
본 출원의 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법은 리콜 태스크 와 클릭률 추정 태스크를 동시에 훈련할 수 있으며, 훈련 시, 역전파를 통해, 임베딩 처리모듈의 embedding 파라미터에 영향을 줌으로써, 유저 특징 표현 및 아이템 특징 표현 사이 상호작용이 있는 정보가 embedding 파라미터에 기록되게 하여, 리콜 태스크에 영향을 주게 되어, 리콜 효과가 더 우수하게 된다. 따라서, 본 출원의 기술 방안을 통해 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 효과를 효과적으로 높일 수 있고, 당해 유저가 아이템을 클릭하는 태스크 모델에 기반하여 아이템 추천 시, 추천 정확도를 효과적으로 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
또한, 본 출원에서, 포괄적인 교차-엔트로피 손실 함수가 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 또한 계속하여 복수개의 훈련 데이터를 사용하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지 유저가 아이템을 클릭하는 태스크 모델의 리콜 태스크 모듈을 훈련하며, 리콜 태스크 모듈의 파라미터를 결정하고, 리콜 태스크 모듈을 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정함으로써 리콜 효과를 더 한층 높일 수 있고, 추천 정확도를 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
상술한 선택적인 방식이 가지는 기타 효과는 구체적인 실시예를 참조하여 후술된다.
도면은 본 방안을 더욱 잘 이해하기 위하여 이용되며 본 발명을 제한하지 않는다.
도 1은 본 출원에 따른 실시예 1의 개략도이다.
도 2는 본 실시예에서 제공하는 유저가 아이템을 클릭하는 태스크 모델의 구성도이다.
도 3은 본 출원에 따른 실시예 2의 개략도이다.
도 4는 본 출원에 따른 실시예 3의 개략도이다.
도 5는 본 출원에 따른 실시예 4의 개략도이다.
도 6은 본 출원의 실시예의 상술한 방법을 구현하기 위한 전자기기의 블럭도이다.
이하, 도면을 참조하여 본 발명의 시범적인 실시예를 기술하는 바, 본 발명에 대한 이해를 돕기 위해 여기에는 본 발명 실시예의 다양한 세부 사향이 포함되며, 이러한 세부 사향을 단지 시범적인 것으로 간주해야 할 것이다. 따라서, 당업자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에서, 여기서 설명되는 실시예에 대해 다양한 변경 및 수정을 수행할 수 있음을 인식해야 한다. 마찬가지로, 명확성 및 간결성을 위하여 이하의 기술에서는 잘 알려진 기능 및 구조의 기술을 생략하였다.
도 1은 본 출원에 따른 실시예 1의 개략도이다. 도 1에 나타낸 바와 같이, 본 실시예의 아이템 추천방법은 구체적으로 단계 S101, 단계 S102, 단계 S103 및 단계 S104를 포함한다.
단계 S101에서, 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축한다.
본 실시예에서 아이템 추천 방법을 수행하는 주체는 아이템 추천 장치이며, 당해 아이템 추천 장치는 전자 엔티티일 수 있고 또는 프로그램이 통합된 애플리케이션일 수 있으며, 사용시, 컴퓨터 장비에 의해 실행되면 바로 아이템 추천이 실현될 수 있다.
본 실시예의 아이템 추천 방법은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델에 기반하여 실현된다. 당해 유저가 아이템을 클릭하는 태스크 모델은 신경망 모델이며, 당해 신경망 모델은 유저가 아이템을 클릭하는 적어도 하나의 태스크 예를 들면 리콜 태스크 및/또는 클릭률 추정 태스크에 대한 시뮬레이션을 실현할 수 있다. 유저가 아이템을 클릭하는 태스크에 대한 시뮬레이션 과정에서, 필연코 먼저 유저 특징정보 및 아이템 특징정보에 기반하여 유저 및 아이템 각각에 대하여 임베딩(embedding)처리를 하여, 해당하는 특징 표현을 얻은 후 특징 표현에 기반하여, 태스크에 대한 시뮬레이션을 실현한다. 따라서, 유저가 아이템을 클릭하는 태스크 모델 중의 훈련된 특징 표현의 파라미터에 기반하여, 아이템 특징 정보에 따라, 아이템 특징 표현을 획득할 수 있다. 본 실시예의 특징 표현은 구체적으로 벡터 형태를 채택할 수 있으며, 벡터 표현이라고도 칭할 수 있다. 따라서, 아이템 특징 표현 데이터베이스는 FAISS 벡터 인덱스 데이터베이스일 수 있다.
본 실시예의 추천 대기 아이템 라이브러리는 사전 수집된 복수의 아이템 정보를 포함하며, 예컨대, 각각의 아이템 정보에는 당해 아이템의 식별자 및 당해 아이템의 적어도 2개의 특징 정보를 포함한다. 여기서, 아이템의 식별자는 당해 아이템을 유일하게 식별하기 위해 사용되며, 예컨대, 아이템의 식별자는 숫자, 알파벳 및 문자 중의 적어도 하나 또는 적어도 2가지의 조합을 채택할 수 있다. 아이템의 적어도 2개의 특징 정보는 아이템의 타입, 아이템의 키워드 등 기타 정보를 포함할 수 있다.
본 실시예에서, 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중의 각 아이템의 적어도 2개의 특징 정보에 기반하여, 각 아이템 특징 표현을 획득할 수 있다. 또한 각 아이템 특징 표현에 기반하여, 아이템 라이브러리 중의 각 아이템 특징 표현을 포함하는 아이템 특징 표현 데이터베이스를 구축할 수 있다. 여기서, 당해 아이템 특징 표현 데이터베이스에는 각 아이템의 식별자를 더 포함할 수 있다.
본 실시예의 특징 표현은 모두 벡터 형태를 사용하며, 벡터 표현 또는 벡터라고도 칭할 수 있다.
단계 S102에서, 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득한다.
단계 S101의 실시 형태를 참조하면, 또한 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보에 기반하여, 유저 특징 표현을 획득할 수도 있으며, 상세한 내용은 상술한 단계 S101의 기재를 참조할 수 있으며, 여기서 반복하여 설명하지 않는다.
본 실시예의 유저의 적어도 2개의 특징 정보는 유저의 동작 정보, 유저의 관심 태그 및 연령, 성별, 라이프 스테이지와 같은 유저의 인구 통계학적 속성 등을 포함할 수 있으며 여기서 일일이 반복하여 설명하지 않는다.
단계 S103에서, 유저 특징 표현 및 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득한다.
구체적으로, 먼저 아이템 특징 표현 데이터베이스에서 유저 특징 표현과 관련성이 가장 높은 N개 아이템 특징 표현을 검색한다. 그 다음 N개 아이템 특징 표현에 대응되는 N개 아이템의 식별자를 획득한다.
단계 S104에서, N개 아이템의 식별자에 기초하여, 유저에게 N개 아이템의 관련 정보를 추천한다.
예컨대, N개 아이템의 식별자에 기초하여, 유저에게 N개 아이템의 식별자, 특징 정보, 세부 정보 또는 링크 등 관련 정보를 추천할 수 있다. 본 실시예에서, 유저에게 추천하는 N개 아이템의 관련 정보는 상술한 몇 가지에 제한되지 않으며, 실제 적용 시 N개 아이템의 기타 정보를 더 포함할 수 있으며, 여기서 일일이 반복하여 설명하지 않는다. 구체적으로, 본 실시예의 기술 방안의 적용 시나리오에 따라, N개 아이템의 식별자에 기반하여, N개 아이템의 관련 정보를 획득하여, 유저에게 추천할 수 있다. 예컨대, 인터넷 쇼핑 플랫폼일 경우, N개 아이템의 식별자에 기반하여, N개 아이템의 세부 정보 또는 구매 링크를 획득하여, 유저에게 추천할 수 있다.
상기 기재에 따르면, 본 실시예의 아이템 추천 방법의 적용 시나리오가 이미 추천 대기 아이템 라이브러리 및 유저의 적어도 2개의 특징 정보를 기지하였을 경우일 때, 이미 훈련된 유저가 아이템을 클릭하는 태스크 모델에 기반하여, 유저에게 아이템 라이브러리 중의 N개 아이템의 관련 정보 추천을 실현할 수 있음을 알 수 있다.
선택적으로, 본 실시예의 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 태스크 모듈과 클릭률 추정 태스크 모듈을 포함할 수 있으며, 리콜 태스크 모듈과 클릭률 추정 태스크 모듈 사이는 연합 학습(Co-training)을 통해 얻을 수 있다. 예컨대, 도 2는 본 실시예에서 제공하는 유저가 아이템을 클릭하는 태스크 모델의 구성도이다. 도 2에 나타낸 바와 같이, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델은 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈을 포함하는 외, 기본 정보 처리 모듈 즉 임베딩(embedding)처리 모듈을 더 포함한다. 임베딩 처리 모듈은 유저의 적어도 2개의 특징 정보 및 아이템의 적어도 2개의 특징 정보에 대해 각각 임베딩(embedding)처리를 진행하여 접합(splicing)시킨다. 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈은 모두 접합 후의 표현을 입력으로 사용하여 처리를 진행한다.
여기서, 리콜 태스크 모듈은 유저에 대한 아이템 추천도 인덱스를 계산하는데 사용되고, 당해 추천도 인덱스가 높을수록 당해 유저에게 아이템 추천 시, 당해 아이템이 리콜될 확률이 더 크다. 반대로, 당해 추천도 인덱스가 작을수록, 당해 아이템이 리콜될 확률이 더 작다.
클릭률 추정 태스크 모듈은 아이템에 대한 유저 클릭률을 예측하는데 사용되고, 클릭률이 클수록, 당해 유저가 당해 아이템에 대한 관심이 더 많고, 당해 아이템을 클릭할 수 있는 확률이 더 크다는 것을 나타낸다. 반대로, 클릭률이 작을수록, 유저가 당해 아이템에 대한 관심이 더 적고, 당해 아이템을 클릭할 수 있는 확률이 더 작다는 것을 나타낸다.
본 실시예의 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈은 2개의 서로 독립적인 태스크 이다. 실제 적용 과정에서, 임베딩 처리 모듈은 리콜 태스크 모듈과 조합하여 하나의 독립적인 태스크 모델을 형성하여 리콜 태스크를 실현할 수 있다. 또는 임베딩 처리 모듈은 클릭률 추정 태스크 모듈과 조합하여 하나의 독립적인 태스크 모델을 형성하여 클릭률 추정을 실현할 수 있다.
예컨대, 본 실시예에서, 유저가 아이템을 클릭하는 태스크 모델은 임베딩 처리모듈 및 리콜 태스크 모듈만 포함하고, 클릭률 추정 태스크 모듈을 포함하지 않을 수 있다. 당해 태스크 모델을 훈련한 후, 당해 태스크 모델에 기반하여, 상술한 도 1에 나타낸 실시예의 단계 S101 및 단계 S102를 실현할 수 있다.
하지만, 도 2에 나타낸 바와 같이, 유저가 아이템을 클릭하는 태스크 모델이 임베딩 처리모듈 및 리콜 태스크 모듈만 포함하였을 경우, 유저 특징 표현 및 아이템 특징 표현은 최상위에서 유저에 대한 아이템 추천도 인덱스를 계산할 때 서로 곱하는 외에, 어떠한 상호 작용도 없다. 최상위 정보는 이미 압축된 형태이므로, 모델은 최하위 특징 표현 사이의 특징들의 교차 상호작용이 부족하여, 당해 유저가 아이템을 클릭하는 태스크 모델 훈련 시, 유저 특징 표현 및 아이템 특징 표현이 서로 완전히 독립되어, 유저와 아이템 사이의 교차 정보를 학습할 수 없어, 훈련된 모델의 리콜 효과가 떨어진다.
도 2에 나타낸 본 실시예의 유저가 아이템을 클릭하는 태스크 모델은 클릭률 추정 태스크 모듈을 더 도입하였으며, 당해 클릭률 추정 태스크 모듈은 유저의 조합적 특징 표현과 아이템의 조합적 특징 표현의 접합 후의 특징에 기반하여, 클릭률을 예측한다. 즉 유저 특징 표현 및 아이템 특징 표현을 상호작용 시켰다. 이와 같이, 훈련 시, 당해 클릭률 추정 태스크 모듈은 역전파(back propagating)를 통해, 임베딩 처리 모듈 중의 embedding 파라미터에 영향을 미칠 수 있어, 유저 특징 표현 및 아이템 특징 표현 사이의 상호작용이 있는 정보가 embedding 파라미터에 기록되게 되며, 리콜 태스크에 영향을 주게 되어, 리콜 효과가 더 우수하다.
이때 이와 대응하여, 단계 S101에서 실시 시, 훈련된 도 2에 나타낸 유저가 아이템을 클릭하는 태스크 모델 중의 임베딩 처리 모듈과 리콜 태스크 모듈 중의 네트워크 구조의 파라미터에 따라, 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보에 기반하여, 아이템 라이브러리 중 각 아이템 특징 표현을 획득할 수 있다. 아이템 라이브러리 중의 모든 아이템 특징 표현을 조합하여, 하나의 아이템 특징 표현 데이터베이스를 구축한다.
마찬가지로, 단계 S102에서 실시 시, 훈련된 도 2에 나타낸 유저가 아이템을 클릭하는 태스크 모델 중의 임베딩 처리 모듈과 리콜 태스크 모듈 중의 네트워크 구조의 파라미터에 따라, 유저의 적어도 2개의 특징 정보에 기반하여, 유저 특징 표현을 획득할 수도 있다.
본 실시예에서의 아이템은 상품인 외에, 광고 등 기타 정보일 수도 있으며, 또한 기타 다른 분야에서 광고 또는 기타 정보의 추천을 실현할 수 있음에 유의하여야 한다.
본 실시예의 아이템 추천 방법은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중의 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하고, 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하며, 유저 특징 표현 및 아이템 특징 표현 데이터베이스에 기반하여, 추천할 N개 아이템의 식별자를 획득하며, N개 아이템의 식별자에 기반하여, 유저에게 N개 아이템의 관련 정보를 추천함으로써 기존기술과 비교할 시, 본 실시예의 기술 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델을 통해 아이템을 추천하며, 계산량을 효과적으로 줄일 수 있고, 계산 오류를 피할 수 있으며, 추천 정확도를 높일 수 있다. 또한 아이템 추천의 지능성을 효과적으로 높이고, 아이템 추천 효율을 향상시킬 수 있다.
또한, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델에 포함되는 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈은 2개의 서로 독립적인 태스크이므로, 클릭률 추정 태스크 모듈에서 유저 특징 표현 및 아이템 특징 표현을 상호작용시킬 수 있다. 이와 같이, 훈련 시, 당해 클릭률 추정 태스크 모듈은 역전파를 통해, 임베딩 처리 모듈 중의 embedding 파라미터에 영향을 미칠 수 있어, 유저 특징 표현 및 아이템 특징 표현 사이의 상호작용이 있는 정보가 embedding 파라미터에 기록되게 되며, 리콜 태스크에 영향을 주게 되어 리콜 효과가 더 우수하게 되며, 아이템 추천 효과를 더욱 효과적으로 높일 수 있다.
도3은 본 출원의 실시예 2의 개략도이며, 도 3에 나타낸 바와 같이, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법은 구체적으로 단계 S301 및 단계 S302를 포함할 수 있다.
단계 S301에서, 복수개의 훈련 데이터를 수집하며, 각 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 훈련 유저가 훈련 아이템에 대한 클릭 상호작용 정보를 포함한다.
본 실시예에서 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법의 수행주체는 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치이다. 당해 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치는 전자 엔티티일 수 있고 또는 소프트웨어가 통합된 애플리케이션일 수 있으며, 사용 시 당해 애플리케이션을 대형 컴퓨터 장비에 의해 수행하고, 본 실시예의 기술 방안을 사용하여, 당해 유저가 아이템을 클릭하는 태스크 모델에 대한 훈련을 실현한다.
본 실시예에서, 수집된 훈련 데이터 수량은 백만 개 이상 넘을 수 있으며, 수집된 훈련 데이터 개수가 많을 수록, 훈련된 유저가 아이템을 클릭하는 태스크 모델이 더 정확하다.
본 실시예에서, 수집된 각 훈련 데이터에 포함되는 훈련 유저의 적어도 2개의 훈련 특징 정보 및 훈련 아이템의 적어도 2개의 훈련 특징 정보는 상술한 도 1에 나타낸 실시예의 유저의 적어도 2개의 특징 정보 및 아이템의 적어도 2개의 특징 정보를 참조할 수 있으며, 여기서 반복하여 설명하지 않는다. 여기서, 훈련 유저가 훈련 아이템에 대한 클릭 상호작용 정보는 유저가 당해 훈련 아이템을 클릭하였거나 또는 유저가 당해 훈련 아이템을 클릭하지 않았음을 포함할 수 있다.
본 실시예에서 훈련 데이터를 수집할 시, 사이트 또는 애플리케이션(application;app)의 사건 트래킹(event tracking)을 통해 유저의 과거에 나타난 클릭, 동작 데이터를 획득하여, 훈련 데이터를 마이닝한다.
단계 S302에서, 복수개의 훈련 데이터를 사용하여, 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 행한다.
훈련 전, 유저가 아이템을 클릭하는 태스크 모델 중의 네트워크 구조의 각 층의 파라미터에 대해 무작위로 초기화한 후, 무작위로 초기화된 파라미터에 기반하여 유저가 아이템을 클릭하는 태스크 모델을 훈련하기 시작해야 한다는 점에 유의해야 한다.
본 실시예의 유저가 아이템을 클릭하는 태스크 모델은 도2에 나타낸 구조를 사용할 수 있으며, 예컨대, 훈련 시 구체적으로 단계(a) 내지 단계(j)를 포함할 수 있다.
단계(a)에서, 각 훈련 데이터에 대하여, 훈련 유저의 적어도 2개의 특징 정보를 임베딩 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻는다.
단계(b)에서, 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻는다.
임베딩 표현하여 얻은 것이 모두 벡터 형태인 표현이므로, 접합 후의 훈련 유저의 조합적 특징 표현을 또한 훈련 유저의 조합 벡터라고도 칭할 수 있으며, 접합 후의 훈련 아이템의 조합적 특징 표현을 또한 훈련 아이템의 조합 벡터라고도 칭할 수 있다.
단계(c)에서, 리콜 태스크 모듈에서, 훈련 유저의 조합적 특징 표현 및 훈련 아이템의 조합적 특징 표현을 각각 완전연결(fully connected) 처리 및 활성화(Activation) 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻는다.
본 실시예에서, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 생성하는 과정에서, 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층을 거쳐야 하며, 구체적으로 처리 계층의 층수는 훈련 유저의 특징 정보의 수량에 의해 결정된다. 훈련 유저의 특징 정보 수량이 비교적 많을 경우, 정보 혼합이 더 균일하게 이루어져, 보다 정확한 훈련 유저의 특징 표현을 얻을 수 있도록 처리 계층의 층수도 비교적 많이 수요된다. 훈련 아이템 특징 표현 측의 원리도 이와 유사하며, 여기서 반복하여 설명하지 않는다. 예컨대, 도2의 네트워크 구조에서 나타낸 바와 같이, 리콜 태스크 모듈의 각 층의 처리 계층에는 완전연결 처리와 활성화 처리를 포함하며, 여기서, 활성화 처리는 ReLU 활성화 처리를 사용할 수 있다.
단계(d)에서, 리콜 태스크 모듈에서 훈련 유저의 특징 표현과 훈련 아이템 특징 표현을 곱하여 훈련 유저에 대한 훈련 아이템의 추천도 인덱스를 얻는다.
본 실시예에서 훈련 유저의 특징 표현과 훈련 아이템 특징 표현을 곱하여 얻은 것은 점 곱(dot product)이며, 당해 점 곱은 훈련 유저에 대한 훈련 아이템의 추천도 인덱스를 나타내기 위해 사용된다.
단계(e)에서, 클릭률 추정 태스크 모듈에서 훈련 유저의 조합적 특징 표현과 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 아이템에 대한 훈련 유저의 예측 클릭 확률을 얻는다.
마찬가지로, 클릭률 추정 태스크 모듈에서, 훈련 유저 특징 정보 및 훈련 아이템 특징 정보의 수량이 비교적 많을 경우, 더 많은 층수의 처리 계층을 설정하여, 특징 정보를 더 균일하게 혼합하여, 보다 정확한 특징 정보를 얻어, 예측 클릭 확률의 값을 높인다. 마찬가지로, 도 2에 나타낸 네트워크 구조에서, 클릭률 추정 태스크 모듈의 각 층의 처리 계층에도 완전연결 처리와 활성화 처리를 포함하며, 여기서, 활성화 처리는 ReLU 활성화 처리를 사용할 수도 있다.
단계(f)에서, 훈련 유저에 대한 훈련 아이템의 추천도 인덱스, 훈련 아이템에 대한 훈련 유저의 예측 클릭 확률 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실(Cross Entropy Loss) 함수를 생성한다.
예컨대, 당해 단계는 구체적으로 하기 단계(1), 단계(2) 및 단계(3)를 포함할 수 있다.
단계(1)에서, 훈련 유저에 대한 훈련 아이템의 추천도 인덱스 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 제1 교차-엔트로피 함수를 생성한다.
단계(2)에서, 훈련 아이템에 대한 훈련 유저의 예측 클릭 확률 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 제2 교차-엔트로피 함수를 생성한다.
단계(3)에서, 제1 교차-엔트로피 함수와 제2 교차-엔트로피 함수의 합을 구하여, 포괄적인 교차-엔트로피 손실 함수를 얻는다.
예컨대, 본 실시예의 포괄적인 교차-엔트로피 손실 함수는, 하기 식으로 표시할 수 있다.
Figure 112021008390300-pat00001
여기서,
Figure 112021008390300-pat00002
는 제1 교차-엔트로피 함수를 표시하고,
Figure 112021008390300-pat00003
는 리콜 태스크 중 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여 얻은 훈련 유저에 대한 훈련 아이템의 기지된 추천도 인덱스이다. 예컨대, 훈련 유저가 훈련 아이템에 대하여 실제적인 클릭 동작이 있었을 경우,
Figure 112021008390300-pat00004
를 1로 표기하고, 아닐 경우, 즉 실제 동작이 없었을 경우,
Figure 112021008390300-pat00005
를 0으로 표기한다.
Figure 112021008390300-pat00006
는 훈련 유저에 대한 훈련 아이템의 예측 추천도 인덱스를 표시한다.
Figure 112021008390300-pat00007
는 제2 교차-엔트로피 함수를 표시하고,
Figure 112021008390300-pat00008
는 클릭률 추정 태스크 중 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여 얻은 훈련 유저가 훈련 아이템에 대한 실제 클릭률이다. 클릭이 1이면 비클릭은 0이다.
Figure 112021008390300-pat00009
는 모델에 의해 예측된 클릭률이다.
단계(g)에서, 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하며, 수렴되지 않을 경우, 단계(h)를 수행하고, 수렴될 경우, 단계(i)를 수행한다.
단계(h)에서, 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하고, 단계(a)에 돌아가서 다음 훈련 데이터를 사용하여 계속하여 훈련을 행한다.
구체적으로 임베딩 처리 모듈, 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈 중의 네트워크 구조의 파라미터를 조정하는 것을 포함할 수 있다.
단계(i)에서, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 단계(j)를 수행하고, 수렴되지 않았을 경우, 단계(a)에 돌아가서 다음 훈련 데이터를 사용하여 계속하여 훈련을 행한다.
단계(j)에서, 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정한다.
선택적으로, 단계(i)에서 포괄적인 교차-엔트로피 손실 함수가 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 계속하여 복수개의 훈련 데이터를 사용하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지 리콜 태스크 모듈을 훈련하며, 리콜 태스크 모듈의 파라미터를 결정하여, 리콜 태스크 모듈을 결정하며, 따라서 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계를 더 포함할 수 있다.
다시 말해서, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델 중의 클릭률 추정 태스크 모듈은 다만 모델을 훈련하는 과정에만 사용되고, 유저 특징 표현 및 아이템 특징 표현의 상호작용을 인입하기 위해 사용되며, 재차 훈련 시, 역전파를 통해 임베딩 처리 모듈의 embedding 파라미터에 영향을 줌으로써, 유저 특징 표현 및 아이템 특징 표현 사이의 상호작용이 있는 정보가 embedding 파라미터에 기록되게 하여, 리콜 태스크에 영향을 주게 되어, 리콜 효과가 더 우수하게 된다. 또한, 리콜 효과를 더 한층 높이기 위해, 리콜 태스크 모듈의 네트워크 구조의 파라미터를 최적화하며, 본 실시예는 포괄적인 교차-엔트로피 손실 함수가 수렴되도록 훈련한 후, 추가적으로 리콜 태스크 모듈의 네트워크 구조의 파라미터를 조정하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴되도록 하여 리콜 태스크 모듈의 파라미터를 결정하고, 리콜 태스크 모듈을 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정한다.
본 실시예의 제1 연속 예정 루프 수 및 제2 연속 예정 루프 수는 실제 수요에 따라 100, 200 또는 기타 수치로 설정할 수 있으며, 여기서 이에 대해 한정하지 않는다.
도 1에 나타낸 실시예에서 사용한 훈련된 유저가 아이템을 클릭하는 태스크 모델은 상술한 훈련 방법을 사용하여 훈련된 유저가 아이템을 클릭하는 태스크 모델이다.
본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법은 상술한 기술 방안을 사용함으로써 리콜 태스크 와 클릭률 추정 태스크를 동시에 훈련할 수 있으며, 훈련 시, 역전파를 통해, 임베딩 처리모듈의 embedding 파라미터에 영향을 줌으로써, 유저 특징 표현 및 아이템 특징 표현 사이 상호작용이 있는 정보가 embedding 파라미터에 기록되게 하여, 리콜 태스크에 영향을 주게 되어, 리콜 효과가 더 우수하게 된다. 따라서, 본 실시예의 기술 방안을 통해 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 효과를 효과적으로 높일 수 있고, 당해 유저가 아이템을 클릭하는 태스크 모델에 기반하여 아이템 추천 시, 추천 정확도를 효과적으로 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
또한, 본 실시예의 훈련 과정에서, 포괄적인 교차-엔트로피 손실 함수가 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 또한 계속하여 복수개의 훈련 데이터를 사용하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지 유저가 아이템을 클릭하는 태스크 모델의 리콜 태스크 모듈을 훈련하며, 리콜 태스크 모듈의 파라미터를 결정하고, 리콜 태스크 모듈을 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정함으로써 리콜 효과를 더 한층 높일 수 있고, 추천 정확도를 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
도 4는 본 출원에 따른 실시예 3의 개략도이다. 도 4에 나타낸 바와 같이, 본 실시예의 아이템 추천 시스템(400)은 구체적으로 구축 모듈(401), 특징 획득 모듈(402), 아이템 획득 모듈(403) 및 추천 모듈(404)을 포함한다.
구축 모듈(401)은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축한다.
특징 획득 모듈(402)은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득한다.
아이템 획득 모듈(403)은 유저 특징 표현 및 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득한다.
추천 모듈(404)은 N개 아이템의 식별자에 기초하여, 유저에게 N개 아이템의 관련 정보를 추천한다.
선택적으로, 본 실시예의 아이템 추천 시스템(400)의 아이템 획득 모듈(403)은
아이템 특징 표현 데이터베이스에서 유저 특징 표현과 관련성이 가장 높은 N개 아이템 특징 표현을 검색하고,
N개 아이템 특징 표현에 대응되는 N개 아이템의 식별자를 획득한다.
선택적으로, 본 실시예의 아이템 추천 시스템(400)에서, 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 태스크 모듈과 클릭률 추정 태스크 모듈을 포함하고, 리콜 태스크 모듈과 클릭률 추정 태스크 모듈 사이는 연합 학습(Co-training, 협동 학습)을 거친다.
본 실시예의 아이템 추천 시스템(400)에 있어서 상술한 모듈을 통해 아이템 추천을 실현하는 실현 원리 및 기술 효과는 상술한 관련 방법의 실시예의 실현과 동일하며, 세부 사항은 상술한 관련 방법의 실시예의 기재를 참조할 수 있으며, 여기서 반복하여 설명하지 않는다.
도 5는 본 출원에 따른 실시예 4의 개략도이다. 도 5에 나타낸 바와 같이, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치(500)는 수집 모듈(501) 및 훈련 모듈(502)을 포함한다.
수집 모듈(501)은 복수개의 훈련 데이터를 수집하며, 각 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 훈련 유저가 훈련 아이템에 대한 클릭 상호작용 정보를 포함한다.
훈련 모듈(502)은 복수개의 훈련 데이터를 사용하여, 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 행한다.
선택적으로, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치(500)에 있어서, 훈련 모듈(502)은 구체적으로
각 훈련 데이터에 대하여, 훈련 유저의 적어도 2개의 특징 정보를 임베딩 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻고,
훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻으며,
리콜 태스크 모듈에서, 훈련 유저의 조합적 특징 표현 및 훈련 아이템의 조합적 특징 표현을 각각 완전연결(fully connected ) 처리 및 활성화(Activation ) 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻으며,
리콜 태스크 모듈에서, 훈련 유저의 특징 표현과 훈련 아이템 특징 표현을 곱하여 훈련 유저에 대한 훈련 아이템의 추천도 인덱스를 얻으며,
클릭률 추정 태스크 모듈에서, 훈련 유저의 조합적 특징 표현과 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리를 포함하는 적어도 2개 계층의 처리 계층, 및 sigmoid 활성화 함수 처리 계층의 처리를 거쳐, 훈련 아이템에 대한 훈련 유저의 예측 클릭 확률을 얻으며,
훈련 유저에 대한 훈련 아이템의 추천도 인덱스, 훈련 아이템에 대한 훈련 유저의 예측 클릭 확률 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수(Cross Entropy Loss)를 생성하고,
포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하며, 수렴되지 않을 경우, 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하고,
수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정한다.
선택적으로, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치(500)에 있어서, 훈련 모듈(502)은
훈련 유저에 대한 훈련 아이템의 추천도 인덱스 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 제1 교차-엔트로피 함수를 생성하고,
훈련 아이템에 대한 훈련 유저의 예측 클릭 확률 및 기지된 훈련 아이템에 대한 훈련 유저의 클릭 상호작용 정보에 기반하여, 제2 교차-엔트로피 함수를 생성하며,
제1 교차-엔트로피 함수와 제2 교차-엔트로피 함수의 합을 구하여, 포괄적인 교차-엔트로피 손실 함수를 얻는다.
선택적으로, 본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치(500)에 있어서, 훈련 모듈(502)은 또한
포괄적인 교차-엔트로피 손실 함수가 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 계속하여 복수개의 훈련 데이터를 사용하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지 리콜 태스크 모듈을 훈련하며, 리콜 태스크 모듈의 파라미터를 결정하여, 리콜 태스크 모듈을 결정하며, 따라서 유저가 아이템을 클릭하는 태스크 모델을 결정한다.
본 실시예의 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치(500)에 있어서, 상술한 모듈을 통해 유저가 아이템을 클릭하는 태스크 모델의 훈련을 실현하는 실현 원리 및 기술 효과는 상술한 관련 방법의 실시예의 실현과 동일하며, 세부사항은 상술한 관련 실시예의 기재를 참조할 수 있으며, 여기서 반복하여 설명하지 않는다.
본 발명에 따른 실시예에 의하면, 본 발명은 전자 기기 및 판독 가능 기록 매체를 더 제공한다.
도 6에 나타낸 바와 같이, 본 발명의 실시예의 상술한 방법을 구현하기 위한 전자 기기의 블럭도이다. 전자 기기는 예를 들면 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 나타낸다. 전자 기기 또한 예를 들면 개인 디지털 처리기, 셀폰, 스마트 전화, 웨어러블 기기 및 기타 유사한 계산 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에 나타낸 구성 요소, 이들의 연결과 관계 및 이들의 기능은 단지 예일 뿐이며, 본 명세서에서 기술하거나 및/또는 요구하는 본 발명의 실현을 한정하려는 것이 아니다.
도 6에 나타낸 바와 같이, 당해 전자 기기는 하나 또는 복수의 프로세서(601), 메모리(602) 및 각 구성 요소를 연결하기 위한 인터페이스를 구비하며, 당해 인터페이스는 고속 인터페이스 및 저속 인터페이스를 포함한다. 각 구성 요소는 서로 다른 버스를 통해 상호 연결되며, 공통 마더 보드에 설치되거나 또는 수요에 따라 기타 방식으로 설치된다. 프로세서 전자 기기 내에서 수행되는 명령에 대해 처리를 실행할 수 있으며, 메모리 내에 기억되어 외부 입력/출력 장치(예를 들면 인터페이스에 연결된 디스플레이 기기) 상에 GUI의 그래픽 정보를 표시하기 위한 명령을 포함한다. 기타 실시 방식에 있어서, 필요할 경우, 복수의 프로세서 및/또는 복수의 버스와 복수의 메모리를 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결할 수 있으며, 각 기기는 부분적인 필요한 조작(예를 들면, 서버 어레이, 일 그룹의 블레이드 서버, 또는 다중 프로세서 시스템)을 제공한다. 도 6에서는 하나의 프로세서(601)의 예를 들었다.
메모리(602)는 본 발명에 의해 제공되는 비 일시적 컴퓨터 판독 가능 기록 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 적어도 하나의 프로세서로 하여금 본 발명에 의해 제공되는 아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 수행하도록 한다. 본 발명의 비 일시적 컴퓨터 판독 가능 기록 매체는 컴퓨터 명령을 기억하며, 당해 컴퓨터 명령은 컴퓨터로 하여금 본 발명에 의해 제공되는 아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 수행하도록 한다.
메모리(602)는 일종의 비 일시적 컴퓨터 판독 가능 기록 매체로서, 비 일시적 소프트웨어 프로그램, 비 일시적 컴퓨터 수행 가능 프로그램 및 모듈을 기억하는데 사용될 수 있는 바, 예를 들면 본 발명 실시예의 아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법에 대응하는 프로그램 명령/모듈(예를 들면, 도 4에 나타낸 관련 모듈 또는 도 5에 나타낸 관련 모듈)을 기억하는데 사용될 수 있다. 프로세서(601)는 메모리(602) 내에 기억된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 운행함으로써, 서버의 다양한 기능 응용 및 데이터 처리를 수행하는 바, 상술한 방법 실시예의 아이템 추천방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 실현한다.
메모리(602)는 프로그램 기록 영역 및 데이터 기록 영역을 포함할 수 있으며, 여기서, 프로그램 기록 영역은 운영 체제 및 적어도 하나의 기능에 필요한 응용 프로그램을 기억할 수 있고, 데이터 기록 영역은 아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 실현하기 위한 전자 기기의 사용을 통해 생성된 데이터 등을 기억할 수 있다. 또한, 메모리(602)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비 일시적 메모리를 더 포함할 수 있는 바, 예를 들면 적어도 하나의 자기 디스크 저장 장치, 플래시 장치, 또는 기타 비 일시적 고체 저장 장치를 포함할 수 있다. 일부 실시예에 있어서, 메모리(602)는 선택적으로 프로세서(601)에 대해 원격 설치한 메모리를 포함할 수 있으며, 이러한 원격 메모리는 네트워크를 통해 아이템 추천방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련방법을 실현하기 위한 전자기기에 연결될 수 있다. 상술한 네트워크의 실시예는 인터넷, 기업 인트라 넷, 근거리 통신망, 이동 통신 네트워크 및 이들의 조합을 포함하나 이에 한정되지 않는다.
아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 실현하기 위한 전자기기는 입력 장치(603)와 출력 장치(304)를 더 포함할 수 있다. 프로세서(601), 메모리(602), 입력 장치(603) 및 출력 장치(604)는 버스 또는 기타 방식을 통해 연결될 수 있으며, 도 6에서는 버스를 통해 연결하는 예를 들었다.
입력 장치(603)는 입력된 디지털 또는 문자 정보를 수신하고, 또한 아이템 추천 방법 또는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법을 실현하기 위한 전자 기기의 유저 설정 및 기능 제어에 관한 키 신호 입력을 생성할 수 있다. 예를 들면 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치를 포함할 수 있다. 출력 장치(604)는 디스플레이 기기, 보조 조명 장치(예를 들면, LED) 및 촉각 피드백 장치(예를 들면, 진동 모터) 등을 포함할 수 있다. 당해 디스플레이 기기는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 등 플라즈마 디스플레이를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시 방식에 있어서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명하는 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 실현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 실시되고, 당해 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템 상에서 수행 및/또는 해석될 수 있으며, 당해 프로그램 가능 프로세서는 전용 또는 일반 프로그램 가능 프로세서일 수 있고, 기록 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 또한 데이터 및 명령을 당해 기록 시스템, 당해 적어도 하나의 입력 장치 및 당해 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 계산 프로그램 (프로그램, 소프트웨어, 소프트웨어 응용 또는 코드로도 불림)은 프로그램 가능 프로세서의 기계 명령을 포함하며, 또한 고급 과정 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 계산 프로그램을 실시할 수 있다. 본 명세서에서 사용되는 “기계 판독 가능 매체” 및 “컴퓨터 판독 가능 매체”와 같은 용어는, 기계 명령 및/또는 데이터를 프로그램 가능 프로세서의 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들면, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치(PLD))에 제공하기 위한 것을 의미하며, 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. “기계 판독 가능 신호 ”와 같은 용어는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
유저와의 대화를 제공하기 위하여, 컴퓨터 상에서 여기서 설명하는 시스템 및 기술을 실시할 수 있으며, 당해 컴퓨터는 유저에게 정보를 표시하기 위한 디스플레이 장치(예를 들면, CRT (음극선관) 또는 LCD (액정 디스플레이) 모니터) 및 키보드와 포인팅 장치(예를 들면, 마우스 또는 트랙볼)를 구비할 수 있으며, 유저는 당해 키보드 및 당해 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 기타 유형의 장치는 또한 유저와의 대화를 제공하는데 사용될 수 있다. 예를 들면, 유저에 제공하는 피드백은 임의의 형태의 감각 피드백(예를 들면, 시각적 피드백, 청각적 피드백, 또는 촉각 피드백)일 수 있으며, 또한 임의의 형태(음향 입력, 음성 입력 또는 촉각 입력을 포함함)를 통해 유저로부터의 입력을 수신할 수 있다.
여기서 설명하는 시스템 및 기술을 백엔드 구성 요소를 포함하는 계산 시스템(예를 들면, 데이터 서버), 또는 미들웨어 구성 요소를 포함하는 계산 시스템(예를 들면, 응용 서버), 또는 프런트 엔드 구성 요소를 포함하는 계산 시스템(예를 들면, 그래픽 유저 인터페이스 또는 웹 브라우저를 구비하는 유저 컴퓨터인 바, 유저는 당해 그래픽 유저 인터페이스 또는 당해 웹 브라우저를 통해 여기서 설명하는 시스템 및 기술의 실시 방식과 대화함), 또는 이러한 백엔드 구성 요소, 미들웨어 구성 요소, 또는 프런트 엔드 구성 요소의 임의의 조합을 포함하는 계산 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들면, 통신 네트워크)을 통해 시스템의 구성 요소를 상호 연결할 수 있다. 통신 네트워크의 예는 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있고, 또한 일반적으로 통신 네트워크를 통해 대화를 실행한다. 해당되는 컴퓨터 상에서 운행되고, 또한 클라이언트 - 서버 관계를 갖는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 발생시킬 수 있다.
본 출원의 실시예에 따른 기술 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중의 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징표현 데이터베이스를 구축하고, 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하며, 유저 특징 표현 및 아이템 특징 표현 데이터베이스에 기반하여, 추천할 N개 아이템의 식별자를 획득하며, N개 아이템의 식별자에 기반하여, 유저에게 N개 아이템의 관련 정보를 추천함으로써 기존기술과 비교할 시, 본 출원의 실시예의 기술 방안은 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델을 통해 아이템을 추천하며, 계산량을 효과적으로 줄일 수 있고, 계산오류를 피할 수 있으며, 추천 정확도를 높일 수 있다. 또한 아이템 추천의 지능성을 효과적으로 높이고, 아이템 추천효율을 향상시킬 수 있다.
또한, 본 출원의 실시예에 따른 기술방안에 있어서, 유저가 아이템을 클릭하는 태스크 모델에 포함되는 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈은 2개의 서로 독립적인 태스크이므로, 클릭률 추정 태스크 모듈에서 유저 특징 표현 및 아이템 특징 표현을 상호작용시킬 수 있다. 따라서, 훈련 시, 당해 클릭률 추정 태스크 모듈은 역전파를 통해, 임베딩 처리모듈 중의 embedding 파라미터에 영향을 미칠 수 있어, 유저 특징 표현 및 아이템 특징 표현 사이의 상호작용이 있는 정보가 embedding 파라미터에 기록되게 되며, 리콜 태스크에 영향을 주게 되어 리콜 효과가 더 우수하게 되며, 아이템 추천 효과를 더욱 효과적으로 높일 수 있다.
본 출원의 실시예에 따른 기술방안에 있어서, 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법은 리콜 태스크와 클릭률 추정 태스크를 동시에 훈련할 수 있으며, 훈련 시, 역전파를 통해, 임베딩 처리모듈의 embedding 파라미터에 영향을 줌으로써, 유저 특징 표현 및 아이템 특징 표현 사이 상호작용이 있는 정보가 embedding 파라미터에 기록되게 하여, 리콜 태스크에 영향을 주게 되어, 리콜 효과가 더 우수하게 된다. 따라서, 본 출원 실시예의 기술 방안을 통해 훈련된 유저가 아이템을 클릭하는 태스크 모델은 리콜 효과를 효과적으로 높일 수 있고, 당해 유저가 아이템을 클릭하는 태스크 모델에 기반하여 아이템 추천 시, 추천 정확도를 효과적으로 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
또한, 본 출원의 실시예에 따른 기술 방안에 있어서 포괄적인 교차-엔트로피 손실 함수가 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 또한 계속하여 복수개의 훈련 데이터를 사용하여, 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지 유저가 아이템을 클릭하는 태스크 모델의 리콜 태스크 모듈을 훈련하며, 리콜 태스크 모듈의 파라미터를 결정하고, 리콜 태스크 모듈을 결정하여, 유저가 아이템을 클릭하는 태스크 모델을 결정함으로써 리콜 효과를 더 한층 높일 수 있고, 추천 정확도를 높일 수 있으며, 아이템 추천 효율을 향상시킬 수 있다.
상기에 나타낸 다양한 형태의 흐름을 이용하여 단계를 재정열, 증가 또는 삭제할 수 있음을 이해해야 한다. 예를 들면, 본 발명에 기재된 각 단계는 병열로 수행되거나 또는 차례로 수행되거나 또는 다른 순서로 수행될 수 있으며, 본 발명이 개시하는 기술 방안이 원하는 결과를 실현할 수 있는 한, 본 명세서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은 본 발명의 보호 범위를 한정하지 않는다. 당업자는 설계 요건 및 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체를 실행할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 이루어진 임의의 수정 동등한 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (16)

  1. 컴퓨터로 구현되는 아이템 추천 방법으로서,
    사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각각의 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하는 단계;
    상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 상기 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하는 단계;
    상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 단계;
    상기 N개 아이템의 식별자에 기초하여, 상기 유저에게 상기 N개 아이템의 관련 정보를 추천하는 단계;
    를 포함하되,
    상기 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법은:
    복수개의 훈련 데이터를 수집하는 단계;
    상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 단계;
    를 포함하며,
    각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하고,
    상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 단계는:
    각각의 상기 훈련 데이터에 대하여, 상기 훈련 유저의 적어도 2개의 특징 정보를 임베딩(embedding) 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻는 단계,
    상기 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻는 단계,
    상기 리콜 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현 및 상기 훈련 아이템의 조합적 특징 표현을 각각 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻는 단계,
    상기 리콜 태스크 모듈에서 상기 훈련 유저의 특징 표현과 상기 훈련 아이템 특징 표현을 곱하여 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스를 얻는 단계,
    상기 클릭률 추정 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현과 상기 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률을 얻는 단계,
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하는 단계,
    상기 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하고, 수렴되지 않을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하는 단계, 및
    수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계,
    를 포함하는 것을 특징으로 하는,
    아이템 추천 방법.
  2. 제1항에 있어서,
    상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 단계는,
    상기 아이템 특징 표현 데이터베이스에서 상기 유저 특징 표현과 관련성이 가장 높은 N개 아이템 특징 표현을 검색하는 단계,
    상기 N개 아이템 특징 표현에 대응되는 상기 N개 아이템의 식별자를 획득하는 단계를 포함하는 것을 특징으로 하는,
    아이템 추천 방법.
  3. 컴퓨터로 구현되는 유저가 아이템을 클릭하는 태스크 모델의 훈련 방법으로서,
    복수개의 훈련 데이터를 수집하는 단계;
    상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 단계;
    를 포함하며,
    각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하되,
    상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 단계는:
    각각의 상기 훈련 데이터에 대하여, 상기 훈련 유저의 적어도 2개의 특징 정보를 임베딩(embedding) 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻는 단계,
    상기 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻는 단계,
    상기 리콜 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현 및 상기 훈련 아이템의 조합적 특징 표현을 각각 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻는 단계,
    상기 리콜 태스크 모듈에서 상기 훈련 유저의 특징 표현과 상기 훈련 아이템 특징 표현을 곱하여 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스를 얻는 단계,
    상기 클릭률 추정 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현과 상기 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률을 얻는 단계,
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하는 단계,
    상기 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하고, 수렴되지 않을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하는 단계, 및
    수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계,
    를 포함하는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 방법.
  4. 제3항에 있어서,
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하는 단계는;
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제1 교차-엔트로피 함수를 생성하는 단계,
    상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제2 교차-엔트로피 함수를 생성하는 단계,
    상기 제1 교차-엔트로피 함수와 상기 제2 교차-엔트로피 함수의 합을 구하여, 상기 포괄적인 교차-엔트로피 손실 함수를 얻는 단계를 포함하는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 방법.
  5. 제4항에 있어서,
    상기 포괄적인 교차-엔트로피 손실 함수가 상기 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 상술한 방법은:
    계속하여 상기 복수개의 훈련 데이터를 사용하여, 상기 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지, 상기 리콜 태스크 모듈을 훈련하며, 상기 리콜 태스크 모듈의 파라미터를 결정하여, 상기 리콜 태스크 모듈을 결정하며, 따라서 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 단계를 더 포함하는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 방법.
  6. 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 추천 대기 아이템 라이브러리 중 각 아이템의 적어도 2개의 특징 정보를 사용하여, 아이템 특징 표현 데이터베이스를 구축하는 구축 모듈;
    상기 사전에 훈련된 유저가 아이템을 클릭하는 태스크 모델 및 유저의 적어도 2개의 특징 정보를 사용하여, 유저 특징 표현을 획득하는 특징 획득 모듈;
    상기 유저 특징 표현 및 상기 아이템 특징 표현 데이터베이스에 기초하여, 추천할 N개 아이템의 식별자를 획득하는 아이템 획득 모듈;
    상기 N개 아이템의 식별자에 기초하여, 상기 유저에게 상기 N개 아이템의 관련 정보를 추천하는 추천 모듈;
    을 포함하되,
    상기 유저가 아이템을 클릭하는 태스크 모델의 훈련 장치는:
    복수개의 훈련 데이터를 수집하는 수집모듈;
    상기 복수개의 훈련 데이터를 사용하여, 상기 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 훈련 모듈;
    을 포함하며,
    각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하고,
    상기 훈련 모듈은:
    각각의 상기 훈련 데이터에 대하여, 상기 훈련 유저의 적어도 2개의 특징 정보를 임베딩 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻고,
    상기 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻으며,
    상기 리콜 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현 및 상기 훈련 아이템의 조합적 특징 표현을 각각 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻으며,
    상기 리콜 태스크 모듈에서 상기 훈련 유저의 특징 표현과 상기 훈련 아이템 특징 표현을 곱하여 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스를 얻으며,
    상기 클릭률 추정 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현과 상기 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층, 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률을 얻으며,
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하며,
    상기 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하고, 수렴되지 않을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하며,
    수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 것을 특징으로 하는,
    아이템 추천 시스템.
  7. 제6항에 있어서,
    상기 아이템 획득 모듈은:
    상기 아이템 특징 표현 데이터베이스에서 상기 유저 특징 표현과 관련성이 가장 높은 N개 아이템 특징 표현을 검색하고,
    상기 N개 아이템 특징 표현에 대응되는 상기 N개 아이템의 식별자를 획득하는 것을 특징으로 하는,
    아이템 추천 시스템.
  8. 복수개의 훈련 데이터를 수집하는 수집모듈;
    상기 복수개의 훈련 데이터를 사용하여, 유저가 아이템을 클릭하는 태스크 모델 중의 리콜 태스크 모듈 및 클릭률 추정 태스크 모듈에 대해 연합 학습을 진행하는 훈련 모듈;
    을 포함하며,
    각각의 상기 훈련 데이터는 훈련 유저의 적어도 2개의 훈련 특징 정보, 훈련 아이템의 적어도 2개의 훈련 특징 정보 및 상기 훈련 유저가 상기 훈련 아이템에 대한 클릭 상호작용 정보를 포함하되,
    상기 훈련 모듈은:
    각각의 상기 훈련 데이터에 대하여, 상기 훈련 유저의 적어도 2개의 특징 정보를 임베딩 표현 후 접합시켜, 훈련 유저의 조합적 특징 표현을 얻고,
    상기 훈련 아이템의 적어도 2개의 훈련 특징 정보를 임베딩 표현 후 접합시켜, 훈련 아이템의 조합적 특징 표현을 얻으며,
    상기 리콜 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현 및 상기 훈련 아이템의 조합적 특징 표현을 각각 완전연결 처리 및 활성화 처리의 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 훈련 유저의 특징 표현 및 훈련 아이템 특징 표현을 얻으며,
    상기 리콜 태스크 모듈에서 상기 훈련 유저의 특징 표현과 상기 훈련 아이템 특징 표현을 곱하여 상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스를 얻으며,
    상기 클릭률 추정 태스크 모듈에서, 상기 훈련 유저의 조합적 특징 표현과 상기 훈련 아이템의 조합적 특징 표현을 접합시켜, 순차적으로 완전연결 처리 및 활성화 처리의 처리 계층, 및 sigmoid 활성화 함수 처리 계층을 포함하는 적어도 2개 계층의 처리를 거쳐, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률을 얻으며,
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스, 상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률, 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 포괄적인 교차-엔트로피 손실 함수를 생성하며,
    상기 포괄적인 교차-엔트로피 손실 함수가 수렴되는지 여부를 판단하고, 수렴되지 않을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 조정하며,
    수렴될 경우, 제1 연속 예정 루프 수의 훈련에서 전부 수렴되었는지 여부를 판단하고, 수렴되었을 경우, 상기 유저가 아이템을 클릭하는 태스크 모델의 파라미터를 결정하여, 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 장치.
  9. 제8항에 있어서,
    상기 훈련 모듈은:
    상기 훈련 유저에 대한 상기 훈련 아이템의 추천도 인덱스 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제1 교차-엔트로피 함수를 생성하고,
    상기 훈련 아이템에 대한 상기 훈련 유저의 예측 클릭 확률 및 기지된 상기 훈련 아이템에 대한 상기 훈련 유저의 클릭 상호작용 정보에 기반하여, 제2 교차-엔트로피 함수를 생성하며,
    상기 제1 교차-엔트로피 함수와 상기 제2 교차-엔트로피 함수의 합을 구하여, 상기 포괄적인 교차-엔트로피 손실 함수를 얻는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 장치.
  10. 제9항에 있어서,
    상기 훈련 모듈은:
    상기 포괄적인 교차-엔트로피 손실 함수가 상기 제1 연속 예정 루프 수의 훈련에서 전부 수렴한다고 판단되는 경우, 계속하여 상기 복수개의 훈련 데이터를 사용하여, 상기 제1 교차-엔트로피 함수가 제2 연속 예정 루프 수의 훈련에서 전부 수렴될 때까지, 상기 리콜 태스크 모듈을 훈련하며, 상기 리콜 태스크 모듈의 파라미터를 결정하여, 상기 리콜 태스크 모듈을 결정하며, 따라서 상기 유저가 아이템을 클릭하는 태스크 모델을 결정하는 것을 특징으로 하는,
    유저가 아이템을 클릭하는 태스크 모델의 훈련 장치.
  11. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서로 하여금 제1항 및 제2항 중 어느 한 항 또는 제3항 내지 제5항 중 어느 한 항에 기재된 방법을 수행하도록 하는 것을 특징으로 하는,
    전자 기기.
  12. 컴퓨터 명령이 기억되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항 및 제2항 중 어느 한 항 또는 제3항 내지 제5항 중 어느 한 항에 기재된 방법을 수행하도록 하는 것을 특징으로 하는,
    기록 매체.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
KR1020210008893A 2020-01-22 2021-01-21 아이템 추천방법, 시스템, 전자기기 및 기록매체 KR102476056B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2020100733474 2020-01-22
CN202010073347.4A CN111259222B (zh) 2020-01-22 2020-01-22 物品推荐方法、系统、电子设备及存储介质

Publications (2)

Publication Number Publication Date
KR20210095579A KR20210095579A (ko) 2021-08-02
KR102476056B1 true KR102476056B1 (ko) 2022-12-08

Family

ID=70950995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008893A KR102476056B1 (ko) 2020-01-22 2021-01-21 아이템 추천방법, 시스템, 전자기기 및 기록매체

Country Status (5)

Country Link
US (1) US20210224879A1 (ko)
EP (1) EP3855369A3 (ko)
JP (1) JP7135255B2 (ko)
KR (1) KR102476056B1 (ko)
CN (1) CN111259222B (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744011A (zh) * 2020-06-17 2021-12-03 北京沃东天骏信息技术有限公司 物品搭配方法和物品搭配装置
CN112148975A (zh) * 2020-09-21 2020-12-29 北京百度网讯科技有限公司 会话推荐方法、装置及设备
CN112766406B (zh) * 2021-01-29 2024-08-13 北京达佳互联信息技术有限公司 物品图像的处理方法、装置、计算机设备及存储介质
CN113360770B (zh) * 2021-06-30 2024-04-12 北京百度网讯科技有限公司 内容推荐的方法、装置、设备以及存储介质
CN113590288B (zh) * 2021-07-29 2024-09-24 支付宝(杭州)信息技术有限公司 多任务学习模型的训练方法、使用方法及装置
CN113849728A (zh) * 2021-08-27 2021-12-28 合肥工业大学 面向新项目推广的个性化推荐方法和系统
CN115774810A (zh) 2021-09-07 2023-03-10 天翼电子商务有限公司 一种融合了序列信息的特征组合推荐算法框架
CN113836144B (zh) * 2021-09-28 2023-01-24 厦门市美亚柏科信息股份有限公司 一种基于字段推荐数据库标准表的方法及装置
CN114139052B (zh) * 2021-11-19 2022-10-21 北京百度网讯科技有限公司 用于智能推荐的排序模型训练方法、智能推荐方法及装置
CN114564496B (zh) * 2022-03-01 2023-09-19 北京有竹居网络技术有限公司 一种内容推荐方法及装置
CN114707070A (zh) * 2022-04-12 2022-07-05 华为技术有限公司 一种用户行为预测方法及其相关设备
CN114783563B (zh) * 2022-05-10 2024-07-09 浙江工业大学 一种视觉训练的推荐方法
CN116578875B (zh) * 2023-07-12 2023-11-10 深圳须弥云图空间科技有限公司 基于多行为的点击预测模型训练方法及装置
CN118170993B (zh) * 2024-05-14 2024-07-12 云南师范大学 一种基于对比学习与场因子分解的教育资源推荐方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543066A (zh) 2018-10-31 2019-03-29 北京达佳互联信息技术有限公司 视频推荐方法、装置和计算机可读存储介质
CN109547814A (zh) * 2018-12-13 2019-03-29 北京达佳互联信息技术有限公司 视频推荐方法、装置、服务器及存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6558765B2 (ja) * 2014-12-18 2019-08-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 処理装置、処理方法、推測装置、推測方法、およびプログラム
CN105654329A (zh) * 2015-01-22 2016-06-08 香港中文大学深圳研究院 一种整合性推荐方法及装置
US10824941B2 (en) * 2015-12-23 2020-11-03 The Toronto-Dominion Bank End-to-end deep collaborative filtering
CN106169150A (zh) * 2016-06-29 2016-11-30 广州市香港科大霍英东研究院 基于用户兴趣预测的物品推荐方法和装置
JP6250106B1 (ja) * 2016-07-05 2017-12-20 ヤフー株式会社 情報解析装置、情報解析方法、および情報解析プログラム
JP2018063484A (ja) * 2016-10-11 2018-04-19 凸版印刷株式会社 ユーザ評価予測システム、ユーザ評価予測方法及びプログラム
JP6744353B2 (ja) * 2017-04-06 2020-08-19 ネイバー コーポレーションNAVER Corporation ディープラーニングを活用した個人化商品推薦
KR20180121466A (ko) * 2017-04-06 2018-11-07 네이버 주식회사 딥러닝을 활용한 개인화 상품 추천
US11093992B2 (en) * 2017-05-05 2021-08-17 Reai Inc. Smart matching for real estate transactions
CN107273438B (zh) * 2017-05-24 2021-02-23 深圳大学 一种推荐方法、装置、设备及存储介质
CN107392644A (zh) * 2017-06-19 2017-11-24 华南理工大学 一种商品购买预测建模方法
CN109903103B (zh) * 2017-12-07 2021-08-20 华为技术有限公司 一种推荐物品的方法和装置
KR102061331B1 (ko) * 2018-03-22 2019-12-31 네이버 주식회사 아이템 추천 방법 및 시스템
US20190303835A1 (en) * 2018-03-30 2019-10-03 Microsoft Technology Licensing, Llc Entity representation learning for improving digital content recommendations
CN109191240B (zh) * 2018-08-14 2021-06-08 北京九狐时代智能科技有限公司 一种进行商品推荐的方法和装置
CN109191196A (zh) * 2018-08-23 2019-01-11 深圳码隆科技有限公司 一种基于用户特征的商品推荐方法、装置和用户终端
CN110008399B (zh) * 2019-01-30 2023-04-07 创新先进技术有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN109993627B (zh) * 2019-02-28 2021-09-07 华为技术有限公司 推荐方法、推荐模型的训练方法、装置和存储介质
CN110084670B (zh) * 2019-04-15 2022-03-25 东北大学 一种基于lda-mlp的货架商品组合推荐方法
CN110162700B (zh) * 2019-04-23 2024-06-25 腾讯科技(深圳)有限公司 信息推荐及模型的训练方法、装置、设备以及存储介质
CN110298725B (zh) * 2019-05-24 2024-08-02 北京三快在线科技有限公司 商品组合的推荐方法、装置、电子设备及可读存储介质
CN110457589B (zh) * 2019-08-19 2020-05-12 上海新共赢信息科技有限公司 一种车辆推荐方法、装置、设备及存储介质
CN110599295B (zh) * 2019-08-22 2022-04-08 创新先进技术有限公司 物品的推送方法、装置及设备
CN110599307A (zh) * 2019-09-17 2019-12-20 北京三快在线科技有限公司 一种商品推荐的方法及装置
CN110674406A (zh) * 2019-09-29 2020-01-10 百度在线网络技术(北京)有限公司 推荐方法、装置、电子设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543066A (zh) 2018-10-31 2019-03-29 北京达佳互联信息技术有限公司 视频推荐方法、装置和计算机可读存储介质
CN109547814A (zh) * 2018-12-13 2019-03-29 北京达佳互联信息技术有限公司 视频推荐方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
CN111259222A (zh) 2020-06-09
JP7135255B2 (ja) 2022-09-13
US20210224879A1 (en) 2021-07-22
EP3855369A2 (en) 2021-07-28
CN111259222B (zh) 2023-08-22
EP3855369A3 (en) 2022-01-26
KR20210095579A (ko) 2021-08-02
JP2021118000A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
KR102476056B1 (ko) 아이템 추천방법, 시스템, 전자기기 및 기록매체
US12050978B2 (en) Webinterface generation and testing using artificial neural networks
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN112070226B (zh) 在线预测模型的训练方法、装置、设备及存储介质
US20180285759A1 (en) Online hyperparameter tuning in distributed machine learning
EP3896618A1 (en) Method for generating user interactive information processing model and method for processing user interactive information
CN111667056B (zh) 用于搜索模型结构的方法和装置
US20210374356A1 (en) Conversation-based recommending method, conversation-based recommending apparatus, and device
CN111582479B (zh) 神经网络模型的蒸馏方法和装置
CN111311321B (zh) 用户消费行为预测模型训练方法、装置、设备及存储介质
CN112288483A (zh) 用于训练模型的方法和装置、用于生成信息的方法和装置
CN111598616B (zh) 对象集合筛选的实现方法、装置、设备以及存储介质
Guo et al. Sequential dependency enhanced graph neural networks for session-based recommendations
CN112580723B (zh) 多模型融合方法、装置、电子设备和存储介质
CN111311000B (zh) 用户消费行为预测模型训练方法、装置、设备及存储介质
CN116975427A (zh) 确定对象对资源信息的感兴趣程度的方法、装置和计算设备
CN113641900A (zh) 信息推荐方法及装置
KR102574784B1 (ko) Esg 문서를 자동 완성하는데 적합한 텍스트를 추천하는 방법 및 이를 수행하는 esg 서비스 제공 시스템
CN117541323A (zh) 用于训练模型的方法和装置
CN111667055A (zh) 用于搜索模型结构的方法和装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant