JP2023516373A - 品物番号付けモデルをトレーニングするための方法及び装置 - Google Patents

品物番号付けモデルをトレーニングするための方法及び装置 Download PDF

Info

Publication number
JP2023516373A
JP2023516373A JP2022552768A JP2022552768A JP2023516373A JP 2023516373 A JP2023516373 A JP 2023516373A JP 2022552768 A JP2022552768 A JP 2022552768A JP 2022552768 A JP2022552768 A JP 2022552768A JP 2023516373 A JP2023516373 A JP 2023516373A
Authority
JP
Japan
Prior art keywords
sample
item
information
training
number information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022552768A
Other languages
English (en)
Inventor
▲偉▼豪 高
向▲軍▼ 樊
建▲凱▼ ▲孫▼
文之 肖
崇 王
小兵 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023516373A publication Critical patent/JP2023516373A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本出願の実施例は、品物番号付けモデルをトレーニングするための方法及び装置を開示する。当該方法のある具体的な実施形態は、初期品物番号付けモデル及びトレーニングサンプルセットを取得するステップと、当該トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るステップと、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るステップと、を含み、品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。当該実施の態様は、トレーニング済みの品物番号付けモデルによって品物推奨を実現することができ、品物番号情報をインデックスとして検索効率を向上させることができる。【選択図】図2a

Description

本出願は、出願番号第202010613628.4号、出願日が2020年06月30日、名称が「品物番号付けモデルをトレーニングするための方法及び装置」である中国特許出願に基づいて提出し、当該中国特許出願の優先権を主張し、当該中国特許出願の内容の全てをここに参照として取り込む。
本出願の実施例は、コンピュータ技術分野に関し、具体的には、品物番号付けモデルをトレーニングするための方法及び装置に関する。
インターネット技術の発展につれて、各種の検索システムがますます広く応用されている。検索技術において、リコール情報の品質は推奨システムのランキング結果に重要な影響があることが多い。
既存のリコールモデルは、FBT(Full Binary Tree、完全二分木)アルゴリズム、HNSW(Hierarchcal Navigable Small World graphs)アルゴリズムなどの「デュアルタワー構造:double-tower structure」に基づくドット積モデル(Dot Product Model)と、TDM(Tree-based Deep Match)アルゴリズム、JTM(Joint Optimization of Tree-based Index and Deep Model)アルゴリズムに基づくデプスツリー構造モデル(Deep Tree Structure Model)と、を主に含む。
本出願の実施例は、品物番号付けモデルをトレーニングするための方法及び装置を提供する。
第1の態様では、本出願の実施例は、品物番号付けモデルをトレーニングするための方法を提供する。当該方法は、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得するステップと;初期品物番号付けモデルを取得するステップと;トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るステップと;得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るステップと;を含み、品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。
ある実施例では、上記のトレーニングサンプルセットを取得するステップは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報とを含む初期トレーニングサンプルの初期トレーニングサンプルセットを取得するステップと;初期トレーニングサンプルセットにおける初期トレーニングサンプルに対応するサンプル品物番号情報をランダムに生成するステップと;初期トレーニングサンプルとランダムに生成されたサンプル品物番号情報とを組み合わせてトレーニングサンプルセットにおけるトレーニングサンプルとするステップと;を含む。
ある実施例では、当該方法は、初期品物番号付けモデルの構造パラメータを調整する過程において、各サンプル品物情報と初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するステップと、特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するステップと、をさらに含み、関連度は、サンプル品物情報に対応する入力されたサンプルユーザ情報を初期品物番号付けモデルを経由させて得られた少なくとも1つの品物番号情報の確率に基づいて特定される。
ある実施例では、上記の初期品物番号付けモデルの構造パラメータを調整する過程において、各サンプル品物情報と初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するステップは、時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度とするステップと;特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成するステップと、を含み、関連度にサブ関連度が占める比重の大きさは、現在時刻からトレーニング時刻の近接度合と一致する。
ある実施例では、上記の特定された関連度に基づいて、前記特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整するステップは、所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整することを含み、ペナルティ関数は、品物番号情報に対応するサンプル品物の数と正の相関にある。
ある実施例では、前記サンプル品物情報は相応の優先度を有し、上記の所定のペナルティ関数に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するステップは、同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択するステップと、特定された関連度に従って、選択された目標数のサンプル品物情報に対応するサンプル品物番号情報を改めて生成するステップと、を含む。
ある実施例では、前記サンプル品物番号情報に対応する番号付け空間は第1数の層を備え、前記第1数の層における各層は第2数の次元を備え、第1数が第2数よりも小さい。
ある実施例では、上記のトレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るステップは、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルに入力して、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を得ることを含み、前記少なくとも1つの品物番号情報は、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含み、確率分布における確率は、番号付け空間の各層が出力するサブ確率に基づいて得られ、サブ確率は、サンプルユーザ情報及び上位層が出力する特徴ベクトルに基づいて得られる。
第2の態様では、本出願の実施例は、リコールされる品物情報を生成するための方法を提供する。当該方法は、ユーザ情報を取得するステップと、ユーザ情報を、第1の態様のいずれか1つの方法によって予めトレーニングされた品物番号付けモデルに入力して、ユーザ情報に対応する品物番号情報を得るステップと、品物番号情報とユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得るステップと、を含む。
ある実施例では、前記品物番号付けモデル及びベクトルモデルは、品物番号情報に対応する特徴ベクトルに基づいて共同してトレーニングされる。
第3の態様では、本出願は、品物番号付けモデルをトレーニングするための装置を提供する。当該装置は、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得するように構成されたサンプル取得手段と、初期品物番号付けモデルを取得するように構成されたモデル取得手段と、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るように構成された生成手段と、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るように構成されたトレーニング手段と、を備え、品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。
ある実施例では、サンプル取得手段は、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報とを含む初期トレーニングサンプルの初期トレーニングサンプルセットを取得するように構成された取得モジュールと、初期トレーニングサンプルセットにおける初期トレーニングサンプルに対応するサンプル品物番号情報をランダムに生成するように構成された第1の生成モジュールと、初期トレーニングサンプルとランダムに生成されたサンプル品物番号情報とを組み合わせてトレーニングサンプルセットにおけるトレーニングサンプルとするように構成された組み合わせモジュールと、を備える。
ある実施例では、当該装置は、初期品物番号付けモデルの構造パラメータを調整する過程において、各サンプル品物情報と初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するように構成された特定手段と、特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するように構成された調整手段と、をさらに備え、関連度は、サンプル品物情報に対応する入力されたサンプルユーザ情報を初期品物番号付けモデルを経由させて得られた少なくとも1つの品物番号情報の確率に基づいて特定される。
ある実施例では、前記特定手段は、時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度とするように構成された特定モジュールと、特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成するように構成された融合モジュールと、を備え、関連度にサブ関連度が占める比重の大きさは、現在時刻からトレーニング時刻の近接度合と一致する。
ある実施例では、前記調整手段は、さらに、所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整するように構成され、ペナルティ関数は、品物番号情報に対応するサンプル品物の数と正の相関にある。
ある実施例では、前記サンプル品物情報は相応の優先度を有し、前記調整手段は、同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択するように構成された選択モジュールと、特定された関連度に従って、選択された目標数のサンプル品物情報に対応するサンプル品物番号情報を改めて生成するように構成された第2の生成モジュールと、を備える。
ある実施例では、前記サンプル品物番号情報に対応する番号付け空間は第1数の層を備え、前記第1数の層における各層は第2数の次元を備え、第1数が第2数よりも小さい。
ある実施例では、前記生成手段は、さらに、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルに入力して、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を得るように構成され、少なくとも1つの品物番号情報は、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含み、確率分布における確率は、番号付け空間の各層が出力するサブ確率に基づいて得られ、サブ確率は、サンプルユーザ情報及び上位層が出力する特徴ベクトルに基づいて得られる。
第4の態様では、本出願は、リコールされる品物情報を生成するための装置を提供する。当該装置は、ユーザ情報を取得するように構成される情報取得手段と、ユーザ情報を、第1の態様のいずれか1つの方法によって予めトレーニングされた品物番号付けモデルに入力して、ユーザ情報に対応する品物番号情報を得るように構成される番号付け手段と、品物番号情報とユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得るように構成されるリコール手段と、を備える。
ある実施例では、前記品物番号付けモデル及びベクトルモデルは、品物番号情報に対応する特徴ベクトルに基づいて共同にトレーニングされる。
第5の態様では、本出願は、サーバを提供する。当該サーバは、1つ又は複数のプロセッサと、1つ又は複数のプログラムが記憶された記憶装置と、を備え、1つ又は複数のプログラムが1つ又は複数のプロセッサに実行されると、1つ又は複数のプロセッサに第1の態様のいずれか1つの実現方式に記載の方法を実現させる。
第6の態様では、本出願は、コンピュータ読み取り可能な媒体を提供する。当該コンピュータ読み取り可能な媒体は、プロセッサに実行されると、第1の態様のいずれか1つの実現方式に記載の方法を実現するコンピュータプログラムが記憶されている。
本出願の実施例が提供する品物番号付けモデルをトレーニングするための方法及び装置は、まず、初期品物番号付けモデル及びトレーニングサンプルセットを取得し、トレーニングサンプルセットにおけるトレーニングサンプルは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含む。次に、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得る。そして、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得て、品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。これにより、トレーニング済みの品物番号付けモデルによって品物推奨を実現することができ、品物番号情報をインデックスとして検索効率を向上させることができる。
本出願におけるその他の特徴、目的、利点は、以下の図面を参照して実施例に対する非限定的な詳細な説明により、より明瞭になる。
本出願のある実施例を適用できる例示的なシステム構成の図である。 本出願に係る品物番号付けモデルをトレーニングするための方法のある実施例のフローチャートである。 本出願に係る品物番号付けモデルをトレーニングするための方法のある実施例における品物番号情報に対応する番号付け空間の模式図である。 本出願に係る品物番号付けモデルをトレーニングするための方法のある実施例において確率分布を特定するフローチャート模式図である。 本出願に係る実施例の品物番号付けモデルをトレーニングするための方法のある使用シーンの模式図である。 本出願に係るリコールされる品物情報を生成するための方法のある実施例のフローチャートである。 本出願に係る品物番号付けモデルをトレーニングするための装置のある実施例の構成模式図である。 本出願に係るリコールされる品物情報を生成するための装置のある実施例の構成模式図である。 本出願の実施例を実現するのに適する電子機器の構成模式図である。
次いで、図面と実施例を参照しながら本出願についてさらに詳細的に説明する。ここで記載された具体的な実施例は関連発明を説明するためのものに過ぎず、本発明を限定するものではないことは当然理解される。また、説明の便宜上、図面には発明に関連する部分のみが示されている。
なお、競合しない場合に、本出願における実施例及び実施例における特徴は互いに組み合わせることができる。次に、図面と実施例を参照しながら本開示について詳細的に説明する。
図1には、本出願の品物番号付けモデルをトレーニングするための方法又は品物番号付けモデルをトレーニングするための装置を適用できる例示的な構成100を示している。
図1に示すように、システム構成100は、端末デバイス101、102、103と、ネットワーク104、106と、サーバ105、107とを備えてよい。ネットワーク104、106は、端末デバイス101、102、103とサーバ105との間、及びサーバ105とサーバ107との間で通信リンクの媒体を提供するためのものである。ネットワーク104、106は、例えば、有線、無線通信リンク、又は光ファイバケーブルなどの様々な接続タイプを含み得る。
端末デバイス101、102、103はネットワーク104を介してサーバ105とインタラクトして、メッセージなどを受信又は発信する。端末デバイス101、102、103には各種通信クライアントアプリケーションがインストールされ、例えば、ウェブブラウザアプリケーション、ショッピング系アプリケーション、検索系アプリケーション、インスタントメッセンジャー、メールクライアント、ソーシャルプラットフォームソフトウェア、読書系アプリケーションなどである。
端末デバイス101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末デバイス101、102、103がハードウェアである場合、ディスプレイを有するとともに検索に対応する各種の電子機器であってもよく、例えば、スマートフォン、タブレット、電子ブックリーダー、ラップトップ型パソコン、デスクトップ型コンピュータなどを含むが、これらに限らない。端末デバイス101、102、103がソフトウェアである場合、上記に挙げられた電子機器にインストールされる。複数のソフトウェア又はソフトウェアモジュール(例えば、分散型サービスを提供するためのソフトウェア又はソフトウェアモジュール)として実現してもよいし、個別のソフトウェア又はソフトウェアモジュールとして実現してもよい。ここで具体的に限定しない。
サーバ105は様々なサービスを提供するサーバであってよい。例えば、端末デバイス101、102、103に表示されるウェブページにサポートを提供するバックグラウンドサーバである。サーバ107は品物番号付けモデルをトレーニングするためのサーバであってよい。バックグラウンドサーバ105は、サーバ107からトレーニング済みの品物番号付けモデルを取得することができる。そして、取得された品物番号付けモデルを用いて端末デバイスから受信したユーザ情報に対して分析などの処理を行い、処理結果(例えば、ユーザ情報にマッチングする文章や商品情報)を生成して端末デバイスにフィードバックする。
なお、上記サーバ105は、品物番号付けモデルをトレーニングするために用いられてもよい。これにより、上記トレーニング済みの品物番号付けモデルは、サーバ105のローカルに直接記憶されてもよい。サーバ105は、ローカルに記憶された品物番号付けモデルを直接抽出することができる。この場合、ネットワーク104及びサーバ107が存在しなくてもよい。
なお、サーバはハードウェアであってもよいし、ソフトウェアであってもよい。サーバは、ハードウェアである場合、複数のサーバからなる分散型サーバクラスタとして実現してもよいし、個別のサーバとして実現してもよい。サーバは、ソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、分散型サービスを提供するためのソフトウェア又はソフトウェアモジュール)として実現してもよいし、個別のソフトウェア又はソフトウェアモジュールとして実現してもよい。ここで、具体的に限定しない。
なお、本出願の実施例が提供する品物番号付けモデルをトレーニングするための方法は、一般的にサーバ105や107によって実行される。相応的に、品物番号付けモデルをトレーニングするための装置は、一般的にサーバ105や107に設置される。
図1に示す端末デバイス、ネットワーク、サーバの数は例示的なものだけであることは理解すべきである。実現の需要に応じて、任意の数の端末デバイス、ネットワーク、サーバを備えてもよい。
次いで、図2aを参照して、本出願に係る品物番号付けモデルをトレーニングするための方法のある実施例のフロー200を示す。当該品物番号付けモデルをトレーニングするための方法は、以下のステップを含む。
ステップ201:トレーニングサンプルセットを取得する。
本実施例において、品物番号付けモデルをトレーニングするための方法を実行する主体(図1に示すサーバ105)は、有線接続方式又は無線接続方式によってトレーニングサンプルセットを取得することができる。上記トレーニングサンプルセットにおけるトレーニングサンプルは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含んでもよい。上記品物番号情報は、品物が属するカテゴリを表すためのものであってもよい。上記品物番号情報は、例えば、数字、アルファベット、又はこれらからなる文字列など様々な形態を含み得るが、ここで特に限定しない。
例示として、上記サンプルユーザ情報は、推奨システムが取得するユーザに関連する情報、例えば、ユーザ名、ユーザラベルなどを含んでもよい。上記したサンプルユーザに対応するサンプル品物情報は、例えば、サンプル品物情報に対応するユーザによる実際のクリックの情報を含んでもよいし、所定の推奨アルゴリズムに基づいて特定されたサンプルユーザ情報に最もマッチングする情報を含んでもよく、ここで特に限定しない。上記その対応のサンプル品物情報に対応するサンプル品物番号情報は、所定の番号付け空間に基づいて特定されてもよい。例えば、番号付け空間を1~1000とすると、上記その対応のサンプル品物情報に対応するサンプル品物番号情報は、上記1~1000の任意の数値であってもよい。
なお、上記サンプル品物情報とサンプル品物番号情報との対応関係は、一対一であってもよいし、複数対一又は一対複数の少なくとも1つであってもよい。実際の応用では、異なる分類観点から1つの品物を見れば、異なるカテゴリに属することがよくあることを理解すべきである。例えば、「チョコレート」は、「食品類」に属してもよいし、「ギフト類」に属してもよい。また、「大学」に関する文章は、「教育類」に属してもよいし、「青春類」に属してもよい。さらに、番号付け空間の有限性及び品物分類にロングテール現象(Long Tail Effect)が存在するため、1つのサンプル品物番号情報が複数のサンプル品物情報に対応する方式は、表記の効率を向上させることができる。
本実施例のある選択的な実現方式において、上記実行主体は、以下のステップによってトレーニングサンプルセットを取得してもよい。
第1のステップ:初期トレーニングサンプルセットを取得する。
これらの実現方式において、上記初期トレーニングサンプルセットにおける初期トレーニングサンプルは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報とを含んでもよい。上記サンプルユーザ情報及びサンプル品物情報は、前述の記載と一致してもよい。
第2のステップ:初期トレーニングサンプルセットにおける初期トレーニングサンプルに対応するサンプル品物番号情報をランダムに生成する。
これらの実現方式において、上記実行主体は、上記初期トレーニングサンプルセットにおける初期トレーニングサンプルをサンプル品物番号情報に対応する番号付け空間にランダムに割り当てることで、各初期トレーニングサンプルに対応するサンプル品物番号情報を生成してもよい。
第3のステップ:初期トレーニングサンプルとランダムに生成されたサンプル品物番号情報とを組み合わせてトレーニングサンプルセットにおけるトレーニングサンプルとする。
上記選択的な実現方式に基づいて、上記実行主体は、ランダムに割り当てることによって番号付け空間をできるだけ十分に利用することができ、あるサンプル品物番号が多くのサンプル品物情報に対応することを回避して、サンプル品物番号情報によってパーティションの形式で検索効率を向上させる。
本実施例のある選択的な実現方式において、上記サンプル品物番号情報に対応する番号付け区間(図2bに示す)は、第1数(図2bに示すd)の層を備えてもよい。上記第1数の層における各層は、第2数(図2bに示すk)の次元を備えてもよい。上記第1数は、一般的に上記第2数よりも小さい。例示として、上記第1数が3であって、上記第2数が1000であってもよい。従って、上記番号付け空間は、10003種類の番号を含み得る。上記サンプル品物番号情報は、例えば、(36、27、20)、(18、27、35)である。上記サンプル品物番号情報は、番号付け空間における位置を表すためのものであってもよく、例えば、第1層の第36次元、第2層の第27次元、第3層の第20次元と、第1層の第18次元、第2層の第27次元、第3層の第35次元とである。第2層の第27次元は、上記2つのサンプル品物番号情報の「共通」ノードと見なすことができる。
上記選択的な実現方式に基づいて、構造層及び次元で表す符号付け区間によって品物番号情報を具現化に表す。また、現有のクラスタリング技術におけるクラスタの中心に比べて、「共通」ノードによって品物番号情報間を関連付けさせることができる。
ステップ202:初期品物番号付けモデルを取得する。
本実施例において、上記実行主体は、有線接続方式又は無線接続方式によってトレーニングサンプルセットを取得することができる。上記初期品物番号付けモデルは、様々な分類用の人工ニューラルネットワーク(Artificial Neural Network、ANN)構造を含んでもよい。
本実施例において、上記実行主体はローカルから予め記憶された初期品物番号付けモデルを取得してもよいし、通信接続された電子デバイスから上記初期品物番号付けモデルを取得してもよく、ここで特に限定しない。
ステップ203:トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を初期品物番号付けモデルの入力とし、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得る。
本実施例において、上記実行主体は、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を初期品物番号付けモデルの入力とし、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得ることができる。一般的に、上記初期品物番号付けモデルは、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を出力することができる。上記少なくとも1つの品物番号情報は、一般的に、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含んでもよい。上記品物番号情報は、即ち、分類モデルにおいて分類されたカテゴリである。上記実行主体は、得られた少なくとも1つの品物番号情報から、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を取得できる。
本実施例のある選択的な実現方式において、上記実行主体は、サンプル品物番号情報に対応する番号付け空間に含まれる層及び次元に基づいて、上記トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、上記初期品物番号付けモデルに入力して、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を得ることもできる。上記少なくとも1つの品物番号情報は、一般的に、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含む。上記確率分布における確率は、番号付け空間の各層が出力するサブ確率に基づいて得られる。上記サブ確率は、サンプルユーザ情報及び上位層が出力する特徴ベクトルに基づいて得られる。
例示として、図2cを参照して、上記実行主体は、上記初期品物番号付けモデルを用いて、サンプルユーザ情報に基づいて第1層における各次元に対応する確率分布を特定してもよい。次いで、サンプル品物番号情報の第1層の次元(例えば36)と一致する次元に対応する確率を第1サブ確率とする。そして、上記実行主体は、上記サンプルユーザ情報及び生成された各次元に対応する確率分布の特徴ベクトルに基づいて、第2層における各次元に対応する確率分布を特定してもよい。次いで、上記実行主体は、サンプル品物番号情報の第2層の次元(例えば27)と一致する次元に対応する確率を第2サブ確率としてもよい。そして、上記実行主体は、上記サンプルユーザ情報と生成された上記第1サブ確率及び第2サブ確率の特徴ベクトルに基づいて、第3層における各次元に対応する確率分布を特定してもよい。次いで、上記実行主体は、サンプル品物番号情報の第3層の次元(例えば20)と一致する次元に対応する確率を第3サブ確率としてもよい。最後に、上記実行主体は、上記第1サブ確率、第2サブ確率、第3サブ確率の融合結果(例えば連続乗算積)を入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率としてもよい。上記実行主体は、各層が出力する確率分布に基づいて、前述のサンプル品物番号情報の確率を生成する方法と一致する方法を用いて、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を生成してもよい。
上記選択的な実現方式に基づいて、上記実行主体は、番号付け空間における各層の間の情報伝達を十分に利用することができ、生成された品物番号情報間に備えられる関連性をモデルに学習させることができ、番号付けの効果を向上させて、効率的な検索に技術的基礎を提供することができる。同時に、人工分類のコストを著しく低減させ、効率を向上させた。
ステップ204:得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得る。
本実施例において、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化することにより、上記実行主体は、様々な方式で初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得ることができる。上記品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。例示として、上記実行主体は、トレーニングされた損失関数に基づいて初期品物番号付けモデルの構造パラメータを調整してもよい。上記損失関数は、例えば、上記した入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率の負の対数を含んでもよい。これにより、上記実行主体は、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化するように、各種適応の機械学習アルゴリズムによって上記初期品物番号付けモデルの構造パラメータを調整することができる。
本実施例のある選択的な実現方式において、上記実行主体は、以下のステップを続けて実行してもよい。
第1のステップ:初期品物番号付けモデルの構造パラメータを調整する過程で、各サンプル品物情報と初期品物番号付けモデルが出力する各品物番号情報との関連度を特定する。
これらの実現方式において、上記関連度は、サンプル品物情報に対応する入力されたサンプルユーザ情報を上記初期品物番号付けモデルを経由させて得られた少なくとも1つの品物番号情報の確率に基づいて、特定されることができる。例示として、上記トレーニングサンプルセットにおける各バッチのトレーニングサンプルの各トレーニングサンプル(例えば、トレーニングサンプルA、トレーニングサンプルB、トレーニングサンプルC)に対して、上記実行主体は、上記初期品物番号付けモデルが出力し各トレーニングサンプルのサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率を得ることができる。上記トレーニングサンプルAは、サンプルユーザ情報x1、サンプル品物情報y1を含んでもよい。上記トレーニングサンプルBは、サンプルユーザ情報x2、サンプル品物情報y2を含んでもよい。上記トレーニングサンプルCは、サンプルユーザ情報x3、サンプル品物情報y1を含んでもよい。例えば、トレーニングサンプルAに対応する品物番号情報が009、015、108である確率は、それぞれ0.7、0.2、0.1であってもよい。トレーニングサンプルBに対応する品物番号情報が009、015、108である確率は、それぞれ0.3、0.1、0.6であってもよい。トレーニングサンプルCに対応する品物番号情報が009、015、108である確率は、それぞれ0.8、0.1、0.1であってもよい。上記実行主体は、得られた各トレーニングサンプルのサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率に基づいて、様々な方式で各サンプル品物情報と各品物番号情報との関連度を特定することができ、例えば、最大値、最小値、平均値などにする。例示として、上記実行主体は、サンプル品物情報y1と品物番号情報009、015、108との関連度をそれぞれ0.75、0.15、0.1と特定することができ、サンプル品物情報y2と品物番号情報009、015、108との関連度をそれぞれ0.3、0.1、0.6と特定することができる。
上記初期品物番号付けモデルの構造パラメータを調整する過程で、複数バッチのトレーニングサンプルを用いることが多いので、上記実行主体は、得られた各バッチのトレーニングサンプルに対応する少なくとも1つの品物番号情報の確率に基づいて、各サンプル品物情報と各品物番号情報との関連度を特定することができると分かる。
選択的に、上記実行主体は、以下のステップに従って各サンプル品物情報と各品物番号情報との関連度を特定してもよい。
S1:時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度とする。
これらの実現方式において、上記実行主体は、時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度としてもよい。サブ関連度を特定する方式は、前述の第1のステップの関連記載と一致してもよいため、ここで重複の説明を省略する。
S2:特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成する。
これらの実現方式において、上記実行主体は、様々な方式で特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成してもよい。上記サブ関連度が関連度に占める比重の大きさは、一般的に現在時刻からトレーニング時刻の近接度合と一致し、即ち、最も最近にトレーニングされたサンプルであれば、対応するサブ関連度が関連度に占める比重は大きい。例示として、上記融合方法は、重みを予め設定する重み付け法、指数移動平均(exponential moving average)法などを含んでもよいが、これらに限らない。
例示として、上記トレーニングサンプルA、トレーニングサンプルB、トレーニングサンプルCの次にトレーニングされた他のバッチのトレーニングサンプルD、トレーニングサンプルE、トレーニングサンプルFは、サンプルユーザ情報x1、サンプル品物情報y2、サンプルユーザ情報x3、サンプル品物情報y1、サンプルユーザ情報x2、サンプル品物情報y3をそれぞれ含んでもよい。トレーニングサンプルD、トレーニングサンプルE、トレーニングサンプルFに対応する品物番号情報が009、015、108である確率は、それぞれ0.2、0.2、0.6;0.7、0.1、0.2;0.3、0.2、0.5であってもよい。すると、上記実行主体は、トレーニングサンプルD、トレーニングサンプルE、トレーニングサンプルFというバッチのトレーニングサンプルにおけるサンプル品物情報y1と品物番号情報009、015、108とのサブ関連度を、それぞれ0.7、0.1、0.2と特定することができる。上記実行主体は、上記実行主体が特定されたトレーニングサンプルA、トレーニングサンプルB、トレーニングサンプルCというバッチのトレーニングサンプルにおけるサンプル品物情報y1と品物番号情報009、015、108とのサブ関連度がそれぞれ0.75、0.15、0.1であることに基づいて、サンプル品物情報y2と品物番号情報009、015、108とのサブ関連度(0.4、0.6で重み付け)をそれぞれ0.72、0.12、0.16と特定することができる。サンプル品物情報y2と品物番号情報009との関連度は、0.75×0.4+0.7×0.6=0.72によって得られる。
上記選択的な実現方式において、各バッチのトレーニングサンプルは同じエポック(epoch)に属してもよいし、異なるエポックに属してもよい。よって、各エポックでトレーニングするサンプルが完全に同じではない「ストリーム」サンプルのシーンである場合、最新にトレーニングに参加したサンプルによる結果へより大きい重みを付与することは、オンライン学習及び応用の時効性のニーズに合致し、トレーニング済みのモデルがより高い汎化性を有するになることに寄与する。
第2のステップ:特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整する。
これらの実現方式において、上記実行主体は、特定された関連度に基づいて、調整後のサンプル品物情報とサンプル品物番号情報との対応関係が上記第1のステップで生成された関連度と一致させるように、サンプル品物情報とサンプル品物番号情報との対応関係を調整することができる。例示として、上記サンプル品物情報y2と品物番号情報009、015、108との関連度(0.4、0.6で重み付け)を、それぞれ0.72、0.12、0.16と特定する。サンプル品物情報y2に本来対応するサンプル品物番号情報が「009」ではない場合、上記実行主体は、サンプル品物情報y2に対応するサンプル品物番号情報を関連度が最も大きい品物番号情報「009」に調整することができる。
選択的に、上記実行主体は、調整後のサンプル品物情報とサンプル品物番号情報との対応関係を記憶してもよい。これにより、複数エポックの品物番号付けモデルのトレーニング及び対応関係の交互調整を通じて、トレーニング済みの品物番号付けモデル及び調整後のサンプル品物情報とサンプル品物番号情報との対応関係を得ることができる。
上記選択的な実現方式に基づいて、上記実行主体は、各サンプル品物情報と品物番号情報とのマップを最適化して検索の効率を向上させるように、サンプル品物情報とサンプル品物番号情報との対応関係を調整することができる。
選択的に、上記実行主体は、所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整してもよい。上記ペナルティ関数は、品物番号情報に対応するサンプル品物の数と正の相関にあってもよい。例えば、ペナルティ関数は、品物番号情報に対応するサンプル品物の数の二乗に比例してもよい。
上記選択的な実現方式に基づいて、ペナルティ関数によってあるサンプル品物番号情報が多くのサンプル品物情報に対応することを回避して、モデル応用過程におけるサービス側の負荷を軽減することに寄与することができる。
選択的に、上記サンプル品物情報は相応の優先度を有してもよい。上記実行主体は、相応の優先度に基づいて、以下のステップに従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整してもよい。
S1:同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択する。
これらの実現方式において、上記実行主体は、同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択することができる。例示として、サンプル品物情報y2、y5、y8、y9に対応する最大関連度にマッチングする品物番号情報のいずれも009であると仮定する。上記所定の閾値は、例えば3である。すると、上記実行主体は、上記サンプル品物情報y2、y5、y8、y9から優先度が最も低いサンプル品物情報を選択することができる。選択的に、上記実行主体は、上記サンプル品物情報y2、y5、y8、y9から、優先度が所定の優先度閾値よりも低いサンプル品物情報を選択してもよく、例えば、y2とy5。次いで、上記実行主体は、優先度が所定の優先度閾値よりも低いサンプル品物情報から目標数のサンプル品物情報をランダムに選択することができる。
S2:特定された関連度に従って、選択された目標数のサンプル品物情報に対応するサンプル品物番号情報を改めて生成する。
これらの実現方式において、上記実行主体は、上記ステップS1で選択された目標数のサンプル品物情報を、それぞれ特定された次関連の関連度と一致するサンプル品物番号情報に改めて生成することができる。例示として、上記実行主体は、選択されたサンプル品物情報に対応する2番目に高い関連度に対応する品物番号情報を、当該サンプル品物情報に対応するサンプル品物番号情報として特定することができる。
引き続き図3を参照する。図3は、本出願に係る実施例の品物番号付けモデルをトレーニングするための方法の使用シーンの模式図である。図3の使用シーンでは、バックグラウンドサーバは、トレーニングサンプルセット301及び初期品物番号付けモデル302を取得することができる。上記トレーニングサンプルセットは、サンプルユーザ情報としての「張三abc」と、サンプル品物情報としての「携帯電話」と、サンプル品物番号情報としての「015」とを含んでもよい。バックグラウンドサーバは、トレーニングサンプルにおける「張三abc」3011を、上記初期品物番号付けモデル302に入力して、「携帯電話」に対応する確率を得ることができ、例えば0.5である(図3の303に示す)。バックグラウンドサーバは、上記トレーニングサンプルにおける「張三abc」3011に対応して「携帯電話」を出力する確率を最大化するように、様々なアルゴリズム(例えば、EMアルゴリズム)を用いて上記初期品物番号付けモデル302のモデルパラメータを調整することができる。これにより、トレーニング済みの初期品物番号付けモデル302をトレーニング済みの品物番号付けモデルとして特定する。
現在、従来技術の1つは、一般的にリコールされる情報をベクトル空間にマッピングして、近似近傍探索(ANN、Approximate Nearest Neighbor)などのアルゴリズムを用いて、距離が最も近い情報をリコールする。ベクトル空間のサイズ及び用いられる距離(一般的に内積/ユークリッド距離、又はコサイン尺度)に制限されるため、モデルの能力を十分に利用することができない。また、ベクトルマッピングモデルとANNが構築する構造とは相対的に独立するため、モデルのトレーニング中でANN構造の情報を用いて連携トレーニングを行うことができない。なお、従来技術におけるデプスツリー構造もツリー構造の高度離散化によって、ツリーの構造特徴がモデルパラメータと共同に学習することは困難である。本出願の上記実施例が提供する方法は、品物番号情報をユーザ情報と品物情報との間の中間変数として導入し、トレーニングを行うことで、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すための品物番号付けモデルを得る。これにより、上記品物番号付けモデルは、ユーザ情報と品物情報との対応関係を表すことができて、品物推奨に使用可能となるとともに、品物番号情報をインデックスとして検索効率を向上させることもできる。さらに、モデルの全体的なトレーニングを実現する。
さらに、図4を参照する。図4は、リコールされる品物情報を生成するための方法のある実施例のフロー400を示す。当該リコールされる品物情報を生成するための方法のフロー400は、以下のステップを含む。
ステップ401:ユーザ情報を取得する。
本実施例において、リコールされる品物情報を生成するための方法の実行主体(例えば、図1に示すサーバ105)は、有線接続方式又は無線接続方式によってユーザ情報を取得することができる。上記ユーザ情報は、ユーザに関連する様々な情報、例えば、ユーザ名、ユーザラベルなどを含んでもよい。上記ユーザ情報は、ユーザ過去クリック情報をさらに含んでもよい。上記過去クリック情報は、商品情報、文章、動画、音楽の少なくとも1つを含んでもよいが、これらに限らない。
ステップ402:ユーザ情報を、予めトレーニングされた品物番号付けモデルに入力して、ユーザ情報に対応する品物番号情報を得る。
本実施例において、上記実行主体は、ステップ401で取得されたユーザ情報を、予めトレーニングされた品物番号付けモデルに入力して、上記ユーザ情報に対応する品物番号情報を得ることができる。上記品物番号付けモデルは、前述の実施例及び選択的な実現方式に記載の方法によってトレーニングすることで得られる。
ステップ403:品物番号情報とユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得る。
本実施例において、上記実行主体は、ステップ402で取得された品物番号情報とステップ401で取得されたユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得ることができる。上記ベクトルモデルは、リコールに用いられる各種の機械学習モテルを含んでもよく、例えば、FFM(Field-aware Factorization Machine)モデル及び/又はDNN(Deep Neural Networks、ディープニューラルネットワーク)が融合したネットワーク構造などである。
本実施例のある選択的な実現方式において、上記品物番号付けモデル及び上記ベクトルモデルは、一般的に品物番号情報に対応する特徴ベクトルに基づいて共同にトレーニングされる。
上記選択的な実現方式に基づいて、品物番号情報に対応する特徴ベクトルを上記品物番号付けモデルと上記ベクトルモデルとの中間キャリアとして共同トレーニングを実現することで、2つのモデルの繋がりをより緊密にし、生成されたリコールされる品物情報のマッチング度を向上させる。
図4から分かるように、本実施例におけるリコールされる品物情報を生成するための方法のフロー400は、品物番号付けモデルの出力を、新しく追加された1つの次元としてベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得るステップを示している。これにより、本実施例に記載の発明は、ユーザ情報を利用するだけでなく、生成された品物番号情報を利用してリコールされる品物情報を生成することもでき、さらに、生成されたリコールされる品物情報のマッチング度を向上させることができる。
次に、図5を参照する。上記各図に示す方法の実現として、本出願は、品物番号付けモデルをトレーニングするための装置のある実施例を提供する。当該装置の実施例は、図2に示す方法の実施例に対応する。当該装置は、具体的に様々な電子デバイスに適用されることができる。
図5に示すように、本実施例が提供する品物番号付けモデルをトレーニングするための装置500は、サンプル取得手段501と、モデル取得手段502と、生成手段503と、トレーニング手段504とを備える。サンプル取得手段501は、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得するように構成される。モデル取得手段502は、初期品物番号付けモデルを取得するように構成される。生成手段503は、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るように構成される。トレーニング手段504は、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るように構成される。品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。
本実施例において、品物番号付けモデルをトレーニングするための装置500では、サンプル取得手段501、モデル取得手段502、生成手段503、トレーニング手段504の具体的な処理及びその奏する効果は、それぞれ図2の対応する実施例のステップ201、ステップ202、ステップ203、ステップ204の関連説明を参照することができ、ここで重複の説明を省略する。
本実施例のある選択的な実現方式において、上記サンプル取得手段501は、取得モジュール(図示しない)と、第1の生成モジュール(図示しない)と、組み合わせモジュール(図示しない)とを備えてもよい。上記取得モジュールは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報とを含む初期トレーニングサンプルの初期トレーニングサンプルセットを取得するように構成されてもよい。上記第1の生成モジュールは、初期トレーニングサンプルセットにおける初期トレーニングサンプルに対応するサンプル品物番号情報をランダムに生成するように構成されてもよい。上記組み合わせモジュールは、初期トレーニングサンプルとランダムに生成されたサンプル品物番号情報とを組み合わせてトレーニングサンプルセットにおけるトレーニングサンプルとするように構成されてもよい。
本実施例のある選択的な実現方式において、上記品物番号付けモデルをトレーニングするための装置500は、特定手段(図示しない)と、調整手段(図示しない)と、をさらに備えてもよい。上記特定手段は、初期品物番号付けモデルの構造パラメータを調整する過程で、各サンプル品物情報と初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するように構成されてもよい。上記関連度は、サンプル品物情報に対応する入力されたサンプルユーザ情報を初期品物番号付けモデルを経由させて得られた少なくとも1つの品物番号情報の確率に基づいて特定されることができる。調整手段は、特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するように構成されてもよい。
本実施例のある選択的な実現方式において、上記特定手段は、特定モジュール(図示しない)と、融合モジュール(図示しない)とを備えてもよい。上記特定モジュールは、時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度とするように構成されてもよい。上記融合モジュールは、特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成するように構成されてもよい。上記サブ関連度が関連度に占める比重の大きさは、現在時刻からトレーニング時刻の近接度合と一致してもよい。
本実施例のある選択的な実現方式において、上記調整手段は、さらに、所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整するように構成されてもよい。ペナルティ関数は、品物番号情報に対応するサンプル品物の数と正の相関にある。
本実施例のある選択的な実現方式において、上記サンプル品物情報は相応の優先度があってもよい。上記調整手段は、選択モジュール(図示しない)と、第2の生成モジュール(図示しない)とを備えてもよい。上記選択モジュールは、同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択するように構成されてもよい。上記第2の生成モジュールは、特定された関連度に従って、選択された目標数のサンプル品物情報に対応するサンプル品物番号情報を改めて生成するように構成されてもよい。
本実施例のある選択的な実現方式において、上記サンプル品物番号情報に対応する番号付け空間は第1数の層を備えてもよい。上記第1数の層における各層は第2数の次元を備えてもよい。上記第1数は一般的に第2数よりも小さい。
本実施例のある選択的な実現方式において、上記生成手段503は、さらに、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、初期品物番号付けモデルに入力して、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を得るように構成されてもよい。上記少なくとも1つの品物番号情報は、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含んでもよい。上記確率分布における確率は、番号付け空間の各層が出力するサブ確率に基づいて得られる。上記サブ確率は、サンプルユーザ情報及び上位層が出力する特徴ベクトルに基づいて得られる。
本出願の上記実施例が提供する装置は、サンプル取得手段501によってトレーニングサンプルセットを取得する。トレーニングサンプルセットにおけるトレーニングサンプルは、サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含む。次いで、モデル取得手段502は、初期品物番号付けモデルを取得する。そして、生成手段503は、トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を初期品物番号付けモデルの入力とし、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得る。最後に、トレーニング手段504は、得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得る。品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。これにより、トレーニング済みの品物番号付けモデルによって品物推奨を実現することができ、品物番号情報をインデックスとして検索効率を向上させることができる。
次に、図6を参照する。上記各図に示す方法の実現として、本出願は、リコールされる品物情報を生成するための装置のある実施例を提供する。当該装置の実施例は、図4に示す方法の実施例に対応する。当該装置は、具体的に様々な電子デバイスに適用されることができる。
図6に示すように、本実施例が提供するリコールされる品物情報を生成するための装置600は、情報取得手段601と、番号付け手段602と、リコール手段603とを備える。情報取得手段601は、ユーザ情報を取得するように構成される。番号付け手段602は、ユーザ情報を、前述の品物番号付けモデルをトレーニングするための方法によって予めトレーニングされた品物番号付けモデルに入力して、ユーザ情報に対応する品物番号情報を得るように構成される。リコール手段603は、品物番号情報とユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得るように構成される。
本実施例において、リコールされる品物情報を生成するための装置600では、情報取得手段601、番号付け手段602、リコール手段603の具体的な処理及びその奏する効果について、それぞれ図4の対応の実施例のステップ401、ステップ402、ステップ403、その選択的な実現方式の関連説明を参照することができ、ここで重複の説明を省略する。
本実施例のある選択的な実現方式において、上記品物番号付けモデル及びベクトルモデルは、一般的に品物番号情報に対応する特徴ベクトルに基づいて共同してトレーニングされる。
本出願の上記実施例が提供する装置は、まず、情報取得手段601によってユーザ情報を取得する。その次、番号付け手段602は、ユーザ情報を、前述の品物番号付けモデルをトレーニングするための方法によって予めトレーニングされた品物番号付けモデルに入力して、ユーザ情報に対応する品物番号情報を得る。リコール手段603は、品物番号情報とユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、ユーザ情報に対応するリコールされる品物情報を得る。これにより、ユーザ情報を利用するだけでなく、生成された品物番号情報を利用してリコールされる品物情報を生成することもでき、さらに、生成されたリコールされる品物情報のマッチング度を向上させる。
次いで、図7を参照する。図7は、本出願の実施例を実現するための電子デバイス(例えば、図1に示すサーバ)700の構成模式図を示す。本開示の実施例における端末デバイスは、携帯電話、ノートパソコン、デジタル放送受信機、PDA(携帯情報端末)、PAD(タブレット)、PMP(携帯型マルチメディアプレイヤ)、車載端末(例えば、車載ナビゲーション端末)等の携帯端末、又はデジタルTV、デスクトップ型コンピュータ等の固定端末を含むが、これらに限らない。図7に示すサーバは一例に過ぎず、本開示の実施例の機能及び使用範囲に制限を与えるものではない。
図7に示すように、電子デバイス700は、リードオンリーメモリ(ROM)702に記憶されたプログラム、或いは記憶装置708からランダムアクセスメモリ(RAM)703にロードされたプログラムによって様々な適宜な動作及び処理を行う処理装置(例えば、中央処理装置、グラフィックプロセッサ等)701を備えてもよい。RAM703には、電子デバイス700の操作に必要な様々なプログラム及びデータがさらに記憶されている。処理装置701と、ROM702と、RAM703とは、バス704により互いに接続されている。入/出力(I/O)インタフェース705もバス704に接続されている。
一般的に、以下のような装置は、入/出力(I/O)インタフェース705に接続可能である。例えば、タッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイク、加速度計、ジャイロ等を含む入力装置706と、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)、スピーカー、振動子等を含む出力装置707と、例えば、磁気テープ、ハードディスク等を含む記憶装置708と、通信装置709とである。通信装置709は、電子デバイス700と他のデバイスとが、無線又は有線通信でデータ交換を行うことを許可することができる。図7は各種の装置を備える電子デバイス700を示しているが、示される全ての装置を実施する又は備えることが要求されていないことは理解すべきである。代替的に実施してもよいし、より多い又はより少ない装置を備えてもよい。図7に示す各ブロックは、1つの装置を代表してもよいし、必要に応じて複数の装置を代表してもよい。
特に、本出願の実施例によれば、フローチャートを参照しながら説明した上記過程は、コンピュータソフトウェアプログラムとして実現されることが可能である。例えば、本出願の実施例は、あるコンピュータプログラム製品に関し、コンピュータで読み取り可能な媒体に搭載されたコンピュータプログラムに関する。当該コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例において、当該コンピュータプログラムは、通信装置709によってネットからダウンロード及びインストールされることができる。或いは、記憶装置708からインストールされる、又は、ROM702からインストールされる。当該コンピュータプログラムは、処理装置701によって実行されるとき、本出願の実施例の方法に規定された上記機能が実行される。
なお、本出願に記載のコンピュータで読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体、又はコンピュータ読み取り可能な記憶媒体、又は上記双方の任意の組み合わせであってもよい。コンピュータ読み取り可能な記憶媒体は、例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は上記の任意の組み合わせであってもよいが、これらに限らない。コンピュータ読み取り可能な記憶媒体のさらに具体的な例は、1つ又は複数のリード線を有する電気的接続、携帯型コンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、コンパクトディスク・リードオンリーメモリ(CD-ROM)、光メモリデバイス、磁気メモリデバイス、又は上記の任意の組み合わせを含むが、これらに限らない。本出願の実施例において、コンピュータ読み取り可能な記憶媒体は、プログラムを含む又は記憶するいかなる有形媒体であってもよい。このプログラムは、指令実行システム、装置又はデバイスに使用されるか、或いはこれらと組み合わせて使用されることができる。本出願の実施例において、コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能なプログラムコードが担持されたベースバンド又は搬送波の一部として伝播されるデータ信号を含んでもよい。このような伝播されたデータ信号は、多種の形式を採用することができ、電磁信号、光信号、又は上記の任意の適切な組み合わせを含むが、これらに限らない。コンピュータ読み取り可能な信号媒体は、さらにコンピュータ読み取り可能な記憶媒体以外のいかなるコンピュータ読み取り可能な媒体であってもよい。このコンピュータ読み取り可能な信号媒体は、指令実行システム、装置又はデバイスに使用されるか、或いはこれらと組み合わせて使用されるプログラムを送信、伝播又は伝送することができる。コンピュータ読み取り可能な媒体に含まれるプログラムコードは、いかなる好適な媒体によって伝送されることができ、例えば、電線、光テーブル、RF(Radio Frequency)、又は上記の任意の組み合わせを含むが、これらに限らない。
上記コンピュータ読み取り可能な媒体は、上記サーバに含まれてもよいし、上記サーバに装着されずに独立に存在してもよい。上記コンピュータ読み取り可能な媒体には、1つ又は複数のプログラムが搭載されており、上記1つ又は複数のプログラムが当該サーバによって実行されるとき、当該サーバに以下のような処理を行わせる。サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得する。初期品物番号付けモデルを取得する。トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を初期品物番号付けモデルの入力とし、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得る。得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得る。品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである。
本出願の実施例の動作を実行するためのコンピュータプログラムコードは、1つ又は複数のプログラミング言語又はその組み合わせでコーディングされる。前記プログラミング言語は、Java(登録商標)、Smalltalk、C++等のオブジェクト指向のプログラミング言語を含み、「C」言語などの従来の手続型プログラミング言語又は類似的なプログラミング言語をさらに含む。プログラムコードは、ユーザのコンピュータ上で全体的に、ユーザのコンピュータ上で部分的に、ユーザのコンピュータ上でスタンドアローン・ソフトウェア・パッケージとして実行されてもよい。ユーザのコンピュータ上で部分的に及び遠隔コンピュータ上で部分的に、又は遠隔コンピュータやサーバで全体的に実行されてもよい。遠隔コンピュータに関する場合、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)又はワイド・エリア・ネットワーク(WAN)を含む任意の種類のネットワークを通じて、ユーザのコンピュータに接続することができ、或いは外部コンピュータ(例えば、インターネット・サービス・プロバイダを利用してインターネットを通じて)に接続することもできる。
図面におけるフローチャート及びブロック図は、本出願の様々な実施例のシステム、方法及びコンピュータプログラム製品によって実現可能なシステム構成、機能及び動作を示す。フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント、又はコードの一部を表し、このモジュール、プログラムセグメント、又はコードの一部は、1つ又は複数の所定の論理機能を実現するための実行可能な指令を含む。なお、いくつかの代替の実現において、ブロックに記載された機能は、図面に記載された順序を外れて発生することがある。例えば、連続して示された2つのブロックが、実際には、ほぼ同時に実行されてもよいし、時には、その機能に応じて、逆の順番で実行されてもよい。なお、ブロック図及び/又はフローチャートにおける各ブロック、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行する、専用のハードウェアベースのシステムによって実現されてもよいし、或いは、専用のハードウェア及びコンピュータ指令の組み合わせによって実現されてもよい。
本出願の実施例に係る手段は、ソフトウェアによって実現されてもよいし、ハードウェアによって実現されてもよい。記述された手段は、プロセッサに設置してもよく、例えば、サンプル取得手段と、モデル取得手段と、生成手段と、トレーニング手段とを備えるプロセッサとして記述してもよい。これらの手段の名称は、ある場合において、その手段自身を限定するものではない。例えばモデル取得手段は、「初期品物番号付けモデルを取得する手段」として記述されてもよい。
以上の説明は、本出願の好ましい実施例及び運用技術の原理に対する説明である。本出願の実施例に係る発明の範囲は、上記技術的特徴の特定の組み合わせによる技術案に限るものではないことを、当業者は理解すべきである。また、上記発明の要旨を逸脱しない場合に、上記技術的特徴又はその均等の特徴によって任意に組み合わせて形成される他の技術案も含むべきである。例えば、上記特徴と本出願の実施例に開示された(但しこれに限らない)、類似の機能を有する技術的特徴とを、入れ替えて形成する技術案も含むべきである。

Claims (14)

  1. サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得するステップと、
    初期品物番号付けモデルを取得するステップと、
    前記トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、前記初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るステップと、
    得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、前記初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るステップと、を含み、
    前記品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである、
    品物番号付けモデルをトレーニングするための方法。
  2. 前記トレーニングサンプルセットを取得するステップは、
    サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報とを含む初期トレーニングサンプルの初期トレーニングサンプルセットを取得するステップと、
    前記初期トレーニングサンプルセットにおける初期トレーニングサンプルに対応するサンプル品物番号情報をランダムに生成するステップと、
    初期トレーニングサンプルとランダムに生成されたサンプル品物番号情報とを組み合わせて前記トレーニングサンプルセットにおけるトレーニングサンプルとするステップと、
    を含む、請求項1に記載の方法。
  3. 当該方法は、
    前記初期品物番号付けモデルの構造パラメータを調整する過程において、各サンプル品物情報と前記初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するステップと、
    特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するステップと、をさらに含み、
    前記関連度は、サンプル品物情報に対応する入力されたサンプルユーザ情報を前記初期品物番号付けモデルを経由させて得られた、少なくとも1つの品物番号情報の確率に基づいて特定されるものである、
    請求項1に記載の方法。
  4. 前記初期品物番号付けモデルの構造パラメータを調整する過程において、各サンプル品物情報と前記初期品物番号付けモデルが出力する各品物番号情報との関連度を特定するステップは、
    時系列的に順次に各バッチのトレーニングサンプルにおけるサンプル品物情報と対応の各品物番号情報との確率を特定してサブ関連度とするステップと、
    特定されたサブ関連度を融合して、各サンプル品物情報と各品物番号情報との関連度を生成するステップと、を含み、
    関連度に前記サブ関連度が占める比重の大きさは、現在時刻からトレーニング時刻の近接度合と一致する、
    請求項3に記載の方法。
  5. 前記特定された関連度に基づいて、サンプル品物情報とサンプル品物番号情報との対応関係を調整するステップは、
    所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整することを含み、
    前記ペナルティ関数は、品物番号情報に対応するサンプル品物の数と正の相関にある、
    請求項3に記載の方法。
  6. 前記サンプル品物情報は相応の優先度を有し、
    前記所定のペナルティ関数に基づいて、特定された関連度と一致する分布に従ってサンプル品物情報とサンプル品物番号情報との対応関係を調整することは、
    同一の品物番号情報に対応する数が所定の閾値よりも大きいと判定されたことに応答して、相応の優先度に基づいて同一の品物番号情報に対応するサンプル品物情報から目標数のサンプル品物情報を選択することと、
    特定された関連度に従って、選択された目標数のサンプル品物情報に対応するサンプル品物番号情報を改めて生成することと、
    を含む、請求項5に記載の方法。
  7. 前記サンプル品物番号情報に対応する番号付け空間は、第1数の層を備え、前記第1数の層における各層は、第2数の次元を備え、前記第1数は、前記第2数よりも小さい、
    請求項1乃至6のいずれか一項に記載の方法。
  8. 前記トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、前記初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るステップは、
    前記トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、前記初期品物番号付けモデルに入力して、入力されたサンプルユーザ情報に対応する少なくとも1つの品物番号情報の確率分布を得ることを含み、
    前記少なくとも1つの品物番号情報は、入力されたサンプルユーザ情報に対応するサンプル品物番号情報を含み、前記確率分布における確率は、番号付け空間の各層が出力するサブ確率に基づいて得られ、前記サブ確率は、サンプルユーザ情報及び上位層が出力する特徴ベクトルに基づいて得られる、
    請求項7に記載の方法。
  9. ユーザ情報を取得するステップと、
    前記ユーザ情報を、請求項1乃至8のいずれか一項に記載の方法によって予めトレーニングされた品物番号付けモデルに入力して、前記ユーザ情報に対応する品物番号情報を得るステップと、
    前記品物番号情報と前記ユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、前記ユーザ情報に対応するリコールされる品物情報を得るステップと、
    を含む、リコールされる品物情報を生成するための方法。
  10. 前記品物番号付けモデル及び前記ベクトルモデルは、品物番号情報に対応する特徴ベクトルに基づいて共同してトレーニングされる、
    請求項9に記載の方法。
  11. サンプルユーザ情報と、サンプルユーザ情報に対応するサンプル品物情報と、その対応のサンプル品物情報に対応するサンプル品物番号情報とを含むトレーニングサンプルのトレーニングサンプルセットを取得するように構成されるサンプル取得手段と、
    初期品物番号付けモデルを取得するように構成されるモデル取得手段と、
    前記トレーニングサンプルセットにおけるトレーニングサンプルのサンプルユーザ情報を、前記初期品物番号付けモデルの入力として、入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を得るように構成される生成手段と、
    得られた入力されたサンプルユーザ情報に対応するサンプル品物番号情報の確率を最大化し、前記初期品物番号付けモデルの構造パラメータを調整し、トレーニングを行って品物番号付けモデルを得るように構成されるトレーニング手段と、を備え、
    前記品物番号付けモデルは、入力されたサンプルユーザ情報とサンプル品物番号情報との対応関係及びサンプル品物情報とサンプル品物番号情報との対応関係を表すためのものである、
    品物番号付けモデルをトレーニングするための装置。
  12. ユーザ情報を取得するように構成される情報取得手段と、
    前記ユーザ情報を、請求項1乃至8のいずれか一項に記載の方法によって予めトレーニングされた品物番号付けモデルに入力して、前記ユーザ情報に対応する品物番号情報を得るように構成された番号付け手段と、
    前記品物番号情報と前記ユーザ情報とを、予めトレーニングされたベクトルモデルに入力して、前記ユーザ情報に対応するリコールされる品物情報を得るように構成されたリコール手段と、
    を備える、リコールされる品物情報を生成するための装置。
  13. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが記憶された記憶装置と、を備え、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行されると、前記1つ又は複数のプロセッサに請求項1乃至10のいずれか一項に記載の方法を実現させる、
    サーバ。
  14. プロセッサによって実行されると、請求項1乃至10のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶される、
    コンピュータ読み取り可能な媒体。
JP2022552768A 2020-06-30 2021-06-25 品物番号付けモデルをトレーニングするための方法及び装置 Pending JP2023516373A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010613628.4A CN111767953B (zh) 2020-06-30 2020-06-30 用于训练物品编码模型的方法和装置
CN202010613628.4 2020-06-30
PCT/CN2021/102486 WO2022001887A1 (zh) 2020-06-30 2021-06-25 用于训练物品编码模型的方法和装置

Publications (1)

Publication Number Publication Date
JP2023516373A true JP2023516373A (ja) 2023-04-19

Family

ID=72723101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022552768A Pending JP2023516373A (ja) 2020-06-30 2021-06-25 品物番号付けモデルをトレーニングするための方法及び装置

Country Status (5)

Country Link
US (1) US11763204B2 (ja)
EP (1) EP4083860A4 (ja)
JP (1) JP2023516373A (ja)
CN (1) CN111767953B (ja)
WO (1) WO2022001887A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7211157B2 (ja) * 2019-02-27 2023-01-24 日本電信電話株式会社 情報処理装置、関連付け方法および関連付けプログラム
CN111767953B (zh) 2020-06-30 2021-11-26 北京字节跳动网络技术有限公司 用于训练物品编码模型的方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029464A1 (en) * 2009-07-31 2011-02-03 Qiong Zhang Supplementing a trained model using incremental data in making item recommendations
JP2013164704A (ja) * 2012-02-10 2013-08-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016181196A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、情報処理方法およびプログラム
JP2019020980A (ja) * 2017-07-14 2019-02-07 ヤフー株式会社 推定装置、推定方法、推定プログラム、及びモデル
CN110969516A (zh) * 2019-12-25 2020-04-07 清华大学 一种商品推荐方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8407226B1 (en) * 2007-02-16 2013-03-26 Google Inc. Collaborative filtering
US10629303B2 (en) * 2010-09-01 2020-04-21 Apixio, Inc. Systems and methods for determination of patient true state for personalized medicine
CN105956093B (zh) * 2016-04-29 2019-04-30 浙江大学 一种基于多视图锚点图哈希技术的个性化推荐方法
CN107562787B (zh) * 2017-07-31 2020-11-13 北京三快在线科技有限公司 一种poi编码方法及装置、poi推荐方法,电子设备
CN108630190B (zh) * 2018-05-18 2019-12-10 百度在线网络技术(北京)有限公司 用于生成语音合成模型的方法和装置
CN111225009B (zh) * 2018-11-27 2023-06-27 北京沃东天骏信息技术有限公司 用于生成信息的方法和装置
CN109522486A (zh) * 2018-11-30 2019-03-26 北京字节跳动网络技术有限公司 用于匹配信息的方法和装置
CN110188449B (zh) * 2019-05-27 2020-12-04 山东大学 基于属性可解释的服装信息推荐方法、系统、介质及设备
CN110458638B (zh) * 2019-06-26 2023-08-15 平安科技(深圳)有限公司 一种商品推荐方法及装置
CN110555168B (zh) * 2019-08-22 2023-08-08 创新先进技术有限公司 信息推送的方法及装置
CN111767953B (zh) * 2020-06-30 2021-11-26 北京字节跳动网络技术有限公司 用于训练物品编码模型的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029464A1 (en) * 2009-07-31 2011-02-03 Qiong Zhang Supplementing a trained model using incremental data in making item recommendations
JP2013164704A (ja) * 2012-02-10 2013-08-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2016181196A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、情報処理方法およびプログラム
JP2019020980A (ja) * 2017-07-14 2019-02-07 ヤフー株式会社 推定装置、推定方法、推定プログラム、及びモデル
CN110969516A (zh) * 2019-12-25 2020-04-07 清华大学 一种商品推荐方法及装置

Also Published As

Publication number Publication date
CN111767953A (zh) 2020-10-13
EP4083860A4 (en) 2024-01-24
US20220366312A1 (en) 2022-11-17
EP4083860A1 (en) 2022-11-02
WO2022001887A1 (zh) 2022-01-06
US11763204B2 (en) 2023-09-19
CN111767953B (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
JP7009433B2 (ja) ニューラルネットワーク生成用の方法及び装置
CN108446374B (zh) 用户意图预测方法、装置、电子设备、存储介质
CN107861938B (zh) 一种poi文案生成方法及装置,电子设备
US10909606B2 (en) Real-time in-venue cognitive recommendations to user based on user behavior
KR20210040892A (ko) 융합 관계 네트워크에 기반한 정보 추천 방법, 장치, 전자 장비, 비 일시적 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램
CN111625645B (zh) 文本生成模型的训练方法、装置和电子设备
CN107291792A (zh) 用于确定相关实体的方法和系统
US11763204B2 (en) Method and apparatus for training item coding model
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
CN114036398B (zh) 内容推荐和排序模型训练方法、装置、设备以及存储介质
CN111738010B (zh) 用于生成语义匹配模型的方法和装置
CN111427493A (zh) 信息显示方法、装置、电子设备和计算机可读介质
CN111897950A (zh) 用于生成信息的方法和装置
CN110457325B (zh) 用于输出信息的方法和装置
CN110059172B (zh) 基于自然语言理解的推荐答案的方法和装置
CN114398973A (zh) 一种媒体内容标签识别方法、装置、设备及存储介质
CN111782933A (zh) 用于推荐书单的方法和装置
JP2022541832A (ja) 画像を検索するための方法及び装置
CN113486260B (zh) 互动信息的生成方法、装置、计算机设备及存储介质
CN110633476B (zh) 用于获取知识标注信息的方法及装置
CN116205686A (zh) 一种多媒体资源推荐的方法、装置、设备和存储介质
CN114970494A (zh) 一种评论生成方法、装置、电子设备和存储介质
JP7080609B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN112100507A (zh) 对象推荐的方法、计算设备和计算机可读存储介质
CN110688529A (zh) 用于检索视频的方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240423