JP7393060B2 - Personalized search method and search system combining attention mechanism - Google Patents

Personalized search method and search system combining attention mechanism Download PDF

Info

Publication number
JP7393060B2
JP7393060B2 JP2022578858A JP2022578858A JP7393060B2 JP 7393060 B2 JP7393060 B2 JP 7393060B2 JP 2022578858 A JP2022578858 A JP 2022578858A JP 2022578858 A JP2022578858 A JP 2022578858A JP 7393060 B2 JP7393060 B2 JP 7393060B2
Authority
JP
Japan
Prior art keywords
item
user
visible
layer
attention mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022578858A
Other languages
Japanese (ja)
Other versions
JP2023530370A (en
Inventor
琳 暴
英磊 宋
春 晋
志強 盖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Science and Technology
Original Assignee
Jiangsu University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Science and Technology filed Critical Jiangsu University of Science and Technology
Publication of JP2023530370A publication Critical patent/JP2023530370A/en
Application granted granted Critical
Publication of JP7393060B2 publication Critical patent/JP7393060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明はデータマイニングの技術分野に属し、具体的には、パーソナライズド検索方法及び検索システムに関する。 The present invention belongs to the technical field of data mining, and specifically relates to a personalized search method and search system.

ビッグデータ、クラウドコンピューティング、ユビキタスネットワーク等の技術の急速な発展に伴い、インターネットの規模及びユーザー数は急激に増加し、ユーザーは既にデータの能動的な創造者となり、大量のマルチソース異種ユーザー生成コンテンツが集まり、様々な情報が錯綜し且つ爆発的な増加を示している。ユーザー生成コンテンツは大量の動的に進化した複雑なマルチソース異種データを含み、ソース及び構造の多様化、スパース性、マルチモード、不完全性、社会的伝播等の特徴を有し、豊かな価値のある情報及び巨大なマイニング潜在力を秘めており、様々なインターネットプラットフォーム及びモバイルアプリケーション業者が情報を取得し、業績やサービスを向上させる重要なソースでもあり、典型的なビッグデータ環境となっている。しかしながら、これらの複雑なマルチソース異種ユーザー生成コンテンツはユーザーに新しい情報をもたらす一方、ユーザーが情報をフィルタリング、選別及び処理して最終的に決定を行う困難性の増加につながり、すなわち、「情報過負荷」の問題を引き起こしてしまう。パーソナライズド検索及び推薦アルゴリズムは、ユーザーと情報を結ぶ架け橋として、大量のマルチソース異種ユーザー生成データを十分に活用し、ユーザーの潜在的なニーズ及び認知の嗜好に応じてユーザーの行動及び発展動態を予測し、できるだけユーザーが大量の情報からユーザーのニーズ及び趣味嗜好に一致するコンテンツをフィルタリングすることを支援し、「情報過負荷」を効果的に軽減し、ユーザー体験及びウエブサイトプラットフォームの商業的利益を向上させることができる。 With the rapid development of big data, cloud computing, ubiquitous network and other technologies, the scale and number of users of the Internet have increased rapidly, and users have already become active creators of data, generating a large amount of multi-source heterogeneous users. Content is gathering, and various information is becoming complicated and increasing explosively. User-generated content contains a large amount of dynamically evolving, complex multi-source heterogeneous data, has characteristics such as source and structure diversification, sparsity, multi-mode, incompleteness, social propagation, etc., and has rich value. It has a large amount of information and huge mining potential, and is also an important source for various Internet platforms and mobile application companies to obtain information and improve their business performance and services, making it a typical big data environment. . However, while these complex multi-source heterogeneous user-generated contents bring new information to users, they also lead to increased difficulty for users to filter, sort and process information and ultimately make decisions, i.e., “information overload”. This will cause a load problem. Personalized search and recommendation algorithms, as a bridge between users and information, make full use of large amounts of multi-source heterogeneous user-generated data, and adjust user behavior and development dynamics according to users' latent needs and cognitive preferences. Anticipate and help users filter content that matches their needs and hobbies from a large amount of information as much as possible, effectively reducing "information overload" and improving the user experience and the commercial interests of the website platform. can be improved.

ユーザー生成コンテンツ向けのパーソナライズド検索タスクの本質は、マルチソース異種ユーザー生成データで構成される動的進化空間においてユーザーのニーズ及びパーソナライズド嗜好を満たす最適目標を探索することであり、すなわち、動的定性指標最適化問題である。この複雑な定性指標最適化問題は、その目的関数及び性能指標を数学関数で正確に記述できないだけでなく、その最適化問題の決定変数も単純な構造化データではなく、多くの場合、主観性、曖昧さ、不確実性及び不整合性が大きく、ユーザーは経験知識及び趣味嗜好に基づいて検索対象となるアイテムに対して定性分析、評価及び決定を行う必要があるため、特定の正確な数学モデルを構築して記述を行うことが困難である。近年、提案されている人間のインテリジェント評価を融合した対話型共進化計算は、ユーザーの主観的な認知経験、インテリジェント評価・決定及び従来の進化計算を組み合わせ、上記複雑なパーソナライズド検索の定性指標最適化問題を処理する効果的な方法である。 The essence of the personalized search task for user-generated content is to search for an optimal goal that satisfies users' needs and personalized preferences in a dynamic evolving space consisting of multi-source heterogeneous user-generated data, i.e., dynamic It is a qualitative index optimization problem. This complex qualitative index optimization problem not only cannot accurately describe its objective function and performance index with mathematical functions, but also the decision variables of the optimization problem are not simple structured data and are often subject to subjectivity. , since there is a large degree of ambiguity, uncertainty and inconsistency, and users need to perform qualitative analysis, evaluation and decisions on the items to be searched based on their experiential knowledge and hobbies and preferences, certain exact mathematics are not required. It is difficult to construct and describe a model. In recent years, an interactive co-evolutionary calculation that combines human intelligent evaluation has been proposed, which combines the user's subjective cognitive experience, intelligent evaluation/decision, and traditional evolutionary calculation to optimize the qualitative indicators for the above-mentioned complex personalized search. It is an effective way to handle the problem.

出願番号がCN2020102165574の中国特許は、制限付きボルツマンマシン駆動ベースの対話型パーソナライズド検索方法を開示しているが、ユーザーの趣味嗜好モデルの構築は異なるアイテム属性の決定変数がユーザー嗜好に対して異なる影響力を持つことを考慮せず、使用されるアイテムの決定変数に同じ重みを適用するため、ユーザー嗜好に対する各決定変数の影響を十分に反映できず、それによって、より正確なユーザー嗜好モデルの構築が困難であり、さらにユーザーによるパーソナライズド検索の効果を損なってしまう。 The Chinese patent with application number CN2020102165574 discloses a restricted Boltzmann machine-driven based interactive personalized search method, in which the construction of a user's taste preference model is such that the decision variables of different item attributes are different for user preferences. Because it applies the same weight to the decision variables of the used items without considering their influence, the influence of each decision variable on user preferences cannot be fully reflected, thereby creating a more accurate user preference model. They are difficult to construct and further reduce the effectiveness of personalized searches for users.

発明の目的について、従来技術に存在する問題に対して、本発明は注意メカニズムを融合したパーソナライズド検索方法及び検索システムを提供し、検索方法は異なる決定成分がユーザー嗜好に対して異なる影響力を持つことを考慮することで、ユーザーがパーソナライズド検索をより効果的に行うことを支援できる。 Regarding the purpose of the invention, to address the problems existing in the prior art, the present invention provides a personalized search method and search system that integrates an attention mechanism, and the search method is designed so that different determining components have different influences on user preferences. By considering what you have, you can help users conduct personalized searches more effectively.

技術的解決手段について、本発明の一態様によれば、注意メカニズムを融合したパーソナライズド検索方法を開示し、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザー生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,x,C,T,G)}であり、ここで、x∈Dであり、Cはアイテムxのカテゴリラベルベクトルであり、Tはアイテムxに対するユーザーのテキストコメントのベクトル化表現であり、Gはアイテムxの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目のRBMを構成し、hは可視層として隠れ層hとともに3層目のRBMを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であり、
優位アイテムグループDを使用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目のRBMを訓練し、そのモデルパラメータθ={w,a,b}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxのベクトル表現[C,T,G]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ

であり、ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
であり、
テキストコメントベクトルの情報エントロピーは、
であり、
アイテム画像特徴ベクトルの情報エントロピーは、
であり、
ここで、cijはアイテムxのカテゴリラベルベクトルCのj番目の要素を表し、pij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
ikはアイテムxに対するユーザーuのテキストコメントのベクトル化表現Tのk番目の要素を表し、pik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
ilは、アイテムxの画像特徴のベクトル化表現Gのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ここで、H(x)=H(C)+H(T)+H(G)であり、
ベクトルC、T、Gを組み合わせてアイテムxの決定ベクトルΨを構成してv、v、vにおける各可視ユニットに入力すると、隠れ層hにおける各隠れユニットの活性化状態は条件付き独立であり、m番目の隠れユニットの活性化確率は、
であり、
ここで、m=1,2,・・・,Mであり、
はhにおけるm番目の隠れユニットのバイアスであり、v1jはRMB1の第1組の可視ユニットvにおけるj番目の可視ユニットの状態であり、v2kはRMB1の第2組の可視ユニットvにおけるk番目の可視ユニットの状態であり、v3lはRMB1の第3組の可視ユニットvにおけるl番目の可視ユニットの状態であり、
はwにおける要素値であり、RBM1におけるn番目の可視ユニットとm番目の隠れユニットとの間の接続重みを表し、n=1,2,・・・,Φであり、
は隠れ層hにおけるm番目の隠れユニットの状態を表し、
はsigmoid活性化関数であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数at(x)として取得し、
ここで、
はΨがRBM1の可視層の各可視ユニットの状態とする場合、隠れ層hにおけるm番目の隠れユニットの状態を表し、at(x)はアイテムxの各決定成分ψinの注意重みを表し、
注意重み係数at(x)をアイテムxの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
atiを事前訓練後のRBM1に入力して可視ユニットの活性化確率VRBM1(xati)を得て、
ここで、
はxatiのn’番目の要素であり、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ここで、softmax()関数はすべての重み係数の和が1であることを確保し、関数a(VRBM1(xati),w)はユーザー嗜好特徴に対するアイテムxの注意重み係数を測定し、計算は
であり、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxの元の決定ベクトルC,T,Gとを組み合わせて、注意メカニズムを融合したアイテム決定ベクトルを生成し、
注意メカニズムを融合したアイテム決定ベクトル
で訓練セットを構成し、DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練し、訓練が完了した後、注意メカニズムを融合するDBNベースのユーザー嗜好感知モデル及びその最適化モデルパラメータθを取得するステップ3と、
訓練済みの注意メカニズムを融合したDBNベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、N個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(v=1,2,・・・,N)の設定ステップは、
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψ=1)である場合、v番目の新個体のカテゴリラベルベクトル
のj番目の要素は1であり、そうでない場合、0であり、
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
の類似度と最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成するステップ6と、
推薦対象アイテムセットSにおける各アイテムの適応値
を計算し、
ここで、
及び
はそれぞれ推薦対象アイテムセットSにおけるアイテムのエネルギー関数の最大値及び最小値を表し、
はアイテムxのエネルギー関数であり、x∈Sであり、その計算は、
であり、
ここで、
はアイテムxのn番目の決定成分であるステップ7と、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する。
Regarding the technical solution, according to one aspect of the present invention, a personalized search method integrated with an attention mechanism is disclosed,
Collect and retrieve user-generated content including all items that user u has rated, scores and text comments for each item, images for each item, and other users' usefulness evaluation scores for user u's ratings, and text comments. Step 1 of vectorizing the item image, extracting features from the item image, and obtaining the eigenvector;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is a visible layer that includes a second layer RBM together with a hidden layer h 2 . The parameters of the user preference sensing model that combines the above attention mechanisms are θ={θ 1 , θ 2 , θ 3 }={ w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first layer RBM in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and set the model parameters θ 1 = {w 1 , a 1 , b 1 } get
After the training of the first layer RBM model is completed, given the state of the hidden unit, the activation state of each visible unit is conditionally independent, and the vector representation of some item x i [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first set, second set, and third set of visible units are respectively

, where a 1,j , a 1,k and a 1,l represent the biases of the first, second and third sets of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
and
The information entropy of the text comment vector is
and
The information entropy of the item image feature vector is
and
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
Here, H(x i )=H(C i )+H(T i )+H(G i ),
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
and
Here, m 1 =1, 2,..., M 1 ,
is the bias of the m -th hidden unit in h 1 , v 1j is the state of the j-th visible unit in the first set of visible units v 1 of RMB1, and v 2k is the state of the j-th visible unit in the second set of visible units of RMB1. v 2 is the state of the k-th visible unit, v 3l is the state of the l-th visible unit in the third set of visible units v 3 of RMB1,
is the element value in w 1 and represents the connection weight between the nth visible unit and m 1st hidden unit in RBM1, where n = 1, 2, ..., Φ,
represents the state of the m - th hidden unit in the hidden layer h1 ,
is the sigmoid activation function,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
here,
If Ψ i is the state of each visible unit in the visible layer of RBM1, represents the state of the m i -th hidden unit in the hidden layer h i , and at n (x i ) is each determinant component ψ in of item x i represents the attention weight of
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
x ati is input to RBM1 after pre-training to obtain the activation probability V RBM1 (x ati ) of the visible unit,
here,
is the n'th element of x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Here, the softmax() function ensures that the sum of all weighting coefficients is 1, and the function a(V RBM1 (x ati ), w 1 ) measures the attention weighting coefficient of item x i with respect to user preference features. And the calculation is
and
Combining the user preference attention weight vector A(x ati ) and the original decision vector C i , T i , G i of item x i to generate an item decision vector that fuses the attention mechanism;
Item decision vector fused with attention mechanism
construct a training set, train the RBM1, RBM2, and RBM3 models in the DBN layer by layer, and after the training is completed, obtain the DBN-based user preference sensing model that fuses the attention mechanism and its optimization model parameters θ. Step 3 and
Build a user preference-based distribution estimation probability model P(x) based on the DBN-based user preference sensing model fused with the trained attention mechanism and its model parameters;
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, use the user preference-based distribution estimation probability model P(x), and adopt the distribution estimation algorithm to generate N new individuals, each individual with one item. Yes, the category label vector of the vth new individual
The setting step for (v=1, 2,...,N) is
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
The jth element of is 1, otherwise 0,
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
Step 6 of selecting the N items with the highest similarity to constitute a recommendation target item set S u ;
Adaptation value of each item in the recommendation target item set S u
Calculate,
here,
as well as
respectively represent the maximum value and minimum value of the energy function of the item in the recommendation target item set S u ,
is the energy function of item x * , x * ∈S u , and its calculation is
and
here,
is the nth determining component of item x * , step 7;
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of the user's interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of the current user, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updates the extracted user preference features, and at the same time updates the user preference-based distribution estimation probability model P(x).

別の態様によれば、本発明は上記パーソナライズド検索方法を実現する検索システムをさらに開示し、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーuの生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体のカテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成する推薦対象アイテムセット構築モジュールと、
推薦対象アイテムセットSにおける各アイテムの適応値を計算する適応値計算モジュールと、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む。
According to another aspect, the present invention further discloses a search system that implements the personalized search method,
Collecting and retrieving content generated by user u, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings; a user-generated content acquisition module that vectorizes text comments, performs feature extraction on item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
Category label vector of N new individuals in search space
a recommendation target item set construction module that selects N items having the highest degree of similarity to constitute a recommendation target item set S u ;
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.

有益な効果について、本発明に開示されているパーソナライズド検索方法は、ユーザースコア、アイテムカテゴリラベル、ユーザーテキストコメント、評価信頼度及びアイテム画像情報を含むマルチソース異種ユーザー生成コンテンツを十分に活用し、注意メカニズムを融合したユーザー嗜好感知モデルを構築し、このユーザー嗜好感知モデルに基づいて、ユーザー嗜好ベースの分布推定確率モデルを構築し、ユーザー嗜好を含む新しい実行可能解アイテムを生成し、適応値が最も高い複数のアイテムを最終検索結果として選択する。該方法は、ビッグデータ環境におけるマルチソース異種ユーザー生成コンテンツ向けのパーソナライズド検索タスクをよく処理でき、ユーザーがパーソナライズド検索を行うように効果的にガイドし、ユーザーができるだけ早く満足の行く解を検索することを支援し、パーソナライズド検索アルゴリズムの総合的性能を向上させる。 For beneficial effects, the personalized search method disclosed in the present invention makes full use of multi-source heterogeneous user-generated content including user scores, item category labels, user text comments, rating reliability and item image information; Build a user preference sensing model that fuses the attention mechanism, and based on this user preference sensing model, build a user preference-based distribution estimation probability model, generate a new executable solution item that includes user preferences, and calculate the adaptive value. Select the highest multiple items as the final search result. The method can well handle the personalized search task for multi-source heterogeneous user-generated content in big data environment, effectively guide users to perform personalized searches, and help users search for satisfactory solutions as soon as possible. improve the overall performance of personalized search algorithms.

図1は本発明に開示されている注意メカニズムを融合したパーソナライズド検索方法のフローチャートである。FIG. 1 is a flowchart of the personalized search method integrated with the attention mechanism disclosed in the present invention. 図2は注意メカニズムを融合したユーザー嗜好感知モデルの構造模式図である。Figure 2 is a schematic structural diagram of a user preference sensing model that combines attention mechanisms. 図3は注意メカニズムを融合したパーソナライズド検索システムの構成模式図である。FIG. 3 is a schematic diagram of the configuration of a personalized search system that combines an attention mechanism.

以下、図面及び特定の実施形態を参照しながら本発明をさらに説明する。 The invention will now be further described with reference to the drawings and specific embodiments.

図1に示すように、本発明は注意メカニズムを融合したパーソナライズド検索方法を開示し、以下のステップ1~8を含む。 As shown in FIG. 1, the present invention discloses a personalized search method integrated with an attention mechanism, which includes the following steps 1-8.

ステップ1では、ユーザー生成コンテンツを収集して取得し、前記ユーザー生成コンテンツはユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、お及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含み、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得し、
本実施例では、テキストコメントのベクトル化表現のステップは、テキストコメントにおけるストップワード及び句読点等を除去し、データ前処理を行い、文献Devlin J, Chang M W, Lee K, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [J]. arXiv:1810.04805v2 [cs.CL] 24 May 2019.におけるBERTモデルを使用して、ユーザーテキストコメントに対してベクトル化表現を行うことである。
In step 1, user-generated content is collected and obtained, the user-generated content includes all items rated by user u, scores and text comments for each item, images of each item, and other information for user u's ratings. Contains the user's usefulness evaluation score, vectorizes the text comment, performs feature extraction on the item image, and obtains the eigenvector.
In this embodiment, the step of vectorized representation of text comments involves removing stop words, punctuation marks, etc. in text comments, performing data preprocessing, and performing data preprocessing as described in the literature Devlin J, Chang M W, Lee K, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [J]. arXiv:1810.04805v2 [cs. CL] 24 May 2019. The first step is to perform a vectorized representation on user text comments using the BERT model.

アイテム画像の特徴抽出は、文献Krizhevsky A, SutskeverI, Hinton G E. Image Net classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA:Curran Associates Inc., 2012. 1097-1105.におけるAlexNetモデルを使用して、アイテム画像に対して特徴抽出及びベクトル化表現を行う。 Feature extraction of item images is described in the literature Krizhevsky A, Sutskever I, Hinton G E. Image Net classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: Curran Associates Inc. , 2012. 1097-1105. Feature extraction and vectorization expression are performed on item images using the AlexNet model.

ユーザーuの評価に対するほかのユーザーの有用性評価とは、ほかのユーザーがあるアイテムに対する現在のユーザーuの評価情報に対して有用性評価を行うことであり、有用であると判定する場合、1でマークし、そうでない場合、0でマークし、すべてのほかのユーザーがあるアイテムに対する現在のユーザーuの評価情報に対して行う評価を統計し、1でマークされるものの総数がユーザーuの評価に対するほかのユーザーの有用性評価スコアである。例えば、現在のユーザーuがアイテムxに対して評価を行い、ユーザーA及びユーザーBは該評価に対して有用性評価を行い、該評価はアイテムxに対する現在のユーザーの評価の信頼度を反映し、すべてのほかのユーザーがアイテムxに対する現在のユーザーuの評価に対して行う有用性評価を統計することで、無効な評価又は偽のコメントをフィルタリングできる。 Another user's usefulness evaluation of user u's evaluation means that other users evaluate the usefulness of user u's current evaluation information for a certain item, and when it is determined that it is useful, 1 If not, mark it with 0, and calculate the ratings that all other users give to the current user u's rating information for a certain item, and the total number of items marked with 1 is the user u's rating. This is the usefulness rating score of other users. For example, current user u makes a rating for item x, user A and user B give a usefulness rating for the rating, and the rating reflects the reliability of the current user's rating for item x. , invalid ratings or fake comments can be filtered by statistics on the usefulness ratings that all other users give to the current user u's ratings for item x.

ユーザーuの評価に対するほかのユーザーの有用性評価スコアとユーザーuが評価するアイテムの総数との比は、アイテムに対するユーザーuの評価の信頼度である。 The ratio of the usefulness evaluation score of other users to the user u's evaluation and the total number of items evaluated by the user u is the reliability of the user u's evaluation of the item.

ステップ2では、ユーザー嗜好の優位アイテムグループDを構築し、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムはユーザー嗜好アイテムである。ユーザーの嗜好が曖昧さ、不確実性及び動的変化の特性を有するため、本実施例は既存のユーザー嗜好アイテムグループに一定のランダム性を導入することでユーザーの選択範囲を拡大し、それによりユーザーの選択は現在の嗜好情報の範囲内に過度に制限されることなく、実際の環境及びユーザー嗜好の動的変化に適応できる。それによって、スコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテム、及び検索空間においてランダムにサンプリングされる複数の新アイテムで優位アイテムグループDを構成する。優位アイテムグループDに追加される新アイテムはユーザー嗜好を含む可能性もあれば、ユーザー嗜好を含まない可能性もあり、ランダムなものであり、アイテムグループの多様性を高める。優位アイテムグループDに対する新アイテムの割合は30%以下であり、本実施例では、新アイテムは優位アイテムグループDのアイテムの総数の10%を占める。
In step 2, construct a superior item group D of user preferences,
An item whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold is a user preference item. Since user preferences have the characteristics of ambiguity, uncertainty and dynamic change, this embodiment expands the user selection range by introducing a certain randomness into the existing user preference item groups, thereby User choices are not unduly restricted within current preference information and can adapt to dynamic changes in the actual environment and user preferences. As a result, a dominant item group D is composed of items whose scores are larger than a predetermined score threshold and whose reliability is larger than a predetermined reliability threshold, and a plurality of new items randomly sampled in the search space. New items added to the superior item group D may or may not include user preferences, and are random, increasing the diversity of the item group. The ratio of new items to the dominant item group D is 30% or less, and in this embodiment, the new items account for 10% of the total number of items in the dominant item group D.

新アイテムは検索空間においてランダムにサンプリングされるため、現在のユーザーuはそれを評価した可能性もあれば、評価していない可能性もある。現在のユーザーuが新アイテムを評価していない場合、現在のユーザーuの類似ユーザーu’が該新アイテムに対して行ったテキストコメントを該新アイテムに対するユーザーuの評価として使用し、ユーザーuの複数の類似ユーザーがいずれも該新アイテムを評価した場合、ユーザーuとの類似度が最も大きいユーザーの評価を選択する。現在のユーザーuの類似ユーザーがいずれも該新アイテムを評価していない場合、該新アイテムに対するユーザーuの評価はランダムに値を割り当てる方式を使用する。 Since the new item is randomly sampled in the search space, the current user u may or may not have rated it. If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as the user u's rating for the new item, and If a plurality of similar users have all evaluated the new item, the evaluation of the user with the greatest degree of similarity to user u is selected. If none of the users similar to the current user u have rated the new item, user u's evaluation of the new item uses a method of randomly assigning values.

ユーザーuの類似ユーザーは、ユーザーuと共通のスコアアイテムを有し且つ類似度が所定の類似度閾値よりも大きいユーザーである。ユーザーuと共通のスコアアイテムを有するユーザーu’について、u’≠uであり、uとu’との類似度Sim(u,u’)は、
であり、
ここで、
はユーザーu及びu’がいずれも評価したアイテムセットを表し、

におけるアイテムx’に対するユーザーuのスコアであり、
はx’に対するユーザーu’のスコアであり、
はユーザーuが評価したすべてのアイテムの平均スコアであり、
はユーザーu’が評価したすべてのアイテムの平均スコアである。
A user similar to user u is a user who has a common score item with user u and whose degree of similarity is greater than a predetermined similarity threshold. For user u' who has the same score item as user u, u'≠u, and the similarity Sim(u, u') between u and u' is
and
here,
represents the item set that both users u and u' evaluated,
teeth
is user u's score for item x' in
is the score of user u' for x',
is the average score of all items rated by user u,
is the average score of all items rated by user u'.

優位アイテムグループDでセットSを構成し、S={(u,x,C,T,G)}であり、x∈Dであり、Cはアイテムxのカテゴリラベルベクトルであり、長さがカテゴリの総数nであり、Cにおける各要素cijは二値変数であり、cij=1はアイテムxがj種のラベルを有することを表し、j=1,2,・・・,nであり、且つ異なるカテゴリラベル同士は非相互排他的であり、1つのアイテムには複数のカテゴリラベルが同時に存在し得る。Tはアイテムxに対するユーザーのテキストコメントのベクトル化表現であり、長さがnであり、Gはアイテムxの画像特徴のベクトル化表現であり、長さがnであり、i=1,2,L,|D|であり、|D|はDにおけるアイテム数を表す。 Dominant item group D constitutes set S, S={(u, x i , C i , T i , G i )}, x i ∈D, and C i is the category label vector of item x i , the length is the total number of categories n i , each element c ij in C i is a binary variable, c ij =1 represents that the item x i has j types of labels, and j = 1 , 2 , . T i is a vectorized representation of the user's text comment for item x i and has length n 2 ; G i is a vectorized representation of the image features of item x i and has length n 3 ; i=1, 2, L, |D|, where |D| represents the number of items in D.

ベクトルC、T、Gを組み合わせて長さがΦのベクトルΨを形成し、アイテムxの元の決定ベクトルを構成し、その各要素Ψinはアイテムxの決定成分であり、Φ=n+n+n,n=1,2,・・・,Φである。 Vectors C i , T i , G i are combined to form a vector Ψ i of length Φ and constitute the original decision vector of item x i , each element Ψ in of which is a decision component of item x i . , Φ=n 1 +n 2 +n 3 , n=1, 2, . . . , Φ.

ステップ3では、注意メカニズムを融合したユーザー嗜好感知モデルを構築し、図2に示すように、該モデルは深層信念ネットワーク(Deep Belief Network、DBN)に基づいて3層の制限付きボルツマンマシン(Restricted Boltzmann Machine、RBM)から構成され、1層目の制限付きボルツマンマシンRBM1の可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、第1組の可視ユニットvはn個のユニットを有し、各ユニットは二値変数であり、第2組及び第3組の可視ユニットv及びvはそれぞれn及びn個のユニットを有し、各ユニットはいずれも実数変数であり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンRBM2を構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンRBM3を構成する。h、h、及びhはそれぞれM、M及びM個の隠れユニットを有し、各隠れユニットはいずれも実数変数であり、各RBMについて、隠れユニットの数は可視ユニットの総数の0.8~1.2倍から選択され、本実施例では、0.8倍に設定される。それによって、hにおける隠れユニットの数Mは、M=┌0.8*Φ┐であり、Φn+n+nであり、┌g┐は切り上げ演算であり、hにおける隠れユニットの数Mは、M=┌0.8*M┐であり、hにおける隠れユニットの数Mは、M=┌0.8*M┐である。注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であり、ここで、{w,a,b}、{w,a,b}及び{w,a,b}はそれぞれRBM1、RBM2、及びRBM3のモデルパラメータを表し、wτはτ層目のRBM可視ユニットと隠れユニットとの間の接続重みを表し、aτ及びbτそれぞれはτ層目のRBM可視ユニット及び隠れユニットのバイアスを表し、τ∈{1,2,3}である。 In step 3, a user preference sensing model that combines the attention mechanism is constructed, and as shown in Figure 2, the model is a three-layer Restricted Boltzmann machine based on a deep belief network (DBN). Machine, RBM), and the visible layer of the first layer restricted Boltzmann machine RBM1 includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , The hidden layer is h 1 , the first set of visible units v 1 has n 1 units, each unit is a binary variable, and the second and third sets of visible units v 2 and v 3 have n 2 and n 3 units, respectively, each unit is a real variable, h 1 constitutes the second layer restricted Boltzmann machine RBM2 together with the hidden layer h 2 as the visible layer, and h 2 constitutes the third layer restricted Boltzmann machine RBM3 together with the hidden layer h3 as a visible layer. h 1 , h 2 and h 3 each have M 1 , M 2 and M 3 hidden units, each hidden unit is a real variable, and for each RBM, the number of hidden units is equal to the number of visible units. It is selected from 0.8 to 1.2 times the total number, and in this embodiment, it is set to 0.8 times. Thereby, the number M 1 of hidden units in h 1 is M 1 =┌0.8*Φ┐, Φn 1 +n 2 +n 3 , ┌g┐ is the round-up operation, and the hidden units in h 2 The number M 2 of hidden units in h 3 is M 2 =┌0.8*M 1 ┐, and the number M 3 of hidden units in h 3 is M 3 =┌0.8*M 2 ┐. The parameters of the user preference sensing model that combines the attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 }, where {w 1 , a 1 , b 1 }, {w 2 , a 2 , b 2 } and {w 3 , a 3 , b 3 } are RBM1, RBM2, and RBM3, respectively. represents the model parameters, w τ represents the connection weight between the τ-th RBM visible unit and hidden unit, a τ and b τ represent the bias of the τ-th RBM visible unit and hidden unit, respectively, and τ ∈{1, 2, 3}.

優位アイテムグループDを使用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンRBM1を訓練し、そのモデルパラメータθ={w,a,b}を取得する。このステップでは、RBM1のみを訓練することは、RBM1の事前訓練とみなされてもよく、後続のステップでは、RBM1、RBM2、RBM3を再度層ごとに訓練する。アイテムxの決定ベクトルΨはC、T、及びGを組み合わせてなり、C、T、及びGに含まれるユーザー嗜好情報は異なり、例えば、カテゴリラベルベクトルCの長さnは通常アイテムの画像特徴のベクトル化表現Gの長さn未満であり、アイテムの決定ベクトルにおける各成分を平等に取り扱うと、多い情報量を含むデータは少ない嗜好情報を含むデータを埋没させ、このような少ない嗜好情報を含むデータはユーザー嗜好感知モデルの構築に対して有益な補充であり、無視できない。したがって、本発明は、各データタイプで表される情報エントロピーと組み合わせて、重みを利用してユーザー嗜好感知モデルの可視層のニューラルユニットに入力される様々なマルチソース異種データの成分を調整することを考慮することで、様々なタイプのデータがユーザー嗜好感知モデルの構築に効果的に貢献できることを確保する。 Using the dominant item group D, train the first-layer restricted Boltzmann machine RBM1 in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and calculate its model parameters θ 1 = {w 1 , a 1 , b 1 }. In this step, training only RBM1 may be considered as pre-training of RBM1, and in subsequent steps, RBM1, RBM2, RBM3 are trained layer by layer again. The decision vector Ψ i of item x 1 is a combination of C i , T i , and G i , and the user preference information contained in C i , T i , and G i is different, for example, the length of the category label vector C i s n i is usually the length n of the vectorized representation G i of the item's image feature. If each component in the item's decision vector is treated equally, data containing a large amount of information will be compared to data containing a small amount of preference information. Data containing such little preference information is a useful addition to the construction of a user preference sensing model and cannot be ignored. Therefore, the present invention utilizes weights to adjust the components of various multi-source heterogeneous data input to the neural unit of the visible layer of the user preference sensing model, in combination with the information entropy represented by each data type. ensuring that different types of data can effectively contribute to building user preference sensing models.

1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxのベクトル表現[C,T,G]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
であり、ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、a1,j、a1,k及びa1,lを組み合わせてaを形成し、j=1,2,・・・,n,k=1,2,・・・,n,l=1,2,・・・,nである。
After the training of the first layer RBM model is completed, given the state of hidden units, the activation state of each visible unit is conditionally independent, and the vector representation of some item x 1 [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first set, second set, and third set of visible units are respectively
, where a 1,j , a 1,k and a 1,l represent the biases of the first, second and third sets of visible units, respectively, and a 1,j , a 1,k and a 1,l are combined to form a 1 , j=1,2,..., n1 ,k=1,2,..., n2 ,l=1,2,..., It is n3 .

情報エントロピーの式
に従って様々なマルチソース異種データの情報エントロピーを計算し、
アイテムカテゴリラベルの情報エントロピーは、
であり、
テキストコメントベクトルの情報エントロピーは、
であり、
アイテム画像特徴ベクトルの情報エントロピーは、
であり、
ここで、cijはアイテムxのカテゴリラベルベクトルCのj番目の要素を表し、pij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
ikはアイテムxに対するユーザーuのテキストコメントのベクトル化表現Tのk番目の要素を表し、pik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
ilは、アイテムxの画像特徴のベクトル化表現Gのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、さらに、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ここで、H(x)=H(C)+H(T)+H(G)であり、
可視ユニットの状態が与えられ、すなわち、ベクトルC、T、Gを組み合わせてアイテムxの決定ベクトルΨを構成してv、v、vにおける各可視ユニットに入力すると、隠れ層hにおける各隠れユニットの活性化状態は条件付き独立であり、m番目の隠れユニットの活性化確率は、
であり、
ここで、m=1,2,・・・,Mであり、
はhにおけるm番目の隠れユニットのバイアスであり、v1jはRMB1の第1組の可視ユニットvにおけるj番目の可視ユニットの状態であり、すなわちCのj番目の要素の値であり、v2kはRMB1の第2組の可視ユニットvにおけるk番目の可視ユニットの状態であり、すなわちTiのk番目の要素の値であり、v3lはRMB1の第3組の可視ユニットvにおけるl番目の可視ユニットの状態であり、すなわちGのl番目の要素の値であり、
はwにおける要素値であり、RBM1におけるn番目の可視ユニットとm番目の隠れユニットとの間の接続重みを表し、n=1,2,・・・,Φであり、
は隠れ層hにけるm番目の隠れユニットの状態を表し、
はsigmoid活性化関数である。
Information entropy formula
Compute the information entropy of various multi-source heterogeneous data according to
The information entropy of the item category label is
and
The information entropy of the text comment vector is
and
The information entropy of the item image feature vector is
and
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, further calculate the ratio of various information entropies to the total information entropy as a weighting factor,
Here, H(x i )=H(C i )+H(T i )+H(G i ),
Given the states of the visible units, i.e., combining the vectors C i , T i , G i to form the decision vector Ψ i of item x i to input each visible unit in v 1 , v 2 , v 3 , The activation state of each hidden unit in the hidden layer h1 is conditionally independent, and the activation probability of the m1th hidden unit is
and
Here, m 1 =1, 2,..., M 1 ,
is the bias of the m -th hidden unit in h 1 , and v 1j is the state of the j-th visible unit in the first set of visible units v 1 of RMB1, i.e., the value of the j-th element of C i . , v 2k is the state of the k-th visible unit in the second set of visible units v 2 of RMB1, i.e. the value of the k-th element of T i , and v 3l is the state of the k-th visible unit in the second set of visible units v 2 of RMB1; v is the state of the l-th visible unit at 3 , i.e. the value of the l-th element of G i ,
is the element value in w 1 and represents the connection weight between the nth visible unit and m 1st hidden unit in RBM1, where n = 1, 2, ..., Φ,
represents the state of the m - th hidden unit in the hidden layer h1 ,
is the sigmoid activation function.

隠れユニットの状態が与えられると、各可視ユニットの活性化状態も条件付き独立であり、n番目の可視ユニットの活性化確率は、
であり、
ここで、a1,nは可視層におけるn番目の可視ユニットのバイアスを表す。
Given the state of the hidden unit, the activation state of each visible unit is also conditionally independent, and the activation probability of the nth visible unit is
and
Here, a 1,n represents the bias of the nth visible unit in the visible layer.

RBM1の訓練が完了した後、式(5)に従ってアイテムxに対応する各隠れユニットの状態を取得でき、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数at(x)として取得でき、
ここで、
はΨがRBM1の可視層の各可視ユニットの状態とする場合、隠れ層hにおけるm番目の隠れユニットの状態を表し、at(x)はアイテムxの各決定成分ψinの注意重みを表し、自己適応の特性を反映する。
After the training of RBM1 is completed, the state of each hidden unit corresponding to item The activation probability of a unit can be obtained as an attention weighting coefficient at n (x i ),
here,
When Ψ i is the state of each visible unit in the visible layer of RBM1, represents the state of the m i -th hidden unit in the hidden layer h i , and at n (x i ) is each determinant component ψ in of item x i represents the attentional weight of , and reflects the characteristics of self-adaptation.

注意重み係数at(x)をアイテムxの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
ここで、i=1,2,L,|D|であり、
atiを事前訓練後のRBM1に入力して可視ユニットの活性化確率VRBM1(xati)を得て、

ここで、
はxatiのn’番目の要素である。
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
Here, i=1, 2, L, |D|,
x ati is input to RBM1 after pre-training to obtain the activation probability V RBM1 (x ati ) of the visible unit,

here,
is the n'th element of x ati .

式(9)は実際に隠れユニットの活性化確率と可視ユニットの活性化確率とを入れ子にし、すなわち、
であり、
取得されたRBM1モデルにおける可視ユニットの活性化確率VRBM1(xati)及び文献Li J , Wang Y , Mcauley J . Time Interval Aware Self-Attention for Sequential Recommendation. In: WSDM ‘20: The Thirteenth ACM International Conference on Web Search and Data Mining. ACM, 2020.に提供されていた自己注意メカニズムを利用して、RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ここで、softmax()関数はすべての重み係数の和が1であることを確保する。関数a(VRBM1(xati),w)はユーザー嗜好特徴に対するアイテムxの注意重み係数を測定し、計算は、
であり、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxの元の決定ベクトルC,T,Gとを組み合わせて、注意メカニズムを融合したアイテム決定ベクトルを生成し、
注意メカニズムを融合したアイテム決定ベクトル
で訓練セットを構成し、DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練し、まず、RBM1を訓練し、パラメータ{w,a,b}を得て、bをRBM2におけるaに伝達した上で、RBM2を訓練し、最適化パラメータ{w,a,b}を得て、bをRBM3におけるaに伝達した上でRBM3を訓練し、最適化パラメータ{w,a,b}を取得し、それによってDBNネットワークにおける3層のRBMモデルの相互影響、相互関連付けを実現してネットワーク全体を形成する。訓練が完了した後、注意メカニズムを融合したDBNベースのユーザー嗜好感知モデル及びその最適化モデルパラメータθを取得する。
Equation (9) actually nests the activation probabilities of hidden units and visible units, i.e.,
and
The activation probability V RBM1 (x ati ) of the visible unit in the obtained RBM1 model and the literature Li J, Wang Y, Mcauley J. Time Interval Aware Self-Attention for Sequential Recommendation. In: WSDM '20: The Thirteenth ACM International Conference on Web Search and Data Mining. ACM, 2020. Using the self - attention mechanism provided in learn from
Here, the softmax() function ensures that the sum of all weighting factors is one. The function a(V RBM1 (x ati ), w 1 ) measures the attention weighting coefficient of item x i with respect to user preference features, and the calculation is
and
Combining the user preference attention weight vector A(x ati ) and the original decision vector C i , T i , G i of item x i to generate an item decision vector that fuses the attention mechanism;
Item decision vector fused with attention mechanism
Construct a training set, and train RBM1, RBM2, and RBM3 models in DBN layer by layer. First, train RBM1, obtain parameters {w 1 , a 1 , b 1 }, and set b 1 to a in RBM2. 2 , train RBM2, obtain the optimization parameters {w 2 , a 2 , b 2 }, transfer b 2 to a 3 in RBM3, train RBM3, and obtain the optimization parameters { w 3 , a 3 , b 3 }, thereby realizing the mutual influence and mutual association of the three-layer RBM model in the DBN network to form the entire network. After the training is completed, the DBN-based user preference sensing model fused with the attention mechanism and its optimization model parameters θ are obtained.

ここでのDBNのモデル訓練方法は改良された注意メカニズムベースのDBNモデル訓練方法であり、自己適応重み情報を使用してユーザー嗜好特徴を抽出し、注意を重要な特徴に集中させ、実際の応用シーンにおける各アイテムの異なるタイプの属性決定成分のユーザー嗜好特徴への影響をより適切に表現し、ユーザー嗜好特徴をより細かく表現することを目的とする。 The DBN model training method here is an improved attention mechanism-based DBN model training method, which uses self-adaptive weight information to extract user preference features, focus attention on important features, and improve practical application. The purpose is to more appropriately represent the influence of different types of attribute determining components of each item in a scene on user preference features, and to express user preference features in more detail.

ステップ4では、訓練済みの注意メカニズムを融合したDBNベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表し、その計算は、
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルP(x)を計算し、
ここでp(x)はΦ次元ベクトルであり、そのn番目の要素P(ψ)はユーザー嗜好アイテムのn番目の決定成分の活性化確率であり、P(ψ)に対して下界制約を行い、制約後の値はアイテムのn番目の決定成分に対するユーザーの嗜好確率P(ψ)であり、すなわち、
であり、
ここで、εは所定の下界閾値であり、本実施例では、ε=0.1であり、すなわち、式(18)に従って算出される活性化確率が0.1未満の決定成分に対して、その活性化確率値を0.1に設定し、該制約は決定成分の活性化確率が小さい場合、一定の確率値で該決定成分をランダムにサンプリングすることを考慮することで、生成される個体群の多様性を高め、進化最適化アルゴリズムの早期収束によって最適解を見逃さないことを防止する。
In step 4, a user preference-based distribution estimation probability model P(x) is constructed based on the DBN-based user preference sensing model that combines the trained attention mechanism and its model parameters;
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item represents the preference probability of, and its calculation is,
First, a user preference-based probability distribution model P(x) is calculated based on the dominant item group D,
Here, p(x) is a Φ-dimensional vector, its nth element P(ψ n ) is the activation probability of the nth determining component of the user preference item, and a lower bound constraint is applied to P(ψ n ). , and the value after the constraint is the user's preference probability P(ψ n ) for the nth determining component of the item, that is,
and
Here, ε is a predetermined lower bound threshold, and in this example, ε=0.1, that is, for a determining component whose activation probability calculated according to equation (18) is less than 0.1, The activation probability value is set to 0.1, and the constraint is that when the activation probability of a determining component is small, the determined component is randomly sampled with a certain probability value. Increase the diversity of the group and prevent the optimal solution from being missed by early convergence of the evolutionary optimization algorithm.

ステップ5では、個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズム(Estimation of Distribution Algorithms、EDA)でN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(v=1,2,・・・,N)の設定ステップは、
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψ=1)である場合、v番目の新個体のカテゴリラベルベクトル
のj番目の要素は1であり、そうでない場合、0であり、
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことである。
In step 5, the population size N is set, and N new individuals are generated using a distribution estimation algorithm (EDA) using the user preference-based distribution estimation probability model P(x). , each individual is one item, and the category label vector of the vth new individual is
The setting step for (v=1, 2,..., N) is
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
The jth element of is 1, otherwise 0,
(5.3) Add 1 to v and repeat step (5.2) until v>N.

ステップ6では、検索空間においてN個の新個体のカテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成し、本実施例では、ユークリッド距離を使用して類似度計算を行い、すなわち、2つのベクトル間のユークリッド距離が小さいほど、両者の類似度が高い。
In step 6, category label vectors of N new individuals are added in the search space.
In this example, the Euclidean distance between two vectors is used to calculate the similarity. The smaller the distance, the higher the degree of similarity between the two.

ステップ7では、推薦対象アイテムセットSにおける各アイテムの適応値を計算し、
本発明では、エネルギー関数を使用してアイテムの適応値を計算し、推薦対象アイテムセットSにおけるアイテムxについて、その適応値
の計算は、
であり、
ここで、
及び
はそれぞれ推薦対象アイテムセットSにおけるアイテムのエネルギー関数の最大値及び最小値を表し、
はアイテムxのエネルギー関数(x∈S)であり、その計算は、
であり、
ここで、a1,nはRBM1の可視層におけるn番目の可視ユニットのバイアスを表し、
はアイテムxのn番目の決定成分であり、
はhにおけるm番目の隠れユニットのバイアスであり、
はwにおける要素値であり、RBM1におけるn番目の可視ユニットm番目の隠れユニットとの間の接続重みを表す。
In step 7, the adaptation value of each item in the recommendation target item set S u is calculated,
In the present invention, the adaptive value of the item is calculated using the energy function, and the adaptive value of the item x * in the recommendation target item set S u is
The calculation of
and
here,
as well as
respectively represent the maximum value and minimum value of the energy function of the item in the recommendation target item set S u ,
is the energy function (x * ∈ S u ) of item x * , and its calculation is
and
Here, a 1,n represents the bias of the nth visible unit in the visible layer of RBM1,
is the nth determining component of item x * ,
is the bias of the m - th hidden unit in h 1 ,
is the element value in w 1 and represents the connection weight between the nth visible unit m and the m1th hidden unit in RBM1.

ステップ8では、Sにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである。 In step 8, TopN items with the highest adaptation values in S u are selected as the search results, and TopN<N.

マルチソース異種ユーザー生成コンテンツの動的進化の特徴及びユーザー趣味嗜好の不確実性によって、パーソナライズド進化検索プロセスの早期段階では、優位アイテムグループDに含まれるユーザー嗜好情報が不十分であり、したがって、この訓練されたユーザー嗜好感知モデルに基づいて抽出されるユーザー嗜好特徴は大まかである。これに伴ってユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新し、ユーザー嗜好変化をタイムリーに追跡すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新することで、パーソナライズド進化検索の進行方向を効果的にガイドし、ユーザーができるだけ早く満足の行く解を検索することを支援し、複雑な環境におけるパーソナライズド検索タスクをスムーズに完了する。 Due to the dynamic evolution characteristics of multi-source heterogeneous user-generated content and the uncertainty of user tastes and preferences, the user preference information contained in the dominant item group D is insufficient at the early stage of the personalized evolutionary search process, and therefore, The user preference features extracted based on this trained user preference sensing model are rough. Along with this, along with the promotion of the user's interactive search process and the dynamic evolution of user behavior, the dominant item group D is updated according to the latest evaluation data of the current user, and a user preference sensing model that combines an attention mechanism is developed. By re-training and dynamically updating the extracted user preference features to track changes in user preferences in a timely manner, and at the same time updating the user preference-based distribution estimation probability model P(x), personalized evolution can be achieved. It effectively guides the search direction, helps users search for satisfactory solutions as quickly as possible, and smoothly completes personalized search tasks in complex environments.

本実施例は上記パーソナライズド検索方法を実現する注意メカニズムを融合したパーソナライズド検索システムをさらに開示し、図3に示すように、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュール1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュール2と、
ステップ3に従って注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であるユーザー嗜好感知モデル構築訓練モジュール3と、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュール4と、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュール5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成する推薦対象アイテムセット構築モジュール6と、
ステップ7に従って推薦対象アイテムセットSにおける各アイテムの適応値を計算する適応値計算モジュール7と、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュール8と、を含む。
This embodiment further discloses a personalized search system that combines an attention mechanism to realize the above-mentioned personalized search method, and as shown in FIG. 3,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module 1 that vectorizes comments, performs feature extraction on item images, and acquires eigenvectors;
a superior item group construction module 2 that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module for building and training a user preference sensing model fused with an attention mechanism according to step 3, the model comprising three layers of restricted Boltzmann machines based on a deep belief network; The visible layer of the Boltzmann machine with limited layers includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , and the hidden layers are h 1 and h 1 constitutes a second-layer restricted Boltzmann machine with hidden layer h2 as a visible layer, and constitutes a third-layer restricted Boltzmann machine with hidden layer h3 as a visible layer, and the above attention mechanism is The parameters of the fused user preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } User preference sensing model construction training module 3, which is
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module 4 representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module 5 that sets a category label vector for each new individual;
Category label vector of N new individuals in search space
a recommendation target item set construction module 6 that selects N items having the highest degree of similarity to constitute a recommendation target item set S u ;
an adaptation value calculation module 7 that calculates the adaptation value of each item in the recommendation target item set S u according to step 7;
A search result selection module 8 that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.

(付記)
(付記1)
注意メカニズムを融合したパーソナライズド検索方法であって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,x,C,T,G)}であり、ここで、x∈Dであり、Cはアイテムxのカテゴリラベルベクトルであり、Tはアイテムxに対するユーザーのテキストコメントのベクトル化表現であり、Gはアイテムxの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であり、
優位アイテムグループDを利用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンを訓練し、そのモデルパラメータθ1={w,a,b}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxiのベクトル表現[C,T,G]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
であり、
ここで、a、a及びaはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
であり、
テキストコメントベクトルの情報エントロピーは、
であり、
アイテム画像特徴ベクトルの情報エントロピーは、
であり、
ここで、cijはアイテムxのカテゴリラベルベクトルCのj番目の要素を表し、p(cij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
ikはアイテムxに対するユーザーuのテキストコメントのベクトル化表現Tのk番目の要素を表し、p(tik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
ilは、アイテムxの画像特徴のベクトル化表現Gのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ここで、H(x)=H(C)+H(T)+H(G)であり、
ベクトルC、T、Gを組み合わせてアイテムxの決定ベクトルΨを構成してv、v、vにおける各可視ユニットに入力すると、隠れ層hにおける各隠れユニットの活性化状態は条件付き独立であり、m番目の隠れユニットの活性化確率は、
であり、
ここで、m=1,2,・・・,M1であり、
はhにおけるm番目の隠れユニットのバイアスであり、v1jはRMB1の第1組の可視ユニットvにおけるj番目の可視ユニットの状態であり、v2kはRMB1の第2組の可視ユニットvにおけるk番目の可視ユニットの状態であり、v3lはRMB1の第3組の可視ユニットvにおけるl番目の可視ユニットの状態であり、
はwにおける要素値であり、RBM1におけるn番目の可視ユニットとm番目の隠れユニットとの間の接続重みを表し、n=1,2,・・・,Φであり、
は隠れ層hにおけるm番目の隠れユニットの状態を表し、
はsigmoid活性化関数であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数at(x)として取得し、
ここで、
はΨがRBM1の可視層の各可視ユニットの状態とする場合、隠れ層hにおけるm番目の隠れユニットの状態を表し、at(x)はアイテムxの各決定成分ψinの注意重みを表し、
注意重み係数at(x)をアイテムxの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
atiを事前訓練後のRBM1に入力して可視ユニットの活性化確率VRBM1(xati)を得て、
ここで、
はxatiのn’番目の要素であり、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ここで、softmax()関数はすべての重み係数の和が1であることを確保し、関数a(VRBM1(xati),w)はユーザー嗜好特徴に対するアイテムxの注意重み係数を測定し、計算は、
であり、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxの元の決定ベクトルC,T,Gとを組み合わせて注意メカニズムを融合したアイテム決定ベクトルを生成し、
注意メカニズムを融合したアイテム決定ベクトル
で訓練セットを構成し、DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練し、訓練が完了した後、注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びその最適化モデルパラメータθを取得するステップ3と、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムでN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(v=1,2,・・・,N)の設定ステップは、
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψ=1)である場合、v番目の新個体のカテゴリラベルベクトル
のj番目の要素は1であり、そうでない場合、0であり、
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成するステップ6と、
推薦対象アイテムセットSにおける各アイテムの適応値
を計算し、
ここで、
及び
はそれぞれ推薦対象アイテムセットSにおけるアイテムのエネルギー関数の最大値及び最小値を表し、
はアイテムxのエネルギー関数であり、x∈Sであり、その計算は、
であり、
ここで、
はアイテムxのn番目の決定成分であるステップ7と、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する、
ことを特徴とする注意メカニズムを融合したパーソナライズド検索方法。
(Additional note)
(Additional note 1)
A personalized search method that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and Step 1 of vectorizing comments, extracting features from item images, and obtaining eigenvectors;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. It includes a unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer with the restriction of the second layer together with the hidden layer h 2 A Boltzmann machine is constructed, h2 is a visible layer, and a hidden layer h3 constitutes a third layer restricted Boltzmann machine, and the parameters of the user preference sensing model that combines the above attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first-layer restricted Boltzmann machine in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and set the model parameters θ1={w 1 , a 1 , b 1 },
After the training of the first layer RBM model is completed, given the state of hidden units, the activation state of each visible unit is conditionally independent, and the vector representation of some item xi [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first, second, and third visible units are respectively
and
Here, a 1 , j , a 1 , k and a 1 , l represent the biases of the first set, second set and third set of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
and
The information entropy of the text comment vector is
and
The information entropy of the item image feature vector is
and
Here, c ij represents the j-th element of the category label vector C i of item x i , and p (cij) is the activation probability of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p(t ik ) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
Here, H(x i )=H(C i )+H(T i )+H(G i ),
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
and
Here, m 1 =1, 2,...,M1,
is the bias of the m -th hidden unit in h 1 , v 1j is the state of the j-th visible unit in the first set of visible units v 1 of RMB1, and v 2k is the state of the j-th visible unit in the second set of visible units of RMB1. v 2 is the state of the k-th visible unit, v 3l is the state of the l-th visible unit in the third set of visible units v 3 of RMB1,
is the element value in w 1 and represents the connection weight between the nth visible unit and m 1st hidden unit in RBM1, where n = 1, 2, ..., Φ,
represents the state of the m - th hidden unit in the hidden layer h1 ,
is the sigmoid activation function,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
here,
If Ψ i is the state of each visible unit in the visible layer of RBM1, represents the state of the m i -th hidden unit in the hidden layer h i , and at n (x i ) is each determinant component ψ in of item x i represents the attention weight of
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
x ati is input to RBM1 after pre-training to obtain the activation probability V RBM1 (x ati ) of the visible unit,
here,
is the n'th element of x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Here, the softmax() function ensures that the sum of all weighting coefficients is 1, and the function a(V RBM1 (x ati ), w 1 ) measures the attention weighting coefficient of item x i with respect to user preference features. And the calculation is
and
Generating an item decision vector that combines the attention mechanism by combining the user preference attention weight vector A(x ati ) and the original decision vectors C i , T i , G i of item x i ;
Item decision vector fused with attention mechanism
Construct a training set, train the RBM1, RBM2, and RBM3 models in DBN layer by layer, and after the training is completed, create a deep belief network-based user preference sensing model that integrates the attention mechanism and its optimized model parameters θ. Step 3 to obtain
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, and use the user preference-based distribution estimation probability model P(x) to generate N new individuals with the distribution estimation algorithm, each individual being one item, and the v-th Category label vector of new individual
The setting step for (v=1, 2,...,N) is
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
The jth element of is 1, otherwise 0,
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
a step 6 of selecting N items having the highest degree of similarity to constitute a recommendation target item set S u ;
Adaptation value of each item in the recommendation target item set S u
Calculate,
here,
as well as
respectively represent the maximum value and minimum value of the energy function of the item in the recommendation target item set S u ,
is the energy function of item x * , x * ∈S u , and its calculation is
and
here,
is the nth determining component of item x * , step 7;
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of users' interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of current users, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updating the extracted user preference features and simultaneously updating the user preference-based distribution estimation probability model P(x);
A personalized search method that combines an attention mechanism characterized by:

(付記2)
前記優位アイテムグループDには割合がηの新アイテムがさらに含まれ、前記新アイテムは検索空間においてランダムにサンプリングすることによって得られる、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Additional note 2)
The superior item group D further includes new items with a ratio of η, and the new items are obtained by randomly sampling in the search space.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:

(付記3)
現在のユーザーuが新アイテムを評価していない場合、現在のユーザーuの類似ユーザーu’が該新アイテムに対して行ったテキストコメントを該新アイテムに対するユーザーuの評価として使用し、ユーザーuの複数の類似ユーザーがいずれも該新アイテムを評価した場合、ユーザーuとの類似度が最も大きいユーザーの評価を選択し、現在のユーザーuの類似ユーザーがいずれも該新アイテムを評価していない場合、該新アイテムに対するユーザーuの評価はランダムに値を割り当てる方式を使用する、
ことを特徴とする付記2に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 3)
If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as user u's rating for the new item, and If multiple similar users have all rated the new item, select the rating of the user with the highest degree of similarity to user u, and if none of the current user u's similar users have rated the new item. , user u's evaluation of the new item uses a method of randomly assigning values;
A personalized search method that combines the attention mechanism described in Appendix 2, characterized in that:

(付記4)
ユーザーuの類似ユーザーは、ユーザーuと共通のスコアアイテムを有し且つ類似度が所定の類似度閾値よりも大きいユーザーであり、ユーザーuと共通のスコアアイテムを有するユーザーu’について、u’≠uであり、uとu’との類似度Sim(u,u’)は、
であり、
ここで、
はユーザーu及びu’がいずれも評価したアイテムセットを表し、

におけるアイテムx’に対するユーザーuのスコアであり、
はx’に対するユーザーu’のスコアであり、
はユーザーuが評価したすべてのアイテムの平均スコアであり、
はユーザーu’が評価したすべてのアイテムの平均スコアである、
ことを特徴とする付記3に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Additional note 4)
A similar user to user u is a user who has a common score item with user u and whose degree of similarity is greater than a predetermined similarity threshold, and for user u' who has a common score item with user u, u'≠ u, and the similarity Sim(u, u') between u and u' is
and
here,
represents the item set that both users u and u' evaluated,
teeth
is user u's score for item x' in
is the score of user u' for x',
is the average score of all items rated by user u,
is the average score of all items rated by user u',
A personalized search method that combines the attention mechanism described in Appendix 3, characterized in that:

(付記5)
DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練する前記ステップは、具体的には、
まず、RBM1を訓練し、パラメータ{w,a,b}を得て、bをRBM2におけるaに伝達した上でRBM2を訓練し、最適化パラメータ{w,a,b}を取得し、bをRBM3におけるaに伝達した上でRBM3を訓練し、最適化パラメータ{w,a,b}を取得することである、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 5)
Specifically, the step of training the RBM1, RBM2, and RBM3 models in the DBN layer by layer includes:
First, train RBM1, obtain the parameters {w 1 , a 1 , b 1 }, transfer b 1 to a 2 in RBM2, train RBM2, and obtain the optimization parameters {w 2 , a 2 , b 2 }, transmit b 2 to a 3 in RBM3, train RBM3, and obtain optimization parameters {w 3 , a 3 , b 3 }.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:

(付記6)
アイテムのn番目の決定成分に対する前記ユーザーの嗜好確率P(ψ)の計算は、
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルp(x)を計算し、
p(x)はΦ次元ベクトルであり、そのn番目の要素P(ψ)はユーザー嗜好アイテムのn番目の決定成分の活性化確率であり、P(ψ)に対して下界制約を行い、制約後の値はアイテムのn番目の決定成分に対するユーザーの嗜好確率P(ψ)であり、すなわち、
であり、
εは所定の下界閾値である、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 6)
The calculation of the user's preference probability P(ψ n ) for the nth determining component of the item is
First, a user preference-based probability distribution model p(x) is calculated based on the dominant item group D,
p(x) is a Φ-dimensional vector, its nth element P(ψ n ) is the activation probability of the nth determining component of the user preference item, and a lower bound constraint is applied to P(ψ n ). , the value after the constraint is the user's preference probability P(ψ n ) for the nth determining component of the item, i.e.
and
ε is a predetermined lower bound threshold;
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:

(付記7)
前記3層の制限付きボルツマンマシンでは、各層の制限付きボルツマンマシンにおける隠れ層の隠れユニットの数は可視層における可視ユニットの数の0.8~1.2倍である、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 7)
In the three-layer restricted Boltzmann machine, the number of hidden units in the hidden layer in each layer of the restricted Boltzmann machine is 0.8 to 1.2 times the number of visible units in the visible layer.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:

(付記8)
優位アイテムグループDに対する新アイテムの割合はη<30%である、
ことを特徴とする付記2に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 8)
The ratio of new items to superior item group D is η<30%,
A personalized search method that combines the attention mechanism described in Appendix 2, characterized by the following.

(付記9)
前記ステップ6はユークリッド距離を使用して類似度計算を行い、すなわち、2つのベクトル間のユークリッド距離が小さいほど、両者の類似度が高い、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 9)
The step 6 calculates the similarity using Euclidean distance, that is, the smaller the Euclidean distance between two vectors, the higher the similarity between them.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:

(付記10)
注意メカニズムを融合したパーソナライズド検索システムであって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体カテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成する推薦対象アイテムセット構築モジュールと、
推薦対象アイテムセットSにおける各アイテムの適応値を計算する適応値計算モジュールと、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む、ことを特徴とする注意メカニズムを融合したパーソナライズド検索システム。
(Appendix 10)
A personalized search system that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module that vectorizes comments, extracts features from item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
N new individual category label vectors in the search space
a recommendation target item set construction module that selects N items having the highest degree of similarity to constitute a recommendation target item set S u ;
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A personalized search system integrating an attention mechanism, comprising: a search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.

Claims (10)

注意メカニズムを融合したパーソナライズド検索方法であって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,x,C,T,G)}であり、ここで、x∈Dであり、Cはアイテムxのカテゴリラベルベクトルであり、Tはアイテムxに対するユーザーのテキストコメントのベクトル化表現であり、Gはアイテムxの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であり、
優位アイテムグループDを利用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンを訓練し、そのモデルパラメータθ={w,a,b}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxのベクトル表現[C,T,G]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
であり、
ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
であり、
テキストコメントベクトルの情報エントロピーは、
であり、
アイテム画像特徴ベクトルの情報エントロピーは、
であり、
ここで、cijはアイテムxのカテゴリラベルベクトルCのj番目の要素を表し、pij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
ikはアイテムxに対するユーザーuのテキストコメントのベクトル化表現Tのk番目の要素を表し、pik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
ilは、アイテムxの画像特徴のベクトル化表現Gのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ここで、H(x)=H(C)+H(T)+H(G)であり、
ベクトルC、T、Gを組み合わせてアイテムxの決定ベクトルΨを構成してv、v、vにおける各可視ユニットに入力すると、隠れ層hにおける各隠れユニットの活性化状態は条件付き独立であり、m番目の隠れユニットの活性化確率は、
であり、
ここで、m=1,2,・・・,Mであり、
はhにおけるm番目の隠れユニットのバイアスであり、v1jはRMB1の第1組の可視ユニットvにおけるj番目の可視ユニットの状態であり、v2kはRMB1の第2組の可視ユニットvにおけるk番目の可視ユニットの状態であり、v3lはRMB1の第3組の可視ユニットvにおけるl番目の可視ユニットの状態であり、
はwにおける要素値であり、RBM1におけるn番目の可視ユニットとm番目の隠れユニットとの間の接続重みを表し、n=1,2,・・・,Φであり、
は隠れ層hにおけるm番目の隠れユニットの状態を表し、
はsigmoid活性化関数であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数at(x)として取得し、
ここで、
はΨがRBM1の可視層の各可視ユニットの状態とする場合、隠れ層hにおけるm番目の隠れユニットの状態を表し、at(x)はアイテムxの各決定成分ψinの注意重みを表し、
注意重み係数at(x)をアイテムxの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
atiを事前訓練後のRBM1に入力して可視ユニットの活性化確率VRBM1(xati)を得て、
ここで、
はxatiのn’番目の要素であり、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ここで、softmax()関数はすべての重み係数の和が1であることを確保し、関数a(VRBM1(xati),w)はユーザー嗜好特徴に対するアイテムxの注意重み係数を測定し、計算は、
であり、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxの元の決定ベクトルC,T,Gとを組み合わせて注意メカニズムを融合したアイテム決定ベクトルを生成し、
注意メカニズムを融合したアイテム決定ベクトル
で訓練セットを構成し、DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練し、訓練が完了した後、注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びその最適化モデルパラメータθを取得するステップ3と、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムでN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(v=1,2,・・・,N)の設定ステップは、
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψ=1)である場合、v番目の新個体のカテゴリラベルベクトル
のj番目の要素は1であり、そうでない場合、0であり、
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成するステップ6と、
推薦対象アイテムセットSにおける各アイテムの適応値
を計算し、
ここで、
及び
はそれぞれ推薦対象アイテムセットSにおけるアイテムのエネルギー関数の最大値及び最小値を表し、
はアイテムxのエネルギー関数であり、x∈Sであり、その計算は、
であり、
ここで、
はアイテムxのn番目の決定成分であるステップ7と、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する、
ことを特徴とする注意メカニズムを融合したパーソナライズド検索方法。
A personalized search method that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and Step 1 of vectorizing comments, extracting features from item images, and obtaining eigenvectors;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. It includes a unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer with the restriction of the second layer together with the hidden layer h 2 A Boltzmann machine is constructed, h2 is a visible layer, and a hidden layer h3 constitutes a third layer restricted Boltzmann machine, and the parameters of the user preference sensing model that combines the above attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first-layer restricted Boltzmann machine in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and calculate the model parameters θ 1 = {w 1 , a 1 , b 1 },
After the training of the first layer RBM model is completed, given the state of the hidden unit, the activation state of each visible unit is conditionally independent, and the vector representation of some item x i [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first set, second set, and third set of visible units are respectively
and
Here, a 1,j , a 1,k and a 1,l represent the biases of the first set, second set and third set of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
and
The information entropy of the text comment vector is
and
The information entropy of the item image feature vector is
and
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
Here, H(x i )=H(C i )+H(T i )+H(G i ),
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
and
Here, m 1 =1, 2,..., M 1 ,
is the bias of the m -th hidden unit in h 1 , v 1j is the state of the j-th visible unit in the first set of visible units v 1 of RMB1, and v 2k is the state of the j-th visible unit in the second set of visible units of RMB1. v 2 is the state of the k-th visible unit, v 3l is the state of the l-th visible unit in the third set of visible units v 3 of RMB1,
is the element value in w 1 and represents the connection weight between the nth visible unit and m 1st hidden unit in RBM1, where n = 1, 2, ..., Φ,
represents the state of the m - th hidden unit in the hidden layer h1 ,
is the sigmoid activation function,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
here,
If Ψ i is the state of each visible unit in the visible layer of RBM1, represents the state of the m i -th hidden unit in the hidden layer h i , and at n (x i ) is each determinant component ψ in of item x i represents the attention weight of
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
x ati is input to RBM1 after pre-training to obtain the activation probability V RBM1 (x ati ) of the visible unit,
here,
is the n'th element of x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Here, the softmax() function ensures that the sum of all weighting coefficients is 1, and the function a(V RBM1 (x ati ), w 1 ) measures the attention weighting coefficient of item x i with respect to user preference features. And the calculation is
and
Generating an item decision vector that combines the attention mechanism by combining the user preference attention weight vector A(x ati ) and the original decision vectors C i , T i , G i of item x i ;
Item decision vector fused with attention mechanism
Construct a training set, train the RBM1, RBM2, and RBM3 models in DBN layer by layer, and after the training is completed, create a deep belief network-based user preference sensing model that integrates the attention mechanism and its optimized model parameters θ. Step 3 to obtain
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, and use the user preference-based distribution estimation probability model P(x) to generate N new individuals with the distribution estimation algorithm, each individual being one item, and the v-th Category label vector of new individual
The setting step for (v=1, 2,...,N) is
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
The jth element of is 1, otherwise 0,
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
a step 6 of selecting N items having the highest degree of similarity to constitute a recommendation target item set S u ;
Adaptation value of each item in the recommendation target item set S u
Calculate,
here,
as well as
respectively represent the maximum value and minimum value of the energy function of the item in the recommendation target item set S u ,
is the energy function of item x * , x * ∈S u , and its calculation is
and
here,
is the nth determining component of item x * , step 7;
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of users' interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of current users, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updating the extracted user preference features and simultaneously updating the user preference-based distribution estimation probability model P(x);
A personalized search method that combines an attention mechanism characterized by:
前記優位アイテムグループDには割合がηの新アイテムがさらに含まれ、前記新アイテムは検索空間においてランダムにサンプリングすることによって得られる、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。
The superior item group D further includes new items with a ratio of η, and the new items are obtained by randomly sampling in the search space.
A personalized search method combining the attention mechanism according to claim 1.
現在のユーザーuが新アイテムを評価していない場合、現在のユーザーuの類似ユーザーu’が該新アイテムに対して行ったテキストコメントを該新アイテムに対するユーザーuの評価として使用し、ユーザーuの複数の類似ユーザーがいずれも該新アイテムを評価した場合、ユーザーuとの類似度が最も大きいユーザーの評価を選択し、現在のユーザーuの類似ユーザーがいずれも該新アイテムを評価していない場合、該新アイテムに対するユーザーuの評価はランダムに値を割り当てる方式を使用する、
ことを特徴とする請求項2に記載の注意メカニズムを融合したパーソナライズド検索方法。
If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as user u's rating for the new item, and If multiple similar users have all rated the new item, select the rating of the user with the highest degree of similarity to user u, and if none of the current user u's similar users have rated the new item. , user u's evaluation of the new item uses a method of randomly assigning values;
A personalized search method combining the attention mechanism according to claim 2.
ユーザーuの類似ユーザーは、ユーザーuと共通のスコアアイテムを有し且つ類似度が所定の類似度閾値よりも大きいユーザーであり、ユーザーuと共通のスコアアイテムを有するユーザーu’について、u’≠uであり、uとu’との類似度Sim(u,u’)は、
であり、
ここで、
はユーザーu及びu’がいずれも評価したアイテムセットを表し、

におけるアイテムx’に対するユーザーuのスコアであり、
はx’に対するユーザーu’のスコアであり、
はユーザーuが評価したすべてのアイテムの平均スコアであり、
はユーザーu’が評価したすべてのアイテムの平均スコアである、
ことを特徴とする請求項3に記載の注意メカニズムを融合したパーソナライズド検索方法。
A similar user to user u is a user who has a common score item with user u and whose degree of similarity is greater than a predetermined similarity threshold, and for user u' who has a common score item with user u, u'≠ u, and the similarity Sim(u, u') between u and u' is
and
here,
represents the item set that both users u and u' evaluated,
teeth
is user u's score for item x' in
is the score of user u' for x',
is the average score of all items rated by user u,
is the average score of all items rated by user u',
A personalized search method combining the attention mechanism according to claim 3.
DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練する前記ステップは、具体的には、
まず、RBM1を訓練し、パラメータ{w,a,b}を得て、bをRBM2におけるaに伝達した上でRBM2を訓練し、最適化パラメータ{w,a,b}を取得し、bをRBM3におけるaに伝達した上でRBM3を訓練し、最適化パラメータ{w,a,b}を取得することである、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。
Specifically, the step of training the RBM1, RBM2, and RBM3 models in the DBN layer by layer includes:
First, train RBM1, obtain the parameters {w 1 , a 1 , b 1 }, transfer b 1 to a 2 in RBM2, train RBM2, and obtain the optimization parameters {w 2 , a 2 , b 2 }, transmit b 2 to a 3 in RBM3, train RBM3, and obtain optimization parameters {w 3 , a 3 , b 3 }.
A personalized search method combining the attention mechanism according to claim 1.
アイテムのn番目の決定成分に対する前記ユーザーの嗜好確率P(ψ)の計算は、
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルp(x)を計算し、
p(x)はΦ次元ベクトルであり、そのn番目の要素P(ψ)はユーザー嗜好アイテムのn番目の決定成分の活性化確率であり、P(ψ)に対して下界制約を行い、制約後の値はアイテムのn番目の決定成分に対するユーザーの嗜好確率P(ψ)であり、すなわち、
であり、
εは所定の下界閾値である、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。
The calculation of the user's preference probability P(ψ n ) for the nth determining component of the item is
First, a user preference-based probability distribution model p(x) is calculated based on the dominant item group D,
p(x) is a Φ-dimensional vector, and its nth element P(ψ n ) is the activation probability of the nth determining component of the user preference item, and a lower bound constraint is applied to P(ψ n ). , the value after the constraint is the user's preference probability P(ψ n ) for the nth determining component of the item, i.e.
and
ε is a predetermined lower bound threshold;
A personalized search method combining the attention mechanism according to claim 1.
前記3層の制限付きボルツマンマシンでは、各層の制限付きボルツマンマシンにおける隠れ層の隠れユニットの数は可視層における可視ユニットの数の0.8~1.2倍である、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。
In the three-layer restricted Boltzmann machine, the number of hidden units in the hidden layer in each layer of the restricted Boltzmann machine is 0.8 to 1.2 times the number of visible units in the visible layer.
A personalized search method combining the attention mechanism according to claim 1.
優位アイテムグループDに対する新アイテムの割合はη<30%である、
ことを特徴とする請求項2に記載の注意メカニズムを融合したパーソナライズド検索方法。
The ratio of new items to superior item group D is η<30%,
A personalized search method combining the attention mechanism according to claim 2.
前記ステップ6はユークリッド距離を使用して類似度計算を行い、すなわち、2つのベクトル間のユークリッド距離が小さいほど、両者の類似度が高い、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。
The step 6 calculates the similarity using Euclidean distance, that is, the smaller the Euclidean distance between two vectors, the higher the similarity between them.
A personalized search method combining the attention mechanism according to claim 1.
注意メカニズムを融合したパーソナライズド検索システムであって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv、第2組の可視ユニットv及び第3組の可視ユニットvを含み、隠れ層はhであり、hは可視層として、隠れ層hとともに2層目の制限付きボルツマンマシンを構成し、hは可視層として、隠れ層hとともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ,θ,θ}={w,a,b,w,a,b,w,a,b}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ),P(ψ),・・・,P(ψ),・・・,P(ψΦ)] (17)
ここで、(ψ,ψ,・・・,ψ,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψ)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体カテゴリラベルベクトル
との類似度が最も高いN個のアイテムを選択して推薦対象アイテムセットSを構成する推薦対象アイテムセット構築モジュールと、
推薦対象アイテムセットSにおける各アイテムの適応値を計算する適応値計算モジュールと、
における適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む、ことを特徴とする注意メカニズムを融合したパーソナライズド検索システム。
A personalized search system that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module that vectorizes comments, extracts features from item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
N new individual category label vectors in the search space
a recommendation target item set construction module that selects N items having the highest degree of similarity to constitute a recommendation target item set S u ;
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A personalized search system integrating an attention mechanism, comprising: a search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.
JP2022578858A 2021-04-14 2022-03-28 Personalized search method and search system combining attention mechanism Active JP7393060B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110399302.0 2021-04-14
CN202110399302.0A CN113127737B (en) 2021-04-14 2021-04-14 Personalized search method and search system integrating attention mechanism
PCT/CN2022/083375 WO2022218139A1 (en) 2021-04-14 2022-03-28 Personalized search method and search system combined with attention mechanism

Publications (2)

Publication Number Publication Date
JP2023530370A JP2023530370A (en) 2023-07-14
JP7393060B2 true JP7393060B2 (en) 2023-12-06

Family

ID=76776325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022578858A Active JP7393060B2 (en) 2021-04-14 2022-03-28 Personalized search method and search system combining attention mechanism

Country Status (3)

Country Link
JP (1) JP7393060B2 (en)
CN (1) CN113127737B (en)
WO (1) WO2022218139A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113127737B (en) * 2021-04-14 2021-09-14 江苏科技大学 Personalized search method and search system integrating attention mechanism
CN113987261B (en) * 2021-11-08 2023-07-18 烟台大学 Video recommendation method and system based on dynamic trust perception
CN117783051A (en) * 2024-02-28 2024-03-29 西安尚展信息科技有限公司 Methane gas leakage detection method based on multi-sensor data fusion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507041A (en) 2004-07-13 2008-03-06 グーグル インコーポレイテッド Personalize the ordering of place content in search results

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6687696B2 (en) * 2000-07-26 2004-02-03 Recommind Inc. System and method for personalized search, information filtering, and for generating recommendations utilizing statistical latent class models
CN111291261B (en) * 2020-01-21 2023-05-26 江西财经大学 Cross-domain recommendation method integrating labels and attention mechanisms and implementation system thereof
CN111339428B (en) * 2020-03-25 2021-02-26 江苏科技大学 Interactive personalized search method based on limited Boltzmann machine drive
CN112328900A (en) * 2020-11-27 2021-02-05 北京工业大学 Deep learning recommendation method integrating scoring matrix and comment text
CN113127737B (en) * 2021-04-14 2021-09-14 江苏科技大学 Personalized search method and search system integrating attention mechanism

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507041A (en) 2004-07-13 2008-03-06 グーグル インコーポレイテッド Personalize the ordering of place content in search results

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
三浦 大樹 ほか,ソーシャルサーチのための効率的な検索アルゴリズムの提案,情報処理学会 論文誌(トランザクション) データベース(TOD) [電子情報通信学会データ工学研究専門委員会共同編集] Vol.6 No.3,日本,情報処理学会,2013年,29~39

Also Published As

Publication number Publication date
CN113127737A (en) 2021-07-16
JP2023530370A (en) 2023-07-14
WO2022218139A1 (en) 2022-10-20
CN113127737B (en) 2021-09-14

Similar Documents

Publication Publication Date Title
CN109299396B (en) Convolutional neural network collaborative filtering recommendation method and system fusing attention model
JP7393060B2 (en) Personalized search method and search system combining attention mechanism
CN111523047B (en) Multi-relation collaborative filtering algorithm based on graph neural network
CN110837602B (en) User recommendation method based on representation learning and multi-mode convolutional neural network
Santhoshkumar et al. Earlier detection of rumors in online social networks using certainty-factor-based convolutional neural networks
CN107122455A (en) A kind of network user&#39;s enhancing method for expressing based on microblogging
Alboaneen et al. Sentiment analysis via multi-layer perceptron trained by meta-heuristic optimisation
CN113326377B (en) Name disambiguation method and system based on enterprise association relationship
CN114358657B (en) Post recommendation method and device based on model fusion
CN112000788B (en) Data processing method, device and computer readable storage medium
CN109446414A (en) A kind of software information website fast tag recommended method based on neural network classification
CN114817508A (en) Sparse graph and multi-hop attention fused session recommendation system
CN112215629B (en) Multi-target advertisement generating system and method based on construction countermeasure sample
CN115858919A (en) Learning resource recommendation method and system based on project field knowledge and user comments
CN112989803B (en) Entity link prediction method based on topic vector learning
CN114444694A (en) Open world knowledge graph complementing method and device
CN112486467B (en) Interactive service recommendation method based on dual interaction relation and attention mechanism
CN114943216B (en) Case microblog attribute level view mining method based on graph attention network
CN116306834A (en) Link prediction method based on global path perception graph neural network model
CN113722477B (en) Internet citizen emotion recognition method and system based on multitask learning and electronic equipment
CN115759110A (en) Malicious information detection method, device and system based on multi-feature fusion
CN113076490A (en) Case-related microblog object-level emotion classification method based on mixed node graph
De Padua et al. Post-processing association rules using networks and transductive learning
Devi et al. An innovative word embedded and optimization based hybrid artificial intelligence approach for aspect-based sentiment analysis of app and cellphone reviews
Qin et al. Recommender resources based on acquiring user's requirement and exploring user's preference with Word2Vec model in web service

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7393060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150