JP7393060B2 - Personalized search method and search system combining attention mechanism - Google Patents
Personalized search method and search system combining attention mechanism Download PDFInfo
- Publication number
- JP7393060B2 JP7393060B2 JP2022578858A JP2022578858A JP7393060B2 JP 7393060 B2 JP7393060 B2 JP 7393060B2 JP 2022578858 A JP2022578858 A JP 2022578858A JP 2022578858 A JP2022578858 A JP 2022578858A JP 7393060 B2 JP7393060 B2 JP 7393060B2
- Authority
- JP
- Japan
- Prior art keywords
- item
- user
- visible
- layer
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007246 mechanism Effects 0.000 title claims description 83
- 238000000034 method Methods 0.000 title claims description 43
- 239000013598 vector Substances 0.000 claims description 103
- 101000742844 Homo sapiens RNA-binding motif protein, Y chromosome, family 1 member A1 Proteins 0.000 claims description 76
- 102100038040 RNA-binding motif protein, Y chromosome, family 1 member A1 Human genes 0.000 claims description 76
- 101001046999 Homo sapiens Kynurenine-oxoglutarate transaminase 3 Proteins 0.000 claims description 61
- 230000004913 activation Effects 0.000 claims description 56
- 238000012549 training Methods 0.000 claims description 37
- 238000011156 evaluation Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000006978 adaptation Effects 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 18
- 101001076867 Homo sapiens RNA-binding protein 3 Proteins 0.000 claims description 15
- 102100025902 RNA-binding protein 3 Human genes 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000005457 optimization Methods 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明はデータマイニングの技術分野に属し、具体的には、パーソナライズド検索方法及び検索システムに関する。 The present invention belongs to the technical field of data mining, and specifically relates to a personalized search method and search system.
ビッグデータ、クラウドコンピューティング、ユビキタスネットワーク等の技術の急速な発展に伴い、インターネットの規模及びユーザー数は急激に増加し、ユーザーは既にデータの能動的な創造者となり、大量のマルチソース異種ユーザー生成コンテンツが集まり、様々な情報が錯綜し且つ爆発的な増加を示している。ユーザー生成コンテンツは大量の動的に進化した複雑なマルチソース異種データを含み、ソース及び構造の多様化、スパース性、マルチモード、不完全性、社会的伝播等の特徴を有し、豊かな価値のある情報及び巨大なマイニング潜在力を秘めており、様々なインターネットプラットフォーム及びモバイルアプリケーション業者が情報を取得し、業績やサービスを向上させる重要なソースでもあり、典型的なビッグデータ環境となっている。しかしながら、これらの複雑なマルチソース異種ユーザー生成コンテンツはユーザーに新しい情報をもたらす一方、ユーザーが情報をフィルタリング、選別及び処理して最終的に決定を行う困難性の増加につながり、すなわち、「情報過負荷」の問題を引き起こしてしまう。パーソナライズド検索及び推薦アルゴリズムは、ユーザーと情報を結ぶ架け橋として、大量のマルチソース異種ユーザー生成データを十分に活用し、ユーザーの潜在的なニーズ及び認知の嗜好に応じてユーザーの行動及び発展動態を予測し、できるだけユーザーが大量の情報からユーザーのニーズ及び趣味嗜好に一致するコンテンツをフィルタリングすることを支援し、「情報過負荷」を効果的に軽減し、ユーザー体験及びウエブサイトプラットフォームの商業的利益を向上させることができる。 With the rapid development of big data, cloud computing, ubiquitous network and other technologies, the scale and number of users of the Internet have increased rapidly, and users have already become active creators of data, generating a large amount of multi-source heterogeneous users. Content is gathering, and various information is becoming complicated and increasing explosively. User-generated content contains a large amount of dynamically evolving, complex multi-source heterogeneous data, has characteristics such as source and structure diversification, sparsity, multi-mode, incompleteness, social propagation, etc., and has rich value. It has a large amount of information and huge mining potential, and is also an important source for various Internet platforms and mobile application companies to obtain information and improve their business performance and services, making it a typical big data environment. . However, while these complex multi-source heterogeneous user-generated contents bring new information to users, they also lead to increased difficulty for users to filter, sort and process information and ultimately make decisions, i.e., “information overload”. This will cause a load problem. Personalized search and recommendation algorithms, as a bridge between users and information, make full use of large amounts of multi-source heterogeneous user-generated data, and adjust user behavior and development dynamics according to users' latent needs and cognitive preferences. Anticipate and help users filter content that matches their needs and hobbies from a large amount of information as much as possible, effectively reducing "information overload" and improving the user experience and the commercial interests of the website platform. can be improved.
ユーザー生成コンテンツ向けのパーソナライズド検索タスクの本質は、マルチソース異種ユーザー生成データで構成される動的進化空間においてユーザーのニーズ及びパーソナライズド嗜好を満たす最適目標を探索することであり、すなわち、動的定性指標最適化問題である。この複雑な定性指標最適化問題は、その目的関数及び性能指標を数学関数で正確に記述できないだけでなく、その最適化問題の決定変数も単純な構造化データではなく、多くの場合、主観性、曖昧さ、不確実性及び不整合性が大きく、ユーザーは経験知識及び趣味嗜好に基づいて検索対象となるアイテムに対して定性分析、評価及び決定を行う必要があるため、特定の正確な数学モデルを構築して記述を行うことが困難である。近年、提案されている人間のインテリジェント評価を融合した対話型共進化計算は、ユーザーの主観的な認知経験、インテリジェント評価・決定及び従来の進化計算を組み合わせ、上記複雑なパーソナライズド検索の定性指標最適化問題を処理する効果的な方法である。 The essence of the personalized search task for user-generated content is to search for an optimal goal that satisfies users' needs and personalized preferences in a dynamic evolving space consisting of multi-source heterogeneous user-generated data, i.e., dynamic It is a qualitative index optimization problem. This complex qualitative index optimization problem not only cannot accurately describe its objective function and performance index with mathematical functions, but also the decision variables of the optimization problem are not simple structured data and are often subject to subjectivity. , since there is a large degree of ambiguity, uncertainty and inconsistency, and users need to perform qualitative analysis, evaluation and decisions on the items to be searched based on their experiential knowledge and hobbies and preferences, certain exact mathematics are not required. It is difficult to construct and describe a model. In recent years, an interactive co-evolutionary calculation that combines human intelligent evaluation has been proposed, which combines the user's subjective cognitive experience, intelligent evaluation/decision, and traditional evolutionary calculation to optimize the qualitative indicators for the above-mentioned complex personalized search. It is an effective way to handle the problem.
出願番号がCN2020102165574の中国特許は、制限付きボルツマンマシン駆動ベースの対話型パーソナライズド検索方法を開示しているが、ユーザーの趣味嗜好モデルの構築は異なるアイテム属性の決定変数がユーザー嗜好に対して異なる影響力を持つことを考慮せず、使用されるアイテムの決定変数に同じ重みを適用するため、ユーザー嗜好に対する各決定変数の影響を十分に反映できず、それによって、より正確なユーザー嗜好モデルの構築が困難であり、さらにユーザーによるパーソナライズド検索の効果を損なってしまう。 The Chinese patent with application number CN2020102165574 discloses a restricted Boltzmann machine-driven based interactive personalized search method, in which the construction of a user's taste preference model is such that the decision variables of different item attributes are different for user preferences. Because it applies the same weight to the decision variables of the used items without considering their influence, the influence of each decision variable on user preferences cannot be fully reflected, thereby creating a more accurate user preference model. They are difficult to construct and further reduce the effectiveness of personalized searches for users.
発明の目的について、従来技術に存在する問題に対して、本発明は注意メカニズムを融合したパーソナライズド検索方法及び検索システムを提供し、検索方法は異なる決定成分がユーザー嗜好に対して異なる影響力を持つことを考慮することで、ユーザーがパーソナライズド検索をより効果的に行うことを支援できる。 Regarding the purpose of the invention, to address the problems existing in the prior art, the present invention provides a personalized search method and search system that integrates an attention mechanism, and the search method is designed so that different determining components have different influences on user preferences. By considering what you have, you can help users conduct personalized searches more effectively.
技術的解決手段について、本発明の一態様によれば、注意メカニズムを融合したパーソナライズド検索方法を開示し、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザー生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,xi,Ci,Ti,Gi)}であり、ここで、xi∈Dであり、Ciはアイテムxiのカテゴリラベルベクトルであり、Tiはアイテムxiに対するユーザーのテキストコメントのベクトル化表現であり、Giはアイテムxiの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目のRBMを構成し、h2は可視層として隠れ層h3とともに3層目のRBMを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であり、
優位アイテムグループDを使用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目のRBMを訓練し、そのモデルパラメータθ1={w1,a1,b1}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxiのベクトル表現[Ci,Ti,Gi]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
であり、ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
テキストコメントベクトルの情報エントロピーは、
アイテム画像特徴ベクトルの情報エントロピーは、
ここで、cijはアイテムxiのカテゴリラベルベクトルCiのj番目の要素を表し、p(cij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
tikはアイテムxiに対するユーザーuのテキストコメントのベクトル化表現Tiのk番目の要素を表し、p(tik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
gilは、アイテムxiの画像特徴のベクトル化表現Giのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ベクトルCi、Ti、Giを組み合わせてアイテムxiの決定ベクトルΨiを構成してv1、v2、v3における各可視ユニットに入力すると、隠れ層h1における各隠れユニットの活性化状態は条件付き独立であり、m1番目の隠れユニットの活性化確率は、
ここで、m1=1,2,・・・,M1であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxiに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数atn(xi)として取得し、
注意重み係数atn(xi)をアイテムxiの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxiに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxiの元の決定ベクトルCi,Ti,Giとを組み合わせて、注意メカニズムを融合したアイテム決定ベクトルを生成し、
訓練済みの注意メカニズムを融合したDBNベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、N個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψj=1)である場合、v番目の新個体のカテゴリラベルベクトル
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値
ここで、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する。
Regarding the technical solution, according to one aspect of the present invention, a personalized search method integrated with an attention mechanism is disclosed,
Collect and retrieve user-generated content including all items that user u has rated, scores and text comments for each item, images for each item, and other users' usefulness evaluation scores for user u's ratings, and text comments. Step 1 of vectorizing the item image, extracting features from the item image, and obtaining the eigenvector;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is a visible layer that includes a second layer RBM together with a hidden layer h 2 . The parameters of the user preference sensing model that combines the above attention mechanisms are θ={θ 1 , θ 2 , θ 3 }={ w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first layer RBM in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and set the model parameters θ 1 = {w 1 , a 1 , b 1 } get
After the training of the first layer RBM model is completed, given the state of the hidden unit, the activation state of each visible unit is conditionally independent, and the vector representation of some item x i [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first set, second set, and third set of visible units are respectively
, where a 1,j , a 1,k and a 1,l represent the biases of the first, second and third sets of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
The information entropy of the text comment vector is
The information entropy of the item image feature vector is
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
Here, m 1 =1, 2,..., M 1 ,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Combining the user preference attention weight vector A(x ati ) and the original decision vector C i , T i , G i of item x i to generate an item decision vector that fuses the attention mechanism;
Build a user preference-based distribution estimation probability model P(x) based on the DBN-based user preference sensing model fused with the trained attention mechanism and its model parameters;
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, use the user preference-based distribution estimation probability model P(x), and adopt the distribution estimation algorithm to generate N new individuals, each individual with one item. Yes, the category label vector of the vth new individual
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
Adaptation value of each item in the recommendation target item set S u
here,
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of the user's interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of the current user, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updates the extracted user preference features, and at the same time updates the user preference-based distribution estimation probability model P(x).
別の態様によれば、本発明は上記パーソナライズド検索方法を実現する検索システムをさらに開示し、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーuの生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体のカテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値を計算する適応値計算モジュールと、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む。
According to another aspect, the present invention further discloses a search system that implements the personalized search method,
Collecting and retrieving content generated by user u, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings; a user-generated content acquisition module that vectorizes text comments, performs feature extraction on item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
Category label vector of N new individuals in search space
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.
有益な効果について、本発明に開示されているパーソナライズド検索方法は、ユーザースコア、アイテムカテゴリラベル、ユーザーテキストコメント、評価信頼度及びアイテム画像情報を含むマルチソース異種ユーザー生成コンテンツを十分に活用し、注意メカニズムを融合したユーザー嗜好感知モデルを構築し、このユーザー嗜好感知モデルに基づいて、ユーザー嗜好ベースの分布推定確率モデルを構築し、ユーザー嗜好を含む新しい実行可能解アイテムを生成し、適応値が最も高い複数のアイテムを最終検索結果として選択する。該方法は、ビッグデータ環境におけるマルチソース異種ユーザー生成コンテンツ向けのパーソナライズド検索タスクをよく処理でき、ユーザーがパーソナライズド検索を行うように効果的にガイドし、ユーザーができるだけ早く満足の行く解を検索することを支援し、パーソナライズド検索アルゴリズムの総合的性能を向上させる。 For beneficial effects, the personalized search method disclosed in the present invention makes full use of multi-source heterogeneous user-generated content including user scores, item category labels, user text comments, rating reliability and item image information; Build a user preference sensing model that fuses the attention mechanism, and based on this user preference sensing model, build a user preference-based distribution estimation probability model, generate a new executable solution item that includes user preferences, and calculate the adaptive value. Select the highest multiple items as the final search result. The method can well handle the personalized search task for multi-source heterogeneous user-generated content in big data environment, effectively guide users to perform personalized searches, and help users search for satisfactory solutions as soon as possible. improve the overall performance of personalized search algorithms.
以下、図面及び特定の実施形態を参照しながら本発明をさらに説明する。 The invention will now be further described with reference to the drawings and specific embodiments.
図1に示すように、本発明は注意メカニズムを融合したパーソナライズド検索方法を開示し、以下のステップ1~8を含む。 As shown in FIG. 1, the present invention discloses a personalized search method integrated with an attention mechanism, which includes the following steps 1-8.
ステップ1では、ユーザー生成コンテンツを収集して取得し、前記ユーザー生成コンテンツはユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、お及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含み、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得し、
本実施例では、テキストコメントのベクトル化表現のステップは、テキストコメントにおけるストップワード及び句読点等を除去し、データ前処理を行い、文献Devlin J, Chang M W, Lee K, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [J]. arXiv:1810.04805v2 [cs.CL] 24 May 2019.におけるBERTモデルを使用して、ユーザーテキストコメントに対してベクトル化表現を行うことである。
In step 1, user-generated content is collected and obtained, the user-generated content includes all items rated by user u, scores and text comments for each item, images of each item, and other information for user u's ratings. Contains the user's usefulness evaluation score, vectorizes the text comment, performs feature extraction on the item image, and obtains the eigenvector.
In this embodiment, the step of vectorized representation of text comments involves removing stop words, punctuation marks, etc. in text comments, performing data preprocessing, and performing data preprocessing as described in the literature Devlin J, Chang M W, Lee K, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [J]. arXiv:1810.04805v2 [cs. CL] 24 May 2019. The first step is to perform a vectorized representation on user text comments using the BERT model.
アイテム画像の特徴抽出は、文献Krizhevsky A, SutskeverI, Hinton G E. Image Net classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA:Curran Associates Inc., 2012. 1097-1105.におけるAlexNetモデルを使用して、アイテム画像に対して特徴抽出及びベクトル化表現を行う。 Feature extraction of item images is described in the literature Krizhevsky A, Sutskever I, Hinton G E. Image Net classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: Curran Associates Inc. , 2012. 1097-1105. Feature extraction and vectorization expression are performed on item images using the AlexNet model.
ユーザーuの評価に対するほかのユーザーの有用性評価とは、ほかのユーザーがあるアイテムに対する現在のユーザーuの評価情報に対して有用性評価を行うことであり、有用であると判定する場合、1でマークし、そうでない場合、0でマークし、すべてのほかのユーザーがあるアイテムに対する現在のユーザーuの評価情報に対して行う評価を統計し、1でマークされるものの総数がユーザーuの評価に対するほかのユーザーの有用性評価スコアである。例えば、現在のユーザーuがアイテムxに対して評価を行い、ユーザーA及びユーザーBは該評価に対して有用性評価を行い、該評価はアイテムxに対する現在のユーザーの評価の信頼度を反映し、すべてのほかのユーザーがアイテムxに対する現在のユーザーuの評価に対して行う有用性評価を統計することで、無効な評価又は偽のコメントをフィルタリングできる。 Another user's usefulness evaluation of user u's evaluation means that other users evaluate the usefulness of user u's current evaluation information for a certain item, and when it is determined that it is useful, 1 If not, mark it with 0, and calculate the ratings that all other users give to the current user u's rating information for a certain item, and the total number of items marked with 1 is the user u's rating. This is the usefulness rating score of other users. For example, current user u makes a rating for item x, user A and user B give a usefulness rating for the rating, and the rating reflects the reliability of the current user's rating for item x. , invalid ratings or fake comments can be filtered by statistics on the usefulness ratings that all other users give to the current user u's ratings for item x.
ユーザーuの評価に対するほかのユーザーの有用性評価スコアとユーザーuが評価するアイテムの総数との比は、アイテムに対するユーザーuの評価の信頼度である。 The ratio of the usefulness evaluation score of other users to the user u's evaluation and the total number of items evaluated by the user u is the reliability of the user u's evaluation of the item.
ステップ2では、ユーザー嗜好の優位アイテムグループDを構築し、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムはユーザー嗜好アイテムである。ユーザーの嗜好が曖昧さ、不確実性及び動的変化の特性を有するため、本実施例は既存のユーザー嗜好アイテムグループに一定のランダム性を導入することでユーザーの選択範囲を拡大し、それによりユーザーの選択は現在の嗜好情報の範囲内に過度に制限されることなく、実際の環境及びユーザー嗜好の動的変化に適応できる。それによって、スコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテム、及び検索空間においてランダムにサンプリングされる複数の新アイテムで優位アイテムグループDを構成する。優位アイテムグループDに追加される新アイテムはユーザー嗜好を含む可能性もあれば、ユーザー嗜好を含まない可能性もあり、ランダムなものであり、アイテムグループの多様性を高める。優位アイテムグループDに対する新アイテムの割合は30%以下であり、本実施例では、新アイテムは優位アイテムグループDのアイテムの総数の10%を占める。
In step 2, construct a superior item group D of user preferences,
An item whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold is a user preference item. Since user preferences have the characteristics of ambiguity, uncertainty and dynamic change, this embodiment expands the user selection range by introducing a certain randomness into the existing user preference item groups, thereby User choices are not unduly restricted within current preference information and can adapt to dynamic changes in the actual environment and user preferences. As a result, a dominant item group D is composed of items whose scores are larger than a predetermined score threshold and whose reliability is larger than a predetermined reliability threshold, and a plurality of new items randomly sampled in the search space. New items added to the superior item group D may or may not include user preferences, and are random, increasing the diversity of the item group. The ratio of new items to the dominant item group D is 30% or less, and in this embodiment, the new items account for 10% of the total number of items in the dominant item group D.
新アイテムは検索空間においてランダムにサンプリングされるため、現在のユーザーuはそれを評価した可能性もあれば、評価していない可能性もある。現在のユーザーuが新アイテムを評価していない場合、現在のユーザーuの類似ユーザーu’が該新アイテムに対して行ったテキストコメントを該新アイテムに対するユーザーuの評価として使用し、ユーザーuの複数の類似ユーザーがいずれも該新アイテムを評価した場合、ユーザーuとの類似度が最も大きいユーザーの評価を選択する。現在のユーザーuの類似ユーザーがいずれも該新アイテムを評価していない場合、該新アイテムに対するユーザーuの評価はランダムに値を割り当てる方式を使用する。 Since the new item is randomly sampled in the search space, the current user u may or may not have rated it. If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as the user u's rating for the new item, and If a plurality of similar users have all evaluated the new item, the evaluation of the user with the greatest degree of similarity to user u is selected. If none of the users similar to the current user u have rated the new item, user u's evaluation of the new item uses a method of randomly assigning values.
ユーザーuの類似ユーザーは、ユーザーuと共通のスコアアイテムを有し且つ類似度が所定の類似度閾値よりも大きいユーザーである。ユーザーuと共通のスコアアイテムを有するユーザーu’について、u’≠uであり、uとu’との類似度Sim(u,u’)は、
ここで、
here,
優位アイテムグループDでセットSを構成し、S={(u,xi,Ci,Ti,Gi)}であり、xi∈Dであり、Ciはアイテムxiのカテゴリラベルベクトルであり、長さがカテゴリの総数niであり、Ciにおける各要素cijは二値変数であり、cij=1はアイテムxiがj種のラベルを有することを表し、j=1,2,・・・,n1であり、且つ異なるカテゴリラベル同士は非相互排他的であり、1つのアイテムには複数のカテゴリラベルが同時に存在し得る。Tiはアイテムxiに対するユーザーのテキストコメントのベクトル化表現であり、長さがn2であり、Giはアイテムxiの画像特徴のベクトル化表現であり、長さがn3であり、i=1,2,L,|D|であり、|D|はDにおけるアイテム数を表す。 Dominant item group D constitutes set S, S={(u, x i , C i , T i , G i )}, x i ∈D, and C i is the category label vector of item x i , the length is the total number of categories n i , each element c ij in C i is a binary variable, c ij =1 represents that the item x i has j types of labels, and j = 1 , 2 , . T i is a vectorized representation of the user's text comment for item x i and has length n 2 ; G i is a vectorized representation of the image features of item x i and has length n 3 ; i=1, 2, L, |D|, where |D| represents the number of items in D.
ベクトルCi、Ti、Giを組み合わせて長さがΦのベクトルΨiを形成し、アイテムxiの元の決定ベクトルを構成し、その各要素Ψinはアイテムxiの決定成分であり、Φ=n1+n2+n3,n=1,2,・・・,Φである。 Vectors C i , T i , G i are combined to form a vector Ψ i of length Φ and constitute the original decision vector of item x i , each element Ψ in of which is a decision component of item x i . , Φ=n 1 +n 2 +n 3 , n=1, 2, . . . , Φ.
ステップ3では、注意メカニズムを融合したユーザー嗜好感知モデルを構築し、図2に示すように、該モデルは深層信念ネットワーク(Deep Belief Network、DBN)に基づいて3層の制限付きボルツマンマシン(Restricted Boltzmann Machine、RBM)から構成され、1層目の制限付きボルツマンマシンRBM1の可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、第1組の可視ユニットv1はn1個のユニットを有し、各ユニットは二値変数であり、第2組及び第3組の可視ユニットv2及びv3はそれぞれn2及びn3個のユニットを有し、各ユニットはいずれも実数変数であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンRBM2を構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンRBM3を構成する。h1、h2、及びh3はそれぞれM1、M2及びM3個の隠れユニットを有し、各隠れユニットはいずれも実数変数であり、各RBMについて、隠れユニットの数は可視ユニットの総数の0.8~1.2倍から選択され、本実施例では、0.8倍に設定される。それによって、h1における隠れユニットの数M1は、M1=┌0.8*Φ┐であり、Φn1+n2+n3であり、┌g┐は切り上げ演算であり、h2における隠れユニットの数M2は、M2=┌0.8*M1┐であり、h3における隠れユニットの数M3は、M3=┌0.8*M2┐である。注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であり、ここで、{w1,a1,b1}、{w2,a2,b2}及び{w3,a3,b3}はそれぞれRBM1、RBM2、及びRBM3のモデルパラメータを表し、wτはτ層目のRBM可視ユニットと隠れユニットとの間の接続重みを表し、aτ及びbτそれぞれはτ層目のRBM可視ユニット及び隠れユニットのバイアスを表し、τ∈{1,2,3}である。 In step 3, a user preference sensing model that combines the attention mechanism is constructed, and as shown in Figure 2, the model is a three-layer Restricted Boltzmann machine based on a deep belief network (DBN). Machine, RBM), and the visible layer of the first layer restricted Boltzmann machine RBM1 includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , The hidden layer is h 1 , the first set of visible units v 1 has n 1 units, each unit is a binary variable, and the second and third sets of visible units v 2 and v 3 have n 2 and n 3 units, respectively, each unit is a real variable, h 1 constitutes the second layer restricted Boltzmann machine RBM2 together with the hidden layer h 2 as the visible layer, and h 2 constitutes the third layer restricted Boltzmann machine RBM3 together with the hidden layer h3 as a visible layer. h 1 , h 2 and h 3 each have M 1 , M 2 and M 3 hidden units, each hidden unit is a real variable, and for each RBM, the number of hidden units is equal to the number of visible units. It is selected from 0.8 to 1.2 times the total number, and in this embodiment, it is set to 0.8 times. Thereby, the number M 1 of hidden units in h 1 is M 1 =┌0.8*Φ┐, Φn 1 +n 2 +n 3 , ┌g┐ is the round-up operation, and the hidden units in h 2 The number M 2 of hidden units in h 3 is M 2 =┌0.8*M 1 ┐, and the number M 3 of hidden units in h 3 is M 3 =┌0.8*M 2 ┐. The parameters of the user preference sensing model that combines the attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 }, where {w 1 , a 1 , b 1 }, {w 2 , a 2 , b 2 } and {w 3 , a 3 , b 3 } are RBM1, RBM2, and RBM3, respectively. represents the model parameters, w τ represents the connection weight between the τ-th RBM visible unit and hidden unit, a τ and b τ represent the bias of the τ-th RBM visible unit and hidden unit, respectively, and τ ∈{1, 2, 3}.
優位アイテムグループDを使用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンRBM1を訓練し、そのモデルパラメータθ1={w1,a1,b1}を取得する。このステップでは、RBM1のみを訓練することは、RBM1の事前訓練とみなされてもよく、後続のステップでは、RBM1、RBM2、RBM3を再度層ごとに訓練する。アイテムx1の決定ベクトルΨiはCi、Ti、及びGiを組み合わせてなり、Ci、Ti、及びGiに含まれるユーザー嗜好情報は異なり、例えば、カテゴリラベルベクトルCiの長さniは通常アイテムの画像特徴のベクトル化表現Giの長さn3未満であり、アイテムの決定ベクトルにおける各成分を平等に取り扱うと、多い情報量を含むデータは少ない嗜好情報を含むデータを埋没させ、このような少ない嗜好情報を含むデータはユーザー嗜好感知モデルの構築に対して有益な補充であり、無視できない。したがって、本発明は、各データタイプで表される情報エントロピーと組み合わせて、重みを利用してユーザー嗜好感知モデルの可視層のニューラルユニットに入力される様々なマルチソース異種データの成分を調整することを考慮することで、様々なタイプのデータがユーザー嗜好感知モデルの構築に効果的に貢献できることを確保する。 Using the dominant item group D, train the first-layer restricted Boltzmann machine RBM1 in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and calculate its model parameters θ 1 = {w 1 , a 1 , b 1 }. In this step, training only RBM1 may be considered as pre-training of RBM1, and in subsequent steps, RBM1, RBM2, RBM3 are trained layer by layer again. The decision vector Ψ i of item x 1 is a combination of C i , T i , and G i , and the user preference information contained in C i , T i , and G i is different, for example, the length of the category label vector C i s n i is usually the length n of the vectorized representation G i of the item's image feature. If each component in the item's decision vector is treated equally, data containing a large amount of information will be compared to data containing a small amount of preference information. Data containing such little preference information is a useful addition to the construction of a user preference sensing model and cannot be ignored. Therefore, the present invention utilizes weights to adjust the components of various multi-source heterogeneous data input to the neural unit of the visible layer of the user preference sensing model, in combination with the information entropy represented by each data type. ensuring that different types of data can effectively contribute to building user preference sensing models.
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムx1のベクトル表現[Ci,Ti,Gi]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
情報エントロピーの式
アイテムカテゴリラベルの情報エントロピーは、
テキストコメントベクトルの情報エントロピーは、
アイテム画像特徴ベクトルの情報エントロピーは、
ここで、cijはアイテムxiのカテゴリラベルベクトルCiのj番目の要素を表し、p(cij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
tikはアイテムxiに対するユーザーuのテキストコメントのベクトル化表現Tiのk番目の要素を表し、p(tik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
gilは、アイテムxiの画像特徴のベクトル化表現Giのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、さらに、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
可視ユニットの状態が与えられ、すなわち、ベクトルCi、Ti、Giを組み合わせてアイテムxiの決定ベクトルΨiを構成してv1、v2、v3における各可視ユニットに入力すると、隠れ層h1における各隠れユニットの活性化状態は条件付き独立であり、m1番目の隠れユニットの活性化確率は、
ここで、m1=1,2,・・・,M1であり、
The information entropy of the item category label is
The information entropy of the text comment vector is
The information entropy of the item image feature vector is
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, further calculate the ratio of various information entropies to the total information entropy as a weighting factor,
Given the states of the visible units, i.e., combining the vectors C i , T i , G i to form the decision vector Ψ i of item x i to input each visible unit in v 1 , v 2 , v 3 , The activation state of each hidden unit in the hidden layer h1 is conditionally independent, and the activation probability of the m1th hidden unit is
Here, m 1 =1, 2,..., M 1 ,
隠れユニットの状態が与えられると、各可視ユニットの活性化状態も条件付き独立であり、n番目の可視ユニットの活性化確率は、
ここで、a1,nは可視層におけるn番目の可視ユニットのバイアスを表す。
Given the state of the hidden unit, the activation state of each visible unit is also conditionally independent, and the activation probability of the nth visible unit is
Here, a 1,n represents the bias of the nth visible unit in the visible layer.
RBM1の訓練が完了した後、式(5)に従ってアイテムxiに対応する各隠れユニットの状態を取得でき、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数atn(xi)として取得でき、
注意重み係数atn(xi)をアイテムxiの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxiに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
xatiを事前訓練後のRBM1に入力して可視ユニットの活性化確率VRBM1(xati)を得て、
ここで、
x ati is input to RBM1 after pre-training to obtain the activation probability V RBM1 (x ati ) of the visible unit,
here,
式(9)は実際に隠れユニットの活性化確率と可視ユニットの活性化確率とを入れ子にし、すなわち、
取得されたRBM1モデルにおける可視ユニットの活性化確率VRBM1(xati)及び文献Li J , Wang Y , Mcauley J . Time Interval Aware Self-Attention for Sequential Recommendation. In: WSDM ‘20: The Thirteenth ACM International Conference on Web Search and Data Mining. ACM, 2020.に提供されていた自己注意メカニズムを利用して、RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxiの元の決定ベクトルCi,Ti,Giとを組み合わせて、注意メカニズムを融合したアイテム決定ベクトルを生成し、
The activation probability V RBM1 (x ati ) of the visible unit in the obtained RBM1 model and the literature Li J, Wang Y, Mcauley J. Time Interval Aware Self-Attention for Sequential Recommendation. In: WSDM '20: The Thirteenth ACM International Conference on Web Search and Data Mining. ACM, 2020. Using the self - attention mechanism provided in learn from
Combining the user preference attention weight vector A(x ati ) and the original decision vector C i , T i , G i of item x i to generate an item decision vector that fuses the attention mechanism;
ここでのDBNのモデル訓練方法は改良された注意メカニズムベースのDBNモデル訓練方法であり、自己適応重み情報を使用してユーザー嗜好特徴を抽出し、注意を重要な特徴に集中させ、実際の応用シーンにおける各アイテムの異なるタイプの属性決定成分のユーザー嗜好特徴への影響をより適切に表現し、ユーザー嗜好特徴をより細かく表現することを目的とする。 The DBN model training method here is an improved attention mechanism-based DBN model training method, which uses self-adaptive weight information to extract user preference features, focus attention on important features, and improve practical application. The purpose is to more appropriately represent the influence of different types of attribute determining components of each item in a scene on user preference features, and to express user preference features in more detail.
ステップ4では、訓練済みの注意メカニズムを融合したDBNベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表し、その計算は、
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルP(x)を計算し、
ここで、εは所定の下界閾値であり、本実施例では、ε=0.1であり、すなわち、式(18)に従って算出される活性化確率が0.1未満の決定成分に対して、その活性化確率値を0.1に設定し、該制約は決定成分の活性化確率が小さい場合、一定の確率値で該決定成分をランダムにサンプリングすることを考慮することで、生成される個体群の多様性を高め、進化最適化アルゴリズムの早期収束によって最適解を見逃さないことを防止する。
In step 4, a user preference-based distribution estimation probability model P(x) is constructed based on the DBN-based user preference sensing model that combines the trained attention mechanism and its model parameters;
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item represents the preference probability of, and its calculation is,
First, a user preference-based probability distribution model P(x) is calculated based on the dominant item group D,
Here, ε is a predetermined lower bound threshold, and in this example, ε=0.1, that is, for a determining component whose activation probability calculated according to equation (18) is less than 0.1, The activation probability value is set to 0.1, and the constraint is that when the activation probability of a determining component is small, the determined component is randomly sampled with a certain probability value. Increase the diversity of the group and prevent the optimal solution from being missed by early convergence of the evolutionary optimization algorithm.
ステップ5では、個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズム(Estimation of Distribution Algorithms、EDA)でN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψj=1)である場合、v番目の新個体のカテゴリラベルベクトル
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことである。
In step 5, the population size N is set, and N new individuals are generated using a distribution estimation algorithm (EDA) using the user preference-based distribution estimation probability model P(x). , each individual is one item, and the category label vector of the vth new individual is
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
(5.3) Add 1 to v and repeat step (5.2) until v>N.
ステップ6では、検索空間においてN個の新個体のカテゴリラベルベクトル
ステップ7では、推薦対象アイテムセットSuにおける各アイテムの適応値を計算し、
本発明では、エネルギー関数を使用してアイテムの適応値を計算し、推薦対象アイテムセットSuにおけるアイテムx*について、その適応値
ここで、
ここで、a1,nはRBM1の可視層におけるn番目の可視ユニットのバイアスを表し、
In the present invention, the adaptive value of the item is calculated using the energy function, and the adaptive value of the item x * in the recommendation target item set S u is
here,
Here, a 1,n represents the bias of the nth visible unit in the visible layer of RBM1,
ステップ8では、Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである。 In step 8, TopN items with the highest adaptation values in S u are selected as the search results, and TopN<N.
マルチソース異種ユーザー生成コンテンツの動的進化の特徴及びユーザー趣味嗜好の不確実性によって、パーソナライズド進化検索プロセスの早期段階では、優位アイテムグループDに含まれるユーザー嗜好情報が不十分であり、したがって、この訓練されたユーザー嗜好感知モデルに基づいて抽出されるユーザー嗜好特徴は大まかである。これに伴ってユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新し、ユーザー嗜好変化をタイムリーに追跡すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新することで、パーソナライズド進化検索の進行方向を効果的にガイドし、ユーザーができるだけ早く満足の行く解を検索することを支援し、複雑な環境におけるパーソナライズド検索タスクをスムーズに完了する。 Due to the dynamic evolution characteristics of multi-source heterogeneous user-generated content and the uncertainty of user tastes and preferences, the user preference information contained in the dominant item group D is insufficient at the early stage of the personalized evolutionary search process, and therefore, The user preference features extracted based on this trained user preference sensing model are rough. Along with this, along with the promotion of the user's interactive search process and the dynamic evolution of user behavior, the dominant item group D is updated according to the latest evaluation data of the current user, and a user preference sensing model that combines an attention mechanism is developed. By re-training and dynamically updating the extracted user preference features to track changes in user preferences in a timely manner, and at the same time updating the user preference-based distribution estimation probability model P(x), personalized evolution can be achieved. It effectively guides the search direction, helps users search for satisfactory solutions as quickly as possible, and smoothly completes personalized search tasks in complex environments.
本実施例は上記パーソナライズド検索方法を実現する注意メカニズムを融合したパーソナライズド検索システムをさらに開示し、図3に示すように、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュール1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュール2と、
ステップ3に従って注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であるユーザー嗜好感知モデル構築訓練モジュール3と、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュール4と、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュール5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
ステップ7に従って推薦対象アイテムセットSuにおける各アイテムの適応値を計算する適応値計算モジュール7と、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュール8と、を含む。
This embodiment further discloses a personalized search system that combines an attention mechanism to realize the above-mentioned personalized search method, and as shown in FIG. 3,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module 1 that vectorizes comments, performs feature extraction on item images, and acquires eigenvectors;
a superior item group construction module 2 that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module for building and training a user preference sensing model fused with an attention mechanism according to step 3, the model comprising three layers of restricted Boltzmann machines based on a deep belief network; The visible layer of the Boltzmann machine with limited layers includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , and the hidden layers are h 1 and h 1 constitutes a second-layer restricted Boltzmann machine with hidden layer h2 as a visible layer, and constitutes a third-layer restricted Boltzmann machine with hidden layer h3 as a visible layer, and the above attention mechanism is The parameters of the fused user preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } User preference sensing model construction training module 3, which is
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module 4 representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module 5 that sets a category label vector for each new individual;
Category label vector of N new individuals in search space
an adaptation value calculation module 7 that calculates the adaptation value of each item in the recommendation target item set S u according to step 7;
A search result selection module 8 that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.
(付記)
(付記1)
注意メカニズムを融合したパーソナライズド検索方法であって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,xi,Ci,Ti,Gi)}であり、ここで、xi∈Dであり、Ciはアイテムxiのカテゴリラベルベクトルであり、Tiはアイテムxiに対するユーザーのテキストコメントのベクトル化表現であり、Giはアイテムxiの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であり、
優位アイテムグループDを利用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンを訓練し、そのモデルパラメータθ1={w1,a1,b1}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxiのベクトル表現[Ci,Ti,Gi]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
テキストコメントベクトルの情報エントロピーは、
アイテム画像特徴ベクトルの情報エントロピーは、
ここで、cijはアイテムxiのカテゴリラベルベクトルCiのj番目の要素を表し、p(cij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
tikはアイテムxiに対するユーザーuのテキストコメントのベクトル化表現Tiのk番目の要素を表し、p(tik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
gilは、アイテムxiの画像特徴のベクトル化表現Giのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ベクトルCi、Ti、Giを組み合わせてアイテムxiの決定ベクトルΨiを構成してv1、v2、v3における各可視ユニットに入力すると、隠れ層h1における各隠れユニットの活性化状態は条件付き独立であり、m1番目の隠れユニットの活性化確率は、
ここで、m1=1,2,・・・,M1であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxiに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数atn(xi)として取得し、
注意重み係数atn(xi)をアイテムxiの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxiに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxiの元の決定ベクトルCi,Ti,Giとを組み合わせて注意メカニズムを融合したアイテム決定ベクトルを生成し、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムでN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψj=1)である場合、v番目の新個体のカテゴリラベルベクトル
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値
ここで、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する、
ことを特徴とする注意メカニズムを融合したパーソナライズド検索方法。
(Additional note)
(Additional note 1)
A personalized search method that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and Step 1 of vectorizing comments, extracting features from item images, and obtaining eigenvectors;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. It includes a unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer with the restriction of the second layer together with the hidden layer h 2 A Boltzmann machine is constructed, h2 is a visible layer, and a hidden layer h3 constitutes a third layer restricted Boltzmann machine, and the parameters of the user preference sensing model that combines the above attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first-layer restricted Boltzmann machine in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and set the model parameters θ1={w 1 , a 1 , b 1 },
After the training of the first layer RBM model is completed, given the state of hidden units, the activation state of each visible unit is conditionally independent, and the vector representation of some item xi [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first, second, and third visible units are respectively
Here, a 1 , j , a 1 , k and a 1 , l represent the biases of the first set, second set and third set of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
The information entropy of the text comment vector is
The information entropy of the item image feature vector is
Here, c ij represents the j-th element of the category label vector C i of item x i , and p (cij) is the activation probability of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p(t ik ) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
Here, m 1 =1, 2,...,M1,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Generating an item decision vector that combines the attention mechanism by combining the user preference attention weight vector A(x ati ) and the original decision vectors C i , T i , G i of item x i ;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, and use the user preference-based distribution estimation probability model P(x) to generate N new individuals with the distribution estimation algorithm, each individual being one item, and the v-th Category label vector of new individual
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
Adaptation value of each item in the recommendation target item set S u
here,
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of users' interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of current users, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updating the extracted user preference features and simultaneously updating the user preference-based distribution estimation probability model P(x);
A personalized search method that combines an attention mechanism characterized by:
(付記2)
前記優位アイテムグループDには割合がηの新アイテムがさらに含まれ、前記新アイテムは検索空間においてランダムにサンプリングすることによって得られる、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Additional note 2)
The superior item group D further includes new items with a ratio of η, and the new items are obtained by randomly sampling in the search space.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:
(付記3)
現在のユーザーuが新アイテムを評価していない場合、現在のユーザーuの類似ユーザーu’が該新アイテムに対して行ったテキストコメントを該新アイテムに対するユーザーuの評価として使用し、ユーザーuの複数の類似ユーザーがいずれも該新アイテムを評価した場合、ユーザーuとの類似度が最も大きいユーザーの評価を選択し、現在のユーザーuの類似ユーザーがいずれも該新アイテムを評価していない場合、該新アイテムに対するユーザーuの評価はランダムに値を割り当てる方式を使用する、
ことを特徴とする付記2に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 3)
If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as user u's rating for the new item, and If multiple similar users have all rated the new item, select the rating of the user with the highest degree of similarity to user u, and if none of the current user u's similar users have rated the new item. , user u's evaluation of the new item uses a method of randomly assigning values;
A personalized search method that combines the attention mechanism described in Appendix 2, characterized in that:
(付記4)
ユーザーuの類似ユーザーは、ユーザーuと共通のスコアアイテムを有し且つ類似度が所定の類似度閾値よりも大きいユーザーであり、ユーザーuと共通のスコアアイテムを有するユーザーu’について、u’≠uであり、uとu’との類似度Sim(u,u’)は、
ここで、
ことを特徴とする付記3に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Additional note 4)
A similar user to user u is a user who has a common score item with user u and whose degree of similarity is greater than a predetermined similarity threshold, and for user u' who has a common score item with user u, u'≠ u, and the similarity Sim(u, u') between u and u' is
here,
A personalized search method that combines the attention mechanism described in Appendix 3, characterized in that:
(付記5)
DBNにおけるRBM1、RBM2、RBM3モデルを層ごとに訓練する前記ステップは、具体的には、
まず、RBM1を訓練し、パラメータ{w1,a1,b1}を得て、b1をRBM2におけるa2に伝達した上でRBM2を訓練し、最適化パラメータ{w2,a2,b2}を取得し、b2をRBM3におけるa3に伝達した上でRBM3を訓練し、最適化パラメータ{w3,a3,b3}を取得することである、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 5)
Specifically, the step of training the RBM1, RBM2, and RBM3 models in the DBN layer by layer includes:
First, train RBM1, obtain the parameters {w 1 , a 1 , b 1 }, transfer b 1 to a 2 in RBM2, train RBM2, and obtain the optimization parameters {w 2 , a 2 , b 2 }, transmit b 2 to a 3 in RBM3, train RBM3, and obtain optimization parameters {w 3 , a 3 , b 3 }.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:
(付記6)
アイテムのn番目の決定成分に対する前記ユーザーの嗜好確率P(ψn)の計算は、
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルp(x)を計算し、
εは所定の下界閾値である、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 6)
The calculation of the user's preference probability P(ψ n ) for the nth determining component of the item is
First, a user preference-based probability distribution model p(x) is calculated based on the dominant item group D,
ε is a predetermined lower bound threshold;
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:
(付記7)
前記3層の制限付きボルツマンマシンでは、各層の制限付きボルツマンマシンにおける隠れ層の隠れユニットの数は可視層における可視ユニットの数の0.8~1.2倍である、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 7)
In the three-layer restricted Boltzmann machine, the number of hidden units in the hidden layer in each layer of the restricted Boltzmann machine is 0.8 to 1.2 times the number of visible units in the visible layer.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:
(付記8)
優位アイテムグループDに対する新アイテムの割合はη<30%である、
ことを特徴とする付記2に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 8)
The ratio of new items to superior item group D is η<30%,
A personalized search method that combines the attention mechanism described in Appendix 2, characterized by the following.
(付記9)
前記ステップ6はユークリッド距離を使用して類似度計算を行い、すなわち、2つのベクトル間のユークリッド距離が小さいほど、両者の類似度が高い、
ことを特徴とする付記1に記載の注意メカニズムを融合したパーソナライズド検索方法。
(Appendix 9)
The step 6 calculates the similarity using Euclidean distance, that is, the smaller the Euclidean distance between two vectors, the higher the similarity between them.
A personalized search method that combines the attention mechanism described in Appendix 1, characterized in that:
(付記10)
注意メカニズムを融合したパーソナライズド検索システムであって、
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体カテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値を計算する適応値計算モジュールと、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む、ことを特徴とする注意メカニズムを融合したパーソナライズド検索システム。
(Appendix 10)
A personalized search system that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module that vectorizes comments, extracts features from item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
N new individual category label vectors in the search space
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A personalized search system integrating an attention mechanism, comprising: a search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.
Claims (10)
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するステップ1と、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成するステップ2であって、DにおけるアイテムはセットSを構成し、S={(u,xi,Ci,Ti,Gi)}であり、ここで、xi∈Dであり、Ciはアイテムxiのカテゴリラベルベクトルであり、Tiはアイテムxiに対するユーザーのテキストコメントのベクトル化表現であり、Giはアイテムxiの画像特徴のベクトル化表現であり、i=1,2,・・・,|D|であり、|D|はDにおけるアイテム数を表すステップ2と、
注意メカニズムを融合したユーザー嗜好感知モデルを構築し、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であり、
優位アイテムグループDを利用して、コントラスティブダイバージェンス学習アルゴリズムで注意メカニズムを融合したユーザー嗜好感知モデルにおける1層目の制限付きボルツマンマシンを訓練し、そのモデルパラメータθ1={w1,a1,b1}を取得し、
1層目のRBMモデルの訓練が完了した後、隠れユニットの状態が与えられると、各可視ユニットの活性化状態は条件付き独立であり、あるアイテムxiのベクトル表現[Ci,Ti,Gi]は可視層に入力され、その第1組、第2組及び第3組の可視ユニットの活性化確率はそれぞれ
ここで、a1,j、a1,k及びa1,lはそれぞれ第1組、第2組及び第3組の可視ユニットのバイアスを表し、
様々なマルチソース異種データの情報エントロピーを計算し、アイテムカテゴリラベルの情報エントロピーは、
テキストコメントベクトルの情報エントロピーは、
アイテム画像特徴ベクトルの情報エントロピーは、
ここで、cijはアイテムxiのカテゴリラベルベクトルCiのj番目の要素を表し、p(cij)はRBM1においてアイテムカテゴリラベルのベクトル表現のj番目の要素に対応する可視ユニットの活性化確率を表し、
tikはアイテムxiに対するユーザーuのテキストコメントのベクトル化表現Tiのk番目の要素を表し、p(tik)はRBM1においてユーザーのテキストコメントのベクトル表現のk番目の要素に対応する可視ユニットの活性化確率を表し、
gilは、アイテムxiの画像特徴のベクトル化表現Giのl番目の要素を表し、p(gil)はRBM1においてアイテム画像特徴のベクトル表現のl番目の要素に対応する可視ユニットの活性化確率を表し、
次に、総情報エントロピーに対する様々な情報エントロピーの割合を重み係数として計算し、
ベクトルCi、Ti、Giを組み合わせてアイテムxiの決定ベクトルΨiを構成してv1、v2、v3における各可視ユニットに入力すると、隠れ層h1における各隠れユニットの活性化状態は条件付き独立であり、m1番目の隠れユニットの活性化確率は、
ここで、m1=1,2,・・・,M1であり、
RBM1の訓練が完了した後、式(9)に従ってアイテムxiに対応する各隠れユニットの状態を取得し、さらに優位アイテムグループDにおける各アイテムの各決定成分に対するユーザーの嗜好度、すなわち可視層のユニットの活性化確率を、注意重み係数atn(xi)として取得し、
注意重み係数atn(xi)をアイテムxiの各決定成分の重み係数として優位アイテムグループDにおけるアイテムxiに対して注意メカニズムに基づく符号化を行い、符号化後、xatiで表し、
RBM1の可視ユニットの活性化確率VRBM1(xati)で自己注意メカニズム演算を行い、アイテム個体のユーザー嗜好注意重みベクトルA(xati)を動的に学習し、
ユーザー嗜好注意重みベクトルA(xati)とアイテムxiの元の決定ベクトルCi,Ti,Giとを組み合わせて注意メカニズムを融合したアイテム決定ベクトルを生成し、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すステップ4と、
個体群のサイズNを設定し、ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムでN個の新個体を生成し、各個体は1つのアイテムであり、v番目の新個体のカテゴリラベルベクトル
(5.1)v=1とし、
(5.2)[0,1]の乱数zを生成し、z≦P(ψj=1)である場合、v番目の新個体のカテゴリラベルベクトル
(5.3)vに1を足し、v>Nになるまでステップ(5.2)を繰り返すことであるステップ5と、
検索空間においてN個の新個体のカテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値
ここで、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nであるステップ8と、を含み、
ユーザーの対話型検索プロセスの推進及びユーザー行動の動的進化に伴い、現在のユーザーの最新の評価データに応じて優位アイテムグループDを更新し、注意メカニズムを融合したユーザー嗜好感知モデルを再度訓練し、抽出されたユーザー嗜好特徴を動的に更新すると同時に、ユーザー嗜好ベースの分布推定確率モデルP(x)を更新する、
ことを特徴とする注意メカニズムを融合したパーソナライズド検索方法。 A personalized search method that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and Step 1 of vectorizing comments, extracting features from item images, and obtaining eigenvectors;
Step 2 of configuring a dominant item group D including user preferences with items having a user score larger than a predetermined score threshold and a reliability larger than a predetermined confidence threshold, the items in D forming a set S; , S={(u, x i , C i , T i , G i )}, where x i ∈D, C i is the category label vector of item x i , and T i is the item is a vectorized representation of the user's text comment for x i , G i is a vectorized representation of the image features of item x i , i = 1, 2, ..., |D|, and |D| Step 2 representing the number of items in D;
A user preference sensing model that combines attention mechanisms is constructed, and the model is composed of three layers of restricted Boltzmann machines based on a deep belief network, and the visible layer of the first layer of restricted Boltzmann machines is the first set of visible layers. It includes a unit v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer with the restriction of the second layer together with the hidden layer h 2 A Boltzmann machine is constructed, h2 is a visible layer, and a hidden layer h3 constitutes a third layer restricted Boltzmann machine, and the parameters of the user preference sensing model that combines the above attention mechanism are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 },
Using the dominant item group D, train the first-layer restricted Boltzmann machine in the user preference sensing model that combines the attention mechanism with the contrastive divergence learning algorithm, and calculate the model parameters θ 1 = {w 1 , a 1 , b 1 },
After the training of the first layer RBM model is completed, given the state of the hidden unit, the activation state of each visible unit is conditionally independent, and the vector representation of some item x i [C i , T i , G i ] is input to the visible layer, and the activation probabilities of the first set, second set, and third set of visible units are respectively
Here, a 1,j , a 1,k and a 1,l represent the biases of the first set, second set and third set of visible units, respectively;
The information entropy of various multi-source heterogeneous data is calculated, and the information entropy of item category label is
The information entropy of the text comment vector is
The information entropy of the item image feature vector is
Here, c ij represents the j-th element of the category label vector C i of item x i , and p ( c ij) is the activation of the visible unit corresponding to the j-th element of the vector representation of the item category label in RBM1. represents the probability,
t ik represents the kth element of the vectorized representation T i of user u's text comment for item x i , and p ( t ik) is the visible vector representation T i of the vectorized representation of user u's text comment in RBM1. represents the activation probability of the unit,
g il represents the lth element of the vectorized representation G i of the image features of item x i , and p (gil) is the activation of the visible unit corresponding to the lth element of the vectorized representation of the item image features in RBM1. represents the probability,
Next, calculate the ratio of various information entropies to the total information entropy as a weighting factor,
When vectors C i , T i , G i are combined to form the decision vector Ψ i of item x i and inputted to each visible unit in v 1 , v 2 , v 3 , the activation of each hidden unit in hidden layer h 1 is The activation states are conditionally independent, and the activation probability of the m - th hidden unit is
Here, m 1 =1, 2,..., M 1 ,
After the training of RBM1 is completed, the state of each hidden unit corresponding to item x i is obtained according to equation (9), and the user's preference degree for each determining component of each item in dominant item group D, that is, the state of the visible layer Obtain the activation probability of the unit as an attention weighting coefficient at n (x i ),
Encoding is performed on the item x i in the dominant item group D based on the attention mechanism using the attention weight coefficient at n (x i ) as the weight coefficient of each determining component of the item x i , and after encoding, it is expressed as x ati ,
Perform a self-attention mechanism calculation using the activation probability V RBM1 (x ati ) of the visible unit of RBM1, dynamically learn the user preference attention weight vector A (x ati ) for each item,
Generating an item decision vector that combines the attention mechanism by combining the user preference attention weight vector A(x ati ) and the original decision vectors C i , T i , G i of item x i ;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item Step 4 representing the preference probability of
Set the population size N, and use the user preference-based distribution estimation probability model P(x) to generate N new individuals with the distribution estimation algorithm, each individual being one item, and the v-th Category label vector of new individual
(5.1) Let v=1,
(5.2) Generate a random number z of [0, 1], and if z≦P (ψ j =1), the category label vector of the vth new individual
(5.3) Step 5, which is to add 1 to v and repeat step (5.2) until v>N;
Category label vector of N new individuals in search space
Adaptation value of each item in the recommendation target item set S u
here,
Selecting the top N items with the highest adaptation value in S u as the search results, TopN<N, step 8;
With the promotion of users' interactive search process and the dynamic evolution of user behavior, we will update the dominant item group D according to the latest evaluation data of current users, and retrain the user preference sensing model that combines the attention mechanism. , dynamically updating the extracted user preference features and simultaneously updating the user preference-based distribution estimation probability model P(x);
A personalized search method that combines an attention mechanism characterized by:
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。 The superior item group D further includes new items with a ratio of η, and the new items are obtained by randomly sampling in the search space.
A personalized search method combining the attention mechanism according to claim 1.
ことを特徴とする請求項2に記載の注意メカニズムを融合したパーソナライズド検索方法。 If the current user u has not rated the new item, the text comment made by the current user u's similar user u' to the new item is used as user u's rating for the new item, and If multiple similar users have all rated the new item, select the rating of the user with the highest degree of similarity to user u, and if none of the current user u's similar users have rated the new item. , user u's evaluation of the new item uses a method of randomly assigning values;
A personalized search method combining the attention mechanism according to claim 2.
ここで、
ことを特徴とする請求項3に記載の注意メカニズムを融合したパーソナライズド検索方法。 A similar user to user u is a user who has a common score item with user u and whose degree of similarity is greater than a predetermined similarity threshold, and for user u' who has a common score item with user u, u'≠ u, and the similarity Sim(u, u') between u and u' is
here,
A personalized search method combining the attention mechanism according to claim 3.
まず、RBM1を訓練し、パラメータ{w1,a1,b1}を得て、b1をRBM2におけるa2に伝達した上でRBM2を訓練し、最適化パラメータ{w2,a2,b2}を取得し、b2をRBM3におけるa3に伝達した上でRBM3を訓練し、最適化パラメータ{w3,a3,b3}を取得することである、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。 Specifically, the step of training the RBM1, RBM2, and RBM3 models in the DBN layer by layer includes:
First, train RBM1, obtain the parameters {w 1 , a 1 , b 1 }, transfer b 1 to a 2 in RBM2, train RBM2, and obtain the optimization parameters {w 2 , a 2 , b 2 }, transmit b 2 to a 3 in RBM3, train RBM3, and obtain optimization parameters {w 3 , a 3 , b 3 }.
A personalized search method combining the attention mechanism according to claim 1.
まず、優位アイテムグループDに基づいてユーザー嗜好ベースの確率分布モデルp(x)を計算し、
εは所定の下界閾値である、
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。 The calculation of the user's preference probability P(ψ n ) for the nth determining component of the item is
First, a user preference-based probability distribution model p(x) is calculated based on the dominant item group D,
ε is a predetermined lower bound threshold;
A personalized search method combining the attention mechanism according to claim 1.
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。 In the three-layer restricted Boltzmann machine, the number of hidden units in the hidden layer in each layer of the restricted Boltzmann machine is 0.8 to 1.2 times the number of visible units in the visible layer.
A personalized search method combining the attention mechanism according to claim 1.
ことを特徴とする請求項2に記載の注意メカニズムを融合したパーソナライズド検索方法。 The ratio of new items to superior item group D is η<30%,
A personalized search method combining the attention mechanism according to claim 2.
ことを特徴とする請求項1に記載の注意メカニズムを融合したパーソナライズド検索方法。 The step 6 calculates the similarity using Euclidean distance, that is, the smaller the Euclidean distance between two vectors, the higher the similarity between them.
A personalized search method combining the attention mechanism according to claim 1.
ユーザーuが評価したすべてのアイテム、各アイテムに対するスコア及びテキストコメント、各アイテムの画像、及びユーザーuの評価に対するほかのユーザーの有用性評価スコアを含むユーザーu生成コンテンツを収集して取得し、テキストコメントをベクトル化し、アイテム画像に対して特徴抽出を行い、固有ベクトルを取得するユーザー生成コンテンツ取得モジュールと、
ユーザースコアが所定のスコア閾値よりも大きく且つ信頼度が所定の信頼度閾値よりも大きいアイテムでユーザー嗜好を含む優位アイテムグループDを構成する優位アイテムグループ構築モジュールと、
注意メカニズムを融合したユーザー嗜好感知モデルを構築して訓練するユーザー嗜好感知モデル構築訓練モジュールであって、前記モデルは深層信念ネットワークに基づいて3層の制限付きボルツマンマシンから構成され、1層目の制限付きボルツマンマシンの可視層は第1組の可視ユニットv1、第2組の可視ユニットv2及び第3組の可視ユニットv3を含み、隠れ層はh1であり、h1は可視層として、隠れ層h2とともに2層目の制限付きボルツマンマシンを構成し、h2は可視層として、隠れ層h3とともに3層目の制限付きボルツマンマシンを構成し、前記注意メカニズムを融合したユーザー嗜好感知モデルのパラメータはθ={θ1,θ2,θ3}={w1,a1,b1,w2,a2,b2,w3,a3,b3}であるユーザー嗜好感知モデル構築訓練モジュールと、
訓練済みの注意メカニズムを融合した深層信念ネットワークベースのユーザー嗜好感知モデル及びそのモデルパラメータに基づいて、ユーザー嗜好ベースの分布推定確率モデルP(x)を構築し、
P(x)=[P(ψ1),P(ψ2),・・・,P(ψn),・・・,P(ψΦ)] (17)
ここで、(ψ1,ψ2,・・・,ψn,・・・,ψΦ)はアイテムxの元の決定ベクトルであり、P(ψn)はアイテムのn番目の決定成分に対するユーザーの嗜好確率を表すユーザー嗜好ベースの分布推定確率モデル構築モジュールと、
ユーザー嗜好ベースの分布推定確率モデルP(x)を使用して、分布推定アルゴリズムを採用して、それぞれ1つのアイテムであるN(Nは所定の個体群のサイズである)個の新個体を生成し、各新個体のカテゴリラベルベクトルを設定する個体群生成モジュールと、
検索空間においてN個の新個体カテゴリラベルベクトル
推薦対象アイテムセットSuにおける各アイテムの適応値を計算する適応値計算モジュールと、
Suにおける適応値が最も高い上位TopN個のアイテムを検索結果として選択し、TopN<Nである検索結果選択モジュールと、を含む、ことを特徴とする注意メカニズムを融合したパーソナライズド検索システム。 A personalized search system that combines an attention mechanism,
Collect and retrieve user u-generated content, including all items rated by user u, scores and text comments for each item, images of each item, and other users' usefulness evaluation scores for user u's ratings, and a user-generated content acquisition module that vectorizes comments, extracts features from item images, and acquires eigenvectors;
a superior item group construction module that configures a superior item group D including user preferences with items whose user score is greater than a predetermined score threshold and whose reliability is greater than a predetermined reliability threshold;
A user preference sensing model building and training module that builds and trains a user preference sensing model that integrates an attention mechanism, the model is composed of a three-layer restricted Boltzmann machine based on a deep belief network, and the first layer The visible layer of the restricted Boltzmann machine includes a first set of visible units v 1 , a second set of visible units v 2 and a third set of visible units v 3 , the hidden layer is h 1 , and h 1 is the visible layer. , a second-layer restricted Boltzmann machine is constructed with the hidden layer h2 , h2 is the visible layer, and a third-layer restricted Boltzmann machine is constructed with the hidden layer h3 . The parameters of the preference sensing model are θ={θ 1 , θ 2 , θ 3 }={w 1 , a 1 , b 1 , w 2 , a 2 , b 2 , w 3 , a 3 , b 3 } A preference sensing model construction training module;
Build a user preference-based distribution estimation probability model P(x) based on a deep belief network-based user preference sensing model that combines a trained attention mechanism and its model parameters,
P(x)=[P(ψ 1 ), P(ψ 2 ), ..., P(ψ n ), ..., P(ψ Φ )] (17)
Here, (ψ 1 , ψ 2 , ..., ψ n , ..., ψ Φ ) is the original decision vector of item x, and P (ψ n ) is the user's decision vector for the nth decision component of item a user preference-based distribution estimation probability model construction module representing preference probabilities;
Using the user preference-based distribution estimation probability model P(x), a distribution estimation algorithm is adopted to generate N (N is the size of a given population) new individuals, each of which is one item. and a population generation module that sets a category label vector for each new individual;
N new individual category label vectors in the search space
an adaptation value calculation module that calculates the adaptation value of each item in the recommendation target item set S u ;
A personalized search system integrating an attention mechanism, comprising: a search result selection module that selects TopN items with the highest adaptation value in Su as search results, and where TopN<N.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110399302.0A CN113127737B (en) | 2021-04-14 | 2021-04-14 | Personalized search method and search system integrating attention mechanism |
CN202110399302.0 | 2021-04-14 | ||
PCT/CN2022/083375 WO2022218139A1 (en) | 2021-04-14 | 2022-03-28 | Personalized search method and search system combined with attention mechanism |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023530370A JP2023530370A (en) | 2023-07-14 |
JP7393060B2 true JP7393060B2 (en) | 2023-12-06 |
Family
ID=76776325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022578858A Active JP7393060B2 (en) | 2021-04-14 | 2022-03-28 | Personalized search method and search system combining attention mechanism |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7393060B2 (en) |
CN (1) | CN113127737B (en) |
WO (1) | WO2022218139A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113127737B (en) * | 2021-04-14 | 2021-09-14 | 江苏科技大学 | Personalized search method and search system integrating attention mechanism |
CN113987261B (en) * | 2021-11-08 | 2023-07-18 | 烟台大学 | Video recommendation method and system based on dynamic trust perception |
CN117783051B (en) * | 2024-02-28 | 2024-06-14 | 西安尚展信息科技有限公司 | Methane gas leakage detection method based on multi-sensor data fusion |
CN118398217B (en) * | 2024-07-01 | 2024-09-03 | 广元市中心医院 | Multimode fusion hemodialysis data analysis method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008507041A (en) | 2004-07-13 | 2008-03-06 | グーグル インコーポレイテッド | Personalize the ordering of place content in search results |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6687696B2 (en) * | 2000-07-26 | 2004-02-03 | Recommind Inc. | System and method for personalized search, information filtering, and for generating recommendations utilizing statistical latent class models |
CN111291261B (en) * | 2020-01-21 | 2023-05-26 | 江西财经大学 | Cross-domain recommendation method integrating labels and attention mechanisms and implementation system thereof |
CN111339428B (en) * | 2020-03-25 | 2021-02-26 | 江苏科技大学 | Interactive personalized search method based on limited Boltzmann machine drive |
CN112328900A (en) * | 2020-11-27 | 2021-02-05 | 北京工业大学 | Deep learning recommendation method integrating scoring matrix and comment text |
CN113127737B (en) * | 2021-04-14 | 2021-09-14 | 江苏科技大学 | Personalized search method and search system integrating attention mechanism |
-
2021
- 2021-04-14 CN CN202110399302.0A patent/CN113127737B/en active Active
-
2022
- 2022-03-28 JP JP2022578858A patent/JP7393060B2/en active Active
- 2022-03-28 WO PCT/CN2022/083375 patent/WO2022218139A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008507041A (en) | 2004-07-13 | 2008-03-06 | グーグル インコーポレイテッド | Personalize the ordering of place content in search results |
Non-Patent Citations (1)
Title |
---|
三浦 大樹 ほか,ソーシャルサーチのための効率的な検索アルゴリズムの提案,情報処理学会 論文誌(トランザクション) データベース(TOD) [電子情報通信学会データ工学研究専門委員会共同編集] Vol.6 No.3,日本,情報処理学会,2013年,29~39 |
Also Published As
Publication number | Publication date |
---|---|
CN113127737A (en) | 2021-07-16 |
CN113127737B (en) | 2021-09-14 |
JP2023530370A (en) | 2023-07-14 |
WO2022218139A1 (en) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299396B (en) | Convolutional neural network collaborative filtering recommendation method and system fusing attention model | |
JP7393060B2 (en) | Personalized search method and search system combining attention mechanism | |
CN111523047B (en) | Multi-relation collaborative filtering algorithm based on graph neural network | |
CN109408627B (en) | Question-answering method and system fusing convolutional neural network and cyclic neural network | |
CN107122455A (en) | A kind of network user's enhancing method for expressing based on microblogging | |
Alboaneen et al. | Sentiment analysis via multi-layer perceptron trained by meta-heuristic optimisation | |
Shah et al. | Sentimental Analysis Using Supervised Learning Algorithms | |
CN109446414A (en) | A kind of software information website fast tag recommended method based on neural network classification | |
CN114358657B (en) | Post recommendation method and device based on model fusion | |
CN112000788B (en) | Data processing method, device and computer readable storage medium | |
CN112364236A (en) | Target object recommendation system, method and device, and data processing method and device | |
CN114817508A (en) | Sparse graph and multi-hop attention fused session recommendation system | |
CN115858919A (en) | Learning resource recommendation method and system based on project field knowledge and user comments | |
CN114444694A (en) | Open world knowledge graph complementing method and device | |
CN112486467B (en) | Interactive service recommendation method based on dual interaction relation and attention mechanism | |
CN117951375A (en) | Project recommendation method based on multi-task training project attribute diagram | |
Kumar et al. | Popularity Measuring and Prediction Mining of IPL Team Using Machine Learning | |
CN116306834A (en) | Link prediction method based on global path perception graph neural network model | |
CN114943216A (en) | Case microblog attribute-level viewpoint mining method based on graph attention network | |
Devi et al. | An innovative word embedded and optimization based hybrid artificial intelligence approach for aspect-based sentiment analysis of app and cellphone reviews | |
Lan et al. | Mining semantic variation in time series for rumor detection via recurrent neural networks | |
De Padua et al. | Post-processing association rules using networks and transductive learning | |
Wang | Semantic Text Matching Using Convolutional Neural Networks | |
Aruna et al. | Feature Selection Based Naïve Bayes Algorithm for Twitter Sentiment Analysis | |
Sreenivasulu et al. | Intelligent Deep Neural Network integrated with Chaotic Particle Swarm Intelligence based Sentiment Analysis in Big Data Paradigm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |