JP7041018B2 - Learning equipment, learning methods and learning programs - Google Patents
Learning equipment, learning methods and learning programs Download PDFInfo
- Publication number
- JP7041018B2 JP7041018B2 JP2018139835A JP2018139835A JP7041018B2 JP 7041018 B2 JP7041018 B2 JP 7041018B2 JP 2018139835 A JP2018139835 A JP 2018139835A JP 2018139835 A JP2018139835 A JP 2018139835A JP 7041018 B2 JP7041018 B2 JP 7041018B2
- Authority
- JP
- Japan
- Prior art keywords
- distribution
- vector
- distribution target
- learning
- predetermined user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 239000013598 vector Substances 0.000 claims description 213
- 238000012549 training Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 description 22
- 238000013500 data storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 101100460149 Arabidopsis thaliana NEN1 gene Proteins 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method and a learning program.
従来、各種の情報を利用者に対して提供する技術が知られている。このような技術の一例として、利用者が過去に選択した情報と関連する情報に基づいて、利用者と関連性が高い情報や利用者が興味を有する情報等、利用者と対応する情報を推定し、推定した情報を利用者に提供する技術が知られている。 Conventionally, a technique for providing various types of information to a user has been known. As an example of such technology, based on the information related to the information selected by the user in the past, the information corresponding to the user such as the information highly related to the user and the information that the user is interested in is estimated. However, there is known a technique for providing the estimated information to the user.
しかしながら、上述した従来技術では、利用者と対応する情報を適切に推定できない恐れがある。 However, with the above-mentioned conventional technology, there is a possibility that the information corresponding to the user cannot be estimated appropriately.
例えば、上述した従来技術では、新規の利用者等、過去に情報を選択していない利用者に対しては、利用者と対応する情報を適切に推定できない。 For example, in the above-mentioned conventional technology, it is not possible to appropriately estimate information corresponding to a user for a user who has not selected information in the past, such as a new user.
本願は、上記に鑑みてなされたものであって、利用者と対応する情報の推定精度を向上させることを目的とする。 The present application has been made in view of the above, and an object thereof is to improve the estimation accuracy of the information corresponding to the user.
本願に係る学習装置は、配信対象を示す複数の配信対象ベクトルを取得する取得部と、
所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、当該配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、前記配信候補ベクトルとに基づいて、前記配信候補が前記所定の利用者と対応するか否かを判定するモデルを、前記取得部により取得された配信対象ベクトルを用いて学習する学習部とを有することを特徴とする。
The learning device according to the present application includes an acquisition unit that acquires a plurality of distribution target vectors indicating distribution targets, and an acquisition unit.
When a plurality of distribution target vectors indicating a distribution target delivered to a predetermined user and a distribution candidate vector indicating a distribution candidate are input, a plurality of weights set based on the similarity with the distribution candidate vector are set. Based on the distribution target vector and the distribution candidate vector, a model for determining whether or not the distribution candidate corresponds to the predetermined user is learned using the distribution target vector acquired by the acquisition unit. It is characterized by having a learning unit.
実施形態の一態様によれば、利用者と対応する情報の推定精度を向上させることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the estimation accuracy of the information corresponding to the user can be improved.
以下に、本願に係る学習装置、学習方法及び学習プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法及び学習プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, the learning device, the learning method, and the embodiment for implementing the learning program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the learning device, learning method and learning program according to the present application. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.
〔1.ネットワークシステムの構成〕
まず、図1を参照して、実施形態に係るネットワークシステム1の構成について説明する。図1は、実施形態に係るネットワークシステム1の構成例を示す図である。図1に示すように、実施形態に係るネットワークシステム1には、端末装置10と、提供装置20と、学習装置100とが含まれる。端末装置10、提供装置20および学習装置100は、それぞれネットワークNと有線又は無線により接続される。
[1. Network system configuration]
First, the configuration of the
図1中では図示していないが、ネットワークシステム1は、端末装置101~10nを含んでもよい。本明細書では、端末装置101~10nを区別する必要がない場合は、端末装置101~10nを「端末装置10」と総称する。また、ネットワークシステム1は、複数台の提供装置20や、複数台の学習装置100を含んでもよい。
Although not shown in FIG. 1, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、スマートフォン、デスクトップ型PC(Personal Computer)、ノート型PC、タブレット型PC、PDA(Personal Digital Assistant)を含む、任意のタイプの情報処理装置であってもよい。
The
提供装置20は、端末装置10および学習装置100に、各種情報を提供するサーバ装置である。例えば、提供装置20は、端末装置10に対して、コンテンツ(例えば、プッシュ通知)を提供する。また、例えば、提供装置20は、学習装置100に対して、コンテンツに関連する判定モデルを生成するための訓練データを提供する。
The providing
学習装置100は、ユーザに適合する情報を判定するモデルを学習するサーバ装置である。学習装置100は、ネットワークNを介して、有線又は無線により端末装置10および提供装置20と通信を行う。
The
〔2.学習処理〕
次に、図2を参照して、実施形態に係る学習処理の一例について説明する。図2は、実施形態に係る学習処理の一例を示す図である。
[2. Learning process]
Next, an example of the learning process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of a learning process according to an embodiment.
図2の例では、提供装置20は、「ユーザU1」によって利用される端末装置101に対して、プッシュ型で複数の「通知N1~Nn(nは、任意の自然数)」および「通知NM1~NMm(mは、任意の自然数)」を送信する。「プッシュ型」という語は、情報が、情報を提供する装置のトリガに基づいて送信される仕組みを指す。言い換えると、提供装置20は、端末装置101に、通知N1~Nnおよび通知NM1~NMmを、プッシュ通知として送信する。
In the example of FIG. 2, the providing
図2の例では、提供装置20は、通知N1~Nnおよび通知NM1~NMmに対する応答を受信する。一例では、提供装置20は、通知N1が選択されたことを示す選択情報を、端末装置101から受信する。この場合、通知N1は、ユーザU1に適合すると考えられる。別の例では、提供装置20は、通知N1が選択されなかったことを示す選択情報を、端末装置101から受信する。この場合、通知N1は、ユーザU1に適合しないと考えられる。
In the example of FIG. 2, the providing
図2の例では、提供装置20は、訓練データを、学習装置100に送信する。訓練データは、通知N1~Nnおよび通知NM1~NMmの通知情報(例えば、通知N1~Nnおよび通知NM1~NMmのタイトル)と、ユーザが通知N1~Nnおよび通知NM1~NMmを選択したか否かを示す選択情報(例えば、選択フラグ)とを含む。
In the example of FIG. 2, the providing
図2の例では、学習装置100は、提供装置20から受信された訓練データを用いて、所定の通知がユーザに適合するか否かを判定する、注意機構(attention mechanism)付きのモデル(アテンションモデルとも呼ばれる)を学習する。より具体的には、学習装置100は、通知N1~Nnおよび通知NM1~NMmの通知情報を、訓練データの入力として用いる。また、学習装置100は、通知N1~Nnが選択されたか否か示す選択情報を、訓練データの出力として用いる。
In the example of FIG. 2, the
図2の例では、通知N1~Nnおよび通知NM1~NMmの通知情報は、「BoWベクトル(bag of words vector)BVN1~BVNn」および「BoWベクトルBVNM1~BVNMm」を含む。各BoWベクトルの複数の成分のうちゼロでない少なくとも1つの成分が、各通知の通知情報に含まれる少なくとも1つの単語に対応する。また、通知情報は、BoWベクトルBVN1~BVNnおよびBoWベクトルBVNM1~BVNMmに対応する「埋め込みベクトルNEN1~NENn」および「埋め込みベクトルNENM1~NENMm」を含む。一例では、BoWベクトルは、通知のタイトルに対応する。例えば、通知のタイトルが、単語「今夜」、「映画」、「テレビ」を含む場合に、埋め込みベクトルは、単語「今夜」、「映画」、「テレビ」にそれぞれ対応する3つの分散表現の平均ベクトルである。 In the example of FIG. 2, the notification information of the notifications N1 to Nn and the notifications NM1 to NMm includes "Bow vector (bag of words vector) BVN1 to BVNn" and "BoW vector BVNM1 to BVNMm". At least one non-zero component of the plurality of components of each BoW vector corresponds to at least one word contained in the notification information of each notification. Further, the notification information includes "embedded vectors NEN1 to NENn" and "embedded vectors NENM1 to NENMm" corresponding to the BoW vectors BVN1 to BVNn and the BoW vectors BVNM1 to BVNMm. In one example, the BoW vector corresponds to the title of the notification. For example, if the title of the notification contains the words "tonight", "movie", and "television", the embedded vector is the average of the three distributed representations corresponding to the words "tonight", "movie", and "television" respectively. It is a vector.
図2の例では、通知N1~Nnが選択されたか否か示す選択情報は、0または1の選択フラグを含む。通知N1が選択されたことを示す選択フラグは、「1」である。また、通知N1が選択されなかったことを示す選択フラグは、「0」である。一方、通知NM1~NMmが選択されたか否か示す選択情報は、「1」の選択フラグを含む。すなわち、通知NM1~NMmは、全て過去に選択された通知である。このように、通知NM1~NMmは、注意機構のメモリに相当する。 In the example of FIG. 2, the selection information indicating whether or not the notifications N1 to Nn are selected includes a selection flag of 0 or 1. The selection flag indicating that the notification N1 has been selected is "1". The selection flag indicating that the notification N1 has not been selected is "0". On the other hand, the selection information indicating whether or not the notifications NM1 to NMm are selected includes the selection flag of "1". That is, the notifications NM1 to NMm are all notifications selected in the past. As described above, the notifications NM1 to NMm correspond to the memory of the attention mechanism.
はじめに、学習装置100は、訓練データを参照し、BoWベクトルBVN1に対応する埋め込みベクトルNEN1を取得する。
First, the
次いで、学習装置100は、訓練データを参照し、BoWベクトルBVNM1~BVNMmに対応する埋め込みベクトルNENM1~NENMmを取得する。
Next, the
次いで、学習装置100は、埋め込みベクトルNEN1と埋め込みベクトルNENM1~NENMmとの間の重みα1~αmを算出する。学習装置100は、例えば、ソフト注意機構における重みα1~αmを算出する。重みα1~αmは、埋め込みベクトルNENM1~NENMmの重要度をそれぞれ示す。一例では、重みα1~αmは、アラインメントモデル(例えば、順伝播型ニューラルネットとしてパラメトライズされたアラインメントモデル)に基づいて算出される。別の例では、重みα1~αmは、埋め込みベクトルNEN1と、埋め込みベクトルNENM1~NENMmの各々との内積に基づいて算出される。
Next, the
次いで、学習装置100は、算出された重みα1~αmを用いて、埋め込みベクトルNENM1~NENMmの重み付き平均MEM1を算出する。
Next, the
次いで、学習装置100は、埋め込みベクトルNEN1と、算出された重み付き平均MEM1(すなわち、重み付き平均のベクトル)とを連結(concatenate)することで、ベクトルを生成する。そして、生成されたベクトルに、活性化関数(例えば、ReLU(Rectified Linear unit)関数)を適用することで、隠れ状態ベクトルを生成する。
Next, the
次いで、学習装置100は、重み行列に生成された隠れ状態ベクトルを乗ずることで、関連度RS1を算出する。
Next, the
次いで、学習装置100は、通知N1が選択されたか否か示す選択情報に含まれる選択フラグの値と、算出された関連度RS1とを用いて、所定の通知がユーザに適合するか否かを判定する、注意機構付きのモデルを学習する。例えば、学習装置100は、誤差逆伝播法を用いて、通知N1が選択されたか否か示す選択情報に含まれる選択フラグの値と算出された関連度RS1とに対応する目的関数(例えば、交差エントロピー損失関数)が最小化されるように、ソフト注意機構付きのモデルを学習する。
Next, the
通知N1以外の通知についても、学習装置100は、例えば、通知N2~Nnに対応する訓練データを用いて、ソフト注意機構付きのモデルを学習することができる。学習装置100は、かかる学習処理を繰り返すことで、汎化誤差が最小化されるように、ソフト注意機構付きのモデルを学習することができる。
For notifications other than notification N1, the
その後、学習装置100は、学習された注意機構付きのモデルを用いて、ユーザU1と通知との間の関連性を示す関連性スコアを出力する。例えば、学習装置100は、所定の通知に対応する埋め込みベクトルと、通知NM1~NMmに対応する埋め込みベクトル(すなわち、埋め込みベクトルNENM1~NENMm)とを、判定モデルに入力することで、ユーザU1が所定の通知を選択する事後確率を、ユーザU1と通知との間の関連性スコアとして出力する。
After that, the
上述のように、実施形態に係る学習装置100は、通知に対応する埋め込みベクトルと、過去に選択された特定の通知(すなわち、注意機構のメモリ)に対応する埋め込みベクトルとを、訓練データの入力として用いる。また、学習装置100は、通知の選択フラグの値を、訓練データの出力として用いる。そして、学習装置100は、汎化誤差が最小化されるように、注意機構付きのモデルを学習する。これにより、学習装置100は、所定の通知がユーザに適合するか否かを判定する判定モデルを学習することができる。
As described above, the
ところで、図2の例では、提供装置20は、端末装置10に、通知をプッシュ通知として送信している。一般的に、プッシュ通知は、季節性のある情報である。例えば、提供装置20は、速報性の高い情報(例えば、今夜の番組)を1回だけプッシュ通知として送信する。したがって、このようなプッシュ通知に対応する配信履歴が存在しない場合がある。このような状況は、コールドスタート問題(cold start problem)に関連する。この点に関し、プッシュ通知に対応する配信履歴が存在しない場合でも、学習装置100は、上述の判定モデルを用いて、プッシュ通知がユーザに適合するか否かを判定することができる。このため、学習装置100は、ユーザが、ユーザが関心のあるプッシュ通知をタイムリーに受け取ることを可能にする。以下、このような学習処理を実現する学習装置100について詳細に説明する。
By the way, in the example of FIG. 2, the providing
〔3.学習装置の構成〕
次に、図3を参照して、実施形態に係る学習装置100の構成例について説明する。図3は、実施形態に係る学習装置100の構成例を示す図である。図3に示すように、学習装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、学習装置100は、学習装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[3. Configuration of learning device]
Next, a configuration example of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、端末装置10および提供装置20との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、訓練データ記憶部121と、判定モデル記憶部122とを有する。
(Memory unit 120)
The
(訓練データ記憶部121)
図4は、実施形態に係る訓練データ記憶部121の一例を示す図である。訓練データ記憶部121は、コンテンツに関連する予測モデルを生成するための訓練データを記憶する。予測モデルは、例えば、所定の通知がユーザに適合するか否かを判定する判定モデルである。一例では、判定モデルは、注意機構付きのモデルである。
(Training data storage unit 121)
FIG. 4 is a diagram showing an example of the training
訓練データ記憶部121は、例えば、受信部131によって受信された訓練データを記憶する。図4の例では、訓練データ記憶部121には、「訓練データ」が「ユーザID」ごとに記憶される。「ユーザID」は、ユーザを識別するための識別子を示す。例示として、「訓練データ」には、項目「通知ID」、「通知情報」および「選択情報」が含まれる。
The training
「通知ID」は、通知を識別するための識別子を示す。「通知情報」は、通知の内容に関する情報を示す。通知の内容は、例えば、通知のタイトルや、通知のボディ(例えば、本文のテキスト)や、通知が選択された場合のアクション(例えば、リンク先への画面遷移)等である。 The "notification ID" indicates an identifier for identifying the notification. "Notification information" indicates information regarding the content of the notification. The content of the notification is, for example, the title of the notification, the body of the notification (for example, the text of the text), the action when the notification is selected (for example, the screen transition to the link destination), and the like.
通知情報は、通知に対応するBoWベクトル(BoW表現とも呼ばれる)を含む。BoWベクトルの複数の成分のうちゼロでない少なくとも1つの成分は、通知の通知情報に含まれる少なくとも1つの単語に対応する。また、通知情報は、BoWベクトルに対応する埋め込みベクトルを含む。一例では、BoWベクトルは、通知のタイトルに対応する。例えば、通知のタイトルが「ジムに行く?」場合に、埋め込みベクトルは、単語「ジム」、「行く」にそれぞれ対応する2つの分散表現の平均ベクトルである。 The notification information includes a BoW vector (also referred to as a BoW representation) corresponding to the notification. At least one non-zero component of the plurality of components of the BoW vector corresponds to at least one word contained in the notification information of the notification. Further, the notification information includes an embedded vector corresponding to the Bow vector. In one example, the BoW vector corresponds to the title of the notification. For example, if the title of the notification is "Go to Jim?", The embedded vector is the average vector of the two distributed representations corresponding to the words "Jim" and "Go" respectively.
「選択情報」は、通知の選択に関する情報を示す。例えば、選択情報は、通知が選択されたか否か示す。例えば、選択情報は、通知が選択されたか否か示す選択フラグを含む。図4の例では、通知が選択されたことを示す選択フラグは、「1」である。この例では、通知が選択されなかったことを示す選択フラグは、「0」である。 "Selection information" indicates information regarding the selection of notifications. For example, the selection information indicates whether or not the notification has been selected. For example, the selection information includes a selection flag indicating whether or not the notification was selected. In the example of FIG. 4, the selection flag indicating that the notification has been selected is "1". In this example, the selection flag indicating that the notification was not selected is "0".
例えば、図4は、通知ID「N1」で識別される通知が、通知情報NI1に対応することを示している。また、例えば、図4は、ユーザID「U1」で識別されるユーザが、通知ID「N1」で識別される通知を選択したことを示している。 For example, FIG. 4 shows that the notification identified by the notification ID “N1” corresponds to the notification information NI1. Further, for example, FIG. 4 shows that the user identified by the user ID “U1” has selected the notification identified by the notification ID “N1”.
例えば、図4は、通知ID「NM1」~「NMm」にそれぞれ対応する複数の通知が、ユーザID「U1」で識別されるユーザによって全て過去に選択されたことを示している。通知ID「NM1」~「NMm」にそれぞれ対応する複数の通知は、注意機構のメモリに相当する。 For example, FIG. 4 shows that a plurality of notifications corresponding to the notification IDs “NM1” to “NMm” have all been selected in the past by the user identified by the user ID “U1”. The plurality of notifications corresponding to the notification IDs "NM1" to "NMm" correspond to the memory of the attention mechanism.
(判定モデル記憶部122)
図3に戻ると、判定モデル記憶部122は、配信対象に関連する判定モデルを記憶する。判定モデル記憶部122は、例えば、学習部133によって学習されたモデルであって、配信候補が所定の利用者と対応するか否かを判定するモデルを記憶する。
(Judgment model storage unit 122)
Returning to FIG. 3, the determination
(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置100内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(Control unit 130)
The
(受信部131)
受信部131は、提供装置20から、コンテンツに関連する判定モデルを生成するための訓練データを受信する。訓練データは、通知の通知情報と、ユーザが通知を選択したか否かを示す選択情報とを含む。受信部131は、受信された訓練データを、訓練データ記憶部121に格納してもよい。
(Receiver 131)
The receiving
受信部131は、提供装置20から、配信対象を示す複数の配信対象ベクトルを受信する。例えば、受信部131は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを受信する。一例では、受信部131は、通知に対応する埋め込みベクトルを受信する。上述の通知情報は、配信対象を示す複数の配信対象ベクトルを含んでもよい。受信部131は、受信された複数の配信対象ベクトルを、訓練データ記憶部121に格納してもよい。受信部131は、配信対象に含まれる情報を受信してもよい。
The receiving
上述の配信対象は、例えば、通知(例えば、プッシュ通知)、ニュース記事、テキストベースのメッセージ(例えば、レコメント情報)等である。配信対象がプッシュ通知である場合に、上述の配信対象ベクトルは、例えば、プッシュ通知のタイトルに含まれる単語と対応する次元に所定の値が格納されたベクトル(例えば、分散表現)である。 The above-mentioned distribution target is, for example, a notification (for example, push notification), a news article, a text-based message (for example, recomment information), or the like. When the delivery target is a push notification, the above-mentioned delivery target vector is, for example, a vector (for example, a distributed representation) in which a predetermined value is stored in a dimension corresponding to a word included in the title of the push notification.
(取得部132)
取得部132は、コンテンツに関連する判定モデルを生成するための訓練データを取得する。取得部132は、例えば、受信部131によって受信された訓練データを取得する。取得部132は、訓練データ記憶部121から訓練データを取得してもよい。
(Acquisition unit 132)
The
取得部132は、配信対象を示す複数の配信対象ベクトルを取得する。例えば、取得部132は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。
The
取得部132は、例えば、受信部131によって受信された配信対象ベクトルを取得する。取得部132は、訓練データ記憶部121から配信対象ベクトルを取得してもよい。
The
(学習部133)
学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得部132により取得された配信対象ベクトルを用いて学習する。例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。
(Learning Department 133)
When a plurality of distribution target vectors indicating distribution targets distributed to a predetermined user and distribution candidate vectors indicating distribution candidates are input, the
より具体的には、学習部133は、所定の利用者に配信された配信対象が選択されたか否か示す選択情報(例えば、選択フラグ)に基づいて、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルおよび所定の利用者に配信された配信対象を示す複数の配信対象ベクトルを訓練データの入力として用い、かつ所定の利用者に配信された配信対象が選択されたか否か示す選択情報を訓練データの出力として用いることで、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性に関する距離をモデルに学習させる。
More specifically, the
一例では、モデルは、注意機構付きのモデルである。この例では、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルは、複数の配信対象(例えば、プッシュ通知)にそれぞれ対応する複数の埋め込みベクトル(例えば、分散表現)である。また、この例では、所定の利用者が選択した配信対象を示す配信対象ベクトルは、所定の利用者(例えば、ユーザ)によって過去に選択された配信対象に対応する埋め込みベクトルである。言い換えると、所定の利用者が選択した配信対象を示す配信対象ベクトルは、注意機構のメモリに相当する。 In one example, the model is a model with an attention mechanism. In this example, the plurality of distribution target vectors indicating the distribution targets delivered to a predetermined user are a plurality of embedded vectors (for example, distributed representation) corresponding to the plurality of distribution targets (for example, push notification). Further, in this example, the distribution target vector indicating the distribution target selected by the predetermined user is an embedded vector corresponding to the distribution target previously selected by the predetermined user (for example, a user). In other words, the distribution target vector indicating the distribution target selected by a predetermined user corresponds to the memory of the attention mechanism.
学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルの上述の重み(すなわち、配信候補ベクトルとの類似性に基づく重み)による重み付き平均から、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。例えば、学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つと重み付き平均とを連結した連結ベクトルから、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。言い換えれば、学習部133は、複数の配信対象ベクトルのうちの1つと重み付き平均との連結(concatenation)であるベクトルから、モデルを学習する。例えば、学習部133は、次元数が削減されるように連結ベクトルを徐々に畳み込むことで、配信候補が所定の利用者と対応するか否かを示す値を生成するモデルを学習する。
In the
一例では、学習部133は、所定の利用者に配信された配信対象に対応する埋め込みベクトルと、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルとの間の複数の重みを算出する。そして、学習部133は、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルのかかる複数の重みによる重み付き平均(すなわち、重み付き平均のベクトル)に対応する中間層を含む注意機構付きのモデルであって、配信候補が所定の利用者と対応するか否かを判定する注意機構付きのモデルを学習する。
In one example, the
例えば、学習部133は、所定の利用者に配信された配信対象に対応する埋め込みベクトルと、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルの複数の重みによる重み付き平均とを連結することで、第1のベクトルを生成する。次いで、学習部133は、生成された第1のベクトルに活性化関数を適用することで、隠れ状態ベクトルを生成する。次いで、学習部133は、重み行列に隠れ状態ベクトを乗ずることで、関連度を算出する。その後、学習部133は、所定の利用者に配信された配信対象が選択されたか否か示す選択情報(例えば、選択フラグ)と、算出された関連度とを用いて、配信候補が所定の利用者と対応するか否かを判定する注意機構付きのモデルを学習する。
For example, the
学習部133は、複数の配信対象ベクトルのうちの1つから、複数の配信対象ベクトルのうちの1つが示す配信対象に含まれる情報の特徴を示す特徴ベクトルの平均値の和となるベクトルを生成し、生成されたベクトルに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。
The
一例では、情報の特徴を示す特徴ベクトルは、分散表現である。この例では、配信対象に含まれる情報が、第1~3の特徴を含む場合に、配信対象に対応する埋め込みベクトルは、第1~3の特徴にそれぞれ対応する3つの分散表現の平均ベクトルである。 In one example, the feature vector that represents the feature of the information is a distributed representation. In this example, when the information included in the distribution target includes the first to third features, the embedded vector corresponding to the delivery target is the average vector of the three distributed representations corresponding to the first to third features, respectively. be.
学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応する旨を出力し、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択しなかった配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応しない旨を出力されるように、モデルを学習する。
The
例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトル(例えば、テストデータである配信対象ベクトル)と、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトル(例えば、注意機構のメモリ)とが入力された際に、モデルによって出力される値が、配信対象が選択されたことを示す値(例えば、選択フラグ「1」)に近づくように、訓練用のデータである配信対象ベクトルを用いてモデルを訓練する。また、例えば、学習部133は、正則化手法(例えば、L2正則化等)を用いて、汎化誤差が最小化されるようにモデルを学習する。
For example, the
学習部133は、例えば、所定の利用者に配信された配信対象が選択されたか否か示す選択情報およびモデルの出力に対応する目的関数が最小化されるように、モデルを学習する。一例では、学習部133は、誤差逆伝播法を用いて、選択情報に含まれる選択フラグの値および注意機構付きのモデルの出力(例えば、上述の関連度)に対応する目的関数が最小化されるように、注意機構付きのモデルを学習する。
The
(生成部134)
生成部134は、配信対象の候補となる配信対象に含まれる情報と対応する次元に所定の値が格納された候補ベクトルを生成する。例えば、生成部134は、所定のサーバから、配信対象の候補となる配信対象に含まれる情報に含まれるキーワードに対応する少なくとも1つのベクトル(例えば、分散表現)を取得する。そして、生成部134は、情報に含まれるキーワードに対応する少なくとも1つのベクトルに基づいて、候補ベクトルを生成する。
(Generation unit 134)
The
生成部134は、配信対象に含まれる情報を用いて、配信対象を示す配信対象ベクトルを生成してもよい。また、配信対象に含まれる情報を用いて、配信対象に対応するBoWベクトルを生成してもよい。
The
(判定部135)
判定部135は、学習部133により学習されたモデルを用いて、候補ベクトルから、配信対象の候補を所定の利用者に配信するか否かを判定する。また、判定部135は、候補ベクトルが入力された際に、候補ベクトルが示す配信候補が、所定の利用者と対応する旨をモデルが出力した場合は、配信候補を所定の利用者に配信すると判定する。
(Judgment unit 135)
The
一例では、判定部135は、学習されたモデル(例えば、注意機構付きのモデル)を用いて、所定の利用者と配信対象の候補との間の関連性を示す関連性スコアを出力する。より具体的には、判定部135は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、配信対象の候補に対応する候補ベクトルとを、モデルに入力することで、所定の利用者が配信対象の候補を選択する確率を、所定の利用者と配信対象の候補との間の関連性スコアとして出力する。
In one example, the
(提供部136)
提供部136は、学習部133により学習されたモデルを提供する。例えば、提供部136は、学習されたモデルを提供装置20に提供する。提供部136は、判定部135による判定結果を、提供装置20に提供してもよい。
(Providing Department 136)
The providing
〔4.学習処理のフロー〕
次に、実施形態に係る学習装置100による学習処理の手順について説明する。図5は、実施形態に係る学習装置100による学習処理手順を示すフローチャートである。
[4. Learning process flow]
Next, the procedure of the learning process by the
図5に示すように、はじめに、学習装置100は、配信対象を示す複数の配信対象ベクトルを取得する(ステップS101)。例えば、学習装置100は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。
As shown in FIG. 5, first, the
次いで、学習装置100は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得された配信対象ベクトルを用いて学習する(ステップS102)。例えば、学習装置100は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。
Next, when a plurality of distribution target vectors indicating distribution targets distributed to a predetermined user and distribution candidate vectors indicating distribution candidates are input, the
より具体的には、学習装置100は、所定の利用者が選択した配信対象を示す配信対象ベクトルおよび所定の利用者に配信された配信対象を示す複数の配信対象ベクトルを訓練データの入力として用い、かつ所定の利用者に配信された配信対象が選択されたか否か示す選択情報を訓練データの出力として用いることで、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性に関する距離をモデルに学習させる。
More specifically, the
〔5.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. others〕
Further, among the processes described in the above-described embodiment, a part of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the process described as being performed manually can be automatically performed by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
例えば、図3に示した記憶部120の一部又は全部は、学習装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、学習装置100は、ストレージサーバにアクセスすることで、訓練データ等の各種情報を取得する。
For example, a part or all of the
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る学習装置100は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. Hardware configuration]
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が学習装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。
For example, when the
〔7.効果〕
上述してきたように、実施形態に係る学習装置100は、取得部132と、学習部133とを有する。取得部132は、配信対象を示す複数の配信対象ベクトルを取得する。学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得部132により取得された配信対象ベクトルを用いて学習する。
[7. effect〕
As described above, the
また、実施形態に係る学習装置100において、取得部132は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性を前記モデルに学習させる。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、配信候補ベクトルとの類似性に基づく重みによる、所定の利用者が選択した配信対象を示す配信対象ベクトルの重み付き平均から、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つと重み付き平均とを連結した連結ベクトルから、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、次元数が削減されるように連結ベクトルを徐々に畳み込むことで、配信候補が所定の利用者と対応するか否かを示す値を生成するモデルを学習する。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、複数の配信対象ベクトルのうちの1つから、複数の配信対象ベクトルのうちの1つが示す配信対象に含まれる情報の特徴を示す特徴ベクトルの平均値の和となるベクトルを生成し、生成されたベクトルに基づいて、配信候補が前記所定の利用者と対応するか否かを判定するモデルを学習する。
Further, in the
また、実施形態に係る学習装置100において、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応する旨を出力し、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択しなかった配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応しない旨を出力されるように、モデルを学習する。
Further, in the
また、実施形態に係る学習装置100は、配信対象の候補となる配信対象に含まれる情報と対応する次元に所定の値が格納された候補ベクトルを生成する生成部134を有する。また、実施形態に係る学習装置100は、学習部133により学習されたモデルを用いて、候補ベクトルから、配信対象の候補を所定の利用者に配信するか否かを判定する判定部135を有する。
Further, the
また、実施形態に係る学習装置100において、判定部135は、候補ベクトルが入力された際に、候補ベクトルが示す配信候補が、所定の利用者と対応する旨をモデルが出力した場合は、配信候補を所定の利用者に配信すると判定する。
Further, in the
上述した各処理により、学習装置100は、所定の通知がユーザに適合するか否かを判定する判定モデルを学習することができる。
By each of the above-mentioned processes, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
また、上述した学習装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
Further, the above-mentioned
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the receiving unit can be read as a receiving means or a receiving circuit.
1 ネットワークシステム
10 端末装置
20 提供装置
100 学習装置
120 記憶部
121 訓練データ記憶部
122 判定モデル記憶部
130 制御部
131 受信部
132 取得部
133 学習部
134 生成部
135 判定部
136 提供部
1
Claims (9)
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されるモデルを学習する学習部と
を有することを特徴とする学習装置。 A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition unit that acquires a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target .
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it matches, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning device characterized by having a learning unit for learning a model in which a plurality of weights are set between the distribution target vector and the vector .
前記第1の配信対象となる文章に含まれる単語と対応する次元に所定の値が格納されたベクトルに対応する前記第1の配信対象ベクトルを取得し、対応する第2の配信対象となる文章に含まれる単語と対応する次元に所定の値が格納されたベクトルに対応するそれぞれの第2の配信対象ベクトルを取得する
ことを特徴とする請求項1に記載の学習装置。 The acquisition unit
The first distribution target vector corresponding to the vector in which a predetermined value is stored in the dimension corresponding to the word included in the first distribution target sentence is acquired , and the corresponding second distribution target sentence is obtained. Acquires each second distribution target vector corresponding to the vector in which a predetermined value is stored in the dimension corresponding to the word contained in.
The learning device according to claim 1.
前記第1の配信対象ベクトルと前記複数の第2の配信対象ベクトルとの間の重みを用いて算出された前記複数の第2の配信対象ベクトルの重み付き平均から、前記所定の利用者が前記第1の配信対象を選択する確率を算出し、前記選択情報と、算出された確率とを用いて、前記所定の利用者が前記配信候補に適合するか否かを判定することとして、前記所定の利用者が前記配信候補を選択する確率を算出する前記モデルを学習する
ことを特徴とする請求項1に記載の学習装置。 The learning unit
From the weighted average of the plurality of second distribution target vectors calculated by using the weights between the first distribution target vector and the plurality of second distribution target vectors, the predetermined user is said to be the said. The predetermined probability of selecting the first distribution target is calculated, and the selection information and the calculated probability are used to determine whether or not the predetermined user is suitable for the distribution candidate. The learning device according to claim 1 , wherein the user learns the model for calculating the probability of selecting the delivery candidate .
前記第1の配信対象ベクトルと前記重み付き平均とを連結することによって生成された連結ベクトルから、前記所定の利用者が前記第1の配信対象を選択する確率を算出する
ことを特徴とする請求項3に記載の学習装置。 The learning unit
From the connection vector generated by concatenating the first distribution target vector and the weighted average, the probability that the predetermined user selects the first distribution target is calculated.
The learning device according to claim 3 , wherein the learning device is characterized by the above.
前記連結ベクトルに活性化関数を適用することで、隠れ状態ベクトルを生成し、生成された隠れ状態ベクトルを重み行列に乗ずることで、前記所定の利用者が前記第1の配信対象を選択する確率を算出する
ことを特徴とする請求項4に記載の学習装置。 The learning unit
By applying an activation function to the concatenated vector, a hidden state vector is generated, and by multiplying the generated hidden state vector by a weight matrix, the probability that the predetermined user selects the first delivery target. To calculate
The learning device according to claim 4 , wherein the learning device is characterized in that.
前記第1の配信対象となる文章に含まれる複数の単語にそれぞれ対応する複数の分散表現の平均ベクトルを、前記第1の配信対象ベクトルとして生成し、対応する第2の配信対象となる文章に含まれる複数の単語にそれぞれ対応する複数の分散表現の平均ベクトルを、それぞれの第2の配信対象ベクトルとして生成する
ことを特徴とする請求項1~5のうちいずれか1つに記載の学習装置。 The learning unit
An average vector of a plurality of distributed expressions corresponding to a plurality of words included in the first distribution target sentence is generated as the first distribution target vector, and the corresponding second distribution target sentence is generated. Generate an average vector of multiple distributed representations corresponding to each of the included words as a second distribution target vector for each.
The learning device according to any one of claims 1 to 5 , wherein the learning device is characterized in that.
前記学習部により学習されたモデルに、前記生成部によって生成された前記配信候補ベクトルと前記複数の第2の配信対象ベクトルとを入力することで、前記所定の利用者が前記配信候補を選択する確率を、前記所定の利用者と配信候補の間の関連性を示す関連性スコアとして出力する判定部と
を有することを特徴とする請求項1~6のうちいずれか1つに記載の学習装置。 A generation unit that generates the distribution candidate vector using the information included in the distribution candidate, and
By inputting the distribution candidate vector generated by the generation unit and the plurality of second distribution target vectors into the model learned by the learning unit, the predetermined user selects the distribution candidate. The learning device according to any one of claims 1 to 6 , further comprising a determination unit that outputs a probability as a relevance score indicating a relevance between the predetermined user and a delivery candidate. ..
所定の利用者に配信された第1の配信対象を示す第1の配信対象ベクトルと、当該所定の利用者に配信され、かつ当該所定の利用者によって選択された複数の第2の配信対象をそれぞれ示す複数の第2の配信対象ベクトルと、当該所定の利用者が当該第1の配信対象を選択したかを示す選択情報とを取得する取得工程と、
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されるモデルを学習する学習工程と
を含むことを特徴とする学習方法。 The way the learning device performs,
A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition process for acquiring a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target .
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it matches, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning method comprising a learning process of learning a model in which multiple weights are set with and to a delivery target vector of .
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されるモデルを学習する学習手順と
をコンピュータに実行させるための学習プログラム。 A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition procedure for acquiring a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target, and an acquisition procedure.
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it is compatible, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning program for a computer to perform a learning procedure to learn a model in which multiple weights are set between the delivery target vector and the .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018139835A JP7041018B2 (en) | 2018-07-25 | 2018-07-25 | Learning equipment, learning methods and learning programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018139835A JP7041018B2 (en) | 2018-07-25 | 2018-07-25 | Learning equipment, learning methods and learning programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020017089A JP2020017089A (en) | 2020-01-30 |
JP7041018B2 true JP7041018B2 (en) | 2022-03-23 |
Family
ID=69581486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018139835A Active JP7041018B2 (en) | 2018-07-25 | 2018-07-25 | Learning equipment, learning methods and learning programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7041018B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048360A (en) | 2010-08-25 | 2012-03-08 | Sony Corp | Id value evaluation device, id value evaluation system and id value evaluation method |
JP2017016523A (en) | 2015-07-03 | 2017-01-19 | ヤフー株式会社 | Providing device, providing method, and providing program |
WO2017201444A1 (en) | 2016-05-20 | 2017-11-23 | Google Llc | Classifying input examples using a comparison set |
JP2018088051A (en) | 2016-11-28 | 2018-06-07 | ヤフー株式会社 | Information processing device, information processing method and program |
JP2018097595A (en) | 2016-12-13 | 2018-06-21 | ヤフー株式会社 | Distribution device, distribution method, distribution program, terminal device, display method, and display program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05314186A (en) * | 1992-05-06 | 1993-11-26 | Canon Inc | Automatic information source selector |
-
2018
- 2018-07-25 JP JP2018139835A patent/JP7041018B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048360A (en) | 2010-08-25 | 2012-03-08 | Sony Corp | Id value evaluation device, id value evaluation system and id value evaluation method |
JP2017016523A (en) | 2015-07-03 | 2017-01-19 | ヤフー株式会社 | Providing device, providing method, and providing program |
WO2017201444A1 (en) | 2016-05-20 | 2017-11-23 | Google Llc | Classifying input examples using a comparison set |
JP2018088051A (en) | 2016-11-28 | 2018-06-07 | ヤフー株式会社 | Information processing device, information processing method and program |
JP2018097595A (en) | 2016-12-13 | 2018-06-21 | ヤフー株式会社 | Distribution device, distribution method, distribution program, terminal device, display method, and display program |
Non-Patent Citations (1)
Title |
---|
宮▲崎▼ 太郎,外4名,Twitterからの有用情報抽出のための学習データのマルチクラス化,情報処理学会 研究報告 情報基礎とアクセス技術(IFAT) 2017-IFAT-127 [online],情報処理学会,2017年07月15日,pp.1~6,[2017年7月18日検索]Internet<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=182755&file_id=1&file_no=1> |
Also Published As
Publication number | Publication date |
---|---|
JP2020017089A (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
GB2573189A (en) | Generating a topic-based summary of textual content | |
KR102155261B1 (en) | Wide and deep machine learning models | |
CN109947919B (en) | Method and apparatus for generating text matching model | |
JP6355800B1 (en) | Learning device, generating device, learning method, generating method, learning program, and generating program | |
CN105144164A (en) | Scoring concept terms using a deep network | |
JP5961320B2 (en) | Method of classifying users in social media, computer program, and computer | |
KR20210034679A (en) | Identify entity-attribute relationships | |
US20190354533A1 (en) | Information processing device, information processing method, and non-transitory computer-readable recording medium | |
US11061943B2 (en) | Constructing, evaluating, and improving a search string for retrieving images indicating item use | |
WO2017173063A1 (en) | Updating messaging data structures to include predicted attribute values associated with recipient entities | |
CN107765883A (en) | The sort method and sequencing equipment of candidate's word of input method | |
CN110059172B (en) | Method and device for recommending answers based on natural language understanding | |
WO2022116827A1 (en) | Automatic delineation and extraction of tabular data in portable document format using graph neural networks | |
CN113779380A (en) | Cross-domain recommendation method, device and equipment, and content recommendation method, device and equipment | |
JP7096093B2 (en) | Learning equipment, learning methods and learning programs | |
JP6775366B2 (en) | Selection device and selection method | |
JP6679448B2 (en) | Generation device, generation method, and generation program | |
CN112650942A (en) | Product recommendation method, device, computer system and computer-readable storage medium | |
JP7041018B2 (en) | Learning equipment, learning methods and learning programs | |
JP7231322B2 (en) | LEARNING DEVICE, LEARNING METHOD, LEARNING PROGRAM AND PROGRAM | |
WO2021095358A1 (en) | Learning method, evaluation device, and evaluation system | |
WO2021200502A1 (en) | Information processing device and information processing method | |
JP7073227B2 (en) | Providing equipment, providing method and providing program | |
JP2019021210A (en) | Specification device and specification method | |
CN109857838B (en) | Method and apparatus for generating information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7041018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |