JP7041018B2 - Learning equipment, learning methods and learning programs - Google Patents

Learning equipment, learning methods and learning programs Download PDF

Info

Publication number
JP7041018B2
JP7041018B2 JP2018139835A JP2018139835A JP7041018B2 JP 7041018 B2 JP7041018 B2 JP 7041018B2 JP 2018139835 A JP2018139835 A JP 2018139835A JP 2018139835 A JP2018139835 A JP 2018139835A JP 7041018 B2 JP7041018 B2 JP 7041018B2
Authority
JP
Japan
Prior art keywords
distribution
vector
distribution target
learning
predetermined user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018139835A
Other languages
Japanese (ja)
Other versions
JP2020017089A (en
Inventor
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018139835A priority Critical patent/JP7041018B2/en
Publication of JP2020017089A publication Critical patent/JP2020017089A/en
Application granted granted Critical
Publication of JP7041018B2 publication Critical patent/JP7041018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method and a learning program.

従来、各種の情報を利用者に対して提供する技術が知られている。このような技術の一例として、利用者が過去に選択した情報と関連する情報に基づいて、利用者と関連性が高い情報や利用者が興味を有する情報等、利用者と対応する情報を推定し、推定した情報を利用者に提供する技術が知られている。 Conventionally, a technique for providing various types of information to a user has been known. As an example of such technology, based on the information related to the information selected by the user in the past, the information corresponding to the user such as the information highly related to the user and the information that the user is interested in is estimated. However, there is known a technique for providing the estimated information to the user.

特開2012-150561号公報Japanese Unexamined Patent Publication No. 2012-150561

しかしながら、上述した従来技術では、利用者と対応する情報を適切に推定できない恐れがある。 However, with the above-mentioned conventional technology, there is a possibility that the information corresponding to the user cannot be estimated appropriately.

例えば、上述した従来技術では、新規の利用者等、過去に情報を選択していない利用者に対しては、利用者と対応する情報を適切に推定できない。 For example, in the above-mentioned conventional technology, it is not possible to appropriately estimate information corresponding to a user for a user who has not selected information in the past, such as a new user.

本願は、上記に鑑みてなされたものであって、利用者と対応する情報の推定精度を向上させることを目的とする。 The present application has been made in view of the above, and an object thereof is to improve the estimation accuracy of the information corresponding to the user.

本願に係る学習装置は、配信対象を示す複数の配信対象ベクトルを取得する取得部と、
所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、当該配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、前記配信候補ベクトルとに基づいて、前記配信候補が前記所定の利用者と対応するか否かを判定するモデルを、前記取得部により取得された配信対象ベクトルを用いて学習する学習部とを有することを特徴とする。
The learning device according to the present application includes an acquisition unit that acquires a plurality of distribution target vectors indicating distribution targets, and an acquisition unit.
When a plurality of distribution target vectors indicating a distribution target delivered to a predetermined user and a distribution candidate vector indicating a distribution candidate are input, a plurality of weights set based on the similarity with the distribution candidate vector are set. Based on the distribution target vector and the distribution candidate vector, a model for determining whether or not the distribution candidate corresponds to the predetermined user is learned using the distribution target vector acquired by the acquisition unit. It is characterized by having a learning unit.

実施形態の一態様によれば、利用者と対応する情報の推定精度を向上させることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the estimation accuracy of the information corresponding to the user can be improved.

図1は、実施形態に係るネットワークシステムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of a network system according to an embodiment. 図2は、実施形態に係る学習処理の一例を示す図である。FIG. 2 is a diagram showing an example of a learning process according to an embodiment. 図3は、実施形態に係る学習装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the learning device according to the embodiment. 図4は、実施形態に係る訓練データ記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a training data storage unit according to an embodiment. 図5は、実施形態に係る学習装置による学習処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a learning processing procedure by the learning device according to the embodiment. 図6は、ハードウェア構成の一例を示す図である。FIG. 6 is a diagram showing an example of a hardware configuration.

以下に、本願に係る学習装置、学習方法及び学習プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法及び学習プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, the learning device, the learning method, and the embodiment for implementing the learning program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the learning device, learning method and learning program according to the present application. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.

〔1.ネットワークシステムの構成〕
まず、図1を参照して、実施形態に係るネットワークシステム1の構成について説明する。図1は、実施形態に係るネットワークシステム1の構成例を示す図である。図1に示すように、実施形態に係るネットワークシステム1には、端末装置10と、提供装置20と、学習装置100とが含まれる。端末装置10、提供装置20および学習装置100は、それぞれネットワークNと有線又は無線により接続される。
[1. Network system configuration]
First, the configuration of the network system 1 according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of the network system 1 according to the embodiment. As shown in FIG. 1, the network system 1 according to the embodiment includes a terminal device 10, a providing device 20, and a learning device 100. The terminal device 10, the providing device 20, and the learning device 100 are connected to the network N by wire or wirelessly, respectively.

図1中では図示していないが、ネットワークシステム1は、端末装置10~10を含んでもよい。本明細書では、端末装置10~10を区別する必要がない場合は、端末装置10~10を「端末装置10」と総称する。また、ネットワークシステム1は、複数台の提供装置20や、複数台の学習装置100を含んでもよい。 Although not shown in FIG. 1, the network system 1 may include terminal devices 10 1 to 10 n . In the present specification, when it is not necessary to distinguish the terminal devices 10 1 to 10 n , the terminal devices 10 1 to 10 n are collectively referred to as "terminal device 10". Further, the network system 1 may include a plurality of providing devices 20 and a plurality of learning devices 100.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、スマートフォン、デスクトップ型PC(Personal Computer)、ノート型PC、タブレット型PC、PDA(Personal Digital Assistant)を含む、任意のタイプの情報処理装置であってもよい。 The terminal device 10 is an information processing device used by the user. The terminal device 10 may be any type of information processing device including a smartphone, a desktop PC (Personal Computer), a notebook PC, a tablet PC, and a PDA (Personal Digital Assistant).

提供装置20は、端末装置10および学習装置100に、各種情報を提供するサーバ装置である。例えば、提供装置20は、端末装置10に対して、コンテンツ(例えば、プッシュ通知)を提供する。また、例えば、提供装置20は、学習装置100に対して、コンテンツに関連する判定モデルを生成するための訓練データを提供する。 The providing device 20 is a server device that provides various information to the terminal device 10 and the learning device 100. For example, the providing device 20 provides content (for example, push notification) to the terminal device 10. Further, for example, the providing device 20 provides the learning device 100 with training data for generating a determination model related to the content.

学習装置100は、ユーザに適合する情報を判定するモデルを学習するサーバ装置である。学習装置100は、ネットワークNを介して、有線又は無線により端末装置10および提供装置20と通信を行う。 The learning device 100 is a server device that learns a model for determining information suitable for the user. The learning device 100 communicates with the terminal device 10 and the providing device 20 by wire or wirelessly via the network N.

〔2.学習処理〕
次に、図2を参照して、実施形態に係る学習処理の一例について説明する。図2は、実施形態に係る学習処理の一例を示す図である。
[2. Learning process]
Next, an example of the learning process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of a learning process according to an embodiment.

図2の例では、提供装置20は、「ユーザU1」によって利用される端末装置10に対して、プッシュ型で複数の「通知N1~Nn(nは、任意の自然数)」および「通知NM1~NMm(mは、任意の自然数)」を送信する。「プッシュ型」という語は、情報が、情報を提供する装置のトリガに基づいて送信される仕組みを指す。言い換えると、提供装置20は、端末装置10に、通知N1~Nnおよび通知NM1~NMmを、プッシュ通知として送信する。 In the example of FIG. 2, the providing device 20 is a push type and a plurality of "notifications N1 to Nn (n is an arbitrary natural number)" and "notification NM1" with respect to the terminal device 101 used by the "user U1". ~ NMm (m is an arbitrary natural number) ”is transmitted. The term "push" refers to the mechanism by which information is transmitted based on the trigger of the device that provides the information. In other words, the providing device 20 transmits the notifications N1 to Nn and the notifications NM1 to NMm to the terminal device 10 1 as push notifications.

図2の例では、提供装置20は、通知N1~Nnおよび通知NM1~NMmに対する応答を受信する。一例では、提供装置20は、通知N1が選択されたことを示す選択情報を、端末装置10から受信する。この場合、通知N1は、ユーザU1に適合すると考えられる。別の例では、提供装置20は、通知N1が選択されなかったことを示す選択情報を、端末装置10から受信する。この場合、通知N1は、ユーザU1に適合しないと考えられる。 In the example of FIG. 2, the providing device 20 receives the responses to the notifications N1 to Nn and the notifications NM1 to NMm. In one example, the providing device 20 receives selection information from the terminal device 101 indicating that the notification N1 has been selected. In this case, the notification N1 is considered to be suitable for the user U1. In another example, the providing device 20 receives selection information from the terminal device 101 indicating that the notification N1 has not been selected. In this case, the notification N1 is considered to be incompatible with the user U1.

図2の例では、提供装置20は、訓練データを、学習装置100に送信する。訓練データは、通知N1~Nnおよび通知NM1~NMmの通知情報(例えば、通知N1~Nnおよび通知NM1~NMmのタイトル)と、ユーザが通知N1~Nnおよび通知NM1~NMmを選択したか否かを示す選択情報(例えば、選択フラグ)とを含む。 In the example of FIG. 2, the providing device 20 transmits the training data to the learning device 100. The training data includes notification information of notifications N1 to Nn and notifications NM1 to NMm (for example, titles of notifications N1 to Nn and notifications NM1 to NMm), and whether or not the user has selected notifications N1 to Nn and notifications NM1 to NMm. Includes selection information (eg, selection flag) indicating.

図2の例では、学習装置100は、提供装置20から受信された訓練データを用いて、所定の通知がユーザに適合するか否かを判定する、注意機構(attention mechanism)付きのモデル(アテンションモデルとも呼ばれる)を学習する。より具体的には、学習装置100は、通知N1~Nnおよび通知NM1~NMmの通知情報を、訓練データの入力として用いる。また、学習装置100は、通知N1~Nnが選択されたか否か示す選択情報を、訓練データの出力として用いる。 In the example of FIG. 2, the learning device 100 uses the training data received from the providing device 20 to determine whether or not a predetermined notification is suitable for the user, and is a model (attention) with an attention mechanism. Also called a model). More specifically, the learning device 100 uses the notification information of the notifications N1 to Nn and the notifications NM1 to NMm as input of training data. Further, the learning device 100 uses the selection information indicating whether or not the notifications N1 to Nn are selected as the output of the training data.

図2の例では、通知N1~Nnおよび通知NM1~NMmの通知情報は、「BoWベクトル(bag of words vector)BVN1~BVNn」および「BoWベクトルBVNM1~BVNMm」を含む。各BoWベクトルの複数の成分のうちゼロでない少なくとも1つの成分が、各通知の通知情報に含まれる少なくとも1つの単語に対応する。また、通知情報は、BoWベクトルBVN1~BVNnおよびBoWベクトルBVNM1~BVNMmに対応する「埋め込みベクトルNEN1~NENn」および「埋め込みベクトルNENM1~NENMm」を含む。一例では、BoWベクトルは、通知のタイトルに対応する。例えば、通知のタイトルが、単語「今夜」、「映画」、「テレビ」を含む場合に、埋め込みベクトルは、単語「今夜」、「映画」、「テレビ」にそれぞれ対応する3つの分散表現の平均ベクトルである。 In the example of FIG. 2, the notification information of the notifications N1 to Nn and the notifications NM1 to NMm includes "Bow vector (bag of words vector) BVN1 to BVNn" and "BoW vector BVNM1 to BVNMm". At least one non-zero component of the plurality of components of each BoW vector corresponds to at least one word contained in the notification information of each notification. Further, the notification information includes "embedded vectors NEN1 to NENn" and "embedded vectors NENM1 to NENMm" corresponding to the BoW vectors BVN1 to BVNn and the BoW vectors BVNM1 to BVNMm. In one example, the BoW vector corresponds to the title of the notification. For example, if the title of the notification contains the words "tonight", "movie", and "television", the embedded vector is the average of the three distributed representations corresponding to the words "tonight", "movie", and "television" respectively. It is a vector.

図2の例では、通知N1~Nnが選択されたか否か示す選択情報は、0または1の選択フラグを含む。通知N1が選択されたことを示す選択フラグは、「1」である。また、通知N1が選択されなかったことを示す選択フラグは、「0」である。一方、通知NM1~NMmが選択されたか否か示す選択情報は、「1」の選択フラグを含む。すなわち、通知NM1~NMmは、全て過去に選択された通知である。このように、通知NM1~NMmは、注意機構のメモリに相当する。 In the example of FIG. 2, the selection information indicating whether or not the notifications N1 to Nn are selected includes a selection flag of 0 or 1. The selection flag indicating that the notification N1 has been selected is "1". The selection flag indicating that the notification N1 has not been selected is "0". On the other hand, the selection information indicating whether or not the notifications NM1 to NMm are selected includes the selection flag of "1". That is, the notifications NM1 to NMm are all notifications selected in the past. As described above, the notifications NM1 to NMm correspond to the memory of the attention mechanism.

はじめに、学習装置100は、訓練データを参照し、BoWベクトルBVN1に対応する埋め込みベクトルNEN1を取得する。 First, the learning device 100 refers to the training data and acquires the embedded vector NEN1 corresponding to the BoW vector BVN1.

次いで、学習装置100は、訓練データを参照し、BoWベクトルBVNM1~BVNMmに対応する埋め込みベクトルNENM1~NENMmを取得する。 Next, the learning device 100 refers to the training data and acquires the embedded vectors NENM1 to NENMm corresponding to the BoW vectors BVNM1 to BVNMm.

次いで、学習装置100は、埋め込みベクトルNEN1と埋め込みベクトルNENM1~NENMmとの間の重みα~αを算出する。学習装置100は、例えば、ソフト注意機構における重みα~αを算出する。重みα~αは、埋め込みベクトルNENM1~NENMmの重要度をそれぞれ示す。一例では、重みα~αは、アラインメントモデル(例えば、順伝播型ニューラルネットとしてパラメトライズされたアラインメントモデル)に基づいて算出される。別の例では、重みα~αは、埋め込みベクトルNEN1と、埋め込みベクトルNENM1~NENMmの各々との内積に基づいて算出される。 Next, the learning device 100 calculates the weights α 1 to α m between the embedded vector NEN1 and the embedded vectors NENM1 to NENMm. The learning device 100 calculates, for example, the weights α 1 to α m in the soft attention mechanism. The weights α 1 to α m indicate the importance of the embedded vectors NENM 1 to NENM m, respectively. In one example, the weights α 1 to α m are calculated based on an alignment model (eg, an alignment model parameterized as a forward propagation neural network). In another example, the weights α 1 to α m are calculated based on the inner product of the embedded vector NEN1 and each of the embedded vectors NENM1 to NENMm.

次いで、学習装置100は、算出された重みα~αを用いて、埋め込みベクトルNENM1~NENMmの重み付き平均MEM1を算出する。 Next, the learning device 100 calculates the weighted average MEM1 of the embedded vectors NENM1 to NENMm using the calculated weights α 1 to α m .

次いで、学習装置100は、埋め込みベクトルNEN1と、算出された重み付き平均MEM1(すなわち、重み付き平均のベクトル)とを連結(concatenate)することで、ベクトルを生成する。そして、生成されたベクトルに、活性化関数(例えば、ReLU(Rectified Linear unit)関数)を適用することで、隠れ状態ベクトルを生成する。 Next, the learning device 100 concatenates the embedded vector NEN1 and the calculated weighted average MEM1 (that is, the weighted average vector) to generate a vector. Then, a hidden state vector is generated by applying an activation function (for example, a ReLU (Rectified Linear unit) function) to the generated vector.

次いで、学習装置100は、重み行列に生成された隠れ状態ベクトルを乗ずることで、関連度RS1を算出する。 Next, the learning device 100 calculates the relevance degree RS1 by multiplying the weight matrix by the generated hidden state vector.

次いで、学習装置100は、通知N1が選択されたか否か示す選択情報に含まれる選択フラグの値と、算出された関連度RS1とを用いて、所定の通知がユーザに適合するか否かを判定する、注意機構付きのモデルを学習する。例えば、学習装置100は、誤差逆伝播法を用いて、通知N1が選択されたか否か示す選択情報に含まれる選択フラグの値と算出された関連度RS1とに対応する目的関数(例えば、交差エントロピー損失関数)が最小化されるように、ソフト注意機構付きのモデルを学習する。 Next, the learning device 100 uses the value of the selection flag included in the selection information indicating whether or not the notification N1 is selected and the calculated relevance degree RS1 to determine whether or not the predetermined notification is suitable for the user. Learn a model with an attention mechanism to judge. For example, the learning device 100 uses an error backpropagation method and uses an objective function (for example, an intersection) corresponding to the value of the selection flag included in the selection information indicating whether or not the notification N1 is selected and the calculated relevance RS1. Learn a model with a soft attention mechanism so that the entropy loss function) is minimized.

通知N1以外の通知についても、学習装置100は、例えば、通知N2~Nnに対応する訓練データを用いて、ソフト注意機構付きのモデルを学習することができる。学習装置100は、かかる学習処理を繰り返すことで、汎化誤差が最小化されるように、ソフト注意機構付きのモデルを学習することができる。 For notifications other than notification N1, the learning device 100 can learn a model with a soft attention mechanism using, for example, training data corresponding to notifications N2 to Nn. By repeating the learning process, the learning device 100 can learn a model with a soft attention mechanism so that the generalization error is minimized.

その後、学習装置100は、学習された注意機構付きのモデルを用いて、ユーザU1と通知との間の関連性を示す関連性スコアを出力する。例えば、学習装置100は、所定の通知に対応する埋め込みベクトルと、通知NM1~NMmに対応する埋め込みベクトル(すなわち、埋め込みベクトルNENM1~NENMm)とを、判定モデルに入力することで、ユーザU1が所定の通知を選択する事後確率を、ユーザU1と通知との間の関連性スコアとして出力する。 After that, the learning device 100 outputs a relevance score indicating the relevance between the user U1 and the notification by using the model with the learned attention mechanism. For example, the learning device 100 inputs the embedded vector corresponding to the predetermined notification and the embedded vector corresponding to the notifications NM1 to NMm (that is, the embedded vectors NENM1 to NENMm) into the determination model, so that the user U1 determines. The posterior probability of selecting the notification of is output as the relevance score between the user U1 and the notification.

上述のように、実施形態に係る学習装置100は、通知に対応する埋め込みベクトルと、過去に選択された特定の通知(すなわち、注意機構のメモリ)に対応する埋め込みベクトルとを、訓練データの入力として用いる。また、学習装置100は、通知の選択フラグの値を、訓練データの出力として用いる。そして、学習装置100は、汎化誤差が最小化されるように、注意機構付きのモデルを学習する。これにより、学習装置100は、所定の通知がユーザに適合するか否かを判定する判定モデルを学習することができる。 As described above, the learning device 100 according to the embodiment inputs the training data of the embedded vector corresponding to the notification and the embedded vector corresponding to the specific notification (that is, the memory of the attention mechanism) selected in the past. Used as. Further, the learning device 100 uses the value of the selection flag of the notification as the output of the training data. Then, the learning device 100 learns a model with an attention mechanism so that the generalization error is minimized. As a result, the learning device 100 can learn a determination model for determining whether or not a predetermined notification is suitable for the user.

ところで、図2の例では、提供装置20は、端末装置10に、通知をプッシュ通知として送信している。一般的に、プッシュ通知は、季節性のある情報である。例えば、提供装置20は、速報性の高い情報(例えば、今夜の番組)を1回だけプッシュ通知として送信する。したがって、このようなプッシュ通知に対応する配信履歴が存在しない場合がある。このような状況は、コールドスタート問題(cold start problem)に関連する。この点に関し、プッシュ通知に対応する配信履歴が存在しない場合でも、学習装置100は、上述の判定モデルを用いて、プッシュ通知がユーザに適合するか否かを判定することができる。このため、学習装置100は、ユーザが、ユーザが関心のあるプッシュ通知をタイムリーに受け取ることを可能にする。以下、このような学習処理を実現する学習装置100について詳細に説明する。 By the way, in the example of FIG. 2, the providing device 20 transmits the notification to the terminal device 10 as a push notification. In general, push notifications are seasonal information. For example, the providing device 20 transmits information with high breaking news (for example, tonight's program) only once as a push notification. Therefore, there may be no delivery history corresponding to such push notifications. Such a situation is associated with a cold start problem. In this regard, the learning device 100 can determine whether or not the push notification is suitable for the user by using the above-mentioned determination model even when the distribution history corresponding to the push notification does not exist. Therefore, the learning device 100 enables the user to receive push notifications of interest to the user in a timely manner. Hereinafter, the learning device 100 that realizes such a learning process will be described in detail.

〔3.学習装置の構成〕
次に、図3を参照して、実施形態に係る学習装置100の構成例について説明する。図3は、実施形態に係る学習装置100の構成例を示す図である。図3に示すように、学習装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、学習装置100は、学習装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[3. Configuration of learning device]
Next, a configuration example of the learning device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the learning device 100 according to the embodiment. As shown in FIG. 3, the learning device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The learning device 100 has an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from an administrator or the like who uses the learning device 100, and a display unit (liquid crystal display, etc.) for displaying various information. You may.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、端末装置10および提供装置20との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network network by wire or wirelessly, and transmits / receives information to / from the terminal device 10 and the providing device 20 via the network network.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、訓練データ記憶部121と、判定モデル記憶部122とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 has a training data storage unit 121 and a determination model storage unit 122.

(訓練データ記憶部121)
図4は、実施形態に係る訓練データ記憶部121の一例を示す図である。訓練データ記憶部121は、コンテンツに関連する予測モデルを生成するための訓練データを記憶する。予測モデルは、例えば、所定の通知がユーザに適合するか否かを判定する判定モデルである。一例では、判定モデルは、注意機構付きのモデルである。
(Training data storage unit 121)
FIG. 4 is a diagram showing an example of the training data storage unit 121 according to the embodiment. The training data storage unit 121 stores training data for generating a prediction model related to the content. The prediction model is, for example, a determination model for determining whether or not a predetermined notification is suitable for the user. In one example, the determination model is a model with an attention mechanism.

訓練データ記憶部121は、例えば、受信部131によって受信された訓練データを記憶する。図4の例では、訓練データ記憶部121には、「訓練データ」が「ユーザID」ごとに記憶される。「ユーザID」は、ユーザを識別するための識別子を示す。例示として、「訓練データ」には、項目「通知ID」、「通知情報」および「選択情報」が含まれる。 The training data storage unit 121 stores, for example, the training data received by the reception unit 131. In the example of FIG. 4, "training data" is stored in the training data storage unit 121 for each "user ID". The "user ID" indicates an identifier for identifying a user. By way of example, the "training data" includes the items "notification ID", "notification information" and "selection information".

「通知ID」は、通知を識別するための識別子を示す。「通知情報」は、通知の内容に関する情報を示す。通知の内容は、例えば、通知のタイトルや、通知のボディ(例えば、本文のテキスト)や、通知が選択された場合のアクション(例えば、リンク先への画面遷移)等である。 The "notification ID" indicates an identifier for identifying the notification. "Notification information" indicates information regarding the content of the notification. The content of the notification is, for example, the title of the notification, the body of the notification (for example, the text of the text), the action when the notification is selected (for example, the screen transition to the link destination), and the like.

通知情報は、通知に対応するBoWベクトル(BoW表現とも呼ばれる)を含む。BoWベクトルの複数の成分のうちゼロでない少なくとも1つの成分は、通知の通知情報に含まれる少なくとも1つの単語に対応する。また、通知情報は、BoWベクトルに対応する埋め込みベクトルを含む。一例では、BoWベクトルは、通知のタイトルに対応する。例えば、通知のタイトルが「ジムに行く?」場合に、埋め込みベクトルは、単語「ジム」、「行く」にそれぞれ対応する2つの分散表現の平均ベクトルである。 The notification information includes a BoW vector (also referred to as a BoW representation) corresponding to the notification. At least one non-zero component of the plurality of components of the BoW vector corresponds to at least one word contained in the notification information of the notification. Further, the notification information includes an embedded vector corresponding to the Bow vector. In one example, the BoW vector corresponds to the title of the notification. For example, if the title of the notification is "Go to Jim?", The embedded vector is the average vector of the two distributed representations corresponding to the words "Jim" and "Go" respectively.

「選択情報」は、通知の選択に関する情報を示す。例えば、選択情報は、通知が選択されたか否か示す。例えば、選択情報は、通知が選択されたか否か示す選択フラグを含む。図4の例では、通知が選択されたことを示す選択フラグは、「1」である。この例では、通知が選択されなかったことを示す選択フラグは、「0」である。 "Selection information" indicates information regarding the selection of notifications. For example, the selection information indicates whether or not the notification has been selected. For example, the selection information includes a selection flag indicating whether or not the notification was selected. In the example of FIG. 4, the selection flag indicating that the notification has been selected is "1". In this example, the selection flag indicating that the notification was not selected is "0".

例えば、図4は、通知ID「N1」で識別される通知が、通知情報NI1に対応することを示している。また、例えば、図4は、ユーザID「U1」で識別されるユーザが、通知ID「N1」で識別される通知を選択したことを示している。 For example, FIG. 4 shows that the notification identified by the notification ID “N1” corresponds to the notification information NI1. Further, for example, FIG. 4 shows that the user identified by the user ID “U1” has selected the notification identified by the notification ID “N1”.

例えば、図4は、通知ID「NM1」~「NMm」にそれぞれ対応する複数の通知が、ユーザID「U1」で識別されるユーザによって全て過去に選択されたことを示している。通知ID「NM1」~「NMm」にそれぞれ対応する複数の通知は、注意機構のメモリに相当する。 For example, FIG. 4 shows that a plurality of notifications corresponding to the notification IDs “NM1” to “NMm” have all been selected in the past by the user identified by the user ID “U1”. The plurality of notifications corresponding to the notification IDs "NM1" to "NMm" correspond to the memory of the attention mechanism.

(判定モデル記憶部122)
図3に戻ると、判定モデル記憶部122は、配信対象に関連する判定モデルを記憶する。判定モデル記憶部122は、例えば、学習部133によって学習されたモデルであって、配信候補が所定の利用者と対応するか否かを判定するモデルを記憶する。
(Judgment model storage unit 122)
Returning to FIG. 3, the determination model storage unit 122 stores the determination model related to the distribution target. The determination model storage unit 122 stores, for example, a model learned by the learning unit 133 and determines whether or not the distribution candidate corresponds to a predetermined user.

(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置100内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(Control unit 130)
The control unit 130 is a controller, and for example, various programs stored in a storage device inside the learning device 100 by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) store a RAM or the like. It is realized by being executed as a work area. Further, the control unit 130 is a controller, and may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

(受信部131)
受信部131は、提供装置20から、コンテンツに関連する判定モデルを生成するための訓練データを受信する。訓練データは、通知の通知情報と、ユーザが通知を選択したか否かを示す選択情報とを含む。受信部131は、受信された訓練データを、訓練データ記憶部121に格納してもよい。
(Receiver 131)
The receiving unit 131 receives training data from the providing device 20 for generating a determination model related to the content. The training data includes notification information of the notification and selection information indicating whether or not the user has selected the notification. The receiving unit 131 may store the received training data in the training data storage unit 121.

受信部131は、提供装置20から、配信対象を示す複数の配信対象ベクトルを受信する。例えば、受信部131は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを受信する。一例では、受信部131は、通知に対応する埋め込みベクトルを受信する。上述の通知情報は、配信対象を示す複数の配信対象ベクトルを含んでもよい。受信部131は、受信された複数の配信対象ベクトルを、訓練データ記憶部121に格納してもよい。受信部131は、配信対象に含まれる情報を受信してもよい。 The receiving unit 131 receives a plurality of distribution target vectors indicating the distribution target from the providing device 20. For example, the receiving unit 131 receives a distribution target vector in which a predetermined value is stored in a dimension corresponding to a word included in a sentence to be distributed. In one example, the receiving unit 131 receives the embedded vector corresponding to the notification. The above-mentioned notification information may include a plurality of distribution target vectors indicating distribution targets. The receiving unit 131 may store a plurality of received distribution target vectors in the training data storage unit 121. The receiving unit 131 may receive the information included in the distribution target.

上述の配信対象は、例えば、通知(例えば、プッシュ通知)、ニュース記事、テキストベースのメッセージ(例えば、レコメント情報)等である。配信対象がプッシュ通知である場合に、上述の配信対象ベクトルは、例えば、プッシュ通知のタイトルに含まれる単語と対応する次元に所定の値が格納されたベクトル(例えば、分散表現)である。 The above-mentioned distribution target is, for example, a notification (for example, push notification), a news article, a text-based message (for example, recomment information), or the like. When the delivery target is a push notification, the above-mentioned delivery target vector is, for example, a vector (for example, a distributed representation) in which a predetermined value is stored in a dimension corresponding to a word included in the title of the push notification.

(取得部132)
取得部132は、コンテンツに関連する判定モデルを生成するための訓練データを取得する。取得部132は、例えば、受信部131によって受信された訓練データを取得する。取得部132は、訓練データ記憶部121から訓練データを取得してもよい。
(Acquisition unit 132)
The acquisition unit 132 acquires training data for generating a determination model related to the content. The acquisition unit 132 acquires, for example, the training data received by the reception unit 131. The acquisition unit 132 may acquire training data from the training data storage unit 121.

取得部132は、配信対象を示す複数の配信対象ベクトルを取得する。例えば、取得部132は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。 The acquisition unit 132 acquires a plurality of distribution target vectors indicating the distribution target. For example, the acquisition unit 132 acquires a distribution target vector in which a predetermined value is stored in a dimension corresponding to a word included in a sentence to be distributed.

取得部132は、例えば、受信部131によって受信された配信対象ベクトルを取得する。取得部132は、訓練データ記憶部121から配信対象ベクトルを取得してもよい。 The acquisition unit 132 acquires, for example, the distribution target vector received by the reception unit 131. The acquisition unit 132 may acquire the distribution target vector from the training data storage unit 121.

(学習部133)
学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得部132により取得された配信対象ベクトルを用いて学習する。例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。
(Learning Department 133)
When a plurality of distribution target vectors indicating distribution targets distributed to a predetermined user and distribution candidate vectors indicating distribution candidates are input, the learning unit 133 sets weights based on the similarity with the distribution candidate vectors. A model for determining whether or not a distribution candidate corresponds to a predetermined user based on a plurality of distribution target vectors and a distribution candidate vector is learned using the distribution target vector acquired by the acquisition unit 132. do. For example, the learning unit 133 learns the co-occurrence between the distribution target vector indicating the distribution target selected by the predetermined user and the plurality of distribution target vectors indicating the distribution target distributed to the predetermined user as a model. ..

より具体的には、学習部133は、所定の利用者に配信された配信対象が選択されたか否か示す選択情報(例えば、選択フラグ)に基づいて、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルおよび所定の利用者に配信された配信対象を示す複数の配信対象ベクトルを訓練データの入力として用い、かつ所定の利用者に配信された配信対象が選択されたか否か示す選択情報を訓練データの出力として用いることで、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性に関する距離をモデルに学習させる。 More specifically, the learning unit 133 selects the distribution target selected by the predetermined user based on the selection information (for example, the selection flag) indicating whether or not the distribution target delivered to the predetermined user is selected. The model learns the co-occurrence between the distribution target vector shown and a plurality of distribution target vectors indicating the distribution target delivered to a predetermined user. For example, the learning unit 133 uses a distribution target vector indicating a distribution target selected by a predetermined user and a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user as input of training data, and is predetermined. By using the selection information indicating whether or not the distribution target distributed to the user has been selected as the output of the training data, the distribution target vector indicating the distribution target selected by the predetermined user and the distribution target vector indicating the distribution target selected by the predetermined user are distributed to the predetermined user. Let the model learn the distance related to co-occurrence with multiple distribution target vectors indicating the distribution target.

一例では、モデルは、注意機構付きのモデルである。この例では、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルは、複数の配信対象(例えば、プッシュ通知)にそれぞれ対応する複数の埋め込みベクトル(例えば、分散表現)である。また、この例では、所定の利用者が選択した配信対象を示す配信対象ベクトルは、所定の利用者(例えば、ユーザ)によって過去に選択された配信対象に対応する埋め込みベクトルである。言い換えると、所定の利用者が選択した配信対象を示す配信対象ベクトルは、注意機構のメモリに相当する。 In one example, the model is a model with an attention mechanism. In this example, the plurality of distribution target vectors indicating the distribution targets delivered to a predetermined user are a plurality of embedded vectors (for example, distributed representation) corresponding to the plurality of distribution targets (for example, push notification). Further, in this example, the distribution target vector indicating the distribution target selected by the predetermined user is an embedded vector corresponding to the distribution target previously selected by the predetermined user (for example, a user). In other words, the distribution target vector indicating the distribution target selected by a predetermined user corresponds to the memory of the attention mechanism.

学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルの上述の重み(すなわち、配信候補ベクトルとの類似性に基づく重み)による重み付き平均から、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。例えば、学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つと重み付き平均とを連結した連結ベクトルから、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。言い換えれば、学習部133は、複数の配信対象ベクトルのうちの1つと重み付き平均との連結(concatenation)であるベクトルから、モデルを学習する。例えば、学習部133は、次元数が削減されるように連結ベクトルを徐々に畳み込むことで、配信候補が所定の利用者と対応するか否かを示す値を生成するモデルを学習する。 In the learning unit 133, the distribution candidate is a predetermined user from the weighted average by the above-mentioned weight (that is, the weight based on the similarity with the distribution candidate vector) of the distribution target vector indicating the distribution target selected by the predetermined user. Learn a model that determines whether or not it corresponds to. For example, in the learning unit 133, the delivery candidate corresponds to the predetermined user from the concatenated vector in which one of the plurality of delivery target vectors indicating the delivery target delivered to the predetermined user and the weighted average are concatenated. Learn the model to determine whether or not. In other words, the learning unit 133 learns the model from a vector that is a concatenation of one of the plurality of distribution target vectors and the weighted average. For example, the learning unit 133 learns a model that generates a value indicating whether or not the distribution candidate corresponds to a predetermined user by gradually convolving the connection vector so that the number of dimensions is reduced.

一例では、学習部133は、所定の利用者に配信された配信対象に対応する埋め込みベクトルと、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルとの間の複数の重みを算出する。そして、学習部133は、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルのかかる複数の重みによる重み付き平均(すなわち、重み付き平均のベクトル)に対応する中間層を含む注意機構付きのモデルであって、配信候補が所定の利用者と対応するか否かを判定する注意機構付きのモデルを学習する。 In one example, the learning unit 133 has a plurality of embedded vectors corresponding to a distribution target delivered to a predetermined user and a plurality of embedded vectors corresponding to a plurality of distribution targets selected by the predetermined user. Calculate the weight. Then, the learning unit 133 provides an intermediate layer corresponding to the weighted average (that is, the weighted average vector) by the plurality of weights of the plurality of embedded vectors corresponding to the plurality of distribution targets selected by the predetermined user. A model with a caution mechanism including, and a model with a caution mechanism for determining whether or not a delivery candidate corresponds to a predetermined user is learned.

例えば、学習部133は、所定の利用者に配信された配信対象に対応する埋め込みベクトルと、所定の利用者が選択した複数の配信対象にそれぞれ対応する複数の埋め込みベクトルの複数の重みによる重み付き平均とを連結することで、第1のベクトルを生成する。次いで、学習部133は、生成された第1のベクトルに活性化関数を適用することで、隠れ状態ベクトルを生成する。次いで、学習部133は、重み行列に隠れ状態ベクトを乗ずることで、関連度を算出する。その後、学習部133は、所定の利用者に配信された配信対象が選択されたか否か示す選択情報(例えば、選択フラグ)と、算出された関連度とを用いて、配信候補が所定の利用者と対応するか否かを判定する注意機構付きのモデルを学習する。 For example, the learning unit 133 is weighted by a plurality of weights of an embedded vector corresponding to a distribution target delivered to a predetermined user and a plurality of embedded vectors corresponding to a plurality of distribution targets selected by the predetermined user. A first vector is generated by concatenating with the average. Next, the learning unit 133 generates a hidden state vector by applying an activation function to the generated first vector. Next, the learning unit 133 calculates the degree of relevance by multiplying the weight matrix by the hidden state vector. After that, the learning unit 133 uses the selection information (for example, a selection flag) indicating whether or not the distribution target distributed to the predetermined user has been selected, and the calculated relevance, and the distribution candidate uses the predetermined use. Learn a model with an attention mechanism that determines whether or not it corresponds to a person.

学習部133は、複数の配信対象ベクトルのうちの1つから、複数の配信対象ベクトルのうちの1つが示す配信対象に含まれる情報の特徴を示す特徴ベクトルの平均値の和となるベクトルを生成し、生成されたベクトルに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。 The learning unit 133 generates a vector that is the sum of the average values of the feature vectors indicating the characteristics of the information included in the distribution target indicated by one of the plurality of distribution target vectors from one of the plurality of distribution target vectors. Then, based on the generated vector, a model for determining whether or not the distribution candidate corresponds to a predetermined user is learned.

一例では、情報の特徴を示す特徴ベクトルは、分散表現である。この例では、配信対象に含まれる情報が、第1~3の特徴を含む場合に、配信対象に対応する埋め込みベクトルは、第1~3の特徴にそれぞれ対応する3つの分散表現の平均ベクトルである。 In one example, the feature vector that represents the feature of the information is a distributed representation. In this example, when the information included in the distribution target includes the first to third features, the embedded vector corresponding to the delivery target is the average vector of the three distributed representations corresponding to the first to third features, respectively. be.

学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応する旨を出力し、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択しなかった配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応しない旨を出力されるように、モデルを学習する。 The learning unit 133 is one of a distribution target vector indicating a distribution target selected by a predetermined user and a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user, and is a predetermined use. When a distribution target vector indicating a distribution target selected by a user is input, it is output that the distribution candidate corresponds to a predetermined user, and a distribution target vector indicating a distribution target selected by the predetermined user and a distribution target vector. When one of a plurality of distribution target vectors indicating a distribution target delivered to a predetermined user and a distribution target vector indicating a distribution target not selected by the predetermined user is input, The model is learned so that it is output that the delivery candidate does not correspond to the predetermined user.

例えば、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトル(例えば、テストデータである配信対象ベクトル)と、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトル(例えば、注意機構のメモリ)とが入力された際に、モデルによって出力される値が、配信対象が選択されたことを示す値(例えば、選択フラグ「1」)に近づくように、訓練用のデータである配信対象ベクトルを用いてモデルを訓練する。また、例えば、学習部133は、正則化手法(例えば、L2正則化等)を用いて、汎化誤差が最小化されるようにモデルを学習する。 For example, the learning unit 133 has a distribution target vector indicating a distribution target selected by a predetermined user (for example, a distribution target vector which is test data), and a plurality of distribution targets indicating a distribution target distributed to a predetermined user. The value output by the model when one of the vectors and the distribution target vector indicating the distribution target selected by the predetermined user (for example, the memory of the attention mechanism) is input is the distribution target. The model is trained using the distribution target vector, which is the training data, so as to approach the value indicating that is selected (for example, the selection flag “1”). Further, for example, the learning unit 133 uses a regularization method (for example, L2 regularization, etc.) to learn the model so that the generalization error is minimized.

学習部133は、例えば、所定の利用者に配信された配信対象が選択されたか否か示す選択情報およびモデルの出力に対応する目的関数が最小化されるように、モデルを学習する。一例では、学習部133は、誤差逆伝播法を用いて、選択情報に含まれる選択フラグの値および注意機構付きのモデルの出力(例えば、上述の関連度)に対応する目的関数が最小化されるように、注意機構付きのモデルを学習する。 The learning unit 133 learns the model so that, for example, the selection information indicating whether or not the distribution target distributed to a predetermined user is selected and the objective function corresponding to the output of the model are minimized. In one example, the learning unit 133 uses an error backpropagation method to minimize the objective function corresponding to the value of the selection flag contained in the selection information and the output of the model with the attention mechanism (eg, the degree of relevance described above). So, learn a model with an attention mechanism.

(生成部134)
生成部134は、配信対象の候補となる配信対象に含まれる情報と対応する次元に所定の値が格納された候補ベクトルを生成する。例えば、生成部134は、所定のサーバから、配信対象の候補となる配信対象に含まれる情報に含まれるキーワードに対応する少なくとも1つのベクトル(例えば、分散表現)を取得する。そして、生成部134は、情報に含まれるキーワードに対応する少なくとも1つのベクトルに基づいて、候補ベクトルを生成する。
(Generation unit 134)
The generation unit 134 generates a candidate vector in which a predetermined value is stored in a dimension corresponding to the information included in the distribution target that is a candidate for the distribution target. For example, the generation unit 134 acquires at least one vector (for example, a distributed expression) corresponding to a keyword included in the information included in the distribution target that is a candidate for distribution target from a predetermined server. Then, the generation unit 134 generates a candidate vector based on at least one vector corresponding to the keyword included in the information.

生成部134は、配信対象に含まれる情報を用いて、配信対象を示す配信対象ベクトルを生成してもよい。また、配信対象に含まれる情報を用いて、配信対象に対応するBoWベクトルを生成してもよい。 The generation unit 134 may generate a distribution target vector indicating a distribution target by using the information included in the distribution target. Further, the BoW vector corresponding to the distribution target may be generated by using the information included in the distribution target.

(判定部135)
判定部135は、学習部133により学習されたモデルを用いて、候補ベクトルから、配信対象の候補を所定の利用者に配信するか否かを判定する。また、判定部135は、候補ベクトルが入力された際に、候補ベクトルが示す配信候補が、所定の利用者と対応する旨をモデルが出力した場合は、配信候補を所定の利用者に配信すると判定する。
(Judgment unit 135)
The determination unit 135 determines whether or not to distribute the candidate to be distributed to a predetermined user from the candidate vector using the model learned by the learning unit 133. Further, when the model outputs that the distribution candidate indicated by the candidate vector corresponds to a predetermined user when the candidate vector is input, the determination unit 135 distributes the distribution candidate to the predetermined user. judge.

一例では、判定部135は、学習されたモデル(例えば、注意機構付きのモデル)を用いて、所定の利用者と配信対象の候補との間の関連性を示す関連性スコアを出力する。より具体的には、判定部135は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、配信対象の候補に対応する候補ベクトルとを、モデルに入力することで、所定の利用者が配信対象の候補を選択する確率を、所定の利用者と配信対象の候補との間の関連性スコアとして出力する。 In one example, the determination unit 135 uses a learned model (for example, a model with an attention mechanism) to output a relevance score indicating a relevance between a predetermined user and a candidate to be delivered. More specifically, the determination unit 135 inputs a distribution target vector indicating a distribution target selected by a predetermined user and a candidate vector corresponding to the candidate of the distribution target into the model, so that the predetermined user Outputs the probability of selecting a candidate for distribution as a relevance score between a predetermined user and the candidate for distribution.

(提供部136)
提供部136は、学習部133により学習されたモデルを提供する。例えば、提供部136は、学習されたモデルを提供装置20に提供する。提供部136は、判定部135による判定結果を、提供装置20に提供してもよい。
(Providing Department 136)
The providing unit 136 provides a model learned by the learning unit 133. For example, the providing unit 136 provides the trained model to the providing device 20. The providing unit 136 may provide the determination result by the determination unit 135 to the providing device 20.

〔4.学習処理のフロー〕
次に、実施形態に係る学習装置100による学習処理の手順について説明する。図5は、実施形態に係る学習装置100による学習処理手順を示すフローチャートである。
[4. Learning process flow]
Next, the procedure of the learning process by the learning device 100 according to the embodiment will be described. FIG. 5 is a flowchart showing a learning processing procedure by the learning device 100 according to the embodiment.

図5に示すように、はじめに、学習装置100は、配信対象を示す複数の配信対象ベクトルを取得する(ステップS101)。例えば、学習装置100は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。 As shown in FIG. 5, first, the learning device 100 acquires a plurality of distribution target vectors indicating distribution targets (step S101). For example, the learning device 100 acquires a distribution target vector in which a predetermined value is stored in a dimension corresponding to a word included in a sentence to be distributed.

次いで、学習装置100は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得された配信対象ベクトルを用いて学習する(ステップS102)。例えば、学習装置100は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性をモデルに学習させる。 Next, when a plurality of distribution target vectors indicating distribution targets distributed to a predetermined user and distribution candidate vectors indicating distribution candidates are input, the learning device 100 weights based on the similarity with the distribution candidate vectors. A model for determining whether or not a distribution candidate corresponds to a predetermined user based on a plurality of distribution target vectors in which is set and a distribution candidate vector is learned using the acquired distribution target vector (. Step S102). For example, the learning device 100 makes a model learn the co-occurrence between a distribution target vector indicating a distribution target selected by a predetermined user and a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user. ..

より具体的には、学習装置100は、所定の利用者が選択した配信対象を示す配信対象ベクトルおよび所定の利用者に配信された配信対象を示す複数の配信対象ベクトルを訓練データの入力として用い、かつ所定の利用者に配信された配信対象が選択されたか否か示す選択情報を訓練データの出力として用いることで、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性に関する距離をモデルに学習させる。 More specifically, the learning device 100 uses a distribution target vector indicating a distribution target selected by a predetermined user and a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user as input of training data. In addition, by using the selection information indicating whether or not the distribution target delivered to the predetermined user has been selected as the output of the training data, the distribution target vector indicating the distribution target selected by the predetermined user and the predetermined use Let the model learn the distance related to the co-occurrence with a plurality of delivery target vectors indicating the delivery target delivered to the person.

〔5.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. others〕
Further, among the processes described in the above-described embodiment, a part of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the process described as being performed manually can be automatically performed by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.

例えば、図3に示した記憶部120の一部又は全部は、学習装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、学習装置100は、ストレージサーバにアクセスすることで、訓練データ等の各種情報を取得する。 For example, a part or all of the storage unit 120 shown in FIG. 3 may not be held by the learning device 100, but may be held by a storage server or the like. In this case, the learning device 100 acquires various information such as training data by accessing the storage server.

〔6.ハードウェア構成〕
また、上述してきた実施形態に係る学習装置100は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[6. Hardware configuration]
Further, the learning device 100 according to the above-described embodiment is realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 6 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic unit 1030, the primary storage device 1040, the secondary storage device 1050, the output IF (Interface) 1060, the input IF 1070, and the network IF 1080 are connected by the bus 1090. Have.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。 The arithmetic unit 1030 operates based on a program stored in the primary storage device 1040 or the secondary storage device 1050, a program read from the input device 1020, or the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic unit 1030 for various operations. Further, the secondary storage device 1050 is a storage device in which data used by the arithmetic unit 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), an HDD, a flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It is realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, a scanner, and the like, and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 The input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network IF 1080 receives data from another device via the network N and sends it to the arithmetic unit 1030, and also transmits the data generated by the arithmetic unit 1030 to the other device via the network N.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が学習装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。 For example, when the computer 1000 functions as the learning device 100, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the primary storage device 1040.

〔7.効果〕
上述してきたように、実施形態に係る学習装置100は、取得部132と、学習部133とを有する。取得部132は、配信対象を示す複数の配信対象ベクトルを取得する。学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルと、配信候補を示す配信候補ベクトルとが入力されると、配信候補ベクトルとの類似性に基づく重みが設定された複数の配信対象ベクトルと、配信候補ベクトルとに基づいて、配信候補が所定の利用者と対応するか否かを判定するモデルを、取得部132により取得された配信対象ベクトルを用いて学習する。
[7. effect〕
As described above, the learning device 100 according to the embodiment has an acquisition unit 132 and a learning unit 133. The acquisition unit 132 acquires a plurality of distribution target vectors indicating the distribution target. When a plurality of distribution target vectors indicating distribution targets distributed to a predetermined user and distribution candidate vectors indicating distribution candidates are input, the learning unit 133 sets weights based on the similarity with the distribution candidate vectors. A model for determining whether or not a distribution candidate corresponds to a predetermined user based on a plurality of distribution target vectors and a distribution candidate vector is learned using the distribution target vector acquired by the acquisition unit 132. do.

また、実施形態に係る学習装置100において、取得部132は、配信対象となる文章に含まれる単語と対応する次元に所定の値が格納された配信対象ベクトルを取得する。 Further, in the learning device 100 according to the embodiment, the acquisition unit 132 acquires a distribution target vector in which a predetermined value is stored in a dimension corresponding to a word included in a sentence to be distributed.

また、実施形態に係る学習装置100において、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルとの共起性を前記モデルに学習させる。 Further, in the learning device 100 according to the embodiment, the learning unit 133 includes a distribution target vector indicating a distribution target selected by a predetermined user, and a plurality of distribution target vectors indicating a distribution target distributed to the predetermined user. Let the model learn the co-occurrence of.

また、実施形態に係る学習装置100において、学習部133は、配信候補ベクトルとの類似性に基づく重みによる、所定の利用者が選択した配信対象を示す配信対象ベクトルの重み付き平均から、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。 Further, in the learning device 100 according to the embodiment, the learning unit 133 is a distribution candidate from a weighted average of the distribution target vectors indicating the distribution target selected by a predetermined user by the weight based on the similarity with the distribution candidate vector. Learns a model that determines whether or not corresponds to a given user.

また、実施形態に係る学習装置100において、学習部133は、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つと重み付き平均とを連結した連結ベクトルから、配信候補が所定の利用者と対応するか否かを判定するモデルを学習する。 Further, in the learning device 100 according to the embodiment, the learning unit 133 distributes from a concatenated vector in which one of a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user and a weighted average are concatenated. Learn a model that determines whether a candidate corresponds to a given user.

また、実施形態に係る学習装置100において、学習部133は、次元数が削減されるように連結ベクトルを徐々に畳み込むことで、配信候補が所定の利用者と対応するか否かを示す値を生成するモデルを学習する。 Further, in the learning device 100 according to the embodiment, the learning unit 133 gradually convolves the connection vector so that the number of dimensions is reduced, so that a value indicating whether or not the distribution candidate corresponds to a predetermined user is set. Learn the model to generate.

また、実施形態に係る学習装置100において、学習部133は、複数の配信対象ベクトルのうちの1つから、複数の配信対象ベクトルのうちの1つが示す配信対象に含まれる情報の特徴を示す特徴ベクトルの平均値の和となるベクトルを生成し、生成されたベクトルに基づいて、配信候補が前記所定の利用者と対応するか否かを判定するモデルを学習する。 Further, in the learning device 100 according to the embodiment, the learning unit 133 is a feature showing the characteristics of the information included in the distribution target indicated by one of the plurality of distribution target vectors from one of the plurality of distribution target vectors. A vector to be the sum of the average values of the vectors is generated, and a model for determining whether or not the distribution candidate corresponds to the predetermined user is learned based on the generated vector.

また、実施形態に係る学習装置100において、学習部133は、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択した配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応する旨を出力し、所定の利用者が選択した配信対象を示す配信対象ベクトルと、所定の利用者に配信された配信対象を示す複数の配信対象ベクトルのうちの1つであり、かつ所定の利用者が選択しなかった配信対象を示す配信対象ベクトルとが入力された際に、配信候補が所定の利用者と対応しない旨を出力されるように、モデルを学習する。 Further, in the learning device 100 according to the embodiment, the learning unit 133 has a distribution target vector indicating a distribution target selected by a predetermined user, and a plurality of distribution target vectors indicating a distribution target distributed to the predetermined user. When one of them and the distribution target vector indicating the distribution target selected by the predetermined user is input, the distribution candidate outputs that the distribution candidate corresponds to the predetermined user, and the predetermined user Indicates a distribution target vector indicating a selected distribution target and a distribution target that is one of a plurality of distribution target vectors indicating a distribution target distributed to a predetermined user and is not selected by the predetermined user. The model is learned so that when the distribution target vector is input, it is output that the distribution candidate does not correspond to the predetermined user.

また、実施形態に係る学習装置100は、配信対象の候補となる配信対象に含まれる情報と対応する次元に所定の値が格納された候補ベクトルを生成する生成部134を有する。また、実施形態に係る学習装置100は、学習部133により学習されたモデルを用いて、候補ベクトルから、配信対象の候補を所定の利用者に配信するか否かを判定する判定部135を有する。 Further, the learning device 100 according to the embodiment has a generation unit 134 that generates a candidate vector in which a predetermined value is stored in a dimension corresponding to the information included in the distribution target that is a candidate for the distribution target. Further, the learning device 100 according to the embodiment has a determination unit 135 that determines whether or not to distribute the candidate to be distributed to a predetermined user from the candidate vector using the model learned by the learning unit 133. ..

また、実施形態に係る学習装置100において、判定部135は、候補ベクトルが入力された際に、候補ベクトルが示す配信候補が、所定の利用者と対応する旨をモデルが出力した場合は、配信候補を所定の利用者に配信すると判定する。 Further, in the learning device 100 according to the embodiment, when the candidate vector is input, the determination unit 135 distributes when the model outputs that the distribution candidate indicated by the candidate vector corresponds to a predetermined user. It is determined that the candidate will be delivered to a predetermined user.

上述した各処理により、学習装置100は、所定の通知がユーザに適合するか否かを判定する判定モデルを学習することができる。 By each of the above-mentioned processes, the learning device 100 can learn a determination model for determining whether or not a predetermined notification is suitable for the user.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.

また、上述した学習装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 Further, the above-mentioned learning device 100 may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform or the like by API (Application Programming Interface), network computing, or the like. It can be changed flexibly.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the receiving unit can be read as a receiving means or a receiving circuit.

1 ネットワークシステム
10 端末装置
20 提供装置
100 学習装置
120 記憶部
121 訓練データ記憶部
122 判定モデル記憶部
130 制御部
131 受信部
132 取得部
133 学習部
134 生成部
135 判定部
136 提供部
1 Network system 10 Terminal device 20 Providing device 100 Learning device 120 Storage unit 121 Training data storage unit 122 Judgment model storage unit 130 Control unit 131 Reception unit 132 Acquisition unit 133 Learning unit 134 Generation unit 135 Judgment unit 136 Providing unit

Claims (9)

所定の利用者に配信された第1の配信対象を示す第1の配信対象ベクトルと、当該所定の利用者に配信され、かつ当該所定の利用者によって選択された複数の第2の配信対象をそれぞれ示す複数の第2の配信対象ベクトルと、当該所定の利用者が当該第1の配信対象を選択したかを示す選択情報とを取得する取得部と、
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されモデルを学習する学習部と
を有することを特徴とする学習装置。
A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition unit that acquires a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target .
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it matches, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning device characterized by having a learning unit for learning a model in which a plurality of weights are set between the distribution target vector and the vector .
前記取得部は、
前記第1の配信対象となる文章に含まれる単語と対応する次元に所定の値が格納されたベクトルに対応する前記第1の配信対象ベクトルを取得し、対応する第2の配信対象となる文章に含まれる単語と対応する次元に所定の値が格納されたベクトルに対応するそれぞれの第2の配信対象ベクトルを取得する
ことを特徴とする請求項1に記載の学習装置。
The acquisition unit
The first distribution target vector corresponding to the vector in which a predetermined value is stored in the dimension corresponding to the word included in the first distribution target sentence is acquired , and the corresponding second distribution target sentence is obtained. Acquires each second distribution target vector corresponding to the vector in which a predetermined value is stored in the dimension corresponding to the word contained in.
The learning device according to claim 1.
前記学習部は、
前記第1の配信対象ベクトルと前記複数の第2の配信対象ベクトルとの間の重みを用いて算出された前記複数の第2の配信対象ベクトルの重み付き平均から、前記所定の利用者が前記第1の配信対象を選択する確率を算出し、前記選択情報と、算出された確率とを用いて、前記所定の利用者が前記配信候補に適合するか否かを判定することとして、前記所定の利用者が前記配信候補を選択する確率を算出する前記モデルを学習する
ことを特徴とする請求項に記載の学習装置。
The learning unit
From the weighted average of the plurality of second distribution target vectors calculated by using the weights between the first distribution target vector and the plurality of second distribution target vectors, the predetermined user is said to be the said. The predetermined probability of selecting the first distribution target is calculated, and the selection information and the calculated probability are used to determine whether or not the predetermined user is suitable for the distribution candidate. The learning device according to claim 1 , wherein the user learns the model for calculating the probability of selecting the delivery candidate .
前記学習部は、
前記第1の配信対象ベクトルと前記重み付き平均とを連結することによって生成された連結ベクトルから、前記所定の利用者が前記第1の配信対象を選択する確率を算出する
ことを特徴とする請求項に記載の学習装置。
The learning unit
From the connection vector generated by concatenating the first distribution target vector and the weighted average, the probability that the predetermined user selects the first distribution target is calculated.
The learning device according to claim 3 , wherein the learning device is characterized by the above.
前記学習部は、
前記連結ベクトルに活性化関数を適用することで、隠れ状態ベクトルを生成し、生成された隠れ状態ベクトルを重み行列に乗ずることで、前記所定の利用者が前記第1の配信対象を選択する確率を算出する
ことを特徴とする請求項に記載の学習装置。
The learning unit
By applying an activation function to the concatenated vector, a hidden state vector is generated, and by multiplying the generated hidden state vector by a weight matrix, the probability that the predetermined user selects the first delivery target. To calculate
The learning device according to claim 4 , wherein the learning device is characterized in that.
前記学習部は、
前記第1の配信対象となる文章に含まれる複数の単語にそれぞれ対応する複数の分散表現の平均ベクトルを、前記第1の配信対象ベクトルとして生成し、対応する第2の配信対象となる文章に含まれる複数の単語にそれぞれ対応する複数の分散表現の平均ベクトルを、それぞれの第2の配信対象ベクトルとして生成する
ことを特徴とする請求項1~のうちいずれか1つに記載の学習装置。
The learning unit
An average vector of a plurality of distributed expressions corresponding to a plurality of words included in the first distribution target sentence is generated as the first distribution target vector, and the corresponding second distribution target sentence is generated. Generate an average vector of multiple distributed representations corresponding to each of the included words as a second distribution target vector for each.
The learning device according to any one of claims 1 to 5 , wherein the learning device is characterized in that.
前記配信候補に含まれる情報を用いて、前記配信候補ベクトルを生成する生成部と、
前記学習部により学習されたモデルに、前記生成部によって生成された前記配信候補ベクトルと前記複数の第2の配信対象ベクトルとを入力することで、前記所定の利用者が前記配信候補を選択する確率を、前記所定の利用者と配信候補の間の関連性を示す関連性スコアとして出力する判定部と
を有することを特徴とする請求項1~のうちいずれか1つに記載の学習装置。
A generation unit that generates the distribution candidate vector using the information included in the distribution candidate, and
By inputting the distribution candidate vector generated by the generation unit and the plurality of second distribution target vectors into the model learned by the learning unit, the predetermined user selects the distribution candidate. The learning device according to any one of claims 1 to 6 , further comprising a determination unit that outputs a probability as a relevance score indicating a relevance between the predetermined user and a delivery candidate. ..
学習装置が実行する方法であって、
所定の利用者に配信された第1の配信対象を示す第1の配信対象ベクトルと、当該所定の利用者に配信され、かつ当該所定の利用者によって選択された複数の第2の配信対象をそれぞれ示す複数の第2の配信対象ベクトルと、当該所定の利用者が当該第1の配信対象を選択したかを示す選択情報とを取得する取得工程と、
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されモデルを学習する学習工程と
を含むことを特徴とする学習方法。
The way the learning device performs,
A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition process for acquiring a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target .
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it matches, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning method comprising a learning process of learning a model in which multiple weights are set with and to a delivery target vector of .
所定の利用者に配信された第1の配信対象を示す第1の配信対象ベクトルと、当該所定の利用者に配信され、かつ当該所定の利用者によって選択された複数の第2の配信対象をそれぞれ示す複数の第2の配信対象ベクトルと、当該所定の利用者が当該第1の配信対象を選択したかを示す選択情報とを取得する取得手順と、
前記第1の配信対象ベクトル及び前記複数の第2の配信対象ベクトルを、訓練データの入力として用い、かつ前記選択情報を、当該訓練データの出力として用いて、前記所定の利用者が配信候補に適合するか否かを判定するモデルであって、当該配信候補を示す配信候補ベクトルと、前記複数の第2の配信対象ベクトルとを、入力として用い、当該配信候補ベクトルと前記複数の前記第2の配信対象ベクトルとの間の複数の重みが設定されモデルを学習する学習手順と
をコンピュータに実行させるための学習プログラム。
A first distribution target vector indicating a first distribution target distributed to a predetermined user, and a plurality of second distribution targets distributed to the predetermined user and selected by the predetermined user. An acquisition procedure for acquiring a plurality of second distribution target vectors, respectively, and selection information indicating whether or not the predetermined user has selected the first distribution target, and an acquisition procedure.
Using the first distribution target vector and the plurality of second distribution target vectors as input of training data and using the selection information as output of the training data, the predetermined user becomes a distribution candidate . It is a model for determining whether or not it is compatible, and uses the distribution candidate vector indicating the distribution candidate and the plurality of second distribution target vectors as inputs, and the distribution candidate vector and the plurality of the second distribution targets. A learning program for a computer to perform a learning procedure to learn a model in which multiple weights are set between the delivery target vector and the .
JP2018139835A 2018-07-25 2018-07-25 Learning equipment, learning methods and learning programs Active JP7041018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018139835A JP7041018B2 (en) 2018-07-25 2018-07-25 Learning equipment, learning methods and learning programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139835A JP7041018B2 (en) 2018-07-25 2018-07-25 Learning equipment, learning methods and learning programs

Publications (2)

Publication Number Publication Date
JP2020017089A JP2020017089A (en) 2020-01-30
JP7041018B2 true JP7041018B2 (en) 2022-03-23

Family

ID=69581486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139835A Active JP7041018B2 (en) 2018-07-25 2018-07-25 Learning equipment, learning methods and learning programs

Country Status (1)

Country Link
JP (1) JP7041018B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048360A (en) 2010-08-25 2012-03-08 Sony Corp Id value evaluation device, id value evaluation system and id value evaluation method
JP2017016523A (en) 2015-07-03 2017-01-19 ヤフー株式会社 Providing device, providing method, and providing program
WO2017201444A1 (en) 2016-05-20 2017-11-23 Google Llc Classifying input examples using a comparison set
JP2018088051A (en) 2016-11-28 2018-06-07 ヤフー株式会社 Information processing device, information processing method and program
JP2018097595A (en) 2016-12-13 2018-06-21 ヤフー株式会社 Distribution device, distribution method, distribution program, terminal device, display method, and display program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314186A (en) * 1992-05-06 1993-11-26 Canon Inc Automatic information source selector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048360A (en) 2010-08-25 2012-03-08 Sony Corp Id value evaluation device, id value evaluation system and id value evaluation method
JP2017016523A (en) 2015-07-03 2017-01-19 ヤフー株式会社 Providing device, providing method, and providing program
WO2017201444A1 (en) 2016-05-20 2017-11-23 Google Llc Classifying input examples using a comparison set
JP2018088051A (en) 2016-11-28 2018-06-07 ヤフー株式会社 Information processing device, information processing method and program
JP2018097595A (en) 2016-12-13 2018-06-21 ヤフー株式会社 Distribution device, distribution method, distribution program, terminal device, display method, and display program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮▲崎▼ 太郎,外4名,Twitterからの有用情報抽出のための学習データのマルチクラス化,情報処理学会 研究報告 情報基礎とアクセス技術(IFAT) 2017-IFAT-127 [online],情報処理学会,2017年07月15日,pp.1~6,[2017年7月18日検索]Internet<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=182755&file_id=1&file_no=1>

Also Published As

Publication number Publication date
JP2020017089A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
GB2573189A (en) Generating a topic-based summary of textual content
KR102155261B1 (en) Wide and deep machine learning models
CN109947919B (en) Method and apparatus for generating text matching model
JP6355800B1 (en) Learning device, generating device, learning method, generating method, learning program, and generating program
CN105144164A (en) Scoring concept terms using a deep network
JP5961320B2 (en) Method of classifying users in social media, computer program, and computer
KR20210034679A (en) Identify entity-attribute relationships
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
US11061943B2 (en) Constructing, evaluating, and improving a search string for retrieving images indicating item use
WO2017173063A1 (en) Updating messaging data structures to include predicted attribute values associated with recipient entities
CN107765883A (en) The sort method and sequencing equipment of candidate&#39;s word of input method
CN110059172B (en) Method and device for recommending answers based on natural language understanding
WO2022116827A1 (en) Automatic delineation and extraction of tabular data in portable document format using graph neural networks
CN113779380A (en) Cross-domain recommendation method, device and equipment, and content recommendation method, device and equipment
JP7096093B2 (en) Learning equipment, learning methods and learning programs
JP6775366B2 (en) Selection device and selection method
JP6679448B2 (en) Generation device, generation method, and generation program
CN112650942A (en) Product recommendation method, device, computer system and computer-readable storage medium
JP7041018B2 (en) Learning equipment, learning methods and learning programs
JP7231322B2 (en) LEARNING DEVICE, LEARNING METHOD, LEARNING PROGRAM AND PROGRAM
WO2021095358A1 (en) Learning method, evaluation device, and evaluation system
WO2021200502A1 (en) Information processing device and information processing method
JP7073227B2 (en) Providing equipment, providing method and providing program
JP2019021210A (en) Specification device and specification method
CN109857838B (en) Method and apparatus for generating information

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7041018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350