JPH10228487A - Automatic learning system for user taste - Google Patents

Automatic learning system for user taste

Info

Publication number
JPH10228487A
JPH10228487A JP9048512A JP4851297A JPH10228487A JP H10228487 A JPH10228487 A JP H10228487A JP 9048512 A JP9048512 A JP 9048512A JP 4851297 A JP4851297 A JP 4851297A JP H10228487 A JPH10228487 A JP H10228487A
Authority
JP
Japan
Prior art keywords
user
content
learning
weight
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9048512A
Other languages
Japanese (ja)
Other versions
JP2962264B2 (en
Inventor
Naoki Abe
直樹 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP9048512A priority Critical patent/JP2962264B2/en
Publication of JPH10228487A publication Critical patent/JPH10228487A/en
Application granted granted Critical
Publication of JP2962264B2 publication Critical patent/JP2962264B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently learn the taste of a user with respect to a content through the use of a pair of user contents given as data and the accurate liking degree. SOLUTION: When a pair of the user contents are inputted, a prediction part 5 predicts the liking degree of the pair by a present hypothesis (the value of the liking degree of past learning data stored in learning data storage part 2 and inter-user weight and inter-content weight, which are stored in storage parts 3 and 4). A learning part 6 updates the present hypothesis when the accurate liking degree of the pair is inputted. At that time, inter-user weight is updated as the function of a difference between the liking degree with respect to a pair of the user contents in past learning data and the liking degree with respect to a pair of the user contents which are newly given, and inter-content weight, and updates it as the function of the difference between the liking degree with respect to a pair of the user contents in past learning data and the liking degree with respect to a pair of the user contents which are newly given, and inter-user weight.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータネッ
トワーク上等で、ニュース記事やホームページ等のコン
テンツ・サービスにおいて、個々のユーザの嗜好に合っ
たコンテンツを提供するためのユーザ嗜好の学習技術に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user preference learning technique for providing content that matches individual user preferences in a content service such as a news article or a homepage on a computer network or the like. is there.

【0002】[0002]

【従来の技術】コンピュータネットワーク上等で、ニュ
ース記事やホームページ等のコンテンツに対するユーザ
の嗜好を学習し、個々のユーザの嗜好に合ったコンテン
ツを提供する学習型ナビゲーション・システムにおい
て、コンピュータネットワーク上のコンテンツに対する
嗜好の学習法として従来知られている方法は、同一ユー
ザによる類似のコンテンツに対する過去の嗜好を基に予
測・学習する「コンテンツベース方式」と、同一コンテ
ンツに対する類似ユーザの嗜好を基に予測・学習する
「ユーザベース方式」とに大別できる。
2. Description of the Related Art In a learning-type navigation system which learns user preferences for contents such as news articles and homepages on a computer network or the like, and provides contents matching the preferences of individual users, a learning-type navigation system is provided. Conventionally known methods for learning the preference for a content include a “content-based method” in which prediction and learning are performed based on past preference for similar content by the same user, and prediction and learning based on similar user preference for the same content. It can be broadly divided into "user-based method" for learning.

【0003】前者のコンテンツベース方式の例として
は、例えばカーネギーメロン大学のKen Langに
よるニュース・ウィーダー(NewsWeeder)が
知られており、Proceedings of the
12th International Confe
rence on Machine Learning
に掲載の論文「NewsWeeder:Learnin
g to filternetnews」に詳細に掲載
されている。また、同じくコンテンツベース方式の例と
して、日本電気株式会社C&C研究所の中村篤祥等によ
る逐次型学習方式もあり、第52回情報処理学会全国大
会の予稿集掲載の論文「ブール変数実数多項式を用いた
嗜好関数の学習」に詳細に記載されている。
As an example of the former content-based system, for example, NewsWeeder by Ken Lang of Carnegie Mellon University is known, and Proceedings of the
12th International Confes
rence on Machine Learning
Paper "NewsWeeder: Learnnin"
g to filtersnews ". Also, as an example of the content-based method, there is a sequential learning method by Atsuyoshi Nakamura of C & C Research Laboratories of NEC Corporation, and a paper "Bulletin Variable Real Polynomials" Learning of Preference Function Used ”.

【0004】後者のユーザベース方式の例としては、M
ITのPaul Resnick等による「グループ・
レンズ(Group Lens)」が知られており、P
roceedings of CSCW(1994)掲
載の論文「GroupLens:An Open Ar
chitecture for Collaborat
ive Filtering of Netnews」
に詳細に記載されている。
As an example of the latter user base method, M
"Group ・ by Paul Resnick of IT
Lens (Group Lens) "is known,
The article “GroupLens: An Open Ar” published in the “Roceedings of CSCW” (1994).
feature for Collaborat
ive Filtering of Networks "
In more detail.

【0005】[0005]

【発明が解決しようとする課題】近年、上記の二種類の
方式を融合し、類似するユーザの過去の嗜好の情報と、
類似するコンテンツに対する過去の嗜好の情報の両方を
利用し、ユーザの嗜好を学習・予測する方式の重要性が
強く認識されており、これを達成する有効な方式の発明
が待望されていた。本発明は、まさにこの条件を満た
す、具体的かつ有効な方式を提案するものである。
In recent years, the above two types of methods have been combined, and information on the past tastes of similar users has been obtained.
The importance of a method of learning and predicting the user's preference by using both pieces of past preference information for similar contents has been strongly recognized, and an invention of an effective method for achieving this has been long-awaited. The present invention proposes a specific and effective method that exactly satisfies this condition.

【0006】[0006]

【課題を解決するための手段】[Means for Solving the Problems]

(A)本発明のユーザ嗜好自動学習方式は、ニュース記
事やホームページ等のコンテンツに対するユーザの嗜好
を、データとして与えられたコンテンツとそのコンテン
ツに対するユーザの嗜好度を表す数値からなるデータを
用いて学習する装置において、ユーザ・コンテンツ対お
よび該コンテンツに対する該ユーザの嗜好度を表す数値
からなる学習データを入力する学習データ入力部と、過
去に与えられた学習データを一括して格納する学習デー
タ格納部と、ユーザ間の類似度を表すユーザ間重みを格
納するユーザ間重み記憶部と、コンテンツ間の類似度を
表すコンテンツ間重みを格納するコンテンツ間重み記憶
部と、前記学習データ入力部に与えられたユーザ・コン
テンツ対に対して、前記学習データ格納部に格納された
学習データ、前記ユーザ間重み記憶部に格納されたユー
ザ間重み、および前記コンテンツ間重み記憶部に格納さ
れたコンテンツ間重みを用いて、そのユーザのそのコン
テンツに対する嗜好度を予測する予測部と、前記学習デ
ータ入力部から入力された前記ユーザ・コンテンツ対の
正しい嗜好度、前記学習データ格納部に格納された過去
に与えられた学習データ、前記ユーザ間重み記憶部に格
納されたユーザ間重み、および前記コンテンツ間重み記
憶部に格納されたコンテンツ間重みを用いて、前記ユー
ザ間重み記憶部に格納されたユーザ間重みおよび前記コ
ンテンツ間重み記憶部に格納されたコンテンツ間重みを
更新する学習部とを備え、前記予測部における予測は、
前記学習データ格納部に格納される過去の学習データの
嗜好度の値の、新たに与えられたユーザ・コンテンツ対
との間のユーザ間重みとコンテンツ間重みの積を重みと
する、重みつき平均によって行われる構成を有し、前記
学習部における重み更新は、過去の学習データ中の各ユ
ーザ・コンテンツ対に対して、新たに与えられたユーザ
・コンテンツ対との間のユーザ間重みとコンテンツ間重
みとの双方に対して行われ、且つ、ユーザ間重みは、過
去の学習データ中のユーザ・コンテンツ対に対する嗜好
度と新たに与えられたユーザ・コンテンツ対に対する嗜
好度との差と、前記コンテンツ間重みとの関数として更
新され、コンテンツ間重みは、過去の学習データ中のユ
ーザ・コンテンツ対に対する嗜好度と新たに与えられた
ユーザ・コンテンツ対に対する嗜好度との差と、前記ユ
ーザ間重みとの関数として更新される構成を有する。
(A) The user preference automatic learning method according to the present invention learns user preference for contents such as news articles and homepages using data consisting of a content given as data and a numerical value representing the user preference level for the content. A learning data input unit for inputting learning data consisting of a user-content pair and a numerical value representing the user's preference for the content, and a learning data storage unit for collectively storing learning data given in the past And an inter-user weight storage unit for storing inter-user weights representing similarities between users, an inter-content weight storage unit for storing inter-content weights representing similarities between contents, and the learning data input unit. Learning data stored in the learning data storage unit, A prediction unit that predicts the user's preference for the content using the weight between users stored in the weight storage unit between users and the weight between contents stored in the weight storage unit between contents, and the learning data Correct preference level of the user / content pair input from the input unit, learning data given in the past stored in the learning data storage unit, user weight stored in the user weight storage unit, and the content A learning unit that updates the inter-user weight stored in the inter-user weight storage unit and the inter-content weight stored in the inter-content weight storage unit using the inter-content weight stored in the inter-weight storage unit. , The prediction in the prediction unit,
A weighted average in which the value of the preference level of the past learning data stored in the learning data storage unit is a product of the weight between users and the weight between contents between a newly given user / content pair. Weight updating in the learning unit is performed for each user-content pair in the past learning data with respect to the weight between the user and the content between the newly-given user-content pair. And the weight between users is calculated based on the difference between the preference level for the user-content pair in the past learning data and the preference level for the newly-given user-content pair. The inter-content weight is updated as a function of the inter-content weight and the preference between the user content pair in the past learning data and the newly given user content. Has a difference between the preference degree for a pair, the configuration to be updated as a function of the user between the weights.

【0007】上記(A)のように構成された本発明のユ
ーザ嗜好自動学習方式にあっては、学習データ入力部か
らユーザ・コンテンツ対が入力されると、予測部が、そ
のユーザ・コンテンツ対に対して、学習データ格納部に
格納された過去の学習データ、ユーザ間重み記憶部に格
納されたユーザ間重み、およびコンテンツ間重み記憶部
に格納されたコンテンツ間重みを現在の仮説として、そ
のユーザのそのコンテンツに対する嗜好度の予測値とし
て、過去の学習データの嗜好度の値の、新たに与えられ
たユーザ・コンテンツ対との間のユーザ間重みとコンテ
ンツ間重みの積を重みとする、重みつき平均によって求
める。また、そのユーザ・コンテンツ対の正しい嗜好度
が学習データ入力部から入力されると、学習部が、この
正しい嗜好度、学習データ格納部に格納された過去に与
えられた学習データ、ユーザ間重み記憶部に格納された
現在のユーザ間重み、およびコンテンツ間重み記憶部に
格納された現在のコンテンツ間重みを用いて、ユーザ間
重み記憶部に格納されたユーザ間重みおよびコンテンツ
間重み記憶部に格納されたコンテンツ間重み、つまり現
在の仮説を更新する。具体的には、過去の学習データ中
の各ユーザ・コンテンツ対に対して、新たに与えられた
ユーザ・コンテンツ対との間のユーザ間重みとコンテン
ツ間重みとの双方を更新し、その際、ユーザ間重みは、
過去の学習データ中のユーザ・コンテンツ対に対する嗜
好度と新たに与えられたユーザ・コンテンツ対に対する
嗜好度との差と、前記コンテンツ間重みとの関数として
更新し、コンテンツ間重みは、過去の学習データ中のユ
ーザ・コンテンツ対に対する嗜好度と新たに与えられた
ユーザ・コンテンツ対に対する嗜好度との差と、前記ユ
ーザ間重みとの関数として更新する。このような重みの
更新を行うことにより、ユーザ間の類似度のみを考慮す
る場合や、コンテンツ間の類似度のみを考慮する場合に
比べて、立上がりの早い学習が可能となる。なお、以上
の動作例では、ユーザ・コンテンツ対が与えられたとき
に、その予測と学習とを行うようにしたが、これは毎回
学習を行ういわゆる逐次学習式の動作であり、別の動作
例として、学習中は予測を行わずに学習だけを行い、或
る程度学習が進んだ段階以降は、予測だけを行う所謂バ
ッチ式の動作を行わせることもできる。
In the automatic user preference learning method of the present invention configured as shown in (A), when a user content pair is input from the learning data input unit, the prediction unit sets the user content pair. For the current hypothesis, the past learning data stored in the learning data storage unit, the inter-user weight stored in the inter-user weight storage unit, and the inter-content weight stored in the inter-content weight storage unit are used as current hypotheses. As the predicted value of the user's preference for the content, the product of the user-to-user weight and the content-to-content weight between the newly given user-content pair of the value of the preference of the past learning data is used as the weight, Determined by weighted average. When the correct preference level of the user / content pair is input from the learning data input unit, the learning unit sets the correct preference level, the previously given learning data stored in the learning data storage unit, and the weight between users. Using the current inter-user weight stored in the storage unit and the current inter-content weight stored in the inter-content weight storage unit, the inter-user weight and inter-content weight storage unit stored in the inter-user weight storage unit are used. The stored weight between contents, that is, the current hypothesis is updated. Specifically, for each user-content pair in the past learning data, both the inter-user weight and the inter-content weight between the newly given user-content pair are updated. The weight between users is
The difference between the preference level for the user / content pair in the past learning data and the preference level for the newly given user / content pair is updated as a function of the weight between the contents, and the weight between the contents is determined based on the past learning weight. Update is performed as a function of the difference between the preference level for the user content pair in the data and the preference level for the newly given user content pair, and the inter-user weight. By updating such weights, learning with a faster rise becomes possible as compared with a case where only similarity between users is considered or a case where only similarity between contents is considered. In the above operation example, when a user / content pair is given, prediction and learning are performed. However, this is a so-called sequential learning type operation in which learning is performed every time. During learning, it is possible to perform only learning without performing prediction, and after a certain stage of learning, a so-called batch type operation of performing only prediction can be performed.

【0008】(B)また本発明の別のユーザ嗜好自動学
習方式は、前記の学習部において、過去の学習データ中
の各ユーザ・コンテンツ対に対して、新たに与えられた
ユーザ・コンテンツ対との間のユーザ間重みとコンテン
ツ間重みとの双方を更新するのに代えて、乱数を用いて
ランダムに、ユーザ間重み又はコンテンツ間重みを更新
する構成を有する。
(B) In another automatic user preference learning method according to the present invention, the learning unit may be configured to compare each user content pair in the past learning data with a newly given user content pair. Instead of updating both the inter-user weight and the inter-content weight during the period, a random number is used to randomly update the inter-user weight or the inter-content weight.

【0009】(C)更に本発明の別のユーザ嗜好自動学
習方式は、ニュース記事やホームページ等のコンテンツ
に対するユーザの嗜好を、データとして与えられたコン
テンツとそのコンテンツに対するユーザの嗜好度を表す
数値からなるデータを用いて学習する装置において、ユ
ーザ・コンテンツ対および該コンテンツに対する該ユー
ザの嗜好度を表す数値からなる学習データを入力する学
習データ入力部と、過去に与えられた学習データを一括
して格納する学習データ格納部と、複数の学習方式を格
納する学習方式記憶部と、前記学習データ入力部に与え
られたユーザ・コンテンツ対に対して、そのユーザのそ
のコンテンツに対する嗜好度を、前記学習方式記憶部に
格納された各学習方式により予測させ、それらの予測値
の、各学習方式に対する信頼度を表す重み付き平均値を
もって予測する予測部と、複数のユーザ・コンテンツ対
からなる質問対候補集合の各ユーザ・コンテンツ対につ
いて、そのユーザのそのコンテンツに対する嗜好度を前
記学習方式記憶部中の各学習方式により予測させて、最
も予測値のばらつきの大きいユーザ・コンテンツ対の正
しい嗜好度を質問してその値を得る質問部と、前記学習
データ入力部から入力された前記ユーザ・コンテンツ対
の正しい嗜好度および前記質問部が質問して得た前記ユ
ーザ・コンテンツ対の正しい嗜好度に基づいて、前記学
習方式記憶部中の各学習方式の保持する仮説を更新する
と共に、前記予測部が使用する各学習方式に対する信頼
度を表す重みを、各重みの現在値および各学習方式の予
測値と入力として与えられた正しい嗜好度との差の関数
として更新する学習部とを有する。
(C) Further, another automatic user preference learning method according to the present invention is a method for recognizing a user's preference for a content such as a news article or a homepage from a content given as data and a numerical value representing the user's preference for the content. A learning data input unit for inputting learning data consisting of a user / content pair and a numerical value representing the user's preference for the content, and a learning data provided in the past collectively. A learning data storage unit for storing a plurality of learning methods; a learning method storage unit for storing a plurality of learning methods; and a user content pair given to the learning data input unit. Prediction by each learning method stored in the method storage unit. A prediction unit that predicts a weighted average value representing a degree of reliability, and, for each user content pair of a question pair candidate set composed of a plurality of user content pairs, the learning method storage unit for the user's preference for the content. And a query section for inquiring the correct preference level of the user content pair having the largest variation in the predicted value and obtaining the value, and the user content input from the learning data input section. Based on the correct preference degree of the pair and the correct preference degree of the user content pair obtained by asking the question section, the hypothesis held by each learning method in the learning method storage section is updated, and the prediction section is updated. The weight representing the reliability for each learning method used by the And a learning unit for updating as a function of the difference between the good degree.

【0010】上記(C)のように構成された本発明のユ
ーザ嗜好自動学習方式にあっては、学習データ入力部か
らユーザ・コンテンツ対が入力されると、予測部が、そ
のユーザ・コンテンツ対に対して、そのユーザのそのコ
ンテンツに対する嗜好度を、学習方式記憶部に格納され
た各学習方式により予測させてその予測値の重み付き平
均値をもって予測し、そのユーザ・コンテンツ対の正し
い嗜好度が学習データ入力部から入力されると、学習部
が、その正しい嗜好度に基づいて、学習方式記憶部中の
各学習方式の保持する仮説を更新すると共に、予測部が
使用する各学習方式に対する信頼度を表す重みを、各重
みの現在値および各学習方式の予測値と入力として与え
られた正しい嗜好度との差の関数として更新する。この
ように、各学習方式の仮説の更新と共に、各学習方式に
対する信頼度を表す重みの更新を行うことにより、学習
が進むにつれ、より信頼度の高い学習方式の予測値が大
きい影響力を持つようになり、少ない学習データによっ
て高い精度の予測が可能となる。
[0010] In the automatic user preference learning method of the present invention configured as shown in (C) above, when a user content pair is input from the learning data input unit, the prediction unit sets the user content pair. , The user's preference for the content is predicted by each of the learning methods stored in the learning method storage unit, and is predicted using a weighted average value of the predicted values. Is input from the learning data input unit, the learning unit updates the hypothesis held by each learning method in the learning method storage unit based on the correct preference level, and updates the learning method used by the prediction unit. The weight representing the reliability is updated as a function of the difference between the current value of each weight and the predicted value of each learning method and the correct preference given as input. As described above, by updating the hypothesis of each learning method and updating the weight representing the reliability of each learning method, the prediction value of the more reliable learning method has a greater influence as the learning progresses. As a result, highly accurate prediction can be performed with a small amount of learning data.

【0011】他方、質問部は、システム自らが学習すべ
きユーザ・コンテンツ対を決定することにより、学習す
べきユーザ・コンテンツ対を入力する利用者の手間を削
減すると同時に、より効率的な学習を可能にする。つま
り、質問部は、複数のユーザ・コンテンツ対からなる質
問対候補集合中の各ユーザ・コンテンツ対について、そ
のユーザのそのコンテンツに対する嗜好度を学習方式記
憶部中の各学習方式により予測させて、最も予測値のば
らつきの大きいユーザ・コンテンツ対の正しい嗜好度を
質問してその値を取得する。そして、学習部が、質問部
が質問したユーザ・コンテンツ対について利用者が回答
した正しい嗜好度に基づいて、学習方式記憶部中の各学
習方式の保持する仮説を更新すると共に、予測部が使用
する各学習方式に対する信頼度を表す重みを、更新す
る。このように情報量の高いユーザ・コンテンツ対に基
づいて学習を進めることにより、少ない質問数で高い精
度の予測が可能となる。
[0011] On the other hand, the interrogation section reduces the trouble of the user who inputs the user / content pairs to be learned by determining the user / content pairs to be learned by the system itself, and at the same time, makes the learning more efficient. to enable. That is, for each user content pair in the question pair candidate set consisting of a plurality of user content pairs, the question unit predicts the degree of preference of the user for the content by each learning method in the learning method storage unit. The correct preference level of the user / content pair having the largest variation in the predicted value is inquired to obtain the value. Then, the learning unit updates the hypothesis held by each learning method in the learning method storage unit based on the correct preference level answered by the user for the user / content pair queried by the question unit, and uses the prediction unit to The weight indicating the reliability for each learning method to be updated is updated. By performing learning based on a user-content pair having a large amount of information in this way, highly accurate prediction can be performed with a small number of questions.

【0012】学習の順序は、学習データ入力部から1つ
のユーザ・コンテンツ対を入力してその予測を行った後
に、正しい嗜好度を学習データ入力部から入力して学習
するといった逐次式であっても良く、学習中は予測を行
わずに学習だけを行い、或る程度学習が進んだ段階以降
は、予測だけを行うバッチ式であっても良い。また、学
習データ入力部からの入力と質問部による質問との関係
については、学習データ入力部から1つのユーザ・コン
テンツ対の入力を受け、それを処理した後に、質問部で
可能であれば1つの質問を出すようにしても良く、複数
のユーザ・コンテンツ対の入力を学習データ入力部から
受け付け、それを処理した後に、質問部から幾つかの質
問を出すようにしても良い。
The order of learning is a sequential expression in which one user / content pair is input from the learning data input unit, prediction is performed, and then a correct preference is input from the learning data input unit to learn. Alternatively, a batch type in which only learning is performed without performing prediction during learning and only prediction is performed after learning has progressed to some extent. In addition, regarding the relationship between the input from the learning data input unit and the question by the question unit, the user unit receives one user content pair from the learning data input unit, processes it, One question may be asked, or a plurality of user / content pairs may be input from the learning data input unit, and after processing them, some questions may be issued from the question unit.

【0013】(D)更に本発明の別のユーザ嗜好自動学
習方式は、上記(C)におけるユーザ嗜好自動学習方式
において、学習方式記憶部に格納する学習方式に上記
(B)で述べたユーザ嗜好自動学習方式を使用する。つ
まり、学習方式記憶部に格納される個々の学習方式は、
ユーザ間の類似度を表すユーザ間重みを格納するユーザ
間重み記憶部と、コンテンツ間の類似度を表すコンテン
ツ間重みを格納するコンテンツ間重み記憶部と、予測部
と、学習部とを含む。個々の学習方式における予測部
は、与えられたユーザ・コンテンツ対に対して、学習デ
ータ格納部に格納された学習データ、ユーザ間重み記憶
部に格納されたユーザ間重み、およびコンテンツ間重み
記憶部に格納されたコンテンツ間重みを用いて、そのユ
ーザのそのコンテンツに対する嗜好度を予測する。その
際、予測は、学習データ格納部に格納される過去の学習
データの嗜好度の値の、新たに与えられたユーザ・コン
テンツ対との間のユーザ間重みとコンテンツ間重みの積
を重みとする、重みつき平均によって行われる。また、
個々の学習方式における学習部は、ユーザ・コンテンツ
対の正しい嗜好度、学習データ格納部に格納された過去
に与えられた学習データ、ユーザ間重み記憶部に格納さ
れたユーザ間重み、およびコンテンツ間重み記憶部に格
納されたコンテンツ間重みを用いて、ユーザ間重み記憶
部に格納されたユーザ間重み,コンテンツ間重み記憶部
に格納されたコンテンツ間重みを更新する。その際、乱
数を用いてランダムに、ユーザ間重み又はコンテンツ間
重みを更新する。すなわち、学習方式記憶部中の学習方
式はそれぞれ同一の学習方式であるが、一般に、ユーザ
間重み,コンテンツ間重みの更新にあたって異なる乱数
が発生され、異なる重みの更新が行われていくので、実
質的には、特定の場面において異なる予測を行う複数の
学習方式となる。
(D) Another automatic user preference learning method according to the present invention is the automatic user preference learning method according to the above (C), wherein the learning method stored in the learning method storage unit includes the user preference described in the above (B). Use the automatic learning method. That is, the individual learning methods stored in the learning method storage unit are:
It includes an inter-user weight storage unit that stores inter-user weights indicating similarities between users, an inter-content weight storage unit that stores inter-content weights indicating similarities between contents, a prediction unit, and a learning unit. The prediction unit in each of the learning methods includes, for a given user / content pair, learning data stored in a learning data storage unit, an inter-user weight stored in an inter-user weight storage unit, and an inter-content weight storage unit. Is used to predict the degree of preference of the user for the content. At this time, the prediction is made by multiplying the product of the inter-user weight and the inter-content weight between the value of the preference degree of the past learning data stored in the learning data storage unit and the newly given user / content pair by the weight. , By weighted averaging. Also,
The learning unit in each learning method includes: a correct preference degree of the user / content pair; learning data given in the past stored in the learning data storage unit; a user weight stored in the user weight storage unit; The inter-user weight stored in the inter-user weight storage unit and the inter-content weight stored in the inter-content weight storage unit are updated using the inter-content weight stored in the weight storage unit. At this time, the weight between users or the weight between contents is updated at random using random numbers. That is, although the learning methods in the learning method storage unit are the same learning method, different random numbers are generally generated in updating the weight between users and the weight between contents, and different weights are updated. Specifically, there are a plurality of learning methods that perform different predictions in a specific scene.

【0014】また更に本発明の別のユーザ嗜好自動学習
方式は、上記(D)のユーザ嗜好自動学習方式におい
て、前記質問部は、前記複数のユーザ・コンテンツ対か
らなる質問対候補集合として、過去の学習データ中に現
れるユーザとコンテンツとからなるユーザ・コンテンツ
対の中で、過去にデータとして嗜好度を与えられていな
い対の集合の全て又は一部を用いる構成を有する。
Further, in another automatic user preference learning method according to the present invention, in the automatic user preference learning method of the above (D), the interrogation unit may include a set of a plurality of user content pairs as past question pair candidates. Of user / content pairs consisting of the user and the content appearing in the learning data of the above, all or a part of a set of pairs to which no preference is given as data in the past.

【0015】[0015]

【発明の実施の形態】次に本発明の実施の形態の例につ
いて図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0016】図1を参照すると、本発明のユーザ嗜好自
動学習方式の第1の実施の形態は、学習データ入力部1
と、学習データ格納部2と、ユーザ間重み記憶部3と、
コンテンツ間重み記憶部4と、予測部5と、学習部6と
から構成されている。これらは、例えばプログラム制御
されたCPU,キーボード等の入力装置,磁気ディスク
等の記憶装置を有するデータ処理装置(コンピュータ)
で実現することができる。
Referring to FIG. 1, a first embodiment of an automatic user preference learning system according to the present invention is a learning data input unit 1.
A learning data storage unit 2, an inter-user weight storage unit 3,
It comprises an inter-content weight storage unit 4, a prediction unit 5, and a learning unit 6. These are, for example, a data processor (computer) having a program-controlled CPU, an input device such as a keyboard, and a storage device such as a magnetic disk.
Can be realized.

【0017】学習データ入力部1は、学習データを逐次
的に入力する部分である。入力される学習データは、ユ
ーザ・コンテンツ対と、そのコンテンツに対するそのユ
ーザの正しい嗜好度を表す数値とから構成される。
The learning data input section 1 is a section for sequentially inputting learning data. The input learning data is composed of a user / content pair and a numerical value representing the user's correct preference for the content.

【0018】学習データ格納部2は過去に与えられた学
習データを一括して格納する部分、ユーザ間重み記憶部
3はユーザ間の類似度を表す重み行列(ユーザ間重みの
行列)を格納する部分、コンテンツ間重み記憶部4はコ
ンテンツ間の類似度を表す重み行列(コンテンツ間重み
の行列)を格納する部分である。
The learning data storage unit 2 stores learning data given in the past collectively, and the inter-user weight storage unit 3 stores a weight matrix (a matrix of inter-user weights) representing the similarity between users. The inter-content weight storage unit 4 stores a weight matrix (a matrix of inter-content weights) representing the similarity between contents.

【0019】予測部5は、学習データ入力部1から入力
されたユーザ・コンテンツ対について、そのユーザのそ
のコンテンツに対する嗜好度を予測する部分である。こ
の予測は、学習データ格納部2に格納されている過去の
学習データと、ユーザ間重み記憶部3に格納されている
ユーザ間重みと、コンテンツ間重み記憶部4に格納され
ているコンテンツ間重みを参照して行われる。
The prediction section 5 is a section for predicting the user's preference for the content with respect to the user / content pair input from the learning data input section 1. This prediction is based on past learning data stored in the learning data storage unit 2, user weights stored in the user weight storage unit 3, and content weights stored in the content weight storage unit 4. This is done with reference to.

【0020】学習部6は、学習データ入力部1から新た
な学習データ(ユーザ・コンテンツ対とその正しい嗜好
度を表す数値)が入力された場合に、入力されたユーザ
・コンテンツ対の正しい嗜好度、学習データ格納部2に
格納された過去に与えられた学習データ、ユーザ間重み
記憶部3に格納されたユーザ間重み、およびコンテンツ
間重み記憶部4に格納されたコンテンツ間重みを用い
て、ユーザ間重み記憶部3に格納されたユーザ間重み及
びコンテンツ間重み記憶部4に格納されたコンテンツ間
重みを更新する部分である。
When new learning data (a user-content pair and a numerical value representing the correct preference) is input from the learning data input unit 1, the learning unit 6 corrects the correct preference of the input user-content pair. Using the learning data given in the past stored in the learning data storage unit 2, the user weight stored in the user weight storage unit 3, and the content weight stored in the content weight storage unit 4, This section updates the inter-user weight stored in the inter-user weight storage unit 3 and the inter-content weight stored in the inter-content weight storage unit 4.

【0021】図2は本実施の形態の動作の一例を示すフ
ローチャートである。この動作例は、学習データ入力部
1から1つのユーザ・コンテンツ対を入力し、そのコン
テンツに対するそのユーザの嗜好度を予測部5において
予測し、学習データ入力部1からそのユーザ・コンテン
ツ対の正しい嗜好度を入力し、学習部6においてユーザ
間重み及びコンテンツ間重みを更新する、という処理を
繰り返す逐次式の学習を採った場合のものである。
FIG. 2 is a flowchart showing an example of the operation of the present embodiment. In this operation example, one user / content pair is input from the learning data input unit 1, and the user's preference level for the content is predicted by the prediction unit 5. This is a case in which a learning method of repeating a process of inputting a degree of preference and updating a weight between users and a weight between contents in the learning unit 6 is employed.

【0022】いま、ユーザの集合をX、コンテンツの集
合をYとすると、本発明の第1の実施の形態において
は、以下のようなステップを実行する。 (1)新しいユーザx∈Xと新しいコンテンツy∈Yの
対を学習データ入力部1にて入力する(ステップS
1)。 (2)入力されたユーザxとコンテンツyの対につい
て、ユーザxのコンテンツyに対する嗜好度f(x,
y)を、現在の仮説を用いて予測部5で予測する(ステ
ップS2)。f(x,y)の値は一般に実数値であると
仮定する。例えば、5段階評価(1,2,…,5)等が
想定される。 (3)ユーザxのコンテンツyに対する正しい嗜好度f
(x,y)の値を学習データ入力部1にて入力し(ステ
ップS3)、学習データ格納部2に格納する(ステップ
S4)。 (4)学習部6において現在の仮説を更新(学習)する
(ステップS5)。 (5)学習を終了するか否かを判定し、終了しない場合
はステップS1に戻る(ステップS6)。
Assuming that a set of users is X and a set of contents is Y, the following steps are executed in the first embodiment of the present invention. (1) A pair of a new user x @ X and a new content y @ Y is input in the learning data input unit 1 (step S)
1). (2) With respect to the input pair of the user x and the content y, the preference degree f (x,
y) is predicted by the prediction unit 5 using the current hypothesis (step S2). It is assumed that the value of f (x, y) is generally a real value. For example, a five-level evaluation (1, 2,..., 5) is assumed. (3) Correct preference degree f of user x for content y
The value of (x, y) is input by the learning data input unit 1 (step S3) and stored in the learning data storage unit 2 (step S4). (4) The current hypothesis is updated (learned) in the learning unit 6 (step S5). (5) It is determined whether to end the learning, and if not, the process returns to step S1 (step S6).

【0023】予測・学習アルゴリズムの目標は、なるべ
く少ない数の学習データで、高い精度の予測を行うこと
にある。ステップS6で終了とする条件(停止条件)と
しては様々な条件が考えられるが、本発明については本
質的な影響はなく、また一般に適用環境に大きく依存す
るので、ここでは特に特定しない。なお、上記(1)〜
(4)を際限なく繰り返すようにしても良い。
The goal of the prediction / learning algorithm is to perform highly accurate prediction with as few learning data as possible. Various conditions can be considered as conditions for terminating in step S6 (stop conditions), but there is no essential effect on the present invention, and since it largely depends on the application environment, it is not particularly specified here. In addition, the above (1)-
(4) may be repeated endlessly.

【0024】上記(2)の予測段階では、以下のような
仮説形式を用いる。まず、過去に与えられた正しい嗜好
度f(x,y)の値がデータ行列Mとして学習データ格
納部2に格納されているものとする。このとき、過去に
f(x,y)の値が与えられたx,yについては、M
(x,y)=f(x,y)であり、そうでないx,yに
ついては、M(x,y)=*である。ここで、*は未設
定であることを示す。次に、任意のユーザの対(x1,
2 )∈X×Xに対して、それらユーザ間の類似度を表す
重みu(x1,2 )を記述したユーザ間の重み行列u
を、ユーザ間重み記憶部3に設ける。同様に、任意のコ
ンテンツの対(y1,2 )∈Y×Yに対して、それらコ
ンテンツ間の類似度を表す重みv(y1,2 )を記述し
たコンテンツ間の重み行列vを、コンテンツ間重み記憶
部4に設ける。現在の仮説とは、上記のデータ行列M
と、ユーザ間の重み行列uと、コンテンツ間の重み行列
vからなる。そして、新たに与えられた(x,y)∈X
×Yに対する嗜好度の予測は、データ行列Mに格納され
た全データによる重み付き平均をもって行う。ここで、
重み付き平均をとる場合の重みとしては、新しいユー
ザ,コンテンツ対をx,y、データ行列M中のユーザ,
コンテンツ対をx’,y’とすると、ユーザ間の重みと
コンテンツ間の重みの積、u(x,x’)・v(y,
y’)を用いる。すなわち、新しい対(x,y)の嗜好
の予測値f^(x,y)を以下のように計算する。
In the prediction step (2), the following hypothesis format is used. First, it is assumed that the value of the correct preference degree f (x, y) given in the past is stored in the learning data storage unit 2 as the data matrix M. At this time, for x and y given the value of f (x, y) in the past, M
(X, y) = f (x, y), and for other x, y, M (x, y) = *. Here, * indicates that no setting has been made. Next, an arbitrary user pair (x 1, x
2 ) For ∈X × X, a weight matrix u between users describing weights u (x 1, x 2 ) representing similarity between the users
Is provided in the inter-user weight storage unit 3. Similarly, for an arbitrary content pair (y 1, y 2 ) ∈Y × Y, a weight matrix v between contents describing a weight v (y 1, y 2 ) representing the similarity between the contents is given by Are provided in the weight storage unit 4 between contents. The current hypothesis is that the data matrix M
, A weight matrix u between users, and a weight matrix v between contents. Then, the newly given (x, y) ∈X
The preference of xY is predicted using a weighted average of all data stored in the data matrix M. here,
The weights for taking the weighted average are: new user, content pair x, y, user in data matrix M,
Assuming that the content pair is x ′, y ′, the product of the weight between the users and the weight between the contents, u (x, x ′) · v (y,
y ′) is used. That is, the predicted value f ^ (x, y) of the preference of the new pair (x, y) is calculated as follows.

【0025】[0025]

【数1】 (Equation 1)

【0026】重みとしてユーザ間の重みとコンテンツ間
の重みの積を用いているのは、以下のような意味があ
る。f(x’,y’)の値がf(x,y)の値と近い値
をとるのは、x,x’と、y,y’が両方とも高い類似
度を持つ場合に限るので、(x,y)と(x’,y’)
が類似するという命題は、x,x’が類似するという命
題と、y,y’が類似するという命題との論理積である
と考えられる。しかし、ノイズを含む環境からのしかも
不完全なデータから学習を行う場合には論理的な推論は
危険なので、ここでは、論理積の代わりに、類似度を表
す重みによる実数積を用いている。そうすることによ
り、ノイズに対する頑健性を備えた予測を実現してい
る。
The use of the product of the weight between users and the weight between contents as the weight has the following meaning. The value of f (x ', y') is close to the value of f (x, y) only when x, x 'and y, y' both have high similarity. (X, y) and (x ', y')
Is similar to the proposition that x and x 'are similar and the proposition that y and y' are similar. However, logical learning is dangerous when learning is performed from an environment containing noise and from incomplete data. Therefore, in this example, a real number product by weight representing similarity is used instead of the logical product. By doing so, prediction with robustness to noise is realized.

【0027】次に学習の手順、すなわち現在の仮説を更
新する手順について説明する。今、新しい対x,yに対
する嗜好度の正解f(x,y)を与えられたとする。過
去に与えられた各正解f(x’,y’)に対して、もし
|f(x,y)−f(x’,y’)|が大きい値をとる
ならば、(x,y)と(x’,y’)が類似していると
いう命題が否定されることになる。上記の観察から、こ
れは、(x,x’)が類似しているという命題と(y,
y’)が類似しているという命題の論理積が否定された
ことになるから、(x,x’)が類似していないという
命題と(y,y’)が類似していないという命題のどち
らかが正しいことになる。しかし、そのどちらが正しい
かは、これだけの情報からは特定できない。そこで、過
去のデータにより学習された(x,x’)の類似度の推
定値u(x,x’)と、(y,y’)の類似度の推定値
v(y,y’)を参照して以下のような推論を行う。す
なわち、もしu(x,x’)の値が大きく(x,x’)
が類似しているという証拠が強いならば、新しく与えら
れた命題は、(y,y’)が類似していないという命題
を指示し、また逆に、v(y,y’)の値が大きく
(y,y’)が類似しているという証拠が強いならば、
(x,x’)が類似していないという命題を指示する。
上記の「大きい」や「強い」という判断は、閾値等を用
いて論理値として推論することも可能であるが、ノイズ
を含んだ環境からの不完全なデータを用いた学習におい
てはそれは危険であるので、|f(x,y)−f
(x’,y’)|の大きさとu(x,x’)の値の大き
さによって連続的にv(y,y’)の更新幅を決定し、
また|f(x,y)−f(x’,y’)|の大きさとv
(y,y’)の値の大きさによって連続的にu(x,
x’)の更新幅を決定する。例えば、ユーザ間の重みu
は以下のように更新し、
Next, a learning procedure, that is, a procedure for updating the current hypothesis will be described. Now, it is assumed that the correct answer f (x, y) of the preference degree for the new pair x, y is given. For each correct answer f (x ′, y ′) given in the past, if | f (x, y) −f (x ′, y ′) | takes a large value, (x, y) And the proposition that (x ', y') are similar are denied. From the observations above, this translates to the proposition that (x, x ') is similar and (y,
Since the logical product of the proposition that y ′) is similar is negated, the proposition that (x, x ′) is not similar to the proposition that (y, y ′) is not similar Either will be correct. However, it is not possible to identify which is correct from this information. Therefore, the estimated value u (x, x ′) of the similarity of (x, x ′) learned from the past data and the estimated value v (y, y ′) of the similarity of (y, y ′) The following inference is made with reference to this. That is, if the value of u (x, x ') is large (x, x')
Is strongly similar, the newly given proposition dictates the proposition that (y, y ') is dissimilar, and conversely, if the value of v (y, y') is If there is strong evidence that large (y, y ') are similar,
Indicate the proposition that (x, x ') is not similar.
The judgment of “large” or “strong” can be inferred as a logical value using a threshold or the like, but it is dangerous in learning using incomplete data from a noisy environment. | F (x, y) -f
(X ′, y ′) | and the value of u (x, x ′) determine the update width of v (y, y ′) continuously,
The magnitude of | f (x, y) −f (x ′, y ′) | and v
Depending on the magnitude of the value of (y, y ′), u (x,
x ') is updated. For example, the weight u between users
Is updated as follows,

【0028】[0028]

【数2】 (Equation 2)

【0029】コンテンツ間の重みvは以下のように更新
する。
The weight v between contents is updated as follows.

【0030】[0030]

【数3】 (Equation 3)

【0031】なお、上式のc,dは正の定数である。c
は学習レートと呼ばれデータ数に依存して変化させるこ
とも可能である。dには|f(x’,y’)−f(x,
y)|の平均値の推定値等を用いるのが適当である。ま
た、以上の更新を行う際に、一回の更新における重みの
変化量の上限を指定することも可能である。例えば、ユ
ーザ間の重みuは以下のように更新し、
Note that c and d in the above equation are positive constants. c
Is called a learning rate, and can be changed depending on the number of data. In d, | f (x ′, y ′) − f (x,
y) It is appropriate to use an estimated value or the like of the average value of |. When performing the above update, it is also possible to specify the upper limit of the amount of change in the weight in one update. For example, the weight u between users is updated as follows,

【0032】[0032]

【数4】 (Equation 4)

【0033】コンテンツ間の重みvは以下のように更新
しても良い。
The weight v between contents may be updated as follows.

【0034】[0034]

【数5】 (Equation 5)

【0035】また、アンダーフロー等の問題を避けるた
めに、重みの更新を行う度に、以下のように正規化を行
っても良い。
Further, in order to avoid problems such as underflow, normalization may be performed as follows each time weights are updated.

【0036】[0036]

【数6】 (Equation 6)

【0037】[0037]

【数7】 (Equation 7)

【0038】上のような重みの更新法を用いることによ
り、ノイズに対する頑健な帰納推論を実現することが可
能になると同時に、ユーザ間の類似度のみを考慮する場
合や、コンテンツ間の類似度のみを考慮する場合に比べ
て、立上がりの早い学習が可能となる。
By using the above-described weight updating method, it is possible to realize robust inductive inference with respect to noise, and at the same time, when only the similarity between users is considered, or when only the similarity between contents is considered. As compared with the case where is taken into account, learning with a faster start-up becomes possible.

【0039】次に、嗜好度の予測および重み行列の更新
の具体例を説明する。例としては、図4に示すようにu
1からu5までの5人のユーザとc1からc7までの7
つのコンテンツとを想定し、学習データ格納部2におけ
る過去の学習データを示すデータ行列Mの要素が全て未
設定(図4では?で示す)である状態において、f(u
2,c3)=4、f(u4,c3)=4、f(u2,c
6)=1、f(u4,c6)=1の順序で学習データが
与えられたものとする。また、ユーザ間重み記憶部3に
設けられているユーザ間重み及びコンテンツ間重み記憶
部4に設けられているユーザ間重みはそれぞれ初期値1
に設定されているものとする。更に、定数cは、−lo
g0.8 に設定、すなわちe-c=0.8 であり、dは2であ
るとする。また、自分自身の重みu(x,x)、v
(y,y)は更新しないものとする。このとき、各学習
データが与えられた後の嗜好度の予測値および重みの更
新は以下のようになる。
Next, a specific example of the estimation of the preference level and the updating of the weight matrix will be described. As an example, as shown in FIG.
5 users from 1 to u5 and 7 from c1 to c7
F (u) in a state where all elements of the data matrix M indicating the past learning data in the learning data storage unit 2 are not set (indicated by? In FIG. 4)
2, c3) = 4, f (u4, c3) = 4, f (u2, c
6) It is assumed that learning data is given in the order of 1, f (u4, c6) = 1. Further, the weight between users provided in the weight storage between users 3 and the weight between users provided in the weight between contents storage unit 4 are each an initial value of 1
It is assumed that is set to Further, the constant c is -lo
It is assumed that g 0.8 is set, that is, e −c = 0.8, and d is 2. Also, the weights u (x, x), v
(Y, y) is not updated. At this time, the update of the predicted value and the weight of the preference degree after each learning data is given is as follows.

【0040】1.f(u2,c3)=4 この場合、過去の学習データが存在しないため、重みの
更新はない。また、嗜好度の予測値は任意のものとな
る。
1. f (u2, c3) = 4 In this case, since there is no past learning data, the weight is not updated. Further, the predicted value of the preference degree is arbitrary.

【0041】2.f(u4,c3)=4 ○嗜好度の予測値2. f (u4, c3) = 4 ○ Preference value

【数8】 ○重みの更新 (a)(u2,c3)v.s.(u4,c3)(Equation 8) ○ Update of weights (a) (u2, c3) v. s. (U4, c3)

【数9】 (Equation 9)

【0042】3.f(u2,c6)=1 ○嗜好度の予測値3. f (u2, c6) = 1 ○ Predicted value of preference

【数10】 ○重みの更新 (a)(u4,c3)v.s.(u2,c6)(Equation 10) Update of weight (a) (u4, c3) v. s. (U2, c6)

【数11】 (b)(u2,c3)v.s.(u2,c6)[Equation 11] (B) (u2, c3) v. s. (U2, c6)

【数12】 (Equation 12)

【0043】4.f(u4,c6)=1 ○嗜好度の予測値4. f (u4, c6) = 1 ○ Predicted value of degree of preference

【数13】 ○重みの更新 (a)(u2,c3)v.s.(u4,c6)(Equation 13) ○ Update of weights (a) (u2, c3) v. s. (U4, c6)

【数14】 (b)(u4,c3)v.s.(u4,c6)[Equation 14] (B) (u4, c3) v. s. (U4, c6)

【数15】 (c)(u2,c6)v.s.(u4,c6)(Equation 15) (C) (u2, c6) v. s. (U4, c6)

【数16】 (Equation 16)

【0044】以下、学習データが順次与えられる毎に重
みの更新が行われ、それに応じて嗜好度の予測値の精度
が高まっていく。図3に嗜好度の例(ユーザ嗜好関数の
例)を示す。この例のユーザ嗜好関数では、例えば、コ
ンテンツc1とコンテンツc3に対する各ユーザu1〜
u5の嗜好度が類似していることから、コンテンツc1
とコンテンツc3は高い類似度であることがわかる。ま
た、各コンテンツc1〜c7に対するユーザu2の嗜好
度とユーザu4の嗜好度が類似していることから、ユー
ザu2とユーザu4とが高い類似度であることがわか
る。
Thereafter, the weight is updated each time the learning data is sequentially provided, and the accuracy of the predicted value of the preference level increases accordingly. FIG. 3 shows an example of a preference degree (an example of a user preference function). In the user preference function of this example, for example, each user u1 to content c1 and content c3
Since the preference degree of u5 is similar, the content c1
And the content c3 have a high similarity. In addition, since the preference level of the user u2 and the preference level of the user u4 for each of the contents c1 to c7 are similar, it can be seen that the user u2 and the user u4 have a high similarity degree.

【0045】次に本発明の第2の実施の形態について説
明する。
Next, a second embodiment of the present invention will be described.

【0046】上述した第1の実施の形態においては、新
しいユーザ・コンテンツ対に対する嗜好の正解を与えら
れる度に、ユーザ間の重みuと、コンテンツ間の重みv
との両方を更新するが、この第2の実施の形態において
は、乱数を用いてランダムにそのどちらか一方を第1の
実施の形態における更新式等を用いて更新する。それ以
外は第1の実施の形態と基本的に同じである。このと
き、各更新を確率2分の1で行うことも可能であるが、
関連する重みに依存した確率でランダムに行うことも可
能である。例えば、各ユーザ間の重みu(x,x’)の
更新を以下の確率pで行い、ユーザ間の重みが更新され
ない場合(即ち確率1−p)、コンテンツ間の重みv
(y,y’)を更新することが考えられる。
In the first embodiment described above, each time a correct answer to the preference for a new user / content pair is given, the weight u between users and the weight v between contents are given.
In the second embodiment, either one of them is updated at random using a random number using the update formula or the like in the first embodiment. Other than that, it is basically the same as the first embodiment. At this time, it is possible to perform each update with a probability of 1/2,
It is also possible to do this randomly with a probability depending on the associated weight. For example, the weight u (x, x ′) between the users is updated with the following probability p, and when the weight between the users is not updated (that is, the probability 1−p), the weight v between the contents is
It is conceivable to update (y, y ').

【0047】[0047]

【数17】 [Equation 17]

【0048】次に本発明の第3の実施の形態について説
明する。
Next, a third embodiment of the present invention will be described.

【0049】図5を参照すると、本発明のユーザ嗜好自
動学習方式の第3の実施の形態は、学習データ入力部1
1と、学習データ格納部12と、予測部13と、学習方
式記憶部14と、学習部15と、質問部16とから構成
されている。これらは、例えばプログラム制御されたC
PU,キーボード等の入力装置,磁気ディスク等の記憶
装置,ディスプレイ装置などを有するデータ処理装置
(コンピュータ)で実現することができる。
Referring to FIG. 5, a third embodiment of the automatic user preference learning method according to the present invention is
1, a learning data storage unit 12, a prediction unit 13, a learning method storage unit 14, a learning unit 15, and an interrogation unit 16. These are, for example, program-controlled C
It can be realized by a data processing device (computer) having a PU, an input device such as a keyboard, a storage device such as a magnetic disk, a display device, and the like.

【0050】学習データ入力部11は、学習データを逐
次的に入力する部分である。入力される学習データは、
ユーザ・コンテンツ対と、そのコンテンツに対するその
ユーザの正しい嗜好度を表す数値とから構成される。
The learning data input section 11 is a section for sequentially inputting learning data. The input learning data is
It consists of a user content pair and a numerical value indicating the user's correct preference for the content.

【0051】学習データ格納部12は過去に与えられた
学習データを一括して格納する部分である。
The learning data storage section 12 is a section for collectively storing learning data given in the past.

【0052】学習方式記憶部14は、複数の学習方式を
格納する部分である。ここで、各学習方式は、与えられ
たユーザ・コンテンツ対に対して、そのユーザのそのコ
ンテンツに対する嗜好度を現在の仮説に基づいて予測す
る機能と、そのユーザのそのコンテンツ対に対する正し
い嗜好度に基づき現仮説を更新(学習)する機能とを持
つ。
The learning mode storage section 14 is a section for storing a plurality of learning modes. Here, each learning method has a function of predicting a user's preference for the content based on a current hypothesis for a given user-content pair, and a function of predicting the user's preference for the content pair. It has a function to update (learn) the current hypothesis based on it.

【0053】予測部13は、学習データ入力部11から
入力されたユーザ・コンテンツ対について、そのユーザ
のそのコンテンツに対する嗜好度を予測する部分であ
る。この予測は、そのユーザのそのコンテンツに対する
嗜好度を、学習方式記憶部14に格納された各学習方式
により予測させ、各学習方式に対する現在の信頼度を表
す重みを用いて、それらの予測値の重み付き平均値をと
ることで行われる。
The predicting section 13 is a section for predicting the user's preference for the content with respect to the user / content pair input from the learning data input section 11. In this prediction, the degree of preference of the user for the content is predicted by each learning method stored in the learning method storage unit 14, and the weight of the current reliability for each learning method is used to calculate the prediction value of the prediction value. This is performed by taking a weighted average value.

【0054】質問部16は、システム自らユーザ・コン
テンツ対を指定した質問を出し、そのユーザ・コンテン
ツ対に対する嗜好度の入力を受け取る部分である。質問
は例えばディスプレイの画面に出され、回答はキーボー
ドや画面上から入力される。
The question section 16 is a section that issues a question specifying a user / content pair by itself and receives an input of a preference level for the user / content pair. The question is displayed on a display screen, for example, and the answer is input from a keyboard or the screen.

【0055】学習部15は、学習方式記憶部14に記憶
された各学習方式の現仮説および各学習方式の信頼度を
表す重みを更新する部分である。
The learning unit 15 is a unit that updates the current hypothesis of each learning method stored in the learning method storage unit 14 and the weight indicating the reliability of each learning method.

【0056】図6は本実施の形態の動作の一例を示すフ
ローチャートである。この動作例では、学習データ入力
部11から1つのユーザ・コンテンツ対を入力し、その
コンテンツに対するそのユーザの嗜好度を予測部13に
おいて予測し、次いで学習データ入力部11からそのユ
ーザ・コンテンツ対の正しい嗜好度を入力して学習部1
5において各学習方式の現仮説および各学習方式の信頼
度を表す重みを更新し、そして、質問部16において可
能であれば1つのユーザ・コンテンツ対の嗜好度を質問
し、その回答に応じて学習部15において各学習方式の
現仮説および各学習方式の信頼度を表す重みを更新す
る、という処理を繰り返す逐次式の学習を行う。以下、
本実施の形態について詳述する。
FIG. 6 is a flowchart showing an example of the operation of the present embodiment. In this operation example, one user / content pair is input from the learning data input unit 11, the user's preference for the content is predicted by the prediction unit 13, and then the user / content pair of the user / content pair is predicted from the learning data input unit 11. Input the correct preference and learner 1
In 5, the current hypothesis of each learning method and the weight indicating the reliability of each learning method are updated, and, if possible, a question is asked about the preference of one user / content pair in the question section 16, and according to the answer, The learning unit 15 performs sequential learning in which the process of updating the current hypothesis of each learning method and the weight indicating the reliability of each learning method is repeated. Less than,
This embodiment will be described in detail.

【0057】いま、ユーザの集合をX、コンテンツの集
合をYとすると、本実施の形態においては、図6に示さ
れるように、以下のようなステップを実行する。 (1)新しいユーザx∈Xと新しいコンテンツy∈Yの
対を学習データ入力部11にて入力する(ステップS1
1)。 (2)入力されたユーザxとコンテンツyの対につい
て、ユーザxのコンテンツyに対する嗜好度f(x,
y)を、予測部13が学習方式記憶部14に格納された
複数の学習方式による予測値および各学習方式の現在の
信頼度を表す重みを用いて予測する(ステップ12,1
3)。f(x,y)の値は一般に実数値であると仮定す
る。例えば、5段階評価(1,2,…,5)等が想定さ
れる。 (3)ユーザxのコンテンツyに対する正しい嗜好度f
(x,y)の値を学習データ入力部11にて入力し(ス
テップS14)、学習データ格納部12に格納する(ス
テップS15)。 (4)ステップS14で入力された正しい嗜好度に基づ
き、学習部6において複数の学習方式の現在の仮説を更
新(学習)し(ステップS16)、また、各学習方式の
信頼度を表す重みを更新する(ステップS17)。 (5)質問部16において、複数の学習方式の現在の仮
説を用いて、嗜好度を質問すべき新たなユーザx’とコ
ンテンツy’の対を求め、その対に対する正しい嗜好度
をユーザから入力として得る(ステップS18)。 (6)上記ユーザx’とコンテンツy’の対,その正し
い嗜好度から構成される学習データを学習データ格納部
12に格納する(ステップS19)。 (7)ステップS18で入力された正しい嗜好度に基づ
き、学習部6において複数の学習方式の現在の仮説を更
新(学習)し(ステップS20)、また、各学習方式の
信頼度を表す重みを更新する(ステップS21)。 (8)学習を終了するか否かを判定し、終了しない場合
はステップS11に戻る(ステップS22)。
Assuming that a set of users is X and a set of contents is Y, in the present embodiment, the following steps are executed as shown in FIG. (1) A pair of a new user x @ X and a new content y @ Y is input at the learning data input unit 11 (step S1).
1). (2) With respect to the input pair of the user x and the content y, the preference degree f (x,
y) is predicted by the prediction unit 13 using the predicted values of the plurality of learning methods stored in the learning method storage unit 14 and weights representing the current reliability of each learning method (steps 12 and 1).
3). It is assumed that the value of f (x, y) is generally a real value. For example, a five-level evaluation (1, 2,..., 5) is assumed. (3) Correct preference degree f of user x for content y
The value of (x, y) is input by the learning data input unit 11 (Step S14) and stored in the learning data storage unit 12 (Step S15). (4) The learning section 6 updates (learns) the current hypotheses of the plurality of learning methods based on the correct preference input in step S14 (step S16), and assigns a weight indicating the reliability of each learning method. Update (step S17). (5) Using the current hypotheses of a plurality of learning methods, the question section 16 obtains a new pair of the user x ′ and the content y ′ for which the preference is to be asked, and inputs the correct preference for the pair from the user. (Step S18). (6) The learning data including the pair of the user x ′ and the content y ′ and the correct preference is stored in the learning data storage unit 12 (step S19). (7) The learning unit 6 updates (learns) the current hypotheses of the plurality of learning methods based on the correct preference input in step S18 (step S20), and assigns a weight indicating the reliability of each learning method. Update (step S21). (8) It is determined whether to end the learning, and if not, the process returns to step S11 (step S22).

【0058】予測・学習アルゴリズムの目標は、なるべ
く少ない数の学習データおよび質問数で、高い精度の予
測を行うことにある。ステップS22で終了とする条件
(停止条件)としては、或る一定の学習精度か達成され
たこと等の様々な条件が考えられるが、本発明について
は本質的な影響はなく、また一般に適用環境に大きく依
存するので、ここでは特に特定しない。なお、上記
(1)〜(7)を際限なく繰り返すようにしても良い。
The goal of the prediction / learning algorithm is to perform highly accurate prediction with as few learning data and the number of questions as possible. Various conditions such as the achievement of a certain level of learning accuracy can be considered as the condition for terminating in step S22 (stop condition), but there is no essential effect on the present invention. , It is not particularly specified here. Note that the above (1) to (7) may be repeated endlessly.

【0059】本実施の形態において、少ない学習データ
による高い精度の予測に関しては、学習方式記憶部14
に記憶された複数の学習方式にそれぞれ与えられたユー
ザ・コンテンツ対における嗜好度を予測させて、それら
の学習方式の信頼度を表す重みを用いた重み付け平均等
で予測を行うことで達成される。すなわち、各学習方式
による予測値をAi (x,y)、その重みをwi とし
て、f(x,y)の値を以下のf^(x,y)をもって
予測する。
In the present embodiment, the learning method storage unit 14 performs high-precision prediction using a small amount of learning data.
Is achieved by predicting the degree of preference in the user-content pair given to each of the plurality of learning methods stored in the learning method, and performing prediction using a weighted average using weights representing the reliability of the learning methods. . That is, the value of f (x, y) is predicted by f ^ (x, y) below, where A i (x, y) is the predicted value of each learning method and w i is its weight.

【0060】[0060]

【数18】 (Equation 18)

【0061】なお、(x,y)に対する正しい嗜好度f
(x,y)が入力として与えられたとき、各学習方式A
i の重みwi は以下のように更新される。
Note that the correct preference degree f for (x, y)
When (x, y) is given as an input, each learning method A
the weights w i of i is updated as follows.

【0062】[0062]

【数19】 [Equation 19]

【0063】以上のような重み更新により、学習が進む
と共に、より信頼度の高い学習方式の予測値が大きい影
響力を持つようになる。
By the above-described weight updating, learning progresses, and the prediction value of the learning method having higher reliability has a large influence.

【0064】次に、少ない数の質問数での高い精度の予
測を行うためには、情報量の高いユーザ・コンテンツ対
についてその嗜好度を質問することが必要になる。この
ために、学習方式記憶部14に記憶された複数の学習方
式の予測値がばらついているユーザ・コンテンツ対を発
見し、その対に対する嗜好度を質問する。或るユーザ・
コンテンツ対に対する予測値のばらつきは、予測値の分
散または予測値の重み付き平均嗜好度に対する自乗誤差
の、各学習方式の重みを用いた重み付き平均等によって
測ることができる。予測値のばらつきの多い対を発見す
る方法については、例えば乱数を用いて発生された多数
のユーザ・コンテンツ対の中から、予測値が上記の意味
で最もばらついている対を選んで質問するといった方法
が採用できる。すなわち、質問に用いるユーザ・コンテ
ンツ対(x* ,y* )は、候補として考慮されるユーザ
・コンテンツ対の集合をPとして、以下のように求める
ことができる。
Next, in order to predict with high accuracy with a small number of questions, it is necessary to ask the user / content pair having a large amount of information about its preference. For this purpose, a user / content pair in which predicted values of a plurality of learning methods stored in the learning method storage unit 14 vary are found, and a preference degree for the pair is inquired. A certain user
The variation of the predicted value with respect to the content pair can be measured by a variance of the predicted value or a weighted average of the square error of the predicted value with respect to the weighted average preference using the weight of each learning method. A method of finding pairs with a large variation in predicted values is, for example, to select a pair from among a large number of user content pairs generated using random numbers and to select a pair whose predicted value is most varied in the above sense. The method can be adopted. That is, the user content pair (x * , y * ) used for the question can be obtained as follows, where P is a set of user content pairs considered as candidates.

【0065】[0065]

【数20】 (Equation 20)

【0066】なお、求めたユーザ・コンテンツ対が既に
学習データに存在する場合には、次点以降の候補の中か
ら学習データに存在しない対の候補の質問を選択すれば
良い。
In the case where the obtained user / content pair already exists in the learning data, a question of a pair candidate which does not exist in the learning data may be selected from the candidates after the next point.

【0067】次に第4の実施の形態について説明する。Next, a fourth embodiment will be described.

【0068】第4の実施の形態は、第3の実施の形態に
おいて、学習方式記憶部14に記憶する複数の学習方式
として、第2の実施の形態のユーザ嗜好自動学習方式を
実現するアルゴリズムの多数のコピーを用いる。すなわ
ち、それぞれ同一の学習方式を用いているが、一般に、
ユーザ間重み,コンテンツ間重みの更新にあたって異な
る乱数が発生され、異なる重みの更新が行われていくの
で、特定の場面において異なる予測を行う複数の学習方
式となる。特に、乱数が発生されるのは、(x,y)と
(x’,y’)が類似していないという命題から、
(x,x’)が類似していないという命題と(y,
y’)が類似していないという命題のどちらを結論づけ
るかの曖昧性を解消するために行われるので、これらの
曖昧性に関して異なった結論を下した多数のコピーが共
存することになる。それらの予測値の、各学習方式の信
頼度を表す重みによる重み付き平均をもって実際の嗜好
度の予測を行うことにより、より高い精度の学習が可能
になるし、またそれらの予測値のばらつきを最大にする
ユーザ・コンテンツ対に対して質問を行うことにより情
報量の多い質問を実現することができる。
The fourth embodiment is different from the third embodiment in that an algorithm for realizing the user preference automatic learning method of the second embodiment is used as a plurality of learning methods stored in the learning method storage unit 14. Use multiple copies. That is, although each uses the same learning method,
Since different random numbers are generated in updating the weight between users and between contents, and different weights are updated, there are a plurality of learning methods for performing different predictions in a specific scene. In particular, random numbers are generated from the proposition that (x, y) and (x ', y') are not similar,
The proposition that (x, x ') is not similar to (y,
This is done to resolve the ambiguity of which of the propositions that y ') is dissimilar, so that multiple copies will coexist with different conclusions about these ambiguities. By predicting the actual preference with a weighted average of those predictions by weights representing the reliability of each learning method, it is possible to perform learning with higher accuracy, and to reduce the dispersion of the predictions. By asking the user / content pair to be maximized, a question with a large amount of information can be realized.

【0069】次に第5の実施の形態について説明する。Next, a fifth embodiment will be described.

【0070】第5の実施の形態においては、第4の実施
の形態と同様に、学習方式記憶部14に記憶する複数の
学習方式として、第2の実施の形態のユーザ嗜好自動学
習方式を実現するアルゴリズムの多数のコピーを用い
る。また、第3および第4の実施の形態においては、予
測値のばらつきの多い対の発見については、多数の対を
生成し比較する方法を採用したが、この第5の実施の形
態においては、この予測値のばらつきの多い対の発見に
ついて或る特定の方法を用いる。
In the fifth embodiment, as in the fourth embodiment, the user preference automatic learning method of the second embodiment is realized as a plurality of learning methods stored in the learning method storage unit 14. It uses multiple copies of the algorithm. Further, in the third and fourth embodiments, a method of generating and comparing a large number of pairs has been adopted for finding pairs with a large variation in predicted values. However, in the fifth embodiment, A specific method is used for finding a pair having a large variation in the predicted value.

【0071】すなわち、複数のコンテンツとユーザの対
からなる質問対候補集合として、過去の学習データ中に
現れるユーザとコンテンツからなるユーザ・コンテンツ
対の中で、過去にデータとして嗜好度を与えられていな
い対の集合の全て又は一部を用いて、それらの中で最も
予測値のばらつきの大きいものについて質問を行う方法
である。
That is, as a question pair candidate set including a plurality of content and user pairs, a preference level is given as data in the past in a user / content pair including a user and a content appearing in past learning data. This is a method of using all or a part of a set of unpaired pairs and inquiring about the one with the largest variation in predicted values among them.

【0072】この方法は、f(x,y)とf(x’,
y’)が与えられて、その差が大きいことが判明したと
き生じる曖昧性、すなわちx,x’の類似度が低いの
か、y,y’の類似度が低いのかの曖昧性の具体的な解
消法として、f(x,y’)またはf(x’,y)の値
を質問により知ることが有効であるという知見に基づい
ている。すなわち、そのような対に対する質問は情報量
が多いので、その中で最も予測値のばらつきの大きい対
を選択して質問することにより、確実に情報量の大きい
質問を実現することが可能になる。
This method uses f (x, y) and f (x ′,
y ′) is given and the ambiguity that occurs when the difference is found to be large, that is, whether the similarity of x, x ′ is low or the similarity of y, y ′ is low, is concrete. As a solution, it is based on the finding that it is effective to know the value of f (x, y ') or f (x', y) by a question. That is, since a question for such a pair has a large amount of information, a question having a large amount of information can be surely realized by selecting and asking a pair having the largest variation in predicted values among them. .

【0073】図7に第5の実施の形態の構成例を示す。
同図に示すように、本実施の形態は、学習データを逐次
的に入力する学習データ入力部11と、過去に与えられ
た学習データを一括して格納する学習データ格納部12
と、複数の学習方式14−1,14−2,…を格納する
学習方式記憶部14と、学習データ入力部11から入力
されたユーザ・コンテンツ対について、その嗜好度を各
学習方式14−1,14−2,…に予測させ、各学習方
式の信頼度を表す重みを用いて、それらの予測値の重み
付き平均値をとり、それを当該ユーザ・コンテンツ対の
予測値とする予測部13と、システム自らユーザ・コン
テンツ対を指定した質問を出し、そのユーザ・コンテン
ツ対に対する嗜好度の入力を受け取る質問部16と、学
習方式記憶部14に記憶された各学習方式14−1,1
4−2,…の現仮説および各学習方式の信頼度を表す重
みを更新する学習部15とから構成されている。
FIG. 7 shows a configuration example of the fifth embodiment.
As shown in the figure, the present embodiment has a learning data input unit 11 for sequentially inputting learning data and a learning data storage unit 12 for collectively storing learning data given in the past.
, A plurality of learning methods 14-1, 14-2,..., And a user / content pair input from the learning data input unit 11, the preference of each learning method 14-1. , 14-2,..., And takes a weighted average value of the predicted values using a weight representing the reliability of each learning method, and uses the average value as the predicted value of the user / content pair. And a question unit 16 that issues a question specifying a user / content pair by itself and receives an input of a degree of preference for the user / content pair, and each learning method 14-1, 1 stored in the learning method storage unit 14.
4-2,... And a learning unit 15 for updating weights representing the reliability of each learning method.

【0074】そして、各学習方式14−1,14−2
は、図1で説明したようなユーザ間重み記憶部3,コン
テンツ間重み記憶部4,予測部5および学習部6で構成
されている。第2の実施の形態のユーザ嗜好自動学習方
式の実装なので、学習部6は、乱数を用いてランダム
に、ユーザ間重み又はコンテンツ間重みを更新する。
Each of the learning methods 14-1 and 14-2
Is composed of an inter-user weight storage unit 3, an inter-content weight storage unit 4, a prediction unit 5, and a learning unit 6 as described in FIG. Since the user preference automatic learning method according to the second embodiment is implemented, the learning unit 6 randomly updates the weight between users or the weight between contents using random numbers.

【0075】なお、この第5の実施の形態の動作例は図
6に示したフローチャートと同じである。
The operation example of the fifth embodiment is the same as the flowchart shown in FIG.

【0076】図7において、利用者から1つのユーザ・
コンテンツ対が学習データ入力部11に入力されると
(ステップS11)、学習データ入力部11は、それを
予測部13に伝達する。予測部13は、伝達されたユー
ザ・コンテンツ対を各学習方式14−1,14−2,…
に与え、その嗜好度を予測させる。
In FIG. 7, one user is
When a content pair is input to the learning data input unit 11 (Step S11), the learning data input unit 11 transmits the content pair to the prediction unit 13. The prediction unit 13 converts the transmitted user content pair into each of the learning methods 14-1, 14-2,.
To predict its preference.

【0077】各学習方式14−1,14−2,…におい
ては、その各々の予測部5が、学習データ格納部12に
格納された学習データ、自方式内のユーザ間重み記憶部
3に格納されたユーザ間重み及びコンテンツ間重み記憶
部4に格納されたコンテンツ間重みを用いて、そのユー
ザのそのコンテンツに対する嗜好度を予測する(ステッ
プS12)。つまり、式(1)に基づき、学習データ格
納部12に格納される過去の学習データの嗜好度の値
の、新たに与えられたユーザ・コンテンツ対との間のユ
ーザ間重みとコンテンツ間重みの積を重みとする、重み
つき平均を予測値とし、予測部13に返却する。
In each of the learning methods 14-1, 14-2,..., Each prediction unit 5 stores the learning data stored in the learning data storage unit 12 and the inter-user weight storage unit 3 in the own method. The user's preference for the content is predicted using the weight between the users and the weight between the contents stored in the weight between the contents storage unit 4 (step S12). That is, based on equation (1), the weight of the preference between the past learning data stored in the learning data storage unit 12 and the weight of the inter-user weight between the newly given user-content pair and the weight of the inter-content weight are set. The weighted average with the product as the weight is used as the predicted value and returned to the prediction unit 13.

【0078】予測部13は、各学習方式14−1,14
−2,…の予測値と、各学習方式14−1,14−2,
…の現在の信頼度を表す重みとを用いて、前述した式1
8によって予測値を計算する(ステップS13)。
The prediction unit 13 determines each of the learning methods 14-1 and 14
−2,... And the learning methods 14-1, 14-2,
.. With the weight representing the current reliability of
Then, a predicted value is calculated according to 8 (step S13).

【0079】次いで、学習データ入力部11から上記ユ
ーザ・コンテンツ対の正しい嗜好度が入力されると(ス
テップS14)、それが学習データ格納部12に格納さ
れると共に(ステップS15)、学習部15に伝達され
る。学習部15は、伝達された嗜好度を各学習方式14
−1,14−2,…の学習部6に伝達し、各々のユーザ
間重み,コンテンツ間重みを更新させる(ステップS1
6)。このとき、各学習方式14−1,14−2,…に
おける学習部6は、前述した式(17)の確率で前述し
た式(2)等によってユーザ間重みを更新し、ユーザ間
重みを更新しない場合は前述した式(3)等によってコ
ンテンツ間重みを更新する。
Next, when the correct preference level of the user / content pair is input from the learning data input unit 11 (step S14), it is stored in the learning data storage unit 12 (step S15), and the learning unit 15 is set. Is transmitted to The learning unit 15 converts the transmitted preference degree into each learning method 14
-1, 14-2,..., And update the weight between users and the weight between contents (step S1).
6). At this time, the learning unit 6 in each of the learning methods 14-1, 14-2,... Updates the inter-user weight with the probability of the above-described expression (17) using the above-described expression (2) and the like, and updates the inter-user weight. If not, the weight between contents is updated by the above-described equation (3) or the like.

【0080】学習部15は、各学習方式14−1,14
−2,…における学習と同時に、予測部13が使用する
各学習方式の信頼度を表す重みを前述した式(19)に
よって更新する(ステップS17)。
The learning unit 15 includes the learning methods 14-1 and 14
Simultaneously with the learning in −2,..., The weight indicating the reliability of each learning method used by the prediction unit 13 is updated by the above-described equation (19) (step S17).

【0081】次に、質問部16は、複数のユーザ・コン
テンツ対からなる質問対候補集合として、学習データ格
納部12中に現れるユーザとコンテンツとからなるユー
ザ・コンテンツ対の中で、過去にデータとして嗜好度を
与えられていない対の集合の全て又は一部を用い、その
集合中の各対について各学習方式14−1,14−2,
…にその嗜好度を予測させ、その予測値のばらつきの最
も大きいユーザ・コンテンツ対の嗜好度を利用者に質問
する。なお、このとき各学習方式14−1,14−2,
…は予測部13からユーザ・コンテンツ対が与えられた
場合と同様にして予測を行う。次いで、質問部16は、
質問したユーザ・コンテンツ対に対して利用者から正し
い嗜好度が入力されると、それを学習データ格納部12
に格納すると共に(ステップS19)、それを学習部1
5に伝達する。
Next, the question section 16 is used as a question pair candidate set including a plurality of user / content pairs. All or a part of a set of pairs to which no preference is given is used, and each learning method 14-1, 14-2,
.. Predict the preference level, and ask the user about the preference level of the user / content pair having the largest variation in the predicted value. At this time, each learning method 14-1, 14-2,
.. Perform prediction in the same manner as when a user / content pair is given from the prediction unit 13. Next, the question unit 16
When the user inputs the correct preference level for the questioned user / content pair, the user inputs the correct preference level to the learning data storage unit 12.
(Step S19) and store it in the learning unit 1.
5

【0082】学習部15は、伝達された学習データの嗜
好度を各学習方式14−1,14−2,…の学習部6に
伝達し、各々のユーザ間重み,コンテンツ間重みを更新
させる(ステップS20)。このとき、各学習方式14
−1,14−2,…における学習部6は、前述した式
(17)の確率で前述した式(2)等によってユーザ間
重みを更新し、ユーザ間重みを更新しない場合は前述し
た式(3)等によってコンテンツ間重みを更新する。同
時に学習部15は、予測部13が使用する各学習方式の
信頼度を表す重みを前述した式(19)によって更新す
る(ステップS21)。
The learning unit 15 transmits the degree of preference of the transmitted learning data to the learning units 6 of the learning methods 14-1, 14-2,..., And updates the weight between users and the weight between contents ( Step S20). At this time, each learning method 14
The learning unit 6 in −1, 14-2,... Updates the inter-user weight with the above-described equation (2) at the probability of the above-described equation (17), and when the inter-user weight is not updated, the above-described equation ( 3) The weight between contents is updated by, for example,. At the same time, the learning unit 15 updates the weight indicating the reliability of each learning method used by the prediction unit 13 using the above-described equation (19) (step S21).

【0083】次に、嗜好度の予測および重み行列の更新
の具体例を説明する。例としては、簡単のために、学習
方式記憶部14に記憶された学習方式は、14−1と1
4−2の2つとする。また、図4に示すようにu1から
u5までの5人のユーザとc1からc7までの7つのコ
ンテンツとを想定し、学習データ格納部12における過
去の学習データを示すデータ行列Mの要素は全て未設定
(図4では?で示す)とする。更に、各学習方式14−
1,14−2のユーザ間重み記憶部3に設けられている
ユーザ間重み及びコンテンツ間重み記憶部4に設けられ
ているコンテンツ間重みはそれぞれ初期値1に設定され
ているものとする。更に、定数cは、−log0.8 に設
定、すなわちe-c=0.8 であり、dは2であるとする。
また、自分自身の重みu(x,x)、v(y,y)は更
新しないものとする。このとき、学習データとして、f
(u2,c3)=4が与えられ、この時点では質問する
対の候補が空集合なので質問はされず、次に学習データ
f(u4,c6)=1が与えられたとする。これらのデ
ータに対して、学習方式14−1,14−2におけるユ
ーザ間重み又はコンテンツ間重みは、例えば以下のよう
になる。
Next, a specific example of prediction of the degree of preference and updating of the weight matrix will be described. As an example, for simplicity, the learning methods stored in the learning method storage unit 14 are 14-1 and 1
4-2. As shown in FIG. 4, assuming five users u1 to u5 and seven contents c1 to c7, all elements of a data matrix M indicating past learning data in the learning data storage unit 12 are all It is not set (indicated by? In FIG. 4). Further, each learning method 14-
It is assumed that the inter-user weights provided in the inter-user weight storage units 3 and 14-2 and the inter-content weights provided in the inter-content weight storage unit 4 are respectively set to the initial value 1. Further, it is assumed that the constant c is set to -log 0.8, that is, e -c = 0.8, and d is 2.
The own weights u (x, x) and v (y, y) are not updated. At this time, as learning data, f
It is assumed that (u2, c3) = 4 is given. At this point, no question is asked because the candidate for the pair to be asked is an empty set, and the learning data f (u4, c6) = 1 is given next. For these data, the weight between users or the weight between contents in the learning methods 14-1 and 14-2 is, for example, as follows.

【0084】○学習方式14−1 1.f(u2,c3)=4 重みの更新なし。 2.f(u4,c6)=1○ Learning method 14-1 f (u2, c3) = 4 No weight update. 2. f (u4, c6) = 1

【数21】 (Equation 21)

【0085】○学習方式14−2 1.f(u2,c3)=4 重みの更新なし。 2.f(u4,c6)=1○ Learning method 14-2 f (u2, c3) = 4 No weight update. 2. f (u4, c6) = 1

【数22】 (Equation 22)

【0086】つまり、f(u4,c6)=1の学習デー
タに対して、学習方式14−1ではコンテンツ間重みを
更新し、学習方式14−2ではユーザ間重みを更新して
いる。
That is, for the learning data of f (u4, c6) = 1, the weight between contents is updated in the learning method 14-1, and the weight between users is updated in the learning method 14-2.

【0087】この段階において、質問する対の候補は、
(u2,c6)と(u4,c3)であり、その各々に対
する嗜好度の学習方式14−1,14−2による予測値
は以下のようになる。 1.f(u2,c6) (a)学習方式14−1
At this stage, the candidate pairs to be asked are:
(U2, c6) and (u4, c3), and the predicted values of the preference degree for each of them by the learning methods 14-1 and 14-2 are as follows. 1. f (u2, c6) (a) Learning method 14-1

【数23】 (b)学習方式14−2(Equation 23) (B) Learning method 14-2

【数24】 (Equation 24)

【0088】2.f(u4,c3) (a)学習方式14−12. f (u4, c3) (a) Learning method 14-1

【数25】 (b)学習方式14−2(Equation 25) (B) Learning method 14-2

【数26】 (Equation 26)

【0089】この場合、両候補対に対する両学習方式1
4−1,14−2の予測値は、それぞれ2.67,2.33
と、2.33,2.67 であるので、両対とも同等にばらつき
を示しており、この段階においては、両対とも同等に情
報量が多いので、任意にどちらかの対を選択し質問を行
う。ここでは、(u2,c6)が選択されて質問が行わ
れたと仮定する。
In this case, both learning methods 1 for both candidate pairs
The predicted values of 4-1 and 14-2 are 2.67 and 2.33, respectively.
And 2.33 and 2.67, both pairs show the same variation. At this stage, both pairs have the same amount of information. I do. Here, it is assumed that (u2, c6) is selected and a question is made.

【0090】次に、この段階までの各学習方式14−
1,14−2による上記のデータに対する予測値と、そ
の結果行われる各学習方式の信頼度を表す重みの更新を
以下に示す。なお、以下の例において、各学習方式Ai
の重みwi の初期値は1.0 とし、以下のように更新す
る。また、最初に与えられる対に対する予測は、嗜好度
の中間点である3点とする。
Next, each learning method 14-
The prediction values of the above data by 1, 14-2 and the updating of the weights representing the reliability of each learning method performed as a result are shown below. In the following example, each learning method A i
The initial value of the weight w i is 1.0, and is updated as follows. The prediction for the pair given first is three points which are the middle points of the degree of preference.

【0091】[0091]

【数27】 [Equation 27]

【0092】○学習方式14−1において 1.A1 (u2,c3)=3In the learning method 14-1, A 1 (u2, c3) = 3

【数28】 2.A1 (u4,c6)=4[Equation 28] 2. A 1 (u4, c6) = 4

【数29】 3.A1 (u2,c6)=2.33(Equation 29) 3. A 1 (u2, c6) = 2.33

【数30】 [Equation 30]

【0093】○学習方式14−2において 1.A2 (u2,c3)=3In the learning method 14-2: A 2 (u2, c3) = 3

【数31】 2.A2 (u4,c6)=4(Equation 31) 2. A 2 (u4, c6) = 4

【数32】 3.A2 (u2,c6)=2.33(Equation 32) 3. A 2 (u2, c6) = 2.33

【数33】 [Equation 33]

【0094】上記の例において、f(u2,c3)=4
およびf(u4,c6)=1が学習データとして与えら
れた段階で、u2,u4またはc3,c6のいずれかの
類似度が低いが、どちらかはわからないという曖昧性が
存在している。この曖昧性を、学習方式14−1と学習
方式14−2においてランダムに解消しているが、上記
の例においては、学習方式14−1においては、v
(3,6)を減らす方向に更新しており、学習方式14
−2においては、u(2,4)を減らす方向に更新して
いる(図3によればu2,u4は高い類似度をもってい
るので、学習方式14−1の方が正しい判定を下してい
る)。この結果、上記の例において選択された質問点に
対する両学習方式による予測値の誤差に差が生じ、結果
的に正しい曖昧性解消を行った学習方式14−1の方
が、重みが大きくなっており(すなわちw1 >w2 )、
次に与えられるユーザ・コンテンツ対に対する予測にお
いては、学習方式14−1の予測値の方が重んじられる
ことが分かる。
In the above example, f (u2, c3) = 4
When f (u4, c6) = 1 is given as the learning data, there is an ambiguity that the similarity of either u2, u4 or c3, c6 is low, but either is unknown. Although this ambiguity is randomly resolved in the learning method 14-1 and the learning method 14-2, in the above example, in the learning method 14-1, v
(3, 6) has been updated to reduce
In -2, u (2, 4) is updated in a direction of decreasing (in FIG. 3, since u2 and u4 have a high similarity, the learning method 14-1 makes a more accurate determination. There). As a result, a difference occurs between the prediction values of the two learning methods with respect to the question point selected in the above example, and as a result, the weight of the learning method 14-1 that has performed correct ambiguity resolution is larger. (That is, w 1 > w 2 ),
In the prediction for the user / content pair given next, it is understood that the prediction value of the learning method 14-1 is more important.

【0095】[0095]

【発明の効果】請求項1または2記載のユーザ嗜好自動
学習方式によれば、ノイズに対して頑健な帰納推論を実
現することが可能になると同時に、ユーザ間の類似度の
みを考慮する場合や、コンテンツ間の類似度のみを考慮
する従来方法に比べて、立上がりの早い学習が可能にな
る。
According to the user preference automatic learning method according to the first or second aspect, it is possible to realize inductive inference that is robust against noise, and to consider only the similarity between users, In addition, it is possible to perform learning at a rapid rise as compared with the conventional method in which only the similarity between contents is considered.

【0096】また、請求項3,4または5記載のユーザ
嗜好自動学習方式によれば、従来方法と比べて格段に少
ない数の質問数で、精度の良い学習を達成することが可
能になる。
According to the user preference automatic learning method according to the third, fourth or fifth aspect, it is possible to achieve highly accurate learning with a significantly smaller number of questions than in the conventional method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のユーザ嗜好自動学習方式の第1の実施
の形態の構成例を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of a user preference automatic learning method according to the present invention.

【図2】本発明の第1の実施の形態の動作の一例を示す
フローチャートである。
FIG. 2 is a flowchart illustrating an example of an operation according to the first exemplary embodiment of the present invention.

【図3】嗜好度(ユーザ嗜好関数)の例を示す図であ
る。
FIG. 3 is a diagram illustrating an example of a preference level (user preference function).

【図4】過去の学習データの例を示す図である。FIG. 4 is a diagram showing an example of past learning data.

【図5】本発明のユーザ嗜好自動学習方式の第3の実施
の形態の構成例を示すブロック図である。
FIG. 5 is a block diagram showing a configuration example of a third embodiment of a user preference automatic learning method according to the present invention.

【図6】本発明の第3の実施の形態の動作の一例を示す
フローチャートである。
FIG. 6 is a flowchart illustrating an example of an operation according to the third exemplary embodiment of the present invention.

【図7】本発明の第5の実施の形態の構成例を示すブロ
ック図である。
FIG. 7 is a block diagram illustrating a configuration example according to a fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…学習データ入力部 2…学習データ格納部 3…ユーザ間重み記憶部 4…コンテンツ間重み記憶部 5…予測部 6…学習部 11…学習データ入力部 12…学習データ格納部 13…予測部 14…学習方式記憶部 14−1,14−2…学習方式 15…学習部 16…質問部 DESCRIPTION OF SYMBOLS 1 ... Learning data input part 2 ... Learning data storage part 3 ... User weight storage part 4 ... Content weight storage part 5 ... Prediction part 6 ... Learning part 11 ... Learning data input part 12 ... Learning data storage part 13 ... Prediction part 14 learning method storage unit 14-1, 14-2 learning method 15 learning unit 16 question unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ニュース記事やホームページ等のコンテ
ンツに対するユーザの嗜好を、データとして与えられた
コンテンツとそのコンテンツに対するユーザの嗜好度を
表す数値からなるデータを用いて学習する装置におい
て、 ユーザ・コンテンツ対および該コンテンツに対する該ユ
ーザの嗜好度を表す数値からなる学習データを入力する
学習データ入力部と、 過去に与えられた学習データを一括して格納する学習デ
ータ格納部と、 ユーザ間の類似度を表すユーザ間重みを格納するユーザ
間重み記憶部と、 コンテンツ間の類似度を表すコンテンツ間重みを格納す
るコンテンツ間重み記憶部と、 前記学習データ入力部に与えられたユーザ・コンテンツ
対に対して、前記学習データ格納部に格納された学習デ
ータ、前記ユーザ間重み記憶部に格納されたユーザ間重
み、および前記コンテンツ間重み記憶部に格納されたコ
ンテンツ間重みを用いて、そのユーザのそのコンテンツ
に対する嗜好度を予測する予測部と、 前記学習データ入力部から入力された前記ユーザ・コン
テンツ対の正しい嗜好度、前記学習データ格納部に格納
された過去に与えられた学習データ、前記ユーザ間重み
記憶部に格納されたユーザ間重み、および前記コンテン
ツ間重み記憶部に格納されたコンテンツ間重みを用い
て、前記ユーザ間重み記憶部に格納されたユーザ間重み
および前記コンテンツ間重み記憶部に格納されたコンテ
ンツ間重みを更新する学習部とを備え、 前記予測部における予測は、前記学習データ格納部に格
納される過去の学習データの嗜好度の値の、新たに与え
られたユーザ・コンテンツ対との間のユーザ間重みとコ
ンテンツ間重みの積を重みとする、重みつき平均によっ
て行われる構成を有し、 前記学習部における重み更新は、過去の学習データ中の
各ユーザ・コンテンツ対に対して、新たに与えられたユ
ーザ・コンテンツ対との間のユーザ間重みとコンテンツ
間重みとの双方に対して行われ、且つ、ユーザ間重み
は、過去の学習データ中のユーザ・コンテンツ対に対す
る嗜好度と新たに与えられたユーザ・コンテンツ対に対
する嗜好度との差と、前記コンテンツ間重みとの関数と
して更新され、コンテンツ間重みは、過去の学習データ
中のユーザ・コンテンツ対に対する嗜好度と新たに与え
られたユーザ・コンテンツ対に対する嗜好度との差と、
前記ユーザ間重みとの関数として更新される構成を有す
ることを特徴とするユーザ嗜好自動学習方式。
1. An apparatus for learning a user's preference for a content such as a news article or a homepage by using a content provided as data and data comprising a numerical value representing the user's preference for the content. A learning data input unit for inputting learning data consisting of numerical values representing the user's preference for the content; a learning data storage unit for collectively storing learning data given in the past; An inter-user weight storage unit for storing inter-user weights, an inter-content weight storage unit for storing inter-content weights indicating similarities between contents, and a user content pair given to the learning data input unit. , Learning data stored in the learning data storage unit, and storage in the inter-user weight storage unit A prediction unit that predicts the degree of preference of the user for the content by using the obtained weight between users and the weight between contents stored in the content weight storage unit; and the user input from the learning data input unit. The correct preference degree of the content pair, the learning data given in the past stored in the learning data storage unit, the inter-user weight stored in the inter-user weight storage unit, and stored in the inter-content weight storage unit A learning unit that updates the inter-user weight stored in the inter-user weight storage unit and the inter-content weight stored in the inter-content weight storage unit, using the inter-content weight, prediction in the prediction unit, Between the value of the preference degree of the past learning data stored in the learning data storage unit and the newly given user / content pair The weight update in the learning unit is performed by using a product of the weight between the user and the weight between the contents as a weight. Is performed for both the user-to-user weight and the content-to-content weight between the user-content pair given to the user, and the user-to-user weight is determined based on the preference degree for the user-content pair in the past learning data and the new degree. Is updated as a function of the difference between the degree of preference for the user-content pair given to the user and the weight between the contents, and the weight between the contents is newly given to the degree of preference for the user-content pair in the past learning data. The difference between the preference level for the paired user content and
An automatic user preference learning method characterized by having a configuration updated as a function of the inter-user weight.
【請求項2】 請求項1記載の学習部において、過去の
学習データ中の各ユーザ・コンテンツ対に対して、新た
に与えられたユーザ・コンテンツ対との間のユーザ間重
みとコンテンツ間重みとの双方を更新するのに代えて、
乱数を用いてランダムに、ユーザ間重み又はコンテンツ
間重みを更新する構成を有することを特徴とする請求項
1記載のユーザ嗜好自動学習方式。
2. The learning unit according to claim 1, wherein for each user content pair in the past learning data, an inter-user weight between the newly provided user-content pair and an inter-content weight. Instead of updating both,
2. The user preference automatic learning method according to claim 1, further comprising a configuration for randomly updating a weight between users or a weight between contents using a random number.
【請求項3】 ニュース記事やホームページ等のコンテ
ンツに対するユーザの嗜好を、データとして与えられた
コンテンツとそのコンテンツに対するユーザの嗜好度を
表す数値からなるデータを用いて学習する装置におい
て、 ユーザ・コンテンツ対および該コンテンツに対する該ユ
ーザの嗜好度を表す数値からなる学習データを入力する
学習データ入力部と、 過去に与えられた学習データを一括して格納する学習デ
ータ格納部と、 複数の学習方式を格納する学習方式記憶部と、 前記学習データ入力部に与えられたユーザ・コンテンツ
対に対して、そのユーザのそのコンテンツに対する嗜好
度を、前記学習方式記憶部に格納された各学習方式によ
り予測させ、それらの予測値の、各学習方式に対する信
頼度の重み付き平均値をもって予測する予測部と、 複数のユーザ・コンテンツ対からなる質問対候補集合の
各ユーザ・コンテンツ対について、そのユーザのそのコ
ンテンツに対する嗜好度を前記学習方式記憶部中の各学
習方式により予測させて、最も予測値のばらつきの大き
いユーザ・コンテンツ対の正しい嗜好度を質問してその
値を得る質問部と、 前記学習データ入力部から入力された前記ユーザ・コン
テンツ対の正しい嗜好度および前記質問部が質問して得
た前記ユーザ・コンテンツ対の正しい嗜好度に基づい
て、前記学習方式記憶部中の各学習方式の保持する仮説
を更新すると共に、前記予測部が使用する各学習方式に
対する信頼度を表す重みを、各重みの現在値および各学
習方式の予測値と入力として与えられた正しい嗜好度と
の差の関数として更新する学習部とを有することを特徴
とするユーザ嗜好自動学習方式。
3. An apparatus for learning a user's preference for a content such as a news article or a homepage by using a content provided as data and data comprising a numerical value representing the user's preference for the content. A learning data input unit for inputting learning data consisting of numerical values representing the user's preference for the content; a learning data storage unit for collectively storing learning data given in the past; and storing a plurality of learning methods. Learning method storage unit, for the user content pair given to the learning data input unit, the degree of preference of the user for the content is predicted by each learning method stored in the learning method storage unit, Predict with a weighted average value of the reliability of each prediction method for those prediction values For each user-content pair of a question pair candidate set composed of a plurality of user-content pairs, the user's preference for the content is predicted by each learning method in the learning method storage unit, and the most predictable A question section for asking the correct preference degree of the user-content pair having a large variation in the value to obtain the value; and a correct preference degree and the question section for the user-content pair input from the learning data input section. Updating the hypothesis held by each learning method in the learning method storage unit based on the correct preference degree of the user / content pair obtained as described above, and weighting the reliability of each learning method used by the prediction unit. As a function of the difference between the current value of each weight and the predicted value of each learning method and the correct preference given as input. User preference automatic learning method characterized by and.
【請求項4】 前記学習方式記憶部に記憶される各学習
方式が、請求項2記載のユーザ嗜好自動学習方式である
請求項3記載のユーザ嗜好自動学習方式。
4. The user preference automatic learning method according to claim 3, wherein each of the learning methods stored in the learning method storage unit is the user preference automatic learning method according to claim 2.
【請求項5】 前記質問部は、前記複数のユーザ・コン
テンツ対からなる質問対候補集合として、過去の学習デ
ータ中に現れるユーザとコンテンツとからなるユーザ・
コンテンツ対の中で、過去にデータとして嗜好度を与え
られていない対の集合の全て又は一部を用いる構成を有
することを特徴とする請求項4記載のユーザ嗜好自動学
習方式。
5. The question section as a question pair candidate set including the plurality of user / content pairs, a user / user including content and content appearing in past learning data.
5. The user preference automatic learning method according to claim 4, wherein a configuration is used in which all or a part of a set of pairs to which a preference level has not been given as data in the past is used.
JP9048512A 1997-02-17 1997-02-17 Automatic user preference learning method Expired - Fee Related JP2962264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9048512A JP2962264B2 (en) 1997-02-17 1997-02-17 Automatic user preference learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9048512A JP2962264B2 (en) 1997-02-17 1997-02-17 Automatic user preference learning method

Publications (2)

Publication Number Publication Date
JPH10228487A true JPH10228487A (en) 1998-08-25
JP2962264B2 JP2962264B2 (en) 1999-10-12

Family

ID=12805433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9048512A Expired - Fee Related JP2962264B2 (en) 1997-02-17 1997-02-17 Automatic user preference learning method

Country Status (1)

Country Link
JP (1) JP2962264B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321221B1 (en) 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
US6334127B1 (en) * 1998-07-17 2001-12-25 Net Perceptions, Inc. System, method and article of manufacture for making serendipity-weighted recommendations to a user
JP2002123738A (en) * 2000-10-12 2002-04-26 Sony Corp Device and method for processing information and recording medium
JP2002123756A (en) * 2000-10-12 2002-04-26 Sony Corp Information processor, information processing method and recording medium
US6412012B1 (en) 1998-12-23 2002-06-25 Net Perceptions, Inc. System, method, and article of manufacture for making a compatibility-aware recommendations to a user
JP2004529543A (en) * 2001-02-26 2004-09-24 インターナショナル・ビジネス・マシーンズ・コーポレーション Wireless communication system and method for providing geospatial related event data
US6825256B2 (en) 2002-01-14 2004-11-30 Crompton Corporation Stability improvement of carbon monoxide ethylene copolymer in pvc compound
US7461058B1 (en) 1999-09-24 2008-12-02 Thalveg Data Flow Llc Optimized rule based constraints for collaborative filtering systems
JP2009265754A (en) * 2008-04-22 2009-11-12 Ntt Docomo Inc Information providing system, information providing method, and information providing program
US7788123B1 (en) 2000-06-23 2010-08-31 Ekhaus Michael A Method and system for high performance model-based personalization

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101792587B1 (en) * 2009-01-23 2017-11-02 삼성전자주식회사 Method and apparatus of predicting preference rating for contents, and method and apparatus for selecting sample contents

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334127B1 (en) * 1998-07-17 2001-12-25 Net Perceptions, Inc. System, method and article of manufacture for making serendipity-weighted recommendations to a user
US6321221B1 (en) 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
US6412012B1 (en) 1998-12-23 2002-06-25 Net Perceptions, Inc. System, method, and article of manufacture for making a compatibility-aware recommendations to a user
US7461058B1 (en) 1999-09-24 2008-12-02 Thalveg Data Flow Llc Optimized rule based constraints for collaborative filtering systems
US8548987B2 (en) 1999-09-24 2013-10-01 Thalveg Data Flow Llc System and method for efficiently providing a recommendation
US8155992B2 (en) 2000-06-23 2012-04-10 Thalveg Data Flow Llc Method and system for high performance model-based personalization
US7788123B1 (en) 2000-06-23 2010-08-31 Ekhaus Michael A Method and system for high performance model-based personalization
JP4529058B2 (en) * 2000-10-12 2010-08-25 ソニー株式会社 Distribution system
JP4538934B2 (en) * 2000-10-12 2010-09-08 ソニー株式会社 Distribution system
JP2002123756A (en) * 2000-10-12 2002-04-26 Sony Corp Information processor, information processing method and recording medium
JP2002123738A (en) * 2000-10-12 2002-04-26 Sony Corp Device and method for processing information and recording medium
JP2004529543A (en) * 2001-02-26 2004-09-24 インターナショナル・ビジネス・マシーンズ・コーポレーション Wireless communication system and method for providing geospatial related event data
US6825256B2 (en) 2002-01-14 2004-11-30 Crompton Corporation Stability improvement of carbon monoxide ethylene copolymer in pvc compound
JP2009265754A (en) * 2008-04-22 2009-11-12 Ntt Docomo Inc Information providing system, information providing method, and information providing program

Also Published As

Publication number Publication date
JP2962264B2 (en) 1999-10-12

Similar Documents

Publication Publication Date Title
de Brevern et al. Bayesian probabilistic approach for predicting backbone structures in terms of protein blocks
US6321179B1 (en) System and method for using noisy collaborative filtering to rank and present items
US7769763B1 (en) Large scale machine learning systems and methods
CN108776684A (en) Optimization method, device, medium, equipment and the system of side right weight in knowledge mapping
JP2962264B2 (en) Automatic user preference learning method
US20050071301A1 (en) Learning system and learning method
CN106774975B (en) Input method and device
JPH09265478A (en) Information filtering system
US5787424A (en) Process and system for recursive document retrieval
CN110033097B (en) Method and device for determining association relation between user and article based on multiple data fields
JP2006127452A (en) Information presentation device and information presentation method
US7373021B2 (en) Image search program, information storage medium, image search apparatus and image search method
JP3085254B2 (en) Information property recommendation device
CN106095941B (en) Big data knowledge base-based solution recommendation method and system
JP2000267554A (en) Device and method for supporting learning, and recording medium thereof
JP4194680B2 (en) Data processing apparatus and method, and storage medium storing the program
US20200302507A1 (en) Item presentation method, item presentation program, and item presentation apparatus
WO2024004076A1 (en) Information processing system, information processing method, and program
JPH0916627A (en) Device and method for filtering information
JP3547338B2 (en) Information retrieval method and device
WO2020085374A1 (en) Skill index provision device, skill index provision method, and program
JPH0954780A (en) Learning device and method therefor
CN115394295A (en) Segmentation processing method, device, equipment and storage medium
CN116578996B (en) Data processing system for acquiring final vulnerability scanning equipment
WO2023188286A1 (en) Training device, estimation device, training method, and recording medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees