JP2011203991A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2011203991A
JP2011203991A JP2010070493A JP2010070493A JP2011203991A JP 2011203991 A JP2011203991 A JP 2011203991A JP 2010070493 A JP2010070493 A JP 2010070493A JP 2010070493 A JP2010070493 A JP 2010070493A JP 2011203991 A JP2011203991 A JP 2011203991A
Authority
JP
Japan
Prior art keywords
label
content
user
certainty factor
certainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010070493A
Other languages
English (en)
Inventor
Hiroshi Tateno
啓 舘野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010070493A priority Critical patent/JP2011203991A/ja
Priority to US12/932,855 priority patent/US8510235B2/en
Priority to CN2011100659316A priority patent/CN102200959A/zh
Publication of JP2011203991A publication Critical patent/JP2011203991A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes

Abstract

【課題】能動学習によるコンテンツのラベルの予測精度を向上させる。
【解決手段】正解ラベル取得部14は、複数のコンテンツの中から選択されたサンプルに対してユーザが付与した正解ラベルを取得し、ユーザ確信度設定部16は、ユーザが付与した正解ラベルに対するユーザ確信度を設定する。ラベル予測学習部17は、ラベル予測学習を行い、ラベル予測・確信度計算部18は、未評価コンテンツのラベルを予測し、予測したラベルに対するラベル確信度を計算する。ユーザ確信度予測部19は、ユーザ確信度予測学習を行い、未評価コンテンツの予測ラベルに対するユーザ確信度を予測する。サンプル選択部21は、未評価コンテンツの中から次のサンプルを選択する。本発明は、例えば、コンテンツのラベルを予測するための学習装置に適用できる。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、能動学習(Active Learning)によりコンテンツのラベルを予測する場合に用いて好適な情報処理装置、情報処理方法、およびプログラムに関する。
従来、コンテンツ(例えば、文書)のラベル(例えば、文書カテゴリ)を予測するという課題に対して、能動学習(active learning)が用いられている(例えば、特許文献1参照)。
従来の能動学習では、システムで予測したラベルに対する確信度が低いコンテンツをサンプルに選択し、選択したサンプルにユーザ(ラベルを付与する人)がラベル(以下、正解ラベルとも称する)を付与することにより、少ないサンプル数で効率的に予測性能を上げていた。
特開2009−104632号公報
Ben Hachey他,"Investigating the Effects of Selective Sampling on the Annotation Task",Proceedings of the Ninth Conference on Computational Natural Language Learning, University of Michigan, USA, June 2005, p.144-151
しかし、ラベルの確信度が低いコンテンツ、すなわち、システムでのラベルの予測が難しいコンテンツに対しては、ユーザも適切なラベルを付与するのに困難を伴うことが多い。例えば、楽曲から感じ取る印象をラベルとしてコンテンツ(楽曲データ)に付与する場合、ユーザの判断が揺らぎ、類似する楽曲に対して異なるラベルを付与したり、あまり似ていない楽曲に対して同様のラベルを付与したりする可能性がある。あるいは、複数のユーザ間で印象が大きく異なり、ラベルのバラツキが大きくなる可能性がある。その結果、ユーザが付与する正解ラベルの信頼度が低下し、システムがラベルを予測するための学習を適切に実行できなくなる場合がある。(例えば、非特許文献1参照)。そして、ラベルの予測精度が低下してしまう。
本発明は、このような状況を鑑みてなされたものであり、能動学習によるコンテンツのラベルの予測精度を向上させるようにするものである。
本発明の一側面の情報処理装置は、複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得するラベル取得手段と、前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定するユーザ確信度設定手段と、前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行うラベル予測学習手段と、前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算するラベル予測手段と、前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測するユーザ確信度予測手段と、前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択する選択手段とを含む。
前記ユーザ確信度設定手段には、前記ユーザがコンテンツに付与する前記ラベルを確定するまでの所要時間または修正回数のうち少なくとも一方に基づいて、前記ユーザ確信度を設定させることができる。
前記ユーザ確信度設定手段には、複数の前記ユーザが付与した前記ラベルのバラツキに基づいて、前記ユーザ確信度を設定させることができる。
前記選択手段には、予測された前記ラベルに対する前記ラベル確信度がより低く、前記ユーザ確信度がより高いコンテンツを優先して次に前記ラベルを付与するコンテンツに選択させることができる。
前記選択手段には、前記ラベルがコンテンツに対する評価である場合、さらに、予測された前記ラベルとしての予測評価値がより高いコンテンツを優先して次に前記ラベルを付与するコンテンツに選択させることができる。
前記選択手段には、さらに、前記ユーザが過去に利用したコンテンツを優先して次に前記ラベルを付与するコンテンツに選択させることができる。
本発明の一側面の情報処理方法は、情報処理装置が、複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得し、前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定し、前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算し、前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測し、前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択するステップを含む。
本発明の一側面のプログラムは、複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得し、前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定し、前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算し、前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測し、前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択するステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルが取得され、前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度が設定され、前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習が行われ、前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度が計算され、前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習が行われ、前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度が予測され、前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツが選択される。
本発明の一側面によれば、コンテンツのラベルを予測することができる。特に、本発明の一側面によれば、能動学習によるコンテンツのラベルの予測精度を向上させることができる。
本発明を適用した情報処理装置の第1の実施の形態の構成例を示すブロック図である。 ラベル予測処理を説明するためのフローチャートである。 コンテンツの特徴量の例を示す表である。 コンテンツの正解ラベルおよびユーザ確信度の例を示す表である。 コンテンツの予測ラベル、ラベル確信度、予測ユーザ確信度、サンプル選択用スコアの例を示す表である。 本発明を適用した情報処理装置の第2の実施の形態の構成例を示すブロック図である。 評価予測処理を説明するためのフローチャートである。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(基本構成)
2.第2の実施の形態(コンテンツの推薦処理に適用した例)
<1.第1の実施の形態>
まず、図1乃至図5を参照して、本発明の第1の実施の形態について説明する。
[情報処理装置の構成例]
図1は、本発明を適用した情報処理装置1の構成例を示すブロック図である。情報処理装置1は、コンテンツのラベルの予測を行う装置である。ここで、コンテンツとは、例えば、画像データ、動画データ、楽曲データ、各種の商品、文書データなどを指し、特定の種類に限定されるものではない。また、ラベルとは、コンテンツの特徴を表す情報であり、例えば、コンテンツが属するジャンルもしくはカテゴリ、ユーザの主観的な印象(例えば、面白い、悲しいなど)、または、主観的な印象を連続値で表したものなどである。
情報処理装置1は、コンテンツ情報保持部11、初期サンプル選択部12、提示部13、正解ラベル取得部14、ラベル情報保持部15、ユーザ確信度設定部16、ラベル予測学習部17、ラベル予測・確信度計算部18、ユーザ確信度予測部19、終了判定部20、および、サンプル選択部21を含むように構成される。
コンテンツ情報保持部11は、複数のコンテンツに関する各種の情報(例えば、名称、種類、特徴など)を保持している。また、コンテンツに関する情報のうちの一部または全部が、後述するラベルの予測において特徴量として用いられる。例えば、特徴量は、コンテンツが属するジャンル、コンテンツの特徴を表すキーワードなどを含む。また、画像データや楽曲データなどコンテンツが各種の信号(例えば、画像信号、音楽信号など)により表される場合、例えば、それらの信号の特徴を特徴量とすることも可能である。
なお、画像データや楽曲データなど、コンテンツ情報保持部11で保持可能な形式のコンテンツについては、関連情報とともにコンテンツ自身もコンテンツ情報保持部11に保持される場合がある。
初期サンプル選択部12は、コンテンツ情報保持部11に情報が保持されているコンテンツの中から、初期サンプルを選択する。ここで、初期サンプルとは、最初にユーザが正解ラベルを付与する対象となるコンテンツのことである。初期サンプル選択部12は、選択した初期サンプルに関する情報を、コンテンツ情報保持部11から取得し、提示部13に供給する。
提示部13は、初期サンプル選択部12により選択された初期サンプルに関する情報、および、サンプル選択部21により選択されたサンプルに関する情報をユーザに提示する。また、提示部13は、ユーザに提示したサンプルに関する情報を正解ラベル取得部14に供給する。
正解ラベル取得部14は、図示せぬ入力手段を介して、提示部13により提示されたサンプルに対してユーザが付与する正解ラベルを取得する。また、正解ラベル取得部14は、各サンプルに正解ラベルを付与するときのユーザの行動に関する情報(以下、ユーザ行動情報と称する)を取得する。正解ラベル取得部14は、取得した正解ラベルおよびユーザ行動情報を、対応するコンテンツ(サンプル)との対応関係が分かるようにラベル情報保持部15に保持させる。
ユーザ確信度設定部16は、正解ラベルが付与されたサンプルに対する正解ラベルおよびユーザ行動情報をラベル情報保持部15から取得する。そして、ユーザ確信度設定部16は、ユーザが各サンプルに付与した正解ラベルに対して、その正解ラベルの確からしさを示すユーザ確信度を設定する。ユーザ確信度設定部16は、設定したユーザ確信度を、対応するコンテンツ(サンプル)との対応関係が分かるようにラベル情報保持部15に保持させる。
なお、以下、あるコンテンツ(サンプル)の正解ラベルに対するユーザ確信度を、単に、当該コンテンツのユーザ確信度とも称する。
ラベル予測学習部17は、既に正解ラベルが付与されているコンテンツ(以下、評価済コンテンツと称する)の特徴量をコンテンツ情報保持部11から取得し、評価済コンテンツの正解ラベルをラベル情報保持部15から取得する。そして、ラベル予測学習部17は、評価済コンテンツの特徴量および正解ラベルに基づいて、所定の手法を用いて各コンテンツのラベルを予測するための学習を行う。ラベル予測学習部17は、ラベル予測の学習結果をラベル予測・確信度計算部18に供給する。
ラベル予測・確信度計算部18は、正解ラベルが付与されていないコンテンツ(以下、未評価コンテンツと称する)の特徴量をコンテンツ情報保持部11から取得する。そして、ラベル予測・確信度計算部18は、ラベル予測学習部17によるラベル予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツのラベルを予測する。また、ラベル予測・確信度計算部18は、予測したラベル(以下、予測ラベルと称する)の確からしさを示すラベル確信度を計算する。ラベル予測・確信度計算部18は、予測ラベルを、対応するコンテンツとの対応関係が分かるようにラベル情報保持部15に保持させる。また、ラベル予測・確信度計算部18は、各未評価コンテンツに対する予測ラベルおよびラベル確信度を終了判定部20に供給する。さらに、ラベル予測・確信度計算部18は、各未評価コンテンツの予測ラベルに対するラベル確信度をサンプル選択部21に供給する。
なお、以下、あるコンテンツの予測ラベルに対するラベル確信度を、単に、当該コンテンツのラベル確信度とも称する。
ユーザ確信度予測部19は、各評価済コンテンツの特徴量をコンテンツ情報保持部11から取得し、各評価済コンテンツのユーザ確信度をラベル情報保持部15から取得する。そして、ユーザ確信度予測部19は、各評価済コンテンツのユーザ確信度および特徴量に基づいて、所定の手法を用いて、ユーザ確信度を予測するための学習を行う。また、ユーザ確信度予測部119は、各未評価コンテンツの特徴量をコンテンツ情報保持部11から取得する。そして、ユーザ確信度予測部119は、ユーザ確信度予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツの予測ラベルに対するユーザ確信度を予測する。ユーザ確信度予測部119は、各未評価コンテンツの予測ラベルに対するユーザ確信度(以下、予測ユーザ確信度と称する)をサンプル選択部21に供給する。なお、予測ユーザ確信度は、各未評価コンテンツに対して、ユーザがどの程度正確にラベルを付与できるかを示す予測値である。
なお、以下、あるコンテンツの予測ラベルに対する予測ユーザ確信度を、単に、当該コンテンツの予測ユーザ確信度と称する。
終了判定部20は、ラベル予測処理の終了条件を満たしているか否かを判定し、判定結果をサンプル選択部21に通知する。
サンプル選択部21は、ラベル確信度および予測ユーザ確信度に基づいて、未評価コンテンツの中からサンプルを選択する。サンプル選択部21は、選択したサンプルに関する情報を、コンテンツ情報保持部11から取得し、提示部13に供給する。
[ラベル予測処理]
次に、図2のフローチャートを参照して、情報処理装置1により実行されるラベル予測処理について説明する。
なお、以下、図3に示されるように、コンテンツC1乃至C6を含むコンテンツに関する情報がコンテンツ情報保持部11に保持されているものとする。また、各コンテンツの情報には、特徴量1乃至3の3種類の特徴量が含まれるものとする。なお、以下、説明を簡単にするために、コンテンツC1乃至C6以外のコンテンツに関する説明は省略する。
ステップS1において、初期サンプル選択部12は、コンテンツ情報保持部11に情報が保持されているコンテンツの中から、初期サンプルを選択する。このとき、初期サンプル選択部12は、初期サンプルをランダムに選択するようにしてもよいし、初期サンプルの特徴量がばらつくように選択するようにしてもよい。なお、選択する初期サンプルの数は任意の値に設定することが可能である。初期サンプル選択部12は、選択した初期サンプルに関する情報を、コンテンツ情報保持部11から取得し、提示部13に供給する。
なお、以下、図3に示されるコンテンツの中からコンテンツC1およびコンテンツC2が初期サンプルに選択されたものとする。
ステップS2において、提示部13は、ユーザに対して、サンプルを提示する。なお、サンプルを提示する方法は、特定の方法に限定されるものではなく、任意の方法を採用することができる。例えば、提示部13は、コンテンツが画像データの場合、画像またはサムネイル画像をディスプレイに表示することにより、ユーザにサンプルを提示する。また、提示部13は、コンテンツが楽曲データの場合、スピーカなどから実際に音声を出力したり、楽曲のタイトル、演奏者名などをディスプレイに表示したりすることにより、ユーザにサンプルを提示する。提示部13は、提示したサンプルに関する情報を正解ラベル取得部14に供給する。
ステップS3において、正解ラベル取得部14は、正解ラベルを取得する。例えば、ユーザは、提示部13により提示されたサンプルに対して付与する正解ラベルを、図示せぬ入力手段を介して入力する。正解ラベル取得部14は、ユーザにより入力された正解ラベルを取得する。
また、正解ラベル取得部14は、正解ラベルを付与するときのユーザの行動に関するユーザ行動情報を取得する。例えば、正解ラベル取得部14は、各サンプルに付与する正解ラベルを確定するまでの所要時間、および、ラベルの修正回数などをユーザ行動情報として取得する。正解ラベル取得部14は、取得した正解ラベルおよびユーザ行動情報を、対応するコンテンツ(サンプル)との対応関係が分かるようにラベル情報保持部15に保持させる。なお、ラベルを付与するユーザの人数は、1人でもよいし、複数でもよい。
なお、以下、図4に示されるように、1人のユーザにより、コンテンツC1およびコンテンツC2に対して、それぞれ値が1、0の正解ラベルが付与されたものとする。
ステップS4において、ユーザ確信度設定部16は、ユーザ確信度を設定する。具体的には、ユーザ確信度設定部16は、ステップS3の処理において、新たに正解ラベルが付与されたサンプルに対する正解ラベルおよびユーザ行動情報をラベル情報保持部15から取得する。そして、ユーザ確信度設定部16は、例えば、ユーザが1人の場合、各サンプルの正解ラベルに対して、正解ラベルを確定するまでの所要時間が短いほど、ユーザ確信度を高く設定し、所要時間が長いほど、ユーザ確信度を低く設定する。なお、ユーザが複数の場合、例えば、所要時間の平均または合計に基づいて、ユーザ確信度を設定するようにすればよい。
あるいは、ユーザ確信度設定部16は、例えば、ユーザが1人の場合、各サンプルの正解ラベルに対して、正解ラベルを確定するまでの修正回数が少ないほど、ユーザ確信度を高く設定し、修正回数が多いほど、ユーザ確信度を低く設定する。なお、ユーザが複数の場合、例えば、修正回数の平均または合計に基づいて、ユーザ確信度を設定するようにすればよい。
あるいは、ユーザ確信度設定部16は、例えば、ユーザが複数の場合、各サンプルの正解ラベルに対して、ユーザ間の正解ラベルのバラツキ(例えば、分散)が小さいほど、ユーザ確信度を高く設定し、バラツキが大きいほど、ユーザ確信度を低く設定する。
そして、ユーザ確信度設定部16は、設定したユーザ確信度を、対応するコンテンツ(サンプル)との対応関係が分かるようにラベル情報保持部15に保持させる。
なお、上述したように所要時間、修正回数、または、正解ラベルのバラツキを指標にしてユーザ確信度を設定する場合、例えば、その指標が小さくなるほどユーザ確信度が大きくなるような関数(例えば、指標の逆数)を用いて、ユーザ確信度を計算するようにすればよい。
また、以上に挙げた例は、ユーザ確信度の計算方法の一例であり、上記以外の指標を用いて計算するようにしてもよい。
さらに、複数の指標を組み合わせて(例えば、所要時間と修正回数)、ユーザ確信度を設定するようにしてもよい。
また、ユーザ確信度設定部16がユーザ確信度の計算を行わずに、ユーザが直接ユーザ確信度を付与するようにしてもよい。例えば、ユーザは、サンプルに付与したラベルに対するユーザ確信度を、1(確信度低)から5(確信度高)までの5段階で評価し、図示せぬ入力手段を介して、決定したユーザ確信度を入力する。そして、ユーザ確信度設定部16は、ユーザにより入力されたユーザ確信度を取得し、対応するコンテンツ(サンプル)との対応関係が分かるようにラベル情報保持部15に保持させる。
このようにして、各コンテンツ(サンプル)の正解ラベルに対して、その正解ラベルがどの程度確かなものであるか、換言すれば、その正解ラベルがどの程度信頼できるものであるかを示すユーザ確信度が設定される。
なお、以下、図4に示されるように、コンテンツC1およびコンテンツC2の正解ラベルに対するユーザ確信度が、それぞれ0.2、0.8に設定されたものとする。
ステップS5において、ラベル予測学習部17は、ラベル予測学習を行う。具体的には、ラベル予測学習部17は、各評価済コンテンツの特徴量をコンテンツ情報保持部11から取得し、各評価済コンテンツの正解ラベルをラベル情報保持部15から取得する。なお、このとき対象となる評価済コンテンツには、今回のステップS3の処理で新たに正解ラベルが付与されたサンプルも含まれる。そして、ラベル予測学習部17は、各評価済コンテンツの特徴量および正解ラベルに基づいて、所定の手法を用いて、各コンテンツのラベルを予測するための学習を行う。ラベル予測学習部17は、ラベル予測の学習結果をラベル予測・確信度計算部18に供給する。
なお、ラベル予測学習に用いる手法は、特定の手法に限定されるものではなく、例えば、一般的な機械学習の手法を採用することが可能である。例えば、コンテンツが属するジャンルなど、学習対象となるラベルが離散的または名義属性的な性質を有する場合、SVM(Support Vector Machine)やロジスティック回帰(Logistic Regression)などの分類学習の手法を採用することができる。また、コンテンツの面白さの度合いを1から5までの5段階で示すラベルなど、学習対象となるラベルが連続的または順序尺度的な性質を有する場合、例えば、線形回帰やRVR(Relevance Vector Regression)などの手法を採用することができる。
なお、SVMの詳細については、例えば、「Thorsten Joachims, “Text Categorization with Support Vector Machines: Learning with Many Relevant Features”, Machine Learning: ECML-98, Springer Berlin / Heidelberg, 1998, Volume 1398/1998, p.137-142」(以下、非特許文献2と称する)などに記載されている。また、RVRの詳細については、例えば、「Michael E. Tipping, “The Relevance Vector Machine”, NIPS, 2000」(以下、非特許文献3と称する)などに記載されている。
ステップS6において、ラベル予測・確信度計算部18は、コンテンツのラベルを予測し、予測したラベルの確信度を計算する。具体的には、ラベル予測・確信度計算部18は、正解ラベルが付与されていない未評価コンテンツの特徴量をコンテンツ情報保持部11から取得する。ラベル予測・確信度計算部18は、ラベル予測学習部17によるラベル予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツのラベルを予測する。
また、ラベル予測・確信度計算部18は、予測した各未評価コンテンツのラベルに対するラベル確信度を計算する。例えば、ラベル予測に用いる手法によっては、予測したラベルに対する確信度に相当する値が計算される場合がある。この場合、ラベル予測・確信度計算部18は、その値をラベル確信度に設定する。例えば、線形回帰やRVRの場合、予測したラベルに対して計算される事後確率をラベル確信度に設定することが可能である。また、SVMの場合、各ラベルの分離面からの距離をラベル確信度に設定することが可能である。
このようにして、各コンテンツのラベルが予測され、予測したラベルがどの程度確かなものであるか、換言すれば、予測したラベルがどの程度信頼できるものであるかを示すラベル確信度が計算される。
ラベル予測・確信度計算部18は、各未評価コンテンツの予測ラベルを、対応するコンテンツとの対応関係が分かるようにラベル情報保持部15に保持させる。また、ラベル予測・確信度計算部18は、各未評価コンテンツの予測ラベルおよびラベル確信度を終了判定部20に供給する。さらに、ラベル予測・確信度計算部18は、各未評価コンテンツのラベル確信度をサンプル選択部21に供給する。
なお、以下、図5に示されるように、未評価コンテンツであるコンテンツC3乃至C6のラベルが、それぞれ1、1、0、0と予測され、ラベル確信度が、それぞれ0.2、0.8、0.9、0.15と算出されたものとする。
ステップS7において、ユーザ確信度予測部19は、ユーザ確信度予測学習を行う。具体的には、ユーザ確信度予測部19は、各評価済コンテンツの特徴量をコンテンツ情報保持部11から取得し、各評価済コンテンツのユーザ確信度をラベル情報保持部15から取得する。なお、このとき対象となる評価済コンテンツには、今回のステップS3の処理において新たに正解ラベルが付与されたサンプルも含まれる。そして、ユーザ確信度予測部19は、各評価済コンテンツのユーザ確信度および特徴量に基づいて、ラベル予測学習で用いられるのと同様の一般的な機械学習の手法を用いて、ユーザ確信度を予測するための学習を行う。
ステップS8において、ユーザ確信度予測部19は、ユーザ確信度を予測する。具体的には、ユーザ確信度予測部19は、各未評価コンテンツの特徴量をコンテンツ情報保持部11から取得する。ユーザ確信度予測部19は、ユーザ確信度予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツの予測ラベルに対するユーザ確信度を予測する。ユーザ確信度予測部19は、各未評価コンテンツの予測ユーザ確信度をサンプル選択部21に供給する。
なお、以下、図5に示されるように、コンテンツC3乃至C6に対する予測ユーザ確信度が、それぞれ0.1、0.5、0.75、0.8と予測されたものとする。
なお、ステップS5およびステップS6の処理と、ステップS7およびステップS8の処理とは、どちらを先に実行するようにしてもよいし、あるいは、並列に実行するようにしてもよい。
ステップS9において、終了判定部20は、終了条件を満たしているか否かを判定する。例えば、終了判定部20は、全てのコンテンツに対してユーザにより正解ラベルが付与されている場合、終了条件を満たしていると判定する。
一方、正解ラベルが付与されていないコンテンツが存在する場合、例えば、終了判定部20は、全ての未評価コンテンツのラベル確信度が所定の閾値以上であるとき、終了条件を満たしていると判定し、ラベル確信度が所定の閾値未満の未評価コンテンツが存在するとき、終了条件を満たしていないと判定する。あるいは、例えば、終了判定部20は、各未評価コンテンツの予測ラベルをもとにした交差検定(Cross Validation)を行う。そして、終了判定部20は、交差検定により得られた精度が所定の閾値以上であるとき、終了条件を満たしていると判定し、得られた精度が所定の閾値未満であるとき、終了条件を満たしていないと判定する。
そして、終了判定部20は、まだ終了条件を満たしていないと判定した場合、判定結果をサンプル選択部21に通知し、その後、処理はステップS10に進む。
ステップS10において、サンプル選択部21は、サンプルを選択する。例えば、サンプル選択のための指標としては、予測精度を最も改善するものやパラメータの変化量が最も多いものなどが考えられるが、ここでは、ラベル確信度および予測ユーザ確信度を用いる場合を説明する。
ラベル予測学習において、ラベル確信度が低いコンテンツに対する正解ラベルの方が、ラベル確信度が高いコンテンツに対する正解ラベルより価値が高い。なぜなら、例えば、ラベル予測学習に分類学習を用いる場合、ラベル確信度が低いコンテンツほど分離面に近く、分離面に近いコンテンツの正解ラベルが得られれば、より正確に分離面を作成することができるからである。従って、ラベル予測学習を行う上では、よりラベル確信度が低いコンテンツがサンプルに選択されることが望ましい。
一方、ユーザにとっては、より予測ユーザ確信度が高いコンテンツがサンプルに選択されることが望ましい。なぜなら、予測ユーザ確信度が高いコンテンツほど、ユーザが、より短時間で、より正確にラベルを付与できる確率が高く、ユーザの精神的および時間的負担を軽減できるからである。
そこで、サンプル選択部21は、予測ユーザ確信度に対しては単調増加し、ラベル確信度に対しては単調減少するような関数を用いて、各未評価コンテンツに対して、サンプル選択の判定基準となるサンプル選択用スコアを計算する。そして、例えば、サンプル選択部21は、サンプル選択用スコアが高い方から所定の個数の未評価コンテンツをサンプルに選択する。あるいは、例えば、サンプル選択部21は、サンプル選択用スコアが所定の閾値以上の未評価コンテンツをサンプルに選択する。これにより、予測ラベルに対するラベル確信度がより低く、予測ユーザ確信度がより高いコンテンツが優先してサンプルに選択される。
なお、ラベル確信度が高いコンテンツに対する正解ラベルは、ラベル予測学習においてそれほど有用ではないため、ラベル確信度が所定の閾値以上の未評価コンテンツを、サンプルの選択候補から除外するようにしてもよい。
そして、サンプル選択部21は、選択したサンプルに関する情報を、コンテンツ情報保持部11から取得し、提示部13に供給する。
図5は、サンプル選択用スコア=予測ユーザ確信度÷ラベル確信度とした場合の、サンプル選択用スコアの例を示している。具体的には、コンテンツC3乃至C6のサンプル選択用スコアは、それぞれ0.5、0.625、0.833、5.333である。例えば、コンテンツC3乃至C6の中からサンプルを1つ選択する場合、コンテンツC4およびコンテンツC5は、ラベル確信度がそれぞれ0.8、0.9と高いので、サンプルの候補から除外される。そして、残りのコンテンツC3とコンテンツC6とを比べると、コンテンツC6の方がサンプル選択用スコアが高いので、コンテンツC6がサンプルに選択される。
その後、処理はステップS2に戻り、ステップS9において、終了条件を満たしていると判定されるまで、ステップS2乃至S10の処理が繰返し実行される。これにより、コンテンツのラベル予測に対する能動学習が行われ、各コンテンツのラベルが予測される。
一方、ステップS9において、終了条件を満たしていると判定された場合、ラベル予測処理は終了する。
このようにして、コンテンツのラベルを予測するための能動学習をより高速に収束させることができるとともに、学習精度が向上する。その結果、各コンテンツに対するラベルの予測精度が向上する。また、正解ラベルを付与する際のユーザの精神的および時間的負担を軽減することができる。
<2.第2の実施の形態>
次に、図6および図7を参照して、本発明の第2の実施の形態について説明する。なお、第2の実施の形態は、例えば、ユーザに各種のコンテンツを提供し、ユーザが、提供されたコンテンツを利用(例えば、視聴)し、それに応じてコンテンツにラベルを付与するようなコンテンツ配信サービスに本発明を適用することを想定したものである。
なお、以下、ユーザ毎の嗜好を表す評価情報をラベルとしてコンテンツに付与し、付与された評価情報に基づいて他のコンテンツの評価を予測し、予測した評価に基づいて、ユーザにコンテンツを推薦する例について説明する。なお、この評価情報は、例えば、好きもしくは嫌いの二者択一、または、好き嫌いの程度に基づく5段階評価などにより与えられる。
[情報処理装置の構成例]
図6は、本発明を適用した情報処理装置101の構成例を示すブロック図である。情報処理装置101は、コンテンツ情報保持部111、初期サンプル選択部112、提示部113、評価情報取得部114、評価情報保持部115、ユーザ確信度設定部116、評価予測学習部117、評価予測・確信度計算部118、ユーザ確信度予測部119、終了判定部120、サンプル選択部121、および、推薦アイテム選択部122を含むように構成される。なお、図1と対応する部分には下2桁が同じ符合を付してあり、処理が同じ部分については、その説明は、繰返しになるので省略する。
初期サンプル選択部112は、コンテンツ情報保持部111に情報が保持されているコンテンツの中から、初期サンプルを選択する。また、初期サンプル選択部112は、選択した初期サンプルに関する情報を、コンテンツ情報保持部111から取得し、提示部113に供給する。
提示部113は、初期サンプル選択部112により選択された初期サンプルに関する情報、サンプル選択部121により選択されたサンプルに関する情報、および、推薦アイテム選択部122により選択された推薦アイテムに関する情報をユーザに提示する。また、提示部113は、ユーザに提示したコンテンツ(サンプルおよび推薦アイテム)に関する情報を評価情報取得部114に供給する。
評価情報取得部114は、図示せぬ入力手段を介して、提示部113により提示された推薦アイテムおよびサンプルに対してユーザが付与する評価情報を取得する。また、評価情報取得部114は、各推薦アイテムおよび各サンプルに評価情報を付与するときのユーザの行動に関するユーザ行動情報を取得する。評価情報取得部114は、取得した評価情報およびユーザ行動情報を、対応するコンテンツ(推薦アイテムおよびサンプル)との対応関係が分かるように評価情報保持部115に保持させる。
ユーザ確信度設定部116は、評価情報が付与された推薦アイテムおよびサンプルの評価情報およびユーザ行動情報を評価情報保持部115から取得する。そして、ユーザ確信度設定部116は、各推薦アイテムおよび各サンプルの評価情報に対するユーザ確信度を設定する。ユーザ確信度設定部116は、設定したユーザ確信度を、対応するコンテンツ(推薦アイテムおよびサンプル)との対応関係が分かるように評価情報保持部115に保持させる。
評価予測学習部117は、既に評価情報が付与されている評価済コンテンツの特徴量をコンテンツ情報保持部111から取得し、評価済コンテンツの評価情報を評価情報保持部115から取得する。そして、評価予測学習部117は、評価済コンテンツの特徴量および評価情報に基づいて、所定の手法を用いて各コンテンツの評価を予測するための学習を行う。評価予測学習部117は、評価予測の学習結果を評価予測・確信度計算部118に供給する。
評価予測・確信度計算部118は、評価情報が付与されていない未評価コンテンツの特徴量をコンテンツ情報保持部111から取得する。そして、評価予測・確信度計算部118は、評価予測学習部117による評価予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツの評価を予測する。また、評価予測・確信度計算部118は、予測した各未評価コンテンツの評価(以下、予測評価値と称する)の確からしさを示す評価確信度を計算する。評価予測・確信度計算部118は、各未評価コンテンツの予測評価値を、対応するコンテンツとの対応関係が分かるように評価情報保持部115に保持させる。また、評価予測・確信度計算部118は、各未評価コンテンツの予測評価値および評価確信度を終了判定部120に供給する。さらに、評価予測・確信度計算部118は、各未評価コンテンツの評価確信度をサンプル選択部121に供給する。また、評価予測・確信度計算部118は、各未評価コンテンツの予測評価値を推薦アイテム選択部122に供給する。
ユーザ確信度予測部119は、各評価済コンテンツの特徴量をコンテンツ情報保持部111から取得し、各評価済コンテンツのユーザ確信度を評価情報保持部115から取得する。そして、ユーザ確信度予測部119は、各評価済コンテンツのユーザ確信度および特徴量に基づいて、所定の手法を用いて、ユーザ確信度を予測するための学習を行う。また、ユーザ確信度予測部119は、各未評価コンテンツの特徴量をコンテンツ情報保持部111から取得する。そして、ユーザ確信度予測部119は、ユーザ確信度予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツのユーザ確信度を予測する。ユーザ確信度予測部119は、予測した各未評価コンテンツのユーザ確信度(予測ユーザ確信度)をサンプル選択部121に供給する。
終了判定部120は、評価予測処理の終了条件を満たしているか否かを判定し、判定結果をサンプル選択部121に通知する。
サンプル選択部121は、評価確信度および予測ユーザ確信度に基づいて、未評価コンテンツの中からサンプルを選択する。サンプル選択部121は、選択したサンプルに関する情報を、コンテンツ情報保持部111から取得し、提示部113に供給する。
推薦アイテム選択部122は、所定の推薦アルゴリズムを用いて、ユーザに推薦するコンテンツである推薦アイテムを選択する。推薦アイテム選択部122は、選択した推薦アイテムに関する情報を、コンテンツ情報保持部111から取得し、提示部113に供給する。
[評価予測処理]
次に、図7のフローチャートを参照して、情報処理装置101により実行される評価予測処理について説明する。
ステップS101において、初期サンプル選択部112は、図2のステップS1と同様の処理により、初期サンプルを選択する。初期サンプル選択部112は、選択した初期サンプルに関する情報を、コンテンツ情報保持部111から取得し、提示部113に供給する。
ステップS102において、推薦アイテム選択部122は、所定の推薦アルゴリズムを用いて、推薦アイテムを選択する。なお、推薦アイテム選択部122が用いる推薦アルゴリズムは、特定のアルゴリズムに限定されるものではなく、任意のものを採用することができる。例えば、推薦アイテム選択部122は、対象となるユーザのコンテンツの評価履歴が存在しない場合(例えば、本処理の最初のループ)、他のユーザの平均評価値が高いコンテンツを推薦アイテムに選択する。また、例えば、推薦アイテム選択部122は、対象となるユーザのコンテンツの評価履歴が存在する場合、後述する評価予測などにより得られる予測評価値が高いコンテンツを推薦アイテムに選択する。
ステップS103において、提示部113は、ユーザに対して、推薦アイテムおよびサンプルを提示する。なお、推薦アイテムおよびサンプルを提示する方法は、図2のステップS2の処理と同様に、特定の方法に限定されるものではなく、任意の方法を採用することができる。
ただし、評価予測学習の効率化を目的とするサンプルと、予測評価値が高い推薦アイテムとが必ずしも重なるとは限らない。そして、例えば、推薦アイテムを一覧にした推薦リストとは別にサンプルを提示すると、ユーザがサンプルに対して評価情報を付与する可能性が低くなることが予想される。従って、例えば、推薦リストの最下位に1つだけサンプルを混入するなどして、サンプルに対して自然に評価情報が付与されるように、推薦アイテムおよびサンプルを提示するようにすることが望ましい。
そして、提示部13は、提示した推薦アイテムおよびサンプルに関する情報を評価情報取得部114に供給する。
ステップS104において、評価情報取得部114は、評価情報を取得する。例えば、ユーザは、提示部113により提示された推薦アイテムおよびサンプルに対して付与する評価情報を、図示せぬ入力手段を介して入力する。評価情報取得部114は、ユーザにより入力された評価情報を取得する。
また、評価情報取得部114は、各推薦アイテムおよび各サンプルに評価情報を付与するときのユーザの行動に関するユーザ行動情報を取得する。例えば、評価情報取得部114は、各推薦アイテムおよび各サンプルに付与する評価を確定するまでの所要時間、および、評価の修正回数などをユーザ行動情報として取得する。評価情報取得部114は、取得した評価情報およびユーザ行動情報を、対応するコンテンツ(推薦アイテムおよびサンプル)との対応関係が分かるように評価情報保持部115に保持させる。
なお、このとき、第1の実施の形態と異なり、提示した推薦アイテムおよびサンプルに対して必ずしも評価情報が付与されるとは限らない。
ステップS105において、ユーザ確信度設定部116は、図2のステップS4と同様の処理により、推薦アイテムおよびサンプルに付与された評価情報に対するユーザ確信度を設定する。そして、ユーザ確信度設定部16は、設定したユーザ確信度を、対応するコンテンツ(推薦アイテムおよびサンプル)との対応関係が分かるように評価情報保持部115に保持させる。
ステップS106において、評価予測学習部117は、評価予測学習を行う。具体的には、評価予測学習部117は、各評価済コンテンツの特徴量をコンテンツ情報保持部111から取得し、各評価済コンテンツの評価情報を評価情報保持部115から取得する。なお、このとき対象となる評価済コンテンツには、今回のステップS104の処理において新たに評価情報が付与された推薦アイテムおよびサンプルも含まれる。そして、評価予測学習部117は、各評価済コンテンツの特徴量および評価情報に基づいて、所定の手法を用いて、各コンテンツの評価を予測するための学習を行う。評価予測学習部117は、評価予測の学習結果を評価予測・確信度計算部118に供給する。
なお、評価予測の学習に用いる手法は、特定の手法に限定されるものではなく、例えば、第1の実施の形態のラベル予測学習と同様に、特徴量とラベルの対応関係を学習する一般的な機械学習の手法、あるいは、協調フィルタリングなどの手法を採用することができる。
なお、協調フィルタリングの詳細については、例えば、「Robert M. Bell他, “Scalable Collaborative Filtering with Jointly Derived Neighborhood Interpolation Weights”, Proceedings of the 2007 Seventh IEEE International Conference on Data Mining, ICDM, 2007, p.43-52」(以下、非特許文献4と称する)、「P. Resnick他, “GroupLens: An Open Architecture for Collaborative Filtering of Netnews”, Proceedings of the 1994 ACM conference on Computer supported cooperative work table of contents, Computer Supported Cooperative Work, 1994, p.175-186」(以下、非特許文献5と称する)などに記載されている。
ステップS107において、評価予測・確信度計算部118は、コンテンツの評価を予測し、予測した評価の確信度を計算する。具体的には、評価予測・確信度計算部118は、未評価コンテンツの特徴量をコンテンツ情報保持部111から取得する。評価予測・確信度計算部118は、評価予測学習部117による評価予測の学習結果、および、各未評価コンテンツの特徴量に基づいて、各未評価コンテンツに対する評価を予測する。
また、評価予測・確信度計算部118は、予測した各未評価コンテンツへの評価に対する評価確信度を計算する。例えば、評価予測に用いる手法が、第1の実施形態のラベル予測に用いる手法と同様である場合、図2のステップS6の処理と同様にして、評価確信度を計算することができる。
また、評価予測に協調フィルタリングが用いられる場合、例えば、上述した非特許文献4では、ユーザuのアイテムiに対する予測評価値rpuiは、次式(1)を用いて、ユーザ間の類似度suvに応じた加重平均を用いて算出される。
Figure 2011203991
なお、rauはユーザuの平均評価値
この場合、評価確信度に相当する値は明らかには求まらない。しかし、式(1)の右辺の分子のsuv(rvi-rav)または(rvi-rav)がばらついている(分散が大きい)と、評価予測が難しいと考えられるため、例えば、それらの分散の逆数などを評価確信度に設定することが可能である。
評価予測・確信度計算部118は、各未評価コンテンツの予測評価値を、対応するコンテンツとの対応関係が分かるように評価情報保持部115に保持させる。また、評価予測・確信度計算部118は、各未評価コンテンツの予測評価値および評価確信度を終了判定部120に供給する。さらに、評価予測・確信度計算部118は、各未評価コンテンツの評価確信度をサンプル選択部121に供給する。また、評価予測・確信度計算部118は、各未評価コンテンツの予測評価値を推薦アイテム選択部122に供給する。
ステップS108において、ユーザ確信度予測部119は、ユーザ確信度予測学習を行う。具体的には、ユーザ確信度予測部119は、各評価済コンテンツの特徴量をコンテンツ情報保持部111から取得し、各評価済コンテンツのユーザ確信度を評価情報保持部115から取得する。なお、このとき対象となる評価済コンテンツには、今回のステップS104の処理において新たに評価情報が付与された推薦アイテムおよびサンプルも含まれる。そして、ユーザ確信度予測部119は、各評価済コンテンツのユーザ確信度および特徴量に基づいて、評価予測学習で用いられるのと同様の手法を用いて、ユーザ確信度を予測するための学習を行う。
ステップS109において、ユーザ確信度予測部119は、図2のステップS8の処理と同様にして、各未評価コンテンツの予測評価値に対するユーザ確信度を予測する。ユーザ確信度予測部119は、各未評価コンテンツの予測ユーザ確信度を、終了判定部120およびサンプル選択部121に供給する。
ステップS110において、終了判定部120は、図2のステップS9の処理と同様にして、終了条件を満たしているか否かを判定する。終了条件を満たしていないと判定された場合、処理はステップS111に進む。
ステップS111において、サンプル選択部121は、未評価コンテンツの中から、サンプルを選択する。ここで、例えば、図2のステップS10の処理と同様に、より評価確信度が低く、より予測ユーザ確信度が高いコンテンツを優先してサンプルに選択するようにしてもよい。
また、例えば、コンテンツ推薦を行う上では、よりユーザの嗜好に合うコンテンツ、すなわち予測評価値が高いコンテンツをサンプルとして選択し、提示することが望ましい。従って、上記の条件に加えて、より予測評価値が高いコンテンツを優先して選択するようにしてもよい。例えば、予測ユーザ確信度×予測評価値÷評価確信度により算出されるスコアの高い順にサンプルを選択するようにしてもよい。
さらに、例えば、ユーザがコンテンツを利用した履歴(例えば、視聴履歴など)が記録されている場合、上記の条件に加えて、ユーザが過去に利用したコンテンツを優先してサンプルに選択するようにしてもよい。例えば、ユーザが利用したことがない未知のサンプルに対しては、サンプルを実際に利用したり、サンプルの付加情報などを参照したりしないと、評価情報を付与できないため、ユーザにとって手間や時間がかかる。そのため、サンプルに評価情報が付与される可能性が低くなり、得られる評価情報が減少することが予想される。一方、ユーザが利用したことがある既知のサンプルに対しては、改めてサンプルを利用したり、サンプルの付加情報などを参照したりしなくても、ユーザは速やかに評価情報を付与することができる。そのため、サンプルに評価情報が付与される可能性が高くなり、得られる評価情報が増加することが予想される。従って、ユーザがすでに利用したコンテンツを優先してサンプルに選択することにより、効率よく評価情報を収集できるともに、評価予測学習の精度が向上する。
その後、処理はステップS102に戻り、ステップS110において、終了条件を満たしていると判定されるまで、ステップS102乃至S111の処理が繰返し実行される。これにより、コンテンツの評価予測に対する能動学習が行われ、各コンテンツの評価が予測され、その結果に基づいて、ユーザにコンテンツが推薦される。
一方、ステップS110において、終了条件を満たしていると判定された場合、評価予測処理は終了する。なお、評価予測処理は終了するが、コンテンツの推薦処理は継続され、引き続き、推薦アイテムが選択され、ユーザに提示される。
このようにして、コンテンツの評価を予測するための能動学習をより高速に収束させることができるとともに、学習精度が向上する。その結果、各コンテンツに対する評価の予測精度が向上し、よりユーザの嗜好に合ったコンテンツを推薦することができ、サービスに対するユーザの満足度が向上する。
なお、推薦アイテム選択部122において推薦アイテムを選択するために用いる予測評価値を計算するアルゴリムと、評価予測・確信度計算部118において予測評価値を計算するアルゴリズムとは異なっていてもよい。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理装置, 12 初期サンプル選択部, 13 提示部, 14 正解ラベル取得部, 16 ユーザ確信度設定部, 17 ラベル予測学習部, 18 ラベル予測・確信度計算部, 19 ユーザ確信度予測部, 21 サンプル選択部, 101 情報処理装置, 112 初期サンプル選択部, 113 提示部, 114 評価情報取得部, 116 ユーザ確信度設定部, 117 評価予測学習部, 118 評価予測・確信度計算部, 119 ユーザ確信度予測部, 121 サンプル選択部, 122 推薦アイテム選択部

Claims (8)

  1. 複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得するラベル取得手段と、
    前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定するユーザ確信度設定手段と、
    前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行うラベル予測学習手段と、
    前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算するラベル予測手段と、
    前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測するユーザ確信度予測手段と、
    前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択する選択手段と
    を含む情報処理装置。
  2. 前記ユーザ確信度設定手段は、前記ユーザがコンテンツに付与する前記ラベルを確定するまでの所要時間または修正回数のうち少なくとも一方に基づいて、前記ユーザ確信度を設定する
    請求項1に記載の情報処理装置。
  3. 前記ユーザ確信度設定手段は、複数の前記ユーザが付与した前記ラベルのバラツキに基づいて、前記ユーザ確信度を設定する
    請求項1に記載の情報処理装置。
  4. 前記選択手段は、予測された前記ラベルに対する前記ラベル確信度がより低く、前記ユーザ確信度がより高いコンテンツを優先して次に前記ラベルを付与するコンテンツに選択する
    請求項1に記載の情報処理装置。
  5. 前記選択手段は、前記ラベルがコンテンツに対する評価である場合、さらに、予測された前記ラベルとしての予測評価値がより高いコンテンツを優先して次に前記ラベルを付与するコンテンツに選択する
    請求項4に記載の情報処理装置。
  6. 前記選択手段は、さらに、前記ユーザが過去に利用したコンテンツを優先して次に前記ラベルを付与するコンテンツに選択する
    請求項5に記載の情報処理装置。
  7. 情報処理装置が、
    複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得し、
    前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定し、
    前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行い、
    前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算し、
    前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、
    前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測し、
    前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択する
    ステップを含む情報処理方法。
  8. 複数のコンテンツの中から選択されたコンテンツに対してユーザが付与したラベルを取得し、
    前記ユーザが付与した前記ラベルの確からしさを示すユーザ確信度を設定し、
    前記ラベルが付与されたコンテンツの特徴量および前記ラベルに基づいて、前記ラベルを予測するためのラベル予測学習を行い、
    前記ラベルが付与されていないコンテンツに対して、前記ラベル予測学習の結果および当該コンテンツの前記特徴量に基づいて前記ラベルを予測し、予測した前記ラベルの確からしさを示すラベル確信度を計算し、
    前記ラベルが付与されたコンテンツの前記特徴量および前記ユーザ確信度に基づいて、前記ユーザ確信度を予測するためのユーザ確信度予測学習を行い、
    前記ラベルが付与されていないコンテンツに対して、前記ユーザ確信度予測学習の結果および当該コンテンツの前記特徴量に基づいて、予測された前記ラベルに対する前記ユーザ確信度を予測し、
    前記ラベルが付与されていないコンテンツの中から、次に前記ラベルを付与するコンテンツを選択する
    ステップを含む処理をコンピュータに実行させるためのプログラム。
JP2010070493A 2010-03-25 2010-03-25 情報処理装置、情報処理方法、およびプログラム Withdrawn JP2011203991A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010070493A JP2011203991A (ja) 2010-03-25 2010-03-25 情報処理装置、情報処理方法、およびプログラム
US12/932,855 US8510235B2 (en) 2010-03-25 2011-03-08 Information processing apparatus, information processing method, and program
CN2011100659316A CN102200959A (zh) 2010-03-25 2011-03-18 信息处理设备、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010070493A JP2011203991A (ja) 2010-03-25 2010-03-25 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2011203991A true JP2011203991A (ja) 2011-10-13

Family

ID=44657496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010070493A Withdrawn JP2011203991A (ja) 2010-03-25 2010-03-25 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US8510235B2 (ja)
JP (1) JP2011203991A (ja)
CN (1) CN102200959A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084336A1 (ja) * 2014-11-27 2016-06-02 日本電気株式会社 追学習装置、追学習方法、および、記憶媒体
WO2018116921A1 (ja) * 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体
JP2018106662A (ja) * 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2019092931A1 (ja) * 2017-11-07 2019-05-16 日本電気株式会社 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
JP2019101559A (ja) * 2017-11-29 2019-06-24 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
WO2020166321A1 (ja) * 2019-02-12 2020-08-20 日本電信電話株式会社 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
JP2022109664A (ja) * 2021-01-15 2022-07-28 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
US11631025B2 (en) 2015-01-07 2023-04-18 Nec Corporation Learning apparatus, learning method, and recording medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120310770A1 (en) * 2011-06-01 2012-12-06 Universidade Da Coruna (Otri) Recommendation method and system
US10417575B2 (en) * 2012-12-14 2019-09-17 Microsoft Technology Licensing, Llc Resource allocation for machine learning
CN107436922B (zh) * 2017-07-05 2021-06-08 北京百度网讯科技有限公司 文本标签生成方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1535195A4 (en) * 2002-03-18 2008-04-02 Corporation Bigtribe COMMUNITY LIST
WO2004066542A2 (en) * 2003-01-23 2004-08-05 Lortscher Frank Duane Jr System and method for generating transaction based recommendations
US20040198584A1 (en) * 2003-04-02 2004-10-07 Saint-Gobain Ceramics & Plastic, Inc. Nanoporous ultrafine alpha-alumina powders and freeze drying process of preparing same
WO2005048184A1 (ja) 2003-11-17 2005-05-26 Nec Corporation 能動学習方法およびシステム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084336A1 (ja) * 2014-11-27 2016-06-02 日本電気株式会社 追学習装置、追学習方法、および、記憶媒体
JPWO2016084336A1 (ja) * 2014-11-27 2017-10-05 日本電気株式会社 追学習装置、追学習方法、および、追学習プログラム
US11631025B2 (en) 2015-01-07 2023-04-18 Nec Corporation Learning apparatus, learning method, and recording medium
WO2018116921A1 (ja) * 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体
JPWO2018116921A1 (ja) * 2016-12-21 2019-10-31 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP7095599B2 (ja) 2016-12-21 2022-07-05 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP2018106662A (ja) * 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US11551134B2 (en) 2016-12-22 2023-01-10 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JPWO2019092931A1 (ja) * 2017-11-07 2020-11-12 日本電気株式会社 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
JP7070584B2 (ja) 2017-11-07 2022-05-18 日本電気株式会社 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
WO2019092931A1 (ja) * 2017-11-07 2019-05-16 日本電気株式会社 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
JP7104292B2 (ja) 2017-11-29 2022-07-21 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2019101559A (ja) * 2017-11-29 2019-06-24 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
WO2020166321A1 (ja) * 2019-02-12 2020-08-20 日本電信電話株式会社 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
JP2022109664A (ja) * 2021-01-15 2022-07-28 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP7143906B2 (ja) 2021-01-15 2022-09-29 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CN102200959A (zh) 2011-09-28
US20110238605A1 (en) 2011-09-29
US8510235B2 (en) 2013-08-13

Similar Documents

Publication Publication Date Title
JP2011203991A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5440394B2 (ja) 評価予測装置、評価予測方法、及びプログラム
US9785888B2 (en) Information processing apparatus, information processing method, and program for prediction model generated based on evaluation information
JP4524709B2 (ja) 情報処理装置および方法、並びに、プログラム
WO2010010653A1 (ja) ユーザモデル処理装置
JPWO2010010654A1 (ja) 使い方推定装置
CN110598086A (zh) 文章推荐方法、装置、计算机设备及存储介质
US20170017655A1 (en) Candidate services for an application
Moniz et al. Resampling strategies for imbalanced time series
JP4737564B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5849952B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法、およびプログラム
CA2741085A1 (en) Method and apparatus for default rating estimation
KR20120049550A (ko) 시간에 따라 변화하는 사용자 선호도를 고려한 컨텐츠 추천 방법
KR101811212B1 (ko) Diy 사용성 테스트 방법 및 장치
CN105706409B (zh) 用于增强用户对于服务的参与度的方法、设备及系统
JP4891638B2 (ja) 目的データをカテゴリに分類する方法
Gangwar et al. An adaptive boosting technique to mitigate popularity bias in recommender system
JP5421842B2 (ja) 影響力解析装置、影響力解析方法、およびプログラム
KR20200145292A (ko) 협업 필터링 기반의 사용자 선호도 예측 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체
JP2016076097A (ja) 行動予測装置、行動予測方法及びプログラム
JP6829603B2 (ja) クラスタリング装置、クラスタリング方法及びクラスタリングプログラム
JP4494841B2 (ja) 情報提示装置、情報提示方法およびプログラム
JP2021081870A (ja) 情報処理装置、及び情報処理プログラム
CN115934689A (zh) 排序结果确定方法、排序模型训练方法、装置及电子设备
CN114912966A (zh) 信息推送方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604