JP2006251866A - 情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents

情報処理装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2006251866A
JP2006251866A JP2005063674A JP2005063674A JP2006251866A JP 2006251866 A JP2006251866 A JP 2006251866A JP 2005063674 A JP2005063674 A JP 2005063674A JP 2005063674 A JP2005063674 A JP 2005063674A JP 2006251866 A JP2006251866 A JP 2006251866A
Authority
JP
Japan
Prior art keywords
information
reading
model parameter
recommendation
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005063674A
Other languages
English (en)
Other versions
JP4622589B2 (ja
Inventor
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005063674A priority Critical patent/JP4622589B2/ja
Priority to US11/368,870 priority patent/US7720849B2/en
Publication of JP2006251866A publication Critical patent/JP2006251866A/ja
Application granted granted Critical
Publication of JP4622589B2 publication Critical patent/JP4622589B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 より適切な情報を推薦し、その推薦理由も提供できるようにする。
【解決手段】 情報取得部101によりユーザからの情報が取得されると、その情報と、テーブル参照部103により参照されるテーブルに記載されている情報との距離が、距離計算部102により算出される。推薦単語抽出部104は、距離が近い情報を、推薦する情報として抽出する。その抽出された情報に関連付けられている意味クラスのモデルパラメータ値が最も高い情報を、推薦理由抽出部106は、推薦理由としてさらに抽出する。このようにして抽出された推薦する情報と推薦理由は、提供部107によりユーザに提供される。本発明は、情報を提供するコンピュータに適用できる。
【選択図】図10

Description

本発明は、情報処理装置および方法、プログラム、並びに記録媒体に関し、特に、ユーザに所定の情報を推薦する際などに用いて好適な情報処理装置および方法、プログラム、並びに記録媒体に関する。
インターネットなどの普及にともない、ユーザが、所望する情報をより手軽に検索することが可能になっている。また、インターネット上の店舗での商品の購入(俗にネットショッピングなどと称されている)も普及している。
ユーザは、例えば、購入を所望する商品を販売している店舗を、ネット上で検索し、その検索結果として提供された情報を基に、ネット上の店舗を決定し、その店舗で所望の商品の購入を行うといったことが行われている。
そのような状況下において、ユーザ側は、より商品を検索しやすい機能を所望し、店舗(販売)側は、より効率良く商品の販売が行える機能を所望していた。そこで、例えば、ユーザが商品を購入したときなどに、その商品に関連のある他の商品を薦める(推薦する)ことが行われている。このような推薦が行われることは、ユーザにとっては、関連のある商品を知る(認識する)ことができ、その結果、まとめて購入することができる(複数の手間をかけずに一括して購入できる)といった利点があり、販売側にとっては、複数の商品を同時に購入してもらえる可能性があり、効率良い販売ができるといった利点がある。
このような推薦を行う方法として、特許文献1で、協調フィルタリング装置を用いた方法が提案されている。この協調フィルタリング装置を用いた推薦においては、まず、ユーザ(ユーザAとする)が購入した商品の履歴などの個人情報から、その履歴と類似する履歴を有する他のユーザ(ユーザBとする)が選択される。そして、選択された他のユーザが有する履歴から、推薦する情報が選択され(例えば、ユーザAとユーザBとに共通する情報が、推薦する情報として選択される)、その選択された情報が、ユーザAに提供される。
また特許文献2では、Content-based filterlingを用いた方法が提案されている。この提案によると、コンテンツ文章がキーワードのベクトルとして表され、そのベクトルで表されたキーワードが、tf(Term Frequency)×idf(Invert Document Frequency)法などにより重み付けが行われ、ベクトル空間による余弦尺度が類似度として利用されることにより、類似したコンテンツが検索され、その検索結果が、ユーザが側に推薦される。
特開2002―334256号公報 特開2002−215665号公報
上記したような推薦の方法は、ユーザ同士の履歴の類似度やキーワードベクトルの類似といった距離尺度を用い、その距離尺度が近いものが選択され、推薦されるといった方法であった。そのため、ユーザ側に、推薦した情報が、なぜ推薦されたかの理由を提示することが難しいといった問題があった。換言するならば、例えば、“コンテンツAを推薦するのは、距離尺度が近いからです”といったような推薦理由をユーザ側に提示しても、提示されたユーザ側にとっては、そのような情報は役に立たない情報であると考えられる。
その結果として、ユーザは、コンテンツAの推薦理由を認識できないといった可能性があった。
また、特許文献1のように、推薦する情報を検索するのに、ユーザの履歴を用いる場合、まず、そのユーザA自体の履歴が、蓄積されていなければ、また、その蓄積量も一定量なければ、推薦する情報の選択の精度(例えば、ユーザAが本当に所望する情報が推薦できる確率)を向上させることができないという課題があった。また、ユーザA以外のユーザの履歴も、当然多数蓄積されていなければ、推薦するための情報を検索できないといった可能性があった。
また、ユーザの履歴という個人情報が用いられることは、プライバシーの観点や、個人情報の管理、運用などの面で、問題が発生する可能性が高かった。
本発明はこのような状況に鑑みてなされたものであり、より精度良く、ユーザ側に所定の情報に関連する情報を提示(推薦)できるようにする。また、情報を提示した場合、その情報をなぜ推薦したかを示す情報(推薦理由)もあわせて提示できるようにする。
本発明の第1の情報処理装置は、第1に、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照手段と、検索対象となる第2の情報を取得する取得手段と、第1の情報と第2の情報との類似度を計算する計算手段と、類似度の高い順に、テーブルから第1の情報を読み出す読み出し手段とを備えることを要旨とする。
第2に、前記第1の要旨に加え、前記読み出し手段により読み出された第1の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出手段と、抽出手段により抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す第2の読み出し手段とをさらに備えることを要旨とする。
第3に、前記第2の要旨に加え、前記読み出し手段により読み出される第1の情報は、第2の情報に関連している情報としてユーザ側に推薦する推薦情報であり、第2の読み出し手段により読み出される第1の情報は、推薦情報を推薦する推薦理由としてユーザ側に提供する情報であることを要旨とする。
第4に、前記第1の要旨に加え、前記読み出し手段は、読み出した第1の情報または第2の情報と、テーブルに記載されている第1の情報との類似度を計算し、その類似の高い順に、テーブルから第1の情報をさらに読み出すことを要旨とする。
第5に、前記第1の要旨に加え、前記計算手段は、取得手段により複数の第2の情報が取得された場合、第2の情報毎に、類似度を計算し、計算された類似度の和を計算することを要旨とする。
第6に、前記第1の要旨に加え、前記計算手段は、取得手段により複数の第2の情報が取得された場合、第2の情報に該当するモデルパラメータの分布を重畳し、その重畳されたモデルパラメータの分布を用いて、第1の情報との類似度を計算することを要旨とする。
第7に、前記第1の要旨に加え、前記参照手段により参照されるテーブルには、ユーザ側に提示する情報としてふさわしくない情報は除外された第1の情報のみが記載されていることを要旨とする。
本発明の第1の情報処理方法は、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第1の情報と第2の情報との類似度を計算する計算ステップと、類似度の高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを要旨とする。
本発明の第1のプログラムは、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第1の情報と第2の情報との類似度を計算する計算ステップと、類似度の高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを要旨とする。
本発明の記録媒体のプログラムは、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第1の情報と第2の情報との類似度を計算する計算ステップと、類似度の高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されていることを要旨とする。
本発明の第1の情報処理装置および方法、並びにプログラムにおいては、意味クラス毎のモデルパラメータの分布により表現される情報を管理しているデータベースが参照され、ユーザから供給される情報に関連ある情報が、抽出される。さらに、その抽出された情報に関連ある他の情報も、前記データベースが参照されて抽出される。
本発明の第2の情報処理装置は、第1に、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照手段と、検索対象となる第2の情報を取得する取得手段と、第2の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出手段と、抽出手段により抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す読み出し手段とを備えることを要旨とする。
第2に、前記第1の要旨に加え、前記読み出し手段は、読み出した第1の情報のモデルパラメータの値が高い順に意味クラスを抽出し、その抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルか第1の情報をさらに読み出すことを要旨とする。
本発明の第2の情報処理方法は、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第2の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出ステップと、抽出ステップの処理で抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを要旨とする。
本発明の第2のプログラムは、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第2の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出ステップと、抽出ステップの処理で抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを要旨とする。
本発明の第2の記録媒体のプログラムは、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、検索対象となる第2の情報を取得する取得ステップと、第2の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出ステップと、抽出ステップの処理で抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す読み出しステップとを含むことを要旨とする。
本発明の第2の情報処理装置および方法、並びにプログラムにおいては、意味クラス毎のモデルパラメータの分布により表現される情報を管理しているデータベースが参照され、ユーザから供給される情報に関連ある情報が、抽出される。さらに、その抽出された情報に関連ある他の情報も、前記データベースが参照されて抽出される。
本発明によれば、推薦する情報を設定することが可能となる。
本発明によれば、ユーザが所望する情報(ユーザの嗜好にあった情報)を、推薦することが可能となる。その推薦される情報は、より精度良いものとすることが可能となる。
本発明によれば、推薦した情報に関し、なぜその情報を推薦したかといったような推薦理由も、ユーザ側に提示することが可能となる。
本発明によれば、情報を、より効果的にユーザ側に提示することが可能となる。
以下に本発明の最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加されたりする発明の存在を否定するものではない。
本発明の情報処理装置は、例えば、図10に示した推薦情報提供装置13である。本発明の情報処理装置は、第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブル(例えば、図5に示したテーブル61)を参照する参照手段(例えば、図10のテーブル参照部103)と、検索対象となる第2の情報を取得する取得手段(例えば、図10の情報取得部101)と、第1の情報と第2の情報との類似度を計算する計算手段(例えば、図10の距離計算部102)と、類似度の高い順に、テーブルから第1の情報を読み出す読み出し手段(例えば、図10の推薦単語抽出部104)とを備える。
前記読み出し手段により読み出された第1の情報のモデルパラメータの値が高い順に意味クラスを抽出する抽出手段(例えば、図10の共通意味クラス抽出部105)と、抽出手段により抽出された意味クラスにおけるモデルパラメータの値が高い順に、テーブルから第1の情報を読み出す第2の読み出し手段(例えば、図10の推薦理由抽出部106)とをさらに備える。
以下に、本発明の実施の形態について図面を参照して説明する。
[システムの構成]
図1は、本発明を適用したシステムの一実施の形態の構成を示す図である。図1に示したシステムは、ユーザが所定の情報を提示したときに、その所定の情報に関連性のある情報を推薦するという処理を行うシステムである。また、その情報を推薦するとき、推薦理由もあわせて、ユーザ側に提示すためのシステムである。
学習装置11は、モデルパラメータ保持部12に保持されるモデルパラメータを生成する。推薦情報提供装置13は、モデルパラメータ保持部12に保持されているモデルパラメータを参照して、ユーザに推薦する情報と、その情報を推薦する理由に関する情報を生成し、提供する。
図1においては、また、以下の説明においては、学習装置11、モデルパラメータ保持部12,および、推薦情報提供装置13は、それぞれ別体として図示したが、一体型に構成されていても良い。
学習装置11、モデルパラメータ保持部12,および、推薦情報提供装置13は、それぞれネットワーク(不図示)などで相互にデータの授受が行えるように接続されていても良い。そのように構成された場合、例えば、学習装置11で生成されたモデルパラメータは、ネットワークを介してパラメータ保持部12に保持され、推薦情報提供装置13は、ネットワークを介して、必要に応じて、モデルパラメータ保持部12に保持されているパラメータを参照する。
学習装置11により生成されたモデルパラメータは、所定の記録媒体に記録され、モデルパラメータ保持部12に提供されるようにしても良い。
[学習装置の内部構成例]
図2は、モデルパラメータ保持部12が保持するモデルパラメータ(テーブル)を作成する学習装置11の構成を示す図である。入力部31は、テキストデータなどが入力される。この入力されるデータは、大量の学習用コーパスデータである。入力部31に入力されたデータは、形態素解析部32に供給される。
入力部31に入力されるコーパスデータは、日本語に関するテーブルを作成する場合、日本語の文章が入力されるわけだが、日本語の文章は、単語毎に区切られていないので、例えば、形態素解析などと称される方法により、文章を単語毎に分解する必要がある。そこで、本実施の形態においては、そのような処理を、形態素解析部32が行うように構成する。
また、ここでは、学習用コーパスデータは、所定のジャンルに属する人や、その人の作品などに対するプロフィールや批評記事といった文章であるとする。ここで扱われる学習用コーパスデータは、推薦情報提供装置13により推薦する情報に依存する。すなわち、推薦情報提供装置13で、音楽に関する情報を推薦する場合、所定のミュージシャンや、そのミュージシャンのアルバムに対する批評記事などが、学習用コーパスデータとして用いられる。また、例えば、推薦情報提供装置13で書籍に関する情報を推薦する場合、所定の作家や、その作家の作品に対する批評記事などが、学習用コーパスデータとして用いられる。
これは、例えば、同じ単語であっても、使われるジャンルが異なれば、その意味も異なってくる(ニュアンスが異なってくる)ことがあるからである。例えば、音楽に関して“暖かい”と表現されていれば、バラードなどのジャンルで、精神的に暖かさを感じるということが表現されていると理解できるが、新聞記事などで“暖かい”と表現されていれば、天気に関することで、身体的に暖かさを感じるということが表現されていると理解される。
このように、同じ単語であっても、同一の意味内容で用いられないこともあり、そのようなことを考慮すると、後述する推薦情報提供装置13における推薦する情報の設定などに係わる処理を実行するうえで参照されるモデルパラメータを作成するには、推薦する情報に依存して、学習用コーパスデータを変える方が好ましいと考えられる。
図2の学習装置11の構成の説明に戻り、形態素解析部32から出力されるデータは、単語に関するデータである。なお、ここでは形態素解析の方法に基づいて、文章を単語単位に分解するとして説明を続けるが、他の解析方法を適用することも可能である。
形態素解析部32から出力された単語に関するデータは、データ更新部33に供給される。データ更新部33は、記憶部34に記憶されているデータを更新するために設けられている。記憶部34は、コーパスデータに含まれていた単語の出現回数に関するデータを保持する。記憶部34に記憶されているデータを利用し、モデルパラメータ生成部35は、モデルパラメータ(後述するテーブル61(図5)における確率値)を算出し、図5に示すようなテーブル61を作成する。作成されたテーブル61は、モデルパラメータデータベース36に記憶される。
モデルパラメータデータベース36に記憶されたテーブル61が、ネットワークを介して配布されることにより、所定の記録媒体に記録されて配布されることにより、または、他の手段により、モデルパラメータ保持部12に供給され、保持される。
[学習装置の学習について]
次に、図2に示した学習装置11の学習の仕方(テーブル61の作成の仕方)について、図3のフローチャートを参照して説明する。ステップS11において、入力部31に学習用のコーパスデータが入力され、順次、形態素解析部32に供給され、1単語単位に分解される。形態素解析部32からの単語に関するデータは、データ更新部33に供給される。
このような処理が行われる一方で、ステップS12において、学習用コーパスデータは終了か否か(入力部31に入力された全ての学習用コーパスデータに対する処理は終了したか否か)が判断される。ステップS12における処理は、入力部31が、入力がなくなったか否かを判断することにより行われるようにしても良い。
ステップS12において、学習用コーパスデータは終了していないと判断された場合、ステップS13に処理が進められ、処理対象となっている単語(その時点で、形態素解析部32から出力された単語)に関する出現回数の更新が行われる。例えば、記憶部34には、図4に示すようなテーブル51が記憶されている。テーブル51は、横軸に所定の文章を、縦軸に単語をそれぞれ管理しており、その文章と単語が交わる欄には、所定の文章内で、所定の単語が出現した回数が記載される。
例えば、図4に示したテーブル51においては、文章1に、単語1は5回出現しており、単語2は1回出現しているといったような文章内の単語の出現回数が管理されている。
データ更新部33は、テーブル51を更新する際、まず、処理対象の単語が、既に記憶部34に記憶されているか否か(テーブル51に登録されているか否か)を判断する。そして、処理対象の単語が既にテーブル51に記憶されていると判断された場合、その記憶されていると判断された単語に関連付けられ、処理対象とされている文章に関連付けられている回数を、1だけ増加させる。一方、処理対象の単語は、まだ記憶部34に記憶されていないと判断された場合、その処理単語を新たに登録すると共に、その単語の回数を1と設定する。
例えば、処理対象とされている文章が文章1であり、処理対象の単語が単語Nであった場合、単語Nが既にテーブル51に登録されていたときには、文章1と単語Nが交差する欄に、既に書き込まれている数値が1だけ増加され、単語Nはまだテーブル51に登録されていないときには、新たに、単語Nが登録され、その登録された単語Nと文章1が交差する欄に、1が書き込まれる。
このようなステップS11乃至S13の処理が繰り返されることにより学習が行われる。
そして、ステップS12において、学習用コーパスデータは終了したと判断された場合、ステップS14に処理が進められる。ステップS14において、モデルパラメータの計算が、モデルパラメータ生成部35により行われる。モデルパラメータ生成部35は、記憶部34に記憶されているテーブル51を参照し、例えば、PLSA(Probabilistic Latent Semantic Analysis)法などにより、確率的言語モデルパラメータ(図5のテーブル61における確率値)を算出する。このステップS14における処理の詳細については、図5,6を参照して後述する。
算出された確率値は、意味クラスIDと単語に関連付けられる。このような処理が実行されることにより、図5に示したテーブル61が作成される。作成されたテーブル61は、モデルパラメータデータベース36に記憶される。このモデルパラメータデータベース36に記憶されたテーブル61が、モデルパラメータ保持部12に保持される。
ここで、図5に示したテーブル61について説明を加える。図5に示したテーブル61は、横に意味クラス、縦に単語をとり、交わる部分に、その単語のその意味クラスでの確率値が記載されている。例えば、単語w1の意味クラスz1における確率値は、P(z1|w1)である。
ここで、意味クラスについて、また、確率値(モデルパラメータ)について図6を参照して説明する。図6には、単語w1,w2,w3,w4に関するパラメータを、それぞれグラフ化したものを示している。図6に示した各グラフは、縦軸にp(z|w)の値をとり、横軸に意味クラスをとったものとされている。また、図6に示した各グラフは、意味クラス数をz=10に設定したときのものとされている。
意味クラスとは、特定のジャンルなど、人が識別できるようなクラスを示すものではなく、後述する推薦する情報の設定や推薦理由を選択するにあたり、単語や文脈などを特徴付けるために設定されたものである。
p(z|w)は、単語wが生起するという条件のもとで、意味クラスzが生起する条件付き確率の値を示す。p(z|w)は、次式(1)により算出される。
Figure 2006251866
式(1)からp(z|w)は、p(w|z)とp(z)から算出されることがわかる。p(w|z)とp(z)は、EMアルゴリズムのうち、M−stepにおいて用いられる次式(2)と次式(3)により、それぞれ算出される。
Figure 2006251866
Figure 2006251866
すなわち、p(w|z)とp(z)から単語の意味クラスへの帰属確率分布p(z|w)を求めることができる。この意味クラスへの帰属確率分布を求めることにより、単語wのもつ意味の概要を表現することができる。
なお、EMアルゴリズムとは、図7に示すE―stepとM―stepとから構成される演算である。式(1)乃至(3)で示したp(z),p(w|z),p(d|z)というパラメータは、図7に示す、式(4)乃至式(8)(式(5)は式(2)であり、式(7)は式(3)である)によるEM(期待値最大化)アルゴリズムを利用してそれぞれ最適化される。
ステップS14におけるモデルパラメータの計算は、このEMアルゴリズムにおけるE−stepとM−stepが繰り返し演算されることにより行われる。
図6を参照するに、単語w1と単語w2は、共通の意味クラスz2とz9に対して高い帰属確率が与えられているなど分布の形状が類似しており、意味的に共通点がある。これに対し、単語w3は、単語w1や単語w2と共通の意味クラスで高い帰属確率が与えられるようなことがなく、分布の形状が異なり、意味的な共通点が少ない。
また、単語w4のグラフを参照するに、意味クラス毎の帰属確率値は、一様な値であり、特に高い確率値を有する意味クラスは存在していない。このようなグラフは、機能語、例えば、“〜する”といった語であり、特定の意味を表現しない(1または複数の意味クラスの確率値で特徴を表すことができず、確率値の分布に基づいて分類することができない語である)ことを示している。
このように、単語wの意味確率分布p(z|w)は、意味的に特徴のある単語に対しては確率値が意味クラスにより偏るが(分布自体に特徴が表れるが)、機能語のような意味的には特徴をあまり有さないような単語に対しては、確率値は意味クラスにより偏るようなことがないといった特徴を有する。
このような特徴を、単語wの意味確率分布p(z|w)は有するため、図6に示した例では、意味クラスの数を10に設定した場合を示したが、意味クラスの数を10以上に設定し、より詳細に解析すれば、単語の特徴をより明確に表すことができると考えられる。
図6に示したような単語毎に意味クラスと確率値(モデルパラメータ)が関連付けられたデータを、テーブル化すると、例えば、図5に示したようなテーブル61となる。
なお、テーブル61として保持される単語として、例えば、“〜は”、“〜しない”といったような助詞や助動詞は、ユーザ側に提供する情報としては不適切である。すなわち、このテーブル61は、推薦情報提供装置13がユーザ側に推薦する情報や推薦理由を設定する際に参照されるテーブルであり、このテーブル61に記載されている単語がユーザ側に提示されるため、提示する情報として助詞や助動詞は不適切であると考えられる。
そこで、例えば、ステップS14の処理が終了された後、よって、図5に示したようなテーブル61が作成された後に、そのテーブル61から、助詞や助動詞といったユーザに提供するには好ましくないと思われる単語が削除されるといった処理を設けるようにしても良い。その際、削除される単語は、助詞や助動詞だけに限定されるものではない。
また、さらに、テーブル61が作成された後、そのテーブル61から、人手により不要な単語が削除されるような処理が含まれるようにしても良い。
このようにして作成(学習)されたテーブル61は、モデルパラメータ保持部12により保持される。
以下の説明においては、モデルパラメータ保持部12には、図8に示すように、2つのテーブル61−1とテーブル61−2が保持されているとして説明する。テーブル61−1は、ユーザに推薦する情報が記載されているテーブルであり、テーブル61−2は、推薦理由が記載されているテーブルである。テーブル61−1とテーブル61−2は、それぞれ、図5に示したテーブル61と同様に、単語と意味クラスIDが関連付けられたテーブルである。
以下の説明においては、テーブル61−1を、推薦情報テーブル61−1と記載し、テーブル61−2を、推薦理由テーブル61−2と記載する。また、以下の説明においては、音楽に関する情報をユーザに提供する(推薦する)場合を例にあげて説明する。音楽に関する情報をユーザに推薦する場合、推薦情報テーブル61−1に記載されている単語(推薦する情報)(例えば、単語w1,w2など)は、アーティスト名(ミュージシャンの名前)や、曲目などであり、推薦理由テーブル61−2に記載されている単語(推薦理由に関する情報)(例えば、単語w1’,w2’など)は、アーティストを表現する形容詞などである。
なお、ここでは、モデルパラメータ保持部12には、推薦情報テーブル61−1と推薦理由テーブル61−2という2つのテーブルが保持されるとして説明するが、これらのテーブルを1つのテーブルとして管理するようしても勿論良い。1つのテーブルとして管理する場合、例えば、上位n番目までは、推薦情報テーブル61−1として用い、n番目以降は、推薦理由テーブル61−2として用いるようにする。
また、ここでは、2つのテーブルがモデルパラメータ保持部12で保持されるとして説明を続けるが、これらの2つのテーブルを参照するためのリストがさらに管理されるようにしても良い。例えば、図9に示すように、推薦情報テーブル61−1に記載されている単語のみから構成されるリスト62−1と、推薦理由テーブル61−2に記載されている単語のみから構成されるリスト62−2が、さらに、モデルパラメータ保持部12に保持されるようにしても良い。
図9に示したようにリスト62−1,62−2を設けるようにした場合、また、学習装置11でテーブル61が作成された後、そのテーブル61から、人手により不要な単語を削除するような処理を行うようにした場合、その処理を実行する人は、リスト62−1やリスト62−2を参照するだけで、推薦情報テーブル61−1や推薦理由テーブル61−2にそれぞれ管理されている単語を認識することができ、不要な単語を削除するといった処理を行いやすくなる。
このように、モデルパラメータ保持部12に保持されるテーブルなどは、適宜変更可能である。
次に、モデルパラメータ保持部12に保持されているテーブルを用いて処理を実行する推薦情報提供装置13について説明を加える。
[推薦情報提供装置の構成]
図10は、推薦情報提供装置13の内部構成例を示す図である。推薦情報提供装置13は、ユーザから提供される情報を取得する情報取得部101を備える。ここでは、ユーザにより情報が提供され、その情報に対応する(関連する)情報が、ユーザ側に提供(推薦)される例をあげて説明する。ここでは、上記したように、ユーザ側に提供(推薦)する情報は、音楽に関する情報である場合を例にあげて説明するため、ユーザから提供される情報も、音楽に関する情報である。
例えば、ネットワーク上で開店している店舗(サーバ)に、推薦情報提供装置13が備えられ、その店舗でユーザ(客)が所定のアーティストのCD(Compact Disc)を購入するとき、その“所定のアーティスト”の情報が、ユーザから提供される情報として利用される。このようなとき、情報取得部101は、ネットワーク(不図示)を介してユーザからの情報を取得するため、ネットワークを介してデータの授受を行うことができる通信部を備える構成とされる。
また、推薦情報提供装置13が、ユーザ側の装置(例えば、パーソナルコンピュータなどの端末)に備えられている場合、情報取得部101は、キーボードやマウスなどのユーザからの情報(ユーザからの指示)を受け付ける操作部を含む構成とされる。
また、ユーザから提供される情報は、ユーザが、商品を購入する意志をもって入力した情報の他に、何らかの検索の対象としたい情報、例えば、類似する情報を検索したいときなどに入力した情報などでも良い。
情報取得部101により取得されたユーザからの情報は、距離計算部102に供給される。距離計算部102には、テーブル参照部103により参照された推薦情報テーブル61―1(図8)からの情報も供給される。詳細は後述するが、距離計算部102は、情報取得部101からの情報と、推薦情報テーブル61−1に記載されている単語との距離を計算する。計算結果は、推薦単語抽出部104に供給される。
推薦単語抽出部104は、距離計算部102から供給される計算結果を参照し、最も距離が近いとされる単語を抽出する。換言すれば、推薦単語抽出部104は、情報取得部101により取得されたユーザからの情報に、最も類似していると判断される、推薦情報テーブル61−1に記載されている情報(単語)を抽出する。
推薦単語抽出部104により抽出された単語に関する情報は、共通意味クラス抽出部105に供給される。共通意味クラス抽出部105は、ユーザからの情報と、推薦単語抽出部104からの情報に、共通する意味クラスを抽出し、その抽出した意味クラスを示す情報を、推薦理由抽出部106に供給する。
推薦理由抽出部106は、共通意味クラス抽出部105から供給された意味クラスを示す情報を用いて、また、テーブル参照部103が参照する推薦理由テーブル61−2に記載されている情報を参照し、推薦理由となる単語を抽出する。推薦理由抽出部106により抽出された単語は、提供部107に提供される。提供部107は、推薦単語抽出部104により抽出された推薦する情報と、推薦理由抽出部106により抽出された推薦理由とする情報とを、ユーザに提供する。
提供部107は、情報取得部101と対になる構成とされる。すなわち、推薦情報提供装置13が、ネットワーク上のサーバに備えられている場合、提供部107は、通信部を備え、その通信部を制御することにより、ユーザ側の端末に情報を提供する。ユーザ側の端末は、提供された情報をディスプレイ上に表示するなどして、ユーザに情報を提示する。または、推薦情報提供装置13が、ユーザ側の端末に備えられている場合、提供部107は、ディスプレイなどの表示部(不図示)を備え、その表示部の表示を制御することにより、ユーザに情報を提供する。
このような構成を有する推薦情報提供装置13の動作について説明する。
[推薦情報提供装置の動作について]
図11は、推薦情報提供装置13の動作について説明するためのフローチャートである。ステップS31において、情報取得部101は、ユーザからの情報を取得する。ここで、取得される情報は、例えば、アーティスト名などの単語である。取得されたアーティスト名などの単語は、距離計算部102に供給される。
ステップS32において、距離計算部102は、供給された単語に関する意味クラスに係わる情報を、推薦情報テーブル61−1から読み出す。例えば、距離計算部102は、テーブル参照部103に、モデルパラメータ保持部12に保持されている推薦情報テーブル61−1を読み出すように指示を出す。その指示に対応し、テーブル参照部103は、推薦情報テーブル61−1を読み出し、距離計算部102に供給する。
距離計算部102は、取得した推薦情報テーブル61−1を参照し、ユーザから供給された単語を検索し、その検索された単語のモデルパラメータ(確率値)を読み出す。このようにして、ユーザから供給された情報(単語)のモデルパラメータが読み出される。その読み出された単語とモデルパラメータは、共通意味クラス抽出部105に供給される。また、距離計算部102は、読み出された単語のモデルパラメータを用いて、推薦情報テーブル61−1に記載されている各単語との距離を計算する。
例えば、ユーザから供給された単語が、単語w1であった場合、単語w1のモデルパラメータと、単語w2のモデルパラメータが用いられ、単語w1と単語w2の距離が計算され、単語w1のモデルパラメータと、単語w3のモデルパラメータが用いられ、単語w1と単語w3の距離が計算され、・・・といったように、ユーザから供給された単語と、推薦情報テーブル61−1に記載されている各単語との距離が、それぞれ計算される。
距離計算部102は、例えば、次式(9)に示すKullback-Leibler Divergenceの方式を用いて距離を計算する。
Figure 2006251866
式(9)により距離が算出される場合、例えば、単語w1と単語w2の距離が算出されるときには、単語w1の意味クラスz1のモデルパラメータを、単語w2の意味クラスz1のモデルパラメータで除算した値のlogをとり、その値に単語w1の意味クラスz1のおけるモデルパラメータを乗算する。そしてさらに、このような計算を、意味クラス毎に行い(意味クラスが10クラスであった場合には10回行われる)、その意味クラス毎の値が加算されることにより、単語w1と単語w2の距離が算出される。
距離計算部102による計算結果は、順次、推薦単語抽出部104に供給される。推薦単語抽出部104は、ステップS33において、推薦する情報(単語)を抽出する。
距離計算部102が式(9)に基づいて距離を計算する場合、計算結果が小さいほど距離が近いと判断され、距離が近いと判断されるほど、単語同士は類似していると判断される。ここでは、ユーザから供給された単語に類似する単語を推薦する情報として、ユーザ側に提供する。その提供する単語の数は、1つでも良いし、複数でも良い。1または複数の単語を推薦する場合、計算結果が小さい方から順に提供されるようにすればよい。
このようにした場合、推薦単語抽出部104は、距離計算部102から供給される計算結果を一旦蓄積するメモリを備える構成とされる。距離計算部102は、メモリに蓄積された計算結果を、値の小さい順にソートし、その順に、所定の数だけ(例えば、ユーザ側に提示する情報が1つの場合は1つ)、共通意味クラス抽出部105に出力する。
推薦単語抽出部104から共通意味クラス抽出部105に出力されるのは、推薦する単語(距離が最も近いと判断され、推薦情報テーブル61−1から読み出された単語)のモデルパラメータであり、推薦単語抽出部104から提供部107に出力されるのは、推薦する単語の情報である。
共通意味クラス抽出部105は、ステップS34において、ユーザから供給された単語のモデルパラメータと、推薦する単語のモデルパラメータを比較し、共に高い数値を示す意味クラスを抽出する。上記したように、意味クラスとは、単語を特徴付けるために設定されたものである。そこで、2つの単語のモデルパラメータを比較したときに、その2つの単語のモデルパラメータが共に高い数値を示す意味クラスを抽出することで、その2つの単語の特徴を見いだすことができると考えられる。
共通意味クラス抽出部105が抽出する意味クラスの数は、一番高い値を有する1つでも良いし、上位からの複数個の意味クラスでも良い。共通意味クラス抽出部105により、抽出される意味クラスの数を1つとした場合、次式(10)に基づく算出が行われる。
Figure 2006251866
式(10)において、P(z|u)は、ユーザから供給された単語uの意味クラスzにおけるモデルパラメータを示し、P(z|r)は、処理対象とされている単語r(推薦理由テーブル61−2に記載されている単語)の意味クラスzにおけるモデルパラメータを示す。P(z|u)は、距離計算部102から供給され、P(z|r)は、推薦単語抽出部104から抽出される。
式(10)によれば、P(z|u)とP(z|r)の積の最大値(Max)が算出される。この式(10)に基づく算出結果のうち、最も大きな値を有する意味クラスが、共通意味クラスタとして、推薦理由抽出部106に供給される。
推薦理由抽出部106は、ステップS35において、推薦理由としてユーザに提供する情報(単語)を抽出する。推薦理由抽出部106は、テーブル参照部103に、推薦理由テーブル61−2(図8)を読み出すように指示を出す。その指示に対応し、テーブル参照部103は、推薦理由テーブル61−2をモデルパラメータ保持部12から読み出し、推薦理由抽出部106に供給する。
推薦理由抽出部106は、共通意味クラス抽出部105から供給された意味クラス(意味クラスAとする)のモデルパラメータ値(モデルパラメータ値Aとする)が大きい単語を、推薦理由テーブル61−2を参照して検索する。
意味クラスAのモデルパラメータだけを参照し、モデルパラメータAよりも大きい値を有する単語を、推薦理由テーブル61−2から読み出すようにしても良いし(従って、この場合、複数の単語が読み出される可能性がある)、最も大きなモデルパラメータ値を有する単語のみを読み出すようにしても良い。または、上位の複数の単語を読み出すようにしても良い。
いずれにしても、推薦理由抽出部106により、推薦理由とする単語(情報)が推薦理由テーブル61−2から読み出され、提供部107に供給される。推薦理由抽出部106による処理を式で表すと、次式(11)のようになる。
Figure 2006251866
式(11)において、P(z|w)は、意味クラスzにおける単語wのモデルパラメータを示す。推薦理由抽出部106には、共通意味クラス抽出部105から共通意味クラスに関する情報が供給されている。この供給される情報が示す意味クラスが、式(11)における意味クラスzの値として用いられる(代入される)。
式(11)に基づく演算が行われることにより、共通意味クラスzにおいて最も高い(Max)モデルパラメータの値を有する単語を抽出することができる。このようにして抽出された単語は、提供部107に供給される。
提供部107には、推薦単語抽出部104から推薦する単語と、推薦理由抽出部106から推薦理由とする単語とが供給される。
ステップS36において、提供部107は、推薦する単語と推薦理由を、ユーザ側に提供する。このようにして、ユーザには、ユーザが入力した情報と、何らかの関係のある情報が推薦され、さらに、その情報をなぜ推薦するのかという推薦理由の情報も、提供される。よって、情報が推薦されたユーザは、自分が入力した情報と推薦された情報との間に、どのような関連があるのかなどの情報を理解することができるようになり、単に情報を推薦する場合よりも、よりユーザにとって有益な情報の提供を行えることになる。
[推薦に関する具体的な例]
次に、図12乃至図16を参照し、再度、推薦情報提供装置13が行う処理について説明する。
図12は、モデルパラメータ保持部12が保持する推薦情報テーブル61−1の一例を示す図である。図12に示した推薦情報テーブル61−1は、モデルパラメータの分布を図6と同様なグラフとして表した場合(図8に示したようなテーブル形式のデータをグラフ化した場合)を例に挙げて示している。図12乃至図16に示した図も、それぞれ、モデルパラメータの分布をグラフ化して表した場合を例に挙げて示している。また、意味クラスが16クラス設けられている場合であり、横軸に意味クラス、縦軸にモデルパラメータをとったときの例を挙げて示している。
また、図12乃至図16に示した各グラフは、実際のデータを基に作成されたグラフである。図12に示したグラフは、推薦情報テーブル61−1の一例を示しているが、推薦情報テーブル61−1は、上記したように、ユーザからの情報に類似した(関連した)単語(情報)を提供するために設けられているテーブルである。ここでは、音楽に関する情報が推薦される場合を例に挙げて説明するため、推薦情報テーブル61−1に書き込まれている情報(単語)は、音楽に関する情報である。さらにここでは、アーティスト名が管理されているとして説明を続ける。
上記したように、図12乃至図17に示したグラフは、実際のデータを基に作成されたグラフであり、図12に示したグラフ(推薦情報テーブル61−1)で管理している単語も、実在するアーティスト(音楽家、グループなど)の名前である。しかしながら、説明の都合上、それらの実在するアーティストの名前を挙げることはできないため、図12においては、“アーティストA”などと表記している。
図12に示した推薦情報テーブル61−1に記憶されているアーティストA乃至アーティストFについて、一般的な評価、分類について説明を加える。なお、ここで加える説明は、アーティストA乃至アーティストFに対して一般的にいわれていることであり、例えば、CDなどの販売店で、そのアーティストのCDがおかれているジャンルや、そのアーティストに関する記事などで、そのアーティストを表現するのに使われている単語などを列記する。
アーティストAとアーティストBは、共に、アイドル(Idol)に属している。アーティストCとアーティストは、共に、演歌歌手に属している。アーティストA乃至アーティストDは、日本人である。アーティストEとアーティストFは、ロック(Rock)やポップス(Pops)に属し、外国人である。アーティストA乃至アーティストFは、このような特徴を有する。
図12に示すように、例えば、アーティストAとアーティストBは、共にアイドルに属する歌手であるため、意味クラスにおけるモデルパラメータの分布の形状が類似している。同様に、アーティストCとアーティストD、アーティストEとアーティストFに関するモデルパラメータの分布の形状も類似している。逆に、例えば、アーティストBとアーティストCは、属する分野が異なるため、モデルパラメータの分布の形状が異なったもの(類似していないもの)となっている。
このように、類似点を有するようなアーティスト同士のモデルパラメータの分布の形状は、類似した形状となり、類似点を有しないようなアーティスト同士のモデルパラメータの分布の形状は、類似していない形状となる。すなわち、モデルパラメータの分布の形状で、単語(アーティスト)を特徴付けることが可能であることがわかる。
図13は、推薦理由テーブル61−2で管理されているデータの一例を示す図である。推薦理由テーブル61−2は、ユーザ側に推薦する情報を、なぜ推薦するのかを示す推薦理由を抽出する際に参照されるテーブルである。推薦理由テーブル61−2には、推薦理由として、複数の単語が管理されている。図13に示した例では、“定番”、“アイドル”、“声量”、“豪華”という4つの単語が管理されている例を示す。
これらの4つの単語に関しても、上記したこと、すなわち、モデルパラメータの分布の形状により特徴付けることが可能である。
図12に示したような推薦情報テーブル61−1と、図13に示したような推薦理由テーブル61−2が、モデルパラメータ保持部12に保持されている場合を例に挙げて、図10に示した推薦情報提供装置13において実行される、図11に示したフローチャートの処理について説明を加える。
ステップS31において、情報取得部101が、ユーザにより、“アーティストA”という情報を取得すると、ステップS32において、“アーティストA”という単語と、推薦情報テーブル61−1に記憶されている各単語との距離が計算される。まず距離計算部102は、情報取得部101から“アーティストA”という単語を取得すると、テーブル参照部103により参照される推薦情報テーブル61−1(図12)から、図14に示すモデルパラメータを読み出す。
図14は、“アーティストA”に関するモデルパラメータの分布を示す図である。距離計算部102は、図14に示した“アーティストA”のモデルパラメータと、図12に示した推薦情報テーブル61−1の各単語のモデルパラメータを用いて、推薦情報テーブル61−1に記載されている単語毎に、“アーティストA”との距離を算出する。
すなわち、“アーティストA”と“アーティストB”との距離1が算出され、“アーティストA”と“アーティストC”との距離2が算出され、“アーティストA”と“アーティストD”との距離3が算出され、“アーティストA”と“アーティストE”との距離4が算出され、“アーティストA”と“アーティストF”との距離5が算出される。距離計算部102により算出された距離1乃至距離5は、順次、推薦単語抽出部104に供給される。
実際に実データに基づきアーティストAとの類似度を計算すると以下のようになる。なお、式(9)で示したKullback-Leibler divergenceの値は、同じ分布の場合に0となり、異なる分布ほど大きな値となるため、類似度としては、ここでは、
exp(−D(wi,wj))
を利用している。
アーティストAとアーティストBの類似度 5.179e-1
アーティストAとアーティストCの類似度 1.125e-4
アーティストAとアーティストDの類似度 6.378e-6
アーティストAとアーティストEの類似度 4.365e-2
アーティストAとアーティストFの類似度 1.820e-2
推薦単語抽出部104は、ステップS33において、推薦単語を抽出する。この場合、供給された距離1乃至距離5のうち、最も距離が近い距離が抽出され、その距離に対応する単語が、推薦単語として決定される。最も距離が近いと判断される距離は、最もモデルパラメータの分布の形状が類似している単語である。よって、この場合、図12を参照するに、“アーティストA”と“アーティストB”との距離1が、最も距離が近い距離であると判断され、“アーティストB”が推薦単語として抽出される。
このようにして抽出された“アーティストB”という情報は、提供部107に供給される。また“アーティストB”に係わるモデルパラメータは、共通意味クラス抽出部105に供給される。共通意味クラス抽出部105には、距離計算部102から、“アーティストA”に関するモデルパラメータも供給されている。
すなわち、共通意味クラス抽出部105には、図15に示すように、“アーティストA”に係わるモデルパラメータと、“アーティストB”に係わるモデルパラメータが供給される。共通意味クラス抽出部105は、ステップS34において、供給されたこれら2つのモデルパラメータの分布を参照し、共通してモデルパラメータの値が高い意味クラスを抽出する。
図15を参照するに、“アーティストA”と“アーティストB”の両方のモデルパラメータのうち、共通して値が高いのは、意味クラスz8である(図15において点線で囲った部分)。よって、この場合、共通意味クラス抽出部105では、意味クラスz8が、共通意味クラスとして抽出される。
共通意味クラス抽出部105が、上述した式(10)に基づいて処理を実行する場合、次式により求められた値が、最も大きな値となる。すなわち、式(10)において、max以下の部分に値を代入した式を以下に記述すると、
P(意味クラスz8|アーティストA)×P(意味クラスz8|アーティストB)
となるときに演算された値が、この場合、他の意味クラスのときに演算された値と比べて最も大きな値となる。よって、意味クラスz8が共通意味クラスとして、推薦理由抽出部106に供給される。
推薦理由抽出部106は、ステップS35において、推薦理由の抽出を行う。この場合、推薦理由抽出部106には、共通意味クラスとして、意味クラスz8という情報が供給されている。推薦理由抽出部106は、図13に示したデータを管理している推薦理由テーブル61−2のうち、意味クラスz8に関連付けられているモデルパラメータの値を参照する。
すなわち、図16を参照するに、推薦理由抽出部106は、推薦理由テーブル61−2のうち、図中点線で囲った部分に存在するモデルパラメータの値のみを参照する。このとき、式(11)に基づいて処理が行われるとすれば、max以下の部分に値を代入して記載すると、
P(意味クラスz8|定番)
P(意味クラスz8|アイドル)
P(意味クラスz8|声量)
P(意味クラスz8|豪華)
に、それぞれ該当する値が読み出され、このうち、最も値が大きい単語が選択される。
図16に示した例では、 P(意味クラスz8|アイドル) の値が最も高い値になるので、“アイドル”という単語が推薦理由として選択される。推薦理由抽出部106により抽出された“アイドル”という単語の情報は、提供部107に供給される。
このようにして、提供部107には、推薦情報として“アーティストB”が、推薦理由として“アイドル”が、供給される。このような情報は、例えば、“推薦する情報は、「アーティストB」です。推薦する理由は、アーティストAと同じく「アイドル」だからです。”といったようなメッセージに加工されて、ユーザ側に提示される。
このように、本発明を適用することにより、ユーザ側から供給される情報に関連がある情報を抽出することができる。また、その抽出される情報は、ユーザ側から供給される情報に類似する情報とすることができる。また、その類似する情報を抽出する際、意味クラスという概念を利用して抽出するので、より、類似性の高い情報を、より確実に抽出することが可能となる。
また、本発明を適用することにより、推薦(提供)する情報に関し、なぜその情報を推薦するのかといったような推薦理由も抽出することが可能となり、ユーザ側に提示することが可能となる。よって、ユーザが、推薦された情報が、なぜ推薦されたのかを理解することができるようになる。
[情報の抽出に関する他の方法]
なお、推薦情報提供装置13の処理として図11に示したフローチャートを参照して説明した実施の形態においては、ステップS32,S33において、ユーザからの情報と推薦情報テーブル61−1に記載されている情報毎との距離を計算することにより、推薦する情報を決定した。また、ステップS34,S35において、推薦する情報のモデルパラメータの値が大きな意味クラスと、その意味クラスでモデルパラメータが高い情報が、推薦理由テーブル61−2から読み出されることにより、推薦理由が決定された。
すなわち、上述した実施の形態においては、推薦する情報を決定するときには、距離が計算され、推薦する理由を決定するときには、モデルパラメータ値の高い意味クラスが抽出された。
推薦情報提供装置13の他の実施の形態とし、推薦する情報を決定するときも、推薦する理由を決定するときも、ともに、単語同士の距離を計算し、その距離が近いとされる情報が、推薦する情報、推薦する理由として決定されるようにしても良い。このようにした場合、推薦する情報を決定するときには、上記した処理と同様の処理(ステップS32,S33)が実行される。そして、推薦する理由が決定されるときには、推薦する情報(または、ユーザからの情報でも良い)と推薦理由テーブル61−2に記載されている各情報との距離が計算され、距離が近いと判断される情報が、推薦理由テーブル61−2から読み出されるようにすればよい。
また、推薦情報提供装置13の他の実施の形態とし、推薦する情報を決定するときも、推薦する理由を決定するときも、ともに、モデルパラメータ値の高い意味クラスが抽出されることにより行われるようにしても良い。このようにした場合、推薦する情報を決定するときには、ユーザからの情報のモデルパラメータ値が最も高い意味クラスが抽出され、その抽出された意味クラスのモデルパラメータ値が高い情報が、推薦情報テーブル61−1から読み出されることにより決定される。そして、推薦する理由を決定するときには、上記した処理と同様の処理(ステップS34,S35)が実行されるようにすればよい。
また、推薦情報提供装置13の他の実施の形態とし、推薦する情報を決定するときには、モデルパラメータ値の高い意味クラスが抽出されることにより行われるようにし、推薦する理由を決定するときには、単語同士の距離が計算されることにより行われるようにしても良い。このようにした場合、推薦する情報を決定するときには、ユーザからの情報のモデルパラメータ値が最も高い意味クラスが抽出され、その抽出された意味クラスのモデルパラメータ値が高い情報が、推薦情報テーブル61−1から読み出される。そして、推薦する理由が決定されるときには、推薦する情報と推薦理由テーブル61−2に記載されている各情報との距離が計算され、距離が小さいと判断される情報が、推薦理由テーブル61−2から読み出されるようにすればよい。
また、推薦情報提供装置13の他の実施の形態とし、推薦する情報や推薦する理由を、モデルパラメータ値の高い情報とするようにした場合、所定の閾値よりも高いモデルパラメータ値をもつ情報が、推薦する情報や推薦する理由として決定されるようにしても良い。
上記した実施の形態においては、ユーザから供給される情報は、1つであり、その1つの情報から類似度が計算され、推薦情報や推薦理由が抽出される手順を説明した。一般に推薦が行われる場合、ユーザからの情報が複数与えられた方がより適切な推薦情報や推薦理由を生成することができる。
そこで、ユーザからの情報が、複数与えられたときの類似度の計算方法について説明する。ユーザからの情報が複数与えられたときの類似度の計算方法としては、(1)個々のユーザ情報との類似度を計算し、その和を算出する方法と、(2)個々のユーザ情報の分布を重畳し、その重畳分布を利用して類似度を計算する方法の2つがある。
(1)の方法は、上記した説明とユーザから1つの情報が与えられたときと同様の類似度計算と同様の処理を、与えられた複数の情報に対して適用し、その値を累積することにより行われる。
(2)の方法は、ユーザからの情報に対応する個々の分布を重畳して、1つの分布を合成し、その合成分布との間で類似度を計算するというものである。複数の分布を重畳する方法として、例えば、本出願人が先に出願した特願2004-296473号に記載の方法を適用することができる。ここでは、特願2004-296473号に記載の方法について、簡便な説明を加えておく。
図17は、複数(ここでは2個とする)の分布を重畳する方法について説明するための図である。図17の上側には、ユーザからの情報として単語w1と単語w2が供給された場合の単語w1と単語w2の意味クラス毎の確率分布をグラフ化したもの(単語w1と単語w2の、それぞれの確率分布表現)を示している。この単語w1と単語w2を重畳したグラフを図4の下側に示す。図17の下側のグラフは、文脈(w1,w2)の確率分布表現のグラフを示す。ここでは、2つの単語を含むということで、文脈と表現する。
文脈(w1,w2)との表記は、単語w1と単語w2を含む文脈の確率分布表現を示すとする。また、その所定の意味クラスzにおける確率値は、p(z|w1,w2)と表記する。
図17を参照したように、複数の単語の確率分布表現を重ね合わせることにより、文脈に関する確率分布表現を作成する場合、各単語の意味クラスに基づく確率分布表現から、複数の単語より構成される文や文章の意味クラスに基づく確率分布表現が求められる。
w1,w2,・・,wnのn個の単語を含む文脈をhとすると、この意味クラスに基づく分布表現は次式(12)で表される。
Figure 2006251866
式(12)に示したように、意味クラスに基づく分布表現は、意味クラスzにおける生起確率p(z|w)を、単語毎に乗算していくことにより求められる。ここでw1,w2,・・,wnは全て独立に生起するものと仮定して、それらが全て生起した時に意味クラスの分布がどのようになるかという近似を用いている。ここでβは、全てのクラスにわたる確率値の合計が1になるようにするための正規化係数である。またα(wi)は、個々の単語毎に決められる重み係数である。
また、ナイーブベイズを用いることによって次式(13)のように、
Figure 2006251866
と近似することも可能である。
このようにして、ユーザから供給された複数の情報(単語)の確率分布表現を重畳し、1つの確率分布表現を生成し、その1つの確率分布表現を、上記した実施の形態における、ユーザから供給された情報の確率分布表現として用いれば、上記した方法により推薦情報や推薦理由を抽出することができる。
また、複数のユーザ情報から類似する推薦情報を抽出するというこの手順は、ユーザ情報と、それに対応する推薦情報の両方を利用して、推薦する理由を決定する際にも同様に利用できる。すなわち、ユーザ情報と推薦情報を複数の分布として、上記の類似度の累計や分布の重畳によって類似する推薦理由を抽出する。
[記録媒体について]
上述した一連の処理は、それぞれの機能を有するハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図18は、汎用のパーソナルコンピュータの内部構成例を示す図である。パーソナルコンピュータのCPU(Central Processing Unit)1001は、ROM(Read Only Memory)1002に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)1003には、CPU1が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。入出力インタフェース1005は、キーボードやマウスから構成される入力部1006が接続され、入力部1006に入力された信号をCPU1001に出力する。また、入出力インタフェース1005には、ディスプレイやスピーカなどから構成される出力部1007も接続されている。
さらに、入出力インタフェース1005には、ハードディスクなどから構成される記憶部1008、および、インターネットなどのネットワークを介して他の装置とデータの授受を行う通信部1009も接続されている。ドライブ1010は、磁気ディスク1021、光ディスク1022、光磁気ディスク1023、半導体メモリ1024などの記録媒体からデータを読み出したり、データを書き込んだりするときに用いられる。
記録媒体は、図18に示すように、パーソナルコンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク1021(フレキシブルディスクを含む)、光ディスク1022(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク1023(MD(Mini-Disc)(登録商標)を含む)、若しくは半導体メモリ1024などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記憶されているROM1002や記憶部1008が含まれるハードディスクなどで構成される。
なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明を適用したシステムの一実施の形態の構成を示す図である。 学習装置の内部構成例を示す図である。 学習装置の学習について説明するためのフローチャートである。 作成されるテーブルについて説明するための図である。 作成されるテーブルについて説明するための図である。 作成されるテーブルをグラフにしたときの図である。 EMアルゴリズムについて説明するための図である。 モデルパラメータ保持部に保持されるテーブルについて説明するための図である。 モデルパラメータ保持部に保持される他のテーブルについて説明するための図である。 推薦情報提供装置の内部構成例について説明するための図である。 推薦情報提供装置の動作について説明するためのフローチャートである。 推薦する情報、理由を設定する際の処理について説明するための図である。 推薦する情報、理由を設定する際の処理について説明するための図である。 推薦する情報、理由を設定する際の処理について説明するための図である。 推薦する情報、理由を設定する際の処理について説明するための図である。 推薦する情報、理由を設定する際の処理について説明するための図である。 確率分布表現の重畳について説明する図である。 媒体を説明する図である。
符号の説明
11 学習装置, 12 モデルパラメータ保持部, 13 推薦情報提供装置, 31 入力部, 32 形態素解析部, 33 データ更新部, 34 記憶部, 35 モデルパラメータ生成部, 36 モデルパラメータデータベース, 61 テーブル, 101 情報取得部, 102 距離計算部, 103 テーブル参照部, 104 推薦単語抽出部, 105 共通意味クラス抽出部, 106 推薦理由抽出部, 107 提供部

Claims (15)

  1. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照手段と、
    検索対象となる第2の情報を取得する取得手段と、
    前記第1の情報と前記第2の情報との類似度を計算する計算手段と、
    前記類似度の高い順に、前記テーブルから第1の情報を読み出す読み出し手段と
    を備えることを特徴とする情報処理装置。
  2. 前記読み出し手段により読み出された前記第1の情報のモデルパラメータの値が高い順に前記意味クラスを抽出する抽出手段と、
    前記抽出手段により抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルから前記第1の情報を読み出す第2の読み出し手段と
    をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記読み出し手段により読み出される第1の情報は、前記第2の情報に関連している情報としてユーザ側に推薦する推薦情報であり、
    前記第2の読み出し手段により読み出される第1の情報は、前記推薦情報を推薦する推薦理由としてユーザ側に提供する情報である
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記読み出し手段は、読み出した前記第1の情報または前記第2の情報と、前記テーブルに記載されている第1の情報との類似度を計算し、その類似の高い順に、前記テーブルから第1の情報をさらに読み出す
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記計算手段は、前記取得手段により複数の前記第2の情報が取得された場合、前記第2の情報毎に、類似度を計算し、計算された類似度の和を計算する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記計算手段は、前記取得手段により複数の前記第2の情報が取得された場合、前記第2の情報に該当するモデルパラメータの分布を重畳し、その重畳されたモデルパラメータの分布を用いて、前記第1の情報との類似度を計算する
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記参照手段により参照される前記テーブルには、ユーザ側に提示する情報としてふさわしくない情報は除外された前記第1の情報のみが記載されている
    ことを特徴とする請求項1に記載の情報処理装置。
  8. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第1の情報と前記第2の情報との類似度を計算する計算ステップと、
    前記類似度の高い順に、前記テーブルから第1の情報を読み出す読み出しステップと
    を含むことを特徴とする情報処理方法。
  9. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第1の情報と前記第2の情報との類似度を計算する計算ステップと、
    前記類似度の高い順に、前記テーブルから第1の情報を読み出す読み出しステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラム。
  10. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第1の情報と前記第2の情報との類似度を計算する計算ステップと、
    前記類似度の高い順に、前記テーブルから第1の情報を読み出す読み出しステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  11. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照手段と、
    検索対象となる第2の情報を取得する取得手段と、
    前記第2の情報のモデルパラメータの値が高い順に前記意味クラスを抽出する抽出手段と、
    前記抽出手段により抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルから前記第1の情報を読み出す読み出し手段と
    を備えることを特徴とする情報処理装置。
  12. 前記読み出し手段は、読み出した前記第1の情報のモデルパラメータの値が高い順に前記意味クラスを抽出し、その抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルか前記第1の情報をさらに読み出す
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第2の情報のモデルパラメータの値が高い順に前記意味クラスを抽出する抽出ステップと、
    前記抽出ステップの処理で抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルから前記第1の情報を読み出す読み出しステップと
    を含むことを特徴とする情報処理方法。
  14. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第2の情報のモデルパラメータの値が高い順に前記意味クラスを抽出する抽出ステップと、
    前記抽出ステップの処理で抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルから前記第1の情報を読み出す読み出しステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラム。
  15. 第1の情報毎に、その第1の情報の特徴を複数の意味クラスにおけるモデルパラメータの分布として表したテーブルを参照する参照ステップと、
    検索対象となる第2の情報を取得する取得ステップと、
    前記第2の情報のモデルパラメータの値が高い順に前記意味クラスを抽出する抽出ステップと、
    前記抽出ステップの処理で抽出された前記意味クラスにおけるモデルパラメータの値が高い順に、前記テーブルから前記第1の情報を読み出す読み出しステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
JP2005063674A 2005-03-08 2005-03-08 情報処理装置および方法、プログラム、並びに記録媒体 Expired - Fee Related JP4622589B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005063674A JP4622589B2 (ja) 2005-03-08 2005-03-08 情報処理装置および方法、プログラム、並びに記録媒体
US11/368,870 US7720849B2 (en) 2005-03-08 2006-03-06 Information processing device, information processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005063674A JP4622589B2 (ja) 2005-03-08 2005-03-08 情報処理装置および方法、プログラム、並びに記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010047759A Division JP5131565B2 (ja) 2010-03-04 2010-03-04 情報処理装置および方法、プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2006251866A true JP2006251866A (ja) 2006-09-21
JP4622589B2 JP4622589B2 (ja) 2011-02-02

Family

ID=37036281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005063674A Expired - Fee Related JP4622589B2 (ja) 2005-03-08 2005-03-08 情報処理装置および方法、プログラム、並びに記録媒体

Country Status (2)

Country Link
US (1) US7720849B2 (ja)
JP (1) JP4622589B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041764A1 (fr) * 2006-10-05 2008-04-10 National Institute Of Advanced Industrial Science And Technology dispositif et procédé de recherche d'artiste musical
JP2010066366A (ja) * 2008-09-09 2010-03-25 Sony Computer Entertainment Inc 音楽情報処理装置、音楽配信システムおよび音楽情報処理方法
CN102110135A (zh) * 2009-12-25 2011-06-29 索尼公司 信息处理装置、估计关联度的方法和程序
WO2012105069A1 (ja) * 2011-02-04 2012-08-09 楽天株式会社 情報提供装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070174188A1 (en) * 2006-01-25 2007-07-26 Fish Robert D Electronic marketplace that facilitates transactions between consolidated buyers and/or sellers
US8005841B1 (en) * 2006-04-28 2011-08-23 Qurio Holdings, Inc. Methods, systems, and products for classifying content segments
US8615573B1 (en) 2006-06-30 2013-12-24 Quiro Holdings, Inc. System and method for networked PVR storage and content capture
US20090083096A1 (en) * 2007-09-20 2009-03-26 Microsoft Corporation Handling product reviews
US8359204B2 (en) * 2007-10-26 2013-01-22 Honda Motor Co., Ltd. Free-speech command classification for car navigation system
US8560298B2 (en) * 2008-10-21 2013-10-15 Microsoft Corporation Named entity transliteration using comparable CORPRA
US8332205B2 (en) * 2009-01-09 2012-12-11 Microsoft Corporation Mining transliterations for out-of-vocabulary query terms
JP4826662B2 (ja) * 2009-08-06 2011-11-30 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および音声操作履歴情報共有方法
US8694304B2 (en) * 2010-03-26 2014-04-08 Virtuoz Sa Semantic clustering and user interfaces
US9378202B2 (en) 2010-03-26 2016-06-28 Virtuoz Sa Semantic clustering
US8676565B2 (en) 2010-03-26 2014-03-18 Virtuoz Sa Semantic clustering and conversational agents
WO2012001232A2 (en) * 2010-06-30 2012-01-05 Nokia Corporation Method and apparatus for in-application purchasing
US8516016B2 (en) 2010-07-07 2013-08-20 Johnson Controls Technology Company Systems and methods for facilitating communication between a plurality of building automation subsystems
US9524291B2 (en) 2010-10-06 2016-12-20 Virtuoz Sa Visual display of semantic information
TWI480742B (zh) * 2011-03-18 2015-04-11 Ind Tech Res Inst 基於動態語言模型之推薦方法與推薦系統
US8620917B2 (en) * 2011-12-22 2013-12-31 Telefonaktiebolaget L M Ericsson (Publ) Symantic framework for dynamically creating a program guide
CN103902670B (zh) * 2014-03-17 2016-04-13 百度在线网络技术(北京)有限公司 搜索推荐方法和装置
TWI553573B (zh) * 2014-05-15 2016-10-11 財團法人工業技術研究院 面向口碑分析與檢視系統、裝置及方法
KR102598273B1 (ko) * 2015-09-01 2023-11-06 삼성전자주식회사 답신 메시지 추천 방법 및 이를 위한 디바이스
CN107506463B (zh) * 2017-08-30 2020-08-18 宁波城市职业技术学院 一种数据分类和处理方法及设备
CN112308650B (zh) * 2020-07-01 2022-09-30 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043236A (ja) * 1999-07-30 2001-02-16 Matsushita Electric Ind Co Ltd 類似語抽出方法、文書検索方法及びこれらに用いる装置
JP2004355340A (ja) * 2003-05-29 2004-12-16 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6460036B1 (en) * 1994-11-29 2002-10-01 Pinpoint Incorporated System and method for providing customized electronic newspapers and target advertisements
JP3230467B2 (ja) * 1997-09-25 2001-11-19 日本電気株式会社 Gdmoトランスレータ及びgdmoトランスレーション方法並びにgdmoトランスレータプログラムを記録した記録媒体
US7617127B2 (en) * 2000-04-28 2009-11-10 Netflix, Inc. Approach for estimating user ratings of items
US6615208B1 (en) * 2000-09-01 2003-09-02 Telcordia Technologies, Inc. Automatic recommendation of products using latent semantic indexing of content
US7117208B2 (en) * 2000-09-28 2006-10-03 Oracle Corporation Enterprise web mining system and method
JP4074428B2 (ja) * 2000-12-28 2008-04-09 敏春 加藤 紹介方法、紹介システム
US7418447B2 (en) * 2001-01-16 2008-08-26 Cogentex, Inc. Natural language product comparison guide synthesizer
US7231419B1 (en) * 2001-10-19 2007-06-12 Outlooksoft Corporation System and method for adaptively selecting and delivering recommendations to a requester
US7464075B2 (en) * 2004-01-05 2008-12-09 Microsoft Corporation Personalization of web page search rankings
JP2006065734A (ja) * 2004-08-30 2006-03-09 Internatl Business Mach Corp <Ibm> ネットワークを介して情報を提供するシステムおよび方法
US20070143128A1 (en) * 2005-12-20 2007-06-21 Tokarev Maxim L Method and system for providing customized recommendations to users

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043236A (ja) * 1999-07-30 2001-02-16 Matsushita Electric Ind Co Ltd 類似語抽出方法、文書検索方法及びこれらに用いる装置
JP2004355340A (ja) * 2003-05-29 2004-12-16 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041764A1 (fr) * 2006-10-05 2008-04-10 National Institute Of Advanced Industrial Science And Technology dispositif et procédé de recherche d'artiste musical
GB2456103A (en) * 2006-10-05 2009-07-08 Nat Inst Of Advanced Ind Scien Music artist search device and method
US8117214B2 (en) 2006-10-05 2012-02-14 National Institute Of Advanced Industrial Science And Technology Music artist retrieval system and method of retrieving music artist
JP4894026B2 (ja) * 2006-10-05 2012-03-07 独立行政法人産業技術総合研究所 音楽アーティスト検索装置及び方法
JP2010066366A (ja) * 2008-09-09 2010-03-25 Sony Computer Entertainment Inc 音楽情報処理装置、音楽配信システムおよび音楽情報処理方法
CN102110135A (zh) * 2009-12-25 2011-06-29 索尼公司 信息处理装置、估计关联度的方法和程序
WO2012105069A1 (ja) * 2011-02-04 2012-08-09 楽天株式会社 情報提供装置
CN103339646A (zh) * 2011-02-04 2013-10-02 乐天株式会社 信息提供装置
JPWO2012105069A1 (ja) * 2011-02-04 2014-07-03 楽天株式会社 情報提供装置
KR101440254B1 (ko) * 2011-02-04 2014-09-16 라쿠텐 인코포레이티드 정보 제공 장치
US9557891B2 (en) 2011-02-04 2017-01-31 Rakuten, Inc. Information supply device
CN103339646B (zh) * 2011-02-04 2017-06-23 乐天株式会社 信息提供装置

Also Published As

Publication number Publication date
US20060217962A1 (en) 2006-09-28
US7720849B2 (en) 2010-05-18
JP4622589B2 (ja) 2011-02-02

Similar Documents

Publication Publication Date Title
JP4622589B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US8027977B2 (en) Recommending content using discriminatively trained document similarity
US8650094B2 (en) Music recommendation using emotional allocation modeling
US9846744B2 (en) Media discovery and playlist generation
US8200667B2 (en) Method and apparatus for constructing user profile using content tag, and method for content recommendation using the constructed user profile
US7912849B2 (en) Method for determining contextual summary information across documents
US8234311B2 (en) Information processing device, importance calculation method, and program
Trappey et al. An R&D knowledge management method for patent document summarization
JP2012027845A (ja) 情報処理装置、関連文提供方法、及びプログラム
JP2002230021A (ja) 情報検索装置及び情報検索方法並びに記憶媒体
EP1835422A1 (en) Information processing device and method, and program
CN102156747B (zh) 一种引入社会化标签的协作过滤评分预测方法及装置
US20120316865A1 (en) Information processing apparatus, information processing method, and program
JP4967133B2 (ja) 情報取得装置、そのプログラム及び方法
JP6832606B2 (ja) コンテンツマッチングシステム
US20060230036A1 (en) Information processing apparatus, information processing method and program
Huang et al. Feature extraction of search product based on multi-feature fusion-oriented to Chinese online reviews
JP5224532B2 (ja) 評判情報分類装置及びプログラム
JP3472032B2 (ja) 情報フィルタ装置及び情報フィルタ方法
Popova et al. Keyphrase extraction using extended list of stop words with automated updating of stop words list
JP5131565B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2010128598A (ja) 文書検索装置及び方法及びプログラム及びプログラムを記録した記録媒体
CN108664661B (zh) 一种基于频繁主题集偏好的学术论文推荐方法
JP2009223679A (ja) 電子文書検索装置、及び電子文書検索プログラム
Huang et al. Rough-set-based approach to manufacturing process document retrieval

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100810

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees