JP5202569B2 - 機械学習方法および機械学習システム - Google Patents

機械学習方法および機械学習システム Download PDF

Info

Publication number
JP5202569B2
JP5202569B2 JP2010103736A JP2010103736A JP5202569B2 JP 5202569 B2 JP5202569 B2 JP 5202569B2 JP 2010103736 A JP2010103736 A JP 2010103736A JP 2010103736 A JP2010103736 A JP 2010103736A JP 5202569 B2 JP5202569 B2 JP 5202569B2
Authority
JP
Japan
Prior art keywords
learning
machine learning
case
weak
information sources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010103736A
Other languages
English (en)
Other versions
JP2011232997A (ja
Inventor
大祐 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010103736A priority Critical patent/JP5202569B2/ja
Publication of JP2011232997A publication Critical patent/JP2011232997A/ja
Application granted granted Critical
Publication of JP5202569B2 publication Critical patent/JP5202569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、検索システムのランキング関数を得る機械学習方法および機械学習システムに関する。
インターネット技術の進歩によりワールド・ワイド・ウェブ(WWW)におけるページ数が爆発的に増え、その結果、ユーザが求める情報を得るための検索システムが必要不可欠のものとなった。さらに、検索システムの進化により、単にWWW上のページ全体を検索して結果を返すのでなく、ウェブページ(本明細書では単に「ページ」という)をニュースや画像、動画などのカテゴリ別に収集あるいは分類した上で、そのカテゴリ別に検索結果を提示する検索エンジンも登場した。本明細書では、カテゴリ別に格納した収集データを「情報源」という。また、携帯端末の普及により、従来のパーソナルコンピュータ(PC)での閲覧でなく携帯端末での閲覧を想定して、表示サイズを小さくしたページが多く作成されるようになったため、携帯端末での閲覧に特化したページを検索するための検索エンジンも登場している。
上記のようにページをカテゴリ別に収集あるいは分類する利点として、カテゴリ別に格納した情報源毎に最適化したランキング関数を生成できることがある。具体的には、ランキングに用いる特徴量の情報源間の値域差の問題を解消したり、各情報源に特有の特徴量を導入したりすることで、情報源毎にランキング関数を最適化することが可能である。例えば、ページのランキングに使われる特徴量としてよく知られた検索語頻度(TF:Term Frequency)はページに含まれる検索語の個数をカウントするものであるが、この特徴量を用いると1ページあたりの文字数が一般に多いPC用ページが文字数の少ない携帯用ページに比べて有利になってしまう。この問題は、情報源別にランキング関数を生成することで解消できる。また、動画のランキングにおいては、動画サイトにおけるユーザのレイティングを利用でき、通常のページとは違う特徴量の利用が可能である。
さて、ページをカテゴリ別に収集あるいは分類するか否かに関わらず、検索システムにおいては検索語(クエリー)に対する適合度の順にページをランク付けする必要がある。このランク付けに対する一つのアプローチとして、機械学習にてランキング関数を生成する手法がある。
機械学習アプローチでは、学習データを用いた学習を行うことで関数を得る。学習データとは、ページをランク付けするための学習(ランキング学習)に用いるデータであり、より具体的には、検索語に対するページの適合度を表したラベル、及びページに関する特徴量や検索語とページとの関連を表した特徴量から成る特徴量ベクトルである。ラベルとしては、適合/不適合の二値や、適合度を数値で複数段階に表現したものなどが一般的である。特徴量としては、例えばページに含まれる検索語の個数やURLの文字長などがある。ランキング学習の結果として生成される関数としては、特徴量ベクトルに対する適合度をランキングスコアという数値として返すものが一般的であり、このような関数により、検索結果をスコア順に提示することができる。
よく知られたランキング学習としては、ニューラル・ネットワークを利用した手法(下記特許文献1参照)や、サポート・ベクター・マシン(SVM)を利用した手法(下記非特許文献1参照)などがある。これらの技術はnDCG(normalizedDiscounted Cumulative Gain)などの検索性能指標を間接的に高めようとするアプローチである。これに対して、ブースティングによりnDCGを直接的に最適化するランキング学習手法も存在する(下記非特許文献2参照)。
特開2006−236345号公報
Joachims, T. "Optimizing Search Engines Using ClickthroughData," Proceedings of the ACM Conference on Knowledge Discovery and DataMining (KDD 2002) Valizadegan, H., Jin, R., Zhang, R., Mao, J. "Learning to Rankby Optimizing NDCG Measure," Proceedings of Neural Information ProcessingSystems (NIPS 2010)
携帯用の検索結果を表示する際には、画面領域の制約から情報源の境界なく目的の情報にすばやくアクセスしたいというユーザニーズに応えるため、情報源別の検索結果を一つに統合して表示したい場合がある。例えば、携帯用ページの情報源とPC用ページの情報源とに分けて表示するのでなく、これらを統合して表示することが挙げられる。これを実現するために、上記のような従来技術では、統合対象の情報源に共通して利用できる特徴量のみを利用して統合用ランキング関数を生成する方法を取らざるを得ないが、利用できる特徴量が限られる場合には精度の高いランキング関数を生成するのが難しい場合もある。
そこで本発明は、統合対象の各情報源から生成した各学習データが独自の特徴量を有していたとしても、その特徴量をそのまま利用して統合用のランキング関数を得ることが可能な機械学習方法および機械学習システムを提供することを目的とする。
本発明の機械学習方法は、検索システムのランキング関数を得るための機械学習方法であって、複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、事例の重みおよびクラスを算出する第1算出ステップと、第1算出ステップにおいて算出された重みおよびクラスを用いて機械学習を実行することで、複数の情報源それぞれの弱仮説を生成する学習ステップと、学習ステップにおいて生成されたすべての弱仮説に共通の弱仮説重みを算出する第2算出ステップと、学習ステップにおいて生成された弱仮説と、第2算出ステップにおいて生成された弱仮説重みとに基づいて、複数の情報源それぞれのランキング関数を更新する更新ステップと、を含むことを特徴とする。
本発明の機械学習システムは、検索システムのランキング関数を得るための機械学習システムであって、複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、事例の重みおよびクラスを算出する第1算出手段と、第1算出手段により算出された重みおよびクラスを用いて機械学習を実行することで、複数の情報源それぞれの弱仮説を生成する学習手段と、学習手段により生成されたすべての弱仮説に共通の弱仮説重みを算出する第2算出手段と、学習手段により生成された弱仮説と、第2算出手段により生成された弱仮説重みとに基づいて、複数の情報源それぞれのランキング関数を更新する更新手段と、を備えることを特徴とする。
このような発明によれば、複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において事例の重みおよびクラスが算出され、当該重みおよびクラスに基づいて各情報源の弱仮説が生成される。そして、各弱仮説と全弱仮説共通の弱仮説重みとに基づいて各情報源のランキング関数が更新される。これにより、各情報源のランキング関数は、各情報源の任意のページに対して、全情報源に共通の尺度を持つランキングスコアを出力できる。すなわち、統合対象の各情報源から生成した各学習データが独自の特徴量を有していたとしても、その特徴量をそのまま利用して統合用のランキング関数を得ることができる。
本発明の機械学習方法では、第1算出ステップ、学習ステップ、第2算出ステップ、及び更新ステップが所定の回数繰り返して実行されてもよい。
本発明の機械学習方法では、学習ステップにおいて、複数の情報源それぞれの学習データ毎に機械学習が実行されてもよい。
このような機械学習方法および機械学習システムによれば、統合対象の各情報源から生成した各学習データが独自の特徴量を有していたとしても、その特徴量をそのまま利用して統合用のランキング関数を得ることができる。
実施形態に係る機械学習システムの機能構成を示すブロック図である。 図1に示す機械学習システムのハードウェア構成を示す図である。 図1に示す機械学習システムの動作を示すフローチャートである。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
本発明は、上記非特許文献2と同様に、検索性能指標として知られているnDCGをブースティングにより直接的に最適化するアプローチである。ただし、本発明は、統合された検索結果のnDCGを最適化する点で、上記非特許文献2に記載の技術と大きく異なる。実施形態に係る機械学習システムの機能構成を説明する前に、本発明の理論的な前提を説明する。
L個の情報源S〜Sからなる集合S={S,…,S}が存在し、その各情報源から作成された学習データをT={T,…,T}とする。すべての学習データT〜Tは、共通するN個の検索語Q={q,…,q}を含む。情報源Sから作成した学習データTにおいて、検索語qを含むページの集合Dk lはmk l個のページを含む。すなわち、
Figure 0005202569
である。なお本明細書では、この式におけるD,d,mのように、変数等に上付き文字および下付き文字が併存する場合には、例えば「Dk l」のように、上付き文字及び下付き文字をずらして表記する場合もある。
集合Dk lを構成する各ページには、p次元の特徴量ベクトルxk iと適合度(ラベル)rk iとのペアが割り当てられる。すなわち、
Figure 0005202569
である。なお、特徴量ベクトルは一以上の特徴量(ページに関する特徴量や検索語とページとの関連を表した特徴量)から構成され、特徴量ベクトルを構成する特徴量の個数が特徴量ベクトルの次元数に当たる。適合度は学習データに依らず共通の尺度でラベル付けされたものとする。
検索語qにおける全学習データ
Figure 0005202569
に含まれるページ集合D
Figure 0005202569
個のページを含み、
Figure 0005202569
と表記される。同様に、特徴量ベクトルxk iと適合度rk iとのペアについて
Figure 0005202569
が成立する。
ブースティングは、弱学習器により重み付き学習事例から弱仮説を生成するステップを繰り返す手法である。ここで、弱仮説とは、弱学習器により学習された関数のことをいう。学習ステップtでは、生成された弱仮説fの重みαを決定する。ブースティングにより最終的に得られるランキング関数Fは、各ステップtで決定された弱仮説fと当該弱仮説の重みαとの積の総和、すなわち
Figure 0005202569
となる。
本発明では、統合対象の各情報源に対してランキング関数Fを生成する。すなわち、L個の情報源S={S,…,S}を統合対象とすれば、L個のランキング関数F={F,…,F}が生成されることになる。情報源Sにおけるページdk iのランキングスコアはF(dk i)で得られ、このスコアに基づいて統合用の検索結果が生成される。
ブースティングによる学習ステップtにおいて生成される情報源Sの弱仮説をft lとし、その情報源Sに含まれるページdk iをその弱仮説ft lにより評価することをft l(dk i)とする。また、弱仮説の重みをαとする。重みαは情報源に依らず共通である。したがって、情報源Sにおけるt回の学習ステップを経たランキング関数は
Figure 0005202569
となる。ページdk iのランキングスコアはFt l(dk i)となる。なお、dk iは所属する情報源Sの弱仮説fやランキング関数Fによってのみ評価できるので、ft l(dk i)やFt l(dk i)と表記した場合には、lはdk i∈Sを満たしているものとする。
以上の理論を前提として、図1,2を用いて、実施形態に係る機械学習システムの機能及び構成を説明する。機械学習システム1は、検索システム(図示せず)により検索されたウェブページの順位付けを行うランキング関数を得るためのコンピュータシステムである。図1に示すように、機械学習システム1は機能的構成要素として第1算出部(第1算出手段)11、学習部(学習手段)12、第2算出部(第2算出手段)13、及びランキング関数更新部(更新手段)14を備えている。
図2に示すように、機械学習システム1はCPU101と、ROMやRAMで構成される主記憶部102と、ハードディスクなどで構成される補助記憶部103と、データ通信を行う通信制御部104と、キーボードやポインティング・デバイスなどで構成される入力部105と、モニタなどで構成される出力部106とを備えている。図2に示す各機能は、CPU101又は主記憶部102上に所定のプログラムを読み込ませ、CPU101の制御の下で通信制御部104、入力部105及び出力部106を動作させるとともに、主記憶部102又は補助記憶部103に対してデータの読み出し又は書き込みを行うことで実現される。以下に示す処理に必要なデータやデータベースは、主記憶部102又は補助記憶部103に格納されている。
図1に戻って、第1算出部11は、複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、該同一の検索語を含む事例の重みおよびクラスを算出する手段である。第1算出部11は求めた重みおよびクラスを学習部12に出力する。ここで、事例とは、学習データにおけるラベルや特徴量ベクトルを一体化したデータのことをいう。
第1算出部11はまず初期化処理を実行する。なお、この初期化処理をステップ0(t=0)の処理とする。具体的には、第1算出部11は、ページ集合Dに含まれるすべてのページのランキングスコアを0とする。すなわち、F0 l(dk i)=0とする。第1算出部11はこのような初期化を行った上でステップ1(t=1)の処理に移る。
ステップ1において、第1算出部11は、統合対象である複数の情報源の統合学習データのうち、同一の検索語を含む事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、事例の重みおよびクラスを算出する。具体的には、第1算出部11はまず、同一の検索語を持つページ集合Dにおける任意のページのペアに対して、下記式(1)を計算する。
Figure 0005202569
この式(1)において、γはランキング関数から算出されるランキングスコアに基づく二つのページ間の乖離度ということができ、二つのページのランキングスコアの差が大きいほど、γは小さくなる。また、Iは二つのページが同一である場合の乖離度を0にするために導入した関数である。したがってθは、ランキングスコアに基づく、互いに異なる二つのページ間の乖離度といえる。
続いて、第1算出部11はページ集合Dに含まれる全ページに対する相対的数値として、ページ(事例)dk iの重みw(dk i)を下記式(2)により求める。
Figure 0005202569
続いて、第1算出部11は求めた重みに基づいて事例のクラスy(dk i)を下記式(3)により決定する。
Figure 0005202569
ここで、クラスとは、学習により得られた弱仮説が分類すべきカテゴリである。上記式(3)に示すように、第1算出部11は重みが正数のときはクラスを+1(正事例)とし、重みが負数の場合にはクラスを−1(負事例)とする。このように、本実施形態では2種類のクラスが求まる。クラスが−1であることは、ステップtにおけるランキング関数Fにより求まるランキングスコアが、本来のランキングスコア(理想スコア)よりも高いことを意味し、クラスが+1であることはその逆を意味する。
学習部12は、第1算出部11から入力された重みおよびクラスを用いて機械学習することで、複数の情報源それぞれの弱仮説を生成する手段である。
具体的には、学習部12はf(x):RPl→{0,1}となる分類器(各特徴量が実数(R)であるP次元の特徴量ベクトルRPlの入力を受けて0または1を出力する関数f(x)を用いる分類器)によるηの最大化を実行する。ここで、関数f(x)は、学習データにおいて正事例のときは1、負事例のときは0を出力することが望まれる関数である。学習部12により使われる分類器は、f(x):RPl→{0,1}を満たすものであれば何でもよい。
学習部12はなるべく多くの事例を正しいクラスに分類するような弱仮説f={ft 1,…,ft L}(fはステップtにおける弱仮説のこと)を学習により得ることで、下記式(4)で定義されるηの最大化を実行する。
Figure 0005202569
ηは、正しく分類される事例の個数が多いほど大きな値となる指標である。例えば、クラスy(d)=1に対してf(d)=0であれば点数は加算されず、クラスy(d)=−1に対してf(d)=1であれば点数が減算されてしまう。また、式(4)は、学習部12が重みの大きな事例をより正しく分類するようにバイアスをかけることも表している。これは、重みの大きな事例を正しく分類するとより高い効果が得られるからである。
具体的な学習方法としては、一つの特徴量を用いた一つの条件によりクラス分けを行うディシジョン・スタンプ(Decision Stump)を分類器に使って、事例数が重みの絶対値|w(dk i)|の比になるように学習データを再サンプリングした上で学習を行うことが考えられる。本実施形態では、学習部12は各情報源の学習データ毎に学習を行う。すなわち、学習部12は
Figure 0005202569
となる
Figure 0005202569
を個別に最大化するアプローチを取る。
学習部12は、上記式(4)で示されるηを最大化する弱仮説f={ft 1,…,ft L}を求め、その弱仮説を第2算出部13及びランキング関数更新部14に出力する。
第2算出部13は、学習部12から入力されたすべての弱仮説に共通の弱仮説重みを算出する手段である。具体的には、第2算出部13はすべての事例についてft l(dk i)を求め、入力された弱仮説f={ft 1,…,ft L}に共通の弱仮説重みαを下記式(5)により求める。そして、第2算出部13はその重みαをランキング関数更新部14に出力する。
Figure 0005202569
ランキング関数更新部14は、学習部12から入力された弱仮説と、第2算出部13から入力された弱仮説重みとに基づいて、複数の情報源それぞれのランキング関数を更新する手段である。具体的には、ランキング関数更新部14は情報源Sに対応するランキング関数Ft lを下記式(6)により更新する。
Figure 0005202569
本実施形態では、ランキング関数更新部14は各ステップの処理で利用するランキング関数Ft l(dk i)を下記式(7)によりすべての事例に対して求める。
Figure 0005202569
続いて、ランキング関数更新部14はステップ数tが予め設定されている既定回数に達したか否かを判断する。このとき、tが既定回数未満であれば、ランキング関数更新部14は更新後のランキング関数を第1算出部11に出力し、第1算出部11に更新後のランキング関数を用いた重みおよびクラスの算出処理を実行させる。この場合には、t=t+1となる。一方、tが既定回数に達した場合には、ランキング関数更新部14は求めたランキング関数を最終結果F={F,…,F}として所定の出力先(例えば記憶装置や他のシステムなど)に出力する。
次に、図3を用いて、図1に示す機械学習システム1の動作を説明するとともに本実施形態に係る機械学習方法について説明する。
まず、第1算出部11が、統合学習データTのうち同一の検索語を含む事例で構成される事例集合において、事例の重みおよびクラスを求める(ステップS11、第1算出ステップ)。続いて、学習部12が算出された事例の重みおよびクラスを用いて学習することで、各情報源の弱仮説を求める(ステップS12、学習ステップ)。続いて、第2算出部13が算出された弱仮説に共通の弱仮説重みを求める(ステップS13、第2算出ステップ)。そして、ランキング関数更新部14が、学習部12で算出された弱仮説と第2算出部13で算出された弱仮説重みとに基づいてランキング関数を更新する(ステップS14、更新ステップ)。
上記ステップS11〜S14の処理は既定回数だけ繰り返して実行され(ステップS15)、その繰返し処理が終了すると最終的なランキング関数が得られる。
以上説明したように、本実施形態によれば、複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において事例の重みおよびクラスが算出され、当該重みおよびクラスに基づいて各情報源の弱仮説が生成される。そして、各弱仮説と全弱仮説共通の弱仮説重みとに基づいて各情報源のランキング関数が更新される。これにより、各情報源のランキング関数は、各情報源の任意のページに対して、全情報源に共通の尺度を持つランキングスコアを出力できる。すなわち、統合対象の各情報源から生成した各学習データが独自の特徴量を有していたとしても、その特徴量をそのまま利用して統合用のランキング関数を得ることができる。
本発明は、学習データの持つ特徴量の数に依らず採用できるものである。(ただし、特徴量の数は1以上)。したがって、複数の既存の検索エンジンの結果を統合するために、例えば、各検索エンジンから得られた順位の逆数など、順位が高いほど大きくなるような指標のみを特徴量として用意するだけで学習が可能である。この際には、学習データに関して、各検索エンジンから得られた結果ページに共通尺度のラベル付けを行うことが別途必要である。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
上記実施形態では図3におけるステップS11〜S14の処理が既定回数だけ繰り返し実行されたが、その既定回数を1として、当該処理を繰り返さなくてもよい。
1…機械学習システム、11…第1算出部(第1算出手段)、12…学習部(学習手段)、13…第2算出部(第2算出手段)、14…ランキング関数更新部(更新手段)。

Claims (4)

  1. 検索システムのランキング関数を得るための機械学習方法であって、
    複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、事例の重みおよびクラスを算出する第1算出ステップと、
    前記第1算出ステップにおいて算出された重みおよびクラスを用いて機械学習を実行することで、前記複数の情報源それぞれの弱仮説を生成する学習ステップと、
    前記学習ステップにおいて生成されたすべての弱仮説に共通の弱仮説重みを算出する第2算出ステップと、
    前記学習ステップにおいて生成された弱仮説と、前記第2算出ステップにおいて生成された弱仮説重みとに基づいて、前記複数の情報源それぞれのランキング関数を更新する更新ステップと、
    を含むことを特徴とする機械学習方法。
  2. 前記第1算出ステップ、前記学習ステップ、前記第2算出ステップ、及び前記更新ステップが所定の回数繰り返して実行される、
    ことを特徴とする請求項1に記載の機械学習方法。
  3. 前記学習ステップでは、前記複数の情報源それぞれの前記学習データ毎に前記機械学習が実行される、
    請求項1又は2に記載の機械学習方法。
  4. 検索システムのランキング関数を得るための機械学習システムであって、
    複数の情報源のそれぞれから作成された学習データを統合して成る統合学習データのうち、同一の検索語を含む事例で構成される事例集合において、該同一の検索語を含む事例とその他すべての事例との相対的数値として、事例の重みおよびクラスを算出する第1算出手段と、
    前記第1算出手段により算出された重みおよびクラスを用いて機械学習を実行することで、前記複数の情報源それぞれの弱仮説を生成する学習手段と、
    前記学習手段により生成されたすべての弱仮説に共通の弱仮説重みを算出する第2算出手段と、
    前記学習手段により生成された弱仮説と、前記第2算出手段により生成された弱仮説重みとに基づいて、前記複数の情報源それぞれのランキング関数を更新する更新手段と、
    を備えることを特徴とする機械学習システム。
JP2010103736A 2010-04-28 2010-04-28 機械学習方法および機械学習システム Active JP5202569B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103736A JP5202569B2 (ja) 2010-04-28 2010-04-28 機械学習方法および機械学習システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103736A JP5202569B2 (ja) 2010-04-28 2010-04-28 機械学習方法および機械学習システム

Publications (2)

Publication Number Publication Date
JP2011232997A JP2011232997A (ja) 2011-11-17
JP5202569B2 true JP5202569B2 (ja) 2013-06-05

Family

ID=45322248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103736A Active JP5202569B2 (ja) 2010-04-28 2010-04-28 機械学習方法および機械学習システム

Country Status (1)

Country Link
JP (1) JP5202569B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5734820B2 (ja) * 2011-12-05 2015-06-17 日本電信電話株式会社 ランキング関数学習装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2011232997A (ja) 2011-11-17

Similar Documents

Publication Publication Date Title
US11816888B2 (en) Accurate tag relevance prediction for image search
AU2016225947B2 (en) System and method for multimedia document summarization
Bachrach et al. Speeding up the xbox recommender system using a euclidean transformation for inner-product spaces
US7809705B2 (en) System and method for determining web page quality using collective inference based on local and global information
Liu et al. Enhancing collaborative filtering by user interest expansion via personalized ranking
US20070174320A1 (en) Method and system for generating a concept-based keyword function, search engine applying the same, and method for calculating keyword correlation values
US8001152B1 (en) Method and system for semantic affinity search
CN107291792B (zh) 用于确定相关实体的方法和系统
US20150169710A1 (en) Method and apparatus for providing search results
WO2018040069A1 (zh) 信息推荐系统及方法
US20100250523A1 (en) System and method for learning a ranking model that optimizes a ranking evaluation metric for ranking search results of a search query
CN104899322A (zh) 搜索引擎及其实现方法
JP2005317018A (ja) 表示ページ内のブロックの重要度を計算するための方法およびシステム
US8271408B2 (en) Pairwise ranking-based classifier
CN111813905B (zh) 语料生成方法、装置、计算机设备及存储介质
CN105531701A (zh) 个性化趋势图像搜索建议
Rajesh et al. Annoyed realm outlook taxonomy using twin transfer learning
Kouadria et al. A multi-criteria collaborative filtering recommender system using learning-to-rank and rank aggregation
CN110390106B (zh) 基于双向关联的语义消歧方法、装置、设备及存储介质
Peng et al. Multi-level preference regression for cold-start recommendations
JP5341366B2 (ja) 情報処理装置及び情報処理方法
CN106682151B (zh) 一种教育资源个性化推荐方法及系统
JP2010146222A (ja) 文書分類装置、文書分類方法およびプログラム
CN113569118A (zh) 自媒体推送方法、装置、计算机设备及存储介质
Chen et al. Salary prediction using random forest with fundamental features

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R150 Certificate of patent or registration of utility model

Ref document number: 5202569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250