JP6831719B2 - 情報処理システム、情報処理方法、およびプログラム - Google Patents

情報処理システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6831719B2
JP6831719B2 JP2017041807A JP2017041807A JP6831719B2 JP 6831719 B2 JP6831719 B2 JP 6831719B2 JP 2017041807 A JP2017041807 A JP 2017041807A JP 2017041807 A JP2017041807 A JP 2017041807A JP 6831719 B2 JP6831719 B2 JP 6831719B2
Authority
JP
Japan
Prior art keywords
user
content
feature
vector
contents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017041807A
Other languages
English (en)
Other versions
JP2018147235A (ja
Inventor
俊平 大倉
俊平 大倉
幸浩 田頭
幸浩 田頭
真吾 星野
真吾 星野
玲 田島
玲 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017041807A priority Critical patent/JP6831719B2/ja
Publication of JP2018147235A publication Critical patent/JP2018147235A/ja
Application granted granted Critical
Publication of JP6831719B2 publication Critical patent/JP6831719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報処理システム、情報処理方法、およびプログラムに関する。
ユーザが過去にアクセスしたコンテンツの内容に基づいてユーザの興味を推定し、ユーザの興味に応じたコンテンツを推薦する情報処理システムが提案されている(特許文献1参照)。
特開2014−203442号公報
ところで、ユーザの興味は、新しいコンテンツを見ることによって移り変わるものと考えられる。しかしながら、従来の情報処理システムでは、移り変わるユーザの興味を十分に反映することができず、ユーザの興味に応じたコンテンツを高い精度で推薦することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、ユーザの興味に応じたコンテンツをより高い精度で推薦することができる情報処理システム、情報処理方法、およびプログラムを提供することを目的の一つとする。
本発明の一態様は、ユーザがアクセスしたコンテンツに基づく第1特徴と、過去に求められた前記ユーザの興味を示す第2特徴とに基づき、前記第2特徴を更新する更新部と、前記更新部により更新された前記第2特徴に基づき、前記ユーザに対して推薦するコンテンツを決定する決定部と、を備える情報処理システムである。
本発明の一態様によれば、ユーザの興味に応じたコンテンツをより高い精度で推薦することができる。
実施形態の情報配信装置10の使用環境を示す図である。 実施形態の内容ベクトル導出部200の構成を示すブロック図である。 実施形態の密ベクトル導出部220の導出器221の構成の一例を示す図である。 実施形態の密ベクトル導出部220の学習処理の一例を説明するための図である。 実施形態の対応テーブルT1の内容の一例を示す図である。 実施形態の推薦情報Rの内容の一例を示す図である。 実施形態の対応テーブルT2の内容の一例を示す図である。 実施形態の興味ベクトル更新部400による興味ベクトルの更新処理の流れの一例を示す図である。 実施形態の対応テーブルT3の内容の一例を示す図である。 実施形態の興味ベクトル更新部400の構成を示すブロック図である。 実施形態の興味ベクトル更新部400の導出器401の一例を示す図である。 実施形態の密ベクトルsを説明するための図である。 実施形態の内容ベクトル導出部200の学習処理の流れの一例を示すフローチャートである。 実施形態の興味ベクトル更新部400の学習処理の流れの一例を示すフローチャートである。 実施形態の情報配信装置10による推薦情報Rの配信に関する処理の流れの一例を示すフローチャートである。
以下、図面を参照して、情報処理システム、情報処理方法、およびプログラムの実施形態について説明する。本実施形態では、情報処理システムが情報配信装置に適用されたものとして説明する。情報配信装置は、インターネットなどのネットワークを介してユーザ端末装置と通信可能に接続され、ユーザ端末装置に対して各種の情報を配信する。また、本実施形態の情報配信装置は、ユーザから要求されたコンテンツに加え、ユーザの興味に応じたコンテンツを推薦する推薦情報を配信可能である。以下、実施形態について説明する。
<1.情報配信装置の構成>
図1は、実施形態の情報配信装置10の使用環境を示す図である。情報配信装置10は、ネットワークNWを介してユーザ端末装置UDおよびクライアント端末装置CDと通信可能に接続される。ネットワークNWは、インターネットやWAN(Wide Area Network)、LAN(Local Area Network)などを含む。なお、情報配信装置10と通信可能に接続されるユーザ端末装置UDおよびクライアント端末装置CDの数は、図示した例に限らず、例えばそれぞれ複数である。
ユーザ端末装置UDは、コンテンツの提供を受けるユーザによって使用される情報処理装置である。ユーザ端末装置UDは、ユーザがコンテンツを閲覧するために利用される。
クライアント端末装置CDは、コンテンツの提供者であるクライアントによって使用される情報処理装置である。クライアント端末装置CDは、配信対象となるコンテンツを情報配信装置10に登録する。
ここで、「コンテンツ」とは、例えば、ニュースやコラムなどテキストデータを含む記事である。ただし、「コンテンツ」は、画像や動画など、テキストデータを含まないコンテンツでもよい。また、「コンテンツ」は、ブラウザに限らず、アプリケーションプログラムによって再生されるものでもよい。本実施形態では、コンテンツがテキストデータを含む記事である例を取り上げて説明する。
情報配信装置10は、クライアント端末装置CDによって登録されたコンテンツを記憶し、ユーザ端末装置UDからコンテンツの配信要求を受け付けると、記憶したコンテンツをユーザ端末装置UDに対して配信する。また、情報配信装置10は、ユーザの閲覧履歴に基づいてユーザの興味を推定し、ユーザの興味に関連したコンテンツを推薦する推薦情報をユーザ端末装置UDに対して配信する。
詳しく述べると、情報配信装置10は、例えば、コンテンツ取得部100と、内容ベクトル導出部200と、アクセス情報取得部300と、興味ベクトル更新部400と、配信部500と、記憶部600とを備える。
コンテンツ取得部100、内容ベクトル導出部200、アクセス情報取得部300、興味ベクトル更新部400、および配信部500は、情報配信装置10のプロセッサがプログラムを実行することで実現される機能部(以下、「ソフトウェア機能部」と称する)でもよいし、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェア機能部とハードウェアとが協働することで実現されてもよい。
記憶部600は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。なお、記憶部600の全部または一部は、NAS(Network Attached Storage)や外部のストレージサーバなど、情報配信装置10のプロセッサがアクセス可能な外部装置により実現されてもよい。記憶部600には、コンテンツデータベースDB1、疎ベクトルデータベースDB2、密ベクトルデータベースDB3、第1パラメータデータベースDB4、アクセス情報データベースDB5、興味ベクトルデータベースDB6、および第2パラメータデータベースDB7が格納される。
次に、情報配信装置10の各機能部について詳しく説明する。
コンテンツ取得部100は、ネットワークNWを介してクライアント端末装置CDから配信対象のコンテンツを受信する。コンテンツ取得部100は、クライアント端末装置CDから受信したコンテンツに、コンテンツを識別するためのコンテンツIDを付与し、コンテンツとコンテンツIDとを対応付けてコンテンツデータベースDB1に登録する。
内容ベクトル導出部200は、コンテンツの内容に基づき、コンテンツの内容をベクトル表現で表したコンテンツ内容ベクトルを導出する。ここで、複数のコンテンツの内容が似ている場合であっても、コンテンツに含まれる単語はコンテンツの著者や提供者により様々である。このため、コンテンツの内容を疎ベクトルで表すと、コンテンツに含まれる単語が異なる場合、内容が似ているコンテンツ同士が非類似のコンテンツとして認識される場合がある。「疎ベクトル」とは、コンテンツの内容を局所表現で表したベクトルである。
そこで、本実施形態の内容ベクトル導出部200は、コンテンツの内容を示す密ベクトルを導出し、密ベクトルを用いてコンテンツを認識する。「密ベクトル」とは、コンテンツの内容を分散表現で表したベクトルである。「密ベクトル」は、コンテンツ同士の関係を距離で表すベクトルの一例である。
図2は、本実施形態の内容ベクトル導出部200の構成を示すブロック図である。図2に示すように、内容ベクトル導出部200は、例えば、疎ベクトル導出部210と、密ベクトル導出部220とを有する。
疎ベクトル導出部210は、密ベクトルの導出対象となるコンテンツのデータ(例えばテキストデータ)をコンテンツデータベースDB1から取得する。疎ベクトル導出部210は、まず形態素解析を行うことで、コンテンツに含まれる単語を抽出する。そして、疎ベクトル導出部210は、tf−idf(Term Frequency - Inverse Document Frequency)などの手法を用いて絞り込んだ各単語を数値に置き換えることで、コンテンツの内容を示す疎ベクトルを導出する。疎ベクトル導出部210は、導出した疎ベクトルとコンテンツIDとを対応付けて、疎ベクトルデータベースDB2に登録する。
密ベクトル導出部220は、疎ベクトル導出部210により導出された各コンテンツの疎ベクトルを疎ベクトルデータベースDB2から取得し、取得した疎ベクトルに基づき密ベクトルを導出する。具体的には、密ベクトル導出部220は、疎ベクトルが持つ次元数を圧縮することで、コンテンツの内容を示す密ベクトルを導出する。コンテンツの内容を示す密ベクトルは、「コンテンツに基づく第1特徴」の一例である。密ベクトル導出部220は、導出した密ベクトルとコンテンツIDとを対応させて、密ベクトルデータベースDB3に登録する。
ここで、本実施形態の密ベクトル導出部220は、コンテンツの内容を高精度に示す密ベクトルを導出するため、複数のコンテンツを教師データとした学習処理を行う。密ベクトル導出部220は、例えば、導出器(学習器)221と、学習処理により導出器221の内部パラメータを調整するパラメータ調整部222とを有する。
図3は、本実施形態の導出器221の構成の一例を示す図である。図3に示すように、導出器221は、例えば、ニューラルネットワークやディープラーニングなど、多層に接続されて入力データに対する演算結果を出力する複数のノードを有する。例えば、導出器221は、入力された疎ベクトルの次元数を圧縮して密ベクトルを導出し、導出した密ベクトルから元の疎ベクトルを復元するように学習が行われたニューラルネットワークである。
導出器221の一例は、DAE(Denoising Auto Encoder)である。例えば、導出器221は、入力層221Aと、中間層221Bと、出力層221Cとを有する。入力層221Aには、複数次元の情報の入力を受け付ける複数のノードが配置されている。入力層221Aの各ノードには、入力層221Aに入力される情報のうち、自ノードに対応する次元の値が入力される。
導出器221のノードは、隣接する層に含まれる全て(または一部)のノードと接続されており、自ノードが含まれる層よりも入力層221Aに近い層のノードからデータを受け付けると、受け付けたデータに基づいた出力データを生成し、自ノードが含まれる層よりも出力層221Cに近い層のノードへと生成したデータを出力する。そして、各ノードが出力したデータは、データを伝達する伝達経路に対して設定された接続係数を考慮した値に変換され、変換後の値のデータが接続先のノードへと伝達される。
中間層221Bには、入力層221Aよりも少ない数のノードが配置されている。このため、中間層221Bから出力されるデータは、導出器221に入力されるデータの次元数を圧縮したデータであり、コンテンツの内容を示す密ベクトルとなる。
出力層221Cには、入力層221Aと同数のノードが配置されている。このため、出力層221Cから出力されるデータは、次元数が圧縮されたデータから再現されたデータであって、入力層221Aに入力されたデータと同じ次元数を有するデータとなる。
ここで、入力層221Aのノードから出力されるデータを「x」とし、伝達経路の接続係数の値を「W」とすると、中間層221Bのノードに入力されるデータは、「Wx」となる。また、ノードに対する入力Xと出力Yとの関係が「Y=σ(X+b)」で表されるとすると、中間層221Bのノードが出力するデータは、「σ(Wx+b)」となる。ここで、σはシグモイド関数である。中間層221Bのノードから出力されるデータは、「W^T」で示される接続係数が設定された伝達経路を介して、出力層221Cのノードに伝達される。出力層221Cのノードは、中間層221Bのノードから伝達されたデータに基づく値のデータを出力する。
パラメータ調整部222は、複数のコンテンツを教師データとして用い、入力層221Aから入力される疎ベクトルが出力層221Cで元の疎ベクトルに復元されるように導出器221を学習させる。例えば、パラメータ調整部222は、疎ベクトルAが導出器221の入力層221Aに入力された場合に導出器221の出力層221Cから出力される疎ベクトルA´が、入力された疎ベクトルAと略同一となるように導出器221の内部パラメータW,bを調整する。なお、パラメータW,bは、伝達経路毎に異なる値であり、伝達経路毎にそれぞれ調整される。
また、本実施形態のパラメータ調整部222は、上記学習処理と同時に、類似する複数のコンテンツから導出された密ベクトルが互いに類似し、類似しない複数のコンテンツから導出された密ベクトルが互いに類似しないように導出器221を学習させてもよい。この場合、パラメータ調整部222は、類似する複数のコンテンツから導出された密ベクトルが互いに類似し、類似しない複数のコンテンツから導出された密ベクトルが互いに類似しないように導出器221の内部パラメータW,bを調整する。
図4は、本実施形態の密ベクトル導出部220の学習処理の一例を説明するための図である。本学習処理では、まず事前準備として、コンテンツ取得部100がコンテンツおよびコンテンツが属するカテゴリの登録を受け付ける。「カテゴリ」とは、コンテンツの内容が属する分野を示す情報である。コンテンツ取得部100は、登録を受け付けたコンテンツとカテゴリとを対応付けて、コンテンツデータベースDB1に記憶する。なお、どのカテゴリが類似し、どのカテゴリが類似しないかは、予め設定されている。
そして、パラメータ調整部222は、例えば、コンテンツAと、コンテンツAに対してカテゴリが同一または類似のコンテンツBと、コンテンツAに対してカテゴリが非類似のコンテンツCとをコンテンツデータベースDB1から抽出する。そして、パラメータ調整部222は、コンテンツAの疎ベクトルを導出器221の入力層221Aに入力し、導出器221の出力層221Cから出力された疎ベクトルを取得する。同様に、パラメータ調整部222は、コンテンツBの疎ベクトルを導出器221の入力層221Aに入力し、導出器221の出力層221Cから出力された疎ベクトルを取得する。パラメータ調整部222は、コンテンツCの疎ベクトルを導出器221の入力層221Aに入力し、導出器221の出力層221Cから出力された疎ベクトルを取得する。そして、パラメータ調整部222は、コンテンツAの入力前と出力後の疎ベクトル、コンテンツBの入力前と出力後の疎ベクトル、コンテンツCの入力前と出力後の疎ベクトルとがそれぞれ略同一になるように、導出器221の内部パラメータW,bを繰り返し修正する学習処理を行う。
また、パラメータ調整部222は、コンテンツAから導出された密ベクトルαとコンテンツBから導出された密ベクトルβとが類似し、コンテンツBから導出された密ベクトルβとコンテンツCから導出された密ベクトルγとが非類似となるように、導出器221の内部パラメータW,bを繰り返し修正する学習処理を行う。ここで、類似するベクトル同士の内積の値は、類似しないベクトル同士の内積の値よりも大きくなる。そこで、パラメータ調整部222は、密ベクトルαと密ベクトルβの内積が、密ベクトルβと密ベクトルγの内積よりも大きくなるように、導出器221の内部パラメータW,bを繰り返し修正する学習処理を行う。
パラメータ調整部222は、上記2つの学習処理を同時に行うことで、導出器221の内部パラメータW,bの好ましい値を導出する。パラメータ調整部222は、学習処理を通じて導出された導出器221の内部パラメータW,bの好ましい値を、第1パラメータデータベースDB4に登録する。
以降、導出器221は、パラメータ調整部222により学習を通じて調整された内部パラメータW,bの値を第1パラメータデータベースDB4から取得し、取得した内部パラメータW,bに基づき、各コンテンツの密ベクトルを導出する。
次に、アクセス情報取得部300について説明する。アクセス情報取得部300は、ネットワークNWを介してユーザ端末装置UDからコンテンツの配信要求を受け付ける。アクセス情報取得部300は、コンテンツの配信要求を受け付けた場合、ユーザ端末装置UDのクッキーなどに基づいて得られるユーザIDと、配信要求を受け付けたコンテンツのコンテンツIDと、配信要求を受け付けた時刻とを対応付けてアクセス情報データベースDB5の対応テーブルT1に登録する。例えば、アクセス情報取得部300は、ユーザ端末装置UDからコンテンツの配信要求を受け付ける毎に、対応テーブルT1を更新する。
図5は、本実施形態の対応テーブルT1の内容の一例を示す図である。図5に示すように、対応テーブルT1では、ユーザID毎に、配信要求を受け付けたコンテンツのコンテンツIDと、配信要求を受け付けた時刻とが対応付けられて管理されている。対応テーブルT1は、複数のコンテンツに対してユーザがアクセスした順を示す時系列データの一例である。
また、アクセス情報取得部300は、ユーザに対してコンテンツを推薦する推薦情報Rがユーザ端末装置UDに配信される場合、ユーザに対して推薦された複数のコンテンツのなかでユーザがアクセスしたコンテンツとユーザがアクセスしなかったコンテンツとを特定する情報を取得する。
図6は、本実施形態の推薦情報Rの内容の一例を示す図である。図6に示すように、1つの推薦情報Rは、ユーザに対して推薦された複数のコンテンツのタイトルや概要などと、各コンテンツにアクセスするためのリンク(ハイパーリンク)とを含む。例えば、推薦情報Rは、ユーザ端末装置UDの表示画面にその一部のみが一度に表示され、スクロールすることや別ページに移動することで、残りの部分が表示画面に表示されてもよい。
アクセス情報取得部300は、例えば、ユーザに対して推薦情報Rが配信された状態でユーザ端末装置UDから受け付ける配信要求などに基づき、ユーザに対して推薦された複数のコンテンツのなかでユーザがアクセスしたコンテンツとユーザがアクセスしなかったコンテンツとを特定する情報を取得する。アクセス情報取得部300は、推薦情報Rで推薦されてユーザによってアクセスされたコンテンツには、アクセスされたことを示す情報を対応付け、推薦情報Rで推薦されてユーザに対して表示されたがユーザによってアクセスされなかったコンテンツには、表示されたがアクセスされなかったことを示す情報を対応付け、推薦情報Rに含まれたがユーザに対して表示されなかったコンテンツには、表示されなかったことを示す情報を対応付け、アクセス情報データベースDB5の対応テーブルT2に登録する。
図7は、本実施形態の対応テーブルT2の内容の一例を示す図である。図7に示すように、対応テーブルT2では、各コンテンツに対応するコンテンツIDと、各コンテンツに対するユーザのアクセス状況とが対応付けられて管理されている。アクセス状況は、「クリックされた(Clicked)」、「クリックされなかった(Not Clicked)」、および「表示されなかった(Not displayed)」などである。「クリックされた(Clicked)」は、ユーザによってコンテンツがアクセスされたことを示す。「クリックされなかった(Not Clicked)」は、ユーザに対して表示されたがユーザによってコンテンツがアクセスされなかったことを示す。「表示されなかった(Not displayed)」は、ユーザに対して表示されなかったことを示す。
次に、興味ベクトル更新部400について説明する。興味ベクトル更新部400は、ユーザの閲覧履歴に基づいてユーザの興味を推定し、ユーザの興味を示す興味ベクトルを更新する。「興味ベクトル」とは、コンテンツの内容を示す密ベクトルをaとし、興味ベクトルをuとすると、コンテンツに対するユーザの興味(関心度)が高いほど、uaが大きくなるベクトルである。興味ベクトルは、「ユーザの興味を示す第2特徴」の一例である。興味ベクトル更新部400は、ユーザ毎に、興味ベクトルを管理して更新する。
ここで、ユーザが過去にアクセスしたコンテンツの列を下記(要素1)とし、それらコンテンツに対応する密ベクトルを下記(要素2)とする。ここで、ユーザの興味は、新しいコンテンツを見ることによって移り変わるものと考えられる。このため、コンテンツの内容を示す密ベクトルをa、前記コンテンツにアクセスする前のユーザの興味ベクトルをuk−1、前記コンテンツにアクセスした後のユーザの興味ベクトルをuとすると、密ベクトルa、興味ベクトルuk−1、および興味ベクトルuの間には、式(1)のような再帰的関係があると考えられる。
Figure 0006831719
そこで、本実施形態の興味ベクトル更新部400は、ユーザがアクセスしたコンテンツの内容を示す密ベクトルaと、前記コンテンツにアクセスする前のユーザの興味ベクトル(過去に求められたユーザの興味ベクトル)uk−1とに基づき、興味ベクトルuを更新する。
図8は、本実施形態の興味ベクトル更新部400による興味ベクトルの更新処理の流れの一例を示す図である。図8に示すように、興味ベクトル更新部400は、コンテンツCの密ベクトルaと、コンテンツCにアクセスする前のユーザの興味ベクトルu(例えば興味ベクトルの初期値)とに基づき、コンテンツCにアクセスした後のユーザの興味ベクトルuを更新する。次に、ユーザがコンテンツCにアクセスした後にコンテンツCにアクセスした場合、興味ベクトル更新部400は、コンテンツC2の密ベクトルa2と、コンテンツC2にアクセスする前のユーザの興味ベクトルuとに基づき、コンテンツCにアクセスした後のユーザの興味ベクトルuを更新する。以降、興味ベクトル更新部400は、この処理を繰り返す。なお、興味ベクトルの初期値uは、例えば全てのユーザに対して一律に設定される固定値である。
以上のように、興味ベクトル更新部400は、ユーザのアクセスに関する情報が入力される毎(例えばユーザが新しくコンテンツにアクセスする毎)に、ユーザがアクセスしたコンテンツの内容を示す密ベクトルaと、前記コンテンツにアクセスする前のユーザの興味を示す興味ベクトル(更新前の興味ベクトル)uk−1とに基づき、興味ベクトルuを更新することを繰り返す。これにより、興味ベクトル更新部400は、ユーザの直近の興味を示す興味ベクトルuを再帰的に導出する。なお、「ユーザのアクセスに関する情報が入力される毎に更新する」とは、ユーザが1つのコンテンツにアクセスする毎に更新される場合に限定されず、ユーザが複数のコンテンツにアクセスする毎に更新される場合も含む。
具体的な処理の一例では、興味ベクトル更新部400は、アクセス情報データベースDB5の対応テーブルT1を参照することで、ユーザがアクセスしたコンテンツのコンテンツIDを取得する。そして、興味ベクトル更新部400は、取得したコンテンツIDに基づいて密ベクトルデータベースDB3を参照することで、コンテンツIDに対応する密ベクトルを取得する。これにより、興味ベクトル更新部400は、ユーザがアクセスしたコンテンツの密ベクトルを取得する。
また、興味ベクトルデータベースDB6には、ユーザIDと各ユーザの興味ベクトルとが対応付けられて管理された対応テーブルT3が記憶されている。興味ベクトル更新部400は、対応テーブルT3を参照することで、新しくコンテンツにアクセスする前のユーザの興味ベクトルを取得する。
そして、興味ベクトル更新部400は、これら取得された情報に基づき、新しいユーザの興味ベクトルを導出し、ユーザの興味ベクトルを更新する。興味ベクトル更新部400は、更新したユーザの興味ベクトルとユーザIDとを対応付けて、対応テーブルT3を更新する。
図9は、本実施形態の対応テーブルT3の内容の一例を示す図である。図9に示すように、対応テーブルT3では、ユーザIDと、各ユーザの最後に更新された興味ベクトル(ユーザの直近の興味を示す興味ベクトル)とが対応付けられて管理されている。
次に、本実施形態の興味ベクトル更新部400をより詳しく説明する。本実施形態の興味ベクトル更新部400は、ユーザの興味を高精度で反映した興味ベクトルを導出するため、ユーザが過去にアクセスした複数のコンテンツの内容と、ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとを含む学習データに基づき、ユーザが興味を持つコンテンツの内容を学習し、学習の結果に基づきユーザの興味ベクトルを導出する。
図10は、本実施形態の興味ベクトル更新部400の構成を示すブロック図である。図10に示すように、興味ベクトル更新部400は、例えば、導出器(学習器)401と、学習処理により導出器401の内部パラメータを調整するパラメータ調整部402とを有する。
導出器401は、ユーザがアクセスしたコンテンツの密ベクトルと、前記コンテンツにアクセスする前のユーザの興味ベクトルとに基づき、前記コンテンツにアクセスした後のユーザの興味ベクトルを導出する。導出器401は、例えば、再帰型ニューラルネットワークによって実現される。そして、上記式(1)中の関数Fが再帰型ニューラルネットワークによって学習されている。
例えば、導出器401が単純な再帰型ニューラルネットワークにより実現される場合、式(1)中の関数Fは、式(2)のように表すことができる。
Figure 0006831719
ここで、f(・)は、活性化関数であり、W,W,bは、導出器401の内部パラメータであり、学習対象となるパラメータである。
関数Fの部分には、例えば、LSTM(Long Short Term Memory)やGRU(Gated Recurrent Unit)などを用いることができる。関数Fの部分にLSTMまたはGRUが用いられると、勾配降下法における勾配爆発や消失問題を緩和することができ、学習の収束を促進することができる。
図11は、本実施形態の導出器401の一例を示す図である。図11に示す導出器401は、関数Fの部分にGRUが組み込まれた例である。なお、図11中の導出器401の各ノードで行われる計算は、式(3)のように表すことができる。なお、φ(・)は活性化関数であり、例えばtanh(・)である。また、図中のgrとht−1との間などにある記号は、ベクトルの要素積を意味する。
Figure 0006831719
gz in,Wgz mem,Wgr in,Wgr mem,Wenc in,Wenc out,Wdec mem,bgz,bbr,benc,bdecは、導出器401が新しい興味ベクトルを導出する演算に用いられる導出器401の内部パラメータであり、学習対象となるパラメータである。なお、これらパラメータは、コンテンツの密ベクトルの次元毎に異なる値であり、コンテンツの密ベクトルの次元毎にそれぞれ調整される。
ここで、図11中のノードgzは、更新後の興味ベクトルに反映させるコンテンツの密ベクトルの少なくとも一部の要素を希薄化または除去し得るゲート(忘却ゲート)である。例えば、ノードgzは、コンテンツの密ベクトルの次元毎に設定され、次元毎に希薄化の程度が異なる。また、パラメータbgzは、コンテンツの密ベクトルの各次元において、更新後の興味ベクトルにコンテンツの密ベクトルの要素を反映させる程度を決めるパラメータである。例えば、ある次元に対して設定されたbgzが大きい場合、その次元に対応する密ベクトルの要素は大きく希薄化されて更新後の興味ベクトルにはあまり反映されない。一方で、ある次元に対して設定されたbgzが小さい場合、その次元に対応する密ベクトルの要素はあまり希薄化されず更新後の興味ベクトルに反映される。
次に、パラメータ調整部402について説明する。パラメータ調整部402は、上述された導出器401の内部パラメータを学習処理により調整する。例えば、パラメータ調整部402は、所定の期間(例えば一年)にユーザがアクセスした複数のコンテンツと、前記複数のコンテンツに対してユーザがアクセスした順を示す時系列データと、ユーザ端末装置UDに対して推薦されたコンテンツに関するアクセス状況(すなわち、対応テーブルT2の内容)とを含む学習用データを用いた学習処理により、導出器401の内部パラメータを調整する。「所定の期間」は、季節変動の影響を抑制するため、複数の季節を含む期間が好ましい。
例えば、パラメータ調整部402は、前記所定の期間に含まれるある時点において導出器401により導出されたユーザの興味ベクトルと、前記時点においてユーザに対して推薦された複数のコンテンツのなかでユーザがアクセスしたコンテンツの密ベクトルとユーザがアクセスしなかったコンテンツの密ベクトルとに基づき、導出器401の内部パラメータを調整する。
上記内容を説明するため、関数R(u,a)と、密ベクトルsとについて定義する。関数R(u,a)は、ある時点tにおけるユーザの興味ベクトルuと、コンテンツの密ベクトルaとの適合性を示す関数である。関数R(u,a)は、ユーザの興味ベクトルuとコンテンツの密ベクトルaとの適合度が大きいほど、大きな値が出力される関数である。例えば、関数R(u,a)は、ユーザの興味ベクトルuとコンテンツの密ベクトルaとの内積である。また、密ベクトルsは、ユーザ端末装置UDに対して配信された推薦情報Rに含まれる各コンテンツの内容を示す密ベクトルである。
図12は、本実施形態の密ベクトルsを説明するための図である。図12に示すように、密ベクトルsは、推薦情報Rに含まれる各コンテンツに対して導出される。例えば、密ベクトルsは、推薦情報Rに含まれてユーザによってアクセスされたコンテンツ、推薦情報Rに含まれてユーザに対して表示されたがユーザによってアクセスされなかったコンテンツ、および推薦情報Rに含まれたがユーザに対して表示されなかったコンテンツのそれぞれに対して導出される。
また、PおよびPについて定義する。PおよびPは、それぞれ、推薦情報Rに含まれる複数のコンテンツを示すリストのなかで各コンテンツの位置をリストの先頭からの位置で示す値である。例えば、Pは、前記リストにおいてユーザがアクセスしたコンテンツの位置をリストの先頭からの位置で示す値である。一方で、Pは、前記リストにおいてユーザに対して表示されたがユーザがアクセスしなかったコンテンツの位置をリストの先頭からの位置で示す値である。また、密ベクトルSt,P+ は、推薦情報Rに含まれてユーザがアクセスしたコンテンツの密ベクトルを示す。一方で、密ベクトルSt,P− は、推薦情報Rに含まれてユーザに対して表示されたがユーザがアクセスしなかったコンテンツの密ベクトルを示す。
そして、本実施形態のパラメータ調整部402は、関数R(u,St,P+ )がなるべく大きくなり、且つ、関数R(u,St,P− )がなるべく小さくなるように、導出器401の内部パラメータを繰り返し修正する学習処理を行う。例えば、パラメータ調整部402の一例は、前記所定の期間に含まれる全ての時点を通じて見た場合の式(4)の値を最小化するように、導出器401の内部パラメータを繰り返し修正する。
Figure 0006831719
以上のような学習処理により、パラメータ調整部402は、導出器401の内部パラメータを調整する。例えば、パラメータ調整部402は、パラメータbgzを調整することで、前記忘却ゲートにおいてコンテンツの密ベクトルの少なくとも一部の要素を希薄化する程度を調整する。パラメータ調整部402は、学習処理を通じて得られた導出器401の内部パラメータを、第2パラメータデータベースDB7に登録する。
以降、導出器401は、パラメータ調整部402により学習を通じて調整された内部パラメータの値を第2パラメータデータベースDB7から取得し、取得した内部パラメータに基づき、各ユーザの興味ベクトルを導出する。そして、興味ベクトル導出部400は、導出器401により新しく導出されたユーザの興味ベクトルとユーザIDとを対応させて、興味ベクトルデータベースDB6に登録することで、興味ベクトルデータベースDB6の対応テーブルT3を更新する。
次に、配信部500について説明する。配信部500は、情報配信装置10がユーザ端末装置UDからコンテンツの配信要求を受け付けた場合、配信要求を受け付けたコンテンツをコンテンツデータベースDB1から取得し、取得したコンテンツをユーザ端末装置UDに対して配信する。
また、本実施形態の配信部500は、興味ベクトル更新部400によって更新されたユーザの直近の興味ベクトルに基づき、複数の配信候補のコンテンツのなかからユーザに対して推薦する1以上のコンテンツを決定する。配信部500は、「決定部」の一例である。
例えば、配信部500は、密ベクトルデータベースDB3に登録された各コンテンツの密ベクトルaと、興味ベクトル更新部400によって更新されたユーザの直近の興味ベクトルuとに基づき、複数の配信候補のコンテンツのなかから、関数R(u,a)が大きくなるコンテンツから順に、ユーザに対して推薦するコンテンツとして選出する。そして、配信部500は、選出したコンテンツを推薦する推薦情報Rを生成し、生成した推薦情報Rをユーザ端末装置UDに対して配信する。
<2.情報配信装置の処理の流れ>
次に、情報配信装置10の処理の流れについて説明する。
<2−1.内容ベクトル導出部200の学習処理>
図13は、本実施形態の内容ベクトル導出部200の学習処理の流れの一例を示すフローチャートである。内容ベクトル導出部200の学習処理では、まず、教師データとなる複数のコンテンツと、各コンテンツのカテゴリを示す情報とがコンテンツデータベースDB1に登録される。これにより、情報配信装置10は、学習用データを取得する(S101)。
次に、疎ベクトル導出部210は、登録された各コンテンツの疎ベクトルを導出する(S102)。次に、密ベクトル導出部220の導出器221は、疎ベクトル導出部210により導出された疎ベクトルに基づき、各コンテンツの密ベクトルを導出する(S103)。また、密ベクトル導出部220の導出器221は、導出した密ベクトルに基づき、疎ベクトルを復元する。
そして、パラメータ調整部222は、導出器221に入力された各コンテンツの疎ベクトルと導出器221で復元された疎ベクトルとが略同一であるか否か、および類似のコンテンツの密ベクトル同士が互いに類似であり、非類似のコンテンツの密ベクトル同士が互いに非類似であるか否かを判定する(S104)。
パラメータ調整部222は、上記判定結果が否定的な場合、導出器221の内部パラメータを所定のルールに従い修正する(S105)。そして、内容ベクトル導出部200は、パラメータ調整部222により修正されたパラメータを用いて、S103、S104の処理を繰り返す。
パラメータ調整部222は、S104の判定結果が肯定的な場合、最終的に得られた導出器221の内部パラメータを第1パラメータデータベースDB4に登録する(S106)。これにより、内容ベクトル導出部200の学習処理が完了する。
<2−2.興味ベクトル更新部400の学習処理>
次に、興味ベクトル更新部400の学習処理について説明する。興味ベクトル更新部400の学習処理は、例えば、内容ベクトル導出部200の学習処理よりも後に行われる。
図14は、本実施形態の興味ベクトル更新部400の学習処理の流れの一例を示すフローチャートである。興味ベクトル更新部400の学習処理では、まず、所定の期間にユーザがアクセスした複数のコンテンツ、前記複数のコンテンツに対してユーザがアクセスした順を示す時系列データ、ユーザに対して推薦された複数のコンテンツ、およびユーザに対して推薦された複数のコンテンツに関するアクセス状況を含む学習用データが各データベースDB1,DB5から取得される(S201)。各コンテンツは、すでに学習が行われた密ベクトル導出部220により密ベクトルが導出され、コンテンツの密ベクトルとして密ベクトルデータベースDB3に登録される。なお、上記学習用データは、データベースDB1,DB5から取得されることに代えて、外部装置によって登録されることで取得されてもよい。
次に、興味ベクトル更新部400は、ユーザがアクセスした複数のコンテンツの密ベクトルと、複数のコンテンツに対してユーザがアクセスした順を示す時系列データとに基づき、前記所定の期間の各時点におけるユーザの興味ベクトルを導出する(S202)。すなわち、興味ベクトル更新部400は、ユーザが最初にアクセスしたコンテンツCと、ユーザの興味ベクトルの初期値uとに基づき、ユーザがコンテンツCにアクセスした後のユーザの興味ベクトルuを導出する。興味ベクトル更新部400は、同様の処理を繰り返すことで、ユーザがコンテンツCにアクセスした後のユーザの興味ベクトルu、ユーザがコンテンツCにアクセスした後のユーザの興味ベクトルu、…、ユーザがコンテンツCにアクセスした後のユーザの興味ベクトルuを導出する。
次に、興味ベクトル更新部400のパラメータ調整部402は、ユーザ端末装置UDに対して推薦情報Rが配信された各時点tに対して、S202で導出されたユーザの興味ベクトルuに基づき、関数R(u,St,P+ )および関数R(u,St,P− )の値を導出する(S203)。
そして、パラメータ調整部402は、導出された関数R(u,St,P+ )および関数R(u,St,P− )の値に基づき、収束条件式である上記式(4)の値を導出する。そして、パラメータ調整部402は、全ての時点での上記式(4)の値の合計が上記所定の期間を通じて最小化されているか否かを判定する(S205)。
パラメータ調整部402は、上記判定結果が否定的な場合、導出器401の内部パラメータを所定のルールに従い修正する(S206)。そして、興味ベクトル更新部400は、パラメータ調整部402により修正されたパラメータを用いて、S202からS205の処理を繰り返す。
パラメータ調整部402は、S206の判定結果が肯定的な場合、最終的に得られた導出器401の内部パラメータを第2パラメータデータベースDB7に登録する(S207)。これにより、興味ベクトル更新部400の学習処理が完了する。
<2−3.情報配信装置10による推薦情報の配信に関する処理>
最後に、情報配信装置10による推薦情報Rの配信に関する処理について説明する。情報配信装置10による推薦情報Rの配信に関する処理は、内容ベクトル導出部200の学習処理および興味ベクトル更新部400の学習処理よりも後に行われる。
図15は、本実施形態の情報配信装置10による推薦情報Rの配信に関する処理の流れの一例を示すフローチャートである。図15に示すように、まず、コンテンツ取得部100は、クライアント端末装置CDから配信対象のコンテンツの登録を受け付ける。コンテンツ取得部100は、受け付けたコンテンツをコンテンツデータベースDB1に登録する(S301)。内容ベクトル導出部200は、学習を通じて調整された内部パラメータに基づき、コンテンツ取得部100により登録されたコンテンツの密ベクトルを導出する(S302)。内容ベクトル導出部200は、導出した各コンテンツの密ベクトルを密ベクトルデータベースDB3に登録する。
興味ベクトル更新部400は、ユーザが新しくコンテンツにアクセスした場合、ユーザがアクセスしたコンテンツの密ベクトルを、密ベクトルデータベースDB3から取得する。また、興味ベクトル更新部400は、ユーザの直前の興味ベクトルを、興味ベクトルデータベースDB6から取得する。そして、興味ベクトル更新部400は、ユーザが新しくアクセスしたコンテンツの密ベクトルと、ユーザの直前の興味ベクトルと、学習を通じて調整された内部パラメータとに基づき、ユーザの興味ベクトルを更新する(S303)。
配信部500は、興味ベクトル更新部400により更新された興味ベクトルに基づき、複数の配信候補のコンテンツのなかからユーザに対して推薦する1以上のコンテンツを決定する(S304)。そして、配信部500は、推薦するコンテンツへのリンクを含む推薦情報Rを生成し、生成した推薦情報Rをユーザ端末装置UDに対して配信する(S305)。これにより、推薦情報Rの配信に関する一連の処理が完了する。
なお、興味ベクトル更新部400は、配信部500による推薦情報Rの配信(S305)に対するユーザの反応に基づき、興味ベクトル更新部400の学習処理(図14に示す処理)を再実行してもよい。すなわち、配信部500によりユーザに対して推薦情報Rが配信される(S305の処理が実行される)と、アクセス情報取得部300は、推薦情報Rに含まれる複数のコンテンツのなかでユーザがアクセスしたコンテンツとユーザがアクセスしなかったコンテンツとを特定する情報を取得し、それら情報をアクセス情報データベースDB5の対応テーブルT2に新しく登録する。そして、興味ベクトル更新部400は、アクセス情報データベースDB5の対応テーブルT2に新しく登録された情報を学習用データに含め、図14に示す処理を再実行することで、導出器401の内部パラメータを更新する。このような興味ベクトル更新部400の学習処理は、配信部500による推薦情報Rの配信が行われる毎に実行されてもよいが、例えば、配信部500による推薦情報Rの配信が所定の回数実行される毎や、所定の経過時間毎など、一定のタイミングで実行されてもよい。このような更新処理を行うことで、導出器401の内部パラメータを常に新しく保つことができる。
以上のような構成の情報配信装置10によれば、ユーザの興味に応じたコンテンツをより高い精度でユーザに推薦することができる。ここで、比較例として、ユーザが過去にアクセスしたコンテンツの形態素の集合に基づき、ユーザに対してコンテンツを推薦する場合について考える。この場合、ユーザがコンテンツにアクセスした時系列の情報が考慮されないため、例えば2週間前にアクセスしたコンテンツと昨日アクセスしたコンテンツとが同じように扱われてしまう。一方で、ユーザが新しいコンテンツにアクセスした場合、ユーザの興味は移り変わることがある。このため、ユーザが過去にアクセスしたコンテンツに含まれる要素を単なる集合として取り扱うと、ユーザの興味の移り変わりが十分に反映されない場合がある。また、数週間前にアクセスしたコンテンツより、直前にアクセスしたコンテンツのほうが、ユーザの現在の興味に強く関係しているものと考えられる。
そこで、本実施形態では、情報配信装置10は、ユーザがアクセスしたコンテンツの密ベクトルと、過去に求められたユーザの興味ベクトルとに基づき、ユーザの興味ベクトルを更新する。これにより、ユーザがコンテンツにアクセスした時系列の情報を考慮し、ユーザの興味の移り変わりを反映しながらユーザの直近の興味を推定することができる。その結果、ユーザの直近の興味に応じたコンテンツをより高い精度でユーザに推薦することができる。
また、上記構成によれば、ユーザの直近の興味ベクトルのみを情報配信装置10に記憶しておけばよく、ユーザが過去にアクセスしたコンテンツの形態素の集合を情報配信装置10に記憶しておく必要がなくなる。このため、大規模なトラフィックを処理するサービスに適用される場合、さらに有用になる。
本実施形態では、興味ベクトル更新部400は、ユーザが過去にアクセスした複数のコンテンツと、ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づき、ユーザが興味を持つコンテンツの内容を学習し、学習の結果に基づきユーザの興味ベクトルを更新する。このような構成によれば、ユーザが特に興味を持つコンテンツの内容や、ユーザが持続的に興味を持つコンテンツの内容を学習して、ユーザの直近の興味を推定することができる。これにより、ユーザの興味の推定の精度を高めることができる。
本実施形態では、興味ベクトル更新部400は、ユーザの興味ベクトルを導出する導出器401と、導出器401の内部パラメータを調整するパラメータ調整部402とを有する。そして、パラメータ調整部402は、ユーザが過去にアクセスした複数のコンテンツと、ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づく学習によりパラメータを調整する。このような構成によれば、学習処理を通じて調整されたパラメータに基づきユーザの直近の興味を推定することができる。これにより、ユーザの興味の推定の精度を高めることができる。
本実施形態では、パラメータ調整部402は、所定の時点において導出器401により導出されたユーザの興味ベクトルと、前記所定の時点においてユーザに対して推薦された複数のコンテンツのなかでユーザがアクセスしたコンテンツの内容とユーザがアクセスしなかったコンテンツの内容とに基づき、前記パラメータを調整する。このような構成によれば、例えば、ユーザに対して実際に推薦された複数のコンテンツを教師データとして用いることで、学習の効果を高めることができる。
ここで、ユーザが新しくアクセスしたコンテンツに基づきユーザの興味ベクトルを更新すると、地震などの一時的なイベントが生じてそのイベントのコンテンツにユーザがアクセスした場合、そのイベントに対してユーザが持続的な興味を持たない場合であっても、そのイベントの内容がユーザの興味ベクトルに大きく反映されてしまう場合がある。その場合、ユーザに対してその後、そのイベントに関連するコンテンツが多く推薦されてしまう可能性がある。
そこで、本実施形態では、興味ベクトル更新部400の導出器401は、更新後のユーザの興味ベクトルに反映させるコンテンツの密ベクトルの少なくとも一部の要素を希薄化または除去し得るゲートを持つ。このような構成によれば、一時的なイベントに関するコンテンツがユーザの興味ベクトルに大きく反映されることを抑制することができる。これにより、ユーザの興味の推定の精度を高めることができる。
本実施形態では、パラメータ調整部402はユーザが過去にアクセスした複数のコンテンツと、ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づき、更新後のユーザの興味ベクトルにコンテンツの密ベクトルの少なくとも一部の要素を反映させる程度を決めるパラメータを調整する。このような構成によれば、ユーザが持続的に興味を持たないコンテンツの内容を学習することができる。これにより、ユーザの興味の推定の精度を高めることができる。
ここで、複数のコンテンツの内容が似ている場合であっても、コンテンツに含まれる単語はコンテンツの著者や提供者により様々である。このため、コンテンツの疎ベクトルに基づきユーザの興味を推定しようとすると、コンテンツ同士の関連性の把握が難しい場合がある。
そこで、本実施形態では、情報配信装置10では、ユーザがアクセスしたコンテンツの内容を示すとともにコンテンツ同士の関係を距離で表す密ベクトルを導出する内容ベクトル導出部200を備える。そして、配信部500は、コンテンツの密ベクトルに基づき、ユーザに対して推薦するコンテンツを決定する。これにより、コンテンツに含まれる語句が完全に同一でない場合であっても、コンテンツの実質的な内容に基づきユーザに対してコンテンツを推薦することができる。これにより、コンテンツの推薦精度を高めることができる。
また、興味ベクトル更新部400は、内容ベクトル導出部200により導出された密ベクトルに基づき、ユーザの興味ベクトルを更新する。このような構成によれば、コンテンツの実質的な内容に基づき、ユーザの興味ベクトルを更新することができる。これにより、ユーザの興味の推定の精度を高めることができる。
以上、実施形態の情報配信装置10について説明したが、実施形態は上記例に限定されない。例えば、内容ベクトル導出部200の学習処理は、類似のコンテンツの密ベクトル同士が互いに類似であり、非類似のコンテンツの密ベクトル同士が互いに非類似であるか否かを判定する処理を含まなくてもよい。
また、「コンテンツに基づく第1特徴」は、密ベクトルに限らず、疎ベクトルでもよい。コンテンツの疎ベクトルを用いた場合であっても、興味ベクトル更新部400によりユーザの興味の移り変わりを反映しながらユーザの直近の興味を推定することで、ユーザの興味に応じたコンテンツをより高い精度で推薦することができる。また、コンテンツは、テキストデータに限らない。コンテンツが画像や動画の場合、各コンテンツのグレースケールや色彩を示す値を「コンテンツに基づく第1特徴」として使用することができる。
本願において「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素である。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10…情報配信装置(情報処理システム)、200…内容ベクトル導出部(導出部)、400…興味ベクトル更新部(更新部)、401…導出器、402…パラメータ調整部、500…配信部(決定部)

Claims (4)

  1. ユーザがアクセスしたコンテンツの疎ベクトルに基づいて第2導出器により導出された第1特徴と、過去に求められた前記ユーザの興味を示す第2特徴とに基づき、前記第2特徴を更新する更新部と、
    前記更新部により更新された前記第2特徴に基づき、前記ユーザに対して推薦するコンテンツを決定する決定部と、
    を備え、
    前記更新部は、
    前記第1特徴と更新前の前記第2特徴とに基づき新しい前記第2特徴を導出する、再帰型ニューラルネットワークである第1導出器と、
    前記第1導出器が新しい前記第2特徴を導出する演算に用いる第1パラメータを、前記ユーザが過去にアクセスした複数のコンテンツと、前記ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づく学習により調整する第1パラメータ調整部であって、所定の時点において前記第1導出器により導出された前記第2特徴と、前記所定の時点において前記ユーザに対して推薦された複数のコンテンツのなかで前記ユーザがアクセスしたコンテンツの内容と前記ユーザがアクセスしなかったコンテンツの内容とに基づき、前記第1パラメータを調整する第1パラメータ調整部を有し、
    前記第1導出器は、更新後の前記第2特徴に反映させる前記第1特徴の少なくとも一部の要素を希薄化または除去し得るゲートを前記第1特徴の要素ごとに持ち、
    前記第1パラメータ調整部は、前記ゲートの影響度合いを前記第1パラメータの一部として調整し、
    前記更新部は、前記第1パラメータ調整部により調整された前記第1パラメータに基づき前記第1導出器により導出された前記第2特徴を用いて前記第2特徴を更新し、
    前記第2導出器は、複数のコンテンツの疎ベクトルを教師データとして用い、前記第2導出器の入力層に入力される前記疎ベクトルが出力層で元の疎ベクトルに復元され、且つ、前記第2導出器の中間層から出力される密ベクトルが、類似する複数のコンテンツの間では類似し、類似しないコンテンツの間では類似しないようにパラメータが学習されたものである、
    情報処理システム。
  2. 前記更新部は、前記ユーザのアクセスに関する情報が入力される毎に、前記ユーザがアクセスしたコンテンツに基づく前記第1特徴と、更新前の前記第2特徴とに基づき、前記第2特徴を更新する
    請求項1記載の情報処理システム。
  3. コンピュータが、
    ユーザがアクセスしたコンテンツの疎ベクトルに基づいて第2導出器により導出された第1特徴と、過去に求められた前記ユーザの興味を示す第2特徴とに基づき、前記第2特徴を更新し、
    更新された前記第2特徴に基づき、前記ユーザに対して推薦するコンテンツを決定し、
    前記更新する際に、前記第1特徴と更新前の前記第2特徴とに基づき新しい前記第2特徴を導出する、再帰型ニューラルネットワークである第1導出器を用いて前記第2特徴を更新し、
    前記第1導出器が新しい前記第2特徴を導出する演算に用いる第1パラメータを、前記ユーザが過去にアクセスした複数のコンテンツと、前記ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づく学習により調整し、
    前記第1パラメータを、所定の時点において前記第1導出器により導出された前記第2特徴と、前記所定の時点において前記ユーザに対して推薦された複数のコンテンツのなかで前記ユーザがアクセスしたコンテンツの内容と前記ユーザがアクセスしなかったコンテンツの内容とに基づき、前記第1パラメータを調整し、
    前記第1導出器は、更新後の前記第2特徴に反映させる前記第1特徴の少なくとも一部の要素を希薄化または除去し得るゲートを前記第1特徴の要素ごとに持ち、
    前記ゲートの影響度合いを前記第1パラメータの一部として調整し、
    調整された前記第1パラメータに基づき前記第1導出器により導出された前記第2特徴を用いて前記第2特徴を更新し、
    前記第2導出器は、複数のコンテンツの疎ベクトルを教師データとして用い、前記第2導出器の入力層に入力される前記疎ベクトルが出力層で元の疎ベクトルに復元され、且つ、前記第2導出器の中間層から出力される密ベクトルが、類似する複数のコンテンツの間では類似し、類似しないコンテンツの間では類似しないようにパラメータが学習されたものである、
    情報処理方法。
  4. コンピュータに、
    ユーザがアクセスしたコンテンツの疎ベクトルに基づいて第2導出器により導出されたに基づく第1特徴と、過去に求められた前記ユーザの興味を示す第2特徴とに基づき、前記第2特徴を更新させ、
    更新された前記第2特徴に基づき、前記ユーザに対して推薦するコンテンツを決定させ、
    前記更新する際に、前記第1特徴と更新前の前記第2特徴とに基づき新しい前記第2特徴を導出する、再帰型ニューラルネットワークである第1導出器を用いて前記第2特徴を更新させ、
    前記第1導出器が新しい前記第2特徴を導出する演算に用いる第1パラメータを、前記ユーザが過去にアクセスした複数のコンテンツと、前記ユーザが前記複数のコンテンツにアクセスした順を示す時系列データとに基づく学習により調整させ、
    前記第1パラメータを、所定の時点において前記第1導出器により導出された前記第2特徴と、前記所定の時点において前記ユーザに対して推薦された複数のコンテンツのなかで前記ユーザがアクセスしたコンテンツの内容と前記ユーザがアクセスしなかったコンテンツの内容とに基づき、前記第1パラメータを調整させ、
    前記第1導出器は、更新後の前記第2特徴に反映させる前記第1特徴の少なくとも一部の要素を希薄化または除去し得るゲートを前記第1特徴の要素ごとに持ち、
    前記ゲートの影響度合いを前記第1パラメータの一部として調整させ、
    調整された前記第1パラメータに基づき前記第1導出器により導出された前記第2特徴を用いて前記第2特徴を更新させ
    前記第2導出器は、複数のコンテンツの疎ベクトルを教師データとして用い、前記第2導出器の入力層に入力される前記疎ベクトルが出力層で元の疎ベクトルに復元され、且つ、前記第2導出器の中間層から出力される密ベクトルが、類似する複数のコンテンツの間では類似し、類似しないコンテンツの間では類似しないようにパラメータが学習されたものである、
    プログラム。
JP2017041807A 2017-03-06 2017-03-06 情報処理システム、情報処理方法、およびプログラム Active JP6831719B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017041807A JP6831719B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017041807A JP6831719B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018147235A JP2018147235A (ja) 2018-09-20
JP6831719B2 true JP6831719B2 (ja) 2021-02-17

Family

ID=63590058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017041807A Active JP6831719B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6831719B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7239300B2 (ja) * 2018-11-01 2023-03-14 浜松ホトニクス株式会社 スペクトル分析装置およびスペクトル分析方法
KR102190304B1 (ko) * 2018-11-30 2020-12-14 서울대학교 산학협력단 Gpu 연산 기반의 딥러닝을 이용한 선호 콘텐츠 추천 장치 및 그 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4353987B2 (ja) * 2007-03-30 2009-10-28 株式会社スクウェア・エニックス コンテンツ情報検索制御システム及びコンテンツ情報検索制御方法
JP5691735B2 (ja) * 2011-03-29 2015-04-01 ソニー株式会社 コンテンツ推薦装置、推薦コンテンツの検索方法、及びプログラム
JP2012256176A (ja) * 2011-06-08 2012-12-27 Hitachi Solutions Ltd 情報提示装置
JPWO2015181929A1 (ja) * 2014-05-29 2017-04-20 パイオニア株式会社 コンテンツ提示装置及び方法、サーバ装置、端末装置、コンピュータプログラム並びに記録媒体
JP6435888B2 (ja) * 2015-01-30 2018-12-12 富士通株式会社 アイテム推薦プログラム、装置、及び方法

Also Published As

Publication number Publication date
JP2018147235A (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
CN109947919B (zh) 用于生成文本匹配模型的方法和装置
US10515400B2 (en) Learning vector-space representations of items for recommendations using word embedding models
JP7160980B2 (ja) 情報提供装置、情報提供方法、およびプログラム
US20240346310A1 (en) Population based training of neural networks
US9594826B2 (en) Co-selected image classification
JP6523498B1 (ja) 学習装置、学習方法および学習プログラム
EP2950226A1 (en) New heuristic for optimizing non-convex function for learning to rank
US20190114687A1 (en) Global Vector Recommendations Based on Implicit Interaction and Profile Data
US9600581B2 (en) Personalized recommendations on dynamic content
US8620929B2 (en) Context based resource relevance
CN112119388A (zh) 训练图像嵌入模型和文本嵌入模型
US20170109642A1 (en) Particle Thompson Sampling for Online Matrix Factorization Recommendation
EP2960849A1 (en) Method and system for recommending an item to a user
CN112074828A (zh) 训练图像嵌入模型和文本嵌入模型
US10042944B2 (en) Suggested keywords
JP6593873B2 (ja) 情報分析装置及び情報分析方法
US20190197422A1 (en) Generalized additive machine-learned models for computerized predictions
CN109726331A (zh) 对象偏好预测的方法、装置和计算机可读介质
JP6203304B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6831719B2 (ja) 情報処理システム、情報処理方法、およびプログラム
JP6077984B2 (ja) アイテム推薦装置、アイテム推薦方法、およびアイテム推薦プログラム
US20170109412A1 (en) System for facet expansion
AU2017235890B2 (en) Recommending software actions to create an image and recommending images to demonstrate the effects of software actions
JP6960838B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP6700146B2 (ja) 評価値に基づいて推奨するコンテンツを決定するシステム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201030

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201110

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210129

R150 Certificate of patent or registration of utility model

Ref document number: 6831719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250