JP6662715B2 - 予測装置、予測方法及びプログラム - Google Patents

予測装置、予測方法及びプログラム Download PDF

Info

Publication number
JP6662715B2
JP6662715B2 JP2016113451A JP2016113451A JP6662715B2 JP 6662715 B2 JP6662715 B2 JP 6662715B2 JP 2016113451 A JP2016113451 A JP 2016113451A JP 2016113451 A JP2016113451 A JP 2016113451A JP 6662715 B2 JP6662715 B2 JP 6662715B2
Authority
JP
Japan
Prior art keywords
prediction
learning data
input
latent vector
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016113451A
Other languages
English (en)
Other versions
JP2017220001A (ja
Inventor
具治 岩田
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016113451A priority Critical patent/JP6662715B2/ja
Publication of JP2017220001A publication Critical patent/JP2017220001A/ja
Application granted granted Critical
Publication of JP6662715B2 publication Critical patent/JP6662715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、機械学習に関し、学習データを用いて推定された予測関数を利用して未知の入力に対する出力を予測するための技術に関する。
近年、人工知能などの機械学習の研究及び利用が盛んに行われている。入力に対応する出力を予測するため、入力と出力とが対になった複数のデータ(学習データ)が与えられたとき、これらのデータから予測モデル又は予測関数を推定し、推定された予測モデル又は予測関数を利用して未知の入力に対する出力を予測するというアプローチがある。
このような既知の学習データを利用して入力から出力を予測する手法が多数提案されている(例えば、非特許文献1)。基本的には、これらの手法は入力の値が近ければ出力の値も近くなることを前提としている。
Edward Snelson, and Zoubin Ghahramani, Sparse Gaussian processes using pseudo-inputs, Advances in Neural Information Processing Systems, 1257-1264, 2005 Multi-task Gaussian process prediction, Bonilla, Edwin V and Chai, Kian M and Williams, Christopher, Advances in Neural Information Processing Systems, 153-160, 2007 Gaussian process latent variable models for visualisation of high dimensional data, Lawrence, Neil D, Advances in Neural Information Processing Systems, 329-336, 2004
しかしながら、入力の値が近くても出力の値が大きく離れている場合や、入力の値が離れていても出力の値が近くなる場合も存在する。このような入力値と出力値との近傍関係が成り立たないケースについて、従来の手法によると、良好な予測精度を実現することは困難である。
上述した問題点を鑑み、本発明の課題は、入力値と出力値との近傍関係が成り立たないケースに対処可能な予測装置を提供することである。
上記課題を解決するため、本発明の一態様は、予測関数を利用して入力から出力を予測する予測装置であって、入力と出力との既知の組み合わせから構成される学習データから、前記予測関数のための潜在ベクトルとハイパーパラメータとを推定する推定部と、前記推定された潜在ベクトルとハイパーパラメータとに基づく前記予測関数を利用して、未知の入力に対応する出力を予測する予測部とを有する予測装置に関する。
本発明の他の態様は、予測関数を利用して入力から出力を予測する予測装置により実行される予測方法であって、入力と出力との既知の組み合わせから構成される学習データから、前記予測関数のための潜在ベクトルとハイパーパラメータとを推定するステップと、前記推定された潜在ベクトルとハイパーパラメータとに基づく前記予測関数を利用して、未知の入力に対応する出力を予測するステップとを有する予測方法に関する。
本発明によると、入力値と出力値との近傍関係が成り立たないケースに対処可能な予測装置を提供することができる。
図1は、本発明の一実施例による予測装置の機能構成を示すブロック図である。 図2は、本発明の一実施例による予測処理を示すフロー図である。 図3は、本発明の一実施例による潜在ベクトル及びハイパーパラメータの推定処理を示すフロー図である。 図4は、本発明の一実施例の適用例に関する平均二乗平方根誤差を示す図である。 図5は、本発明の一実施例の適用例を示す概略図である。 図6は、本発明の一実施例による予測装置のハードウェア構成を示すブロック図である。
以下、図面に基づいて本発明の実施の形態を説明する。
以下の実施例では、既知の入力と出力とのペアからなる複数の学習データを利用して予測関数を推定し、推定された予測関数を利用して未知の入力に対する出力を予測する予測装置が開示される。後述される実施例を概略すると、予測装置は、学習データから予測関数のための潜在ベクトルとハイパーパラメータとを推定し、推定された潜在ベクトルとハイパーパラメータとに基づく予測関数を利用して、未知の入力に対応する出力を予測する。ここで、予測装置は、予測関数の予測誤差が小さくなると共に、異なる学習データの潜在ベクトルの間の近傍関係と当該学習データの入力の間の近傍関係とが類似するように、潜在ベクトル及びハイパーパラメータを推定する。
まず、図1を参照して、本発明の一実施例による予測装置を説明する。図1は、本発明の一実施例による予測装置の機能構成を示すブロック図である。
図1に示されるように、予測装置100は、推定部110及び予測部120を有し、推定部110は、初期化部111、潜在ベクトル推定部112及びハイパーパラメータ推定部113を有する。
推定部110は、入力と出力との既知の組み合わせから構成される学習データから、予測関数のための潜在ベクトルとハイパーパラメータとを推定する。具体的には、推定部110には、入力と出力とのN個の既知の組み合わせからなる学習データ
が与えられる。ここで、xはn番目のデータの入力であり、yはn番目のデータの出力である。以下の説明では、各入力xはL次元の実数値ベクトル
として定義されるが、これに限定されることなく、離散値ベクトル、グラフ、系列などの任意のデータ構造であってもよい。また、各出力yはD次元の実数値ベクトル
として定義されるが、これに限定されることなく、離散値ベクトル、非負値ベクトル、整数値ベクトルなどであってもよい。また、入力x及び出力yは欠損値を含んでいてもよい。
N個の学習データが与えられると、推定部110は、以下のように、当該学習データから予測関数のための潜在ベクトルとハイパーパラメータとを推定する。
まず、初期化部111は、潜在ベクトルの集合
と、ハイパーパラメータ又はハイパーパラメータの集合θとをランダムに初期化する。ここで、zはn番目のデータの潜在ベクトルであり、K次元の実数値ベクトル
として定義される。
次に、潜在ベクトル推定部112は、学習データから潜在ベクトルの集合Zを推定する。具体的には、潜在ベクトル推定部112は、潜在ベクトルから出力を予測するための予測関数fを含む式
を利用して、学習データから潜在ベクトルの集合Zを推定する。ここで、yndはn番目のデータの第d要素の出力値であり、fは潜在ベクトルから第d要素の出力値を予測するための予測関数であり、εはノイズである。潜在ベクトル推定部112は、入力である潜在ベクトルzから出力yndを予測したときの誤差が小さくなるように潜在ベクトルzを推定する。
具体的には、予測関数f()がガウス過程であると仮定すると、入力である潜在ベクトルzから出力yndを予測したときの誤差は、負の対数尤度
により評価できる。ここで、
は尤度であり、Kはカーネル関数
により定義されるN×Nの共分散行列であり、θはハイパーパラメータの集合であり、Dは出力yの次元である。例えば、カーネル関数として、ガウスカーネル
が利用されてもよい。ここで、n=n'であるとき、δnn'=1であり、n≠n'であるとき、δnn' =0であり、
である。なお、カーネル関数Kは、ガウスカーネルに限定されず、多項式カーネルなどの他の何れかのカーネルであってもよい。また、誤差関数Eとして負の対数尤度が利用されたが、誤差関数Eは、これに限定されず、二乗誤差、ヒンジ誤差などの他の何れかの誤差であってもよい。また、予測関数f()は、ガウス過程に限定されず、線形回帰、ロジスティック回帰などの他の何れかの回帰又は分類モデルであってもよい。
また、潜在ベクトル推定部112は、ある学習データの潜在ベクトルと他の学習データの潜在ベクトルとの関係が当該学習データと他の学習データとの入力との関係と類似するように潜在ベクトルの集合Zを推定する。当該関係として、例えば、近傍関係が利用されてもよい。
例えば、n番目の学習データとn'番目の学習データの潜在ベクトルの間の近傍関係は、
により計算されてもよい。しかしながら、潜在ベクトル間の近傍関係は、これに限定されず、2つの潜在ベクトルが近ければ大きな値をとる何れかの式であってもよい。
他方、n番目の学習データとn'番目の学習データとの入力の間の近傍関係は、同様に、
により計算されてもよい。
このとき、潜在ベクトル推定部112は、式(5)及び式(6)の近傍関係が可能な限り同じになるような潜在ベクトルの集合Zを推定する。例えば、これら2つの近傍関係の相違を示す指標として、Kullback−Leibler(KL)ダイバージェンスの和
が利用されてもよい。しかしながら、近傍関係の相違を示す指標は、これに限定されず、類似した近傍関係には小さな値をとり、類似していない近傍関係には大きな値をとる何れかの式により表されてもよい。
本実施例では、潜在ベクトル推定部112は、式(2)により表される予測誤差が小さくなり、かつ、式(7)により表される異なる学習データの潜在ベクトルの間の近傍関係と入力の間の近傍関係との類似性が高くなるように、潜在ベクトルの集合Zを推定する。例えば、潜在ベクトル推定部112は、式(2)及び式(7)から構成される目的関数
を最小化するような潜在ベクトルの集合Zを求めてもよい。ここで、λ(>0)は重みパラメータであり、最適なλとして、交差検定などを用いて汎化性能が高いものが選ばれてもよい。
ハイパーパラメータ推定部113は、予測誤差が小さくなるように予測関数f()のハイパーパラメータθを推定する。具体的には、ハイパーパラメータ推定部113は、式(2)を最小化するハイパーパラメータθを決定してもよい。
潜在ベクトル推定部112及びハイパーパラメータ推定部113は、所定の終了条件が充足されるまで、上述した各自の処理を繰り返してもよい。当該終了条件として、例えば、所定の繰り返し数に達した、式(8)の目的関数の変化が所定の閾値以下に収束した、潜在ベクトルの集合Z及びハイパーパラメータθの変化が所定の閾値以下に収束した、などであってもよい。
予測部120は、推定された潜在ベクトルとハイパーパラメータとに基づく予測関数を利用して、未知の入力に対応する出力を予測する。具体的には、予測部120は、推定部110により推定された潜在ベクトルの集合Zとハイパーパラメータθとを取得し、推定された潜在ベクトルの集合Zとハイパーパラメータθとから予測関数
を導出する。例えば、予測関数f()がガウス過程である場合、予測部120は、
を利用して、未知の入力に対して出力を予測してもよい。ここで、
である。
次に、図2〜3を参照して、本発明の一実施例による予測装置における処理を説明する。図2は、本発明の一実施例による予測処理を示すフロー図であり、図3は、本発明の一実施例による潜在ベクトル及びハイパーパラメータの推定処理を示すフロー図である。
図2に示されるように、ステップS101において、推定部110は、所与の学習データ
を利用して、予測関数のための潜在ベクトルの集合Zとハイパーパラメータθとを推定する。具体的には、図3に示されるように、ステップS201において、推定部110は、潜在ベクトルの集合Z
とハイパーパラメータθとをランダムに初期化する。
ステップS202において、推定部110は、学習データから潜在ベクトルの集合Zを推定する。具体的には、潜在ベクトル推定部112は、潜在ベクトルから出力を予測するための予測関数fを含む式
を利用して、潜在ベクトルzから出力yndを予測したときの誤差が小さくなるように潜在ベクトルzを推定する。例えば、予測関数f()がガウス過程であると仮定すると、入力である潜在ベクトルzから出力yndを予測したときの予測誤差は、負の対数尤度
により評価できる。また、推定部110は、あるデータの潜在ベクトルと他のデータの潜在ベクトルとの関係が当該データと他のデータとの入力との関係と類似するように潜在ベクトルの集合Zを推定する。例えば、n番目のデータとn'番目のデータの潜在ベクトルの間の近傍関係は、
により計算されてもよく、n番目のデータとn'番目のデータとの入力の間の近傍関係は、
により計算されてもよい。
このとき、推定部110は、これら2つの近傍関係の相違を示す指標として、Kullback−Leibler(KL)ダイバージェンスの和
を利用してもよい。その後、推定部112は、式(2)及び式(7)から構成される目的関数
を最小化するような潜在ベクトルの集合Zを求める。
ステップS203において、推定部110は、予測誤差が小さくなるように予測関数f()のハイパーパラメータθを推定する。具体的には、ハイパーパラメータ推定部113は、式(2)を最小化するハイパーパラメータθを決定してもよい。
ステップS204において、推定部110は、終了条件が充足されたか判断する。当該終了条件として、例えば、所定の繰り返し数に到達した、式(8)の目的関数の変化が所定の閾値以下に収束した、潜在ベクトルの集合Z及びハイパーパラメータθの変化が所定の閾値以下に収束した、などであってもよい。
終了条件が充足されている場合(S204:Yes)、当該推定処理は終了し、ステップS102に移行する。他方、終了条件が充足されていない場合(S204:No)、推定部110は、ステップS202に移行する。なお、ステップS202とS203とは、異なる順序により、又はパラレルに実行されてもよい。
ステップS102において、予測部120は、推定された潜在ベクトルとハイパーパラメータとに基づく予測関数を利用して、未知の入力に対応する出力を予測する。具体的には、予測部120は、推定部110により推定された潜在ベクトルの集合Zとハイパーパラメータθとを取得し、推定された潜在ベクトルの集合Zとハイパーパラメータθとから予測関数
を導出して、未知の入力に対して出力を予測してもよい。
ここで、本発明を評価するため、北米の気象データを利用した実験を行った。この実験では、北米の125地点(N=125)において、緯度経度を入力とし(L=2の入力ベクトル)CO、湿度、気圧等の16個の気象データを出力とした(D=16の出力ベクトル)。このうち1割の出力データを未知とし、その予測に対する平均二乗平方根誤差により各種の従来手法と本発明(Proposed)とを対比した。従来手法としては、ガウス過程(GP)、マルチタスクガウス過程(MTGP)(非特許文献2)、ガウス過程潜在変数モデル(GPLVM)(非特許文献3)、行列分解(MF)、k近傍法(KNN)を利用した。
図4に示されるように、多数のデータ項目について本発明による予測値が最も低い誤差を実現した。また、図5において、入力である緯度経度と、本発明により推定された潜在ベクトルとの関係を示す。λ=10、λ=10のケースでは、近傍関係は保存されているが、予測精度を高めるために入力が変換されていることが分かる。この可視化によって、実際の位置でなく、気候の関連性に基づく関係性を解析することができる。
次に、図6を参照して、本発明の一実施例による予測装置のハードウェア構成を説明する。図6は、本発明の一実施例による予測装置のハードウェア構成を示すブロック図である。
図6に示されるように、予測装置100は、典型的には、サーバにより実現されてもよく、例えば、バスを介し相互接続されるドライブ装置101、補助記憶装置102、メモリ装置103、プロセッサ104、インタフェース装置105及び通信装置106から構成される。予測装置100における上述した各種機能及び処理を実現するプログラムを含む各種コンピュータプログラムは、CD−ROM(Compact Disk−Read Only Memory)、DVD(Digital Versatile Disk)、フラッシュメモリなどの記録媒体107によって提供されてもよい。プログラムを記憶した記録媒体107がドライブ装置101にセットされると、プログラムが記録媒体107からドライブ装置101を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体107により行う必要はなく、ネットワークなどを介し何れかの外部装置からダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータなどを格納する。メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムやデータを読み出して格納する。プロセッサ104は、メモリ装置103に格納されたプログラムやプログラムを実行するのに必要なパラメータなどの各種データに従って、予測装置100の各種機能及び処理を実行する。インタフェース装置105は、ネットワーク又は外部装置に接続するための通信インタフェースとして用いられる。通信装置106は、インターネットなどのネットワークと通信するための各種通信処理を実行する。しかしながら、上述したハードウェア構成は単なる一例であり、予測装置100は、上述したハードウェア構成に限定されるものでなく、他の何れか適切なハードウェア構成により実現されてもよい。
なお、上述した予測装置100の各部及びステップS101〜S102及びS201〜S204は、コンピュータのメモリ装置103に記憶されたプログラムをプロセッサ104が実行することによって実現されてもよい。
以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 予測装置
110 推定部
111 初期化部
112 潜在ベクトル推定部
113 ハイパーパラメータ推定部
120 予測部

Claims (6)

  1. 予測関数を利用して入力から出力を予測する予測装置であって、
    入力と出力との既知の組み合わせから構成される学習データから、前記予測関数のための潜在ベクトルとハイパーパラメータとを推定する推定部と、
    前記推定された潜在ベクトルとハイパーパラメータとに基づく前記予測関数を利用して、未知の入力に対応する出力を予測する予測部と、
    を有し、
    前記推定部は、前記予測関数の予測誤差が小さくなると共に、第1の学習データの潜在ベクトルと第2の学習データの潜在ベクトルとの第1の近傍関係が前記第1の学習データと前記第2の学習データとの入力の第2の近傍関係と類似するように、前記潜在ベクトルを推定する予測装置。
  2. 前記推定部は、前記予測関数の予測誤差が小さくなるように、前記ハイパーパラメータを推定する、請求項記載の予測装置。
  3. 前記予測関数はガウス過程に従う、請求項1又は2記載の予測装置。
  4. 前記第1の近傍関係と前記第2の近傍関係との相違は、Kullback−Leibler(KL)ダイバージェンスを用いて表される、請求項乃至何れか一項記載の予測装置。
  5. 予測関数を利用して入力から出力を予測する予測装置により実行される予測方法であって、
    入力と出力との既知の組み合わせから構成される学習データから、前記予測関数のための潜在ベクトルとハイパーパラメータとを推定するステップと、
    前記推定された潜在ベクトルとハイパーパラメータとに基づく前記予測関数を利用して、未知の入力に対応する出力を予測するステップと、
    を有し、
    前記推定するステップは、前記予測関数の予測誤差が小さくなると共に、第1の学習データの潜在ベクトルと第2の学習データの潜在ベクトルとの第1の近傍関係が前記第1の学習データと前記第2の学習データとの入力の第2の近傍関係と類似するように、前記潜在ベクトルを推定する予測方法。
  6. 請求項1乃至何れか一項記載の予測装置の各部としてプロセッサを機能させるためのプログラム。
JP2016113451A 2016-06-07 2016-06-07 予測装置、予測方法及びプログラム Active JP6662715B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113451A JP6662715B2 (ja) 2016-06-07 2016-06-07 予測装置、予測方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113451A JP6662715B2 (ja) 2016-06-07 2016-06-07 予測装置、予測方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017220001A JP2017220001A (ja) 2017-12-14
JP6662715B2 true JP6662715B2 (ja) 2020-03-11

Family

ID=60656475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113451A Active JP6662715B2 (ja) 2016-06-07 2016-06-07 予測装置、予測方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6662715B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7066120B2 (ja) * 2018-04-27 2022-05-13 国立研究開発法人物質・材料研究機構 狭帯熱放射スペクトルを有する構造体
WO2019234907A1 (ja) * 2018-06-08 2019-12-12 日本電気株式会社 制御装置、制御方法、及び、制御プログラムが記録された記録媒体
CN112119466B (zh) * 2018-09-03 2024-03-22 松下知识产权经营株式会社 电子密度推定方法、电子密度推定装置及电子密度推定程序

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058972A (ja) * 2010-09-08 2012-03-22 Sony Corp 評価予測装置、評価予測方法、及びプログラム
JP2016091374A (ja) * 2014-11-06 2016-05-23 日本電信電話株式会社 パラメータ推定装置、カテゴリ割当装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2017220001A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
Solus et al. Consistency guarantees for greedy permutation-based causal inference algorithms
CN105719001B (zh) 使用散列的神经网络中的大规模分类
US10783454B2 (en) Scalable-effort classifiers for energy-efficient machine learning
US10387768B2 (en) Enhanced restricted boltzmann machine with prognosibility regularization for prognostics and health assessment
US9721202B2 (en) Non-negative matrix factorization regularized by recurrent neural networks for audio processing
US11537930B2 (en) Information processing device, information processing method, and program
US20180268285A1 (en) Neural network cooperation
Aydin et al. Learning sparse models for a dynamic Bayesian network classifier of protein secondary structure
AU2019371339B2 (en) Finite rank deep kernel learning for robust time series forecasting and regression
US10783452B2 (en) Learning apparatus and method for learning a model corresponding to a function changing in time series
US20220170751A1 (en) Method for defining a path
JP6509717B2 (ja) 事例選択装置、分類装置、方法、及びプログラム
JP6662715B2 (ja) 予測装置、予測方法及びプログラム
CN113837370A (zh) 用于训练基于对比学习的模型的方法和装置
US11823076B2 (en) Tuning classification hyperparameters
WO2014199920A1 (ja) 予測関数作成装置、予測関数作成方法、及びコンピュータ読み取り可能な記録媒体
US20220253725A1 (en) Machine learning model for entity resolution
US20180075324A1 (en) Information processing apparatus, information processing method, and computer readable storage medium
JP7331937B2 (ja) ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置
KR20200092989A (ko) 아웃라이어 감지를 위한 비지도 파라미터 러닝을 이용한 생산용 유기체 식별
Saha et al. Novel randomized feature selection algorithms
US11295229B1 (en) Scalable generation of multidimensional features for machine learning
Xie et al. Finding a good initial configuration of parameters for restricted Boltzmann machine pre-training
Gladence et al. A novel technique for multi-class ordinal regression-APDC
Zhang et al. Block-wise map inference for determinantal point processes with application to change-point detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200213

R150 Certificate of patent or registration of utility model

Ref document number: 6662715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150