JP6101650B2 - システムパラメタ学習装置、情報処理装置、方法、及びプログラム - Google Patents

システムパラメタ学習装置、情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP6101650B2
JP6101650B2 JP2014037245A JP2014037245A JP6101650B2 JP 6101650 B2 JP6101650 B2 JP 6101650B2 JP 2014037245 A JP2014037245 A JP 2014037245A JP 2014037245 A JP2014037245 A JP 2014037245A JP 6101650 B2 JP6101650 B2 JP 6101650B2
Authority
JP
Japan
Prior art keywords
system parameter
learning
data
parameter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014037245A
Other languages
English (en)
Other versions
JP2015162113A (ja
Inventor
鈴木 潤
潤 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014037245A priority Critical patent/JP6101650B2/ja
Publication of JP2015162113A publication Critical patent/JP2015162113A/ja
Application granted granted Critical
Publication of JP6101650B2 publication Critical patent/JP6101650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、システムパラメタ学習装置、情報処理装置、方法、及びプログラムに係り、特に、システムパラメタを学習するシステムパラメタ学習装置、情報処理装置、方法、及びプログラムに関する。
図13に示すような、音声認識、機械翻訳、文字認識、物体認識、DNAの構造予測などといった情報処理における識別問題は、図14に示すように、入力が与えられたときに、出力を予測するシステムとみなすことができる。
これらのシステムは一般的に、実行フェーズと構築フェーズにわけることができる。構築フェーズとは、人手により事前にシステムを設計し、システムパラメタ等を決定する作業を指す。実行フェーズとは、構築フェーズで定義された設計に基づき入力を処理し、出力はシステムパラメタに依存して決定される。
構築フェーズでは、様々な方法でシステムを構築することができる。例えば、人手により変換規則を記述しておいて、その規則に則って入力を出力へ変換し、それを出力する方法が考えられる。ただし、変換規則を人手により準備するのは網羅性や整合性を保持するためのコストが非常にかかるため、図15に示すように、データから自動的にシステムを構築する機械学習手法を用いてシステムを自動構築する方法を用いるのが近年では主流である。
構築フェーズでは、まず、対象とするシステムの入力とそれに対応する出力のペアを用意する。これは、一般的に、正解データ或いは教師データとよばれる。教師データとは、教師データ中の入力がシステムに入力された際に、どのような出力がされるべきかを表したデータである。次に、この教師データを用いてシステムを構築する。必要な要件は、教師データ中の入力に対して、正しい出力が行えるシステムであることである。そこで、機械学習に基づく構築フェーズでは、教師データを用いて、教師データを正しく判別できるようなシステムパラメタの集合を学習することに帰着する。
以上の処理を数式的に表すと以下のようになる。まず、実行フェーズを示す。x^を一つの入力を表すこととし、Χを、システムが受け付けるとり得る全ての入力x^の集合とする。なお、記号に付された「^」は、当該記号が行列、多次元配列、又はベクトルであることを表している。同様に、y^を一つの出力を表すこととし、Yを、システムが許容するとり得る全ての出力y^の集合とする。また、Y(x^)を、x^が与えられたときにとり得る全ての出力y^の集合とする。よって、x^∈Χ、y^∈Y(x^)⊆Yの関係が成り立つ。
次に、w^をシステムパラメタの集合をベクトル表記したものとする。ここで、wをベクトルw^のd番目の要素であり、同時にd番目のシステムパラメタとする。つまり、w^=(w,...,w)かつd={1,...,N}の関係が成り立つ。ただし、システムパラメタ数はNであり、w^はN次元ベクトルとする。
このとき、入力x^が与えられたときに出力y^を返すシステムを下記(1)式に表すことができる。
ただし、Φ(x^,y^:w^)は、x^からy^へ変換する際のスコアを決定する関数であり、ここでは、単にスコア関数と呼ぶ。つまり、x^が与えられた際に得られる可能性がある全ての出力y^の中で、この変換スコアが最も高くなるy^が出力として採用されることになる。そのため、w^は、どの出力が選ばれるかを制御するシステムパラメタであり、システム全体の性能を決定する要因といえる。よって、システムパラメタw^をいかに精度よく求めるかという事が、構築フェーズの最大の要件となる。ここで、精度よくとは、あらゆる入力に対して可能な限り多くの正しい出力を行うことが可能なw^を求めることを意味する。なお、記号の前に付された「」は、当該記号が推定された値であることを表している。
次に、構築フェーズについて説明する。実際に、あらゆる可能な入力に対して最良のパラメタw^を求めることは非常に困難を伴う。それは、実際に、あらゆる可能な入力を列挙することが事実上困難であることに起因する。そこで、パターン認識の分野では、実データに基づいてw^を決定する。まず、教師データを
で表す。教師データは入力x^、出力y^のペアの集合で構成される。つまり、
このとき、x^を、教師データ中のi番目の入力データとし、y^をi番目の入力に対応する出力とする。システムパラメタの学習は、下記(2)式の最適化問題を解くことで得られる。
このとき、
は、リスク関数や損失関数とよばれ、教師データ内の入力に対してどの程度正しい出力を得られるかといった値を返す関数である。現在のパラメタw^を用いて、実際に上記(1)式を用いて判別を行ってみて、より多く間違える場合には、より大きな値となるような関数を用いる。Ω(w^)は、一般に正則化項とよばれ、教師データが有限個しかない状況で、教師データに現れないデータに対してもより正しく判別できるように、システムパラメタが教師データに過適応しないように、ペナルティを与える項である。例えば、パラメタのL−ノルムがなるべく小さくなるような制約を課すことで、パラメタが極端に大きな値をとらないように制限するといったことが、よく用いられる。最終的に、上記(2)式で得られるw^は、教師データを最もよく識別することができるパラメタの集合といえる。
以上が、本発明で対象とする情報処理システムの実行フェーズと構築フェーズを数式的に定義したものである。
上記(2)式に基づいたシステムパラメタの獲得は、パターン認識では教師あり学習と呼ばれる。このとき、学習後のシステムパラメタw^は、実数値で表される。よって、構築フェーズ終了時にw^の値をファイルなどに書き出しておき、実行フェーズでは、書き出したファイルを読み込んでスコア関数を計算し、出力を得る。つまり、パラメタ数が多くなればなるほど、その情報を保持するために必要なファイルサイズは大きくなる。
ファイルサイズは、そのまま実行時のメモリ占有量と同じとなる。メモリ占有量は、携帯端末等の限定されたリソースしか持たない計算環境で、非常に大きな問題となる可能性がある。また、一般的な計算機上での実行時にも、近年のマルチコアな計算機上で同時に複数実行する際や、他のプログラムになるべく影響を与えないという観点で、メモリ占有量は極力少ないことが望まれる。つまり本質的に、プログラム実行時の必要リソース量(ファイルサイズ、メモリ専有量など)は、どのような計算環境であれ少ないほうがよりよい、ということがいえる。この考えに基づいて学習後のモデルサイズを、学習の工程で圧縮するという課題が近年盛んに取り組まれている。
最も単純な方法として、L正則化項の効果を用いて学習後のモデル圧縮を行う方法がある(非特許文献1)。この方法の原理は、L正則化項が学習時にパラメタが極力ゼロとなるようにする効果があるため、パラメタがゼロになった場合は、そのパラメタに関わる項目をモデルから消去できることから、モデルサイズを削減できる。
また、モデル圧縮が可能な方法として、システムパラメタ学習後に複数のパラメタが同じ値を取れば、この重複情報を利用して、実際に保持しておかなくてはいけない情報量を減らすことが可能であるという原理を利用する方法がある(非特許文献2)。このように、情報処理システムの精度を極力落とさずに学習モデルの圧縮を行うことは、実用上非常に大きな課題であり、様々な工夫により改善がなされている。
Lin Xiao. Dual Averaging Methods for Regularized Stochastic Learning and Online Optimization. Journal of Machine Learning Research, 11:2543-2596, 2010. Jun Suzuki and Masaaki Nagata. Supervised Model Learning with Feature Grouping based on a Discrete Constraint. Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, 18-23,2013.
しかし、非特許文献1記載の技術は、値をゼロにするのは、真にそのシステムパラメタに関わる項目に意味がない場合を除き、システムの精度を低下させる恐れがあるため、値をゼロにする効果とシステムの精度はトレードオフの関係になる。つまり、なるべくゼロを多くしてモデルサイズを圧縮したいが、あまりにゼロを多くしすぎる設定で学習を行うと、今度はシステム精度が不十分になるという問題点が存在する。
また、非特許文献2記載の技術は、非常に効果が高いことが示されているが、一方、実際にモデルを作成する際には、システムの精度を落とさずにどこまでモデルを圧縮可能かは自明ではなく、実際に試行錯誤的に試してみて、開発データなどで最も良い結果を最終的に選択するといった方法がとられる。実際にこの作業は、学習データ量が多くなればなるほど、非常に高コストになり、運用上問題が発生する。結果として、試行錯誤のコストを割くことが出来なかったがゆえに、本来得られる可能性があった高精度かつ高圧縮なモデルを発見できず、結果として、高圧縮なモデルを用いることができなかったり、逆に、精度を落とす結果となったりすることがしばしばおこるという問題点がある。
本発明では、上記問題点を解決するために成されたものであり、自動で適切な高圧縮モデルを獲得することができるシステムパラメタ学習装置、方法、及びプログラムを提供することを目的とする。
また、実行時に必要とされるリソースを削減することができる情報処理装置、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るシステムパラメタ学習装置は、入力データに対する出力データのスコアを決定するためのスコア関数を用いて、入力データに対して所定の情報処理を行って出力データを出力する情報処理システムにおいて設定される、複数のシステムパラメタを学習するシステムパラメタ学習装置であって、複数の入力データの各々と前記複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付ける教師データ入力部と、前記教師データ入力部により受け付けた前記教師データと、前記スコア関数とに基づいて、前記複数のシステムパラメタの各々の値が、所定個の実数値vi(i=1,・・・,ζ)と実数値−vi(i=1,・・・,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された前記複数のシステムパラメタを学習する学習部と、を含んで構成されている。
第2の発明に係るシステムパラメタ学習方法は、教師データ入力部と、学習部とを含む、入力データに対する出力データのスコアを決定するためのスコア関数を用いて、入力データに対して所定の情報処理を行って出力データを出力する情報処理システムにおいて設定される、複数のシステムパラメタを学習するシステムパラメタ学習装置におけるシステムパラメタ学習方法であって、前記教師データ入力部が、複数の入力データの各々と前記複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、前記学習部が、前記教師データ入力部により受け付けた前記教師データと、前記スコア関数とに基づいて、前記複数のシステムパラメタの各々の値が、前記所定個の実数値vi(i=1,・・・,ζ)と実数値−vi(i=1,・・・,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された前記複数のシステムパラメタを学習する。
第1及び第2の発明によれば、教師データ入力部により、複数の入力データの各々と複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、学習部により、受け付けた教師データと、スコア関数とに基づいて、複数のシステムパラメタの各々の値が、所定個の実数値vi(i=1,・・・,ζ)と実数値−vi(i=1,・・・,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された複数のシステムパラメタを学習する。
このように、複数の入力データの各々と複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、受け付けた教師データと、スコア関数とに基づいて、複数のシステムパラメタの各々の値が、所定個の実数値viと実数値−viと0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された複数のシステムパラメタを学習することによって、自動で適切な高圧縮モデルを獲得することができる。
第3の発明に係る情報処理装置は、入力データを受け付ける入力部と、前記スコア関数と、第1の発明のシステムパラメタ学習装置によって保存された各グループの前記インデックス番号のシステムパラメタとに基づいて、前記入力部において受け付けた入力データに対して、前記所定の情報処理を行って出力データを出力する情報処理部と、を含んで構成されている。
また、本発明のプログラムは、コンピュータを、上記のシステムパラメタ学習装置又は情報処理装置を構成する各部として機能させるためのプログラムである。
以上説明したように、本発明のパラメタ学習装置、方法、及びプログラムによれば、複数の入力データの各々と複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、受け付けた教師データと、スコア関数とに基づいて、複数のシステムパラメタの各々の値が、所定個の実数値viと実数値−viと0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された複数のシステムパラメタを学習することによって、自動で適切な高圧縮モデルを獲得することができる。
また、本発明の情報処理装置によれば、システムパラメタ学習装置によって保存された各グループのインデックス番号のシステムパラメタに基づいて、入力データに対して、所定の情報処理を行って出力データを出力することにより、実行時に必要とされるリソースを削減することができる。
本発明の実施の形態を適用する問題の例を示す図である。 素性とシステムの定義づけの一例を説明するための概念図である。 本発明の実施の形態に係るシステムパラメタ学習装置の構成を示すブロック図である。 素性抽出関数の一例を説明するための第1の概念図である。 素性抽出関数の一例を説明するための第2の概念図である。 教師データに基づいて、システムパラメタ値の学習処理を説明するための概念図である。 超平面への写像問題の例を示す図である。 一次元のk−meansと等価の処理の例を示す図である。 本発明の実施の形態に係る情報処理装置の構成を示すブロック図である。 本発明の実施の形態に係るシステムパラメタ学習装置におけるシステムパラメタ学習処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態に係る情報処理装置における情報処理ルーチンの内容を示すフローチャートである。 本実施の形態を用いた場合における実験結果を示す図である。 従来技術の概要を説明するための第1の説明図である。 従来技術の概要を説明するための第2の説明図である。 従来技術の概要を説明するための第3の説明図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の原理>
本発明に係る実施の形態は、非特許文献2によるモデル圧縮の枠組みに、学習データから自動で高精度かつ高圧縮モデルを構築する処理装置を追加する。
まず、非特許文献2のモデル圧縮処理装置を持った機械学習装置の仕組みを説明する。基本的な考えは、システムパラメタ学習後に複数のパラメタが同じ値をとれば、この重複情報を利用して、実際に保持しておかなくてはいけない情報量を減らすことが可能であるという原理を利用している。例えば、パラメタ数が5の時に、上記(2)式で最終的に得られたパラメタ集合がw^=(0.3,0.3,−0.6,−0.6,1.0)だったとする。すると、w^では、0.3と−0.6が2回重複して出現するため、1番目と2番目のパラメタを合わせて、また、3番目と4番目のパラメタを合わせて、w^=(0.3,−0.6,1.0)という3つの情報が最低限あれば同じ結果が得られる。このように、重複した値が多ければ多いほど等価な情報を情報量を減らして保持することが可能であることがわかる。
つまり、上記(2)式のシステムパラメタの学習を行う際に、「システムパラメタの値がなるべく多く同じ値をとるようにする」という制約を追加して、システムパラメタの学習を行うことで、結果として得られるシステムパラメタの値の重複がより多くなるようにする。
そして、次に、得られたパラメタに対して、同じ値を持つパラメタを一つにまとめることで、保持すべき情報量を削減する。最後に、削減したパラメタを用いて、実際にシステムを実行する。まとめると、従来の方法は、大きく分けて以下の1〜3の3つの処理で構成される。
1.第1の処理として、通常のシステムパラメタ学習時に最終的に得られるパラメタの値をなるべく同じになるようなシステムパラメタの獲得処理。
2.第2の処理として、得られたシステムパラメタの重複する値を一つにまとめて保持しておくべき情報量を最小限にするシステムパラメタの圧縮処理。
3.第3の処理として、最小限に圧縮したシステムパラメタを用いて、システムを実行フェーズで動作させる処理。
より具体的には、第1の処理は、上記(2)式のシステムパラメタ学習問題を、下記(3)式の問題に置き換える。
上記(2)式と上記(3)式との違いは、単純に制約項
が増えただけである。この制約は、システムパラメタw^がある任意の離散集合
の要素となる場合にだけ解として認めるということを意味している。つまり、上記(2)式と同等の最適化問題を解くが、解は制約を満たしている必要がある。この制約は、パラメタの値をなるべく重複してとるように設計するために、有限個の離散値
の直積集合
で構成する。
第2の処理として、同じ値になったパラメタを一つにまとめる。これは、構築フェーズの後処理的な位置づけになる。これは、例えば、w=w=wとなったと仮定すると、つまり、i,j,k番目のシステムパラメタ(パラメタベクトルの要素)が同じ値となったとき、w,w,wを削除し、新たにwとするといった処理に相当する。ただし、新たに追加したwはwなどと同じ値であり、インデックスi,j,kはインデックスlに新たに振りなおされたとみなすことと等価である。このように、同じ値を保持していても冗長な情報なので、それらを一つにまとめて新たに割り振ったインデックスを、元の値のインデックスが指すことで、同じ情報を得られるようにする。こうすることで、従来と同じ形式のシステムパラメタでありながら、システムパラメタの値が重複した分を減らした、システムパラメタの集合を獲得することができる。
第3の処理は、得られたシステムパラメタを用いて実際にシステムを動作させる。この処理は、第2の処理で、従来と同じ形式のシステムパラメタを得るようにすることで、処理としては、従来と同等の上記(1)式が使える。
本発明に係る実施の形態は、主に上記第1の処理を変更する。従来の方法では、制約
に現れる集合
は手動で決める必要がある。つまり、この集合の定義がシステム精度に大きく影響を与える。また、この定義は、データや対象タスクによって変わるものであり、事前に最適な定義を与えることは困難である。場合によっては、人間の事前知識等により、高精度なモデルを構築可能な定義を導出できる場合もありえるが、一般論としては、非常に難しくセンシティブな作業となるため、人手コスト等の面で大きな課題となる。本発明に係る実施の形態では、この定義を決める部分も最適化問題に含めて考えることで、データから自動的に決定する。
具体的には、制約
を、制約
に変更し、上記(3)式を、下記(4)式のように再定義する。
上記(4)式の意味は、制約として取り得る値は、0と±vのみとなり、vは、ζ種類の実数値となる。例えば、ζ=4を予め指定した場合は、モデル内のパラメタ各w^の取り得る値は零を含めて9種類となる。また、このときの取り得る値の制約vもデータから自動に決定される。
以下では、図1に示すような、自然言語処理の固有表現抽出と係り受け解析に対する問題について、本発明の実施の形態を適用した場合を想定して説明する。これらの問題は、構造予測問題と呼ばれ、グラフ構造などに変換されたものを入力として受け取り、同じくグラフ構造で表されるものを出力とする問題とみなすことができる。
以下で説明する、構築及び実行フェーズでは、図2に示すように、最初にそれぞれの入力と出力の特徴付ける素性の定義を人手にて与える。ここでは、素性は関数として定義することを想定するため、素性抽出関数の集合を定義することと等価である。また、ある入力が与えられたときに、どのような出力がなされるかといった、システムの動作定義も人手にて与える。これは、実際に解く問題、ここでは固有表現抽出や係り受け解析、の問題の定義にしたがって自動的に決まるものである。
<システムパラメタ学習装置のシステム構成>
次に、本発明の実施の形態に係るシステムパラメタ学習装置の構成について説明する。図3に示すように、本発明の実施の形態に係るシステムパラメタ学習装置100は、CPUと、RAMと、後述するシステムパラメタ学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このシステムパラメタ学習装置100は、機能的には図3に示すように教師データ入力部10と、演算部20と、システムパラメタ記憶部90とを備えている。
教師データ入力部10は、教師データの入力を受け付ける。ここで、教師データは、上記図1で示したように、予め定められた入力データと、当該入力データに対する正解出力データとの複数ペアである。また、教師データ入力部10は、後述する学習部40で用いるチューニングパラメタρの入力を受け付ける。なお、パラメタρは、人手によって予め与えられる。
演算部20は、教師データベース30と、学習部40と、重複パラメタ圧縮部60とを備えている。
教師データベース30には、教師データ入力部10により受け付けた教師データが格納される。
学習部40は、教師データベース30に格納された教師データと、予め定められたスコア関数とに基づいて、複数のシステムパラメタを学習する。具体的には、学習部40は、教師データとスコア関数とに基づいて、複数のシステムパラメタの各々の値が、個数ζが予め定められた実数値v(i=1,…,ζ)と実数値−v(i=1,…,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された複数のシステムパラメタを学習する。学習部40は、初期化部50、システムパラメタ更新部52、補助パラメタ更新部54、未定乗数更新部56、及び収束判定部58を備えている。
学習部40における学習アルゴリズムでは、目的関数を最小化するシステムパラメタw^=(w,w,…,w)を学習する。具体的には、正解データと教師あり学習アルゴリズムを人手により決定し、それを構築フェーズの設定として与える。以下では、システムパラメタw^を学習するための目的関数について最初に説明する。
ここでは、素性を抽出するための素性抽出関数fを、入力データx^と出力データy^の組み合わせで定義される関数とする。個々の素性抽出関数は、f(x^,y^)の形式の関数であり、任意の実数値を返す関数である。ここで、w^と同様に、素性抽出関数の集合をベクトル表記f^(x^,y^)で表す。このとき、f(x^,y^)は、f^(x^,y^)のd番目の要素を表す。素性抽出関数によって抽出される素性の例を、図4、及び図5に示す。
また、上記の素性抽出関数の数が、システムパラメタの数Nとなるように設計すると、スコア関数()は以下の(5)式のように線形関数として定義できる。
つまり、システムパラメタwは素性抽出関数fの重みであり、値が大きければ、素性抽出関数fがよりシステムの出力データの選択に影響をおよぼし、マイナス側に大きければ、システムが出力データy^をより選ばないような重み付けをしたことに相当する。つまりここでのシステムパラメタは素性の重みを決める値である。学習部40では、図6に示すように教師あり学習アルゴリズムによってシステムパラメタの学習を行う。
目的関数は上記(4)式で表わされるが、上記(4)式は、解に離散制約が入るので、基本的に離散最適化問題となり、厳密に解を求めるのが非常に困難な問題の系になる。しかし、双対分解に基づく方法を活用することで効率的な解法が得られる(例えば、非特許文献3: Stephen Boyd, Neal Parikh, Eric Chu, Borja Peleato, and Jonathan Eckstein、「Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers」,2011,Foundations and Trends in Machine Learning)。まず、双対分解に基づいて上記(4)式の制約を分解する。
ここで、u^は、補助パラメタである。これは、等式制約w^=u^を用いて従来の最適化問題と制約を分離したことになる。次に、上記非特許文献3の拡張ラグランジュ緩和を用いて制約を目的関数に代入する。
α^はラグランジュ乗数である。上記非特許文献3にしたがって、初期化部50、システムパラメタ更新部52、補助パラメタ更新部54、未定乗数更新部56、及び収束判定部58における処理によって、上記(7)式に示す目的関数を最適化することにより、本実施の形態では、値が重複したシステムパラメタが得られる。
リスク関数は、基本的にどのような関数を用いてもよいが、ここでは、凸関数であることに限定する。本実施の形態では、リスク関数として、以下の(8)式に示すヒンジ損失関数を用いる。
ここで、E(y^,y^)は、y^とy^とがどの程度違っているかを示す関数である。y^とy^との違いが大きい程、E(y^,y^)は0以上の大きい値となり、y^とy^とが同一である場合にE(y^,y^)は0となる。
また、リスク関数と同様に、正則化項も凸関数であることとする。例えば、正則化項について、以下の(9)式に示すL−ノルム正則化項を用いる。
リスク関数、及び目的関数が凸関数であるため、上記(2)式の最適化問題は基本的に凸最適化であり、大域的な最適解が必ず存在する。
初期化部50は、最適化に用いる3種類のパラメタw^、u^、α^を全て0にセットする。以下繰り返し計算となるため、繰り返し回数を管理する変数をtとし、t=0とする。
システムパラメタ更新部52は、初期化部50で初期化された3種類のパラメタw^、u^(t)、α^(t)、又は後述する各処理で前回更新された3種類のパラメタw^、u^(t)、α^(t)を用いて、以下に説明するように、システムパラメタw^(t)からw^(t+1)へ更新する。
反復計算tの時点で、u^(t)とα^(t)を固定したときのw^の最適解は、目的関数
を最小にするw^を見つける問題の解である。
定義に従って、上記(10)式から、w^に関係する項のみを取り出すと、下記(11)式となる。
この最適化問題は、上記(2)式にL−ノルム正則化項が追加された最適化問題とみなすことができる。この問題は、上記(2)式が凸最適化問題であれば、必ず凸最適化問題となるため、上記(2)式を解く方法を用いて容易に解くことができる。
そこで、システムパラメタ更新部52は、初期化部50で初期化された3種類のパラメタw^、u^(t)、α^(t)、又は後述する各処理で前回更新された3種類のパラメタw^、u^(t)、α^(t)を用いて、上記(11)式に従って、システムパラメタw^(t)からw^(t+1)へ更新する。
補助パラメタ更新部54は、システムパラメタ更新部52で更新されたw^(t+1)と、初期化部50で初期化されたパラメタα^(t)、又は前回更新されたパラメタα^(t)とを用いて、以下に説明するように、補助パラメタu^(t)からu^(t+1)へ更新する。
w^(t+1)とα^(t)を固定したときu^の最適解は、目的関数
に制約
が追加された最適化問題の解である。まず、u^に関連する項だけ集めると、下記(12)式に表す目的関数となる。
まず、制約が無い場合を考えると、目的関数
のu^に関する勾配が零ベクトルになる点である。その関係から下記(13)式及び下記(14)式の関係式が得られる。
次に、制約を考慮すると、上記(12)式から、制約が無い場合の最適解u^=w^(t+1)+α(t)からζの自由度を持った超平面への写像問題と捉えることができる。よって、図7に示すように、u^=w^(t+1)+α(t)から最も近い超平面上の点を見つける処理を行えばよい。実際にこの処理は、図8に示すように、一次元のk−meansと等価の処理になる(非特許文献4:Haizhou Wang and Mingzhou Song. Ckmeans.1d.dp: Optimal k-means Clustering in One Dimension by Dynamic Programming. The R Journal, 3(2):29.33, 2011.)。このことから、各パラメタに対して独立に処理が可能であり、非常に効率的に求めることができる。
未定乗数更新部56は、システムパラメタ更新部52で更新されたw^(t+1)と、補助パラメタ更新部54で更新されたu^(t+1)と、初期化部50で初期化されたパラメタα^(t)、又は前回更新されたパラメタα^(t)とを用いて、以下に説明するように、ラグランジュ未定乗数α^を更新する。
w^(t+1)とu^(t+1)を固定したときの最適値の方向は、目的関数
のα^に関する勾配方向である。
上記(15)式から下記(16)式の更新式を得る。
以上より、未定乗数更新部56は、システムパラメタ更新部52で更新されたw^(t+1)と、補助パラメタ更新部54で更新されたu^(t+1)と、初期化部50で初期化されたパラメタα^(t)、又は前回更新されたパラメタα^(t)とを用いて、上記(16)式に従って、ラグランジュ未定乗数α^(t)からα^(t+1)へ更新する。
収束判定部58は、予め定められた条件が満たされたか否かを判定し、当該条件が満たされるまで、システムパラメタ更新部52、補助パラメタ更新部54及び未定乗数更新部56による更新処理を繰り返す。具体的には、収束判定部58は、上記の各処理によって得られたシステムパラメタw^が最適値になっているか判定する。より詳細には、二つの小さな正の実数ε、εをあたえ、下記(17)式、及び下記(18)式を満たした際に収束したと判定する(上記非特許文献3参照)。
そして、収束判定部58による収束判定で、収束していなかった場合は、t=t+1としてシステムパラメタ更新部52に戻る。収束していると判定された場合は、後述する重複パラメタ圧縮部60に移る。
重複パラメタ圧縮部60は、学習部40によって学習された複数のシステムパラメタに基づいて、値が同一となるシステムパラメタでグループを構成し、各グループにインデックス番号を付与し、各グループについて、グループを構成するシステムパラメタの各々を、当該グループに付与されたインデックス番号のシステムパラメタに変換し、当該インデックス番号のシステムパラメタを、後述するシステムパラメタ記憶部90に記憶する。具体的には、上記(5)式で定義したように、スコア関数には線形式を仮定したので、w=w=,,,となるような、同じ値を取るシステムパラメタでグループを構築する。
仮に、K個のグループができたと仮定すると、各グループに1からKまでのインデックス番号を付け
のようにK個のグループの集合を構築する。ここで、w=w=wの時に、
をシステムパラメタの元の番号の集合と考え、
と定義する。つまり、元のシステムパラメタ番号から、そのシステムパラメタと同じ値になるグループのインデックス番号への変換を、一時的に記憶しておくことを意味する。また、vをk番目のグループの値とする、つまり、w=w=w
のとき、w=w=w=vである。
また、重複パラメタ圧縮部60は、このインデックス番号の変換を素性関数fにも同じように適用する。このときに、新しくgを以下の(19)式のように、元の素性抽出関数の単純な線形結合で定義する。
すると、上記(5)式のスコア関数は、
という関係が成り立つ。ここで、複数のシステムパラメタw^は、入力データx^及び出力データy^に対する複数の素性抽出関数f(x^、y^)の重みとなる。つまり、もともとの線形関数Σ d=1(x^,y^)は、新たな線形関数Σ k=1(x^,y^)と等価で変換できる。ただし、Kはグループの数なので、Nと比べると圧倒的に少ない数になっていることが想定できる。また、gはグループ内に属する素性関数の総和なので、事前に容易に計算できる。
以上のように、重複パラメタ圧縮部60は、各グループについて、当該グループを構成するシステムパラメタの各々を、当該グループに付与された当該インデックス番号のシステムパラメタに変換し、当該インデックス番号のシステムパラメタを保存すると共に、上記の(20)式に示すように、スコア関数を定義する。
よって、システムパラメタ更新部52により得られた重複が多くあるシステムパラメタの集合から、重複部分を融合し、等価だが無駄のない形式に圧縮することで、大幅にモデルサイズを削減することができる。また追加の処理として、w=0になる場合、fは出力の選択に何も寄与しないので、素性関数の定義そのものを削除することが可能である。この処理もここで合わせて行う。
システムパラメタ記憶部90には、重複パラメタ圧縮部60によって圧縮されたシステムパラメタvと、新たに定義されたスコア関数Φ(x^,y^;w^)とが格納される。
<情報処理装置のシステム構成>
前述のシステムパラメタ学習装置100で得られた圧縮されたシステムパラメタを用いて、情報処理装置200によって、未知の入力データに対して所定の情報処理を行う。システムパラメタの圧縮を行う場合と、仮にシステムパラメタの圧縮をしなかった場合とで、処理結果は完全に一致する。よって、圧縮を行うことによって、モデルのサイズ(システムパラメタ自体のサイズ)を大幅に削減できる分、実行時に必要とされるリソースを削減できるというメリットだけを享受することができる。
図9は、本発明の実施の形態に係る情報処理装置200を示すブロック図である。この情報処理装置200は、CPUと、RAMと、後述する情報処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
本実施の形態に係る情報処理装置200は、図9に示すように、入力部210と、システムパラメタ記憶部220と、情報処理部230と、出力部240とを備えている。
入力部210は、入力データx^を受け付ける。
システムパラメタ記憶部220には、上記システムパラメタ学習装置100によって圧縮されたシステムパラメタvと、新たに定義されたスコア関数gとが格納される。
情報処理部230は、システムパラメタ記憶部220に格納された、インデックス番号kのシステムパラメタvと、新たに定義されたスコア関数Φ(x^,y^;w^)とに基づいて、入力部210により受け付けた入力データx^に対して、所定の情報処理を行う。具体的には、情報処理部230は、入力部210により受け付けた入力データx^と、システムパラメタ記憶部220に格納された、インデックス番号kのシステムパラメタvと、新たに定義されたスコア関数Φ(x^,y^;w^)とに基づいて、所定の最適化手法を用いて、スコア関数Φ(x^,y^;w^)が最大となる出力データy^を算出する。
出力部240は、情報処理部230によって算出された出力データy^を結果として出力する。
<システムパラメタ学習装置の作用>
次に、本実施の形態に係るシステムパラメタ学習装置100の作用について説明する。まず、教師データと、パラメタρと、実数値の個数を表すパラメタζとが、システムパラメタ学習装置100に入力されると、システムパラメタ学習装置100によって、入力された教師データが、教師データベース30へ格納される。
そして、システムパラメタ学習装置100によって、図10に示すシステムパラメタ学習処理ルーチンが実行される。
まず、ステップS100において、初期化部50によって、最適化に用いる3種類の最適化変数w^、u^、α^を全て0にセットし、初期化する。
次に、ステップS102において、初期化部50によって、繰り返し回数を管理する変数tを、t=0と設定し、初期化する。
ステップS104において、システムパラメタ更新部52によって、上記ステップS100で初期化された3種類のパラメタw^、u^(t)、α^(t)、又は後述する各ステップで前回更新された3種類のパラメタw^、u^(t)、α^(t)を用いて、上記(11)式に従って、システムパラメタw^(t)からw^(t+1)へ更新する。
ステップS106において、補助パラメタ更新部54によって、上記ステップS104で更新されたw^(t+1)と、上記ステップS100で初期化されたパラメタα^(t)、又は後述するステップS108で前回更新されたパラメタα^(t)とを用いて、上記(14)式に従って、u^を計算し、計算されたu^から最も近い超平面上の点を見つけて、補助パラメタu^(t)からu^(t+1)へ更新する。
ステップS108において、未定乗数更新部56によって、上記ステップS104で更新されたw^(t+1)と、上記ステップS106で更新されたu^(t+1)と、上記ステップS100で初期化されたパラメタα^(t)、又は本ステップS108で前回更新されたパラメタα^(t)とを用いて、上記(16)式に従って、ラグランジュ未定乗数α^(t)からα^(t+1)へ更新する。
ステップS110において、収束判定部58によって、上記ステップS104で更新されたw^(t+1)と、前回更新されたw^(t)と、上記ステップS106で更新されたu^(t+1)と、前回更新されたu^(t)とに基づいて、上記(17)式、及び上記(18)式に示す収束条件を満たしているか否かを判定する。そして、収束していないと判定された場合には、ステップS112で繰り返しを管理する変数tをインクリメントして、ステップS104へ移行し、上記ステップS104〜ステップS108の各処理を繰り返す。収束したと判定された場合には、ステップS114へ移行する。
ステップS114において、重複パラメタ圧縮部60によって、上記ステップS104の更新処理によって最終的に得られたシステムパラメタw^の値に基づいて、値が同一となるシステムパラメタでグループを構成し、各グループについて、グループを構成するシステムパラメタの各々を、当該グループに付与された当該インデックス番号のシステムパラメタに変換し、当該インデックス番号のシステムパラメタをシステムパラメタ記憶部90に保存すると共に、上記の(20)式に示すように、新たなスコア関数を定義して、システムパラメタ記憶部90に保存して、システムパラメタ学習処理ルーチンを終了する。
<情報処理装置の作用>
次に、本実施の形態に係る情報処理装置200の作用について説明する。まず、システムパラメタ学習装置100のシステムパラメタ記憶部90に記憶されているシステムパラメタvの各々と新たに定義されたスコア関数Φ(x^,y^;w^)とが、情報処理装置200に入力されると、システムパラメタ記憶部90に格納される。そして、対象としての入力データx^が情報処理装置200に入力されると、情報処理装置200によって、図11に示す実行処理ルーチンが実行される。
まず、ステップS200において、入力部210によって、入力データx^を受け付ける。
次に、ステップS202において、情報処理部230によって、システムパラメタ記憶部220に記憶されたシステムパラメタvの各々と、新たに定義されたスコア関数Φ(x^,y^;w^)とを読み込む。
ステップS204において、情報処理部230によって、上記ステップS200で受け付けた入力データx^と、上記ステップS202で読み込んだシステムパラメタvの各々及びスコア関数Φ(x^,y^;w^)とに基づいて、所定の最適化手法を用いて、スコア関数Φ(x^,y^;w^)が最大となる出力データy^を算出する。
ステップS206において、出力部240によって、上記ステップS204で算出された出力データy^を結果として出力して、情報処理ルーチンを終了する。
<実験結果>
次に、本実施の形態の実験結果を示す。実際にテキスト処理の問題では、識別する際に入力と出力を特徴付ける、いわゆる素性として単語等の離散シンボル的なものを扱うため、全体の素性数が数百万から、数十億程度まで利用されることが往々にしてあり得る。図12に、自然言語処理の構文解析と固有表現抽出問題において、本実施の形態で説明した手法を用いた際の効果を示す。
図12中の横軸は、グループの数を表し、縦軸は、システムの解析精度を表している。この図からもわかるように、本実施の形態の方法を用いると、グループの数を2から8といった非常に少ない数で従来と同等の解析精度を得ることができる。
次に、この実験データにおけるモデル学習の一回あたりの試行でおよそ6時間かかる。ここでの結果を得るために人手で調整した定義はおおよそ20回程度に及んだ。一方、本実施の形態の方法を用いると、特に試行錯誤をせずに、一回で同じ結果を出すことが可能である。これは単純計算で、モデル作成コストがおよそ20分の1にできたことと等価である。
以上説明したように、本発明の実施の形態に係るシステムパラメタ学習装置によれば、複数の入力データの各々と複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、受け付けた教師データと、スコア関数とに基づいて、複数のシステムパラメタの各々の値が、個数が予め定められた実数値viと実数値−viと0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された複数のシステムパラメタを学習することによって、自動で適切な高圧縮モデルを獲得することができる。
また、本発明の実施の形態に係る情報処理装置によれば、システムパラメタ学習装置によって学習された、圧縮されたシステムパラメタに基づいて、入力データに対して、所定の情報処理を行って出力データを出力することにより、モデルのサイズ(システムパラメタ自体のサイズ)を大幅に削減できる分、実行時に必要とされるリソースを削減できる。
また、従来とほぼ同等の精度を保ちつつシステムパラメタ自体のサイズを大幅に削減することが可能となる。具体的には、システムパラメタ数1億のモデルの場合は、100,000,000x8byte=800,000,000byteであるので、800MBの容量を必要とする。しかし、本実施の形態を用いることで、システムパラメタ値の種類数を、例えば、8程度といった非常に小さい値にまで削減できる。この場合、8×8byte=64byteであり、計算上は、約1250万分の1程度に圧縮できたことになる。
また、従来技術で示した方法との違いとしては、従来技術では、
中に現れる集合
の定義
を人手により調整して得る。この時、試行錯誤により、よい定義を発見しなくてはいけないため、一般的には、数十回の試行を逐次または並列実行し、その中で最も開発セットの結果がよいものを選択する方法を用いる。一方、本実施の形態においては、人手による調整が不要であり、かつ、たった一回の試行でほぼ確実に従来技術と同レベルの精度と圧縮率を保ったモデルを獲得することが可能となる。これにより、モデル構築および選択の速度とコストが従来に比べて数から数十分の一程度に削減できるため、実用上非常に価値の高い効果を与えることができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、システムパラメタ記憶部90、220及び教師データベース30は、外部に設けられ、システムパラメタ学習装置100及び情報処理装置200とネットワークで接続されていてもよい。
また、上記実施の形態では、システムパラメタ学習装置100と情報処理装置200とを別々の装置として構成する場合を例に説明したが、システムパラメタ学習装置100と情報処理装置200とを1つの装置として構成してもよい。
上述のシステムパラメタ学習装置100及び情報処理装置200は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
例えば、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 教師データ入力部
20 演算部
30 教師データベース
40 学習部
50 初期化部
52 システムパラメタ更新部
54 補助パラメタ更新部
56 未定乗数更新部
58 収束判定部
60 重複パラメタ圧縮部
90 システムパラメタ記憶部
100 システムパラメタ学習装置
200 情報処理装置
210 入力部
220 システムパラメタ記憶部
230 情報処理部
240 出力部

Claims (8)

  1. 入力データに対する出力データのスコアを決定するためのスコア関数を用いて、入力データに対して所定の情報処理を行って出力データを出力する情報処理システムにおいて設定される、複数のシステムパラメタを学習するシステムパラメタ学習装置であって、
    複数の入力データの各々と前記複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付ける教師データ入力部と、
    前記教師データ入力部により受け付けた前記教師データと、前記スコア関数とに基づいて、前記複数のシステムパラメタの各々の値が、所定個の実数値vi(i=1,・・・,ζ)と実数値−vi(i=1,・・・,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された前記複数のシステムパラメタを学習する学習部と
    を含む、システムパラメタ学習装置。
  2. 前記学習部は、以下の(1)式に従って、前記最適化されたN個のシステムパラメタw^を学習する請求項1記載のシステムパラメタ学習装置。
    ただし、
    は、前記教師データ
    の入力データxに対してシステムパラメタw^を用いて前記所定の情報処理を行ったときに得られる出力データが、前記教師データ
    の正解出力データyとどの程度間違っているかを示す値を返すリスク関数であり、Ω(w^)は、正則化項であり、
    は、前記N個のシステムパラメタの各々についての前記離散値の直積集合である。
  3. 前記学習部は、以下の(2)式に従って、前記最適化されたN個のシステムパラメタw^を学習する請求項2記載のシステムパラメタ学習装置。
    ただし、α^は、ラグランジュ未定乗数であり、ρは、予め定められたチューニングパラメタであり、u^は、補助パラメタである。
  4. 前記学習部によって学習された前記複数のシステムパラメタに基づいて、値が同一となるシステムパラメタでグループを構成し、各グループにインデックス番号を付与し、各グループについて、前記グループを構成するシステムパラメタの各々を、前記グループに付与された前記インデックス番号のシステムパラメタに変換し、前記インデックス番号のシステムパラメタを保存する重複パラメタ圧縮部を更に含む請求項1〜3の何れか1項記載のシステムパラメタ学習装置。
  5. 前記複数のシステムパラメタは、入力データx^及び出力データy^に対する複数の素性抽出関数f(x^,y^)の重みであって、
    前記重複パラメタ圧縮部は、各グループについて、前記グループを構成するシステムパラメタの各々を、前記グループに付与された前記インデックス番号のシステムパラメタに変換し、前記インデックス番号のシステムパラメタを保存すると共に、以下の(3)式に示すように、前記スコア関数を定義して保存する請求項4記載のシステムパラメタ学習装置。
    ただし、Φ(x^,y^;w^)はスコア関数であり、vは、グループに付与されたインデックス番号kのシステムパラメタである。
  6. 入力データを受け付ける入力部と、
    前記スコア関数と、請求項4又は5記載のシステムパラメタ学習装置によって保存された各グループの前記インデックス番号のシステムパラメタとに基づいて、前記入力部において受け付けた入力データに対して、前記所定の情報処理を行って出力データを出力する情報処理部と、
    を含む、情報処理装置。
  7. 教師データ入力部と、学習部とを含む、入力データに対する出力データのスコアを決定するためのスコア関数を用いて、入力データに対して所定の情報処理を行って出力データを出力する情報処理システムにおいて設定される、複数のシステムパラメタを学習するシステムパラメタ学習装置におけるシステムパラメタ学習方法であって、
    前記教師データ入力部が、複数の入力データの各々と前記複数の入力データに対する複数の正解出力データの各々とのペアである教師データを受け付け、
    前記学習部が、前記教師データ入力部により受け付けた前記教師データと、前記スコア関数とに基づいて、前記複数のシステムパラメタの各々の値が、所定個の実数値vi(i=1,・・・,ζ)と実数値−vi(i=1,・・・,ζ)と0とからなる離散値の集合に含まれる制約を満たし、かつ、最適化された前記複数のシステムパラメタを学習する
    システムパラメタ学習方法。
  8. コンピュータを、請求項1から請求項5の何れか1項記載のシステムパラメタ学習装置又は請求項6記載の情報処理装置を構成する各部として機能させるためのプログラム。
JP2014037245A 2014-02-27 2014-02-27 システムパラメタ学習装置、情報処理装置、方法、及びプログラム Active JP6101650B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014037245A JP6101650B2 (ja) 2014-02-27 2014-02-27 システムパラメタ学習装置、情報処理装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014037245A JP6101650B2 (ja) 2014-02-27 2014-02-27 システムパラメタ学習装置、情報処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015162113A JP2015162113A (ja) 2015-09-07
JP6101650B2 true JP6101650B2 (ja) 2017-03-22

Family

ID=54185162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014037245A Active JP6101650B2 (ja) 2014-02-27 2014-02-27 システムパラメタ学習装置、情報処理装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6101650B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6886112B2 (ja) 2017-10-04 2021-06-16 富士通株式会社 学習プログラム、学習装置及び学習方法
JP7121506B2 (ja) 2018-03-14 2022-08-18 株式会社日立ハイテク 探索装置、探索方法及びプラズマ処理装置
JP7137943B2 (ja) 2018-03-20 2022-09-15 株式会社日立ハイテク 探索装置、探索方法及びプラズマ処理装置
US11747774B2 (en) 2019-12-03 2023-09-05 Hitachi High-Tech Corporation Search device, search program, and plasma processing apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5623344B2 (ja) * 2011-06-08 2014-11-12 日本電信電話株式会社 縮約素性生成装置、方法、プログラム、モデル構築装置及び方法

Also Published As

Publication number Publication date
JP2015162113A (ja) 2015-09-07

Similar Documents

Publication Publication Date Title
Aljalbout et al. Clustering with deep learning: Taxonomy and new methods
WO2023000574A1 (zh) 一种模型训练方法、装置、设备及可读存储介质
US11475360B2 (en) System and method for relational time series learning with the aid of a digital computer
CN113570064A (zh) 利用复合机器学习模型来执行预测的方法及系统
JP6101650B2 (ja) システムパラメタ学習装置、情報処理装置、方法、及びプログラム
Arsov et al. Network embedding: An overview
CN108171010B (zh) 基于半监督网络嵌入模型的蛋白质复合体检测方法与装置
JP2015203946A (ja) ヒストグラムの重心を計算する方法
WO2011134141A1 (en) Method of extracting named entity
CN108536844B (zh) 一种文本增强的网络表示学习方法
Nural et al. Using meta-learning for model type selection in predictive big data analytics
CN109558882B (zh) 基于鲁棒局部低秩稀疏cnn特征的图像分类方法及装置
US20230117325A1 (en) System for generating compound structure representation
JP6586026B2 (ja) 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム
Gropp et al. Clustered latent Dirichlet allocation for scientific discovery
Olteanu et al. Using SOMbrero for clustering and visualizing graphs
JP7131616B2 (ja) 時系列データ処理装置
JP5766753B2 (ja) システムパラメータ学習装置、情報処理装置、方法、及びプログラム
CN116304518A (zh) 用于信息推荐的异质图卷积神经网络模型构建方法及系统
JP5533272B2 (ja) データ出力装置、データ出力方法およびデータ出力プログラム
Renard et al. A Grassmannian minimum enclosing ball approach for common subspace extraction
Yang et al. Heterogeneous representation learning with structured sparsity regularization
JP2010079325A (ja) モデルの構築方法、構築システム及び構築用プログラム
CN113537447A (zh) 多层神经网络的生成方法、装置、应用方法及存储介质
CN110633363A (zh) 一种基于nlp和模糊多准则决策的文本实体推荐方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170227

R150 Certificate of patent or registration of utility model

Ref document number: 6101650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150