JP5462748B2 - データ可視化装置、データ変換装置、方法、及びプログラム - Google Patents

データ可視化装置、データ変換装置、方法、及びプログラム Download PDF

Info

Publication number
JP5462748B2
JP5462748B2 JP2010198043A JP2010198043A JP5462748B2 JP 5462748 B2 JP5462748 B2 JP 5462748B2 JP 2010198043 A JP2010198043 A JP 2010198043A JP 2010198043 A JP2010198043 A JP 2010198043A JP 5462748 B2 JP5462748 B2 JP 5462748B2
Authority
JP
Japan
Prior art keywords
data
observation data
image
transformation matrix
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010198043A
Other languages
English (en)
Other versions
JP2012053848A (ja
Inventor
勝彦 石黒
大地 持橋
具治 岩田
宏 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010198043A priority Critical patent/JP5462748B2/ja
Publication of JP2012053848A publication Critical patent/JP2012053848A/ja
Application granted granted Critical
Publication of JP5462748B2 publication Critical patent/JP5462748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データ可視化装置、データ変換装置、方法、及びプログラムに係り、特に、観測データを、画像に変換して可視化するデータ可視化装置、方法、及びプログラム、並びに、画像を文書データに変換するデータ変換装置及び方法に関する。
大量のデータがインターネットなどを通じて入手可能な現在、そのような大規模データセットを用いた情報解析やビジネスが盛んに行われている。しかしながら、こういった大量のデータの内容を人間が把握するのは困難である。
大量のデータの検索や要約のため、各データを少数のパターンの組み合わせで表現するトピックモデルと呼ばれる手法が提案されている(例えば、非特許文献1、2)。これらの手法では、それぞれのデータを数個から数十個の「トピック」と呼ばれる要素の組み合わせで表現する。各トピックは、観測されるデータの一部の特徴を抽象化したものである。この手法を用いることで、多種多様なデータを複数のトピックの構成比(混合比)で要約して表現することができる。
また、データの内容を「人間の目で見て理解」できるようにする可視化手法の研究が数多く行われてきた(例えば、非特許文献3)。非特許文献3に記載の技術は、トピックモデルの技術を利用して得られた情報を、2次元あるいは3次元空間の点の集合へと変換することで可視化する技術である。一つのデータは2次元あるいは3次元空間上の一つの点へと写像される。写像の求め方は、手法によって異なるが、基本的には、データの内容の近さが写像先の低次元空間での点の近さにできるだけ比例するような写像を求めている。全てのデータを1つの空間上に写像することで一つの画像が構成されている。これにより、大量に存在するデータの間の関係性が一目で理解できる。
また、連続量で表現されたデータについて、個々のデータの内容を画像パターンとして可視化・認識する方法が提案されている (非特許文献4)。
Blei, D. M., Ng, A. Y. and Jordan, M. I., "Latent Dirichlet Allocation", Journal of Machine Learning Research, Vol. 3, pp. 993−1022, 2003. Blei, D. M. and Lafferty, J. D., "A Correlated Topic Model of Science", The Annals of Applied Statistics, Vol. 1, pp. 17−35, 2007. Iwata, T. and Yamada, T. and Ueda, N., "Probabilistic Latent Semantic Visualization: Topic Model for Visualizing Documents", Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD), pp. 363−371, 2008. Yoshii, K. and Goto, M., "Music Thumbnailer: Visualizing Musical Pieces in Thumbnail Images based on Acoustic Features", Proceedings of the Ninth International Conference on Music Information Retrieval (ISMIR), 2008.
以上の手法はそれぞれ以下のような問題点を持つ。
非特許文献1、2に記載の技術によれば、トピックの構成比を表す多次元ベクトルが得られるのみであり、画像などの形で可視化する技術ではないため、大量のデータの内容を直観的に理解するのは困難である、という問題がある。
また、非特許文献3に記載の可視化手法は、大規模データセット中の各データの関係を理解する点では有用だが、個別のデータの内容理解には不適切である。なぜなら、各データ点は高々3次元空間中の点として表現されているからである。従って、近年注目されている商品のレビューやブログ上の口コミ記事などのように、データ全体の関係性だけでなく、個々のデータの内容も重要なデータ集合には、有用ではない、という問題がある。
また、非特許文献4に記載の手法は、連続量で表現されたデータにしか適用できない。しかし、インターネットなどを通じて収集・利用できるデータの大部分は言語情報やアイテム間の関係データのように離散的である。したがって、非特許文献4に記載の手法では多くのデータセットを可視化することができない、という問題がある。
本発明は、上記の課題を解決するためになされたもので、離散データの集合を含む観測データを、画像に変換して可視化することができるデータ可視化装置、方法、及びプログラムを提供することを第1の目的とする。
また、画像を、離散データの集合を含む出力データに変換することができるデータ変換装置、方法、及びプログラムを提供することを第2の目的とする。
上記の第1の目的を達成するために第1の発明に係るデータ可視化装置は、離散データの集合を含む観測データの集合を、前記観測データの内容に応じた画像の集合を推定することによって、可視化するデータ可視化装置であって、可視化対象とする前記観測データの集合、前記観測データの集合に対する画像の集合、前記観測データの集合に含まれる複数種類の離散データの各々が前記観測データの各々において出現する確率を示す確率パラメータ、前記画像の集合を前記確率パラメータに変換するための変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータを記憶した記憶手段と、前記記憶手段に記憶されている、前記観測データの集合、前記観測データの集合に対する前記画像の集合、前記変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータに基づいて、前記観測データの集合に対して前記画像の集合及び前記変換行列を最適化させるために予め定められた評価関数により、前記観測データの集合に対する前記画像の集合、及び前記変換行列を推定し、前記記憶手段に更新して格納する最適値推定手段と、前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力する可視化処理手段と、を含んで構成されている。
第2の発明に係るデータ可視化方法は、離散データの集合を含む観測データの集合を、前記観測データの内容に応じた画像の集合を推定することによって、可視化するために、可視化対象とする前記観測データの集合、前記観測データの集合に対する画像の集合、前記観測データの集合に含まれる複数種類の離散データの各々が前記観測データの各々において出現する確率を示す確率パラメータ、前記画像の集合を前記確率パラメータに変換するための変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータを記憶した記憶手段と、最適値推定手段と、可視化処理手段とを含むデータ可視化装置におけるデータ可視化方法であって、前記データ可視化装置は、前記最適値推定手段によって、前記記憶手段に記憶されている、前記観測データの集合、前記観測データの集合に対する前記画像の集合、前記変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータに基づいて、前記観測データの集合に対して前記画像の集合及び前記変換行列を最適化させるために予め定められた評価関数により、前記観測データの集合に対する前記画像の集合、及び前記変換行列を推定し、前記記憶手段に更新して格納するステップと、前記可視化処理手段によって、前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力するステップと、を含んで実行することを特徴としている。
第1の発明に係るデータ可視化装置及び第2の発明に係るデータ可視化方法によれば、最適値推定手段によって、記憶手段に記憶されている、観測データの集合、観測データの集合に対する画像の集合、変換行列、変換行列に関するハイパーパラメータ、及び画像に関するハイパーパラメータに基づいて、観測データの集合に対して画像の集合及び変換行列を最適化させるために予め定められた評価関数により、観測データの集合に対する画像の集合、及び変換行列を推定し、記憶手段に更新して格納する。
そして、可視化処理手段によって、最適値推定手段による画像の集合及び変換行列を推定する処理を繰り返すことで、観測データの集合に対する画像の集合及び変換行列を最適化した場合に、記憶手段に記憶されている観測データの集合に対する画像の集合を出力する。
このように、離散データの集合を含む観測データについて、観測データの集合に対して、画像の集合及び変換行列を最適化するように繰り返し推定することにより、離散データの集合を含む観測データの集合、可視化することができる。
第1の発明に係るデータ可視化装置は、入力された可視化対象データの集合について、前記可視化対象データの各々を、前記離散データの集合を含む前記観測データに変換して、変換した前記観測データの集合を前記記憶手段に格納する入力変換手段を更に含むようにすることができる。
第1の発明に係る前記記憶手段は、前記可視化対象とする前記観測データの集合の一部の観測データの各々に対して予め求められた教師画像の集合を更に記憶し、前記記憶手段に記憶されている前記画像の集合のうち、前記一部の観測データに対する前記画像の集合を、前記教師画像の集合とすることができる。これによって、観測データから変換される画像の内容を制御することができる。
第1の発明に係る前記最適値推定手段は、前記観測データの集合に対する前記画像の集合及び前記変換行列の統計値を計算する前記評価関数により、前記画像の集合及び前記変換行列を推定するようにすることができる。
第1の発明に係るデータ可視化装置は、前記記憶手段に記憶されている前記変換行列に基づいて、前記変換行列に関するハイパーパラメータを推定すると共に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合に基づいて、前記画像に関するハイパーパラメータを推定し、前記記憶手段に更新して格納するハイパーパラメータ推定手段を更に含み、前記可視化処理手段は、前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理、並びに前記ハイパーパラメータ推定手段による前記変換行列に関するハイパーパラメータ及び前記画像に関するハイパーパラメータを推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力するようにすることができる。これによって、ハイパーパラメータも最適化することができる。
第5の発明に係るプログラムは、上記のデータ可視化装置の各手段としてコンピュータを機能させるためのプログラムである。
以上説明したように、本発明のデータ可視化装置、方法、及びプログラムによれば、離散データの集合を含む観測データについて、観測データの集合に対する画像の集合及び変換行列を最適化するように繰り返し推定することにより、離散データの集合を含む観測データの集合可視化することができる、という効果が得られる。
また、本発明のデータ変換装置及び方法によれば、変換対象とする前記画像の集合、及び画像の集合を確率パラメータに変換するための変換行列に基づいて、複数種類の離散データの各々が出力データの各々において出現する確率を示す確率パラメータを計算することによって、画像を、離散データの集合を含む出力データに変換することができる、という効果が得られる。
変換モデルの模式図である。 本発明の第1の実施の形態に係るデータ可視化装置の構成を示す概略図である。 本発明の第1の実施の形態に係るデータ可視化装置における最適値推定処理ルーチンの内容を示すフローチャートである。 カテゴリ識別率の計算結果を示すグラフである。 20newsデータセットに対する可視化結果を示す図である。 eachmovieデータセットに対する可視化結果を示す図である。 本発明の第2の実施の形態に係るデータ可視化装置の構成を示す概略図である。 (a)教師トピック画像の例を示す図、及び(b)20newsデータセットに対する、半教師有り学習を用いて可視化結果を示す図である。 本発明の第3の実施の形態に係るデータ変換装置の構成を示す概略図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<概要>
まず、本発明で提案するデータ可視化装置で用いる変換モデルについて説明する。図1は、提案する変換モデルを模式的に表した図である。可視化したい観測データの集合をXとする。観測データは全部でD個存在するとし、d番目の観測データをXd(d = 1, … ,D) と表す。すなわちX = {X1, … ,Xd, … , XD}。
d番目の観測データXdはNd個のデータxd,i (i=1,2, … ,Nd) の集合である。ここでiをデータのインデックスとし、データの種類の数をVで表現すると、xd,iは、V次元のベクトルxd,i=(xd,i,1, … , xd,i,v, … , xd,i,V)T である。
各観測データは、確率パラメータθdで定義される確率分布から生成されたと考える。この確率パラメータは一般にはV次元のベクトルであり、各要素はθd,vで表される。
提案する変換モデルのポイントは、この確率パラメータが、観測データを抽象化した画像表現であるトピック画像Ydと変換行列Aから決定されるものと考える点である。すなわち、d番目の観測データに対応するトピック画像Ydに変換行列Aを作用させると、θdが得られる。
また、各トピック画像YdはZ個のピクセルをもち、各ピクセルの位置をzで表す。このとき、変換行列Aの役割は、Z個の要素を持つトピック画像をV次元の確率パラメータθdに変換することである。
例えば、θdのv番目の要素の計算においては、Aのv番目の要素avと、トピック画像のz番目のピクセルの値yd,zを利用することが考えられる。
提案する発明は、以上の変換モデルを利用して、与えられた観測データの集合Xを入力として、確率パラメータを経由して、変換行列Aとトピック画像の集合Y={Y1, … ,Yd, … ,YD} の最適な組み合わせを計算し出力する。
<観測データの形式>
次に、観測データの形式について説明する。以下、本実施の形態では、観測データXdがBag−of−Word(BoW) 形式で表現された離散データである、と仮定して説明する。
BoW形式のデータは、例えばトピックモデル(非特許文献1を参照) などの離散データに対する技術で幅広く用いられている。ただし、その他の離散データや連続データにも、本発明は適用可能である。例えば、一般の離散データや連続データをBoW形式に変換すれば、以下で説明するシステムの形態をそのまま利用することができる。
BoW形式は、各データが複数のトークンと呼ばれる構成要素から構成されるとみなし、データを、トークンの集合で記述した形式である。BoW形式の場合、各トークンxd, iは単語データと呼ばれることもある。その場合、観測データXdは単語の集合であるため文書データとも呼ばれる。
したがって、文書を観測データとした場合、Vはとりうる単語の語彙数として自然に解釈できる。xd, iは各要素に0あるいは1のみをとり、かつ全V要素中でxd, i, v=1となるvはただ一つであると仮定する。これによってxd, i, v=1の場合、観測データXd中の第i単語データはv番目の語彙であることを表現する。
また、多数のユーザによる映画のレビューデータを観測データとした場合、映画毎に観測データXdが構成される。このとき、各映画にレビューを書いたユーザの識別情報をトークンとすれば、映画毎にその映画にレビューしたユーザの集合から構成される観測データが得られる。これが、BoW形式の観測データとなる。
BoW形式においては、θdはV次元の実数ベクトルである。ただしΣv=1 V θd, v=1, (θd, v ≧0) を仮定する。
<トピック画像の形式>
次に、トピック画像の形式について説明する。以下、本実施の形態では、簡単のためトピック画像Ydは各ピクセルに一次元の値を持つ場合を例に説明する。
Rで1次元実数を、Raでa次元実数ベクトルを表すものとすると、すなわちyd, z ∈ Rである。このような画像データは例えば白黒(グレイスケール)画像に対応する。
ただし、これは発明の範囲を狭めるものではなく、このピクセル値をより高次元に拡張することも容易である。例えば3次元(yd, z∈R3)の場合は、トピック画像はRGB画像として表現される。
また、ピクセルの位置を表すベクトルzが、2次元ベクトルの場合は、トピック画像は通常の静止画像として表現され、3次元ベクトルの場合は、動画像として表現される。本実施の形態では、簡単のためz∈ R2を仮定して説明するが、その拡張もやはり容易である。
<システム構成>
次に、観測データの集合を入力として、トピック画像に変換して出力するデータ可視化装置に、本発明を適用した場合を例にして、第1の発明の実施の形態を説明する。
図2に示すように、第1の実施の形態に係るデータ可視化装置は、可視化したい観測データの入力を受け付ける入力部1と、モデルの学習とデータの変換を行う変換モデル部2と、変換結果を出力する出力部3と、を備えている。
入力部1は、既知のビデオカメラ、マイクロフォン、記憶装置などの入力器により実現される。また、出力部3は、ディスプレイ、プリンタ、磁気ディスクなどで実装される。
変換モデル部2は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する最適値推定処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成され、機能的には次に示すように構成されている。変換モデル部2は、入力読込部21、入力変換部22、入力制御部23、最適値推定部30、終了判定部24、出力制御部25、出力変換部26、及び記憶手段10を備えている。
入力読込部21は、入力部1から観測データを読み込む。
入力変換部22は、観測データがBoW形式(最適値推定部30における処理に適した形式)でない場合に、観測データをBoW形式に変換して出力する。
入力制御部23は、入力変換部22から取得した(データ形式変換後の)観測データを取得し、最適値推定部30による最適値推定処理を実行させる。
最適値推定部30は、観測データを用いて、変換行列Aとトピック画像の集合Y={Y1, … ,Yd, … ,YD} との最適な組み合わせの推定を行う。また、最適値推定部30は、対数事後確率計算部31、トピック画像推定部33、変換行列推定部34、確率パラメータ推定部35、及びハイパーパラメータ推定部36を備える。
終了判定部24は最適値推定部30による最適値推定処理を監視し、最適値推定処理の終了を検知してその終了情報を出力制御部25に通知する。
出力制御部25は、終了判定部24より受けた終了情報を受けて、記憶手段10に保存された推定結果のうち、要求された推定結果を出力変換部26へ出力する。
出力変換部26は、必要となるデータ形式の変換などを施した推定結果を、出力部3へ出力する。
<入力読込部21>
入力読込部21は、入力部1を介して、可視化したい観測データ(被変換データ) の集合Xの入力を受け付ける。
入力データは以下のような形式であり、入力読込部21でロードされる。観測データは全部でD個存在するとし、d番目の観測データをXd(d=1, ..., D) と表す。すなわち、入力データは、X={X1, ...,Xd, ..., XD}と表わされる。
また、観測データとは別に、以下の定数も、入力部1を介して別途入力を受け付ける。まずDは観測データの数である。Vは語彙数、すなわち単語データのとりうる値の種類の数である。Zはトピック画像のピクセル数である。Eはトピック画像の次元数である。Lは後述するハイパーパラメータΨの要素数である。Oは以下で述べる最適化に必要となる定数集合である。ここでD,V,L については、入力された観測データの集合に基づいて、入力制御部23で自動抽出するようにしてもよい。
さらに、モデルに必要なハイパーパラメータと呼ばれる定数も同時に入力する。Ψ=(ψ1, ..., ψl, ...,ψL) はトピック画像に関するハイパーパラメータである。μ∈RV, σ∈RV×V は変換行列に関するハイパーパラメータである。
<入力変換部22>
入力変換部22では、観測データXd をBag−of−Word(BoW)形式で表現する。BoW形式のデータは、例えばトピックモデル(非特許文献1)などの離散データに対する技術で幅広く用いられている。
観測データとして、その他の離散データや連続データが入力された場合には、入力変換部22は、観測データをBoW形式に変換する。例えば、入力された観測データが、100次元の連続値ベクトルで表現されていた場合、各次元の値を適当な粒度で正整数へ量子化することにより、単語数100のBoW形式データに変換する。なお、変換手法については、非特許文献(Ishiguro, K., Yamada, T., Araki, S., and Nakatani, T., “A Probabilistic Speaker Clustering for DOA-based Diarization”, in Proceedings of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA), pp. 241−244, 2009.)に記載されている手法を用いればよいため、詳細な説明を省略する。
BoW形式では、d番目の観測データXdはNd個のデータxd, i,i=1,2, ...,Ndの集合である。ここでiはデータのインデックスである。各データxd, iは単語データと呼ばれ、またXdは単語データの集合であるため文書データとも呼ばれる。
データの種類の数はVで表現する。この際、Vはとりうる単語の語彙数として自然に解釈できる。データxd, i =(xd, i, 1, ..., xd, i, v, ..., xd, i, VT はV次元のベクトルである。xd, i は各要素に0あるいは1のみをとり、かつ全V要素中でxd, i, v=1となるvはただ一つであると仮定する。これによって、xd, i, v=1でもって、観測データXd中の第i単語データがv番目の語彙であることを表現する。
<入力制御部23>
入力制御部23は、入力読込部21で取得した定数とハイパーパラメータ、および、入力変換部22でBoW形式に変換した観測データを、記憶手段10に記憶する。そして、最適値推定部30による最適値推定処理へ移行する。
<モデルの定式化>
次に、主に記憶手段10に保存される情報について、モデルにおけるそれらの意味とともに説明する。
トピック画像14は、入力された観測データを画像へと変換した場合の変換結果を表す。トピック画像の集合をY={Y1, ..., Yd, ..., YD}で表現する。各観測データXdはトピック画像Ydに対応する。トピック画像YdはZ個のピクセルを持ち、各ピクセルの位置をz∈REで表す。このとき、E=2の場合、トピック画像は静止画像であり、E=3の場合、トピック画像は動画像である。
第d画像上の位置zにおけるピクセル値をyd, zで表す。以下ではyd, z∈R、すなわちグレースケール画像あるいは白黒の画像を想定して説明するが、例えばyd, z∈R3とすればそのままカラー画像の表現も可能である。
本実施の形態では、トピック画像の事前分布としてガウス過程(Gaussian process, GP) を利用する。なお、ガウス過程については、非特許文献(Rasmussen, C. E. and Williams, C. K. I., “Gaussian Processes for Machine Learning”, MIT Press, 2006.)に記載されている。
以下、トピック画像Ydの全ピクセルを一列に並べてベクトルにしたものをyd=(yd, z1, yd, z2 , ..., yd, zZ )T ∈RZと表すことにする。このとき、ガウス過程によれば次の(1)式が成り立つ。
ただし、Nは正規分布を、0はZ次元のゼロベクトルを表す。上記(1)式は、全てのピクセルの値が、グラム行列K={ki j}∈RZ×Z をパラメータとした正規分布より生成されることを表している。
ここで、グラム行列Kの要素ki jは、以下の(2)式で表される。
ただし、kはユーザが事前に選択するカーネル関数あるいは共分散関数と呼ばれる関数であり、ピクセルz∈REとz´∈REの間の距離に応じた値を返す正定値対称関数である。このkとして、様々な種類の関数を選ぶことができるが、その選択によって画像ピクセル間の値の相関をモデル化することができる。例えばkとしてガウシアンを選択すると、近くにあるピクセルは近い値を持ち、滑らかなパターンが生成されやすくなる。また、kの計算は、ハイパーパラメータ13に保存されたΨによって規定される。必要となるハイパーパラメータの数や種類は、選択したカーネル関数によって変化する。
変換行列16は、Zピクセルを持つトピック画像からV次元の確率パラメータ17を計算するために利用される行列Aである。
変換行列Aは、V個のZ次元列ベクトルavからなる:A=(a1, ...,av, ...,aV) ∈RZ×V。av=(av, 1, ..., av, z, ...,av, Z)T ∈RZは、単語vが観測される確率に各ピクセルzzの値が与える影響を表す列ベクトルである。av, zが正の値であれば、ピクセルzzの値が大きいと単語vが観測される可能性が高まる。本実施の形態では、以下の(3)式に示すように、avの事前分布として正規分布を仮定する。ただし、事前分布として、正規分布以外の分布、例えばディリクレ分布などを用いても良い。
ここでμ∈RZおよびσ∈RZ×Z はハイパーパラメータ13に保存された量である。また「〜」により、左辺の要素が右辺の確率分布より一様かつ独立にサンプリングされることを示す。
BoW形式の観測データを仮定する場合、観測データの分布として、多項分布が良く用いられる。この多項分布のパラメータを確率パラメータ17と呼ぶ。確率パラメータθd ∈RVは、d番目の観測データおよびトピック画像に対応するパラメータであり、そのv番目の要素は次の(4)式に従って計算される。
この方法ならば、多項分布のパラメータとして要請される条件(θd, v≧0,ΣV=1 V θd, v =1)を満たすことができる。
観測データxd, i は、以下の(5)式に示すように多項分布から生成される。
トピック画像14、グラム行列15、変換行列16、確率パラメータ17は、最適値の推定処理に先立って初期化を必要とする。グラム行列15は、入力されたハイパーパラメータとカーネル関数の選択によって、上記(2)式に従って一意に決定される。トピック画像14および変換行列16は任意の実数値を割り当てても良いし、ハイパーパラメータ13とグラム行列15を用いて、上記(1)式、(3)式に従って計算しても良い。確率パラメータ17は、ydとavに基づいて、上記(4)式に従って一意に決定される。
<変数の最適化と出力>
変換モデルの目的は、観測データXが与えられた際に、何らかの意味で最適な変数A とYを求めて変換結果として出力することである。
本実施の形態に係るデータ可視化装置では、最適値推定部30が記憶手段10に保存された情報を用いてAおよびYの最適値を推定し、その結果を出力制御部25、出力変換部26を通じて出力部3により出力する。
各変数の最適化には、最尤推定(Maximum Likelihood, ML) 法や事後確率最大化(Maximum A Posterior, MAP) 法などの様々な標準的な手法を用いることが可能である。なお、これらの標準的な手法については、非特許文献(ビショップ, C. M., “パターン認識と機械学習”, シュプリンガージャパン, 2007.)に記載されているため、説明を省略する。
特に、本実施の形態で用いる最適化手法は、事後確率の変数に対する微分値を解析的に計算可能であるため、微分勾配を利用した標準的な最適化手法を利用することができる。
本実施の形態では、上述の定式化例の場合であって、MAP法を用いて最適化する場合を例に説明する。MAP法では以下の対数事後確率を最大化するようにAおよびYを決定する。
対数事後確率計算部31は、以下の(6)式に従って、対数事後確率を計算する。
ここで∝は比例を表す。各要素はそれぞれ以下の(7)式のように計算される。
上記(6)式を、avおよびydそれぞれについて微分をとると、評価関数である(6)式を最大化するために、各変数をどのように変化させればよいかが計算できる。
そこで、以下の(10)式、(11)式で表される微分値を、微分計算部32において計算する。
ここで、nd, v=Σi=1 Ndd, i, vは、v番目の単語がd番目の観測データXd中に何回登場したかを表わしている。また、上記(10)式、(11)式は、上記(4)式で計算される確率パラメータθd,vを用いて計算してもよいし、確率パラメータを用いずに計算してもよい。計算量を考慮すると、上記(4)式で計算される確率パラメータθd,vを更新、保存しておいて、上記(10)式、(11)式の計算のときに用いることが好ましい。
以上の数値を利用すれば、一般的な非線形最適化手法を用いて、avおよびydそれぞれについての微分値が示す傾きの方向に、avおよびydをそれぞれ所定の量だけ増加させることにより、avとydの更新値を決定することができる。なお、一般的な非線形最適化手法としては、非特許文献(Nocedal, J. and Wright, S., “Numerical Optimization”, Springer, 1999.)に記載されている手法を用いればよいため、説明を省略するが、非線形最適化手法として、例えばL−BFGS法などが候補として考えられる。また、選択する最適化手法ごとに、必要となる定数集合Oの数や性質などは異なる。
上述した手法により、トピック画像推定部33では、最適なYを、変換行列推定部34では、最適なAを計算する。また、確率パラメータ推定部35は、最適なY、Aに基づいて、最適なθd を計算する。
また、モデル中のハイパーパラメータ、すなわち事前設定する定数μ、σ およびΨ= (ψ1, ..., ψl, ..., ψL) の最適化を、ハイパーパラメータ推定部36を利用して行う。
変換行列に関するハイパーパラメータμ、σについては、変換行列Aの最適化と同様にμ、σの生成モデルとなる確率分布(事前分布である上記(1)式や(3)式に相当するもの)を仮定する。このとき、変換行列Aのモデルである(多次元)正規分布と共役性をもつ確率分布を用いることで、変換行列Aを観測値と仮定したときのμ、σの正確な事後分布(理想的な推定量)をベイズ推定法によって求めて、μ、σの最適値を計算する。μ、σのモデルも確率分布であるため、選択した確率分布に応じた定数パラメータが必要であるが、定数パラメータについては適当な値を選択しておけばよい。
なお、この最適化方法は、非特許文献(ビショップ, C. M., “パターン認識と機械学習”, シュプリンガージャパン, 2007.)に記載されている方法と同様であるため、詳細な説明を省略する。
また、トピック画像に関するハイパーパラメータΨについては、推定されたトピック画像Yを観測値と捉えた最尤推定(ML)法によって、最適値を推定する。なお、この最適化手法は、非特許文献(Rasmussen, C. E. and Williams, C. K. I., “Gaussian Processes for Machine Learning”, MIT Press, 2006.)に記載されている手法と同様であるため、詳細な説明を省略する。なお、ML法を用いた最適化手法に限定されるものではなく、例えば、周辺尤度に基づいた最適化手法、あるいはMAP法による最適化手法を用いてもよい。
また、ハイパーパラメータΨが変更された場合には、ハイパーパラメータ推定部36は、変更されたハイパーパラメータΨに基づいて、グラム行列Kを再計算する。
最適値推定部30は、各部(対数事後確率計算部31、トピック画像推定部33、変換行列推定部34、確率パラメータ推定部35、ハイパーパラメータ推定部36)での計算結果を一度記憶手段10に更新保存し、更新された情報を再度ロードして、繰り返し計算を行うことにより、各種の最適値を推定する。
以上より、本実施の形態で提案する手法では、事前に設定しなければならない定数も同時に最適化可能であるため、既存の手法(例えば、非特許文献4に記載の手法)に比べて利用時のユーザ負担が軽減できる。
終了判定部24は、最適値推定処理の終了を監視する。その方法としては、例えば、最適値の推定前後で対数事後確率計算部31を計算し、その変化量が一定の閾値以下になった場合、あるいは推定処理に許される繰り返し回数や計算時間の上限に達した場合に、最適値推定処理が終了したと判定することができる。
最適値推定処理が終了した後、出力制御部25は、ユーザによって指定された変数の最終推定値を記憶手段10よりロードする。
出力変換部26は出力制御部25より受け取った推定結果を指定の形式に変換する。例えば、観測データの画像可視化結果が要求されている場合には、トピック画像14を任意の画像フォーマットに変換する。
最終的な出力結果が、出力部3よりユーザに出力される。
<データ可視化装置の作用>
次に、第1の実施の形態に係るデータ可視化装置の作用について説明する。まず、可視化対象の観測データが入力部1を介してデータ可視化装置に入力され、観測データが、BoW形式でない場合には、BoW形式に変換されてから、記憶手段10に格納される。また、各種の定数が、入力部1を介してデータ可視化装置に入力され、記憶手段10に格納される。
また、トピック画像、グラム行列、変換行列、及び確率パラメータが、初期化処理によって生成されて、記憶手段10に格納される。
そして、データ可視化装置の変換モデル部2において、図3に示す最適値推定処理ルーチンが実行される。
まず、ステップ100において、記憶手段10に記憶された各種の最適値(初期値)や、定数、変数を読み込み、取得する。そして、ステップ102において、観測データ、変換行列、及び確率パラメータに基づいて、上記(6)式に従って、対数事後確率を計算する。
次に、ステップ104において、語彙の単語を識別するための変数vを初期値である1に設定し、ステップ106において、観測データ、変換行列、及び確率パラメータに基づいて、上記(10)式に従って、変換行列のベクトルavに関する微分値を計算する。そして、ステップ108において、変数vをインクリメントして、ステップ110で、変数vが、語彙数Vを超えたか否かを判定し、変数vが、語彙数Vを超えていない場合には、上記ステップ106へ戻る。一方、変数vが、語彙数Vを超えた場合には、ステップ112へ移行する。
ステップ112では、トピック画像を識別するための変数dを初期値である1に設定し、ステップ114において、観測データ、変換行列、確率パラメータ、及びグラム行列に基づいて、上記(11)式に従って、トピック画像ydに関する微分値を計算する。そして、ステップ116において、変数dをインクリメントして、ステップ118で、変数dが、トピック画像数D(すなわち、観測データ数D)を超えたか否かを判定し、変数dが、トピック画像数Dを超えていない場合には、上記ステップ114へ戻る。一方、変数dが、トピック画像数Dを超えた場合には、ステップ120へ移行する。
ステップ120では、上記ステップ106で各々計算されたavに関する微分値に基づいて、全てのavを最適化すると共に、上記ステップ114で各々計算されたydに関する微分値に基づいて、全てのydを最適化する。
次のステップ122では、上記ステップ120で最適化された変換行列A及びトピック画像の集合Yに基づいて、ハイパーパラメータμ、σ、Ψを最適化する。そして、ステップ124において、上記ステップ120で最適化された変換行列及びトピック画像に基づいて、上記(4)式に従って、確率パラメータを再計算する。なお、上記(10)式、(11)式の計算において、確率パラメータを用いない場合には、上記ステップ124を省略してもよい。
ステップ126では、上記ステップ122で最適化された、トピック画像に関するハイパーパラメータΨを用いて、上記(2)式に従って、グラム行列Kを再計算する。そして、ステップ128において、上記ステップ120〜ステップ126で推定された各種の最適値を記憶手段10に格納する。
次のステップ130では、所定の最適化終了条件として、例えば、繰り返し回数が、上限に到達したか否かを判定し、繰り返し回数が上限に到達していない場合には、所定の最適化終了条件が成立していないと判断して、上記ステップ100へ戻り、上記ステップ128で更新した各種の最適値を用いて、上記ステップ102〜ステップ128の処理を繰り返す。一方、繰り返し回数が上限に到達した場合には、所定の最適化終了条件が成立したと判断し、最適値推定処理ルーチンを終了する。
そして、データ可視化装置は、例えば、記憶手段10に記憶された、各観測データに対応するトピック画像の最適値を読み込んで、出力部3により出力する。
<実験例>
次に、本実施の形態で提案するデータ可視化法を用いた実験の結果について説明する。実験では、NIPS、20−Newsgroups、EachMovieの3種類の実データに対して、データの可視化を行った。
NIPSデータは、ある国際会議に投稿された論文データであり語彙数V=2,000、データ数D=596とした。また、各データが、13種のカテゴリのいずれかに属しているようにした。
20−Newsgroupsは、あるテーマにそって参加者が自由に議論するサイトの発言記録データである。語彙数はV=1,000、データ数はD=18,798とした。各データが、20種類の発言テーマのうち、いずれかに属するようにした。
EachMovieは、多数のユーザによる映画のレビューデータである。ここでは一つの映画に対する観測データXdとし、レビューを投稿したユーザのインデックスを単語vとした。データ数はD=1,014、語彙数(ユーザ数)がV=200とした。各映画が、10のカテゴリ(アクション、アニメなど)のうちいずれかに属するようにした。
最初に、既存のトピックモデルであるLDA(非特許文献1)とCTM(非特許文献2)を用いた場合の抽象表現に対して評価を行った。また、本実施の形態に係る手法を用いた場合の可視化画像に対して、同様に評価を行った。
評価方法は、抽象表現(ベクトルあるいは画像)の類似度によるカテゴリ判別である。トピックモデルおよび本実施の形態で提案する手法は、いずれもベクトルあるいは画像の形で入力された観測データを抽象化して表現する。したがって、この抽象化が良く機能していれば、同種の内容をもつデータ、すなわち同カテゴリに所属するデータは、抽象表現(ベクトルあるいは画像)された後も類似した特徴をもつと考えられる。そこで、抽象表現したデータ同士の類似度を計算し、最近傍のデータが同じカテゴリに属する確率、すなわち最近傍法によるカテゴリ識別率を計算して、評価を行った。
図4に示すような計算結果が得られた。縦軸の識別率は大きいほど良い性能であることを示す。横軸のZは、本実施の形態で提案した手法のZであり、KはLDA、CTMモデルにおけるトピック数と呼ばれるパラメータの大きさである。本実施の形態で提案した手法は、既存手法に比べて良い性能をもつことが分かった。
次に、本実施の形態で提案するデータ可視化法を用いた実際の可視化結果を示す。図5は、20newsデータセットに対する可視化結果の画像を示す。この例では、出力変換部26において、全画像を通じて最も小さいyd, z を青に、最も大きいyd, z の値を赤になるように、トピック画像を変換した。上記図5に示す各トピック画像は、20ある発言テーマのカテゴリごとに平均した可視化結果を示している。また、20のカテゴリを大まかな内容ごとに、さらに6種の大カテゴリに分けている。結果、カテゴリごとに異なる可視化結果を得られることが分かった。さらに、カテゴリ間の類似度によってもその可視化傾向に差が見られた。すなわち、データの内容に応じた可視化結果を得ることができることが示された。
図6は、EachMovieデータセットに対する可視化結果の画像を示す。ここでは個別のデータの可視化結果をカテゴリごとに表示している。やはり、カテゴリごとに可視化結果に違いが見られる。一方で、“drama”カテゴリと”romance”カテゴリに属する映画は似たような可視化結果となっているが、これは視聴者層を考えると妥当な結果となっている。一方で、コメディ要素の強い恋愛映画”Pretty Woman”は”comedy”カテゴリと似たような可視化結果になるなど、個別の映画タイトルの内容に即した可視化結果が得られていると言える。この結果から、画像可視化によるアイテム・データの直観的な検索が可能であることが示唆される。
以上説明したように、第1の実施の形態に係るデータ可視化装置によれば、単語データの集合である文書データについて、文書データの集合に対して、トピック画像の集合及び変換行列を最適化するように繰り返し推定することにより、離散データの集合である観測データを、内容に応じて画像に変換して可視化することができる。
また、従来の可視化手法と異なり、個々の観測データをピクセル数に相当する高次元空間に写像して可視化する。そのため、個々の観測データの内容を画像パターンとして可視化・認識することができる。また、個々の観測データが画像パターンとして可視化されているため、データ間の関係もパターンの類似性によって直感的に理解することができる。
また、離散データを含む様々なデータを可視化することが可能である。インターネットなどで取り扱われる情報の大部分は文字や関係の有無といった離散データであるため、この特徴は幅広い電子データセットへの応用を可能にする。また、連続データ、離散データの多くが変換可能なBoW形式に入力データを変換することで、様々なデータを可視化することができる。
また、静止画像だけでなく、動画像やさらに高次元のデータへの変換も可能である。これは提案モデルが数学的に整理されており、高次元データへの拡張変換が簡単に定義できるためである。
また、事前のパラメータ設定は必要ではあるが、データの画像変換と同時に自動的に最適な値に再設定可能である。したがって、パラメータの初期値の影響を最小限に抑えることができ、提案手法の利用しやすさを向上させる。また、変数の最適値推定プロセスにおいて、事前に細かく設定しなければならない定数が存在しないため、安定した可視化結果を得ることができる。
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施の形態では、半教師有り学習のスキームを用いて、出力されるトピック画像の結果を制御している点が、第1の実施の形態と異なっている。
第2の実施の形態では、観測データXとトピック画像Yの各々を、内部的に2つのグループに分けている。それぞれ教師無し(unsupervised) を表すuと教師有り(supervised) を表すsの添字で区別すると、観測データX={Xu, Xs} およびトピック画像Y={Yu, Ys} の内部構造を仮定する。教師有り集合{Xs, Ys} はそれぞれDs個のデータからなる。教師無し集合{Xu,Yu} はそれぞれDu個のデータからなる。
図7に示すように、データ可視化装置の記憶手段10には、定数Du,Dsからなる半教師有り学習用定数18と、教師トピック画像の集合である教師トピック画像19とが更に格納される。
半教師有り学習を行う際に、入力部1を介して、半教師有り学習用定数Du,Dsと教師トピック画像の集合Ysとが入力される。Duは教師無しデータ集合の数、Ds は教師有りデータ集合の数であり、D=Du+Dsである。教師トピック画像は、Ds個のトピック画像の集合Ys={Ys1 , ..., Ysd , ..., YsDs} である。Ysdは、Z次元のベクトルである。そして、sd∈ {1, 2, ..., D}は、全D個のトピック画像14のうち対応する画像データを表すインデックスである。
また、記憶手段10に格納されているトピック画像14は、Ds個の教師トピック画像を含むD個のトピック画像である。
最適値推定部30の各部(対数事後確率計算部31、トピック画像推定部33、変換行列推定部34、確率パラメータ推定部35、ハイパーパラメータ推定部36)における最適値推定処理では、上記の第1の実施の形態と同様に、各種の最適値の推定をおこなう。但し、トピック画像推定部33において、最適なトピック画像Yを求めて、記憶手段10に格納するときに、教師トピック画像に対応するトピック画像については、常に、教師トピック画像19に保存された教師トピック画像を格納する。
この教師トピック画像の存在は、微分値の計算などにおいて他のトピック画像の最適化に影響を与えるので、Du個の(教師データが与えられなかった)トピック画像の最適化結果に教師トピック画像の影響が及ぶことが期待できる。したがって、教師トピック画像Ysで上書きされないDu個のトピック画像の推定値についても、教師トピック画像Ysの影響により推定結果をある程度まで制御でき、所望のパターンのトピック画像を得やすくなる。
なお、第2の実施の形態に係るデータ可視化装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
<実験例>
半教師有り学習を用いた場合に、観測データに対して可視化結果として得られたトピック画像について説明する。図8(a),(b)は、20newsデータセットに対して半教師有り学習を用いて可視化を行った場合の結果を示す。D=18,798のデータのうち、D=2,000 個のデータに対して、図8(a)に示すように、そのカテゴリに即したトピック画像を事前に準備し、教師トピック画像Ysとして付与した。教師トピック画像では、画像をブロックに分割し、上記図5に示した大カテゴリごとに赤く描画するブロックを変更した。図8(b)に示すように、可視化結果として得られたトピック画像は、上記第1の実施の形態の実験と異なり、ブロック要素が目立つ画像となった。
以上説明したように、第2の実施の形態に係るデータ可視化装置によれば、半教師有り学習により、出力されるトピック画像の内容を制御することができる。
次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<概要>
第3の実施の形態では、上記図1で説明した変換モデルを用いて、トピック画像の集合を、文書データの集合に変換する。
<システム構成>
次に、トピック画像の集合を入力として、文書データに変換して出力するデータ変換装置に、本発明を適用した場合を例にして、本発明の第3の実施の形態を説明する。
図9に示すように、第3の実施の形態に係るデータ可視化装置は、入力部1と、データの変換を行う変換モデル部302と、出力部3と、を備えている。
変換モデル部302は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、データ変換処理を実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成され、機能的には次に示すように構成されている。変換モデル部302は、入力読込部21、入力制御部23、データ変換部330、出力制御部25、出力変換部26、及び記憶手段310を備えている。
入力読込部21は、入力部1から各種データを読み込む。
入力制御部23は、入力読込部21より読み込んだデータを取得し、データ変換部330によるデータ変換処理を実行させる。
データ変換部330は、変換行列Aを用いて、トピック画像の集合Y={Y1, … ,Yd, … ,YD}を、文書データの集合に変換する。また、データ変換部330は、トピック画像生成部333、変換行列生成部334、確率パラメータ計算部335、及び文書データ生成部336を備える。
出力制御部25は、データ変換部330によるデータ変換処理が終了すると、記憶手段10に保存された文書データを出力変換部26へ出力する。
出力変換部26は、必要となるデータ形式の変換などを施した文書データを、出力部3へ出力する。
<入力読込部21>
入力読込部21は、入力部1を介して、トピック画像に関するハイパーパラメータΨ=(ψ1, ..., ψl, ...,ψL)と、変換行列に関するハイパーパラメータμ∈RV, σ∈RV×V との入力を受け付ける。
また、入力読込部21は、トピック画像の数D(文書データの数D)、語彙数V、トピック画像のピクセル数Z、トピック画像の次元数E、ハイパーパラメータΨの要素数L、その他の定数集合Oも、入力部1を介して別途入力を受け付ける。
<入力制御部23>
入力制御部23は、入力読込部21で取得した定数とハイパーパラメータを、記憶手段310に記憶する。そして、データ変換部330によるデータ変換処理へ移行する。
<記憶手段310>
記憶手段310には、文書データ11、定数12、ハイパーパラメータ13、トピック画像14、グラム行列15、変換行列16、及び確率パラメータ17が格納されている。
<データの変換と出力>
本実施の形態に係るデータ変換装置では、データ変換部330が記憶手段310に保存された情報を用いて変換行列Aおよびトピック画像Yを生成し、変換行列Aおよびトピック画像Yに基づいて、文書データを生成し、その結果を出力制御部25、出力変換部26を通じて出力部3により出力する。
トピック画像生成部333は、トピック画像に関するハイパーパラメータΨ= (ψ1, ..., ψl, ..., ψL)に基づいて、上記(2)式に従って、グラム行列Kを計算し、計算されたグラム行列Kに基づいて、上記(1)式に従って、トピック画像を生成する。トピック画像生成部333は、D個のトピック画像を生成して、トピック画像の集合Y={Y1, ..., Yd, ..., YD}を記憶手段310に格納する。
変換行列生成部334は、変換行列に関するハイパーパラメータμ∈RZおよびσ∈RZ×Zに基づいて、上記(3)式に従って、変換行列A=(a1, ...,av, ...,aV) ∈RZ×Vを生成する。
確率パラメータ計算部335は、上記(4)式に従って、トピック画像の集合Yに対して、変換行列Aを作用させて、確率パラメータθd ∈RV(d=1, ..., D)を計算する。
文書データ生成部336は、確率パラメータθd(d=1, ..., D)に基づいて、上記(5)式に従って、文書データXd(d=1, ..., D)のデータxd, iを計算して、文書データXdを生成する。文書データ生成部336は、トピック画像の集合Y={Y1, ..., Yd, ..., YD}に対して、文書データの集合X = {X1, … ,Xd, … , XD}を生成する。
データ変換処理が終了した後、出力制御部25は、文書データの集合を記憶手段310よりロードする。
出力変換部26は出力制御部25より受け取った文書データを指定の形式に変換する。最終的な出力結果が、出力部3よりユーザに出力される。
<データ変換装置の作用>
次に、第3の実施の形態に係るデータ変換装置の作用について説明する。まず、ハイパーパラメータや定数が入力部1を介してデータ変換装置に入力され、記憶手段310に格納される。
そして、データ変換装置の変換モデル部302において、記憶手段310に記憶された各種の定数、変数を読み込み、取得する。そして、トピック画像生成部333によって、トピック画像に関するハイパーパラメータに基づいて、グラム行列Kを計算し、トピック画像の集合Yを生成する。
次に、変換行列生成部334によって、変換行列に関するハイパーパラメータに基づいて、変換行列Aを生成する。確率パラメータ計算部335によって、トピック画像の集合Yと変換行列Aとに基づいて、各トピック画像Ydに対する確率パラメータθdを計算する。
そして、文書データ生成部336によって、各確率パラメータθdに基づいて、文書データXdを各々生成し、文書データの集合Xを記憶手段310に格納する。
そして、データ変換装置は、記憶手段310に記憶された、トピック画像の集合に対応する文書データの集合を読み込んで、出力部3により出力する。
以上説明したように第3の実施の形態に係るデータ変換装置によれば、変換対象とするトピック画像の集合、及びトピック画像の集合を確率パラメータに変換するための変換行列に基づいて、複数種類の単語データの各々が文書データの各々において出現する確率を示す確率パラメータを計算することによって、トピック画像を、単語データの集合を含む文書データに変換することができる。また、トピック画像を文書データに変換する際に、例えば、単語データの集合に含まれる単語数を少なくすれば、要約された文書データが出力されることが期待できる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、評価関数を、事後確率や尤度など、対数事後確率以外の確率統計的な値を計算する関数としてもよい。
また、第3の実施の形態に係るデータ変換装置において、ハイパーパラメータに基づいて、トピック画像の集合を生成する場合を例に説明したが、これに限定されるものではない。入力部を介して、トピック画像の集合を入力するようにしてもよい。また、ハイパーパラメータに基づいて、変換行列を生成する場合を例に説明したが、これに限定されるものではない。入力部を介して、変換行列を入力するようにしてもよい。
また、第1の実施の形態又は第2の実施の形態に係るデータ可視化装置と、第3の実施の形態に係るデータ変換装置とを組み合わせて用いてもよい。例えば、データ可視化装置によって得られた文書データの可視化画像と共に、データ変換装置によって得られた要約文書を提示するようにしてもよい。これによって、出力結果に対するユーザの理解をより高めたり、画像可視化結果を用いた検索を行う際の検索精度を向上させることができる。
また、上述のデータ可視化装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
1 入力部
2、302 変換モデル部
3 出力部
10、310 記憶手段
22 入力変換部
24 終了判定部
30 最適値推定部
31 対数事後確率計算部
32 微分計算部
33 トピック画像推定部
34 変換行列推定部
35 確率パラメータ推定部
36 ハイパーパラメータ推定部
330 データ変換部
333 トピック画像生成部
334 変換行列生成部
335 確率パラメータ計算部
336 文書データ生成部

Claims (7)

  1. 離散データの集合を含む観測データの集合を、前記観測データの内容に応じた画像の集合を推定することによって、可視化するデータ可視化装置であって、
    可視化対象とする前記観測データの集合、前記観測データの集合に対する画像の集合、前記観測データの集合に含まれる複数種類の離散データの各々が前記観測データの各々において出現する確率を示す確率パラメータ、前記画像の集合を前記確率パラメータに変換するための変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータを記憶した記憶手段と、
    前記記憶手段に記憶されている、前記観測データの集合、前記観測データの集合に対する前記画像の集合、前記変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータに基づいて、前記観測データの集合に対して前記画像の集合及び前記変換行列を最適化させるために予め定められた評価関数により、前記観測データの集合に対する前記画像の集合、及び前記変換行列を推定し、前記記憶手段に更新して格納する最適値推定手段と、
    前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力する可視化処理手段と、
    を含むデータ可視化装置。
  2. 入力された可視化対象データの集合について、前記可視化対象データの各々を、前記離散データの集合を含む前記観測データに変換して、変換した前記観測データの集合を前記記憶手段に格納する入力変換手段を更に含む請求項1記載のデータ可視化装置。
  3. 前記記憶手段は、前記可視化対象とする前記観測データの集合の一部の観測データの各々に対して予め求められた教師画像の集合を更に記憶し、
    前記記憶手段に記憶されている前記画像の集合のうち、前記一部の観測データに対する前記画像の集合を、前記教師画像の集合とした請求項1又は2記載のデータ可視化装置。
  4. 前記最適値推定手段は、前記観測データの集合に対する前記画像の集合及び前記変換行列の統計値を計算する前記評価関数により、前記画像の集合及び前記変換行列を推定する請求項1〜請求項3の何れか1項記載のデータ可視化装置。
  5. 前記記憶手段に記憶されている前記変換行列に基づいて、前記変換行列に関するハイパーパラメータを推定すると共に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合に基づいて、前記画像に関するハイパーパラメータを推定し、前記記憶手段に更新して格納するハイパーパラメータ推定手段を更に含み、
    前記可視化処理手段は、前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理、並びに前記ハイパーパラメータ推定手段による前記変換行列に関するハイパーパラメータ及び前記画像に関するハイパーパラメータを推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力する請求項1〜請求項4の何れか1項記載のデータ可視化装置。
  6. 離散データの集合を含む観測データの集合を、前記観測データの内容に応じた画像の集合を推定することによって、可視化するために、
    可視化対象とする前記観測データの集合、前記観測データの集合に対する画像の集合、前記観測データの集合に含まれる複数種類の離散データの各々が前記観測データの各々において出現する確率を示す確率パラメータ、前記画像の集合を前記確率パラメータに変換するための変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータを記憶した記憶手段と、最適値推定手段と、可視化処理手段とを含むデータ可視化装置におけるデータ可視化方法であって、
    前記データ可視化装置は、
    前記最適値推定手段によって、前記記憶手段に記憶されている、前記観測データの集合、前記観測データの集合に対する前記画像の集合、前記変換行列、前記変換行列に関するハイパーパラメータ、及び前記画像に関するハイパーパラメータに基づいて、前記観測データの集合に対して前記画像の集合及び前記変換行列を最適化させるために予め定められた評価関数により、前記観測データの集合に対する前記画像の集合、及び前記変換行列を推定し、前記記憶手段に更新して格納するステップと、
    前記可視化処理手段によって、前記最適値推定手段による前記画像の集合及び前記変換行列を推定する処理を繰り返すことで、前記観測データの集合に対する前記画像の集合及び前記変換行列を最適化した場合に、前記記憶手段に記憶されている前記観測データの集合に対する前記画像の集合を出力するステップと、
    を含んで実行することを特徴とするデータ可視化方法。
  7. 請求項1〜請求項5の何れか1項に記載のデータ可視化装置を構成する各手段として、コンピュータを機能させることを特徴とするデータ可視化プログラム。
JP2010198043A 2010-09-03 2010-09-03 データ可視化装置、データ変換装置、方法、及びプログラム Active JP5462748B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010198043A JP5462748B2 (ja) 2010-09-03 2010-09-03 データ可視化装置、データ変換装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010198043A JP5462748B2 (ja) 2010-09-03 2010-09-03 データ可視化装置、データ変換装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012053848A JP2012053848A (ja) 2012-03-15
JP5462748B2 true JP5462748B2 (ja) 2014-04-02

Family

ID=45907048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010198043A Active JP5462748B2 (ja) 2010-09-03 2010-09-03 データ可視化装置、データ変換装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5462748B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021716B (zh) * 2017-12-29 2021-12-28 西安电子科技大学 一种基于径向坐标优化的多维数据可视化方法和装置
JP6856557B2 (ja) 2018-01-22 2021-04-07 株式会社日立製作所 最適化装置及びハイパーパラメータの最適化方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5234469B2 (ja) * 2007-09-14 2013-07-10 国立大学法人 東京大学 対応関係学習装置および方法ならびに対応関係学習用プログラム、アノテーション装置および方法ならびにアノテーション用プログラム、および、リトリーバル装置および方法ならびにリトリーバル用プログラム
JP5382786B2 (ja) * 2009-05-19 2014-01-08 国立大学法人 東京大学 特徴量生成装置、特徴量生成方法および特徴量生成プログラム、ならびにクラス判別装置、クラス判別方法およびクラス判別プログラム
JP5463873B2 (ja) * 2009-11-20 2014-04-09 株式会社デンソーアイティーラボラトリ マルチメディア分類システム及びマルチメディア検索システム
JP2011248596A (ja) * 2010-05-26 2011-12-08 Hitachi Ltd 画像入り文書の検索システム及び検索方法

Also Published As

Publication number Publication date
JP2012053848A (ja) 2012-03-15

Similar Documents

Publication Publication Date Title
CN108628971B (zh) 不均衡数据集的文本分类方法、文本分类器及存储介质
RU2678716C1 (ru) Использование автоэнкодеров для обучения классификаторов текстов на естественном языке
US9792534B2 (en) Semantic natural language vector space
US9811765B2 (en) Image captioning with weak supervision
Lei Ba et al. Predicting deep zero-shot convolutional neural networks using textual descriptions
Dering et al. A convolutional neural network model for predicting a product's function, given its form
JP6231944B2 (ja) 学習モデル作成装置、判定システムおよび学習モデル作成方法
CN106649853A (zh) 一种基于深度学习的短文本聚类方法
CN109446430A (zh) 产品推荐的方法、装置、计算机设备及可读存储介质
Liang et al. AC-BLSTM: asymmetric convolutional bidirectional LSTM networks for text classification
US9348901B2 (en) System and method for rule based classification of a text fragment
CN109271514A (zh) 短文本分类模型的生成方法、分类方法、装置及存储介质
US20130204835A1 (en) Method of extracting named entity
CN107357895B (zh) 一种基于词袋模型的文本表示的处理方法
Wong et al. Feature selection and feature extraction: highlights
JP6467893B2 (ja) 情報処理システム、情報処理方法、及び、プログラム
JP5462748B2 (ja) データ可視化装置、データ変換装置、方法、及びプログラム
TW201243627A (en) Multi-label text categorization based on fuzzy similarity and k nearest neighbors
JP6078380B2 (ja) 文書解析装置、及びプログラム
CN115329850A (zh) 信息比对方法、装置、电子设备及存储介质
JP5533272B2 (ja) データ出力装置、データ出力方法およびデータ出力プログラム
Youpeng et al. Amvae: Asymmetric multimodal variational autoencoder for multi-view representation
Doan et al. Algorithm selection using performance and run time behavior
JP5824430B2 (ja) スパム特徴算出装置、スパム特徴算出方法、及びプログラム
Silva et al. Active manifold learning with twitter big data

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120608

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140117

R150 Certificate of patent or registration of utility model

Ref document number: 5462748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350