JP5701787B2 - データ分類予測装置、方法、及びプログラム - Google Patents

データ分類予測装置、方法、及びプログラム Download PDF

Info

Publication number
JP5701787B2
JP5701787B2 JP2012033243A JP2012033243A JP5701787B2 JP 5701787 B2 JP5701787 B2 JP 5701787B2 JP 2012033243 A JP2012033243 A JP 2012033243A JP 2012033243 A JP2012033243 A JP 2012033243A JP 5701787 B2 JP5701787 B2 JP 5701787B2
Authority
JP
Japan
Prior art keywords
matrix
basis
data
source data
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012033243A
Other languages
English (en)
Other versions
JP2013171329A (ja
Inventor
平尾 努
努 平尾
具治 岩田
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012033243A priority Critical patent/JP5701787B2/ja
Publication of JP2013171329A publication Critical patent/JP2013171329A/ja
Application granted granted Critical
Publication of JP5701787B2 publication Critical patent/JP5701787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データ分類予測装置、方法、及びプログラムに係り、特に、ソースデータ集合とターゲットデータ集合との間の関連性が未知であるという前提のもと、ソースデータ集合及びその分類と、ターゲットデータ集合とが与えられた場合に、ターゲットデータの分類を予測するデータ分類予測装置、方法、及びプログラムに関する。
ソースデータとターゲットデータとの間の関連性が既知である場合、つまり、ソースデータとターゲットデータとが(s,tn=1 というペアの集合として与えられており、ソースデータsのクラスラベルがyである場合、いわゆる教師あり学習の枠組みを用いて、ターゲットデータtのクラスラベルyを予測することは容易である。ここで、「クラスラベル」とは、ソースデータ及びターゲットデータ各々が分類されるクラス(カテゴリ)を示すラベルである。
しかし、ソースデータとターゲットデータとのペアを用意することが困難な場合や、コストがかかる場合も多々ある。
こうした問題を解決するため、ソースデータ集合及びターゲットデータ集合からソースデータとターゲットデータとのペアを見つけ出す方法が提案されている(非特許文献1参照)。
Novi Quadrianto, Le Song, Alex J. Smola. "Kernelized Sorting." Advances in Neural Information Processing Systems 21, pp. 1289-1296, 2009.
しかしながら、非特許文献1の方法では、ソースデータ集合とターゲットデータ集合との大きさが同じである必要がある。すなわち、ソースデータのデータ数とターゲットデータのデータ数とが同じ場合にしか適用できず、汎用性に欠ける、という問題点がある。
本発明は上記事情に鑑みてなされたものであり、互いにデータ数が異なり、かつ対応付けが未知のソースデータ集合とターゲットデータ集合とを用いて、ターゲットデータの分類を予測することができるデータ分類予測装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明のデータ分類予測装置は、多次元ベクトルで表され、かつデータが分類されるクラスを示すラベルが付与された複数のソースデータを含むソースデータ集合と、多次元ベクトルで表され、かつ前記ソースデータとの対応関係及び前記ラベルが未知の複数のターゲットデータを含むターゲットデータ集合を読み込む読込手段と、前記読込手段により読み込まれた前記ソースデータ集合を示す行列Sを、複数の基底ベクトルを含む基底行列Hと該基底ベクトル毎の重みを表す重み行列Wとに分解すると共に、前記ターゲットデータ集合を示す行列Tを、前記基底行列Hと同一の次元数の基底行列Hと重み行列Wとに分解し、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関と、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関とが比例関係となるように、前記ソースデータ各々と前記ターゲットデータ各々との対応関係を推定する推定手段と、を含んで構成されている。
本発明のデータ分類予測装置によれば、読込手段が、多次元ベクトルで表され、かつデータが分類されるクラスを示すラベルが付与された複数のソースデータを含むソースデータ集合と、多次元ベクトルで表され、かつソースデータとの対応関係及びラベルが未知の複数のターゲットデータを含むターゲットデータ集合を読み込む。そして、推定手段が、読込手段により読み込まれたソースデータ集合を示す行列Sを、複数の基底ベクトルを含む基底行列Hと基底ベクトル毎の重みを表す重み行列Wとに分解すると共に、ターゲットデータ集合を示す行列Tを、基底行列Hと同一の次元数の基底行列Hと重み行列Wとに分解し、重み行列W により表される基底行列Hに含まれる基底ベクトル間の相関と、重み行列W により表される基底行列Hに含まれる基底ベクトル間の相関とが比例関係となるように、ソースデータ各々とターゲットデータ各々との対応関係を推定する。
このように、ソースデータ集合を示す行列及びターゲットデータ集合を示す行列を、同一次元数の基底行列を用いて分解した上で、基底間の相関に基づいてソースデータとターゲットデータとの対応関係を推定するため、互いにデータ数が異なり、かつ対応付けが未知のソースデータ集合とターゲットデータ集合とを用いて、ターゲットデータの分類を予測することができる。
また、前記推定手段は、前記ソースデータ集合を示す行列Sと、前記基底行列Hと前記重み行列Wとの積との差、前記ターゲットデータ集合を示す行列Tと、前記基底行列Hと前記重み行列Wとの積との差、及び前記基底行列Hに含まれる基底ベクトル間の相関と、前記基底行列Hに含まれる基底ベクトル間の相関と比例係数との積との差を含む目的関数を最小化するように、パラメータとして、前記基底行列H、前記重み行列W、前記基底行列Hを前記対応関係に基づいて並べ替えた行列H'、前記重み行列Wを前記対応関係に基づいて並べ替えた行列W'を推定することができる。
また、本発明のデータ分類予測装置は、前記読込手段により読み込まれたターゲットデータを、前記推定手段により推定されたパラメータを用いて前記ソースデータの空間に写像し、写像されたターゲットデータと前記複数のソースデータ各々との類似度、及び該ソースデータ各々に付与されたラベルに基づいて、前記ターゲットデータが分類されるクラスを予測する予測手段を含んで構成することができる。
また、本発明のデータ分類予測方法は、読込手段と、推定手段とを含むデータ分類予測装置におけるデータ分類予測方法であって、前記読込手段は、多次元ベクトルで表され、かつデータが分類されるクラスを示すラベルが付与された複数のソースデータを含むソースデータ集合と、多次元ベクトルで表され、かつ前記ソースデータとの対応関係及び前記ラベルが未知の複数のターゲットデータを含むターゲットデータ集合を読み込み、前記推定手段は、前記読込手段により読み込まれた前記ソースデータ集合を示す行列Sを、複数の基底ベクトルを含む基底行列Hと該基底ベクトル毎の重みを表す重み行列Wとに分解すると共に、前記ターゲットデータ集合を示す行列Tを、前記基底行列Hと同一の次元数の基底行列Hと重み行列Wとに分解し、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関と、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関とが比例関係となるように、前記ソースデータ各々と前記ターゲットデータ各々との対応関係を推定する方法である。
また、本発明のデータ分類予測方法において、前記推定手段は、前記ソースデータ集合を示す行列Sと、前記基底行列Hと前記重み行列Wとの積との差、前記ターゲットデータ集合を示す行列Tと、前記基底行列Hと前記重み行列Wとの積との差、及び前記基底行列Hに含まれる基底ベクトル間の相関と、前記基底行列Hに含まれる基底ベクトル間の相関と比例係数との積との差を含む目的関数を最小化するように、パラメータとして、前記基底行列H、前記重み行列W、前記基底行列Hを前記対応関係に基づいて並べ替えた行列H'、前記重み行列Wを前記対応関係に基づいて並べ替えた行列W'を推定することができる。
また、本発明のデータ分類予測方法は、予測手段を更に含むデータ分類予測装置におけるデータ分類予測方法であって、前記予測手段は、前記読込手段により読み込まれたターゲットデータを、前記推定手段により推定されたパラメータを用いて前記ソースデータの空間に写像し、写像されたターゲットデータと前記複数のソースデータ各々との類似度、及び該ソースデータ各々に付与されたラベルに基づいて、前記ターゲットデータが分類されるクラスを予測する方法である。
また、本発明のデータ分類予測プログラムは、コンピュータを、上記のデータ分類予測装置を構成する各手段として機能させるためのプログラムである。
以上説明したように、本発明のデータ分類予測装置、方法、及びプログラムによれば、ソースデータ集合を示す行列及びターゲットデータ集合を示す行列を、同一次元数の基底行列を用いて分解した上で、基底間の相関に基づいてソースデータとターゲットデータとの対応関係を推定するため、互いにデータ数が異なり、かつ対応付けが未知のソースデータ集合とターゲットデータ集合とを用いて、ターゲットデータの分類を予測することができる、という効果が得られる。
本発明の実施の形態のデータ分類予測装置の機能的構成を示すブロック図である。 本発明の実施の形態のデータ分類予測装置におけるデータ分類予測処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本実施の形態の概要>
ソースデータ集合をS=(sn=1 、ソースデータsのクラスラベルをy、ターゲットデータ集合をT=(tm=1 とし、各ソースデータ及び各ターゲットデータを、それぞれ多次元ベクトルs=(snii=1 、t=(tmjj=1 とする。従って、ソースデータ集合Sは、I行N列の行列、ターゲットデータ集合Tは、J行M列の行列として表すことができる。
ここで、ソースデータ集合Sを表す行列S、及びターゲットデータ集合Tを表す行列Tを、それぞれ2つの低ランクの行列の積として、下記(1)式及び(2)式のように近似する。
はI行K列の行列(重み行列)、HはK行N列の行列(基底行列)であり、WはJ行K列の行列(重み行列)、HはK行M列の行列(基底行列)である。Kは、行列分解のパラメータであり、任意の整数である。一般的には、KはI及びJより十分小さい値となる。
ここで、基底行列Hのn番目の列に対応するベクトルhsn Τは、I次元のソースデータ(s)をより低次元のK次元空間へと写象したデータ(基底ベクトル)として解釈できる。また、重み行列Wのk(1≦k≦K)番目の列に対応するベクトルwsk Τは、K次元空間のある基底ベクトルkに対する特徴の重みベクトルとして解釈できる。同様に、基底行列Hのm番目の列に対応するベクトルhtm Τは、J次元のターゲットデータ(t)をより低次元のK次元空間へと写象したデータ(基底ベクトル)として解釈できる。また、重み行列Wのk(1≦k≦K)番目の列に対応するベクトルwtk Τは、K次元空間のある基底ベクトルkに対する特徴の重みベクトルとして解釈できる。
基底行列Hにより、ソースデータをI次元空間からK次元空間へ、基底行列Hにより、ターゲットデータをJ次元空間からソースデータと同じ大きさのK次元空間へ写像することができる。しかし、この段階では、双方のデータは、属する空間の次元がKであるという点において共通するだけであり、各基底ベクトル間の対応関係までは存在しない。よって、このままではソースデータとターゲットデータとの間の関連性を推定することはできない。
ここで、双方のデータが属するK次元空間の基底ベクトル間に対応関係があるのならば、双方の空間における基底ベクトル間の相関、すなわちWΤWが比例関係となることに注意すると、それらの関係は、αを任意の定数として、下記(3)式となる。
行列W'Τは、重み行列W Τの列要素を並べ替えたものを表す。このような行列W'Τが求まれば、ソースデータを写像したK次元空間の各基底ベクトルとターゲットデータを写像したK次元空間の各基底ベクトルとが1対1の対応関係となる。最終的にターゲットデータ集合Tは、W'によってI次元のソースデータと同じ空間に写像できる。なお、行列H'は、基底行列Hの列要素を、W'Τの列要素の並べ替えと同様に並べ替えたものである。
こうして、ターゲットデータをソースデータの空間に写像することで、既存の様々な教師あり分類手法が利用可能となる。最も簡単な手法として、t=(tmjj=1 をソースデータの空間に写像するとWtm'となるので、このベクトルWtm'とソースデータ各々との間の距離を計算し、ベクトルWtm'との距離が近い数個のソースデータが持つクラスラベルで多数決をとることで、t=(tmjj=1 のクラスラベルを予測することができる。
これらをまとめると、最終的に下記(4)式の目的関数を最小化するパラメータ集合(W,H,W',H')を求めることで、ターゲットデータのクラスラベルを予測することが可能となる。なお、(4)式内のβは、第1項及び第2項と第3項との間の重みを調整するハイパーパラメータである。
<システム構成>
本発明の実施の形態に係るデータ分類予測装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述するデータ分類予測処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、読み込み部20、記憶部30、推定部40、及び予測部50を含んだ構成で表すことができる。
読み込み部20は、ソースデータ読み込み部21、及びターゲットデータ読み込み部22を備えている。ソースデータ読み込み部21では、ソースデータ集合Sを読み込み、ターゲットデータ読み込み部22では、ターゲットデータ集合Tを読み込む。
記憶部30には、読み込まれたソースデータ集合Sが記憶されるソースデータ集合記憶部31、読み込まれたターゲットデータ集合Tが記憶されるターゲットデータ集合記憶部32、及びパラメータ集合が記憶されるパラメータ集合記憶部33が設けられている。
推定部40は、パラメータ推定部41、及びパラメータ書き込み部42を備えている。
パラメータ推定部41では、目的関数((4)式)を最小化するようにパラメータ集合W,H,W',H'を推定する。(4)式の目的関数の最小化には勾配法を用いることもできるが、ここでは、簡単のため、各項を個別に最小化する。具体的には、第1項及び第2項を行列分解アルゴリズム手法として知られるNMF(Non-negative Matrix Factorization、非特許文献2「Daniel D. Lee, H. Sebastian Seung. “Algorithms for Non-negative Matrix Factorization” Advancesin Neural Information Processing Systems, pp.556-562, 2000」)を用い、第3項は、先に非特許文献1として挙げた同じ大きさの2つのデータ集合間で対応するペアを推定する手法であるKernelized Sotringを用いる。
まず、ソースデータ集合記憶部31及びターゲットデータ集合記憶部32から、ソースデータ集合S及びターゲットデータ集合Tを読み出す。ソースデータ集合S及びターゲットデータ集合Tを、それぞれNMFにより、行列分解のパラメータKを用いて(1)式及び(2)式の形で低ランクの行列の積に分解し、行列W、H、W、Hを得る。次に、ソースデータ集合Sとターゲットデータ集合Tとから得た基底ベクトル間の対応付けを行うため((3)式)、Kernelized Sortingを適用し、W',H'を得る。
パラメータ書き込み部42は、パラメータ推定部41において推定されたパラメータ集合を、パラメータ集合記憶部33に書き込む。
予測部50は、クラスラベル予測部51、及びクラスラベル出力部52を備えている。
クラスラベル予測部51は、ターゲットデータ集合記憶部32から読み出したターゲットデータt=(tmjj=1 を、パラメータ集合記憶部33から読み出したパラメータ集合を用いて、下記(5)式によりソースデータの空間へ写像する。
ソースデータ集合Sとターゲットデータtとを同じ空間に写像することができたので、既存の教師あり学習の枠組みを用いて、ターゲットデータtのクラスラベルを推定する。例えば、ベクトルWtm'とソースデータs各々との間のコサイン類似度を計算し、類似度が最も高いソースデータのクラスラベルyを、ターゲットデータtのクラスラベルyとすることができる。
クラスラベル出力部52は、クラスラベル予測部51で予測されたターゲットデータtのクラスラベルyを予測結果として出力する。
<データ分類予測装置の作用>
本実施の形態のデータ分類予測装置10に、ソースデータ集合S及びターゲットデータ集合Tが入力されると、データ分類予測装置10において、図2に示すデータ分類予測処理ルーチンが実行される。
まず、ステップ100で、読み込み部20によって、入力されたソースデータ集合S及びターゲットデータ集合Tを読み込み、それぞれソースデータ集合記憶部31及びターゲットデータ集合記憶部32に格納する。
次に、ステップ102で、推定部40によって、目的関数((4)式)を最小化するようにパラメータ集合W,H,W',H'を推定し、パラメータ集合記憶部33に記憶する。
次に、ステップ104で、予測部50によって、ターゲットデータ集合記憶部32から読み出したターゲットデータt=(tmjj=1 を、パラメータ集合記憶部33から読み出したパラメータ集合を用いて、ソースデータの空間へ写像する。
次に、ステップ106で、予測部50によって、上記ステップ104で写像したベクトルWtm'とソースデータs各々との間のコサイン類似度を計算し、類似度が最も高いソースデータのクラスラベルyを、ターゲットデータtのクラスラベルyと予測し、次のステップ108で、予測結果を出力して、処理を終了する。
以上説明したように、本発明の実施の形態に係るデータ分類予測装置によれば、ソースデータとターゲットデータとを同一の空間に写像して対応関係を推定したパラメータを用いて、ターゲットデータのクラスラベルを予測するため、互いにデータ数が異なり、かつ対応付けが未知のソースデータ集合とターゲットデータ集合とを用いて、ターゲットデータの分類を予測することができる。
これにより、例えば、2つの異なる言語で書かれた互いにデータ数が異なるテキストデータ集合をどちらかの空間へ写像して分類したり、互いにデータ数が異なるテキストデータ集合と画像データ集合とをどちらかの空間へ写像して分類したりすることなどが可能となる。
<実施例>
本発明の有効性を実証するため、多言語テキスト分類における実験を行った。ソースデータ集合として英語のテキストデータを3000記事(N=3000)、ターゲットデータ集合としてフランス語のテキストデータを600記事(M=600)用意した。ソースデータ及びターゲットデータ共に、記事が属するクラス(カテゴリ)は6種であり、各記事に1つのクラスラベルが付与されている。ソースデータ及びターゲットデータとも、クラスの比率は均等であり、ソースデータでは、1クラス当たり500記事、ターゲットデータでは、1クラス当たり100記事である。なお、ターゲットデータのクラスラベルは、評価のために既知としただけであり、パラメータ推定には用いていない。ソースデータsは英語単語を基底とする21530次元ベクトル(I=21530)、ターゲットデータtはフランス語単語を基底とする24892次元ベクトル(J=24892)として表現した。
この設定で、パラメータ集合W,H,W',H'を推定した。なお、行列分解のパラメータKは120に設定した。フランス語の記事を表す特徴ベクトルtを英語の記事が属する空間へと写像し、コサイン類似度が高い上位10件の記事のクラスラベルを抽出し、その中でも最も頻度の高いクラスラベルをtのクラスラベルとした。600記事での正解率を表1に示す。
表1中の手法「ランダム」とは、ランダムに6種のクラスラベルのいずれかを出力した場合に得られる正解率の期待値である。評価結果より、提案手法はランダムよりも良い正解率を得ており、その有効性が確認できた。
また、上述のデータ分類予測装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 データ分類予測装置
20 読み込み部
21 ソースデータ読み込み部
22 ターゲットデータ読み込み部
30 記憶部
31 ソースデータ集合記憶部
32 ターゲットデータ集合記憶部
33 パラメータ集合記憶部
40 推定部
41 パラメータ推定部
42 パラメータ書き込み部
50 予測部
51 クラスラベル予測部
52 クラスラベル出力部

Claims (7)

  1. 多次元ベクトルで表され、かつデータが分類されるクラスを示すラベルが付与された複数のソースデータを含むソースデータ集合と、多次元ベクトルで表され、かつ前記ソースデータとの対応関係及び前記ラベルが未知の複数のターゲットデータを含むターゲットデータ集合を読み込む読込手段と、
    前記読込手段により読み込まれた前記ソースデータ集合を示す行列Sを、複数の基底ベクトルを含む基底行列Hと該基底ベクトル毎の重みを表す重み行列Wとに分解すると共に、前記ターゲットデータ集合を示す行列Tを、前記基底行列Hと同一の次元数の基底行列Hと重み行列Wとに分解し、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関と、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関とが比例関係となるように、前記ソースデータ各々と前記ターゲットデータ各々との対応関係を推定する推定手段と、
    を含むデータ分類予測装置。
  2. 前記推定手段は、前記ソースデータ集合を示す行列Sと、前記基底行列Hと前記重み行列Wとの積との差、前記ターゲットデータ集合を示す行列Tと、前記基底行列Hと前記重み行列Wとの積との差、及び前記基底行列Hに含まれる基底ベクトル間の相関と、前記基底行列Hに含まれる基底ベクトル間の相関と比例係数との積との差を含む目的関数を最小化するように、パラメータとして、前記基底行列H、前記重み行列W、前記基底行列Hを前記対応関係に基づいて並べ替えた行列H'、前記重み行列Wを前記対応関係に基づいて並べ替えた行列W'を推定する請求項1記載のデータ分類予測装置。
  3. 前記読込手段により読み込まれたターゲットデータを、前記推定手段により推定されたパラメータを用いて前記ソースデータの空間に写像し、写像されたターゲットデータと前記複数のソースデータ各々との類似度、及び該ソースデータ各々に付与されたラベルに基づいて、前記ターゲットデータが分類されるクラスを予測する予測手段を含む請求項2記載のデータ分類予測装置。
  4. 読込手段と、推定手段とを含むデータ分類予測装置におけるデータ分類予測方法であって、
    前記読込手段は、多次元ベクトルで表され、かつデータが分類されるクラスを示すラベルが付与された複数のソースデータを含むソースデータ集合と、多次元ベクトルで表され、かつ前記ソースデータとの対応関係及び前記ラベルが未知の複数のターゲットデータを含むターゲットデータ集合を読み込み、
    前記推定手段は、前記読込手段により読み込まれた前記ソースデータ集合を示す行列Sを、複数の基底ベクトルを含む基底行列Hと該基底ベクトル毎の重みを表す重み行列Wとに分解すると共に、前記ターゲットデータ集合を示す行列Tを、前記基底行列Hと同一の次元数の基底行列Hと重み行列Wとに分解し、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関と、前記重み行列W により表される前記基底行列Hに含まれる基底ベクトル間の相関とが比例関係となるように、前記ソースデータ各々と前記ターゲットデータ各々との対応関係を推定する
    データ分類予測方法。
  5. 前記推定手段は、前記ソースデータ集合を示す行列Sと、前記基底行列Hと前記重み行列Wとの積との差、前記ターゲットデータ集合を示す行列Tと、前記基底行列Hと前記重み行列Wとの積との差、及び前記基底行列Hに含まれる基底ベクトル間の相関と、前記基底行列Hに含まれる基底ベクトル間の相関と比例係数との積との差を含む目的関数を最小化するように、パラメータとして、前記基底行列H、前記重み行列W、前記基底行列Hを前記対応関係に基づいて並べ替えた行列H'、前記重み行列Wを前記対応関係に基づいて並べ替えた行列W'を推定する請求項4記載のデータ分類予測方法。
  6. 予測手段を更に含むデータ分類予測装置におけるデータ分類予測方法であって、
    前記予測手段は、前記読込手段により読み込まれたターゲットデータを、前記推定手段により推定されたパラメータを用いて前記ソースデータの空間に写像し、写像されたターゲットデータと前記複数のソースデータ各々との類似度、及び該ソースデータ各々に付与されたラベルに基づいて、前記ターゲットデータが分類されるクラスを予測する
    請求項5記載のデータ分類予測方法。
  7. コンピュータを、請求項1〜請求項3のいずれか1項記載のデータ分類予測装置を構成する各手段として機能させるためのデータ分類予測プログラム。
JP2012033243A 2012-02-17 2012-02-17 データ分類予測装置、方法、及びプログラム Active JP5701787B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012033243A JP5701787B2 (ja) 2012-02-17 2012-02-17 データ分類予測装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033243A JP5701787B2 (ja) 2012-02-17 2012-02-17 データ分類予測装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013171329A JP2013171329A (ja) 2013-09-02
JP5701787B2 true JP5701787B2 (ja) 2015-04-15

Family

ID=49265239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033243A Active JP5701787B2 (ja) 2012-02-17 2012-02-17 データ分類予測装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5701787B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6152073B2 (ja) * 2014-05-21 2017-06-21 日本電信電話株式会社 グループ対応付け装置、方法、及びプログラム
CN109657693B (zh) * 2018-10-22 2023-08-01 中国科学院软件研究所 一种基于相关熵和迁移学习的分类方法
KR102297548B1 (ko) * 2019-12-24 2021-09-02 서울대학교산학협력단 신경망 모델을 이용한 정보 보호 방법 및 데이터처리장치
CN111339362B (zh) * 2020-02-05 2023-07-18 天津大学 一种基于深度协同矩阵分解的短视频多标签分类方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013489B2 (ja) * 2001-03-02 2007-11-28 富士ゼロックス株式会社 対応カテゴリ検索システムおよび方法
JP2003167914A (ja) * 2001-11-30 2003-06-13 Fujitsu Ltd マルチメディア情報検索方法、プログラム、記録媒体及びシステム
JP4292837B2 (ja) * 2002-07-16 2009-07-08 日本電気株式会社 パターン特徴抽出方法及びその装置
JP5407723B2 (ja) * 2009-10-07 2014-02-05 株式会社デンソーアイティーラボラトリ 認識装置、認識方法及びプログラム
JP5458815B2 (ja) * 2009-11-11 2014-04-02 株式会社デンソーアイティーラボラトリ マルチメディア検索システム

Also Published As

Publication number Publication date
JP2013171329A (ja) 2013-09-02

Similar Documents

Publication Publication Date Title
JP5701787B2 (ja) データ分類予測装置、方法、及びプログラム
CN109871454B (zh) 一种鲁棒离散监督跨媒体哈希检索方法
Peng et al. Normalizing a large number of quantitative traits using empirical normal quantile transformation
US8396872B2 (en) Order-preserving clustering data analysis system and method
Tzeng Split‐and‐Combine Singular Value Decomposition for Large‐Scale Matrix
US11829442B2 (en) Methods and systems for efficient batch active learning of a deep neural network
Ploenzke et al. Interpretable convolution methods for learning genomic sequence motifs
Shi et al. A vector representation of DNA sequences using locality sensitive hashing
US11551788B2 (en) Information processing system, information processing method, and program
CN114422450B (zh) 基于多源网络流量数据的网络流量分析方法和装置
JP5361090B2 (ja) 話題語獲得装置、方法、及びプログラム
Carrieri et al. Host phenotype prediction from differentially abundant microbes using rodeo
JP5813498B2 (ja) モデル学習装置、関連情報抽出装置、関連情報予測装置、モデル学習方法、関連情報抽出方法、関連情報予測方法およびプログラム
Suh et al. Local topic discovery via boosted ensemble of nonnegative matrix factorization
Vishwanathan et al. Kernel extrapolation
Akond et al. Classification of functional metagenomes recovered from different environmental samples
Barchiesi et al. Learning incoherent subspaces: classification via incoherent dictionary learning
Squires et al. A method of integrating spatial proteomics and protein-protein interaction network data
Kaya et al. Feature selection by high dimensional model representation and its application to remote sensing
Perera et al. A Framework for Feature Selection to Exploit Feature Group Structures
JP5882259B2 (ja) 信号処理装置、方法、及びプログラム
JP7420148B2 (ja) 学習装置、学習方法及びプログラム
JP5713877B2 (ja) 入出力モデル推定装置、方法、及びプログラム
Bhowmick et al. Integrated classifier: A tool for microarray analysis
Zou et al. BDSCyto: an automated approach for identifying cytokines based on best dimension searching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150218

R150 Certificate of patent or registration of utility model

Ref document number: 5701787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150