JP6879433B2 - 回帰装置、回帰方法、及びプログラム - Google Patents

回帰装置、回帰方法、及びプログラム Download PDF

Info

Publication number
JP6879433B2
JP6879433B2 JP2020514636A JP2020514636A JP6879433B2 JP 6879433 B2 JP6879433 B2 JP 6879433B2 JP 2020514636 A JP2020514636 A JP 2020514636A JP 2020514636 A JP2020514636 A JP 2020514636A JP 6879433 B2 JP6879433 B2 JP 6879433B2
Authority
JP
Japan
Prior art keywords
regression
feature
weight
similarity
penalty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020514636A
Other languages
English (en)
Other versions
JP2020533700A (ja
Inventor
シルバ ダニエル ゲオルグ アンドラーデ
シルバ ダニエル ゲオルグ アンドラーデ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020533700A publication Critical patent/JP2020533700A/ja
Application granted granted Critical
Publication of JP6879433B2 publication Critical patent/JP6879433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、分類器を学習して共変量(各データサンプルの素性)をクラスタリングする、回帰装置、回帰方法、およびこれらを実現するためのプログラムに関する。
分類および分類結果の解釈可能性は、さまざまなアプリケーションにとって重要である。例:テキスト分類:どの単語グループが感情を示しているか?マイクロアレイ分類:特定の疾患を示す遺伝子のグループはどれですか?
特に、ここでは、次の情報が利用可能な問題を検討する。
クラスラベル付きのデータサンプル、
機能の相互作用に関する事前知識(例:単語の類似度)。
この問題に対処する先行研究はほとんど存在していない。 OSCARと呼ばれる最初の分析(例えば、非特許文献1を参照)は、以下の目的関数を使用して共同線形回帰とクラスタリングを実行する。目的関数もまた凸最適化問題である(提案された方法の1つと同様)。 ただし、主に2つの問題/制限が存在する。
負の値が非常に高い相関共変量も同じクラスターに入れられる。このことは予測力にとって問題ではないが(絶対値は元の値ではなく同じ値になることが推奨されるため)、相互運用性が損なわれる可能性がある。(非特許文献1の図2参照)。
機能(共変量)に関する補助情報を含めることは不可能である。
共変量に関する補助情報を含めることを可能にする別のアプローチが、BOWLである(例えば、非特許文献2参照)。 基本的なコンポーネントは図7に示されている。 図7は、分類前のクラスタリングにより、分類に適さないクラスターが生じる可能性があることを示している。
BOWLには、2段階のアプローチがある。
1.クラスター共変量 k-meansの使用。ここでは、単語の埋め込みを使用して単語がクラスタリングされる。
2.単語クラスターによる分類器のトレーニング。
Howard D Bondell and Brian J Reich. Simultaneous regression shrink-age, variable selection, and supervised clustering of predictors with oscar. Biometrics, 64(1):115-123, 2008. Weikang Rui, Kai Xing, and Yawei Jia. Bowl: Bag of word clusters text representation using word embeddings. In International Conference on Knowledge Science, Engineering and Management, pages 3-14. Springer, 2016.
しかしながら、従来の手法には、クラスタリング(最初のステップ後)が固定されてしまい、クラスラベルを調整することができない、という問題がある。このことが問題であるという理由を確認するため、以下の例で検討する。
「great」と「bad」との単語の埋め込みは、非常に似ていると仮定する(これらは非常によく似たコンテキストで発生する可能性があり、実際によくあるケースです)。 これにより、最初のステップにおいて結果的に、「great」と「bad」とが一緒にクラスター化されてしまう。
しかしながら、分類タスクが感情分析である場合、これによりパフォーマンスが低下する。(理由:クラスター{「great」、「bat」}は、肯定的なコメントと否定的なコメントとを区別するために使用できない素性となり得る)。 この例は、図8にも示されている。図8では、最終結果は、2つのクラスター{「fantastic」、「great」、「bad」}と、{「actor」}とで構成されている。図8は、分類前のクラスタリングにより、分類に適さないクラスターが生じる可能性があることを示している。
従来からの方法は、共変量に関する事前の知識を含むことができず、又は、準最適な2ステッププロシージャ(上記の例を参照)による解の劣化に苦しむ。また、従来からの方法では、非凸最適化関数による非適正な局所的最小値となる傾向もある。
本発明の目的の一例は、上述の問題を解消し、得られる分類及びクラスタリングの精度が共に向上し得る、回帰装置、回帰方法、及びプログラムを提供することにある。
クラスタリングと分類のステップとを分離する代わりに、共変量についての分類器及びクラスタリングのパラメータを一緒に学習する、装置、方法、及びプログラムが提案される。更に、凸であり、初期化とは無関係にグローバルな最適値を見つけることが保証される、ソリューションが提案される。
上記目的を解決するための、本発明の一側面における回帰装置は、回帰及びクラスタリング基準を同時に最適化するための装置であって、
ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、分類器訓練部と、
訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、クラスタリング結果取得部と、
を備えている。
上記目的を達成するための、本発明の他の側面における回帰方法は、回帰及びクラスタリング基準を同時に最適化するための方法であって、
(a)ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
(b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、ステップと、
を有する。
上記目的を達成するための、本発明の他の側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって、回帰及びクラスタリング基準を同時に最適化するためのプログラムであって、
前記コンピュータに、
(a)ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
(b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、ステップと、
を実行させる。
以上のように、本発明によれば、得られる分類及びクラスタリングの精度を共に向上することができる。
図1は、本発明の実施の形態における回帰装置の構成を概略的示すブロック図である。 図2は、本発明の実施の形態における回帰装置の構成を具体的に示すブロック図である。 図3は、本発明で用いられる行列Zの一例を示す図である。 図4は、本発明で得られたクラスタリング結果の一例を示す図である。 図5は、本発明の実施の形態における回帰装置によって実行される処理の一例を示すフロー図である。 図6は、本発明の実施の形態における回帰装置を実現するコンピュータの一例を示すブロック図である。 図7は、分類前のクラスタリングにより、分類に適さないクラスターが生じる可能性があることを示す図である。 図8は、分類前のクラスタリングにより、分類に適さないクラスターが生じる可能性があることを示す図である。
(実施の形態)
以下、本発明の実施形態に係る回帰装置、回帰方法、およびコンピュータ読み取り可能な記録媒体について、図1〜図6を参照して説明する。
[装置構成]
最初に、本発明の実施の形態における回帰装置10の構成について図1を用いて説明する。図1は、本発明の実施の形態における回帰装置の構成を概略的に示すブロック図である。
図1に示すように、回帰装置10は、分類器訓練部11と、クラスタリング結果取得部12とを備えている。 分類器訓練部は、ラベル付き訓練データ、素性の類似度、回帰分析の精度を特徴付ける損失関数、および素性の類似度を助長するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する。 ペナルティの強度は、素性の類似度に比例する。 クラスタリング結果取得部は、訓練された分類器を使用して、回帰重みが等しい素性をグループ化することにより素性クラスターを識別する。
上述したように、回帰装置10は、共変量の分類及びクラスタリングについてパラメータを学習する。 その結果、回帰装置10は、得られる分類およびクラスタリングの精度を向上させることができる。
ここで、図2を参照して、本実施の形態1に係る回帰装置10の構成および機能についても説明する。
表記についての注意:例えば、B ∈Rd×d,は行列を示し、 x ∈ Rdは、行ベクトルを示す。更に、Bのi番目の行は、Biで示される行ベクトルである。Bのj番目の列はB.,jで示される列ベクトルである。
図2において、我々の提案する手順について概説する。図2は、本発明の実施形態に係る回帰装置の構成を具体的に示すブロック図である。
図2に示すように、 ラベル付けされたトレーニングデータ({x、y}で与えられる)と、各素性間の類似度情報(行列Sで与えられる)とを使用して、分類器訓練部11は、重みベクトルβ又は重み行列Bと共にロジスティック回帰分類器を訓練する。次のステップでは、クラスタリング結果取得部12は、学習された重み行列B(又は重みベクトルβ)から、正確に等しい値を検査することにより、素性のクラスタリングを識別する。例えば、重み行列Bのi1と i2の列が同一である場合、素性 i1 と素性 i2とは、同じクラスターにある。
以下では、最適化問題として2つの異なる定式化を提案する。一般的な考えは、素性(共変量)のクラスター化と分類器の学習とを一緒にすることにある。
1つ目の定式化は、共変量毎に明示的なクラスター割り当て確率を提案する。これは、共変量の意味があいまいな場合などに有利であるが、結果の問題が凸ではない。2つめの定式化は凸であるため、グローバルな最適値を見つけることが可能となる。
定式化1:クラスター割当確率の定式化
定式化1では、損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含む。 ペナルティは、素性のペア毎に設定され、素性の重みベクトルのペア間の距離の測定値と素性間の類似度で構成される。
xs ∈ Rd dをサンプルsの共変量ベクトルとしZ ∈ Rd×d を共変量クラスター割り当て行列とする。このとき、i番目の行はi番目の共変量に対応し、j番目の列は j番目のクラスターに対応する。
簡単にするために、ここでは分類のためのロジスティック回帰を検討する。 fをパラメーターベクトルβ ∈ Rd及びバイアスβ0を持つロジスティック関数とする。 クラス確率は、次のように定義される。
Figure 0006879433
ys ∈ {-1, 1}は、サンプルのクラスラベルである。そして、目的関数は次の式で最適化される。
Figure 0006879433
Figure 0006879433
Figure 0006879433
Figure 0006879433
パラメータとして、β、 w ∈Rd、β0∈R、及び Z∈Rd×dがある。そして、固定ハイパーパラメータλは0より大きく、γは0以上である。λは、Zの列のスパース性、更には、クラスターの数を制御するハイパーパラメータである。このことを理解するために、数6における項Aは、Zの列に対するグループラッソペナルティであることに注意してください(グループラッソについては、参考文献[1]を参照)。ハイパーパラメータγは、クラスタリングの目的の重みを制御する。
参考文献[1]:Trevor Hastie, Robert Tibshirani, and Martin Wainwright. Statistical learning with sparsity. CRC press, 2015.
Figure 0006879433
行列Zはクラスタリングを定義する。クラスタリング 結果をよりよく理解するには、数1において次のように記述できることに注意する必要がある。
Figure 0006879433
Figure 0006879433
ベクトルcsは、Zによって誘導されるクラスタリングに関してデータサンプルsを表す。特に、次のものがある。
Figure 0006879433
Zのj番目の列がゼロベクトルでない場合にのみ、クラスターjが存在すると言える。従って、クラスターの数は、Zのゼロ列の数を制御するため、ハイパーパラメータλによって制御されることがわかる。Zi,jは、共変量iがクラスターjに割り当てられる確率として解釈できることもわかる。
さらに、数7から、w(j)がクラスターjのロジスティック回帰重みを定義することがわかる。 また、クラスターjが存在しない場合、wの正則化により、w(j)がゼロになることに注意する必要がある。
この提案された形式化の効果は、図3及び図4にも示されている。図3は、本発明で使用される行列Zの例を示している。図4は、本発明によって取得されたクラスタリング結果の一例を示している。図4に示すように、最終結果は3つのクラスター{"fantastic"、 "great"}、{"bad"}、及び{"actor"}で構成されている。
より大きなクラスターによる重みの拡大
交差検定を使用してλを決定できるようにするためには、クラスターの形成が一般化可能性を高めるのに役立つ必要がある。クラスターの形成を促進する1つの方法は、大きなクラスターの重みよりも小さなクラスターの重みを罰することである。1つの可能性は、次の拡張である。
Figure 0006879433
Figure 0006879433
Figure 0006879433
Figure 0006879433
Figure 0006879433
pjは、クラスターjの共変量の期待数に1を加えたものに対応する(1は目的関数でのゼロによる除算を防ぐために追加される。)。数15における項Bは、過適合を防ぐためにクラスターの重みを高くしますが、小さなクラスターにはより多くのペナルティが科される。数16におけるCは、それがf(wj, pj)=wj 2/pjの形式のd関数の合計であるため、凸であることに注意する必要があり、f(wj, pj)凸である(参考文献[2] p.72参照)。
参考文献[2]:Stephen Boyd and Lieven Vandenberghe. Convex optimization. Cambridge university press, 2004.
Figure 0006879433
Figure 0006879433
共変量の補助情報の含有
Sを任意の2つの共変量i1及び i2の間の類似度行列とする。例えば、テキスト分類において、各共変量は単語に対応する。 その場合、単語の埋め込みを使用して単語間の類似度行列を取得する。ei ∈Rhはi番目の共変量の埋め込みを示す。そして、次に示すようにSが定義される。
Figure 0006879433
ここで、uはハイパーパラメータである。
Sから与えられた事前知識を組み込む際に、次のペナルティを追加することが可能である。
Figure 0006879433
ここで、q ∈{1,2,∞}はペナルティである。このペナルティにより、同様の共変量が同じクラスター割り当てを共有するようになる。
最終的な最適化の問題は次の通りである。
Figure 0006879433
Figure 0006879433
Figure 0006879433
Figure 0006879433
Figure 0006879433
最適化
前に指摘したように、数19の最終的な最適化問題は凸ではない。但し、w(Zを固定に保持)とZ(wを固定に保持)の最適化を交互に行うことにより、静止点の取得が可能となる。各ステップは凸問題であり、例えば、乗数の交互方向法によって解決可能である。 静止点の精度は初期化に依存する。1つの可能性は、k-meansからのクラスタリング結果でZを初期化することである。
定式化2:凸定式化
定式化2では、損失関数はクラスター毎に重みと追加のペナルティとを有し、追加のペナルティは、大きな重みにペナルティを課し、クラスターが大きいほど小さくなる。
B∈Rk×dにおいて、kはクラスの数、dは共変量の数である。Blは、クラスlの重みベクトルである。更に、β0∈Rkは切片を含む。ここで、次の式によってマルチクラスロジスティック回帰分類器を定義する。
Figure 0006879433
サンプルxsの分類と共変量のクラスタリングとを一緒に行うために、次の定式化が行われる。
Figure 0006879433
最後の項は、2つの素性i1 と i2との任意のペア毎に、クラスの重みに対するグループラッソペナルティである。ペナルティは類似の素性毎に大きくなり、B.,i1 - B.,i2が0であることを推奨する。これは、B.,i1と B.,i2とが等しいことを意味する。
素性の最終的なクラスタリングは、B.,i1と B.,i2とが等しい場合、2つの素性i1 及び i2を一緒にグループ化することで見つられる。
この定式化の利点は、問題が凸であり、グローバルな最小値を見つけることが保証されることにある。
このペナルティは、参考文献[3]及び[4]にあるように、凸型クラスタリングに似たものを共有していることに注意が必要である。但し、1つの大きな違いは、各データポイントに潜在ベクトルを導入せず、この方法では分類器とクラスタリングと一緒に学習することである。
参考文献[3]:Eric C Chi and Kenneth Lange. Splitting methods for convex clustering. Journal of Computational and Graphical Statistics, 24(4):994{1013, 2015.
参考文献[4]:Toby Dylan Hocking, Armand Joulin, Francis Bach, and Jean-Philippe Vert. Clusterpath an algorithm for clustering using convex fusion penal-ties. In 28th international conference on machine learning, page 1, 2011.
拡張機能
異なるペナルティによる組み合わせ
素性選択を可能にするために、この方法を別の適切なペナルティと組み合わせることができる。一般に、ハイパーパラメータγによって制御されるペナルティ項g(B)を追加することができる。
Figure 0006879433
例えば、Bの列に12グループラッソペナルティを配置することにより、素性の選択を実現できる。これは、次のようにgを設定することを意味する。
Figure 0006879433
より詳細には、これにより、分類タスクに関係のない機能が除外されます(つまり、Bの対応する列が0に設定されます)。
別の例は、Bのエントリに追加のl1またはl2ペナルティを設定することである。これにより、分類器の過剰適合を防ぐことができる。これは、次のようにgを設定することを意味する。
Figure 0006879433
指数はq∈{1,2である。例えば、素性i1及び i2の両方がクラス1の訓練サンプルでのみ発生する状況を考え、簡単にするために、∀j ≠ i1 : Sj,i1 = Si1,j = 0 、 ∀j≠i2 : Sj,i2 = Si2,j= 0 、そして、 Si1,i2= 1であるとする。その後、Bのエントリに追加のペナルティを加えることなく、訓練された分類器は、これらの2つの素性に対して、クラス1の無限の重みを付加する(つまり、B1,i1 = ∞, 及びB1,i2 = ∞である)。
[装置動作]
次に、図5を参照して、本発明の実施の形態における回帰装置10の動作について説明する。図5は、本発明の実施の形態における回帰装置によって実行される動作の一例を示すフロー図である。以下の説明では、必要に応じて図1から図4を参照する。 また、本実施の形態では、回帰方法は、回帰装置10を動作させることによって実行される。従って、本実施の形態における回帰方法の説明は、以下の回帰装置10の動作の説明に置き換えられる。
まず、図1に示すように、分類器訓練部11は、ラベル付けされた訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、および類似度を促進するペナルティを使用して、重みベクトルまたは重み行列で分類器を訓練する。機能(ステップS1)。
次に、クラスタリング結果取得部12は、訓練された分類器を用いて、回帰重みが等しい素性をグループ化することにより素性クラスターを特定する(ステップS2)。次に、クラスタリング結果取得部は、特定された素性クラスターを出力する(ステップS3)。
通常の回帰
本発明を通常の回帰に適用するのは簡単であることに注意する必要がある。 y∈Rは、応答変数を示すものとする。 回帰パラメーターベクトルβ∈Rdとクラスタリングとを一緒に学習するために、次の凸最適化問題が用いられる。
Figure 0006879433
解釈可能な分類結果
数19又は数25を使用して訓練された分類器は、新しいデータサンプルx*の分類に使用できる。 なお、通常のロジスティック回帰分類器では、各素性を個別に使用するため、重要な素性を識別することは困難である。例えば、テキスト分類では数千の素性(単語)が存在する可能性がありますが、単語を適切にクラスタリングすると、素性空間が3分の1以上に減少する。したがって、クラスター化された素性空間の検査と解釈ははるかに簡単になる。
[プログラム]
本実施の形態のプログラムは、図5に示すステップA1〜A3をコンピュータに実行させるためのプログラムであればよい。本実施の形態における回帰装置10及び回帰方法は、プログラムをコンピュータにインストールして実行することにより実現することができる。この場合、コンピュータのプロセッサは、分類器訓練部11及びクラスタリング結果取得部12として機能し、処理を実行する。
本実施形態におけるプログラムは、複数のコンピュータを用いて構築されたコンピュータシステムにより実行されてもよい。この場合、例えば、各コンピュータは、分類器訓練部11及びクラスタリング結果取得部12のいずれか1つとして機能してもよい。
また、本実施の形態におけるプログラムを実行することにより回帰装置10を実現するコンピュータについて、図面を参照して説明する。図6は、本発明の実施の形態に係る回帰装置を実現するコンピュータの一例を示すブロック図である。
図6に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェース114と、ディスプレイコントローラ115と、データリーダ/ライタ116と、通信インターフェース117とを備えている。これらのユニットはバス121を介して、相互のデータ通信が可能なように接続されている。
CPU111は、記憶装置113に記憶されている本実施形態に係るプログラム(コード)をメインメモリ112に展開し、これらのコードを所定の順序で実行することにより、各種の演算を実行する。メインメモリ112は通常、DRAM(Dynamic Random Access Memory)などの揮発性記憶装置である。 また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェース117を介して接続されるインターネット上で流通しするものでもよい。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリなどの半導体記憶装置が挙げられる。入力インターフェース114は、CPU111とキーボードまたはマウスなどの入力装置118との間のデータ伝送を仲介する。ディスプレイコントローラ115は、表示装置119に接続されており、表示装置119の表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からプログラムを読み出し、コンピュータ110が実行した処理結果を記録媒体120に書き込む。通信インターフェース117は、CPU111と別のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(コンパクトフラッシュ(登録商標))、SD(セキュアデジタル)等の汎用半導体記憶装置、フレキシブルディスク等の磁気記録媒体、CD-ROM(Compact Disk Read Only Memory)等の光記録媒体などが挙げられる。
本実施の形態における回帰装置10は、プログラムがインストールされたコンピュータだけでなく、様々な構成要素に対応するハードウェアを用いて実現することもできる。また、回帰装置10の一部をプログラムにより実現し、回帰装置10の残りの部分をハードウェアにより実現してもよい。
上記実施形態の一部又は全部は、以下に記載する(付記1)〜(付記9)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
回帰及びクラスタリング基準を同時に最適化するための装置であって、
ラベル付き訓練データ、素性の類似度、回帰精度を素性付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、分類器訓練部と、
訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、クラスタリング結果取得部と、
を備えている、回帰装置。
(付記2)
付記1に記載の回帰装置であって、
損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
ことを特徴とする回帰装置。
(付記3)
付記1に記載の回帰装置であって、
損失関数が、各クラスターの重みと追加のペナルティを有し、
追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
ことを特徴とする回帰装置。
(付記4)
回帰及びクラスタリング基準を同時に最適化するための方法であって、
(a)ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
(b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、ステップと、
を有する、回帰方法。
(付記5)
付記4に記載の回帰方法であって、
損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
ことを特徴とする回帰方法。
(付記6)
付記4に記載の回帰方法であって、
損失関数が、各クラスターの重みと追加のペナルティを有し、
追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
ことを特徴とする回帰方法。
(付記7)
コンピュータによって、回帰及びクラスタリング基準を同時に最適化するためのプログラムであって、
前記コンピュータに、
(a)ラベル付き訓練データ、特徴の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
(b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、ステップと、
を実行させる、プログラム。
(付記8)
付記7に記載のプログラムであって、
損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
ことを特徴とするプログラム
(付記9)
付記7に記載のプログラムであって、
損失関数が、各クラスターの重みと追加のペナルティを有し、
追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
ことを特徴とするプログラム
リスク分類は、サイバー攻撃の検出から、病気、疑わしい電子メールに至るまで、至る所に存在する問題である。ラベル付きデータをもたらす過去のインシデントを使用して、分類器を訓練することで、(早期の)将来のリスク検出が可能となる。但し、新しい洞察と解釈しやすい結果を得るには、どの要因(共変量)の組み合わせがリスクを示しているかを分析することが重要である。共変量(テキスト分類タスク内の単語など)を共同でクラスター化することにより、結果的に分類器の解釈が容易になり、人間の専門家がリスクの種類(共変量のクラスター)に関する仮説を立てるのに役立つ。
10 回帰装置
11 分類器訓練部
12 クラスタリング結果取得部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェース
115 ディスプレイコントローラ
116 データリーダ/ライタ
117 通信インターフェース
118 入力装置
119 表示装置
120 記録媒体
121 バス

Claims (9)

  1. 回帰及びクラスタリング基準を同時に最適化するための装置であって、
    ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、分類器訓練部と、
    訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、クラスタリング結果取得部と、
    を備えている、回帰装置。
  2. 請求項1に記載の回帰装置であって、
    損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
    ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
    ことを特徴とする回帰装置。
  3. 請求項1に記載の回帰装置であって、
    損失関数が、各クラスターの重みと追加のペナルティを有し、
    追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
    ことを特徴とする回帰装置。
  4. 回帰及びクラスタリング基準を同時に最適化するための方法であって、
    (a)ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
    (b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい素性をグループ化することにより素性クラスターを識別する、ステップと、
    を有する、回帰方法。
  5. 請求項4に記載の回帰方法であって、
    損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
    ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
    ことを特徴とする回帰方法。
  6. 請求項4に記載の回帰方法であって、
    損失関数が、各クラスターの重みと追加のペナルティを有し、
    追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
    ことを特徴とする回帰方法。
  7. コンピュータによって、回帰及びクラスタリング基準を同時に最適化するためのプログラムであって、
    前記コンピュータに、
    (a)ラベル付き訓練データ、素性の類似度、回帰精度を特徴付ける損失関数、及び素性の類似度を助長し且つその強度は素性の類似度に比例するペナルティを使用して、重みベクトル又は重み行列で分類器を訓練する、ステップと、
    (b)訓練された分類器を使用して、重みベクトル又は重み行列が等しい特徴をグループ化することにより特徴クラスターを識別する、ステップと、
    を実行させる、プログラム。
  8. 請求項7に記載のプログラムであって、
    損失関数は、素性毎の回帰重みベクトルを含むマルチロジスティック回帰損失であり、ペナルティを含み、
    ペナルティは、素性のペア毎に設定され、素性の重みの各ペア間の距離の測定値と、素性間の類似度で構成される、
    ことを特徴とするプログラム
  9. 請求項7に記載のプログラムであって、
    損失関数が、各クラスターの重みと追加のペナルティを有し、
    追加のペナルティは、大きな重みに科され、クラスターが大きい程小さくなる、
    ことを特徴とするプログラム
JP2020514636A 2017-09-29 2017-09-29 回帰装置、回帰方法、及びプログラム Active JP6879433B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/035745 WO2019064598A1 (en) 2017-09-29 2017-09-29 REGRESSION APPARATUS, REGRESSION METHOD, AND COMPUTER-READABLE STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2020533700A JP2020533700A (ja) 2020-11-19
JP6879433B2 true JP6879433B2 (ja) 2021-06-02

Family

ID=65902813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514636A Active JP6879433B2 (ja) 2017-09-29 2017-09-29 回帰装置、回帰方法、及びプログラム

Country Status (3)

Country Link
US (1) US20200311574A1 (ja)
JP (1) JP6879433B2 (ja)
WO (1) WO2019064598A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705283A (zh) * 2019-09-06 2020-01-17 上海交通大学 基于文本法律法规与司法解释匹配的深度学习方法和系统
CN111712874B (zh) * 2019-10-31 2023-07-14 支付宝(杭州)信息技术有限公司 用于确定声音特性的方法、系统、装置和存储介质
CN111260774B (zh) * 2020-01-20 2023-06-23 北京百度网讯科技有限公司 生成3d关节点回归模型的方法和装置
JP7010337B2 (ja) * 2020-07-03 2022-01-26 楽天グループ株式会社 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム
CN113011597B (zh) * 2021-03-12 2023-02-28 山东英信计算机技术有限公司 一种回归任务的深度学习方法和装置
US11328225B1 (en) * 2021-05-07 2022-05-10 Sas Institute Inc. Automatic spatial regression system
CN113469249B (zh) * 2021-06-30 2024-04-09 阿波罗智联(北京)科技有限公司 图像分类模型训练方法、分类方法、路侧设备和云控平台
JP7384322B2 (ja) 2021-09-29 2023-11-21 株式会社レゾナック 予測モデル作成方法、予測方法、予測モデル作成装置、予測装置、予測モデル作成プログラム、予測プログラム
CN116244612B (zh) * 2023-05-12 2023-08-29 国网江苏省电力有限公司信息通信分公司 一种基于自学习参数度量的http流量聚类方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080126464A1 (en) * 2006-06-30 2008-05-29 Shahin Movafagh Mowzoon Least square clustering and folded dimension visualization
US8849790B2 (en) * 2008-12-24 2014-09-30 Yahoo! Inc. Rapid iterative development of classifiers
US8917910B2 (en) * 2012-01-16 2014-12-23 Xerox Corporation Image segmentation based on approximation of segmentation similarity
US8948500B2 (en) * 2012-05-31 2015-02-03 Seiko Epson Corporation Method of automatically training a classifier hierarchy by dynamic grouping the training samples
US9265441B2 (en) * 2013-07-12 2016-02-23 Siemens Aktiengesellschaft Assessment of traumatic brain injury
JP6270216B2 (ja) * 2014-09-25 2018-01-31 Kddi株式会社 クラスタリング装置、方法及びプログラム
JP6580911B2 (ja) * 2015-09-04 2019-09-25 Kddi株式会社 音声合成システムならびにその予測モデル学習方法および装置
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US11023710B2 (en) * 2019-02-20 2021-06-01 Huawei Technologies Co., Ltd. Semi-supervised hybrid clustering/classification system
US11216619B2 (en) * 2020-04-28 2022-01-04 International Business Machines Corporation Feature reweighting in text classifier generation using unlabeled data

Also Published As

Publication number Publication date
WO2019064598A1 (en) 2019-04-04
US20200311574A1 (en) 2020-10-01
JP2020533700A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6879433B2 (ja) 回帰装置、回帰方法、及びプログラム
Fei et al. Learning cumulatively to become more knowledgeable
JP7470476B2 (ja) 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
Hoi et al. Online feature selection for mining big data
Card et al. Deep weighted averaging classifiers
Bostrom et al. A shapelet transform for multivariate time series classification
Liu et al. Semi-supervised linear discriminant clustering
Do Parallel multiclass stochastic gradient descent algorithms for classifying million images with very-high-dimensional signatures into thousands classes
Tsang et al. Can I trust you more? Model-agnostic hierarchical explanations
Pang et al. Dynamic class imbalance learning for incremental LPSVM
Lamba et al. Feature Selection of Micro-array expression data (FSM)-A Review
Malekipirbazari et al. Performance comparison of feature selection and extraction methods with random instance selection
Alsenan et al. Auto-KPCA: A Two-Step Hybrid Feature Extraction Technique for Quantitative Structure–Activity Relationship Modeling
Kumagai et al. Few-shot learning for feature selection with hilbert-schmidt independence criterion
Naik et al. Multi-task learning
Casalino et al. Enhancing the dissfcm algorithm for data stream classification
Doan et al. Large scale classifiers for visual classification tasks
JP7492088B2 (ja) 重み付き知識移転装置、方法、及びシステム
Schäfer et al. Benchmarking univariate time series classifiers
Yi et al. Learning correlations for human action recognition in videos
Anibal et al. HAL-X: Scalable hierarchical clustering for rapid and tunable single-cell analysis
Theodorou et al. Synthesize extremely high-dimensional longitudinal electronic health records via hierarchical autoregressive language model
Dash et al. Efficient microarray data classification with three-stage dimensionality reduction
de Boer et al. SurvivalLVQ: Interpretable supervised clustering and prediction in survival analysis via Learning Vector Quantization
Davis et al. Decision-directed data decomposition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6879433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150