JP2022114792A - 機械学習プログラム、機械学習方法及び機械学習装置 - Google Patents

機械学習プログラム、機械学習方法及び機械学習装置 Download PDF

Info

Publication number
JP2022114792A
JP2022114792A JP2021011225A JP2021011225A JP2022114792A JP 2022114792 A JP2022114792 A JP 2022114792A JP 2021011225 A JP2021011225 A JP 2021011225A JP 2021011225 A JP2021011225 A JP 2021011225A JP 2022114792 A JP2022114792 A JP 2022114792A
Authority
JP
Japan
Prior art keywords
tensor
mode
machine learning
axis
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021011225A
Other languages
English (en)
Inventor
アルセーニ トルマチョーブ
Tolmachev Arseny
彬 酒井
Akira Sakai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021011225A priority Critical patent/JP2022114792A/ja
Priority to EP21213112.2A priority patent/EP4036764A1/en
Priority to US17/545,064 priority patent/US20220237511A1/en
Publication of JP2022114792A publication Critical patent/JP2022114792A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)
  • Machine Translation (AREA)

Abstract

【課題】機械学習においてデータの細かな繋がり方を捉えやすくする。【解決手段】実施形態の機械学習プログラムは、テンソル形式のデータに含まれるラベルモードの軸と、トポロジーモードの軸とを特定し、トポロジーモードの軸の中から1つの軸を選択する処理をコンピュータに実行させる。また、機械学習プログラムは、第1、第2、第3の処理によってテンソル形式のデータからコアテンソルを算出する処理をコンピュータに実行させる。第1の処理は、中間テンソルに含まれる要素にラベルモードの軸に対応する要素行列に含まれる要素を連結させる。第2の処理は、中間テンソルと1つの軸以外のトポロジーモードの軸に対応する要素行列とのモード積を算出する。第3の処理は、中間テンソルに含まれる要素に1つの軸に対応する要素行列に含まれる要素と、その軸以外のトポロジーモードの軸に対応する要素行列に含まれる要素とを共有して連結させる。【選択図】図8

Description

本発明の実施形態は、機械学習技術に関する。
機械学習により機械学習モデルを生成し、生成した機械学習モデルを用いて予測、分類などを行うシステムの訓練データとしてテンソルデータが用いられることがある。テンソルデータは、n(nは正の整数)次元の配列として表されるが、グラフ、表などによっても表される。図10は、テンソルデータをグラフ形式と表形式により表現した例を示す図である。図10は、化学式の例を示す。図10(a)は、ホルムアルデヒドの化学式をグラフ形式で表したものであり、図10(b)は、ホルムアルデヒドの化学式を表形式で表したものである。
表形式では、始ID、終ID、始素、終素及び結合の5つの軸(列)と、値により化学式が表される。始IDは、繋がりの始点のインデックスである。終IDは、繋がりの終点のインデックスである。なお、始点及び終点へのインデックスの振り方は任意である。始素は、始点の元素の種類である。終素は、終点の元素の種類である。結合は、繋がりの種類である。表形式は、テンソルデータの非ゼロの値のみを行として表現する。図10(b)では、6つの行で表される6つの値だけが1であり、テンソルデータの他の値は0である。テンソルの軸はモードと呼ばれる。
機械学習では、データテンソルは、テンソル分解によりコアテンソルに変換され、コアテンソルを用いて訓練が行われる。図11は、テンソル分解を説明するための図である。図11では、白の立方体は0の要素を示し、網掛けの立方体は非ゼロの要素を示す。図11に示すように、データテンソルは、コアテンソルとモード数個の要素行列にテンソル分解される。図11では、データテンソルは3階であり、モード数は3であるので、データテンソルは、コアテンソルと3個の要素行列にテンソル分解される。
コアテンソルは、データテンソルと各モードの要素行列のモード積により計算される。図12は、モード積によるコアテンソルの計算を説明するための図である。図12(a)は、モード積を示し、図12(b)はコアテンソル計算を示す。図12(a)に示すように、モード積によりモードの要素数がデータテンソルの数からコアテンソルの要素数に変換される。図12(a)の例では、縦方向のモードの要素数が3から2に変換される。また、モード方向の要素に1つでも非ゼロの要素があれば、変換後のモード方向の要素は全て非ゼロとなる。図12(a)の例では、縦方向の3つの要素91には非ゼロが含まれるので変換後の2つの要素92は非ゼロである。なお、コアテンソルにおける各モードの要素数は、ユーザにより指定される。
また、図12(b)に示すように、各モードのモード積を順番に計算することによりコアテンソルが計算される。図12(b)において、Pi(i=1~3)はモードiに対応するモード積を示す。図12(b)に示すように、モード積P1によりデータテンソルから中間テンソル1が計算され、モード積P2により中間テンソル1から中間テンソル2が計算され、モード積P3により中間テンソル2からコアテンソルが計算される。モード積の計算順序は任意である。
n階のテンソルをX、コアテンソルをX^、モードi(i=1~n)の要素行列をWiとすると
Figure 2022114792000002
である。ここで、Rは実数の集合である。IiはXのモードiの要素数であり、JiはX^のモードiの要素数である。
モードkのモード積Pkは、Xを以下の行列X′として、
Figure 2022114792000003
行列積X″=(Wk)T×X′を計算する。ここで、
Figure 2022114792000004
である。そして、X″のモードを再配置して、中間テンソルXintmが得られる。
Figure 2022114792000005
なお、データテンソルに関する従来技術として、ラベルの序列関係を踏まえた機械学習を実行することができるテンソル生成プログラムがある。このプログラムは、複数のノードと複数のノードそれぞれに設定される各属性とを含むグラフ構造を有するデータの入力を受け付ける処理をコンピュータに実行させる。このプログラムは複数のノードと各属性とのそれぞれに対応した次元を有し、複数のノードと各属性との関係、および、複数のノード間の関係に対応した値を設定したテンソルデータを生成する処理をコンピュータに実行させる。このプログラムは、各属性をラベルとして各属性間の序列関係を機械学習する場合に、テンソルデータが有する各属性に対して、序列関係に対応する範囲に値を設定する処理をコンピュータに実行させる。
特開2020-119101号公報 米国特許出願公開第2019/0228304号明細書 米国特許出願公開第2019/0325312号明細書
しかしながら、上記の従来技術では、テンソルデータを用いた機械学習においてデータの細かな繋がり方(細かい構造)が捉えにくくなるという問題がある。
1つの側面では、機械学習においてデータの細かな繋がり方を捉えやすくすることができる機械学習プログラム、機械学習方法及び機械学習装置を提供することを目的とする。
1つの案では、機械学習プログラムは、特定する処理と、選択する処理と、算出する処理と、実行する処理とをコンピュータに実行させる。特定する処理は、テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定する。選択する処理は、特定した複数のトポロジーモードの軸の中から1つの軸を選択する。算出する処理は、第1の処理と、第2の処理と、第3の処理とによってテンソル形式のデータからコアテンソルを算出する。第1の処理は、複数の中間テンソルのうち第1の中間テンソルに含まれる要素にラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる。第2の処理は、複数の中間テンソルのうち第2の中間テンソルと1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する。第3の処理は、複数の中間テンソルのうち第3の中間テンソルに含まれる要素に1つの軸に対応する第3の要素行列に含まれる要素と、第2の要素行列に含まれる要素とを共有して連結させる。実行する処理は、コアテンソルを入力として機械学習モデルの機械学習を実行する。
機械学習においてデータの細かな繋がり方を捉えやすくすることができる。
図1は、ラベルモードとトポロジーモードの例を示す図である。 図2は、非ゼロ要素がまばらな行列と密な行列の行列積を説明するための図である。 図3は、モード積と連結の相違を説明するための図である。 図4は、実施例の概要を説明するための図である。 図5は、インデックスの振りなおしを説明するための図である。 図6は、実施例に係る機械学習装置の機能構成例を示す図である。 図7は、5つのモードを示す図である。 図8は、コアテンソル計算部による処理の手順を示すフローチャートである。 図9は、実施例に係る機械学習プログラムを実行するコンピュータのハードウェア構成を示す図である。 図10は、テンソルデータをグラフ形式と表形式により表現した例を示す図である。 図11は、テンソル分解を説明するための図である。 図12は、モード積によるコアテンソルの計算を説明するための図である。
以下、図面を参照して、実施例にかかる機械学習プログラム、機械学習方法及び機械学習装置を説明する。実施例において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施例で説明する機械学習プログラム、機械学習方法及び機械学習装置は、一例を示すに過ぎず、実施例を限定するものではない。また、以下の実施例は、矛盾しない範囲内で適宜組みあわせてもよい。
まず、ラベルモードとトポロジーモードについて説明する。実施例に係る機械学習装置は、モードをトポロジーモードとラベルモードに分ける。トポロジーモードは、データの繋がりを表現するモードである。ラベルモードは、属性を表すモードである。図1は、ラベルモードとトポロジーモードの例を示す図である。図1に示すように、始ID及び終IDはトポロジーモードであり、始素、終素及び結合はラベルモードである。ラベルモードはトポロジーモードの1つ以上のモードに対応付けられ、ラベルモードの値は対応付けられるトポロジーモードにより決まる。
例えば、始素は始IDに対応付けられ、始素の値は始IDにより決まる。始IDが1であれば始素はCであり、始IDが2又は3であれば始素はHであり、始IDが4であれば始素はOである。また、終素は終IDに対応付けられ、終素の値は終IDにより決まる。終IDが1であれば終素はCであり、終IDが2又は3であれば終素はHであり、終IDが4であれば終素はOである。また、結合は始IDと終IDに対応付けられ、結合の値は始IDと終IDにより決まる。始IDが1であって終IDが2又は3であれば結合は1であり、始IDが1であって終IDが4であれば結合は2である。
ラベルモードは、ワンホット(one-hot)ベクトルとして表現される。ここで、ワンホットベクトルとは、1つの要素だけが1であって他の要素が0であるベクトルである。
次に、実施例に係る機械学習装置によるモード積の連結への変換について説明する。データテンソルにラベルモードが多く含まれると、データテンソルの非ゼロ要素はまばらになる。一方、要素行列は非ゼロ要素が密である。モード積の計算は、行列積X″=(Wk)T×X′の計算であり、データテンソルにラベルモードが多く含まれると、非ゼロ要素がまばらな行列と密な行列の行列積を計算するため、モード積の計算を行うごとに中間テンソルの非ゼロの要素数が指数的に増大する。
図2は、非ゼロ要素がまばらな行列と密な行列の行列積を説明するための図である。図2において、Aは非ゼロ要素がまばらな行列であり、Bは非ゼロ要素が密な行列であり、CはAとBの行列積である。図2において、黒及び網掛けの四角は非ゼロ要素を示し、白の四角はゼロ要素を示す。図2に示すように、Aの行の非ゼロ要素はBの対応する行との積が計算されCの対応する行を形成する。Aの行に1つでも非ゼロ要素があると、Cの対応する行の要素は全て非ゼロとなる。このように、非ゼロ要素がまばらな行列と密な行列の行列積では、非ゼロ要素の数が指数的に増大する。すなわち、モード積の計算を行うごとに中間テンソルの非ゼロの要素数が指数的に増大する。
そこで、実施例に係る機械学習装置は、ラベルモードのモード積を連結(concatenation)に変換する。ここで、連結とは、データテンソル又は中間テンソルの要素に要素行列の要素を付け加えることであり、E操作ともよぶ。このE操作に対して、行列積(モード積)はP操作ともよぶ。
図3は、モード積と連結の相違を説明するための図である。図3は、モード積P2と連結E2の相違を示す。図3において、網掛けの立方体は非ゼロ要素を示し、白の立方体はゼロ要素を示す。nは中間テンソル1のモード「2」に関する非ゼロ要素のサイズであり、mは要素行列2の列の非ゼロ要素のサイズである。
図3に示すように、モード積P2の場合には中間テンソル2のモード「2」に関する非ゼロ要素のサイズはn×mであるのに対して、連結E2の場合には中間テンソル2のモード「2」に関する非ゼロ要素のサイズはn+mである。すなわち、実施例に係る機械学習装置は、ラベルモードのモード積を連結に変換することで、非ゼロ要素の数が線形的に増大するようにする。
非ゼロ要素がまばらなテンソルXは、インデックステーブルIと非ゼロテンソル要素のベクトルVの組(I,V)で混合表現される。混合表現において、Iの行はVの要素の座標に対応し、Iの列はテンソルのモードに対応する。Iのi番目の行
Figure 2022114792000006
は、非ゼロ要素が密なサブテンソルユニットViを指す。混合表現では、ゼロ要素は表現されない。
混合表現においてXと要素行列Wとのモード積は、インデックス分割、テンソル外積、和の順に行われる。例えば、モードnのモード積の計算では、インデックス行は以下の式(1)のように分割される。
Figure 2022114792000007
モード積の出力インデックステーブルI′はI^iから形成される。モード積の出力ベクトルV′のそれぞれの値は、Viの行と対応するWの行の外積の和により以下の式(2)に示すように計算される。また、式(2)の和の計算は、以下の式(3)を満たすiについて行われる。
Figure 2022114792000008
ラベルモードでは、式(2)の和の計算がなくなり、外積だけになる。また、実施例に係る機械学習装置は、連結の出力ベクトルを以下に示す式(4)を用いて計算する。
Figure 2022114792000009
実施例に係る機械学習装置は、テンソル分解により計算したコアテンソルをニューラルネットワークの入力するために、Vの要素をフラットにして連結してニューラルネットワークの入力を作成する。したがって、モード積の外積とベクトル連結は値の数は異なるが同じ情報を含む。このため、ラベルモードのモード積を連結に変換しても、機械学習への影響はない。
また、実施例に係る機械学習装置は、特定した複数のトポロジーモードの軸の中から1つの軸を選択する。例えば、トポロジーモードは、データの繋がりを表現することから、複数(少なくとも繋がりのある1組(2つ))ある。そこで、実施例に係る機械学習装置は、例えばユーザの選択を受け付けるなどして、複数のトポロジーモードの軸の中から説明の対象となりうる軸を1つ選択する。
次いで、実施例に係る機械学習装置は、コアテンソルを計算する際に、ラベルモードの軸に対してはE操作を行い、選択した1つの軸以外のトポロジーモードの軸に対してP操作を行う。また、実施例に係る機械学習装置は、コアテンソルを計算する際に、選択した1つの軸に対しては、その軸以外のトポロジーモードの軸とパラメーター(要素行列の要素)を共有するE操作を行う。このパラメーターを共有するE操作では、選択した1つの軸のパラメーターだけでなく、その軸以外のトポロジーモードの軸のパラメーターも連結するE操作である。
これにより、コアテンソル(コア表現)には、トポロジーモードの軸の中から選択した1つの軸に対応する要素と、その軸以外のトポロジーモードの軸に対応する要素が組み込まれる。このため、コアテンソル(コア表現)にはデータの繋がり方(トポロジー)が含まれることとなり、実施例では、このようなコアテンソルを用いて機械学習を行うことで、データの細かな繋がり方を捉えやすくすることができる。
図4は、実施例の概要を説明するための図である。図4に示すように、実施例に係る機械学習装置は、トポロジーモード、ラベルモードの特定およびトポロジーモードの軸の中の1つの軸の選択を行ったデータテンソルD1に対し、インデックスの振りなおしを行い(S1)、データテンソルD2を得る。
図5は、インデックスの振りなおしを説明するための図である。図5に示すように、実施例に係る機械学習装置は、データテンソルD1について、データの繋がり方(トポロジー)の情報を保ちながらランダムに新しい要素(インデックス)を振りなおすことでデータテンソルD2を生成する。具体的には、実施例に係る機械学習装置は、トポロジーモードの軸(図示例では「始ID」、「終ID」)について、データごと、学習エポックごとにランダムに要素の置換を行う置換テーブルを決める。
次いで、実施例に係る機械学習装置は、同じグループのIDに同じ置換テーブルを使用するように置換テーブルを参照し、データテンソルD1における「始ID」、「終ID」の要素を振りなおすことで、データテンソルD2を生成する。図5の例では、元ID「1」を新ID「2」に、元ID「2」を新ID「3」に、元ID「3」を新ID「1」に、元ID「4」を新ID「4」に振りなおすこととなる。
これにより、データテンソルD2を用いた機械学習では、要素の値にかかわらず同じ推論結果になるように、機械学習モデルのパラメーターを最適化することができる。
図4に戻り、実施例に係る機械学習装置は、データテンソルD2を用いてコアテンソルを計算(コア抽出)する(S2)。具体的は、実施例に係る機械学習装置は、データテンソルD2のラベルモードの軸に対してはE操作を行い、選択した軸以外のトポロジーモードの軸に対してP操作を行う。また、実施例に係る機械学習装置は、データテンソルD2の選択した軸に対しては、その軸以外のトポロジーモードの軸とパラメーターを共有するE操作を行う。
次いで、実施例に係る機械学習装置は、計算したコアテンソルを入力として機械学習モデルの機械学習を実行する(S3、S4)。具体的には、実施例に係る機械学習装置は、機械学習モデルについて、ノード間の情報伝搬(表現伝搬)をして推論した推論結果と、データテンソルD1に付与された正解ラベルとを比較し、機械学習モデルのパラメーターを調整する。
ここで、情報伝搬については、Multihead Self-Attentionなどの公知の手法を用いてよい。また、データごとの推論(例:化学式が示す化合物の毒性)の場合は、Pooling(例えばAverage Pooling)+FCNN(Fully Convolutional Network)であってもよい。ノードごとの推論の場合(例:健康経営、日ごとの出社区分)は、FCNNであってもよい。
次に、実施例に係る機械学習装置の機能構成について説明する。図6は、実施例に係る機械学習装置の機能構成例を示す図である。図6に示すように、実施例に係る機械学習装置1は、コアテンソル計算部11と機械学習部12を有する。
コアテンソル計算部11は、データテンソルD1に関する情報、コアテンソルの各モードの要素数を入力してコアテンソルを計算する。機械学習部12は、コアテンソル計算部11により計算されたコアテンソルを用いて機械学習を行い、機械学習モデルを生成する。生成された機械学習モデルは、分類、予測などに用いられる。
コアテンソル計算部11は、入力部21と、記憶部22と、特定部23と、選択部24と、決定部25と、変換部26と、交換部27と、算出部28とを有する。
入力部21は、データテンソルD1に関する情報、コアテンソルの各モードの要素数を入力して記憶部22に格納する。
記憶部22は、入力部21により入力された情報を記憶する。また、記憶部22は、特定部23、選択部24、決定部25、変換部26、交換部27、算出部28により作成された情報を記憶する。
特定部23は、データテンソルD1の各モードがトポロジーモードであるかラベルモードであるかを特定し、特定結果を記憶部22に格納する。特定部23は、例えば、対象モード以外の全モードの値を固定したときに対象モードの値が1つだけ1であって他は全て0である場合に対象モードをラベルモードと特定し、他の場合には対象モードをトポロジーモードと特定する。なお、データテンソルの各モードがトポロジーモードであるかラベルモードであるかは、入力部21により入力されて記憶部22に格納されてもよい。あるいは、特定部23は、ユーザに問い合わせることでトポロジーモードであるかラベルモードであるかを特定してもよい。
選択部24は、特定部23が特定したトポロジーモード(軸)の中から1つのモード(軸)を選択し、選択結果を記憶部22に格納する。例えば、選択部24は、ユーザに問い合わせて、入力部21により入力された選択結果を記憶部22に格納する。
決定部25は、テンソル分解のモードの順番(実行順序)を、ラベルモードを先にトポロジーモードを後にするように決定し、決定した順番を記憶部22に格納する。なお、決定部25は、選択部24が選択したトポロジーモードについては順番を最後にする。
例えば、図7に示すように、始IDのモードを「1」、終IDのモードを「2」、始素のモードを「3」、終素のモードを「4」、結合のモードを「5」とする。また、始IDのモードを選択部24が選択したモードとする。この図7の例では、決定部25は、P54321をテンソル分解の処理の順番とする。ここで、P54321は、P5、P4、P3、P2、P1の順番にテンソル分解の処理が行われることを示す。
変換部26は、ラベルモードのモード積Pを連結Eに変換し、変換結果を記憶部22に格納する。図7に示した例では、モード「5」、モード「4」及びモード「3」がラベルモードなので、P543がE543に変換され、テンソル分解の処理の順番はE54321となる。
また、変換部26は、トポロジーモードについては、上記のインデックスの振りなおしを行い、ランダムに新しい要素を振りなおした結果を記憶部22に格納する。
また、変換部26は、選択部24が選択したトポロジーモードについては、モード積Pを他のトポロジーモードとパラメーターを共有する連結Eに変換し、変換結果を記憶部22に格納する。図7に示した例では、モード「1」及びモード「2」がラベルモードであり、モード「1」が選択したモードである。したがって、変換部26は、P1をP2とパラメーターを共有するE1(P2)に変換する。これにより、テンソル分解の処理の順番は、E54321(P2)となる。
交換部27は、連結Eをできるだけ後で処理するように処理の順番を交換し、交換結果を記憶部22に格納する。ただし、変換部26は、ラベルモードの処理をラベルモードに対応付けられたトポロジーモードの処理よりも前に行わなければならず、パラメーターを共有する連結Eは最後という制約の下に、処理の順番を交換する。
例えば、E54321(P2)において、E3をできるだけ後に処理する場合に、モード「3」はモード「1」に対応付けられるので、E3はP1より前に行われなければならない。したがって、E3とP2の交換が行われ、E54321(P2)はE54231(P2)となる。モード「5」とモード「4」はモード「2」に対応付けられるので、これ以上の交換は行われない。連結Eをできるだけ後で処理することで、コアテンソル計算部11は、中間テンソルの非ゼロ要素の数をさらに減らすことができる。
交換部27は、ラベルモードに対応付けられたトポロジーモードを、例えば、ユーザに問い合わせることで特定する。なお、ラベルモードに対応付けられたトポロジーモードは、入力部21により入力されて記憶部22に格納されてもよい。
算出部28は、交換部27による交換結果に基づいてテンソル分解を行い、コアテンソルを算出する。そして、算出部28は、算出したコアテンソルの情報を記憶部22に格納する。算出部28は、モード積部31と連結部32を有する。モード積部31は、トポロジーモードについてモード積の計算(P操作)を行う。連結部32は、ラベルモードについて連結計算(E操作)、選択したモードについてパラメーターを共有する連結計算(E操作)を行う。
次に、コアテンソル計算部11による処理の手順について説明する。図8は、コアテンソル計算部11による処理の手順を示すフローチャートである。より具体的には、図8は、図4におけるS2に関する処理の手順を示している。
図8に示すように、コアテンソル計算部11は、データテンソルの各モードについて、トポロジーモードであるかラベルモードであるかを特定する(ステップS11)。次いで、コアテンソル計算部11は、トポロジーモードの中の1つを選択する(ステップS12)。
次いで、コアテンソル計算部11は、ラベルモード、トポロジーモードの順番にテンソル分解の順番を決定する(ステップS13)。ここで、コアテンソル計算部11は、ステップS12で選択したモードを順番の最後に決定する。
次いで、コアテンソル計算部11は、ラベルモードの処理をPからEに変換する(ステップS14)。次いで、コアテンソル計算部11は、ラベルモードの処理をラベルモードに対応付けられたトポロジーモードの処理よりも前に行わなければならないという制約の下でEをなるべく後に処理するようにEとPを交換する(ステップS15)。
次いで、コアテンソル計算部11は、ステップS12で選択したモードの処理をPからEに変換する(ステップS16)。この変換において、コアテンソル計算部11は、パラメーターは他のPと共有するものとする。次いで、コアテンソル計算部11は、交換により得られた順番でコアテンソルを計算する(ステップS17)。
以上のように、実施例では、特定部23が、テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定する。また、選択部24が、特定した複数のトポロジーモードの軸の中から1つの軸を選択する。また、算出部28が、第1の処理と、第2の処理と、第3の処理とによってテンソル形式のデータからコアテンソルを算出する。第1の処理は、中間テンソルに含まれる要素にラベルモードの軸に対応する要素行列に含まれる要素を連結させる。第2の処理は、中間テンソルと選択した1つの軸以外のトポロジーモードの軸に対応する要素行列とのモード積を算出する。第3の処理は、中間テンソルに含まれる要素に選択した1つの軸に対応する要素行列に含まれる要素と、その軸以外のトポロジーモードの軸に対応する要素行列に含まれる要素とを共有して連結させる。また、機械学習部12が、コアテンソル計算部11が算出したコアテンソルを入力として機械学習モデルの機械学習を実行する。
これにより、コアテンソル(コア表現)には、トポロジーモードの軸の中から選択した1つの軸に対応する要素と、その軸以外のトポロジーモードの軸に対応する要素が組み込まれ、データの繋がり方(トポロジー)が含まれることとなる。したがって、実施例では、このようなコアテンソルを用いて機械学習を行うことで、データの細かな繋がり方を捉えやすくすることができる。
また、実施例では、第3の処理を実行順序の最後とすることで、データの繋がり方(トポロジー)を最後に組み込むようにしたコアテンソル(コア表現)を機械学習に用いることができる。このため、実施例では、機械学習においてデータの細かな繋がり方をより捉えやすくすることができる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、実施例では、機械学習装置1について説明したが、機械学習装置1が有する構成をソフトウェアによって実現することで、同様の機能を有する機械学習プログラムを得ることができる。そこで、機械学習プログラムを実行するコンピュータについて説明する。
図9は、実施例に係る機械学習プログラムを実行するコンピュータのハードウェア構成を示す図である。図9に示すように、コンピュータ50は、メインメモリ51と、CPU(Central Processing Unit)52と、LAN(Local Area Network)インタフェース53と、HDD(Hard Disk Drive)54とを有する。また、コンピュータ50は、スーパーIO(Input Output)55と、DVI(Digital Visual Interface)56と、ODD(Optical Disk Drive)57とを有する。
メインメモリ51は、プログラムやプログラムの実行途中結果等を記憶するメモリである。CPU52は、メインメモリ51からプログラムを読み出して実行する中央処理装置であり、制御部の一例でもある。CPU52は、メモリコントローラを有するチップセットを含む。
LANインタフェース53は、コンピュータ50をLAN経由で他のコンピュータに接続するためのインタフェースである。HDD54は、プログラムやデータを格納するディスク装置であり、スーパーIO55は、マウスやキーボード等の入力装置を接続するためのインタフェースである。DVI56は、液晶表示装置を接続するインタフェースであり、ODD57は、DVD、CD-Rの読み書きを行う装置である。
LANインタフェース53は、PCIエクスプレス(PCIe)によりCPU52に接続される。HDD54及びODD57は、SATA(Serial Advanced Technology Attachment)によりCPU52に接続される。スーパーIO55は、LPC(Low Pin Count)によりCPU52に接続される。
そして、コンピュータ50において実行される機械学習プログラムは、例えばコンピュータ50により読み出し可能な記録媒体の一例であるCD-Rに記憶され、ODD57によってCD-Rから読み出されてコンピュータ50にインストールされる。あるいは、機械学習プログラムは、LANインタフェース53を介して接続された他のコンピュータシステムのデータベース等に記憶され、これらのデータベースから読み出されてコンピュータ50にインストールされる。そして、インストールされた機械学習プログラムは、HDD54に記憶され、メインメモリ51に読み出されてCPU52によって実行される。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
前記コアテンソルを入力として機械学習モデルの機械学習を実行する
処理をコンピュータに実行させることを特徴とする機械学習プログラム。
(付記2)前記第1の処理と前記第2の処理と前記第3の処理との実行順序を決定する処理を前記コンピュータにさらに実行させ、
前記決定する処理により決定された順序で前記第1の処理と前記第2の処理と前記第3の処理とを実行することを特徴とする付記1に記載の機械学習プログラム。
(付記3)前記決定する処理は、前記第3の処理を前記実行順序の最後に決定する
ことを特徴とする付記2に記載の機械学習プログラム。
(付記4)テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
前記コアテンソルを入力として機械学習モデルの機械学習を実行する
処理をコンピュータが実行することを特徴とする機械学習方法。
(付記5)前記第1の処理と前記第2の処理と前記第3の処理との実行順序を決定する処理を前記コンピュータがさらに実行し、
前記決定する処理により決定された順序で前記第1の処理と前記第2の処理と前記第3の処理とを実行することを特徴とする付記4に記載の機械学習方法。
(付記6)前記決定する処理は、前記第3の処理を前記実行順序の最後に決定する
ことを特徴とする付記5に記載の機械学習方法。
(付記7)テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
前記コアテンソルを入力として機械学習モデルの機械学習を実行する
処理を実行する制御部を含むことを特徴とする機械学習装置。
(付記8)前記第1の処理と前記第2の処理と前記第3の処理との実行順序を決定する処理を前記制御部がさらに実行し、
前記決定する処理により決定された順序で前記第1の処理と前記第2の処理と前記第3の処理とを実行することを特徴とする付記7に記載の機械学習装置。
(付記9)前記決定する処理は、前記第3の処理を前記実行順序の最後に決定する
ことを特徴とする付記8に記載の機械学習装置。
1…機械学習装置
11…コアテンソル計算部
12…機械学習部
21…入力部
22…記憶部
23…特定部
24…選択部
25…決定部
26…変換部
27…交換部
28…算出部
31…モード積部
32…連結部
50…コンピュータ
51…メインメモリ
52…CPU
53…LANインタフェース
54…HDD
55…スーパーIO
56…DVI
57…ODD
A、B…行列
C…行列積
D1、D2…データテンソル

Claims (5)

  1. テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
    特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
    前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
    前記コアテンソルを入力として機械学習モデルの機械学習を実行する
    処理をコンピュータに実行させることを特徴とする機械学習プログラム。
  2. 前記第1の処理と前記第2の処理と前記第3の処理との実行順序を決定する処理を前記コンピュータにさらに実行させ、
    前記決定する処理により決定された順序で前記第1の処理と前記第2の処理と前記第3の処理とを実行することを特徴とする請求項1に記載の機械学習プログラム。
  3. 前記決定する処理は、前記第3の処理を前記実行順序の最後に決定する
    ことを特徴とする請求項2に記載の機械学習プログラム。
  4. テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
    特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
    前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
    前記コアテンソルを入力として機械学習モデルの機械学習を実行する
    処理をコンピュータが実行することを特徴とする機械学習方法。
  5. テンソル形式のデータに含まれる複数の軸のうち、ラベルモードの軸と、トポロジーモードの軸とを特定し、
    特定した複数の前記トポロジーモードの軸の中から1つの軸を選択し、
    前記テンソル形式のデータから複数の中間テンソルを介してコアテンソルを算出する際、前記複数の中間テンソルのうち第1の中間テンソルに含まれる要素に前記ラベルモードの軸に対応する第1の要素行列に含まれる要素を連結させる第1の処理と、前記複数の中間テンソルのうち第2の中間テンソルと前記1つの軸以外のトポロジーモードの軸に対応する第2の要素行列とのモード積を算出する第2の処理と、前記複数の中間テンソルのうち第3の中間テンソルに含まれる要素に前記1つの軸に対応する第3の要素行列に含まれる要素と、前記第2の要素行列に含まれる要素とを共有して連結させる第3の処理とによって、前記テンソル形式のデータから前記コアテンソルを算出し、
    前記コアテンソルを入力として機械学習モデルの機械学習を実行する
    処理を実行する制御部を含むことを特徴とする機械学習装置。
JP2021011225A 2021-01-27 2021-01-27 機械学習プログラム、機械学習方法及び機械学習装置 Pending JP2022114792A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021011225A JP2022114792A (ja) 2021-01-27 2021-01-27 機械学習プログラム、機械学習方法及び機械学習装置
EP21213112.2A EP4036764A1 (en) 2021-01-27 2021-12-08 Machine learning program, machine learning method, and machine learning apparatus
US17/545,064 US20220237511A1 (en) 2021-01-27 2021-12-08 Storage medium, machine learning method, and machine learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021011225A JP2022114792A (ja) 2021-01-27 2021-01-27 機械学習プログラム、機械学習方法及び機械学習装置

Publications (1)

Publication Number Publication Date
JP2022114792A true JP2022114792A (ja) 2022-08-08

Family

ID=78824807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021011225A Pending JP2022114792A (ja) 2021-01-27 2021-01-27 機械学習プログラム、機械学習方法及び機械学習装置

Country Status (3)

Country Link
US (1) US20220237511A1 (ja)
EP (1) EP4036764A1 (ja)
JP (1) JP2022114792A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7006297B2 (ja) 2018-01-19 2022-01-24 富士通株式会社 学習プログラム、学習方法および学習装置
JP7063080B2 (ja) 2018-04-20 2022-05-09 富士通株式会社 機械学習プログラム、機械学習方法および機械学習装置
JP2020119101A (ja) 2019-01-21 2020-08-06 富士通株式会社 テンソル生成プログラム、テンソル生成方法およびテンソル生成装置

Also Published As

Publication number Publication date
US20220237511A1 (en) 2022-07-28
EP4036764A1 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
US10764370B2 (en) Hybrid cloud migration delay risk prediction engine
Mebane Jr et al. Genetic optimization using derivatives: the rgenoud package for R
Legrain et al. A rotation-based branch-and-price approach for the nurse scheduling problem
CN113767388A (zh) 用于工作流分析和设计任务优化的技术
US20030208284A1 (en) Modular architecture for optimizing a configuration of a computer system
US9590858B2 (en) Identifying a nearest connection
JP6628455B2 (ja) データ照会方法および装置ならびにデータベースシステム
US20160350668A1 (en) Risk evaluation
US20160350446A1 (en) Linear array hierarchy navigation
US20170372412A1 (en) Quantum-Annealing Computer Method for Selecting the Optimum Bids in a Combinatorial Auction
US20180253513A1 (en) Combination map based composite design
Park et al. A modeling framework for business process reengineering using big data analytics and a goal-orientation
JP6925546B1 (ja) 演算システム、情報処理装置、および最適解探索処理方法
Ab Rashid et al. Integrated optimization of mixed-model assembly sequence planning and line balancing using multi-objective discrete particle swarm optimization
Huh et al. A general strategic capacity planning model under demand uncertainty
CN108427709A (zh) 一种多源海量数据处理系统及方法
JP7087871B2 (ja) 最適化問題演算プログラム、最適化問題演算方法および最適化問題演算装置
JP2022114792A (ja) 機械学習プログラム、機械学習方法及び機械学習装置
US11256748B2 (en) Complex modeling computational engine optimized to reduce redundant calculations
US20150347507A1 (en) Hierarchical query plans in an elastic parallel database management system
CN115146485A (zh) 基于gpu加速的射频链路仿真方法
JP4608288B2 (ja) オプションの複雑性を評価する方法、コンピュータ・ソフトウェアおよびコンピュータ・システム
WO2022079815A1 (ja) 機械学習プログラム、機械学習方法及び機械学習装置
JP2005208709A (ja) データ分類処理装置、およびデータ分類処理方法、並びにコンピュータ・プログラム
Felizardo et al. Reinforcement learning approaches for the stochastic discrete lot-sizing problem on parallel machines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618