JP2017059071A - Optimization device, optimization method and optimization program - Google Patents
Optimization device, optimization method and optimization program Download PDFInfo
- Publication number
- JP2017059071A JP2017059071A JP2015184601A JP2015184601A JP2017059071A JP 2017059071 A JP2017059071 A JP 2017059071A JP 2015184601 A JP2015184601 A JP 2015184601A JP 2015184601 A JP2015184601 A JP 2015184601A JP 2017059071 A JP2017059071 A JP 2017059071A
- Authority
- JP
- Japan
- Prior art keywords
- value
- lattice
- optimization
- output
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 title claims description 25
- 230000005283 ground state Effects 0.000 claims abstract description 41
- 238000004215 lattice model Methods 0.000 claims abstract description 36
- 230000006870 function Effects 0.000 claims abstract description 30
- 230000008569 process Effects 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 26
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 230000008878 coupling Effects 0.000 description 118
- 238000010168 coupling process Methods 0.000 description 118
- 238000005859 coupling reaction Methods 0.000 description 118
- 230000005366 Ising model Effects 0.000 description 49
- 230000003993 interaction Effects 0.000 description 30
- 238000012545 processing Methods 0.000 description 24
- 239000002096 quantum dot Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000013507 mapping Methods 0.000 description 13
- 241000282326 Felis catus Species 0.000 description 7
- 238000000137 annealing Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005040 ion trap Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000005359 quantum Heisenberg model Effects 0.000 description 1
- 230000005610 quantum mechanics Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、最適化装置、最適化方法および最適化プログラムに関する。 The present invention relates to an optimization device, an optimization method, and an optimization program.
近年、多層に接続されたニューロン(以下、ノードと記載する場合がある。)を有するDNN(Deep Neural Network)を利用して言語認識や画像認識の学習を行うディープラーニングに関する技術が知られている。このようなDNNでは、所定の重み係数がそれぞれ個別に設定された接続経路を介して、異なる層のノード同士が接続されており、あるノードが出力した値を、接続経路に設定された重み係数で補正した値が、他の層のノードへと伝達されている。 2. Description of the Related Art In recent years, a deep learning technique for learning language recognition and image recognition using a DNN (Deep Neural Network) having neurons connected in multiple layers (hereinafter sometimes referred to as nodes) has been known. . In such a DNN, nodes in different layers are connected to each other through connection paths in which predetermined weight coefficients are individually set, and a value output by a certain node is used as a weight coefficient set in the connection path. The value corrected in (1) is transmitted to the nodes of other layers.
このようなDNNに言語や画像等の特徴を学習させるため、バックプロパゲーション法などを用いて、DNNが入力データの特徴を適切に抽出できるように、各接続経路に設定された重み係数を試行錯誤的に設定する手法が用いられている。しかしながら、このような手法では、ノードの数や層の数が増加するに従って計算量が増大するため、入力データの特徴を適切に抽出できるように各接続経路の重み係数を最適化する処理が困難となる。 In order to allow such DNN to learn features such as language and images, a weighting factor set for each connection path is tried so that DNN can appropriately extract features of input data using a back-propagation method. An error-setting method is used. However, with such a method, the amount of calculation increases as the number of nodes and the number of layers increase, and therefore it is difficult to optimize the weighting factor of each connection path so that the features of the input data can be appropriately extracted. It becomes.
一方で、量子力学的な状態の重ね合わせを用いることで、従来の計算装置では実現できない規模の並列性を実現する量子計算の技術が研究されている。例えば、このような量子計算の技術として、複数の入力を重ね合わせ状態とすることで、所定の条件に対する最適解や入力された情報が有する周期等を従来の計算装置よりも高速に求める技術が提案されている。 On the other hand, a quantum computing technique that achieves parallelism on a scale that cannot be achieved by conventional computing devices by using superposition of quantum mechanical states has been studied. For example, as a technique of such quantum computation, there is a technique for obtaining an optimal solution for a predetermined condition, a period of input information, and the like at a higher speed than a conventional computing device by superposing a plurality of inputs. Proposed.
しかしながら、DNNの各接続経路の重み係数を最適化するための量子計算の手法については、これまで提案されていなかった。このため、DNNの学習には、多くの時間や計算資源が必要である。 However, a quantum calculation method for optimizing the weighting factor of each connection path of DNN has not been proposed so far. For this reason, learning of DNN requires a lot of time and computational resources.
本願は、上記に鑑みてなされたものであって、DNNの各接続経路の重み係数を最適化する最適化装置、最適化方法および最適化プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an optimization device, an optimization method, and an optimization program for optimizing the weighting coefficient of each connection path of a DNN.
本願に係る最適化装置は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器の最適化を行う最適化装置であって、異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、前記格子点の値に対応する前記係数の値を出力することを特徴とする。 The optimization device according to the present application is an optimization device that performs optimization of a learning device in which layers including one or more nodes that output an operation result according to input data are connected in multiple stages, and are applied to different layers. The value of the coefficient set for the connection path between the included nodes is applied to the lattice points of the lattice model, and the weight value for connecting the lattice points of the lattice model is determined based on the characteristics indicated by the input data and the output data. A lattice function in the ground state of the generated characteristic function is generated in a quantum computing device that generates a specific function of the lattice model as an input value and obtains a ground state of the lattice model having a minimum characteristic function value using quantum fluctuations. A value of the point is calculated, and the value of the coefficient corresponding to the value of the grid point is output.
実施形態の一態様によれば、DNNの各接続経路の重み係数を最適化できるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the weighting coefficient of each connection path of the DNN can be optimized.
以下に、本願に係る最適化装置、最適化方法および最適化プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る最適化装置、最適化方法および最適化プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a mode for carrying out an optimization apparatus, an optimization method, and an optimization program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the optimization apparatus, the optimization method, and the optimization program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
〔1.最適化処理〕
まず、図1を用いて、実施形態に係る最適化処理の一例について説明する。図1は、実施形態に係る最適化処理の一例を示す図である。図1では、入力された入力データに対して所定の演算を行い、出力データを出力する学習器Leを最適化する最適化装置10を例に挙げ、入力データが有する特徴を適切に抽出することができるように学習器Leを最適化する最適化処理の一例について説明する。
[1. Optimization process)
First, an example of the optimization process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of optimization processing according to the embodiment. In FIG. 1, an
まず、最適化装置10が最適化する学習器Leについて説明する。例えば、図2は、学習器の一例を説明する図である。例えば、学習器Leは、図2中(A)に示すように、入力されたデータに対する演算結果を出力する複数のノードn(例えば、ニューロン)を多段に接続したDNNである。具体的には、学習器Leは、入力データを入力する入力層IL、入力データの特徴を抽出する1つ又は複数の中間層ML、入力データに対応する出力データを出力する出力層OLとを有する。
First, the learning device Le optimized by the
入力層IL、中間層ML及び出力層OLは、それぞれ1つ以上のノードnを有する。各ノードnは、入力層ILに含まれるノードnから中間層MLに含まれるノードnを介して、出力層OLに含まれるノードnへと順次接続される。例えば、図2中(B)に示すように、入力層ILの各ノードnは、中間層MLに含まれるノードnのうち1つ以上のノードと接続されており、中間層MLに含まれるノードnは、出力層OLに含まれるノードnのうち1つ以上のノードと接続されている。すなわち、学習器Leは、図2中(C)に示すように、入力装置ILから出力層OLまで多段にノードnを接続した構成を有する。 The input layer IL, the intermediate layer ML, and the output layer OL each have one or more nodes n. Each node n is sequentially connected from the node n included in the input layer IL to the node n included in the output layer OL via the node n included in the intermediate layer ML. For example, as illustrated in FIG. 2B, each node n of the input layer IL is connected to one or more nodes n included in the intermediate layer ML, and is included in the intermediate layer ML. n is connected to one or more nodes among the nodes n included in the output layer OL. That is, the learning device Le has a configuration in which nodes n are connected in multiple stages from the input device IL to the output layer OL, as shown in FIG.
ここで、ノードn同士を接続する各接続経路には、結合係数(すなわち、重みの値)が設定されており、あるノードnが出力した演算結果が、結合係数の値に基づいて他のノードnに伝達される。例えば、入力層ILのノードnと中間層MLのノードnとを接続する接続経路に結合係数「ω」が設定されている場合、中間層MLのノードには、入力層ILのノードnが出力した演算結果に結合係数「ω」を積算した値が入力される。そして、中間層MLのノードnは、入力された値に基づく演算結果を出力する。 Here, a coupling coefficient (that is, a weight value) is set in each connection path that connects the nodes n, and the calculation result output by a certain node n is based on the value of the coupling coefficient. transmitted to n. For example, when the coupling coefficient “ω” is set in the connection path connecting the node n of the input layer IL and the node n of the intermediate layer ML, the node n of the input layer IL is output to the node of the intermediate layer ML. A value obtained by adding the coupling coefficient “ω” to the calculated result is input. Then, the node n in the intermediate layer ML outputs a calculation result based on the input value.
例えば、図3は、学習器が有するノードの入力と出力とを説明する図である。例えば、図3中(A)に示すように、あるノードnに入力される値をxjとし、値xjが入力された際にノードnが出力する値をyjとすると、yjは、図3中(B)に示すように、以下の式(1)で表すことができる。 For example, FIG. 3 is a diagram illustrating the input and output of a node included in the learning device. For example, as shown in FIG. 3A, if a value input to a certain node n is x j and a value output by the node n when the value x j is input is y j , y j is As shown in FIG. 3B, it can be expressed by the following formula (1).
ここで、f(xj)は、値xjに応じた値を出力する関数であり、例えば、以下の式(2)で示すロジスティックシグモイド関数、式(3)で示す双曲線正接関数、以下の式(4)で示すReLU(Rectified Liner Unit)等である。 Here, f (x j ) is a function that outputs a value corresponding to the value x j . For example, a logistic sigmoid function expressed by the following equation (2), a hyperbolic tangent function expressed by the following equation (3), ReLU (Rectified Liner Unit) shown in Formula (4).
ここで、図3中(C)に示すように、各ノードnを多段に接続した場合、ノードnjに入力されるデータxjは、下位の層に含まれる各ノードの出力に、各接続経路に設定された結合係数を積算した値の総和となる。より具体的には、ノードnjに入力されるデータxjは、図3中(D)に示すように、以下の式(5)で示す値となる。ここで、式(5)に記載されたbjは、所定の定数であり、yiは、下位のノードn1〜niが出力した値であり、ωijは、ノードniからノードnjへの接続経路に設定された結合係数の値である。なお、以下の説明で明らかとなるように、最適化装置10は、結合係数の値を重ね合わせ状態にして、最適な結合係数の値を算出するため、式(5)では、ωijをブラケット表記で囲んだ。
Here, as shown in FIG. 3C, when each node n is connected in multiple stages, the data x j input to the node n j is connected to the output of each node included in the lower layer. This is the sum of the values obtained by integrating the coupling coefficients set for the path. More specifically, the data x j input to the node n j has a value represented by the following equation (5) as shown in (D) in FIG. Here, b j described in Expression (5) is a predetermined constant, y i is a value output from the lower nodes n 1 to n i , and ω ij is from node n i to node n This is the value of the coupling coefficient set in the connection path to j . Incidentally, as will become apparent in the following description, the
このような学習器Leは、画像、文章、映像、音声等の特徴を学習することができる。例えば、学習器Leは、猫の特徴を学習することで、入力データとして入力された画像の一部に猫が撮影されている場合は、入力された画像のうち猫の部分を強調した画像を出力データとして出力することができる。なお、学習器Leが出力する出力データは、上述した形態に限定されるものではなく、例えば、猫が画像に含まれるか否かを示すデータが出力されてもよい。すなわち、学習器Leは、入力データに含まれる特徴を示す情報であれば、任意の情報を出力することができる。 Such a learning device Le can learn features such as images, sentences, videos, and voices. For example, the learning device Le learns the characteristics of a cat, and when a cat is photographed in a part of an image input as input data, an image that emphasizes the cat portion of the input image is displayed. It can be output as output data. Note that the output data output from the learning device Le is not limited to the above-described form. For example, data indicating whether or not a cat is included in the image may be output. That is, the learning device Le can output arbitrary information as long as it is information indicating the characteristics included in the input data.
ここで、学習器Leの学習手法としては、例えば、バックプロパゲーション法等が知られている。例えば、バックプロパゲーション法では、所定の入力データ101を学習器Leに入力した際に学習器Leに出力させたいデータと実際に出力した出力データ102との誤差が解消されるように、出力層OL側から各接続経路の結合係数を修正する。しかしながら、このような学習手法では、ノードの数や層の数が増えるに従い、結合係数の修正が困難となる。
Here, as a learning method of the learning device Le, for example, a back propagation method or the like is known. For example, in the back-propagation method, when the
そこで、最適化装置10は、入力データの特徴を適切に学習した学習器Leの結合係数の値を出力する。具体的には、最適化装置10は、学習器Leに入力する入力データと、入力データの特徴を学習した学習器Leが出力するであろう出力データとを受付ける。また、最適化装置10は、各接続経路に設定される結合係数の値を格子モデルの各格子点にあてはめ、受付けた入力データと出力データとが示す特徴に基づいて、格子モデルの格子点間の相互作用を示す係数、すなわち、格子点を連結する重みの値を設定した格子モデルの特定関数を生成する。そして、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、生成された特性関数の基底状態における格子点の値を算出させ、算出された格子点の値を結合係数の値として出力する。
Therefore, the
すなわち、最適化装置10は、イジングモデルにおける格子点に学習器Leの結合係数をマッピングする。また、最適化装置10は、取得された入力データから、取得された出力データを出力するような学習器Leの結合係数の条件に基づいて、格子点間の相互作用を示す係数を設定する。そして、最適化装置10は、量子アニーリング等、量子揺らぎの特性を用いて計算を行う量子計算装置に、生成した格子モデルの特性関数、すなわちハミルトニアンの値が最小値となる状態、すなわちイジングモデルの基底状態を算出させる。
That is, the
その後、最適化装置10は、量子計算装置に算出させたイジングモデルの基底状態から結合係数の値を逆マッピングし、再生した結合係数の値を、取得した入力データと出力データとに対して最適化された結合係数、すなわち、入力データの特徴を学習した学習器L3の結合係数として出力する。なお、最適化装置10は、必ずしも学習器Leそのものを保持する必要はない。すなわち、最適化装置10は、学習器Leの接続係数を最適化させればよく、学習器Leとして動作する情報処理装置でなくともよい。
Thereafter, the
図1に戻り、最適化装置10による最適化処理の一例を流れに沿って説明する。まず、図1に示した例において、最適化装置10は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器Leの最適化を行う装置である。例えば、最適化装置100は、特徴データ100を取得する。特徴データ100は、学習器Leに学習させる特徴を含むデータである。例えば、図1に示す例では、特徴データ100には、入力データ101と出力データ102とが含まれる。入力データ101および出力データ102は、例えば、猫を含む動物や果物等が撮影された画像である。
Returning to FIG. 1, an example of optimization processing by the
ここで、出力データ102は、入力データ101を学習器Leに入力した際に出力させたい画像として、あらかじめ作成された画像である。例えば、学習器Leに猫の外見的特徴を学習させ、入力された画像のうち猫が撮影された範囲のコントラストを強調させる場合、オペレータは、入力データ101に含まれる被写体のうち、猫のコントラストを強調した画像を出力データ102として生成する。なお、特徴データ100には、入力データ101および出力データ102以外にも、複数の入力データおよび出力データの組が含まれているものとする。
Here, the
かかる場合、最適化装置10は、特徴データ100として、入力データ101と出力データ102とを取得する(ステップS1)。かかる場合、最適化装置10は、学習器Leの結合係数を、入力データ101が入力された場合に出力データ102を出力するよう最適化する最適化処理を実行する。より具体的には、最適化装置10は、学習器Leのノード間の結合係数を各ノードにマッピングし、入力データと出力データとに基づいて、ノード間を接続する重みの値を設定する(ステップS2)。すなわち、最適化装置10は、入力データ101と出力データ102が示す特徴、すなわち、学習器Leに学習させる特徴に基づいて、イジングモデルの特性関数であるハミルトニアンを生成する。
In such a case, the
以下、最適化装置10がイジングモデルのハミルトニアンを生成する処理の一例について説明する。なお、以下の説明では、イジングモデルに学習器Leの結合係数をマッピングする処理の一例について説明するが、最適化装置10は、ハイゼンベルクモデルやXYモデル等、任意の次元の格子モデル(すなわち、n次元ベクトルモデル)に学習器Leの結合係数をマッピングしたハミルトニアンを生成してもよい。
Hereinafter, an example of processing in which the
例えば、イジングモデルのハミルトニアンは、以下の式(6)によって示される。ここで、式(6)に示すHとは、イジングモデルの全エネルギーを示すハミルトニアンであり、Siは、格子点iの値であり、Sjは格子点jの値であり、Jは格子点間の相互作用を示す係数である。なお、SiとSjとは、±1の値を取る。 For example, the Ising model Hamiltonian is expressed by the following equation (6). Here, H in equation (6) is a Hamiltonian indicating the total energy of the Ising model, S i is the value of lattice point i , S j is the value of lattice point j , and J is the lattice A coefficient indicating the interaction between points. Note that S i and S j take a value of ± 1.
ここで、Jの値が格子点間によって異なるとすると、ハミルトニアンは、以下の式(7)で表すことができる。 Here, assuming that the value of J varies between lattice points, the Hamiltonian can be expressed by the following equation (7).
ここで、最適化装置10は、ノード間の結合係数をイジングモデルにおける各格子点の値「1」または「−1」にマッピングする。例えば、最適化装置10は、学習器Leに含まれる全ての接続経路に設定される結合係数の値の組み合わせを、それぞれ異なる格子点にあてはめる。このようなマッピングを行った場合、最適化装置10は、学習器Leに含まれる全ての結合係数の値の組み合わせをそれぞれω1〜ωnで表すと、ω1を格子点S1にマッピングし、ω2を格子点S2にマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点S1〜Snにマッピングする。
Here, the
また、最適化装置10は、入力データ101と出力データ102とに基づいて、各格子点間の相互作用を示す係数の値Jを設定する。例えば、最適化装置10は、入力データ101が入力された際に、出力データ102を出力する学習器Leにおいて、2つの格子点にマッピングした結合係数の値を同一の値とする場合は、この2つの格子点間の相互作用を示す係数の値Jを負の値に設定する。一方、最適化装置10は、入力データ101が入力された際に、出力データ102を出力する学習器Leにおいて、2つの格子点にマッピングした結合係数の値を異なる値とする場合は、この2つの格子点間の相互作用を示す係数の値Jを正の値に設定する。
Further, the
また、最適化装置10は、各結合係数の値が同一であるか異なる値であるかの条件の相対的な強さに応じて、係数の値Jの絶対値の値を変更する。例えば、最適化装置10は、ある2つの格子点にマッピングした結合係数の値を同一にするという条件を、他の条件よりも強くしたい場合は、この2つの格子点間の相互作用を示す係数の値Jとして、他の格子点間の相互作用を示す係数の値の絶対値よりも、絶対値が小さい値を設定する。
Further, the
より具体的な例について説明する。例えば、最適化装置10は、結合係数の組ごとに、かかる結合係数の組を有する学習器Leを準備し、入力データ101を各学習器Leに入力する。また、最適化装置10は、各学習器Leのうち、出力したデータが出力データ102と同一または類似する学習器Leを特定する。そして、最適化装置10は、特定した学習器Leに含まれる結合係数の組をマッピングした格子点の値の絶対値が大きな値となるように、各格子点間の相互作用を示す係数の値をする。
A more specific example will be described. For example, the
また、最適化装置10は、特徴データ100に含まれる他の入力データおよび出力データについても同様に、出力データ102と同一または類似するデータを出力する学習器Leの結合係数の組を特定し、特定した結合係数の組がマッピングされた格子点の値の絶対値の値が大きな値となるように、各格子点間の相互作用を示す係数の値を変更する。この結果、最適化装置10は、特徴データ100に含まれる入力データ101および出力データ102が示す特徴を再現する結合係数の組の値が、他の結合係数の組の値よりも大きくなるように、各格子点間の相互作用を示す係数の値を設定することとなる。
In addition, the
ここで、最適化装置10が生成したハミルトニアンを有するイジングモデルには、系全体のエネルギーを最小化する基底状態が存在する。かかる基底状態においては、各格子点の値が、各格子点間の相互作用として設定された条件を可能な限り実現する値、すなわち最適化の条件に対して最適化された値となる。しかしながら、かかる基底状態を古典的な計算により算出するには、時間がかかる。
Here, the Ising model having the Hamiltonian generated by the
そこで、最適化装置10は、量子揺らぎを用いた量子計算を行う量子計算装置に、生成したハミルトニアンを有するイジングモデルの基底状態を検索させる。例えば、最適化装置10は、任意の接続関係を再現可能な複数の量子ビットからなる量子計算装置を有する。そして、最適化装置10は、量子計算装置の各量子ビットにイジングモデルの各格子点をマッピングさせ、各量子ビット間の相互作用に、イジングモデルの各格子点間の相互作用を示す係数をマッピングさせる。そして、最適化装置10は、量子アニーリングの技術を用いて、イジングモデルをマッピングした系の基底状態を検索させる。
Therefore, the
例えば、量子計算装置は、各量子ビットの値が一様な重ね合わせ状態から、生成したハミルトニアンが示すイジングモデルへと時間発展させることで、かかるイジングモデルの基底状態を検索する(ステップS3)。ここで、最適化装置10が生成するイジングモデルの基底状態は、特徴データ100が示す特徴を適切に抽出可能な結合係数の組がマッピングされた格子点の値が、他の格子点の値よりも大きくなる。このため、最適化装置10は、量子計算装置の計算結果から、最も値が大きい格子点を特定し、特定した格子点にマッピングした結合係数の組を出力する。例えば、最適化装置10は、特定した格子点にマッピングした結合係数の値ω11〜ωjjの値を示す結合係数リストを出力する(ステップS4)。
For example, the quantum computing device searches the ground state of the Ising model by temporally evolving from an overlapped state where the values of each qubit are uniform to the Ising model indicated by the generated Hamiltonian (step S3). Here, the ground state of the Ising model generated by the
なお、最適化装置10が生成したイジングモデルの基底状態を検索する処理は、上述した説明に限定されるものではない。例えば、量子計算においては、格子モデル等の断熱モデルと、任意の量子回路を用いた回路モデルとは等価である。このため、量子アニーリングを用いた量子計算は、連続的に量子ゲートを作用させる量子回路と等価であるため、最適化装置10は、生成したハミルトニアンが示すイジングモデルを、量子ゲートを組み合わせた量子回路を再現する任意のハードウェアによって最適化すればよい。例えば、最適化装置10は、核磁気共鳴、量子ドット、ジョセフソン素子、イオントラップ、光子等を用いて量子計算を行う量子計算装置を用いて、生成したイジングモデルの基底状態を検索すればよい。
Note that the process of searching the ground state of the Ising model generated by the
また、最適化装置10は、特徴データ100が示す特徴を適切に抽出する結合係数の組がマッピングされた格子点の値を最大化することができるのであれば、任意の態様で、各格子点間の相互作用を示す係数を設定してよい。例えば、最適化装置10は、入力データ101と出力データ102との差分を算出し、算出した差分を再現する学習器Leの結合係数の組を特定する。そして、最適化装置10は、特定した組がマッピングされた更新店の値の絶対値が、他の格子点の値よりも大きくなるように、各格子点間の相互作用を示す係数を設定してもよい。
In addition, the
また、上述した説明では、最適化装置10は、学習器Leの全ての結合係数の値の組をそれぞれ格子点にマッピングした。しかしながら、実施形態は、これに限定されるものではなく、最適化装置10は、任意の粒度で、結合係数の値の組を格子点にマッピングして良い。例えば、最適化装置10は、学習器Leが有する層ごとに、結合係数の値の組を格子点にマッピングする。また、最適化装置10は、各層の接続関係に従って、結合係数の値の組をマッピングした格子点の接続関係を設定する。例えば、最適化装置10は、出力層の結合係数の値の組がマッピングされた格子点と、中間層の結合係数の組の値がマッピングされた格子点とを接続する。
In the above description, the
そして、最適化装置10は、入力データ101が入力された場合に出力データ102と同一又は類似するデータを出力する学習器Leの結合係数を再現するように、各層の結合係数の組がマッピングされた格子点の値が他の格子点よりも大きくなるように、各格子点間の相互作用を示す係数を設定する。
Then, when the
例えば、最適化装置10は、学習器Leに含まれる層をL1〜Lnとし、層Liに含まれるノードと層Li+1に含まれるノードとの結合係数の値の組み合わせをωLi,1〜ωLi、nで表すと、ωLi,1を格子点SLi,1にマッピングし、ωLi,2を格子点SLi,2にマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点SLi,1〜SLi,nにマッピングする。また、最適化装置10は、層Li+1に含まれるノードと層Li+2に含まれるノードとの結合係数の値の組み合わせをωL+1,1〜ωL+1,nで表すと、ωLi+1,1を格子点SLi+1,1にマッピングし、ωLi+1,2を格子点SLi+1,2にマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点SLi+1,1〜SLi+1,nにマッピングする。
For example, the
また、最適化装置10は、層ごとの接続関係に従って、各格子点の接続を設定する。例えば、最適化装置10は、層Liの結合係数がマッピングされた格子点SLi,1〜SLi,nと、層Li+1の結合係数がマッピングされた格子点SLi+1,1〜SLi+1,nとが相互に接続されたイジングモデルを生成する。そして、最適化装置10は、格子点SLi,1〜SLi,nと、格子点SLi+1,1〜SLi+1,nとの間の相互作用を示す係数を所定の値に設定する。かかる係数の値は、定数であってもよく、式(1)に示すようなノードの関数に応じた値であってもよい。
Moreover, the
また、最適化装置10は、入力データ101が入力された際に出力データ102と同一若しくは類似の出力データを出力する学習器Leに含まれる格子点の組がマッピングされた格子点の値が他の格子点の値よりも大きくなるように、各格子点間の相互作用を示す係数を操作する。例えば、最適化装置10は、入力データ101が入力された際に出力データ102と同一若しくは類似の出力データを出力する学習器Leに、ωLi,xとωLi+1,yとが含まれる場合は、ωLi,xがマッピングされた格子点SLi,xの値と、ωLi+1,yがマッピングされた格子点SLi+1,yとの値が大きくなるように、格子点間の相互作用を示す係数を操作する。
In addition, the
上述した処理の結果生成されるハミルトニアンの基底状態は、特徴データ100が示す特徴を最も適切に学習した学習器Leに含まれる各層の結合係数の組がマッピングされた複数の格子点の値が他の格子点の値よりも大きな値となる。この結果、最適化装置10は、各層ごとに、結合係数の組をマッピングした格子点のうち基底状態において最も値が大きい格子点を特定し、特定した各格子点が示す結合係数の組を含む結合係数リストを出力できる。
The ground state of the Hamiltonian generated as a result of the above-described processing includes values of a plurality of lattice points to which a set of coupling coefficients of each layer included in the learning device Le that has most appropriately learned the feature indicated by the
このように、最適化装置10は、結合係数の組を格子点にマッピングし、学習する特徴に応じて、格子点間の相互作用を示す係数の値を設定したイジングモデルのハミルトニアンを生成する。そして、最適化装置10は、生成したハミルトニアンの基底状態を、量子計算装置に算出させ、算出させた基底状態における各格子点の値に基づいて、結合係数の組を出力する。この結果、最適化装置10は、学習器Leに多くのノードが含まれる場合にも、量子計算を用いて結合係数の最適化を行うことができるので、学習器Leの学習に要する時間を短縮することができる。
As described above, the
すなわち、最適化装置10は、ノード間の接続経路に設定された結合係数の組を重ね合わせ状態にし、学習する特徴に応じて、重ね合わせ状態となった各結合係数の組の観測確率を変化させる。より具体的には、式(5)のブラケット表記に示したように、最適化装置10は、結合係数ωijの値を重ね合わせ状態にして計算を行う。そして、最適化装置10は、最終的に観測された結合係数の組を出力する。このため、最適化装置10は、バックプロパゲーション法等を用いて、試行錯誤的に結合係数を求めずとも、量子計算を用いて結合係数を最適化することができる。
In other words, the
また、最適化装置10は、結合係数の組を重ね合わせ状態にし、特徴に応じて観測確率を変化させ、最終的に観測された結合係数の組を出力する。この結果、最適化装置10は、各結合係数の組について特徴を上手く抽出できているかを同時に判定することとなるので、出力する結合係数の組が、いわゆる局所解に陥いるのを防ぐことができる。また、最適化装置10は、学習器Leの過学習を防ぐことができる。
Further, the
ここで、層ごとの学習やプレトレーニング等により学習器Leに特徴を学習させた場合、学習器Le全体での性能が低下する恐れがある。しかしながら、最適化装置10は、学習器Leに含まれる全ての結合係数の組を重ね合わせ状態にする。このため、最適化装置10は、層ごとの学習やプレトレーニング等によって最適化された学習器Leよりも、学習器Le全体でより最適化された学習器Leの結合係数を求めることができる。
Here, when the learner Le learns features by learning for each layer, pre-training, or the like, the performance of the entire learner Le may be reduced. However, the
〔2.最適化装置の構成〕
次に、図4を用いて、実施形態に係る最適化装置10の構成について説明する。図4は、実施形態に係る最適化装置が有する機能構成の一例を示す図である。図4に示すように、最適化装置10は、入力装置20および出力装置30と接続されている。また、最適化装置10は、取得部11、生成部12、量子計算装置13、出力部17を有する。また、量子計算装置13は、状態再現部14、操作部15、観測部16を有する。また、状態再現部14は、複数の量子ビット14a〜14dを有する。
[2. Optimization device configuration)
Next, the configuration of the
入力装置20は、最適化装置10に特徴データ10の入力を行うための入力デバイスであり、例えば、HDD(Hard Disk Drive)やフラッシュメモリ等の記録媒体から特徴データ100を読み出すことができる読出装置である。例えば、入力装置20は、フラッシュメモリ等の記録媒体から特徴データ100を読み出すと、読み出した特徴データを最適化装置10に出力する。
The
出力装置30は、例えば、モニタやプリンタ等によって実現され、特徴データ100が示す特徴に対して最適化装置10が最適化した学習器Leの各結合係数の値を含む結合係数リストを受信すると、受信した結合係数リストを表示若しくは印刷する出力装置である。
For example, the
取得部11は、入力装置20から特徴データ100を取得すると、特徴データ100に含まれる入力データ101と、入力データ101に対応する出力データ102とを抽出し、抽出した入力データ101と出力データ102とを生成部12に出力する。
When acquiring the
生成部12は、学習器Leに含まれるノード間の各結合係数の値の組をイジングモデルの格子点にあてはめ、入力データ101と出力データ102とが示す特徴に基づいて、イジングモデルの各格子点間の相互作用を示す係数の値を設定したハミルトニアンを生成する。例えば、生成部12は、学習器Leに含まれるノードの数に応じて、結合係数の値の組を全てマッピング可能な数の格子を有するイジングモデルを生成する。また、生成部12は、層ごとに結合係数の組をマッピングする場合は、各層に含まれるノードの数や、層の間の接続関係に応じた次元数を有するイジングモデルを生成する。そして、生成部12は、生成したイジングモデルの各格子点に、結合係数の値の組をマッピングする。
The
また、生成部12は、取得部11から受付けた入力データ101と出力データ102との特徴に基づいて、各格子点間の相互作用を示す係数の値を設定する。例えば、生成部12は、取得部11から受付けた入力データ101を入力した際に、出力データ102と同一または類似のデータを出力する学習器Leに含まれる結合係数の値の組を特定し、特定した組をマッピングした格子点の値が他の格子点の値よりも大きい値となるように、各格子点間の相互作用を示す係数の値を設定する。
In addition, the
例えば、図5は、実施形態にかかる最適化装置が生成するイジングモデルの一例を説明するための図である。なお、図5に示す例では、3つの結合係数の組を、格子点Si、Sj、Skにマッピングする処理の一例について記載した。例えば、生成部12は、格子点Siに結合係数の組iをマッピングし、Sjに結合係数の組jをマッピングし、Skに結合係数の組kをマッピングする。
For example, FIG. 5 is a diagram for explaining an example of an Ising model generated by the optimization apparatus according to the embodiment. In the example illustrated in FIG. 5, an example of processing for mapping a set of three coupling coefficients to the lattice points S i , S j , and S k is described. For example,
続いて、生成部12は、結合係数の組i〜kを有する学習器Leをそれぞれ準備し、入力データ101を各学習器Leに入力する。そして、生成部12は、各学習器Leが出力するデータと取得部11から受付けた出力データ102とを比較し、同一または類似のデータを出力した学習器Leの結合係数の組を特定する。そして、生成部12は、特定した学習器Leの結合係数の組をマッピングした格子点同士の値が同じになるように格子点間の相互作用を示す係数の値を設定する。
Subsequently, the
例えば、生成部12は、入力データ101を各学習器Leに入力した際に、結合係数の組iを有する学習器Leと、結合係数の組jを有する学習器Leとが、出力データ102と同一または類似のデータを出力した場合は、以下の処理を実行する。まず、生成部12は、結合係数の組iがマッピングされた格子点Siと結合係数の組kがマッピングされた格子点Skとの間の相互作用を示す係数の値Jikの値を減少させる。また、生成部12は、結合係数の組jがマッピングされた格子点Sjと他の格子点との間の相互作用を示す係数Jij、Jkjの値を増加させる。
For example, when the
また、生成部12は、特徴データ100に含まれる入力データ101と出力データ102との組ごとに、上述した処理を実行する。そして、生成部12は、上述した処理の結果生成したイジングモデルを量子計算装置13に出力する。
Further, the
図4に戻り、説明を続ける。量子計算装置13は、量子計算を用いて、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態を検索する装置であり、いわゆる量子コンピュータである。例えば、量子計算装置13は、複数の値を重ね合わせ状態で保持することができる複数の量子ビット14a〜14dを有し、各量子ビット14a〜14dを用いてイジングモデルの状態を再現可能な状態再現部14を有する。
Returning to FIG. 4, the description will be continued. The quantum computing device 13 is a so-called quantum computer that uses quantum computation to search the ground state of the Ising model indicated by the Hamiltonian generated by the generating
このような量子計算装置13の操作部15は、生成部12が生成したハミルトニアンを受付けると、状態再現部14が有する各量子ビット14a〜14dと、各量子ビット14a〜14d間の結合係数とを制御することにより、生成部12から受付けたハミルトニアンが示すイジングモデルの基底状態を量子的に算出する。
When the operation unit 15 of the quantum computing device 13 receives the Hamiltonian generated by the
例えば、量子ビットは、以下の式(8)で示される状態に設定されうる。式(8)に示す状態の量子ビットを観測した場合、値「0」を観測する確率は、αの絶対値の累乗であり、値「1」を観測する確率は、βの絶対値の累乗となる。 For example, the qubit can be set to the state shown by the following equation (8). When the qubit in the state shown in Expression (8) is observed, the probability of observing the value “0” is a power of the absolute value of α, and the probability of observing the value “1” is the power of the absolute value of β. It becomes.
ここで、式(8)に示すαとβとは、以下の式(9)を満たす複素数である。 Here, α and β shown in the equation (8) are complex numbers that satisfy the following equation (9).
まず、操作部15は、初期状態として、各量子ビット14a〜14dに対して一様な状態を設定する。例えば、操作部15は、各量子ビット14a〜14dに対し、以下の式(10)に示す状態を設定する。式(10)に示す状態が設定された場合、各量子ビット14a〜14dをそれぞれ個別に観測すると、0または1が同じ確率で観測されることとなる。 First, the operation unit 15 sets a uniform state for each of the qubits 14a to 14d as an initial state. For example, the operation unit 15 sets the state shown in the following expression (10) for each qubit 14a to 14d. When the state shown in Expression (10) is set, when each of the qubits 14a to 14d is observed individually, 0 or 1 is observed with the same probability.
そして、操作部15は、初期状態から、生成部12が生成したハミルトニアンが示す状態へと各量子ビット14a〜14dの状態を時間発展させることで、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態を検索する。
Then, the operation unit 15 temporally develops the states of the qubits 14a to 14d from the initial state to the state indicated by the Hamiltonian generated by the
例えば、操作部15は、Jijの値に基づいて、各量子ビット間の相互作用を設定する。そして、操作部15は、量子ビット14aの状態を時間発展させる。上述した時間発展が十分に行われた場合、各量子ビット14a〜14dの状態は、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態となる。例えば、量子ビット14aの状態が式(3)で示される場合、時間発展によりαとβとの値が、Jijの値に基づいて徐々に変化する。そして、観測部16は、時間発展された各量子ビット14a〜14dの状態を観測することで、イジングモデルの基底状態を観測できる。そして、観測部16は、特定したイジングモデルの基底状態、すなわち、観測した際における各量子ビット14a〜14dの値を出力部17に出力する。
For example, the operation unit 15 sets an interaction between qubits based on the value of J ij . Then, the operation unit 15 develops the state of the qubit 14a over time. When the time development described above is sufficiently performed, the states of the qubits 14a to 14d become the ground state of the Ising model indicated by the Hamiltonian generated by the
ここで、図6を用いて、量子計算装置13が実行する処理の概念を説明する。図6は、実施形態にかかる量子計算装置が実行する処理の一例を説明するための図である。なお、図6に示す例では、ハミルトニアンの値を縦軸とし、各格子点の値の組み合わせを横軸とした上で、生成部12が生成したイジングモデルにおけるハミルトニアンの値を、各格子点の値の組み合わせ毎に、実線で示した。
Here, the concept of processing executed by the quantum computation device 13 will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of processing executed by the quantum computation device according to the embodiment. In the example shown in FIG. 6, the Hamiltonian value in the Ising model generated by the
例えば、量子計算装置13は、各量子ビット14a〜14dの値を取りうる値の重ね合わせ状態とする。この結果、量子計算装置13は、図6中の点線丸印に示すように、イジングモデルにおける各格子点の値の全組み合わせを再現する。そして、量子計算装置13は、図6中の点線矢印に示すように、各量子ビット14a〜14dの状態を、生成部12が生成したイジングモデルのハミルトニアンが示す状態へと時間発展させることで、格子点間の値の各組み合わせにおけるハミルトニアンの値を再現する。かかる処理は、各量子ビット14a〜14dを量子状態に保ったままで行われる。
For example, the quantum computing device 13 sets the superposed state of values that can take the values of the quantum bits 14a to 14d. As a result, the quantum computation device 13 reproduces all combinations of the values of the lattice points in the Ising model, as indicated by the dotted circles in FIG. Then, as indicated by the dotted arrows in FIG. 6, the quantum computing device 13 causes the state of each qubit 14a to 14d to evolve into a state indicated by the Hamiltonian of the Ising model generated by the
ここで、ハミルトニアンの値が最小の値を取る状態は、系の中で最も安定した状態である。このため、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dを観測した場合、図6に示すように、ハミルトニアンの値が最小の値となる状態ωが観測される可能性が高い。そこで、量子計算装置13は、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dの値を観測することで、ハミルトニアンの値が極小値に陥ることなく、最小となるイジングモデルの各格子点の値を特定する。 Here, the state in which the value of the Hamiltonian takes the minimum value is the most stable state in the system. For this reason, when the qubits 14a to 14d that are sufficiently developed in time with the quantum state maintained are observed, a state ω in which the value of the Hamiltonian is minimum may be observed as shown in FIG. Is expensive. Therefore, the quantum computing device 13 observes the value of each of the qubits 14a to 14d that has been sufficiently developed while maintaining the quantum state, so that the value of the Hamiltonian is minimized without falling into a minimum value. Specify the value of each grid point.
図4に戻り、説明を続ける。出力部17は、観測部16が観測した各量子ビット14a〜14dの値を受付けると、かかる値に基づいて、最適化された結合係数を含む結合係数リストを出力装置30に出力する。例えば、出力部17は、各量子ビット14a〜14dの値を、各量子ビット14a〜14dと対応するイジングモデルの格子点の値とする。そして、出力部17は、イジングモデルの各格子点から出力データを逆マッピングすることで、最適化されたデータを取得し、取得したデータに対応する結合係数の組を含む結合係数リストを出力装置30に出力する。例えば、出力部17は、ある格子点の値が「1」であり、他の格子点の値が「−1」である場合は、値が「1」の格子点にマッピングした結合係数の組を含む結合係数リストを出力装置30に出力する。
Returning to FIG. 4, the description will be continued. When the output unit 17 receives the values of the qubits 14 a to 14 d observed by the observation unit 16, the output unit 17 outputs a coupling coefficient list including the optimized coupling coefficients to the
〔3.最適化装置が実行する処理の流れ〕
次に、図7を用いて、実施形態に係る最適化装置10が実行する処理の流れについて説明する。図7は、実施形態に係る最適化装置が実行する処理の一例を説明するための図である。まず、最適化装置10は、入力データ101と出力データ102とを取得する(ステップS101)。また、最適化装置10は、各ノード間の結合係数の組をイジングモデルの各格子点にマッピングする(ステップS102)。また、最適化装置10は、入力データ101と出力データ102とが示す特徴に基づいて、イジングモデルの各格子点間の相互作用を示す係数の値を設定する(ステップS103)。
[3. Flow of processing executed by optimization device]
Next, the flow of processing executed by the
そして、最適化装置10は、量子計算機13の量子ビットをイジングモデルの基底状態に時間発展させる(ステップS104)。また、最適化装置10は、時間発展させた量子ビットを観測することで、イジングモデルの基底状態を取得する(ステップS105)。そして、最適化装置10は、観測結果を逆マッピングしたデータ、すなわち、値が最も大きい格子点にマッピングした結合係数の組を含む結合係数リストを最適化結果として出力し(ステップS106)、処理を終了する。
Then, the
〔4.変形例〕
上述した実施形態に係る最適化装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の最適化装置10の他の実施形態について説明する。
[4. (Modification)
The
〔4−1.イジングモデルについて〕
なお、上述した最適化装置10は、イジングモデルの各格子点に、結合係数の組をマッピングし、入力データ101と出力データ102とが示す特徴に基づいて各格子点間を連結する重みの値を設定した。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、イジングモデル以外のモデルに結合係数の組をマッピングしてもよい。このような処理を実行した場合は、最適化装置10は、「+1」や「−1」といった2値の値ではなく、連続値を求めることができる。
[4-1. About Ising model)
Note that the
〔4−2.1層のみの算出〕
また、上述した最適化装置10は、学習器Leが有する全ての接続経路について結合係数を算出した。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、いずれか1つの層と他の層との間の接続経路についての結合係数を算出してもよい。
[Calculation of 4-2.1 layer only]
Moreover, the
〔4−3.その他〕
ここで、最適化装置10は、学習器Leを実際に稼働させる際には使用させないダミー経路を考慮した処理を行ってもよい。例えば、最適化装置10は、ダミー経路を含むすべての接続経路に設定された結合係数の組を重ね合わせ状態にし、最適な結合係数の組を量子計算により算出してもよい。
[4-3. Others]
Here, the
また、最適化装置10は、畳み込みを考慮した処理を行ってもよい。例えば、最適化装置10は、接続経路に設定される結合係数の値を変化させた結合係数の組だけではなく、それぞれ異なるノード間での畳み込みが行われた結合係数の組についても重ね合わせ状態にすればよい。すなわち、最適化装置10は、畳み込みの態様ごとに、全ての接続経路に設定される結合係数の値の組み合わせを求め、全ての畳み込みの態様について、求められた全ての結合係数の組の組み合わせを重ね合わせ状態にしてもよい。
Further, the
〔4−4.ハードウェア構成について〕
上述した最適化装置10は、ハミルトニアンが示すイジングモデルの基底状態を検索する量子計算装置13を有していた。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、取得部11、生成部12、出力部17のみを有し、外部に設置された量子計算装置13に基底状態を検索させてもよい。
[4-4. (Hardware configuration)
The
また、最適化装置10が有する各機能構成のうち、取得部11、生成部12、出力部17が発揮する処理は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。また、取得部11、生成部12、出力部17が発揮する処理は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサによって、最適化装置10内部の記憶装置に記憶されている最適化プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現されてもよい。
Among the functional configurations of the
〔5.効果〕
このように、最適化装置10は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器Leの最適化を行う装置であって、ノードn間の接続経路に対して設定される結合係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点間の相互作用を示す係数の値を設定した格子モデルの特定関数を生成する。また、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置13に、生成した特性関数の基底状態における格子点の値を算出させる。そして、最適化装置10は、格子点の値に対応する結合係数の値を出力する。
[5. effect〕
As described above, the
この結果、最適化装置10は、学習器Leに多くのノードが含まれる場合にも、量子計算を用いて結合係数の最適化を行うことができるので、学習器Leの学習に要する時間を短縮することができる。また、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置13に、生成した特性関数の基底状態における格子点の値を算出させるので、結合係数の値が局所解に陥るのを防ぐことができる。すなわち、最適化装置10は、学習器Leの過学習を防ぐことができる。
As a result, the
また、最適化装置10は、学習器に含まれる全ての接続経路に設定された結合係数の値の組み合わせを格子モデルの格子点にあてはめる。このため、最適化装置10は、最適化された学習器Leの結合係数の値を求めることができる。
Further, the
また、最適化装置10は、所定の層に含まれるノードと他のノードとの接続経路に設定された結合係数の値の組み合わせを格子モデルの格子点にあてはめる。このため、最適化装置10は、層ごとに、最適化された結合係数の値を求めることができる。
Further, the
また、最適化装置10は、所定の層に含まれるノードと他のノードとの接続経路に設定された結合係数の値の組み合わせを、所定の層と接続された他の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせをあてはめた格子点と連結された格子点にあてはめる。このため、最適化装置10は、学習器Le全体での性能を考慮しつつ、層ごとに最適化された結合係数の値を求めることができるので、過学習を防ぐことができる。
In addition, the
また、最適化装置10は、結合係数の値の組み合わせをあてはめた格子点のうち、入力データ101が入力された場合に出力データ102と同一又は類似するデータを出力する学習器Leの各接続経路に対して設定された結合係数の値をあてはめた格子点の値が所定の値に近づくように、各格子点を連結する重みの値を設定する。このため、最適化装置10は、入力データ101と出力データ102とが示す特徴を適切に学習した学習器Leの結合係数を求めることができる。
Further, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to implement the present invention in other forms with improvements.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.
1 制御システム
10 最適化装置
11 取得部
12 生成部
13 量子計算装置
14 状態再現部
14a〜14d 量子ビット
15 操作部
16 観測部
17 出力部
20 入力装置
30 出力装置
DESCRIPTION OF
Claims (7)
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
ことを特徴とする最適化装置。 An optimization device that optimizes a learning device in which layers including at least one node that outputs an operation result according to input data are connected in multiple stages,
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization apparatus, wherein the coefficient value corresponding to the value of the grid point is output.
前記学習器に含まれる全ての接続経路に設定された係数の値の組み合わせを前記格子モデルの格子点にあてはめる
ことを特徴とする請求項1に記載の最適化装置。 The optimization device includes:
The optimization apparatus according to claim 1, wherein a combination of coefficient values set for all connection paths included in the learning device is applied to a lattice point of the lattice model.
所定の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせを前記格子モデルの格子点にあてはめる
ことを特徴とする請求項1に記載の最適化装置。 The optimization device includes:
The optimization apparatus according to claim 1, wherein a combination of coefficient values set in a connection path between a node included in a predetermined layer and another node is applied to a lattice point of the lattice model.
所定の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせを、当該所定の層と接続された他の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせをあてはめた格子点と連結された格子点にあてはめる
ことを特徴とする請求項3に記載の最適化装置。 The optimization device includes:
The combination of the coefficient values set in the connection path between the node included in the predetermined layer and the other node is used as the connection path between the node included in the other layer connected to the predetermined layer and the other node. The optimization apparatus according to claim 3, wherein the set combination of coefficient values is applied to a grid point connected to the fitted grid point.
前記係数の値の組み合わせをあてはめた格子点のうち、前記入力データが入力された場合に前記出力データと同一又は類似するデータを出力する学習器の各接続経路に対して設定された係数の値をあてはめた格子点の値が所定の値に近づくように、各格子点を連結する重みの値を設定する
ことを特徴とする請求項1〜4のうちいずれか1つに記載の最適化装置。 The optimization device includes:
Coefficient values set for each connection path of a learning device that outputs data that is the same as or similar to the output data when the input data is input among the lattice points to which the combination of the coefficient values is applied. The optimization device according to any one of claims 1 to 4, wherein a value of a weight for connecting the lattice points is set so that a value of the lattice point fitted with a value approaches a predetermined value. .
前記学習器に入力する入力データと、当該入力データを入力した際に前記学習器に出力させる出力データとを受付けし、
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
ことを特徴とする最適化方法。 An optimization device that optimizes a learning device in which layers including one or more nodes that output an operation result corresponding to input data are connected in multiple stages,
Receiving input data to be input to the learning device and output data to be output to the learning device when the input data is input;
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization method is characterized in that the value of the coefficient corresponding to the value of the grid point is output.
前記学習器に入力する入力データと、当該入力データを入力した際に前記学習器に出力させる出力データとを受付けし、
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
処理を実行させることを特徴とする最適化プログラム。 A computer having an optimization device that optimizes a learning device in which layers including one or more nodes that output operation results corresponding to input data are connected in multiple stages,
Receiving input data to be input to the learning device and output data to be output to the learning device when the input data is input;
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
An optimization program for executing a process of outputting the value of the coefficient corresponding to the value of the grid point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015184601A JP6378150B2 (en) | 2015-09-18 | 2015-09-18 | Optimization device, optimization method, and optimization program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015184601A JP6378150B2 (en) | 2015-09-18 | 2015-09-18 | Optimization device, optimization method, and optimization program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017059071A true JP2017059071A (en) | 2017-03-23 |
JP6378150B2 JP6378150B2 (en) | 2018-08-22 |
Family
ID=58391585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015184601A Active JP6378150B2 (en) | 2015-09-18 | 2015-09-18 | Optimization device, optimization method, and optimization program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6378150B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018235568A1 (en) * | 2017-06-23 | 2018-12-27 | 株式会社リクルートコミュニケーションズ | Feature quantity selection device, feature quantity selection method, and feature quantity selection program |
JP2019046038A (en) * | 2017-08-31 | 2019-03-22 | 株式会社デンソー | Evaluation function converter and program |
KR20190042240A (en) * | 2017-10-16 | 2019-04-24 | 두산중공업 주식회사 | Grid generation apparatus and method using artificial intelligence |
JP2020149523A (en) * | 2019-03-15 | 2020-09-17 | 日本電信電話株式会社 | Determination device, calculation device, and learning system |
JP2021512387A (en) * | 2018-01-30 | 2021-05-13 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Quantum computing device design |
US11494659B2 (en) | 2019-06-26 | 2022-11-08 | Kioxia Corporation | Information processing method and information processing apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09146908A (en) * | 1995-11-17 | 1997-06-06 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Problem solving method |
JP2010054938A (en) * | 2008-08-29 | 2010-03-11 | Toshiba Corp | Quantum simulator, quantum computer and method |
US20140200689A1 (en) * | 2013-01-11 | 2014-07-17 | The Board Of Trustees Of The Leland Stanford Junior University | Quantum computer and quantum computing using ising model |
-
2015
- 2015-09-18 JP JP2015184601A patent/JP6378150B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09146908A (en) * | 1995-11-17 | 1997-06-06 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Problem solving method |
JP2010054938A (en) * | 2008-08-29 | 2010-03-11 | Toshiba Corp | Quantum simulator, quantum computer and method |
US20140200689A1 (en) * | 2013-01-11 | 2014-07-17 | The Board Of Trustees Of The Leland Stanford Junior University | Quantum computer and quantum computing using ising model |
JP2014134710A (en) * | 2013-01-11 | 2014-07-24 | Research Organization Of Information & Systems | Quantum computation device for ising model and quantum computation method of ising model |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018235568A1 (en) * | 2017-06-23 | 2018-12-27 | 株式会社リクルートコミュニケーションズ | Feature quantity selection device, feature quantity selection method, and feature quantity selection program |
JPWO2018235568A1 (en) * | 2017-06-23 | 2020-04-23 | 株式会社リクルートコミュニケーションズ | Feature amount selection device, feature amount selection method, and feature amount selection program |
JP7068299B2 (en) | 2017-06-23 | 2022-05-16 | 株式会社リクルート | Feature amount selection device, feature amount selection method and feature amount selection program |
JP2019046038A (en) * | 2017-08-31 | 2019-03-22 | 株式会社デンソー | Evaluation function converter and program |
KR20190042240A (en) * | 2017-10-16 | 2019-04-24 | 두산중공업 주식회사 | Grid generation apparatus and method using artificial intelligence |
KR101997140B1 (en) | 2017-10-16 | 2019-07-05 | 두산중공업 주식회사 | Grid generation apparatus and method using artificial intelligence |
JP2021512387A (en) * | 2018-01-30 | 2021-05-13 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Quantum computing device design |
JP7110357B2 (en) | 2018-01-30 | 2022-08-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Quantum computing device design |
JP2020149523A (en) * | 2019-03-15 | 2020-09-17 | 日本電信電話株式会社 | Determination device, calculation device, and learning system |
JP7101355B2 (en) | 2019-03-15 | 2022-07-15 | 日本電信電話株式会社 | Judgment device, calculation device, and learning system |
US11494659B2 (en) | 2019-06-26 | 2022-11-08 | Kioxia Corporation | Information processing method and information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6378150B2 (en) | 2018-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6378150B2 (en) | Optimization device, optimization method, and optimization program | |
US11853894B2 (en) | Meta-learning for multi-task learning for neural networks | |
Hu et al. | Overcoming catastrophic forgetting for continual learning via model adaptation | |
JP7328993B2 (en) | Gradient Adversarial Training of Neural Networks | |
JP2019061647A (en) | Method for sensing abnormal session | |
EP3364868A2 (en) | Generating natural language representations of mental content from functional brain images | |
Maulik et al. | Neural network representability of fully ionized plasma fluid model closures | |
JP2020119567A (en) | Method and device for performing on-device continual learning of neural network which analyzes input data to be used for smartphones, drones, ships, or military purpose, and method and device for testing neural network learned by the same | |
Wang et al. | A robust automated machine learning system with pseudoinverse learning | |
EP4152273A1 (en) | Method and device with image processing | |
Vardhan et al. | Deep learning based fea surrogate for sub-sea pressure vessel | |
Gavrilov et al. | Convolutional neural networks: Estimating relations in the ising model on overfitting | |
An et al. | Examples of naked singularity formation in higher-dimensional Einstein-vacuum spacetimes | |
Larios-Cárdenas et al. | A hybrid inference system for improved curvature estimation in the level-set method using machine learning | |
Buscema et al. | Auto-contractive maps, the H function, and the maximally regular graph (MRG): a new methodology for data mining | |
JP6970461B2 (en) | On-device continuous learning methods and devices for neural networks that analyze input data by optimized sampling of training images for smartphones, drones, ships or military purposes, and test methods and devices that utilize them. | |
Landman | Quantum algorithms for unsupervised machine learning and neural networks | |
JP2019036207A (en) | Optimizing device, optimization method and optimization program | |
Amirullah et al. | Data Classification with Qubit Superposition Approach in Quantum Perceptron | |
Wu et al. | Finding quantum many-body ground states with artificial neural network | |
Schuld | Quantum machine learning for supervised pattern recognition. | |
KR20200061154A (en) | Method and apparatus of analyzing diagram containing visual and textual information | |
Xue | Research on information visualization graphic design teaching based on DBN algorithm | |
Probst | Generative adversarial networks in estimation of distribution algorithms for combinatorial optimization | |
Vardhan et al. | Deep Learning-based Finite Element Analysis (FEA) surrogate for sub-sea pressure vessel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6378150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |