JP2017059071A - Optimization device, optimization method and optimization program - Google Patents

Optimization device, optimization method and optimization program Download PDF

Info

Publication number
JP2017059071A
JP2017059071A JP2015184601A JP2015184601A JP2017059071A JP 2017059071 A JP2017059071 A JP 2017059071A JP 2015184601 A JP2015184601 A JP 2015184601A JP 2015184601 A JP2015184601 A JP 2015184601A JP 2017059071 A JP2017059071 A JP 2017059071A
Authority
JP
Japan
Prior art keywords
value
lattice
optimization
output
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015184601A
Other languages
Japanese (ja)
Other versions
JP6378150B2 (en
Inventor
崇史 宮崎
Takashi Miyazaki
崇史 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2015184601A priority Critical patent/JP6378150B2/en
Publication of JP2017059071A publication Critical patent/JP2017059071A/en
Application granted granted Critical
Publication of JP6378150B2 publication Critical patent/JP6378150B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To optimize a weighting factor of each connection path of DNN (Deep Neural Network).SOLUTION: An optimization device 10 optimizes a learning apparatus which connects layers in a multistage manner including one or more nodes outputting an arithmetic result according to inputted data. The optimization device applies value of a factor which is set for a connection path between nodes included in different layers to a lattice point of a lattice model, generates a specific function of the lattice model using value of weight connecting the lattice points of the lattice model as input value on the basis of characteristics that input data and output data indicate, causes a quantum calculation device 13 obtaining a ground state of the lattice model in which value of the specific function becomes the minimum value by use of the quantum fluctuations to calculate a value of the lattice point in the ground state of the generated specific function, and outputs value of the factor corresponding to the value of the lattice point.SELECTED DRAWING: Figure 4

Description

本発明は、最適化装置、最適化方法および最適化プログラムに関する。   The present invention relates to an optimization device, an optimization method, and an optimization program.

近年、多層に接続されたニューロン(以下、ノードと記載する場合がある。)を有するDNN(Deep Neural Network)を利用して言語認識や画像認識の学習を行うディープラーニングに関する技術が知られている。このようなDNNでは、所定の重み係数がそれぞれ個別に設定された接続経路を介して、異なる層のノード同士が接続されており、あるノードが出力した値を、接続経路に設定された重み係数で補正した値が、他の層のノードへと伝達されている。   2. Description of the Related Art In recent years, a deep learning technique for learning language recognition and image recognition using a DNN (Deep Neural Network) having neurons connected in multiple layers (hereinafter sometimes referred to as nodes) has been known. . In such a DNN, nodes in different layers are connected to each other through connection paths in which predetermined weight coefficients are individually set, and a value output by a certain node is used as a weight coefficient set in the connection path. The value corrected in (1) is transmitted to the nodes of other layers.

このようなDNNに言語や画像等の特徴を学習させるため、バックプロパゲーション法などを用いて、DNNが入力データの特徴を適切に抽出できるように、各接続経路に設定された重み係数を試行錯誤的に設定する手法が用いられている。しかしながら、このような手法では、ノードの数や層の数が増加するに従って計算量が増大するため、入力データの特徴を適切に抽出できるように各接続経路の重み係数を最適化する処理が困難となる。   In order to allow such DNN to learn features such as language and images, a weighting factor set for each connection path is tried so that DNN can appropriately extract features of input data using a back-propagation method. An error-setting method is used. However, with such a method, the amount of calculation increases as the number of nodes and the number of layers increase, and therefore it is difficult to optimize the weighting factor of each connection path so that the features of the input data can be appropriately extracted. It becomes.

一方で、量子力学的な状態の重ね合わせを用いることで、従来の計算装置では実現できない規模の並列性を実現する量子計算の技術が研究されている。例えば、このような量子計算の技術として、複数の入力を重ね合わせ状態とすることで、所定の条件に対する最適解や入力された情報が有する周期等を従来の計算装置よりも高速に求める技術が提案されている。   On the other hand, a quantum computing technique that achieves parallelism on a scale that cannot be achieved by conventional computing devices by using superposition of quantum mechanical states has been studied. For example, as a technique of such quantum computation, there is a technique for obtaining an optimal solution for a predetermined condition, a period of input information, and the like at a higher speed than a conventional computing device by superposing a plurality of inputs. Proposed.

特許第5354233号公報Japanese Patent No. 5354233

「量子力学を使った情報処理」、加藤 豪、人工知能 2014年 05月号"Information Processing Using Quantum Mechanics", Go Kato, Artificial Intelligence 2014 May 「Quantum Deep Learning」, Nathan Wiebe, Ashish Kapoor, and Krysta M. Svore,Microsoft Research, Redmond, WA (USA), インターネット<http://arxiv.org/pdf/1412.3489v1.pdf>、平成27年8月18日検索"Quantum Deep Learning", Nathan Wiebe, Ashish Kapoor, and Krysta M. Svore, Microsoft Research, Redmond, WA (USA), Internet <http://arxiv.org/pdf/1412.3489v1.pdf>, 2015 Search 18th of March

しかしながら、DNNの各接続経路の重み係数を最適化するための量子計算の手法については、これまで提案されていなかった。このため、DNNの学習には、多くの時間や計算資源が必要である。   However, a quantum calculation method for optimizing the weighting factor of each connection path of DNN has not been proposed so far. For this reason, learning of DNN requires a lot of time and computational resources.

本願は、上記に鑑みてなされたものであって、DNNの各接続経路の重み係数を最適化する最適化装置、最適化方法および最適化プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide an optimization device, an optimization method, and an optimization program for optimizing the weighting coefficient of each connection path of a DNN.

本願に係る最適化装置は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器の最適化を行う最適化装置であって、異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、前記格子点の値に対応する前記係数の値を出力することを特徴とする。   The optimization device according to the present application is an optimization device that performs optimization of a learning device in which layers including one or more nodes that output an operation result according to input data are connected in multiple stages, and are applied to different layers. The value of the coefficient set for the connection path between the included nodes is applied to the lattice points of the lattice model, and the weight value for connecting the lattice points of the lattice model is determined based on the characteristics indicated by the input data and the output data. A lattice function in the ground state of the generated characteristic function is generated in a quantum computing device that generates a specific function of the lattice model as an input value and obtains a ground state of the lattice model having a minimum characteristic function value using quantum fluctuations. A value of the point is calculated, and the value of the coefficient corresponding to the value of the grid point is output.

実施形態の一態様によれば、DNNの各接続経路の重み係数を最適化できるという効果を奏する。   According to one aspect of the embodiment, there is an effect that the weighting coefficient of each connection path of the DNN can be optimized.

図1は、実施形態に係る最適化処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of optimization processing according to the embodiment. 図2は、学習器の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a learning device. 図3は、学習器が有するノードの入力と出力とを説明する図である。FIG. 3 is a diagram for explaining the input and output of a node included in the learning device. 図4は、実施形態に係る最適化装置が有する機能構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a functional configuration included in the optimization apparatus according to the embodiment. 図5は、実施形態にかかる最適化装置が生成するイジングモデルの一例を説明するための図である。FIG. 5 is a diagram for explaining an example of an Ising model generated by the optimization apparatus according to the embodiment. 図6は、実施形態にかかる量子計算装置が実行する処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of processing executed by the quantum computation device according to the embodiment. 図7は、実施形態に係る最適化装置が実行する処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of processing executed by the optimization apparatus according to the embodiment.

以下に、本願に係る最適化装置、最適化方法および最適化プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る最適化装置、最適化方法および最適化プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a mode for carrying out an optimization apparatus, an optimization method, and an optimization program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the optimization apparatus, the optimization method, and the optimization program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

〔1.最適化処理〕
まず、図1を用いて、実施形態に係る最適化処理の一例について説明する。図1は、実施形態に係る最適化処理の一例を示す図である。図1では、入力された入力データに対して所定の演算を行い、出力データを出力する学習器Leを最適化する最適化装置10を例に挙げ、入力データが有する特徴を適切に抽出することができるように学習器Leを最適化する最適化処理の一例について説明する。
[1. Optimization process)
First, an example of the optimization process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of optimization processing according to the embodiment. In FIG. 1, an optimization apparatus 10 that performs a predetermined operation on input input data and optimizes a learning device Le that outputs output data is taken as an example, and features of the input data are appropriately extracted. An example of an optimization process for optimizing the learning device Le so that the learning can be performed will be described.

まず、最適化装置10が最適化する学習器Leについて説明する。例えば、図2は、学習器の一例を説明する図である。例えば、学習器Leは、図2中(A)に示すように、入力されたデータに対する演算結果を出力する複数のノードn(例えば、ニューロン)を多段に接続したDNNである。具体的には、学習器Leは、入力データを入力する入力層IL、入力データの特徴を抽出する1つ又は複数の中間層ML、入力データに対応する出力データを出力する出力層OLとを有する。   First, the learning device Le optimized by the optimization device 10 will be described. For example, FIG. 2 is a diagram illustrating an example of a learning device. For example, as shown in FIG. 2A, the learning device Le is a DNN in which a plurality of nodes n (for example, neurons) that output calculation results for input data are connected in multiple stages. Specifically, the learning device Le includes an input layer IL for inputting input data, one or a plurality of intermediate layers ML for extracting features of the input data, and an output layer OL for outputting output data corresponding to the input data. Have.

入力層IL、中間層ML及び出力層OLは、それぞれ1つ以上のノードnを有する。各ノードnは、入力層ILに含まれるノードnから中間層MLに含まれるノードnを介して、出力層OLに含まれるノードnへと順次接続される。例えば、図2中(B)に示すように、入力層ILの各ノードnは、中間層MLに含まれるノードnのうち1つ以上のノードと接続されており、中間層MLに含まれるノードnは、出力層OLに含まれるノードnのうち1つ以上のノードと接続されている。すなわち、学習器Leは、図2中(C)に示すように、入力装置ILから出力層OLまで多段にノードnを接続した構成を有する。   The input layer IL, the intermediate layer ML, and the output layer OL each have one or more nodes n. Each node n is sequentially connected from the node n included in the input layer IL to the node n included in the output layer OL via the node n included in the intermediate layer ML. For example, as illustrated in FIG. 2B, each node n of the input layer IL is connected to one or more nodes n included in the intermediate layer ML, and is included in the intermediate layer ML. n is connected to one or more nodes among the nodes n included in the output layer OL. That is, the learning device Le has a configuration in which nodes n are connected in multiple stages from the input device IL to the output layer OL, as shown in FIG.

ここで、ノードn同士を接続する各接続経路には、結合係数(すなわち、重みの値)が設定されており、あるノードnが出力した演算結果が、結合係数の値に基づいて他のノードnに伝達される。例えば、入力層ILのノードnと中間層MLのノードnとを接続する接続経路に結合係数「ω」が設定されている場合、中間層MLのノードには、入力層ILのノードnが出力した演算結果に結合係数「ω」を積算した値が入力される。そして、中間層MLのノードnは、入力された値に基づく演算結果を出力する。   Here, a coupling coefficient (that is, a weight value) is set in each connection path that connects the nodes n, and the calculation result output by a certain node n is based on the value of the coupling coefficient. transmitted to n. For example, when the coupling coefficient “ω” is set in the connection path connecting the node n of the input layer IL and the node n of the intermediate layer ML, the node n of the input layer IL is output to the node of the intermediate layer ML. A value obtained by adding the coupling coefficient “ω” to the calculated result is input. Then, the node n in the intermediate layer ML outputs a calculation result based on the input value.

例えば、図3は、学習器が有するノードの入力と出力とを説明する図である。例えば、図3中(A)に示すように、あるノードnに入力される値をxとし、値xが入力された際にノードnが出力する値をyとすると、yは、図3中(B)に示すように、以下の式(1)で表すことができる。 For example, FIG. 3 is a diagram illustrating the input and output of a node included in the learning device. For example, as shown in FIG. 3A, if a value input to a certain node n is x j and a value output by the node n when the value x j is input is y j , y j is As shown in FIG. 3B, it can be expressed by the following formula (1).

Figure 2017059071
Figure 2017059071

ここで、f(x)は、値xに応じた値を出力する関数であり、例えば、以下の式(2)で示すロジスティックシグモイド関数、式(3)で示す双曲線正接関数、以下の式(4)で示すReLU(Rectified Liner Unit)等である。 Here, f (x j ) is a function that outputs a value corresponding to the value x j . For example, a logistic sigmoid function expressed by the following equation (2), a hyperbolic tangent function expressed by the following equation (3), ReLU (Rectified Liner Unit) shown in Formula (4).

Figure 2017059071
Figure 2017059071

Figure 2017059071
Figure 2017059071

Figure 2017059071
Figure 2017059071

ここで、図3中(C)に示すように、各ノードnを多段に接続した場合、ノードnに入力されるデータxは、下位の層に含まれる各ノードの出力に、各接続経路に設定された結合係数を積算した値の総和となる。より具体的には、ノードnに入力されるデータxは、図3中(D)に示すように、以下の式(5)で示す値となる。ここで、式(5)に記載されたbは、所定の定数であり、yは、下位のノードn〜nが出力した値であり、ωijは、ノードnからノードnへの接続経路に設定された結合係数の値である。なお、以下の説明で明らかとなるように、最適化装置10は、結合係数の値を重ね合わせ状態にして、最適な結合係数の値を算出するため、式(5)では、ωijをブラケット表記で囲んだ。 Here, as shown in FIG. 3C, when each node n is connected in multiple stages, the data x j input to the node n j is connected to the output of each node included in the lower layer. This is the sum of the values obtained by integrating the coupling coefficients set for the path. More specifically, the data x j input to the node n j has a value represented by the following equation (5) as shown in (D) in FIG. Here, b j described in Expression (5) is a predetermined constant, y i is a value output from the lower nodes n 1 to n i , and ω ij is from node n i to node n This is the value of the coupling coefficient set in the connection path to j . Incidentally, as will become apparent in the following description, the optimization apparatus 10, in the overlapping state values of the coupling coefficient, for calculating the optimum value of coupling coefficient, in Formula (5), the omega ij bracket Surrounded by notation.

Figure 2017059071
Figure 2017059071

このような学習器Leは、画像、文章、映像、音声等の特徴を学習することができる。例えば、学習器Leは、猫の特徴を学習することで、入力データとして入力された画像の一部に猫が撮影されている場合は、入力された画像のうち猫の部分を強調した画像を出力データとして出力することができる。なお、学習器Leが出力する出力データは、上述した形態に限定されるものではなく、例えば、猫が画像に含まれるか否かを示すデータが出力されてもよい。すなわち、学習器Leは、入力データに含まれる特徴を示す情報であれば、任意の情報を出力することができる。   Such a learning device Le can learn features such as images, sentences, videos, and voices. For example, the learning device Le learns the characteristics of a cat, and when a cat is photographed in a part of an image input as input data, an image that emphasizes the cat portion of the input image is displayed. It can be output as output data. Note that the output data output from the learning device Le is not limited to the above-described form. For example, data indicating whether or not a cat is included in the image may be output. That is, the learning device Le can output arbitrary information as long as it is information indicating the characteristics included in the input data.

ここで、学習器Leの学習手法としては、例えば、バックプロパゲーション法等が知られている。例えば、バックプロパゲーション法では、所定の入力データ101を学習器Leに入力した際に学習器Leに出力させたいデータと実際に出力した出力データ102との誤差が解消されるように、出力層OL側から各接続経路の結合係数を修正する。しかしながら、このような学習手法では、ノードの数や層の数が増えるに従い、結合係数の修正が困難となる。   Here, as a learning method of the learning device Le, for example, a back propagation method or the like is known. For example, in the back-propagation method, when the predetermined input data 101 is input to the learning device Le, the output layer is set so that the error between the data to be output to the learning device Le and the output data 102 actually output is eliminated. The coupling coefficient of each connection path is corrected from the OL side. However, in such a learning method, it becomes difficult to correct the coupling coefficient as the number of nodes and the number of layers increase.

そこで、最適化装置10は、入力データの特徴を適切に学習した学習器Leの結合係数の値を出力する。具体的には、最適化装置10は、学習器Leに入力する入力データと、入力データの特徴を学習した学習器Leが出力するであろう出力データとを受付ける。また、最適化装置10は、各接続経路に設定される結合係数の値を格子モデルの各格子点にあてはめ、受付けた入力データと出力データとが示す特徴に基づいて、格子モデルの格子点間の相互作用を示す係数、すなわち、格子点を連結する重みの値を設定した格子モデルの特定関数を生成する。そして、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、生成された特性関数の基底状態における格子点の値を算出させ、算出された格子点の値を結合係数の値として出力する。   Therefore, the optimization apparatus 10 outputs the value of the coupling coefficient of the learning device Le that has appropriately learned the characteristics of the input data. Specifically, the optimization apparatus 10 receives input data input to the learning device Le and output data that the learning device Le that has learned the characteristics of the input data will output. Further, the optimization apparatus 10 applies the coupling coefficient value set for each connection path to each lattice point of the lattice model, and based on the characteristics indicated by the received input data and output data, A specific function of the lattice model in which a coefficient indicating the interaction of the two, that is, a weight value for connecting the lattice points is set is generated. Then, the optimization apparatus 10 causes the quantum calculation apparatus that obtains the ground state of the lattice model having the minimum characteristic function value using the quantum fluctuation to calculate the value of the lattice point in the ground state of the generated characteristic function. The calculated value of the grid point is output as the value of the coupling coefficient.

すなわち、最適化装置10は、イジングモデルにおける格子点に学習器Leの結合係数をマッピングする。また、最適化装置10は、取得された入力データから、取得された出力データを出力するような学習器Leの結合係数の条件に基づいて、格子点間の相互作用を示す係数を設定する。そして、最適化装置10は、量子アニーリング等、量子揺らぎの特性を用いて計算を行う量子計算装置に、生成した格子モデルの特性関数、すなわちハミルトニアンの値が最小値となる状態、すなわちイジングモデルの基底状態を算出させる。   That is, the optimization apparatus 10 maps the coupling coefficient of the learning device Le to the lattice points in the Ising model. Further, the optimization device 10 sets a coefficient indicating an interaction between lattice points based on the condition of the coupling coefficient of the learning device Le that outputs the acquired output data from the acquired input data. Then, the optimization apparatus 10 applies a quantum calculation apparatus that performs calculation using the characteristics of quantum fluctuation, such as quantum annealing, to the state where the characteristic function of the generated lattice model, that is, the value of the Hamiltonian becomes the minimum value, that is, the Ising model. Calculate the ground state.

その後、最適化装置10は、量子計算装置に算出させたイジングモデルの基底状態から結合係数の値を逆マッピングし、再生した結合係数の値を、取得した入力データと出力データとに対して最適化された結合係数、すなわち、入力データの特徴を学習した学習器L3の結合係数として出力する。なお、最適化装置10は、必ずしも学習器Leそのものを保持する必要はない。すなわち、最適化装置10は、学習器Leの接続係数を最適化させればよく、学習器Leとして動作する情報処理装置でなくともよい。   Thereafter, the optimization device 10 performs inverse mapping of the coupling coefficient values from the ground state of the Ising model calculated by the quantum computing device, and optimizes the regenerated coupling coefficient values for the acquired input data and output data. The obtained coupling coefficient, that is, the coupling coefficient of the learning device L3 that has learned the characteristics of the input data is output. Note that the optimization apparatus 10 does not necessarily have to hold the learning device Le itself. That is, the optimization device 10 only needs to optimize the connection coefficient of the learning device Le, and may not be an information processing device that operates as the learning device Le.

図1に戻り、最適化装置10による最適化処理の一例を流れに沿って説明する。まず、図1に示した例において、最適化装置10は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器Leの最適化を行う装置である。例えば、最適化装置100は、特徴データ100を取得する。特徴データ100は、学習器Leに学習させる特徴を含むデータである。例えば、図1に示す例では、特徴データ100には、入力データ101と出力データ102とが含まれる。入力データ101および出力データ102は、例えば、猫を含む動物や果物等が撮影された画像である。   Returning to FIG. 1, an example of optimization processing by the optimization apparatus 10 will be described along the flow. First, in the example shown in FIG. 1, the optimization apparatus 10 is an apparatus that optimizes the learning device Le in which layers including one or more nodes that output an operation result according to input data are connected in multiple stages. It is. For example, the optimization apparatus 100 acquires the feature data 100. The feature data 100 is data including features to be learned by the learning device Le. For example, in the example illustrated in FIG. 1, the feature data 100 includes input data 101 and output data 102. The input data 101 and the output data 102 are, for example, images obtained by photographing animals including animals and fruits.

ここで、出力データ102は、入力データ101を学習器Leに入力した際に出力させたい画像として、あらかじめ作成された画像である。例えば、学習器Leに猫の外見的特徴を学習させ、入力された画像のうち猫が撮影された範囲のコントラストを強調させる場合、オペレータは、入力データ101に含まれる被写体のうち、猫のコントラストを強調した画像を出力データ102として生成する。なお、特徴データ100には、入力データ101および出力データ102以外にも、複数の入力データおよび出力データの組が含まれているものとする。   Here, the output data 102 is an image created in advance as an image to be output when the input data 101 is input to the learning device Le. For example, in a case where the learning device Le learns the appearance characteristics of the cat and emphasizes the contrast of the range in which the cat is photographed in the input image, the operator contrasts the cat among the subjects included in the input data 101. Is generated as output data 102. Note that the feature data 100 includes a plurality of sets of input data and output data in addition to the input data 101 and the output data 102.

かかる場合、最適化装置10は、特徴データ100として、入力データ101と出力データ102とを取得する(ステップS1)。かかる場合、最適化装置10は、学習器Leの結合係数を、入力データ101が入力された場合に出力データ102を出力するよう最適化する最適化処理を実行する。より具体的には、最適化装置10は、学習器Leのノード間の結合係数を各ノードにマッピングし、入力データと出力データとに基づいて、ノード間を接続する重みの値を設定する(ステップS2)。すなわち、最適化装置10は、入力データ101と出力データ102が示す特徴、すなわち、学習器Leに学習させる特徴に基づいて、イジングモデルの特性関数であるハミルトニアンを生成する。   In such a case, the optimization apparatus 10 acquires input data 101 and output data 102 as the feature data 100 (step S1). In such a case, the optimization apparatus 10 executes an optimization process for optimizing the coupling coefficient of the learning device Le so that the output data 102 is output when the input data 101 is input. More specifically, the optimization apparatus 10 maps the coupling coefficient between the nodes of the learning device Le to each node, and sets a weight value for connecting the nodes based on the input data and the output data ( Step S2). That is, the optimization apparatus 10 generates a Hamiltonian that is a characteristic function of the Ising model based on the features indicated by the input data 101 and the output data 102, that is, the features that the learner Le learns.

以下、最適化装置10がイジングモデルのハミルトニアンを生成する処理の一例について説明する。なお、以下の説明では、イジングモデルに学習器Leの結合係数をマッピングする処理の一例について説明するが、最適化装置10は、ハイゼンベルクモデルやXYモデル等、任意の次元の格子モデル(すなわち、n次元ベクトルモデル)に学習器Leの結合係数をマッピングしたハミルトニアンを生成してもよい。   Hereinafter, an example of processing in which the optimization apparatus 10 generates a Hamiltonian of the Ising model will be described. In the following description, an example of a process for mapping the coupling coefficient of the learning device Le to the Ising model will be described. However, the optimization apparatus 10 uses a lattice model of any dimension such as a Heisenberg model or an XY model (that is, n A Hamiltonian in which the coupling coefficient of the learning device Le is mapped to the dimension vector model) may be generated.

例えば、イジングモデルのハミルトニアンは、以下の式(6)によって示される。ここで、式(6)に示すHとは、イジングモデルの全エネルギーを示すハミルトニアンであり、Sは、格子点の値であり、Sは格子点の値であり、Jは格子点間の相互作用を示す係数である。なお、SとSとは、±1の値を取る。 For example, the Ising model Hamiltonian is expressed by the following equation (6). Here, H in equation (6) is a Hamiltonian indicating the total energy of the Ising model, S i is the value of lattice point i , S j is the value of lattice point j , and J is the lattice A coefficient indicating the interaction between points. Note that S i and S j take a value of ± 1.

Figure 2017059071
Figure 2017059071

ここで、Jの値が格子点間によって異なるとすると、ハミルトニアンは、以下の式(7)で表すことができる。   Here, assuming that the value of J varies between lattice points, the Hamiltonian can be expressed by the following equation (7).

Figure 2017059071
Figure 2017059071

ここで、最適化装置10は、ノード間の結合係数をイジングモデルにおける各格子点の値「1」または「−1」にマッピングする。例えば、最適化装置10は、学習器Leに含まれる全ての接続経路に設定される結合係数の値の組み合わせを、それぞれ異なる格子点にあてはめる。このようなマッピングを行った場合、最適化装置10は、学習器Leに含まれる全ての結合係数の値の組み合わせをそれぞれω〜ωで表すと、ωを格子点Sにマッピングし、ωを格子点Sにマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点S〜Sにマッピングする。 Here, the optimization apparatus 10 maps the coupling coefficient between the nodes to the value “1” or “−1” of each lattice point in the Ising model. For example, the optimization apparatus 10 applies combinations of coupling coefficient values set for all connection paths included in the learning device Le to different lattice points. When performing such a mapping, the optimization apparatus 10, expressed a combination of the values of all of the coupling coefficients contained in the learner Le at each ω 1n, the omega 1 maps the lattice points S 1 the omega 2 maps to the lattice point S 2, the same applies to other combinations, each mapped to a separate grid points S 1 to S n.

また、最適化装置10は、入力データ101と出力データ102とに基づいて、各格子点間の相互作用を示す係数の値Jを設定する。例えば、最適化装置10は、入力データ101が入力された際に、出力データ102を出力する学習器Leにおいて、2つの格子点にマッピングした結合係数の値を同一の値とする場合は、この2つの格子点間の相互作用を示す係数の値Jを負の値に設定する。一方、最適化装置10は、入力データ101が入力された際に、出力データ102を出力する学習器Leにおいて、2つの格子点にマッピングした結合係数の値を異なる値とする場合は、この2つの格子点間の相互作用を示す係数の値Jを正の値に設定する。   Further, the optimization apparatus 10 sets a coefficient value J indicating an interaction between the respective lattice points based on the input data 101 and the output data 102. For example, when the learning device Le that outputs the output data 102 when the input data 101 is input, the optimization device 10 uses the same value for the coupling coefficient mapped to two grid points. The coefficient value J indicating the interaction between the two lattice points is set to a negative value. On the other hand, when the learning device Le that outputs the output data 102 when the input data 101 is input, the optimization device 10 uses the 2 if the values of the coupling coefficients mapped to the two grid points are different. The coefficient value J indicating the interaction between the two lattice points is set to a positive value.

また、最適化装置10は、各結合係数の値が同一であるか異なる値であるかの条件の相対的な強さに応じて、係数の値Jの絶対値の値を変更する。例えば、最適化装置10は、ある2つの格子点にマッピングした結合係数の値を同一にするという条件を、他の条件よりも強くしたい場合は、この2つの格子点間の相互作用を示す係数の値Jとして、他の格子点間の相互作用を示す係数の値の絶対値よりも、絶対値が小さい値を設定する。   Further, the optimization apparatus 10 changes the absolute value of the coefficient value J according to the relative strength of the condition as to whether the values of the coupling coefficients are the same or different. For example, when the optimization apparatus 10 wants to make the condition that the values of the coupling coefficients mapped to two grid points are the same, the coefficient indicating the interaction between the two grid points. As the value J, a value having an absolute value smaller than the absolute value of the coefficient indicating the interaction between other lattice points is set.

より具体的な例について説明する。例えば、最適化装置10は、結合係数の組ごとに、かかる結合係数の組を有する学習器Leを準備し、入力データ101を各学習器Leに入力する。また、最適化装置10は、各学習器Leのうち、出力したデータが出力データ102と同一または類似する学習器Leを特定する。そして、最適化装置10は、特定した学習器Leに含まれる結合係数の組をマッピングした格子点の値の絶対値が大きな値となるように、各格子点間の相互作用を示す係数の値をする。   A more specific example will be described. For example, the optimization apparatus 10 prepares a learning device Le having such a combination of coupling coefficients for each combination of coupling coefficients, and inputs the input data 101 to each learning device Le. Further, the optimization device 10 identifies a learning device Le whose output data is the same as or similar to the output data 102 among the learning devices Le. Then, the optimization apparatus 10 determines the value of the coefficient indicating the interaction between the lattice points so that the absolute value of the value of the lattice point mapping the combination of the coupling coefficients included in the identified learner Le becomes a large value. do.

また、最適化装置10は、特徴データ100に含まれる他の入力データおよび出力データについても同様に、出力データ102と同一または類似するデータを出力する学習器Leの結合係数の組を特定し、特定した結合係数の組がマッピングされた格子点の値の絶対値の値が大きな値となるように、各格子点間の相互作用を示す係数の値を変更する。この結果、最適化装置10は、特徴データ100に含まれる入力データ101および出力データ102が示す特徴を再現する結合係数の組の値が、他の結合係数の組の値よりも大きくなるように、各格子点間の相互作用を示す係数の値を設定することとなる。   In addition, the optimization apparatus 10 also specifies a set of coupling coefficients of the learning device Le that outputs data that is the same as or similar to the output data 102 for other input data and output data included in the feature data 100, The value of the coefficient indicating the interaction between the lattice points is changed so that the absolute value of the value of the lattice point to which the identified combination of coupling coefficients is mapped becomes a large value. As a result, the optimization apparatus 10 allows the value of the combination coefficient combination that reproduces the feature indicated by the input data 101 and the output data 102 included in the feature data 100 to be larger than the values of the other combination coefficient sets. The value of the coefficient indicating the interaction between the lattice points is set.

ここで、最適化装置10が生成したハミルトニアンを有するイジングモデルには、系全体のエネルギーを最小化する基底状態が存在する。かかる基底状態においては、各格子点の値が、各格子点間の相互作用として設定された条件を可能な限り実現する値、すなわち最適化の条件に対して最適化された値となる。しかしながら、かかる基底状態を古典的な計算により算出するには、時間がかかる。   Here, the Ising model having the Hamiltonian generated by the optimization device 10 has a ground state that minimizes the energy of the entire system. In such a ground state, the value of each lattice point is a value that realizes the condition set as an interaction between the lattice points as much as possible, that is, a value optimized with respect to the optimization condition. However, it takes time to calculate such a ground state by classical calculation.

そこで、最適化装置10は、量子揺らぎを用いた量子計算を行う量子計算装置に、生成したハミルトニアンを有するイジングモデルの基底状態を検索させる。例えば、最適化装置10は、任意の接続関係を再現可能な複数の量子ビットからなる量子計算装置を有する。そして、最適化装置10は、量子計算装置の各量子ビットにイジングモデルの各格子点をマッピングさせ、各量子ビット間の相互作用に、イジングモデルの各格子点間の相互作用を示す係数をマッピングさせる。そして、最適化装置10は、量子アニーリングの技術を用いて、イジングモデルをマッピングした系の基底状態を検索させる。   Therefore, the optimization device 10 causes the quantum computing device that performs quantum computation using quantum fluctuations to search the ground state of the Ising model having the generated Hamiltonian. For example, the optimization device 10 includes a quantum computing device including a plurality of qubits that can reproduce an arbitrary connection relationship. Then, the optimization device 10 maps each Ising model lattice point to each qubit of the quantum computing device, and maps a coefficient indicating an interaction between each Ising model lattice point to each qubit interaction. Let Then, the optimization apparatus 10 searches for the ground state of the system to which the Ising model is mapped using the technique of quantum annealing.

例えば、量子計算装置は、各量子ビットの値が一様な重ね合わせ状態から、生成したハミルトニアンが示すイジングモデルへと時間発展させることで、かかるイジングモデルの基底状態を検索する(ステップS3)。ここで、最適化装置10が生成するイジングモデルの基底状態は、特徴データ100が示す特徴を適切に抽出可能な結合係数の組がマッピングされた格子点の値が、他の格子点の値よりも大きくなる。このため、最適化装置10は、量子計算装置の計算結果から、最も値が大きい格子点を特定し、特定した格子点にマッピングした結合係数の組を出力する。例えば、最適化装置10は、特定した格子点にマッピングした結合係数の値ω11〜ωjjの値を示す結合係数リストを出力する(ステップS4)。 For example, the quantum computing device searches the ground state of the Ising model by temporally evolving from an overlapped state where the values of each qubit are uniform to the Ising model indicated by the generated Hamiltonian (step S3). Here, the ground state of the Ising model generated by the optimization device 10 is such that the value of the grid point to which the combination of coupling coefficients capable of appropriately extracting the feature indicated by the feature data 100 is mapped is greater than the value of the other grid point. Also grows. For this reason, the optimizing device 10 identifies the lattice point having the largest value from the calculation result of the quantum computing device, and outputs a set of coupling coefficients mapped to the identified lattice point. For example, the optimization apparatus 10 outputs a coupling coefficient list indicating the coupling coefficient values ω 11 to ω jj mapped to the identified lattice points (step S4).

なお、最適化装置10が生成したイジングモデルの基底状態を検索する処理は、上述した説明に限定されるものではない。例えば、量子計算においては、格子モデル等の断熱モデルと、任意の量子回路を用いた回路モデルとは等価である。このため、量子アニーリングを用いた量子計算は、連続的に量子ゲートを作用させる量子回路と等価であるため、最適化装置10は、生成したハミルトニアンが示すイジングモデルを、量子ゲートを組み合わせた量子回路を再現する任意のハードウェアによって最適化すればよい。例えば、最適化装置10は、核磁気共鳴、量子ドット、ジョセフソン素子、イオントラップ、光子等を用いて量子計算を行う量子計算装置を用いて、生成したイジングモデルの基底状態を検索すればよい。   Note that the process of searching the ground state of the Ising model generated by the optimization device 10 is not limited to the above description. For example, in quantum computation, an adiabatic model such as a lattice model and a circuit model using an arbitrary quantum circuit are equivalent. For this reason, since quantum computation using quantum annealing is equivalent to a quantum circuit that continuously operates a quantum gate, the optimization apparatus 10 uses an Ising model represented by the generated Hamiltonian as a quantum circuit that combines quantum gates. Can be optimized by any hardware that reproduces. For example, the optimization apparatus 10 may search the ground state of the generated Ising model using a quantum calculation apparatus that performs quantum calculation using nuclear magnetic resonance, quantum dots, Josephson elements, ion traps, photons, and the like. .

また、最適化装置10は、特徴データ100が示す特徴を適切に抽出する結合係数の組がマッピングされた格子点の値を最大化することができるのであれば、任意の態様で、各格子点間の相互作用を示す係数を設定してよい。例えば、最適化装置10は、入力データ101と出力データ102との差分を算出し、算出した差分を再現する学習器Leの結合係数の組を特定する。そして、最適化装置10は、特定した組がマッピングされた更新店の値の絶対値が、他の格子点の値よりも大きくなるように、各格子点間の相互作用を示す係数を設定してもよい。   In addition, the optimization device 10 can arbitrarily set each grid point in any manner as long as it can maximize the value of the grid point to which the combination of coupling coefficients that appropriately extract the feature indicated by the feature data 100 is mapped. A coefficient indicating an interaction between them may be set. For example, the optimization apparatus 10 calculates a difference between the input data 101 and the output data 102 and specifies a combination coefficient combination of the learning device Le that reproduces the calculated difference. Then, the optimization apparatus 10 sets a coefficient indicating the interaction between the lattice points so that the absolute value of the value of the update store to which the identified set is mapped is larger than the values of the other lattice points. May be.

また、上述した説明では、最適化装置10は、学習器Leの全ての結合係数の値の組をそれぞれ格子点にマッピングした。しかしながら、実施形態は、これに限定されるものではなく、最適化装置10は、任意の粒度で、結合係数の値の組を格子点にマッピングして良い。例えば、最適化装置10は、学習器Leが有する層ごとに、結合係数の値の組を格子点にマッピングする。また、最適化装置10は、各層の接続関係に従って、結合係数の値の組をマッピングした格子点の接続関係を設定する。例えば、最適化装置10は、出力層の結合係数の値の組がマッピングされた格子点と、中間層の結合係数の組の値がマッピングされた格子点とを接続する。   In the above description, the optimization apparatus 10 maps all combinations of the values of the coupling coefficients of the learning device Le to the lattice points. However, the embodiment is not limited to this, and the optimization apparatus 10 may map a set of coupling coefficient values to lattice points with an arbitrary granularity. For example, the optimization apparatus 10 maps a set of coupling coefficient values to lattice points for each layer included in the learning device Le. Further, the optimization apparatus 10 sets the connection relation of the lattice points mapping the combination of the coupling coefficient values according to the connection relation of each layer. For example, the optimization apparatus 10 connects a grid point to which a set of coupling coefficient values for the output layer is mapped to a grid point to which a set of coupling coefficient values for the intermediate layer is mapped.

そして、最適化装置10は、入力データ101が入力された場合に出力データ102と同一又は類似するデータを出力する学習器Leの結合係数を再現するように、各層の結合係数の組がマッピングされた格子点の値が他の格子点よりも大きくなるように、各格子点間の相互作用を示す係数を設定する。   Then, when the input data 101 is input, the optimization device 10 maps the combination of the coupling coefficients of each layer so as to reproduce the coupling coefficient of the learning device Le that outputs the same or similar data as the output data 102. The coefficient indicating the interaction between the lattice points is set so that the value of the lattice point becomes larger than the other lattice points.

例えば、最適化装置10は、学習器Leに含まれる層をL〜Lとし、層Lに含まれるノードと層Li+1に含まれるノードとの結合係数の値の組み合わせをωLi,1〜ωLi、nで表すと、ωLi,1を格子点SLi,1にマッピングし、ωLi,2を格子点SLi,2にマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点SLi,1〜SLi,nにマッピングする。また、最適化装置10は、層Li+1に含まれるノードと層Li+2に含まれるノードとの結合係数の値の組み合わせをωL+1,1〜ωL+1,nで表すと、ωLi+1,1を格子点SLi+1,1にマッピングし、ωLi+1,2を格子点SLi+1,2にマッピングし、他の組み合わせについても同様に、それぞれ個別の格子点SLi+1,1〜SLi+1,nにマッピングする。 For example, the optimization system 10, the layers included in the learning unit Le and L 1 ~L n, the combination of values of the coupling coefficient between the nodes comprised in the layer L i + 1 in the layer L i omega Li, When represented by 1 to ω Li, n , ω Li, 1 is mapped to the lattice point S Li, 1 , ω Li, 2 is mapped to the lattice point S Li, 2 , and other combinations are also individually separated in the same manner. Are mapped to lattice points S Li, 1 to S Li, n . Further, the optimization apparatus 10 represents ω Li + 1,1 as ω L + 1,1 to ω L + 1 , n, where the combination of the coupling coefficient values of the nodes included in the layer L i + 1 and the nodes included in the layer L i + 2 is represented by ω L + 1,1 to ω L + 1 , n. Map to the lattice point S Li + 1,1 , map ω Li + 1,2 to the lattice point S Li + 1,2 , and similarly map the other combinations to the individual lattice points S Li + 1,1 to S Li + 1, n . .

また、最適化装置10は、層ごとの接続関係に従って、各格子点の接続を設定する。例えば、最適化装置10は、層Lの結合係数がマッピングされた格子点SLi,1〜SLi,nと、層Li+1の結合係数がマッピングされた格子点SLi+1,1〜SLi+1,nとが相互に接続されたイジングモデルを生成する。そして、最適化装置10は、格子点SLi,1〜SLi,nと、格子点SLi+1,1〜SLi+1,nとの間の相互作用を示す係数を所定の値に設定する。かかる係数の値は、定数であってもよく、式(1)に示すようなノードの関数に応じた値であってもよい。 Moreover, the optimization apparatus 10 sets the connection of each lattice point according to the connection relation for each layer. For example, the optimization unit 10, the layer L grid points coupling coefficient is mapped to i S Li, 1 ~S Li, n and a layer L i + grid point coupling coefficients are mapped in 1 S Li + 1,1 ~S Li + 1 , N are connected to each other. Then, the optimization apparatus 10 sets a coefficient indicating an interaction between the lattice points S Li, 1 to S Li, n and the lattice points S Li + 1,1 to S Li + 1, n to a predetermined value. The value of the coefficient may be a constant or a value corresponding to a function of the node as shown in Expression (1).

また、最適化装置10は、入力データ101が入力された際に出力データ102と同一若しくは類似の出力データを出力する学習器Leに含まれる格子点の組がマッピングされた格子点の値が他の格子点の値よりも大きくなるように、各格子点間の相互作用を示す係数を操作する。例えば、最適化装置10は、入力データ101が入力された際に出力データ102と同一若しくは類似の出力データを出力する学習器Leに、ωLi,xとωLi+1,yとが含まれる場合は、ωLi,xがマッピングされた格子点SLi,xの値と、ωLi+1,yがマッピングされた格子点SLi+1,yとの値が大きくなるように、格子点間の相互作用を示す係数を操作する。 In addition, the optimization apparatus 10 uses other values of grid points to which a set of grid points included in the learning device Le that outputs the same or similar output data as the output data 102 when the input data 101 is input. The coefficient indicating the interaction between the lattice points is manipulated so that the value is larger than the value of the lattice points. For example, when the learning device Le that outputs output data that is the same as or similar to the output data 102 when the input data 101 is input, the optimization device 10 includes ω Li, x and ω Li + 1, y. The interaction between the lattice points is shown so that the value of the lattice point S Li, x mapped to ω Li, x and the value of the lattice point S Li + 1, y mapped to ω Li + 1, y becomes large. Manipulate the coefficients.

上述した処理の結果生成されるハミルトニアンの基底状態は、特徴データ100が示す特徴を最も適切に学習した学習器Leに含まれる各層の結合係数の組がマッピングされた複数の格子点の値が他の格子点の値よりも大きな値となる。この結果、最適化装置10は、各層ごとに、結合係数の組をマッピングした格子点のうち基底状態において最も値が大きい格子点を特定し、特定した各格子点が示す結合係数の組を含む結合係数リストを出力できる。   The ground state of the Hamiltonian generated as a result of the above-described processing includes values of a plurality of lattice points to which a set of coupling coefficients of each layer included in the learning device Le that has most appropriately learned the feature indicated by the feature data 100 is mapped. The value is larger than the value of the grid point. As a result, for each layer, the optimization apparatus 10 identifies the lattice point having the largest value in the ground state among the lattice points mapping the combination of coupling coefficients, and includes the combination of coupling coefficients indicated by the identified lattice points. A coupling coefficient list can be output.

このように、最適化装置10は、結合係数の組を格子点にマッピングし、学習する特徴に応じて、格子点間の相互作用を示す係数の値を設定したイジングモデルのハミルトニアンを生成する。そして、最適化装置10は、生成したハミルトニアンの基底状態を、量子計算装置に算出させ、算出させた基底状態における各格子点の値に基づいて、結合係数の組を出力する。この結果、最適化装置10は、学習器Leに多くのノードが含まれる場合にも、量子計算を用いて結合係数の最適化を行うことができるので、学習器Leの学習に要する時間を短縮することができる。   As described above, the optimization apparatus 10 maps a set of coupling coefficients to lattice points, and generates an Ising model Hamiltonian in which a coefficient value indicating an interaction between lattice points is set according to a feature to be learned. Then, the optimization device 10 causes the quantum computing device to calculate the generated ground state of the Hamiltonian, and outputs a set of coupling coefficients based on the value of each lattice point in the calculated ground state. As a result, the optimization apparatus 10 can optimize the coupling coefficient using the quantum calculation even when the learning device Le includes many nodes, and thus shortens the time required for learning of the learning device Le. can do.

すなわち、最適化装置10は、ノード間の接続経路に設定された結合係数の組を重ね合わせ状態にし、学習する特徴に応じて、重ね合わせ状態となった各結合係数の組の観測確率を変化させる。より具体的には、式(5)のブラケット表記に示したように、最適化装置10は、結合係数ωijの値を重ね合わせ状態にして計算を行う。そして、最適化装置10は、最終的に観測された結合係数の組を出力する。このため、最適化装置10は、バックプロパゲーション法等を用いて、試行錯誤的に結合係数を求めずとも、量子計算を用いて結合係数を最適化することができる。 In other words, the optimization apparatus 10 puts the combination of coupling coefficients set in the connection path between the nodes into a superposed state, and changes the observation probability of each superposed coupling coefficient set according to the feature to be learned. Let More specifically, as indicated by the bracket notation in Equation (5), the optimization apparatus 10 performs the calculation with the values of the coupling coefficients ω ij in an overlapping state. Then, the optimization apparatus 10 outputs the finally observed combination coefficient set. For this reason, the optimization apparatus 10 can optimize a coupling coefficient using a quantum calculation, without using a back propagation method etc. and calculating | requiring a coupling coefficient by trial and error.

また、最適化装置10は、結合係数の組を重ね合わせ状態にし、特徴に応じて観測確率を変化させ、最終的に観測された結合係数の組を出力する。この結果、最適化装置10は、各結合係数の組について特徴を上手く抽出できているかを同時に判定することとなるので、出力する結合係数の組が、いわゆる局所解に陥いるのを防ぐことができる。また、最適化装置10は、学習器Leの過学習を防ぐことができる。   Further, the optimization apparatus 10 puts the combination of coupling coefficients into a superposed state, changes the observation probability according to the feature, and outputs the finally observed combination of coupling coefficients. As a result, the optimization apparatus 10 simultaneously determines whether or not the feature has been successfully extracted for each combination of coupling coefficients, so that the combination of output coupling coefficients can be prevented from falling into a so-called local solution. it can. Further, the optimization device 10 can prevent overlearning of the learning device Le.

ここで、層ごとの学習やプレトレーニング等により学習器Leに特徴を学習させた場合、学習器Le全体での性能が低下する恐れがある。しかしながら、最適化装置10は、学習器Leに含まれる全ての結合係数の組を重ね合わせ状態にする。このため、最適化装置10は、層ごとの学習やプレトレーニング等によって最適化された学習器Leよりも、学習器Le全体でより最適化された学習器Leの結合係数を求めることができる。   Here, when the learner Le learns features by learning for each layer, pre-training, or the like, the performance of the entire learner Le may be reduced. However, the optimization apparatus 10 puts all combinations of coupling coefficients included in the learning device Le into a superposed state. For this reason, the optimization apparatus 10 can obtain | require the coupling coefficient of the learning device Le optimized more in the whole learning device Le rather than the learning device Le optimized by the learning for every layer, pre-training, etc.

〔2.最適化装置の構成〕
次に、図4を用いて、実施形態に係る最適化装置10の構成について説明する。図4は、実施形態に係る最適化装置が有する機能構成の一例を示す図である。図4に示すように、最適化装置10は、入力装置20および出力装置30と接続されている。また、最適化装置10は、取得部11、生成部12、量子計算装置13、出力部17を有する。また、量子計算装置13は、状態再現部14、操作部15、観測部16を有する。また、状態再現部14は、複数の量子ビット14a〜14dを有する。
[2. Optimization device configuration)
Next, the configuration of the optimization apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a functional configuration included in the optimization apparatus according to the embodiment. As shown in FIG. 4, the optimization device 10 is connected to the input device 20 and the output device 30. The optimization apparatus 10 includes an acquisition unit 11, a generation unit 12, a quantum calculation device 13, and an output unit 17. The quantum computation device 13 includes a state reproduction unit 14, an operation unit 15, and an observation unit 16. The state reproduction unit 14 includes a plurality of quantum bits 14a to 14d.

入力装置20は、最適化装置10に特徴データ10の入力を行うための入力デバイスであり、例えば、HDD(Hard Disk Drive)やフラッシュメモリ等の記録媒体から特徴データ100を読み出すことができる読出装置である。例えば、入力装置20は、フラッシュメモリ等の記録媒体から特徴データ100を読み出すと、読み出した特徴データを最適化装置10に出力する。   The input device 20 is an input device for inputting the feature data 10 to the optimization device 10. For example, the reading device can read the feature data 100 from a recording medium such as an HDD (Hard Disk Drive) or a flash memory. It is. For example, when the input device 20 reads the feature data 100 from a recording medium such as a flash memory, the input device 20 outputs the read feature data to the optimization device 10.

出力装置30は、例えば、モニタやプリンタ等によって実現され、特徴データ100が示す特徴に対して最適化装置10が最適化した学習器Leの各結合係数の値を含む結合係数リストを受信すると、受信した結合係数リストを表示若しくは印刷する出力装置である。   For example, the output device 30 is realized by a monitor, a printer, or the like, and receives the coupling coefficient list including the values of the coupling coefficients of the learning device Le optimized by the optimization device 10 with respect to the feature indicated by the feature data 100. An output device that displays or prints a received coupling coefficient list.

取得部11は、入力装置20から特徴データ100を取得すると、特徴データ100に含まれる入力データ101と、入力データ101に対応する出力データ102とを抽出し、抽出した入力データ101と出力データ102とを生成部12に出力する。   When acquiring the feature data 100 from the input device 20, the acquisition unit 11 extracts input data 101 included in the feature data 100 and output data 102 corresponding to the input data 101, and the extracted input data 101 and output data 102 are extracted. Are output to the generation unit 12.

生成部12は、学習器Leに含まれるノード間の各結合係数の値の組をイジングモデルの格子点にあてはめ、入力データ101と出力データ102とが示す特徴に基づいて、イジングモデルの各格子点間の相互作用を示す係数の値を設定したハミルトニアンを生成する。例えば、生成部12は、学習器Leに含まれるノードの数に応じて、結合係数の値の組を全てマッピング可能な数の格子を有するイジングモデルを生成する。また、生成部12は、層ごとに結合係数の組をマッピングする場合は、各層に含まれるノードの数や、層の間の接続関係に応じた次元数を有するイジングモデルを生成する。そして、生成部12は、生成したイジングモデルの各格子点に、結合係数の値の組をマッピングする。   The generation unit 12 applies a set of values of coupling coefficients between nodes included in the learning device Le to lattice points of the Ising model, and based on the characteristics indicated by the input data 101 and the output data 102, each lattice of the Ising model Generate a Hamiltonian with coefficients set to indicate the interaction between points. For example, the generation unit 12 generates an Ising model having a number of grids that can map all combinations of coupling coefficient values according to the number of nodes included in the learning device Le. Further, when mapping the set of coupling coefficients for each layer, the generation unit 12 generates an Ising model having a number of dimensions corresponding to the number of nodes included in each layer and the connection relationship between the layers. Then, the generation unit 12 maps a combination of coupling coefficient values to each lattice point of the generated Ising model.

また、生成部12は、取得部11から受付けた入力データ101と出力データ102との特徴に基づいて、各格子点間の相互作用を示す係数の値を設定する。例えば、生成部12は、取得部11から受付けた入力データ101を入力した際に、出力データ102と同一または類似のデータを出力する学習器Leに含まれる結合係数の値の組を特定し、特定した組をマッピングした格子点の値が他の格子点の値よりも大きい値となるように、各格子点間の相互作用を示す係数の値を設定する。   In addition, the generation unit 12 sets a coefficient value indicating an interaction between the lattice points based on the characteristics of the input data 101 and the output data 102 received from the acquisition unit 11. For example, when the generation unit 12 inputs the input data 101 received from the acquisition unit 11, the generation unit 12 specifies a combination coefficient value set included in the learning device Le that outputs the same or similar data as the output data 102. The value of the coefficient indicating the interaction between the respective grid points is set so that the value of the grid point mapping the identified set is larger than the values of the other grid points.

例えば、図5は、実施形態にかかる最適化装置が生成するイジングモデルの一例を説明するための図である。なお、図5に示す例では、3つの結合係数の組を、格子点S、S、Sにマッピングする処理の一例について記載した。例えば、生成部12は、格子点Sに結合係数の組iをマッピングし、Sに結合係数の組jをマッピングし、Sに結合係数の組kをマッピングする。 For example, FIG. 5 is a diagram for explaining an example of an Ising model generated by the optimization apparatus according to the embodiment. In the example illustrated in FIG. 5, an example of processing for mapping a set of three coupling coefficients to the lattice points S i , S j , and S k is described. For example, generator 12 maps the set i of the coupling coefficient to the lattice point S i, mapping the set j of the coupling coefficient to S j, maps a set k of the coupling coefficient in S k.

続いて、生成部12は、結合係数の組i〜kを有する学習器Leをそれぞれ準備し、入力データ101を各学習器Leに入力する。そして、生成部12は、各学習器Leが出力するデータと取得部11から受付けた出力データ102とを比較し、同一または類似のデータを出力した学習器Leの結合係数の組を特定する。そして、生成部12は、特定した学習器Leの結合係数の組をマッピングした格子点同士の値が同じになるように格子点間の相互作用を示す係数の値を設定する。   Subsequently, the generation unit 12 prepares learning devices Le having combinations of coupling coefficients i to k, and inputs the input data 101 to each learning device Le. Then, the generation unit 12 compares the data output from each learning device Le with the output data 102 received from the acquisition unit 11, and identifies the combination coefficient combination of the learning devices Le that output the same or similar data. Then, the generation unit 12 sets the coefficient value indicating the interaction between the lattice points so that the values of the lattice points obtained by mapping the set of coupling coefficients of the specified learning device Le are the same.

例えば、生成部12は、入力データ101を各学習器Leに入力した際に、結合係数の組iを有する学習器Leと、結合係数の組jを有する学習器Leとが、出力データ102と同一または類似のデータを出力した場合は、以下の処理を実行する。まず、生成部12は、結合係数の組iがマッピングされた格子点Sと結合係数の組kがマッピングされた格子点Sとの間の相互作用を示す係数の値Jikの値を減少させる。また、生成部12は、結合係数の組jがマッピングされた格子点Sと他の格子点との間の相互作用を示す係数Jij、Jkjの値を増加させる。 For example, when the generation unit 12 inputs the input data 101 to each learning device Le, the learning device Le having the combination coefficient set i and the learning device Le having the combination coefficient set j are connected to the output data 102. When the same or similar data is output, the following processing is executed. First, the generation unit 12 sets the value of the coefficient value J ik indicating the interaction between the lattice point S i mapped with the coupling coefficient set i and the lattice point S k mapped with the coupling coefficient set k. Decrease. In addition, the generation unit 12 increases the values of the coefficients J ij and J kj indicating the interaction between the lattice point S j to which the coupling coefficient set j is mapped and other lattice points.

また、生成部12は、特徴データ100に含まれる入力データ101と出力データ102との組ごとに、上述した処理を実行する。そして、生成部12は、上述した処理の結果生成したイジングモデルを量子計算装置13に出力する。   Further, the generation unit 12 performs the above-described processing for each set of the input data 101 and the output data 102 included in the feature data 100. Then, the generation unit 12 outputs the Ising model generated as a result of the above-described processing to the quantum calculation device 13.

図4に戻り、説明を続ける。量子計算装置13は、量子計算を用いて、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態を検索する装置であり、いわゆる量子コンピュータである。例えば、量子計算装置13は、複数の値を重ね合わせ状態で保持することができる複数の量子ビット14a〜14dを有し、各量子ビット14a〜14dを用いてイジングモデルの状態を再現可能な状態再現部14を有する。   Returning to FIG. 4, the description will be continued. The quantum computing device 13 is a so-called quantum computer that uses quantum computation to search the ground state of the Ising model indicated by the Hamiltonian generated by the generating unit 12. For example, the quantum computing device 13 has a plurality of qubits 14a to 14d that can hold a plurality of values in a superposed state, and can reproduce the state of the Ising model using each qubit 14a to 14d. A reproduction unit 14 is included.

このような量子計算装置13の操作部15は、生成部12が生成したハミルトニアンを受付けると、状態再現部14が有する各量子ビット14a〜14dと、各量子ビット14a〜14d間の結合係数とを制御することにより、生成部12から受付けたハミルトニアンが示すイジングモデルの基底状態を量子的に算出する。   When the operation unit 15 of the quantum computing device 13 receives the Hamiltonian generated by the generation unit 12, the operation unit 15 determines the qubits 14a to 14d included in the state reproduction unit 14 and the coupling coefficient between the qubits 14a to 14d. By controlling, the ground state of the Ising model indicated by the Hamiltonian received from the generation unit 12 is quantum-calculated.

例えば、量子ビットは、以下の式(8)で示される状態に設定されうる。式(8)に示す状態の量子ビットを観測した場合、値「0」を観測する確率は、αの絶対値の累乗であり、値「1」を観測する確率は、βの絶対値の累乗となる。   For example, the qubit can be set to the state shown by the following equation (8). When the qubit in the state shown in Expression (8) is observed, the probability of observing the value “0” is a power of the absolute value of α, and the probability of observing the value “1” is the power of the absolute value of β. It becomes.

Figure 2017059071
Figure 2017059071

ここで、式(8)に示すαとβとは、以下の式(9)を満たす複素数である。   Here, α and β shown in the equation (8) are complex numbers that satisfy the following equation (9).

Figure 2017059071
Figure 2017059071

まず、操作部15は、初期状態として、各量子ビット14a〜14dに対して一様な状態を設定する。例えば、操作部15は、各量子ビット14a〜14dに対し、以下の式(10)に示す状態を設定する。式(10)に示す状態が設定された場合、各量子ビット14a〜14dをそれぞれ個別に観測すると、0または1が同じ確率で観測されることとなる。   First, the operation unit 15 sets a uniform state for each of the qubits 14a to 14d as an initial state. For example, the operation unit 15 sets the state shown in the following expression (10) for each qubit 14a to 14d. When the state shown in Expression (10) is set, when each of the qubits 14a to 14d is observed individually, 0 or 1 is observed with the same probability.

Figure 2017059071
Figure 2017059071

そして、操作部15は、初期状態から、生成部12が生成したハミルトニアンが示す状態へと各量子ビット14a〜14dの状態を時間発展させることで、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態を検索する。   Then, the operation unit 15 temporally develops the states of the qubits 14a to 14d from the initial state to the state indicated by the Hamiltonian generated by the generation unit 12, so that the Ising model indicated by the Hamiltonian generated by the generation unit 12 is displayed. Search ground state.

例えば、操作部15は、Jijの値に基づいて、各量子ビット間の相互作用を設定する。そして、操作部15は、量子ビット14aの状態を時間発展させる。上述した時間発展が十分に行われた場合、各量子ビット14a〜14dの状態は、生成部12が生成したハミルトニアンが示すイジングモデルの基底状態となる。例えば、量子ビット14aの状態が式(3)で示される場合、時間発展によりαとβとの値が、Jijの値に基づいて徐々に変化する。そして、観測部16は、時間発展された各量子ビット14a〜14dの状態を観測することで、イジングモデルの基底状態を観測できる。そして、観測部16は、特定したイジングモデルの基底状態、すなわち、観測した際における各量子ビット14a〜14dの値を出力部17に出力する。 For example, the operation unit 15 sets an interaction between qubits based on the value of J ij . Then, the operation unit 15 develops the state of the qubit 14a over time. When the time development described above is sufficiently performed, the states of the qubits 14a to 14d become the ground state of the Ising model indicated by the Hamiltonian generated by the generation unit 12. For example, when the state of the qubit 14a is expressed by Equation (3), the values of α and β gradually change based on the value of J ij due to time evolution. And the observation part 16 can observe the ground state of an Ising model by observing the state of each quantum bit 14a-14d developed in time. Then, the observation unit 16 outputs to the output unit 17 the ground state of the identified Ising model, that is, the value of each qubit 14a to 14d when observed.

ここで、図6を用いて、量子計算装置13が実行する処理の概念を説明する。図6は、実施形態にかかる量子計算装置が実行する処理の一例を説明するための図である。なお、図6に示す例では、ハミルトニアンの値を縦軸とし、各格子点の値の組み合わせを横軸とした上で、生成部12が生成したイジングモデルにおけるハミルトニアンの値を、各格子点の値の組み合わせ毎に、実線で示した。   Here, the concept of processing executed by the quantum computation device 13 will be described with reference to FIG. FIG. 6 is a diagram for explaining an example of processing executed by the quantum computation device according to the embodiment. In the example shown in FIG. 6, the Hamiltonian value in the Ising model generated by the generation unit 12 is set to the value of each lattice point with the Hamiltonian value on the vertical axis and the combination of the values of each lattice point on the horizontal axis. Each value combination is indicated by a solid line.

例えば、量子計算装置13は、各量子ビット14a〜14dの値を取りうる値の重ね合わせ状態とする。この結果、量子計算装置13は、図6中の点線丸印に示すように、イジングモデルにおける各格子点の値の全組み合わせを再現する。そして、量子計算装置13は、図6中の点線矢印に示すように、各量子ビット14a〜14dの状態を、生成部12が生成したイジングモデルのハミルトニアンが示す状態へと時間発展させることで、格子点間の値の各組み合わせにおけるハミルトニアンの値を再現する。かかる処理は、各量子ビット14a〜14dを量子状態に保ったままで行われる。   For example, the quantum computing device 13 sets the superposed state of values that can take the values of the quantum bits 14a to 14d. As a result, the quantum computation device 13 reproduces all combinations of the values of the lattice points in the Ising model, as indicated by the dotted circles in FIG. Then, as indicated by the dotted arrows in FIG. 6, the quantum computing device 13 causes the state of each qubit 14a to 14d to evolve into a state indicated by the Hamiltonian of the Ising model generated by the generation unit 12, Reproduce the Hamiltonian value for each combination of values between grid points. Such processing is performed while the qubits 14a to 14d are kept in the quantum state.

ここで、ハミルトニアンの値が最小の値を取る状態は、系の中で最も安定した状態である。このため、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dを観測した場合、図6に示すように、ハミルトニアンの値が最小の値となる状態ωが観測される可能性が高い。そこで、量子計算装置13は、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dの値を観測することで、ハミルトニアンの値が極小値に陥ることなく、最小となるイジングモデルの各格子点の値を特定する。   Here, the state in which the value of the Hamiltonian takes the minimum value is the most stable state in the system. For this reason, when the qubits 14a to 14d that are sufficiently developed in time with the quantum state maintained are observed, a state ω in which the value of the Hamiltonian is minimum may be observed as shown in FIG. Is expensive. Therefore, the quantum computing device 13 observes the value of each of the qubits 14a to 14d that has been sufficiently developed while maintaining the quantum state, so that the value of the Hamiltonian is minimized without falling into a minimum value. Specify the value of each grid point.

図4に戻り、説明を続ける。出力部17は、観測部16が観測した各量子ビット14a〜14dの値を受付けると、かかる値に基づいて、最適化された結合係数を含む結合係数リストを出力装置30に出力する。例えば、出力部17は、各量子ビット14a〜14dの値を、各量子ビット14a〜14dと対応するイジングモデルの格子点の値とする。そして、出力部17は、イジングモデルの各格子点から出力データを逆マッピングすることで、最適化されたデータを取得し、取得したデータに対応する結合係数の組を含む結合係数リストを出力装置30に出力する。例えば、出力部17は、ある格子点の値が「1」であり、他の格子点の値が「−1」である場合は、値が「1」の格子点にマッピングした結合係数の組を含む結合係数リストを出力装置30に出力する。   Returning to FIG. 4, the description will be continued. When the output unit 17 receives the values of the qubits 14 a to 14 d observed by the observation unit 16, the output unit 17 outputs a coupling coefficient list including the optimized coupling coefficients to the output device 30 based on the values. For example, the output unit 17 sets the value of each qubit 14a to 14d as the value of the lattice point of the Ising model corresponding to each qubit 14a to 14d. The output unit 17 obtains optimized data by inverse mapping output data from each lattice point of the Ising model, and outputs a coupling coefficient list including a combination of coupling coefficients corresponding to the acquired data. Output to 30. For example, when the value of a certain lattice point is “1” and the value of another lattice point is “−1”, the output unit 17 sets a combination coefficient that is mapped to the lattice point having a value of “1”. Is output to the output device 30.

〔3.最適化装置が実行する処理の流れ〕
次に、図7を用いて、実施形態に係る最適化装置10が実行する処理の流れについて説明する。図7は、実施形態に係る最適化装置が実行する処理の一例を説明するための図である。まず、最適化装置10は、入力データ101と出力データ102とを取得する(ステップS101)。また、最適化装置10は、各ノード間の結合係数の組をイジングモデルの各格子点にマッピングする(ステップS102)。また、最適化装置10は、入力データ101と出力データ102とが示す特徴に基づいて、イジングモデルの各格子点間の相互作用を示す係数の値を設定する(ステップS103)。
[3. Flow of processing executed by optimization device]
Next, the flow of processing executed by the optimization apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 7 is a diagram for explaining an example of processing executed by the optimization apparatus according to the embodiment. First, the optimization apparatus 10 acquires input data 101 and output data 102 (step S101). Further, the optimization apparatus 10 maps the set of coupling coefficients between the nodes to the lattice points of the Ising model (step S102). Further, the optimization apparatus 10 sets a coefficient value indicating an interaction between lattice points of the Ising model based on the characteristics indicated by the input data 101 and the output data 102 (step S103).

そして、最適化装置10は、量子計算機13の量子ビットをイジングモデルの基底状態に時間発展させる(ステップS104)。また、最適化装置10は、時間発展させた量子ビットを観測することで、イジングモデルの基底状態を取得する(ステップS105)。そして、最適化装置10は、観測結果を逆マッピングしたデータ、すなわち、値が最も大きい格子点にマッピングした結合係数の組を含む結合係数リストを最適化結果として出力し(ステップS106)、処理を終了する。   Then, the optimization apparatus 10 causes the quantum bits of the quantum computer 13 to evolve over time into the ground state of the Ising model (step S104). Also, the optimization apparatus 10 acquires the ground state of the Ising model by observing the qubits that have evolved over time (step S105). Then, the optimization apparatus 10 outputs, as an optimization result, data obtained by inversely mapping the observation result, that is, a coupling coefficient list including a combination of coupling coefficients mapped to the lattice point having the largest value (step S106). finish.

〔4.変形例〕
上述した実施形態に係る最適化装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の最適化装置10の他の実施形態について説明する。
[4. (Modification)
The optimization apparatus 10 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, in the following, another embodiment of the optimization device 10 will be described.

〔4−1.イジングモデルについて〕
なお、上述した最適化装置10は、イジングモデルの各格子点に、結合係数の組をマッピングし、入力データ101と出力データ102とが示す特徴に基づいて各格子点間を連結する重みの値を設定した。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、イジングモデル以外のモデルに結合係数の組をマッピングしてもよい。このような処理を実行した場合は、最適化装置10は、「+1」や「−1」といった2値の値ではなく、連続値を求めることができる。
[4-1. About Ising model)
Note that the optimization apparatus 10 described above maps a set of coupling coefficients to each lattice point of the Ising model, and a weight value that connects the lattice points based on the characteristics indicated by the input data 101 and the output data 102. It was set. However, the embodiment is not limited to this. For example, the optimization apparatus 10 may map a combination of coupling coefficients to a model other than the Ising model. When such processing is executed, the optimization apparatus 10 can obtain a continuous value instead of a binary value such as “+1” or “−1”.

〔4−2.1層のみの算出〕
また、上述した最適化装置10は、学習器Leが有する全ての接続経路について結合係数を算出した。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、いずれか1つの層と他の層との間の接続経路についての結合係数を算出してもよい。
[Calculation of 4-2.1 layer only]
Moreover, the optimization apparatus 10 mentioned above calculated the coupling coefficient about all the connection paths which the learning device Le has. However, the embodiment is not limited to this. For example, the optimization apparatus 10 may calculate a coupling coefficient for a connection path between any one layer and another layer.

〔4−3.その他〕
ここで、最適化装置10は、学習器Leを実際に稼働させる際には使用させないダミー経路を考慮した処理を行ってもよい。例えば、最適化装置10は、ダミー経路を含むすべての接続経路に設定された結合係数の組を重ね合わせ状態にし、最適な結合係数の組を量子計算により算出してもよい。
[4-3. Others]
Here, the optimization apparatus 10 may perform processing in consideration of dummy paths that are not used when the learning device Le is actually operated. For example, the optimizing device 10 may put the combination of coupling coefficients set in all connection paths including the dummy path into a superposed state, and calculate the optimal coupling coefficient group by quantum calculation.

また、最適化装置10は、畳み込みを考慮した処理を行ってもよい。例えば、最適化装置10は、接続経路に設定される結合係数の値を変化させた結合係数の組だけではなく、それぞれ異なるノード間での畳み込みが行われた結合係数の組についても重ね合わせ状態にすればよい。すなわち、最適化装置10は、畳み込みの態様ごとに、全ての接続経路に設定される結合係数の値の組み合わせを求め、全ての畳み込みの態様について、求められた全ての結合係数の組の組み合わせを重ね合わせ状態にしてもよい。   Further, the optimization apparatus 10 may perform processing in consideration of convolution. For example, the optimizing device 10 does not only superimpose not only the combination of coupling coefficients in which the value of the coupling coefficient set to the connection path is changed but also the combination of coupling coefficients that are convolved between different nodes. You can do it. That is, the optimization apparatus 10 obtains combinations of coupling coefficient values set for all connection paths for each convolution mode, and obtains all combinations of combinations of coupling coefficients obtained for all convolution modes. You may be in a superposition state.

〔4−4.ハードウェア構成について〕
上述した最適化装置10は、ハミルトニアンが示すイジングモデルの基底状態を検索する量子計算装置13を有していた。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、取得部11、生成部12、出力部17のみを有し、外部に設置された量子計算装置13に基底状態を検索させてもよい。
[4-4. (Hardware configuration)
The optimization device 10 described above has the quantum calculation device 13 that searches the ground state of the Ising model indicated by the Hamiltonian. However, the embodiment is not limited to this. For example, the optimization apparatus 10 may include only the acquisition unit 11, the generation unit 12, and the output unit 17, and may cause the quantum computation device 13 installed outside to search for a ground state.

また、最適化装置10が有する各機能構成のうち、取得部11、生成部12、出力部17が発揮する処理は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。また、取得部11、生成部12、出力部17が発揮する処理は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサによって、最適化装置10内部の記憶装置に記憶されている最適化プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現されてもよい。   Among the functional configurations of the optimization device 10, the processing performed by the acquisition unit 11, the generation unit 12, and the output unit 17 is an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). May be realized. The processing performed by the acquisition unit 11, the generation unit 12, and the output unit 17 is stored in a storage device inside the optimization device 10 by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), for example. The optimization program may be realized by executing a RAM (Random Access Memory) as a work area.

〔5.効果〕
このように、最適化装置10は、入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器Leの最適化を行う装置であって、ノードn間の接続経路に対して設定される結合係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点間の相互作用を示す係数の値を設定した格子モデルの特定関数を生成する。また、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置13に、生成した特性関数の基底状態における格子点の値を算出させる。そして、最適化装置10は、格子点の値に対応する結合係数の値を出力する。
[5. effect〕
As described above, the optimization apparatus 10 is an apparatus that performs optimization of the learning device Le in which layers including one or more nodes that output an operation result corresponding to input data are connected in multiple stages, and includes a node n The value of the coefficient indicating the interaction between the lattice points of the lattice model is applied to the lattice points of the lattice model by applying the coupling coefficient value set for the connection path between them to the lattice points of the lattice model. Generate a specific function of the lattice model with. Further, the optimization device 10 causes the quantum calculation device 13 that obtains the ground state of the lattice model having the minimum value of the characteristic function using the quantum fluctuation to calculate the value of the lattice point in the ground state of the generated characteristic function. . Then, the optimization apparatus 10 outputs the value of the coupling coefficient corresponding to the value of the grid point.

この結果、最適化装置10は、学習器Leに多くのノードが含まれる場合にも、量子計算を用いて結合係数の最適化を行うことができるので、学習器Leの学習に要する時間を短縮することができる。また、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置13に、生成した特性関数の基底状態における格子点の値を算出させるので、結合係数の値が局所解に陥るのを防ぐことができる。すなわち、最適化装置10は、学習器Leの過学習を防ぐことができる。   As a result, the optimization apparatus 10 can optimize the coupling coefficient using the quantum calculation even when the learning device Le includes many nodes, and thus shortens the time required for learning of the learning device Le. can do. Further, the optimization device 10 causes the quantum calculation device 13 that obtains the ground state of the lattice model having the minimum value of the characteristic function using the quantum fluctuation to calculate the value of the lattice point in the ground state of the generated characteristic function. Therefore, it is possible to prevent the value of the coupling coefficient from falling into a local solution. That is, the optimization apparatus 10 can prevent overlearning of the learning device Le.

また、最適化装置10は、学習器に含まれる全ての接続経路に設定された結合係数の値の組み合わせを格子モデルの格子点にあてはめる。このため、最適化装置10は、最適化された学習器Leの結合係数の値を求めることができる。   Further, the optimization apparatus 10 applies the combination of the coupling coefficient values set for all the connection paths included in the learning device to the lattice points of the lattice model. For this reason, the optimization apparatus 10 can obtain | require the value of the coupling coefficient of the optimized learning device Le.

また、最適化装置10は、所定の層に含まれるノードと他のノードとの接続経路に設定された結合係数の値の組み合わせを格子モデルの格子点にあてはめる。このため、最適化装置10は、層ごとに、最適化された結合係数の値を求めることができる。   Further, the optimization apparatus 10 applies a combination of coupling coefficient values set in a connection path between a node included in a predetermined layer and another node to a lattice point of the lattice model. For this reason, the optimization apparatus 10 can obtain | require the value of the optimized coupling coefficient for every layer.

また、最適化装置10は、所定の層に含まれるノードと他のノードとの接続経路に設定された結合係数の値の組み合わせを、所定の層と接続された他の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせをあてはめた格子点と連結された格子点にあてはめる。このため、最適化装置10は、学習器Le全体での性能を考慮しつつ、層ごとに最適化された結合係数の値を求めることができるので、過学習を防ぐことができる。   In addition, the optimization apparatus 10 uses the combination of the coupling coefficient values set in the connection path between the node included in the predetermined layer and the other node as the node included in the other layer connected to the predetermined layer. A combination of coefficient values set in a connection path with another node is applied to a lattice point connected to the applied lattice point. For this reason, since the optimization apparatus 10 can obtain | require the value of the coupling coefficient optimized for every layer, considering the performance in the whole learning device Le, it can prevent overlearning.

また、最適化装置10は、結合係数の値の組み合わせをあてはめた格子点のうち、入力データ101が入力された場合に出力データ102と同一又は類似するデータを出力する学習器Leの各接続経路に対して設定された結合係数の値をあてはめた格子点の値が所定の値に近づくように、各格子点を連結する重みの値を設定する。このため、最適化装置10は、入力データ101と出力データ102とが示す特徴を適切に学習した学習器Leの結合係数を求めることができる。   Further, the optimization device 10 connects each connection path of the learning device Le that outputs data that is the same as or similar to the output data 102 when the input data 101 is input among the lattice points to which the combination of the coupling coefficient values is applied. The value of the weight for connecting the grid points is set so that the value of the grid point fitted with the value of the coupling coefficient set for is close to a predetermined value. For this reason, the optimization apparatus 10 can obtain | require the coupling coefficient of the learning device Le which learned the characteristic which the input data 101 and the output data 102 show appropriately.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to implement the present invention in other forms with improvements.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。   Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.

1 制御システム
10 最適化装置
11 取得部
12 生成部
13 量子計算装置
14 状態再現部
14a〜14d 量子ビット
15 操作部
16 観測部
17 出力部
20 入力装置
30 出力装置
DESCRIPTION OF SYMBOLS 1 Control system 10 Optimization apparatus 11 Acquisition part 12 Generation part 13 Quantum calculation apparatus 14 State reproduction part 14a-14d Qubit 15 Operation part 16 Observation part 17 Output part 20 Input apparatus 30 Output apparatus

Claims (7)

入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器の最適化を行う最適化装置であって、
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
ことを特徴とする最適化装置。
An optimization device that optimizes a learning device in which layers including at least one node that outputs an operation result according to input data are connected in multiple stages,
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization apparatus, wherein the coefficient value corresponding to the value of the grid point is output.
前記最適化装置は、
前記学習器に含まれる全ての接続経路に設定された係数の値の組み合わせを前記格子モデルの格子点にあてはめる
ことを特徴とする請求項1に記載の最適化装置。
The optimization device includes:
The optimization apparatus according to claim 1, wherein a combination of coefficient values set for all connection paths included in the learning device is applied to a lattice point of the lattice model.
前記最適化装置は、
所定の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせを前記格子モデルの格子点にあてはめる
ことを特徴とする請求項1に記載の最適化装置。
The optimization device includes:
The optimization apparatus according to claim 1, wherein a combination of coefficient values set in a connection path between a node included in a predetermined layer and another node is applied to a lattice point of the lattice model.
前記最適化装置は、
所定の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせを、当該所定の層と接続された他の層に含まれるノードと他のノードとの接続経路に設定された係数の値の組み合わせをあてはめた格子点と連結された格子点にあてはめる
ことを特徴とする請求項3に記載の最適化装置。
The optimization device includes:
The combination of the coefficient values set in the connection path between the node included in the predetermined layer and the other node is used as the connection path between the node included in the other layer connected to the predetermined layer and the other node. The optimization apparatus according to claim 3, wherein the set combination of coefficient values is applied to a grid point connected to the fitted grid point.
前記最適化装置は、
前記係数の値の組み合わせをあてはめた格子点のうち、前記入力データが入力された場合に前記出力データと同一又は類似するデータを出力する学習器の各接続経路に対して設定された係数の値をあてはめた格子点の値が所定の値に近づくように、各格子点を連結する重みの値を設定する
ことを特徴とする請求項1〜4のうちいずれか1つに記載の最適化装置。
The optimization device includes:
Coefficient values set for each connection path of a learning device that outputs data that is the same as or similar to the output data when the input data is input among the lattice points to which the combination of the coefficient values is applied. The optimization device according to any one of claims 1 to 4, wherein a value of a weight for connecting the lattice points is set so that a value of the lattice point fitted with a value approaches a predetermined value. .
入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器の最適化を行う最適化装置が、
前記学習器に入力する入力データと、当該入力データを入力した際に前記学習器に出力させる出力データとを受付けし、
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
ことを特徴とする最適化方法。
An optimization device that optimizes a learning device in which layers including one or more nodes that output an operation result corresponding to input data are connected in multiple stages,
Receiving input data to be input to the learning device and output data to be output to the learning device when the input data is input;
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization method is characterized in that the value of the coefficient corresponding to the value of the grid point is output.
入力されたデータに応じた演算結果を出力するノードが1つ以上含まれる層を多段に接続した学習器の最適化を行う最適化装置が有するコンピュータに、
前記学習器に入力する入力データと、当該入力データを入力した際に前記学習器に出力させる出力データとを受付けし、
異なる層に含まれるノード間の接続経路に対して設定される係数の値を格子モデルの格子点にあてはめ、入力データと出力データとが示す特徴に基づいて、格子モデルの格子点を連結する重みの値を入力値とした格子モデルの特定関数を生成し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記係数の値を出力する
処理を実行させることを特徴とする最適化プログラム。
A computer having an optimization device that optimizes a learning device in which layers including one or more nodes that output operation results corresponding to input data are connected in multiple stages,
Receiving input data to be input to the learning device and output data to be output to the learning device when the input data is input;
Apply the value of the coefficient set for the connection path between nodes in different layers to the lattice points of the lattice model, and connect the lattice points of the lattice model based on the characteristics of the input data and output data Generate a specific function of the lattice model with the value of
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
An optimization program for executing a process of outputting the value of the coefficient corresponding to the value of the grid point.
JP2015184601A 2015-09-18 2015-09-18 Optimization device, optimization method, and optimization program Active JP6378150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015184601A JP6378150B2 (en) 2015-09-18 2015-09-18 Optimization device, optimization method, and optimization program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015184601A JP6378150B2 (en) 2015-09-18 2015-09-18 Optimization device, optimization method, and optimization program

Publications (2)

Publication Number Publication Date
JP2017059071A true JP2017059071A (en) 2017-03-23
JP6378150B2 JP6378150B2 (en) 2018-08-22

Family

ID=58391585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015184601A Active JP6378150B2 (en) 2015-09-18 2015-09-18 Optimization device, optimization method, and optimization program

Country Status (1)

Country Link
JP (1) JP6378150B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235568A1 (en) * 2017-06-23 2018-12-27 株式会社リクルートコミュニケーションズ Feature quantity selection device, feature quantity selection method, and feature quantity selection program
JP2019046038A (en) * 2017-08-31 2019-03-22 株式会社デンソー Evaluation function converter and program
KR20190042240A (en) * 2017-10-16 2019-04-24 두산중공업 주식회사 Grid generation apparatus and method using artificial intelligence
JP2020149523A (en) * 2019-03-15 2020-09-17 日本電信電話株式会社 Determination device, calculation device, and learning system
JP2021512387A (en) * 2018-01-30 2021-05-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Quantum computing device design
US11494659B2 (en) 2019-06-26 2022-11-08 Kioxia Corporation Information processing method and information processing apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146908A (en) * 1995-11-17 1997-06-06 Atr Ningen Joho Tsushin Kenkyusho:Kk Problem solving method
JP2010054938A (en) * 2008-08-29 2010-03-11 Toshiba Corp Quantum simulator, quantum computer and method
US20140200689A1 (en) * 2013-01-11 2014-07-17 The Board Of Trustees Of The Leland Stanford Junior University Quantum computer and quantum computing using ising model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146908A (en) * 1995-11-17 1997-06-06 Atr Ningen Joho Tsushin Kenkyusho:Kk Problem solving method
JP2010054938A (en) * 2008-08-29 2010-03-11 Toshiba Corp Quantum simulator, quantum computer and method
US20140200689A1 (en) * 2013-01-11 2014-07-17 The Board Of Trustees Of The Leland Stanford Junior University Quantum computer and quantum computing using ising model
JP2014134710A (en) * 2013-01-11 2014-07-24 Research Organization Of Information & Systems Quantum computation device for ising model and quantum computation method of ising model

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235568A1 (en) * 2017-06-23 2018-12-27 株式会社リクルートコミュニケーションズ Feature quantity selection device, feature quantity selection method, and feature quantity selection program
JPWO2018235568A1 (en) * 2017-06-23 2020-04-23 株式会社リクルートコミュニケーションズ Feature amount selection device, feature amount selection method, and feature amount selection program
JP7068299B2 (en) 2017-06-23 2022-05-16 株式会社リクルート Feature amount selection device, feature amount selection method and feature amount selection program
JP2019046038A (en) * 2017-08-31 2019-03-22 株式会社デンソー Evaluation function converter and program
KR20190042240A (en) * 2017-10-16 2019-04-24 두산중공업 주식회사 Grid generation apparatus and method using artificial intelligence
KR101997140B1 (en) 2017-10-16 2019-07-05 두산중공업 주식회사 Grid generation apparatus and method using artificial intelligence
JP2021512387A (en) * 2018-01-30 2021-05-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Quantum computing device design
JP7110357B2 (en) 2018-01-30 2022-08-01 インターナショナル・ビジネス・マシーンズ・コーポレーション Quantum computing device design
JP2020149523A (en) * 2019-03-15 2020-09-17 日本電信電話株式会社 Determination device, calculation device, and learning system
JP7101355B2 (en) 2019-03-15 2022-07-15 日本電信電話株式会社 Judgment device, calculation device, and learning system
US11494659B2 (en) 2019-06-26 2022-11-08 Kioxia Corporation Information processing method and information processing apparatus

Also Published As

Publication number Publication date
JP6378150B2 (en) 2018-08-22

Similar Documents

Publication Publication Date Title
JP6378150B2 (en) Optimization device, optimization method, and optimization program
US11853894B2 (en) Meta-learning for multi-task learning for neural networks
Hu et al. Overcoming catastrophic forgetting for continual learning via model adaptation
JP7328993B2 (en) Gradient Adversarial Training of Neural Networks
JP2019061647A (en) Method for sensing abnormal session
EP3364868A2 (en) Generating natural language representations of mental content from functional brain images
Maulik et al. Neural network representability of fully ionized plasma fluid model closures
JP2020119567A (en) Method and device for performing on-device continual learning of neural network which analyzes input data to be used for smartphones, drones, ships, or military purpose, and method and device for testing neural network learned by the same
Wang et al. A robust automated machine learning system with pseudoinverse learning
EP4152273A1 (en) Method and device with image processing
Vardhan et al. Deep learning based fea surrogate for sub-sea pressure vessel
Gavrilov et al. Convolutional neural networks: Estimating relations in the ising model on overfitting
An et al. Examples of naked singularity formation in higher-dimensional Einstein-vacuum spacetimes
Larios-Cárdenas et al. A hybrid inference system for improved curvature estimation in the level-set method using machine learning
Buscema et al. Auto-contractive maps, the H function, and the maximally regular graph (MRG): a new methodology for data mining
JP6970461B2 (en) On-device continuous learning methods and devices for neural networks that analyze input data by optimized sampling of training images for smartphones, drones, ships or military purposes, and test methods and devices that utilize them.
Landman Quantum algorithms for unsupervised machine learning and neural networks
JP2019036207A (en) Optimizing device, optimization method and optimization program
Amirullah et al. Data Classification with Qubit Superposition Approach in Quantum Perceptron
Wu et al. Finding quantum many-body ground states with artificial neural network
Schuld Quantum machine learning for supervised pattern recognition.
KR20200061154A (en) Method and apparatus of analyzing diagram containing visual and textual information
Xue Research on information visualization graphic design teaching based on DBN algorithm
Probst Generative adversarial networks in estimation of distribution algorithms for combinatorial optimization
Vardhan et al. Deep Learning-based Finite Element Analysis (FEA) surrogate for sub-sea pressure vessel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180726

R150 Certificate of patent or registration of utility model

Ref document number: 6378150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250