JP2019036207A - Optimizing device, optimization method and optimization program - Google Patents

Optimizing device, optimization method and optimization program Download PDF

Info

Publication number
JP2019036207A
JP2019036207A JP2017158025A JP2017158025A JP2019036207A JP 2019036207 A JP2019036207 A JP 2019036207A JP 2017158025 A JP2017158025 A JP 2017158025A JP 2017158025 A JP2017158025 A JP 2017158025A JP 2019036207 A JP2019036207 A JP 2019036207A
Authority
JP
Japan
Prior art keywords
difference
generator
value
characteristic function
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017158025A
Other languages
Japanese (ja)
Inventor
祐 宮崎
Yu Miyazaki
祐 宮崎
崇史 宮崎
Takashi Miyazaki
崇史 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017158025A priority Critical patent/JP2019036207A/en
Publication of JP2019036207A publication Critical patent/JP2019036207A/en
Pending legal-status Critical Current

Links

Images

Abstract

To facilitate the optimization of an adversarial net.SOLUTION: An optimizing device according to the present application optimizes the parameters of a generator that generates new information so that a difference between previously generated information and correct answer information is reduced and a difference extractor for outputting a difference between the new information generated by the generator and the correct answer information, the difference being the one that serves as an index when the generator further generates new information. The optimizing device causes a quantum computation device that fits the parameters to the lattice points of a lattice model, sets the characteristic function of the lattice model on the basis of the learning policies of the generator and the difference extractor and finds using quantum fluctuation a ground state of the lattice model where the value of the characteristic function is minimum, to calculate the value of lattice points in the generated ground state of the characteristic function and output the values of the parameters that correspond to the values of the lattice points.SELECTED DRAWING: Figure 1

Description

本発明は、最適化装置、最適化方法および最適化プログラムに関する。   The present invention relates to an optimization device, an optimization method, and an optimization program.

近年、SVM(Support Vector Machine)やDNN(Deep Neural Network)等、任意の特徴を学習可能な学習器を複数準備し、相互に制御させるアドバーサリアルネット(Adversarial Nets)の技術が提案されている。   In recent years, Adversarial Nets technology has been proposed in which a plurality of learning devices such as SVM (Support Vector Machine) and DNN (Deep Neural Network) can be learned and mutually controlled. .

特表2016−531343号公報JP-T-2006-531343 gazette

”Generative Adversarial Nets”, Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio、インターネット<https://arxiv.org/pdf/1406.2661.pdf>、平成29年8月4日検索“Generative Adversarial Nets”, Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, Internet <https://arxiv.org/pdf/1406.2661. pdf>, search on August 4, 2017 ”Quantum Boltzmann Machine”, Mohammad H. Amin, Evgeny Andriyash, Jason Rolfe, Bohdan Kulchytskyy, Roger Melko、インターネット<https://arxiv.org/pdf/1601.02036.pdf>、平成29年8月4日検索“Quantum Boltzmann Machine”, Mohammad H. Amin, Evgeny Andriyash, Jason Rolfe, Bohdan Kulchytskyy, Roger Melko, Internet <https://arxiv.org/pdf/1601.02036.pdf>, search August 4, 2017

ここで、各種の学習器に特徴を学習させ、最適化を行うには、多くの時間や計算資源等が必要となるため、複数の学習器を用いるアドバーサリアルネットの最適化には、さらに多くの時間や計算資源が必要になる傾向がある。   Here, it takes a lot of time and computational resources to learn features and optimize various learners, so further optimization of Adversal Real Net using multiple learners There is a tendency to require a lot of time and computational resources.

本願は、上記に鑑みてなされたものであって、アドバーサリアルネットの最適化を容易にすることを目的とする。   The present application has been made in view of the above, and an object thereof is to facilitate optimization of an adversarial net.

本願に係る最適化装置は、前回生成した情報と正解情報との差分が少なくなるように新たな情報を生成する生成器と、当該生成器が新たに生成した情報と前記正解情報との差分であって、前記生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う最適化装置であって、前記パラメータを格子モデルの格子点にあてはめ、前記生成器と前記差分抽出器との学習方針に基づいて、前記格子モデルの特性関数を設定し、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、前記格子点の値に対応する前記パラメータの値を出力することを特徴とする。   The optimization apparatus according to the present application includes a generator that generates new information so that a difference between previously generated information and correct information is reduced, and a difference between the information newly generated by the generator and the correct information. An optimization device for optimizing a parameter with a difference extractor that outputs a difference as an index when the generator further generates new information, wherein the parameter is used as a lattice point of a lattice model. Fitting, a quantum function that sets a characteristic function of the lattice model based on a learning policy between the generator and the difference extractor, and uses a quantum fluctuation to obtain a ground state of the lattice model that minimizes the value of the characteristic function The calculation device is configured to calculate a value of a lattice point in a ground state of the generated characteristic function, and to output a value of the parameter corresponding to the value of the lattice point.

実施形態の一態様によれば、アドバーサリアルネットの最適化を容易にすることができる。   According to one aspect of the embodiment, optimization of the adversarial net can be facilitated.

図1は、実施形態に係る最適化処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of optimization processing according to the embodiment. 図2は、実施形態に係る最適化装置が有する機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of the optimization apparatus according to the embodiment. 図3は、実施形態にかかる量子計算装置が実行する処理の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of processing executed by the quantum computing device according to the embodiment. 図4は、実施形態に係る最適化装置が実行する処理の一例を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an example of processing executed by the optimization apparatus according to the embodiment.

以下に、本願に係る最適化装置、最適化方法および最適化プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る最適化装置、最適化方法および最適化プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a mode for carrying out an optimization apparatus, an optimization method, and an optimization program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the optimization apparatus, the optimization method, and the optimization program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

〔1.最適化処理〕
まず、図1を用いて、実施形態に係る最適化処理の一例について説明する。図1は、実施形態に係る最適化処理の一例を示す図である。図1では、アドバーサリアルネットと呼ばれる学習器のパラメータを最適化する最適化処理の一例について説明する。
[1. Optimization process)
First, an example of the optimization process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of optimization processing according to the embodiment. In FIG. 1, an example of an optimization process for optimizing a learner parameter called an adversarial net will be described.

まず、最適化装置10が最適化するアドバーサリアルネットANについて説明する。例えば、アドバーサリアルネットは、テキストや画像等といった任意のコンテンツを生成するコンテンツ生成器(以下、「G」と記載する場合がある。)と、コンテンツ生成器が生成したコンテンツと所定の正解データとの差分を抽出する差分抽出器(以下、「D」と記載する場合がある。)とによって構成される。   First, an adversary real network AN optimized by the optimization device 10 will be described. For example, the adversarial net includes a content generator (hereinafter sometimes referred to as “G”) that generates arbitrary content such as text and images, the content generated by the content generator, and predetermined correct answer data. And a difference extractor (hereinafter, may be described as “D”).

ここで、差分抽出器が抽出する「差分」とは、単純にコンテンツと正解データとの数値的な差ではなく、コンテンツと正解データとの意味的な差である。より具体的な例を挙げると、コンテンツ生成器は、ある画家の画風を反映させた画像を生成する。一方、差分抽出器は、実際にその画家が作成した絵画の画像を正解データとし、コンテンツ生成器が生成した画像に反映される画風と正解データに反映された画風とを比較する。そして、差分抽出器は、画風の差分、すなわち、コンテンツ生成器が生成した画像と正解データとなる画像との意味的な差を抽出し、抽出した差を出力する。なお、コンテンツ生成器が生成するコンテンツや正解データは、画像やテキストのみならず、動画像や音声等、任意のコンテンツが採用可能である。   Here, the “difference” extracted by the difference extractor is not simply a numerical difference between the content and the correct answer data but a semantic difference between the content and the correct answer data. As a more specific example, the content generator generates an image reflecting the style of a painter. On the other hand, the difference extractor uses the picture of the painting actually created by the painter as correct data, and compares the style reflected in the image generated by the content generator with the style reflected in the correct data. The difference extractor extracts a style difference, that is, a semantic difference between the image generated by the content generator and the image that is the correct data, and outputs the extracted difference. Note that the content and correct data generated by the content generator can adopt not only images and texts but also arbitrary content such as moving images and voices.

このようなアドバーサリアルネットにおいて、コンテンツ生成器が生成するコンテンツを正解データに近づけるには、差分抽出器が抽出した差がより少なくなるように、コンテンツ生成器を修正するとともに、コンテンツ生成器が生成したコンテンツと正解データとの差をより正確に抽出するように、差分抽出器の学習を行えばよい。すなわち、アドバーサリアルネットにおいて、正解データの特徴を学習させるには、差分抽出器が抽出する差分がより大きくなるように差分抽出器の学習を行い、差分抽出器が抽出する差分がより小さくなるように、コンテンツ生成器の学習を行えばよい。このような学習方針に基づいて、コンテンツ生成器および差分抽出器の学習を行うことで、正解データの特徴を精度良く学習させることができる。   In such an adversa real net, in order to bring the content generated by the content generator closer to correct data, the content generator is modified so that the difference extracted by the difference extractor becomes smaller, and the content generator What is necessary is just to learn a difference extractor so that the difference of the produced | generated content and correct data may be extracted more correctly. That is, in order to learn the features of correct data in the Adversal Real Net, the difference extractor learns so that the difference extracted by the difference extractor becomes larger, and the difference extracted by the difference extractor becomes smaller. In this way, the content generator may be learned. By learning the content generator and the difference extractor based on such a learning policy, it is possible to learn the features of correct data with high accuracy.

しかしながら、このようなアドバーサリアルネットの学習には、多くの正解データや計算リソースが要求される場合がある。例えば、アドバーサリアルネットのコンテンツ生成器や差分抽出器は、DNN(Deep Neural Network)等、複数のノードを多段に接続したモデルであって、各ノード間で値を伝達する際の重み(接続係数)の値を修正することにより、データが有する任意の特徴を学習するモデルによって構成される、しかしながら、このようなモデルに特徴を学習させるには、バックプロパゲーション等の学習手法を用いて、上述した学習方針に従って接続係数の修正を行うこととなり、学習に要する計算リソースが増大する恐れがある。   However, there are cases where a large amount of correct answer data and computational resources are required for learning such an adversarial net. For example, the content generator and difference extractor of Adversal Real Net is a model in which multiple nodes are connected in multiple stages, such as DNN (Deep Neural Network), and the weight (connection for connection) between each node. It is composed of a model that learns an arbitrary feature of data by correcting the value of the coefficient). However, in order to make such a model learn a feature, using a learning method such as back propagation, Since the connection coefficient is corrected in accordance with the learning policy described above, there is a possibility that computational resources required for learning increase.

そこで、最適化装置10は、非特許文献2に示すような機械学習用量子アニーリング等の量子計算を用いて、アドバーサリアルネットの最適化を効率化する。より具体的には、最適化装置10は、生成した情報と正解情報との差分が少なくなるように新たな情報を生成するコンテンツ生成器と、コンテンツ生成器が新たに生成した情報と正解情報との差分であって、コンテンツ生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う。例えば、最適化装置10は、コンテンツ生成器や差分抽出器の有するノード間の接続係数や各ノード間の接続関係をアドバーサリアルネットのパラメータとし、パラメータを格子モデル(イジングモデル)の格子点にあてはめ、コンテンツ生成器と差分抽出器との学習方針に基づいて、格子モデルの特性関数(ハミルトニアン)を設定する。そして、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、生成された特性関数の基底状態における格子点の値を算出させ、算出した格子点の値を出力する。   Therefore, the optimization apparatus 10 uses the quantum computation such as the machine learning quantum annealing as shown in Non-Patent Document 2 to improve the optimization of the adversarial net. More specifically, the optimization apparatus 10 includes a content generator that generates new information so that a difference between the generated information and the correct answer information is reduced, and information and correct information that are newly generated by the content generator. The parameter is optimized with a difference extractor that outputs a difference that serves as an index when the content generator generates new information. For example, the optimization apparatus 10 uses the connection coefficient between nodes of the content generator and the difference extractor and the connection relationship between the nodes as parameters of the adversarial net, and sets the parameters as lattice points of the lattice model (Ising model) Fitting, a characteristic function (Hamiltonian) of the lattice model is set based on the learning policy between the content generator and the difference extractor. Then, the optimization apparatus 10 causes the quantum calculation apparatus that obtains the ground state of the lattice model having the minimum characteristic function value using the quantum fluctuation to calculate the value of the lattice point in the ground state of the generated characteristic function. The value of the calculated grid point is output.

すなわち、最適化装置10は、アドバーサリアルネットのパラメータ、すなわち、コンテンツ生成器や差分抽出器のパラメータの値をイジングモデルの各格子点に対応させた系を設定し、かかる系に対してコンテンツ生成器や差分抽出器の学習方針を反映させた特性関数を設定する。そして、最適化装置10は、非特許文献2に示すような機械学習用量子アニーリング等の技術を用いて、格子モデルの状態を特性関数の値が最小値となる基底状態へと収束させることで、特性関数の値に対応する最適値、すなわち、コンテンツ生成器や差分抽出器の学習方針に対するアドバーサリアルネットのパラメータの最適解を得る。   In other words, the optimization apparatus 10 sets a system in which the values of the parameters of the adversarial net, that is, the parameters of the content generator and the difference extractor are associated with each lattice point of the Ising model, and the content is set for the system. Set a characteristic function that reflects the learning policy of the generator and difference extractor. The optimization apparatus 10 uses a technique such as quantum annealing for machine learning as shown in Non-Patent Document 2 to converge the state of the lattice model to the ground state where the value of the characteristic function is the minimum value. Then, an optimum value corresponding to the value of the characteristic function, that is, an optimum solution of the parameters of the adversarial net for the learning policy of the content generator and the difference extractor is obtained.

このように、最適化装置10は、コンテンツ生成器や差分抽出器のパラメータを量子計算により算出するので、アドバーサリアルネットの学習に要する計算リソースを削減することができる。   Thus, since the optimization apparatus 10 calculates the parameters of the content generator and the difference extractor by quantum calculation, it is possible to reduce the calculation resources required for learning the adversarial net.

〔2.学習方針のあてはめについて〕
以下、最適化装置がコンテンツ生成器や差分抽出器の学習方針を特性関数へとあてはめる処理の一例について説明する。なお、以下の説明では、イジングモデルにアドバーサリアルネットをマッピングする処理の一例について説明するが、最適化装置10は、ハイゼンベルクモデルやXYモデル等、任意の次元の格子モデル(すなわち、n次元ベクトルモデル)にアドバーサリアルネットをマッピングしたハミルトニアンを生成してもよい。例えば、α個の格子を一列に配置した一次元のイジングモデルを考える。このようなイジングモデルの状態関数は、以下の式(1)で示すことができる。
[2. (Fitting of learning policy)
Hereinafter, an example of processing in which the optimization apparatus applies the learning policy of the content generator or the difference extractor to the characteristic function will be described. In the following description, an example of processing for mapping an adversal real net to an Ising model will be described. A Hamiltonian in which an Adversal Realnet is mapped to a model may be generated. For example, consider a one-dimensional Ising model in which α lattices are arranged in a line. The state function of such an Ising model can be expressed by the following equation (1).

Figure 2019036207
Figure 2019036207

ここで、2個の格子を配置したイジングモデルを考える。観測時において各格子が0または1の値を取るとすると、量子計算時においては、各格子は、0と1との重ね合わせ状態となる。このため、イジングモデル全体では、以下の式(2)で示すように、量子計算時において4つの状態の重ね合わせ状態が生じることとなる。   Here, an Ising model in which two grids are arranged is considered. If each lattice takes a value of 0 or 1 at the time of observation, each lattice is superposed with 0 and 1 at the time of quantum calculation. For this reason, in the whole Ising model, as shown by the following formula (2), a superposed state of four states occurs at the time of quantum calculation.

Figure 2019036207
Figure 2019036207

ここで、イジングモデル全体の時間的変化を考える。例えば、式(2)の時間微分を考えると、以下の式(3)を得ることができる。   Here, the temporal change of the whole Ising model is considered. For example, considering the time differentiation of equation (2), the following equation (3) can be obtained.

Figure 2019036207
Figure 2019036207

ここで、式(3)に示すH(t)は、系の状態関数を変換する演算子、すなわちハミルトニアンであり、以下の式(4)で表すことができる。ここで、A(t)、B(t)は、時間変化する係数である。また、σ は、以下の式(5)に示すパウリ行列である。また、Hは、以下の式(6)で示されるハミルトニアンである。 Here, H (t) shown in the equation (3) is an operator that converts the state function of the system, that is, a Hamiltonian, and can be expressed by the following equation (4). Here, A (t) and B (t) are coefficients that change with time. Σ x i is a Pauli matrix shown in the following equation (5). H 0 is a Hamiltonian represented by the following formula (6).

Figure 2019036207
Figure 2019036207

Figure 2019036207
Figure 2019036207

Figure 2019036207
Figure 2019036207

ここで、式(4)に示すハミルトニアンの時間発展を考える。例えば、式(4)に示すハミルトニアンの初期状態H(t=0)は、以下の式(7)で示すことができる。   Here, consider the time evolution of the Hamiltonian shown in Equation (4). For example, the initial state H (t = 0) of the Hamiltonian shown in the equation (4) can be expressed by the following equation (7).

Figure 2019036207
Figure 2019036207

ここで、式(4)に示すA(t)とB(t)が共に正の値を取る場合、A(t)は、式(7)で示すハミルトニアンを時間と共に増加させ、B(t)は、式(7)で示すハミルトニアンを時間と共に減少させることとなる。すなわち、A(t)は、系のエネルギーを時間発展と共に増大させ、B(t)は、系のエネルギーを時間発展と共に減少させる。量子アニーリングと呼ばれる技術では、算出対象となる問題をこのような時間発展と対応させ、問題の内容に応じて系の時間発展を制御することで、系の最終的な状態を問題の解とする。   Here, when both A (t) and B (t) shown in Equation (4) take positive values, A (t) increases the Hamiltonian shown in Equation (7) with time, and B (t) Will decrease the Hamiltonian represented by equation (7) with time. That is, A (t) increases the energy of the system with time evolution, and B (t) decreases the energy of the system with time evolution. In a technique called quantum annealing, the problem to be calculated is associated with such time evolution, and the time evolution of the system is controlled according to the content of the problem, so that the final state of the system is the solution to the problem. .

ここで、アドバーサリアルネットを構成するコンテンツ生成器および差分抽出器の学習方針をイジングモデルのハミルトニアンに対応させる処理を考える。例えば、コンテンツ生成器および差分抽出器によって構成されるアドバーサリアルネットは、ボルツマンマシンと見做すことができる。このようなボルツマンマシンを量子化した量子ボルツマンマシンのパラメータを量子アニーリングで算出する手法が提案されている(例えば、非特許文献2参照)。   Here, let us consider a process in which the learning policy of the content generator and the difference extractor constituting the adversal real net is made to correspond to the Hamiltonian of the Ising model. For example, an adversarial network composed of a content generator and a difference extractor can be regarded as a Boltzmann machine. There has been proposed a method of calculating a parameter of a quantum Boltzmann machine obtained by quantizing such a Boltzmann machine by quantum annealing (see, for example, Non-Patent Document 2).

例えば、ボルツマンマシンのハミルトニアンは、上述した式(4)で示すことができ、このような式(4)で示す関数の最小値を求める処理が、ボルツマンマシンのパラメータを算出する処理に対応する。ここで、ボルツマンマシンのエネルギー関数は、以下の式(8)で示すことができ、式(8)で示すエネルギー関数の最小値を求める処理も、ボルツマンマシンのパラメータを算出する処理に対応する。なお、式(8)に示すXは、ボルツマンマシンの状態であり、θは、真のモデル分布との誤差を最小とするためのパラメータである。   For example, the Hamiltonian of the Boltzmann machine can be expressed by the above-described equation (4), and the process for obtaining the minimum value of the function represented by the expression (4) corresponds to the process for calculating the Boltzmann machine parameter. Here, the energy function of the Boltzmann machine can be expressed by the following formula (8), and the process for obtaining the minimum value of the energy function represented by the formula (8) also corresponds to the process for calculating the parameters of the Boltzmann machine. X in Equation (8) is the state of the Boltzmann machine, and θ is a parameter for minimizing an error from the true model distribution.

Figure 2019036207
Figure 2019036207

ここで、状態Xとパラメータθとの条件付き確率P(X|θ)は、以下の式(9)で示すことができる。また、式(9)におけるZ(θ)は、以下の式(10)で示すことができる。   Here, the conditional probability P (X | θ) between the state X and the parameter θ can be expressed by the following equation (9). Further, Z (θ) in the formula (9) can be expressed by the following formula (10).

Figure 2019036207
Figure 2019036207

Figure 2019036207
Figure 2019036207

最適化装置10は、アドバーサリアルネットを量子ボルツマンマシンと見做し、量子ボルツマンマシンのパラメータを算出する処理を実行することで、アドバーサリアルネットが有するコンテンツ生成器と差分抽出器とのパラメータを算出する。例えば、正解データをpdata(x)とし、コンテンツ生成器が生成したコンテンツをp(x)とする。このような場合、アドバーサリアルネットの学習方針は、以下の式(11)で示すことができる(例えば、非特許文献1参照)。ここで、式(11)のDは、差分抽出器に対応する関数であり、Gは、コンテンツ生成器に対応する関数である。 The optimization apparatus 10 regards the adversal real net as a quantum Boltzmann machine, and executes processing for calculating the parameters of the quantum Boltzmann machine, so that the parameters of the content generator and the difference extractor included in the adversal net Is calculated. For example, correct data is p data (x), and content generated by the content generator is p g (x). In such a case, the learning policy of the adversarial net can be expressed by the following equation (11) (for example, see Non-Patent Document 1). Here, D in Expression (11) is a function corresponding to the difference extractor, and G is a function corresponding to the content generator.

Figure 2019036207
Figure 2019036207

すなわち、アドバーサリアルネットにおいては、差分抽出器が抽出する差分を最小化するようなコンテンツを生成するように、コンテンツ生成器の学習を行い、正解データとコンテンツ生成器が生成したコンテンツとの差分がより大きくなるように、差分抽出器の学習を行う。すなわち、アドバーサリアルネットにおいては、差分抽出器が抽出する差分を最小化するようなコンテンツを生成するように、コンテンツ生成器が有するパラメータを設定し、正解データとコンテンツ生成器が生成したコンテンツとの差分がより大きくなるように、差分抽出器が有するパラメータの設定を行う。   That is, in the Adversal Real Net, the content generator is trained to generate content that minimizes the difference extracted by the difference extractor, and the difference between the correct data and the content generated by the content generator The difference extractor is learned so that becomes larger. That is, in the adversarial net, the parameters of the content generator are set so as to generate content that minimizes the difference extracted by the difference extractor, and the correct data and the content generated by the content generator are set. The parameter of the difference extractor is set so that the difference between the two becomes larger.

このようなアドバーサリアルネットの学習方針は、式(4)に示すA(t)が、系のエネルギーを時間発展と共に増大させ、B(t)が系のエネルギーを時間発展と共に減少させるというイジングモデルのハミルトニアンが有する時間発展の方針にマッピングすることができる。そこで、最適化装置10は、アドバーサリアルネットを量子化されたボルツマンマシンと見做し、ハミルトニアンとして、量子化されたボルツマンマシンのハミルトニアンを設定する。より具体的には、最適化装置10は、差分抽出器が出力する差分を最小化させるというコンテンツ生成器の学習方針を、ハミルトニアンの値を小さくする項の値を最小化させる方針と見做し、コンテンツ生成器が新たに生成したコンテンツと正解データとの差分を最大化する差分生成器の学習方針を、ハミルトニアンの値を最大化する方針と見做して、ハミルトニアンを設定する。   The learning policy of such an adversarial net is that Is (T) shown in Equation (4) increases the energy of the system with time development, and B (t) decreases the energy of the system with time development. It can be mapped to the time evolution policy of the model Hamiltonian. Therefore, the optimization apparatus 10 regards the adversarial net as a quantized Boltzmann machine, and sets the Hamiltonian of the quantized Boltzmann machine as a Hamiltonian. More specifically, the optimization device 10 regards the content generator learning policy of minimizing the difference output from the difference extractor as a policy of minimizing the value of the term that reduces the value of the Hamiltonian. The Hamiltonian is set by regarding the learning policy of the difference generator that maximizes the difference between the content newly generated by the content generator and the correct data as the policy of maximizing the value of the Hamiltonian.

例えば、量子ボルツマンマシンのハミルトニアンのパラメータは、以下の式(12)で示すことができる。なお、式(12)のHは、式(4)、(6)に示すHに対応する。 For example, the Hamiltonian parameter of the quantum Boltzmann machine can be expressed by the following equation (12). Incidentally, H z of formula (12), equation (4), corresponding to H 0 shown in (6).

Figure 2019036207
Figure 2019036207

ここで、式(12)のうち第2項は、系全体のエネルギーを最大化するように働く。そこで、最適化装置10は、式(13)に示すように、第2項の符号を反転させる。すなわち、最適化装置10は、イジングモデルにおける最近傍の格子同士の相互作用を示す項の符号を反転させる。   Here, the second term of the equation (12) serves to maximize the energy of the entire system. Therefore, the optimization apparatus 10 inverts the sign of the second term as shown in Expression (13). That is, the optimization apparatus 10 inverts the sign of the term indicating the interaction between the nearest lattices in the Ising model.

Figure 2019036207
Figure 2019036207

このような式(13)の全体は、系全体のエネルギーを最大化するように働く。そこで、最適化装置10は、差分抽出器の学習方針を式(13)に示すハミルトニアン全体にマッピングする。また、式(13)の第2項は、系のエネルギーを最小化するように働く。そこで、最適化装置10は、コンテンツ生成器の学習方針を式(13)の第2項にマッピングする。   The whole of the equation (13) works to maximize the energy of the entire system. Therefore, the optimization apparatus 10 maps the learning policy of the difference extractor to the entire Hamiltonian represented by Expression (13). In addition, the second term of equation (13) serves to minimize the energy of the system. Therefore, the optimization apparatus 10 maps the learning policy of the content generator to the second term of Expression (13).

このように学習方針をマッピングしたハミルトニアンを設定し、非特許文献2のような機械学習を想定した量子アニーリングの手法により系のエネルギーが最低となる基底状態へと、イジングモデルを導くことで、イジングモデルの各格子点は、アドバーサリアルネットの学習方針に応じた値へと収束する。すなわち、各格子点は、設定した学習方針を反映させたアドバーサリアルネットの各パラメータの値へと収束する。この結果、最適化装置10は、アドバーサリアルネットの学習に要する計算コストを削減することができる。   By setting a Hamiltonian that maps the learning policy in this way and introducing the Ising model to the ground state where the energy of the system is minimized by the quantum annealing method that assumes machine learning as in Non-Patent Document 2, the Ising model is derived. Each lattice point of the model converges to a value according to the learning policy of the adversarial net. That is, each lattice point converges to the value of each parameter of the Adversal Realnet that reflects the set learning policy. As a result, the optimization apparatus 10 can reduce the calculation cost required for learning the adversarial net.

〔3.処理の一例〕
次に、図1を用いて、最適化装置10が実行する最適化処理の一例について説明する。まず、最適化装置10は、アドバーサリアルネットANの初期パラメータと正解データとを受付ける(ステップS1)。ここで、初期パラメータとは、コンテンツ生成器や差分抽出器のパラメータである。
[3. Example of processing)
Next, an example of optimization processing executed by the optimization device 10 will be described with reference to FIG. First, the optimization apparatus 10 receives initial parameters and correct data of the adversarial network AN (step S1). Here, the initial parameters are parameters of the content generator and the difference extractor.

このような場合、最適化装置10は、コンテンツ生成器と差分抽出器との各パラメータを格子点にあてはめ、コンテンツ生成器と差分抽出器との学習方針に基づいて、格子モデルをハミルトニアンを設定する(ステップS2)。例えば、最適化装置10は、正解データとコンテンツ生成器が生成したコンテンツとの差分を最大化するという差分抽出器の学習方針を、式(13)の全体を最大化するという処理と見做し、差分抽出器が出力する差分を最小化させるというコンテンツ生成器の学習方針を、式(13)の第2項を最小化するという処理と見做して、ハミルトニアンの設定を行う。   In such a case, the optimization apparatus 10 applies the parameters of the content generator and the difference extractor to the lattice points, and sets a Hamiltonian for the lattice model based on the learning policy between the content generator and the difference extractor. (Step S2). For example, the optimization apparatus 10 regards the difference extractor learning policy of maximizing the difference between the correct answer data and the content generated by the content generator as a process of maximizing the entire expression (13). The content generator learning policy of minimizing the difference output from the difference extractor is regarded as a process of minimizing the second term of Expression (13), and the Hamiltonian is set.

そして、最適化装置10は、量子計算を用いて、最適解を検索する(ステップS3)。例えば、量子計算装置は、各量子ビットの値が一様な重ね合わせ状態から、生成したハミルトニアンが示すイジングモデルへと時間発展させ、非特許文献2のような機械学習用量子アニーリングを用いることで、各格子点にマッピングしたパラメータの値ω11〜ωjjの値を示すパラメータリストを出力する(ステップS4)。 Then, the optimization apparatus 10 searches for an optimal solution using quantum computation (step S3). For example, the quantum computing device uses the quantum annealing for machine learning as described in Non-Patent Document 2 to develop the time from the superposition state where the values of each qubit are uniform to the Ising model indicated by the generated Hamiltonian. Then, a parameter list indicating the values of the parameter values ω 11 to ω jj mapped to each lattice point is output (step S4).

なお、最適化装置10が生成したイジングモデルの基底状態を検索する処理は、上述した説明に限定されるものではない。例えば、量子計算においては、格子モデル等の断熱モデルと、任意の量子回路を用いた回路モデルとは等価である。このため、量子アニーリングを用いた量子計算は、連続的に量子ゲートを作用させる量子回路と等価であるため、最適化装置10は、生成したハミルトニアンが示すイジングモデルを、量子ゲートを組み合わせた量子回路を再現する任意のハードウェアによって最適化すればよい。例えば、最適化装置10は、核磁気共鳴、量子ドット、ジョセフソン素子、イオントラップ、光子等を用いて量子計算を行う量子計算装置を用いて、生成したイジングモデルの基底状態を検索すればよい。   Note that the process of searching the ground state of the Ising model generated by the optimization device 10 is not limited to the above description. For example, in quantum computation, an adiabatic model such as a lattice model and a circuit model using an arbitrary quantum circuit are equivalent. For this reason, since quantum computation using quantum annealing is equivalent to a quantum circuit that continuously operates a quantum gate, the optimization apparatus 10 uses an Ising model represented by the generated Hamiltonian as a quantum circuit that combines quantum gates. Can be optimized by any hardware that reproduces. For example, the optimization apparatus 10 may search the ground state of the generated Ising model using a quantum calculation apparatus that performs quantum calculation using nuclear magnetic resonance, quantum dots, Josephson elements, ion traps, photons, and the like. .

〔4.最適化装置の構成〕
次に、図2を用いて、実施形態に係る最適化装置10の構成について説明する。図2は、実施形態に係る最適化装置が有する機能構成の一例を示す図である。図2に示すように、最適化装置10は、入力装置20および出力装置30と接続されている。また、最適化装置10は、取得部11、生成部12、量子計算装置13、出力部17を有する。また、量子計算装置13は、状態再現部14、操作部15、観測部16を有する。また、状態再現部14は、複数の量子ビット14a〜14dを有する。
[4. Optimization device configuration)
Next, the configuration of the optimization apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a functional configuration of the optimization apparatus according to the embodiment. As shown in FIG. 2, the optimization device 10 is connected to an input device 20 and an output device 30. The optimization apparatus 10 includes an acquisition unit 11, a generation unit 12, a quantum calculation device 13, and an output unit 17. The quantum computation device 13 includes a state reproduction unit 14, an operation unit 15, and an observation unit 16. The state reproduction unit 14 includes a plurality of quantum bits 14a to 14d.

入力装置20は、最適化装置10に入力を行うための入力デバイスであり、例えば、HDD(Hard Disk Drive)やフラッシュメモリ等の記録媒体からデータを読み出すことができる読出装置である。例えば、入力装置20は、フラッシュメモリ等の記録媒体からアドバーサリアルネットANのパラメータを読み出すと、アドバーサリアルネットANの各パラメータを最適化装置10に出力する。   The input device 20 is an input device for inputting to the optimizing device 10, and is, for example, a reading device that can read data from a recording medium such as an HDD (Hard Disk Drive) or a flash memory. For example, when the input device 20 reads the parameters of the adversarial net AN from a recording medium such as a flash memory, the input device 20 outputs the parameters of the adversarial net AN to the optimization device 10.

出力装置30は、例えば、モニタやプリンタ等によって実現され、最適化装置10が最適化したアドバーサリアルネットのパラメータ、すなわち、コンテンツ生成器と差分抽出器との結合係数を示すパラメータリストを受信すると、受信したパラメータリストを表示若しくは印刷する出力装置である。   The output device 30 is realized by, for example, a monitor, a printer, or the like, and receives an adversarial net parameter optimized by the optimization device 10, that is, a parameter list indicating a coupling coefficient between the content generator and the difference extractor. The output device displays or prints the received parameter list.

取得部11は、アドバーサリアルネットANの各パラメータを取得すると、各パラメータを生成部12に出力する。   When the acquisition unit 11 acquires each parameter of the Adversal Real Network AN, the acquisition unit 11 outputs each parameter to the generation unit 12.

生成部12は、アドバーサリアルネットANの各パラメータを取得すると、所定の学習方針に従って、アドバーサリアルネットANのパラメータの値を算出するための特性関数、すなわち、ハミルトニアンを生成する。より具体的には、生成部12は、パラメータを格子モデルの格子点にあてはめる。また、生成部12は、生成した情報と正解情報との差分が少なくなるように新たな情報を生成するコンテンツ生成器と、コンテンツ生成器が新たに生成した情報と正解情報との差分であって、コンテンツ生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行うための特性関数を、アドバーサリアルネットANの学習方針に基づいて設定する。   When the generating unit 12 acquires each parameter of the adversarial net AN, it generates a characteristic function for calculating the parameter value of the adversarial net AN, that is, a Hamiltonian according to a predetermined learning policy. More specifically, the generation unit 12 applies parameters to lattice points of the lattice model. The generation unit 12 is a content generator that generates new information so that a difference between the generated information and the correct answer information is reduced, and a difference between the information newly generated by the content generator and the correct information. The characteristic function for optimizing the parameter with the difference extractor that outputs the difference that becomes an index when the content generator generates further new information is set based on the learning policy of the adversary net AN To do.

例えば、生成部12は、コンテンツ生成器と差分抽出器との組を量子化されたボルツマンマシンと見做し、特性関数として、量子化されたボルツマンマシンのハミルトニアンを設定する。また、生成部12は、差分抽出器が出力する差分を最小化させるコンテンツ生成器の学習方針を、特性関数の値を小さくする項の値を最小化させる方針と見做す。また、生成部12は、コンテンツ生成器が新たに生成した情報と正解情報との差分を最大化する差分生成器の学習方針を、特性関数の値を最大化する方針と見做す。そして、生成部12は、特性関数を設定する。より具体的には、生成部12は、特性関数のうち最近傍の格子同士の相互作用を示す項の符号を反転させ、符号を反転させた項にコンテンツ生成器の学習方針をあてはめる。   For example, the generation unit 12 regards a set of a content generator and a difference extractor as a quantized Boltzmann machine, and sets a quantized Boltzmann machine Hamiltonian as a characteristic function. Further, the generation unit 12 considers the learning policy of the content generator that minimizes the difference output from the difference extractor as the policy of minimizing the value of the term that decreases the value of the characteristic function. Further, the generation unit 12 considers the learning policy of the difference generator that maximizes the difference between the information newly generated by the content generator and the correct answer information as the policy that maximizes the value of the characteristic function. Then, the generation unit 12 sets a characteristic function. More specifically, the generation unit 12 inverts the sign of the term indicating the interaction between the nearest grids in the characteristic function, and assigns the learning policy of the content generator to the term whose sign is inverted.

そして、生成部12は、イジングモデルの各格子と各パラメータとの対応と、特性関数とを量子計算装置13に出力する。   Then, the generation unit 12 outputs a correspondence between each lattice of the Ising model and each parameter and a characteristic function to the quantum calculation device 13.

量子計算装置13は、量子計算を用いて、生成部12が生成したイジングモデルの基底状態を検索する装置であり、いわゆる量子コンピュータである。例えば、量子計算装置13は、複数の値を重ね合わせ状態で保持することができる複数の量子ビット14a〜14dを有し、各量子ビット14a〜14dを用いてイジングモデルの状態を再現可能な状態再現部14を有する。   The quantum computing device 13 is a device that searches for the ground state of the Ising model generated by the generating unit 12 using quantum computation, and is a so-called quantum computer. For example, the quantum computing device 13 has a plurality of qubits 14a to 14d that can hold a plurality of values in a superposed state, and can reproduce the state of the Ising model using each qubit 14a to 14d. A reproduction unit 14 is included.

このような量子計算装置13の操作部15は、生成部12が生成した特性関数を受付けると、状態再現部14が有する各量子ビット14a〜14dと、各量子ビット14a〜14d間の結合係数とを制御することにより、生成部12から受付けた特性関数が示すイジングモデルの基底状態を量子的に算出する。すなわち、操作部15は、非特許文献2のような機械学習用量子アニーリングを用いて、アドバーサリアルネットの各パラメータを算出するように、各量子ビット14a〜14dを制御する。そして、観測部16は、十分に時間発展させた状態再現部13の各量子ビット14a〜14dの値を観測する。すなわち、量子計算装置13は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求め、特性関数の基底状態における格子点の値を算出する。   When the operation unit 15 of the quantum computing device 13 accepts the characteristic function generated by the generation unit 12, the state reproduction unit 14 includes the qubits 14a to 14d and the coupling coefficient between the qubits 14a to 14d. , The ground state of the Ising model indicated by the characteristic function received from the generation unit 12 is calculated quantitatively. That is, the operation unit 15 controls each qubit 14a to 14d so as to calculate each parameter of the adversarial net using machine learning quantum annealing as in Non-Patent Document 2. And the observation part 16 observes the value of each quantum bit 14a-14d of the state reproduction part 13 fully developed in time. In other words, the quantum computing device 13 obtains the ground state of the lattice model in which the value of the characteristic function becomes the minimum value using the quantum fluctuation, and calculates the value of the lattice point in the ground state of the characteristic function.

ここで、図3を用いて、量子計算装置13が実行する処理の概念を説明する。図3は、実施形態にかかる量子計算装置が実行する処理の一例を説明するための図である。なお、図3に示す例では、特性関数、すなわちハミルトニアンの値を縦軸とし、各格子点の値の組み合わせを横軸とした上で、生成部12が生成したハミルトニアンの値を、各格子点の値の組み合わせ毎に、実線で示した。   Here, the concept of processing executed by the quantum computation device 13 will be described with reference to FIG. FIG. 3 is a diagram for explaining an example of processing executed by the quantum computing device according to the embodiment. In the example shown in FIG. 3, the characteristic function, that is, the value of the Hamiltonian is set on the vertical axis, and the combination of the values of the grid points is set on the horizontal axis. Each combination of values is indicated by a solid line.

例えば、量子計算装置13は、各量子ビット14a〜14dの値を取りうる値の重ね合わせ状態とする。この結果、量子計算装置13は、図3中の点線丸印に示すように、イジングモデルにおける各格子点の値の全組み合わせを再現する。そして、量子計算装置13は、図3中の点線矢印に示すように、各量子ビット14a〜14dの状態を、生成部12が生成したハミルトニアンが示す状態へと時間発展させることで、格子点間の値の各組み合わせにおけるハミルトニアンの値を再現する。かかる処理は、各量子ビット14a〜14dを量子状態に保ったままで行われる。   For example, the quantum computing device 13 sets the superposed state of values that can take the values of the quantum bits 14a to 14d. As a result, the quantum computation device 13 reproduces all combinations of the values of the respective lattice points in the Ising model as indicated by the dotted circles in FIG. Then, as indicated by the dotted arrows in FIG. 3, the quantum computing device 13 develops the state of each of the qubits 14 a to 14 d to the state indicated by the Hamiltonian generated by the generation unit 12, thereby Reproduce the Hamiltonian value for each combination of values. Such processing is performed while the qubits 14a to 14d are kept in the quantum state.

ここで、ハミルトニアンの値が最小の値を取る状態は、系の中で最も安定した状態である。このため、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dを観測した場合、図3に示すように、ハミルトニアンの値が最小の値となる状態ωが観測される可能性が高い。そこで、量子計算装置13は、量子状態を保ったままで十分に時間発展させた各量子ビット14a〜14dの値を観測することで、ハミルトニアンの値が極小値に陥ることなく、最小となるイジングモデルの各格子点の値を特定する。   Here, the state in which the value of the Hamiltonian takes the minimum value is the most stable state in the system. For this reason, when the qubits 14a to 14d that are sufficiently developed in time with the quantum state maintained are observed, there is a possibility that a state ω in which the value of the Hamiltonian is minimum is observed as shown in FIG. Is expensive. Therefore, the quantum computing device 13 observes the value of each of the qubits 14a to 14d that has been sufficiently developed while maintaining the quantum state, so that the value of the Hamiltonian is minimized without falling into a minimum value. Specify the value of each grid point.

図2に戻り、説明を続ける。出力部17は、観測部16が観測した各量子ビット14a〜14dの値を受付けると、かかる値に基づいて、最適化されたパラメータを示すパラメータリストを出力装置30に出力する。例えば、出力部17は、各量子ビット14a〜14dの値を、各量子ビット14a〜14dと対応するイジングモデルの格子点の値とする。そして、出力部17は、イジングモデルの各格子点からパラメータを逆マッピングすることで、最適化されたパラメータを取得し、取得したパラメータを含むパラメータリストを出力装置30に出力する。   Returning to FIG. 2, the description will be continued. When the output unit 17 receives the values of the qubits 14 a to 14 d observed by the observation unit 16, the output unit 17 outputs a parameter list indicating the optimized parameters to the output device 30 based on the values. For example, the output unit 17 sets the value of each qubit 14a to 14d as the value of the lattice point of the Ising model corresponding to each qubit 14a to 14d. Then, the output unit 17 acquires the optimized parameter by inverse mapping the parameter from each lattice point of the Ising model, and outputs a parameter list including the acquired parameter to the output device 30.

〔5.最適化装置が実行する処理の流れ〕
次に、図4を用いて、実施形態に係る最適化装置10が実行する処理の流れについて説明する。図4は、実施形態に係る最適化装置が実行する処理の一例を説明するためのフローチャートである。まず、最適化装置10は、アドバーサリアルネットのパラメータを受付ける(ステップS101)。続いて、最適化装置10は、アドバーサリアルネットの各パラメータをイジングモデルの各格子点にマッピングし(ステップS102)、コンテンツ生成器の学習方針と差分抽出器の学習方針とに基づいて、ボルツマンマシンのハミルトニアンを設定する(ステップS103)。続いて、最適化装置10は、設定したハミルトニアンを用いて、イジングモデルを基底状態へ時間発展させ(ステップS104)、基底状態を観測する(ステップS105)。そして、最適化装置10は、観測結果を最適化結果、すなわち、最適化されたアドバーサリアルネットの各パラメータとの値を出力し(ステップS106)、処理を終了する。
[5. Flow of processing executed by optimization device]
Next, the flow of processing executed by the optimization apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 4 is a flowchart for explaining an example of processing executed by the optimization apparatus according to the embodiment. First, the optimization apparatus 10 accepts parameters of the adversarial net (step S101). Subsequently, the optimization apparatus 10 maps each parameter of the Adversal Real Net to each lattice point of the Ising model (Step S102), and based on the learning policy of the content generator and the learning policy of the difference extractor, Boltzmann The Hamiltonian of the machine is set (step S103). Subsequently, the optimization apparatus 10 uses the set Hamiltonian to temporally develop the Ising model into the ground state (step S104) and observe the ground state (step S105). Then, the optimization apparatus 10 outputs the observation result as the optimization result, that is, the value of each parameter of the optimized adversarial net (step S106), and ends the process.

〔6.変形例〕
上述した実施形態に係る最適化装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の最適化装置10の他の実施形態について説明する。
[6. (Modification)
The optimization apparatus 10 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, in the following, another embodiment of the optimization device 10 will be described.

〔6−1.その他〕
ここで、最適化装置10は、アドバーサリアルネットを実際に稼働させる際には使用させない経路を考慮した処理を行ってもよい。例えば、最適化装置10は、ダミー経路を含むすべての接続経路に設定された結合係数をパラメータとして、最適なパラメータの組を量子計算により算出してもよい。
[6-1. Others]
Here, the optimization apparatus 10 may perform processing in consideration of a route that is not used when the Adversal Real Net is actually operated. For example, the optimization apparatus 10 may calculate an optimal parameter set by quantum calculation using the coupling coefficient set for all connection paths including the dummy path as a parameter.

また、最適化装置10は、畳み込みを考慮した処理を行ってもよい。例えば、最適化装置10は、それぞれ異なるノード間での畳み込みが行われた結合係数の組についてもパラメータとして重ね合わせ状態にすればよい。すなわち、最適化装置10は、畳み込みの態様ごとに、全ての接続経路に設定される結合係数の値の組み合わせを求め、全ての畳み込みの態様について、求められた全ての結合係数の組の組み合わせを重ね合わせ状態にしてもよい。   Further, the optimization apparatus 10 may perform processing in consideration of convolution. For example, the optimizing device 10 may put a combination of coupling coefficients that are convolved between different nodes into a superposed state as a parameter. That is, the optimization apparatus 10 obtains combinations of coupling coefficient values set for all connection paths for each convolution mode, and obtains all combinations of combinations of coupling coefficients obtained for all convolution modes. You may be in a superposition state.

〔6−2.ハードウェア構成について〕
上述した最適化装置10は、ハミルトニアンが示すイジングモデルの基底状態を検索する量子計算装置13を有していた。しかしながら、実施形態は、これに限定されるものではない。例えば、最適化装置10は、取得部11、生成部12、出力部17のみを有し、外部に設置された量子計算装置13に基底状態を検索させてもよい。
[6-2. (Hardware configuration)
The optimization device 10 described above has the quantum calculation device 13 that searches the ground state of the Ising model indicated by the Hamiltonian. However, the embodiment is not limited to this. For example, the optimization apparatus 10 may include only the acquisition unit 11, the generation unit 12, and the output unit 17, and may cause the quantum computation device 13 installed outside to search for a ground state.

また、最適化装置10が有する各機能構成のうち、取得部11、生成部12、出力部17が発揮する処理は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。また、取得部11、生成部12、出力部17が発揮する処理は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサによって、最適化装置10内部の記憶装置に記憶されている最適化プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現されてもよい。   Among the functional configurations of the optimization device 10, the processing performed by the acquisition unit 11, the generation unit 12, and the output unit 17 is an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). May be realized. The processing performed by the acquisition unit 11, the generation unit 12, and the output unit 17 is stored in a storage device inside the optimization device 10 by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), for example. The optimization program may be realized by executing a RAM (Random Access Memory) as a work area.

〔7.効果〕
このように、最適化装置10は、前回生成した情報と正解データとの差分が少なくなるように新たな情報を生成するコンテンツ生成器と、コンテンツ生成器が新たに生成した情報と正解データとの差分であって、コンテンツ生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う。ここで、最適化装置10は、パラメータを格子モデルの格子点にあてはめ、コンテンツ生成器と差分抽出器との学習方針に基づいて、格子モデルの特性関数を設定する。また、最適化装置10は、量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、生成された特性関数の基底状態における格子点の値を算出させる。そして、最適化装置10は、格子点の値に対応するパラメータの値を出力する。
[7. effect〕
As described above, the optimization device 10 includes a content generator that generates new information so that the difference between the previously generated information and the correct answer data is small, and the information and correct answer data that are newly generated by the content generator. The optimization of the parameters with the difference extractor that outputs the difference, which is an index when the content generator generates new information, is performed. Here, the optimization apparatus 10 applies the parameter to the lattice point of the lattice model, and sets the characteristic function of the lattice model based on the learning policy between the content generator and the difference extractor. Further, the optimization apparatus 10 causes the quantum calculation apparatus that obtains the ground state of the lattice model having the minimum characteristic function value using the quantum fluctuation to calculate the value of the lattice point in the ground state of the generated characteristic function. . Then, the optimization apparatus 10 outputs a parameter value corresponding to the value of the grid point.

このように、最適化装置10は、量子計算を用いて、アドバーサリアルネットが有するコンテンツ生成器や差分抽出器のパラメータを算出するので、アドバーサリアルネットの学習に要する計算リソースや計算時間を削減する結果、アドバーサリアルネットの最適化を容易にすることができる。   As described above, the optimization device 10 uses the quantum calculation to calculate the parameters of the content generator and the difference extractor included in the adversarial net, so that the calculation resources and calculation time required for learning the adversarial net are reduced. As a result of the reduction, optimization of the adversa real net can be facilitated.

また、最適化装置10は、コンテンツ生成器と差分抽出器との組を量子化されたボルツマンマシンと見做し、特性関数として、量子化されたボルツマンマシンのハミルトニアンを設定する。また、最適化装置10は、差分抽出器が出力する差分を最小化させるコンテンツ生成器の学習方針を、特性関数の値を小さくする項の値を最小化させる方針と見做し、コンテンツ生成器が新たに生成した情報と正解データとの差分を最大化する差分コンテンツ生成器の学習方針を、特性関数の値を最大化する方針と見做して、特性関数を設定する。例えば、最適化装置10は、特性関数のうち最近傍の格子同士の相互作用を示す項の符号を反転させ、符号を反転させた項にコンテンツ生成器の学習方針をあてはめる。   Further, the optimization apparatus 10 regards the set of the content generator and the difference extractor as a quantized Boltzmann machine, and sets the quantized Boltzmann machine Hamiltonian as a characteristic function. Further, the optimization device 10 regards the learning policy of the content generator that minimizes the difference output from the difference extractor as the policy that minimizes the value of the term that decreases the value of the characteristic function, and the content generator The characteristic function is set by considering the learning policy of the difference content generator that maximizes the difference between the newly generated information and the correct data as the policy that maximizes the value of the characteristic function. For example, the optimization apparatus 10 inverts the sign of the term indicating the interaction between the nearest lattices in the characteristic function, and applies the learning policy of the content generator to the term whose sign is inverted.

このような処理の結果、最適化装置10は、アドバーサリアルネットの学習方針に応じてアドバーサリアルネットのパラメータを最適化するという処理と、イジングモデルにおいて、アドバーサリアルネットの学習方針に応じて、格子の値を最適化するという処理に落とし込むことができる。この結果、最適化装置10は、アドバーサリアルネットの最適化を容易にすることができる。   As a result of such processing, the optimization apparatus 10 performs processing according to the learning policy of the Adversal Real in the Ising model and the processing of optimizing the parameters of the Adversal Net according to the learning policy of the Adversal Real. Thus, it can be put into the process of optimizing the value of the lattice. As a result, the optimization apparatus 10 can facilitate the optimization of the adversarial net.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。   Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.

10 最適化装置
11 取得部
12 生成部
13 量子計算装置
14 状態再現部
14a〜14d 量子ビット
15 操作部
16 観測部
17 出力部
20 入力装置
30 出力装置
DESCRIPTION OF SYMBOLS 10 Optimization apparatus 11 Acquisition part 12 Generation part 13 Quantum calculation apparatus 14 State reproduction part 14a-14d Qubit 15 Operation part 16 Observation part 17 Output part 20 Input apparatus 30 Output apparatus

Claims (6)

前回生成した情報と正解情報との差分が少なくなるように新たな情報を生成する生成器と、当該生成器が新たに生成した情報と前記正解情報との差分であって、前記生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う最適化装置であって、
前記パラメータを格子モデルの格子点にあてはめ、前記生成器と前記差分抽出器との学習方針に基づいて、前記格子モデルの特性関数を設定し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記パラメータの値を出力する
ことを特徴とする最適化装置。
A generator that generates new information so that a difference between the previously generated information and the correct answer information is reduced, and a difference between the information newly generated by the generator and the correct answer information, and the generator further includes: An optimization device for optimizing a parameter with a difference extractor that outputs a difference as an index when generating new information,
Applying the parameters to lattice points of the lattice model, and setting a characteristic function of the lattice model based on a learning policy between the generator and the difference extractor,
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization apparatus, wherein the parameter value corresponding to the value of the grid point is output.
前記最適化装置は、
前記生成器と前記差分抽出器との組を量子化されたボルツマンマシンと見做し、前記特性関数として、量子化されたボルツマンマシンのハミルトニアンを設定する
ことを特徴とする請求項1に記載の最適化装置。
The optimization device includes:
The set of the generator and the difference extractor is regarded as a quantized Boltzmann machine, and a quantized Boltzmann machine Hamiltonian is set as the characteristic function. Optimization device.
前記最適化装置は、
前記差分抽出器が出力する差分を最小化させる前記生成器の学習方針を、前記特性関数の値を小さくする項の値を最小化させる方針と見做し、前記生成器が新たに生成した情報と前記正解情報との差分を最大化する前記差分生成器の学習方針を、前記特性関数の値を最大化する方針と見做して、前記特性関数を設定する
ことを特徴とする請求項2に記載の最適化装置。
The optimization device includes:
Information that is newly generated by the generator, considering the learning policy of the generator that minimizes the difference output from the difference extractor as a policy that minimizes the value of the term that decreases the value of the characteristic function. The characteristic function is set by regarding the learning policy of the difference generator that maximizes the difference between the correct answer information and the correct answer information as a policy that maximizes the value of the characteristic function. The optimization device described in 1.
前記最適化装置は、前記特性関数のうち最近傍の格子同士の相互作用を示す項の符号を反転させ、当該符号を反転させた項に前記生成器の学習方針をあてはめる
ことを特徴とする請求項3に記載の最適化装置。
The optimization device inverts the sign of a term indicating the interaction between nearest lattices in the characteristic function, and applies the learning policy of the generator to the term obtained by inverting the sign. Item 4. The optimization device according to Item 3.
前回生成した情報と正解情報との差分が少なくなるように新たな情報を生成する生成器と、当該生成器が新たに生成した情報と前記正解情報との差分であって、前記生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う最適化装置が実行する最適化方法であって、
前記パラメータを格子モデルの格子点にあてはめ、前記生成器と前記差分抽出器との学習方針に基づいて、前記格子モデルの特性関数を設定し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記パラメータの値を出力する
ことを特徴とする最適化方法。
A generator that generates new information so that a difference between the previously generated information and the correct answer information is reduced, and a difference between the information newly generated by the generator and the correct answer information, and the generator further includes: An optimization method executed by an optimization device that optimizes a parameter with a difference extractor that outputs a difference serving as an index when generating new information,
Applying the parameters to lattice points of the lattice model, and setting a characteristic function of the lattice model based on a learning policy between the generator and the difference extractor,
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
An optimization method characterized by outputting the value of the parameter corresponding to the value of the grid point.
前回生成した情報と正解情報との差分が少なくなるように新たな情報を生成する生成器と、当該生成器が新たに生成した情報と前記正解情報との差分であって、前記生成器がさらに新たな情報を生成する際の指標となる差分を出力する差分抽出器とのパラメータの最適化を行う最適化装置が有するコンピュータに
前記パラメータを格子モデルの格子点にあてはめ、前記生成器と前記差分抽出器との学習方針に基づいて、前記格子モデルの特性関数を設定し、
量子揺らぎを用いて特性関数の値が最小値となる格子モデルの基底状態を求める量子計算装置に、前記生成された特性関数の基底状態における格子点の値を算出させ、
前記格子点の値に対応する前記パラメータの値を出力する
処理を実行させるための最適化プログラム。
A generator that generates new information so that a difference between the previously generated information and the correct answer information is reduced, and a difference between the information newly generated by the generator and the correct answer information, and the generator further includes: A computer having an optimization device for optimizing a parameter with a difference extractor that outputs a difference serving as an index when generating new information applies the parameter to a lattice point of a lattice model, and the generator and the difference Based on the learning policy with the extractor, set the characteristic function of the lattice model,
A quantum computing device that obtains a ground state of a lattice model having a minimum value of a characteristic function using quantum fluctuations, and calculates a value of a lattice point in the ground state of the generated characteristic function,
The optimization program for performing the process which outputs the value of the parameter corresponding to the value of the lattice point.
JP2017158025A 2017-08-18 2017-08-18 Optimizing device, optimization method and optimization program Pending JP2019036207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158025A JP2019036207A (en) 2017-08-18 2017-08-18 Optimizing device, optimization method and optimization program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158025A JP2019036207A (en) 2017-08-18 2017-08-18 Optimizing device, optimization method and optimization program

Publications (1)

Publication Number Publication Date
JP2019036207A true JP2019036207A (en) 2019-03-07

Family

ID=65637681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158025A Pending JP2019036207A (en) 2017-08-18 2017-08-18 Optimizing device, optimization method and optimization program

Country Status (1)

Country Link
JP (1) JP2019036207A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116341286A (en) * 2023-05-24 2023-06-27 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) Acceleration quantum heuristic solving method and device based on FPGA
WO2024034688A1 (en) * 2022-08-10 2024-02-15 株式会社Preferred Networks Learning device, inference device, and model creation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034688A1 (en) * 2022-08-10 2024-02-15 株式会社Preferred Networks Learning device, inference device, and model creation method
CN116341286A (en) * 2023-05-24 2023-06-27 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) Acceleration quantum heuristic solving method and device based on FPGA
CN116341286B (en) * 2023-05-24 2023-08-25 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) Acceleration quantum heuristic solving method and device based on FPGA

Similar Documents

Publication Publication Date Title
Hu et al. Overcoming catastrophic forgetting for continual learning via model adaptation
US20210342699A1 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
US20210174264A1 (en) Training tree-based machine-learning modeling algorithms for predicting outputs and generating explanatory data
US11138513B2 (en) Dynamic learning system
WO2019157228A1 (en) Systems and methods for training generative machine learning models
US11475099B2 (en) Optimization apparatus and method for controlling thereof
JP6378150B2 (en) Optimization device, optimization method, and optimization program
JP2016071697A (en) Learning device, processing device, prediction system, learning method, processing method and program
Clarté et al. Componentwise approximate Bayesian computation via Gibbs-like steps
JP2019036207A (en) Optimizing device, optimization method and optimization program
Larios-Cárdenas et al. A hybrid inference system for improved curvature estimation in the level-set method using machine learning
US20240046128A1 (en) Dynamic causal discovery in imitation learning
KR102105951B1 (en) Constructing method of classification restricted boltzmann machine and computer apparatus for classification restricted boltzmann machine
JP7457325B2 (en) Optimization device, evaluation device, their method, and program
KR20230083673A (en) Neural network establishing method for quantum readout, method for mitigating quantum readout error using neural network and apparatus thereof
JP2019082847A (en) Data estimation device, date estimation method, and program
JP2019021218A (en) Learning device, program parameter, learning method and model
Gupta et al. Sequential knowledge transfer across problems
Kent et al. Controlling chaotic maps using next-generation reservoir computing
JP2023527341A (en) Interpretable imitation learning by discovery of prototype options
CN112348161A (en) Neural network training method, neural network training device and electronic equipment
JP2019095894A (en) Estimating device, learning device, learned model, estimation method, learning method, and program
Liu et al. A Quantum States Preparation Method Based on Difference-Driven Reinforcement Learning
JP7198900B2 (en) Generation device, generation method, and generation program
JP5942998B2 (en) Linear constraint generation apparatus and method, semi-definite definite optimization problem solving apparatus, metric learning apparatus, and computer program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108