WO2022009761A1 - Optimization problem solution and optimization problem solution apparatus - Google Patents

Optimization problem solution and optimization problem solution apparatus Download PDF

Info

Publication number
WO2022009761A1
WO2022009761A1 PCT/JP2021/024899 JP2021024899W WO2022009761A1 WO 2022009761 A1 WO2022009761 A1 WO 2022009761A1 JP 2021024899 W JP2021024899 W JP 2021024899W WO 2022009761 A1 WO2022009761 A1 WO 2022009761A1
Authority
WO
WIPO (PCT)
Prior art keywords
optimization problem
problem solving
sparse
optimization
ising
Prior art date
Application number
PCT/JP2021/024899
Other languages
French (fr)
Japanese (ja)
Inventor
直紀 井手
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP21837057.5A priority Critical patent/EP4181034A4/en
Priority to US18/004,072 priority patent/US20230342416A1/en
Priority to JP2022535271A priority patent/JPWO2022009761A1/ja
Priority to CN202180047452.3A priority patent/CN115769237A/en
Publication of WO2022009761A1 publication Critical patent/WO2022009761A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/80Quantum programming, e.g. interfaces, languages or software-development kits for creating or handling programs capable of running on quantum computers; Platforms for simulating or accessing quantum computers, e.g. cloud-based quantum computing

Abstract

In an optimization problem solution according to the present disclosure, first data from a sensor is inputted, an objective function for sparse modeling on the first data is generated, a coefficient matrix for a variable to be optimized in the objective function is generated, the coefficient matrix is transmitted to a first Ising machine for performing a combinatorial optimization calculation, and the optimal solution of sparse modeling is generated on the basis of second data received from the first Ising machine.

Description

最適化問題解決方法及び最適化問題解決装置Optimization problem solving method and optimization problem solving device
 本開示は、最適化問題解決方法及び最適化問題解決装置に関する。 This disclosure relates to an optimization problem solving method and an optimization problem solving device.
 従来、組合せ最適化問題(以下「最適化問題」ともいう)を解くためにイジングモデルを模したハードウェア(以下「イジングマシン」ともいう)として、イジングスピンに量子ビットを用いる量子アニーリングマシンやCMOS(Complementary metal-oxide-semiconductor)ゲートやデジタル回路等を用いる量子着想型計算機が知られている。このようなイジングマシンでは、組合せ最適化問題を解くために、評価関数を変換する処理を行うことがなされていた。また、評価関数の変換の処理に、ハードウェアにおける制約をみたすように、スパースモデリングが用いられたりした(例えば、特許文献1)。 Conventionally, as hardware that imitates the Ising model (hereinafter also referred to as "Ising machine") for solving combinatorial optimization problems (hereinafter also referred to as "optimization problem"), quantum annealing machines and CMOS that use qubits for Ising spins. (Complementary metal-oxide-semiconductor) Quantum-conceived computers that use gates, digital circuits, etc. are known. In such an Ising machine, in order to solve the combinatorial optimization problem, the process of converting the evaluation function has been performed. In addition, sparse modeling has been used in the processing of the conversion of the evaluation function so as to satisfy the restrictions in the hardware (for example, Patent Document 1).
特開2019-046038号公報Japanese Unexamined Patent Publication No. 2019-046038
 従来技術によれば、最適化問題を解くために用意されたイジングマシンに対し、ハードウェアの制約に適合させる評価関数の変換処理を実施するため、スパースモデリングが用いられた。 According to the prior art, sparse modeling was used to perform the conversion process of the evaluation function to match the hardware constraints on the rising machine prepared to solve the optimization problem.
 しかしながら、ここで用いられたスパースモデリングの実現方法は、従来のアルゴリズムを用いたものである。もともと、スパースモデリングは、センサなどからのデータをできるだけ少ない説明変数でモデル化するための最適化問題として広く知られている。しかし、スパースモデリングを実現する方法で最も高精度が期待される方法は、組合せ爆発を起こす組合せ最適化問題となっていて、実用的でないことも知られている。一方、イジングマシンは、昨今、組合せ爆発を起こす組合せ最適化に計算時間を削減する方法として脚光を浴びている。 However, the method of realizing sparse modeling used here uses a conventional algorithm. Originally, sparse modeling is widely known as an optimization problem for modeling data from sensors and the like with as few explanatory variables as possible. However, it is also known that the method that is expected to have the highest accuracy in the method of realizing sparse modeling is a combinatorial optimization problem that causes a combinatorial explosion and is not practical. On the other hand, Ising machines have recently been in the limelight as a method of reducing calculation time for combinatorial optimization that causes a combinatorial explosion.
 そこで、本開示では、センサからのデータに対して、イジングマシンを用いてスパースモデリングにおける最適化問題の解を適切に生成することができる最適化問題解決方法及び最適化問題解決装置を提案する。 Therefore, this disclosure proposes an optimization problem solving method and an optimization problem solving device that can appropriately generate a solution of an optimization problem in sparse modeling for data from a sensor using a sparse machine.
 上記の課題を解決するために、本開示に係る一形態の最適化問題解決方法は、センサからの第1のデータを入力し、第1のデータをスパースモデリングするための目的関数を生成し、前記目的関数における最適化したい変数に係る係数行列を生成し、組合せ最適化計算を行う第1のイジングマシンに前記係数行列を送信し、前記第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する。 In order to solve the above problems, one form of the optimization problem solving method according to the present disclosure inputs the first data from the sensor, generates an objective function for sparse modeling the first data, and then generates an objective function. A coefficient matrix related to a variable to be optimized in the objective function is generated, the coefficient matrix is transmitted to a first Ising machine that performs combinatorial optimization calculation, and based on the second data received from the first Ising machine. Generate the optimal solution for sparse modeling.
本開示の最適化問題解決システムの構成例を示す図である。It is a figure which shows the configuration example of the optimization problem solution system of this disclosure. 第1の実施例のブロック図である。It is a block diagram of 1st Example. ユーザインタフェースに関する処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure about a user interface. ユーザインタフェースの一例を示す図である。It is a figure which shows an example of a user interface. イジングモデルを模式的に示す図である。It is a figure which shows the Ising model schematically. トンネル効果を模式的に示す図である。It is a figure which shows the tunnel effect schematically. スパースモデリングを示す概念図である。It is a conceptual diagram showing sparse modeling. バイナリ変換に関する行列式を示す概念図である。It is a conceptual diagram which shows the determinant about a binary conversion. L0スパースモデリングの処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process of L0 sparse modeling. L0スパースモデリングのプログラムの一例を示す図である。It is a figure which shows an example of the program of L0 sparse modeling. イジングモデルの目的関数を生成するプログラムの一例を示す図である。It is a figure which shows an example of the program which generates the objective function of the Ising model. L0スパースモデリングの解を生成するプログラムの一例を示す図である。It is a figure which shows an example of the program which generates the solution of L0 sparse modeling. 本開示の最適化問題解決装置の構成例を示す図である。It is a figure which shows the configuration example of the optimization problem solving apparatus of this disclosure. 本開示のイジングマシンの構成例を示す図である。It is a figure which shows the structural example of the Ising machine of this disclosure. 圧縮センシング最適化処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the compressed sensing optimization processing. 圧縮センシング最適化処理のプログラムの一例を示す図である。It is a figure which shows an example of the program of the compressed sensing optimization processing. イジングモデルの目的関数を生成するプログラムの一例を示す図である。It is a figure which shows an example of the program which generates the objective function of the Ising model. 計測コントロール行列を得るプログラムの一例を示す図である。It is a figure which shows an example of the program which obtains a measurement control matrix. 最適化問題解決システムを適用した第2の実施例を示す図である。It is a figure which shows the 2nd Example which applied the optimization problem solution system. 最適化問題解決システムを適用した第4の実施例を示す図である。It is a figure which shows the 4th Example which applied the optimization problem solution system. 最適化問題解決システムを適用した第4の実施例を示す図である。It is a figure which shows the 4th Example which applied the optimization problem solution system. 最適化問題解決システムを適用した第4の実施例を示す図である。It is a figure which shows the 4th Example which applied the optimization problem solution system. 最適化問題解決システムを適用した第5の実施例を示す図である。It is a figure which shows the 5th Example which applied the optimization problem solution system. 最適化問題解決装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the computer which realizes the function of the optimization problem solving apparatus.
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、この実施形態により本願にかかる最適化問題解決方法及び最適化問題解決装置が限定されるものではない。また、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the optimization problem solving method and the optimization problem solving device according to the present application. Further, in each of the following embodiments, duplicate description will be omitted by assigning the same reference numerals to the same parts.
 以下に示す項目順序に従って本開示を説明する。
  1.技術概要
   1-1.背景(適用分野等)
   1-2.スパースモデリング
  2.第1の実施例
   2-1.最適化問題解決システムの装置構成
   2-2.最適化問題解決システムの処理概要
    2-2-1.観測次元最適選択
    2-2-2.L0スパースモデリング
    2-2-3.ユーザインタフェース
    2-2-4.イジングマシン
    2-2-5.スパースモデリング
     2-2-5-1.L0スパースモデリング、L1スパースモデリング
     2-2-5-2.組合せ最適化問題としてのL0スパースモデリング
     2-2-5-3.バイナリ変数を用いたL0スパースモデリング
     2-2-5-4.QUBO形式によるL0スパースモデリング
     2-2-5-5.Kビット量子化されたL0スパースモデリング
     2-2-5-6.イジングモデルによるL0スパースモデリング
    2-2-6.L0スパースモデリングのフロー例
    2-2-7.L0スパースモデリングのプログラム例
   2-3.最適化問題解決装置の構成
   2-4.イジングマシンの構成
   2-5.圧縮センシング
    2-5-1.組合せ最適化問題
    2-5-2.QUBO形式
    2-5-3.イジングモデルによる圧縮センシングの最適化
    2-5-4.圧縮センシング最適化のフロー例
    2-5-5.圧縮センシング最適化のプログラム例
   3.他の実施例
   3-1.第2の実施例(RFID)
   3-2.第3の実施例(第2の実施例の拡張)
   3-3.第4の実施例(ターゲット検出)
   3-4.第5の実施例(画像診断)
   3-5.第6の実施例(その他)
  4.その他の構成例等
   4-1.その他の構成例
   4-2.プログラムやパラメータ等の処理に用いる情報の生成方法
   4-3.その他
  5.本開示に係る効果
  6.ハードウェア構成
The present disclosure will be described according to the order of items shown below.
1. 1. Technical overview 1-1. Background (applicable fields, etc.)
1-2. Sparse modeling 2. First Example 2-1. Device configuration of optimization problem solving system 2-2. Outline of processing of optimization problem solving system 2-2-1. Optimal selection of observation dimensions 2-2-2. L0 sparse modeling 2-2-3. User interface 2-2-4. Ising Machine 2-2-5. Sparse modeling 2-2-5-1. L0 sparse modeling, L1 sparse modeling 2-2-5-2. L0 sparse modeling as a combinatorial optimization problem 2-2-5-3. L0 sparse modeling using binary variables 2-2-5-4. L0 sparse modeling in QUAB format 2-2-5-5. K-bit quantized L0 sparse modeling 2-2-5-6. L0 sparse modeling by Ising model 2-2-6. Example of flow of L0 sparse modeling 2-2-7. L0 sparse modeling program example 2-3. Configuration of optimization problem solving device 2-4. Configuration of Ising machine 2-5. Compressed sensing 2-5-1. Combinatorial optimization problem 2-5-2. QUAB format 2-5-3. Optimization of compressed sensing by Ising model 2-5-4. Flow example of compressed sensing optimization 2-5-5. Program example of compressed sensing optimization 3. Other Examples 3-1. Second Example (RFID)
3-2. Third embodiment (extension of the second embodiment)
3-3. Fourth Example (Target Detection)
3-4. Fifth Example (Image Diagnosis)
3-5. Sixth Example (Other)
4. Other configuration examples, etc. 4-1. Other configuration examples 4-2. How to generate information used for processing programs and parameters 4-3. Others 5. Effect of this disclosure 6. Hardware configuration
[1.技術概要]
 本開示を説明する前に、本開示に係る技術的な背景の概要について説明する。なお、以下の技術的な説明の中で従来技術に関しては適宜説明を省略する。
[1. Technical overview]
Before explaining the present disclosure, an outline of the technical background relating to the present disclosure will be described. In the following technical description, the description of the prior art will be omitted as appropriate.
[1-1.背景(適用分野等)]
 まず、本開示に係る処理に関連するスパースモデリングや圧縮センシングの適用分野等について説明する。スパースモデリングや圧縮センシングは、MRI(核磁気共鳴画像化:Magnetic Resonance Imaging)、電波望遠鏡、レーダ(Radar)、ライダ(LIDAR:Light Detection and Ranging、Laser Imaging Detection and Ranging)等様々な分野で用いられている。
[1-1. Background (applicable fields, etc.)]
First, the fields of application of sparse modeling and compressed sensing related to the processing according to the present disclosure will be described. Sparse modeling and compression sensing are used in various fields such as MRI (Magnetic Resonance Imaging), radio telescopes, radar (Radar), and lidar (LIDAR: Light Detection and Ranging, Laser Imaging Detection and Ranging). ing.
 例えば、MRIは、圧縮センシングの初期の実用的アプリケーションとして知られている。初期のMRIは、撮影時間がかかるという欠点があったが、圧縮センシングによる計測回数の削減で撮影時間が短縮され、患者や医療従事者の負担の大幅な削減につながる。 For example, MRI is known as an early practical application of compressed sensing. Early MRI had the disadvantage that it took a long time to shoot, but by reducing the number of measurements by compressed sensing, the shooting time was shortened, which led to a significant reduction in the burden on patients and medical staff.
 また、例えば、電波天文台で計測した天体電波情報を用いた天体イメージングでは、画像の非零成分(「非ゼロ成分」と記載する場合がある)が少ないという事前知識に基づき、数少ない電波天文台(電波天文台アレイ)で得た情報からブラックホールの詳細画像を超解像で復元することなどが知られている。また、レーダ、ライダなどを用いた周辺環境のイメージングなどでも、同様の原理により、超解像で従来より高い解像度の画像の取得が検討されてきている。 In addition, for example, in astronomical imaging using astronomical radio wave information measured by a radio observatory, there are few radio observatories (radio waves) based on the prior knowledge that there are few non-zero components (sometimes referred to as "non-zero components") in images. It is known that the detailed image of a black hole can be restored by super-resolution from the information obtained by the observatory array). Further, in the imaging of the surrounding environment using a radar, a rider, or the like, acquisition of an image having a higher resolution than the conventional one with super-resolution has been studied by the same principle.
[1-2.スパースモデリング]
 ところで、現在のスパースモデリングは近似解法(例えばL1スパースモデリング)で、最も高い精度が期待されている理想的なスパースモデリング(例えばL0スパースモデリング)と同じ解を得るには、観測の次元数などが計算困難な一定の条件を満たさなければならない。具体的には、観測行列のRIP(Restricted Isometry Property:制約等長性)係数が一定の条件を満たさなければならないが、RIP係数の計算は困難である。
[1-2. Sparse modeling]
By the way, the current sparse modeling is an approximate solution method (for example, L1 sparse modeling), and in order to obtain the same solution as the ideal sparse modeling (for example, L0 sparse modeling) where the highest accuracy is expected, the number of dimensions of observation is required. Certain conditions that are difficult to calculate must be met. Specifically, the RIP (Restricted Isometry Property) coefficient of the observation matrix must satisfy a certain condition, but it is difficult to calculate the RIP coefficient.
 このため、現在のL1スパースモデリングでは、オーダでの評価で真のスパースモデリングとの等価性を保証する場合が多い。しかし、オーダでの評価では、実際にどれくらい計測回数を削減しても良いのか不明確であった。つまり、超解像やデータ復元といった技術で、本当に元の画像が復元しているのか保証が困難であった。そこで、簡単にデータの完全復元が保証されるスパースモデリングが求められてきた。 Therefore, in the current L1 sparse modeling, it is often the case that the evaluation on the order guarantees the equivalence with the true sparse modeling. However, in the evaluation by order, it was unclear how much the number of measurements could actually be reduced. In other words, it was difficult to guarantee whether the original image was really restored by technologies such as super-resolution and data restoration. Therefore, there has been a demand for sparse modeling that guarantees complete restoration of data easily.
 そのようなスパースモデリングとして、例えば、L0スパースモデリングそのものを使うことや、観測次元選択を最適化するなどが考えられる。 As such sparse modeling, for example, using L0 sparse modeling itself or optimizing the observation dimension selection can be considered.
 しかしながら、L0スパースモデリングは、最適化が困難な組合せ最適化問題の一つとして知られている。実際、現時点で多項式時間での解法が見つかっておらず、規模が大きくなると実用的な計算時間での最適化が困難であった。 However, L0 sparse modeling is known as one of the combinatorial optimization problems that are difficult to optimize. In fact, no solution in polynomial time has been found at this time, and it has been difficult to optimize in practical calculation time as the scale increases.
 また、観測変数の次元選択の良し悪しの評価は、その次元選択で得られた観測データから完全再現ができる解に到達する条件をみたしているかを評価する方法が組合せ爆発を内包していて、実用的な計算時間での評価が困難であった。 In addition, the evaluation of the quality of the dimension selection of the observed variables includes a combinatorial explosion in which the method of evaluating whether the conditions for reaching a solution that can be completely reproduced from the observation data obtained by the dimension selection are satisfied. , It was difficult to evaluate with a practical calculation time.
 そこで、本開示では、L0スパースモデリングのような最適化が困難な組合せ最適化問題を量子計算により、いわゆる汎用コンピュータ等で虱潰し的に組合せ探索をおこなうよりも比較的高速に実現する方法を提供する。 Therefore, in the present disclosure, we provide a method to realize a combinatorial optimization problem that is difficult to optimize, such as L0 sparse modeling, by quantum calculation at a relatively high speed compared to performing a combinatorial search in a so-called general-purpose computer or the like. do.
 詳細は後述するが、概要を説明すると、L0スパースモデリングをスパース変数の成分のゼロ・非ゼロを表すバイナリ変数や、スパース変数を量子化したビット表現の組合せ最適化問題と捉え、この組合せ最適化問題をイジングモデルに変換して、これを量子アニーリングマシン(以下「量子コンピュータ」ともいう)または量子着想型計算機などのイジングマシンで高速に最適化し、得られた最適組合せの解(以下「最適解」ともいう)から、スパース解を算出する構成としている。 Details will be described later, but to explain the outline, L0 sparse modeling is regarded as a combinatorial optimization problem of binary variables representing zero / non-zero components of sparse variables and bit representations obtained by quantizing sparse variables, and this combinatorial optimization is performed. The problem is converted into an Ising model, which is optimized at high speed by a sparse machine such as a quantum annealing machine (hereinafter also referred to as "quantum computer") or a quantum-conceived computer, and the solution of the optimum combination obtained (hereinafter referred to as "optimal solution"). ”) To calculate the sparse solution.
 そこで、本開示では、圧縮センシングにおける観測変数の次元選択の最適化を量子計算により、比較的高速に実現する方法も提供する。 Therefore, this disclosure also provides a method for realizing the optimization of the dimension selection of observed variables in compressed sensing by quantum calculation at a relatively high speed.
 具体的には、観測変数の次元選択を組合せ最適化問題と捉え、イジングマシンで最適化し、得られた最適組合せの解から、スパース化のための次元選択とその合成の行列を算出する構成をしている。 Specifically, the dimension selection of observed variables is regarded as a combinatorial optimization problem, optimized by the Ising machine, and the matrix of dimension selection for sparsification and its synthesis is calculated from the solution of the obtained optimum combination. is doing.
 このような構成を採用することで、例えば、L0スパースモデリングは最も高い精度が期待される理想的なスパースモデリングであるので、従来のL1スパースモデリングと異なり、スパースモデリングの近似が適用できる範囲か、あるいは、解が妥当であるかを検証する手間を削減して、正しい解の保証をできる。 By adopting such a configuration, for example, L0 sparse modeling is an ideal sparse modeling that is expected to have the highest accuracy. Therefore, unlike the conventional L1 sparse modeling, is it within the range to which the approximation of sparse modeling can be applied? Alternatively, the effort to verify that the solution is valid can be reduced to ensure the correct solution.
 また、観測変数の次元選択についてもランダムに選択するのではなく、最適に次元選択することができるようになり、得られた解が妥当であるかを検証する手間を削減して、正しい解の保証をできる。 In addition, it is now possible to optimally select the dimensions of the observed variables instead of randomly selecting them, reducing the time and effort required to verify that the obtained solution is valid, and finding the correct solution. I can guarantee it.
 まず、以下では、全体のシステム構成などを説明し、その後に各処理や適用例について説明する。 First, the overall system configuration, etc. will be explained below, and then each process and application example will be explained.
[2.第1の実施例]
[2-1.最適化問題解決システムの装置構成]
 まず、図1に示す最適化問題解決システム1の構成について説明する。図1は、本開示の最適化問題解決システムの構成例を示す図である。図1に示すように、最適化問題解決システム1は、最適化問題解決装置100と、センサ50と、複数のイジングマシン10とが含まれる。最適化問題解決装置100と、センサ50と、複数のイジングマシン10とは所定の通信網(ネットワークNT)を介して、有線または無線により通信可能に接続される。なお、最適化問題解決システム1には、複数の最適化問題解決装置100や、複数のセンサ50が含まれてもよい。また、最適化問題解決システム1は、上記に限らず、処理に必要な各種の装置が含まれてもよい、例えば図2のブロックB6に示す計測コントローラのような装置が含まれてもよい。
[2. First Example]
[2-1. Device configuration of optimization problem solving system]
First, the configuration of the optimization problem solving system 1 shown in FIG. 1 will be described. FIG. 1 is a diagram showing a configuration example of the optimization problem solving system of the present disclosure. As shown in FIG. 1, the optimization problem solving system 1 includes an optimization problem solving device 100, a sensor 50, and a plurality of rising machines 10. The optimization problem solving device 100, the sensor 50, and the plurality of rising machines 10 are connected to each other via a predetermined communication network (network NT) so as to be communicable by wire or wirelessly. The optimization problem solving system 1 may include a plurality of optimization problem solving devices 100 and a plurality of sensors 50. Further, the optimization problem solving system 1 is not limited to the above, and may include various devices necessary for processing, for example, a device such as the measurement controller shown in block B6 of FIG.
 最適化問題解決装置100は、センサ50がセンシングしたデータ(第1のデータ)を用いて、第1のデータをスパースモデリングするための目的関数を生成し、目的関数における最適化したい変数に係る係数行列をイジングマシン10に送信する情報処理装置(コンピュータ)である。例えば最適化したい変数は、第1のデータをモデル化するスパースな変数の各成分について、非ゼロ成分かゼロ成分を区別するバイナリ変数である。また、例えば、最適化したい変数は、第1のデータをモデル化するスパースな変数の各成分について、量子化して得られる各ビット変数である。また、最適化問題解決装置100は、イジングマシン10の計算結果(第2のデータ)を受信し、第2のデータに基づき最適解を生成する。 The optimization problem solving device 100 uses the data sensed by the sensor 50 (first data) to generate an objective function for sparse modeling of the first data, and the coefficient related to the variable to be optimized in the objective function. It is an information processing device (computer) that transmits a matrix to the rising machine 10. For example, the variable to be optimized is a binary variable that distinguishes between a non-zero component and a zero component for each component of the sparse variable that models the first data. Further, for example, the variable to be optimized is each bit variable obtained by quantizing each component of the sparse variable that models the first data. Further, the optimization problem solving device 100 receives the calculation result (second data) of the Ising machine 10 and generates an optimum solution based on the second data.
 センサ50は、観測した現象を電気信号やデータに変換して出力するデバイスである。センサ50は、センシングしたデータを最適化問題解決装置100へ送信する機能を有する。なお、センサ50は、画像センサ、音センサ、加速度センサ、位置センサ、温度センサ、湿度センサ、照度センサ、圧力センサ等、どのようなセンサであってもよい。なお、最適化問題解決システム1には、MRI装置500(図23参照)などのセンサとしての機能を有する装置が含まれてもよいが、この点についての詳細は後述する。 The sensor 50 is a device that converts the observed phenomenon into an electric signal or data and outputs it. The sensor 50 has a function of transmitting the sensed data to the optimization problem solving device 100. The sensor 50 may be any sensor such as an image sensor, a sound sensor, an acceleration sensor, a position sensor, a temperature sensor, a humidity sensor, an illuminance sensor, and a pressure sensor. The optimization problem solving system 1 may include a device having a function as a sensor, such as an MRI device 500 (see FIG. 23), and details of this point will be described later.
 複数のイジングマシン10には、イジングマシン10a、イジングマシン10b等が含まれる。なお、イジングマシン10a、イジングマシン10b等について、特に区別せずに説明する場合は、「イジングマシン10」と記載する。なお、最適化問題解決システム1には、複数のイジングマシン10aや、複数のイジングマシン10bが含まれてもよい。イジングマシン10は、イジングモデルを用いるコンピュータ(計算機)である。イジングマシン10は、イジングモデルを用いて、組合せ最適化問題を解くコンピュータ(以下「組合せ最適化マシン」ともいう)である。 The plurality of Ising machines 10 include Ising machines 10a, Ising machines 10b, and the like. When the Ising machine 10a, the Ising machine 10b, and the like are described without particular distinction, they are described as "Ising machine 10". The optimization problem solving system 1 may include a plurality of Ising machines 10a and a plurality of Ising machines 10b. The Ising machine 10 is a computer (computer) that uses the Ising model. The Ising machine 10 is a computer (hereinafter, also referred to as “combinatorial optimization machine”) that solves a combinatorial optimization problem using an Ising model.
 イジングマシン10aは、量子アニーリングを用いて問題を解く量子コンピュータ(量子計算機)である。イジングマシン10aは、量子アニーリング方式や量子アニーラにより実現することができる。イジングマシン10bは、CMOS(Complementary metal-oxide-semiconductor)等を用いた量子着想型計算機である。例えば、イジングマシン10bは、GPU(Graphics Processing Unit)等のプロセッサやFPGA(Field Programmable Gate Array)等の集積回路を用いた量子着想型計算機であってもよい。なお、イジングマシン10は、上記のイジングマシン10aやイジングマシン10bに限らず、組合せ最適化問題を解決可能な装置であれば、どのようなハードウェア構成であってもよい。 The Ising machine 10a is a quantum computer (quantum computer) that solves a problem using quantum annealing. The Ising machine 10a can be realized by a quantum annealing method or a quantum annealing method. The Ising machine 10b is a quantum-conceived computer using CMOS (Complementary metal-oxide-semiconductor) or the like. For example, the rising machine 10b may be a quantum-conceived computer using a processor such as a GPU (Graphics Processing Unit) or an integrated circuit such as an FPGA (Field Programmable Gate Array). The Ising machine 10 is not limited to the Ising machine 10a and the Ising machine 10b described above, and may have any hardware configuration as long as it can solve the combinatorial optimization problem.
[2-2.最適化問題解決システムの処理概要]
 ここで、図2を参照しつつ最適化問題解決システム1の処理の概要を説明する。図2は、第1の実施例のブロック図である。
[2-2. Overview of optimization problem solving system processing]
Here, an outline of the processing of the optimization problem solving system 1 will be described with reference to FIG. FIG. 2 is a block diagram of the first embodiment.
 図2は、L0スパースモデリングと観測次元最適選択を含む全体構成を表している。図2の全体構成図のうち、上のブロック群(図2中のブロックB1~B5)は、観測次元最適選択を実現するブロックである。一方、下のブロック群(図2中のブロックB6~B10)は、L0スパースモデリングを実現するブロックである。なお、図2に示すブロックB1~B10の各々は、装置、データ、または機能のいずれかを示し、最適化問題解決システム1の各装置のいずれかに対応する。 FIG. 2 shows the overall configuration including L0 sparse modeling and observation dimension optimum selection. In the overall configuration diagram of FIG. 2, the upper block group (blocks B1 to B5 in FIG. 2) is a block that realizes the optimum selection of the observation dimension. On the other hand, the lower block group (blocks B6 to B10 in FIG. 2) is a block that realizes L0 sparse modeling. Each of the blocks B1 to B10 shown in FIG. 2 indicates any of the devices, data, and functions, and corresponds to any of the devices of the optimization problem solving system 1.
 例えば、ブロックB8に示すL0スパースモデリングの機能やブロックB10に示すデータ生成の機能は、最適化問題解決装置100により実行される。例えば、ブロックB5に示すスパース観測モデルのデータは、最適化問題解決装置100が有してもよい。例えば、スパース観測モデルのデータには、選択次元の情報や次元圧縮の行列の情報等が含まれる。また、例えば、ブロックB3に示す組合せ最適化マシン及びブロックB9に示す組合せ最適化マシンは、イジングマシン10に対応する。なお、ブロックB3に示す組合せ最適化マシンと、ブロックB9に示す組合せ最適化マシンとは、同じイジングマシン10であってもよいし、異なるイジングマシン10であってもよい。例えば、ブロックB3に示す組合せ最適化マシンは、第1のイジングマシンとしてのイジングマシン10bであり、ブロックB9に示す組合せ最適化マシンは、第2のイジングマシンとしてのイジングマシン10aであってもよい。 For example, the function of L0 sparse modeling shown in block B8 and the function of data generation shown in block B10 are executed by the optimization problem solving device 100. For example, the data of the sparse observation model shown in the block B5 may be possessed by the optimization problem solving device 100. For example, the data of the sparse observation model includes information on the selected dimension, information on the matrix of dimension compression, and the like. Further, for example, the combination optimization machine shown in block B3 and the combination optimization machine shown in block B9 correspond to the Ising machine 10. The combinatorial optimization machine shown in block B3 and the combinatorial optimization machine shown in block B9 may be the same Ising machine 10 or different Ising machines 10. For example, the combinatorial optimization machine shown in block B3 may be the Ising machine 10b as the first Ising machine, and the combinatorial optimization machine shown in block B9 may be the Ising machine 10a as the second Ising machine. ..
 例えば、ブロックB7を示すセンサは、センサ50に対応する。また、ブロックB6に示す計測コントローラは、センサ50と一体であってもよいし、センサ50は別体の装置として最適化問題解決システム1に含まれてもよい。なお、上記は一例であり、図2に示すブロックB1~B10と、最適化問題解決システム1の各装置との対応関係は、処理が実現可能であればどのような対応関係であってもよい。 For example, the sensor indicating the block B7 corresponds to the sensor 50. Further, the measurement controller shown in the block B6 may be integrated with the sensor 50, or the sensor 50 may be included in the optimization problem solving system 1 as a separate device. The above is an example, and the correspondence between the blocks B1 to B10 shown in FIG. 2 and each device of the optimization problem solving system 1 may be any correspondence as long as the processing is feasible. ..
[2-2-1.観測次元最適選択]
 観測次元最適選択に対応する図2中のブロックB1~B5は、通常オフライン処理でなされ、センサ入力とは無関係にあらかじめ実現される。
[2-2-1. Optimal selection of observation dimensions]
The blocks B1 to B5 in FIG. 2 corresponding to the observation dimension optimum selection are usually performed by offline processing, and are realized in advance regardless of the sensor input.
 観測次元最適選択の処理では、完全観測モデルであるブロックB1に示すように、スパースではない完全な観測を表す観測行列(「完全観測行列」ともいう)が入力され、この観測次元の選択情報と、スパースな観測を表す観測行列が出力される。完全な観測を表す行列はたとえば、DFT(離散フーリエ変換)を表す行列や、ウェーブレット変換を表す行列、あるいは、辞書学習などで獲得した行列である。 In the process of optimal selection of observation dimensions, as shown in block B1, which is a complete observation model, an observation matrix (also called "complete observation matrix") representing complete observations that is not sparse is input, and this observation dimension selection information is used. , An observation matrix representing sparse observations is output. The matrix representing the complete observation is, for example, a matrix representing the DFT (discrete Fourier transform), a matrix representing the wavelet transform, or a matrix acquired by dictionary learning or the like.
 まず、スパースではない完全観測行列が、ブロックB2に示す観測次元選択モデリングに入力されると、この完全観測行列の値をもとに、観測次元選択の組合せ最適化のモデリングがなされ、さらに、イジングモデルの係数行列への変換がなされる。例えば、最適化問題解決装置100は、完全観測行列を用いて、観測次元選択モデリングにより、観測次元選択の組合せ最適化のモデリングを行い、イジングモデルの係数行列を生成する。 First, when a complete observation matrix that is not a sparse is input to the observation dimension selection modeling shown in block B2, combinatorial optimization of observation dimension selection is modeled based on the values of this complete observation matrix, and further, isging. The conversion to the coefficient matrix of the model is done. For example, the optimization problem solving device 100 models the combinatorial optimization of the observation dimension selection by the observation dimension selection modeling using the complete observation matrix, and generates the coefficient matrix of the Ising model.
 そして、この係数行列がブロックB3に示す組合せ最適化マシンに対応するイジングマシン10に入力され、ブロックB3の組合せ最適化マシンに対応するイジングマシン10により、最適な組合せに相当する解が出力される。例えば、ブロックB3のイジングマシン10は、最適な組合せに相当する解を最適化問題解決装置100に送信する。 Then, this coefficient matrix is input to the Ising machine 10 corresponding to the combinatorial optimization machine shown in the block B3, and the Ising machine 10 corresponding to the combinatorial optimization machine of the block B3 outputs a solution corresponding to the optimum combination. .. For example, the Ising machine 10 of the block B3 transmits a solution corresponding to the optimum combination to the optimization problem solving device 100.
 ブロックB4に示す最適選択観測モデルでは、最適な組合せに相当する解等の最適な組合せの情報をもとに、観測次元の選択情報とスパース観測行列(例えば、選択された観測次元に対応するスパースな観測を表す観測行列)を出力する。例えば、最適化問題解決装置100は、最適な組合せの情報をもとに、観測次元を選択し、観測次元の選択情報とスパース観測行列を生成する。 In the optimum selection observation model shown in block B4, the selection information of the observation dimension and the sparse observation matrix (for example, the sparse corresponding to the selected observation dimension) are based on the information of the optimum combination such as the solution corresponding to the optimum combination. An observation matrix that represents various observations) is output. For example, the optimization problem solving device 100 selects an observation dimension based on the information of the optimum combination, and generates selection information of the observation dimension and a sparse observation matrix.
 ブロックB5に示すスパース観測モデルでは、観測次元の選択情報とスパース観測行列は、ブロックB6に示す計測コントローラやブロックB8に示すL0スパースモデリングで利用できるようにファイルなどで保存しておく。 In the sparse observation model shown in block B5, the selection information of the observation dimension and the sparse observation matrix are saved in a file or the like so that they can be used in the measurement controller shown in block B6 and the L0 sparse modeling shown in block B8.
[2-2-2.L0スパースモデリング]
 L0スパースモデリングに対応する図2中のブロックB6~B10は、オンライン処理でなされ、スパース観測されたセンサの入力に対して行われる。なお、ブロックB6~B10を少し変形して、センサからの入力を蓄積してから、その後の処理をオフライン処理で実現しても良い。この場合、ブロックB7は、データ記憶部等に置き換えられ、ブロックB7のデータ記憶部は、最適化問題解決装置100が有してもよい。
[2-2-2. L0 sparse modeling]
The blocks B6 to B10 in FIG. 2 corresponding to L0 sparse modeling are performed by online processing and are performed for the input of the sparse-observed sensor. It should be noted that the blocks B6 to B10 may be slightly modified to accumulate the input from the sensor, and then the subsequent processing may be realized by offline processing. In this case, the block B7 may be replaced with a data storage unit or the like, and the data storage unit of the block B7 may be included in the optimization problem solving device 100.
 まず、CPU(Central Processing Unit)などで読み出された計測方法に従い、ブロックB6に示す計測コントローラがブロックB7に示すセンサを制御する。例えば、ブロックB6に示す計測コントローラは、スパース観測モデルに含まれる選択次元の情報を用いて、ブロックB7に示すセンサを制御する。なお、ブロックB7に示すセンサの代わりにセンサーデータを転送する通信を制御する場合もあってもよい。 First, the measurement controller shown in block B6 controls the sensor shown in block B7 according to the measurement method read by the CPU (Central Processing Unit) or the like. For example, the measurement controller shown in the block B6 controls the sensor shown in the block B7 by using the information of the selection dimension included in the sparse observation model. It should be noted that the communication for transferring the sensor data may be controlled instead of the sensor shown in the block B7.
 続いて、ブロックB7に示すセンサでスパースに観測されたデータがブロックB8に示すL0スパースモデリングに入力される。このブロックB8に示すL0スパースモデリンには、スパース観測行列があらかじめ入力されているものとする。スパース観測のデータとスパース観測行列をもとに、L0スパースモデリングの組合せ最適化としてのモデリングがなされ、さらに、イジングモデルの係数行列への変換がなされる。例えば、最適化問題解決装置100は、スパース観測のデータとスパース観測行列を用いて、L0スパースモデリングにより、L0スパースモデリングの組合せ最適化としてのモデリングを行い、イジングモデルの係数行列を生成する。 Subsequently, the data observed in the sparse by the sensor shown in the block B7 is input to the L0 sparse modeling shown in the block B8. It is assumed that the sparse observation matrix is input in advance to the L0 sparse modelin shown in the block B8. Based on the sparse observation data and the sparse observation matrix, modeling is performed as a combinatorial optimization of L0 sparse modeling, and further, the singing model is converted into a coefficient matrix. For example, the optimization problem solving device 100 performs modeling as a combinatorial optimization of L0 sparse modeling by L0 sparse modeling using the sparse observation data and the sparse observation matrix, and generates a coefficient matrix of the singing model.
 そして、この係数行列がブロックB9に示す組合せ最適化マシンに入力され、ブロックB9の組合せ最適化マシンに対応するイジングマシン10により、最適な組合せに相当する解が出力される。例えば、ブロックB9のイジングマシン10は、最適な組合せに相当する解を最適化問題解決装置100に送信する。 Then, this coefficient matrix is input to the combinatorial optimization machine shown in block B9, and the Ising machine 10 corresponding to the combinatorial optimization machine of block B9 outputs a solution corresponding to the optimum combination. For example, the Ising machine 10 of the block B9 transmits a solution corresponding to the optimum combination to the optimization problem solving device 100.
 ブロックB10に示すデータ生成(復元/合成)では、最適な組合せに相当する解等の最適な組合せの情報をもとに、スパース解の算出を行う。例えば、最適化問題解決装置100は、最適な組合せの情報をもとに、スパース解の算出を行う。そして、適用先となるアプリケーションに応じて、あらかじめ入力されている完全観測の観測行列をもとにデータの復元や生成がなされる。 In the data generation (restoration / synthesis) shown in block B10, the sparse solution is calculated based on the information of the optimum combination such as the solution corresponding to the optimum combination. For example, the optimization problem solving device 100 calculates a sparse solution based on the information of the optimum combination. Then, depending on the application to which it is applied, data is restored or generated based on the observation matrix of complete observation that has been input in advance.
[2-2-3.ユーザインタフェース]
 ここで、最適化問題解決システム1を利用するユーザに対するユーザインタフェース(以下「UI」と記載する場合がある)について記載する。
[2-2-3. User interface]
Here, a user interface (hereinafter, may be referred to as “UI”) for a user who uses the optimization problem solving system 1 will be described.
(UIフロー)
 まず、図3を用いてUIに関する処理フローを説明する。図3は、ユーザインタフェースに関する処理手順を示すフローチャートである。図3では、最適化問題解決装置100が後述する入力部140や表示部150(図13参照)等によりUIを提供する。なお、最適化問題解決装置100がUIを提供する場合を一例として説明するが、最適化問題解決装置100に限らず、例えばユーザのスマートフォン等の他の装置がユーザにUIを提供してもよい。
(UI flow)
First, the processing flow related to the UI will be described with reference to FIG. FIG. 3 is a flowchart showing a processing procedure related to the user interface. In FIG. 3, the optimization problem solving device 100 provides a UI by means of an input unit 140, a display unit 150 (see FIG. 13), and the like, which will be described later. The case where the optimization problem solving device 100 provides the UI will be described as an example, but the present invention is not limited to the optimization problem solving device 100, and other devices such as the user's smartphone may provide the UI to the user. ..
 図3に示すように、最適化問題解決装置100は、組合せ最適化タスクのリストを提示する(ステップS1)。例えば、最適化問題解決装置100は、図4中のコンテンツCT1に示すように、計測スパース化やスパースモデリング等の複数の組合せ最適化タスクを一覧表示する。 As shown in FIG. 3, the optimization problem solving device 100 presents a list of combinatorial optimization tasks (step S1). For example, the optimization problem solving device 100 displays a list of a plurality of combinatorial optimization tasks such as measurement sparsification and sparsity modeling, as shown in the content CT1 in FIG.
 そして、最適化問題解決装置100は、使える最適化方法を提示する(ステップS2)。例えば、最適化問題解決装置100は、図4中のコンテンツCT1に示すように、量子コンピュータによる最適化や量子着想型計算機による最適化等の複数の最適化の方法を一覧表示する。図1に示すように各最適化方法を実行するイジングマシン10を提示されたユーザは、提示されたイジングマシン10から、使用するイジングマシン10を選択する。 Then, the optimization problem solving device 100 presents an optimization method that can be used (step S2). For example, as shown in the content CT1 in FIG. 4, the optimization problem solving device 100 displays a list of a plurality of optimization methods such as optimization by a quantum computer and optimization by a quantum-conceived computer. As shown in FIG. 1, a user presented with an Ising machine 10 for executing each optimization method selects an Ising machine 10 to be used from the presented Ising machines 10.
 そして、最適化問題解決装置100は、選択された最適化方法の特性を提示する(ステップS3)。例えば、最適化問題解決装置100は、図4中のコンテンツCT2に示すように、選択された最適化方法の特性を表示する。 Then, the optimization problem solving device 100 presents the characteristics of the selected optimization method (step S3). For example, the optimization problem solving device 100 displays the characteristics of the selected optimization method as shown in the content CT2 in FIG.
 そして、最適化問題解決装置100は、選択された最適化方法で良いかを確認する(ステップS4)。例えば、最適化問題解決装置100は、図4中のコンテンツCT3に示すように、選択された最適化方法で良いかを確認する画面を表示する。 Then, the optimization problem solving device 100 confirms whether or not the selected optimization method is acceptable (step S4). For example, the optimization problem solving device 100 displays a screen for confirming whether or not the selected optimization method is acceptable, as shown in the content CT3 in FIG.
 そして、最適化問題解決装置100は、選択された最適化方法で最適化を実行する(ステップS5)。最適化問題解決装置100は、ユーザが図4中のコンテンツCT3の「Yes」を選択した場合、ユーザが選択したタスク及び最適化の方法により処理を実行する。 Then, the optimization problem solving device 100 executes the optimization by the selected optimization method (step S5). When the user selects "Yes" of the content CT3 in FIG. 4, the optimization problem solving device 100 executes the process according to the task selected by the user and the optimization method.
 上記のように、最適化問題解決システム1は、二つの組合せ最適化したいタスクがあるので、それぞれに応じて最適化方法を選べるようにフローを構成する。例えば、オフライン処理でもよい観測次元の最適化処理は、少し通信時間がかかるがクラウドサービス上の量子コンピュータによる最適化が選べるようにする。例えば、最適化問題解決システム1は、ユーザが計測スパース化をタスクとして選択した場合、クラウドサービス上の量子コンピュータ(例えばイジングマシン10a)による最適化の方法を選択可能にユーザに提示してもよい。最適化問題解決システム1は、ユーザが計測スパース化をタスクとして選択した場合、量子コンピュータによる最適化の方法を自動で選択してもよい。 As mentioned above, the optimization problem solving system 1 has two tasks to be optimized in combination, so the flow is configured so that the optimization method can be selected according to each. For example, the observation dimension optimization process, which may be offline process, requires a little communication time, but the optimization by the quantum computer on the cloud service can be selected. For example, the optimization problem solving system 1 may present to the user a method of optimization by a quantum computer (for example, a rising machine 10a) on a cloud service when the user selects measurement sparse as a task. .. When the user selects measurement sparsening as a task, the optimization problem solving system 1 may automatically select an optimization method by a quantum computer.
 また、オンライン処理が望ましいスパースモデリングは、ローカルマシン上の量子着想型計算機による最適化が選べるようにする。例えば、最適化問題解決システム1は、ユーザが行うスパースモデリングをタスクとして選択した場合、ローカルマシン上の量子着想型計算機による最適化の方法を選択可能にユーザに提示してもよい。最適化問題解決システム1は、ユーザがスパースモデリングをタスクとして選択した場合、ローカルマシン上の量子着想型計算機(例えばイジングマシン10b)による最適化の方法を自動で選択してもよい。この場合、最適化問題解決装置100は、イジングマシン10bと一体であってもよい。 Also, for sparse modeling where online processing is desirable, optimization by a quantum-conceived computer on a local machine can be selected. For example, when the optimization problem solving system 1 selects sparse modeling performed by the user as a task, the optimization problem solving system 1 may present the user to be able to select the optimization method by the quantum-conceived computer on the local machine. When the user selects sparse modeling as a task, the optimization problem solving system 1 may automatically select an optimization method by a quantum-conceived computer (for example, a rising machine 10b) on a local machine. In this case, the optimization problem solving device 100 may be integrated with the Ising machine 10b.
 また、最適化問題解決システム1は、タスク及び最適化の方法の選択を自動化してもよい。例えば、最適化問題解決システム1は、ユーザが解決したい問題に対して、最適なタスク及び装置の組み合わせを自動で選択し、ユーザに提示してもよい。 Further, the optimization problem solving system 1 may automate the selection of tasks and optimization methods. For example, the optimization problem solving system 1 may automatically select the optimum combination of tasks and devices for the problem that the user wants to solve and present it to the user.
(UIイメージ図)
 次に、図4を用いてUIのイメージを説明する。図4は、ユーザインタフェースの一例を示す図である。
(UI image diagram)
Next, the image of the UI will be described with reference to FIG. FIG. 4 is a diagram showing an example of a user interface.
 図4のコンテンツCT1に示すように、まずタスクの選択を促すUI(画面)が提示される。図4の例では、観測次元最適選択(計測スパース化)とスパースモデリングのどちらを選ぶかが求められ、ユーザが選んだ「計測スパース化」がアクティブになっている場合を示す。なお、スパースモデリングのタスクの場合、L1スパースモデリングが選択できるようになっていてもよい。 As shown in the content CT1 of FIG. 4, a UI (screen) prompting the user to select a task is first presented. In the example of FIG. 4, it is required to select either the observation dimension optimum selection (measurement sparsification) or sparse modeling, and the case where the “measurement sparsification” selected by the user is active is shown. In the case of a sparse modeling task, L1 sparse modeling may be selectable.
 また、図4のコンテンツCT1には、最適化の方法が示されている。最適化の方法としては、量子コンピュータを用いた量子アニーリングによる最適化処理、量子着想型計算機を用いた最適化処理、組合せ最適化の汎用アルゴリズムであるシミュレーテッドアニーリング、整数計画ソルバ(整数計画法)等の複数の候補から選択できるようになっている。例えば、最適化問題解決システム1には、コンテンツCT1に示す6つの組合せ最適化の方法の各々を実行する6つのイジングマシン10が含まれてもよい。 Further, the content CT1 in FIG. 4 shows an optimization method. Optimization methods include optimization processing by quantum annealing using a quantum computer, optimization processing using a quantum-conceived computer, simulated annealing, which is a general-purpose algorithm for combinatorial optimization, and integer programming solver (integer programming). It is possible to select from multiple candidates such as. For example, the optimization problem solving system 1 may include six Ising machines 10 that execute each of the six combinatorial optimization methods shown in the content CT1.
 最適化の方法が選択された後に提示される図4のコンテンツCT2には、その最適化の方法の特徴が示される。コンテンツCT2には、選択した最適化の方法が、有料か無料か、金額、その他スペックなどが提示される。具体的には、図4中のコンテンツCT2には、選択中のD社の量子アニーリングを行うイジングマシン10の一回あたりの金額、遅延時間、計算時間(遅延時間とは異なる秒数でもよい)等が含まれる。また、図4中のコンテンツCT2には、最大変数数が1000変数であることや、推奨結合数が6以下であること等が含まれる。また、図4中のコンテンツCT2には、選択中のD社の量子アニーリングを行うイジングマシン10が高精度事前計算に推奨されることを示す推奨情報等の各種の備考が含まれる。ユーザはコンテンツCT2により提示されたスペック等をみながら目的に合った最適化方法を選択する。なお、上記のUIによる提示方法は一例に過ぎず、UIはユーザが所望のタスクや最適化の方法を選択可能であれば、どのような形態であってもよい。 The content CT2 of FIG. 4, which is presented after the optimization method is selected, shows the characteristics of the optimization method. The content CT2 presents whether the selected optimization method is paid or free, the amount of money, and other specifications. Specifically, in the content CT2 in FIG. 4, the amount of money, the delay time, and the calculation time per Ising machine 10 that performs quantum annealing of the selected company D (may be a number of seconds different from the delay time). Etc. are included. Further, the content CT2 in FIG. 4 includes that the maximum number of variables is 1000 variables, the recommended number of joins is 6 or less, and the like. Further, the content CT2 in FIG. 4 includes various remarks such as recommended information indicating that the Ising machine 10 for performing quantum annealing of the selected company D is recommended for high-precision precalculation. The user selects an optimization method suitable for the purpose while observing the specifications and the like presented by the content CT2. The above UI presentation method is only an example, and the UI may be in any form as long as the user can select a desired task or optimization method.
[2-2-4.イジングマシン]
 次に、イジングマシン10について説明する。イジングマシンとは、イジングモデルをハードウェアでシミュレートするマシンのことである。イジングモデルは、もともと強磁性体(磁石)の相転移現象をモデル化するために提案された物理模型である。例えば、イジングモデルをイラストで表す場合、図5のような図となる。図5は、イジングモデルを模式的に示す図である。
[2-2-4. Ising machine]
Next, the Ising machine 10 will be described. An Ising machine is a machine that simulates the Ising model in hardware. The Ising model is a physical model originally proposed for modeling the phase transition phenomenon of a ferromagnet (magnet). For example, when the Ising model is represented by an illustration, the figure is as shown in FIG. FIG. 5 is a diagram schematically showing the Ising model.
 イジングモデルは、磁石の強磁性を説明するためのシンプルなモデルとして提唱された物理モデルである。図5において各格子点は、上向き、あるいは下向きのスピンモーメントのみが観測される電子スピンを表している。 The Ising model is a physical model proposed as a simple model for explaining the ferromagnetism of magnets. In FIG. 5, each grid point represents an electron spin in which only an upward or downward spin moment is observed.
 以下の式(1)は、単純な磁石のモデルをより一般化したイジングモデルのハミルトニアン(エネルギー関数)であり、スピングラスモデルとも呼ばれる。 The following equation (1) is a Hamiltonian (energy function) of the Ising model, which is a more generalized model of a simple magnet, and is also called a spin glass model.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 式(1)のσiは、スピンに対応し、-1か1のいずれかを取る変数である。また、Jijは、結合エネルギーに対応し、磁石の場合、隣接スピン間だけに生じる。また、hkは、局所磁場に対応し、磁石の場合、一定値となる。 Σ i in equation (1) is a variable that corresponds to spin and takes either -1 or 1. Also, J ij corresponds to the binding energy, and in the case of magnets, it occurs only between adjacent spins. Further, h k corresponds to a local magnetic field and becomes a constant value in the case of a magnet.
 式(1)に示すモデルと、多くの場合解くのが困難である組合せ最適化問題の目的関数を比較した場合、それらは等価な形式を有する。以下の式(2)は、QUBO(Quadratic Unconstrained Binary Optimization:二次形式バイナリ最適化)問題の目的関数である。 When comparing the model shown in equation (1) with the objective function of the combinatorial optimization problem, which is often difficult to solve, they have an equivalent form. The following equation (2) is the objective function of the QUADO (Quadratic Unconstrained Binary Optimization) problem.
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002
 ここで、式(2)に示す目的関数は、0か1の二値のいずれかを取るバイナリ変数であるσi(σj、σkも同様)以外は、イジングマシンのハミルトニアンである式(1)と同じ形式をしている。そこで、難しい最適化のアルゴリズムを考える代わりに、最適化はイジングマシンの物理的な基底状態の実現に任せようという考えで考案されたのが量子アニーリングである。 Here, the objective function shown in equation (2) is a Hamiltonian of the Ising machine, except for σ i (same for σ j and σ k), which is a binary variable that takes either 0 or 1. It has the same format as 1). Therefore, instead of considering a difficult optimization algorithm, quantum annealing was devised with the idea of leaving the optimization to the realization of the physical ground state of the Ising machine.
 なお、Jijまたはhkのことを、イジングパラメータまたはイジングモデルの係数と呼ぶこともあるが、単にパラメータと記載する場合がある。例えば、式(2)のσi、σj、σkは、最適解を探したい変数に対応する。また、Jij、hkはパラメータであり、外部から与えられる。例えば、イジングマシン10は、パラメータであるJij、hkを最適化問題解決装置100等の他の装置から取得する。 In addition, J ij or h k may be called an Ising parameter or a coefficient of the Ising model, but it may be simply described as a parameter. For example, σ i , σ j , and σ k in Eq. (2) correspond to the variables for which the optimum solution is to be found. Also, J ij and h k are parameters and are given from the outside. For example, the Ising machine 10 acquires the parameters J ij and h k from other devices such as the optimization problem solving device 100.
 量子アニーリングでは、イジングモデルに量子揺らぎの項を加えた以下の式(3)に示すようなモデルを扱う。 Quantum annealing deals with a model as shown in the following equation (3), which is the Ising model plus the term of quantum fluctuation.
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003
 式(3)に示すモデルで最初は、量子揺らぎの項を支配的にして、すべての組合せの重ね合わせ状態を実現しておき、徐々にイジングモデルのハミルトニアンを支配的にしていく。例えば、イジングマシン10は、式(3)において、右辺の第二項を支配的にして、徐々に右辺の第一項を支配的にしていく。 At first, in the model shown in equation (3), the term of quantum fluctuation is dominated, the superposition state of all combinations is realized, and the Hamiltonian of the Ising model is gradually dominated. For example, the Ising machine 10 makes the second term on the right side dominant in the equation (3), and gradually makes the first term on the right side dominant.
 この過程が断熱的であるという条件で、最終的には、スピンの組合せが基底状態、つまり、エネルギーを最小にする状態に到達する。そこであらかじめQUBO問題の係数行列Jij、hkをイジングモデルのハミルトニアンに設定しておけばイジングモデルの最終的なスピンの組み合わせがバイナリ変数に対応する。このようにして、組合せ最適化の問題をイジングモデルに埋め込み、量子揺らぎの状態から断熱的にイジングモデルの基底状態に遷移させることでイジングスピンに組合せ最適化の解を実現させることを量子アニーリングと呼ぶ。 The combination of spins eventually reaches the ground state, that is, the state of minimizing energy, provided that this process is adiabatic. Therefore, if the coefficient matrices J ij and h k of the QUABO problem are set in the Hamiltonian of the Ising model in advance, the final spin combination of the Ising model corresponds to the binary variable. In this way, by embedding the problem of combinatorial optimization in the Ising model and adiabatically transitioning from the state of quantum fluctuation to the ground state of the Ising model, it is possible to realize the solution of combinatorial optimization in the Ising spin with quantum annealing. Call.
 例えば、式(3)では、t=0では重ね合わせの項が支配的であり、全組合せ(解の候補)を重ね合せた状態となる。そして、式(3)では、ステップ的に重ね合わせの項をゆるめて(例えばtを増加させて)、収束させ、最後に基底状態を実現する。その後、基底状態で、スピンを計測することでこれを最適解として利用するという手順である。なお、これらの手順は、量子アニーリングの従来技術を用いて実現されるため、詳細な説明は省略する。 For example, in equation (3), the superposition term is dominant at t = 0, and all combinations (solution candidates) are superposed. Then, in the equation (3), the superposition term is loosened step by step (for example, t is increased) to converge, and finally the ground state is realized. After that, the procedure is to measure the spin in the ground state and use this as the optimum solution. Since these procedures are realized by using the conventional technique of quantum annealing, detailed description thereof will be omitted.
 なお、量子アニーリングでは、図6に示すような量子揺らぎに伴う量子トンネル効果によって、スムーズにエネルギー障壁を通過することで比較的高速な最適化を実現しているとされる。図6は、トンネル効果を模式的に示す図である。 In quantum annealing, it is said that relatively high-speed optimization is realized by smoothly passing through the energy barrier due to the quantum tunneling effect associated with quantum fluctuations as shown in Fig. 6. FIG. 6 is a diagram schematically showing the tunnel effect.
 しかし、量子アニーリングを実際のマシンで実現すると、量子状態を維持することは難しく、この効果は限定的であるともいわれる。 However, if quantum annealing is realized on an actual machine, it is difficult to maintain the quantum state, and this effect is said to be limited.
 そこで、組合せ最適化をイジングモデルに埋め込むという考え方は流用しつつ、エネルギー最小化を熱揺らぎによって行うシミュレーテッドアニーリングをトランジスタ回路などの非量子デバイスを使って高速化した専用ハードウェア(例えば量子着想型計算機10b等)も提案されている。 Therefore, while diverting the idea of embedding combinatorial optimization in the Ising model, dedicated hardware (for example, quantum-conceived type) that accelerates simulated annealing that minimizes energy by thermal fluctuation using a non-quantum device such as a transistor circuit. Computer 10b, etc.) has also been proposed.
 上記のように、本開示では、量子コンピュータや量子着想型計算機等、イジングモデルをシミュレートするハードウェアを総称してイジングマシンと呼ぶこととする。すなわち、イジングマシン10は、イジングモデルをシミュレートするハードウェアであれば量子コンピュータに限らず、GPU等のプロセッサやFPGA等の集積回路を用いて構成される装置(量子着想型計算機)等であってもよい。 As mentioned above, in this disclosure, hardware that simulates the Ising model, such as quantum computers and quantum-conceived computers, is collectively referred to as the Ising machine. That is, the Ising machine 10 is not limited to a quantum computer as long as it is hardware that simulates the Ising model, but is a device (quantum-inspired computer) or the like configured by using a processor such as a GPU or an integrated circuit such as an FPGA. You may.
 量子アニーリングマシン等の量子コンピュータを含めて、これらのイジングマシンを用いて組合せ最適化を実現する上で共通となるのは、元の組合せ最適化問題を、イジングモデルと等価にできる二次形式のバイナリ最適化問題に書き下すことである。この点について、以下説明する。 What is common in realizing combinatorial optimization using these Ising machines, including quantum computers such as quantum annealing machines, is a quadratic form that can make the original combinatorial optimization problem equivalent to the Ising model. Write down on the binary optimization problem. This point will be described below.
[2-2-5.スパースモデリング]
[2-2-5-1.L0スパースモデリング、L1スパースモデリング]
 ここから、スパースモデリングについて説明する。まず、L0スパースモデリング及びL1スパースモデリングについての概要等について説明する。
[2-2-5. Sparse modeling]
[2-2-5-1. L0 sparse modeling, L1 sparse modeling]
From here, sparse modeling will be described. First, an outline of L0 sparse modeling and L1 sparse modeling will be described.
 N次元の観測変数xとN×M次元の観測行列Uが与えられたとき、観測変数xを、以下の式(4)のように、M次元ベクトルz(単に「ベクトルz」と記載する場合がある)を用いてモデル化する。 Given an N-dimensional observation variable x and an N × M-dimensional observation matrix U, the observation variable x is described as an M-dimensional vector z (simply “vector z”” as shown in the following equation (4). There is) to model.
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000004
 N=Mの場合、観測行列Uに逆行列があれば、以下の式(5)によりモデルの解が求まる。 In the case of N = M, if the observation matrix U has an inverse matrix, the solution of the model can be obtained by the following equation (5).
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005
 一方、N<Mの場合、一般にベクトルzは不定になり、普通は解が一意には求まらない。しかし、もし、ベクトルzの非ゼロ成分の個数がN以下ならばベクトルzが定まる場合もある。このように、非ゼロ成分が少ない解のことをスパース解とよび、スパース解によるモデル化をスパースモデリングと呼ぶ。図7は、スパースモデリングを示す概念図である。図7では、行列D11が観測変数xに対応し、行列D12が観測行列Uに対応し、行列D13がベクトルzに対応する。行列D12に示すように、観測行列Uは、行数を示すNが列数を示すMよりも小さい。行列D13中の白抜きの矩形が零成分(「ゼロ成分」と記載する場合がある)を示し、ハッチングが付された矩形が非零成分を示す。行列D13に示すように、解を求めたいベクトルzは、非零成分がまばらであることは判明している。このような、ベクトルzの非零成分がまばらである解をスパース解zともいう。 On the other hand, when N <M, the vector z is generally indefinite, and usually the solution cannot be uniquely obtained. However, if the number of non-zero components of the vector z is N or less, the vector z may be determined. A solution with few non-zero components is called a sparse solution, and modeling by a sparse solution is called sparse modeling. FIG. 7 is a conceptual diagram showing sparse modeling. In FIG. 7, the matrix D11 corresponds to the observation variable x, the matrix D12 corresponds to the observation matrix U, and the matrix D13 corresponds to the vector z. As shown in the matrix D12, in the observation matrix U, N indicating the number of rows is smaller than M indicating the number of columns. The white rectangles in the matrix D13 indicate the zero component (sometimes referred to as the "zero component"), and the hatched rectangles indicate the non-zero component. As shown in the matrix D13, it is known that the vector z for which the solution is to be obtained has sparse non-zero components. Such a solution in which the non-zero components of the vector z are sparse is also called a sparse solution z.
 実際にスパースな解を求めるには、以下の式(6)のようなL0ノルムの最小化問題を解く。 To actually find a sparse solution, solve the L0 norm minimization problem as shown in equation (6) below.
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006
 式(6)中の||z||0をベクトルzのL0ノルムと呼び、ベクトルzの非零成分の個数を表す。本開示では、この最小化問題をL0スパースモデリングと呼ぶことにする。 || z || 0 in the equation (6) is called the L0 norm of the vector z, and represents the number of non-zero components of the vector z. In the present disclosure, this minimization problem will be referred to as L0 sparse modeling.
 L0スパースモデリングは組合せ最適化の問題で、直接解こうとすると虱潰し的に全組合せを調べることが必要となる。そのため、上記のように虱潰し的に全組合せを調べる方法においては、L0スパースモデリングは実用的ではなく、代わりに以下の式(7)のようなL1ノルムの最小化問題を解くことが多い。 L0 sparse modeling is a combinatorial optimization problem, and if you try to solve it directly, it is necessary to thoroughly investigate all combinations. Therefore, L0 sparse modeling is not practical in the method of examining all combinations in a blunt manner as described above, and instead, the problem of minimizing the L1 norm as in the following equation (7) is often solved.
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000007
 式(7)中の||z||1をベクトルzのL1ノルムと呼び、ベクトルzの成分の絶対値の総和である。本開示では、この最小化問題をL1スパースモデリングと呼ぶことにする。 || z || 1 in the equation (7) is called the L1 norm of the vector z, and is the sum of the absolute values of the components of the vector z. In the present disclosure, this minimization problem will be referred to as L1 sparse modeling.
 L1スパースモデリングは、L0スパースモデリングと異なり組合せ最適化問題ではなく、線形計画法の範囲で効率的に解くことができる。このため、スパースモデリングでは、実用性の観点からL1スパースモデリングによってスパース解を求めることがデファクトスタンダードとなっている。 Unlike L0 sparse modeling, L1 sparse modeling is not a combinatorial optimization problem and can be solved efficiently within the range of linear programming. Therefore, in sparse modeling, it is the de facto standard to obtain a sparse solution by L1 sparse modeling from the viewpoint of practicality.
 ところで、スパースモデリングの問題はもともと解が定まらない問題であった。そして、解のスパース性が仮定することで解の絞り込むこみが実現されている。しかし、解のスパース性が仮定できたとしても、それが真の解とは限らない。このためスパース解からデータを復元したり、超解像データを生成したりしたとしても、生成されたデータが真のデータに近いという保証はない。 By the way, the problem of sparse modeling was originally a problem for which a solution could not be determined. Then, the narrowing down of the solution is realized by assuming the sparsity of the solution. However, even if the sparsity of the solution can be assumed, it is not always the true solution. Therefore, even if the data is restored from the sparse solution or the super-resolution data is generated, there is no guarantee that the generated data is close to the true data.
 このような問題に対して、L0スパースモデリングでは、ベクトルzの非零成分の個数だけ観測行列Uを構成する任意の列ベクトルを選んだときにこれらが一次独立になっていれば、唯一の真の解に到達することが証明されている。そして、この条件は比較的達成しやすいことがわかっている。 For such a problem, in L0 sparse modeling, if any column vector that constitutes the observation matrix U by the number of non-zero components of the vector z is selected and these are linearly independent, it is the only true. Has been proven to reach the solution of. And it turns out that this condition is relatively easy to achieve.
 一方、L1スパースモデリングでは、真の解に到達する条件、つまり、L0スパースモデリングと同一の解に到達する条件の評価は、RIP定数(RIP係数)の評価が必要となる。RIP定数を用いた条件をRIP条件ともいう。 On the other hand, in L1 sparse modeling, evaluation of the condition to reach the true solution, that is, the condition to reach the same solution as L0 sparse modeling requires evaluation of the RIP constant (RIP coefficient). The condition using the RIP constant is also called the RIP condition.
 RIP条件は、定性的に表現すると、ベクトルzの非零成分の個数だけ観測行列Uを構成する任意の列ベクトルを選んだときにこれらが直交に近い状態になっているという条件である。この条件は必ずしも容易に達成できる条件ではない。また、RIP条件は、RIP定数の評価自体が困難であり、普通は(計算量)オーダでの評価になっていてあまり正確に真の解に到達するかを厳密に評価できていない。 The RIP condition is a condition that, when expressed qualitatively, when any column vector constituting the observation matrix U is selected by the number of non-zero components of the vector z, these are in a state close to orthogonality. This condition is not always an easily achievable condition. Further, in the RIP condition, it is difficult to evaluate the RIP constant itself, and it is usually evaluated on the order of (complexity), and it is not possible to strictly evaluate whether the true solution is reached very accurately.
 つまり、L0スパースモデリングの真の解到達への条件が「一次独立」であるのに対して、L1スパースモデリングの条件は「直交に近い」という少し厳しい条件である。これらはL0スパースモデリングがL1スパースモデリングよりも観測行列への制約が少ないのみならず、性能について、ノイズにロバストであったり、圧縮率が高かったりすることが期待される。 That is, the condition for reaching the true solution of L0 sparse modeling is "first-order independence", while the condition of L1 sparse modeling is "close to orthogonal", which is a little strict condition. Not only are L0 sparse modeling less constrained to the observation matrix than L1 sparse modeling, but they are also expected to be noise-robust and have a high compression ratio in terms of performance.
 そのため、L0スパースモデリングを用いて、スパース解を求めたいという要請がある。上述したように、二次形式のバイナリ組合せ最適化問題であれば、イジングマシン10によって比較的高速に組合せ最適化の解を求めることができる。 Therefore, there is a request to find a sparse solution using L0 sparse modeling. As described above, if it is a binary combinatorial optimization problem in a quadratic form, the Ising machine 10 can find a solution for combinatorial optimization at a relatively high speed.
 そこで、最適化問題解決システム1の最適化問題解決装置100は、L0スパースモデリングを改めて組合せ最適化問題として定式化し、さらに、その組合せ最適化問題を二次形式のバイナリ組合せ最適化問題に変換する。 Therefore, the optimization problem solving device 100 of the optimization problem solving system 1 re-formulates the L0 sparse modeling as a combinatorial optimization problem, and further converts the combinatorial optimization problem into a binary combinatorial optimization problem in a secondary format. ..
 以下では、最適化問題解決装置100が、L0スパースモデリングの組合せ最適化問題として定式化し、組合せ最適化問題をイジングモデルに変換し、組合せ最適化の解からスパース解を算出する処理について説明する。 In the following, the process of formulating the optimization problem solving device 100 as a combinatorial optimization problem of L0 sparse modeling, converting the combinatorial optimization problem into a singing model, and calculating the sparse solution from the combinatorial optimization solution will be described.
[2-2-5-2.組合せ最適化問題としてのL0スパースモデリング]
 まず、L0スパースモデリングの組合せ最適化問題としての定式化について説明する。
[2-2-5-2. L0 sparse modeling as a combinatorial optimization problem]
First, the formulation as a combinatorial optimization problem of L0 sparse modeling will be described.
 スパース解zの非零成分の添字の集合をS(以下「集合S」ともいう)とすると、以下の式(8)のように表すことができる。 If the set of subscripts of the non-zero components of the sparse solution z is S (hereinafter also referred to as "set S"), it can be expressed as the following equation (8).
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008
 ただし、式(8)のzSはスパース解zのうちS行だけで構成したベクトル、FSは観測行列UのうちS列(Sは集合)だけで構成した行列である。例えば、式(8)のzSはスパース解zのうち集合Sに含まれる各添字に対応する行を添字の順に並べて構成したベクトルである。また、FSは観測行列Uのうち集合Sに含まれる各添字に対応する列を添字の順に並べて構成した行列である。 However, z S in Eq. (8) is a vector composed only of S rows in the sparse solution z, and F S is a matrix composed only in column S (S is a set) in the observation matrix U. For example, z S in Eq. (8) is a vector composed of lines corresponding to each subscript included in the set S of the sparse solution z arranged in the order of the subscripts. In addition, F S is a matrix composed of columns corresponding to each subscript included in the set S of the observation matrix U arranged in the order of the subscripts.
 このとき、スパースな解は以下の式(9)のように求まる。 At this time, the sparse solution can be obtained as shown in the following equation (9).
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000009
 ただし、式(9)のWSは、以下の式(10)を満たす場合、以下の式(11)で求まる。 However, W S of the formula (9) can be obtained by the following formula (11) when the following formula (10) is satisfied.
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000011
 上記を用いて、以下の式(12)に示すペナルティ関数を考える。 Using the above, consider the penalty function shown in the following equation (12).
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000012
 式(12)のペナルティ関数は、zSがスパース解のとき0で、そうでなければ0より大きくなる。よって、集合SはP(S)=0を満たすことが必要である。この集合Sを用いた場合、L0スパースモデリングは、以下の式(13)のように表すことができる。 The penalty function in equation (12) is 0 when z S is a sparse solution, and is greater than 0 otherwise. Therefore, it is necessary for the set S to satisfy P (S) = 0. When this set S is used, L0 sparse modeling can be expressed as the following equation (13).
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000013
 ここで、|S|は、集合Sの要素数を表し、以下の式(14)のようになる。 Here, | S | represents the number of elements of the set S, and is as shown in the following equation (14).
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000014
 λは、ペナルティ項の重みを表すハイパーパラメータで、制約を必ず満たすようにするには大きめの値を設定する。 Λ is a hyperparameter that represents the weight of the penalty term, and set a large value to ensure that the constraint is satisfied.
 ここで、以下の式(15)とすると、式(12)の右辺に関して以下の式(16)が成立する。 Here, if the following equation (15) is used, the following equation (16) holds for the right side of the equation (12).
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000016
 この場合、L0スパースモデリングは、以下の式(17)のように表すことができる。 In this case, L0 sparse modeling can be expressed as the following equation (17).
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000017
[2-2-5-3.バイナリ変数を用いたL0スパースモデリング]
 上記式(19)までの定式化では、非零成分の添字の集合Sを組合せ最適化の解として求めている。しかし、この定式化は、そのままでは最終目標のイジングモデルへの変換ができない。そこで、最適化問題解決装置100は、イジングモデルで扱えるようにバイナリ変数を用いた定式化にする。そこで、Sの列の成分が1でそれ以外が0である対角行列Bを考える。例えば、集合Sに含まれる各添字に対応する列の成分が1でそれ以外が0である対角行列Bが用いられる。具体的には、以下のような式(18)に示すような対角行列Bが用いられる。最適化問題解決装置100は、式(18)に示すような対角行列Bを用いる。式(18)は、以下の式(19)を満たす。
[2-2-5-3. L0 sparse modeling using binary variables]
In the formulation up to the above equation (19), the set S of subscripts of non-zero components is obtained as the solution of combinatorial optimization. However, this formulation cannot be converted into the Ising model of the final goal as it is. Therefore, the optimization problem solving device 100 formulates using binary variables so that it can be handled by the Ising model. Therefore, consider a diagonal matrix B in which the components of the column S are 1 and the others are 0. For example, a diagonal matrix B is used in which the component of the column corresponding to each subscript included in the set S is 1 and the other elements are 0. Specifically, the diagonal matrix B as shown in the following equation (18) is used. The optimization problem solving device 100 uses a diagonal matrix B as shown in the equation (18). Equation (18) satisfies the following equation (19).
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000019
 式(18)に示す対角行列Bの対角成分は、スパース解の各次元についてその成分がゼロか非ゼロかを決めるバイナリ変数に相当する。式(18)に示す対角行列Bを用いると、以下の式(20)が導ける。 The diagonal component of the diagonal matrix B shown in equation (18) corresponds to a binary variable that determines whether the component is zero or non-zero for each dimension of the sparse solution. Using the diagonal matrix B shown in equation (18), the following equation (20) can be derived.
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000020
 bi=0となる、添字iの成分の余因子行列式について着目した場合、まず行列式について以下の式(21)の関係が成り立つ。 Focusing on the adjugate matrix equation of the component of the subscript i, where b i = 0, the following equation (21) first holds for the determinant.
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000021
 式(21)の関係は、図8により示される。図8は、バイナリ変換に関する行列式を示す概念図である。図8中の行列D21は、行列式が0となる場合を示す。また、図8中の行列D22は、行列式がハッチング部分の行列式となる場合を示す。また、図8中の行列D23は、BFTFBの対角成分が0の箇所を1にするための行列を示す。 The relationship of equation (21) is shown by FIG. FIG. 8 is a conceptual diagram showing a determinant related to binary conversion. The matrix D21 in FIG. 8 shows a case where the determinant is 0. Further, the determinant D22 in FIG. 8 shows a case where the determinant is the determinant of the hatched portion. Further, the matrix D23 in FIG. 8 shows a matrix for setting the position where the diagonal component of BF T FB is 0 to 1.
 次に、以下の式(22)に示すように、逆行列のクラーメルの公式を考える。 Next, consider the Cramer's rule of the inverse matrix as shown in the following equation (22).
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000022
 各成分が行列式になっているので、行列式の上記の関係を順次適用することにより、その結果として、上述の公式(例えば、式(20))が得られる。 Since each component is a determinant, by sequentially applying the above relations of the determinant, the above formula (for example, equation (20)) can be obtained as a result.
 よって、以下の式(23)のように表すことができる。 Therefore, it can be expressed as the following equation (23).
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000023
 ここで、式(23)の導出には、下記の式(24)を利用する。例えば、最適化問題解決装置100は、式(24)を用いて、式(23)を生成する。 Here, the following equation (24) is used for deriving the equation (23). For example, the optimization problem solving device 100 uses the equation (24) to generate the equation (23).
Figure JPOXMLDOC01-appb-M000024
Figure JPOXMLDOC01-appb-M000024
 すると、L0スパースモデリングは、以下の式(25)のようにバイナリ組合せ最適化問題として定式化できる。 Then, L0 sparse modeling can be formulated as a binary combinatorial optimization problem as shown in the following equation (25).
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000025
 ここで、式(25)の導出には、下記の式(26)を利用した。例えば、最適化問題解決装置100は、式(26)を用いて、式(25)を生成する。 Here, the following equation (26) was used to derive the equation (25). For example, the optimization problem solving device 100 uses the equation (26) to generate the equation (25).
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000026
 このように、最適化問題解決装置100は、L0スパースモデリングの問題を、スパース解の各次元が零か非零かをバイナリ変数とする組合せ最適化問題として定式化することができる。以上から、L0スパースモデリングの問題は、スパース解の各次元が零か非零かをバイナリ変数とする組合せ最適化問題になっていることがわかる。 As described above, the optimization problem solving device 100 can formulate the problem of L0 sparse modeling as a combinatorial optimization problem in which each dimension of the sparse solution is a binary variable. From the above, it can be seen that the problem of L0 sparse modeling is a combinatorial optimization problem in which each dimension of the sparse solution is a binary variable.
[2-2-5-4.QUBO形式によるL0スパースモデリング]
 イジングモデルで組合せ最適化問題を扱うには、組合せ最適化問題の目的関数が単にバイナリ変数で表されているだけでなく、バイナリ変数の二次形式で表されていることが必要である。このため、式(25)において、(I-B+BUTUB)-1のような逆行列で表されている箇所を、二次形式などに置き換えていくことが必要となる。
[2-2-5-4. L0 sparse modeling in QUABO format]
In order to handle a combinatorial optimization problem in the Zing model, it is necessary that the objective function of the combinatorial optimization problem is not only represented by a binary variable but also represented by a quadratic form of the binary variable. Therefore, in the equation (25), it is necessary to a position which is represented by the inverse matrix, such as (I-B + BU T UB ) -1, gradually being replaced with quadratic form.
 C=I-UTUの固有値の絶対値が全て1未満であるとすると、以下の式(27)が成立する。 Assuming that the absolute values of the eigenvalues of C = IU T U are all less than 1, the following equation (27) holds.
Figure JPOXMLDOC01-appb-M000027
Figure JPOXMLDOC01-appb-M000027
 C=I-UTUの固有値の絶対値が1より十分小さい場合、つまり、観測行列Uの各列が直交している状態に近い場合、右辺をK=1の項だけで近似することができる。K=1で近似する場合、以下の式(28)のように表すことができる。 If the absolute value of the eigenvalues of C = IU T U is sufficiently smaller than 1, that is, if the columns of the observation matrix U are close to being orthogonal, the right-hand side can be approximated only by the term K = 1. When approximating with K = 1, it can be expressed as the following equation (28).
Figure JPOXMLDOC01-appb-M000028
Figure JPOXMLDOC01-appb-M000028
 これにより、L0スパースモデリングは、以下の式(29)のような組合せ最適化問題で近似される。 Thereby, the L0 sparse modeling is approximated by the combinatorial optimization problem as in the following equation (29).
Figure JPOXMLDOC01-appb-M000029
Figure JPOXMLDOC01-appb-M000029
 この組合せ最適化問題は、バイナリ変数(b1,b2…bM)の二次形式になっている。したがって、QUBO問題として扱うことができる。K>1で近似する場合、以下の式(30)のように表すことができる。 This combinatorial optimization problem is in the quadratic form of binary variables (b 1 , b 2 … b M). Therefore, it can be treated as a QUAO problem. When approximating with K> 1, it can be expressed as the following equation (30).
Figure JPOXMLDOC01-appb-M000030
Figure JPOXMLDOC01-appb-M000030
 これにより、ペナルティ項は、以下の式(31)のように近似される。 Thereby, the penalty term is approximated as in the following equation (31).
Figure JPOXMLDOC01-appb-M000031
Figure JPOXMLDOC01-appb-M000031
 式(31)のペナルティ項は、バイナリ変数(b1,b2…bM)に関して、2K次元の形式である。QUBO問題として扱うためには、2K次元を2次元まで削減する必要がある。これには、ペナルティ項について、プログラムなどを用いて展開していく。例えば、最適化問題解決装置100は、ペナルティ項を展開するプログラムを用いて、ペナルティ項の次元を2次元まで削減する。 The penalty term in equation (31) is in 2K dimensional form with respect to the binary variables (b 1 , b 2 ... b M). In order to treat it as a QUAO problem, it is necessary to reduce the 2K dimension to 2 dimensions. For this, the penalty term will be developed using a program or the like. For example, the optimization problem solving device 100 reduces the dimension of the penalty term to two dimensions by using a program that expands the penalty term.
 そして、バイナリ変数の二乗以上の項が出るたびに、新たな補助バイナリ変数を導入して補助バイナリ変数の二乗以下になるまで削減する。たとえば、バイナリ変数のL次の項がでてきた場合は、以下の式(32)のように、L個の補助変数(bp1…bpL)を追加することで一次の項まで次元を削減できる。 Then, every time a term of the square of the binary variable or more appears, a new auxiliary binary variable is introduced and the term is reduced to the square of the auxiliary binary variable or less. For example, when the Lth-order term of a binary variable appears, the dimension is reduced to the first-order term by adding L auxiliary variables (b p1 … b pL) as shown in the following equation (32). can.
Figure JPOXMLDOC01-appb-M000032
Figure JPOXMLDOC01-appb-M000032
 ただし、この補助変数は、以下の式(33)を満たさなければならない。そこで、この制約が満たされれば0になり、そうでなければ0より大きい値をとる以下の式(34)のようなペナルティ項を、L次の項が出現するたびに目的関数(例えば式(29))に追加する。 However, this auxiliary variable must satisfy the following equation (33). Therefore, if this constraint is satisfied, it becomes 0, and if not, a penalty term such as the following equation (34), which takes a value larger than 0, is applied to the objective function (for example, the equation (for example,) each time the L-th order term appears. 29)).
Figure JPOXMLDOC01-appb-M000033
Figure JPOXMLDOC01-appb-M000033
Figure JPOXMLDOC01-appb-M000034
Figure JPOXMLDOC01-appb-M000034
 なお、実際に追加する際には、適切な正のハイパーパラメータλpmをかけて追加する。これにより、最適化問題解決装置100は、K>1で近似する場合もバイナリ変数の二次形式であるQUBO問題に変換できる。なお、この場合も、I-UTUの固有値が小さいほど、近似の精度は良くなると期待できる。すなわち、UTUが単位行列に近くなるほどよいといえる。 When actually adding, add by applying the appropriate positive hyperparameter λ pm. As a result, the optimization problem solving device 100 can convert to a QUABO problem, which is a quadratic form of a binary variable, even when approximating with K> 1. In this case as well, it can be expected that the smaller the eigenvalue of IU T U, the better the accuracy of approximation. That is, it can be said that the closer U T U is to the identity matrix, the better.
 また、逆行列の級数展開と打ち切りの近似には、I-UTUの絶対値最大の固有値(スペクトルノルム)が1以下であることが望ましい。 In addition, it is desirable that the eigenvalue (spectral norm) of the maximum absolute value of IU T U is 1 or less for the approximation of the series expansion and censoring of the inverse matrix.
 しかしながら、この条件が必ずしも当てはまらない場合には、正則化の効果を取り込むことで、級数展開が実現できるようにすることもできる。 However, if this condition does not always apply, it is possible to realize series expansion by incorporating the effect of regularization.
 具体的には、もとのL0最適化の式に、以下の式(35)に示すように、L2正則化項を加えた最適化を考える。 Specifically, consider optimization by adding the L2 regularization term to the original L0 optimization formula as shown in the following formula (35).
Figure JPOXMLDOC01-appb-M000035
Figure JPOXMLDOC01-appb-M000035
 この場合、逆行列は以下の式(36)に置き換えられ、固有値が全体に1/(1+γ)倍される。 In this case, the inverse matrix is replaced by the following equation (36), and the eigenvalues are multiplied by 1 / (1 + γ) as a whole.
Figure JPOXMLDOC01-appb-M000036
Figure JPOXMLDOC01-appb-M000036
 この結果、正則化の調整により、(I-UTU)/(1+γ)の固有値の絶対値を小さくして、逆行列の級数展開や打ち切り近似が可能となる条件を実現することが可能となる。 As a result, by adjusting the regularization, it is possible to reduce the absolute value of the eigenvalues of (IU T U) / (1 + γ) and realize the conditions that enable series expansion and truncation approximation of the inverse matrix. Become.
 上記の例では、逆行列を近似して、最適解を求める方法を示したが、最適化問題解決装置100は、上記の方法に限らず、種々の方法によりQUBO問題への変換を行ってもよい。この点について、以下説明する。 In the above example, a method of finding the optimum solution by approximating the inverse matrix is shown, but the optimization problem solving device 100 is not limited to the above method, and can be converted into a QUAO problem by various methods. good. This point will be described below.
 例えば、補助変数を用いて逆行列を最適化の式からなくすこともできる。最適化問題解決装置100は、補助変数を用いて最適化の式から逆行列を除いてもよい。前述の逆行列が含まれる最適化の式(25)の第二項について改めて考える。式(25)の第二項は、以下の式(37)のように変形することができる。 For example, it is possible to eliminate the inverse matrix from the optimization formula by using auxiliary variables. The optimization problem solving device 100 may use an auxiliary variable to remove the inverse matrix from the optimization equation. Let us reconsider the second term of the optimization equation (25) including the inverse matrix described above. The second term of the equation (25) can be modified as the following equation (37).
Figure JPOXMLDOC01-appb-M000037
Figure JPOXMLDOC01-appb-M000037
 ここで、補助変数を以下の式(38)のように導入する。 Here, the auxiliary variable is introduced as shown in the following equation (38).
Figure JPOXMLDOC01-appb-M000038
 ここで2つ目の等号は、Woodburyの逆行列の公式を用いたものである。
Figure JPOXMLDOC01-appb-M000038
Here, the second equal sign uses Woodbury's inverse matrix formula.
 式(38)のzは、解と同じ次元数のベクトルである。すると、式(25)の第二項の代わりに以下の式(39)に示すように、ラグランジェ未定定数項を含む目的関数を考えることができる。 Z in equation (38) is a vector with the same number of dimensions as the solution. Then, instead of the second term of the equation (25), as shown in the following equation (39), an objective function including the Lagrange undetermined constant term can be considered.
Figure JPOXMLDOC01-appb-M000039
Figure JPOXMLDOC01-appb-M000039
 ここで、式(39)のwは、zと同じ次元数のベクトルである。この式(39)のラグランジェ未定定数項を含む形式で、L0スパースモデリングは以下の式(40)のように表すことができる。 Here, w in equation (39) is a vector with the same number of dimensions as z. L0 sparse modeling can be expressed as the following equation (40) in the form including the Lagrange undetermined constant term of the equation (39).
Figure JPOXMLDOC01-appb-M000040
Figure JPOXMLDOC01-appb-M000040
 この最適化は、Bとz、wの交互最適化で解くことができる。交互最適化は、以下のような疑似アルゴリズムで実現される。 This optimization can be solved by alternating optimization of B, z, and w. Alternate optimization is realized by the following pseudo algorithm.
(1-1) z、wを初期化する(ランダム初期化やゼロ初期化など)
(1-2) z、wを固定し、イジングマシンを用いてBを求める
(1-3) bを固定し、z、wを更新する
 例えば、最急降下法を用いると、以下の式(41)、(42)のように更新される。
(1-1) Initialize z and w (random initialization, zero initialization, etc.)
(1-2) Fix z and w and find B using the Ising machine (1-3) Fix b and update z and w For example, using the steepest descent method, the following equation (41) ), (42).
Figure JPOXMLDOC01-appb-M000041
Figure JPOXMLDOC01-appb-M000041
Figure JPOXMLDOC01-appb-M000042
Figure JPOXMLDOC01-appb-M000042
 (1-4) (1-2)、(1-3)を最適化の目的関数の値が収束するか、所定の回数実行するまで繰り返す。 (1-4) Repeat (1-2) and (1-3) until the value of the optimization objective function converges or is executed a predetermined number of times.
 なお、最適化問題解決装置100は、以上のようにして求めた解zを、そのままスパース解z*として用いてもよい。ただし、このアルゴリズムの場合、z*に数値誤差が含まれる可能性もある。そのため、最適化問題解決装置100は、B*(b*)だけを利用し、後段の処理であらためてスパース解z*を求めてもよい。 The optimization problem solving device 100 may use the solution z obtained as described above as it is as a sparse solution z * . However, for this algorithm, z * may contain a numerical error. Therefore, the optimization problem solving device 100 may use only B * (b * ) and obtain a sparse solution z * again in the subsequent processing.
 L0スパースモデリングについて、ラグランジェ未定定数を使う別の解法として、よりシンプルに、以下の式(43)のような定式化であってもよい。 For L0 sparse modeling, as another solution using the Lagrange undetermined constant, a simpler formulation such as the following equation (43) may be used.
Figure JPOXMLDOC01-appb-M000043
Figure JPOXMLDOC01-appb-M000043
 この場合も、Bとz、wの交互最適化で解くことができる。交互最適化は、前述のアルゴリズムの(1-3)の更新式を変更した、以下の疑似アルゴリズムで実現される。
(2-1) z、wを初期化する(ランダム初期化やゼロ初期化など)
(2-2) z、wを固定し、イジングマシンを用いてBを求める
(2-3) bを固定し、z、wを更新する
 例えば、最急降下法を用いると、以下の式(44)、(45)のように更新される。
In this case as well, it can be solved by alternating optimization of B, z, and w. Alternate optimization is realized by the following pseudo-algorithm, which is a modification of the update equation of (1-3) of the above-mentioned algorithm.
(2-1) Initialize z and w (random initialization, zero initialization, etc.)
(2-2) Fix z and w and find B using Ising machine (2-3) Fix b and update z and w For example, using the steepest descent method, the following equation (44) ), (45).
Figure JPOXMLDOC01-appb-M000044
Figure JPOXMLDOC01-appb-M000044
Figure JPOXMLDOC01-appb-M000045
Figure JPOXMLDOC01-appb-M000045
 (2-4) (2-2)、(2-3)を最適化の目的関数の値が収束するか、所定の回数実行するまで繰り返す。 (2-4) Repeat (2-2) and (2-3) until the value of the optimization objective function converges or is executed a predetermined number of times.
 なお、最適化問題解決装置100は、以上のようにして求めた解zを、そのままスパース解z*として用いてもよい。ただし、このアルゴリズムの場合、z*に数値誤差が含まれる可能性もある。そのため、最適化問題解決装置100は、B*(b*)だけを利用し、後段の処理であらためてスパース解z*を求めてもよい。 The optimization problem solving device 100 may use the solution z obtained as described above as it is as a sparse solution z * . However, for this algorithm, z * may contain a numerical error. Therefore, the optimization problem solving device 100 may use only B * (b * ) and obtain a sparse solution z * again in the subsequent processing.
[2-2-5-5.Kビット量子化されたL0スパースモデリング]
 続いて、ここでは別の方法として、Kビット量子化されたL0スパースモデリングを説明する。
[2-2-5-5. K-bit quantized L0 sparse modeling]
Subsequently, as another method, K-bit quantized L0 sparse modeling will be described here.
 L0スパースモデリングについて簡単に再度記載すると、以下の式(46)のような目的関数(ロス関数)の最小化問題として定式化される。 To briefly restate L0 sparse modeling, it is formulated as a minimization problem of the objective function (loss function) as in the following equation (46).
Figure JPOXMLDOC01-appb-M000046
Figure JPOXMLDOC01-appb-M000046
 ここで、式(46)のwはラグランジェ未定定数である。式(46)の目的関数は、xにノイズが含まれない場合に用いることが多いが、ノイズが含まれる場合、以下の式(47)のような目的関数(ロス関数)を用いることが多い。 Here, w in equation (46) is a Lagrange undetermined constant. The objective function of the equation (46) is often used when x does not contain noise, but when noise is included, the objective function (loss function) as in the following equation (47) is often used. ..
Figure JPOXMLDOC01-appb-M000047
Figure JPOXMLDOC01-appb-M000047
 ここで、λはノイズの大きさに応じて決めた正の定数である。式(46)、(47)のどちらの目的関数をつかってもKビット量子化L0スパースモデリングを実現することはできるが、まず式(47)の目的関数を用いる場合を説明する。 Here, λ is a positive constant determined according to the magnitude of noise. Although K-bit quantized L0 sparse modeling can be realized by using either the objective function of the equations (46) and (47), the case where the objective function of the equation (47) is used will be described first.
 Kビット量子化L0スパースモデリングでは、以下の式(48)のようにスパース解zの各成分をKビットで量子化することを考える。 K-bit quantization In L0 sparse modeling, consider quantizing each component of the sparse solution z with K bits as shown in the following equation (48).
Figure JPOXMLDOC01-appb-M000048
Figure JPOXMLDOC01-appb-M000048
 ここで、式(48)のsiはziの符号を表し、(bi1,bi2…biK-1)は|zi|の2進数表現である。siは、以下の式(49)とすることで、バイナリ変数biに置き換えることもできる。 Here, s i of equation (48) represents the sign of z i, (b i1, b i2 ... b iK-1) is | a binary representation of | z i. s i can also be replaced with the binary variable b i by using the following equation (49).
Figure JPOXMLDOC01-appb-M000049
Figure JPOXMLDOC01-appb-M000049
 この場合、以下の式(50)のように変形ができる。 In this case, it can be transformed as shown in the following equation (50).
Figure JPOXMLDOC01-appb-M000050
Figure JPOXMLDOC01-appb-M000050
 ここで、aikは、式(51)の制約条件を満たすバイナリ変数である。 Here, a ik is a binary variable that satisfies the constraint condition of the equation (51).
Figure JPOXMLDOC01-appb-M000051
Figure JPOXMLDOC01-appb-M000051
 式(50)を用いると、式(47)の目的関数における第二項は、以下の式(52)のようにバイナリ変数の二次形式で表すことができる。 Using equation (50), the second term in the objective function of equation (47) can be expressed in the quadratic form of a binary variable as in equation (52) below.
Figure JPOXMLDOC01-appb-M000052
Figure JPOXMLDOC01-appb-M000052
 一方、式(47)の目的関数における第一項は、以下の式(53)のように表すことができる。 On the other hand, the first term in the objective function of equation (47) can be expressed as in equation (53) below.
Figure JPOXMLDOC01-appb-M000053
Figure JPOXMLDOC01-appb-M000053
 これは、以下の式(54)のとき、つまり、以下の式(55)のときに限り、級数の中が1であり、以下の式(56)のときは、0となるためである。 This is because the series is 1 only in the case of the following formula (54), that is, in the case of the following formula (55), and 0 in the case of the following formula (56).
Figure JPOXMLDOC01-appb-M000054
Figure JPOXMLDOC01-appb-M000054
Figure JPOXMLDOC01-appb-M000055
Figure JPOXMLDOC01-appb-M000055
Figure JPOXMLDOC01-appb-M000056
Figure JPOXMLDOC01-appb-M000056
 ここで、以下の式(57)、(58)に示す制約条件を満たすバイナリ変数cikを新たに用意する。 Here, a new binary variable c ik that satisfies the constraint conditions shown in the following equations (57) and (58) is prepared.
Figure JPOXMLDOC01-appb-M000057
Figure JPOXMLDOC01-appb-M000057
Figure JPOXMLDOC01-appb-M000058
Figure JPOXMLDOC01-appb-M000058
 すると、以下の式(59)と置き換えることができるので、以下の式(60)を得る。 Then, since it can be replaced with the following equation (59), the following equation (60) is obtained.
Figure JPOXMLDOC01-appb-M000059
Figure JPOXMLDOC01-appb-M000059
Figure JPOXMLDOC01-appb-M000060
Figure JPOXMLDOC01-appb-M000060
 以上から目的関数は、以下の式(61)と二次形式に書き下すことができる。 From the above, the objective function can be written down in the following equation (61) and in a quadratic form.
Figure JPOXMLDOC01-appb-M000061
Figure JPOXMLDOC01-appb-M000061
 ただし、補助変数aik、cikに関する制約条件が加味されていないので、このままでは正しい解は求まらない。 However, since the constraints on the auxiliary variables a ik and c ik are not taken into consideration, the correct solution cannot be obtained as it is.
 そのため、まず、補助変数aikに関する制約である以下の式(62)を二次形式の中で実現すること考える。 Therefore, first, consider realizing the following equation (62), which is a constraint on the auxiliary variable a ik, in a quadratic form.
Figure JPOXMLDOC01-appb-M000062
Figure JPOXMLDOC01-appb-M000062
 以下の式(63)は、式(62)に示す制約が満たされるとき0で、それ以外では0より大きい二次形式である。 The following equation (63) is a quadratic form that is 0 when the constraint shown in equation (62) is satisfied, and is larger than 0 otherwise.
Figure JPOXMLDOC01-appb-M000063
Figure JPOXMLDOC01-appb-M000063
 次に、補助変数cikに関する制約である以下の式(64)を考える。 Next, consider the following equation (64), which is a constraint on the auxiliary variable c ik.
Figure JPOXMLDOC01-appb-M000064
Figure JPOXMLDOC01-appb-M000064
 以下の式(65)は、式(64)に示す制約が満たされるとき0で、それ以外では0より大きい二次形式である。 The following equation (65) is a quadratic form that is 0 when the constraint shown in equation (64) is satisfied, and is larger than 0 otherwise.
Figure JPOXMLDOC01-appb-M000065
Figure JPOXMLDOC01-appb-M000065
 これらの制約(式(63)、(65))を加味した目的関数は、以下の式(66)のように表すことができる。 The objective function with these constraints (Equations (63) and (65)) can be expressed as the following equation (66).
Figure JPOXMLDOC01-appb-M000066
Figure JPOXMLDOC01-appb-M000066
 なお、制約項の係数μik、νikを全て共通にして、以下の式(67)のようにしてもよい。 It should be noted that the coefficients μ ik and ν ik of the constraint term may all be made common, and the following equation (67) may be used.
Figure JPOXMLDOC01-appb-M000067
Figure JPOXMLDOC01-appb-M000067
 式(67)の目的関数は、バイナリ変数の二次形式であるが、以下の式(68)、(69)、(70)、(71)ようにスピン変数に変換すると、スピン変数の二次形式で表される。 The objective function of equation (67) is a quadratic form of a binary variable, but when converted to a spin variable as shown in equations (68), (69), (70), and (71) below, it is quadratic of the spin variable. Expressed in form.
Figure JPOXMLDOC01-appb-M000068
Figure JPOXMLDOC01-appb-M000068
Figure JPOXMLDOC01-appb-M000069
Figure JPOXMLDOC01-appb-M000069
Figure JPOXMLDOC01-appb-M000070
Figure JPOXMLDOC01-appb-M000070
Figure JPOXMLDOC01-appb-M000071
Figure JPOXMLDOC01-appb-M000071
 式(71)中のH(σabc)は、スピン変数の二次形式なので、イジングマシン10で最適化することができ、目的関数を最小化する最適スピンσa *b *c *を得ることができる。 Since H (σ a , σ b , σ c ) in equation (71) is a quadratic form of the spin variable, it can be optimized by the rising machine 10 and the optimum spin σ a * , which minimizes the objective function. σ b * and σ c * can be obtained.
 得られた最適スピンσa *b *c *最適化されたバイナリ変数a*,b*,c*を以下の式(72)、(73)、(74)のように求めることができる。 Obtain the obtained optimum spins σ a * , σ b * , σ c * optimized binary variables a * , b * , c * as shown in the following equations (72), (73), and (74). Can be done.
Figure JPOXMLDOC01-appb-M000072
Figure JPOXMLDOC01-appb-M000072
Figure JPOXMLDOC01-appb-M000073
Figure JPOXMLDOC01-appb-M000073
Figure JPOXMLDOC01-appb-M000074
Figure JPOXMLDOC01-appb-M000074
 a*、b*の結果を使うとKビットで量子化されたスパース解が以下の式(75)のように求まる。 Using the results of a * and b * , the sparse solution quantized by K bits can be obtained as shown in the following equation (75).
Figure JPOXMLDOC01-appb-M000075
Figure JPOXMLDOC01-appb-M000075
 なお、もっと高い分解能を必要とする場合は、解の成分がゼロか、非ゼロかの情報だけを出力するものとして、その情報から改めてz*を求めてもよい。スパース解の成分zi *のゼロ・非ゼロの情報は、c* ik-1で与えられる。 If higher resolution is required, it is possible to obtain z * again from the information assuming that only the information on whether the component of the solution is zero or non-zero is output. The zero / non-zero information of the component z i * of the sparse solution is given by c * ik-1.
 なお、以上はノイズがある場合のスパースモデリングであるが、ノイズがない場合の定式化では、Lλ(a,b,c)の代わりに、以下の式(76)の目的関数を用いる。 The above is sparse modeling when there is noise, but in the formulation when there is no noise, the objective function of the following equation (76) is used instead of L λ (a, b, c).
Figure JPOXMLDOC01-appb-M000076
Figure JPOXMLDOC01-appb-M000076
 この場合、目的関数は、バイナリ変数の二次形式であるが、以下の式(77)のように制約項を加えることが必要である。 In this case, the objective function is a quadratic form of a binary variable, but it is necessary to add a constraint term as in the following equation (77).
Figure JPOXMLDOC01-appb-M000077
Figure JPOXMLDOC01-appb-M000077
 制約項も二次形式であるため、全体としてバイナリ変数の二次形式になっていることから、イジングマシン10で比較的高速に解くことが可能となる。 Since the constraint term is also in the quadratic form, it is in the quadratic form of the binary variable as a whole, so that it can be solved by the Ising machine 10 at a relatively high speed.
 ただし、wが未定定数であるためwの推定も必要である。これには、以下のような量子アニーリングと、勾配法の交互最適化を所定の条件を満たすまで繰り返す。
(3-1)wを初期化する(乱数でもゼロ初期化でも良い)
(3-2)量子アニーリングで以下の式(78)により組み合わせ変数b、cを最適化する
However, since w is an undetermined constant, it is also necessary to estimate w. To do this, the following quantum annealing and alternating optimization of the gradient method are repeated until certain conditions are met.
(3-1) Initialize w (random number or zero initialization may be used)
(3-2) Optimize the combination variables b and c by the following equation (78) by quantum annealing.
Figure JPOXMLDOC01-appb-M000078
Figure JPOXMLDOC01-appb-M000078
(3-3)以下の式(79)により勾配法でwを更新する (3-3) Update w by the gradient method by the following equation (79).
Figure JPOXMLDOC01-appb-M000079
Figure JPOXMLDOC01-appb-M000079
 ここで、式(79)のηは勾配法の学習率パラメータでたとえば0.01とする。
(3-4)所定条件を満たすまで(3-2)、(3-3)を繰り返し、得られたb、cを最適化されたバイナリ変数b*、c*とする。
Here, η in the equation (79) is a learning rate parameter of the gradient method, and is set to 0.01, for example.
(3-4) Repeat (3-2) and (3-3) until a predetermined condition is satisfied, and set the obtained b and c as optimized binary variables b * and c * .
 以上のようにして得られたバイナリ変数b*、c*からスパース解z*を出力してもよいし、あるいは、スパース解のゼロ非零情報c* ik-1を出力してもよい。 The sparse solution z * may be output from the binary variables b * and c * obtained as described above, or the zero-non-zero information c * ik-1 of the sparse solution may be output.
 以上、2つの方法を説明したが、Kビット量子化されたL0スパースモデリングの変形は他にも様々に考えられる。例えば、量子化の間隔を等間隔にしない、絶対値が大きくなるにつれて量子化の間隔を増やす、などが考えられる。L0正則化項についても、下位ビットは誤差があるので上位ビットだけで、L0正則化項をあらわしてもよい。 The two methods have been explained above, but there are various other possible variations of K-bit quantized L0 sparse modeling. For example, it is conceivable that the quantization intervals are not equalized, or that the quantization intervals are increased as the absolute value increases. As for the L0 regularization term, since the lower bits have an error, the L0 regularization term may be represented only by the upper bits.
 また、例えば、スパース解の成分が0以上であることがわかっている場合には、バイナリ変数aは定式化から省略しても良い。さらに、グループLassoと類似の方法として、スパース解がグループ単位でゼロか非ゼロになる場合なども考えられる。N個のスパース解の各成分が、さらにL個の要素で成り立っていて、L個が全て0になる場合をゼロ成分、そうでなければ非ゼロ成分と考える。この場合は、L0正則化項は以下の式(80)のように書き下せる。 Further, for example, when it is known that the component of the sparse solution is 0 or more, the binary variable a may be omitted from the formulation. Further, as a method similar to the group Lasso, a case where the sparse solution becomes zero or non-zero in group units can be considered. When each component of the N sparse solution is further composed of L elements and all L elements are 0, it is considered as a zero component, and if not, it is considered as a non-zero component. In this case, the L0 regularization term can be written down as in the following equation (80).
Figure JPOXMLDOC01-appb-M000080
Figure JPOXMLDOC01-appb-M000080
 ここで、以下の式(81)、(82)に示す制約条件を満たすバイナリ変数dilを新たに用意する。 Here, a new binary variable di l that satisfies the constraint conditions shown in the following equations (81) and (82) is prepared.
Figure JPOXMLDOC01-appb-M000081
Figure JPOXMLDOC01-appb-M000081
Figure JPOXMLDOC01-appb-M000082
Figure JPOXMLDOC01-appb-M000082
 すると、以下の式(83)と置き換えることができるので、以下の式(84)を得る。 Then, since it can be replaced with the following equation (83), the following equation (84) is obtained.
Figure JPOXMLDOC01-appb-M000083
Figure JPOXMLDOC01-appb-M000083
Figure JPOXMLDOC01-appb-M000084
Figure JPOXMLDOC01-appb-M000084
 なお、バイナリ変数dilが制約を満たすようにするには、以下の式(85)の制約項を目的関数に加える。 In order for the binary variable d il to satisfy the constraint, the constraint term in the following equation (85) is added to the objective function.
Figure JPOXMLDOC01-appb-M000085
Figure JPOXMLDOC01-appb-M000085
[2-2-5-6.イジングモデルによるL0スパースモデリング]
 以上のように、最適化問題解決装置100は、L0スパースモデリングをバイナリ変数の組合せ最適問題として定式化し、さらに二次形式のQUBO問題に変換する。このように、最適化問題解決装置100により変換されたQUBO問題をイジングモデルに埋め込むことはたやすい。
[2-2-5-6. L0 sparse modeling with Ising model]
As described above, the optimization problem solving device 100 formulates the L0 sparse modeling as a combination optimization problem of binary variables, and further converts it into a quadratic form QUAS problem. In this way, it is easy to embed the QUABO problem converted by the optimization problem solving device 100 in the Ising model.
 まず、最適化問題解決装置100は、イジングモデルに変換するために、バイナリ変数をスピン変数に変換する。これには、以下の式(86)が用いられる。 First, the optimization problem solving device 100 converts a binary variable into a spin variable in order to convert it into an Ising model. For this, the following equation (86) is used.
Figure JPOXMLDOC01-appb-M000086
Figure JPOXMLDOC01-appb-M000086
 最適化問題解決装置100は、式(86)により、QUBO問題を、スピン変数の二次形式、つまり、イジングモデルに変換する。そして、このように定式化されたイジングモデルについて、最適化問題解決装置100は、プログラムなどを利用して係数行列を抽出する。例えば、係数行列は、前記目的関数から抽出される最適化したい変数の一次以上の項に係る係数で構成される配列である。このように、最適化問題解決装置100は、センサからの第1のデータに対応する目的関数から、係数行列をイジングパラメータとして抽出する。そして、最適化問題解決装置100は、抽出した係数行列を用いて、イジングマシン10のスピン間結合定数や局所磁場に設定する。最適化問題解決装置100は、抽出した係数行列(イジングパラメータ)をイジングマシン10に送信する。そして、イジングマシン10は、アニーリング処理を行い、イジングモデルの基底スピンの組合せ(σ* 1…σ* M…)を算出し、最適化問題解決装置100に送信する。最適化問題解決装置100は、イジングマシン10が算出したイジングモデルの基底スピンの組合せを受信する。 The optimization problem solving device 100 transforms the QUABO problem into a quadratic form of spin variables, that is, an Ising model, by the equation (86). Then, for the Ising model formulated in this way, the optimization problem solving device 100 extracts a coefficient matrix by using a program or the like. For example, the coefficient matrix is an array composed of coefficients related to the first-order or higher terms of the variables to be optimized extracted from the objective function. As described above, the optimization problem solving device 100 extracts the coefficient matrix as the singing parameter from the objective function corresponding to the first data from the sensor. Then, the optimization problem solving device 100 uses the extracted coefficient matrix to set the spin-to-spin coupling constant of the riser machine 10 and the local magnetic field. The optimization problem solving device 100 transmits the extracted coefficient matrix (Ising parameter) to the Ising machine 10. Then, the Ising machine 10 performs an annealing process, calculates a combination of basal spins of the Ising model (σ * 1 ... σ * M ...), and transmits the combination to the optimization problem solving device 100. The optimization problem solving device 100 receives the combination of basal spins of the Ising model calculated by the Ising machine 10.
 最適化問題解決装置100は、この基底スピンの組合せから最適化されたバイナリ変数を以下の式(87)を用いて得ることができる。 The optimization problem solving device 100 can obtain a binary variable optimized from this combination of basis spins by using the following equation (87).
Figure JPOXMLDOC01-appb-M000087
Figure JPOXMLDOC01-appb-M000087
 そこで、最適化問題解決装置100は、以下の式(88)となるiを選択することにより、最適化されたスパース成分の添え字の組合せを示す集合S*を得る。 Therefore, the optimization problem solving device 100 obtains a set S * showing the combination of the subscripts of the optimized sparse components by selecting i having the following equation (88).
Figure JPOXMLDOC01-appb-M000088
Figure JPOXMLDOC01-appb-M000088
 この集合S*を用いることで、下記の式(89)が求まる。 By using this set S * , the following equation (89) can be obtained.
Figure JPOXMLDOC01-appb-M000089
Figure JPOXMLDOC01-appb-M000089
 最終的なスパース解z*は、集合S*の次元の要素を式(89)で、それ以外の次元を0とすることで求まる。最適化問題解決装置100は、集合S*の次元の要素を式(89)により算出し、それ以外の次元を0とすることで、最終的なスパース解z*を生成する。 The final sparse solution z * can be obtained by setting the element of the dimension of the set S * to Eq. (89) and the other dimensions to 0. The optimization problem solving device 100 calculates the element of the dimension of the set S * by the equation (89), and sets the other dimensions to 0 to generate the final sparse solution z *.
[2-2-6.L0スパースモデリングのフロー例]
 次に、図9を用いて、L0スパースモデリングのフローについて説明する。図9は、L0スパースモデリングの処理の手順を示すフローチャートである。図9は、イジングマシン10を含む最適化問題解決システム1によるL0スパースモデリングのフローの例である。以下では、最適化問題解決装置100を処理主体とする場合を一例として示すが、最適化問題解決装置100に限らず、最適化問題解決システム1に含まれるいずれの装置であってもよい。
[2-2-6. L0 sparse modeling flow example]
Next, the flow of L0 sparse modeling will be described with reference to FIG. FIG. 9 is a flowchart showing the procedure of the processing of L0 sparse modeling. FIG. 9 is an example of the flow of L0 sparse modeling by the optimization problem solving system 1 including the Ising machine 10. In the following, a case where the optimization problem solving device 100 is the main processing element is shown as an example, but the device is not limited to the optimization problem solving device 100, and may be any device included in the optimization problem solving system 1.
 図9に示すように、最適化問題解決装置100は、観測データと観測行列を入力する(ステップS101)。例えば、最適化問題解決装置100は、センサ50による観測データxと観測行列Uとを取得する。ステップS101は、上記式(4)等に対応する処理である。 As shown in FIG. 9, the optimization problem solving device 100 inputs observation data and an observation matrix (step S101). For example, the optimization problem solving device 100 acquires the observation data x and the observation matrix U by the sensor 50. Step S101 is a process corresponding to the above equation (4) and the like.
 最適化問題解決装置100は、解の非ゼロ成分の組合せ定式化の係数行列を取得する(ステップS102)。例えば、最適化問題解決装置100は、解の非ゼロ成分の組合せ定式化の係数行列をイジングパラメータとして生成する。最適化問題解決装置100は、組合せ最適化の定式化における係数行列を抽出する。ステップS102では、前述したL0スパースモデリングからQUBO問題、イジングモデルへの定式化までの処理を行う。ステップS102は、上記式(25)や式(29)等に対応する処理である。 The optimization problem solving device 100 acquires the coefficient matrix of the combination formulation of the non-zero components of the solution (step S102). For example, the optimization problem solving device 100 generates a coefficient matrix of the combination formulation of the non-zero components of the solution as an singing parameter. The optimization problem solving device 100 extracts a coefficient matrix in the formulation of combinatorial optimization. In step S102, processing from the above-mentioned L0 sparse modeling to the QUABO problem and the formulation into the Ising model is performed. Step S102 is a process corresponding to the above equation (25), equation (29), and the like.
 最適化問題解決装置100は、係数行列を組合せ最適化マシンに送信する(ステップS103)。例えば、最適化問題解決装置100は、解の非ゼロ成分の組合せ定式化の係数行列をイジングパラメータとして、ユーザにより選択されたイジングマシン10に送信する。 The optimization problem solving device 100 combines the coefficient matrices and sends them to the optimization machine (step S103). For example, the optimization problem solving device 100 transmits a coefficient matrix of the combination formulation of the non-zero components of the solution as an Ising parameter to the Ising machine 10 selected by the user.
 最適化問題解決装置100は、組合せ最適化マシンから最適化解を受信する(ステップS104)。例えば、最適化問題解決装置100は、イジングパラメータを送信したイジングマシン10から、イジングマシン10が計算した解を最適化解として受信する。このように、最適化問題解決システム1は、組合せ最適化マシンであるイジングマシン10により最適化された組合せを得る。 The optimization problem solving device 100 receives the optimization solution from the combinatorial optimization machine (step S104). For example, the optimization problem solving device 100 receives the solution calculated by the Ising machine 10 as an optimized solution from the Ising machine 10 that has transmitted the Ising parameter. In this way, the optimization problem solving system 1 obtains a combination optimized by the Ising machine 10, which is a combinatorial optimization machine.
 最適化問題解決装置100は、解の非ゼロ成分の値を計算する(ステップS105)。例えば、最適化問題解決装置100は、イジングマシン10が受信した最適化解を用いて、解の非ゼロ成分の値を計算する。最適化問題解決装置100は、スパース成分の組合せ情報をもとにスパース解を算出する。ステップS105は、上記式(9)~(11)等に対応する処理である。 The optimization problem solving device 100 calculates the value of the non-zero component of the solution (step S105). For example, the optimization problem solving device 100 calculates the value of the non-zero component of the solution using the optimized solution received by the Ising machine 10. The optimization problem solving device 100 calculates a sparse solution based on the combination information of the sparse components. Step S105 is a process corresponding to the above equations (9) to (11) and the like.
 最適化問題解決装置100は、データの復元や合成を行う(ステップS106)。例えば、最適化問題解決装置100は、計算した解の非ゼロ成分の値を用いて、適用先となるアプリケーションに応じてデータの復元や合成を行う。 The optimization problem solving device 100 restores and synthesizes data (step S106). For example, the optimization problem solving device 100 restores or synthesizes data according to the application to which it is applied, using the value of the non-zero component of the calculated solution.
[2-2-7.L0スパースモデリングのプログラム例]
 ここから、図10~図12を用いて、L0スパースモデリングのプログラム(関数)例を示す。図10は、L0スパースモデリングのプログラムの一例を示す図である。具体的には、図10は、L0スパースモデリングの解を生成するまでの全体プログラムの一例であるプログラムPG1を示す。
[2-2-7. L0 sparse modeling program example]
From here, an example of a program (function) of L0 sparse modeling is shown with reference to FIGS. 10 to 12. FIG. 10 is a diagram showing an example of an L0 sparse modeling program. Specifically, FIG. 10 shows program PG1 which is an example of the whole program up to the generation of the solution of L0 sparse modeling.
 図10に示すプログラムPG1は、主に以下のブロックで構成される。
・スピンを生成して、L0スパースモデリングの目的関数を記述
・目的関数からイジングパラメータ(一次、二次係数行列)を抽出
・イジングパラメータをイジングマシンに送信して、最適スピン配置を受信
・最適スピン変数から、L0スパースモデリングの解を計算
The program PG1 shown in FIG. 10 is mainly composed of the following blocks.
-Generate spins and describe the objective function of L0 sparse modeling-Extract the Ising parameter (first-order and quadratic coefficient matrix) from the objective function-Send the Isging parameter to the Issing machine and receive the optimal spin arrangement-Optimal spin Calculate the solution of L0 sparse modeling from the variables
 例えば、プログラムPG1の1行目の関数「load_observation_matrix(file)」は、ファイルを読み込んで、観測行列(図11中のU)を設定する。例えば、プログラムPG1の2行目の関数「Spin(N)」は、ライブラリがサポートする変数を設定する。例えば、プログラムPG1の3行目の関数「IsingMachine()」は、ライブラリがサポートするマシンを設定する。 For example, the function "load_observation_matrix (file)" on the first line of the program PG1 reads the file and sets the observation matrix (U in FIG. 11). For example, the function "Spin (N)" on the second line of the program PG1 sets the variables supported by the library. For example, the function "IsingMachine ()" on the third line of the program PG1 sets the machine supported by the library.
 例えば、プログラムPG1の4行目の関数「l0_sparse_modeling(U,x,s,lambda=xxx)」は、図11に示すように、L0スパースモデリングの目的関数(ロス関数、ロスともいう)を計算する。 For example, the function "l0_sparse_modeling (U, x, s, lambda = xxx)" on the fourth line of the program PG1 calculates the objective function (loss function, also referred to as loss) of L0 sparse modeling as shown in FIG. ..
 図11は、イジングモデルの目的関数を生成するプログラムの一例を示す図である。具体的には、図11は、QUBO問題(イジングモデル)の目的関数を計算する関数の一例であるプログラムPG2を示す。図11に示す関数「l0_sparse_modeling(U,x,s,lambda)」は、図10の全体プログラムPG1で呼び出され、目的関数(図10及び図11中のlossに対応)を生成する。 FIG. 11 is a diagram showing an example of a program that generates an objective function of the Ising model. Specifically, FIG. 11 shows a program PG2 which is an example of a function for calculating an objective function of a QUABO problem (Ising model). The function "l0_sparse_modeling (U, x, s, lambda)" shown in FIG. 11 is called by the entire program PG1 of FIG. 10 to generate an objective function (corresponding to loss in FIGS. 10 and 11).
 図11に示すプログラムPG2は、主に以下のブロックで構成される。
・スピン変数を使って、非ゼロ成分を表すバイナリ変数を作る
・非ゼロ成分の個数が増えると大きくなる目的関数を作る
・観測変数とスパース解から予想する観測が乖離すると大きくなるペナルティを作る
・目的関数とペナルティを足して最終的な目的関数を得る
The program PG2 shown in FIG. 11 is mainly composed of the following blocks.
・ Create a binary variable that represents a non-zero component using a spin variable ・ Create an objective function that increases as the number of non-zero components increases ・ Create a penalty that increases when the observed observation and the expected observation from the sparse solution deviate from each other Add the objective function and the penalty to get the final objective function
 例えば、プログラムPG2の1行目の関数「diag(b=(1-s)/2)」は、スピンをバイナリ変数に変換する。例えば、プログラムPG2の2行目の関数「trace(B)」は、非ゼロ成分の個数を計算する。例えば、プログラムPG2の3行目の関数「matmul(B,matmul(U.t,x))」は、データから成分を抽出する。例えば、プログラムPG2の4行目の関数「UnitMatrix-matmul(U.t,U)」は、観測行列の単位行列からの乖離を求める。例えば、プログラムPG2の5行目の関数「matmul(D,matmul(Fx,Fx.t))」は、ペナルティ項を設定する。例えば、プログラムPG2の6行目の式は、目的関数にペナルティを追加する。 For example, the function "diag (b = (1-s) / 2)" on the first line of the program PG2 converts the spin into a binary variable. For example, the function "trace (B)" on the second line of the program PG2 calculates the number of non-zero components. For example, the function "matmul (B, matmul (U.t, x))" on the third line of the program PG2 extracts components from the data. For example, the function "UnitMatrix-matmul (U.t, U)" on the fourth line of the program PG2 finds the deviation of the observation matrix from the unit matrix. For example, the function "matmul (D, matmul (Fx, Fx.t))" on the fifth line of the program PG2 sets a penalty term. For example, the expression on line 6 of program PG2 adds a penalty to the objective function.
 なお、パラメータλ(図11中のlambdaに対応)は、0.5から1程度に設定してもよいし、スピン(図11中のsに対応)とパラメータλ(図11中のlambdaに対応)の交互最適化をしてラグランジェ未定乗数法のように求めてもよい。 The parameter λ (corresponding to lambda in FIG. 11) may be set from 0.5 to 1, or the spin (corresponding to s in FIG. 11) and the parameter λ (corresponding to lambda in FIG. 11). Alternate optimization may be performed to obtain the Lagrange undetermined multiplier method.
 例えば、プログラムPG1の5行目の関数「get_ising_params(loss)」は、ライブラリがサポートする関数であり、目的関数(図11中のlossに対応)を入力として、係数行列(イジングパラメータ)を算出する。 For example, the function "get_ising_params (loss)" on the fifth line of the program PG1 is a function supported by the library, and calculates a coefficient matrix (Ising parameter) by inputting an objective function (corresponding to loss in FIG. 11). ..
 例えば、プログラムPG1の6行目の関数「ising_macine.solve_ising(h,J)」は、ライブラリがサポートする関数であり、係数行列(図11中のh,J)を入力として、イジングマシン10の計算結果を得る。 For example, the function "ising_macine.solve_ising (h, J)" on the sixth line of the program PG1 is a function supported by the library, and the calculation of the Ising machine 10 is performed by inputting a coefficient matrix (h, J in FIG. 11). Get results.
 例えば、プログラムPG1の7行目の関数「l0_sparse_solution(U,x,s_optimum)」は、図12に示すように、L0スパースモデリングの解を計算する。 For example, the function "l0_sparse_solution (U, x, s_optimum)" on the 7th line of the program PG1 calculates the solution of L0 sparse modeling as shown in FIG.
 図12は、L0スパースモデリングの解を生成するプログラムの一例を示す図である。具体的には、図12は、組合せ変数からスパース解を得る関数の一例であるプログラムPG3を示す。図12に示す関数「l0_sparse_solution(U,x,s_optimum)」は、図10の全体プログラムPG1で呼び出され、スパース解zを生成する。 FIG. 12 is a diagram showing an example of a program that generates a solution for L0 sparse modeling. Specifically, FIG. 12 shows a program PG3 which is an example of a function for obtaining a sparse solution from a combination variable. The function "l0_sparse_solution (U, x, s_optimum)" shown in FIG. 12 is called by the whole program PG1 of FIG. 10 to generate a sparse solution z.
 図12に示すプログラムPG3は、主に以下のブロックで構成される。
・選択された行を使って、観測行列の部分行列を生成する
・部分行列の擬似逆行列からスパース解を得る
The program PG3 shown in FIG. 12 is mainly composed of the following blocks.
-Use the selected rows to generate a submatrix of the observation matrix-Get a sparse solution from the pseudoinverse of the submatrix
 例えば、プログラムPG3の1行目の式は、観測行列の部分行列を生成する。例えば、プログラムPG3の2行目の関数「matmul(Fs.t(),Fs)」は、正方行列を生成する。例えば、プログラムPG3の3行目の関数「matmul(FstFs.i(),Fs.t())」は、疑似逆行列を生成する。例えば、プログラムPG3の4行目の関数「matmul(Ws,x)」は、スパース解の非ゼロ成分を算出する。例えば、プログラムPG3の5行目の関数「ZeroVector()」は、スパース解のゼロ成分を生成する。例えば、プログラムPG3の6行目の式は、スパース解のゼロ成分とスパース解の非ゼロ成分を組合せて、解を生成する。 For example, the formula in the first row of the program PG3 generates a submatrix of the observation matrix. For example, the function "matmul (Fs.t (), Fs)" on the second row of the program PG3 generates a square matrix. For example, the function "matmul (FstFs.i (), Fs.t ())" on the third line of the program PG3 generates a pseudo-inverse matrix. For example, the function "matmul (Ws, x)" on the fourth line of the program PG3 calculates the non-zero component of the sparse solution. For example, the function "ZeroVector ()" on the fifth line of the program PG3 generates the zero component of the sparse solution. For example, the equation on line 6 of program PG3 combines the zero component of a sparse solution with the non-zero component of a sparse solution to generate a solution.
 例えば、最適化問題解決装置100は、図10~図12に示すようなプログラム(関数)及び、各プログラムにより呼び出されるプログラム(関数)を関数情報記憶部122(図13参照)に記憶し、各プログラムを用いて処理を実行する。 For example, the optimization problem solving device 100 stores a program (function) as shown in FIGS. 10 to 12 and a program (function) called by each program in the function information storage unit 122 (see FIG. 13), and each of them is stored. Execute the process using the program.
[2-3.最適化問題解決装置の構成]
 次に、最適化問題解決装置100の構成について説明する。図13は、本開示の最適化問題解決装置の構成例を示す図である。
[2-3. Configuration of optimization problem solving device]
Next, the configuration of the optimization problem solving device 100 will be described. FIG. 13 is a diagram showing a configuration example of the optimization problem solving device of the present disclosure.
 図13に示すように、最適化問題解決装置100は、通信部110と、記憶部120と、制御部130と、入力部140と、表示部150とを有する。 As shown in FIG. 13, the optimization problem solving device 100 includes a communication unit 110, a storage unit 120, a control unit 130, an input unit 140, and a display unit 150.
 通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定のネットワーク(図示省略)と有線または無線で接続され、イジングマシン10やセンサ50等の他の情報処理装置との間で情報の送受信を行う。また、通信部110は、ユーザが利用するユーザ端末(図示省略)との間で情報の送受信を行ってもよい。 The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to a predetermined network (not shown) by wire or wirelessly, and transmits / receives information to / from other information processing devices such as the rising machine 10 and the sensor 50. Further, the communication unit 110 may send and receive information to and from a user terminal (not shown) used by the user.
 記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。第1の実施例に係る記憶部120は、図13に示すように、データ記憶部121と、関数情報記憶部122とを有する。 The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 13, the storage unit 120 according to the first embodiment has a data storage unit 121 and a function information storage unit 122.
 データ記憶部121は、センサ50から受信したデータなどの各種データを記憶する。関数情報記憶部122は、各種のプログラム等の関数の情報を記憶する。例えば、関数情報記憶部122は、最適化問題解決処理や生成処理に用いる各種の関数(プログラム)の情報を記憶する。例えば、関数情報記憶部122は、プログラムPG1~PG3等の関数プログラムを記憶する。また、関数情報記憶部122は、上述した式のうち処理に用いる関数の情報を記憶してもよい。なお、記憶部120は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 The data storage unit 121 stores various data such as data received from the sensor 50. The function information storage unit 122 stores information on functions such as various programs. For example, the function information storage unit 122 stores information on various functions (programs) used in the optimization problem solving process and the generation process. For example, the function information storage unit 122 stores function programs such as programs PG1 to PG3. Further, the function information storage unit 122 may store information on the function used for processing among the above-mentioned expressions. The storage unit 120 is not limited to the above, and may store various information depending on the purpose.
 制御部130は、例えば、CPUやMPU(Micro Processing Unit)等によって、最適化問題解決装置100内部に記憶されたプログラム(例えば、本開示に係る最適化問題解決処理プログラム等)がRAM(Random Access Memory)等を作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。 In the control unit 130, for example, a program (for example, an optimization problem solving processing program according to the present disclosure) stored in the optimization problem solving device 100 by a CPU, an MPU (Micro Processing Unit), or the like is a RAM (Random Access). It is realized by executing Memory) etc. as a work area. Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
 図13に示すように、制御部130は、受信部131と、第1生成部132と、第2生成部133と、送信部134と、第3生成部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図13に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 13, the control unit 130 includes a reception unit 131, a first generation unit 132, a second generation unit 133, a transmission unit 134, and a third generation unit 135, which will be described below. Realize or execute the functions and actions of information processing. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 13, and may be any other configuration as long as it is configured to perform information processing described later.
 受信部131は、各種情報を受信する。受信部131は、外部の情報処理装置から各種情報を受信する。受信部131は、センサ50からデータを受信する。受信部131は、センサ50からの第1のデータを入力するセンサ入力部として機能する。 The receiving unit 131 receives various information. The receiving unit 131 receives various information from an external information processing device. The receiving unit 131 receives data from the sensor 50. The receiving unit 131 functions as a sensor input unit for inputting the first data from the sensor 50.
 受信部131は、イジングマシン10から各種情報を受信する。受信部131は、イジングマシン10からイジングマシン10の計算結果を受信する。受信部131は、送信部134が係数行列を送信したイジングマシン10から第2のデータを計算結果として受信する。 The receiving unit 131 receives various information from the Ising machine 10. The receiving unit 131 receives the calculation result of the Ising machine 10 from the Ising machine 10. The receiving unit 131 receives the second data as a calculation result from the Ising machine 10 to which the transmitting unit 134 has transmitted the coefficient matrix.
 第1生成部132は、スパースモデリングを行うことで目的関数を生成する。第1生成部132は、データ記憶部121や関数情報記憶部122から情報を取得し、取得した情報を用いて、スパースモデリングを行うことで目的関数を生成する。例えば、第1生成部132は、プログラムPG2により目的関数を生成する。 The first generation unit 132 generates an objective function by performing sparse modeling. The first generation unit 132 acquires information from the data storage unit 121 and the function information storage unit 122, and generates an objective function by performing sparse modeling using the acquired information. For example, the first generation unit 132 generates an objective function by the program PG2.
 第2生成部133は、目的関数に対応する係数行列を生成する。第2生成部133は、関数情報記憶部122から情報を取得し、取得した情報や第1生成部132により生成された目的関数を用いて、目的関数に対応する係数行列を生成する。例えば、第2生成部133は、プログラムPG1の関数「get_ising_params(loss)」により目的関数に対応する係数行列を生成する。 The second generation unit 133 generates a coefficient matrix corresponding to the objective function. The second generation unit 133 acquires information from the function information storage unit 122, and uses the acquired information and the objective function generated by the first generation unit 132 to generate a coefficient matrix corresponding to the objective function. For example, the second generation unit 133 generates a coefficient matrix corresponding to the objective function by the function "get_ising_params (loss)" of the program PG1.
 送信部134は、送信部134は、イジングマシン10やセンサ50等の他の情報処理装置へ各種情報を送信する。 The transmission unit 134 transmits various information to other information processing devices such as the Ising machine 10 and the sensor 50.
 送信部134は、イジングマシン10に計算の実行を指示する。送信部134は、イジングマシン10にイジングモデルのパラメータを送信する。送信部134は、イジングマシン10にイジングモデルのパラメータを送信することにより、イジングマシン10に計算の実行を指示する。送信部134は、組合せ最適化計算を行うイジングマシン10に、第2生成部133により生成された係数行列を送信する。 The transmission unit 134 instructs the Ising machine 10 to execute the calculation. The transmission unit 134 transmits the parameters of the Ising model to the Ising machine 10. The transmission unit 134 instructs the Ising machine 10 to execute the calculation by transmitting the parameters of the Ising model to the Ising machine 10. The transmission unit 134 transmits the coefficient matrix generated by the second generation unit 133 to the Ising machine 10 that performs the combinatorial optimization calculation.
 第3生成部135は、最適解を生成する。第3生成部135は、イジングマシン10から取得したイジングマシン10の計算結果を用いて、解を生成する。第3生成部135は、受信部131がイジングマシン10から受信した第2のデータを用いて、第1のデータに対応する解を生成する。例えば、第3生成部135は、プログラムPG3により目的関数を生成する。 The third generation unit 135 generates the optimum solution. The third generation unit 135 generates a solution using the calculation result of the Ising machine 10 acquired from the Ising machine 10. The third generation unit 135 uses the second data received from the Ising machine 10 by the reception unit 131 to generate a solution corresponding to the first data. For example, the third generation unit 135 generates an objective function by the program PG3.
 入力部140は、ユーザから各種操作が入力される。入力部140は、ユーザによる入力を受け付ける。入力部140は、最適化問題解決装置100に設けられたキーボードやマウスやタッチパネルを介してユーザからの各種操作を受け付けてもよい。入力部140は、ユーザによるイジングマシン10の選択を受け付ける。入力部140は、表示部150により表示された提示画面であるコンテンツCT1~CT3に対するユーザの操作を入力として受け付ける。 Various operations are input from the user to the input unit 140. The input unit 140 accepts input by the user. The input unit 140 may accept various operations from the user via the keyboard, mouse, or touch panel provided in the optimization problem solving device 100. The input unit 140 accepts the user's selection of the Ising machine 10. The input unit 140 accepts the user's operation on the contents CT1 to CT3, which are the presentation screens displayed by the display unit 150, as input.
 表示部150は、各種情報を表示する。表示部150は、液晶ディスプレイ等の表示装置であり、各種情報を表示する。表示部150は、コンテンツCT1~CT3等を表示する。最適化問題解決装置100は、コンテンツCT1~CT3等を生成するコンテンツ生成部を有してもよい。コンテンツ生成部は、コンテンツCT1~CT3等、表示部150に表示する情報を生成する。コンテンツ生成部は、Java(登録商標)等の種々の技術を適宜用いて、コンテンツCT1~CT3等を生成する。なお、コンテンツ生成部は、CSSやJavaScript(登録商標)やHTMLの形式に基づいて、コンテンツCT1~CT3等を生成してもよい。また、例えば、コンテンツ生成部は、JPEG(Joint Photographic Experts Group)やGIF(Graphics Interchange Format)やPNG(Portable Network Graphics)など様々な形式でコンテンツCT1~CT3等を生成してもよい。 The display unit 150 displays various information. The display unit 150 is a display device such as a liquid crystal display and displays various information. The display unit 150 displays the contents CT1 to CT3 and the like. The optimization problem solving device 100 may have a content generation unit that generates contents CT1 to CT3 and the like. The content generation unit generates information to be displayed on the display unit 150, such as the contents CT1 to CT3. The content generation unit generates contents CT1 to CT3 and the like by appropriately using various technologies such as Java (registered trademark). The content generation unit may generate content CT1 to CT3 or the like based on the format of CSS, Javascript (registered trademark), or HTML. Further, for example, the content generation unit may generate contents CT1 to CT3 and the like in various formats such as JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), and PNG (Portable Network Graphics).
[2-4.イジングマシンの構成]
 次に、計算を実行するイジングマシン10の構成について説明する。図14は、イジングマシンの構成例を示す図である。図14の例では、イジングマシン10の一例として、量子コンピュータであるイジングマシン10aの構成を説明する。
[2-4. Ising machine configuration]
Next, the configuration of the Ising machine 10 that executes the calculation will be described. FIG. 14 is a diagram showing a configuration example of the Ising machine. In the example of FIG. 14, the configuration of the Ising machine 10a, which is a quantum computer, will be described as an example of the Ising machine 10.
 図14に示すように、イジングマシン10aは、通信部11と、記憶部12と、量子デバイス部13と、制御部14とを有する。なお、イジングマシン10aは、イジングマシン10aの管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。 As shown in FIG. 14, the Ising machine 10a has a communication unit 11, a storage unit 12, a quantum device unit 13, and a control unit 14. The Ising machine 10a has an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the Ising machine 10a, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may.
 通信部11は、例えば、NICや通信回路等によって実現される。通信部11は、所定のネットワーク(インターネット等)と有線又は無線で接続され、ネットワークを介して、最適化問題解決装置100等の他の装置等との間で情報の送受信を行う。 The communication unit 11 is realized by, for example, a NIC or a communication circuit. The communication unit 11 is connected to a predetermined network (Internet or the like) by wire or wirelessly, and transmits / receives information to / from other devices such as the optimization problem solving device 100 via the network.
 記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、情報の表示に用いる各種情報を記憶する。 The storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 stores various information used for displaying the information.
 量子デバイス部13は、種々の量子計算を実行する。例えば、量子デバイス部13は、量子処理ユニット(QPU:Quantum Processing Unit)により実現される。量子デバイス部13は、例えば、最適化問題解決装置100等の他の装置から受け付けたイジングモデルのパラメータに基づいて、そのイジングモデルの基底状態を実現する。言い換えれば、量子デバイス部13は、イジングモデルが基底エネルギー状態となる最適スピン配置を実現する。すなわち、量子デバイス部13は、最適化問題を最適化した状態を実現する。 The quantum device unit 13 executes various quantum calculations. For example, the quantum device unit 13 is realized by a quantum processing unit (QPU: Quantum Processing Unit). The quantum device unit 13 realizes the ground state of the Ising model based on the parameters of the Ising model received from other devices such as the optimization problem solving device 100, for example. In other words, the quantum device unit 13 realizes the optimum spin arrangement in which the Ising model is in the base energy state. That is, the quantum device unit 13 realizes a state in which the optimization problem is optimized.
 量子デバイス部13は、例えば、複数の量子ビットから構成される。量子デバイス部13は、予め絶対零度付近まで冷却される。量子デバイス部13は、量子デバイス部13にイジングモデルのパラメータが入力された後、内部でイジングモデルと横磁場モデル(量子ゆらぎモデル)の比率を時間発展させる。これにより、量子デバイス部13上で、イジングモデルのパラメータに応じた最適なスピン配置が実現する。このように、量子デバイス部13上でイジングモデルの最適なスピン配置が物理的に実現される。そして、量子デバイス部13が測定されることにより、イジングモデルの最適なスピン配置を得ることができる。これにより、量子デバイス部13は、離散最適化問題を最適化することができる。例えば、量子デバイス部13は、二値二次形式の目的関数の最適化問題を最適化することができる。 The quantum device unit 13 is composed of, for example, a plurality of qubits. The quantum device unit 13 is cooled to near absolute zero in advance. After the parameters of the Ising model are input to the quantum device unit 13, the quantum device unit 13 internally develops the ratio of the Ising model and the transverse magnetic field model (quantum fluctuation model) over time. As a result, the optimum spin arrangement according to the parameters of the Ising model is realized on the quantum device unit 13. In this way, the optimum spin arrangement of the Ising model is physically realized on the quantum device unit 13. Then, by measuring the quantum device unit 13, the optimum spin arrangement of the Ising model can be obtained. As a result, the quantum device unit 13 can optimize the discrete optimization problem. For example, the quantum device unit 13 can optimize the optimization problem of the objective function in the quadratic form.
 制御部14は、例えば、CPUやMPU等によって、イジングマシン10a内部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、制御部14は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現されてもよい。 The control unit 14 is realized by, for example, a CPU, an MPU, or the like executing a program stored in the Ising machine 10a with a RAM or the like as a work area. Further, the control unit 14 is a controller, and may be realized by an integrated circuit such as an ASIC or FPGA.
 図14に示すように、制御部14は、取得部141と、計算部142と、送信部143とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部14の内部構成は、図14に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 14, the control unit 14 has an acquisition unit 141, a calculation unit 142, and a transmission unit 143, and realizes or executes the functions and operations of information processing described below. The internal configuration of the control unit 14 is not limited to the configuration shown in FIG. 14, and may be any other configuration as long as it is configured to perform information processing described later.
 取得部141は、各種情報を受信する。取得部141は、外部の情報処理装置から各種情報を受信する。取得部141は、最適化問題解決装置100等の他の情報処理装置から各種情報を受信する。 The acquisition unit 141 receives various information. The acquisition unit 141 receives various information from an external information processing device. The acquisition unit 141 receives various information from other information processing devices such as the optimization problem solving device 100.
 取得部141は、例えば量子デバイス部13を用いた計算を行い、測定するための指示を最適化問題解決装置100等の他の情報処理装置から受け付ける。取得部141は、イジングモデルのパラメータを量子デバイス部13による計算(測定)の指示として受け付ける。 The acquisition unit 141 performs a calculation using, for example, the quantum device unit 13, and receives an instruction for measurement from another information processing device such as the optimization problem solving device 100. The acquisition unit 141 accepts the parameters of the Ising model as instructions for calculation (measurement) by the quantum device unit 13.
 取得部141は、各種の情報を取得する。取得部141は、記憶部12から情報を取得する。取得部141は、最適化問題解決装置100等の外部の情報処理装置から各種の情報を取得する。取得部141は、入力部により受け付けられた入力情報を取得する。取得部141は、例えば、外部の情報処理装置からイジングモデルのパラメータに関する情報を取得する。取得部141は、計算部142による量子デバイス部13の測定結果(計算結果)を取得する。 The acquisition unit 141 acquires various types of information. The acquisition unit 141 acquires information from the storage unit 12. The acquisition unit 141 acquires various information from an external information processing device such as the optimization problem solving device 100. The acquisition unit 141 acquires the input information received by the input unit. The acquisition unit 141 acquires information about the parameters of the Ising model from, for example, an external information processing device. The acquisition unit 141 acquires the measurement result (calculation result) of the quantum device unit 13 by the calculation unit 142.
 例えば、取得部141は、プログラムPG1のget_ising_params(loss)の関数の処理結果であるイジングモデルの係数h、J(イジングパラメータ)を最適化問題解決装置100から受信する。 For example, the acquisition unit 141 receives the coefficients h and J (Ising parameters) of the Ising model, which is the processing result of the function of get_ising_params (loss) of the program PG1, from the optimization problem solving device 100.
 計算部142は、各種計算を実行する。計算部142は、量子デバイス部13を用いた計算を実行する。計算部142は、量子デバイス部13を測定する。計算部142は、イジングモデルの最適スピン配置が実現された量子デバイス部13を測定する。 The calculation unit 142 executes various calculations. The calculation unit 142 executes a calculation using the quantum device unit 13. The calculation unit 142 measures the quantum device unit 13. The calculation unit 142 measures the quantum device unit 13 in which the optimum spin arrangement of the Ising model is realized.
 例えば、計算部142は、最適化問題解決装置100から取得部141が受信したイジングパラメータを用いて、計算を実行する。 For example, the calculation unit 142 executes the calculation using the Ising parameter received by the acquisition unit 141 from the optimization problem solving device 100.
 送信部143は、外部の情報処理装置へ各種情報を送信する。例えば、送信部143は、最適化問題解決装置100等の他の情報処理装置へ各種情報を送信する。送信部143は、記憶部12に記憶された情報を送信する。 The transmission unit 143 transmits various information to an external information processing device. For example, the transmission unit 143 transmits various information to another information processing device such as the optimization problem solving device 100. The transmission unit 143 transmits the information stored in the storage unit 12.
 送信部143は、最適化問題解決装置100等の他の情報処理装置からの情報に基づいて、各種情報を送信する。送信部143は、記憶部12に記憶された情報に基づいて、各種情報を送信する。 The transmission unit 143 transmits various information based on information from other information processing devices such as the optimization problem solving device 100. The transmission unit 143 transmits various information based on the information stored in the storage unit 12.
 送信部143は、計算部142による量子デバイス部13の測定結果を、計算の指示を行った装置に送信する。送信部143は、計算部142による量子デバイス部13の測定結果を、パラメータの送信元に送信する。送信部143は、計算部142による量子デバイス部13の測定結果を、計算の要求元に送信する。送信部143は、計算部142による量子デバイス部13の測定結果を、最適化問題解決装置100等の他の情報処理装置に送信する。 The transmission unit 143 transmits the measurement result of the quantum device unit 13 by the calculation unit 142 to the device that has given the calculation instruction. The transmission unit 143 transmits the measurement result of the quantum device unit 13 by the calculation unit 142 to the parameter transmission source. The transmission unit 143 transmits the measurement result of the quantum device unit 13 by the calculation unit 142 to the request source for the calculation. The transmission unit 143 transmits the measurement result of the quantum device unit 13 by the calculation unit 142 to another information processing device such as the optimization problem solving device 100.
 例えば、図1の例では、送信部143は、最適化問題解決装置100から受信したパラメータを用いて計算(測定)したイジングスピンの値を最適化問題解決装置100へ送信する。 For example, in the example of FIG. 1, the transmission unit 143 transmits the value of the rising spin calculated (measured) using the parameters received from the optimization problem solving device 100 to the optimization problem solving device 100.
[2-5.圧縮センシング]
 最適化問題解決システム1による最適化問題解決方法が適用される圧縮センシングについて、以下説明する。
[2-5. Compressed sensing]
The compressed sensing to which the optimization problem solving method by the optimization problem solving system 1 is applied will be described below.
 圧縮センシングでは、観測行列U(以降ではスパース観測行列ともいう)が、以下の式(90)のように分解できることを仮定している。 In compressed sensing, it is assumed that the observation matrix U (hereinafter also referred to as sparse observation matrix) can be decomposed as shown in the following equation (90).
Figure JPOXMLDOC01-appb-M000090
Figure JPOXMLDOC01-appb-M000090
 ここで、式(90)のAは全観測をモデル化する観測行列(非スパース観測行列Aともいう)である。 Here, A in equation (90) is an observation matrix (also referred to as non-sparse observation matrix A) that models all observations.
 非スパース観測行列Aとスパース表現zを用いて、次元の間引きのない観測yは、以下の式(91)のように表すことができる。 Using the non-sparse observation matrix A and the sparse representation z, the observation y without dimensional decimation can be expressed by the following equation (91).
Figure JPOXMLDOC01-appb-M000091
Figure JPOXMLDOC01-appb-M000091
 例えば、非スパース観測行列Aは、離散フーリエ変換行列などである。非スパース観測行列Aは、センシングの仕組みで決まり、一般には制御できない。 For example, the non-sparse observation matrix A is a discrete Fourier transform matrix or the like. The non-sparse observation matrix A is determined by the sensing mechanism and generally cannot be controlled.
 一方、式(90)のC(行列Cともいう)は制御可能な変数である。行列Cは、式(91)の観測の次元を削減することを目的として導入される。 On the other hand, C (also called matrix C) in equation (90) is a controllable variable. The matrix C is introduced for the purpose of reducing the observation dimension of equation (91).
[2-5-1.組合せ最適化問題]
 ここから、圧縮を組合せ最適化問題と捉える点について説明する。なお、上述した内容と同様の点は適宜説明を省略する。
[2-5-1. Combinatorial optimization problem]
From here, I will explain the point that compression is regarded as a combinatorial optimization problem. The same points as described above will be omitted as appropriate.
 L0スパースモデリングでは、観測行列Uは各列の相関が小さく、互いに直交している状態に近いほど、L0スパースモデリングの近似の精度がよい。そこで、行列Cは、式(90)の各列の相関が小さくなるように変換する行列を用いることが望ましい。また、行列Cは、観測の次元を減らすことが、観測の回数を減らすことができることが望ましい。 In L0 sparse modeling, the correlation of each column of the observation matrix U is small, and the closer it is to a state orthogonal to each other, the better the approximation accuracy of L0 sparse modeling. Therefore, as the matrix C, it is desirable to use a matrix that is transformed so that the correlation of each column of the equation (90) becomes small. Further, it is desirable that the matrix C can reduce the number of observations by reducing the dimension of observation.
 非スパース観測行列Aの中から選択される行の添字をまとめて集合Sとし、行列ASを非スパース観測行列AのS行だけで構成された行列、行列CSを行列CのS列だけで構成された行列であるとする。例えば、行列ASは非スパース観測行列Aのうち集合Sに含まれる各添字に対応する行を添字の順に並べて構成した行列である。また、行列CSは行列Cのうち集合Sに含まれる各添字に対応する列を添字の順に並べて構成した行列である。この場合、以下の式(92)となる。 The subscripts of the rows selected from the non-sparse observation matrix A are collectively referred to as the set S, the matrix A S is a matrix composed of only the S rows of the non-sparse observation matrix A, and the matrix C S is only the S column of the matrix C. It is assumed that it is a matrix composed of. For example, the matrix A S is a matrix composed of rows corresponding to each subscript included in the set S of the non-sparse observation matrix A arranged in the order of the subscripts. Further, the matrix C S is a matrix composed of columns corresponding to each subscript included in the set S of the matrix C arranged in the order of the subscripts. In this case, the following equation (92) is obtained.
Figure JPOXMLDOC01-appb-M000092
Figure JPOXMLDOC01-appb-M000092
 UTUの直交行列からの乖離具合を以下の式(93)のように定義できる。 The degree of deviation of U T U from the orthogonal matrix can be defined by the following equation (93).
Figure JPOXMLDOC01-appb-M000093
Figure JPOXMLDOC01-appb-M000093
 ここで、||・||Fはフロベニウスノルムで全成分の二乗ノルムである。UTUが直交行列に一致すると0で、各列の相関が大きくなるにつれてこの値は定性的に大きくなるため、式(93)に示す指標は、直交行列からの乖離具合とみなせる。 Here, || · || F is the Frobenius norm, which is the squared norm of all components. It is 0 when U T U matches the orthogonal matrix, and this value increases qualitatively as the correlation of each column increases. Therefore, the index shown in Eq. (93) can be regarded as the degree of deviation from the orthogonal matrix.
 ここで、以下の式(94)を最小にするための行列CSは、以下の式(95)を満たす。 Here, the matrix C S for minimizing the following equation (94) satisfies the following equation (95).
Figure JPOXMLDOC01-appb-M000094
Figure JPOXMLDOC01-appb-M000094
Figure JPOXMLDOC01-appb-M000095
Figure JPOXMLDOC01-appb-M000095
 式(94)の両辺に左右から擬似逆行列(存在するとして)を乗じると、以下の式(96)及び式(97)を得る。 Multiplying both sides of the equation (94) from the left and right by the pseudo-inverse matrix (assuming it exists) gives the following equations (96) and (97).
Figure JPOXMLDOC01-appb-M000096
Figure JPOXMLDOC01-appb-M000096
Figure JPOXMLDOC01-appb-M000097
Figure JPOXMLDOC01-appb-M000097
 行列CSは正則行列なので、以下の式(98)としてもよい。 Since the matrix C S is an invertible matrix, the following equation (98) may be used.
Figure JPOXMLDOC01-appb-M000098
Figure JPOXMLDOC01-appb-M000098
 ここで、ASAS Tは対称行列なので、以下の式(99)のように対角化可能である。 Here, since A S A S T is a symmetric matrix, it can be diagonalized as in the following equation (99).
Figure JPOXMLDOC01-appb-M000099
Figure JPOXMLDOC01-appb-M000099
 式(99)のように対角化されたとする。この場合、行列CSは式(100)である。 It is assumed that it is diagonalized as in equation (99). In this case, the matrix C S is Eq. (100).
Figure JPOXMLDOC01-appb-M000100
Figure JPOXMLDOC01-appb-M000100
 式(100)の行列CSを用いると、直交行列からの乖離の最小値は、以下の数(101)で表される。 Using the matrix C S of equation (100), the minimum value of the deviation from the orthogonal matrix is represented by the following number (101).
Figure JPOXMLDOC01-appb-M000101
Figure JPOXMLDOC01-appb-M000101
 これにより、圧縮の最適化は、以下の式(102)のような組合せ最適化問題と考えることができる。最適化問題解決装置100は、圧縮の最適化を式(102)のような組合せ最適化問題として定式化することができる。 Therefore, the optimization of compression can be considered as a combinatorial optimization problem as shown in the following equation (102). The optimization problem solving device 100 can formulate the optimization of compression as a combinatorial optimization problem as in the equation (102).
Figure JPOXMLDOC01-appb-M000102
Figure JPOXMLDOC01-appb-M000102
 なお、この定式化は観測次元を固定してその中で最適な次元を選択する定式化であるが、ほかにも、観測次元をできるだけ減らしたい場合の定式化などがあり得る。この場合、第二項を、|S|とすればよい。 Note that this formulation is a formulation that fixes the observation dimension and selects the optimum dimension among them, but there may be other formulations such as when you want to reduce the observation dimension as much as possible. In this case, the second term may be | S |.
 ここで、L0スパースモデリングの場合と同様に、以下の式(103)を利用する。
Figure JPOXMLDOC01-appb-M000103
Here, the following equation (103) is used as in the case of L0 sparse modeling.
Figure JPOXMLDOC01-appb-M000103
 式(103)の関係式から圧縮センシングの最適化では、最適化問題解決装置100は、以下の式(104)のようなバイナリ組合せ最適化問題で定式化することもできる。 In the optimization of compressed sensing from the relational expression of the equation (103), the optimization problem solving device 100 can also be formulated by the binary combinatorial optimization problem as in the following equation (104).
Figure JPOXMLDOC01-appb-M000104
Figure JPOXMLDOC01-appb-M000104
[2-5-2.QUBO形式]
 式(104)のBに関して、二次形式に落とし込みたい。例えば、最適化問題解決装置100は、式(104)をBの二次形式に変換する。
[2-5-2. QUABO format]
Regarding B in equation (104), I would like to reduce it to a quadratic form. For example, the optimization problem solving device 100 converts the equation (104) into a quadratic form of B.
 例えば、非スパース観測行列Aが離散フーリエ変換の場合等においては、以下の式(105)に示す条件に該当する。 For example, when the non-sparse observation matrix A is a discrete Fourier transform, the condition shown in the following equation (105) is satisfied.
Figure JPOXMLDOC01-appb-M000105
Figure JPOXMLDOC01-appb-M000105
 式(105)の場合、以下の式(106)のようにシンプルに定式化できる。 In the case of the formula (105), it can be simply formulated as the following formula (106).
Figure JPOXMLDOC01-appb-M000106
Figure JPOXMLDOC01-appb-M000106
 また、D=I-AATの固有値が1より小さい場合、以下の式(107)のように表すことができる。 Further, when the eigenvalue of D = I-AA T is smaller than 1, it can be expressed by the following equation (107).
Figure JPOXMLDOC01-appb-M000107
Figure JPOXMLDOC01-appb-M000107
 そして、K=1で近似する場合、以下の式(108)のように変換することができる。 Then, when approximating with K = 1, it can be converted as shown in the following equation (108).
Figure JPOXMLDOC01-appb-M000108
Figure JPOXMLDOC01-appb-M000108
 式(108)は、Bに関して4次である。しかし、L0スパースモデリング、[2-2-5-4.QUBO形式によるL0スパースモデリング]等において説明した次元削減と同様の処理により、容易に次元を削減し、二次式に変換することができる。このように、上述したL0スパースモデリングでの処理と同様であるため詳細な説明は省略するが、例えば、最適化問題解決装置100は、式(108)のBの次元を2次元に削減する。 Equation (108) is quaternary with respect to B. However, L0 sparse modeling, [2-2-5-4. By the same process as the dimension reduction described in [L0 sparse modeling in QUAB format] and the like, the dimension can be easily reduced and converted into a quadratic expression. As described above, since it is the same as the process in the above-mentioned L0 sparse modeling, a detailed description thereof will be omitted, but for example, the optimization problem solving device 100 reduces the dimension B of the equation (108) to two dimensions.
 逆行列の級数展開と打ち切りの近似には、D=I-AATの絶対値最大の固有値(スペクトルノルム)が1以下であることが望ましい。 For approximation of series expansion and censoring of the inverse matrix, it is desirable that the eigenvalue (spectral norm) of the maximum absolute value of D = I-AA T is 1 or less.
 L0スパースモデルのときと同様に、正則化の効果を取り込むことで、級数展開が実現できるようにすることもできる。もとの最適化の式に正則化項を加えることで逆行列は、以下の式(109)と置き換えられて、固有値が全体に1/(1+γ)倍される。 As with the L0 sparse model, it is possible to realize series expansion by incorporating the effect of regularization. By adding a regularization term to the original optimization equation, the inverse matrix is replaced by the following equation (109), and the eigenvalues are multiplied by 1 / (1 + γ) as a whole.
Figure JPOXMLDOC01-appb-M000109
Figure JPOXMLDOC01-appb-M000109
 この結果、正則化の調整により、(I-AAT)/(1+γ)の固有値の絶対値を小さくして、逆行列の級数展開や打ち切り近似が可能となる条件を実現することが可能となる。 As a result, by adjusting the regularization, it is possible to reduce the absolute value of the eigenvalues of (I-AA T ) / (1 + γ) and realize the conditions that enable series expansion and truncation approximation of the inverse matrix. It becomes.
 上記の例では、逆行列を近似して、最適解を求める方法を示したが、最適化問題解決装置100は、上記の方法に限らず、種々の方法によりQUBO問題への変換を行ってもよい。この点について、以下説明する。 In the above example, a method of finding the optimum solution by approximating the inverse matrix is shown, but the optimization problem solving device 100 is not limited to the above method, and can be converted into a QUAO problem by various methods. good. This point will be described below.
 例えば、L0スパースモデリングの例と同様に、補助変数を用いて逆行列を最適化の式からなくすこともできる。以下の式(110)を用いて、前述の逆行列が含まれる最適化の式(104)の第二項について改めて考える。 For example, as in the example of L0 sparse modeling, the inverse matrix can be eliminated from the optimization formula by using auxiliary variables. Using the following equation (110), the second term of the optimization equation (104) including the inverse matrix described above will be considered again.
Figure JPOXMLDOC01-appb-M000110
Figure JPOXMLDOC01-appb-M000110
 ここで、補助変数を以下の式(111)のように導入する。 Here, the auxiliary variable is introduced as shown in the following equation (111).
Figure JPOXMLDOC01-appb-M000111
 第二の等号では、Woodburyの逆行列の公式を用いている。
Figure JPOXMLDOC01-appb-M000111
The second equal sign uses Woodbury's inverse matrix formula.
 ここで、式(111)のZは、非スパース観測行列Aと同じサイズの行列である。すると、式(104)の第一項の代わりに以下の式(112)に示すように、以下のラグランジェ未定定数項を含む目的関数を考えることができる。 Here, Z in Eq. (111) is a matrix of the same size as the non-sparse observation matrix A. Then, instead of the first term of the equation (104), as shown in the following equation (112), an objective function including the following Lagrange undetermined constant term can be considered.
Figure JPOXMLDOC01-appb-M000112
Figure JPOXMLDOC01-appb-M000112
 ここで、式(112)のWは、Zと同じサイズの行列である。この式(112)のラグランジェ未定定数項を含む形式で以下の式(113)のように表すことができる。 Here, W in equation (112) is a matrix of the same size as Z. It can be expressed as the following equation (113) in a format including the Lagrange undetermined constant term of this equation (112).
Figure JPOXMLDOC01-appb-M000113
Figure JPOXMLDOC01-appb-M000113
 この最適化は、BとZ、Wの交互最適化で解くことができる。交互最適化は、以下のような疑似アルゴリズムで実現される。
(4-1) Z、Wを初期化する(ランダム初期化やゼロ初期化など)
(4-2) Z、Wを固定し、イジングマシンを用いて、Bを求める
(4-3) Bを固定し、Z、Wを更新する
 例えば、最急降下法を用いると、以下の式(114)、(115)のように更新される。
This optimization can be solved by alternating optimization of B, Z, and W. Alternate optimization is realized by the following pseudo algorithm.
(4-1) Initialize Z and W (random initialization, zero initialization, etc.)
(4-2) Fix Z and W and find B using the Ising machine (4-3) Fix B and update Z and W For example, using the steepest descent method, the following equation (4-3) 114), (115) and so on.
Figure JPOXMLDOC01-appb-M000114
Figure JPOXMLDOC01-appb-M000114
Figure JPOXMLDOC01-appb-M000115
Figure JPOXMLDOC01-appb-M000115
(4-4) (4-2)、(4-3)を最適化の目的関数の値が収束するか、所定の回数実行するまで繰り返す。 (4-4) Repeat (4-2) and (4-3) until the value of the optimization objective function converges or the execution is performed a predetermined number of times.
[2-5-3.イジングモデルによる圧縮センシングの最適化]
 以上のように圧縮センシングの最適化をバイナリ変数の組合せ最適問題として定式化し、さらに二次形式のQUBO問題に変換すれば、このQUBO問題をイジングモデルに埋め込むことはたやすい。
[2-5-3. Optimization of compressed sensing by Ising model]
If the optimization of compressed sensing is formulated as a combination optimization problem of binary variables as described above and further converted into a quadratic form QUABO problem, it is easy to embed this QUABO problem in the Ising model.
 まず、最適化問題解決装置100は、イジングモデルに変換するために、バイナリ変数をスピン変数に変換する。これには、以下の式(116)が用いられる。 First, the optimization problem solving device 100 converts a binary variable into a spin variable in order to convert it into an Ising model. For this, the following equation (116) is used.
Figure JPOXMLDOC01-appb-M000116
Figure JPOXMLDOC01-appb-M000116
 最適化問題解決装置100は、式(116)により、QUBO問題を、スピン変数の二次形式、つまり、イジングモデルに変換する。そこで、このように定式化されたイジングモデルについて、最適化問題解決装置100は、プログラムなどを利用して係数行列を抽出する。そして、最適化問題解決装置100は、抽出した係数行列を用いて、イジングマシン10のスピン間結合定数や局所磁場に設定する。そして、イジングマシン10は、アニーリング処理を行い、イジングモデルの基底スピンの組合せ(σ1 *…σM *…)を算出し、最適化問題解決装置100に送信する。最適化問題解決装置100は、イジングマシン10が算出したイジングモデルの基底スピンの組合せを受信する。 The optimization problem solving device 100 transforms the QUABO problem into a quadratic form of spin variables, that is, an Ising model, by the equation (116). Therefore, for the Ising model formulated in this way, the optimization problem solving device 100 extracts a coefficient matrix by using a program or the like. Then, the optimization problem solving device 100 uses the extracted coefficient matrix to set the spin-to-spin coupling constant of the riser machine 10 and the local magnetic field. Then, the Ising machine 10 performs an annealing process, calculates a combination of basal spins of the Ising model (σ 1 * … σ M * …), and transmits the combination to the optimization problem solving device 100. The optimization problem solving device 100 receives the combination of basal spins of the Ising model calculated by the Ising machine 10.
 最適化問題解決装置100は、この基底スピンの組合せから最適化されたバイナリ変数を以下の式(117)を用いて、得ることができる。 The optimization problem solving device 100 can obtain a binary variable optimized from this combination of basis spins by using the following equation (117).
Figure JPOXMLDOC01-appb-M000117
Figure JPOXMLDOC01-appb-M000117
 そこで、最適化問題解決装置100は、以下の式(118)となるiを選択することにより、最適化されたスパース成分の添え字の組合せを示す集合S*を得る。 Therefore, the optimization problem solving device 100 obtains a set S * indicating the combination of the subscripts of the optimized sparse components by selecting i having the following equation (118).
Figure JPOXMLDOC01-appb-M000118
Figure JPOXMLDOC01-appb-M000118
 この集合S*を用いることで、下記の式(119)が求まる。 By using this set S * , the following equation (119) can be obtained.
Figure JPOXMLDOC01-appb-M000119
Figure JPOXMLDOC01-appb-M000119
 そして、以下の式(120)に示すように対角化すれば、以下の式(121)に示すように最適な圧縮方法が得られる。 Then, by diagonalizing as shown in the following equation (120), the optimum compression method can be obtained as shown in the following equation (121).
Figure JPOXMLDOC01-appb-M000120
Figure JPOXMLDOC01-appb-M000120
Figure JPOXMLDOC01-appb-M000121
Figure JPOXMLDOC01-appb-M000121
 最終的に求めたい次元圧縮された行列C(次元圧縮行列C)は、S*列成分以外の列成分がゼロベクトルになる行列である。そこで、最適化問題解決装置100は、次元圧縮行列Cをまずゼロで初期化し、次元圧縮行列CのS*列による部分行列C(S*)に、式(121)により求めたCS*を代入することで次元圧縮行列Cを生成する。例えば、最適化問題解決装置100は、ゼロで初期化した次元圧縮行列Cの列のうち、集合S*に含まれる各添字に対応する列に、式(121)により求めたCS*を代入することで次元圧縮行列Cを生成する。 The dimensionally compressed matrix C (dimensional compression matrix C) to be finally obtained is a matrix in which the column components other than the S * column components become zero vectors. Therefore, the optimization problem solving device 100 first initializes the dimensional compression matrix C to zero, and then sets the C S * obtained by the equation (121) in the submatrix C (S * ) of the dimensional compression matrix C by the S * columns. By substituting, the dimensional compression matrix C is generated. For example, the optimization problem solving device 100 substitutes C S * obtained by Eq. (121) into the column corresponding to each subscript included in the set S * among the columns of the dimensional compression matrix C initialized with zero. By doing so, the dimension compression matrix C is generated.
[2-5-4.圧縮センシング最適化のフロー例]
 次に、図15を用いて、圧縮センシング最適化のフローについて説明する。図15は、圧縮センシング最適化処理の手順を示すフローチャートである。図15は、イジングマシン10を含む最適化問題解決システム1によるL0スパースモデリングのフローの例である。以下では、最適化問題解決装置100を処理主体とする場合を一例として示すが、最適化問題解決装置100に限らず、最適化問題解決システム1に含まれるいずれの装置であってもよい。
[2-5-4. Flow example of compressed sensing optimization]
Next, the flow of compressed sensing optimization will be described with reference to FIG. FIG. 15 is a flowchart showing the procedure of the compressed sensing optimization process. FIG. 15 is an example of the flow of L0 sparse modeling by the optimization problem solving system 1 including the Ising machine 10. In the following, a case where the optimization problem solving device 100 is the main processing element is shown as an example, but the device is not limited to the optimization problem solving device 100, and may be any device included in the optimization problem solving system 1.
 図15に示すように、最適化問題解決装置100は、非スパース観測行列を取得する(ステップS201)。ステップS201は、上記式(90)等に対応する処理である。 As shown in FIG. 15, the optimization problem solving device 100 acquires a non-sparse observation matrix (step S201). Step S201 is a process corresponding to the above formula (90) and the like.
 最適化問題解決装置100は、観測の取捨選択の組合せ最適化パラメータを取得する(ステップS202)。最適化問題解決装置100は、組合せ最適化の定式化における係数行列を抽出する。ステップS202では、前述した圧縮センシングの最適化からQUBO問題、イジングモデルへの定式化までの処理を行う。ステップS202は、上記式(104)や式(106)等に対応する処理である。 The optimization problem solving device 100 acquires combinatorial optimization parameters for selection of observations (step S202). The optimization problem solving device 100 extracts a coefficient matrix in the formulation of combinatorial optimization. In step S202, processing from the optimization of the compressed sensing described above to the QUABO problem and the formulation into the Ising model is performed. Step S202 is a process corresponding to the above equation (104), equation (106), and the like.
 最適化問題解決装置100は、最適化パラメータを組合せ最適化マシンに送信する(ステップS203)。最適化問題解決装置100は、組合せ最適化マシンから最適化結果を受信する(ステップS204)。すなわち、最適化問題解決システム1は、組合せ最適化マシンであるイジングマシン10により最適化された組合せを得る。このように、最適化問題解決システム1は、イジングマシン10を用いることで、探索効率を高め高速な圧縮次元の探索を実現する。 The optimization problem solving device 100 combines the optimization parameters and sends them to the optimization machine (step S203). The optimization problem solving device 100 receives the optimization result from the combinatorial optimization machine (step S204). That is, the optimization problem solving system 1 obtains a combination optimized by the Ising machine 10, which is a combinatorial optimization machine. As described above, the optimization problem solving system 1 uses the Ising machine 10 to improve the search efficiency and realize a high-speed search of the compression dimension.
 最適化問題解決装置100は、観測選択・合成行列を生成する(ステップS205)。最適化問題解決装置100は、次元の組合せ情報をもとに次元の取捨選択を示す選択次元の情報と合成の行列を生成する。例えば、最適化問題解決装置100は、選択次元を示す集合Sを観測選択の情報として生成する。また、例えば、最適化問題解決装置100は、次元圧縮行列Cを合成行列として生成する。ステップS202は、上記式(98)や式(100)等に対応する処理である。最適化問題解決装置100は、観測選択・合成行列を記憶する(ステップS206)。最適化問題解決装置100は、選択した次元の情報と合成行列とを記憶する。 The optimization problem solving device 100 generates an observation selection / synthesis matrix (step S205). The optimization problem solving device 100 generates a matrix of selection dimension information and composition indicating the selection of dimensions based on the combination information of dimensions. For example, the optimization problem solving device 100 generates a set S indicating a selection dimension as information for observation selection. Further, for example, the optimization problem solving device 100 generates the dimensional compression matrix C as a composite matrix. Step S202 is a process corresponding to the above equation (98), equation (100), and the like. The optimization problem solving device 100 stores the observation selection / synthesis matrix (step S206). The optimization problem solving device 100 stores the information of the selected dimension and the synthetic matrix.
[2-5-5.圧縮センシング最適化のプログラム例]
 ここから、図16~図18を用いて、圧縮センシング最適化のプログラム(関数)例を示す。なお、図16~図18の圧縮センシング最適化のプログラムにおいて、図10~図12のL0スパースモデリングのプログラムと同様の点等については適宜説明を省略する。図16は、圧縮センシング最適化処理のプログラムの一例を示す図である。具体的には、図16は、圧縮センシング最適化処理の全体プログラムの一例であるプログラムPG21を示す。
[2-5-5. Compressed sensing optimization program example]
From here, an example of a compressed sensing optimization program (function) is shown with reference to FIGS. 16 to 18. In the compressed sensing optimization program of FIGS. 16 to 18, the same points as the L0 sparse modeling program of FIGS. 10 to 12 will be omitted as appropriate. FIG. 16 is a diagram showing an example of a compressed sensing optimization processing program. Specifically, FIG. 16 shows a program PG21 which is an example of the entire program of the compressed sensing optimization process.
 図16に示すプログラムPG21は、主に以下のブロックで構成される。
・スピンを生成して、目的関数を記述
・目的関数からイジングパラメータを抽出
・イジングパラメータをイジングマシンに送信して、最適スピン配置を受信
・最適スピン変数から、次元選択行列を取得
The program PG21 shown in FIG. 16 is mainly composed of the following blocks.
-Generate spins and describe the objective function-Extract the Ising parameter from the objective function-Send the Ising parameter to the Ising machine and receive the optimal spin arrangement-Get the dimension selection matrix from the optimal spin variable
 例えば、プログラムPG21の4行目の関数「sparse_observation(A,s,lambda=xxx)」は、図17に示すように、L0スパースモデリングの目的関数を計算する。 For example, the function "sparse_observation (A, s, lambda = xxx)" on the 4th line of the program PG21 calculates the objective function of L0 sparse modeling as shown in FIG.
 図17は、イジングモデルの目的関数を生成するプログラムの一例を示す図である。図17は、QUBO(イジングモデル)の目的関数を計算する関数の一例あるプログラムPG22を示す。図17に示す関数「sparse_observation(A,s,lambda)」は、図17の全体プログラムPG21で呼び出され、目的関数(図16及び図17中のlossに対応)を生成する。 FIG. 17 is a diagram showing an example of a program that generates an objective function of the Ising model. FIG. 17 shows a program PG22 which is an example of a function for calculating an objective function of a QUA (Ising model). The function "sparse_observation (A, s, lambda)" shown in FIG. 17 is called by the entire program PG21 of FIG. 17 to generate an objective function (corresponding to loss in FIGS. 16 and 17).
 図17に示すプログラムPG22は、主に以下のブロックで構成される。
・スピン変数を使って、観測次元の取捨を表すバイナリ変数を作る
・使う次元の個数が増えると大きくなる目的関数を作る
・スパース観測の行列が単位行列から乖離すると大きくなるペナルティを作る
・目的関数とペナルティを足して最終的な目的関数を得る
The program PG22 shown in FIG. 17 is mainly composed of the following blocks.
-Create a binary variable that represents the selection of observation dimensions using spin variables-Create an objective function that increases as the number of dimensions used increases-Create a penalty that increases when the sparse observation matrix deviates from the identity matrix-Objective function And the penalty to get the final objective function
 例えば、プログラムPG22の2行目の関数「Fnorm(B)」は、フロべニウスノルムであり、使う次元の個数を計算する。例えば、プログラムPG22の3行目の関数「matmul(A.t(),matmul(B,A))」は、スパース観測のペナルティを求める。例えば、プログラムPG22の4行目の関数「UnitMatrix(M)-penalty」は、観測行列の単位行列からの乖離を求める。例えば、プログラムPG22の5行目の式は、目的関数にペナルティを追加する。 For example, the function "Fnorm (B)" on the second line of the program PG22 is a Frobenius norm, and calculates the number of dimensions to be used. For example, the function "matmul (A.t (), matmul (B, A))" on the third line of the program PG22 finds a penalty for sparse observation. For example, the function "UnitMatrix (M) -penalty" on the fourth line of the program PG22 finds the deviation of the observation matrix from the unit matrix. For example, the expression on line 5 of program PG22 adds a penalty to the objective function.
 なお、パラメータλ(図17中のlambdaに対応)は、0.5から1程度に設定してもよいし、スピン(図17中のsに対応)とパラメータλ(図17中のlambdaに対応)の交互最適化をしてラグランジェ未定乗数法のように求めてもよい。 The parameter λ (corresponding to lambda in FIG. 17) may be set to about 0.5 to 1, or the spin (corresponding to s in FIG. 17) and the parameter λ (corresponding to lambda in FIG. 17). Alternate optimization may be performed to obtain the Lagrange undetermined multiplier method.
 例えば、プログラムPG1の7行目の関数「dimension_selection(A,s_optimum)」は、図18に示すように、次元選択行列を計算する。 For example, the function "dimension_selection (A, s_optimum)" on the 7th line of the program PG1 calculates the dimension selection matrix as shown in FIG.
 図18は、計測コントロール行列を得るプログラムの一例を示す図である。具体的には、図18は、組合せ変数から計測コントロール行列を得る関数の一例であるプログラムPG23を示す。図18に示す関数「dimension_selection(A,s_optimum)」は、図18の全体プログラムPG1で呼び出され、行列Cを生成する。 FIG. 18 is a diagram showing an example of a program for obtaining a measurement control matrix. Specifically, FIG. 18 shows a program PG23 which is an example of a function for obtaining a measurement control matrix from a combination variable. The function "dimension_selection (A, s_optimum)" shown in FIG. 18 is called by the entire program PG1 of FIG. 18 to generate a matrix C.
 図18に示すプログラムPG23は、主に以下のブロックで構成される。
・選択された行を使って、次元選択・合成の行列を生成する
・行列の対角化などを利用する
The program PG23 shown in FIG. 18 is mainly composed of the following blocks.
-Use the selected rows to select dimensions-Generate a composite matrix-Use diagonalization of the matrix, etc.
 例えば、プログラムPG23の1行目の式は、非スパース観測行列Aの部分行列を生成する。例えば、プログラムPG23の2行目の関数「matmul(As.t(),As)」は、正方行列を生成する。例えば、プログラムPG23の3行目の関数「symmeterize(AsAst)」は、対角化を行う。例えば、プログラムPG23の「D」は対角行列、「P」は直交行列を示す。例えば、プログラムPG23の4行目の関数「sqrt(1/D)」は、逆行列の二乗根を求める。例えば、プログラムPG23の4行目の関数「matmul(Pi,matmul(Cs,P))」は、対角化行列を利用した処理を行う。例えば、プログラムPG23の6行目の関数「ZeroVector()」は、次元選択行列のゼロ成分を生成する。例えば、プログラムPG23の7行目の式は、選択次元に割り当て、次元選択行列を生成する。 For example, the formula in the first row of the program PG23 generates a submatrix of the non-sparse observation matrix A. For example, the function "matmul (As.t (), As)" on the second line of the program PG23 generates a square matrix. For example, the function "symmeterize (AsAst)" on the third line of the program PG23 performs diagonalization. For example, "D" in the program PG23 indicates a diagonal matrix, and "P" indicates an orthogonal matrix. For example, the function "sqrt (1 / D)" on the fourth line of the program PG23 finds the square root of the inverse matrix. For example, the function "matmul (Pi, matmul (Cs, P))" on the fourth line of the program PG23 performs processing using the diagonalization matrix. For example, the function "ZeroVector ()" on the sixth line of the program PG23 generates the zero component of the dimension selection matrix. For example, the formula on the 7th line of the program PG23 is assigned to the selection dimension to generate a dimension selection matrix.
 例えば、最適化問題解決装置100は、図16~図18に示すようなプログラム(関数)及び、各プログラムにより呼び出されるプログラム(関数)を関数情報記憶部122(図13参照)に記憶し、各プログラムを用いて処理を実行する。 For example, the optimization problem solving device 100 stores a program (function) as shown in FIGS. 16 to 18 and a program (function) called by each program in the function information storage unit 122 (see FIG. 13), and each of them is stored. Execute the process using the program.
[3.他の実施例]
 また、上述した最適化問題解決システム1は、種々の用途に利用されてもよい。以下、最適化問題解決システム1が適用される実施例について説明する。
[3. Other Examples]
Further, the optimization problem solving system 1 described above may be used for various purposes. Hereinafter, an embodiment to which the optimization problem solving system 1 is applied will be described.
[3-1.第2の実施例(RFID)]
 最適化問題解決システム1は、NFC(Near Field Communication)を用いたRFID(Radio Frequency Identification)に適用されてもよい。この点の一例を、図19を参照しつつ簡単に説明する。図19は、最適化問題解決システムを適用した第2の実施例を示す図である。図19中の利用シーンUC1は、最適化問題解決システム1がRFIDに用いられた場合の利用シーンを示す。
[3-1. Second Example (RFID)]
The optimization problem solving system 1 may be applied to RFID (Radio Frequency Identification) using NFC (Near Field Communication). An example of this point will be briefly described with reference to FIG. FIG. 19 is a diagram showing a second embodiment to which the optimization problem solving system is applied. The usage scene UC1 in FIG. 19 shows a usage scene when the optimization problem solving system 1 is used for RFID.
 まず、RFIDについて簡単に記載する。RFIDは、リーダと呼ばれるホスト側の通信装置が、所定の周波数の電波を発して、周辺の端末(カード、タグ)を検出する技術である。通常、端末側はリーダからの電波に対して、固有の識別情報を重畳した反射波を返し、リーダは受信した反射波から周辺の端末を識別する。 First, a brief description of RFID. RFID is a technology in which a communication device on the host side called a reader emits radio waves of a predetermined frequency to detect peripheral terminals (cards, tags). Normally, the terminal side returns a reflected wave in which unique identification information is superimposed on the radio wave from the reader, and the reader identifies peripheral terminals from the received reflected wave.
 ここで、周辺の端末が複数ある状況を考える。通常のRFIDでは、規格に定められたプロトコルに従って、周辺の端末が各々順番に、リーダと通信を確立してそれぞれの識別情報を返答することを繰り返す。しかし、このような時分割による識別情報の場合、端末が増えてくるとすべての端末を設定したタイムアウト時間までに検出することができなくなることがある。 Here, consider the situation where there are multiple terminals in the vicinity. In a normal RFID, peripheral terminals in turn repeatedly establish communication with a reader and return their respective identification information according to a protocol defined in a standard. However, in the case of such time-division identification information, as the number of terminals increases, it may not be possible to detect all terminals by the set timeout time.
 そこで、例えばリーダからのポーリングに対して、端末が同時に(同じクロックタイミングで)識別情報を返答することを考える。この場合、リーダが受信する端末からの識別情報は、それぞれの端末からの反射波の重ね合わせになっている。図19の例では、タグ#1~#9の各々に対応する9つの端末のうち、タグ#1、#2、#9の3つの端末からの識別情報をリーダが受信する場合を示す。 Therefore, for example, consider that the terminal responds to the polling from the reader at the same time (at the same clock timing) with the identification information. In this case, the identification information received by the reader from the terminals is a superposition of the reflected waves from the respective terminals. In the example of FIG. 19, a reader receives identification information from three terminals of tags # 1, # 2, and # 9 among nine terminals corresponding to each of tags # 1 to # 9.
 タグjの識別情報をujのようにD次元ベクトルで表す。つまり識別情報はDビットであるとする。すると、リーダで受信するタグjからの信号強度をDビット分をまとめて表すと、ujを定数倍したzjujとなる。ただし、zjは、タグjがリーダの検出範囲(図19ではタグ#1、#2、#9を囲む円)内にあれば0ではない値であり、検出範囲外ならば0である。なお、ujは情報を表すようにビット列であるが便宜的に±1の符号列としておく。 The identification information of the tag j is represented by a D-dimensional vector like u j. That is, it is assumed that the identification information is the D bit. Then, if the signal strength from the tag j received by the reader is collectively represented by D bits, it becomes z j u j obtained by multiplying u j by a constant. However, z j is a value that is not 0 if the tag j is within the detection range of the reader (the circle surrounding the tags # 1, # 2, and # 9 in FIG. 19), and is 0 if it is outside the detection range. Although u j is a bit string to represent information, it is set as a sign string of ± 1 for convenience.
 検出範囲内にあるタグが、N個の全てのタグのうちのごく一部だとすると、ベクトルzはスパースベクトルである。N個の全てのタグの識別情報があらかじめ登録されているとするとして、これらを列に並べた行列Uを考える。すなわち、以下の式(122)である。 If the tags within the detection range are only a small part of all N tags, the vector z is a sparse vector. Assuming that the identification information of all N tags is registered in advance, consider a matrix U in which these are arranged in a column. That is, it is the following equation (122).
Figure JPOXMLDOC01-appb-M000122
Figure JPOXMLDOC01-appb-M000122
 例えば、タグの識別情報のビット長が5で、タグの全個数が6であれば、行列Uは以下の式(123)のような行列になる。 For example, if the bit length of the tag identification information is 5 and the total number of tags is 6, the matrix U becomes a matrix as shown in the following equation (123).
Figure JPOXMLDOC01-appb-M000123
Figure JPOXMLDOC01-appb-M000123
 式(123)の行列Uとベクトルzを使って、リーダが受信する信号強度はx=Uzで表される。このとき、リーダによるRFIDの同時読み取りのタスクは、以下の式(124)、(125)のように定式化される。 Using the matrix U and the vector z in equation (123), the signal strength received by the reader is represented by x = Uz. At this time, the task of simultaneous reading of RFID by the reader is formulated as the following equations (124) and (125).
Figure JPOXMLDOC01-appb-M000124
Figure JPOXMLDOC01-appb-M000124
Figure JPOXMLDOC01-appb-M000125
Figure JPOXMLDOC01-appb-M000125
 ここで、式(125)のPは信号強度が0でないタグの集合である。この問題は、L0スパースモデリングの問題であるので、組合せ変数で表す最適化として、以下の式(126)の定式化ができる。 Here, P in equation (125) is a set of tags whose signal strength is not 0. Since this problem is a problem of L0 sparse modeling, the following equation (126) can be formulated as an optimization represented by a combination variable.
Figure JPOXMLDOC01-appb-M000126
Figure JPOXMLDOC01-appb-M000126
 式(126)のBは、前述の例と同様に、スパースベクトルのゼロ、非零を表すバイナリ変数を対角成分にもつ対角行列である。この組合せ最適化の定式化を、イジングモデルに合わせて二次形式にする方法はこれまで説明した方法を踏襲できる。例えば、最適化問題解決装置100は、式(126)のBの次元を削減し二次形式に変換する。 B in equation (126) is a diagonal matrix having binary variables representing zero and non-zero of the sparse vector as diagonal components, as in the above example. The method of converting the formulation of this combinatorial optimization into a quadratic form according to the Ising model can follow the method described so far. For example, the optimization problem solving device 100 reduces the dimension B of the equation (126) and converts it into a quadratic form.
 例えば、I-UTUの絶対値最大の固有値が1より十分小さいという条件では、以下の式(127)のように近似できる。 For example, under the condition that the eigenvalue of the maximum absolute value of IU T U is sufficiently smaller than 1, it can be approximated as the following equation (127).
Figure JPOXMLDOC01-appb-M000127
Figure JPOXMLDOC01-appb-M000127
 式(127)は、バイナリ組合せ変数の二次形式になっていることから、バイナリ変数をスピン変数に変換すれば、イジングモデルに埋め込むことは容易になる。なお、式(122)に示す識別情報については適宜の方法により構成する。 Since the equation (127) is in the quadratic form of the binary combination variable, it is easy to embed it in the Ising model by converting the binary variable into a spin variable. The identification information represented by the formula (122) is configured by an appropriate method.
 最適に選択する方法として、上述した圧縮センシング最適化を利用する。以下、簡単のためタグ数を2のべき乗で表され、圧縮なしの観測行列Aをアダマール行列とする場合を一例として説明する。このとき、行ベクトルは直交するので、観測行列Aの行の選択非選択を表す組合せ変数の最適化として、以下の式(128)のように定式化される。 The above-mentioned compressed sensing optimization is used as the optimum selection method. Hereinafter, for the sake of simplicity, the case where the number of tags is expressed by a power of 2 and the observation matrix A without compression is used as the Hadamard matrix will be described as an example. At this time, since the row vectors are orthogonal to each other, it is formulated as the following equation (128) as the optimization of the combination variable representing the selection / non-selection of the rows of the observation matrix A.
Figure JPOXMLDOC01-appb-M000128
Figure JPOXMLDOC01-appb-M000128
 最適化問題解決装置100は、パラメータλを与えられた定数として、第一項のできるだけ圧縮するための項と、第二項の列の相関をできるだけへらす項を調整しながら最適な行の選択を行い、これを用いて識別情報の最適化を行うことができる。 The optimization problem solving device 100 selects the optimum row while adjusting the term for compressing as much as possible in the first term and the term for reducing the correlation between the columns in the second term as a constant given the parameter λ. This can be used to optimize the identification information.
 なお別の最適化方法として、ビット数は一定にした上で、最適な行の選択をする方法もある。この場合、目的関数が変更され、以下の式(129)のような最適化問題となる。 As another optimization method, there is also a method of selecting the optimum line after keeping the number of bits constant. In this case, the objective function is changed and becomes an optimization problem as shown in the following equation (129).
Figure JPOXMLDOC01-appb-M000129
Figure JPOXMLDOC01-appb-M000129
 この場合であっても、バイナリ変数の二次形式の範囲で最適化がなされるので、バイナリ変数をスピン変数に変換すれば、イジングモデルに埋め込むことができる。 Even in this case, optimization is performed within the range of the quadratic form of the binary variable, so if the binary variable is converted to a spin variable, it can be embedded in the Ising model.
[3-2.第3の実施例(第2の実施例の拡張)]
 最適化問題解決システム1は、第2の実施例を拡張し、スペクトラム拡散通信やCDMA(Code Division Multiple Access)である符号多重接続等に適用されてもよい。この点の一例を、以下簡単に説明する。
[3-2. Third Example (extension of the second embodiment)]
The optimization problem solving system 1 may extend the second embodiment and be applied to spread spectrum communication, code division multiple access (CDMA), and the like. An example of this point will be briefly described below.
 スペクトラム拡散通信や符号多重接続等への拡張では、タグの識別情報ujは拡散符号となり、タグの添字jは多重化しているチャンネルに一つと考える。 In the extension to spread spectrum communication, code multiplex connection, etc., the tag identification information u j is considered to be a spread code, and the tag subscript j is considered to be one for the multiplexed channel.
 スパース解z*のj番目の成分zjの符号は、多重化している情報の符号に対応して、周期的に変化する。そこで、zjの符号を読み取れば、チャンネルjで送信した情報を読み取ることができる。このスペクトラム拡散はアップリンク時に基地局側で同時に端末からの情報を受信するために使うことができる。 The sign of the j-th component z j of the sparse solution z * changes periodically according to the sign of the information being multiplexed. Therefore, by reading the code of z j , the information transmitted on channel j can be read. This spread spectrum can be used to receive information from the terminal at the same time on the base station side at the time of uplink.
 基地局側では、すべての拡散符号を知っているものとして、また、同時に使われるチャネルが少ないとして、スパースモデリングでスパース解z*を求め、各成分の符号からチャネルごとに送信している情報を読み取る。なお、拡散符号の最適化については、第2の実施例に示したRFIDの識別情報と同様の方法を取れば良いため、説明を省略する。 On the base station side, assuming that all diffusion codes are known and that few channels are used at the same time, sparse modeling is used to obtain the sparse solution z *, and the information transmitted for each channel from the code of each component is obtained. read. As for the optimization of the diffusion code, the same method as the RFID identification information shown in the second embodiment may be used, and thus the description thereof will be omitted.
[3-3.第4の実施例(ターゲット検出)]
 最適化問題解決システム1は、アレイレーダやライダによるターゲットの検出に適用されてもよい。例えば、車載レーダやライダで、車の前方にある障害物の検知に最適化問題解決システム1が用いられてもよい。この点の一例を、図20~図22を参照しつつ簡単に説明する。図20~22は、最適化問題解決システムを適用した第4の実施例を示す図である。
[3-3. Fourth Example (Target Detection)]
The optimization problem solving system 1 may be applied to the detection of a target by an array radar or a rider. For example, an optimization problem solving system 1 may be used for detecting an obstacle in front of a vehicle with an in-vehicle radar or rider. An example of this point will be briefly described with reference to FIGS. 20 to 22. 20 to 22 are diagrams showing a fourth embodiment to which the optimization problem solving system is applied.
 図20中の利用シーンUC2は、最適化問題解決システム1がターゲット検出に用いられた場合の利用シーンを示す。具体的には、図20中の利用シーンUC2は、車の前方の方位角-90度から90度方向にある障害物のイメージ図であり、様々な奥行き、移動速度を持った障害物がある場合を一例として示す。 The usage scene UC2 in FIG. 20 shows a usage scene when the optimization problem solving system 1 is used for target detection. Specifically, the usage scene UC2 in FIG. 20 is an image diagram of an obstacle in the direction of the azimuth angle -90 degrees to 90 degrees in front of the vehicle, and when there is an obstacle having various depths and moving speeds. Is shown as an example.
 レーダを使って、障害物(ターゲット)からの到来波(レーダーの反射波を到来波)を計測すると、その障害物(ターゲット)までの距離、角度、そして、速度成分がわかる。このうち、あらかじめ、距離、速度が所定の範囲にある到来波だけを選択すると、同じ距離、同じ速度で移動するターゲットだけが選ばれるので、ターゲットの位置は、到来波の角度成分を求めれば良い。 When the incoming wave from an obstacle (target) (the incoming wave reflected by the radar) is measured using a radar, the distance, angle, and velocity component to the obstacle (target) can be known. Of these, if only the incoming wave whose distance and speed are within a predetermined range is selected in advance, only the target moving at the same distance and the same speed is selected. Therefore, the target position may be obtained by obtaining the angle component of the incoming wave. ..
 スパースモデリングによるアレイレーダの受信信号からのターゲット方位角推定については、例えば下記の文献に開示されている。
 ・A Sparse Signal Reconstruction Perspective for Source Localization With Sensor Arrays, Dmitry Malioutov et al. <http://ssg.mit.edu/~willsky/publ_pdfs/175_pub_IEEE.pdf>
The estimation of the target azimuth angle from the received signal of the array radar by sparse modeling is disclosed in the following documents, for example.
・ A Sparse Signal Reconstruction Perspective for Source Localization With Sensor Arrays, Dmitry Malioutov et al. <Http://ssg.mit.edu/~willsky/publ_pdfs/175_pub_IEEE.pdf>
 上記文献の方法に従いスパースモデリングを使う場合、到来波の角度について、前方の-90度から90度までの180度をたとえば1度刻みのグリッドに離散化する。すると、図21の利用シーンUC21は、ように、スパースなベクトル(ターゲットがあるところは非零成分、ターゲットがいないところは零)になる。 When using sparse modeling according to the method in the above document, the angle of the incoming wave is discretized from -90 degrees to 90 degrees in front to a grid of, for example, in 1 degree increments. Then, the usage scene UC21 in FIG. 21 becomes a sparse vector (a non-zero component where there is a target and zero where there is no target).
 このスパースなベクトルから生成される到来波の情報を複数のアンテナをもつアレイレーダで受信する。このとき、複数のアンテナで受信する到来波の受信信号を生成する観測行列(方向行列)がわかれば、スパースモデリングを使ってアンテナの個数よりも高い解像度の方位角でターゲットの検出ができる。 The information of the incoming wave generated from this sparse vector is received by the array radar having multiple antennas. At this time, if the observation matrix (direction matrix) that generates the received signal of the incoming wave received by a plurality of antennas is known, the target can be detected at an azimuth angle having a resolution higher than the number of antennas by using sparse modeling.
 このように、スパースモデリングを使って、比較的少ないアンテナ数で、より高い解像度のグリッド方位角におけるターゲットの検出をするのが、レーダにおける到来波の方位角の超解像である。 In this way, using sparse modeling to detect a target at a higher resolution grid azimuth with a relatively small number of antennas is the super-resolution of the azimuth of the incoming wave in the radar.
 図22の利用シーンUC23は、は、上記の内容を二次元的なイメージで示す。図22の利用シーンUC23に関して、スパースモデリングで扱うためには、レーダアレイの受信信号を生成する観測行列と到来波の受信信号情報が必要である。 The usage scene UC23 in FIG. 22 shows the above contents in a two-dimensional image. Regarding the usage scene UC23 of FIG. 22, in order to handle it in sparse modeling, an observation matrix that generates a received signal of the radar array and received signal information of the incoming wave are required.
 アレイレーダの場合、以下の式(130)、(131)に示すように、観測行列Uは、到来角θkに関するステアリングベクトルu(θk)を列方向に並べた行列として表される。 In the case of an array radar, as shown in the following equations (130) and (131), the observation matrix U is expressed as a matrix in which the steering vectors u (θ k ) with respect to the arrival angle θ k are arranged in the column direction.
Figure JPOXMLDOC01-appb-M000130
Figure JPOXMLDOC01-appb-M000130
Figure JPOXMLDOC01-appb-M000131
Figure JPOXMLDOC01-appb-M000131
 ここで、式(130)のMは、角度の離散グリッド数に対応し、図22であれば180である。また、式(131)のNはアレイレーダの受信アンテナ数であり、例えば10である。式(131)のdkは、図で右端のアンテナからかぞえてk番目のアンテナまでの距離であり、エリアシングなどを少なくするために、例えば以下の式(132)などと設定することが多い。 Here, M in the equation (130) corresponds to the number of discrete grids of angles, and is 180 in FIG. 22. Further, N in the equation (131) is the number of receiving antennas of the array radar, for example, 10. The d k of the equation (131) is the distance from the rightmost antenna to the kth antenna in the figure, and is often set as the following equation (132) in order to reduce aliasing. ..
Figure JPOXMLDOC01-appb-M000132
Figure JPOXMLDOC01-appb-M000132
 このとき到来波の受信信号xは、各グリッドに関する零非零成分のベクトルzと、観測行列Aを用いて、以下の式(133)でモデル化される。 At this time, the received signal x of the incoming wave is modeled by the following equation (133) using the vector z of the zero-non-zero component for each grid and the observation matrix A.
Figure JPOXMLDOC01-appb-M000133
Figure JPOXMLDOC01-appb-M000133
 すると、スパースモデリング(L1スパースモデリング)によるレーダの到来各推定の問題は以下の式(134)のように定式化される。 Then, the problem of each estimation of the arrival of the radar by sparse modeling (L1 sparse modeling) is formulated as the following equation (134).
Figure JPOXMLDOC01-appb-M000134
Figure JPOXMLDOC01-appb-M000134
 このように従来手法で、到来波の受信信号を一回受信して、そこからターゲットの方位角を推定する場合は、通常のL1スパースモデリング(Lassoともいう)が用いられていた。 In this way, when the conventional method receives the received signal of the incoming wave once and estimates the azimuth angle of the target from it, normal L1 sparse modeling (also called Lasso) has been used.
 一方で、本開示では、L1スパースモデリングが真の解に到達する条件が、L0スパースモデリングが真の解に到達する条件より狭いということから、この場合にも以下の式(135)のようにL0スパースモデリングを採用する。 On the other hand, in the present disclosure, the condition for L1 sparse modeling to reach the true solution is narrower than the condition for L0 sparse modeling to reach the true solution. L0 sparse modeling is adopted.
Figure JPOXMLDOC01-appb-M000135
Figure JPOXMLDOC01-appb-M000135
 従来の方法が、L1ノルム||z||を最小化する問題であるのに対して、第4の実施例では、に示すL0ノルム||z||0を最小化する問題となっている。 Whereas the conventional method is a problem of minimizing the L1 norm || z || 1 , in the fourth embodiment, it is a problem of minimizing the L0 norm || z || 0 shown in. There is.
 なお、上記のL0スパースモデリング及びL1スパースモデリングでは、観測行列や受信信号、スパース解が複素数である。複素空間では、行列やベクトルの転置の代わりに、エルミート共役を用いる。この結果、最適化問題解決装置100は、L0スパースモデリングを組合せ変数で表す最適化として、以下の式(136)の定式化(転置の記号Tがエルミート共役の記号†になっている)を行うことができる。 In the above L0 sparse modeling and L1 sparse modeling, the observation matrix, the received signal, and the sparse solution are complex numbers. In complex space, use Hermitian conjugates instead of transpose matrices and vectors. As a result, the optimization problem solving device 100 performs the formulation of the following equation (136) (the transpose symbol T is the symbol of Elmeat conjugate †) as an optimization that expresses L0 sparse modeling as a combination variable. be able to.
Figure JPOXMLDOC01-appb-M000136
Figure JPOXMLDOC01-appb-M000136
 式(136)のBは、前述の例と同様に、スパースベクトルのゼロ、非零を表すバイナリ変数を対角成分にもつ対角行列である。 B in equation (136) is a diagonal matrix having binary variables representing zero and non-zero of the sparse vector as diagonal components, as in the above example.
 この組合せ最適化の定式化を、イジングモデルに合わせて二次形式にする方法はこれまで説明した方法を踏襲できる。例えば、最適化問題解決装置100は、式(136)のBの次元を削減し二次形式に変換する。 The method of converting this combinatorial optimization formulation into a quadratic form according to the Ising model can follow the method described so far. For example, the optimization problem solving device 100 reduces the dimension B of the equation (136) and converts it into a quadratic form.
 例えば、I-AAの絶対値最大の固有値が1より十分小さいという条件では、以下の式(137)のように近似できる。 For example, under the condition that the eigenvalue of the maximum absolute value of IA † A is sufficiently smaller than 1, it can be approximated by the following equation (137).
Figure JPOXMLDOC01-appb-M000137
Figure JPOXMLDOC01-appb-M000137
 式(137)は、バイナリ組合せ変数の二次形式になっていることから、バイナリ変数をスピン変数に変換すれば、イジングモデルに埋め込むことは容易になる。 Since the equation (137) is in the quadratic form of the binary combination variable, it is easy to embed it in the Ising model by converting the binary variable into a spin variable.
 なお、上記文献のレーダの超解像では、複数のスナップショットで超解像をすることも考慮している。 Note that the radar super-resolution in the above document also considers super-resolution with multiple snapshots.
 この場合、以下の式(138)に示す単独の受信信号xとその解zを、スナップショット数分だけ列方向に並べた行列X、Zを用いて、受信信号は、以下の式(139)で表される。 In this case, the received signal is the following equation (139) using the matrices X and Z in which the single received signal x and its solution z shown in the following equation (138) are arranged in the column direction by the number of snapshots. It is represented by.
Figure JPOXMLDOC01-appb-M000138
Figure JPOXMLDOC01-appb-M000138
Figure JPOXMLDOC01-appb-M000139
Figure JPOXMLDOC01-appb-M000139
 上記文献では、実際にはスナップショット数分の受信信号を特異値分解して、絶対値の大きな特異値に対応する基底ベクトルを用いた受信信号成分をモデル化している。具体的には、以下の式(140)のように特異値分解して、特異値の絶対値の大きいものから順にK個の基底を選び、以下の式(141)とする。 In the above document, the received signal for the number of snapshots is actually decomposed into singular values, and the received signal component using the basis vector corresponding to the singular value having a large absolute value is modeled. Specifically, the singular value is decomposed as in the following equation (140), and K bases are selected in order from the one having the largest absolute value of the singular value to obtain the following equation (141).
Figure JPOXMLDOC01-appb-M000140
Figure JPOXMLDOC01-appb-M000140
Figure JPOXMLDOC01-appb-M000141
Figure JPOXMLDOC01-appb-M000141
 Zについても列方向にスナップショット数分の代わりにK個並べた行列ZSVとする。すると、L1スパースモデリングの問題は、以下の式(142)のようにグループLassoで表現される。 For Z as well, let K be a matrix Z SV in which K are arranged in the column direction instead of the number of snapshots. Then, the problem of L1 sparse modeling is expressed by the group Lasso as in the following equation (142).
Figure JPOXMLDOC01-appb-M000142
Figure JPOXMLDOC01-appb-M000142
 ただし、以下の数(143)は、zSVのi行によるベクトルのL2ノルムである。 However, the following number (143) is the L2 norm of the vector with i rows of z SV.
Figure JPOXMLDOC01-appb-M000143
Figure JPOXMLDOC01-appb-M000143
 式(142)をL0スパースモデリングで表すと、以下の式(144)で表すことができる。 When the equation (142) is expressed by L0 sparse modeling, it can be expressed by the following equation (144).
Figure JPOXMLDOC01-appb-M000144
Figure JPOXMLDOC01-appb-M000144
 このようなグループの要素を加味したL0スパースモデリングは、以下の式(145)のように表される。 L0 sparse modeling that takes into account the elements of such a group is expressed by the following equation (145).
Figure JPOXMLDOC01-appb-M000145
Figure JPOXMLDOC01-appb-M000145
 式(145)のXはスナップショットをそのまま並べたものでも、あるいは、特異値の絶対値の大きいものから順にK個選んだXSVであっても良い。 X in the equation (145) may be an arrangement of snapshots as they are, or may be an X SV in which K pieces are selected in order from the one having the largest absolute value of the singular value.
 また、I-AAの絶対値最大の固有値が1より十分小さいという条件では、以下の式(146)のように近似できる。 Further, under the condition that the eigenvalue of the maximum absolute value of IA † A is sufficiently smaller than 1, it can be approximated by the following equation (146).
Figure JPOXMLDOC01-appb-M000146
Figure JPOXMLDOC01-appb-M000146
 この近似では、目的関数がバイナリ変数の二次形式になっており、バイナリ変数をスピン変数に変換することでイジングモデルに埋め込むことができる。このように第4の実施例では、実数空間のみならず複素数空間への拡張でき、解についてグループでの制約を課すように拡張することができる。なお、アレイレーダの数については適宜の方法により決定(設定)すればよい。アレイレーダを最適に選択する方法は、上述の圧縮センシング最適化を利用する。 In this approximation, the objective function is in the quadratic form of the binary variable, and it can be embedded in the rising model by converting the binary variable into a spin variable. Thus, in the fourth embodiment, it is possible to extend not only to real space but also to complex space, and it is possible to extend so as to impose group constraints on the solution. The number of array radars may be determined (set) by an appropriate method. The method for optimally selecting an array radar utilizes the compressed sensing optimization described above.
[3-4.第5の実施例(画像診断)]
 最適化問題解決システム1は、MRIなどの画像診断の分野に適用されてもよい。この点についてMRIを一例として、図23を参照しつつ簡単に説明する。なお、最適化問題解決システム1は、MRIに限らず、様々な画像診断に適用されてもよい。図23は、最適化問題解決システムを適用した第5の実施例を示す図である。図23の最適化問題解決システム1には、MRI装置500が含まれる。
[3-4. Fifth Example (Image Diagnosis)]
The optimization problem solving system 1 may be applied to the field of diagnostic imaging such as MRI. This point will be briefly described with reference to FIG. 23, using MRI as an example. The optimization problem solving system 1 is not limited to MRI, and may be applied to various diagnostic imaging. FIG. 23 is a diagram showing a fifth embodiment to which the optimization problem solving system is applied. The optimization problem solving system 1 of FIG. 23 includes an MRI apparatus 500.
 図23に示すように、最適化問題解決システム1では、MRIなどによる圧縮センシングで用いることができる。MRIの圧縮センシングについては、以下の文献が開示されており、詳細な説明は省略する。
 ・Sparse MRI: The application of compressed sensing for rapid MR imaging, Michael Lustig et al. <https://onlinelibrary.wiley.com/doi/epdf/10.1002/mrm.21391>
As shown in FIG. 23, in the optimization problem solving system 1, it can be used for compressed sensing by MRI or the like. The following documents are disclosed regarding compressed sensing of MRI, and detailed description thereof will be omitted.
・ Sparse MRI: The application of compressed sensing for rapid MR imaging, Michael Lustig et al. <Https://onlinelibrary.wiley.com/doi/epdf/10.1002/mrm.21391>
 MRI装置500は、制御用コンピュータ510と、ラジオ波送受信装置520と、検出器部530とを有し、核磁気共鳴現象を利用して生体内の内部の情報を画像にする画像診断装置である。例えば、制御用コンピュータ510は、ラジオ波送受信装置520や検出器部530の各構成を制御する。例えば、ラジオ波送受信装置520は、センシングを行う、ラジオ波の送受信機である。検出器部530は、磁石、検出コイル、磁場勾配コイル等の構成を有する。MRI装置500は、ディスプレイ等の表示部(表示装置)や、マウスやキーボード等の入力部(入力装置)を有してもよい。なお、MRI装置500は、いわゆる磁気共鳴画像診断装置(MRI)であるため詳細な説明は省略する。 The MRI apparatus 500 is an diagnostic imaging apparatus that includes a control computer 510, a radio wave transmission / reception device 520, and a detector unit 530, and uses a nuclear magnetic resonance phenomenon to image information inside the living body. .. For example, the control computer 510 controls each configuration of the radio wave transmission / reception device 520 and the detector unit 530. For example, the radio wave transmitter / receiver 520 is a radio frequency transmitter / receiver that performs sensing. The detector unit 530 has a configuration such as a magnet, a detection coil, and a magnetic field gradient coil. The MRI apparatus 500 may have a display unit (display device) such as a display and an input unit (input device) such as a mouse or a keyboard. Since the MRI apparatus 500 is a so-called magnetic resonance imaging (MRI), detailed description thereof will be omitted.
 ここから、MRIの全体像の中でL0スパースモデリングと、圧縮の最適化がどのブロックでなされるかを説明する。まず、最適化問題解決システム1は、圧縮の最適化は観測を間引くことに用いられる。図23の最適化問題解決システム1では、MRI装置500の制御用コンピュータ510が最適化問題解決システム1のブロックB6に示す計測コントローラとして機能し、MRI装置500のラジオ波送受信装置520がブロックB7に示すセンサとして機能する。第5の実施例では、センサ50は最適化問題解決システムに含まれなくてもよい。 From here, I will explain in which block L0 sparse modeling and compression optimization are performed in the overall picture of MRI. First, in the optimization problem solving system 1, compression optimization is used to thin out observations. In the optimization problem solving system 1 of FIG. 23, the control computer 510 of the MRI device 500 functions as the measurement controller shown in the block B6 of the optimization problem solving system 1, and the radio wave transmission / reception device 520 of the MRI device 500 is in the block B7. Functions as an indicator sensor. In the fifth embodiment, the sensor 50 does not have to be included in the optimization problem solving system.
 計測コントローラとして機能する制御用コンピュータ510は、あらかじめ組合せ最適化マシンを用いて、観測行列の列ベクトルができるだけ相関がなくなるように選択された観測次元の情報にしたがって、計測を間引きながら実現する。 The control computer 510, which functions as a measurement controller, realizes the measurement while thinning out the measurement according to the information of the observation dimension selected so that the column vectors of the observation matrix are as uncorrelated as possible by using the combinatorial optimization machine in advance.
 また、組合せ最適化マシンには、複数のイジングマシン10のうちいずれかを使うが、その選択基準としては、この処理がオフライン的であることから、高速性、リアルタイム性よりも精度が良いことが基準となる。 Further, one of a plurality of Ising machines 10 is used as the combinatorial optimization machine, and the selection criterion is that the processing is offline, so that the accuracy is better than the high speed and the real-time property. It becomes a standard.
 一方、ブロックB7以降の処理は通常L1スパースモデリングを使った圧縮センシングのデータ復元が用いられるが、ここではL0スパースモデリングのスパース解からのデータ復元がなされる。 On the other hand, the data restoration of compressed sensing using L1 sparse modeling is usually used for the processing after block B7, but here, the data restoration from the sparse solution of L0 sparse modeling is performed.
 このL0スパースモデリングは、やはり、イジングマシン10等の組合せ最適化マシンを用いて実現される。この際の基準は、圧縮次元の最適化の場合と異なり、この処理がオンライン的であることから、リアルタイム性が重視される。センサからの情報が次々と入力されるたびに低遅延でデータの復元がなされることを期待しているからである。 This L0 sparse modeling is also realized by using a combinatorial optimization machine such as the Ising machine 10. The standard at this time is different from the case of optimization of the compression dimension, and since this process is online, real-time performance is emphasized. This is because we expect that data will be restored with low delay each time information from the sensor is input one after another.
[3-5.第6の実施例(その他)]
 最適化問題解決システム1の応用先は、上記に限らず、スパースモデリングが用いられる様々なアプリケーションが対象であってもよい。この点を、以下簡単に説明する。
[3-5. Sixth Example (Other)]
The application destination of the optimization problem solving system 1 is not limited to the above, and may be applied to various applications in which sparse modeling is used. This point will be briefly described below.
 例えば、第4の実施例では車載レーダによる障害物検知を一例として示したが、レーダの代わりにライダを用いてもよい。また、レーダを障害物検知以外にも、気象状態の観測、地下や水の観測、航空機(ドローン)や衛星からのリモートセンシングに用いてもよい。 For example, in the fourth embodiment, obstacle detection by an in-vehicle radar is shown as an example, but a rider may be used instead of the radar. In addition to obstacle detection, radar may be used for weather condition observation, underground and water observation, and remote sensing from aircraft (drones) and satellites.
 また、レーダを用いる応用として電波天文台による電波天体観測などでは、例えば、ブラックホールの超解像イメージングなどが知られているが、この際に用いられるスパースモデリングを量子アニーリングやイジングマシンで実現しても良い。 In addition, as an application using radar, for example, super-resolution imaging of black holes is known in radio astronomical observation by radio observatory, but sparse modeling used in this case is realized by quantum annealing and Ising machine. Is also good.
 レーダの方位角推定に関する応用としては、音源方向推定のスパースモデリングも考えられる。 As an application related to radar azimuth estimation, sparse modeling of sound source direction estimation can also be considered.
 RFIDやスペクトラム拡散通信の例は、通信でのスパースモデリング活用例であるが、通信分野では他に、無線マルチパスの推定や、複数帯域の利用状態検知による帯域有効利用、ネットワークトモグラフィを利用したネットワーク遅延箇所の推定、無線センサーネットなどでの適用が考えられる。 Examples of RFID and spread spectrum communication are examples of sparse modeling utilization in communication, but in the communication field, we also used wireless multipath estimation, effective bandwidth utilization by detecting the usage status of multiple bands, and network tomography. It can be applied to the estimation of network delay points and wireless sensor nets.
 さらに、MRI時間短縮の例に似た例として、イメージングセンサの電力の削減なども考えられる。この場合、あらかじめセンシングする素子を最適化する処理と、実際にセンシングした結果をスパースモデリングで復元するなどが考えられる。 Furthermore, as an example similar to the example of shortening the MRI time, it is conceivable to reduce the power consumption of the imaging sensor. In this case, processing for optimizing the element to be sensed in advance and restoration of the actual sensing result by sparse modeling can be considered.
 このように、本開示の最適化問題解決システム1は、すでに知られている様々なスパースモデリングのアプリケーションに適用可能である。 As described above, the optimization problem solving system 1 of the present disclosure can be applied to various sparse modeling applications already known.
 上記の世に、最適化問題解決システム1は、様々な圧縮センシング、超解像のアプリケーションで使われているL1スパースモデリングをより理想的なスパースモデリングであるL0スパースモデリングに変換する。最適化問題解決システム1は、L1スパースモデリングをL0スパースモデリングに置換する際に、イジングマシンといった組合せ最適化専用計算機に接続し、それらに接続するためにL0スパースモデリングの問題を二次形式の組合せ最適化に変換する定式化を行う。 In the above world, the optimization problem solving system 1 converts L1 sparse modeling used in various compressed sensing and super-resolution applications into L0 sparse modeling, which is a more ideal sparse modeling. When the optimization problem solving system 1 replaces L1 sparse modeling with L0 sparse modeling, it connects to a combinatorial optimization dedicated computer such as a singing machine, and in order to connect to them, the problem of L0 sparse modeling is combined in a quadratic form. Perform a formulation to convert to optimization.
[4.その他の構成例等]
 上述した実施形態や変形例に係る処理は、上記実施形態や変形例以外にも種々の異なる形態(変形例)にて実施されてよい。
[4. Other configuration examples, etc.]
The processing according to the above-described embodiment or modification may be carried out in various different forms (modifications) other than the above-mentioned embodiment or modification.
[4-1.その他の構成例]
 なお、上記の例では、最適化問題解決装置100と、イジングマシン10とが別体である場合を示したが、最適化問題解決装置100とイジングマシン10とは一体であってもよい。例えば、イジングマシン10が超伝導を使わずデジタル回路で実現された場合、イジングマシン10はエッジ側に配置されてもよい。例えば、イジングモデルを用いた計算がエッジ側で行われる場合、最適化問題解決装置100とイジングマシン10とが一体であってもよい。
[4-1. Other configuration examples]
In the above example, the case where the optimization problem solving device 100 and the rising machine 10 are separate bodies is shown, but the optimization problem solving device 100 and the rising machine 10 may be integrated. For example, when the Ising machine 10 is realized by a digital circuit without using superconductivity, the Ising machine 10 may be arranged on the edge side. For example, when the calculation using the Ising model is performed on the edge side, the optimization problem solving device 100 and the Ising machine 10 may be integrated.
[4-2.プログラムやパラメータ等の処理に用いる情報の生成方法]
 上述した最適化問題解決処理やパラメータ等を生成する方法が提供されてもよい。また、上述したイジングマシン10が計算を実行する際に用いるプログラムを生成する方法が提供されてもよい。
[4-2. Information generation method used for processing programs and parameters]
A method for generating the optimization problem solving process and parameters described above may be provided. Further, a method of generating a program used by the Ising machine 10 described above to execute a calculation may be provided.
[4-3.その他]
 また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-3. others]
Further, among the processes described in each of the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
 また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, each of the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
 また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。 Further, the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
[5.本開示に係る効果]
 上記のように、本開示に係る最適化問題解決方法は、センサ(実施形態ではセンサ50)からの第1のデータを入力し、第一のデータをスパースモデリングするための目的関数を生成し、目的関数における最適化したい変数に係る係数行列を生成し、組合せ最適化計算を行う第1のイジングマシンに係数行列を送信し、第1のイジングマシン(実施形態ではイジングマシン10)から受信した第2のデータに基づきスパースモデリングの最適解を生成する。
[5. Effect of this disclosure]
As described above, in the optimization problem solving method according to the present disclosure, the first data from the sensor (sensor 50 in the embodiment) is input, and an objective function for sparse modeling the first data is generated. A coefficient matrix related to a variable to be optimized in the objective function is generated, the coefficient matrix is transmitted to the first Ising machine that performs combinatorial optimization calculation, and the coefficient matrix is received from the first Ising machine (Ising machine 10 in the embodiment). Generate the optimum solution of sparse modeling based on the data of 2.
 このように、最適化問題解決方法は、第1のデータの入力に対して、スパースモデリングで導出した目的関数に対応する係数行列を生成し、イジングマシンへ送信し、イジングマシンから受信した第2のデータに基づき最適解を生成する。これにより、最適化問題解決方法は、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。すなわち、最適化問題解決方法を実行するコンピュータは、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 In this way, the optimization problem solving method generates a coefficient matrix corresponding to the objective function derived by sparse modeling for the input of the first data, sends it to the rising machine, and receives it from the rising machine. Generate an optimal solution based on the data in. As a result, the optimization problem solving method can appropriately generate a solution of the optimization problem for the data from the sensor by using the Ising machine. That is, the computer that executes the optimization problem solving method can appropriately generate the solution of the optimization problem by using the singing machine for the data from the sensor.
 また、スパースモデリングは、L0スパースモデリングである。このように、最適化問題解決方法は、L0スパースモデリングにより最適解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 Also, sparse modeling is L0 sparse modeling. In this way, the optimization problem solving method can generate the optimum solution by L0 sparse modeling, and can appropriately generate the solution of the optimization problem using the Ising machine for the data from the sensor. ..
 また、最適化したい変数は、第1のデータをモデル化するスパースな変数の各成分について、非ゼロ成分かゼロ成分を区別するバイナリ変数である。このように、最適化問題解決方法は、第1のデータをモデル化するスパースな変数の各成分について、非ゼロ成分かゼロ成分を区別するバイナリ変数を最適化する解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 The variable to be optimized is a binary variable that distinguishes between a non-zero component and a zero component for each component of the sparse variable that models the first data. Thus, the optimization problem solving method can generate a solution that optimizes the binary variable that distinguishes between the non-zero component and the zero component for each component of the sparse variable that models the first data. For the data from the sensor, the solution of the optimization problem can be appropriately generated by using the singing machine.
 また、最適化したい変数は、最適化したい変数は、第1のデータをモデル化するスパースな変数の各成分について、量子化して得られる各ビット変数である。このように、第1のデータをモデル化するスパースな変数の各成分について、量子化して得られる各ビット変数を最適化する解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 The variable to be optimized is a bit variable obtained by quantizing each component of the sparse variable that models the first data. In this way, it is possible to generate a solution that optimizes each bit variable obtained by quantization for each component of the sparse variable that models the first data, and the Ising machine for the data from the sensor. Can be used to properly generate solutions to optimization problems.
 また、QUBO形式に変換された目的関数に対応する係数行列を生成する。このように、最適化問題解決方法は、QUBO形式に変換された目的関数に対応する係数行列を、イジングマシンに送信することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 Also, generate a coefficient matrix corresponding to the objective function converted to the QUAB format. In this way, the optimization problem solving method is to send the coefficient matrix corresponding to the objective function converted to the QUAB format to the Ising machine, and then to the data from the sensor, the optimization problem using the Ising machine. Can be properly generated.
 また、係数行列は、目的関数から抽出される最適化したい変数の一次以上の項に係る係数で構成される配列である。これにより、最適化問題解決方法は、目的関数から抽出される最適化したい変数の一次以上の項に係る係数で構成される配列である係数行列を、イジングマシンに送信することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 The coefficient matrix is an array composed of coefficients related to the first-order or higher terms of the variables to be optimized extracted from the objective function. As a result, the optimization problem solving method is to send a coefficient matrix, which is an array composed of coefficients related to the first-order or higher terms of the variable to be optimized, extracted from the objective function to the Ising machine, from the sensor. The solution of the optimization problem can be appropriately generated for the data by using the singing machine.
 また、目的関数は、第1のデータに対応する関数である。このように、最適化問題解決方法は、第1のデータに対応する目的関数を用いて最適解を生成することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 The objective function is a function corresponding to the first data. In this way, the optimization problem solving method uses an objective function corresponding to the first data to generate an optimum solution, thereby solving the optimization problem for the data from the sensor using a singing machine. Can be generated appropriately.
 また、最適解は、第1のデータに対応する解である。このように、最適化問題解決方法は、第1のデータに対応する解を生成することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 Also, the optimal solution is the solution corresponding to the first data. In this way, the optimization problem solving method can appropriately generate the solution of the optimization problem by using the Ising machine for the data from the sensor by generating the solution corresponding to the first data. can.
 また、第2のデータを用いて非ゼロ成分の値を算出することにより、最適解を算出する。このように、最適化問題解決方法は、第2のデータを用いて非ゼロ成分の値を算出することにより、最適解を算出することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 In addition, the optimum solution is calculated by calculating the value of the non-zero component using the second data. In this way, the optimization problem solving method uses a singing machine for the data from the sensor by calculating the optimum solution by calculating the value of the non-zero component using the second data. The solution of the optimization problem can be generated appropriately.
 また、第1のイジングマシンは、量子コンピュータ(実施形態ではイジングマシン10a)、または量子着想型計算機(実施形態ではイジングマシン10b)である。このように、最適化問題解決方法は、量子コンピュータまたは量子着想型計算機に係数行列を送信し、量子コンピュータまたは量子着想型計算機から受信した第2のデータに基づき最適解を生成することで、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 The first Ising machine is a quantum computer (Ising machine 10a in the embodiment) or a quantum-conceived computer (Ising machine 10b in the embodiment). In this way, the optimization problem solving method is to send a coefficient matrix to a quantum computer or a quantum-conceived computer and generate an optimum solution based on the second data received from the quantum computer or the quantum-conceived computer. The solution of the optimization problem can be appropriately generated by using the singing machine for the data from.
 また、本開示に係る最適化問題解決方法は、さらに計測コントローラによる第1のデータの次元選択を行う。これにより、最適化問題解決方法は、次元が選択されたデータを対象として最適解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 Further, in the optimization problem solving method according to the present disclosure, the dimension selection of the first data is further performed by the measurement controller. As a result, the optimization problem solving method can generate the optimum solution for the data whose dimension is selected, and appropriately generate the solution of the optimization problem for the data from the sensor using the singing machine. can do.
 また、本開示に係る最適化問題解決方法は、次元選択は、スパース観測モデルを用いる。これにより、最適化問題解決方法は、スパース観測モデルを用いて次元が選択されたデータを対象として最適解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 In addition, the optimization problem solving method according to the present disclosure uses a sparse observation model for dimension selection. As a result, the optimization problem solving method can generate the optimum solution for the data whose dimensions are selected using the sparse observation model, and the optimization problem for the data from the sensor using the singing machine. Can be properly generated.
 また、スパース観測モデルは、観測次元選択モデリングを行う第2のイジングマシン(実施形態ではイジングマシン10)により生成される。このように、最適化問題解決方法は、イジングマシンにより生成されたスパース観測モデルを用いて次元が選択されたデータを対象として最適解を生成することができ、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 Further, the sparse observation model is generated by a second Ising machine (Ising machine 10 in the embodiment) that performs observation dimension selection modeling. In this way, the optimization problem solving method can generate the optimum solution for the data whose dimensions are selected using the sparse observation model generated by the singing machine, and the singing for the data from the sensor. Machines can be used to properly generate solutions to optimization problems.
 また、本開示に係る最適化問題解決方法は、さらにユーザインタフェース(実施形態では最適化問題解決装置100の入力部140、表示部150)により、ユーザが第1のイジングマシンを選択する。これにより、最適化問題解決方法は、ユーザが所望するイジングマシンを用いて最適化問題の解を適切に生成することができる。 Further, in the optimization problem solving method according to the present disclosure, the user further selects the first rising machine by the user interface (in the embodiment, the input unit 140 and the display unit 150 of the optimization problem solving device 100). Thereby, the optimization problem solving method can appropriately generate a solution of the optimization problem by using the Ising machine desired by the user.
 また、本開示に係る最適化問題解決方法は、ユーザインタフェースは、ユーザに複数の選択候補を提示し、複数の選択候補のうち、ユーザが選択した選択候補に対応する第1のイジングマシンに係数行列を送信する。これにより、最適化問題解決方法は、ユーザが複数の候補から選択したイジングマシンを用いて処理を行うことで、ユーザが所望するイジングマシンを用いて最適化問題の解を適切に生成することができる。 Further, in the optimization problem solving method according to the present disclosure, the user interface presents a plurality of selection candidates to the user, and among the plurality of selection candidates, a coefficient is applied to the first rising machine corresponding to the selection candidate selected by the user. Send the matrix. As a result, the optimization problem solving method can appropriately generate a solution of the optimization problem using the Ising machine desired by the user by performing processing using the Ising machine selected by the user from a plurality of candidates. can.
 また、本開示に係る最適化問題解決方法は、ユーザインタフェースは、複数の選択候補のうち、ユーザが指定した選択候補の詳細情報を提示する。これにより、最適化問題解決方法は、ユーザが各候補の詳細を確認して、用いるイジングマシンを選択できるため、ユーザの満足度を高めることができる。 Further, in the optimization problem solving method according to the present disclosure, the user interface presents detailed information of the selection candidate specified by the user among the plurality of selection candidates. As a result, in the optimization problem solving method, the user can confirm the details of each candidate and select the Ising machine to be used, so that the user's satisfaction can be improved.
 また、本開示に係る最適化問題解決方法は、詳細情報は、選択候補に対応する第1のイジングマシンの使用料、スペック、推奨用途の少なくとも1つを含む。これにより、最適化問題解決方法は、ユーザが各候補の使用料、スペック、推奨用途等を確認にして、用いるイジングマシンを選択できるため、ユーザの満足度を高めることができる。 Further, in the optimization problem solving method according to the present disclosure, the detailed information includes at least one of the usage fee, specifications, and recommended use of the first Ising machine corresponding to the selection candidate. As a result, in the optimization problem solving method, the user can select the Ising machine to be used by confirming the usage fee, specifications, recommended usage, etc. of each candidate, so that the user's satisfaction can be enhanced.
 上述のように、本開示に係る最適化問題解決装置(実施形態では最適化問題解決装置100)は、センサからの第1のデータを入力するセンサ入力部(実施形態では受信部131)と、第1のデータをスパースモデリングするための目的関数を生成する第1生成部(実施形態では第1生成部132)と、目的関数における最適化したい変数に係る係数行列を生成する第2生成部(実施形態では第2生成部133)と、組合せ最適化計算を行う第1のイジングマシンに係数行列を送信する送信部(実施形態では送信部134)と、第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する第3生成部(実施形態では第3生成部135)と、を備える。 As described above, the optimization problem solving device (optimization problem solving device 100 in the embodiment) according to the present disclosure includes a sensor input unit (reception unit 131 in the embodiment) for inputting the first data from the sensor. A first generation unit (first generation unit 132 in the embodiment) that generates an objective function for sparse modeling of the first data, and a second generation unit (first generation unit 132) that generates a coefficient matrix related to a variable to be optimized in the objective function. In the embodiment, the second generation unit 133), the transmission unit that transmits the coefficient matrix to the first Ising machine that performs the combinatorial optimization calculation (the transmission unit 134 in the embodiment), and the second receiving unit received from the first Ising machine. A third generation unit (third generation unit 135 in the embodiment) that generates an optimum solution for sparse modeling based on the above data is provided.
 このように、最適化問題解決装置は、第1のデータの入力に対して、スパースモデリングで導出した目的関数に対応する係数行列を生成し、イジングマシンへ送信し、イジングマシンから受信した第2のデータに基づき最適解を生成する。これにより、最適化問題解決方法は、センサからのデータに対して、イジングマシンを用いて最適化問題の解を適切に生成することができる。 In this way, the optimization problem solving device generates a coefficient matrix corresponding to the objective function derived by sparse modeling for the input of the first data, sends it to the rising machine, and receives it from the rising machine. Generate an optimal solution based on the data in. As a result, the optimization problem solving method can appropriately generate a solution of the optimization problem for the data from the sensor by using the Ising machine.
[6.ハードウェア構成]
 上述してきた各実施形態や変形例に係る最適化問題解決装置100等の情報機器は、例えば図24に示すような構成のコンピュータ1000によって実現される。図24は、最適化問題解決装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。以下、最適化問題解決装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
[6. Hardware configuration]
The information device such as the optimization problem solving device 100 according to each of the above-described embodiments and modifications is realized by a computer 1000 having a configuration as shown in FIG. 24, for example. FIG. 24 is a hardware configuration diagram showing an example of a computer that realizes the function of the optimization problem solving device. Hereinafter, the optimization problem solving device 100 will be described as an example. The computer 1000 has a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input / output interface 1600. Each part of the computer 1000 is connected by a bus 1050.
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。 The CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200, and executes processing corresponding to various programs.
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る最適化問題解決処理プログラム等の情報処理プログラムを記録する記録媒体である。 The HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100 and data used by such a program. Specifically, the HDD 1400 is a recording medium for recording an information processing program such as an optimization problem solving processing program according to the present disclosure, which is an example of program data 1450.
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。 The communication interface 1500 is an interface for the computer 1000 to connect to an external network 1550 (for example, the Internet). For example, the CPU 1100 receives data from another device or transmits data generated by the CPU 1100 to another device via the communication interface 1500.
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000. For example, the CPU 1100 receives data from an input device such as a keyboard or mouse via the input / output interface 1600. Further, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600. Further, the input / output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media). The media is, for example, an optical recording medium such as DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Is.
 例えば、コンピュータ1000が最適化問題解決装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた最適化問題解決処理プログラム等の情報処理プログラムを実行することにより、制御部130等の機能を実現する。また、HDD1400には、本開示に係る最適化問題解決処理プログラム等の情報処理プログラムや、記憶部120内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the optimization problem solving device 100, the CPU 1100 of the computer 1000 may execute an information processing program such as an optimization problem solving processing program loaded on the RAM 1200 to control the control unit 130 or the like. Realize the function. Further, the HDD 1400 stores an information processing program such as an optimization problem solving processing program according to the present disclosure, and data in the storage unit 120. The CPU 1100 reads the program data 1450 from the HDD 1400 and executes the program, but as another example, these programs may be acquired from another device via the external network 1550.
 なお、本技術は以下のような構成も取ることができる。
(1)
 センサからの第1のデータを入力し、
 前記第1のデータをスパースモデリングするための目的関数を生成し、
 前記目的関数における最適化したい変数に係る係数行列を生成し、
 組合せ最適化計算を行う第1のイジングマシンに前記係数行列を送信し、
 前記第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する
 最適化問題解決方法。
(2)
 前記スパースモデリングは、L0スパースモデリングである
 (1)に記載の最適化問題解決方法。
(3)
 前記最適化したい変数は、前記第1のデータをモデル化するスパースな変数の各成分について、非ゼロ成分かゼロ成分を区別するバイナリ変数である
 (1)または(2)に記載の最適化問題解決方法。
(4)
 前記最適化したい変数は、前記第1のデータをモデル化するスパースな変数の各成分について、量子化して得られる各ビット変数である
 (1)~(3)のいずれか1つに記載の最適化問題解決方法。
(5)
 QUBO形式に変換された前記目的関数に対応する前記係数行列を生成する
 (1)~(4)のいずれか1つに記載の最適化問題解決方法。
(6)
 前記係数行列は、前記目的関数から抽出される最適化したい変数の一次以上の項に係る係数で構成される配列である
 (5)に記載の最適化問題解決方法。
(7)
 前記目的関数は、前記第1のデータに対応する関数である
 (1)~(6)のいずれか1つに記載の最適化問題解決方法。
(8)
 前記最適解は、前記第1のデータに対応する解である
 (1)~(7)のいずれか1つに記載の最適化問題解決方法。
(9)
 前記第2のデータを用いて非ゼロ成分の値を算出することにより、前記最適解を算出する
 (8)に記載の最適化問題解決方法。
(10)
 前記第1のイジングマシンは、量子コンピュータ、または量子着想型計算機である
 (1)~(9)のいずれか1つに記載の最適化問題解決方法。
(11)
 さらに計測コントローラによる前記第1のデータの次元選択を行う、
 (1)~(10)のいずれか1つに記載の最適化問題解決方法。
(12)
 前記次元選択は、スパース観測モデルを用いる、
 (11)に記載の最適化問題解決方法。
(13)
 前記スパース観測モデルは、観測次元選択モデリングを行う第2のイジングマシンにより生成される、
 (12)に記載の最適化問題解決方法。
(14)
 さらにユーザインタフェースにより、ユーザが前記第1のイジングマシンを選択する、
 (1)~(13)のいずれか1つに記載の最適化問題解決方法。
(15)
 前記ユーザインタフェースは、前記ユーザに複数の選択候補を提示し、
 前記複数の選択候補のうち、前記ユーザが選択した選択候補に対応する前記第1のイジングマシンに前記係数行列を送信する
 (14)に記載の最適化問題解決方法。
(16)
 前記ユーザインタフェースは、前記複数の選択候補のうち、前記ユーザが指定した選択候補の詳細情報を提示する
 (15)に記載の最適化問題解決方法。
(17)
 前記詳細情報は、選択候補に対応する前記第1のイジングマシンの使用料、スペック、推奨用途の少なくとも1つを含む
 (16)に記載の最適化問題解決方法。
(18)
 センサからの第1のデータを入力するセンサ入力部と、
 前記第1のデータをスパースモデリングするための目的関数を生成する第1生成部と、
 前記目的関数における最適化したい変数に係る係数行列を生成する第2生成部と、
 組合せ最適化計算を行う第1のイジングマシンに前記係数行列を送信する送信部と、
 前記第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する第3生成部と、
 を備える最適化問題解決装置。
The present technology can also have the following configurations.
(1)
Enter the first data from the sensor,
Generate an objective function for sparse modeling of the first data,
Generate a coefficient matrix for the variables to be optimized in the objective function,
The coefficient matrix is transmitted to the first Ising machine that performs the combinatorial optimization calculation.
An optimization problem solving method that generates an optimum solution for sparse modeling based on the second data received from the first Ising machine.
(2)
The sparse modeling is the L0 sparse modeling. The optimization problem solving method according to (1).
(3)
The variable to be optimized is a binary variable that distinguishes between a non-zero component and a zero component for each component of the sparse variable that models the first data. The optimization problem according to (1) or (2). Solution.
(4)
The variable to be optimized is the optimization described in any one of (1) to (3), which is a bit variable obtained by quantizing each component of the sparse variable that models the first data. How to solve the problem.
(5)
The optimization problem solving method according to any one of (1) to (4), which generates the coefficient matrix corresponding to the objective function converted into the QUAB format.
(6)
The optimization problem solving method according to (5), wherein the coefficient matrix is an array composed of coefficients related to first-order or higher terms of variables to be optimized extracted from the objective function.
(7)
The optimization problem solving method according to any one of (1) to (6), wherein the objective function is a function corresponding to the first data.
(8)
The optimization problem solving method according to any one of (1) to (7), wherein the optimum solution is a solution corresponding to the first data.
(9)
The optimization problem solving method according to (8), wherein the optimum solution is calculated by calculating the value of the non-zero component using the second data.
(10)
The optimization problem solving method according to any one of (1) to (9), wherein the first isging machine is a quantum computer or a quantum-conceived computer.
(11)
Further, the dimension selection of the first data is performed by the measurement controller.
The optimization problem solving method according to any one of (1) to (10).
(12)
The dimension selection uses a sparse observation model.
The optimization problem solving method according to (11).
(13)
The sparse observation model is generated by a second Ising machine that performs observation dimension selection modeling.
The optimization problem solving method described in (12).
(14)
Further, the user interface allows the user to select the first Ising machine.
The optimization problem solving method according to any one of (1) to (13).
(15)
The user interface presents the user with a plurality of selection candidates.
The optimization problem solving method according to (14), wherein the coefficient matrix is transmitted to the first Ising machine corresponding to the selection candidate selected by the user among the plurality of selection candidates.
(16)
The optimization problem solving method according to (15), wherein the user interface presents detailed information of a selection candidate designated by the user among the plurality of selection candidates.
(17)
The optimization problem solving method according to (16), wherein the detailed information includes at least one of the usage fee, specifications, and recommended applications of the first Ising machine corresponding to the selection candidate.
(18)
A sensor input unit that inputs the first data from the sensor,
A first generator that generates an objective function for sparse modeling the first data,
The second generator that generates the coefficient matrix for the variable to be optimized in the objective function,
A transmitter that transmits the coefficient matrix to the first Ising machine that performs combinatorial optimization calculations,
A third generation unit that generates an optimum solution for sparse modeling based on the second data received from the first Ising machine.
Optimized problem solving device.
 1 最適化問題解決システム
 100 最適化問題解決装置
 110 通信部
 120 記憶部
 121 データ記憶部
 122 関数情報記憶部
 130 制御部
 131 受信部
 132 第1生成部
 133 第2生成部
 134 送信部
 135 第3生成部
 140 入力部
 150 表示部
 10 イジングマシン
 11 通信部
 12 記憶部
 13 量子デバイス部
 14 制御部
 141 取得部
 142 計算部
 143 送信部
 50 センサ
1 Optimization problem solving system 100 Optimization problem solving device 110 Communication unit 120 Storage unit 121 Data storage unit 122 Function information storage unit 130 Control unit 131 Reception unit 132 1st generation unit 133 2nd generation unit 134 Transmission unit 135 3rd generation Unit 140 Input unit 150 Display unit 10 Rising machine 11 Communication unit 12 Storage unit 13 Quantum device unit 14 Control unit 141 Acquisition unit 142 Calculation unit 143 Transmission unit 50 Sensor

Claims (18)

  1.  センサからの第1のデータを入力し、
     前記第1のデータをスパースモデリングするための目的関数を生成し、
     前記目的関数における最適化したい変数に係る係数行列を生成し、
     組合せ最適化計算を行う第1のイジングマシンに前記係数行列を送信し、
     前記第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する
     最適化問題解決方法。
    Enter the first data from the sensor,
    Generate an objective function for sparse modeling of the first data,
    Generate a coefficient matrix for the variables to be optimized in the objective function,
    The coefficient matrix is transmitted to the first Ising machine that performs the combinatorial optimization calculation.
    An optimization problem solving method that generates an optimum solution for sparse modeling based on the second data received from the first Ising machine.
  2.  前記スパースモデリングは、L0スパースモデリングである
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the sparse modeling is L0 sparse modeling.
  3.  前記最適化したい変数は、前記第1のデータをモデル化するスパースな変数の各成分について、非ゼロ成分かゼロ成分を区別するバイナリ変数である
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the variable to be optimized is a binary variable that distinguishes between a non-zero component and a zero component for each component of the sparse variable that models the first data.
  4.  前記最適化したい変数は、前記第1のデータをモデル化するスパースな変数の各成分について、量子化して得られる各ビット変数である
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the variable to be optimized is a bit variable obtained by quantizing each component of the sparse variable that models the first data.
  5.  QUBO(Quadratic Unconstrained Binary Optimization)形式に変換された前記目的関数に対応する前記係数行列を生成する
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the coefficient matrix corresponding to the objective function converted into a QUADOTIC Unconstrained Binary Optimization (QUADRO) format is generated.
  6.  前記係数行列は、前記目的関数から抽出される最適化したい変数の一次以上の項に係る係数で構成される配列である
     請求項5に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 5, wherein the coefficient matrix is an array composed of coefficients related to first-order or higher terms of variables to be optimized extracted from the objective function.
  7.  前記目的関数は、前記第1のデータに対応する関数である
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the objective function is a function corresponding to the first data.
  8.  前記最適解は、前記第1のデータに対応する解である
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the optimum solution is a solution corresponding to the first data.
  9.  前記第2のデータを用いて非ゼロ成分の値を算出することにより、前記最適解を算出する
     請求項8に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 8, wherein the optimum solution is calculated by calculating the value of the non-zero component using the second data.
  10.  前記第1のイジングマシンは、量子コンピュータ、または量子着想型計算機である
     請求項1に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 1, wherein the first isging machine is a quantum computer or a quantum-conceived computer.
  11.  さらに計測コントローラによる前記第1のデータの次元選択を行う、
     請求項1に記載の最適化問題解決方法。
    Further, the dimension selection of the first data is performed by the measurement controller.
    The optimization problem solving method according to claim 1.
  12.  前記次元選択は、スパース観測モデルを用いる、
     請求項11に記載の最適化問題解決方法。
    The dimension selection uses a sparse observation model.
    The optimization problem solving method according to claim 11.
  13.  前記スパース観測モデルは、観測次元選択モデリングを行う第2のイジングマシンにより生成される、
     請求項12に記載の最適化問題解決方法。
    The sparse observation model is generated by a second Ising machine that performs observation dimension selection modeling.
    The optimization problem solving method according to claim 12.
  14.  さらにユーザインタフェースにより、ユーザが前記第1のイジングマシンを選択する、
     請求項1に記載の最適化問題解決方法。
    Further, the user interface allows the user to select the first Ising machine.
    The optimization problem solving method according to claim 1.
  15.  前記ユーザインタフェースは、前記ユーザに複数の選択候補を提示し、
     前記複数の選択候補のうち、前記ユーザが選択した選択候補に対応する前記第1のイジングマシンに前記係数行列を送信する
     請求項14に記載の最適化問題解決方法。
    The user interface presents the user with a plurality of selection candidates.
    The optimization problem solving method according to claim 14, wherein the coefficient matrix is transmitted to the first Ising machine corresponding to the selection candidate selected by the user among the plurality of selection candidates.
  16.  前記ユーザインタフェースは、前記複数の選択候補のうち、前記ユーザが指定した選択候補の詳細情報を提示する
     請求項15に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 15, wherein the user interface presents detailed information of the selection candidate designated by the user among the plurality of selection candidates.
  17.  前記詳細情報は、選択候補に対応する前記第1のイジングマシンの使用料、スペック、推奨用途の少なくとも1つを含む
     請求項16に記載の最適化問題解決方法。
    The optimization problem solving method according to claim 16, wherein the detailed information includes at least one of a usage fee, a specification, and a recommended application of the first Ising machine corresponding to a selection candidate.
  18.  センサからの第1のデータを入力するセンサ入力部と、
     前記第1のデータをスパースモデリングするための目的関数を生成する第1生成部と、
     前記目的関数における最適化したい変数に係る係数行列を生成する第2生成部と、
     組合せ最適化計算を行う第1のイジングマシンに前記係数行列を送信する送信部と、
     前記第1のイジングマシンから受信した第2のデータに基づきスパースモデリングの最適解を生成する第3生成部と、
     を備える最適化問題解決装置。
    A sensor input unit that inputs the first data from the sensor,
    A first generator that generates an objective function for sparse modeling the first data,
    The second generator that generates the coefficient matrix for the variable to be optimized in the objective function,
    A transmitter that transmits the coefficient matrix to the first Ising machine that performs combinatorial optimization calculations,
    A third generation unit that generates an optimum solution for sparse modeling based on the second data received from the first Ising machine.
    Optimized problem solving device.
PCT/JP2021/024899 2020-07-10 2021-07-01 Optimization problem solution and optimization problem solution apparatus WO2022009761A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21837057.5A EP4181034A4 (en) 2020-07-10 2021-07-01 Optimization problem solution and optimization problem solution apparatus
US18/004,072 US20230342416A1 (en) 2020-07-10 2021-07-01 Optimization problem solving method and optimization problem solving device
JP2022535271A JPWO2022009761A1 (en) 2020-07-10 2021-07-01
CN202180047452.3A CN115769237A (en) 2020-07-10 2021-07-01 Optimization problem solving method and optimization problem solving device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-119543 2020-07-10
JP2020119543 2020-07-10

Publications (1)

Publication Number Publication Date
WO2022009761A1 true WO2022009761A1 (en) 2022-01-13

Family

ID=79552494

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024899 WO2022009761A1 (en) 2020-07-10 2021-07-01 Optimization problem solution and optimization problem solution apparatus

Country Status (5)

Country Link
US (1) US20230342416A1 (en)
EP (1) EP4181034A4 (en)
JP (1) JPWO2022009761A1 (en)
CN (1) CN115769237A (en)
WO (1) WO2022009761A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055264B (en) * 2023-04-03 2023-06-20 西南交通大学 Signal estimation method, device and equipment of sparse channel and readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046038A (en) 2017-08-31 2019-03-22 株式会社デンソー Evaluation function converter and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046038A (en) 2017-08-31 2019-03-22 株式会社デンソー Evaluation function converter and program

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BABACAN, S. D. ET AL.: "Sparse Bayesian Methods for Low-Rank Matrix Estimation", IEEE TRANSACTIONS ON SIGNAL PROCESSING, vol. 60, no. 8, 3 May 2012 (2012-05-03), pages 3964 - 3977, XP011451647, Retrieved from the Internet <URL:https://ieeexplore.ieee.org/document/6194350> [retrieved on 20210914], DOI: 10.1109/TSP.2012.2197748 *
CASTELVECCHI, D.: "IBM 's quantum cloud computer goes commercial", NATURE, vol. 543, 9 March 2017 (2017-03-09), XP055898149, Retrieved from the Internet <URL:https://nature.com/articles/nature.2017.21585> [retrieved on 20210914], DOI: 10.1038/ nature .2017.21585 *
JIANI HU , TOSHIHIKO YAMASAKI: "Getting Started with Cloud Computing (1); Introduction of Microsoft Azure", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 69, no. 4, 1 January 2015 (2015-01-01), pages 336 - 340, XP093012223, ISSN: 1342-6907, DOI: 10.3169/itej.69.336 *
RAMIN AYANZADEH; SEYEDAHMAD MOUSAVI; MILTON HALEM; TIM FININ: "Quantum Annealing Based Binary Compressive Sensing with Matrix Uncertainty", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 1 January 2019 (2019-01-01), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081010451 *
See also references of EP4181034A4

Also Published As

Publication number Publication date
US20230342416A1 (en) 2023-10-26
EP4181034A1 (en) 2023-05-17
CN115769237A (en) 2023-03-07
EP4181034A4 (en) 2024-01-03
JPWO2022009761A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11314536B2 (en) Quantum variational method, apparatus, and storage medium for simulating quantum systems
US11580280B2 (en) Computational framework for modeling of physical process
Kobayashi et al. Accurate emulator for the redshift-space power spectrum of dark matter halos and its application to galaxy power spectrum
KR102624027B1 (en) Image processing apparatus and method
Bhattacharya et al. Sparsity based feedback design: A new paradigm in opportunistic sensing
WO2022009761A1 (en) Optimization problem solution and optimization problem solution apparatus
US9876555B2 (en) Managing beamformed signals to optimize transmission rates of sensor arrays
JP2018081493A (en) Pattern identification device, pattern identification method and program
CN116738911A (en) Wiring congestion prediction method and device and computer equipment
US10769801B2 (en) Fast multi-spectral image registration by modeling platform motion
Malara et al. Extrapolation of random wave field data via compressive sampling
Khan et al. Detection of defective sensors in phased array using compressed sensing and hybrid genetic algorithm
Sun et al. Bayesian optical flow with uncertainty quantification
US8504499B2 (en) Constant memory implementation of a phase-model neural network
Diaz-Aguilo et al. Neural network interpolation of the magnetic field for the LISA Pathfinder Diagnostics Subsystem
JP2020051921A (en) Positioning system and positioning device
CN111340182B (en) Low-complexity CNN training method and device for input feature approximation
WO2024071377A1 (en) Information processing device, information processing method, and program
WO2020040007A1 (en) Learning device, learning method, and learning program
Pelissier et al. Quantum assisted image registration
KR20220159055A (en) System and method for generating super resoultuion images of water temperaturs using neural network
WO2022113720A1 (en) Information processing device, information processing method, and information processing system
CN115205710B (en) Double-time-phase remote sensing image change detection method combined with color correction
CN116226434B (en) Multi-element heterogeneous model training and application method, equipment and readable storage medium
Maurandi et al. A new fast Jacobi-like algorithm for non-orthogonal joint diagonalization of real-valued matrices based on a QR parameterization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837057

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022535271

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021837057

Country of ref document: EP

Effective date: 20230210

NENP Non-entry into the national phase

Ref country code: DE