WO2020196915A1 - 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム Download PDF

Info

Publication number
WO2020196915A1
WO2020196915A1 PCT/JP2020/014633 JP2020014633W WO2020196915A1 WO 2020196915 A1 WO2020196915 A1 WO 2020196915A1 JP 2020014633 W JP2020014633 W JP 2020014633W WO 2020196915 A1 WO2020196915 A1 WO 2020196915A1
Authority
WO
WIPO (PCT)
Prior art keywords
variable
information processing
vector
update
time step
Prior art date
Application number
PCT/JP2020/014633
Other languages
English (en)
French (fr)
Inventor
伊藤 透
隼人 後藤
光介 辰村
鈴木 賢
Original Assignee
株式会社 東芝
東芝デジタルソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝デジタルソリューションズ株式会社 filed Critical 株式会社 東芝
Priority to CA3135147A priority Critical patent/CA3135147A1/en
Priority to JP2021509697A priority patent/JP7474242B2/ja
Publication of WO2020196915A1 publication Critical patent/WO2020196915A1/ja
Priority to US17/487,719 priority patent/US20220019715A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms

Definitions

  • An embodiment of the present invention relates to an information processing device, an information processing system, an information processing method, a storage medium, and a program.
  • the combinatorial optimization problem is a problem of selecting the most suitable combination from a plurality of combinations.
  • Combinatorial optimization problems are mathematically reduced to a problem called an "objective function" that maximizes a function having a plurality of discrete variables or minimizes the function.
  • the combinatorial optimization problem is a universal problem in various fields such as finance, logistics, transportation, design, manufacturing, and life science, but the number of combinations increases in the order of the exponential function of the problem size, so-called "combinatorial explosion". Therefore, it is not always possible to find the optimum solution. Moreover, it is often difficult to even obtain an approximate solution close to the optimum solution.
  • An embodiment of the present invention provides an information processing device, an information processing system, an information processing method, a storage medium, and a program for calculating a solution of a combinatorial optimization problem with high accuracy.
  • the information processing apparatus is weighted by a first coefficient and a storage unit configured to store the first variable which is an element of the first vector and the second variable which is an element of the second vector.
  • the first variable is updated by multiplying the second variable by the time step and adding to the corresponding first variable, and the first variable is weighted by the time step and the second coefficient to correspond to the first variable.
  • the second variable is updated by adding to the second variable, calculating the problem term using the plurality of the first variables, and adding the problem term multiplied by the time step to the second variable. It includes a processing circuit configured to update the time step and monotonically increase or decrease the second coefficient according to the number of updates.
  • the figure which showed the configuration example of an information processing system A block diagram showing a configuration example of the management server.
  • FIG. 1 is a block diagram showing a configuration example of the information processing system 100.
  • the information processing system 100 of FIG. 1 includes a management server 1, a network 2, calculation servers (information processing devices) 3a to 3c, cables 4a to 4c, a switch 5, and a storage device 7. Further, FIG. 1 shows a client terminal 6 capable of communicating with the information processing system 100.
  • the management server 1, the calculation servers 3a to 3c, the client terminal 6, and the storage device 7 can communicate data with each other via the network 2.
  • the calculation servers 3a to 3c can store data in the storage device 7 and read data from the storage device 7.
  • the network 2 is, for example, the Internet in which a plurality of computer networks are connected to each other.
  • the network 2 can use wired, wireless, or a combination thereof as a communication medium.
  • an example of the communication protocol used in the network 2 is TCP / IP, but the type of the communication protocol is not particularly limited.
  • the calculation servers 3a to 3c are connected to the switch 5 via cables 4a to 4c, respectively. Cables 4a-4c and switch 5 form an interconnect between compute servers. The calculation servers 3a to 3c can also perform data communication with each other via the interconnect.
  • the switch 5 is, for example, an Infiniband switch.
  • the cables 4a to 4c are, for example, Infiniband cables. However, a wired LAN switch / cable may be used instead of the InfiniBand switch / cable.
  • the communication standard and communication protocol used in the cables 4a to 4c and the switch 5 are not particularly limited. Examples of the client terminal 6 include a notebook PC, a desktop PC, a smartphone, a tablet, an in-vehicle terminal, and the like.
  • the management server 1 controls the calculation server by converting, for example, the combinatorial optimization problem input by the user into a format that can be processed by each calculation server. Then, the management server 1 acquires the calculation result from each calculation server and converts the aggregated calculation result into a solution of the combinatorial optimization problem. In this way, the user can obtain a solution to the combinatorial optimization problem.
  • the solution of the combinatorial optimization problem shall include an optimal solution and an approximate solution close to the optimal solution.
  • FIG. 1 shows three calculation servers.
  • the number of calculation servers included in the information processing system is not limited.
  • the number of calculation servers used to solve the combinatorial optimization problem is not particularly limited.
  • the information processing system may include one calculation server.
  • the combinatorial optimization problem may be solved by using one of a plurality of calculation servers included in the information processing system.
  • the information processing system may include hundreds or more calculation servers.
  • the calculation server may be a server installed in a data center or a desktop PC installed in an office. Further, the calculation server may be a plurality of types of computers installed at different locations.
  • the type of information processing device used as the calculation server is not particularly limited.
  • the calculation server may be a general-purpose computer, a dedicated electronic circuit, or a combination thereof.
  • FIG. 2 is a block diagram showing a configuration example of the management server 1.
  • the management server 1 in FIG. 2 is, for example, a computer including a central processing unit (CPU) and a memory.
  • the management server 1 includes a processor 10, a storage unit 14, a communication circuit 15, an input circuit 16, and an output circuit 17. It is assumed that the processor 10, the storage unit 14, the communication circuit 15, the input circuit 16 and the output circuit 17 are connected to each other via the bus 20.
  • the processor 10 includes a management unit 11, a conversion unit 12, and a control unit 13 as internal components.
  • the processor 10 is an electronic circuit that executes calculations and controls the management server 1.
  • the processor 10 is an example of a processing circuit.
  • the processor 10 for example, a CPU, a microprocessor, an ASIC, an FPGA, a PLD, or a combination thereof can be used.
  • the management unit 11 provides an interface for operating the management server 1 via the user's client terminal 6. Examples of the interface provided by the management unit 11 include API, CLI, and a web page.
  • the user can input information on the combinatorial optimization problem via the management unit 11, and can view and / or download the calculated solution of the combinatorial optimization problem.
  • the conversion unit 12 converts the combinatorial optimization problem into a format that can be processed by each calculation server.
  • the control unit 13 transmits a control command to each calculation server.
  • control unit 13 After the control unit 13 acquires the calculation result from each calculation server, the conversion unit 12 aggregates the plurality of calculation results and converts them into a solution of the combinatorial optimization problem. Further, the control unit 13 may specify the processing content to be executed by each calculation server or the processor in each server.
  • the storage unit 14 stores various types of data including the program of the management server 1, data necessary for executing the program, and data generated by the program.
  • the storage unit 14 may be a volatile memory, a non-volatile memory, or a combination thereof. Examples of volatile memory include DRAM, SRAM and the like. Examples of non-volatile memory include NAND flash memory, NOR flash memory, ReRAM, or MRAM. Further, as the storage unit 14, a hard disk, an optical disk, a magnetic tape, or an external storage device may be used.
  • the communication circuit 15 transmits / receives data to / from each device connected to the network 2.
  • the communication circuit 15 is, for example, a wired LAN NIC (Network Interface Card). However, the communication circuit 15 may be another type of communication circuit such as a wireless LAN.
  • the input circuit 16 realizes data input to the management server 1. It is assumed that the input circuit 16 includes, for example, USB, PCI-Express, or the like as an external port.
  • the operating device 18 is connected to the input circuit 16.
  • the operation device 18 is a device for inputting information to the management server 1.
  • the operating device 18 is, for example, a keyboard, a mouse, a touch panel, a voice recognition device, and the like, but is not limited thereto.
  • the output circuit 17 realizes data output from the management server 1. It is assumed that the output circuit 17 is provided with HDMI, DisplayPort, or the like as an external port.
  • the display device 19 is connected to the output circuit 17. Examples of the display device 19 include, but are not limited to, an LCD (liquid crystal display), an organic EL (organic electroluminescence) display, or a projector.
  • the administrator of the management server 1 can perform maintenance on the management server 1 by using the operation device 18 and the display device 19.
  • the operation device 18 and the display device 19 may be incorporated in the management server 1. Further, the operation device 18 and the display device 19 do not necessarily have to be connected to the management server 1. For example, the administrator may perform maintenance on the management server 1 using an information terminal capable of communicating with the network 2.
  • FIG. 3 shows an example of data stored in the storage unit 14 of the management server 1.
  • the problem data 14A, the calculation data 14B, the management program 14C, the conversion program 14D, and the control program 14E are stored in the storage unit 14 of FIG.
  • the problem data 14A includes data of a combinatorial optimization problem.
  • the calculation data 14B includes the calculation results collected from each calculation server.
  • the management program 14C is a program that realizes the functions of the management unit 11 described above.
  • the conversion program 14D is a program that realizes the functions of the conversion unit 12 described above.
  • the control program 14E is a program that realizes the functions of the control unit 13 described above.
  • FIG. 4 is a block showing a configuration example of the calculation server.
  • the calculation server of FIG. 4 is, for example, an information processing apparatus that executes the calculation of the first vector and the second vector independently or in sharing with other calculation servers.
  • FIG. 4 illustrates the configuration of the calculation server 3a as an example.
  • the other calculation server may have the same configuration as the calculation server 3a, or may have a configuration different from that of the calculation server 3a.
  • the calculation server 3a includes, for example, a communication circuit 31, a shared memory 32, processors 33A to 33D, a storage 34, and a host bus adapter 35. It is assumed that the communication circuit 31, the shared memory 32, the processors 33A to 33D, the storage 34, and the host bus adapter 35 are connected to each other via the bus 36.
  • the communication circuit 31 transmits / receives data to / from each device connected to the network 2.
  • the communication circuit 31 is, for example, a wired LAN NIC (Network Interface Card). However, the communication circuit 31 may be another type of communication circuit such as a wireless LAN.
  • the shared memory 32 is a memory that can be accessed from the processors 33A to 33D. Examples of the shared memory 32 include volatile memories such as DRAM and SRAM. However, as the shared memory 32, another type of memory such as a non-volatile memory may be used.
  • the shared memory 32 may be configured to store, for example, the first vector and the second vector.
  • the processors 33A to 33D can share data via the shared memory 32.
  • the memories of the calculation server 3a need to be configured as shared memory.
  • a part of the memory of the calculation server 3a may be configured as a local memory that can be accessed only by any processor.
  • the shared memory 32 and the storage 34 described later are examples of storage units of the information processing device.
  • Processors 33A to 33D are electronic circuits that execute calculation processing.
  • the processor may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), or an ASIC (Application Specific Integrated Circuit), which may be a combination of these or a combination of these. You may.
  • the processor may be a CPU core or a CPU thread.
  • the processor may be connected to other components of the calculation server 3a via a bus such as PCI express.
  • the calculation server is equipped with four processors.
  • the number of processors provided in one computing server may be different from this.
  • the number and / or type of processors implemented by the compute server may be different.
  • the processor is an example of a processing circuit of an information processing device.
  • the information processing device may include a plurality of processing circuits.
  • the storage unit of the information processing apparatus may be configured to store the first variable which is an element of the first vector and the second variable which is an element of the second vector.
  • the processing circuit of the information processing device updates the first variable by multiplying the second variable weighted by the first coefficient in time steps and adding it to the corresponding first variable, and sets the first variable in time steps.
  • the second variable is weighted by the second coefficient and added to the corresponding second variable
  • the problem term is calculated using the plurality of first variables
  • the problem term multiplied by the time step is added to the second variable to add the second variable. It is configured to update, update the time step, and monotonically increase or decrease the second coefficient depending on the number of updates.
  • the problem argument may be calculated based on the Ising model.
  • the problem argument may include many-body interactions. Details of the first coefficient, the second coefficient, the problem term, the Ising model, and the many-body interaction will be described later.
  • processing contents can be assigned for each processor.
  • the unit of computational resources to which the processing contents are assigned is not limited.
  • the processing contents may be assigned for each computer, or the processing contents may be assigned for each process running on the processor or each CPU thread.
  • the storage 34 stores various data including the program of the calculation server 3a, the data necessary for executing the program, and the data generated by the program.
  • the storage 34 may be configured to store, for example, the first vector and the second vector.
  • the storage 34 may be a volatile memory, a non-volatile memory, or a combination thereof. Examples of volatile memory include DRAM, SRAM and the like. Examples of non-volatile memory include NAND flash memory, NOR flash memory, ReRAM, or MRAM. Further, as the storage 34, a hard disk, an optical disk, a magnetic tape, or an external storage device may be used.
  • the host bus adapter 35 realizes data communication between calculation servers.
  • the host bus adapter 35 is connected to the switch 5 via a cable 4a.
  • the host bus adapter 35 is, for example, an HCA (Host Channel Adapter).
  • HCA Hyper Channel Adapter
  • FIG. 5 shows an example of data stored in the storage of the calculation server.
  • the calculation data 34A, the calculation program 34B, and the control program 34C are stored in the storage 34 of FIG.
  • the calculation data 34A includes data in the middle of calculation or a calculation result of the calculation server 3a. At least a part of the calculated data 34A may be stored in a different storage hierarchy such as the shared memory 32, the cache of the processor, or the register of the processor.
  • the calculation program 34B is a program that realizes a calculation process in each processor and a data storage process in the shared memory 32 and the storage 34 based on a predetermined algorithm.
  • the control program 34C is a program that controls the calculation server 3a based on the command transmitted from the control unit 13 of the management server 1 and transmits the calculation result of the calculation server 3a to the management server 1.
  • An Ising machine is an example of an information processing device used to solve a combinatorial optimization problem.
  • the Ising machine is an information processing device that calculates the energy of the ground state of the Ising model.
  • the Ising model has often been used mainly as a model for ferromagnets and phase transition phenomena.
  • the Ising model has been increasingly used as a model for solving combinatorial optimization problems.
  • the following equation (1) shows the energy of the Ising model.
  • s i and s j are spins
  • spin is a binary variable having a value of either +1 or -1.
  • N is the number of spins.
  • h i is the local magnetic field acting on each spin.
  • J is a matrix of coupling coefficients between spins.
  • the matrix J is a real symmetric matrix having a diagonal component of 0. Therefore, J ij indicates the elements of the matrix J in row i and column j.
  • the Ising model of equation (1) is a quadratic equation for spin, but as will be described later, an extended Ising model including terms of the third order or higher of spin (Ising having many-body interactions). Model) may be used.
  • the solution of the Ising model is expressed in the form of spin vectors (s 1 , s 2 , ..., S N ). Let this vector be called the solution vector.
  • the vector (s 1 , s 2 , ..., S N ) at which the energy E Ising is the minimum value is called an optimum solution.
  • the calculated Ising model solution does not necessarily have to be an exact optimal solution.
  • an Ising problem the problem of finding an approximate solution in which the energy E Ising is as small as possible (that is, an approximate solution in which the value of the objective function is as close to the optimum value as possible) using the Ising model is referred to as an Ising problem.
  • the spin s i of the equation (1) is a binary variable, it can be easily converted with the discrete variable (bit) used in the combinatorial optimization problem by using the equation (1 + s i ) / 2. .. Therefore, it is possible to find the solution of the combinatorial optimization problem by converting the combinatorial optimization problem into the Ising problem and letting the Ising machine perform the calculation.
  • the problem of finding a solution that minimizes the quadratic objective function with a discrete variable (bit) that takes either 0 or 1 as a variable is QUABO (Quadratic Unconstrained Binary Optimization, unconstrained binary variable quadratic optimization). ) It is called a problem. It can be said that the Ising problem represented by the equation (1) is equivalent to the QUABO problem.
  • Quantum annealing realizes quantum annealing using a superconducting circuit.
  • the coherent Ising machine utilizes the oscillation phenomenon of a network formed by an optical parametric oscillator.
  • the quantum branching machine utilizes the quantum mechanical branching phenomenon in a network of parametric oscillators with the Kerr effect. While these hardware implementations have the potential to significantly reduce calculation time, they also have the problem of being difficult to scale up and operate stably.
  • SA Simulated annealing
  • Technology is being developed to perform simulated annealing faster.
  • general simulated annealing is a sequential update algorithm in which each variable is sequentially updated, it is difficult to speed up the calculation process by parallelization.
  • a simulated branching algorithm has been proposed that can solve large-scale combinatorial optimization problems at high speed by parallel calculation in a digital computer.
  • information processing devices, information processing systems, information processing methods, storage media, and programs that solve combinatorial optimization problems using a simulated branching algorithm will be described.
  • H is a Hamiltonian of the following formula (3).
  • the Hamiltonian H' including the terms G (x 1 , x 2 , ... x N ) shown in the following formula (4) is used. You may.
  • processing will be described by taking the case where the term G (x 1 , x 2 , ... X N ) is a correction term as an example.
  • the term G (x 1 , x 2 , ... X N ) may be derived from the constraints of the combinatorial optimization problem.
  • the method and type of derivation of the term G (x 1 , x 2 , ... X N ) are not limited. Further, in the equation (4), the argument G (x 1 , x 2 , ... X N ) is added to the original Hamiltonian H. However, the argument G (x 1 , x 2 , ... X N ) may be incorporated into the extended Hamiltonian in a different way.
  • each term is either the element x i of the first vector or the element y i of the second vector.
  • an extended Hamiltonian that can be divided into a term U of the element x i of the first vector and a term V of the element y i of the second vector may be used.
  • the processing will be described assuming that the time evolution is calculated. However, the calculation of the simulated branch algorithm may be performed by a method other than time evolution.
  • the coefficient D corresponds to the above-mentioned first coefficient and is also called detuning.
  • the coefficient p (t) corresponds to the above-mentioned second coefficient, and is also called pumping amplitude.
  • the value of the coefficient p (t) can be monotonically increased according to the number of updates.
  • the initial value of the coefficient p (t) may be set to 0.
  • the second coefficient p (t) is a positive value and the value of the second coefficient p (t) increases according to the number of updates will be described as an example.
  • the sign of the algorithm presented below may be inverted and a negative second coefficient p (t) may be used.
  • the value of the second coefficient p (t) decreases monotonically according to the number of updates.
  • the absolute value of the second coefficient p (t) increases monotonically according to the number of updates.
  • the coefficient K corresponds to a positive Kerr coefficient.
  • a constant coefficient can be used as the coefficient c.
  • the value of the coefficient c may be determined before performing the calculation by the simulated branching algorithm.
  • the coefficient c can be set to a value close to the reciprocal of the maximum eigenvalue of the J (2) matrix.
  • the value c 0.5D ⁇ (N / 2n) can be used.
  • n is the number of edges of the graph related to the combinatorial optimization problem.
  • a (t) is a coefficient that increases with p (t) when calculating the time evolution.
  • ⁇ (p (t) / K) can be used as a (t).
  • the symplectic Euler method can be used to convert (2) above into a discrete recurrence formula to perform the solution.
  • (6) shows an example of a simulated branching algorithm after conversion to a recurrence formula.
  • t is a time
  • ⁇ t is a time step (time step width).
  • the time t and the time step ⁇ t are used to show the correspondence with the differential equation.
  • the time t and the time step ⁇ t do not necessarily have to be included as explicit parameters. For example, if the time step ⁇ t is set to 1, it is possible to remove the time step ⁇ t from the algorithm at the time of mounting.
  • x i (t + ⁇ t) may be interpreted as the updated value of x i (t). That is, "t” in (4) above indicates the value of the variable before the update, and "t + ⁇ t” indicates the value of the variable after the update.
  • problem term the item described in the third row is derived from Ising energy. Since the format of this argument is determined according to the problem to be solved, it is called a problem term (problem term).
  • the value of spin s i is calculated based on the sign of the variable x i after increasing the value of p (t) from the initial value (eg 0) to a predetermined value.
  • sgn (x i) + 1
  • the value of spin s i can be obtained by converting the variable x i with a sign function.
  • Solution of a combinatorial optimization problem for the timing of obtaining a not particularly limited.
  • the solution (solution vector) of the combinatorial optimization problem may be obtained when the number of updates of the first vector and the second vector, the value of the second coefficient p, or the value of the objective function becomes larger than the threshold value.
  • FIG. 6 shows an example of processing in the case of calculating the solution of the simulated branch algorithm by time evolution. Hereinafter, the process will be described with reference to FIG.
  • the calculation server obtains the matrix J ij and vector h i corresponding to the problem from the management server 1 (step S101). Then, the calculation server initializes the coefficients p (t) and a (t) (step S102). For example, the values of the coefficients p and a can be set to 0 in step S102, but the initial values of the coefficients p and a are not limited.
  • the calculation server initializes the first variable x i and the second variable y i (step S103).
  • the first variable x i is an element of the first vector.
  • the second variable y i is an element of the second vector.
  • the compute server may initialize x i and y i to 0, respectively.
  • the method of initializing x i and y i is not limited. Further, the first variable x i or the second variable y i may be initialized at a timing different from this. Also, at least one of the variables may be initialized multiple times.
  • the calculation server updates the elements x i of the first vector corresponding based on the elements y i of the second vector (step S104). For example, the calculation server updates the first vector by weighting and adding the element y i of the second vector corresponding to the element x i of the first vector in step S104. For example, in step S104, ⁇ t ⁇ D ⁇ y i can be added to the variable x i . Then, the calculation server updates the element y i of the second vector (steps S105 and S106). For example, in step S105, ⁇ t ⁇ [(pdK ⁇ x i ⁇ x i ) ⁇ x i ] can be added to the variable y i . In step S106, it is possible to add a - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j and into the variable y i.
  • the calculation server updates the values of the coefficients p and a (step S107). For example, a constant value ( ⁇ p) can be added to the coefficient p, and the coefficient a can be set to the positive square root of the updated coefficient p. However, as will be described later, this is only an example of how to update the values of the coefficients p and a.
  • the calculation server determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S108). If the number of updates is less than the threshold value (YES in step S108), the calculation server re-executes the processes of steps S104 to S107.
  • step S109 When the number of updates is equal to or greater than the threshold value (NO in step S108), the spin s i , which is an element of the solution vector, is obtained based on the element x i of the first vector (step S109).
  • step S109 for example, in the first vector, the variable x i is a positive value +1, converts each variable x i is a negative value -1, it is possible to obtain a solution vector.
  • step S108 when the number of updates is less than the threshold value (YES in step S108), the Hamiltonian value may be calculated based on the first vector, and the first vector and the Hamiltonian value may be stored. .. This allows the user to select the approximate solution closest to the optimal solution from the plurality of first vectors.
  • processing may be parallelized using a plurality of calculation servers.
  • Processing may be parallelized by a plurality of processors.
  • the implementation and the mode of parallelization of processing for realizing parallelization of processing are not limited.
  • the execution order of the update processing of the variables x i and y i shown in steps S105 to S106 described above is only an example. Therefore, the update processing of the variables x i and y i may be executed in a different order. For example, the order in which the update process of the variable x i and the update process of the variable y i may be executed may be interchanged. Further, the order of sub-processing included in the update processing of each variable is not limited. For example, the execution order of the addition processing for the variable y i may be different from the example of FIG. The execution order and timing of the processes that are the prerequisites for executing the update process of each variable are not particularly limited.
  • the computing problems terms may be performed in parallel with other processing including processing of updating the variable x i.
  • the order and timing at which the update processing of the variables x i and y i, the sub-processing included in the update processing of each variable, and the calculation processing of the problem item are executed are not limited, and the same applies to the processing of each flowchart shown below. Is.
  • ⁇ t may be a variable time step.
  • the value of the coefficient t can be updated based on (7) below.
  • n is a positive integer indicating the number of iterations.
  • (7) shows that the value t n of the coefficient t in the next iteration n is obtained by adding ⁇ t n-1 to the value t n-1 of the coefficient t in the iteration (n-1). ..
  • the coefficient t can be used to determine whether or not the loop processing can be continued. However, if it is determined whether or not the loop processing can be continued by another method, the processing of (7) may be skipped. For example, it may be determined whether or not the loop processing can be continued based on at least one of the Hamiltonian value, the coefficient p value, the coefficient a value, and the number of iterations. That is, it is not always necessary to update the coefficient t when the simulated branch algorithm is executed.
  • (8) shows an example of how to update the variable time step.
  • the next iteration is performed by multiplying the time step ⁇ t n-1 in the iteration (n-1) by a coefficient based on the Hamiltonian values H'n -1 and H'n -2.
  • the time step ⁇ t n used in the coefficient n can be obtained.
  • H'n -1 is a Hamiltonian value calculated by iteration (n-1).
  • H'n -2 is the Hamiltonian value calculated in the previous iteration (n-2).
  • the value of the time step ⁇ t becomes smaller as the Hamiltonian value converges to the vicinity of a constant value (for example, 0) by the loop processing. Therefore, before the Hamiltonian values converge, a relatively large time step can be used to reduce the amount of calculation. On the other hand, when the Hamiltonian value starts to converge, a relatively small time step is used, so that the calculation can be performed with high accuracy. As a result, an approximate solution close to the optimum solution can be calculated. In this way, the value of the time step may be updated based on the Hamiltonian value calculated in at least one iteration. However, the time step may be updated by a method different from (8).
  • FIG. 7 shows an example of the algorithm according to the modified example 1. Hereinafter, the process will be described with reference to FIG. 7.
  • the calculation server obtains the matrix J ij and vector h i corresponding to the problem from the management server 1 (step S110). Then, the calculation server initializes the coefficients p (t), a (t), n and ⁇ t 0 (step S111). For example, the values of the coefficients p and a can be set to 0 in step S111, but the initial values of the coefficients p and a are not limited. For example, n can be initialized to 1 in step S111. However, the initial value of n may be different from this. ⁇ t 0 is the initial value of the time step. For example, the compute server can set ⁇ t 0 to any positive natural number.
  • the calculation server initializes the first variable x i and the second variable y i (step S112).
  • the first variable x i is an element of the first vector.
  • the second variable y i is an element of the second vector.
  • the compute server may initialize x i and y i to 0, respectively.
  • the calculation server may initialize x i and y i with pseudo-random numbers, respectively.
  • the method of initializing x i and y i is not limited.
  • the first variable x i or the second variable y i may be initialized at a timing different from this. Also, at least one of the variables may be initialized multiple times.
  • the calculation server reads the Hamiltonian values H'n -1 and H'n -2 from the storage area and updates the time step ⁇ t n (step S113).
  • the time step ⁇ t n can be updated by the method (8) described above.
  • the time step ⁇ t n may be updated by other methods.
  • the storage area for example, the storage area provided by the shared memory 32 or the storage 34 can be used.
  • a storage area provided by an external storage device or cloud storage may be used, and the location of the storage area is not limited. It is possible that H'n -1 and H'n -2 are not stored in the storage area at the timing when step S113 is executed for the first time. In this case, the process of step S113 may be skipped.
  • the calculation server updates the elements x i of the first vector corresponding based on the elements y i of the second vector (step S114). For example, the calculation server updates the first vector by weighting and adding the element y i of the second vector corresponding to the element x i of the first vector in step S114. For example, in step S114, ⁇ t ⁇ D ⁇ y i can be added to the variable x i . Then, the calculation server updates the element y i of the second vector (steps S115 and S116). For example, in step S115, ⁇ t ⁇ [(pdK ⁇ x i ⁇ x i ) ⁇ x i ] can be added to the variable y i . At step S116, it is possible to add a - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j and into the variable y i.
  • the calculation server the value H 'n in the Hamiltonian is calculated and stores it in the storage area (step S117).
  • a Hamiltonian the function of energy in (1) above may be calculated. Further, as the Hamiltonian, the above-mentioned (3) or (4) may be calculated. You may also use the Hamiltonian defined in other formats.
  • the calculation server is able with numbers indicating iterations Hamiltonian is calculated in step S117 to store the Hamiltonian value H 'n in the storage area. Then, the calculation server updates the values of the coefficients p, a, and n (step S118).
  • a constant value ( ⁇ p) can be added to the coefficient p, and the coefficient a can be set to the positive square root of the updated coefficient p.
  • the value of the coefficient n may be incremented in step S118. This makes it possible to identify the iterations in which the data stored in the storage area was generated. Further, in step S118, the coefficient t n may be calculated by adding ⁇ t n to t n-1 .
  • the calculation server determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S119). If the number of updates is less than the threshold value (YES in step S119), the calculation server re-executes the processes of steps S113 to S118. When the number of updates is equal to or greater than the threshold value (NO in step S119), the spin s i , which is an element of the solution vector, is obtained based on the element x i of the first vector (step S120). In step S120, for example, in the first vector, the variable x i which is a positive value is converted to +1 and the variable x i which is a negative value is converted to -1, and a solution vector can be obtained.
  • step S119 when the number of updates is less than the threshold value (YES in step S119), the Hamiltonian value is calculated based on the first vector, and the first vector and the Hamiltonian value are stored in the storage area. You may. This allows the user to select the approximate solution closest to the optimal solution from the plurality of first vectors. Then, the selected first vector can be converted into a solution vector. Further, the solution vector may be calculated at a timing different from this, such as during execution of loop processing.
  • At least one of the processes shown in the flowchart of FIG. 7 may be executed in parallel.
  • at least one of the processes of steps S114 to S116 may be executed in parallel so that the N elements of the first vector and the second vector are updated in parallel.
  • processing may be parallelized using a plurality of calculation servers.
  • Processing may be parallelized by a plurality of processors.
  • the implementation and the mode of parallelization of processing for realizing parallelization of processing are not limited.
  • the processing circuit of the information processing device may be configured to calculate the Hamiltonian (objective function) value based on the first vector and store the Hamiltonian (objective function) value in the storage unit.
  • the processing circuit of the information processing device reads out the Hamiltonian (objective function) values calculated by different iterations from the storage unit, and updates the time step based on the values of a plurality of Hamiltonian (objective functions). It may be configured.
  • FIG. 8 shows an example of a change in the Hamiltonian value according to the number of iterations (number of iterations) of the loop processing of the simulated branch algorithm.
  • the horizontal axis of FIG. 8 shows the number of iterations of the algorithm.
  • the vertical axis of FIG. 8 shows the energy value.
  • the energy value is calculated according to (1) above.
  • an energy function of a form other than (1) may be used.
  • FIG. 9 shows an example of the values of the first variable x i and the second variable y i in each iteration of the simulated branching algorithm.
  • the horizontal axis of FIG. 9 corresponds to the value of the first variable x i .
  • the vertical axis of FIG. 9 corresponds to the value of the second variable y i .
  • Simulated branch algorithm is a physical model describing the motion state of the particles
  • the first variable x i indicates the position of the particle.
  • the second variable y i indicates the momentum of the particles.
  • FIG. 8 and 9 show the results when the change amount of the time step ⁇ t is set large and the above-mentioned algorithms (8) and 7 are executed.
  • the energy value increases as the number of iterations increases while oscillating.
  • FIG. 8A shows the accumulation of calculation errors.
  • FIG. 9 (a) shows the track of the first variable x i and second variable y i is changed by the iteration, the occurrence of an error is observed.
  • the conserved quantity oscillates with respect to the reference point determined according to the time step ⁇ t. Therefore, if the time step ⁇ t is changed, the reference point of vibration changes. Therefore, when the variable time step ⁇ t is not symmetric with respect to time inversion, a calculation error may accumulate even if a coefficient such as p does not change due to iteration. On the other hand, when the variable time step ⁇ t having time inversion symmetry is used, it is possible to return to the initial condition in the solution space by time inversion, so that accumulation of calculation error can be prevented.
  • the time step ⁇ t having the time inversion symmetry can be used. As a result, the stability and accuracy of the calculation process can be improved.
  • an example of the variable time step ⁇ t having time inversion symmetry will be described.
  • the time step width ⁇ t n, n + 1 defined in (9) below can be used.
  • ⁇ t c and n are the first candidate values of the time step width.
  • ⁇ t c and n + 1 are second candidate values of the time step width.
  • the first candidate values ⁇ t c, n and the second candidate values ⁇ t c, n + 1 are both calculated based on at least one of the first variable x i and the second variable y i .
  • N, n + 1 in the notation of ⁇ t n, n + 1 indicates that it is the time step width used between the iteration n and the iteration (n + 1).
  • ⁇ t n, n + 1 are defined as implicit functions. Therefore, an implicit solution can be used in the calculation of the time steps ⁇ t n, n + 1 that satisfy (9). For example, the values of ⁇ t n, n + 1 can be obtained by executing an operation including repetition so that a self-consistent implicit function can be obtained.
  • the calculated time step width ⁇ t n, n + 1 is the arithmetic mean of the first candidate values ⁇ t c, n and the second candidate values ⁇ t c, n + 1 .
  • the variable time step may be obtained by calculating the geometric mean of the first candidate values ⁇ t c, n and the second candidate values ⁇ t c, n + 1 .
  • the variable time step may be obtained by calculating the harmonic mean of the first candidate values ⁇ t c, n and the second candidate values ⁇ t c, n + 1 .
  • FIG. 10 shows an example of an algorithm that calculates a time-reversed symmetric variable time step using pseudo code.
  • the pseudo code of FIG. 10 is written using a grammar similar to a general programming language. However, it does not limit the type of programming language used to implement the algorithm. In the following, an example of the algorithm will be described with reference to FIG.
  • Global variables are variables that can be referenced from within each function.
  • the combinations of global variables and the values of global variables defined here are only examples.
  • the function "t_evolution” is defined under the global variable.
  • the function “t_evolution” receives the first variable, the second variable and the time step as arguments at the time of calling, and returns the first variable and the second variable after the time evolution of one iteration.
  • the update process of the first variable is executed in two steps so that the process is time-reversal symmetric.
  • the update process of the second variable is executed between the two update processes of the first variable. That is, in the example of FIG. 10, the time evolution is calculated based on the algorithm of (10) below. Note that x [n + 1/2] in (10) indicates the value of the first variable after the first update process among the two update processes.
  • the time-reversal symmetry means that the contents of the executed processes do not change even if the execution order of the processes is reversed.
  • the function “generate_dt” is defined.
  • the function “generate_dt” receives the first variable and the second variable as arguments at the time of calling, calculates the candidate value of the time step based on at least one of the first variable and the second variable, and returns the candidate value.
  • the function “generate_dt” a self-consistent time step can be searched. As shown in the example of FIG. 10, even if the candidate value of the time step calculated by the processing circuit (at least one of the first candidate value and the second candidate value) is inversely proportional to the quadratic function of the first variable. Good. For example, as shown in FIG.
  • the candidate value of the time step may be calculated based on the global variables “a”, “b” and “dt0” and the first variable.
  • this calculation method is only an example.
  • the candidate value of the time step may be calculated based on the second variable.
  • the candidate value of the time step may be calculated using both the first variable and the second variable. That is, it does not limit the algorithm used for calculating the second candidate value of the time step.
  • the function “symmetric_dt” receives the first variable and the second variable as arguments at the time of calling, and returns the first variable and the second variable that have undergone time evolution for a plurality of iterations, and the time step width ⁇ t n, n + 1 .
  • the function "generate_dt” is called twice with the first variable (variable “x1”) and the second variable (variable “x2”) received at the time of calling the function "symmetric_dt” as arguments.
  • the candidate values of the time step are assigned to the local variables “dt1” and “dt2”.
  • the function "t_evolution” is first called with the variables "x1", the variables "y1” and (dt1 + dt2) / 2 as arguments.
  • the value of the first variable after time evolution for one iteration is assigned to the local variable "x2".
  • the value of the second variable after time evolution for one iteration is assigned to the local variable "y2”.
  • the function "generate_dt” is called with the local variables "x2" and "y2" as arguments, and the candidate value of the generated time step is assigned to the local variable "_dt".
  • the loop processing is exited (break).
  • the difference between the value of the local variable "dt2" and the value of the local variable "_dt" is equal to or greater than the threshold value (else statement)
  • the second candidate value of the time step stored in the local variable "_dt" is local. It is assigned to the variable "dt2". That is, the value of the local variable "dt2" is updated in the else statement.
  • the above-mentioned processing in the for loop is repeated until the value of the counter variable becomes 5 or the judgment of the if statement becomes affirmative. That is, the processing in the for loop is repeated until the above-mentioned processing is executed five times or the amount of change in the updated second candidate value (“_dt” in FIG. 10) converges within a certain range.
  • the number of repetitions and the convergence test in FIG. 10 are merely examples. Therefore, the number of times the process is repeated in the implicit solution method may be a value different from 5. Further, the threshold value used for the convergence test of the updated second candidate value is not limited.
  • the function "symmetric_dt” After exiting the for loop processing, the function "symmetric_dt” returns the value of the local variable "x2", the value of "y2", and the value of (dt1 + dt2) / 2.
  • the value of the local variable "x2" the function “symmetric_dt” returned corresponds to the first variable x i after time evolution.
  • the value of the local variable "y2" returned by the function “symmetric_dt” corresponds to the second variable y i after time evolution.
  • the value of (dt1 + dt2) / 2 returned by the function “symmetric_dt” corresponds to the time step width ⁇ t n, n + 1 in (9) above.
  • the first variable x i and the second variable y i may have different values depending on the execution status of the simulated branch algorithm.
  • the global variable "a" in FIG. 10 corresponds to -D + p (t + ⁇ t) in the algorithm of (6) above. Therefore, although not shown in the pseudo code of FIG. 10, in order to monotonically increase or decrease the second coefficient p according to the number of updates, the value of the global variable "a" is set before or after calling the function "symmetric_dt". You may update.
  • FIG. 11 shows an example of the algorithm according to the modification 2. Hereinafter, the process will be described with reference to FIG.
  • the calculation server obtains the matrix J ij and vector h i corresponding to the problem from the management server 1 (step S130). Then, the calculation server initializes the coefficients p (t), a (t), and ⁇ t 0 (step S131). For example, the values of the coefficients p and a can be set to 0 in step S131, but the initial values of the coefficients p and a are not limited. ⁇ t 0 corresponds to the global variable “dt0” in FIG. For example, the compute server can set ⁇ t 0 to any positive natural number.
  • the calculation server initializes the first variable x i and the second variable y i (step S132).
  • the first variable x i is an element of the first vector.
  • the second variable y i is an element of the second vector.
  • the compute server may initialize x i and y i to 0, respectively.
  • the calculation server may initialize x i and y i with pseudo-random numbers, respectively.
  • the method of initializing x i and y i is not limited.
  • the first variable x i or the second variable y i may be initialized at a timing different from this. Also, at least one of the variables may be initialized multiple times.
  • the calculation server is based on at least one of the first variable x i or the second variable y i, to generate the candidate value ⁇ t1 and .DELTA.t2 (step S133).
  • the function “generate_dt” of FIG. 10 can be used.
  • the generation algorithm of the candidate values ⁇ t1 and ⁇ t2 is not limited.
  • the calculation server calculates the time evolution of the first variable x i and the second variable y i in a time-reversal symmetry based on the first variable x i , the second variable y i, and ( ⁇ t1 + ⁇ t2) / 2 (step S134). ..
  • the values of the first variable x i and the second variable y i are updated.
  • the first variable x i and the second variable y i can be updated using the function “t_evolution” described in (10) or FIG.
  • the first variable x i and the second variable y i may be updated by an algorithm different from this.
  • step S134 instead of ( ⁇ t1 + ⁇ t2) / 2, the geometric mean of ⁇ t1 and ⁇ t2 or the harmonic mean of ⁇ t1 and ⁇ t2 may be used. Alternatively, other averages of ⁇ t1 and ⁇ t2 may be used in step S134.
  • the calculation server generates a candidate value _ ⁇ t based on at least one of the first variable x i and the second variable y i (step S135). Also in step S135, the function “generate_dt” of FIG. 10 can be used. However, the candidate value _ ⁇ t may be generated by another algorithm.
  • the calculation server determines whether or not the difference between the candidate values _ ⁇ t and ⁇ t2 is less than the threshold value (step S136).
  • the calculation server substitutes the value of _ ⁇ t into ⁇ t2 (step S137).
  • the posting server executes the processes of steps S134 to S136 again. That is, if the determination in step S136 is negative, the loop processing inside FIG. 11 continues.
  • the calculation server updates the values of the coefficients p and a (step S138). For example, a constant value ( ⁇ p) can be added to the coefficient p, and the coefficient a can be set to the positive square root of the updated coefficient p. Further, in step S138, the coefficient t may be updated by adding ( ⁇ t1 + ⁇ t2) / 2 to t. In step S138, the geometric mean of ⁇ t1 and ⁇ t2 or the harmonic mean of ⁇ t1 and ⁇ t2 may be used instead of ( ⁇ t1 + ⁇ t2) / 2. Alternatively, the other average of ⁇ t1 and ⁇ t2 may be used in step S138.
  • step S139 determines whether or not the number of updates of the first vector and the second vector is less than the threshold value. If the number of updates is less than the threshold value (YES in step S139), the calculation server re-executes the processes after step S133. That is, if the determination in step S139 is affirmative, the loop processing outside of FIG. 11 continues.
  • the spin s i which is an element of the solution vector, is obtained based on the element x i of the first vector (step S140).
  • step S140 for example, in the first vector, the variable x i which is a positive value is converted to +1 and the variable x i which is a negative value is converted to -1, and a solution vector can be obtained.
  • step S139 when the number of updates is less than the threshold value (YES in step S139), the Hamiltonian value is calculated based on the first vector, and the first vector and the Hamiltonian value are stored in the storage area. You may. This allows the user to select the approximate solution closest to the optimal solution from the plurality of first vectors. Further, the solution vector may be calculated at a timing different from this, such as during execution of loop processing.
  • processing may be parallelized using a plurality of calculation servers.
  • Processing may be parallelized by a plurality of processors.
  • the implementation and the mode of parallelization of processing for realizing parallelization of processing are not limited.
  • the processing circuit of the information processing apparatus calculates the first candidate value and the second candidate value based on at least one of the first variable and the second variable, and time-steps the average value of the first candidate value and the second candidate value.
  • the first variable and the second variable are updated, the second candidate value is updated based on at least one of the updated first variable or the second variable, and the recalculated average value is used as the time step.
  • the variable and the second variable may be configured to be updated again.
  • the processing circuit of the information processing device updates the second coefficient after it is determined that the difference between the second candidate value after the update and the second candidate value before the update is less than the first threshold value. It may be configured in. Further, in the processing circuit of the information processing apparatus, the number of repetitions of the process of updating the first variable and the second variable using the average value as a time step, the process of updating the second candidate value, and the process of recalculating the average value is It may be configured to update the second coefficient after the second threshold is exceeded.
  • the processing circuit of the information processing apparatus executes the update process of the first variable in two times, and the first update process of the first variable and the second update process of the first variable are performed. It may be configured to execute the update process of two variables. In the first update process of the first variable and the second update process of the first variable in the processing circuit, the values to be added to the first variable may be set equally.
  • FIG. 8 and 9 show the results when the time-reversal symmetric variable time step is used.
  • the energy value oscillates in the vicinity of a constant reference value. Therefore, energy is conserved if the simulated branching algorithm meets the requirements of the Hamiltonian mechanics. That is, it can be seen that the occurrence of calculation error is prevented.
  • FIG. 9B shows that the values of the first variable x i and the second variable y i change according to a constant trajectory, and the calculation process is stable.
  • variable time step By using an information processing device or information processing system that uses time-reversed symmetrical variable time steps, it is possible to suppress the accumulation of errors and calculate the solution of the combinatorial optimization problem with high accuracy.
  • the time step can be set large depending on the situation, so that the calculation time can be shortened without impairing the accuracy and stability of the calculation.
  • the information processing system may include a storage device and an information processing device.
  • the storage device is configured to store, for example, a first variable which is an element of the first vector and a second variable which is an element of the second vector.
  • the information processing apparatus updates the first variable by multiplying the second variable weighted by the first coefficient in a time step and adding it to the corresponding first variable, and sets the first variable in the time step and the second variable.
  • the second variable is updated by weighting with a coefficient, adding to the corresponding second variable, calculating the problem term using a plurality of first variables, and adding the problem term multiplied by the time step to the second variable. It is configured to update the time step and monotonically increase or decrease the second coefficient depending on the number of updates.
  • the information processing method repeatedly updates the first vector having the first variable as an element and the second vector having the second variable corresponding to the first variable as an element.
  • the information processing method includes a step of updating the first variable by multiplying the second variable weighted by the first coefficient in a time step and adding it to the corresponding first variable, and a time step and a second variable of the first variable.
  • a step of updating the time step and a step of monotonically increasing or decreasing the second coefficient according to the number of updates may be included.
  • the program repeatedly updates, for example, the first vector having the first variable as an element and the second vector having the second variable corresponding to the first variable as an element.
  • the program updates the first variable by multiplying the second variable weighted by the first coefficient in time steps and adding it to the corresponding first variable, and the first variable in time steps and second coefficient.
  • the computer may be made to perform a process including a step of updating the time step and a step of monotonically increasing or decreasing the second coefficient according to the number of updates.
  • the storage medium may be a non-temporary computer-readable storage medium that stores the program.
  • Equation (11) corresponds to the energy of the Ising model including many-body interactions.
  • both QUABO and HOBO are a kind of unconstrained polynomial binary variable optimization (PUBO: Polynomial Unconstrained Binary Optimization). That is, among PUBOs, the combinatorial optimization problem having a quadratic objective function is QUABO. Further, among PUBOs, the combinatorial optimization problem having a third-order or higher objective function can be said to be HOBO.
  • PUBO Polynomial Unconstrained Binary Optimization
  • the Hamiltonian H in the above equation (3) may be replaced with the Hamiltonian H in the following equation (12).
  • the problem item z i of (13) takes the form of partially differentiating the second equation of (12) with respect to any variable x i (element of the first vector).
  • the variable x i to be partially differentiated depends on the index i.
  • the index i of the variable x i corresponds to the index that specifies the element of the first vector and the element of the second vector.
  • the problem items shown above are only examples of problem items that can be used by the information processing apparatus according to the present embodiment. Therefore, the form of the problem argument used in the calculation may be different from these.
  • the processing circuit of the information processing apparatus may be configured to calculate a problem term by executing a product-sum operation using a plurality of first variables. Further, the product-sum operation may be divided into a plurality of parts, each part may be assigned to a different arithmetic unit (processing circuit), and the processing may be executed simultaneously by the plurality of arithmetic units. As a result, the product-sum operation can be executed at high speed.
  • the information processing device may include a plurality of processing circuits. In this case, each processing circuit may be configured to execute at least a part of the calculation processing of the problem argument in parallel.
  • additional processing may be performed when the first variable is updated.
  • the value of the first variable x i is replaced with sgn (x i ). That is, when x i > 1 due to the update, the value of the variable x i is set to 1. Also, when x i ⁇ -1 due to the update, the value of the variable x i is set to -1. This makes it possible to approximate the spin s i with higher accuracy using the variable x i .
  • the variable y i corresponding to the variable x i may be multiplied by the coefficient rf.
  • the coefficient rf a coefficient rf of -1 ⁇ r ⁇ 0
  • the arithmetic circuit sets the first variable corresponding to the first variable whose value is smaller than the first value or the second variable corresponding to the first variable larger than the second value to the original second variable.
  • the variable may be configured to be updated to a value obtained by multiplying the variable by the second coefficient.
  • the arithmetic circuit sets the first variable corresponding to the first variable whose value is less than -1, or the second variable corresponding to the first variable whose value is larger than 1, and the second coefficient as the original second variable. It may be configured to update to the multiplied value.
  • the second coefficient corresponds to the above-mentioned coefficient rf.
  • the arithmetic circuit may set the value of the variable y i corresponding to the variable x i as a pseudo-random number when x i > 1 due to the update. For example, random numbers in the range [-0.1, 0.1] can be used. That is, the arithmetic circuit converts the value of the second variable corresponding to the first variable whose value is smaller than the second value, or the value of the second variable corresponding to the first variable whose value is larger than the first value into a pseudo random number. It may be configured to be set.
  • a continuous variable x is used in the problem term instead of a discrete variable. Therefore, there is a possibility that an error may occur with the discrete variable used in the original combinatorial optimization problem.
  • the value sgn (x) obtained by converting the continuous variable x with a sign function can be used instead of the continuous variable x in the calculation of the problem term as shown in (16) below.
  • sgn (x) corresponds to spin s.
  • the product of the spins appearing in the problem term always takes a value of either -1 or 1, so when dealing with the HOMO problem having a higher-order objective function, an error occurs due to the product operation. Can be prevented.
  • a spin vector can be obtained by converting each element of the first vector with a sign function.
  • a PC cluster is a system that connects a plurality of computers and realizes computing performance that cannot be obtained by one computer.
  • the information processing system 100 shown in FIG. 1 includes a plurality of calculation servers and processors, and can be used as a PC cluster.
  • MPI Message Passing Interface
  • MPI can be used to implement the control program 14E of the management server 1, the calculation program 34B and the control program 34C of each calculation server.
  • the calculation of L variables among the variables x i included in the first vector (x 1 , x 2 , ..., X N ) for each processor. Can be done.
  • m (j-1) L + 1, (j-1) L + 2, ..., jL ⁇ and ⁇ y.
  • m ( j-1) L + 1, (j-1) L + 2, ⁇ , jL ⁇ calculated tensor shown in (17) as follows required to J of (n ) Shall be stored in a storage area accessible to processor # j (eg, register, cache, memory, etc.).
  • each processor calculates a constant variable of the first vector and the second vector.
  • the number of elements (variables) of the first vector and the second vector to be calculated may differ depending on the processor. For example, when there is a performance difference depending on the processor implemented in the calculation server, the number of variables to be calculated can be determined according to the performance of the processor.
  • the values of all the components of the first vector are required.
  • the conversion to a binary variable can be performed, for example, by using the sign function sgn (). Therefore, using the Allgather function, the values of all the components of the first vector (x 1 , x 2 , ..., X N ) can be shared by the Q processors.
  • the second vector (y 1 , y 2 , ..., Y N )
  • tensor J (n) it is not essential to share values between processors.
  • Data sharing between processors can be realized, for example, by using interprocess communication or storing data in shared memory.
  • Processor # j calculates the value of the problem item ⁇ z m
  • m (j-1) L + 1, (j-1) L + 2, ..., JL ⁇ .
  • the processor #j is calculated problem claim ⁇ z m
  • m ( j-1) L + 1, based on the value of (j-1) L + 2 , ⁇ , jL ⁇ , variables ⁇ y m
  • m Update (j-1) L + 1, (j-1) L + 2, ..., JL ⁇ .
  • the tensor J (n) and the vector (x 1 , x 2 , ... , X N ) requires a product-sum operation, including the calculation of the product.
  • FIG. 12 schematically shows an example of a multiprocessor configuration.
  • the plurality of calculation nodes in FIG. 12 correspond to, for example, a plurality of calculation servers of the information processing system 100.
  • the high-speed link in FIG. 12 corresponds to, for example, an interconnect between cables 4a to 4c of the information processing system 100 and a calculation server formed by the switch 5.
  • the shared memory in FIG. 12 corresponds to, for example, the shared memory 32.
  • the processor of FIG. 12 corresponds to, for example, the processors 33A to 33D of each calculation server.
  • FIG. 12 shows the data arranged in each component and the data transferred between the components.
  • the values of the variables x i and y i are calculated. Further, between the processor and the shared memory, the variable x i is transferred.
  • L of the first vector (x 1 , x 2 , ..., X N ) and the second vector (y 1 , y 2 , ..., Y N ) are stored.
  • the variable and a part of the tensor J (n) are saved.
  • the first vector (x 1 , x 2 , ..., X N ) is transferred.
  • all the elements of the first vector (x 1 , x 2 , ..., X N ) are required to update the variable y i in each processor.
  • the simulated branch algorithm may be calculated using the GPU (Graphics Processing Unit).
  • FIG. 13 schematically shows an example of a configuration using a GPU.
  • FIG. 13 shows a plurality of GPUs connected to each other by a high-speed link.
  • Each GPU has a plurality of cores that can access the shared memory.
  • a plurality of GPUs are connected via a high-speed link to form a GPU cluster.
  • the high speed link corresponds to an interconnect between the compute servers formed by the cables 4a-4c and the switch 5.
  • a plurality of GPUs are used in the configuration example of FIG. 13, parallel calculations can be executed even when one GPU is used. That is, each GPU in FIG. 13 can execute the calculation corresponding to each calculation node in FIG. That is, the processor (processing circuit) of the information processing device (calculation server) may be the core of the Graphics Processing Unit (GPU).
  • the processor processing circuit
  • the information processing device may be the core of the Graphics Processing Unit (GPU).
  • the variables x i and y i , and the tensor J (n) are defined as device variables.
  • the GPU can calculate the product of the tensor J (n) required to update the variable y i and the first vector (x 1 , x 2 , ..., X N ) in parallel by the matrix vector product function. it can.
  • the product of the tensor and the vector can be obtained by repeatedly executing the product operation of the matrix and the vector.
  • the calculation of the first vector (x 1 , x 2 , ..., X N ) and the part of the second vector (y 1 , y 2 , ..., y N ) other than the multiply-accumulate operation. is, i-th element in each thread (x i, y i) to execute the update processing, it is possible to realize parallel processing.
  • the information processing device may include a plurality of processing circuits.
  • each processing circuit may be configured to update at least a part of the first vector and at least a part of the second vector in parallel.
  • each processing circuit may be configured to update at least a part of the first vector and at least a part of the second vector in parallel.
  • FIG. 14 shows an example of the overall processing executed to solve the combinatorial optimization problem. Hereinafter, the process will be described with reference to FIG.
  • the combinatorial optimization problem is formulated (step S201). Then, the formulated combinatorial optimization problem is converted into an Ising problem (Ising model format) (step S202). Next, the solution of the Ising problem is calculated by the Ising machine (information processing device) (step S203). Then, the calculated solution is verified (step S204). For example, in step S204, it is confirmed whether or not the constraint condition is satisfied. Further, in step S204, the value of the objective function may be referred to to confirm whether or not the obtained solution is the optimum solution or an approximate solution close to it.
  • step S205 it is determined whether or not to recalculate according to at least one of the verification result in step S204 and the number of calculations. If it is determined that the recalculation is to be performed (YES in step S205), the processes of steps S203 and S204 are executed again. On the other hand, when it is determined not to recalculate (NO in step S205), a solution is selected (step S206). For example, in step S206, selection can be made based on at least either the satisfaction of the constraints or the value of the objective function. If a plurality of solutions have not been calculated, the process of step S206 may be skipped. Finally, the selected solution is converted into the solution of the combinatorial optimization problem, and the solution of the combinatorial optimization problem is output (step S207).
  • the present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.
  • Management server 2 Network 3a, 3b, 3c Calculation server 4a, 4b, 4c Cable 5 Switch 6 Client terminal 10 Processor 11 Management unit 12 Conversion unit 13 Control unit 14 Storage unit 14A Problem data 14B Calculation data 14C Management program 14D Conversion program 14E , 34C Control program 15, 31 Communication circuit 16 Input circuit 17 Output circuit 18 Operation device 19 Display device 20 Bus 32 Shared memory 33A, 33B, 33C, 33D Processor 34 Storage 34A Calculation data 34B Calculation program 35 Host bus adapter

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Algebra (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Complex Calculations (AREA)

Abstract

[課題]組合せ最適化問題の解を高い精度で計算する情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを提供する。 [解決手段]本発明の実施形態としての情報処理装置は、第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成された記憶部と、第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新し、前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新し、前記時間ステップを更新し、前記第2係数を更新回数に応じて単調増加または単調減少させるように構成された処理回路とを備える。

Description

情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
 本発明の実施形態は、情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムに関する。
 組合せ最適化問題とは、複数の組合せの中から目的に最も適した組合せを選ぶ問題である。組合せ最適化問題は、数学的には、「目的関数」と呼ばれる、複数の離散変数を有する関数を最大化させる問題、または、当該関数を最小化させる問題に帰着される。組合せ最適化問題は、金融、物流、交通、設計、製造、生命科学など各種の分野において普遍的な問題であるが、組合せ数が問題サイズの指数関数のオーダーで増える、いわゆる「組合せ爆発」のため、必ず最適解を求めることができるとは限らない。また、最適解に近い近似解を得ることすら難しい場合が多い。
 各分野における問題を解決し、社会のイノベーションおよび科学技術の進歩を促進するために、組合せ最適化問題の解を高い精度で計算する技術の開発が求められている。
特開2017-73106号公報
H. Goto, K. Tatsumura, A. R. Dixon, Sci. Adv. 5, eaav2372 (2019). H. Goto, Sci. Rep. 6, 21686 (2016). 土屋、西山、辻田:分岐特性を用いた組合せ最適化問題の近似解法URL:http://www.ynl.t.u-tokyo.ac.jp/project/RobotBrainCREST/publications/pdf/tsuchiya/4_01.pdf 土屋、西山、辻田:決定論的アニーリングアルゴリズムの解析URL:http://www.ynl.t.u-tokyo.ac.jp/project/RobotBrainCREST/publications/pdf/tsuchiya/4_02.pdf
 本発明の実施形態は、組合せ最適化問題の解を高い精度で計算する情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを提供する。
 本発明の実施形態としての情報処理装置は、第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成された記憶部と、第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新し、前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新し、前記時間ステップを更新し、前記第2係数を更新回数に応じて単調増加または単調減少させるように構成された処理回路とを備える。
情報処理システムの構成例を示した図。 管理サーバの構成例を示したブロック図。 管理サーバの記憶部に保存されるデータの例を示す図。 計算サーバの構成例を示したブロック図。 計算サーバのストレージに保存されるデータの例を示す図。 時間発展によってシミュレーテッド分岐アルゴリズムの解を計算する場合における処理の例を示したフローチャート。 変形例1によるアルゴリズムの例を示したフローチャート。 シミュレーテッド分岐アルゴリズムのループ処理の繰り返し数(イタレーション数)に応じたハミルトニアンの値の変化の例を示したグラフ。 シミュレーテッド分岐アルゴリズムの各イタレーションにおける第1変数および第2変数の値の例を示したグラフ。 擬似コードによって時間反転対称な可変時間ステップを計算するアルゴリズムの例を示した図。 変形例2によるアルゴリズムの例を示したフローチャート。 マルチプロセッサ構成の例を概略的に示した図。 GPUを使った構成の例を概略的に示した図。 組合せ最適化問題を解くために実行される全体的な処理の例を示したフローチャート。
 以下、図面を参照しながら、本発明の実施形態について説明する。また、図面において同一の構成要素は、同じ番号を付し、説明は、適宜省略する。
 図1は、情報処理システム100の構成例を示したブロック図である。図1の情報処理システム100は、管理サーバ1と、ネットワーク2と、計算サーバ(情報処理装置)3a~3cと、ケーブル4a~4cと、スイッチ5と、記憶装置7を備えている。また、図1には、情報処理システム100と通信可能なクライアント端末6が示されている。管理サーバ1、計算サーバ3a~3c、クライアント端末6および記憶装置7は、ネットワーク2を介して互いにデータ通信をすることができる。例えば、計算サーバ3a~3cは、記憶装置7にデータを保存したり、記憶装置7よりデータを読み出したりすることができる。ネットワーク2は、例えば、複数のコンピュータネットワークが相互に接続されたインターネットである。ネットワーク2は、通信媒体として有線、無線、または、これらの組合せを用いることができる。また、ネットワーク2で使われる通信プロトコルの例としては、TCP/IPがあるが、通信プロトコルの種類については特に問わない。
 また、計算サーバ3a~3cは、それぞれケーブル4a~4cを介してスイッチ5に接続されている。ケーブル4a~4cおよびスイッチ5は、計算サーバ間のインターコネクトを形成している。計算サーバ3a~3cは、当該インターコネクトを介して互いにデータ通信をすることも可能である。スイッチ5は、例えば、Infinibandのスイッチである。ケーブル4a~4cは、例えば、Infinibandのケーブルである。ただし、Infinibandのスイッチ/ケーブルの代わりに、有線LANのスイッチ/ケーブルを使ってもよい。ケーブル4a~4cおよびスイッチ5で使われる通信規格および通信プロトコルについては、特に問わない。クライアント端末6の例としては、ノートPC、デスクトップPC、スマートフォン、タブレット、車載端末などが挙げられる。
 組合せ最適化問題の求解では、処理の並列化および/または処理の分散化を行うことができる。したがって、計算サーバ3a~3cおよび/または計算サーバ3a~3cのプロセッサは、計算処理の一部のステップを分担して実行してもよいし、異なる変数について同様の計算処理を並列的に実行してもよい。管理サーバ1は、例えば、ユーザによって入力された組合せ最適化問題を各計算サーバが処理可能な形式に変換し、計算サーバを制御する。そして、管理サーバ1は、各計算サーバから計算結果を取得し、集約した計算結果を組合せ最適化問題の解に変換する。こうして、ユーザは、組合せ最適化問題の解を得ることができる。組合せ最適化問題の解は、最適解と、最適解に近い近似解とを含むものとする。
 図1には、3台の計算サーバが示されている。ただし、情報処理システムに含まれる計算サーバの台数を限定するものではない。また、組合せ最適化問題の求解に使われる計算サーバの台数についても特に問わない。例えば、情報処理システムに含まれる計算サーバは1台であってもよい。また、情報処理システムに含まれる複数の計算サーバのうち、いずれかの計算サーバを使って組合せ最適化問題の求解を行ってもよい。また、情報処理システムに、数百台以上の計算サーバが含まれていてもよい。計算サーバは、データセンターに設置されたサーバであってもよいし、オフィスに設置されたデスクトップPCであってもよい。また、計算サーバは異なるロケーションに設置された複数の種類のコンピュータであってもよい。計算サーバとして使われる情報処理装置の種類については特に問わない。例えば、計算サーバは、汎用的なコンピュータであってもよいし、専用の電子回路または、これらの組合せであってもよい。
 図2は、管理サーバ1の構成例を示したブロック図である。図2の管理サーバ1は、例えば、中央演算処理装置(CPU)とメモリとを含むコンピュータである。管理サーバ1は、プロセッサ10と、記憶部14と、通信回路15と、入力回路16と、出力回路17とを備えている。プロセッサ10、記憶部14、通信回路15、入力回路16および出力回路17は、互いにバス20を介して接続されているものとする。プロセッサ10は、内部の構成要素として、管理部11と、変換部12と、制御部13とを含んでいる。
 プロセッサ10は、演算を実行し、管理サーバ1の制御を行う電子回路である。プロセッサ10は、処理回路の一例である。プロセッサ10として、例えば、CPU、マイクロプロセッサ、ASIC、FPGA、PLDまたはこれらの組合せを用いることができる。管理部11は、ユーザのクライアント端末6を介して管理サーバ1の操作を行うためのインタフェースを提供する。管理部11が提供するインタフェースの例としては、API、CLI、ウェブページなどが挙げられる。例えば、ユーザは、管理部11を介して組合せ最適化問題の情報の入力を行ったり、計算された組合せ最適化問題の解の閲覧および/またはダウンロードを行ったりすることができる。変換部12は、組合せ最適化問題を各計算サーバが処理可能な形式に変換する。制御部13は、各計算サーバに制御指令を送信する。制御部13が各計算サーバから計算結果を取得した後、変換部12は、複数の計算結果を集約し、組合せ最適化問題の解に変換する。また、制御部13は、各計算サーバまたは各サーバ内のプロセッサが実行する処理内容を指定してもよい。
 記憶部14は、管理サーバ1のプログラム、プログラムの実行に必要なデータ、およびプログラムによって生成されたデータを含む各種のデータを記憶する。ここで、プログラムは、OSとアプリケーションの両方を含むものとする。記憶部14は、揮発性メモリ、不揮発性メモリ、またはこれらの組合せであってもよい。揮発性メモリの例としては、DRAM、SRAMなどがある。不揮発性メモリの例としては、NANDフラッシュメモリ、NORフラッシュメモリ、ReRAM、またはMRAMが挙げられる。また、記憶部14として、ハードディスク、光ディスク、磁気テープまたは外部の記憶装置を使ってもよい。
 通信回路15は、ネットワーク2に接続された各装置との間でデータの送受信を行う。通信回路15は、例えば、有線LANのNIC(Network Interface Card)である。ただし、通信回路15は、無線LANなど、その他の種類の通信回路であってもよい。入力回路16は、管理サーバ1へのデータ入力を実現する。入力回路16は、外部ポートとして、例えば、USB、PCI-Expressなどを備えているものとする。図2の例では、操作装置18が入力回路16に接続されている。操作装置18は、管理サーバ1に情報を入力するための装置である。操作装置18は、例えば、キーボード、マウス、タッチパネル、音声認識装置などであるが、これに限られない。出力回路17は、管理サーバ1からのデータ出力を実現する。出力回路17は、外部ポートとしてHDMI、DisplayPortなどを備えているものとする。図2の例では、表示装置19が出力回路17に接続されている。表示装置19の例としては、LCD(液晶ディスプレイ)、有機EL(有機エレクトロルミネッセンス)ディスプレイ、またはプロジェクタがあるが、これに限られない。
 管理サーバ1の管理者は、操作装置18および表示装置19を使って、管理サーバ1のメンテナンスを行うことができる。なお、操作装置18および表示装置19は、管理サーバ1に組み込まれたものであってもよい。また、管理サーバ1に必ず操作装置18および表示装置19が接続されていなくてもよい。例えば、管理者は、ネットワーク2と通信可能な情報端末を用いて管理サーバ1のメンテナンスを行ってもよい。
 図3は、管理サーバ1の記憶部14に保存されるデータの例を示している。図3の記憶部14には、問題データ14Aと、計算データ14Bと、管理プログラム14Cと、変換プログラム14Dと、制御プログラム14Eとが保存されている。例えば、問題データ14Aは、組合せ最適化問題のデータを含む。例えば、計算データ14Bは、各計算サーバから収集された計算結果を含む。例えば、管理プログラム14Cは、上述の管理部11の機能を実現するプログラムである。例えば、変換プログラム14Dは、上述の変換部12の機能を実現するプログラムである。例えば、制御プログラム14Eは、上述の制御部13の機能を実現するプログラムである。
 図4は、計算サーバの構成例を示したブロックである。図4の計算サーバは、例えば、第1ベクトルおよび第2ベクトルの計算を単独で、または、他の計算サーバと分担して実行する情報処理装置である。
 図4には、例示的に計算サーバ3aの構成が示されている。他の計算サーバは、計算サーバ3aと同様の構成であってもよいし、計算サーバ3aと異なる構成であってもよい。
 計算サーバ3aは、例えば、通信回路31と、共有メモリ32と、プロセッサ33A~33Dと、ストレージ34と、ホストバスアダプタ35とを備えている。通信回路31、共有メモリ32、プロセッサ33A~33D、ストレージ34およびホストバスアダプタ35は、バス36を介して互いに接続されているものとする。
 通信回路31は、ネットワーク2に接続された各装置との間でデータの送受信を行う。通信回路31は、例えば、有線LANのNIC(Network Interface Card)である。ただし、通信回路31は、無線LANなど、その他の種類の通信回路であってもよい。共有メモリ32は、プロセッサ33A~33Dからアクセス可能なメモリである。共有メモリ32の例としては、DRAM、SRAMなどの揮発性メモリが挙げられる。ただし、共有メモリ32として、不揮発性メモリなどその他の種類のメモリが使われてもよい。共有メモリ32は、例えば、第1ベクトルおよび第2ベクトルを記憶するように構成されていてもよい。プロセッサ33A~33Dは、共有メモリ32を介してデータの共有を行うことができる。なお、必ず計算サーバ3aのすべてのメモリが共有メモリとして構成されていなくてもよい。例えば、計算サーバ3aの一部のメモリは、いずれかのプロセッサのみからアクセスできるローカルメモリとして構成されていてもよい。なお、共有メモリ32および後述するストレージ34は、情報処理装置の記憶部の一例である。
 プロセッサ33A~33Dは、計算処理を実行する電子回路である。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)のいずれであってもよいし、これらの組合せであってもよい。また、プロセッサは、CPUコアまたはCPUスレッドであってもよい。プロセッサがCPUである場合、計算サーバ3aが備えるソケット数については、特に問わない。また、プロセッサは、PCI expressなどのバスを介して計算サーバ3aのその他の構成要素に接続されていてもよい。
 図4の例では、計算サーバが4つのプロセッサを備えている。ただし、1台の計算サーバが備えているプロセッサの数はこれとは異なっていてもよい。例えば、計算サーバによって実装されているプロセッサの数および/または種類が異なっていてもよい。ここで、プロセッサは、情報処理装置の処理回路の一例である。情報処理装置は、複数の処理回路を備えていてもよい。
 情報処理装置は、例えば、第1変数x(i=1、2、・・・、N)を要素とする第1ベクトルおよび第1変数に対応する第2変数y(i=1、2、・・・、N)を要素とする第2ベクトルを繰り返し更新するように構成されている。情報処理装置の記憶部は、第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成されていてもよい。
 例えば、情報処理装置の処理回路は、第1係数で重み付けした第2変数を時間ステップで乗算し、対応する第1変数に加算することによって第1変数を更新し、第1変数を、時間ステップおよび第2係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、時間ステップを乗じた問題項を第2変数に加算することによって第2変数を更新し、時間ステップを更新し、第2係数を更新回数に応じて単調増加または単調減少させるように構成されている。問題項は、イジングモデルに基づいて計算されるものであってもよい。また、問題項は、多体相互作用を含むものであってもよい。第1係数、第2係数、問題項、イジングモデルおよび多体相互作用の詳細については、後述する。
 情報処理装置では、例えば、プロセッサ単位で処理内容(タスク)の割り当てを行うことができる。ただし、処理内容の割り当てが行われる計算資源の単位を限定するものではない。例えば、計算機単位で処理内容の割り当てを行ってもよいし、プロセッサ上で動作するプロセス単位またはCPUスレッド単位で処理内容の割り当てを行ってもよい。
 以下では、再び図4を参照し、計算サーバの構成要素を説明する。
 ストレージ34は、計算サーバ3aのプログラム、プログラムの実行に必要なデータ、およびプログラムによって生成されたデータを含む各種のデータを記憶する。ここで、プログラムは、OSとアプリケーションの両方を含むものとする。ストレージ34は、例えば、第1ベクトルおよび第2ベクトルを記憶するように構成されていてもよい。ストレージ34は、揮発性メモリ、不揮発性メモリ、またはこれらの組合せであってもよい。揮発性メモリの例としては、DRAM、またはSRAMなどがある。不揮発性メモリの例としては、NANDフラッシュメモリ、NORフラッシュメモリ、ReRAM、またはMRAMが挙げられる。また、ストレージ34として、ハードディスク、光ディスク、磁気テープまたは外部の記憶装置が使われてもよい。
 ホストバスアダプタ35は、計算サーバ間のデータ通信を実現する。ホストバスアダプタ35は、ケーブル4aを介してスイッチ5に接続されている。ホストバスアダプタ35は、例えば、HCA(Host Channel Adaptor)である。ホストバスアダプタ35、ケーブル4a、およびスイッチ5を使って高スループットを実現可能なインターコネクトを形成することにより、並列的な計算処理の速度を向上させることができる。
 図5は、計算サーバのストレージに保存されるデータの例を示している。図5のストレージ34には、計算データ34Aと、計算プログラム34Bと、制御プログラム34Cとが保存されている。計算データ34Aは、計算サーバ3aの計算途中のデータまたは計算結果を含んでいる。なお、計算データ34Aの少なくとも一部は、共有メモリ32、プロセッサのキャッシュ、またはプロセッサのレジスタなど、異なる記憶階層に保存されていてもよい。計算プログラム34Bは、所定のアルゴリズムに基づき、各プロセッサにおける計算処理および、共有メモリ32およびストレージ34へのデータの保存処理を実現するプログラムである。制御プログラム34Cは、管理サーバ1の制御部13から送信された指令に基づき、計算サーバ3aを制御し、計算サーバ3aの計算結果を管理サーバ1に送信するプログラムである。
 次に、組合せ最適化問題の求解に関連する技術について説明する。組合せ最適化問題を解くために使われる情報処理装置の一例として、イジングマシンが挙げられる。イジングマシンとは、イジングモデルの基底状態のエネルギーを計算する情報処理装置のことをいう。これまで、イジングモデルは、主に強磁性体や相転移現象のモデルとして使われることが多かった。しかし、近年、イジングモデルは、組合せ最適化問題を解くためのモデルとしての利用が増えている。下記の式(1)は、イジングモデルのエネルギーを示している。
Figure JPOXMLDOC01-appb-M000001
ここで、s、sはスピンである、スピンは、+1または-1のいずれかの値をとる2値変数である。Nは、スピンの数である。hは、各スピンに作用する局所磁場である。Jは、スピン間における結合係数の行列である。行列Jは、対角成分が0である実対称行列となっている。したがって、Jijは行列Jのi行j列の要素を示している。なお、式(1)のイジングモデルは、スピンについての2次式となっているが、後述するように、スピンの3次以上の項を含む拡張されたイジングモデル(多体相互作用を有するイジングモデル)を使ってもよい。
 式(1)のイジングモデルを使うと、エネルギーEIsingを目的関数とし、エネルギーEIsingを可能な限り小さくする解を計算することができる。イジングモデルの解は、スピンのベクトル(s、s、・・・、s)の形式で表される。このベクトルを解ベクトルとよぶものとする。特に、エネルギーEIsingが最小値となるベクトル(s、s、・・・、s)は、最適解とよばれる。ただし、計算されるイジングモデルの解は、必ず厳密な最適解でなくてもよい。以降では、イジングモデルを使ってエネルギーEIsingが可能な限り小さくなる近似解(すなわち、目的関数の値が可能な限り最適値に近くなる近似解)を求める問題をイジング問題とよぶものとする。
 式(1)のスピンsは2値変数であるため、式(1+s)/2を使うことにより、組合せ最適化問題で使われる離散変数(ビット)との変換を容易に行うことができる。したがって、組合せ最適化問題をイジング問題に変換し、イジングマシンに計算を行わせることにより、組合せ最適化問題の解を求めることが可能である。0または1のいずれかの値をとる離散変数(ビット)を変数とする2次の目的関数を最小化する解を求める問題は、QUBO(Quadratic Unconstrained Binary Optimization、制約なし2値変数2次最適化)問題とよばれる。式(1)で表されるイジング問題は、QUBO問題と等価であるといえる。
 例えば、量子アニーラ、コヒーレントイジングマシン、または量子分岐マシンなどがイジングマシンのハードウェア実装として提案されている。量子アニーラは、超伝導回路を使って量子アニーリングを実現する。コヒーレントイジングマシンは、光パラメトリック発振器で形成されたネットワークの発振現象を利用する。量子分岐マシンは、カー効果を有するパラメトリック発振器のネットワークにおける量子力学的な分岐現象を利用する。これらのハードウェア実装は、計算時間の大幅な短縮を実現する可能性がある一方、大規模化や安定的な運用が難しいという課題もある。
 そこで、広く普及しているデジタルコンピュータを使ってイジング問題の求解を行うことも可能である。デジタルコンピュータは、上述の物理的現象を使ったハードウェア実装と比べ、大規模化と安定運用が容易である。デジタルコンピュータでイジング問題の求解を行うためのアルゴリズムの一例として、シミュレーテッドアニーリング(SA)が挙げられる。シミュレーテッドアニーリングをより高速に実行する技術の開発が行われている。ただし、一般のシミュレーテッドアニーリングはそれぞれの変数が逐次更新される逐次更新アルゴリズムであるため、並列化による計算処理の高速化は難しい。
 上述の課題を踏まえ、デジタルコンピュータにおける並列的な計算によって、規模の大きい組合せ最適化問題の求解を高速に行うことが可能なシミュレーテッド分岐アルゴリズムが提案されている。以降では、シミュレーテッド分岐アルゴリズムを使って組合せ最適化問題を解く情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムについて説明する。
 はじめに、シミュレーテッド分岐アルゴリズムの概要について述べる。
 シミュレーテッド分岐アルゴリズムでは、それぞれN個ある2つの変数x,y(i=1、2、・・・、N)について、下記の(2)の連立常微分方程式を数値的に解く。N個の変数xのそれぞれは、イジングモデルのスピンsに対応している。一方、N個の変数yのそれぞれは、運動量に相当している。変数x,yは、いずれも連続変数であるものとする。以下では、変数x(i=1、2、・・・、N)を要素とするベクトルを第1ベクトル、変数y(i=1、2、・・・、N)を要素とするベクトルを第2ベクトルとそれぞれよぶものとする。
Figure JPOXMLDOC01-appb-M000002
 ここで、Hは、下記の式(3)のハミルトニアンである。
Figure JPOXMLDOC01-appb-M000003
 なお、(2)では、式(3)のハミルトニアンHに代わり、下記の式(4)に示した、項G(x、x、・・・x)を含めたハミルトニアンH´を使ってもよい。ハミルトニアンHだけでなく項G(x、x、・・・x)も含む関数を拡張ハミルトニアンとよび、もとのハミルトニアンHと区別するものとする。
Figure JPOXMLDOC01-appb-M000004
 以下では、項G(x、x、・・・x)が補正項である場合を例に処理を説明する。ただし、項G(x、x、・・・x)は、組合せ最適化問題の制約条件より導かれるものであってもよい。ただし、項G(x、x、・・・x)の導出方法と種類を限定するものではない。また、式(4)では、もとのハミルトニアンHに項G(x、x、・・・x)が加算されている。ただし、項G(x、x、・・・x)は、これとは異なる方法で拡張ハミルトニアンに組み込まれていてもよい。
 式(3)のハミルトニアンおよび(4)の拡張ハミルトニアンを参照すると、それぞれの項が第1ベクトルの要素xまたは第2ベクトルの要素yのいずれかの項になっている。下記の式(5)に示すように、第1ベクトルの要素xの項Uと、第2ベクトルの要素yの項Vに分けることが可能な拡張ハミルトニアンを使ってもよい。
Figure JPOXMLDOC01-appb-M000005
 シミュレーテッド分岐アルゴリズムの時間発展の計算では、変数x,y(i=1、2、・・・、N)の値が繰り返し更新される。そして、所定の条件が満たされたときに変数xを変換することによってイジングモデルのスピンs(i=1、2、・・・、N)を求めることができる。以下では、時間発展の計算が行われる場合を想定して処理の説明を行う。ただし、シミュレーテッド分岐アルゴリズムの計算は、時間発展以外の方式で行われてもよい。
 (2)および(3)において、係数Dは、上述の第1係数に相当し、離調(detuning)ともよばれる。係数p(t)は、上述の第2係数に相当し、ポンピング振幅(pumping amplitude)ともよばれる。時間発展の計算において、係数p(t)の値を更新回数に応じて単調増加させることができる。係数p(t)の初期値は0に設定されていてもよい。
 なお、以下では、第2係数p(t)が正値であり、更新回数に応じて第2係数p(t)の値が大きくなる場合を例に説明する。ただし、以下で提示するアルゴリズムの符号を反転し、負値の第2係数p(t)を使ってもよい。この場合、更新回数に応じて第2係数p(t)の値が単調減少する。ただし、いずれの場合においても、更新回数に応じて第2係数p(t)の絶対値が単調増加する。
 係数Kは、正のカー係数(Kerr coefficient)に相当する。係数cとして、定数係数を使うことができる。例えば、係数cの値を、シミュレーテッド分岐アルゴリズムによる計算の実行前に決めてもよい。例えば、係数cをJ(2)行列の最大固有値の逆数に近い値に設定することができる。例えば、c=0.5D√(N/2n)という値を使うことができる。ここで、nは、組合せ最適化問題に係るグラフのエッジ数である。また、a(t)は、時間発展の計算時においてp(t)とともに増加する係数である。例えば、a(t)として、√(p(t)/K)を使うことができる。なお、(3)および(4)における局所磁場のベクトルhは、省略すること可能である。
 例えば、係数p(t)の値が所定の値を超えた時に、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換すると、スピンsを要素とする解ベクトルを得ることができる。この解ベクトルは、イジング問題の解に相当する。なお、第1ベクトルおよび第2ベクトルの更新回数に基づき、上述の変換を実行し、解ベクトルを求めるか否かを判定してもよい。
 シミュレーテッド分岐アルゴリズムの計算を行う場合、シンプレクティック・オイラー法を使い、上述の(2)を離散的な漸化式に変換し、求解を行うことができる。下記の(6)は、漸化式に変換後のシミュレーテッド分岐アルゴリズムの例を示している。
Figure JPOXMLDOC01-appb-M000006
 ここで、tは、時刻であり、Δtは、時間ステップ(時間刻み幅)である。なお、(6)では、微分方程式との対応関係を示すために、時刻tおよび時間ステップΔtが使われている。ただし、実際にアルゴリズムをソフトウェアまたはハードウェアに実装する際に必ず時刻tおよび時間ステップΔtが明示的なパラメータとして含まれていなくてもよい。例えば、時間ステップΔtを1とすれば、実装時のアルゴリズムから時間ステップΔtを除去することが可能である。アルゴリズムを実装する際に、明示的なパラメータとして時間tを含めない場合には、(4)において、x(t+Δt)をx(t)の更新後の値であると解釈すればよい。すなわち、上述の(4)における“t”は、更新前の変数の値、“t+Δt”は、更新後の変数の値を示すものとする。
 (6)のうち、3段目に記載された項は、イジングエネルギーに由来する。この項の形式は、解きたい問題に応じて決まるため、問題項(problem term)とよぶものとする。
 シミュレーテッド分岐アルゴリズムの時間発展を計算する場合、p(t)の値を初期値(例えば、0)から所定の値まで増加させた後における変数xの符号に基づき、スピンsの値を求めることができる。例えば、x>0のときsgn(x)=+1、x<0のときsgn(x)=-1となる符号関数を使うと、p(t)の値が所定の値まで増加したとき、変数xを符号関数で変換することによってスピンsの値を求めることができる。符号関数として、例えば、x≠0のときに、sgn(x)=x/|x|、x=0のときにsgn(x)=+1または-1になる関数を使うことができる。組合せ最適化問題の解(例えば、イジングモデルのスピンs)を求めるタイミングについては、特に問わない。例えば、第1ベクトルおよび第2ベクトルの更新回数、第2係数pの値または目的関数の値がしきい値より大きくなったときに組合せ最適化問題の解(解ベクトル)を求めてもよい。
 図6のフローチャートは、時間発展によってシミュレーテッド分岐アルゴリズムの解を計算する場合における処理の例を示している。以下では、図6を参照しながら処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得する(ステップS101)。そして、計算サーバは、係数p(t)およびa(t)を初期化する(ステップS102)。例えば、ステップS102で係数pおよびaの値を0にすることができるが、係数pおよびaの初期値を限定するものではない。次に、計算サーバは、第1変数xおよび第2変数yを初期化する(ステップS103)。ここで、第1変数xは、第1ベクトルの要素である。また、第2変数yは、第2ベクトルの要素である。ステップS103で計算サーバは、例えば、xおよびyをそれぞれ0で初期化してもよい。ただし、xおよびyの初期化の方法を限定するものではない。また、これとは異なるタイミングに第1変数xまたは第2変数yの初期化を行ってもよい。また、少なくともいずれかの変数を複数回初期化してもよい。
 次に、計算サーバは、第2ベクトルの要素yに基づき対応する第1ベクトルの要素xを更新する(ステップS104)。例えば、計算サーバは、ステップS104で第1ベクトルの要素xに対応する第2ベクトルの要素yを重み付け加算することによって第1ベクトルを更新する。例えば、ステップS104では、変数xにΔt×D×yを加算することができる。そして、計算サーバは、第2ベクトルの要素yを更新する(ステップS105およびS106)。例えば、ステップS105では、変数yにΔt×[(p-D-K×x×x)×x]を加算することができる。ステップS106では、さらに変数yに-Δt×c×h×a-Δt×c×ΣJij×xを加算することができる。
 次に、計算サーバは、係数pおよびaの値を更新する(ステップS107)。例えば、係数pに一定の値(Δp)を加算し、係数aを更新後の係数pの正の平方根に設定することができる。ただし、後述するように、これは係数pおよびaの値の更新方法の一例にしかすぎない。そして、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS108)。更新回数がしきい値未満である場合(ステップS108のYES)、計算サーバは、ステップS104~S107の処理を再度実行する。更新回数がしきい値以上である場合(ステップS108のNO)、第1ベクトルの要素xに基づいて解ベクトルの要素であるスピンsを求める(ステップS109)。ステップS109では、例えば、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 なお、ステップS108の判定において、更新回数がしきい値未満である場合(ステップS108のYES)に第1ベクトルに基づきハミルトニアンの値を計算し、第1ベクトルおよびハミルトニアンの値を記憶してもよい。これにより、ユーザは、複数の第1ベクトルより最適解に最も近い近似解を選択することが可能となる。
 なお、図6のフローチャートに示した少なくともいずれかの処理を並列的に実行してもよい。例えば、第1ベクトルおよび第2ベクトルのそれぞれが有するN個の要素が並列的に更新されるよう、ステップS104~S106の少なくともいずれかの処理を並列的に実行してもよい。例えば、複数台の計算サーバを使って処理を並列化してもよい。複数のプロセッサによって処理を並列化してもよい。ただし、処理の並列化を実現するための実装および処理の並列化の態様を限定するものではない。
 上述のステップS105~S106に示した変数xおよびyの更新処理の実行順序は、一例にしかすぎない。したがって、これとは異なる順序で変数xおよびyの更新処理を実行してもよい。例えば、変数xの更新処理と変数yの更新処理が実行される順序が入れ替わっていてもよい。また、各変数の更新処理に含まれるサブ処理の順序も限定しない。例えば、変数yに対する加算処理の実行順序が図6の例とは異なっていてもよい。各変数の更新処理を実行するための前提となる処理の実行順序およびタイミングも特に限定しない。例えば、問題項の計算処理が、変数xの更新処理を含むその他の処理と並行で実行されていてもよい。変数xおよびyの更新処理、各変数の更新処理に含まれるサブ処理および問題項の計算処理が実行される順序およびタイミングが限定されない点は、以降に示す各フローチャートの処理についても、同様である。
[可変時間ステップによるアルゴリズムの計算]
 上述の図6のフローチャートにおいて、時間ステップΔtとして固定値を使うことができる。ただし、必ず固定値の時間ステップΔtを使わなくてもよい。例えば、Δtを可変時間ステップにしてもよい。可変時間ステップを使ってシミュレーテッド分岐アルゴリズムの計算を行うことにより、計算時間の抑制および/または計算精度の改善を実現することができる。
 ループ処理の各イタレーションにおいて、例えば、係数tの値を下記の(7)に基づいて更新することができる。
Figure JPOXMLDOC01-appb-M000007
 ここで、nは、イタレーションの番号を示す正の整数である。(7)は、イタレーション(n-1)における係数tの値tn-1にΔtn-1を加算すると、次のイタレーションnにおける係数tの値tが得られることを示している。可変時間ステップが使われる場合、各イタレーションn=1,2,・・・においてΔtn-1の値が固定値ではなくなる。したがって、イタレーションによってΔtn-1は、異なる値をとりうる。
 例えば、ループ処理の継続可否の判定のために係数tを使うことができる。ただし、その他の方法によってループ処理の継続可否が判定される場合には、(7)の処理をスキップしてもよい。例えば、ハミルトニアンの値、係数pの値、係数aの値、イタレーションの回数の少なくともいずれかに基づいてループ処理の継続可否を判定してもよい。すなわち、シミュレーテッド分岐アルゴリズムの実行時に必ず係数tの更新処理を行わなくてもよい。
 下記の(8)は、可変時間ステップの更新方法の例を示している。
Figure JPOXMLDOC01-appb-M000008
(8)の方法を使うと、イタレーション(n-1)における時間ステップΔtn-1に、ハミルトニアンの値H´n-1およびH´n-2に基づく係数を乗算することによって次のイタレーションnで使う時間ステップΔtを得ることができる。ここで、H´n-1は、イタレーション(n-1)で計算されたハミルトニアンの値である。一方、H´n-2は、その前のイタレーション(n-2)で計算されたハミルトニアンの値である。
 (8)を使うと、ループ処理によってハミルトニアンの値が一定値(例えば、0)の近傍に収束するのにしたがって、時間ステップΔtの値が小さくなる。このため、ハミルトニアンの値が収束する前には、比較的大きい時間ステップを使い、計算量を削減することができる。一方、ハミルトニアンの値の収束が始まると、比較的小さい時間ステップが使われるため、高い精度で計算を行うことが可能となる。これにより、最適解に近い近似解を計算することができる。このように、少なくともひとつのイタレーションで計算されたハミルトニアンの値に基づいて時間ステップの値を更新してもよい。ただし、(8)とは異なる方法によって時間ステップを更新してもよい。
 図7のフローチャートは、変形例1によるアルゴリズムの例を示している。以下では、図7を参照しながら、処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得する(ステップS110)。そして、計算サーバは、係数p(t)、a(t)、nおよびΔtを初期化する(ステップS111)。例えば、ステップS111で係数pおよびaの値を0にすることができるが、係数pおよびaの初期値を限定するものではない。例えば、ステップS111でnを1に初期化することができる。ただし、nの初期値は、これとは異なっていてもよい。Δtは、時間ステップの初期値である。例えば、計算サーバは、Δtに任意の正の自然数を設定することができる。
 そして、計算サーバは、第1変数xおよび第2変数yを初期化する(ステップS112)。ここで、第1変数xは、第1ベクトルの要素である。また、第2変数yは、第2ベクトルの要素である。ステップS112で計算サーバは、例えば、xおよびyをそれぞれ0で初期化してもよい。また、計算サーバは、xおよびyをそれぞれ擬似乱数によって初期化してもよい。ただし、xおよびyの初期化の方法を限定するものではない。なお、これとは異なるタイミングに第1変数xまたは第2変数yの初期化を行ってもよい。また、少なくともいずれかの変数の初期化を複数回実行してもよい。
 次に、計算サーバは、記憶領域よりハミルトニアンの値H´n-1およびH´n-2を読み出し、時間ステップΔtを更新する(ステップS113)。例えば、上述の(8)の方法によって時間ステップΔtを更新することができる。ただし、その他の方法によって時間ステップΔtを更新してもよい。記憶領域として、例えば、共有メモリ32またはストレージ34が提供する記憶領域を使うことができる。ただし、外部の記憶装置またはクラウドストレージが提供する記憶領域を使ってもよく、記憶領域の場所を限定するものではない。なお、ステップS113が初めて実行されるタイミングでは、記憶領域にH´n-1およびH´n-2が保存されていない可能性がある。この場合、ステップS113の処理をスキップしてもよい。
 そして、計算サーバは、第2ベクトルの要素yに基づき対応する第1ベクトルの要素xを更新する(ステップS114)。例えば、計算サーバは、ステップS114で第1ベクトルの要素xに対応する第2ベクトルの要素yを重み付け加算することによって第1ベクトルを更新する。例えば、ステップS114では、変数xにΔt×D×yを加算することができる。そして、計算サーバは、第2ベクトルの要素yを更新する(ステップS115およびS116)。例えば、ステップS115では、変数yにΔt×[(p-D-K×x×x)×x]を加算することができる。ステップS116では、さらに変数yに-Δt×c×h×a-Δt×c×ΣJij×xを加算することができる。
 次に、計算サーバは、ハミルトニアンの値H´を計算し、それを記憶領域に保存する(ステップS117)。ハミルトニアンとして、上述の(1)のエネルギーの関数を計算してもよい。また、ハミルトニアンとして、上述の(3)または(4)を計算してもよい。また、その他の形式で定義されるハミルトニアンを使ってもよい。例えば、計算サーバは、ステップS117でハミルトニアンが計算されたイタレーションを示す番号とともにハミルトニアンの値H´を記憶領域に保存することができる。そして、計算サーバは、係数p、aおよびnの値を更新する(ステップS118)。例えば、係数pに一定の値(Δp)を加算し、係数aを更新後の係数pの正の平方根に設定することができる。また、ステップS118で係数nの値をインクリメントしてもよい。これにより、記憶領域に保存されたデータが生成されたイタレーションを識別することが可能となる。さらに、ステップS118では、tn-1にΔtを加算することによって係数tを計算してもよい。
 次に、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS119)。更新回数がしきい値未満である場合(ステップS119のYES)、計算サーバは、ステップS113~S118の処理を再度実行する。更新回数がしきい値以上である場合(ステップS119のNO)、第1ベクトルの要素xに基づいて解ベクトルの要素であるスピンsを求める(ステップS120)。ステップS120では、例えば、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 なお、ステップS119の判定において、更新回数がしきい値未満である場合(ステップS119のYES)に第1ベクトルに基づきハミルトニアンの値を計算し、記憶領域に第1ベクトルおよびハミルトニアンの値を保存してもよい。これにより、ユーザは、複数の第1ベクトルより最適解に最も近い近似解を選択することが可能となる。そして、選択した第1ベクトルを解ベクトルに変換することができる。また、ループ処理の実行中など、これとは異なるタイミングにおいて解ベクトルの計算を行ってもよい。
 また、図7のフローチャートに示した少なくともいずれかの処理を並列的に実行してもよい。例えば、第1ベクトルおよび第2ベクトルがそれぞれ有するN個の要素が並列的に更新されるよう、ステップS114~S116の処理の少なくともいずれかを並列的に実行してもよい。例えば、複数台の計算サーバを使って処理を並列化してもよい。複数のプロセッサによって処理を並列化してもよい。ただし、処理の並列化を実現するための実装および処理の並列化の態様を限定するものではない。
 情報処理装置の処理回路は、第1ベクトルに基づいてハミルトニアン(目的関数)の値を計算し、記憶部にハミルトニアン(目的関数)の値を保存するように構成されていてもよい。また、情報処理装置の処理回路は、記憶部より異なるイタレーションで計算されたハミルトニアン(目的関数)の値を読み出し、複数のハミルトニアン(目的関数)の値に基づいて、時間ステップを更新するように構成されていてもよい。
 [時間反転対称な可変時間ステップ]
 シミュレーテッド分岐アルゴリズムの実行時に可変時間ステップを使う場合、計算精度への影響を考慮して時間ステップΔtの更新方法を決めることが望まれる。例えば、ループ処理のイタレーション間における時間ステップΔtの変化量が大きくなると、計算処理の安定性が損なわれるおそれがある。このような場合の例を、下記の図8および図9を用いて説明する。
 図8は、シミュレーテッド分岐アルゴリズムのループ処理の繰り返し数(イタレーション数)に応じたハミルトニアンの値の変化の例を示している。図8の横軸は、アルゴリズムのイタレーション数を示している。図8の縦軸は、エネルギーの値を示している。例えば、エネルギーの値は、上述の(1)によって計算される。ただし、(1)以外の形式のエネルギー関数を使ってもよい。
 図9は、シミュレーテッド分岐アルゴリズムの各イタレーションにおける第1変数xおよび第2変数yの値の例を示している。図9の横軸は、第1変数xの値に相当する。一方、図9の縦軸は、第2変数yの値に相当する。シミュレーテッド分岐アルゴリズムを粒子の運動状態を記述する物理的なモデルであると解釈した場合、第1変数xは、当該粒子の位置を示す。一方、第2変数yは、粒子の運動量を示す。
 図8および図9の(a)では、時間ステップΔtの変化量を大きく設定し、上述の(8)および図7のアルゴリズムを実行した場合における結果を示している。図8の(a)を参照すると、エネルギーの値が振動をしながらイタレーション数の増加とともに大きくなっている。シミュレーテッド分岐アルゴリズムがハミルトン力学系の要件を満たしている場合、図8の(a)は、計算誤差の蓄積を示しているといえる。また、図9の(a)では、イタレーションによって第1変数xおよび第2変数yの軌道が変化しており、誤差の発生がみられる。
 このように、時間ステップΔtの変化量を大きくしすぎると、ハミルトン力学系にシンプレクティック・オイラー法を適用した場合におけるエネルギー保存のメリットを享受できなくなるおそれがある。したがって、図8および図9の(a)の場合に計算処理の安定性および精度を担保するためには、時間ステップΔtの変化量を一定の範囲内に抑えなくてはならない。このため、計算時間の短縮のために、時間ステップΔtを大きくとることが難しくなる可能性がある。
 上述では、シミュレーテッド分岐アルゴリズムがハミルトン力学系の要件を満たしている場合について説明したが、シミュレーテッド分岐アルゴリズムは、必ずハミルトン力学系の要件を満たしていなくてもよい。使用するアルゴリズムがハミルトン力学系の要件を満たしていない場合においても、計算処理の安定性および精度を考慮する必要がある点は、同様である。
 ハミルトン力学系にシンプレクティック・オイラー法を適用した場合、保存量は、時間ステップΔtに応じて定まる基準点について振動する。このため、時間ステップΔtを変化させると、振動の基準点が変化してしまう。このため、可変時間ステップΔtが時間反転に対称でない場合、イタレーションによってpなどの係数が変化していなくても、計算誤差が蓄積する可能性がある。一方、時間反転対称性がある可変時間ステップΔtを使うと、時間反転によって解空間における初期条件に復帰することが可能となるため、計算誤差の蓄積を防止することができる。
 そこで、情報処理装置および情報処理システムでは、時間反転対称性がある時間ステップΔtを使うことができる。これにより、計算処理の安定性および精度を改善させることができる。以下では、時間反転対称性がある可変時間ステップΔtの例について、説明する。
 例えば、下記の(9)で定義される時間ステップ幅Δtn,n+1を使うことができる。
Figure JPOXMLDOC01-appb-M000009
 ここで、Δtc,nは、時間ステップ幅の第1候補値である。一方、Δtc,n+1は、時間ステップ幅の第2候補値である。第1候補値Δtc,nおよび第2候補値Δtc,n+1は、いずれも第1変数xまたは第2変数yの少なくともいずれかに基づいて計算される。Δtn,n+1のノーテーションにおけるn,n+1は、イタレーションnとイタレーション(n+1)の間に使われる時間ステップ幅であることを示している。
 (9)の第2候補値Δtc,n+1の計算を行うためには、Δtn,n+1を使う必要がある。このため、Δtn,n+1は、陰関数として定義されている。このため、(9)を満たす時間ステップΔtn,n+1の計算では、陰的解法を使うことができる。例えば、セルフコンシステントな陰関数が得られるよう、繰り返しを含む演算を実行することによって、Δtn,n+1の値を求めることができる。
 イタレーション(n+1)とイタレーションnの間に使われる時間ステップ幅Δtn+1,nを計算すると、上述のΔtn,n+1に等しくなる。Δtn,n+1=Δtn+1,nが成り立つため、時間ステップ幅が時間反転対称になっているといえる。
 なお、上述の(9)では、計算される時間ステップ幅Δtn,n+1が第1候補値Δtc,nおよび第2候補値Δtc,n+1の算術平均となっている。ただし、可変時間ステップの計算に使われる平均演算の種類を限定するものではない。例えば、第1候補値Δtc,nおよび第2候補値Δtc,n+1の幾何平均を計算することによって可変時間ステップを求めてもよい。また、第1候補値Δtc,nおよび第2候補値Δtc,n+1の調和平均を計算することによって可変時間ステップを求めてもよい。
 図10には、擬似コードによって時間反転対称な可変時間ステップを計算するアルゴリズムの例が示されている。図10の擬似コードは、一般的なプログラミング言語に類似する文法を使って記述されている。ただし、アルゴリズムの実装に使われるプログラミング言語の種類を限定するものではない。以下では、図10を参照しながら、アルゴリズムの例を説明する。
 図10の上部には、グローバル変数として、“a”、“b”、“dt0”および“thres“が定義されている。グローバル変数は、各関数内からも参照可能な変数である。ここで定義されたグローバル変数の組合せおよびグローバル変数の値は、例にしかすぎない。
 グローバル変数の下には、関数“t_evolution”が定義されている。関数“t_evolution”は、呼び出し時に第1変数、第2変数および時間ステップを引数として受け取り、1イタレーション分の時間発展後における第1変数および第2変数を返す。関数“t_evolution”は、処理が時間反転対称となるよう、第1変数の更新処理が2回に分けて実行されている。また、第2変数の更新処理は、2回の第1変数の更新処理の間に実行されている。すなわち、図10の例では、下記の(10)のアルゴリズムに基づいて時間発展の計算が行われている。
Figure JPOXMLDOC01-appb-M000010
なお、(10)のx[n+1/2]は、2回の更新処理のうち、第1回目の更新処理の後における第1変数の値を示している。ここで、時間反転対称とは、処理の実行順序が反転しても、実行される処理の内容が変わらないことを意味するものとする。
 関数“t_evolution”の下には、関数“generate_dt”が定義されている。関数“generate_dt”は、呼び出し時に第1変数および第2変数を引数として受け取り、第1変数または第2変数の少なくともいずれかに基づいて時間ステップの候補値を計算し、当該候補値を返す。関数“generate_dt”を使うことによって、セルフコンシステントな時間ステップを探索することができる。図10の例に示したように、処理回路が計算する時間ステップの候補値(第1候補値または第2候補値の少なくともいずれか)は、第1変数の2次関数に反比例していてもよい。例えば、図10のように、グローバル変数“a”、“b”および“dt0”ならびに、第1変数に基づいて時間ステップの候補値を計算してもよい。ただし、この計算方法は、一例にしかすぎない。例えば、第2変数に基づいて時間ステップの候補値を計算してもよい。また、第1変数と第2変数の両方を用いて時間ステップの候補値を計算してもよい。すなわち、時間ステップの第2候補値の計算に使われるアルゴリズムを限定するものではない。
 関数“generate_dt”の下には、関数“symmetric_dt” が定義されている。関数“symmetric_dt” は、呼び出し時に第1変数および第2変数を引数として受け取り、複数イタレーション分の時間発展を経た第1変数および第2変数、ならびに時間ステップ幅Δtn,n+1を返す。
 次に、関数“symmetric_dt”で実行される処理の詳細について述べる。
 はじめに、関数“symmetric_dt”の呼び出し時に受け取った第1変数(変数“x1”)および第2変数(変数“x2”)を引数として関数“generate_dt”を2回呼び出している。これにより、ローカル変数“dt1”および“dt2”に時間ステップの候補値が代入される。
 次に、forループの処理に進む。
 forループ内では、はじめに、変数“x1”、変数“y1”および(dt1+dt2)/2を引数として、関数“t_evolution”が呼び出される。これにより、1イタレーション分の時間発展後の第1変数の値がローカル変数“x2”に代入される。また、1イタレーション分の時間発展後の第2変数の値がローカル変数“y2”に代入される。そして、ローカル変数“x2”および“y2”を引数として、関数“generate_dt”が呼び出され、生成された時間ステップの候補値がローカル変数“_dt”に代入されている。
 次に、forループ内では、ローカル変数“dt2”の値とローカル変数“_dt”の値との差がしきい値“thres”未満であるか否かが判定されている(if文)。ローカル変数“dt2”の値とローカル変数“_dt”の値との差がしきい値未満である場合、ループ処理から抜け出す(break)。ローカル変数“dt2”の値とローカル変数“_dt”の値との差がしきい値以上である場合(else文)、ローカル変数“_dt”に格納されていた時間ステップの第2候補値がローカル変数“dt2”に代入される。すなわち、else文でローカル変数“dt2”の値が更新される。
 ループ処理内では、イタレーションによって(dt1+dt2)/2の値が変化する。このため、関数“t_evolution”の引数であるローカル変数“x1”および“y1”の値が変わらなくても、イタレーションによって時間発展後のローカル変数“x2”および“y2”の値が変化する。関数“generate_dt”は、更新されたローカル変数“x2”および“y2”を使って計算を行うため、時間ステップの第2候補値(図10の“_dt”)もイタレーションによって変化する。
 上述のforループ内の処理は、カウンタ変数の値が5になるか、if文の判定が肯定的になるまで繰り返される。すなわち、上述の処理が5回実行されるか、更新後の第2候補値(図10の“_dt”)の変化量が一定の範囲内に収束するまで、forループ内の処理が繰り返される。図10における繰り返し回数および収束判定は、例にしかすぎない。したがって、陰的解法における処理の繰り返し回数は、5とは異なる値であってもよい。また、更新後の第2候補値の収束判定に使われるしきい値を限定するものではない。
 forループの処理を抜けた後、関数“symmetric_dt”は、ローカル変数“x2”の値、“y2”の値、および(dt1+dt2)/2の値を返す。関数“symmetric_dt”が返すローカル変数“x2”の値は、時間発展後の第1変数xに相当する。一方、関数“symmetric_dt”が返すローカル変数“y2”の値は、時間発展後の第2変数yに相当する。また、関数“symmetric_dt”が返す(dt1+dt2)/2の値は、上述の(9)における時間ステップ幅Δtn,n+1に相当する。
 図10の下部には、第1変数x=1、第2変数y=0を引数として、上述の関数“symmetric_dt”が呼び出されている。x=1およびy=0は、関数“symmetric_dt”の呼び出し時における引数の値の一例にしかすぎない。シミュレーテッド分岐アルゴリズムの実行状況に応じて第1変数xおよび第2変数yは、これとは異なる値をとりうる。
 なお、図10のグローバル変数“a”は、上述の(6)のアルゴリズムにおける-D+p(t+Δt)に相当している。したがって、図10の擬似コードでは示されていないものの、更新回数に応じて第2係数pを単調増加または単調減少させるため、関数“symmetric_dt”の呼び出し前または呼び出し後にグローバル変数“a”の値を更新してもよい。
 図11のフローチャートは、変形例2によるアルゴリズムの例を示している。以下では、図11を参照しながら、処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得する(ステップS130)。そして、計算サーバは、係数p(t)、a(t)およびΔtを初期化する(ステップS131)。例えば、ステップS131で係数pおよびaの値を0にすることができるが、係数pおよびaの初期値を限定するものではない。Δtは、図10におけるグローバル変数“dt0”に相当する。例えば、計算サーバは、Δtに任意の正の自然数を設定することができる。
 そして、計算サーバは、第1変数xおよび第2変数yを初期化する(ステップS132)。ここで、第1変数xは、第1ベクトルの要素である。また、第2変数yは、第2ベクトルの要素である。ステップS132で計算サーバは、例えば、xおよびyをそれぞれ0で初期化してもよい。また、計算サーバは、xおよびyをそれぞれ擬似乱数によって初期化してもよい。ただし、xおよびyの初期化の方法を限定するものではない。また、これとは異なるタイミングに第1変数xまたは第2変数yの初期化を行ってもよい。また、少なくともいずれかの変数を複数回初期化してもよい。
 次に、計算サーバは、第1変数xまたは第2変数yの少なくともいずれかに基づき、候補値Δt1およびΔt2を生成する(ステップS133)。例えば、ステップS133では、図10の関数“generate_dt”を使うことができる。ただし、候補値Δt1およびΔt2の生成アルゴリズムを限定するものではない。
 そして、計算サーバは、第1変数x、第2変数yおよび(Δt1+Δt2)/2に基づき第1変数xおよび第2変数yの時間発展を時間反転対称に計算する(ステップS134)。ステップS134の処理により、第1変数xおよび第2変数yの値は更新される。例えば、ステップS134では、上述の(10)または図10の関数“t_evolution”を使って第1変数xおよび第2変数yを更新することができる。ただし、時間反転対称であるのであれば、これとは異なるアルゴリズムで第1変数xおよび第2変数yの更新を行ってもよい。なお、ステップS134では、(Δt1+Δt2)/2の代わりに、Δt1とΔt2の幾何平均またはΔt1とΔt2の調和平均を使ってもよい。また、ステップS134でΔt1とΔt2のその他の平均を使ってもよい。
 次に、計算サーバは、第1変数xまたは第2変数yの少なくともいずれかに基づき、候補値_Δtを生成する(ステップS135)。ステップS135においても、図10の関数“generate_dt”を使うことができる。ただし、その他のアルゴリズムによって候補値_Δtを生成してもよい。
 そして、計算サーバは、候補値_ΔtとΔt2との差がしきい値未満であるか否かを判定する(ステップS136)。候補値_ΔtとΔt2との差がしきい値以上である場合(ステップS136のNO)、計算サーバは、_Δtの値をΔt2に代入する(ステップS137)。そして、掲載サーバは、再度ステップS134~S136の処理を実行する。すなわち、ステップS136の判定が否定的である場合、図11の内側のループ処理が継続する。
 候補値_ΔtとΔt2との差がしきい値未満である場合(ステップS136のYES)、計算サーバは、係数pおよびaの値を更新する(ステップS138)。例えば、係数pに一定の値(Δp)を加算し、係数aを更新後の係数pの正の平方根に設定することができる。さらに、ステップS138では、tに(Δt1+Δt2)/2を加算することによって係数tを更新してもよい。なお、ステップS138では、(Δt1+Δt2)/2の代わりに、Δt1とΔt2の幾何平均またはΔt1とΔt2の調和平均を使ってもよい。また、ステップS138でΔt1とΔt2のその他の平均を使ってもよい。
 次に、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS139)。更新回数がしきい値未満である場合(ステップS139のYES)、計算サーバは、ステップS133以降の処理を再度実行する。すなわち、ステップS139の判定が肯定的である場合、図11の外側のループ処理が継続する。更新回数がしきい値以上である場合(ステップS139のNO)、第1ベクトルの要素xに基づいて解ベクトルの要素であるスピンsを求める(ステップS140)。ステップS140では、例えば、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 なお、ステップS139の判定において、更新回数がしきい値未満である場合(ステップS139のYES)に第1ベクトルに基づきハミルトニアンの値を計算し、記憶領域に第1ベクトルおよびハミルトニアンの値を保存してもよい。これにより、ユーザは、複数の第1ベクトルより最適解に最も近い近似解を選択することが可能となる。また、ループ処理の実行中など、これとは異なるタイミングにおいて解ベクトルの計算を行ってもよい。
 また、図11のフローチャートに示した少なくともいずれかの処理を並列的に実行してもよい。例えば、第1ベクトルおよび第2ベクトルがそれぞれ有するN個の要素が並列的に更新されるよう、ステップS133~S136の処理の少なくとも一部を並列的に実行してもよい。例えば、複数台の計算サーバを使って処理を並列化してもよい。複数のプロセッサによって処理を並列化してもよい。ただし、処理の並列化を実現するための実装および処理の並列化の態様を限定するものではない。
 情報処理装置の処理回路は、第1変数または第2変数の少なくともいずれかに基づいて第1候補値および第2候補値を計算し、第1候補値および第2候補値の平均値を時間ステップとして使い第1変数および第2変数を更新し、更新後の第1変数または第2変数の少なくともいずれかに基づいて第2候補値を更新し、再計算した平均値を時間ステップとして使い第1変数および第2変数を再び更新するように構成されていてもよい。
 一方、情報処理装置の処理回路は、更新後の第2候補値と更新前の第2候補値との差が第1しきい値未満であると判定された後に、第2係数を更新するように構成されていてもよい。また、情報処理装置の処理回路は、平均値を時間ステップとして使って第1変数および第2変数を更新する処理、第2候補値を更新する処理および平均値を再計算する処理の繰り返し回数が第2しきい値を超えた後に、第2係数を更新するように構成されていてもよい。
 さらに、情報処理装置の処理回路は、第1変数の更新処理を2回に分けて実行し、第1変数の1回目の更新処理と、第1変数の2回目の更新処理との間に第2変数の更新処理を実行するように構成されていてもよい。処理回路における第1変数の1回目の更新処理と、第1変数の2回目の更新処理において、第1変数に加算される値が等しく設定されていてもよい。
 図8および図9の(b)は、時間反転対称な可変時間ステップを使った場合における結果を示している。図8の(b)を参照すると、エネルギーの値が一定の基準値の近傍で振動している。したがって、シミュレーテッド分岐アルゴリズムがハミルトン力学系の要件を満たしている場合、エネルギーが保存される。すなわち、計算誤差の発生が防止されていることがわかる。また、図9の(b)は、一定の軌道にしたがって第1変数xおよび第2変数yの値が変化しており、計算処理が安定していることを示している。
 時間反転対称な可変時間ステップを使う情報処理装置または情報処理システムを使うことにより、誤差の蓄積を抑制し、高い精度で組合せ最適化問題の解を計算することが可能となる。可変時間ステップを使うと、状況に応じて時間ステップを大きく設定することができるため、計算の精度および安定性を損なうことなく、計算時間を短縮することができる。
 ここでは、情報処理システム、情報処理方法、プログラムおよび記憶媒体の例について述べる。
 情報処理システムは、記憶装置と、情報処理装置とを備えていてもよい。記憶装置は、例えば、第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成されている。情報処理装置は、例えば、第1係数で重み付けした第2変数を時間ステップで乗算し、対応する第1変数に加算することによって第1変数を更新し、第1変数を、時間ステップおよび第2係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、時間ステップを乗じた問題項を第2変数に加算することによって第2変数を更新し、時間ステップを更新し、第2係数を更新回数に応じて単調増加または単調減少させるように構成されている。
 例えば、情報処理方法は、第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する。情報処理方法は、第1係数で重み付けした第2変数を時間ステップで乗算し、対応する第1変数に加算することによって第1変数を更新するステップと、第1変数を、時間ステップおよび第2係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、時間ステップを乗じた問題項を第2変数に加算することによって第2変数を更新するステップと、時間ステップを更新するステップと、第2係数を更新回数に応じて単調増加または単調減少させるステップとを含んでいてもよい。
 プログラムは、例えば、第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新させる。プログラムは、第1係数で重み付けした第2変数を時間ステップで乗算し、対応する第1変数に加算することによって第1変数を更新するステップと、第1変数を、時間ステップおよび第2係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、時間ステップを乗じた問題項を第2変数に加算することによって第2変数を更新するステップと、時間ステップを更新するステップと、第2係数を更新回数に応じて単調増加または単調減少させるステップとを含む処理をコンピュータに実行させてもよい。また、記憶媒体は、当該プログラムを格納する、非一時的なコンピュータ可読な記憶媒体であってもよい。
[多体相互作用の項を含む計算]
 シミュレーテッド分岐アルゴリズムを使うことにより、3次以上の目的関数を有する組合せ最適化問題を解くことも可能である。2値変数を変数とする3次以上の目的関数を最小化する変数の組合せを求める問題は、HOBO(Higher Order Binary Optimization)問題とよばれる。HOBO問題を扱う場合、高次へ拡張されたイジングモデルにおけるエネルギー式として、下記の式(11)を使うことができる。
Figure JPOXMLDOC01-appb-M000011
ここで、J(n)はn階テンソルであり、式(1)の局所磁場hと結合係数の行列Jを一般化させたものである。例えば、テンソルJ(1)は、局所磁場hのベクトルに相当する。n階テンソルJ(n)では、複数の添え字に同じ値があるとき、要素の値は0となる。式(11)では、3次の項までが示されているが、それより高次の項も式(11)と同様に定義することができる。式(11)は多体相互作用を含むイジングモデルのエネルギーに相当する。
 なお、QUBOと、HOBOはいずれも、制約なし多項式2値変数最適化(PUBO:Polynomial Unconstrained Binary Optimization)の1種であるといえる。すなわち、PUBOのうち、2次の目的関数を有する組合せ最適化問題は、QUBOである。また、PUBOのうち、3次以上の目的関数を有する組合せ最適化問題は、HOBOであるといえる。
 シミュレーテッド分岐アルゴリズムを使ってHOBO問題を解く場合、上述の式(3)のハミルトニアンHを下記の式(12)のハミルトニアンHに置き換えればよい。
Figure JPOXMLDOC01-appb-M000012
 また、式(12)より下記の式(13)に示した複数の第1変数を用いて計算される問題項が導かれる。
Figure JPOXMLDOC01-appb-M000013
(13)の問題項zは、(12)の2番目の式を、いずれかの変数x(第1ベクトルの要素)について偏微分した形式をとっている。偏微分される変数xは、インデックスiによって異なる。ここで、変数xのインデックスiは、第1ベクトルの要素および第2ベクトルの要素を指定するインデックスに相当する。
 多体相互作用の項を含む計算を行う場合、上述の(6)の漸化式は、下記の(14)の漸化式に置き換わる。
Figure JPOXMLDOC01-appb-M000014
 (14)は、(6)の漸化式をさらに一般化したものに相当する。
 上述に示した問題項は、本実施形態による情報処理装置が使うことができる問題項の例にしかすぎない。したがって、計算で使われる問題項の形式は、これらとは異なるものであってもよい。情報処理装置の処理回路は、複数の第1変数を使った積和演算を実行することによって問題項を計算するように構成されていてもよい。さらに、積和演算の複数のパートに分け、各パートを異なる演算器(処理回路)に割り当て、複数の演算器で同時に処理を実行してもよい。これにより、積和演算を高速に実行することもできる。また、情報処理装置は、複数の処理回路を備えていてもよい。この場合、それぞれの処理回路は、問題項の少なくとも一部の計算処理を並列的に実行するように構成されていてもよい。
[アルゴリズムの変形例]
 ここでは、シミュレーテッド分岐アルゴリズムの変形例について説明する。例えば、誤差の軽減または計算時間の短縮を目的に、上述のシミュレーテッド分岐アルゴリズムに各種の変形を行ってもよい。
 例えば、計算の誤差を軽減するために、第1変数の更新時に追加の処理を実行してもよい。例えば、更新によって第1変数xの絶対値が1より大きくなったとき、第1変数xの値をsgn(x)に置き換える。すなわち、更新によってx>1となったとき、変数xの値は1に設定される。また、更新によってx<-1となったとき、変数xの値は-1に設定される。これにより、変数xを使ってスピンsをより高い精度で近似することが可能となる。このような処理を含めることにより、アルゴリズムは、x=±1の位置に壁があるN粒子の物理モデルと等価になる。より一般的に述べると、演算回路は、値が第2値より小さい第1変数を第2値に設定し、値が第1値より大きい第1変数を第1値に設定するように構成されていてもよい。
 さらに、更新によってx>1となったとき、変数xに対応する変数yに係数rfを乗算してもよい。例えば、-1<r≦0の係数rfを使うと、上記の壁は、反射係数rfの壁となる。特に、rf=0の係数rfを使った場合、アルゴリズムは、x=±1の位置に完全非弾性衝突の起こる壁がある物理モデルと等価になる。より一般的に述べると、演算回路は、値が第1値より小さい第1変数に対応する第変数、または、第2値より大きい第1変数に対応する第2変数を、もとの第2変数に、第2係数を乗じた値に更新するように構成されていてもよい。例えば、演算回路は、値が-1より小さい第1変数に対応する第変数、または、値が1より大きい第1変数に対応する第2変数を、もとの第2変数に第2係数を乗じた値に更新するように構成されていてもよい。ここで、第2係数は上述の係数rfに相当する。
 なお、演算回路は、更新によってx>1となったとき、変数xに対応する変数yの値を擬似乱数に設定してもよい。例えば、[-0.1,0.1]の範囲の乱数を使うことができる。すなわち、演算回路は、値が第2値より小さい第1変数に対応する第2変数の値、または、値が第1値より大きい第1変数に対応する第2変数の値を、擬似乱数に設定するように構成されていてもよい。
 以上のようにして|x|>1となることを抑止するように更新処理を実行すれば、(6)の非線形項K×x を除去しても、xの値が発散することはなくなる。したがって、下記の(15)に示したアルゴリズムを使うことが可能となる。
Figure JPOXMLDOC01-appb-M000015
 (15)のアルゴリズムでは、問題項において、離散変数ではなく、連続変数xが使われている。このため、本来の組合せ最適化問題で使われている離散変数との誤差が生ずる可能性がある。この誤差を軽減するために、下記の(16)のように、問題項の計算において、連続変数xの代わりに、連続変数xを符号関数で変換した値sgn(x)を使うことができる。
Figure JPOXMLDOC01-appb-M000016
 (16)において、sgn(x)は、スピンsに相当する。
 (16)では、問題項の中の1階のテンソルを含む項の係数αを定数(例えば、α=1)にしてもよい。(16)のアルゴリズムでは、問題項で現れるスピンどうしの積が必ず-1または1のいずれかの値をとるため、高次の目的関数を有するHOMO問題を扱った場合、積演算による誤差の発生を防ぐことができる。上述の(16)のアルゴリズムのように、計算サーバが計算するデータは、さらに、変数s(i=1、2、・・・、N)を要素とするスピンのベクトル(s,s,・・・,s)を含んでいてもよい。第1ベクトルのそれぞれの要素を符号関数で変換することにより、スピンのベクトルを得ることができる。
[変数の更新処理の並列化の例]
 以下では、シミュレーテッド分岐アルゴリズムの計算時における変数の更新処理の並列化の例について説明する。
 はじめに、PCクラスタへシミュレーテッド分岐アルゴリズムを実装した例について説明する。PCクラスタとは、複数台のコンピュータを接続し、1台のコンピュータでは得られない計算性能を実現するシステムである。例えば、図1に示した情報処理システム100は、複数台の計算サーバおよびプロセッサを含んでおり、PCクラスタとして利用することが可能である。例えば、PCクラスタにおいては、MPI(Message Passing Interface)を使うことにより、情報処理システム100のような複数の計算サーバにメモリが分散して配置されている構成でも並列的な計算を実行することが可能である。例えば、MPIを使って管理サーバ1の制御プログラム14E、各計算サーバの計算プログラム34Bおよび制御プログラム34Cを実装することができる。
 PCクラスタで利用するプロセッサ数がQである場合、それぞれのプロセッサに、第1ベクトル(x,x,・・・,x)に含まれる変数xのうち、L個の変数の計算を行わせることができる。同様に、それぞれのプロセッサに、第2ベクトル(y,y,・・・,y)に含まれる変数yのうち、L個の変数の計算を行わせることができる。すなわち、プロセッサ#j(j=1,2,・・・,Q)は、変数{x|m=(j-1)L+1,(j-1)L+2,・・・,jL}および{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}の計算を行う。また、プロセッサ#jによる{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}の計算に必要な下記の(17)に示されたテンソルJ(n)は、プロセッサ#jがアクセス可能な記憶領域(例えば、レジスタ、キャッシュ、メモリなど)に保存されるものとする。
Figure JPOXMLDOC01-appb-M000017
 ここでは、それぞれのプロセッサが第1ベクトルおよび第2ベクトルの一定数の変数を計算する場合を説明した。ただし、プロセッサによって、計算対象とする第1ベクトルおよび第2ベクトルの要素(変数)の数が異なっていてもよい。例えば、計算サーバに実装されるプロセッサによって性能差がある場合、プロセッサの性能に応じて計算対象とする変数の数を決めることができる。
 変数yの値を更新するためには、第1ベクトル(x,x,・・・,x)のすべての成分の値が必要となる。2値変数への変換は、例えば、符号関数sgn()を使うことによって行うことができる。そこで、Allgather関数を使い、第1ベクトル(x,x,・・・,x)のすべての成分の値をQ個のプロセッサに共有させることができる。第1ベクトル(x,x,・・・,x)については、プロセッサ間での値の共有が必要であるものの、第2ベクトル(y,y,・・・,y)およびテンソルJ(n)については、プロセッサ間での値の共有を行うことは必須ではない。プロセッサ間でのデータの共有は、例えば、プロセッサ間通信を使ったり、共有メモリにデータを保存したりすることによって実現することができる。
 プロセッサ#jは、問題項{z|m=(j-1)L+1,(j-1)L+2,・・・,jL}の値を計算する。そして、プロセッサ#jは、計算した問題項{{z|m=(j-1)L+1,(j-1)L+2,・・・,jL}の値に基づき、変数{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}を更新する。
 上述の各式に示したように、問題項のベクトル(z,z,・・・,z)の計算では、テンソルJ(n)と、ベクトル(x,x,・・・,x)との積の計算を含む、積和演算が必要である。積和演算は、上述のアルゴリズムにおいて最も計算量の大きい処理であり、計算速度の向上においてボトルネックとなりうる。そこで、PCクラスタの実装では、積和演算を、Q=N/L個のプロセッサに分散して並列的に実行し、計算時間の短縮をはかることができる。
 図12は、マルチプロセッサ構成の例を概略的に示している。図12の複数の計算ノードは、例えば、情報処理システム100の複数の計算サーバに相当する。また、図12の高速リンクは、例えば、情報処理システム100のケーブル4a~4cおよびスイッチ5によって形成された計算サーバ間のインターコネクトに相当する。図12の共有メモリは、例えば、共有メモリ32に相当する。図12のプロセッサは、例えば、各計算サーバのプロセッサ33A~33Dに相当している。なお、図12には複数の計算ノードが示されているが、単一計算ノードの構成を用いることを妨げるものではない。
 図12には、各構成要素に配置されるデータおよび構成要素間で転送されるデータが示されている。各プロセッサでは、変数x、yの値が計算される。また、プロセッサと共有メモリ間では、変数xが転送される。各計算ノードの共有メモリには、例えば、第1ベクトル(x,x,・・・,x)、第2ベクトル(y,y,・・・,y)のL個の変数、およびテンソルJ(n)の一部が保存される。そして、計算ノード間を接続する高速リンクでは、例えば、第1ベクトル(x,x,・・・,x)が転送される。Allgather関数を使う場合、各プロセッサで変数yを更新するために、第1ベクトル(x,x,・・・,x)の全要素が必要となる。
 なお、図12に示したデータの配置および転送は一例にしかすぎない。PCクラスタにおけるデータの配置方法、転送方法および並列化の実現方法については、特に問わない。
 また、GPU(Graphics Processing Unit)を使ってシミュレーテッド分岐アルゴリズムの計算を行ってもよい。
 図13は、GPUを使った構成の例を概略的に示している。図13には、互いに高速リンクで接続された複数のGPUが示されている。それぞれのGPUには、共有メモリにアクセス可能な複数のコアが搭載されている。また、図13の構成例では、複数のGPUが高速リンクを介して接続されており、GPUクラスタを形成している。例えば、GPUが図1のそれぞれの計算サーバに搭載されている場合、高速リンクは、ケーブル4a~4cおよびスイッチ5によって形成された計算サーバ間のインターコネクトに相当する。なお、図13の構成例では、複数のGPUが使われているが、ひとつのGPUを使った場合にも、並列的な計算を実行することが可能である。すなわち、図13のそれぞれのGPUは、図16のそれぞれの計算ノードに相当する計算を実行できる。すなわち、情報処理装置(計算サーバ)のプロセッサ(処理回路)は、Graphics Processing Unit(GPU)のコアであってもよい。
 GPUにおいて、変数xおよびy、ならびにテンソルJ(n)はデバイス変数として定義される。GPUは、変数yの更新に必要なテンソルJ(n)と第1ベクトル(x,x,・・・,x)の積を、行列ベクトル積関数によって並列的に計算することができる。なお、行列とベクトルの積演算を繰り返し実行することにより、テンソルとベクトルの積を求めることができる。また、第1ベクトル(x,x,・・・,x)の計算と、第2ベクトル(y,y,・・・,y)のうち、積和演算以外の部分については、それぞれのスレッドにi番目の要素(x,y)の更新処理を実行させ、処理の並列化を実現することができる。
 情報処理装置は、複数の処理回路を備えていてもよい。この場合、それぞれの処理回路は、並列的に第1ベクトルの少なくとも一部および第2ベクトルの少なくとも一部を更新するように構成されていてもよい。
 また、情報処理システムは、複数の情報処理装置を備えていてもよい。この場合、それぞれの処理回路は、並列的に第1ベクトルの少なくとも一部および第2ベクトルの少なくとも一部を更新するように構成されていてもよい。
[組合せ最適化問題を解くための全体的な処理]
 以下では、シミュレーテッド分岐アルゴリズムを用いて組合せ最適化問題を解くために実行される全体的な処理を説明する。
 図14のフローチャートは、組合せ最適化問題を解くために実行される全体的な処理の例を示している。以下では、図14を参照しながら、処理を説明する。
 はじめに、組合せ最適化問題を定式化する(ステップS201)。そして、定式化された組合せ最適化問題をイジング問題(イジングモデルの形式)に変換する(ステップS202)。次に、イジングマシン(情報処理装置)によってイジング問題の解を計算する(ステップS203)。そして、計算された解を検証する(ステップS204)。例えば、ステップS204では、制約条件が満たされているか否かの確認が行われる。また、ステップS204で目的関数の値を参照し、得られた解が最適解またはそれに近い近似解であるか否かの確認を行ってもよい。
 そして、ステップS204における検証結果または計算回数の少なくともいずれかに応じて再計算をするか否かを判定する(ステップS205)。再計算をすると判定された場合(ステップS205のYES)、ステップS203およびS204の処理が再び実行される。一方、再計算をしないと判定された場合(ステップS205のNO)、解の選択を行う(ステップS206)。例えば、ステップS206では、制約条件の充足または目的関数の値の少なくともいずれかに基づき選択を行うことができる。なお、複数の解が計算されていない場合には、ステップS206の処理をスキップしてもよい。最後に、選択した解を組合せ最適化問題の解に変換し、組合せ最適化問題の解を出力する(ステップS207)。
 上述で説明した情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを使うことにより、組合せ最適化問題の解を実用的な時間内で計算することが可能となる。これにより、組合せ最適化問題の求解がより容易となり、社会のイノベーションおよび科学技術の進歩を促進することが可能となる。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組合せてもよい。
1 管理サーバ
2 ネットワーク
3a、3b、3c 計算サーバ
4a、4b、4c ケーブル
5 スイッチ
6 クライアント端末
10 プロセッサ
11 管理部
12 変換部
13 制御部
14 記憶部
14A 問題データ
14B 計算データ
14C 管理プログラム
14D 変換プログラム
14E、34C 制御プログラム
15、31 通信回路
16 入力回路
17 出力回路
18 操作装置
19 表示装置
20 バス
32 共有メモリ
33A、33B、33C、33D プロセッサ
34 ストレージ
34A 計算データ
34B 計算プログラム
35 ホストバスアダプタ

Claims (18)

  1.  第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成された記憶部と、
     第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新し、
     前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新し、
     前記時間ステップを更新し、
     前記第2係数を更新回数に応じて単調増加または単調減少させるように構成された処理回路とを備える、
     情報処理装置。
  2.  前記処理回路は、前記第1変数または前記第2変数の少なくともいずれかに基づいて第1候補値および第2候補値を計算し、前記第1候補値および前記第2候補値の平均値を前記時間ステップとして使い前記第1変数および前記第2変数を更新し、更新後の前記第1変数または前記第2変数の少なくともいずれかに基づいて前記第2候補値を更新し、再計算した前記平均値を前記時間ステップとして使い前記第1変数および前記第2変数を再び更新するように構成されている、
     請求項1に記載の情報処理装置。
  3.  前記処理回路が計算する前記第1候補値または前記第2候補値の少なくともいずれかは、は、前記第1変数の2次関数に反比例している、
     請求項2に記載の情報処理装置。
  4.  前記処理回路は、更新後の前記第2候補値と更新前の前記第2候補値との差が第1しきい値未満であると判定された後に、前記第2係数を更新するように構成されている、
     請求項2または3に記載の情報処理装置。
  5.  前記処理回路は、前記平均値を時間ステップとして使って前記第1変数および前記第2変数を更新する処理、前記第2候補値を更新する処理および前記平均値を再計算する処理の繰り返し回数が第2しきい値を超えた後に、前記第2係数を更新するように構成されている、
     請求項2ないし4のいずれか一項に記載の情報処理装置。
  6.  前記処理回路は、前記第1変数の更新処理を2回に分けて実行し、前記第1変数の1回目の更新処理と、前記第1変数の2回目の更新処理との間に前記第2変数の更新処理を実行するように構成されている、
     請求項2ないし5のいずれか一項に記載の情報処理装置。
  7.  前記処理回路における前記1回目の更新処理と、前記2回目の更新処理において、前記第1変数に加算される値が等しく設定されている、
     請求項6に記載の情報処理装置。
  8.  前記処理回路は、前記第1ベクトルに基づいて目的関数の値を計算し、前記記憶部に前記目的関数の値を保存するように構成されている、
     請求項1に記載の情報処理装置。
  9.  前記処理回路は、前記記憶部より異なるイタレーションで計算された前記目的関数の値を読み出し、複数の前記目的関数の値に基づいて、前記時間ステップを更新するように構成されている、
     請求項8に記載の情報処理装置。
  10.  前記処理回路が計算する前記問題項は、イジングモデルに基づいている、
     請求項1ないし9のいずれか一項に記載の情報処理装置。
  11.  前記処理回路が計算する前記問題項は、多体相互作用を含んでいる、
     請求項10に記載の情報処理装置。
  12.  複数の前記処理回路を備え、
     それぞれの前記処理回路は、並列的に前記第1ベクトルの少なくとも一部および前記第2ベクトルの少なくとも一部を更新するように構成されている、
     請求項1ないし11のいずれか一項に記載の情報処理装置。
  13.  それぞれの前記処理回路は、並列的に前記問題項の少なくとも一部の計算処理を実行するように構成されている、
     請求項12に記載の情報処理装置。
  14.  第1ベクトルの要素である第1変数および第2ベクトルの要素である第2変数を記憶するように構成された記憶装置と、
     第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新し、
     前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新し、
     前記時間ステップを更新し、
     前記第2係数を更新回数に応じて単調増加または単調減少させるように構成された情報処理装置とを備える、
     情報処理システム。
  15.  複数の前記情報処理装置を備え、
     それぞれの前記情報処理装置は、並列的に前記第1ベクトルの少なくとも一部および前記第2ベクトルの少なくとも一部を更新するように構成されている、
     請求項14に記載の情報処理システム。
  16.  第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する情報処理方法であって、
     第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新するステップと、
     前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新するステップと、
     前記時間ステップを更新するステップと、
     前記第2係数を更新回数に応じて単調増加または単調減少させるステップとを含む、
     情報処理方法。
  17.  コンピュータに第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新させるプログラムであって、
     第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新するステップと、
     前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新するステップと、
     前記時間ステップを更新するステップと、
     前記第2係数を更新回数に応じて単調増加または単調減少させるステップとを含む処理を前記コンピュータに実行させる、
     プログラムを格納している、
     非一時的なコンピュータ可読な記憶媒体。
  18.  コンピュータに第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新させるプログラムであって、
     第1係数で重み付けした前記第2変数を時間ステップで乗算し、対応する前記第1変数に加算することによって前記第1変数を更新するステップと、
     前記第1変数を、前記時間ステップおよび第2係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記時間ステップを乗じた前記問題項を前記第2変数に加算することによって前記第2変数を更新するステップと、
     前記時間ステップを更新するステップと、
     前記第2係数を更新回数に応じて単調増加または単調減少させるステップとを含む処理を前記コンピュータに実行させる、
     プログラム。
PCT/JP2020/014633 2019-03-28 2020-03-30 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム WO2020196915A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CA3135147A CA3135147A1 (en) 2019-03-28 2020-03-30 Information processing device, information processing system, information processing method, storage medium, and program
JP2021509697A JP7474242B2 (ja) 2019-03-28 2020-03-30 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
US17/487,719 US20220019715A1 (en) 2019-03-28 2021-09-28 Information processing device, information processing system, information processingmethod, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019064277 2019-03-28
JP2019-064277 2019-03-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/487,719 Continuation US20220019715A1 (en) 2019-03-28 2021-09-28 Information processing device, information processing system, information processingmethod, and storage medium

Publications (1)

Publication Number Publication Date
WO2020196915A1 true WO2020196915A1 (ja) 2020-10-01

Family

ID=72608837

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014633 WO2020196915A1 (ja) 2019-03-28 2020-03-30 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム

Country Status (4)

Country Link
US (1) US20220019715A1 (ja)
JP (1) JP7474242B2 (ja)
CA (1) CA3135147A1 (ja)
WO (1) WO2020196915A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073106A (ja) * 2015-10-07 2017-04-13 株式会社東芝 量子計算装置、及び、方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073106A (ja) * 2015-10-07 2017-04-13 株式会社東芝 量子計算装置、及び、方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GOTO, HAYATO: "Bifurcation-based adiabatic quantum computation with a nonlinear oscillator network", SCIENTIFIC REPORTS, vol. 6, 21686, 22 February 2016 (2016-02-22), pages 1 - 8, XP055744351, Retrieved from the Internet <URL:https://www.nature.com/articles/srep21686.pdf> [retrieved on 20200601] *
ITO,DAISUKE ET AL.: "Bifurcation phenomena of the Ising network with a bipolar logistic chaos neuron.", IEICE TECHNICAL REPORT, vol. 115, no. 268, 18 October 2015 (2015-10-18), pages 59 - 62, ISSN: 0913-5685 *

Also Published As

Publication number Publication date
US20220019715A1 (en) 2022-01-20
CA3135147A1 (en) 2020-10-01
JP7474242B2 (ja) 2024-04-24
JPWO2020196915A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
US20220012387A1 (en) Information processing device, information processing system, information processing method, and storage medium
JP7421291B2 (ja) 情報処理装置、プログラム、情報処理方法、および電子回路
WO2020246073A1 (en) Information processing device, pubo solver, information processing method and non-transitory storage medium
JP7176127B2 (ja) 量子シミュレーションアルゴリズムに基づくデータサーチ方法、装置及び機器並びにコンピュータプログラム
US20220012307A1 (en) Information processing device, information processing system, information processing method, and storage medium
WO2020196883A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
JP7341965B2 (ja) 計算装置、計算方法およびプログラム
WO2020196915A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
WO2020196872A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
US11741187B2 (en) Calculation device, calculation method, and computer program product
WO2022249785A1 (ja) 求解装置、求解方法およびプログラム
CN117313884A (zh) 量子电路处理方法、装置及电子设备
CN117313882A (zh) 量子电路处理方法、装置及电子设备
CN117313883A (zh) 量子电路处理方法、装置及电子设备
CN117313878A (zh) 量子电路处理方法、装置及电子设备
CN117313877A (zh) 量子电路处理方法、装置及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20779065

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021509697

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3135147

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20779065

Country of ref document: EP

Kind code of ref document: A1