WO2020196866A1 - 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム Download PDF

Info

Publication number
WO2020196866A1
WO2020196866A1 PCT/JP2020/014164 JP2020014164W WO2020196866A1 WO 2020196866 A1 WO2020196866 A1 WO 2020196866A1 JP 2020014164 W JP2020014164 W JP 2020014164W WO 2020196866 A1 WO2020196866 A1 WO 2020196866A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
variable
information processing
calculation
searched
Prior art date
Application number
PCT/JP2020/014164
Other languages
English (en)
French (fr)
Inventor
鈴木 賢
隼人 後藤
光介 辰村
Original Assignee
株式会社 東芝
東芝デジタルソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝デジタルソリューションズ株式会社 filed Critical 株式会社 東芝
Priority to CN202080025393.5A priority Critical patent/CN113646782A/zh
Priority to CA3135137A priority patent/CA3135137C/en
Priority to JP2021509661A priority patent/JP7502269B2/ja
Publication of WO2020196866A1 publication Critical patent/WO2020196866A1/ja
Priority to US17/487,144 priority patent/US20220012307A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • G06F17/13Differential equations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/20Configuration CAD, e.g. designing by assembling or positioning modules selected from libraries of predesigned modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/40Physical realisations or architectures of quantum processors or components for manipulating qubits, e.g. qubit coupling or qubit control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms

Definitions

  • An embodiment of the present invention relates to an information processing device, an information processing system, an information processing method, a storage medium, and a program.
  • the combinatorial optimization problem is a problem of selecting the most suitable combination from a plurality of combinations.
  • Combinatorial optimization problems are mathematically reduced to a problem called an "objective function" that maximizes a function having a plurality of discrete variables or minimizes the function.
  • the combinatorial optimization problem is a universal problem in various fields such as finance, logistics, transportation, design, manufacturing, and life science, but the number of combinations increases in the order of the exponential function of the problem size, so-called "combinatorial explosion". Therefore, it is not always possible to find the optimum solution. Moreover, it is often difficult to even obtain an approximate solution close to the optimum solution.
  • An embodiment of the present invention provides an information processing device, an information processing system, an information processing method, a storage medium, and a program for calculating a solution of a combinatorial optimization problem within a practical time.
  • the information processing apparatus is configured to repeatedly update the first vector having the first variable as an element and the second vector having the second variable corresponding to the first variable as an element. ..
  • the information processing device includes a storage unit and a processing circuit.
  • the processing circuit updates the first vector by weighting and adding the second variable corresponding to the first variable, and stores the updated first vector as a searched vector in the storage unit.
  • the first variable is weighted by the first coefficient that monotonically increases or decreases according to the number of updates, added to the corresponding second variable, the problem term between the first variables is calculated, and the problem term is the second.
  • Add to the variable read the searched vector from the storage unit, calculate the correction term including the inverse of the distance between the first vector to be updated and the searched vector, and use the correction term as the second. It is configured to update the second vector by adding it to a variable.
  • the figure which showed the configuration example of an information processing system A block diagram showing a configuration example of the management server.
  • the figure which shows the example of the data stored in the storage of the calculation server. A flowchart showing an example of processing when calculating the solution of a simulated branch algorithm by time evolution.
  • FIG. 1 is a block diagram showing a configuration example of the information processing system 100.
  • the information processing system 100 of FIG. 1 includes a management server 1, a network 2, calculation servers (information processing devices) 3a to 3c, cables 4a to 4c, a switch 5, and a storage device 7. Further, FIG. 1 shows a client terminal 6 capable of communicating with the information processing system 100.
  • the management server 1, the calculation servers 3a to 3c, the client terminal 6, and the storage device 7 can communicate data with each other via the network 2.
  • the calculation servers 3a to 3c can store data in the storage device 7 and read data from the storage device 7.
  • the network 2 is, for example, the Internet in which a plurality of computer networks are connected to each other.
  • the network 2 can use wired, wireless, or a combination thereof as a communication medium.
  • an example of the communication protocol used in the network 2 is TCP / IP, but the type of the communication protocol is not particularly limited.
  • the calculation servers 3a to 3c are connected to the switch 5 via cables 4a to 4c, respectively. Cables 4a-4c and switch 5 form an interconnect between compute servers. The calculation servers 3a to 3c can also perform data communication with each other via the interconnect.
  • the switch 5 is, for example, an Infiniband switch.
  • the cables 4a to 4c are, for example, Infiniband cables. However, a wired LAN switch / cable may be used instead of the InfiniBand switch / cable.
  • the communication standard and communication protocol used in the cables 4a to 4c and the switch 5 are not particularly limited. Examples of the client terminal 6 include a notebook PC, a desktop PC, a smartphone, a tablet, an in-vehicle terminal, and the like.
  • the management server 1 controls the calculation server by converting, for example, the combinatorial optimization problem input by the user into a format that can be processed by each calculation server. Then, the management server 1 acquires the calculation result from each calculation server and converts the aggregated calculation result into a solution of the combinatorial optimization problem. In this way, the user can obtain a solution to the combinatorial optimization problem.
  • the solution of the combinatorial optimization problem shall include an optimal solution and an approximate solution close to the optimal solution.
  • FIG. 1 shows three calculation servers.
  • the number of calculation servers included in the information processing system is not limited.
  • the number of calculation servers used to solve the combinatorial optimization problem is not particularly limited.
  • the information processing system may include one calculation server.
  • the combinatorial optimization problem may be solved by using one of a plurality of calculation servers included in the information processing system.
  • the information processing system may include hundreds or more calculation servers.
  • the calculation server may be a server installed in a data center or a desktop PC installed in an office. Further, the calculation server may be a plurality of types of computers installed at different locations.
  • the type of information processing device used as the calculation server is not particularly limited.
  • the calculation server may be a general-purpose computer, a dedicated electronic circuit, or a combination thereof.
  • FIG. 2 is a block diagram showing a configuration example of the management server 1.
  • the management server 1 in FIG. 2 is, for example, a computer including a central processing unit (CPU) and a memory.
  • the management server 1 includes a processor 10, a storage unit 14, a communication circuit 15, an input circuit 16, and an output circuit 17. It is assumed that the processor 10, the storage unit 14, the communication circuit 15, the input circuit 16 and the output circuit 17 are connected to each other via the bus 20.
  • the processor 10 includes a management unit 11, a conversion unit 12, and a control unit 13 as internal components.
  • the processor 10 is an electronic circuit that executes calculations and controls the management server 1.
  • the processor 10 is an example of a processing circuit.
  • the processor 10 for example, a CPU, a microprocessor, an ASIC, an FPGA, a PLD, or a combination thereof can be used.
  • the management unit 11 provides an interface for operating the management server 1 via the user's client terminal 6. Examples of the interface provided by the management unit 11 include API, CLI, and a web page.
  • the user can input information on the combinatorial optimization problem via the management unit 11, and can view and / or download the calculated solution of the combinatorial optimization problem.
  • the conversion unit 12 converts the combinatorial optimization problem into a format that can be processed by each calculation server.
  • the control unit 13 transmits a control command to each calculation server.
  • control unit 13 After the control unit 13 acquires the calculation result from each calculation server, the conversion unit 12 aggregates the plurality of calculation results and converts them into a solution of the combinatorial optimization problem. Further, the control unit 13 may specify the processing content to be executed by each calculation server or the processor in each server.
  • the storage unit 14 stores various types of data including the program of the management server 1, data necessary for executing the program, and data generated by the program.
  • the storage unit 14 may be a volatile memory, a non-volatile memory, or a combination thereof. Examples of volatile memory include DRAM, SRAM and the like. Examples of non-volatile memory include NAND flash memory, NOR flash memory, ReRAM, or MRAM. Further, as the storage unit 14, a hard disk, an optical disk, a magnetic tape, or an external storage device may be used.
  • the communication circuit 15 transmits / receives data to / from each device connected to the network 2.
  • the communication circuit 15 is, for example, a wired LAN NIC (Network Interface Card). However, the communication circuit 15 may be another type of communication circuit such as a wireless LAN.
  • the input circuit 16 realizes data input to the management server 1. It is assumed that the input circuit 16 includes, for example, USB, PCI-Express, or the like as an external port.
  • the operating device 18 is connected to the input circuit 16.
  • the operation device 18 is a device for inputting information to the management server 1.
  • the operating device 18 is, for example, a keyboard, a mouse, a touch panel, a voice recognition device, and the like, but is not limited thereto.
  • the output circuit 17 realizes data output from the management server 1. It is assumed that the output circuit 17 is provided with HDMI, DisplayPort, or the like as an external port.
  • the display device 19 is connected to the output circuit 17. Examples of the display device 19 include, but are not limited to, an LCD (liquid crystal display), an organic EL (organic electroluminescence) display, or a projector.
  • the administrator of the management server 1 can perform maintenance on the management server 1 by using the operation device 18 and the display device 19.
  • the operation device 18 and the display device 19 may be incorporated in the management server 1. Further, the operation device 18 and the display device 19 do not necessarily have to be connected to the management server 1. For example, the administrator may perform maintenance on the management server 1 using an information terminal capable of communicating with the network 2.
  • FIG. 3 shows an example of data stored in the storage unit 14 of the management server 1.
  • the problem data 14A, the calculation data 14B, the management program 14C, the conversion program 14D, and the control program 14E are stored in the storage unit 14 of FIG.
  • the problem data 14A includes data of a combinatorial optimization problem.
  • the calculation data 14B includes the calculation results collected from each calculation server.
  • the management program 14C is a program that realizes the functions of the management unit 11 described above.
  • the conversion program 14D is a program that realizes the functions of the conversion unit 12 described above.
  • the control program 14E is a program that realizes the functions of the control unit 13 described above.
  • FIG. 4 is a block showing a configuration example of the calculation server.
  • the calculation server of FIG. 4 is, for example, an information processing apparatus that executes the calculation of the first vector and the second vector independently or in sharing with other calculation servers.
  • FIG. 4 illustrates the configuration of the calculation server 3a as an example.
  • the other calculation server may have the same configuration as the calculation server 3a, or may have a configuration different from that of the calculation server 3a.
  • the calculation server 3a includes, for example, a communication circuit 31, a shared memory 32, processors 33A to 33D, a storage 34, and a host bus adapter 35. It is assumed that the communication circuit 31, the shared memory 32, the processors 33A to 33D, the storage 34, and the host bus adapter 35 are connected to each other via the bus 36.
  • the communication circuit 31 transmits / receives data to / from each device connected to the network 2.
  • the communication circuit 31 is, for example, a wired LAN NIC (Network Interface Card). However, the communication circuit 31 may be another type of communication circuit such as a wireless LAN.
  • the shared memory 32 is a memory that can be accessed from the processors 33A to 33D. Examples of the shared memory 32 include volatile memories such as DRAM and SRAM. However, as the shared memory 32, another type of memory such as a non-volatile memory may be used.
  • the shared memory 32 may be configured to store, for example, the first vector and the second vector.
  • the processors 33A to 33D can share data via the shared memory 32.
  • the memories of the calculation server 3a need to be configured as shared memory.
  • a part of the memory of the calculation server 3a may be configured as a local memory that can be accessed only by any processor.
  • the shared memory 32 and the storage 34 described later are examples of storage units of the information processing device.
  • Processors 33A to 33D are electronic circuits that execute calculation processing.
  • the processor may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), or an ASIC (Application Specific Integrated Circuit), which may be a combination of these or a combination of these. You may.
  • the processor may be a CPU core or a CPU thread.
  • the processor may be connected to other components of the calculation server 3a via a bus such as PCI express.
  • the calculation server is equipped with four processors.
  • the number of processors provided in one computing server may be different from this.
  • the number and / or type of processors implemented by the compute server may be different.
  • the processor is an example of a processing circuit of an information processing device.
  • the information processing device may include a plurality of processing circuits.
  • the processing circuit of the information processing device updates the first vector by weighting and adding the second variable to the first variable, stores the updated first vector as a searched vector in the storage unit, and stores the updated first variable in the storage unit.
  • the problem term is calculated using the plurality of first variables, and the problem term is added to the second variable.
  • Read the searched vector from the storage unit calculate the correction term including the inverse of the distance between the first vector to be updated and the searched vector, and add the correction term to the second variable to obtain the second vector. It may be configured to update.
  • the problem argument may be calculated based on the Ising model.
  • the first variable does not necessarily have to increase or decrease monotonically.
  • the problem item may include many-body interactions. Details of the first coefficient, problem term, searched vector, correction term, Ising model, and many-body interaction will be described later.
  • processing contents can be assigned for each processor.
  • the unit of computational resources to which the processing contents are assigned is not limited.
  • the processing contents may be assigned for each computer, or the processing contents may be assigned for each process running on the processor or each CPU thread.
  • the storage 34 stores various data including the program of the calculation server 3a, the data necessary for executing the program, and the data generated by the program.
  • the storage 34 may be configured to store, for example, the first vector and the second vector.
  • the storage 34 may be a volatile memory, a non-volatile memory, or a combination thereof. Examples of volatile memory include DRAM, SRAM and the like. Examples of non-volatile memory include NAND flash memory, NOR flash memory, ReRAM, or MRAM. Further, as the storage 34, a hard disk, an optical disk, a magnetic tape, or an external storage device may be used.
  • the host bus adapter 35 realizes data communication between calculation servers.
  • the host bus adapter 35 is connected to the switch 5 via a cable 4a.
  • the host bus adapter 35 is, for example, an HCA (Host Channel Adapter).
  • HCA Hyper Channel Adapter
  • FIG. 5 shows an example of data stored in the storage of the calculation server.
  • the calculation data 34A, the calculation program 34B, and the control program 34C are stored in the storage 34 of FIG.
  • the calculation data 34A includes data in the middle of calculation or a calculation result of the calculation server 3a. At least a part of the calculated data 34A may be stored in a different storage hierarchy such as the shared memory 32, the cache of the processor, or the register of the processor.
  • the calculation program 34B is a program that realizes a calculation process in each processor and a data storage process in the shared memory 32 and the storage 34 based on a predetermined algorithm.
  • the control program 34C is a program that controls the calculation server 3a based on the command transmitted from the control unit 13 of the management server 1 and transmits the calculation result of the calculation server 3a to the management server 1.
  • An Ising machine is an example of an information processing device used to solve a combinatorial optimization problem.
  • the Ising machine is an information processing device that calculates the energy of the ground state of the Ising model.
  • the Ising model has often been used mainly as a model for ferromagnets and phase transition phenomena.
  • the Ising model has been increasingly used as a model for solving combinatorial optimization problems.
  • the following equation (1) shows the energy of the Ising model.
  • s i and s j are spins
  • spin is a binary variable having a value of either +1 or -1.
  • N is the number of spins.
  • h i is the local magnetic field acting on each spin.
  • J is a matrix of coupling coefficients between spins.
  • the matrix J is a real symmetric matrix having a diagonal component of 0. Therefore, J ij indicates the elements of the matrix J in row i and column j.
  • the Ising model of equation (1) is a quadratic equation for spin, but as will be described later, an extended Ising model including terms of the third order or higher of spin (Ising having many-body interactions). Model) may be used.
  • the solution of the Ising model is expressed in the form of spin vectors (s 1 , s 2 , ..., S N ). Let this vector be called the solution vector.
  • the vector (s 1 , s 2 , ..., S N ) at which the energy E Ising is the minimum value is called an optimum solution.
  • the calculated Ising model solution does not necessarily have to be an exact optimal solution.
  • an Ising problem the problem of finding an approximate solution in which the energy E Ising is as small as possible (that is, an approximate solution in which the value of the objective function is as close to the optimum value as possible) using the Ising model is referred to as an Ising problem.
  • the spin s i of the equation (1) is a binary variable, it can be easily converted with the discrete variable (bit) used in the combinatorial optimization problem by using the equation (1 + s i ) / 2. .. Therefore, it is possible to find the solution of the combinatorial optimization problem by converting the combinatorial optimization problem into the Ising problem and letting the Ising machine perform the calculation.
  • the problem of finding a solution that minimizes the quadratic objective function with a discrete variable (bit) that takes either 0 or 1 as a variable is QUABO (Quadratic Unconstrained Binary Optimization, unconstrained binary variable quadratic optimization). ) It is called a problem. It can be said that the Ising problem represented by the equation (1) is equivalent to the QUABO problem.
  • Quantum annealing realizes quantum annealing using a superconducting circuit.
  • the coherent Ising machine utilizes the oscillation phenomenon of a network formed by an optical parametric oscillator.
  • the quantum branching machine utilizes the quantum mechanical branching phenomenon in a network of parametric oscillators with the Kerr effect. While these hardware implementations have the potential to significantly reduce calculation time, they also have the problem of being difficult to scale up and operate stably.
  • SA Simulated annealing
  • Technology is being developed to perform simulated annealing faster.
  • general simulated annealing is a sequential update algorithm in which each variable is sequentially updated, it is difficult to speed up the calculation process by parallelization.
  • a simulated branching algorithm has been proposed that can solve large-scale combinatorial optimization problems at high speed by parallel calculation in a digital computer.
  • information processing devices, information processing systems, information processing methods, storage media, and programs that solve combinatorial optimization problems using a simulated branching algorithm will be described.
  • H is a Hamiltonian of the following formula (3).
  • the Hamiltonian H' including the terms G (x 1 , x 2 , ... x N ) shown in the following formula (4) is used. You may.
  • processing will be described by taking the case where the term G (x 1 , x 2 , ... X N ) is a correction term as an example.
  • the term G (x 1 , x 2 , ... X N ) may be derived from the constraints of the combinatorial optimization problem.
  • the method and type of derivation of the term G (x 1 , x 2 , ... X N ) are not limited. Further, in the equation (4), the argument G (x 1 , x 2 , ... X N ) is added to the original Hamiltonian H. However, the argument G (x 1 , x 2 , ... X N ) may be incorporated into the extended Hamiltonian in a different way.
  • each term is either the element x i of the first vector or the element y i of the second vector.
  • an extended Hamiltonian that can be divided into a term U of the element x i of the first vector and a term V of the element y i of the second vector may be used.
  • the processing will be described assuming that the time evolution is calculated. However, the calculation of the simulated branch algorithm may be performed by a method other than time evolution.
  • the coefficient D corresponds to detuning.
  • the coefficient p (t) corresponds to the above-mentioned first coefficient, and is also called pumping amplitude.
  • the value of the coefficient p (t) can be monotonically increased according to the number of updates.
  • the initial value of the coefficient p (t) may be set to 0.
  • the first coefficient p (t) is a positive value and the value of the first coefficient p (t) increases according to the number of updates will be described as an example.
  • the sign of the algorithm presented below may be inverted and a negative first coefficient p (t) may be used.
  • the value of the first coefficient p (t) decreases monotonically according to the number of updates.
  • the absolute value of the first coefficient p (t) increases monotonically according to the number of updates.
  • the coefficient K corresponds to a positive Kerr coefficient.
  • a constant coefficient can be used as the coefficient c.
  • the value of the coefficient c may be determined before performing the calculation by the simulated branching algorithm.
  • the coefficient c can be set to a value close to the reciprocal of the maximum eigenvalue of the J (2) matrix.
  • the value c 0.5D ⁇ (N / 2n) can be used.
  • n is the number of edges of the graph related to the combinatorial optimization problem.
  • a (t) is a coefficient that increases with p (t) when calculating the time evolution.
  • ⁇ (p (t) / K) can be used as a (t).
  • the information processing apparatus may execute the above-mentioned conversion process based on the number of updates of the first vector and the second vector, and determine whether or not to obtain the solution vector.
  • the symplectic Euler method can be used to convert (2) above into a discrete recurrence formula to perform the solution.
  • (6) shows an example of a simulated branching algorithm after conversion to a recurrence formula.
  • t is a time
  • ⁇ t is a time step (time step width).
  • the time t and the time step ⁇ t are used to show the correspondence with the differential equation.
  • the time t and the time step ⁇ t do not necessarily have to be included as explicit parameters. For example, if the time step ⁇ t is set to 1, it is possible to remove the time step ⁇ t from the algorithm at the time of mounting.
  • x i (t + ⁇ t) may be interpreted as the updated value of x i (t). That is, "t” in (4) above indicates the value of the variable before the update, and "t + ⁇ t” indicates the value of the variable after the update.
  • the value of spin s i is calculated based on the sign of the variable x i after increasing the value of p (t) from the initial value (eg 0) to a predetermined value.
  • sgn (x i) + 1
  • the value of spin s i can be obtained by converting the variable x i with a sign function.
  • Solution of a combinatorial optimization problem for the timing of obtaining a not particularly limited.
  • the solution (solution vector) of the combinatorial optimization problem may be obtained when the number of updates of the first vector and the second vector, the value of the first coefficient p, or the value of the objective function becomes larger than the threshold value.
  • FIG. 6 shows an example of processing in the case of calculating the solution of the simulated branch algorithm by time evolution. Hereinafter, the process will be described with reference to FIG.
  • the calculation server obtains the matrix J ij and vector h i corresponding to the problem from the management server 1 (step S101). Then, the calculation server initializes the coefficients p (t) and a (t) (step S102). For example, the values of the coefficients p and a can be set to 0 in step S102, but the initial values of the coefficients p and a are not limited.
  • the calculation server initializes the first variable x i and the second variable y i (step S103).
  • the first variable x i is an element of the first vector.
  • the second variable y i is an element of the second vector.
  • the compute server may initialize x i and y i with pseudo-random numbers, for example.
  • the method of initializing x i and y i is not limited. Further, the variables may be initialized at different timings, or at least one of the variables may be initialized a plurality of times.
  • the calculation server updates the first vector by weighting and adding the element y i of the second vector corresponding to the element x i of the first vector (step S104). For example, in step S104, ⁇ t ⁇ D ⁇ y i can be added to the variable x i . Then, the calculation server updates the element y i of the second vector (steps S105 and S106). For example, in step S105, ⁇ t ⁇ [(pdK ⁇ x i ⁇ x i ) ⁇ x i ] can be added to the variable y i . In step S106, it is possible to add a - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j and into the variable y i.
  • the calculation server updates the values of the coefficients p and a (step S107). For example, a constant value ( ⁇ p) can be added to the coefficient p, and the coefficient a can be set to the positive square root of the updated coefficient p. However, as will be described later, this is only an example of how to update the values of the coefficients p and a.
  • the calculation server determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S108). If the number of updates is less than the threshold value (YES in step S108), the calculation server re-executes the processes of steps S104 to S107.
  • step S109 When the number of updates is equal to or greater than the threshold value (NO in step S108), the spin s i , which is an element of the solution vector, is obtained based on the element x i of the first vector (step S109).
  • step S109 for example, in the first vector, the variable x i is a positive value +1, converts each variable x i is a negative value -1, it is possible to obtain a solution vector.
  • step S108 when the number of updates is less than the threshold value (YES in step S108), the Hamiltonian value may be calculated based on the first vector, and the first vector and the Hamiltonian value may be stored. .. This allows the user to select the approximate solution closest to the optimal solution from the plurality of first vectors.
  • processing may be parallelized using a plurality of calculation servers.
  • Processing may be parallelized by a plurality of processors.
  • the implementation and the mode of parallelization of processing for realizing parallelization of processing are not limited.
  • the execution order of the update processing of the variables x i and y i shown in steps S105 to S106 described above is only an example. Therefore, the update processing of the variables x i and y i may be executed in a different order. For example, the order in which the update process of the variable x i and the update process of the variable y i may be executed may be interchanged. Further, the order of sub-processing included in the update processing of each variable is not limited. For example, the execution order of the addition processing included in the update processing of the variable y i may be different from the example of FIG. The execution order and timing of the processes that are the prerequisites for executing the update process of each variable are not particularly limited.
  • the computing problems terms may be performed in parallel with other processing including processing of updating the variable x i.
  • the order and timing at which the update processing of the variables x i and y i, the sub-processing included in the update processing of each variable, and the calculation processing of the problem item are executed are not limited, and the same applies to the processing of each flowchart shown below. Is.
  • the calculation node is, for example, a calculation server (information processing unit), a processor (CPU), a GPU, a semiconductor circuit, a virtual computer (VM), a virtual processor, a CPU thread, and a process.
  • the calculation node may be any computational resource that can be the execution subject of the calculation process, and does not limit the particle size and the distinction between hardware / software.
  • each calculation node executes the calculation process independently, there is a possibility that multiple calculation nodes will search for overlapping areas in the solution space. Further, when the calculation process is repeated, the calculation node may search the same region of the solution space in a plurality of trials. Therefore, the same local solution may be calculated by a plurality of calculation nodes, or the same local solution may be calculated repeatedly. Ideally, the optimal solution should be found by searching all the local solutions in the solution space and evaluating each local solution in the calculation process. On the other hand, considering that there can be many local solutions in the solution space, the information processing device / information processing system executes efficient solution processing, and a practical solution within a realistic calculation time and amount of calculation. Is desired to be obtained.
  • the calculation node can store the calculated first vector in the storage unit during the calculation process.
  • the calculation node reads out the first vector x (m) calculated before the storage unit.
  • m is a number indicating the timing at which the element of the first vector is obtained.
  • the calculation node executes the correction process based on the previously calculated first vector x (m) .
  • the previously calculated first vector will be referred to as the searched vector and will be distinguished from the first vector to be updated.
  • the correction process can be performed by using the above-mentioned correction term G (x 1 , x 2 , ... X N ).
  • Equation (7) is an example of the distance between the first vector and the searched vector. Equation (7) is called the Q-th power norm. In equation (7), Q can take any positive value.
  • the following equation (8) is an infinite Q of the equation (7) and is called an infinite power norm.
  • the square norm is used as the distance will be described as an example. However, it does not limit the type of distance used in the calculation.
  • the correction argument G (x 1 , x 2 , ... X N ) may include the reciprocal of the distance between the first vector and the searched vector.
  • the value of the correction term G (x 1 , x 2 , ... X N ) becomes large.
  • (9) is only an example of a correction term that can be used in the calculation. Therefore, in the calculation, a correction term having a form different from that in (9) may be used.
  • the following equation (10) is an example of the extended Hamiltonian H'including the correction argument.
  • any positive value can be used as the coefficient c A in equation (10).
  • any positive value can be used for k A.
  • the correction argument of (10) includes the sum of the reciprocals of the distances calculated using each of the searched vectors obtained so far. That is, the processing circuit of the information processing apparatus may be configured to calculate the reciprocal of the distance using each of the plurality of searched vectors and calculate the correction term by adding the plurality of reciprocals. As a result, the update process of the first vector can be executed so as to avoid the regions in the vicinity of the plurality of searched vectors obtained so far.
  • the above (11) can be converted into a discrete recurrence formula to calculate the simulated branching algorithm.
  • (13) shows an example of a simulated branching algorithm after conversion to a recurrence formula.
  • the following item (14) is derived from Ising energy. Since the form of this argument is determined according to the problem to be solved, it is called a problem term (problem term). As will be described later, the problem section may be different from (14).
  • FIG. 7 shows an example of processing in the case of performing a solution using an algorithm including a correction term. Hereinafter, the process will be described with reference to FIG. 7.
  • the calculation server initializes the coefficients p (t), a (t) and the variable m (step S111).
  • the values of the coefficients p and a can be set to 0 in step S111, but the initial values of the coefficients p and a are not limited.
  • the variable m can be set to 1 in step S111.
  • the calculation server is assumed to have acquired matrix J ij and vector h i corresponding to the problem from the management server 1 before the processing of the flowchart of FIG. 7 is started.
  • the calculation server initializes the first variable x i and the second variable y i (step S112).
  • the first variable x i is an element of the first vector.
  • the second variable y i is an element of the second vector.
  • the compute server may initialize x i and y i with pseudo-random numbers, for example.
  • the method of initializing x i and y i is not limited.
  • the calculation server updates the first vector by weighting and adding the second variable y i corresponding to the first variable x i (step S113). For example, in step S113, ⁇ t ⁇ D ⁇ y i can be added to the variable x i .
  • the calculation server updates the second variable y i (steps S114 to S116). For example, in step S114, it is possible to add the ⁇ t ⁇ [(p-D- K ⁇ x i ⁇ x i) ⁇ x i] to y i.
  • step S115 it is possible to further add the - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j in y i.
  • Step S115 corresponds to the process of adding the problem term to the second variable y i .
  • step S116 the correction term of (12) can be added to y i .
  • the correction term can be calculated based on, for example, the searched vector and the first vector stored in the storage unit.
  • the calculation server updates the values of the coefficients p (first coefficient) and a (step S117). For example, a constant value ( ⁇ p) can be added to the coefficient p, and the coefficient a can be set to the positive square root of the updated coefficient p. However, as will be described later, this is only an example of how to update the values of the coefficients p and a. Further, when the variable t is used to determine whether or not to continue the loop, ⁇ t may be added to the variable t. Then, the calculation server determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S118). For example, the determination in step S118 can be performed by comparing the value of the variable t with T. However, the determination may be made by other methods.
  • step S118 If the number of updates is less than the threshold value (YES in step S118), the calculation server executes the processes of steps S113 to S117 again.
  • the first vector is stored in the storage unit as the searched vector, and m is incremented (step S119). Then, when the number of searched vectors stored in the storage unit is equal to or greater than the threshold value Mth, the searched vectors in the storage unit are deleted for any m (step S120).
  • the process of storing the first vector as the searched vector in the storage unit may be executed at an arbitrary timing between the execution of step S113 and the execution of step S117.
  • the calculation server substitutes the first vector and the second vector into the Hamiltonian of the above equation (6), and calculates the Hamiltonian value E. Then, the calculation server determines whether or not the Hamiltonian value E is less than the threshold value E 0 (step S121). When the Hamiltonian value E is less than the threshold value E 0 (YES in step S121), the calculation server can obtain the spin s i which is an element of the solution vector based on the first variable x i (shown in the figure). Z). For example, in the first vector, the first variable x i is a positive value +1, converts respectively the first variable x i is a negative value -1, it is possible to obtain a solution vector.
  • step S121 if the Hamiltonian value E is not less than the threshold value E 0 (NO in step S121), the calculation server re-executes the processes after step S111. As described above, in the determination in step S121, it is confirmed whether or not the optimum solution or an approximate solution close to the optimum solution is obtained. As described above, the processing circuit of the information processing apparatus may be configured to determine whether or not to stop updating the first vector and the second vector based on the value of the Hamiltonian (objective function).
  • the user can determine the value of the threshold value E 0 according to the sign used in the formulation of the problem and the accuracy required in the solution.
  • the first vector with the minimum Hamiltonian value may be the optimum solution
  • the first vector with the maximum Hamiltonian value may be the optimum solution.
  • the first vector having the minimum value is the optimum solution.
  • the calculation server may calculate the Hamiltonian value at any time.
  • the calculation server can store the Hamiltonian values and the first and second vectors used in the calculation in the storage unit.
  • the processing circuit of the information processing apparatus may be configured to store the updated second vector as a third vector in the storage unit. Further, the processing circuit is configured to read the third vector updated to the same iteration as the searched vector from the storage unit and calculate the Hamiltonian (objective function) value based on the searched vector and the third vector. It may have been done.
  • the user can determine how often to calculate the Hamiltonian value, depending on the amount of storage space and computational resources available. Further, at the timing of step S118, whether or not to continue the loop processing based on whether or not the number of combinations of the first vector, the second vector, and the Hamiltonian values stored in the storage unit exceeds the threshold value. The determination may be made. In this way, the user can select the searched vector closest to the optimum solution from the plurality of searched vectors stored in the storage unit and calculate the solution vector.
  • the processing circuit of the information processing device selects one of the searched vectors from a plurality of searched vectors stored in the storage unit based on the value of the Hamiltonian (objective function), and is the positive value of the selected searched vector.
  • the solution vector may be calculated by converting one variable to a first value and converting a negative first variable to a second value smaller than the first value.
  • the first value is, for example, +1.
  • the second value is, for example, -1.
  • the first value and the second value may be other values.
  • processing may be parallelized using a plurality of calculation servers.
  • Processing may be parallelized by a plurality of processors.
  • the implementation and the mode of parallelization of processing for realizing parallelization of processing are not limited.
  • step S120 of FIG. 7 a process of deleting one of the searched vectors stored in the storage unit was executed.
  • the searched vector to be deleted can be randomly selected. For example, if there is a limit on the storage area that can be used, the above-mentioned threshold value Mth can be determined based on the limit. Further, regardless of the limitation of the usable storage area, the amount of calculation in step S116 (calculation of the correction term) can be suppressed by setting an upper limit on the number of searched vectors held in the storage unit. Specifically, the calculation process of the correction term can be executed with a calculation amount of a constant multiple of N ⁇ Mth or less.
  • the calculation server may always skip the process of step S120, or may execute other processes at the timing of step S120.
  • the searched vector may be moved to another storage. Further, when the computational resources are sufficient, it is not necessary to perform the deletion processing of the searched vector.
  • a storage unit and a plurality of processing circuits are used to obtain a first vector having a first variable as an element and a second vector having a second variable corresponding to the first variable as an element. Update repeatedly.
  • the information processing method searches for a step of updating the first vector by weighting and adding the second variable corresponding to the first variable by a plurality of processing circuits, and searching for the updated first vector of the plurality of processing circuits.
  • the information processing method includes a step in which a plurality of information processing devices update the first vector by weighting and adding a second variable corresponding to the first variable, and a first vector in which the plurality of information processing devices are updated. Is stored in the storage device as a searched vector, and a step in which a plurality of information processing devices weight the first variable with a first coefficient that monotonically increases or decreases according to the number of updates and adds it to the corresponding second variable.
  • a step in which a plurality of information processing devices calculate a correction term including the inverse of the distance between the first vector to be updated and the searched vector, and a step in which a plurality of information processing devices add the correction term to the second variable. May include.
  • the program repeatedly updates, for example, the first vector having the first variable as an element and the second vector having the second variable corresponding to the first variable as an element.
  • the program updates the first vector by weighting and adding the second variable corresponding to the first variable, and saves the updated first vector as the searched vector in the storage unit.
  • a step of adding to a variable a step of reading the searched vector from the storage unit, a step of calculating a correction term including the inverse of the distance between the first vector to be updated and the searched vector, and a second correction term. It may cause the computer to perform a step of adding to a variable.
  • the storage medium may be a non-temporary computer-readable storage medium in which the above-mentioned program is stored.
  • the calculation node may be any computational resource that can be the execution subject of the calculation process, and is the same as the above in that the particle size and the distinction between hardware / software are not limited.
  • a plurality of calculation nodes may share and execute the update processing of the same pair of the first vector and the second vector. In this case, it can be said that the plurality of calculation nodes form one group for calculating the same solution vector.
  • a plurality of calculation nodes may be divided into groups that execute update processing of different pairs of the first vector and the second vector. In this case, it can be said that the plurality of calculation nodes are divided into a plurality of groups, each of which calculates a different solution vector.
  • the information processing device may include a plurality of processing circuits.
  • each processing circuit may be divided into a plurality of groups that execute update processing of different pairs of the first vector and the second vector.
  • Each processing circuit may be configured to read out the searched vector stored in the storage unit by another processing circuit.
  • the information processing system including the storage device 7 and the plurality of information processing devices repeatedly updates the first vector having the first variable as an element and the second vector having the second variable corresponding to the first variable as an element. You may.
  • each information processing device updates the first vector by weighting and adding the second variable corresponding to the first variable, and stores the updated first vector as the searched vector in the storage device 7.
  • the first variable is weighted by the first coefficient that monotonically increases or decreases according to the number of updates, added to the corresponding second variable, the problem term is calculated using the plurality of first variables, and the problem term is the second variable. Is added to, the searched vector is read from the storage device 7, a correction term including the inverse of the distance between the first vector to be updated and the searched vector is calculated, and the correction term is added to the second variable. It may be configured to update the second vector.
  • each information processing device may be divided into a plurality of groups that execute update processing of different pairs of the first vector and the second vector.
  • Each information processing device may be configured to read out the searched vector stored in the storage unit by another information processing device.
  • Equation (15) below is an example of a Hamiltonian that does not include a correction argument.
  • a plurality of calculation nodes may search for overlapping regions in the solution space, or a plurality of calculation nodes may search for overlapping areas. It is possible to obtain the same local solution.
  • a correction term such as (16) below can be used.
  • m1 indicates a variable or value used in the calculation of each calculation node.
  • m2 indicates the variables used in the calculation by the other calculation nodes as seen from each calculation node.
  • the vector x (m1 ) of (16) is the first vector calculated by the self-calculation node.
  • the vector x (m2) is the first vector calculated by other calculation nodes. That is, when the correction term (16) is used, the first vector calculated by another calculation node is used as the searched vector.
  • arbitrary positive values can be set for c G and k G in (16). The values of c G and k G may be different.
  • the extended Hamiltonian of the following equation (17) is obtained.
  • the value of the denominator becomes smaller in each of the correction terms shown in (16) and (17). Therefore, the value of (16) becomes large, and the update process of the first vector x (m1) is executed at each calculation node so as to avoid the region near the vector x (m2) .
  • the above (18) can be converted into a discrete recurrence formula to calculate the simulated branching algorithm.
  • (20) shows an example of a simulated branching algorithm after conversion to a recurrence formula.
  • the algorithm (20) also includes the problem item (14) described above. As will be described later, a problem term having a format different from that of (20) may be used.
  • the information processing device may include a plurality of processing circuits.
  • Each processing circuit may be configured to store the updated first vector in the storage unit.
  • each processing circuit can calculate the correction term using the searched vector calculated by the other processing circuits.
  • each processing circuit is configured to transfer the updated first vector to another processing circuit and calculate the correction term using the first vector received from the other processing circuit instead of the searched vector. You may.
  • FIG. 8 shows an example of processing in the case of efficiently performing a solution using the first vector calculated by another calculation node.
  • the process will be described with reference to FIG.
  • the calculation server retrieves matrix J ij and vector h i corresponding to the problem from the management server 1, the coefficient p (t), to initialize the a (t) and the variable t (step S131).
  • the values of p, a, and t can be set to 0 in step S131.
  • the initial values of p, a and t are not limited.
  • the first variable x i (m1) is an element of the first vector.
  • the second variable y i (m1) is an element of the second vector.
  • x i (m1) and y i (m1) may be initialized by pseudo-random numbers.
  • the method of initializing x i (m1) and y i (m1) is not limited.
  • the calculation server substitutes 1 for the counter variable m1 (step S133).
  • the counter variable m1 is a variable that specifies a calculation node.
  • the calculation node # 1 that performs the calculation process is specified.
  • the processing of steps S131 to S133 may be executed by a computer other than the calculation server such as the management server 1.
  • the calculation node # (m1) updates the first vector by weighting and adding the second variable y i (m1) corresponding to the first variable x i (m1) , and updates the updated first vector. It is saved in the storage area shared with other compute nodes (step S134). For example, in step S134, it is possible to add a ⁇ t ⁇ D ⁇ y i (m1 ) to x i (m1). For example, if the other compute node is another processor or a thread on another processor, the updated first vector can be stored in shared memory 32 or storage 34. Further, when the other calculation node is a calculation server, the first vector may be stored in the shared external storage. Other compute nodes can use the first vector stored in the shared storage area as the searched vector. In step S134, the updated first vector may be transferred to another calculation node.
  • step S1305 it is possible to add a Delta] t ⁇ a y i (m1) [(p -D-K ⁇ x i (m1) ⁇ x i (m1)) ⁇ x i (m1)].
  • step S136 it is possible to add a further y i (m1) to - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j (m1).
  • Step S136 corresponds to the process of adding the problem term to the second variable y i .
  • step S137 the correction term of (19) can be added to the variable y i .
  • the correction term is calculated based on, for example, the first vector and the searched vector stored in the shared storage area. Then, the calculation server increments the counter variable m1 (step S138).
  • step S139 determines whether or not the counter variable 1 is M or less.
  • the processes of steps S134 to S138 are executed again.
  • the calculation server updates the values of p, a, and t (step S140). For example, a constant value ( ⁇ p) can be added to p, a can be set to the positive square root of the updated coefficient p, and ⁇ t can be added to t.
  • ⁇ p a constant value
  • ⁇ t can be added to t.
  • the calculation server determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S141). For example, the determination in step S141 can be performed by comparing the value of the variable t with T. However, the determination may be made by other methods.
  • the calculation server executes the process of step S133, and the designated calculation node further executes the process of step S134 and subsequent steps.
  • the calculation server or the management server 1 can obtain the spin s i which is an element of the solution vector based on the first variable x i (shown in the figure). Z).
  • the first variable x i is a positive value +1, converts respectively the first variable x i is a negative value -1, it is possible to obtain a solution vector.
  • calculation nodes # 1 to calculation nodes # M sequentially execute the update processing of the elements of the first vector and the second vector by a loop.
  • the processes of steps S133, S138, and S139 in the flowchart of FIG. 8 may be skipped, and instead, a plurality of calculation nodes may execute the processes of steps S134 to S137 in parallel.
  • a component that manages a plurality of calculation nodes for example, the control unit 13 of the management server 1 or any calculation server
  • the overall calculation process can be speeded up.
  • the number M of a plurality of calculation nodes that execute the processes of steps S134 to S137 in parallel is not limited.
  • the number M of the calculation nodes may be equal to the number of elements (number of variables) N of the first vector and the second vector, respectively.
  • one solution vector can be obtained by using M calculation nodes.
  • the number M of the calculation nodes may be different from the number N of the elements possessed by the first vector and the second vector, respectively.
  • the number M of the calculation nodes may be a positive integer multiple of the number of elements N of each of the first vector and the second vector.
  • M / N solution vectors can be obtained by using a plurality of calculation nodes. Then, the plurality of calculation nodes are grouped according to the solution vector to be calculated. In this way, the calculated nodes grouped so as to perform the calculation of different solution vectors may share the searched vector and realize more efficient calculation processing. That is, the vector x (m2) may be the first vector calculated by the calculation nodes belonging to the same group. Further, the vector x (m2) may be the first vector calculated by the calculation nodes belonging to different groups. It is not necessary to synchronize the processing between the calculation nodes belonging to different groups.
  • steps S134 to S137 may be executed in parallel so that at least a part of the N elements of the first vector and the second vector are updated in parallel.
  • the implementation and mode of parallelization of processing are not limited.
  • the calculation node may calculate the Hamiltonian value based on the first vector and the second vector at any timing.
  • the Hamiltonian may be the Hamiltonian of (15) or the extended Hamiltonian including the amendment of (17). Moreover, both the former and the latter may be calculated.
  • the compute node can store the values of the first vector, the second vector, and the Hamiltonian in the storage unit. These processes may be executed every time if the determination in step S141 is affirmative. Further, it may be executed at a part of the timings when the determination in step S141 becomes affirmative. Further, the above-mentioned processing may be executed at other timings. The user can determine how often the Hamiltonian values are calculated, depending on the amount of storage and computational resources available.
  • step S141 it is determined whether or not to continue the loop processing based on whether or not the number of combinations of the first vector, the second vector, and the Hamiltonian values stored in the storage unit exceeds the threshold value. You may go. In this way, the user can select the first vector closest to the optimum solution from the plurality of first vectors (local solutions) stored in the storage unit and calculate the solution vector.
  • FIGS. 9 and 10 show an example of processing in the case where the solution is efficiently performed by the simulated branch algorithm in a plurality of calculation nodes. Hereinafter, the process will be described with reference to FIGS. 9 and 10.
  • the calculation server retrieves matrix J ij and vector h i corresponding to the problem from the management server 1, and transfers these data to each compute node (step S150).
  • the management server 1 may transfer the matrix J ij and vector h i corresponding to a problem with each compute node directly.
  • the variable m1 indicates the number of each calculation node in the information processing system. Further, m2 is assumed to indicate the numbers of other calculation nodes as seen from each calculation node.
  • the number M of the calculation nodes may be equal to the number N of elements each of the first vector and the second vector. Further, the number M of the calculation nodes may be different from the number N of the elements possessed by the first vector and the second vector, respectively. Further, the number M of the calculation nodes may be a positive integer multiple of the number of elements N of the first vector and the second vector, respectively.
  • each calculation node initializes the variables t (m1) and the coefficients p (m1) and a (m1) (step S152).
  • the values of p (m1) , a (m1), and t (m1) can be set to 0 in step S131.
  • the initial values of p (m1) , a (m1) and t (m1) are not limited.
  • each compute node initializes the first variable x i (m1) and the second variable y i (m1) (step S153).
  • the first variable x i (m1) is an element of the first vector.
  • the second variable y i (m1) is an element of the second vector.
  • the compute server may initialize x i (m1) and y i (m1) with pseudo-random numbers, for example.
  • the method of initializing x i (m1) and y i (m1) is not limited.
  • each calculation node updates the first vector by weighting and adding the second variable y i (m1) corresponding to the first variable x i (m1) (step S154). For example, in step S154, it is possible to add a ⁇ t ⁇ D ⁇ y i (m1 ) to x i (m1).
  • each calculation node updates the second variable y i (m1) (steps S155 to S157). For example, in step S155, it is possible to add a Delta] t ⁇ a y i (m1) [(p -D-K ⁇ x i (m1) ⁇ x i (m1)) ⁇ x i (m1)].
  • step S156 it is possible to add a further y i (m1) to - ⁇ t ⁇ c ⁇ h i ⁇ a - ⁇ t ⁇ c ⁇ ⁇ J ij ⁇ x j (m1).
  • Step S156 corresponds to the process of adding the problem term to the second variable y i .
  • the correction term of (19) can be added to the second variable y i .
  • Each compute node calculates the correction term based on, for example, the first vector and the searched vector stored in the shared storage area 300.
  • the searched vector may be saved by a calculation node performing calculation of a different solution vector. Further, the searched vector may be saved by a calculation node performing calculation of the same solution vector.
  • each compute node updates the values of t (m1) , p (m1), and a (m1) (step S158). For example, ⁇ t can be added to t (m1) , a constant value ( ⁇ p) can be added to p (m1) , and a (m1) can be set as the positive square root of the updated coefficient p. However, this is only an example of how to update the values of p (m1) , a (m1) and t (m1) .
  • each calculation node stores a snapshot of the first vector in the storage area 300 (step S159).
  • the snapshot refers to data including the values of each element x i (m1) of the first vector at the timing when step S159 is executed.
  • the storage area 300 a storage area accessible from a plurality of calculation nodes can be used. Further, as the storage area 300, for example, a shared memory 32, a storage 34, or a storage area in an external storage can be used. However, the type of memory or storage that provides the storage area 300 is not limited. The storage area 300 may be a combination of a plurality of types of memory or storage. The second vector updated in the same iteration as the first vector in step S159 may be stored in the storage area 300.
  • each calculation node determines whether or not the number of updates of the first vector and the second vector is less than the threshold value (step S160).
  • the determination in step S160 can be performed by comparing the value of the variable t (m1) with T.
  • the determination may be made by other methods.
  • step S160 If the number of updates is less than the threshold value (YES in step S160), the calculation node executes the processes after step S154.
  • the calculation server increments the counter variable m1 (step S161). Note that step S161 may be skipped.
  • the calculation server or the management server 1 can select at least one of the searched vectors stored in the storage area 300 based on the Hamiltonian value and calculate the solution vector (step S162).
  • the Hamiltonian may be the Hamiltonian of (15) or the objective function including the correction term of (17). Moreover, both the former and the latter may be calculated.
  • the Hamiltonian value may be calculated at a timing different from that in step S162. In that case, the compute node can store the Hamiltonian values together with the first and second vectors in the storage area 300.
  • step S159 it is not always necessary to save the variable snapshot in the storage area 300 every time.
  • a snapshot of the variable may be stored in the storage area 300 in a part of the loop processing of steps S154 to S159. As a result, the consumption of the storage area can be suppressed.
  • the data is recovered using the snapshots of the first vector and the second vector stored in the storage area 300, and the calculation process is restarted. Is possible. Storing the data of the first vector and the second vector in the storage area 300 contributes to improving the fault tolerance and availability of the information processing system.
  • each calculation node By preparing the storage area 300 in the information processing system in which a plurality of calculation nodes can store the elements of the first vector (and the elements of the second vector) at arbitrary timings, each calculation node can be set to step S157 regardless of the timing.
  • the correction term can be calculated and the correction term can be added to the variable y i .
  • the calculated first vector may be mixed in the iterations having different loop processing. Therefore, when one calculation node is updating the first vector, the other calculation nodes can calculate the correction term using the first vector before the update. This makes it possible to efficiently solve the combinatorial optimization problem in a relatively short time while reducing the frequency of synchronous processing between a plurality of calculation nodes.
  • FIG. 11 conceptually shows an example of an information processing system including a plurality of calculation nodes.
  • FIG. 11 shows compute node # 1, compute node # 2, and compute node # 3.
  • Information about the first vector that has been searched for is exchanged between the calculation node # 1 and the calculation node # 2.
  • information about the first vector that has been searched for is exchanged between the calculation node # 2 and the calculation node # 3.
  • information about the first vector that has been searched for may be exchanged between the calculation node # 1 and the calculation node # 3.
  • the data transfer between the compute node # 1 and the compute node # 3 may be performed directly or indirectly via the compute node # 2. As a result, it is possible to avoid searching in overlapping solution spaces in a plurality of calculation nodes.
  • FIG. 11 shows three calculation nodes.
  • the number of computing nodes provided in the information processing apparatus or information processing system may be different from this.
  • it does not limit the connection topology between computing nodes and the route through which data is transferred between computing nodes.
  • the computing node is a processor
  • data transfer may be performed via interprocess communication or shared memory 32.
  • the calculation node is a calculation server
  • data transfer may be performed via the interconnect between the calculation servers including the switch 5.
  • each calculation node of FIG. 11 may execute the process of saving the snapshot of the first vector in the storage area 300 described in the flowcharts of FIGS. 9 and 10 in parallel.
  • FIG. 12 shows the first vector x (m1) calculated by the calculation node # 1, the first vector x (m2) calculated by the calculation node # 2, and the value of the extended Hamiltonian H'.
  • the calculation node # 1 acquires the data of the first vector x (m2) from the calculation node # 2.
  • the calculation node # 1 can calculate the correction term of (19) using the acquired first vector x (m2) and update the first vector and the second vector.
  • the value of the extended Hamiltonian increases in the vicinity of the first vector x (m2) of the calculation node # 2 in the calculation node # 1.
  • the probability that the first vector x (m1) updated in the calculation node # 1 goes to a region distant from the first vector x (m2) of the calculation node # 2 in the solution space increases.
  • the calculation node # 2 acquires the data of the first vector x (m1) from the calculation node # 1.
  • the calculation node # 2 can calculate the correction term of (19) using the acquired first vector x (m1) and update the first vector and the second vector.
  • the value of the extended Hamiltonian increases in the vicinity of the first vector x (m1) of the calculation node # 1 in the calculation node # 2.
  • the probability that the first vector x (m2) updated in the calculation node # 2 goes to a region distant from the first vector x (m1) of the calculation node # 1 in the solution space increases.
  • the histogram in FIG. 15 shows the number of calculations required to obtain the optimum solution in a plurality of calculation methods.
  • the data obtained when the Hamiltonian cycle problem of 48 nodes and 96 edges is solved is used.
  • the vertical axis of FIG. 15 shows the frequency with which the optimum solution was obtained.
  • the horizontal axis of FIG. 15 indicates the number of trials.
  • “DEFAULT” corresponds to the result when the processing of the flowchart of FIG. 6 is executed using the Hamiltonian of the equation (3).
  • ADAPTIVE corresponds to the result when the processing of the flowchart of FIG. 8 is executed using the extended Hamiltonian of the equation (10).
  • GROUP corresponds to the result when the processing of the flowcharts of FIGS. 9 and 10 is executed using the extended Hamiltonian of the equation (10).
  • the vertical axis of FIG. 15, a combination of different matrix J ij and vector h i when 1000 sets prepared, the optimal solution has been shown resulting frequency within a predetermined number of calculations.
  • the number of calculations corresponds to the number of times the processing of the flowchart of FIG. 6 is executed.
  • the number of calculations corresponds to the number M of the searched vectors in the equation (10).
  • the frequency with which the optimum solution is obtained with 10 or less calculations is about 260.
  • the frequency with which the optimum solution is obtained with 10 or less calculations is about 280.
  • the frequency with which the optimum solution is obtained with 10 or less calculations is about 430. Therefore, in the case of the "GROUP” condition, the probability that the optimum solution can be obtained with a smaller number of calculations is higher than in other cases.
  • the information processing device and the information processing system according to the present embodiment it is possible to avoid searching for overlapping regions of the solution space based on the data related to the searched vector. Therefore, it is possible to search for a solution in a wider area of the solution space and increase the probability of obtaining an optimum solution or an approximate solution close to it. Further, in the information processing apparatus and the information processing system according to the present embodiment, it is easy to parallelize the processing, whereby the calculation processing can be executed more efficiently. This makes it possible to provide the user with an information processing device or an information processing system that calculates the solution of the combinatorial optimization problem within a practical time.
  • Equation (21) corresponds to the energy of the Ising model including many-body interactions.
  • both QUABO and HOBO are a kind of unconstrained polynomial binary variable optimization (PUBO: Polynomial Unconstrained Binary Optimization). That is, among PUBOs, the combinatorial optimization problem having a quadratic objective function is QUABO. Further, among PUBOs, the combinatorial optimization problem having a third-order or higher objective function can be said to be HOBO.
  • PUBO Polynomial Unconstrained Binary Optimization
  • the Hamiltonian H in the above equation (3) may be replaced with the Hamiltonian H in the following equation (22).
  • problem term is derived from the equation (22) using a plurality of first variables shown in the following equation (23).
  • Problems section z i (23) takes the the second equation, obtained by partially differentiating the one of the variable x i (element of the first vector) format (22).
  • the variable x i to be partially differentiated depends on the index i.
  • the index i of the variable x i corresponds to the index that specifies the element of the first vector and the element of the second vector.
  • the recurrence formula of (20) above is replaced with the recurrence formula of (24) below.
  • (24) corresponds to a further generalization of the recurrence formula of (20).
  • the term of many-body interaction may be used.
  • the problem items shown above are only examples of problem items that can be used by the information processing apparatus according to the present embodiment. Therefore, the form of the problem argument used in the calculation may be different from these.
  • additional processing may be performed when the first variable is updated.
  • the value of the first variable x i is replaced with sgn (x i ). That is, when x i > 1 due to the update, the value of the variable x i is set to 1. Also, when x i ⁇ -1 due to the update, the value of the variable x i is set to -1. This makes it possible to approximate the spin s i with higher accuracy using the variable x i .
  • the variable y i corresponding to the variable x i may be multiplied by the coefficient rf.
  • the coefficient rf a coefficient rf of -1 ⁇ r ⁇ 0
  • the arithmetic circuit sets the second variable corresponding to the first variable whose value is smaller than the first value, or the second variable corresponding to the first variable whose value is larger than the second value, to the original first variable.
  • the arithmetic circuit sets the second variable corresponding to the first variable having a value smaller than -1 or the second variable corresponding to the first variable having a value greater than 1 as the original second variable with a second coefficient. It may be configured to update to a value multiplied by.
  • the second coefficient corresponds to the above-mentioned coefficient rf.
  • the arithmetic circuit may set the value of the variable y i corresponding to the variable x i as a pseudo-random number when x i > 1 due to the update. For example, random numbers in the range [-0.1, 0.1] can be used. That is, the arithmetic circuit converts the value of the second variable corresponding to the first variable whose value is smaller than the second value, or the value of the second variable corresponding to the first variable whose value is larger than the first value into a pseudo random number. It may be configured to be set.
  • a continuous variable x is used in the problem term instead of a discrete variable. Therefore, there is a possibility that an error may occur with the discrete variable used in the original combinatorial optimization problem.
  • the value sgn (x) obtained by converting the continuous variable x with a sign function can be used instead of the continuous variable x in the calculation of the problem term as shown in (26) below.
  • sgn (x) corresponds to spin s.
  • the product of the spins appearing in the problem term always takes a value of either -1 or 1, so when dealing with the HOMO problem having a higher-order objective function, an error occurs due to the product operation. Can be prevented.
  • a spin vector can be obtained by converting each element of the first vector with a sign function.
  • a PC cluster is a system that connects a plurality of computers and realizes computing performance that cannot be obtained by one computer.
  • the information processing system 100 shown in FIG. 1 includes a plurality of calculation servers and processors, and can be used as a PC cluster.
  • MPI Message Passing Interface
  • MPI can be used to implement the control program 14E of the management server 1, the calculation program 34B and the control program 34C of each calculation server.
  • the calculation of L variables among the variables x i included in the first vector (x 1 , x 2 , ..., X N ) for each processor. Can be done.
  • m (j-1) L + 1, (j-1) L + 2, ..., jL ⁇ and ⁇ y.
  • m ( j-1) L + 1, (j-1) L + 2, ⁇ , jL ⁇ calculated tensor shown in (27) as follows required to J of (n ) Shall be stored in a storage area accessible to processor # j (eg, register, cache, memory, etc.).
  • each processor calculates a constant variable of the first vector and the second vector.
  • the number of elements (variables) of the first vector and the second vector to be calculated may differ depending on the processor. For example, when there is a performance difference depending on the processor implemented in the calculation server, the number of variables to be calculated can be determined according to the performance of the processor.
  • the values of all the components of the first vector are required.
  • the conversion to a binary variable can be performed, for example, by using the sign function sgn (). Therefore, using the Allgather function, the values of all the components of the first vector (x 1 , x 2 , ..., X N ) can be shared by the Q processors.
  • the second vector (y 1 , y 2 , ..., Y N )
  • tensor J (n) it is not essential to share values between processors.
  • Data sharing between processors can be realized, for example, by using interprocess communication or storing data in shared memory.
  • Processor # j calculates the value of the problem item ⁇ z m
  • m (j-1) L + 1, (j-1) L + 2, ..., JL ⁇ .
  • the processor #j is calculated problem claim ⁇ z m
  • m ( j-1) L + 1, based on the value of (j-1) L + 2 , ⁇ , jL ⁇ , variables ⁇ y m
  • m Update (j-1) L + 1, (j-1) L + 2, ..., JL ⁇ .
  • the tensor J (n) and the vector (x 1 , x 2 , ... , X N ) requires a product-sum operation, including the calculation of the product.
  • FIG. 16 schematically shows an example of a multiprocessor configuration.
  • the plurality of calculation nodes in FIG. 16 correspond to, for example, a plurality of calculation servers of the information processing system 100.
  • the high-speed link in FIG. 16 corresponds to, for example, an interconnect between cables 4a to 4c of the information processing system 100 and a calculation server formed by the switch 5.
  • the shared memory of FIG. 16 corresponds to, for example, the shared memory 32.
  • the processor of FIG. 16 corresponds to, for example, the processors 33A to 33D of each calculation server.
  • FIG. 16 shows the data arranged in each component and the data transferred between the components.
  • the values of the variables x i and y i are calculated. Further, between the processor and the shared memory, the variable x i is transferred.
  • L of the first vector (x 1 , x 2 , ..., X N ) and the second vector (y 1 , y 2 , ..., Y N ) are stored.
  • the variable and a part of the tensor J (n) are saved.
  • the first vector (x 1 , x 2 , ..., X N ) is transferred.
  • all the elements of the first vector (x 1 , x 2 , ..., X N ) are required to update the variable y i in each processor.
  • the simulated branch algorithm may be calculated using the GPU (Graphics Processing Unit).
  • FIG. 17 schematically shows an example of a configuration using a GPU.
  • FIG. 17 shows a plurality of GPUs connected to each other by a high-speed link.
  • Each GPU has a plurality of cores that can access the shared memory.
  • a plurality of GPUs are connected via a high-speed link to form a GPU cluster.
  • the high speed link corresponds to an interconnect between the compute servers formed by the cables 4a-4c and the switch 5.
  • a plurality of GPUs are used in the configuration example of FIG. 17, parallel calculations can be executed even when one GPU is used. That is, each GPU in FIG. 17 can execute the calculation corresponding to each calculation node in FIG. That is, the processor (processing circuit) of the information processing device (calculation server) may be the core of the Graphics Processing Unit (GPU).
  • the processor processing circuit
  • the information processing device may be the core of the Graphics Processing Unit (GPU).
  • the variables x i and y i , and the tensor J (n) are defined as device variables.
  • the GPU can calculate the product of the tensor J (n) required to update the variable y i and the first vector (x 1 , x 2 , ..., X N ) in parallel by the matrix vector product function. it can.
  • the product of the tensor and the vector can be obtained by repeatedly executing the product operation of the matrix and the vector.
  • the calculation of the first vector (x 1 , x 2 , ..., X N ) and the part of the second vector (y 1 , y 2 , ..., y N ) other than the multiply-accumulate operation. is, i-th element in each thread (x i, y i) to execute the update processing, it is possible to realize parallel processing.
  • FIG. 18 shows an example of the overall processing executed to solve the combinatorial optimization problem. Hereinafter, the process will be described with reference to FIG.
  • the combinatorial optimization problem is formulated (step S201). Then, the formulated combinatorial optimization problem is converted into an Ising problem (Ising model format) (step S202). Next, the solution of the Ising problem is calculated by the Ising machine (information processing device) (step S203). Then, the calculated solution is verified (step S204). For example, in step S204, it is confirmed whether or not the constraint condition is satisfied. Further, in step S204, the value of the objective function may be referred to to confirm whether or not the obtained solution is the optimum solution or an approximate solution close to it.
  • step S205 it is determined whether or not to recalculate according to at least one of the verification result in step S204 and the number of calculations. If it is determined that the recalculation is to be performed (YES in step S205), the processes of steps S203 and S204 are executed again. On the other hand, when it is determined not to recalculate (NO in step S205), a solution is selected (step S206). For example, in step S206, selection can be made based on at least either the satisfaction of the constraints or the value of the objective function. If a plurality of solutions have not been calculated, the process of step S206 may be skipped. Finally, the selected solution is converted into the solution of the combinatorial optimization problem, and the solution of the combinatorial optimization problem is output (step S207).
  • the present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.
  • Management server 2 Network 3a, 3b, 3c Calculation server 4a, 4b, 4c Cable 5 Switch 6 Client terminal 10 Processor 11 Management unit 12 Conversion unit 13 Control unit 14 Storage unit 14A Problem data 14B Calculation data 14C Management program 14D Conversion program 14E , 34C Control program 15, 31 Communication circuit 16 Input circuit 17 Output circuit 18 Operation device 19 Display device 20 Bus 32 Shared memory 33A, 33B, 33C, 33D Processor 34 Storage 34A Calculation data 34B Calculation program 35 Host bus adapter

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Computational Linguistics (AREA)
  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

[課題]組合せ最適化問題の解を実用的な時間内で計算する情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを提供する。 [解決手段]本発明の実施形態としての情報処理装置は、記憶部と、処理回路とを備え、第1変数を要素とする第1ベクトルおよび第2変数を要素とする第2ベクトルを繰り返し更新する。前記処理回路は、前記第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新し、更新された前記第1ベクトルを探索済ベクトルとして前記記憶部に保存し、前記第1変数を更新回数に応じて単調増加する第1係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算し、更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算し、前記補正項を前記第2変数に加算することによって前記第2ベクトルを更新する。

Description

情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
 本発明の実施形態は、情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムに関する。
 組合せ最適化問題とは、複数の組合せの中から目的に最も適した組合せを選ぶ問題である。組合せ最適化問題は、数学的には、「目的関数」と呼ばれる、複数の離散変数を有する関数を最大化させる問題、または、当該関数を最小化させる問題に帰着される。組合せ最適化問題は、金融、物流、交通、設計、製造、生命科学など各種の分野において普遍的な問題であるが、組合せ数が問題サイズの指数関数のオーダーで増える、いわゆる「組合せ爆発」のため、必ず最適解を求めることができるとは限らない。また、最適解に近い近似解を得ることすら難しい場合が多い。
 各分野における問題を解決し、社会のイノベーションおよび科学技術の進歩を促進するために、組合せ最適化問題の解を実用的な時間内で計算する技術の開発が求められている。
特開2017-73106号公報
H. Goto, K. Tatsumura, A. R. Dixon, Sci. Adv. 5, eaav2372 (2019). H. Goto, Sci. Rep. 6, 21686 (2016). 土屋、西山、辻田:分岐特性を用いた組合せ最適化問題の近似解法URL:http://www.ynl.t.u-tokyo.ac.jp/project/RobotBrainCREST/publications/pdf/tsuchiya/4_01.pdf 土屋、西山、辻田:決定論的アニーリングアルゴリズムの解析URL:http://www.ynl.t.u-tokyo.ac.jp/project/RobotBrainCREST/publications/pdf/tsuchiya/4_02.pdf
 本発明の実施形態は、組合せ最適化問題の解を実用的な時間内で計算する情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを提供する。
 本発明の実施形態としての情報処理装置は、第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新するように構成されている。情報処理装置は、記憶部と、処理回路とを備える。前記処理回路は、前記第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新し、更新された前記第1ベクトルを探索済ベクトルとして前記記憶部に保存し、前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算し、前記第1変数間の問題項を計算し、前記問題項を前記第2変数に加算し、前記記憶部より前記探索済ベクトルを読み出し、更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算し、前記補正項を前記第2変数に加算することによって前記第2ベクトルを更新するように構成されている。
情報処理システムの構成例を示した図。 管理サーバの構成例を示したブロック図。 管理サーバの記憶部に保存されるデータの例を示す図。 計算サーバの構成例を示したブロック図。 計算サーバのストレージに保存されるデータの例を示す図。 時間発展によってシミュレーテッド分岐アルゴリズムの解を計算する場合における処理の例を示したフローチャート。 補正項を含むアルゴリズムを使って求解を行う場合における処理の例を示したフローチャート。 他の計算ノードで計算された第1ベクトルを使って効率的に求解を行う場合における処理の例を示したフローチャート。 複数の計算ノードにおいて効率的にシミュレーテッド分岐アルゴリズムで求解を行う場合における処理の例を示したフローチャート。 複数の計算ノードにおいて効率的にシミュレーテッド分岐アルゴリズムで求解を行う場合における処理の例を示したフローチャート。 複数の計算ノードを含む情報処理システムの例を概念的に示した図。 各計算ノードにおける拡張ハミルトニアンの値の変化の例を概念的に示した図。 各計算ノードにおける拡張ハミルトニアンの値の変化の例を概念的に示した図。 各計算ノードにおける拡張ハミルトニアンの値の変化の例を概念的に示した図。 複数の計算方法において、最適解を得られるまでに必要な計算回数を示したヒストグラム。 マルチプロセッサ構成の例を概略的に示した図。 GPUを使った構成の例を概略的に示した図。 組合せ最適化問題を解くために実行される全体的な処理の例を示したフローチャート。
 以下、図面を参照しながら、本発明の実施形態について説明する。また、図面において同一の構成要素は、同じ番号を付し、説明は、適宜省略する。
 図1は、情報処理システム100の構成例を示したブロック図である。図1の情報処理システム100は、管理サーバ1と、ネットワーク2と、計算サーバ(情報処理装置)3a~3cと、ケーブル4a~4cと、スイッチ5と、記憶装置7を備えている。また、図1には、情報処理システム100と通信可能なクライアント端末6が示されている。管理サーバ1、計算サーバ3a~3c、クライアント端末6および記憶装置7は、ネットワーク2を介して互いにデータ通信をすることができる。例えば、計算サーバ3a~3cは、記憶装置7にデータを保存したり、記憶装置7よりデータを読み出したりすることができる。ネットワーク2は、例えば、複数のコンピュータネットワークが相互に接続されたインターネットである。ネットワーク2は、通信媒体として有線、無線、または、これらの組合せを用いることができる。また、ネットワーク2で使われる通信プロトコルの例としては、TCP/IPがあるが、通信プロトコルの種類については特に問わない。
 また、計算サーバ3a~3cは、それぞれケーブル4a~4cを介してスイッチ5に接続されている。ケーブル4a~4cおよびスイッチ5は、計算サーバ間のインターコネクトを形成している。計算サーバ3a~3cは、当該インターコネクトを介して互いにデータ通信をすることも可能である。スイッチ5は、例えば、Infinibandのスイッチである。ケーブル4a~4cは、例えば、Infinibandのケーブルである。ただし、Infinibandのスイッチ/ケーブルの代わりに、有線LANのスイッチ/ケーブルを使ってもよい。ケーブル4a~4cおよびスイッチ5で使われる通信規格および通信プロトコルについては、特に問わない。クライアント端末6の例としては、ノートPC、デスクトップPC、スマートフォン、タブレット、車載端末などが挙げられる。
 組合せ最適化問題の求解では、処理の並列化および/または処理の分散化を行うことができる。したがって、計算サーバ3a~3cおよび/または計算サーバ3a~3cのプロセッサは、計算処理の一部のステップを分担して実行してもよいし、異なる変数について同様の計算処理を並列的に実行してもよい。管理サーバ1は、例えば、ユーザによって入力された組合せ最適化問題を各計算サーバが処理可能な形式に変換し、計算サーバを制御する。そして、管理サーバ1は、各計算サーバから計算結果を取得し、集約した計算結果を組合せ最適化問題の解に変換する。こうして、ユーザは、組合せ最適化問題の解を得ることができる。組合せ最適化問題の解は、最適解と、最適解に近い近似解とを含むものとする。
 図1には、3台の計算サーバが示されている。ただし、情報処理システムに含まれる計算サーバの台数を限定するものではない。また、組合せ最適化問題の求解に使われる計算サーバの台数についても特に問わない。例えば、情報処理システムに含まれる計算サーバは1台であってもよい。また、情報処理システムに含まれる複数の計算サーバのうち、いずれかの計算サーバを使って組合せ最適化問題の求解を行ってもよい。また、情報処理システムに、数百台以上の計算サーバが含まれていてもよい。計算サーバは、データセンターに設置されたサーバであってもよいし、オフィスに設置されたデスクトップPCであってもよい。また、計算サーバは異なるロケーションに設置された複数の種類のコンピュータであってもよい。計算サーバとして使われる情報処理装置の種類については特に問わない。例えば、計算サーバは、汎用的なコンピュータであってもよいし、専用の電子回路または、これらの組合せであってもよい。
 図2は、管理サーバ1の構成例を示したブロック図である。図2の管理サーバ1は、例えば、中央演算処理装置(CPU)とメモリとを含むコンピュータである。管理サーバ1は、プロセッサ10と、記憶部14と、通信回路15と、入力回路16と、出力回路17とを備えている。プロセッサ10、記憶部14、通信回路15、入力回路16および出力回路17は、互いにバス20を介して接続されているものとする。プロセッサ10は、内部の構成要素として、管理部11と、変換部12と、制御部13とを含んでいる。
 プロセッサ10は、演算を実行し、管理サーバ1の制御を行う電子回路である。プロセッサ10は、処理回路の一例である。プロセッサ10として、例えば、CPU、マイクロプロセッサ、ASIC、FPGA、PLDまたはこれらの組合せを用いることができる。管理部11は、ユーザのクライアント端末6を介して管理サーバ1の操作を行うためのインタフェースを提供する。管理部11が提供するインタフェースの例としては、API、CLI、ウェブページなどが挙げられる。例えば、ユーザは、管理部11を介して組合せ最適化問題の情報の入力を行ったり、計算された組合せ最適化問題の解の閲覧および/またはダウンロードを行ったりすることができる。変換部12は、組合せ最適化問題を各計算サーバが処理可能な形式に変換する。制御部13は、各計算サーバに制御指令を送信する。制御部13が各計算サーバから計算結果を取得した後、変換部12は、複数の計算結果を集約し、組合せ最適化問題の解に変換する。また、制御部13は、各計算サーバまたは各サーバ内のプロセッサが実行する処理内容を指定してもよい。
 記憶部14は、管理サーバ1のプログラム、プログラムの実行に必要なデータ、およびプログラムによって生成されたデータを含む各種のデータを記憶する。ここで、プログラムは、OSとアプリケーションの両方を含むものとする。記憶部14は、揮発性メモリ、不揮発性メモリ、またはこれらの組合せであってもよい。揮発性メモリの例としては、DRAM、SRAMなどがある。不揮発性メモリの例としては、NANDフラッシュメモリ、NORフラッシュメモリ、ReRAM、またはMRAMが挙げられる。また、記憶部14として、ハードディスク、光ディスク、磁気テープまたは外部の記憶装置を使ってもよい。
 通信回路15は、ネットワーク2に接続された各装置との間でデータの送受信を行う。通信回路15は、例えば、有線LANのNIC(Network Interface Card)である。ただし、通信回路15は、無線LANなど、その他の種類の通信回路であってもよい。入力回路16は、管理サーバ1へのデータ入力を実現する。入力回路16は、外部ポートとして、例えば、USB、PCI-Expressなどを備えているものとする。図2の例では、操作装置18が入力回路16に接続されている。操作装置18は、管理サーバ1に情報を入力するための装置である。操作装置18は、例えば、キーボード、マウス、タッチパネル、音声認識装置などであるが、これに限られない。出力回路17は、管理サーバ1からのデータ出力を実現する。出力回路17は、外部ポートとしてHDMI、DisplayPortなどを備えているものとする。図2の例では、表示装置19が出力回路17に接続されている。表示装置19の例としては、LCD(液晶ディスプレイ)、有機EL(有機エレクトロルミネッセンス)ディスプレイ、またはプロジェクタがあるが、これに限られない。
 管理サーバ1の管理者は、操作装置18および表示装置19を使って、管理サーバ1のメンテナンスを行うことができる。なお、操作装置18および表示装置19は、管理サーバ1に組み込まれたものであってもよい。また、管理サーバ1に必ず操作装置18および表示装置19が接続されていなくてもよい。例えば、管理者は、ネットワーク2と通信可能な情報端末を用いて管理サーバ1のメンテナンスを行ってもよい。
 図3は、管理サーバ1の記憶部14に保存されるデータの例を示している。図3の記憶部14には、問題データ14Aと、計算データ14Bと、管理プログラム14Cと、変換プログラム14Dと、制御プログラム14Eとが保存されている。例えば、問題データ14Aは、組合せ最適化問題のデータを含む。例えば、計算データ14Bは、各計算サーバから収集された計算結果を含む。例えば、管理プログラム14Cは、上述の管理部11の機能を実現するプログラムである。例えば、変換プログラム14Dは、上述の変換部12の機能を実現するプログラムである。例えば、制御プログラム14Eは、上述の制御部13の機能を実現するプログラムである。
 図4は、計算サーバの構成例を示したブロックである。図4の計算サーバは、例えば、第1ベクトルおよび第2ベクトルの計算を単独で、または、他の計算サーバと分担して実行する情報処理装置である。
 図4には、例示的に計算サーバ3aの構成が示されている。他の計算サーバは、計算サーバ3aと同様の構成であってもよいし、計算サーバ3aと異なる構成であってもよい。
 計算サーバ3aは、例えば、通信回路31と、共有メモリ32と、プロセッサ33A~33Dと、ストレージ34と、ホストバスアダプタ35とを備えている。通信回路31、共有メモリ32、プロセッサ33A~33D、ストレージ34およびホストバスアダプタ35は、バス36を介して互いに接続されているものとする。
 通信回路31は、ネットワーク2に接続された各装置との間でデータの送受信を行う。通信回路31は、例えば、有線LANのNIC(Network Interface Card)である。ただし、通信回路31は、無線LANなど、その他の種類の通信回路であってもよい。共有メモリ32は、プロセッサ33A~33Dからアクセス可能なメモリである。共有メモリ32の例としては、DRAM、SRAMなどの揮発性メモリが挙げられる。ただし、共有メモリ32として、不揮発性メモリなどその他の種類のメモリが使われてもよい。共有メモリ32は、例えば、第1ベクトルおよび第2ベクトルを記憶するように構成されていてもよい。プロセッサ33A~33Dは、共有メモリ32を介してデータの共有を行うことができる。なお、必ず計算サーバ3aのすべてのメモリが共有メモリとして構成されていなくてもよい。例えば、計算サーバ3aの一部のメモリは、いずれかのプロセッサのみからアクセスできるローカルメモリとして構成されていてもよい。なお、共有メモリ32および後述するストレージ34は、情報処理装置の記憶部の一例である。
 プロセッサ33A~33Dは、計算処理を実行する電子回路である。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)のいずれであってもよいし、これらの組合せであってもよい。また、プロセッサは、CPUコアまたはCPUスレッドであってもよい。プロセッサがCPUである場合、計算サーバ3aが備えるソケット数については、特に問わない。また、プロセッサは、PCI expressなどのバスを介して計算サーバ3aのその他の構成要素に接続されていてもよい。
 図4の例では、計算サーバが4つのプロセッサを備えている。ただし、1台の計算サーバが備えているプロセッサの数はこれとは異なっていてもよい。例えば、計算サーバによって実装されているプロセッサの数および/または種類が異なっていてもよい。ここで、プロセッサは、情報処理装置の処理回路の一例である。情報処理装置は、複数の処理回路を備えていてもよい。
 情報処理装置は、例えば、第1変数x(i=1、2、・・・、N)を要素とする第1ベクトルおよび第1変数に対応する第2変数y(i=1、2、・・・、N)を要素とする第2ベクトルを繰り返し更新するように構成されている。
 例えば、情報処理装置の処理回路は、第1変数に第2変数を重み付け加算することによって第1ベクトルを更新し、更新された第1ベクトルを探索済ベクトルとして記憶部に保存し、第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、問題項を第2変数に加算し、記憶部より探索済ベクトルを読み出し、更新対象の第1ベクトルと探索済ベクトルとの間の距離の逆数を含む補正項を計算し、補正項を第2変数に加算することによって第2ベクトルを更新するように構成されていてもよい。問題項は、イジングモデルに基づいて計算されるものであってもよい。ここで、第1変数は、必ず単調増加または単調減少しなくてもよい。例えば、(1)第1係数の値がしきい値T(例えば、T=1)より大きくなったときに組合せ最適化問題の解(解ベクトル)を求め、(2)その後、第1係数の値をしきい値T(例えば、T=2)より小さく設定した後に第1係数の値を再びしきい値Tより大きく設定し、組合せ最適化問題の解(解ベクトル)を求めることを繰り返してもよい。なお、問題項は、多体相互作用を含むものであってもよい。第1係数、問題項、探索済ベクトル、補正項、イジングモデル、多体相互作用の詳細については、後述する。
 情報処理装置では、例えば、プロセッサ単位で処理内容(タスク)の割り当てを行うことができる。ただし、処理内容の割り当てが行われる計算資源の単位を限定するものではない。例えば、計算機単位で処理内容の割り当てを行ってもよいし、プロセッサ上で動作するプロセス単位またはCPUスレッド単位で処理内容の割り当てを行ってもよい。
 以下では、再び図4を参照し、計算サーバの構成要素を説明する。
 ストレージ34は、計算サーバ3aのプログラム、プログラムの実行に必要なデータ、およびプログラムによって生成されたデータを含む各種のデータを記憶する。ここで、プログラムは、OSとアプリケーションの両方を含むものとする。ストレージ34は、例えば、第1ベクトルおよび第2ベクトルを記憶するように構成されていてもよい。ストレージ34は、揮発性メモリ、不揮発性メモリ、またはこれらの組合せであってもよい。揮発性メモリの例としては、DRAM、またはSRAMなどがある。不揮発性メモリの例としては、NANDフラッシュメモリ、NORフラッシュメモリ、ReRAM、またはMRAMが挙げられる。また、ストレージ34として、ハードディスク、光ディスク、磁気テープまたは外部の記憶装置が使われてもよい。
 ホストバスアダプタ35は、計算サーバ間のデータ通信を実現する。ホストバスアダプタ35は、ケーブル4aを介してスイッチ5に接続されている。ホストバスアダプタ35は、例えば、HCA(Host Channel Adaptor)である。ホストバスアダプタ35、ケーブル4a、およびスイッチ5を使って高スループットを実現可能なインターコネクトを形成することにより、並列的な計算処理の速度を向上させることができる。
 図5は、計算サーバのストレージに保存されるデータの例を示している。図5のストレージ34には、計算データ34Aと、計算プログラム34Bと、制御プログラム34Cとが保存されている。計算データ34Aは、計算サーバ3aの計算途中のデータまたは計算結果を含んでいる。なお、計算データ34Aの少なくとも一部は、共有メモリ32、プロセッサのキャッシュ、またはプロセッサのレジスタなど、異なる記憶階層に保存されていてもよい。計算プログラム34Bは、所定のアルゴリズムに基づき、各プロセッサにおける計算処理および、共有メモリ32およびストレージ34へのデータの保存処理を実現するプログラムである。制御プログラム34Cは、管理サーバ1の制御部13から送信された指令に基づき、計算サーバ3aを制御し、計算サーバ3aの計算結果を管理サーバ1に送信するプログラムである。
 次に、組合せ最適化問題の求解に関連する技術について説明する。組合せ最適化問題を解くために使われる情報処理装置の一例として、イジングマシンが挙げられる。イジングマシンとは、イジングモデルの基底状態のエネルギーを計算する情報処理装置のことをいう。これまで、イジングモデルは、主に強磁性体や相転移現象のモデルとして使われることが多かった。しかし、近年、イジングモデルは、組合せ最適化問題を解くためのモデルとしての利用が増えている。下記の式(1)は、イジングモデルのエネルギーを示している。
Figure JPOXMLDOC01-appb-M000001
ここで、s、sはスピンである、スピンは、+1または-1のいずれかの値をとる2値変数である。Nは、スピンの数である。hは、各スピンに作用する局所磁場である。Jは、スピン間における結合係数の行列である。行列Jは、対角成分が0である実対称行列となっている。したがって、Jijは行列Jのi行j列の要素を示している。なお、式(1)のイジングモデルは、スピンについての2次式となっているが、後述するように、スピンの3次以上の項を含む拡張されたイジングモデル(多体相互作用を有するイジングモデル)を使ってもよい。
 式(1)のイジングモデルを使うと、エネルギーEIsingを目的関数とし、エネルギーEIsingを可能な限り小さくする解を計算することができる。イジングモデルの解は、スピンのベクトル(s、s、・・・、s)の形式で表される。このベクトルを解ベクトルとよぶものとする。特に、エネルギーEIsingが最小値となるベクトル(s、s、・・・、s)は、最適解とよばれる。ただし、計算されるイジングモデルの解は、必ず厳密な最適解でなくてもよい。以降では、イジングモデルを使ってエネルギーEIsingが可能な限り小さくなる近似解(すなわち、目的関数の値が可能な限り最適値に近くなる近似解)を求める問題をイジング問題とよぶものとする。
 式(1)のスピンsは2値変数であるため、式(1+s)/2を使うことにより、組合せ最適化問題で使われる離散変数(ビット)との変換を容易に行うことができる。したがって、組合せ最適化問題をイジング問題に変換し、イジングマシンに計算を行わせることにより、組合せ最適化問題の解を求めることが可能である。0または1のいずれかの値をとる離散変数(ビット)を変数とする2次の目的関数を最小化する解を求める問題は、QUBO(Quadratic Unconstrained Binary Optimization、制約なし2値変数2次最適化)問題とよばれる。式(1)で表されるイジング問題は、QUBO問題と等価であるといえる。
 例えば、量子アニーラ、コヒーレントイジングマシン、または量子分岐マシンなどがイジングマシンのハードウェア実装として提案されている。量子アニーラは、超伝導回路を使って量子アニーリングを実現する。コヒーレントイジングマシンは、光パラメトリック発振器で形成されたネットワークの発振現象を利用する。量子分岐マシンは、カー効果を有するパラメトリック発振器のネットワークにおける量子力学的な分岐現象を利用する。これらのハードウェア実装は、計算時間の大幅な短縮を実現する可能性がある一方、大規模化や安定的な運用が難しいという課題もある。
 そこで、広く普及しているデジタルコンピュータを使ってイジング問題の求解を行うことも可能である。デジタルコンピュータは、上述の物理的現象を使ったハードウェア実装と比べ、大規模化と安定運用が容易である。デジタルコンピュータでイジング問題の求解を行うためのアルゴリズムの一例として、シミュレーテッドアニーリング(SA)が挙げられる。シミュレーテッドアニーリングをより高速に実行する技術の開発が行われている。ただし、一般のシミュレーテッドアニーリングはそれぞれの変数が逐次更新される逐次更新アルゴリズムであるため、並列化による計算処理の高速化は難しい。
 上述の課題を踏まえ、デジタルコンピュータにおける並列的な計算によって、規模の大きい組合せ最適化問題の求解を高速に行うことが可能なシミュレーテッド分岐アルゴリズムが提案されている。以降では、シミュレーテッド分岐アルゴリズムを使って組合せ最適化問題を解く情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムについて説明する。
 はじめに、シミュレーテッド分岐アルゴリズムの概要について述べる。
 シミュレーテッド分岐アルゴリズムでは、それぞれN個ある2つの変数x,y(i=1、2、・・・、N)について、下記の(2)の連立常微分方程式を数値的に解く。N個の変数xのそれぞれは、イジングモデルのスピンsに対応している。一方、N個の変数yのそれぞれは、運動量に相当している。変数x,yは、いずれも連続変数であるものとする。以下では、変数x(i=1、2、・・・、N)を要素とするベクトルを第1ベクトル、変数y(i=1、2、・・・、N)を要素とするベクトルを第2ベクトルとそれぞれよぶものとする。
Figure JPOXMLDOC01-appb-M000002
 ここで、Hは、下記の式(3)のハミルトニアンである。
Figure JPOXMLDOC01-appb-M000003
 なお、(2)では、式(3)のハミルトニアンHに代わり、下記の式(4)に示した、項G(x、x、・・・x)を含めたハミルトニアンH´を使ってもよい。ハミルトニアンHだけでなく項G(x、x、・・・x)も含む関数を拡張ハミルトニアンとよび、もとのハミルトニアンHと区別するものとする。
Figure JPOXMLDOC01-appb-M000004
 以下では、項G(x、x、・・・x)が補正項である場合を例に処理を説明する。ただし、項G(x、x、・・・x)は、組合せ最適化問題の制約条件より導かれるものであってもよい。ただし、項G(x、x、・・・x)の導出方法と種類を限定するものではない。また、式(4)では、もとのハミルトニアンHに項G(x、x、・・・x)が加算されている。ただし、項G(x、x、・・・x)は、これとは異なる方法で拡張ハミルトニアンに組み込まれていてもよい。
 式(3)のハミルトニアンおよび(4)の拡張ハミルトニアンを参照すると、それぞれの項が第1ベクトルの要素xまたは第2ベクトルの要素yのいずれかの項になっている。下記の式(5)に示すように、第1ベクトルの要素xの項Uと、第2ベクトルの要素yの項Vに分けることが可能な拡張ハミルトニアンを使ってもよい。
Figure JPOXMLDOC01-appb-M000005
 シミュレーテッド分岐アルゴリズムの時間発展の計算では、変数x,y(i=1、2、・・・、N)の値が繰り返し更新される。そして、所定の条件が満たされたときに変数xを変換することによってイジングモデルのスピンs(i=1、2、・・・、N)を求めることができる。以下では、時間発展の計算が行われる場合を想定して処理の説明を行う。ただし、シミュレーテッド分岐アルゴリズムの計算は、時間発展以外の方式で行われてもよい。
 (2)および(3)において、係数Dは、離調(detuning)に相当する。係数p(t)は、上述の第1係数に相当し、ポンピング振幅(pumping amplitude)ともよばれる。時間発展の計算において、係数p(t)の値を更新回数に応じて単調増加させることができる。係数p(t)の初期値は0に設定されていてもよい。
 なお、以下では、第1係数p(t)が正値であり、更新回数に応じて第1係数p(t)の値が大きくなる場合を例に説明する。ただし、以下で提示するアルゴリズムの符号を反転し、負値の第1係数p(t)を使ってもよい。この場合、更新回数に応じて第1係数p(t)の値が単調減少する。ただし、いずれの場合においても、更新回数に応じて第1係数p(t)の絶対値が単調増加する。
 係数Kは、正のカー係数(Kerr coefficient)に相当する。係数cとして、定数係数を使うことができる。例えば、係数cの値を、シミュレーテッド分岐アルゴリズムによる計算の実行前に決めてもよい。例えば、係数cをJ(2)行列の最大固有値の逆数に近い値に設定することができる。例えば、c=0.5D√(N/2n)という値を使うことができる。ここで、nは、組合せ最適化問題に係るグラフのエッジ数である。また、a(t)は、時間発展の計算時においてp(t)とともに増加する係数である。例えば、a(t)として、√(p(t)/K)を使うことができる。なお、(3)および(4)における局所磁場のベクトルhは、省略すること可能である。
 例えば、係数p(t)の値が所定の値を超えた時に、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換すると、スピンsを要素とする解ベクトルを得ることができる。この解ベクトルは、イジング問題の解に相当する。なお、情報処理装置は、第1ベクトルおよび第2ベクトルの更新回数に基づき、上述の変換処理を実行し、解ベクトルを求めるか否かを判定してもよい。
 シミュレーテッド分岐アルゴリズムの計算を行う場合、シンプレクティック・オイラー法を使い、上述の(2)を離散的な漸化式に変換し、求解を行うことができる。下記の(6)は、漸化式に変換後のシミュレーテッド分岐アルゴリズムの例を示している。
Figure JPOXMLDOC01-appb-M000006
 ここで、tは、時刻であり、Δtは、時間ステップ(時間刻み幅)である。なお、(6)では、微分方程式との対応関係を示すために、時刻tおよび時間ステップΔtが使われている。ただし、実際にアルゴリズムをソフトウェアまたはハードウェアに実装する際に必ず時刻tおよび時間ステップΔtが明示的なパラメータとして含まれていなくてもよい。例えば、時間ステップΔtを1とすれば、実装時のアルゴリズムから時間ステップΔtを除去することが可能である。アルゴリズムを実装する際に、明示的なパラメータとして時間tを含めない場合には、(4)において、x(t+Δt)をx(t)の更新後の値であると解釈すればよい。すなわち、上述の(4)における“t”は、更新前の変数の値、“t+Δt”は、更新後の変数の値を示すものとする。
 シミュレーテッド分岐アルゴリズムの時間発展を計算する場合、p(t)の値を初期値(例えば、0)から所定の値まで増加させた後における変数xの符号に基づき、スピンsの値を求めることができる。例えば、x>0のときsgn(x)=+1、x<0のときsgn(x)=-1となる符号関数を使うと、p(t)の値が所定の値まで増加したとき、変数xを符号関数で変換することによってスピンsの値を求めることができる。符号関数として、例えば、x≠0のときに、sgn(x)=x/|x|、x=0のときにsgn(x)=+1または-1になる関数を使うことができる。組合せ最適化問題の解(例えば、イジングモデルのスピンs)を求めるタイミングについては、特に問わない。例えば、第1ベクトルおよび第2ベクトルの更新回数、第1係数pの値または目的関数の値がしきい値より大きくなったときに組合せ最適化問題の解(解ベクトル)を求めてもよい。
 図6のフローチャートは、時間発展によってシミュレーテッド分岐アルゴリズムの解を計算する場合における処理の例を示している。以下では、図6を参照しながら処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得する(ステップS101)。そして、計算サーバは、係数p(t)およびa(t)を初期化する(ステップS102)。例えば、ステップS102で係数pおよびaの値を0にすることができるが、係数pおよびaの初期値を限定するものではない。次に、計算サーバは、第1変数xおよび第2変数yを初期化する(ステップS103)。ここで、第1変数xは、第1ベクトルの要素である。また、第2変数yは、第2ベクトルの要素である。ステップS103で計算サーバは、例えば、擬似乱数によってxおよびyを初期化してもよい。ただし、xおよびyの初期化の方法を限定するものではない。また、これとは異なるタイミングに変数の初期化を行ってもよいし、少なくともいずれかの変数を複数回初期化してもよい。
 次に、計算サーバは、第1ベクトルの要素xに対応する第2ベクトルの要素yを重み付け加算することによって第1ベクトルを更新する(ステップS104)。例えば、ステップS104では、変数xにΔt×D×yを加算することができる。そして、計算サーバは、第2ベクトルの要素yを更新する(ステップS105およびS106)。例えば、ステップS105では、変数yにΔt×[(p-D-K×x×x)×x]を加算することができる。ステップS106では、さらに変数yに-Δt×c×h×a-Δt×c×ΣJij×xを加算することができる。
 次に、計算サーバは、係数pおよびaの値を更新する(ステップS107)。例えば、係数pに一定の値(Δp)を加算し、係数aを更新後の係数pの正の平方根に設定することができる。ただし、後述するように、これは係数pおよびaの値の更新方法の一例にしかすぎない。そして、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS108)。更新回数がしきい値未満である場合(ステップS108のYES)、計算サーバは、ステップS104~S107の処理を再度実行する。更新回数がしきい値以上である場合(ステップS108のNO)、第1ベクトルの要素xに基づいて解ベクトルの要素であるスピンsを求める(ステップS109)。ステップS109では、例えば、第1ベクトルにおいて、正値である変数xを+1、負値である変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 なお、ステップS108の判定において、更新回数がしきい値未満である場合(ステップS108のYES)に第1ベクトルに基づきハミルトニアンの値を計算し、第1ベクトルおよびハミルトニアンの値を記憶してもよい。これにより、ユーザは、複数の第1ベクトルより最適解に最も近い近似解を選択することが可能となる。
 なお、図6のフローチャートに示した少なくともいずれかの処理を並列的に実行してもよい。例えば、第1ベクトルおよび第2ベクトルのそれぞれが有するN個の要素の少なくとも一部が並列的に更新されるよう、ステップS104~S106の処理を並列的に実行してもよい。例えば、複数台の計算サーバを使って処理を並列化してもよい。複数のプロセッサによって処理を並列化してもよい。ただし、処理の並列化を実現するための実装および処理の並列化の態様を限定するものではない。
 上述のステップS105~S106に示した変数xおよびyの更新処理の実行順序は、一例にしかすぎない。したがって、これとは異なる順序で変数xおよびyの更新処理を実行してもよい。例えば、変数xの更新処理と変数yの更新処理が実行される順序が入れ替わっていてもよい。また、各変数の更新処理に含まれるサブ処理の順序も限定しない。例えば、変数yの更新処理に含まれる加算処理の実行順序が図6の例とは異なっていてもよい。各変数の更新処理を実行するための前提となる処理の実行順序およびタイミングも特に限定しない。例えば、問題項の計算処理が、変数xの更新処理を含むその他の処理と並行で実行されていてもよい。変数xおよびyの更新処理、各変数の更新処理に含まれるサブ処理および問題項の計算処理が実行される順序およびタイミングが限定されない点は、以降に示す各フローチャートの処理についても、同様である。
[効率的な解の探索]
 シミュレーテッド分岐アルゴリズムを含む最適化問題の計算では、最適解またはそれに近い近似解(実用的な解という)を得ることが望ましい。ただし、計算処理(例えば、図6の処理)の各試行で必ず実用的な解が得られるとは限らない。例えば、計算処理の試行後に得られる解が実用的な解ではなく局所解である可能性もある。また、問題に複数の局所解が存在している可能性もある。実用的な解が見つける確率を高めるために、複数の計算ノードのそれぞれに計算処理を実行させることが考えられる。また、計算ノードが繰り返し計算処理を実行し、複数回にわたって解を探索することも可能である。さらに、前者と後者の方法とを組み合わせてもよい。
 ここで、計算ノードは、例えば、計算サーバ(情報処理装置)、プロセッサ(CPU)、GPU、半導体回路、仮想計算機(VM)、仮想プロセッサ、CPUスレッド、プロセスである。計算ノードは、計算処理の実行主体となりうる何らかの計算資源であればよく、その粒度、ハードウェア/ソフトウェアの区別を限定するものではない。
 ただし、それぞれの計算ノードが独立的に計算処理を実行した場合、複数の計算ノードが解空間の重複した領域を探索してしまう可能性がある。また、計算処理が繰り返される場合、計算ノードが複数の試行において解空間の同じ領域を探索することもありうる。このため、複数の計算ノードで同じ局所解が計算されたり、繰り返し同じ局所解が計算されたりする。計算処理において解空間のすべての局所解を探索し、各局所解を評価することによって最適解を見つけることが理想的である。一方、解空間に局所解が多数存在しうることを考慮すると、情報処理装置/情報処理システムが効率的な求解処理を実行し、現実的な計算時間および計算量の範囲内で実用的な解を得ることが望まれる。
 例えば、計算ノードは、計算処理の途中において、計算した第1ベクトルを記憶部に保存することができる。以降の計算処理において、計算ノードは、記憶部より以前に計算した第1ベクトルx(m)を読み出す。ここで、mは、第1ベクトルの要素が得られたタイミングを示す番号である。例えば、初回に得られた第1ベクトルは、m=1に、2回目に得られた第1ベクトルは、m=2になる。そして、計算ノードは、以前に計算した第1ベクトルx(m)に基づく補正処理を実行する。これにより、解空間の重複する領域を探索することを避けることができ、同じ計算時間および計算量で解空間のより広い領域を探索することが可能となる。以下では、以前に計算された第1ベクトルを探索済みベクトルとよび、更新対象の第1ベクトルと区別するものとする。
 以下では、効率的な解の探索を行うための処理の詳細について説明する。
 例えば、上述の補正項G(x、x、・・・x)を使って補正処理を行うことができる。下記の式(7)は、第1ベクトルと探索済みベクトルとの間の距離の一例である。
Figure JPOXMLDOC01-appb-M000007
式(7)は、Q乗ノルムとよばれる。式(7)において、Qは任意の正値をとることができる。
 下記の式(8)は、式(7)のQを無限大にしたものであり、無限乗ノルムとよばれる。
Figure JPOXMLDOC01-appb-M000008
以下では、距離として二乗ノルムが使われている場合を例に説明する。ただし、計算で使用される距離の種類を限定するものではない。
 例えば、下記の式(9)に示すように、補正項G(x、x、・・・x)に第1ベクトルと探索済みベクトルとの間の距離の逆数を含めてもよい。
Figure JPOXMLDOC01-appb-M000009
この場合、計算途中の第1ベクトルが探索済みベクトルに接近すると、補正項G(x、x、・・・x)の値が大きくなる。これにより、探索済みベクトル近傍の領域を避けるように第1ベクトルの更新処理を実行することが可能となる。(9)は、計算に使うことができる補正項の一例にしかすぎない。したがって、計算では、(9)とは異なる形式の補正項が使われてもよい。
 下記の式(10)は、補正項を含む拡張ハミルトニアンH´の一例である。
Figure JPOXMLDOC01-appb-M000010
例えば、式(10)の係数cとして任意の正値を使うことができる。また、kについても、任意の正値を使うことができる。(10)の補正項は、これまでに得られたそれぞれの探索済みベクトルを使って計算した距離の逆数の和を含んでいる。すなわち、情報処理装置の処理回路は、複数の探索済ベクトルのそれぞれを用いて距離の逆数を計算し、複数の逆数を加算することによって補正項を計算するように構成されていてもよい。これにより、これまでに得られた複数の探索済みベクトル近傍の領域を避けるように第1ベクトルの更新処理を実行することできる。
 式(10)の拡張ハミルトニアンを使った場合、下記の(11)に示した連立常微分方程式をそれぞれN個ある2つの変数x,y(i=1、2、・・・、N)について、数値的に解く処理を実行することが可能である。
Figure JPOXMLDOC01-appb-M000011
 下記の(12)は、(10)をxについて偏微分したものを示している
Figure JPOXMLDOC01-appb-M000012
(10)の補正項の分母が二乗ノルムである場合、(12)の分母の計算では、平方根の計算が不要であるため、計算量を抑制することができる。例えば、第1ベクトルの要素数がN、記憶部が保持している探索済みベクトルの数がMである場合、N×Mの定数倍の計算量で補正項を求めることが可能である。
 シンプレクティック・オイラー法を使い、上述の(11)を離散的な漸化式に変換し、シミュレーテッド分岐アルゴリズムの計算を行うことができる。下記の(13)は、漸化式に変換後のシミュレーテッド分岐アルゴリズムの例を示している。
Figure JPOXMLDOC01-appb-M000013
(13)のアルゴリズムを使うと、探索済みベクトルに応じて適応的に第1ベクトルを更新することができる。
 (13)のうち、下記の(14)の項は、イジングエネルギーに由来する。この項の形式は、解きたい問題に応じて決まるため、問題項(problem term)とよぶものとする。
Figure JPOXMLDOC01-appb-M000014
後述するように、問題項は、(14)とは異なっていてもよい。
 図7のフローチャートは、補正項を含むアルゴリズムを使って求解を行う場合における処理の例を示している。以下では、図7を参照しながら処理を説明する。
 はじめに、計算サーバは、係数p(t)、a(t)および変数mを初期化する(ステップS111)。例えば、ステップS111で係数pおよびaの値を0にすることができるが、係数pおよびaの初期値を限定するものではない。例えば、ステップS111で変数mを1に設定することができる。なお、図示されていないが、計算サーバは、図7のフローチャートの処理が開始する前に管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得しているものとする。次に、計算サーバは、第1変数xおよび第2変数yを初期化する(ステップS112)。ここで、第1変数xは、第1ベクトルの要素である。また、第2変数yは、第2ベクトルの要素である。ステップS112で計算サーバは、例えば、擬似乱数によってxおよびyを初期化してもよい。ただし、xおよびyの初期化の方法を限定するものではない。
 そして、計算サーバは、第1変数xに対応する第2変数yを重み付け加算することによって第1ベクトルを更新する(ステップS113)。例えば、ステップS113では、変数xにΔt×D×yを加算することができる。次に、計算サーバは、第2変数yを更新する(ステップS114~S116)。例えば、ステップS114では、yにΔt×[(p-D-K×x×x)×x]を加算することができる。ステップS115では、さらにyに-Δt×c×h×a-Δt×c×ΣJij×xを加算することができる。ステップS115は、第2変数yへの問題項の加算処理に相当する。ステップS116では、yに(12)の補正項を加算することができる。補正項は、例えば、記憶部に保存されている探索済ベクトルおよび第1ベクトルに基づいて計算することが可能である。
 次に、計算サーバは、係数p(第1係数)およびaの値を更新する(ステップS117)。例えば、係数pに一定の値(Δp)を加算し、係数aを更新後の係数pの正の平方根に設定することができる。ただし、後述するように、これは係数pおよびaの値を更新方法の一例にしかすぎない。また、ループを継続するか否かの判定に変数tが使われる場合、変数tにΔtを加算してもよい。そして、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS118)。例えば、変数tの値をTと比較することによってステップS118の判定を行うことができる。ただし、その他の方法で判定を行ってもよい。
 更新回数がしきい値未満である場合(ステップS118のYES)、計算サーバは、ステップS113~S117の処理を再度実行する。更新回数がしきい値以上である場合(ステップS118のNO)、第1ベクトルを探索済ベクトルとして記憶部に保存し、mをインクリメントする(ステップS119)。そして、記憶部に保存された探索済ベクトルの数がしきい値Mth以上である場合、いずれかのmについて記憶部の探索済ベクトルを削除する(ステップS120)。なお、第1ベクトルを探索済ベクトルとして記憶部に保存する処理は、ステップS113の実行後からステップS117までの間の任意のタイミングに実行されてもよい。
 次に、計算サーバは、第1ベクトルおよび第2ベクトルを上述の式(6)のハミルトニアンに代入し、ハミルトニアンの値Eを計算する。そして、計算サーバは、ハミルトニアンの値Eがしきい値E未満であるか否かを判定する(ステップS121)。ハミルトニアンの値Eがしきい値E未満である場合(ステップS121のYES)、計算サーバは、第1変数xに基づいて解ベクトルの要素であるスピンsを求めることができる(図示せず)。例えば、第1ベクトルにおいて、正値である第1変数xを+1、負値である第1変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 ステップS121の判定において、ハミルトニアンの値Eがしきい値E未満でない場合(ステップS121のNO)、計算サーバは、ステップS111以降の処理を再度実行する。このように、ステップS121の判定では、最適解またはそれに近い近似解が得られたか否かの確認が行われている。このように、情報処理装置の処理回路は、ハミルトニアン(目的関数)の値に基づいて第1ベクトルおよび第2ベクトルの更新を停止するか否かを判定するように構成されていてもよい。
 ユーザは、問題の定式化で使われている符号および求解で求められている精度に応じてしきい値Eの値を決めることができる。定式化で使われる符号によってハミルトニアンの値が極小値をとる第1ベクトルが最適解となる場合があれば、ハミルトニアンの値が極大値をとる第1ベクトルが最適解となる場合もありうる。例えば、上述の(10)の拡張ハミルトニアンでは、値が極小値をとる第1ベクトルが最適解となる。
 なお、計算サーバは、任意のタイミングでハミルトニアンの値を計算してもよい。計算サーバは、ハミルトニアンの値ならびに、計算に使った第1ベクトルおよび第2ベクトルを記憶部に保存することができる。情報処理装置の処理回路は、更新された第2ベクトルを第3ベクトルとして記憶部に保存するように構成されていてもよい。また、処理回路は、記憶部より探索済ベクトルと同一のイタレーションに更新された第3ベクトルを読み出し、探索済ベクトルおよび第3ベクトルに基づいてハミルトニアン(目的関数)の値を計算するように構成されていてもよい。
 ユーザは、利用可能な記憶領域および計算資源の量に応じて、ハミルトニアンの値を計算する頻度を決めることができる。また、ステップS118のタイミングにおいて、記憶部に保存された第1ベクトル、第2ベクトルおよびハミルトニアンの値の組合せの数がしきい値を超えているか否かに基づきループ処理を継続するか否かの判定を行ってもよい。こうして、ユーザは、記憶部に保存された複数の探索済ベクトルより、最適解に最も近い探索済ベクトルを選択し、解ベクトルを計算することができる。
 情報処理装置の処理回路は、ハミルトニアン(目的関数)の値に基づき記憶部に保存された複数の探索済ベクトルよりいずれかの探索済ベクトルを選択し、選択した探索済ベクトルの正値である第1変数を第1値に変換し、負値である第1変数を第1値より小さい第2値に変換することによって解ベクトルを計算するように構成されていてもよい。ここで、第1値は、例えば、+1である。第2値は、例えば、-1である。ただし、第1値および第2値は、その他の値であってもよい。
 なお、図7のフローチャートに示した少なくともいずれかの処理を並列的に実行してもよい。例えば、第1ベクトルおよび第2ベクトルがそれぞれ有するN個の要素の少なくとも一部が並列的に更新されるよう、ステップS113~S116の処理を並列的に実行してもよい。例えば、複数台の計算サーバを使って処理を並列化してもよい。複数のプロセッサによって処理を並列化してもよい。ただし、処理の並列化を実現するための実装および処理の並列化の態様を限定するものではない。
 図7のステップS120では、記憶部に保存されているいずれかの探索済ベクトルを削除する処理が実行されていた。ステップS120において、削除する探索済ベクトルをランダムに選択することができる。例えば、使用可能な記憶領域に制限がある場合、当該制限に基づき上述のしきい値Mthを決めることができる。また、使用可能な記憶領域の制限に関わらず、記憶部で保持する探索済ベクトルの数に上限を設けることにより、ステップS116(補正項の計算)における計算量を抑制することができる。具体的には、補正項の計算処理をN×Mthの定数倍の計算量以下で実行することが可能となる。
 ただし、計算サーバは、必ずステップS120の処理をスキップしてもよいし、ステップS120のタイミングでその他の処理が実行されてもよい。例えば、探索済ベクトルを別のストレージに移動させてもよい。また、計算資源が充分にある場合には、探索済ベクトルの削除処理を行わなくてもよい。
 ここでは、情報処理方法、記憶媒体およびプログラムの例について述べる。
 情報処理方法の第1の例では、記憶部と、複数の処理回路とを使って第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する。この場合、情報処理方法は、複数の処理回路が第1変数に対応する第2変数を重み付け加算することによって第1ベクトルを更新するステップと、複数の処理回路が更新された第1ベクトルを探索済ベクトルとして記憶部に保存するステップと、複数の処理回路が第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する第2変数に加算するステップと、複数の処理回路が複数の第1変数を用いて問題項を計算し、問題項を第2変数に加算するステップと、複数の処理回路が記憶部より探索済ベクトルを読み出すステップと、複数の処理回路が更新対象の第1ベクトルと探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、複数の処理回路が補正項を第2変数に加算するステップとを含んでいてもよい。
 情報処理方法の第2の例では、記憶装置と、複数の情報処理装置とを使って第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する。この場合、情報処理方法は、複数の情報処理装置が第1変数に対応する第2変数を重み付け加算することによって第1ベクトルを更新するステップと、複数の情報処理装置が更新された第1ベクトルを探索済ベクトルとして記憶装置に保存するステップと、複数の情報処理装置が第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する第2変数に加算するステップと、複数の情報処理装置が複数の第1変数を用いて問題項を計算し、問題項を第2変数に加算するステップと、複数の情報処理装置が記憶装置より探索済ベクトルを読み出すステップと、複数の情報処理装置が更新対象の第1ベクトルと探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、複数の情報処理装置が補正項を第2変数に加算するステップとを含んでいてもよい。
 プログラムは、例えば、第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する。この場合、プログラムは、第1変数に対応する第2変数を重み付け加算することによって第1ベクトルを更新するステップと、更新された第1ベクトルを探索済ベクトルとして記憶部に保存するステップと、第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する第2変数に加算するステップと、複数の第1変数を用いて問題項を計算し、問題項を第2変数に加算するステップと、記憶部より探索済ベクトルを読み出すステップと、更新対象の第1ベクトルと探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、補正項を第2変数に加算するステップとをコンピュータに実行させるものであってもよい。また、記憶媒体は、上述のプログラムを格納した非一時的なコンピュータ可読な記憶媒体であってもよい。
[並列システムにおける効率的な解の探索]
 複数の計算ノードが並列的にシミュレーテッド分岐アルゴリズムを実行する場合にも上述の適応的な探索を適用することが可能である。ここで、計算ノードが計算処理の実行主体となりうる何らかの計算資源であればよく、粒度およびハードウェア/ソフトウェアの区別を限定しない点は、上述と同様である。複数の計算ノードに第1ベクトルおよび第2ベクトルの同じペアの更新処理を分担して実行させてもよい。この場合、複数の計算ノードは、同一の解ベクトルを計算するひとつのグループを形成しているといえる。また、複数の計算ノードが第1ベクトルおよび第2ベクトルの異なるペアの更新処理を実行するグループに分けられていてもよい。この場合、複数の計算ノードは、それぞれが異なる解ベクトルを計算する複数のグループに分けられているといえる。
 情報処理装置は、複数の処理回路を備えていてもよい。この場合、それぞれの処理回路は、第1ベクトルおよび第2ベクトルの異なるペアの更新処理を実行する、複数のグループに分けられていてもよい。それぞれの処理回路は、他の処理回路が記憶部に保存した探索済ベクトルを読み出すように構成されていてもよい。
 また、記憶装置7と、複数の情報処理装置とを含む情報処理システムによって第1変数を要素とする第1ベクトルおよび第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新してもよい。この場合、それぞれの情報処理装置は、第1変数に対応する第2変数を重み付け加算することによって第1ベクトルを更新し、更新された第1ベクトルを探索済ベクトルとして記憶装置7に保存し、第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する第2変数に加算し、複数の第1変数を用いて問題項を計算し、問題項を第2変数に加算し、記憶装置7より探索済ベクトルを読み出し、更新対象の第1ベクトルと探索済ベクトルとの間の距離の逆数を含む補正項を計算し、補正項を第2変数に加算することによって第2ベクトルを更新するように構成されていてもよい。
 情報処理システムが複数の情報処理装置を含む場合、それぞれの情報処理装置は、第1ベクトルおよび第2ベクトルの異なるペアの更新処理を実行する、複数のグループに分けられていてもよい。それぞれの情報処理装置は、他の情報処理装置が記憶部に保存した探索済ベクトルを読み出すように構成されていてもよい。
 以下では、複数の計算ノードのそれぞれがシミュレーテッド分岐アルゴリズムを実行した場合に、効率的な解の探索が可能な処理の例について説明する。
 下記の式(15)は、補正項を含まないハミルトニアンの一例である。
Figure JPOXMLDOC01-appb-M000015
 例えば、それぞれの計算ノードに上述の式(15)のハミルトニアンを使った解の計算を独立的に実行させると、複数の計算ノードが解空間の重複する領域を探索したり、複数の計算ノードが同一の局所解を得たりする可能性がある。
 そこで、異なる計算ノードが解空間の重複する領域を探索してしまうことを避けるために、下記の(16)のような補正項を使うことができる。
Figure JPOXMLDOC01-appb-M000016
(15)および(16)において、m1は、それぞれの計算ノードの計算で使われている変数または値を示している。一方、m2は、それぞれの計算ノードからみた他の計算ノードが計算で使っている変数を示している。例えば、(16)のベクトルx(m1)は、自計算ノードで計算されている第1ベクトルである。一方、ベクトルx(m2)は、その他の計算ノードで計算された第1ベクトルである。すなわち、(16)の補正項を使う場合、探索済ベクトルとして、その他の計算ノードで計算された第1ベクトルが使われる。また、(16)のcおよびkに任意の正値を設定することができる。cとkの値は、異なっていてもよい。
 例えば、(16)の補正項を式(15)に加算すると、下記の式(17)の拡張ハミルトニアンが得られる。
Figure JPOXMLDOC01-appb-M000017
ベクトルx(m1)が解空間においてベクトルx(m2)と近接すると、(16)および(17)に示した各補正項において分母の値が小さくなる。したがって、(16)の値が大きくなり、それぞれの計算ノードでは、ベクトルx(m2)近傍の領域を避けるように第1ベクトルx(m1)の更新処理が実行されるようになる。
 式(17)の拡張ハミルトニアンを使った場合、下記の(18)に示した連立常微分方程式をそれぞれN個ある2つの変数x,y(i=1、2、・・・、N)について、数値的に解く処理を実行することができる。
Figure JPOXMLDOC01-appb-M000018
 下記の(19)は、(17)の補正項をxについて偏微分したものである。
Figure JPOXMLDOC01-appb-M000019
(16)の補正項の分母が二乗ノルムである場合、(19)の分母の計算では、平方根の計算が不要であるため、計算量を抑制することができる。(19)の補正項は、Nを第1ベクトルの要素数、Mを他の計算ノードによる探索済ベクトルの数とすると、N×Mの定数倍の計算量で計算することが可能である。
 シンプレクティック・オイラー法を使い、上述の(18)を離散的な漸化式に変換し、シミュレーテッド分岐アルゴリズムの計算を行うことができる。下記の(20)は、漸化式に変換後のシミュレーテッド分岐アルゴリズムの例を示している。
Figure JPOXMLDOC01-appb-M000020
(20)のアルゴリズムも、上述の(14)の問題項を含んでいる。後述するように、(20)とは異なる形式の問題項を使ってもよい。
 例えば、情報処理装置は、複数の処理回路を備えていてもよい。それぞれの処理回路は、更新した第1ベクトルを記憶部に保存するように構成されていてもよい。これにより、各処理回路は、他の処理回路が計算した探索済ベクトルを使って補正項を計算することができる。また、それぞれの処理回路は、更新した第1ベクトルを他の処理回路に転送し、探索済ベクトルに代わり他の処理回路より受信した第1ベクトルを使って補正項を計算するように構成されていてもよい。
 図8のフローチャートは、他の計算ノードで計算された第1ベクトルを使って効率的に求解を行う場合における処理の例を示している。以下では、図8を参照しながら処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得し、係数p(t)、a(t)および変数tを初期化する(ステップS131)。例えば、ステップS131でp、aおよびtの値を0にすることができる。ただし、p、aおよびtの初期値を限定するものではない。次に、計算サーバは、m1=1~Mについて第1変数x (m1)および第2変数y (m1)を初期化する(ステップS132)。ここで、第1変数x (m1)は、第1ベクトルの要素である。第2変数y (m1)は、第2ベクトルの要素である。例えば、擬似乱数によってx (m1)およびy (m1)を初期化してもよい。ただし、x (m1)およびy (m1)の初期化の方法を限定するものではない。そして、計算サーバは、カウンタ変数m1に1を代入する(ステップS133)。ここで、カウンタ変数m1は、計算ノードを指定する変数である。ステップS133の処理により、計算処理を行う計算ノード#1が特定される。なお、ステップS131~S133の処理は、管理サーバ1など計算サーバ以外のコンピュータによって実行されてもよい。
 次に、計算ノード#(m1)は、第1変数x (m1)に対応する第2変数y (m1)を重み付け加算することによって第1ベクトルを更新し、更新された第1ベクトルを他の計算ノードと共有された記憶領域に保存する(ステップS134)。例えば、ステップS134では、x (m1)にΔt×D×y (m1)を加算することができる。例えば、他の計算ノードが他のプロセッサまたは他のプロセッサ上のスレッドである場合、共有メモリ32またはストレージ34に更新された第1ベクトルを保存することができる。また、他の計算ノードが計算サーバである場合、共有された外部ストレージに第1ベクトルを保存してもよい。他の計算ノードは、共有された記憶領域に保存された第1ベクトルを探索済ベクトルとして利用することができる。なお、ステップS134では、他の計算ノードに更新された第1ベクトルを転送してもよい。
 次に、計算ノード#(m1)は、第2変数y (m1)を更新する(ステップS135~S137)。例えば、ステップS135では、y (m1)にΔt×[(p-D-K×x (m1)×x (m1))×x (m1)]を加算することができる。ステップS136では、さらにy (m1)に-Δt×c×h×a-Δt×c×ΣJij×x (m1)を加算することができる。ステップS136は、第2変数yへの問題項の加算処理に相当する。そして、ステップS137では、変数yに(19)の補正項を加算することができる。補正項は、例えば、第1ベクトルおよび共有された記憶領域に保存されている探索済ベクトルに基づいて計算される。そして、計算サーバは、カウンタ変数m1をインクリメントする(ステップS138)。
 次に、計算サーバは、カウンタ変数1がM以下であるか否かを判定する(ステップS139)。カウンタ変数m1がM以下である場合(ステップS139のYES)、ステップS134~ステップS138の処理を再び実行する。一方、カウンタ変数m1がMより大きい場合(ステップS139のNO)、計算サーバは、p、aおよびtの値を更新する(ステップS140)。例えば、pに一定の値(Δp)を加算し、aを更新後の係数pの正の平方根に設定し、tにΔtを加算することができる。ただし、後述するように、これはp、aおよびtの値の更新方法の一例にしかすぎない。そして、計算サーバは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS141)。例えば、変数tの値をTと比較することによってステップS141の判定を行うことができる。ただし、その他の方法で判定を行ってもよい。
 更新回数がしきい値未満である場合(ステップS141のYES)、計算サーバは、ステップS133の処理を実行し、指定された計算ノードがさらにステップS134以降の処理を実行する。更新回数がしきい値以上である場合(ステップS141のNO)、計算サーバまたは管理サーバ1は、第1変数xに基づいて解ベクトルの要素であるスピンsを求めることができる(図示せず)。例えば、第1ベクトルにおいて、正値である第1変数xを+1、負値である第1変数xを-1にそれぞれ変換し、解ベクトルを得ることができる。
 図8のフローチャートでは、計算ノード#1~計算ノード#Mがループによって逐次第1ベクトルおよび第2ベクトルの要素の更新処理を実行している。ただし、図8のフローチャートにおけるステップS133、S138およびS139の処理をスキップし、代わりに複数の計算ノードにステップS134~S137の処理を並列的に実行させてもよい。この場合、複数の計算ノードを管理する構成要素(例えば、管理サーバ1の制御部13またはいずれかの計算サーバ)がステップS140およびS141の処理を実行することができる。これにより、全般的な計算処理を高速化させることができる。
 ステップS134~S137の処理を並列的に実行する複数の計算ノードの数Mを限定するものではない。例えば、計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数(変数の数)Nに等しくてもよい。この場合、M個の計算ノードを使うことによってひとつの解ベクトルを得ることができる。
 また、計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数Nと異なる数であってもよい。例えば、計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数Nの正の整数倍であってもよい。この場合、複数の計算ノードを使うことによってM/N個の解ベクトルを得ることができる。そして、複数の計算ノードは、計算対象の解ベクトルごとにグループ分けされる。このように、それぞれ異なる解ベクトルの計算を行うようにグループ化されている計算ノードどうしで、探索済ベクトルを共有し、さらに効率的な計算処理を実現してもよい。すなわちベクトルx(m2)は、同じグループに属する計算ノードが計算した第1ベクトルであってもよい。また、ベクトルx(m2)は、異なるグループに属する計算ノードが計算した第1ベクトルであってもよい。なお、異なるグループに属する計算ノード間では、処理を同期させなくてもよい。
 なお、第1ベクトルおよび第2ベクトルがそれぞれ有するN個の要素の少なくとも一部が並列的に更新されるよう、ステップS134~S137の処理を並列的に実行してもよい。ここで、処理の並列化の実装および態様を限定するものではない。
 なお、計算ノードは、任意のタイミングで第1ベクトルおよび第2ベクトルに基づいてハミルトニアンの値を計算してもよい。ハミルトニアンは、(15)のハミルトニアンであってもよいし、(17)の補正項を含む拡張ハミルトニアンであってもよい。また、前者と後者の両方を計算してもよい。計算ノードは、第1ベクトル、第2ベクトルおよびハミルトニアンの値を記憶部に保存することができる。これらの処理は、ステップS141の判定が肯定的である場合、毎回実行されてもよい。また、ステップS141の判定が肯定的となったタイミングのうち、一部のタイミングで実行されてもよい。さらに、上述の処理は、その他のタイミングで実行されてもよい。ユーザは、利用可能な記憶領域および計算資源の量に応じて、ハミルトニアンの値を計算する頻度を決めることができる。ステップS141のタイミングにおいて、記憶部に保存された第1ベクトル、第2ベクトルおよびハミルトニアンの値の組合せの数がしきい値を超えているか否かに基づきループ処理を継続するか否かの判定を行ってもよい。こうして、ユーザは、記憶部に保存された複数の第1ベクトル(局所解)より、最適解に最も近い第1ベクトルを選択し、解ベクトルを計算することが可能となる。
[スナップショットの利用]
 以下では、第1ベクトルおよび第2ベクトルの異なるペアの計算を行っている計算ノードのグループを跨って探索済ベクトルの共有を行うときにも適用可能な処理のその他の例について説明する。計算ノードが計算処理の実行主体となりうる何らかの計算資源であればよい。このため、計算ノードの粒度およびハードウェア/ソフトウェアの区別を限定するものではない。
 図9および図10のフローチャートは、複数の計算ノードにおいて効率的にシミュレーテッド分岐アルゴリズムで求解を行う場合における処理の例を示している。以下では、図9および図10を参照しながら処理を説明する。
 はじめに、計算サーバは、管理サーバ1より問題に対応する行列Jijおよびベクトルhを取得し、各計算ノードにこれらのデータを転送する(ステップS150)。ステップS150では、管理サーバ1が直接各計算ノードに問題に対応する行列Jijおよびベクトルhを転送してもよい。次に、計算サーバは、カウンタ変数m1に1を代入する(ステップS151)。なお、ステップS151をスキップしてもよい。この場合、複数の計算ノードでm1=1~Mについて並列的に後述するステップS152~S160の処理を実行してもよい。
 ループ処理の有無に関わらず、変数m1は、情報処理システム内のそれぞれの計算ノードの番号を示すものとする。また、m2は、それぞれの計算ノードからみたその他の計算ノードの番号を示しているものとする。計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数Nに等しくてもよい。また、計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数Nと異なる数であってもよい。さらに、計算ノードの数Mは、第1ベクトルおよび第2ベクトルがそれぞれ有する要素数Nの正の整数倍であってもよい。
 そして、各計算ノードは、変数t(m1)および係数p(m1)、a(m1)を初期化する(ステップS152)。例えば、ステップS131でp(m1)、a(m1)およびt(m1)の値を0にすることができる。ただし、p(m1)、a(m1)およびt(m1)の初期値を限定するものではない。次に、各計算ノードは、第1変数x (m1)および第2変数y (m1)を初期化する(ステップS153)。ここで、第1変数x (m1)は、第1ベクトルの要素である。第2変数y (m1)は、第2ベクトルの要素である。ステップS153で計算サーバは、例えば、擬似乱数によってx (m1)およびy (m1)を初期化してもよい。ただし、x (m1)およびy (m1)の初期化の方法を限定するものではない。
 そして、各計算ノードは、第1変数x (m1)に対応する第2変数y (m1)を重み付け加算することによって第1ベクトルを更新する(ステップS154)。例えば、ステップS154では、x (m1)にΔt×D×y (m1)を加算することができる。次に、各計算ノードは、第2変数y (m1)を更新する(ステップS155~S157)。例えば、ステップS155では、y (m1)にΔt×[(p-D-K×x (m1)×x (m1))×x (m1)]を加算することができる。ステップS156では、さらにy (m1)に-Δt×c×h×a-Δt×c×ΣJij×x (m1)を加算することができる。ステップS156は、第2変数yへの問題項の加算処理に相当する。そして、ステップS157では、第2変数yに(19)の補正項を加算することができる。各計算ノードは、例えば、第1ベクトルおよび共有された記憶領域300に保存されている探索済ベクトルに基づいて補正項を計算する。ここで、探索済ベクトルは、異なる解ベクトルの計算を行っている計算ノードが保存したものであってもよい。また、探索済ベクトルは、同一の解ベクトルの計算を行っている計算ノードが保存したものであってもよい。
 次に、各計算ノードは、t(m1)、p(m1)およびa(m1)の値を更新する(ステップS158)。例えば、t(m1)にΔtを加算し、p(m1)に一定の値(Δp)を加算し、a(m1)を更新後の係数pの正の平方根に設定することができる。ただし、これはp(m1)、a(m1)およびt(m1)の値の更新方法の一例にしかすぎない。そして、各計算ノードは、記憶領域300に第1ベクトルのスナップショットを保存する(ステップS159)。ここで、スナップショットとは、ステップS159が実行されるタイミングにおける第1ベクトルの各要素x (m1)の値を含むデータのことをいうものとする。記憶領域300として、複数の計算ノードからアクセス可能な記憶領域を使うことができる。また、記憶領域300として、例えば、共有メモリ32、ストレージ34または外部ストレージ内の記憶領域を使うことができる。ただし、記憶領域300を提供するメモリまたはストレージの種類を限定するものではない。記憶領域300は、複数の種類のメモリまたはストレージの組合せであってもよい。なお、ステップS159で第1ベクトルと同じイタレーションで更新された第2ベクトルを記憶領域300に保存してもよい。
 次に、各計算ノードは、第1ベクトルおよび第2ベクトルの更新回数がしきい値未満であるか否かを判定する(ステップS160)。例えば、変数t(m1)の値をTと比較することによってステップS160の判定を行うことができる。ただし、その他の方法で判定を行ってもよい。
 更新回数がしきい値未満である場合(ステップS160のYES)、計算ノードは、ステップS154以降の処理を実行する。更新回数がしきい値以上である場合(ステップS160のNO)、計算サーバは、カウンタ変数m1をインクリメントする(ステップS161)。なお、ステップS161をスキップしてもよい。そして、計算サーバまたは管理サーバ1は、記憶領域300に保存された少なくともいずれかの探索済ベクトルをハミルトニアンの値に基づき選択し、解ベクトルを計算することができる(ステップS162)。ハミルトニアンは、(15)のハミルトニアンであってもよいし、(17)の補正項を含む目的関数であってもよい。また、前者と後者の両方を計算してもよい。なお、ハミルトニアンの値は、ステップS162とは異なるタイミングに計算されてもよい。その場合、計算ノードは、ハミルトニアンの値を第1ベクトルおよび第2ベクトルとともに記憶領域300に保存することができる。
 なお、ステップS159において、必ず毎回変数のスナップショットを記憶領域300に保存しなくてもよい。例えば、ステップS154~S159のループ処理の一部の回において、変数のスナップショットを記憶領域300に保存してもよい。これにより、記憶領域の消費を抑制することができる。
 いずれかの計算ノードで障害が発生し、計算処理が異常停止した場合、記憶領域300に保存された第1ベクトルおよび第2ベクトルのスナップショットを使ってデータを復旧し、計算処理を再開することが可能である。記憶領域300に第1ベクトルおよび第2ベクトルのデータを保存することは、情報処理システムの耐障害性および可用性の向上に寄与する。
 情報処理システムに複数の計算ノードが任意のタイミングで第1ベクトルの要素(および第2ベクトルの要素)を保存可能な記憶領域300を用意することにより、各計算ノードは、タイミングを問わずステップS157において(19)の補正項の計算および当該補正項の変数yへの加算を行うことができる。(19)の補正項の計算では、ループ処理の異なるイタレーションに計算された第1ベクトルが混在していてもよい。このため、ある計算ノードが第1ベクトルを更新中である場合、他の計算ノードは、更新前の第1ベクトルを使って補正項の計算を行うことができる。これにより、複数の計算ノード間で処理の同期処理の頻度を減らしつつ、効率的に比較的短時間で組合せ最適化問題の求解を行うことが可能となる。
 図11は、複数の計算ノードを含む情報処理システムの例を概念的に示している。図11には、計算ノード#1、計算ノード#2および計算ノード#3が示されている。計算ノード#1と計算ノード#2との間で互いに探索済の第1ベクトルに関する情報が交換されている。同様に、計算ノード#2と計算ノード#3との間においても互いに探索済の第1ベクトルに関する情報が交換されている。なお、図示されていないものの、計算ノード#1と計算ノード#3との間においても互いに探索済の第1ベクトルに関する情報を交換してもよい。計算ノード#1と計算ノード#3との間のデータ転送は、直接行われてもよいし、計算ノード#2を介して間接的に行われてもよい。これにより、複数の計算ノードにおいて重複した解空間における探索を行うことを避けることができる。
 図11には、3つの計算ノードが示されている。ただし、情報処理装置または情報処理システムが備える計算ノードの数は、これとは異なっていてもよい。また、計算ノード間の接続トポロジおよび計算ノード間でデータ転送が行われる経路を限定するものではない。例えば、計算ノードがプロセッサである場合、プロセッサ間通信または共有メモリ32を介してデータ転送を行ってもよい。また、計算ノードが計算サーバである場合、スイッチ5を含む計算サーバ間のインターコネクトを介してデータ転送を行ってもよい。なお、図11の各計算ノードは、並行して図9および図10のフローチャートで説明した記憶領域300への第1ベクトルのスナップショットの保存処理を実行してもよい。
 図12~図14は、各計算ノードにおける拡張ハミルトニアンの値の変化の例を概念的に示している。図12には、計算ノード#1が計算した第1ベクトルx(m1)と、計算ノード#2が計算した第1ベクトルx(m2)と、拡張ハミルトニアンH´の値とが示されている。
 例えば、計算ノード#1が計算ノード#2より第1ベクトルx(m2)のデータを取得したとする。この場合、計算ノード#1は、取得した第1ベクトルx(m2)を使って(19)の補正項を計算し、第1ベクトルおよび第2ベクトルを更新することができる。その結果、図13に示したように、計算ノード#1において計算ノード#2の第1ベクトルx(m2)近傍において拡張ハミルトニアンの値が大きくなる。これにより、計算ノード#1において更新される第1ベクトルx(m1)が解空間において計算ノード#2の第1ベクトルx(m2)より離れた領域に向かう確率が高まる。
 また、計算ノード#2が計算ノード#1より第1ベクトルx(m1)のデータを取得したとする。この場合、計算ノード#2は、取得した第1ベクトルx(m1)を使って(19)の補正項を計算し、第1ベクトルおよび第2ベクトルを更新することができる。その結果、図14に示したように、計算ノード#2において計算ノード#1の第1ベクトルx(m1)近傍において拡張ハミルトニアンの値が大きくなる。これにより、計算ノード#2において更新される第1ベクトルx(m2)が解空間において計算ノード#1の第1ベクトルx(m1)より離れた領域に向かう確率が高まる。
 上述のように各計算ノードにおける第1ベクトルの更新状況に応じて拡張ハミルトニアンの値を調整することにより、複数の計算ノードで解空間の重複した領域の探索を避けることができる。このため、効率的に組合せ最適化問題の解を探索することが可能となる。
 図15のヒストグラムは、複数の計算方法において、最適解を得られるまでに必要な計算回数を示している。図15では、48ノード96エッジのハミルトン閉路問題を解いた場合におけるデータが使われている。図15の縦軸は、最適解が得られた頻度を示している。一方、図15の横軸は、試行回数を示している。図15において、“DEFAULT”は、式(3)のハミルトニアンを使って図6のフローチャートの処理を実行した場合における結果に相当する。また、“ADAPTIVE”は、式(10)の拡張ハミルトニアンを使って図8のフローチャートの処理を実行した場合における結果に相当する。さらに、“GROUP”は、式(10)の拡張ハミルトニアンを使って図9および図10のフローチャートの処理を実行した場合における結果に相当する。
 図15の縦軸には、異なる行列Jijおよびベクトルhの組合せを1000セット用意したときに、所定の計算回数内で最適解が得られた頻度が示されている。“DEFAULT”の場合、計算回数は、図6のフローチャートの処理の実行回数に相当する。一方、“ADAPTIVE”および“GROUP”の場合、計算回数は、式(10)における探索済ベクトルの数Mに相当する。図15の例では、横軸の左側における頻度が高いほど、少ない計算回数で最適解が得られているといえる。例えば、“DEFAULT”の場合、10回以下の計算回数で最適解が得られた頻度は、約260である。一方、“ADAPTIVE”の場合、10回以下の計算回数で最適解が得られた頻度は、約280である。さらに、“GROUP”の場合、10回以下の計算回数で最適解が得られた頻度は、約430である。したがって、“GROUP”の条件の場合には、他の場合と比べて少ない計算回数で最適解が得られる確率が高くなっている。
 本実施形態に係る情報処理装置および情報処理システムでは、探索済のベクトルに関するデータに基づき解空間の重複した領域を探索することを避けることができる。このため、解空間のより広い領域について、解の探索を行い、最適解またはそれに近い近似解が得られる確率を高めることが可能である。また、本実施形態に係る情報処理装置および情報処理システムでは、処理を並列化することが容易であり、それによって計算処理を一層効率的に実行することが可能である。これにより、ユーザに組合せ最適化問題の解を実用的な時間内で計算する情報処理装置または情報処理システムを提供することができる。
[多体相互作用の項を含む計算]
 シミュレーテッド分岐アルゴリズムを使うことにより、3次以上の目的関数を有する組合せ最適化問題を解くことも可能である。2値変数を変数とする3次以上の目的関数を最小化する変数の組合せを求める問題は、HOBO(Higher Order Binary Optimization)問題とよばれる。HOBO問題を扱う場合、高次へ拡張されたイジングモデルにおけるエネルギー式として、下記の式(21)を使うことができる。
Figure JPOXMLDOC01-appb-M000021
ここで、J(n)はn階テンソルであり、式(1)の局所磁場hと結合係数の行列Jを一般化させたものである。例えば、テンソルJ(1)は、局所磁場hのベクトルに相当する。n階テンソルJ(n)では、複数の添え字に同じ値があるとき、要素の値は0となる。式(21)では、3次の項までが示されているが、それより高次の項も式(21)と同様に定義することができる。式(21)は多体相互作用を含むイジングモデルのエネルギーに相当する。
 なお、QUBOと、HOBOはいずれも、制約なし多項式2値変数最適化(PUBO:Polynomial Unconstrained Binary Optimization)の1種であるといえる。すなわち、PUBOのうち、2次の目的関数を有する組合せ最適化問題は、QUBOである。また、PUBOのうち、3次以上の目的関数を有する組合せ最適化問題は、HOBOであるといえる。
 シミュレーテッド分岐アルゴリズムを使ってHOBO問題を解く場合、上述の式(3)のハミルトニアンHを下記の式(22)のハミルトニアンHに置き換えればよい。
Figure JPOXMLDOC01-appb-M000022
 また、式(22)より下記の式(23)に示した複数の第1変数を用いて問題項が導かれる。
Figure JPOXMLDOC01-appb-M000023
(23)の問題項zは、(22)の2番目の式を、いずれかの変数x(第1ベクトルの要素)について偏微分した形式をとっている。偏微分される変数xは、インデックスiによって異なる。ここで、変数xのインデックスiは、第1ベクトルの要素および第2ベクトルの要素を指定するインデックスに相当する。
 多体相互作用の項を含む計算を行う場合、上述の(20)の漸化式は、下記の(24)の漸化式に置き換わる。
Figure JPOXMLDOC01-appb-M000024
 (24)は、(20)の漸化式をさらに一般化したものに相当する。同様に、上述の(13)の漸化式においても、多体相互作用の項を使ってもよい。
 上述に示した問題項は、本実施形態による情報処理装置が使うことができる問題項の例にしかすぎない。したがって、計算で使われる問題項の形式は、これらとは異なるものであってもよい。
[アルゴリズムの変形例]
 ここでは、シミュレーテッド分岐アルゴリズムの変形例について説明する。例えば、誤差の軽減または計算時間の短縮を目的に、上述のシミュレーテッド分岐アルゴリズムに各種の変形を行ってもよい。
 例えば、計算の誤差を軽減するために、第1変数の更新時に追加の処理を実行してもよい。例えば、更新によって第1変数xの絶対値が1より大きくなったとき、第1変数xの値をsgn(x)に置き換える。すなわち、更新によってx>1となったとき、変数xの値は1に設定される。また、更新によってx<-1となったとき、変数xの値は-1に設定される。これにより、変数xを使ってスピンsをより高い精度で近似することが可能となる。このような処理を含めることにより、アルゴリズムは、x=±1の位置に壁があるN粒子の物理モデルと等価になる。より一般的に述べると、演算回路は、値が第2値より小さい第1変数を第2値に設定し、値が第1値より大きい第1変数を第1値に設定するように構成されていてもよい。
 さらに、更新によってx>1となったとき、変数xに対応する変数yに係数rfを乗算してもよい。例えば、-1<r≦0の係数rfを使うと、上記の壁は、反射係数rfの壁となる。特に、rf=0の係数rfを使った場合、アルゴリズムは、x=±1の位置に完全非弾性衝突の起こる壁がある物理モデルと等価になる。より一般的に述べると、演算回路は、値が第1値より小さい第1変数に対応する第2変数、または、第2値より大きい第1変数に対応する第2変数を、もとの第2変数に、第2係数を乗じた値に更新するように構成されていてもよい。例えば、演算回路は、値が-1より小さい第1変数に対応する第2変数、または、値が1より大きい第1変数に対応する第2変数を、もとの第2変数に第2係数を乗じた値に更新するように構成されていてもよい。ここで、第2係数は上述の係数rfに相当する。
 なお、演算回路は、更新によってx>1となったとき、変数xに対応する変数yの値を擬似乱数に設定してもよい。例えば、[-0.1,0.1]の範囲の乱数を使うことができる。すなわち、演算回路は、値が第2値より小さい第1変数に対応する第2変数の値、または、値が第1値より大きい第1変数に対応する第2変数の値を、擬似乱数に設定するように構成されていてもよい。
 以上のようにして|x|>1となることを抑止するように更新処理を実行すれば、(13)、(20)および(24)の非線形項K×x を除去しても、xの値が発散することはなくなる。したがって、下記の(25)に示したアルゴリズムを使うことが可能となる。
Figure JPOXMLDOC01-appb-M000025
 (25)のアルゴリズムでは、問題項において、離散変数ではなく、連続変数xが使われている。このため、本来の組合せ最適化問題で使われている離散変数との誤差が生ずる可能性がある。この誤差を軽減するために、下記の(26)のように、問題項の計算において、連続変数xの代わりに、連続変数xを符号関数で変換した値sgn(x)を使うことができる。
Figure JPOXMLDOC01-appb-M000026
 (26)において、sgn(x)は、スピンsに相当する。
 (26)では、問題項の中の1階のテンソルを含む項の係数αを定数(例えば、α=1)にしてもよい。(26)のアルゴリズムでは、問題項で現れるスピンどうしの積が必ず-1または1のいずれかの値をとるため、高次の目的関数を有するHOMO問題を扱った場合、積演算による誤差の発生を防ぐことができる。上述の(26)のアルゴリズムのように、計算サーバが計算するデータは、さらに、変数s(i=1、2、・・・、N)を要素とするスピンのベクトル(s,s,・・・,s)を含んでいてもよい。第1ベクトルのそれぞれの要素を符号関数で変換することにより、スピンのベクトルを得ることができる。
[変数の更新処理の並列化の例]
 以下では、シミュレーテッド分岐アルゴリズムの計算時における変数の更新処理の並列化の例について説明する。
 はじめに、PCクラスタへシミュレーテッド分岐アルゴリズムを実装した例について説明する。PCクラスタとは、複数台のコンピュータを接続し、1台のコンピュータでは得られない計算性能を実現するシステムである。例えば、図1に示した情報処理システム100は、複数台の計算サーバおよびプロセッサを含んでおり、PCクラスタとして利用することが可能である。例えば、PCクラスタにおいては、MPI(Message Passing Interface)を使うことにより、情報処理システム100のような複数の計算サーバにメモリが分散して配置されている構成でも並列的な計算を実行することが可能である。例えば、MPIを使って管理サーバ1の制御プログラム14E、各計算サーバの計算プログラム34Bおよび制御プログラム34Cを実装することができる。
 PCクラスタで利用するプロセッサ数がQである場合、それぞれのプロセッサに、第1ベクトル(x,x,・・・,x)に含まれる変数xのうち、L個の変数の計算を行わせることができる。同様に、それぞれのプロセッサに、第2ベクトル(y,y,・・・,y)に含まれる変数yのうち、L個の変数の計算を行わせることができる。すなわち、プロセッサ#j(j=1,2,・・・,Q)は、変数{x|m=(j-1)L+1,(j-1)L+2,・・・,jL}および{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}の計算を行う。また、プロセッサ#jによる{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}の計算に必要な下記の(27)に示されたテンソルJ(n)は、プロセッサ#jがアクセス可能な記憶領域(例えば、レジスタ、キャッシュ、メモリなど)に保存されるものとする。
Figure JPOXMLDOC01-appb-M000027
 ここでは、それぞれのプロセッサが第1ベクトルおよび第2ベクトルの一定数の変数を計算する場合を説明した。ただし、プロセッサによって、計算対象とする第1ベクトルおよび第2ベクトルの要素(変数)の数が異なっていてもよい。例えば、計算サーバに実装されるプロセッサによって性能差がある場合、プロセッサの性能に応じて計算対象とする変数の数を決めることができる。
 変数yの値を更新するためには、第1ベクトル(x,x,・・・,x)のすべての成分の値が必要となる。2値変数への変換は、例えば、符号関数sgn()を使うことによって行うことができる。そこで、Allgather関数を使い、第1ベクトル(x,x,・・・,x)のすべての成分の値をQ個のプロセッサに共有させることができる。第1ベクトル(x,x,・・・,x)については、プロセッサ間での値の共有が必要であるものの、第2ベクトル(y,y,・・・,y)およびテンソルJ(n)については、プロセッサ間での値の共有を行うことは必須ではない。プロセッサ間でのデータの共有は、例えば、プロセッサ間通信を使ったり、共有メモリにデータを保存したりすることによって実現することができる。
 プロセッサ#jは、問題項{z|m=(j-1)L+1,(j-1)L+2,・・・,jL}の値を計算する。そして、プロセッサ#jは、計算した問題項{{z|m=(j-1)L+1,(j-1)L+2,・・・,jL}の値に基づき、変数{y|m=(j-1)L+1,(j-1)L+2,・・・,jL}を更新する。
 上述の各式に示したように、問題項のベクトル(z,z,・・・,z)の計算では、テンソルJ(n)と、ベクトル(x,x,・・・,x)との積の計算を含む、積和演算が必要である。積和演算は、上述のアルゴリズムにおいて最も計算量の大きい処理であり、計算速度の向上においてボトルネックとなりうる。そこで、PCクラスタの実装では、積和演算を、Q=N/L個のプロセッサに分散して並列的に実行し、計算時間の短縮をはかることができる。
 図16は、マルチプロセッサ構成の例を概略的に示している。図16の複数の計算ノードは、例えば、情報処理システム100の複数の計算サーバに相当する。また、図16の高速リンクは、例えば、情報処理システム100のケーブル4a~4cおよびスイッチ5によって形成された計算サーバ間のインターコネクトに相当する。図16の共有メモリは、例えば、共有メモリ32に相当する。図16のプロセッサは、例えば、各計算サーバのプロセッサ33A~33Dに相当している。なお、図16には複数の計算ノードが示されているが、単一計算ノードの構成を用いることを妨げるものではない。
 図16には、各構成要素に配置されるデータおよび構成要素間で転送されるデータが示されている。各プロセッサでは、変数x、yの値が計算される。また、プロセッサと共有メモリ間では、変数xが転送される。各計算ノードの共有メモリには、例えば、第1ベクトル(x,x,・・・,x)、第2ベクトル(y,y,・・・,y)のL個の変数、およびテンソルJ(n)の一部が保存される。そして、計算ノード間を接続する高速リンクでは、例えば、第1ベクトル(x,x,・・・,x)が転送される。Allgather関数を使う場合、各プロセッサで変数yを更新するために、第1ベクトル(x,x,・・・,x)の全要素が必要となる。
 なお、図16に示したデータの配置および転送は一例にしかすぎない。PCクラスタにおけるデータの配置方法、転送方法および並列化の実現方法については、特に問わない。
 また、GPU(Graphics Processing Unit)を使ってシミュレーテッド分岐アルゴリズムの計算を行ってもよい。
 図17は、GPUを使った構成の例を概略的に示している。図17には、互いに高速リンクで接続された複数のGPUが示されている。それぞれのGPUには、共有メモリにアクセス可能な複数のコアが搭載されている。また、図17の構成例では、複数のGPUが高速リンクを介して接続されており、GPUクラスタを形成している。例えば、GPUが図1のそれぞれの計算サーバに搭載されている場合、高速リンクは、ケーブル4a~4cおよびスイッチ5によって形成された計算サーバ間のインターコネクトに相当する。なお、図17の構成例では、複数のGPUが使われているが、ひとつのGPUを使った場合にも、並列的な計算を実行することが可能である。すなわち、図17のそれぞれのGPUは、図16のそれぞれの計算ノードに相当する計算を実行できる。すなわち、情報処理装置(計算サーバ)のプロセッサ(処理回路)は、Graphics Processing Unit(GPU)のコアであってもよい。
 GPUにおいて、変数xおよびy、ならびにテンソルJ(n)はデバイス変数として定義される。GPUは、変数yの更新に必要なテンソルJ(n)と第1ベクトル(x,x,・・・,x)の積を、行列ベクトル積関数によって並列的に計算することができる。なお、行列とベクトルの積演算を繰り返し実行することにより、テンソルとベクトルの積を求めることができる。また、第1ベクトル(x,x,・・・,x)の計算と、第2ベクトル(y,y,・・・,y)のうち、積和演算以外の部分については、それぞれのスレッドにi番目の要素(x,y)の更新処理を実行させ、処理の並列化を実現することができる。
[組合せ最適化問題を解くための全体的な処理]
 以下では、シミュレーテッド分岐アルゴリズムを用いて組合せ最適化問題を解くために実行される全体的な処理を説明する。
 図18のフローチャートは、組合せ最適化問題を解くために実行される全体的な処理の例を示している。以下では、図18を参照しながら、処理を説明する。
 はじめに、組合せ最適化問題を定式化する(ステップS201)。そして、定式化された組合せ最適化問題をイジング問題(イジングモデルの形式)に変換する(ステップS202)。次に、イジングマシン(情報処理装置)によってイジング問題の解を計算する(ステップS203)。そして、計算された解を検証する(ステップS204)。例えば、ステップS204では、制約条件が満たされているか否かの確認が行われる。また、ステップS204で目的関数の値を参照し、得られた解が最適解またはそれに近い近似解であるか否かの確認を行ってもよい。
 そして、ステップS204における検証結果または計算回数の少なくともいずれかに応じて再計算をするか否かを判定する(ステップS205)。再計算をすると判定された場合(ステップS205のYES)、ステップS203およびS204の処理が再び実行される。一方、再計算をしないと判定された場合(ステップS205のNO)、解の選択を行う(ステップS206)。例えば、ステップS206では、制約条件の充足または目的関数の値の少なくともいずれかに基づき選択を行うことができる。なお、複数の解が計算されていない場合には、ステップS206の処理をスキップしてもよい。最後に、選択した解を組合せ最適化問題の解に変換し、組合せ最適化問題の解を出力する(ステップS207)。
 上述で説明した情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラムを使うことにより、組合せ最適化問題の解を実用的な時間内で計算することが可能となる。これにより、組合せ最適化問題の求解がより容易となり、社会のイノベーションおよび科学技術の進歩を促進することが可能となる。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組合せてもよい。
1 管理サーバ
2 ネットワーク
3a、3b、3c 計算サーバ
4a、4b、4c ケーブル
5 スイッチ
6 クライアント端末
10 プロセッサ
11 管理部
12 変換部
13 制御部
14 記憶部
14A 問題データ
14B 計算データ
14C 管理プログラム
14D 変換プログラム
14E、34C 制御プログラム
15、31 通信回路
16 入力回路
17 出力回路
18 操作装置
19 表示装置
20 バス
32 共有メモリ
33A、33B、33C、33D プロセッサ
34 ストレージ
34A 計算データ
34B 計算プログラム
35 ホストバスアダプタ

Claims (17)

  1.  第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新するように構成された情報処理装置であって、
     記憶部と、
     前記第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新し、
     更新された前記第1ベクトルを探索済ベクトルとして前記記憶部に保存し、
     前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算し、前記記憶部より前記探索済ベクトルを読み出し、更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算し、前記補正項を前記第2変数に加算することによって前記第2ベクトルを更新するように構成された処理回路とを備える、
     情報処理装置。
  2.  前記処理回路は、複数の前記探索済ベクトルのそれぞれを用いて前記距離の前記逆数を計算し、複数の前記逆数を加算することによって前記補正項を計算するように構成されている、
     請求項1に記載の情報処理装置。
  3.  複数の前記処理回路を備え、
     それぞれの前記処理回路は、他の前記処理回路が前記記憶部に保存した前記探索済ベクトルを読み出すように構成されている、
     請求項1または2に記載の情報処理装置。
  4.  複数の前記処理回路は、それぞれが前記第1ベクトルおよび前記第2ベクトルの異なるペアの更新処理を実行する、複数のグループに分けられている、
     請求項3に記載の情報処理装置。
  5.  複数の前記処理回路を備え、
     それぞれの前記処理回路は、更新した前記第1ベクトルを他の前記処理回路に転送し、前記探索済ベクトルに代わり他の前記処理回路より受信した前記第1ベクトルを使って前記補正項を計算するように構成されている、
     請求項1または2に記載の情報処理装置。
  6.  前記処理回路は、更新された前記第2ベクトルを第3ベクトルとして前記記憶部に保存するように構成されている、
     請求項1ないし5のいずれか一項に記載の情報処理装置。
  7.  前記処理回路は、前記記憶部より前記探索済ベクトルと同一のイタレーションに更新された前記第3ベクトルを読み出し、前記探索済ベクトルおよび前記第3ベクトルに基づいて目的関数の値を計算するように構成されている、
     請求項6に記載の情報処理装置。
  8.  前記処理回路は、前記目的関数の値に基づいて前記第1ベクトルおよび前記第2ベクトルの更新を停止するか否かを判定するように構成されている、
     請求項7に記載の情報処理装置。
  9.  前記処理回路は、前記目的関数の値に基づき前記記憶部に保存された複数の前記探索済ベクトルよりいずれかの前記探索済ベクトルを選択し、選択した前記探索済ベクトルの正値である前記第1変数を第1値に変換し、負値である前記第1変数を前記第1値より小さい第2値に変換することによって解ベクトルを計算するように構成されている、
     請求項8に記載の情報処理装置。
  10.  前記処理回路が計算する前記問題項は、イジングモデルに基づいている、
     請求項1ないし9のいずれか一項に記載の情報処理装置。
  11.  前記処理回路が計算する前記問題項は、多体相互作用を含んでいる、
     請求項10に記載の情報処理装置。
  12.  第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新するように構成された情報処理システムであって、
     記憶装置と、複数の情報処理装置とを備え、
     それぞれの前記情報処理装置は、第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新し、
     更新された前記第1ベクトルを探索済ベクトルとして前記記憶装置に保存し、
     前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算し、複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算し、前記記憶装置より前記探索済ベクトルを読み出し、更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算し、前記補正項を前記第2変数に加算することによって前記第2ベクトルを更新するように構成されている、
     情報処理システム。
  13.  前記複数の情報処理装置は、それぞれが前記第1ベクトルおよび前記第2ベクトルの異なるペアの更新処理を実行する、複数のグループに分けられている、
     請求項12に記載の情報処理システム。
  14.  記憶部と、複数の処理回路とを使って第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する情報処理方法であって、
     前記複数の処理回路が第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新するステップと、
     前記複数の処理回路が更新された前記第1ベクトルを探索済ベクトルとして前記記憶部に保存するステップと、
     前記複数の処理回路が前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算するステップと、
     前記複数の処理回路が複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算するステップと、
     前記複数の処理回路が前記記憶部より前記探索済ベクトルを読み出すステップと、
     前記複数の処理回路が更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、
     前記複数の処理回路が前記補正項を前記第2変数に加算するステップとを含む、
     情報処理方法。
  15.  記憶装置と、複数の情報処理装置とを使って第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新する情報処理方法であって、
     前記複数の情報処理装置が第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新するステップと、
     前記複数の情報処理装置が更新された前記第1ベクトルを探索済ベクトルとして前記記憶装置に保存するステップと、
     前記複数の情報処理装置が前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算するステップと、
     前記複数の情報処理装置が複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算するステップと、
     前記複数の情報処理装置が前記記憶装置より前記探索済ベクトルを読み出すステップと、
     前記複数の情報処理装置が更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、
     前記複数の情報処理装置が前記補正項を前記第2変数に加算するステップとを含む、
     情報処理方法。
  16.  第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新するプログラムであって、
     第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新するステップと、
     更新された前記第1ベクトルを探索済ベクトルとして記憶部に保存するステップと、
     前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算するステップと、
     複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算するステップと、
     前記記憶部より前記探索済ベクトルを読み出すステップと、
     更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、
     前記補正項を前記第2変数に加算するステップとをコンピュータに実行させるプログラムを格納している、
     非一時的なコンピュータ可読な記憶媒体。
  17.  第1変数を要素とする第1ベクトルおよび前記第1変数に対応する第2変数を要素とする第2ベクトルを繰り返し更新するプログラムであって、
     第1変数に対応する前記第2変数を重み付け加算することによって前記第1ベクトルを更新するステップと、
     更新された前記第1ベクトルを探索済ベクトルとして記憶部に保存するステップと、
     前記第1変数を更新回数に応じて単調増加または単調減少する第1係数で重み付けし対応する前記第2変数に加算するステップと、
     複数の前記第1変数を用いて問題項を計算し、前記問題項を前記第2変数に加算するステップと、
     前記記憶部より前記探索済ベクトルを読み出すステップと、
     更新対象の前記第1ベクトルと前記探索済ベクトルとの間の距離の逆数を含む補正項を計算するステップと、
     前記補正項を前記第2変数に加算するステップとをコンピュータに実行させる、
     プログラム。
PCT/JP2020/014164 2019-03-28 2020-03-27 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム WO2020196866A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080025393.5A CN113646782A (zh) 2019-03-28 2020-03-27 信息处理设备、信息处理系统、信息处理方法、存储介质及程序
CA3135137A CA3135137C (en) 2019-03-28 2020-03-27 Information processing device, information processing system, information processing method, storage medium and program
JP2021509661A JP7502269B2 (ja) 2019-03-28 2020-03-27 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
US17/487,144 US20220012307A1 (en) 2019-03-28 2021-09-28 Information processing device, information processing system, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-064588 2019-03-28
JP2019064588 2019-03-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/487,144 Continuation US20220012307A1 (en) 2019-03-28 2021-09-28 Information processing device, information processing system, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2020196866A1 true WO2020196866A1 (ja) 2020-10-01

Family

ID=72608458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014164 WO2020196866A1 (ja) 2019-03-28 2020-03-27 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム

Country Status (5)

Country Link
US (1) US20220012307A1 (ja)
JP (1) JP7502269B2 (ja)
CN (1) CN113646782A (ja)
CA (1) CA3135137C (ja)
WO (1) WO2020196866A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000462A (ja) * 2021-06-18 2023-01-04 富士通株式会社 データ処理装置、プログラム及びデータ処理方法
JP2023024085A (ja) * 2021-08-06 2023-02-16 富士通株式会社 プログラム、データ処理方法及びデータ処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350673A (ja) * 2005-06-15 2006-12-28 Fuji Electric Systems Co Ltd 最適化計算システム
WO2016194051A1 (ja) * 2015-05-29 2016-12-08 株式会社日立製作所 確率的システムの注目指標の統計量を最小化するパラメータセットを探索するシステム
JP2017219979A (ja) * 2016-06-06 2017-12-14 日本電信電話株式会社 最適化問題解決装置、方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350673A (ja) * 2005-06-15 2006-12-28 Fuji Electric Systems Co Ltd 最適化計算システム
WO2016194051A1 (ja) * 2015-05-29 2016-12-08 株式会社日立製作所 確率的システムの注目指標の統計量を最小化するパラメータセットを探索するシステム
JP2017219979A (ja) * 2016-06-06 2017-12-14 日本電信電話株式会社 最適化問題解決装置、方法、及びプログラム

Also Published As

Publication number Publication date
CA3135137A1 (en) 2020-10-01
CN113646782A (zh) 2021-11-12
JPWO2020196866A1 (ja) 2020-10-01
JP7502269B2 (ja) 2024-06-18
CA3135137C (en) 2024-01-09
US20220012307A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11755941B2 (en) Geometry-based compression for quantum computing devices
WO2020196862A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
JP7421291B2 (ja) 情報処理装置、プログラム、情報処理方法、および電子回路
WO2020246073A1 (en) Information processing device, pubo solver, information processing method and non-transitory storage medium
US20220012307A1 (en) Information processing device, information processing system, information processing method, and storage medium
JP2022533809A (ja) 量子シミュレーションアルゴリズムに基づくデータサーチ方法、装置及び機器並びにコンピュータプログラム
CN114037082A (zh) 量子计算任务处理方法、系统及计算机设备
WO2020196883A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
US11966450B2 (en) Calculation device, calculation method, and computer program product
WO2020196872A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
WO2020196915A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体およびプログラム
JP7472062B2 (ja) 計算装置、計算方法およびプログラム
WO2022249785A1 (ja) 求解装置、求解方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20777361

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021509661

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3135137

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20777361

Country of ref document: EP

Kind code of ref document: A1