WO2024106125A1 - 演算装置、計画立案支援方法及びプログラム - Google Patents

演算装置、計画立案支援方法及びプログラム Download PDF

Info

Publication number
WO2024106125A1
WO2024106125A1 PCT/JP2023/037830 JP2023037830W WO2024106125A1 WO 2024106125 A1 WO2024106125 A1 WO 2024106125A1 JP 2023037830 W JP2023037830 W JP 2023037830W WO 2024106125 A1 WO2024106125 A1 WO 2024106125A1
Authority
WO
WIPO (PCT)
Prior art keywords
scenario
plan
evaluation
proposals
evaluator
Prior art date
Application number
PCT/JP2023/037830
Other languages
English (en)
French (fr)
Inventor
一成 末光
エリス,ロバート
やえみ 寺本
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2024106125A1 publication Critical patent/WO2024106125A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling

Definitions

  • This disclosure relates to a computing device, a planning support method, and a program.
  • Patent Document 1 discloses a technology that performs optimization calculations to select optimal fluctuation patterns for multiple types of single-risk scenarios that correspond to multiple types of uncertainties, selects sub-scenario sets from all the single-risk scenarios based on the optimization results, and performs overall optimization using the sub-scenario sets.
  • the objective of this disclosure is to provide a computing device, a planning support method, and a program that can shorten the time it takes to create an operational plan that takes uncertainty into account.
  • FIG. 1 is a diagram for explaining a case to which the present disclosure can be applied.
  • FIG. 2 is a configuration diagram showing the configuration of a calculation device according to the first embodiment.
  • FIG. 13 is a diagram illustrating an example of risk distribution.
  • FIG. 2 illustrates an example of a plan domain.
  • FIG. 11 is a diagram showing an example of scenario generation conditions.
  • FIG. 11 is a diagram showing an example of KPI designation information.
  • FIG. 13 is a diagram illustrating an example of learning data.
  • FIG. 13 is a diagram illustrating an example of approximation evaluator information.
  • 4 is a flowchart for explaining an overall process in the first embodiment.
  • 11 is a flowchart illustrating an example of an approximation evaluator generation process.
  • FIG. 1 is a diagram for explaining a case to which the present disclosure can be applied.
  • FIG. 2 is a configuration diagram showing the configuration of a calculation device according to the first embodiment.
  • FIG. 13 is a diagram
  • FIG. 11 is a diagram showing an example of a scenario generation result.
  • FIG. 11 is a diagram illustrating an example of a scenario aggregation result.
  • FIG. 13 is a diagram showing an example of a scenario aggregation result display screen.
  • FIG. 13 is a diagram showing an example of a scenario distribution display screen.
  • FIG. 13 is a diagram showing an example of a scenario weight setting screen.
  • FIG. 11 is a configuration diagram showing the configuration of a calculation device according to a second embodiment. 13 is a diagram showing an example of user-specified scenario information.
  • FIG. 13 is a configuration diagram showing the configuration of a calculation device according to a third embodiment.
  • FIG. 1 is a diagram for explaining applications that are examples (subjects of planning) to which the computing device according to each embodiment of the present disclosure can be applied.
  • FIG. 1 shows plan contents, which are the contents of the operational plan to be planned, uncertainties to be considered when planning, and risk scenarios corresponding to the uncertainties.
  • the application of record 100 in Figure 1 is "inventory management in the supply chain.”
  • an inventory allocation plan is created, which is a plan of inventory levels by product and time period at each warehouse in the supply chain, so as to meet customer or store demand with as little operational cost (inventory value) as possible.
  • the demand amount requested from the warehouse by the customer or store is uncertain because it has not been uniquely determined at the time the inventory allocation plan is created.
  • the pattern of demand that may occur becomes the risk scenario.
  • the application of record 101 in Figure 1 is "power transmission and distribution network control.”
  • a power transmission and distribution network operation plan is drawn up for the amount of power generated and transmitted for each period and for each facility so that the power generation capacity of each power plant, such as a thermal power plant, nuclear power plant, wind power plant, and solar power plant, is balanced against the power demand in each period and in each region.
  • uncertainties include changes in the amount of power generated due to weather or wind speed, and changes in the amount of power that can be transmitted due to equipment failure caused by natural disasters or aging deterioration.
  • the operating status of each facility and the equipment in each period that changes due to uncertainties become risk patterns.
  • the application for record 102 in Figure 1 is "production management.”
  • production management a plan is made to indicate how many of each product should be produced on which equipment in each period in relation to the target production volume.
  • the amount of defective products contained in the produced products in other words the yield rate, is an uncertainty.
  • the number of defective products is the risk scenario.
  • FIG. 1 is merely an example, and the computing device according to the present disclosure can be applied to other applications.
  • FIG. 1 an embodiment of the present disclosure will be explained using the example of "inventory management in a supply chain" shown in record 100 in FIG. 1.
  • FIG. 2 is a configuration diagram showing the configuration of the arithmetic device in this embodiment.
  • the arithmetic device 1 shown in FIG. 2 comprises a CPU (Central Processing Unit) 11, which is a central processing unit, a ROM (Read Only Memory) 12, which is a read-only storage device, a storage unit 13, which is a non-volatile storage device, and a memory 14, which is a storage device capable of high-speed reading and writing.
  • the CPU 11 performs the calculations described below by expanding a program (computer program) stored in the ROM 12 into the memory 14 and executing it.
  • the arithmetic device 1 may realize the functions described below using a field programmable gate array (FPGA), which is a rewritable logic circuit, or an application specific integrated circuit (ASIC).
  • FPGA field programmable gate array
  • ASIC application specific integrated circuit
  • the arithmetic device 1 may realize the functions described below using a combination of different configurations, for example, a combination of CPU 11, ROM 12, and memory unit 13 and an FPGA.
  • the memory unit 13 stores a risk distribution 21, a plan definition domain 22, a scenario generation condition 23, KPI (Key Performance Indicator) specification information 24, learning data 25, approximate evaluator information 26, and an approximate evaluator 27.
  • KPI Key Performance Indicator
  • the risk distribution 21 is uncertainty information that expresses the value of an uncertainty parameter, which is a parameter related to uncertainty, in terms of probability.
  • the plan proposal domain 22 is domain information that indicates the range of values of a deterministic parameter that has a deterministic value different from the uncertainty parameter.
  • the scenario generation condition 23 is a generation condition for generating a scenario (risk scenario) that indicates an example of the realization (possible value) of the uncertainty parameter.
  • the KPI specification information 24 is index specification information that specifies an evaluation KPI, which is an evaluation index for evaluating the operation plan proposal.
  • the learning data 25 is data for generating the approximation evaluator 27, which is an approximate evaluation model that approximately evaluates the operation plan proposal.
  • the approximation evaluator information 26 is information that specifies the approximation evaluator 27. Note that the approximation evaluator 27 is shown in FIG. 2 for convenience, but its main configuration is the approximation evaluator information 26.
  • the computing device 1 has, as its functional components, a rigorous evaluation unit 31, an approximate evaluator generation unit 32, a scenario proposal generation unit 33, a master plan proposal generation unit 34, an approximate evaluation unit 35, a scenario proposal aggregation unit 36, and a representative scenario selection unit 37.
  • these functional components are realized by, for example, the CPU 11 expanding a program stored in the ROM 12 into the memory 14 and executing it, and therefore, for the sake of convenience, they are shown inside the memory 14 in FIG. 2.
  • the rigorous evaluation unit 31 is a rigorous evaluator that generates learning data 25 for generating an approximate evaluator 27 by evaluating an operational plan proposal for learning based on the risk distribution 21 and the plan proposal domain 22.
  • the approximate evaluator generation unit 32 generates the approximate evaluator 27 using the learning data 25 generated by the rigorous evaluation unit 31.
  • the scenario proposal generation unit 33 generates a scenario proposal that shows an example of realization (possible values) of the uncertainty parameters based on the risk distribution 21 and the scenario generation conditions 23.
  • the baseline plan proposal generation unit 34 generates a baseline plan proposal that shows an example of realization of the deterministic parameters based on the plan proposal domain 22 and the scenario generation conditions 23.
  • the operational plan proposal is composed of a combination of a scenario proposal and a baseline plan proposal.
  • the approximate evaluation unit 35 approximately evaluates the proposed operational plan that combines the proposed scenarios and the proposed baseline plan.
  • the scenario proposal aggregation unit 36 aggregates the proposed scenarios into multiple scenario groups based on the approximate evaluation results that are the evaluation results of the approximate evaluation unit 35.
  • the representative scenario selection unit 37 selects one of the proposed scenarios included in each scenario group as a representative scenario that represents the proposed scenarios, based on the approximate evaluation results that are the evaluation results of the approximate evaluation unit 35.
  • the computing device 1 may be communicatively connected to a recording medium 2 that non-temporarily stores computer programs or data.
  • the recording medium 2 may store at least a portion of the computer programs and data stored in the storage unit 13 and memory 14.
  • FIG. 3 is a diagram showing an example of a risk distribution 21.
  • the risk distribution 21 shown in FIG. 3 includes fields 211 to 214.
  • Field 211 stores a risk element, which is an uncertainty parameter.
  • the risk element is, for example, a forecast of demand for each product in each period.
  • Fields 212 and 213 store an occurrence range, which is the range of values that the risk element can take. Specifically, field 212 stores a numerical lower limit, which is the lower limit of the occurrence range, and field 213 stores a numerical upper limit, which is the upper limit of the occurrence range.
  • Field 214 stores an occurrence probability, which is the probability that demand in the occurrence range will occur.
  • the risk distribution 21 shown in FIG. 3 is merely an example and may be described in other formats.
  • the risk distribution 21 may indicate, for each risk element, the type of probability distribution to which the value of that risk element follows, and a prescribed value that prescribes that probability distribution. For example, if the probability distribution of a risk element can be expressed as a normal distribution, the type of probability distribution is "normal distribution", and the prescribed values of the probability distribution are "average value” and "standard deviation". Note that the value of the risk distribution 21 may be set based on past statistical information, or may be set by the user of the computing device 1.
  • FIG. 4 is a diagram showing an example of the plan definition domain 22.
  • the plan definition domain 22 shown in FIG. 4 includes fields 221 to 223.
  • Field 221 stores a planning element, which is a deterministic parameter.
  • the planning element is, for example, a forecast of the inventory amount of each product in each warehouse for each period.
  • Fields 222 and 223 store the domain, which is the range of values that the planning element can take. Specifically, field 222 stores a numerical lower limit, which is the lower limit of the domain, and field 223 stores a numerical upper limit, which is the upper limit of the domain.
  • the domain may be set based on statistical information of past values, or may be set by the user.
  • FIG. 5 is a diagram showing an example of scenario generation conditions 23.
  • the scenario generation conditions 23 shown in FIG. 5 indicate the number of scenario proposals N, which is the number of scenario proposals for evaluation generated by the scenario proposal generation unit 33, the number of master plans M, which is the number of master plan proposals for evaluation generated by the master plan proposal generation unit 34, and the number of scenario aggregations K, which is the number of scenario groups generated by the scenario proposal aggregation unit 36, etc.
  • FIG. 6 is a diagram showing an example of the KPI designation information 24.
  • the KPI designation information 24 shown in FIG. 6 includes fields 241 and 242.
  • the field 241 stores the type of evaluation KPI.
  • cost, CO2 amount, and overtime hours are shown as the evaluation KPIs, but the evaluation KPIs are not limited to these examples.
  • the field 242 stores the evaluation weight, which is a weight value indicating the importance of the evaluation KPI. For example, when an evaluation weight twice as large as cost is set for the CO2 amount, in scenario generation, a one-unit change in the CO2 amount and a two-unit change in the cost are treated as equivalent, and a scenario can be generated that emphasizes the change in the CO2 amount.
  • FIG. 7 is a diagram showing an example of the learning data 25.
  • the learning data 25 may be stored with data in advance, or may be empty at the start of the approximate evaluator generation process that generates the approximate evaluator 27.
  • the learning data 25 also includes a plurality of sample data (hereinafter, may be simply referred to as samples) that are examples of realization of operational plans.
  • Each sample includes a plurality of data including input data input to the strict evaluation unit 31 and output data output from the strict evaluation unit 31.
  • the input data is a proposed operational plan for learning
  • the output data is an evaluation KPI that evaluates the proposed operational plan.
  • the training data includes fields 251 to 254.
  • Field 251 stores a sample ID, which is identification information for identifying a sample.
  • Field 252 stores a data attribute, which is an attribute of the data included in the sample. The data attribute indicates either "input", which is input data input to the strict evaluation unit 31, or "output", which is output data output from the strict evaluation unit 31.
  • Field 253 stores a data name, which is identification information for identifying data included in the sample.
  • Field 254 stores a data value, which is the value of the data included in the sample. Note that, for samples with the same sample ID, data with the data attribute "input" is input to the strict evaluation unit 31 at the same time.
  • FIG. 8 is a diagram showing an example of the approximation evaluator information 26.
  • the approximation evaluator information 26 shown in FIG. 8 includes fields 261 and 262.
  • Field 261 stores an internal parameter ID, which is identification information for identifying the internal parameters that make up the approximation evaluator information 26.
  • Field 262 stores the value of the internal parameter.
  • the approximation evaluator 27 is configured by combining approximation evaluator information 26 with information on the structure of the approximation evaluator 27 (not shown).
  • the approximation evaluator 27 is a neural network, and is configured by combining information on the structure of the neural network with approximation evaluator information 26 that indicates parameters used in the neural network as internal parameters.
  • the approximation evaluator 27 may also be a polynomial, and is configured by combining information on the structure of the polynomial (form of the mathematical expression) with approximation evaluator information 26 that indicates the coefficients of the polynomial as internal parameters.
  • FIG. 9 is a flowchart explaining the overall processing by the computing device 1.
  • step S41 of the overall processing the approximation evaluator generation unit 32 executes an approximation evaluator generation process (see FIG. 10) in which the strict evaluation unit 31 generates learning data 25 and uses the learning data to generate an approximation evaluator 27.
  • This approximation evaluator generation process may be executed in advance, for example, before the computing device 1 acquires the risk distribution 21.
  • the strict evaluation unit 31 performs a highly accurate evaluation of the proposed operation plan using a strict evaluation model, which has a high computational cost.
  • the strict evaluation unit 31 is, for example, a simulator.
  • the approximate evaluator 27 performs a simple evaluation of the proposed operation plan, which has a lower computational cost than the strict evaluation unit 31.
  • the computational cost indicates, for example, at least one of the amount of calculation, the calculation time, and the amount of computational resources required for the calculation.
  • the approximate evaluator 27 may be realized by a machine learning model such as a neural network that performs an approximation of the evaluation by a simulator, or may be a simulation model that is more abstract than the strict evaluation unit 31, or may be a simple mathematical formula.
  • the scenario proposal generation unit 33 generates multiple (here, N) scenario proposals based on the risk distribution 21 and the scenario generation conditions 23 (step S42). For example, the scenario proposal generation unit 33 generates N scenario proposals by randomly sampling the values of each risk element of the risk distribution 21 as scenario element values, which are the values of the scenario proposals, several times (N times) for the scenario proposals indicated by the scenario generation conditions 23.
  • the scenario proposals are, for example, demand scenarios in SCM, and the scenario element values are the demand quantity of a certain product at a certain time. Note that in order to accurately evaluate uncertainty, it is preferable to generate a relatively large number of scenario proposals.
  • the master plan generation unit 34 generates multiple (here, M) master plan proposals based on the master plan domain 22 and the scenario generation conditions 23.
  • the master plan generation unit 34 generates M master plan proposals by randomly sampling the values of the plan elements in the master plan domain 22 as master plan elements, which are the values of the master plan proposals, several times (M times) for the master plan indicated by the scenario generation conditions 23.
  • the master plan proposal is, for example, an inventory allocation plan, and the master plan element value is the number of products in stock at a certain warehouse at a certain time. Note that in order to accurately select high-risk scenarios, it is preferable to generate a relatively large number of master plan proposals.
  • step S44 the approximate evaluation unit 35 generates multiple operational plan proposals as input data by combining the N scenario proposals generated in step S42 and the M baseline plan proposals generated in step S43, and inputs the input data to the approximate evaluator 27 to obtain approximate evaluation results that approximately calculate the evaluation KPIs of the operational plan proposals (step S44).
  • the input data may be created, for example, by combining all the scenario proposals and all the baseline plan proposals to create M x N pieces of input data, or by creating input data by combining the number of scenario proposals and baseline plan proposals selected by the user.
  • the approximate evaluation unit 35 will perform calculations to calculate the evaluation KPIs 300 million times. In this case, if all the input data is evaluated using the strict evaluation unit 31, an enormous amount of calculation cost will be required. If there were no limit to the calculation cost, the strict evaluation unit 31 could be used, but since there is a limit to the calculation cost in reality, by using the approximate evaluator 27, which can perform evaluation at a very small calculation cost, it becomes possible to evaluate a large number of proposed operational plans at a realistic calculation cost.
  • step S45 the scenario proposal aggregation unit 36 aggregates the N scenario proposals into multiple (here, K) scenario groups based on the approximation evaluation results of the approximation evaluation unit 35 and the scenario generation conditions 23.
  • the number of scenario aggregations K which is the number of scenario groups, is sufficiently smaller than the number of scenario proposals N.
  • the approximate evaluation result for the h-th evaluation KPI obtained by inputting input data combining scenario proposal i and base plan proposal j into the approximate evaluator 27 is denoted as y_hij.
  • the evaluation weight of the h-th evaluation KPI is w_h, and H types of evaluation KPIs are defined.
  • the scenario proposal aggregation unit 36 can obtain the risk feature amounts V_1 to V_N of each of the scenario proposals 1 to N.
  • the risk feature amount represents the characteristics of uncertainty (risk), and scenario proposals with similar risk feature amounts indicate that "the risk trends for the base plan proposal are similar.”
  • the scenario proposal aggregation unit 36 executes an aggregation process to aggregate N scenario proposals into K scenario groups based on the risk feature values V_1 to V_N of each scenario proposal 1 to N and the scenario generation conditions 23.
  • the aggregation process can be realized using a clustering method such as the K-Means method, the principal component analysis method, or the t-SNE method.
  • the binary expression G_hi has a value of 1 for the Z-th value and 0 for the other values. For example, when the number of scenario groups is 4 and Z is 2, the binary expression G_hi is ⁇ 0, 1, 0, 0 ⁇ .
  • step S46 the representative scenario selection unit 37 selects, for each scenario group, one of the scenario proposals belonging to that scenario group as a representative scenario based on the approximation evaluation result of the approximation evaluation unit 35.
  • the representative scenario selection unit 37 selects K representative scenarios by selecting one representative scenario from each of the K scenario groups.
  • the representative scenario selection unit 37 selects a representative scenario for each scenario group based on the risk feature values of each scenario proposal belonging to that scenario group. Specifically, for each scenario group, the representative scenario selection unit 37 selects the scenario proposal with the largest scenario feature value from among the scenario proposals belonging to that scenario group as the representative scenario, as the scenario proposal with the highest risk within that scenario group. The scenario proposal with the highest risk is the scenario proposal with the highest impact on the proposed operational plan or the proposed baseline plan.
  • the representative scenario selection unit 37 may also calculate the distance between the scenario proposals belonging to each scenario group, and select the scenario proposal closest to a central point that is equidistant from all the scenario proposals as the representative scenario. The distance between the scenario proposals is, for example, cosine similarity or Euclidean distance.
  • step S47 the representative scenario selection unit 37 outputs output information including the selected K representative scenarios and ends the process.
  • the scenario proposal generation unit 33 may use any search algorithm to search for the value of the plan element that will give the best (i.e., highest) approximate evaluation result for each scenario proposal generated in step S42, and generate the search result as a baseline plan proposal.
  • the baseline plan proposal generated in this way will be the baseline plan proposal that has the least impact on each scenario proposal, and will be closer to the final operational plan, making it possible to improve the accuracy of risk assessment.
  • step S42 the scenario proposal generation unit 33 may use any search algorithm to search for the value of the risk element that will produce the worst (i.e., the lowest) approximate evaluation result for each master plan generated in step S43, and generate the search result as a scenario proposal.
  • the scenario proposal generated in this manner is the scenario proposal that will have the greatest impact on each master plan, making it possible to improve the accuracy of risk assessment.
  • the above process makes it possible to select a characteristic representative scenario from a large number of scenarios, so that by evaluating a group of representative scenarios, it is possible to create an operational plan that evaluates diverse and high-risk uncertainties without having to evaluate a huge number of proposed scenarios as in the past.
  • This makes it possible to shorten the time it takes to create an operational plan that takes uncertainty into account.
  • the K representative scenarios selected in this embodiment are carefully selected from the M proposed scenarios by excluding scenarios with similar tendencies from the perspective of their impact on the evaluation KPI, and selecting the most characteristic and mutually different scenarios. This makes it possible to shorten the time it takes to create an operational plan that takes uncertainty into account, while also improving the robustness of the generated operational plan against uncertainty.
  • FIG. 10 is a flowchart illustrating an example of the approximation evaluator generation process in step S41 of FIG. 9.
  • step S411 the approximation evaluator generation unit 32 generates proposed learning scenarios, which are multiple proposed learning scenarios for generating learning data.
  • the approximation evaluator generation unit 32 may generate the proposed learning scenarios by random sampling from the risk distribution 21, by random sampling from past risk distributions, or from past risk occurrence history.
  • step S412 the approximation evaluator generation unit 32 generates a learning baseline plan, which is a plurality of learning baseline plan proposals for generating learning data.
  • the approximation evaluator generation unit 32 may generate them by random sampling from the plan proposal domain 22, or may generate them from past operational plan proposals.
  • step S413 the approximate evaluator generation unit 32 inputs the learning operation plan proposal, which is a combination of the learning scenario proposal and the learning reference plan proposal, to the strict evaluation unit 31 for each learning operation plan proposal, and obtains the output from the strict evaluation unit 31 as an evaluation KPI for the learning operation plan proposal.
  • the strict evaluation unit 31 since the strict evaluation unit 31 is used, it is preferable that the learning scenario proposals and learning operation plan proposals are fewer than the evaluation scenario proposals and reference plan proposals evaluated by the approximate evaluator 27. For example, if three types of evaluation KPIs are defined, there are 1,000 learning scenario proposals, and there are 1,000 learning reference plan proposals, the strict evaluation unit 31 will perform the calculation to calculate the evaluation KPI 3 million times.
  • step S414 the approximation evaluator generation unit 32 generates, for each proposed learning operation plan, a set of sample data that includes the proposed learning operation plan and an evaluation KPI for the proposed learning operation plan, and adds this set of sample data to the learning data 25.
  • the number of pieces of learning data is 1 million.
  • step S415 the approximation evaluator generation unit 32 generates the approximation evaluator 27 based on the learning data 25 generated in step S414. Since the approximation evaluator 27 is generated in this manner, it is not necessary to prepare the approximation evaluator 27 in advance.
  • the approximation evaluator 27 corresponds to the function f in the following formula 1. y ⁇ f(x, s)... (Equation 1)
  • FIGS. 11 and 12 are diagrams showing an example of output information from the calculation device 1.
  • FIG. 11 is a diagram showing an example of a scenario generation result, which is output information.
  • the scenario generation result 50 shown in FIG. 11 includes fields 501 to 504.
  • Field 501 stores a scenario group ID for identifying a scenario group (scenario Gr.).
  • Field 502 stores a representative scenario ID, which is a scenario ID for identifying a representative scenario of the scenario group.
  • Field 503 stores a scenario element ID for identifying a scenario element included in the representative scenario.
  • Field 504 stores a scenario element value, which is the value of a scenario element.
  • FIG. 12 is a diagram showing an example of a scenario aggregation result, which is output information.
  • the scenario aggregation result 51 shown in FIG. 12 includes fields 511 to 516.
  • Field 511 stores a scenario group ID for identifying a scenario group.
  • Field 512 stores a scenario ID for identifying a scenario draft included in the scenario group.
  • Field 513 stores a baseline plan ID for identifying a baseline plan.
  • Field 514 stores an evaluation KPI ID for identifying an evaluation KPI.
  • Field 515 stores a risk feature amount for an operational plan draft that is a combination of the scenario draft of the scenario ID stored in field 512 and the baseline plan draft of the baseline plan ID stored in field 513.
  • Field 516 stores a strict evaluation result (strict evaluation value) for the operational plan draft, if one exists.
  • the strict evaluation result is the evaluation KPI calculated by the strict evaluation unit 31.
  • Figures 13 to 15 show examples of display screens based on output information.
  • FIG. 13 is a diagram showing an example of a scenario aggregation result display screen for displaying the processing results of the scenario proposal aggregation unit 36 and the representative scenario selection unit 37.
  • the scenario aggregation result display screen 60 shown in FIG. 13 shows, for each scenario group, the approximate evaluation result of the representative scenario, the distribution of the approximate evaluation results of the scenarios belonging to the scenario group, the strict evaluation result of the representative scenario, etc.
  • FIG. 14 is a diagram showing an example of a scenario distribution display screen for intuitively grasping the relationships between proposed scenarios.
  • the scenario distribution display screen 61 shown in FIG. 14 represents each proposed scenario by drawing it on a plane while maintaining the distance relationships between each proposed scenario.
  • proposed scenarios included in the same scenario group are shown with the same symbol (e.g., circle, square, triangle, etc.), and a representative scenario for each scenario group is also shown.
  • a dimension reduction method such as principal component analysis or t-SNE is used as a method for drawing on such a plane.
  • FIG. 15 is a diagram showing an example of a scenario weight setting screen for setting the weight of a proposed scenario.
  • the scenario weight setting screen 62 shown in FIG. 15 includes a setting section 621 for setting the scenario weight, and an execute button 622 for executing the selection of a representative scenario with the set scenario weight.
  • the setting section 621 indicates the scenario group ID of the scenario group to which the proposed scenario belongs, the current scenario weight, and the changed scenario weight.
  • the scenario weight is used, for example, by the representative scenario selection unit 37 to select a representative scenario.
  • the representative scenario selection unit 37 calculates a distance between scenarios based on the scenario weight (for example, weighted Euclidean distance, etc.). In this case, a scenario proposal with a large scenario weight is more likely to be selected as the representative scenario.
  • the arithmetic device 1 has been described as a single hardware device. However, the arithmetic device 1 may be composed of multiple hardware devices, and each function may be realized by a different computer. In this case, the functions of the arithmetic device 1 may be realized by multiple pieces of hardware that are connected to each other via a network and are located in physically separate locations.
  • FIG. 16 is a configuration diagram showing the configuration of a calculation device 1A in the second embodiment.
  • the calculation device 1A shown in FIG. 16 differs from the calculation device 1 of the first embodiment shown in FIG. 2 in that the storage unit 13 further stores user-specified scenario information 70.
  • the user-specified scenario information 70 is specification information that specifies at least a portion of the scenario proposals generated by the scenario proposal generation unit 33.
  • the scenario proposal generation unit 33 registers the N' scenarios specified in the user-specified scenario information 70 as scenario proposals, and further generates the remaining N-N' scenario proposals based on the risk distribution 21.
  • FIG. 17 is a diagram showing an example of user-specified scenario information 70.
  • the user-specified scenario information 70 shown in FIG. 17 includes fields 701 to 703.
  • Field 701 stores a scenario ID for identifying a specified scenario, which is a scenario specified by the user.
  • Field 702 stores a scenario element ID for identifying a scenario element included in the specified scenario.
  • Field 703 stores a scenario element value, which is the value of a scenario element.
  • the scenario proposal generation unit 33 generates a predetermined number (N) of scenario proposals, including the scenario proposal specified by the user. Therefore, it becomes possible to take important scenario proposals into account, and it becomes possible to further improve robustness against uncertainty.
  • FIG. 18 is a configuration diagram showing the configuration of a calculation device 1B in the second embodiment.
  • the calculation device 1B shown in FIG. 18 further stores an approximation error evaluation condition 81 in the storage unit 13, and further includes an approximation error evaluation unit 82 and an approximation evaluator update unit 83 as functional components.
  • Approximation error evaluation conditions 81 indicate evaluation conditions for evaluating the approximation error, which is the error between the exact evaluation result and the approximate evaluation result.
  • FIG. 19 is a diagram showing an example of the approximation error evaluation condition 81.
  • the approximation error evaluation condition 81 shown in FIG. 19 includes an upper calculation time limit T and an allowable approximation error range ⁇ as evaluation conditions.
  • the upper calculation time limit T is the allowable upper limit of the processing time related to the selection of the representative scenario.
  • the allowable approximation error range ⁇ is the allowable value of the approximation error.
  • the approximation error evaluation unit 82 is an error evaluation unit that evaluates the approximation error, which is the error between the strict evaluation result and the approximate evaluation result of the confirmation operation plan proposal that combines the representative scenario selected by the representative scenario selection unit 37 and one of the baseline plans generated by the baseline plan generation unit 34.
  • the approximation evaluator update unit 83 is an update unit that updates the approximation evaluator 27 based on the evaluation result of the approximation error evaluation unit 82.
  • FIG. 20 is a flowchart explaining the overall processing by the calculation device 1B.
  • steps S41 to S46 in the overall processing of the first embodiment are executed, and then step S71 is executed.
  • step S71 the strict evaluation unit 31 calculates, as the strict evaluation result, an evaluation KPI obtained by evaluating the confirmation operation plan proposal that combines the representative scenario i generated in step S46 with an arbitrary baseline plan proposal j.
  • the strict evaluation result for the h-th evaluation KPI is defined as Y_hij.
  • the calculation by the strict evaluation unit 31 may be performed for any one or more combinations of the representative scenario i and the baseline plan proposals. In other words, the calculation by the strict evaluation unit 31 may be performed for combinations of the representative scenario i and all baseline plan proposals, or for combinations of the representative scenario i and some baseline plan proposals.
  • step S72 the approximation error evaluation unit 72 evaluates the approximation error between the strict evaluation result Y_hij calculated in step S71 and the approximate evaluation result y_hij calculated in step S44 for each evaluation KPI, and determines whether the approximation error satisfies the approximation error evaluation condition 81.
  • the approximation error e is, for example, the mean absolute error rate.
  • the approximation error e is defined by the following Equation 2.
  • e ⁇ E[
  • represents the absolute value of x
  • E[x] represents the average value of x.
  • the allowable approximation error width ⁇ represents the approximation error upper limit, which is the upper limit of the approximation error e (mean absolute error rate).
  • the approximation error evaluation unit 72 also determines whether the approximation error e is smaller than the approximation error upper limit, and whether the calculation time up to this point (the time from when the process of step S41 or S42 is executed to the present time) is greater than the calculation time upper limit T.
  • the approximation error evaluation unit 72 determines that the approximation error evaluation condition 81 is satisfied, and proceeds to the processing of step S47 described in FIG. 9. Also, if the total value of the approximation errors e is equal to or greater than the approximation error upper limit, or if the calculation time t is less than the calculation time upper limit T, the approximation error evaluation unit 72 proceeds to the processing of step S73.
  • step S73 the approximation evaluator update unit 63 adds a combination of the strict evaluation result Y_hij of the proposed operational plan for evaluation calculated in step S71 and the proposed operational plan for evaluation as a sample to the learning data 25.
  • the approximation evaluator update unit 63 uses the learning data to update the approximation evaluator 27, and returns to the processing of step S42.
  • This update process may be realized, for example, by performing again a process similar to the approximation evaluator generation process described in step S41 using the entire training data 25 including the added sample. Furthermore, in order to speed up the process, the update process may be performed using only the added sample and samples similar to it. Furthermore, the update process may be performed using the training data 25, with only some of the parameters of the approximation evaluator 27 being updateable.
  • the functional block configurations are merely examples. Several functional configurations shown as separate functional blocks may be configured together, or a configuration shown in a single functional block diagram may be divided into two or more functions. In addition, some of the functions of each functional block may be provided by other functional blocks.
  • the program is stored in ROM 12, but the program may be stored in storage unit 13.
  • the arithmetic device 1 may be provided with an input/output interface (not shown), and the program may be loaded from another device when necessary via the input/output interface and a medium available to the arithmetic device 1.
  • the medium refers to, for example, a storage medium that is detachable from the input/output interface, or a communication medium, i.e., a network such as a wired, wireless, or optical network, or a carrier wave or digital signal that propagates through the network.
  • some or all of the functions realized by the program may be realized by a hardware circuit or FPGA.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

不確実性を考慮した運用計画の作成時間を短縮することが可能な演算装置を提供する。シナリオ案生成部33は、不確実性を確率で表現したリスク分布21に基づいて、複数のシナリオ案を生成する。基準計画案生成部34は、確定的なパラメータの値の範囲を示す計画案定義域22に基づいて、基準計画案を生成する。近似評価部35は、近似評価器27を用いて、シナリオ案及び基準計画案を組み合わせた運用計画案を評価した近似評価結果を取得する。シナリオ案集約部36は、近似評価結果に基づいて、シナリオ案を複数のシナリオグループに集約する。代表シナリオ選択部37は、近似評価結果に基づいて、シナリオグループごとに、当該シナリオグループに所属しているシナリオ案のいずれかを代表シナリオとして選択する。

Description

演算装置、計画立案支援方法及びプログラム
 本開示は、演算装置、計画立案支援方法及びプログラムに関する。
 サプライ・チェーン・マネジメント(supply chain management:SCM)又は電力系統などの高い信頼性の確保が必要な複雑系システムの運用では、将来の不確実性をリスクとして考慮した運用計画の立案が必要である。不確実性は、将来の挙動を確率値又は確率分布で表現したパラメータを用いて表すことができる。しかしながら、このような確率的な挙動を示すパラメータを直接使用した運用計画の立案は非常に難しく、適用範囲が限られるという問題がある。このため、不確実性を表す方法としては、一般的に、発生し得る挙動のそれぞれを変動パターンとして示すパラメータの集合を用いて、不確実性を表す方法が採用されている。この場合、パラメータの変動パターンは、リスクシナリオと呼ばれる。リスクシナリオは確定的な値を有するため、運用計画の立案に適用することができる。しかしながら、不確実性を正確に評価するためには、不確実性に応じた十分多くのリスクシナリオを作成して評価する必要がある。
 特許文献1には、複数種類の不確実性のそれぞれに対応する複数種類の単一リスクシナリオのそれぞれについて、最適な変動パターンを選択する最適化計算を行い、それらの最適化の結果に基づいて、全ての単一リスクシナリオからサブシナリオセットを選択し、そのサブシナリオセットを使用して、全体の最適化を行う技術が開示されている。
特表2018-519607号公報
 しかしながら、特許文献1に記載の技術では、単一リスクシナリオの最適化計算を十分に高速に実行できることを前提として、各単一シナリオの最適化計算が行われている。そのため、単一シナリオの最適化計算に係る時間が長い複雑系システムなどには、特許文献1に記載の技術を適用することが難しいという問題がある。
 本開示の目的は、不確実性を考慮した運用計画の作成時間を短縮することが可能な演算装置、計画立案支援方法及びプログラムを提供することである。
 本開示の一態様に従う演算装置は、立案対象に対する運用計画の立案を支援する演算装置であって、前記立案対象に対する不確実性関する不確実性パラメータの値を確率で表現した不確実性情報に基づいて、前記不確実性パラメータの取り得る値を示す複数のシナリオ案を生成するシナリオ案生成部と、前記立案対象に関する前記不確実性パラメータを除く確定的パラメータの値の範囲を示す定義域情報に基づいて、前記確定的パラメータの取り得る値を示す複数の基準計画案を生成する基準計画案生成部と、前記シナリオ案と前記基準計画案との組み合わせである運用計画案を評価する厳密評価器にて複数の学習用の前記運用計画案を評価した厳密評価結果を学習した近似評価器を用いて、複数の評価用の前記運用計画案を評価した近似評価結果を取得する近似評価部と、前記近似評価結果に基づいて、前記シナリオ案を複数のグループに集約する集約部と、前記近似評価結果に基づいて、前記グループごとに、当該グループに所属しているシナリオ案のいずれかを代表シナリオとして選択する選択部と、を有する。
 本発明によれば、不確実性を考慮した運用計画の作成時間を短縮することが可能になる。
本開示が適用可能な事例を説明するための図である。 第1の実施形態における演算装置の構成を示す構成図である。 リスク分布の一例を示す図である。 計画案定義域の一例を示す図である。 シナリオ生成条件の一例を示す図である。 KPI指定情報の一例を示す図である。 学習データの一例を示す図である。 近似評価器情報の一例を示す図である。 第1の実施形態における全体処理を説明するためのフローチャートである。 近似評価器生成処理の一例を説明するためのフローチャートである。 シナリオ生成結果の一例を示す図である。 シナリオ集約結果の一例を示す図である。 シナリオ集約結果表示画面の一例を示す図である。 シナリオ分布表示画面の一例を示す図である。 シナリオ重み設定画面の一例を示す図である。 第2の実施形態における演算装置の構成を示す構成図である。 ユーザ指定シナリオ情報の一例を示す図である。 第3の実施形態における演算装置の構成を示す構成図である。 近似誤差評価条件の一例を示す図である。 第3の実施形態における全体処理を説明するためのフローチャートである。
 以下、本開示の実施形態について図面を参照して説明する。
 図1は、本開示の各実施形態に係る演算装置が適用可能な事例(立案対象)であるアプリケーションを説明するための図である。図1では、アプリケーションごとに、立案する運用計画の内容である計画内容、計画を立案する際に考慮する不確実性、及び、不確実性に対応するリスクシナリオが示されている。
 図1のレコード100のアプリケーションは「サプライチェーンにおける在庫管理」である。この場合、顧客又は店舗における需要をできるだけ少ない運用コスト(在庫金額)で満たすように、サプライチェーン内の各倉庫における商品別及び期間別の在庫数の計画である在庫配置計画が立案される。その際、顧客又は店舗から倉庫に要求される需要量は、在庫配置計画を立案する時点では一意に決定されていないため、不確実性となる。この場合、発生し得る需要量のパターンがリスクシナリオとなる。
 図1のレコード101のアプリケーションは「送配電網制御」である。この場合、各期間及び各地域における電力需要に対して、火力発電所、原子力発電所、風力発電所及び太陽光発電所など各発電所の発電能力が釣り合うように、各期間及び各設備における発電量及び送電量に関する送配電網運用計画が立案される。その際、天候又は風速などによる発電量の変化、自然災害又は経年劣化などに起因する設備故障による送電可能量の変化などが不確実性となる。この場合、不確実性によって変化する各設備及び各期間における設備稼働状態がリスクパターンとなる。
 図1のレコード102のアプリケーションは「生産管理」である。この場合、目標生産数に対して、各期間に各商品をどの設備でいくつ生産するかを示す計画が立案される。その際、生産された製品に含まれる不良品の量、つまり歩留まりが不確実性となる。この場合、不良品数がリスクシナリオとなる。
 なお、図1で示したアプリケーションは単なる一例であり、本開示に係る演算装置は他のアプリケーションに対しても適用可能である。以下では、図1のレコード100に示した「サプライチェーンにおける在庫管理」を例に挙げて本開示の実施形態を説明する。
 (第1の実施形態)
 以下、図2~図15を参照しながら本開示の第1の実施形態について説明する。
 図2は、本実施形態における演算装置の構成を示す構成図である。図2に示す演算装置1は、中央演算装置であるCPU(Central Processing Unit)11、読み出し専用の記憶装置であるROM(Read Only Memory)12、不揮発性の記憶装置である記憶部13、及び高速な読み書きが可能な記憶装置であるメモリ14を備える。CPU11がROM12に格納されるプログラム(コンピュータプログラム)をメモリ14に展開して実行することで後述する演算を行う。
 演算装置1は、CPU11、ROM12及びメモリ14の組み合わせの代わりに、書き換え可能な論理回路であるFPGA(Field Programmable Gate Array)や特定用途向け集積回路であるASIC(Application Specific Integrated Circuit)により後述する機能を実現してもよい。また、演算装置1は、CPU11、ROM12及びメモリ14の組み合わせの代わりに、異なる構成の組み合わせ、例えばCPU11、ROM12及び記憶部13とFPGAの組み合わせにより実現されてもよい。
 記憶部13は、リスク分布21と、計画案定義域22と、シナリオ生成条件23と、KPI(Key Performance Indicator)指定情報24と、学習データ25と、近似評価器情報26と、近似評価器27とを格納する。
 リスク分布21は、不確実性に関するパラメータである不確実性パラメータの値を確率で表現した不確実性情報である。計画案定義域22は、不確実性パラメータとは異なる、確定的な値を有する確定的パラメータの値の範囲を示す定義域情報である。シナリオ生成条件23は、不確実性パラメータの実現例(取り得る値)を示すシナリオ(リスクシナリオ)などを生成するための生成条件である。KPI指定情報24は、運用計画案を評価するための評価指標である評価KPIを指定する指標指定情報である。学習データ25は、運用計画案を近似的に評価する近似評価モデルである近似評価器27を生成するためのデータである。近似評価器情報26は、近似評価器27を規定する情報である。なお、近似評価器27は、図2に便宜的に示しているが、その主要な構成は近似評価器情報26である。
 また、演算装置1は、機能的な構成として、厳密評価部31と、近似評価器生成部32と、シナリオ案生成部33と、基準計画案生成部34と、近似評価部35と、シナリオ案集約部36と、代表シナリオ選択部37とを備える。これらの機能な構成は、上述したように、例えば、CPU11がROM12に格納されるプログラムをメモリ14に展開して実行することで実現されるので、図2では便宜的にメモリ14の内部に記載されている。
 厳密評価部31は、リスク分布21及び計画案定義域22に基づく学習用の運用計画案を評価することで、近似評価器27を生成するための学習データ25を生成する厳密評価器である。近似評価器生成部32は、厳密評価部31にて生成された学習データ25を用いて、近似評価器27を生成する。シナリオ案生成部33は、リスク分布21及びシナリオ生成条件23に基づいて、不確実性パラメータの実現例(取り得る値)を示すシナリオ案を生成する。基準計画案生成部34は、計画案定義域22及びシナリオ生成条件23に基づいて、確定的パラメータの実現例を示す基準計画案を生成する。運用計画案は、シナリオ案と基準計画案との組み合わせで構成される。
 近似評価部35は、シナリオ案及び基準計画案を組み合わせた運用計画案を近似的に評価する。シナリオ案集約部36は、近似評価部35の評価結果である近似評価結果に基づいて、シナリオ案を、複数のシナリオグループに集約する。代表シナリオ選択部37は、近似評価部35の評価結果である近似評価結果に基づいて、各シナリオグループに含まれるシナリオ案のいずれかを、それらのシナリオ案の代表となる代表シナリオとして選択する。
 なお、演算装置1には、非一時的にコンピュータプログラム又はデータを記憶する記録媒体2が通信可能に接続されてもよい。記録媒体2は、記憶部13及びメモリ14に記憶されたコンピュータプログラム及びデータの少なくとも一部を格納させることができる。
 図3は、リスク分布21の一例を示す図である。図3に示すリスク分布21は、フィールド211~214を含む。フィールド211は、不確実性パラメータであるリスク要素を格納する。リスク要素は、例えば、各商品の各期間における需要の予測である。フィールド212及び213は、リスク要素の取り得る値の範囲である発生範囲を格納する。具体的には、フィールド212は、発生範囲の下限値である数値下限を格納し、フィールド213は、発生範囲の上限値である数値上限を格納する。フィールド214は、発生範囲の需要が発生する確率である発生確率を格納する。
 なお、図3で示したリスク分布21は、単なる一例であり、他の形式で記述されてもよい。例えば、リスク分布21は、リスク要素ごとに、そのリスク要素の値が従う確率分布の種類と、その確率分布を規定する規定値とを示してもよい。例えば、リスク要素の確率分布が正規分布で表現できる場合、確率分布の種類は「正規分布」、確率分布の規定値は「平均値」及び「標準偏差」を示す。なお、リスク分布21の値は、過去の統計情報に基づいて設定されてもよいし、演算装置1のユーザにて設定されてもよい。
 図4は、計画案定義域22の一例を示す図である。図4に示す計画案定義域22は、フィールド221~223を含む。フィールド221は、確定的パラメータである計画要素を格納する。計画要素は、例えば、各倉庫での各商品の各期間における在庫量の予測である。フィールド222及び223は、計画要素の取り得る値の範囲である定義域を格納する。具体的には、フィールド222は、定義域の下限値である数値下限を格納し、フィールド223は、定義域の上限値である数値上限を格納する。定義域は、過去の値の統計情報に基づいて設定されてもよいし、ユーザにて設定されてもよい。
 図5は、シナリオ生成条件23の一例を示す図である。図5に示すシナリオ生成条件23は、シナリオ案生成部33で生成する評価用のシナリオ案の数であるシナリオ案数N、基準計画案生成部34で生成する評価用の基準計画案の数である基準計画数M、及び、シナリオ案集約部36で生成されるシナリオグループの数であるシナリオ集約数Kなどを示す。
 図6は、KPI指定情報24の一例を示す図である。図6に示すKPI指定情報24は、フィールド241及び242を含む。フィールド241は、評価KPIの種類を格納する。図6の例では、評価KPIとしてコスト、CO量及び残業時間が示されているが、評価KPIはこれらの例に限らない。フィールド242は、評価KPIの重要度を示す重み値である評価重みを格納する。例えば、CO量にコストより2倍大きな評価重みを設定した場合、シナリオ生成において、CO量の1単位の変動とコストの2単位の変動とが等価に扱われ、CO量の変化を重視したシナリオ生成を行うことができる。
 図7は、学習データ25の一例を示す図である。学習データ25には、予めデータが格納されてもよいし、近似評価器27を生成する近似評価器生成処理の開始時点では空でもよい。また、学習データ25は、運用計画の実現例である複数のサンプルデータ(以下、単にサンプルと呼ぶこともある)を含む。各サンプルは、厳密評価部31に入力される入力データと厳密評価部31から出力される出力データとを含む複数のデータを含む。入力データは、学習用の運用計画案であり、出力データは運用計画案を評価した評価KPIである。
 具体的には、学習データは、フィールド251~254を含む。フィールド251は、サンプルを識別するための識別情報であるサンプルIDを格納する。フィールド252は、サンプルに含まれるデータの属性であるデータ属性を格納する。データ属性は、厳密評価部31に入力される入力データである「入力」と、厳密評価部31から出力される出力データである「出力」のいずれかを示す。フィールド253は、サンプルに含まれるデータを識別するための識別情報であるデータ名を格納する。フィールド254は、サンプルに含まれるデータの値であるデータ値を格納する。なお、同一のサンプルIDを有するサンプルにおいて、データ属性が「入力」のデータは、同一のタイミングで厳密評価部31に入力される。
 図8は、近似評価器情報26の一例を示す図である。図8に示す近似評価器情報26は、フィールド261及び262を含む。フィールド261は、近似評価器情報26を構成する内部パラメータを識別するための識別情報である内部パラメータIDを格納する。フィールド262は、内部パラメータの値を格納する。
 近似評価器27は、近似評価器情報26と、不図示の近似評価器27の構造に関する情報とを組み合わせることで構成される。例えば、近似評価器27は、ニューラルネットワークであり、そのニューラルネットワークの構造に関する情報と、ニューラルネットワークで使用されるパラメータを内部パラメータとして示す近似評価器情報26とを組み合わせることで構成される。また、近似評価器27は、多項式であり、その多項式の構造(数式の形)に関する情報と、多項式の係数を内部パラメータとして示す近似評価器情報26とを組み合わせることで構成されてもよい。
 図9は、演算装置1による全体処理を説明するためのフローチャートである。
 全体処理におけるステップS41では、近似評価器生成部32は、厳密評価部31を用いて学習データ25を生成し、その学習データを用いて近似評価器27を生成する近似評価器生成処理(図10参照)を実行する。この近似評価器生成処理は、例えば、演算装置1がリスク分布21を取得する前に予め実行されてもよい。
 なお、厳密評価部31は、運用計画案に対して、厳密な評価モデルを用いて演算コストが高い高精度な評価を行う。厳密評価部31は、例えば、シミュレータである。一方、近似評価器27は、運用計画案に対して、厳密評価部31と比べて演算コストが低い簡易な評価を行う。演算コストは、例えば、計算量、計算時間、及び、計算に要する演算資源の量の少なくとも1つなどを示す。近似評価器27は、シミュレータによる評価を近似的に行うニューラルネットワークのような機械学習モデルにて実現されてもよいし、厳密評価部31よりも抽象的なシミュレーションモデルでもよいし、単純な数式などでもよい。
 ステップS42では、シナリオ案生成部33は、リスク分布21とシナリオ生成条件23とに基づいて、複数(ここでは、N個)のシナリオ案を生成する(ステップS42)。例えば、シナリオ案生成部33は、シナリオ生成条件23が示すシナリオ案数回(N回)、リスク分布21の各リスク要素の値をシナリオ案の値であるシナリオ要素値としてランダムサンプリングすることで、N個のシナリオ案を生成する。なお、シナリオ案は、例えば、SCMにおける需要シナリオであり、シナリオ要素値は、ある商品のある時期の需要数である。なお、不確実性を正確に評価するためには、比較的多くのシナリオ案が生成されることが好ましい。
 ステップS43では、基準計画案生成部34は、計画案定義域22とシナリオ生成条件23とに基づいて、複数(ここでは、M個)の基準計画案を生成する。例えば、基準計画案生成部34は、シナリオ生成条件23が示す基準計画数回(M回)、計画案定義域22の計画要素の値を基準計画案の値である基準計画要素としてランダムサンプリングすることで、M個の基準計画案を生成する。基準計画案は、例えば、在庫配置計画であり、基準計画要素値は、ある倉庫における商品のある時期における在庫数である。なお、高リスクなシナリオを正確に選出するには、比較的多くの基準計画案を生成することが好ましい。
 ステップS44では、近似評価部35は、ステップS42で生成したN個のシナリオ案と、ステップS43で生成したM個の基準計画案とを組合せた複数の運用計画案を入力データとして生成し、その入力データを近似評価器27に入力して、運用計画案の評価KPIを近似的に算出した近似評価結果を取得する(ステップS44)。入力データの作成方法としては、例えば、全てのシナリオ案と全ての基準計画案を組みわせて、M×N個の入力データを作成する方法でもよいし、ユーザにて選択された数のシナリオ案及び基準計画案の組み合わて入力データを作成する方法などでもよい。
 なお、上述したように比較的多くのシナリオ案と基準計画案とを組合せて入力データを生成するため、入力データの数は非常に多くなる。例えば、評価KPIが3種類、基準計画案が1万通り、シナリオ案が1万通り存在する場合、近似評価部35は評価KPIを算出する演算を3億回行うこととなる。この場合、全ての入力データを厳密評価部31を用いて評価すると、膨大な演算コストが必要となる。仮に演算コストの制限がなければ、厳密評価部31を用いてもよいが、実際には演算コストの制限があるため、非常に小さな演算コストでの評価が可能な近似評価器27を用いることで、現実的な演算コストで、大量の運用計画案の評価が可能となる。
 ステップS45では、シナリオ案集約部36は、近似評価部35の近似評価結果とシナリオ生成条件23とに基づいて、N個のシナリオ案を、複数(ここでは、K個)のシナリオグループに集約する。シナリオグループの数であるシナリオ集約数Kは、シナリオ案数Nよりも十分少ない。
 例えば、シナリオ案iと基準計画案jを組合せた入力データを近似評価器27に入力して得られたh番目の評価KPIに対する近似評価結果をy_hijとする。また、h番目の評価KPIの評価重みをw_hとし、評価KPIがH種類定義されているとする。このとき、シナリオ案iの評価KPIに対する影響度を示すリスク特徴量V_iを、V_i={w_h×y_hij}={w_1×y_1i1,w_1×y_1i2,…,w_1×y_1iM,w_2×y_2i1,w_2×y_2i2,…,w_H×y_HiM}と定義すると、シナリオ案集約部36は、各シナリオ案1~Nのリスク特徴量V_1~V_Nを取得することができる。リスク特徴量は、不確実性(リスク)の特徴を表し、リスク特徴量が類似するシナリオ案同士は、「基準計画案に対するリスクの傾向が類似している」ことを示す。シナリオ案集約部36は、各シナリオ案1~Nのリスク特徴量V_1~V_Nと、シナリオ生成条件23に基づいて、N個のシナリオ案をK個のシナリオグループに集約する集約処理を実行する。集約処理は、例えば、K-Means法、主成分分析法又はt-SNE法などのクラスタリング手法を用いて実現できる。
 また、以下の方法でシナリオ案が集約されてもよい。つまり、シナリオ案集約部36は、評価KPIの種類ごとにリスク特徴量を分け、h番目の評価KPIについてのシナリオ案iのリスク特徴量を、V_hi={y_hi1,y_hi2,…,y_hiM}と定義する。そして、シナリオ案集約部36は、これらのリスク特徴量V_h1~V_hNとシナリオ生成条件23とに基づいて、評価KPIごとに、N個のシナリオ案をK個のシナリオグループに集約する。このとき、h番目の評価KPIにおけるシナリオ案iが所属するシナリオグループを2進数表現G_hiで表す。2進数表現G_hiは、h番目の評価KPIにおけるシナリオ案iが所属するシナリオグループがZ番目の場合、Z番目の値が1、他の値が0となる。例えば、シナリオグループの数が4、Zが2の場合、2進数表現G_hiは{0,1,0,0}となる。シナリオ案集約部36は、全ての評価KPIに対するシナリオiのリスク特徴量を量G_i={w_1×G_1i,w_2×G_2i,…,w_H×G_Hi}として算出し、このリスク特徴量に基づいて、N個のシナリオ案をK個のシナリオグループに集約する。
 ステップS46では、代表シナリオ選択部37は、近似評価部35の近似評価結果に基づいて、シナリオグループごとに、そのシナリオグループに所属しているシナリオ案のいずれかを代表シナリオとして選択する。ここでは、代表シナリオ選択部37は、K個のシナリオグループのそれぞれから代表シナリオを1つ選択することで、K個の代表シナリオを選択する。
 例えば、代表シナリオ選択部37は、シナリオグループごとに、そのシナリオグループに所属している各シナリオ案のリスク特徴量に基づいて、代表シナリオを選択する。具体的には、代表シナリオ選択部37は、各シナリオグループについて、そのシナリオグループに所属するシナリオ案の中から、シナリオ特徴量が最大のシナリオ案を、そのシナリオグループ内で最高リスクのシナリオ案として、代表シナリオに選択する。最高リスクのシナリオ案とは、運用計画案又は基準計画案に対して影響度が最も高いシナリオ案である。また、代表シナリオ選択部37は、各シナリオグループについて、そのシナリオグループに所属するシナリオ案間の距離を算出し、全てのシナリオ案から等距離にある中心点から最も近いシナリオ案を代表シナリオとして選択してもよい。シナリオ案の距離は、例えば、コサイン類似度又はユークリッド距離などである。
 ステップS47では、代表シナリオ選択部37は、選択したK個の代表シナリオを含む出力情報を出力して、処理を終了する。
 なお、以上説明した全体処理は単なる一例であって、この例に限定されるものではない。例えば、ステップS43では、シナリオ案生成部33は、ステップS42にて生成された各シナリオ案について、近似評価結果が最良となる(つまり、最も高くなる)計画要素の値を任意の探索アルゴリズムを用いて探索し、その探索結果を基準計画案として生成してもよい。この方法で生成された基準計画案は、各シナリオ案に対して最も影響度が低い基準計画案となるため、最終的な運用計画に近くなり、リスク評価の精度を向上させることが可能となる。
 また、例えば、ステップS42の処理とステップS43の処理が行われる順番は逆でも
よい。この場合、ステップS42において、シナリオ案生成部33は、ステップS43にて生成された各基準計画案について近似評価結果が最悪となる(つまり、最も低くなる)リスク要素の値を任意の探索アルゴリズムを用いて探索し、その探索結果をシナリオ案として生成してもよい。この方法で生成されたシナリオ案は、各基準計画案に対して最も影響度が高いシナリオ案となるため、リスク評価の精度を向上させることが可能となる。
 以上の処理により数多くのシナリオから特徴的な代表シナリオを選択することが可能となるため、従来のように非常に多くのシナリオ案を評価しなくても、代表シナリオ群を評価することで、多様かつ高リスクな不確実性を評価した運用計画の立案が可能となる。したがって、不確実性を考慮した運用計画の作成時間を短縮することが可能になる。特に本実施形態で選択されたK個の代表シナリオは、M個のシナリオ案から評価KPIに対する影響度の観点から、その傾向が類似したシナリオ案を除外し、最も特徴的かつ互いに異なるシナリオ案を厳選したものである。このため、不確実性を考慮した運用計画の作成時間を短縮すると共に、生成する運用計画の不確実性に対する頑強さ(ロバスト性)も向上させることが可能となる。
 図10は、図9のステップS41の近似評価器生成処理の一例を説明するためのフローチャートである。
 ステップS411では、近似評価器生成部32は、学習データを生成するための学習用の複数のシナリオ案である学習用シナリオ案を生成する。例えば、近似評価器生成部32は、学習用シナリオ案を、リスク分布21からランダムサンプリングすることで生成してもよいし、過去のリスク分布からランダムサンプリングすることで生成してもよいし、過去のリスク発生履歴から生成してもよい。
 ステップS412では、近似評価器生成部32は、学習データを生成するための学習用の複数の基準計画案である学習用基準計画案を生成する。例えば、近似評価器生成部32は、計画案定義域22からランダムサンプリングすることで生成してもよいし、過去の運用計画案から生成してもよい。
 ステップS413では、近似評価器生成部32は、学習用シナリオ案と学習用基準計画案とを組み合わせた学習用の運用計画案ごとに、その学習用の運用計画案を厳密評価部31に入力し、厳密評価部31からの出力を学習用の運用計画案に対する評価KPIとして取得する。このとき、厳密評価部31を使用するため、学習用シナリオ案及び学習用運用計画案は、近似評価器27で評価する評価用のシナリオ案及び基準計画案よりも少ないことが好ましい。例えば、評価KPIが3種類定義され、学習用シナリオ案が1000通りあり、学習用基準計画案が1000通りある場合、厳密評価部31は、評価KPIを算出する演算を300万回行うこととなる。
 ステップS414では、近似評価器生成部32は、学習用運用計画案ごとに、その学習用運用計画案と学習用運用計画案に対する評価KPIを1組のサンプルデータとして生成して学習データ25に追加する。この場合、上記の例では、学習データの数は100万となる。
 ステップS415では、近似評価器生成部32は、ステップS414にて生成した学習データ25に基づいて、近似評価器27を生成する。このように近似評価器27が生成されるため、近似評価器27を事前に用意しなくてもよくなる。また、基準計画案をx、シナリオ案をs、評価KPIをyとすると、近似評価器27は、次の式1における関数fに相当する。
y≒f(x,s)…(式1)
 図11及び図12は、演算装置1の出力情報の一例を示す図である。
 図11は、出力情報であるシナリオ生成結果の一例を示す図である。図11に示すシナリオ生成結果50は、フィールド501~504を含む。フィールド501は、シナリオグループ(シナリオGr.)を識別するためのシナリオグループIDを格納する。フィールド502は、シナリオグループの代表シナリオを識別するためのシナリオIDである代表シナリオIDを格納する。フィールド503は、代表シナリオに含まれるシナリオ要素を識別するためのシナリオ要素IDを格納する。フィールド504は、シナリオ要素の値であるシナリオ要素値を格納する。
 図12は、出力情報であるシナリオ集約結果の一例を示す図である。図12に示すシナリオ集約結果51は、フィールド511~516を含む。フィールド511は、シナリオグループを識別するためのシナリオグループIDを格納する。フィールド512は、シナリオグループに含まれるシナリオ案を識別するためのシナリオIDを格納する。フィールド513は、基準計画案を識別するための基準計画案IDを格納する。フィールド514は、評価KPIを識別する評価KPIIDを格納する。フィールド515は、フィールド512に格納されたシナリオIDのシナリオ案とフィールド513に格納された基準計画案IDの基準計画案の組み合わせである運用計画案に対するリスク特徴量を格納する。フィールド516は、当該運用計画案に対する厳密評価結果(厳密評価値)が存在する場合、その厳密評価結果を格納する。厳密評価結果は、厳密評価部31にて算出された評価KPIである。
 図13~図15は、出力情報に基づく表示画面の一例を示す図である。
 図13は、シナリオ案集約部36及び代表シナリオ選択部37の処理結果を表示するためのシナリオ集約結果表示画面の一例を示す図である。図13に示すシナリオ集約結果表示画面60は、シナリオグループごとに、その代表シナリオの近似評価結果、シナリオグループに属するシナリオの近似評価結果の分布、代表シナリオの厳密評価結果などを示す。
 図14は、シナリオ案の間の関係を直感的に把握するためのシナリオ分布表示画面の一例を示す図である。図14に示すのシナリオ分布表示画面61は、各シナリオ案の距離関係を保ったまま、各シナリオ案を平面上に描画することで表現している。シナリオ分布表示画面61では、同じシナリオグループに含まれるシナリオ案が同じ記号(例えば、円、四角及び三角など)で示され、さらに各シナリオグループの代表シナリオが示されている。なお、このような平面上への描画方法には、例えば、主成分分析又はt-SNEなどの次元削減手法が用いられる。
 図15は、シナリオ案の重みを設定するためのシナリオ重み設定画面の一例を示す図である。図15に示すシナリオ重み設定画面62は、シナリオ重みを設定するための設定部621と、設定したシナリオ重みにて代表シナリオの選択を実行させるための実行ボタン622とを含む。設定部621は、シナリオ案のシナリオIDごとに、そのシナリオ案が所属するシナリオグループのシナリオグループIDと、現在のシナリオ重みと、変更後のシナリオ重みとを示す。
 シナリオ重みは、例えば、代表シナリオ選択部37にて代表シナリオを選択するために使用される。例えば、代表シナリオ選択部37は、代表シナリオを選択する際に、シナリオ間の距離として、シナリオ重みに基づく距離(例えば、重み付けユークリッド距離など)を算出する。この場合、シナリオ重みが大きいシナリオ案が代表シナリオとして選択されやすくなる。
(変形例1)
 上述した第1の実施形態では、演算装置1は1つのハードウエア装置として説明した。しかしながら、演算装置1は複数のハードウエア装置から構成されてもよいし、各機能が異なるコンピュータによて実現されてもよい。この場合、演算装置1の機能はネットワークを介して互いに接続され、かつ、物理的に離れた場所に存在する複数のハードウエアにより実現されてもよい。
 (第2の実施形態)
 以下、図16~図17参照しながら本開示の第2の実施形態について説明する。以下では、第1の実施形態との相違点について主に説明する。本実施形態は、主にユーザが指定したシナリオ案を入力可能な点で第1の実施形態と異なる。
 図16は、第2の実施形態における演算装置1Aの構成を示す構成図である。図16に示す演算装置1Aは、図2に示した第1の実施形態の演算装置1の構成に加えて、記憶部13がユーザ指定シナリオ情報70をさらに格納する点で異なる。
 ユーザ指定シナリオ情報70は、シナリオ案生成部33にて生成されるシナリオ案の少なくとも一部を指定する指定情報である。ユーザ指定シナリオ情報70にてN‘個のシナリオ案が指定された場合、シナリオ案生成部33は、ユーザ指定シナリオ情報70にて指定されたN’個のシナリオをシナリオ案として登録し、さらに残りのN-N’個のシナリオ案をリスク分布21に基づいて生成する。
 図17は、ユーザ指定シナリオ情報70の一例を示す図である。図17に示すユーザ指定シナリオ情報70は、フィールド701~703を含む。フィールド701は、ユーザにて指定されたシナリオである指定シナリオを識別するためのシナリオIDを格納する。フィールド702は、指定シナリオに含まれるシナリオ要素を識別するためのシナリオ要素IDを格納する。フィールド703は、シナリオ要素の値であるシナリオ要素値を格納する。
 以上説明したように本実施形態によれば、シナリオ案生成部33は、ユーザから指定されたシナリオ案を含む所定個(N個)のシナリオ案を生成する。したがって、重要なシナリオ案などを考慮することが可能となるため、不確実性に対する頑強さをより向上させることが可能となる。
 (第3の実施形態)
 以下、図18~図20を参照しながら本開示の第3の実施形態について説明する。以下では、第1の実施形態との相違点について主に説明する。本実施形態は、主に、演算処理中に、厳密評価部31の評価結果を用いて、近似評価部35内の近似評価器27を逐次更新することで、近似評価器27の精度を向上させる点で第1の実施形態と異なる。
 図18は、第2の実施形態における演算装置1Bの構成を示す構成図である。図18に示す演算装置1Bは、図2に示した第1の実施形態の演算装置1の構成に加えて、記憶部13に近似誤差評価条件81をさらに格納し、また、機能的な構成として近似誤差評価部82及び近似評価器更新部83をさらに備える。
 近似誤差評価条件81は、厳密評価結果と近似評価結果との誤差である近似誤差を評価するための評価条件を示す。
 図19は、近似誤差評価条件81の一例を示す図である。図19に示す近似誤差評価条件81は、評価条件として、計算時間上限Tと許容近似誤差幅εとを含む。計算時間上限Tは、代表シナリオの選択に係る処理時間の許容上限値である。許容近似誤差幅εは、近似誤差の許容値である。
 近似誤差評価部82は、代表シナリオ選択部37にて選択された代表シナリオと、基準計画案生成部34にて生成された基準計画案のいずれかとを組み合わせた確認用の運用計画案の厳密評価結果と近似評価結果との誤差である近似誤差を評価する誤差評価部である。近似評価器更新部83は、近似誤差評価部82の評価結果に基づいて、近似評価器27を更新する更新部である。
 図20は、演算装置1Bによる全体処理を説明するためのフローチャートである。
 先ず、第1の実施形態の全体処理におけるステップS41~S46の処理(図9参照)が実行され、その後、ステップS71の処理が実行される。
 ステップS71は、厳密評価部31は、ステップS46にて生成された代表シナリオiと、任意の基準計画案jとを組み合わせた確認用の運用計画案を評価した評価KPIを厳密評価結果として算出する。ここで、h番目の評価KPIについての厳密評価結果をY_hijと定義する。このとき、厳密評価部31の演算は、代表シナリオiと基準計画案のいずれか1以上との組み合わせについて実施されればよい。つまり、厳密評価部31の演算は、代表シナリオiと全ての基準計画案との組合せについて実施されてもよいし、代表シナリオiと一部の基準計画案との組み合わせについて実施されてもよい。
 ステップS72では、近似誤差評価部72は、各評価KPIについて、ステップS71にて計算された厳密評価結果Y_hijと、ステップS44にて計算された近似評価結果y_hijとの近似誤差を評価し、その近似誤差が近似誤差評価条件81を満たしているかを判断する。
 近似誤差eは、例えば、平均絶対誤差率である。この場合、近似誤差eは、以下の式2で定義される。
e=ΣE[|Y_hij-y_hij|]…(式2)
ここで、|x|はxの絶対値を表し、E[x]はxの平均値を表す。この場合、許容近似誤差幅εは、近似誤差e(平均絶対誤差率)の上限値である近似誤差上限値を示す。また、近似誤差評価部72は、近似誤差eが近似誤差上限値よりも小さいか否かと、この時点までの計算時間(ステップS41又はS42の処理が実行されてから現時点までの時間)が計算時間上限Tよりも大きいか否かとを判断する。
 近似誤差評価部72は、近似誤差eの合計値が近似誤差上限値よりも小さい場合、又は、計算時間tが計算時間上限Tよりも大きい場合、近似誤差評価条件81を満たすと判断して、図9で説明したステップS47の処理に進む。また、近似誤差評価部72は、近似誤差eの合計値が近似誤差上限値以上の場合、及び、計算時間tが計算時間上限T未満の場合、ステップS73の処理に進む。
 ステップS73では、近似評価器更新部63は、ステップS71で計算した評価用の運用計画案の厳密評価結果Y_hijとその評価用の運用計画案との組み合わせをサンプルとして学習データ25に追加する。そして、近似評価器更新部63は、その学習データを用いて近似評価器27を更新し、ステップS42の処理に戻る。
 この更新処理は、例えば、追加されたサンプルを含む学習データ25全体を用いてステップS41で説明した近似評価器生成処理と同様な処理が再度実行されることで実現されてもよい。また、更新処理は、処理の高速化のために、追加されたサンプルとそれに類似するサンプルのみを用いて行われてもよい。また、更新処理は、近似評価器27の一部のパラメータのみを更新可能として、学習データ25を用いて行われてもよい。
 以上説明したように本実施形態によれば、近似誤差が大きい場合、厳密評価結果を用いて近似評価器27を更新することが可能となるため、近似誤差が小さくなるように近似評価器27を更新することが可能となる。したがって、近似評価器27による評価性能を向上させることが可能となる。
 なお、上述した各実施形態及び変形例において、機能ブロックの構成は単なる一例である。別々の機能ブロックとして示したいくつかの機能構成を一体に構成してもよいし、1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。
 また、上述した各実施形態及び変形例において、プログラムはROM12に格納されるとしたが、プログラムは記憶部13に格納されていてもよい。また、演算装置1が不図示の入出力インタフェースを備え、必要なときに入出力インタフェースと演算装置1が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、例えば入出力インタフェースに着脱可能な記憶媒体、又は通信媒体、すなわち有線、無線、光などのネットワーク、又は当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部又は全部がハードウエア回路やFPGAにより実現されてもよい。
上述した各実施形態及び変形例は、それぞれ組み合わせてもよい。上記では、種々の実施形態及び変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる
 1、1A、1B:演算装置 11:CPU 12:ROM 13:記憶部 14:メモリ 21:リスク分布 22:計画案定義域 23:シナリオ生成条件 24:KPI指定情報 25:学習データ 26:近似評価器情報 27:近似評価器 31:厳密評価部 32:近似評価器生成部 33:シナリオ案生成部 34:基準計画案生成部 35:近似評価部 36:シナリオ案集約部 37:代表シナリオ選択部 50:シナリオ生成結果 51:シナリオ集約結果 60:シナリオ集約結果表示画面 61:シナリオ分布表示画面 62:シナリオ重み設定画面 63:近似評価器更新部 70:ユーザ指定シナリオ情報 72:近似誤差評価部 81:近似誤差評価条件 82:近似誤差評価部 83:近似評価器更新部

 

Claims (10)

  1.  立案対象に対する運用計画の立案を支援する演算装置であって、
     前記立案対象に対する不確実性に関する不確実性パラメータの値を確率で表現した不確実性情報に基づいて、前記不確実性パラメータの取り得る値を示す複数のシナリオ案を生成するシナリオ案生成部と、
     前記不確実性パラメータとは異なる前記立案対象に関する確定的パラメータの値の範囲を示す定義域情報に基づいて、前記確定的パラメータの取り得る値を示す複数の基準計画案を生成する基準計画案生成部と、
     前記シナリオ案と前記基準計画案との組み合わせである運用計画案を評価する厳密評価器にて複数の学習用の前記運用計画案を評価した厳密評価結果を学習した近似評価器を用いて、複数の評価用の前記運用計画案を評価した近似評価結果を取得する近似評価部と、
     前記近似評価結果に基づいて、前記シナリオ案を複数のグループに集約する集約部と、
     前記近似評価結果に基づいて、前記グループごとに、当該グループに所属しているシナリオ案のいずれかを代表シナリオとして選択する選択部と、を有する演算装置。
  2.  学習用の前記シナリオ案及び学習用の前記基準計画案の組み合わせを前記学習用の運用計画案として前記厳密評価器に評価させて、前記近似評価器を生成する近似評価器生成部をさらに有する、請求項1に記載の演算装置。
  3.  前記集約部は、前記近似評価結果に基づいて、前記シナリオ案ごとに、当該シナリオ案の前記近似評価結果に対する影響度を算出し、当該影響度に基づいて、前記シナリオ案を複数のグループに集約する、請求項1に記載の演算装置。
  4.  前記選択部は、前記グループごとに、当該グループに所属しているシナリオ案の影響度に基づいて、前記代表シナリオを選択する、請求項3に記載の演算装置。
  5.  前記シナリオ案生成部は、複数の前記基準計画案のそれぞれについて、前記近似評価結果が最も低くなる前記不確実性パラメータの値を探索し、当該探索結果を前記シナリオ案として生成する、請求項1に記載の演算装置。
  6.  前記基準計画案生成部は、複数の前記シナリオ案のそれぞれについて、前記近似評価結果が最も高くなる前記確定的パラメータの値を探索し、当該探索結果を前記基準計画案として生成する、請求項1に記載の演算装置。
  7.  前記シナリオ案生成部は、ユーザから指定されたシナリオ案を含む所定個のシナリオ案を生成する、請求項1に記載の演算装置。
  8.  前記代表シナリオと前記基準計画案のいずれかとを組み合わせた確認用の運用計画案の前記厳密評価結果と前記近似評価結果との誤差を評価する誤差評価部と、
     前記誤差評価部の評価結果に基づいて、前記近似評価器を更新する更新部とを有する、請求項1に記載の演算装置。
  9.  立案対象に対する運用計画の立案を支援する演算装置による計画立案支援方法であって、
     前記立案対象に対する不確実性関する不確実性パラメータの値を確率で表現した不確実性情報に基づいて、前記不確実性パラメータの取り得る値を示す複数のシナリオ案を生成し、
     前記不確実性パラメータとは異なる前記立案対象に関する確定的パラメータの値の範囲を示す定義域情報に基づいて、前記確定的パラメータの取り得る値を示す複数の基準計画案を生成する基準計画案生成し、
     前記シナリオ案と前記基準計画案との組み合わせである運用計画案を評価する厳密評価器にて複数の学習用の前記運用計画案を評価した厳密評価結果を学習した近似評価器を用いて、複数の評価用の前記運用計画案を評価した近似評価結果を取得し、
     前記近似評価結果に基づいて、前記シナリオ案を複数のグループに集約し、
     前記近似評価結果に基づいて、前記グループごとに、当該グループに所属しているシナリオ案のいずれかを代表シナリオとして選択する、計画立案支援方法。
  10.  立案対象に対する運用計画の立案を支援するコンピュータに、
     前記立案対象に対する不確実性関する不確実性パラメータの値を確率で表現した不確実性情報に基づいて、前記不確実性パラメータの取り得る値を示す複数のシナリオ案を生成するシナリオ案生成部と、
     前記不確実性パラメータとは異なる前記立案対象に関する確定的パラメータの値の範囲を示す定義域情報に基づいて、前記確定的パラメータの取り得る値を示す複数の基準計画案を生成する基準計画案生成部と、
     前記シナリオ案と前記基準計画案との組み合わせである運用計画案を評価する厳密評価器にて複数の学習用の前記運用計画案を評価した厳密評価結果を学習した近似評価器を用いて、複数の評価用の前記運用計画案を評価した近似評価結果を取得する近似評価部と、
     前記近似評価結果に基づいて、前記シナリオ案を複数のグループに集約する集約部と、
     前記近似評価結果に基づいて、前記グループごとに、当該グループに所属しているシナリオ案のいずれかを代表シナリオとして選択する選択部と、を実現させるためのプログラム。
PCT/JP2023/037830 2022-11-16 2023-10-19 演算装置、計画立案支援方法及びプログラム WO2024106125A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022183444A JP2024072559A (ja) 2022-11-16 2022-11-16 演算装置、計画立案支援方法及びプログラム
JP2022-183444 2022-11-16

Publications (1)

Publication Number Publication Date
WO2024106125A1 true WO2024106125A1 (ja) 2024-05-23

Family

ID=91084212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/037830 WO2024106125A1 (ja) 2022-11-16 2023-10-19 演算装置、計画立案支援方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2024072559A (ja)
WO (1) WO2024106125A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056024A (ja) * 2003-07-31 2005-03-03 Hitachi East Japan Solutions Ltd 供給計画を作成するための支援システムおよび支援方法および支援のためのコンピュータプログラム
US20170262764A1 (en) * 2016-03-11 2017-09-14 Wipro Limited System and method for predicting and managing the risks in a supply chain network
JP2018063598A (ja) * 2016-10-13 2018-04-19 株式会社日立製作所 業務支援システム、および、業務支援方法
US20200074401A1 (en) * 2018-08-31 2020-03-05 Kinaxis Inc. Analysis and correction of supply chain design through machine learning
US20200356919A1 (en) * 2019-05-10 2020-11-12 Neil Pradeep Kulkarni Scenario evaluation and projection using monte carlo simulation and machine learning
JP2022141362A (ja) * 2021-03-15 2022-09-29 株式会社日立製作所 作業リスク評価システム、モデル作成装置、作業リスク評価方法、作業リスク評価プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056024A (ja) * 2003-07-31 2005-03-03 Hitachi East Japan Solutions Ltd 供給計画を作成するための支援システムおよび支援方法および支援のためのコンピュータプログラム
US20170262764A1 (en) * 2016-03-11 2017-09-14 Wipro Limited System and method for predicting and managing the risks in a supply chain network
JP2018063598A (ja) * 2016-10-13 2018-04-19 株式会社日立製作所 業務支援システム、および、業務支援方法
US20200074401A1 (en) * 2018-08-31 2020-03-05 Kinaxis Inc. Analysis and correction of supply chain design through machine learning
US20200356919A1 (en) * 2019-05-10 2020-11-12 Neil Pradeep Kulkarni Scenario evaluation and projection using monte carlo simulation and machine learning
JP2022141362A (ja) * 2021-03-15 2022-09-29 株式会社日立製作所 作業リスク評価システム、モデル作成装置、作業リスク評価方法、作業リスク評価プログラム

Also Published As

Publication number Publication date
JP2024072559A (ja) 2024-05-28

Similar Documents

Publication Publication Date Title
Bamakan et al. Di-ANFIS: an integrated blockchain–IoT–big data-enabled framework for evaluating service supply chain performance
US20210342699A1 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
WO2021252734A1 (en) Systems and methods for managing machine learning models
KR102295805B1 (ko) 학습 데이터 관리 방법
CN109657805A (zh) 超参数确定方法、装置、电子设备及计算机可读介质
CN117875724B (zh) 一种基于云计算的采购风险管控方法及系统
CN112241805A (zh) 使用历史检验数据进行缺陷预测
JP2006091971A (ja) ネットワークデータ表示方法・装置・プログラム
CN115661550A (zh) 基于生成对抗网络的图数据类别不平衡分类方法及装置
Bonaccorso Hands-on unsupervised learning with Python: implement machine learning and deep learning models using Scikit-Learn, TensorFlow, and more
KR102549702B1 (ko) 신경망을 학습시키는 방법
US20230268035A1 (en) Method and apparatus for generating chemical structure using neural network
Peeperkorn et al. Can recurrent neural networks learn process model structure?
Sassi et al. A rough set-based Competitive Intelligence approach for anticipating competitor’s action
Lee et al. An entropy decision model for selection of enterprise resource planning system
WO2024106125A1 (ja) 演算装置、計画立案支援方法及びプログラム
KR102499435B1 (ko) 인공 지능 기반 신용 평가 모델 생성 방법 및 장치
CN114896138B (zh) 一种基于复杂网络和图神经网络的软件缺陷预测方法
KR102480518B1 (ko) 신용평가 모델 업데이트 또는 교체 방법 및 장치
Hassan et al. Risk Prediction Applied to Global Software Development using Machine Learning Methods
CN115081633A (zh) 时间序列预测模型的超参数配置方法
Jaber et al. RETRACTED ARTICLE: AHI: a hybrid machine learning model for complex industrial information systems
KR102708193B1 (ko) 이종 데이터 기반 챔피언 모델을 이용한 향상된 예측 시스템 및 예측 방법
Polam Sales and Logistics Analysis in E-Commerce using Machine Learning Models: UK
Nordqvist Wireless Power Transfer System Testing: Optimization & Quality Assessment Using ML

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23891281

Country of ref document: EP

Kind code of ref document: A1