WO2019156070A1 - 機械学習システム及び機械学習方法 - Google Patents

機械学習システム及び機械学習方法 Download PDF

Info

Publication number
WO2019156070A1
WO2019156070A1 PCT/JP2019/004061 JP2019004061W WO2019156070A1 WO 2019156070 A1 WO2019156070 A1 WO 2019156070A1 JP 2019004061 W JP2019004061 W JP 2019004061W WO 2019156070 A1 WO2019156070 A1 WO 2019156070A1
Authority
WO
WIPO (PCT)
Prior art keywords
machine learning
data
input
elapsed time
input data
Prior art date
Application number
PCT/JP2019/004061
Other languages
English (en)
French (fr)
Inventor
峰野 博史
和昌 若森
大輔 望月
Original Assignee
国立大学法人静岡大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人静岡大学 filed Critical 国立大学法人静岡大学
Priority to JP2019570753A priority Critical patent/JP7246095B2/ja
Publication of WO2019156070A1 publication Critical patent/WO2019156070A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • One aspect of the present invention relates to a machine learning system and a machine learning method for learning a temporal change in a phenomenon.
  • Non-Patent Document 1 describes a recurrent neural network (RNN), which is a technique capable of constructing a machine learning model in which time-series features are superimposed.
  • Non-Patent Document 2 and Non-Patent Document 3 below describe LSTM (Long Short-Term Memory) as a kind of RNN. This method can superimpose long-term time-series features on the model compared to RNN, and is applied to the estimation or prediction of various time-series data.
  • RNN recurrent neural network
  • parameters to be optimized when building a model are increased according to the time length for which a phenomenon including a temporal change is desired to be learned, and if the amount of training data is not increased, the model is time-series. It is difficult to properly superimpose features.
  • One aspect of the present invention has been made in view of the above problems, and provides a machine learning system and a machine learning method capable of appropriately constructing a machine learning model related to a temporal change in a phenomenon with a small amount of training data. With the goal.
  • a machine learning system provides a plurality of elapsed times related to an elapsed time at a specific time after occurrence of a plurality of predetermined events with respect to input data at the specific time.
  • An input unit that adds information and inputs; and a learning device that optimizes model parameters by machine learning based on the input data to which the elapsed time information input by the input unit is added.
  • the input unit has a plurality of elapsed times related to an elapsed time at the specific time after occurrence of a plurality of predetermined events with respect to input data at the specific time.
  • an estimation / prediction step for estimating / predicting a temporal change of the phenomenon by the constructed model is a plurality of elapsed times related to an elapsed time at the specific time after occurrence of a plurality of predetermined events with respect to input data at the specific time.
  • the machine learning system or the machine learning method of the above aspect using the training data including the input data at a specific time point and the elapsed time information regarding the elapsed time at the specific time point after the occurrence of the predetermined event, The parameters are optimized. Thereby, a model can be appropriately constructed by a learning device with a relatively small amount of training data. As a result, the model construction in the learning device that learns the temporal change of the phenomenon can be made efficient.
  • FIG. 1 is a diagram illustrating a schematic configuration of a machine learning system according to an embodiment. It is a figure which shows the hardware constitutions of the computer which comprises the information processing part 5 of FIG. It is a graph which shows the time change of the explanatory variable and elapsed time information which are contained in the environmental data produced
  • 6 is a graph showing an evaluation result of an average absolute error when the total number of time points of training data is changed in the present embodiment and Comparative Examples 1 to 3. It is a graph which shows the evaluation result of the average absolute error at the time of changing the total number of time points of training data in a modification and a comparative example. It is a figure which shows schematic structure of the machine learning system 1A concerning a modification.
  • a machine learning system 1 shown in FIG. 1 is a computer system that learns temporal changes in a phenomenon by machine learning, and learns environmental data (explanatory variables) related to a cultivation environment (natural phenomenon) of a plant such as a tomato. It is exemplified as a computer system that estimates and predicts the integrated evapotranspiration after irrigation as a growth state as an objective variable.
  • the machine learning used in the present embodiment learns training data (training data) including a known value of an objective variable, thereby constructing a model by optimizing model parameters such as an activation function and a weighting value. Then, it is supervised machine learning that predicts an unknown value using the model.
  • training data that is a numerical string is used, and a temporal change in a value (phenomenon) at an unknown time point is estimated / predicted using a parameter optimized by the training data.
  • the estimation (Estimation) means to predict the present
  • the prediction (Prediction) means to predict the future.
  • a numerical sequence is a series of numerical values obtained by various observation values of a phenomenon at a plurality of time points, and is a series of numerical values obtained by observing the phenomenon at a plurality of time points based on a certain rule. is there.
  • supervised machine learning using a learning device configured by a multilayer perceptron (MLP) is adopted, but the method is not necessarily limited thereto.
  • the learning device may be configured by a random forest, a support vector machine, a neural network (NN), a deep neural network (DNN), or the like, which is one type of supervised machine learning device.
  • the objects that the machine learning system 1 learns include plants such as tomatoes and their environmental data, but are not limited thereto.
  • the machine learning system 1 may target other tangibles such as animals or foods, natural phenomena such as weather, illness, or fishing, and social phenomena such as communication networks, traffic, lifelines, stock prices, or supply and demand.
  • the machine learning system 1 includes an event detection unit 3 and an information processing unit 5.
  • the event detection unit 3 and the information processing unit 5 are configured by separate devices, but may be configured by an integrated device, or by a plurality of devices each having a data transmission / reception function. It may be configured.
  • the event detection unit 3 is a part that detects the occurrence of a predetermined event. For example, an event for which the influence on the objective variable predicted by the machine learning system 1 is predicted is determined in advance, and the event detection unit 3 detects the occurrence of the event. For example, when the object to be learned by the machine learning system 1 is a plant, the predetermined events are assumed to be planting, pinching, watering, fertilization, mating, pest control, harvesting, sunrise, sunset, flowering, or temperature change, etc. Is done.
  • the event detection unit 3 may detect the occurrence of a predetermined event based on a signal from an external sensor device such as a temperature sensor, an optical sensor, a camera, or the predetermined event according to an external input from a user or the like.
  • the occurrence of an event may be detected.
  • the occurrence of an event may be detected by processing the image data using machine learning.
  • the event detector 3 may be a sensor device itself that detects a state related to the event.
  • the information processing unit 5 is a device or a device group that executes machine learning, and is configured to be able to acquire input data for executing machine learning from outside by wired communication or wireless communication.
  • the information processing unit 5 is also configured to be able to acquire a signal from the event detection unit 3 by wired communication or wireless communication.
  • each functional element of the information processing unit 5 described later is realized by distributed processing.
  • the type of individual computer is not limited. For example, a stationary or portable personal computer (PC) may be used, a workstation may be used, or a portable terminal such as a high-functional portable telephone (smart phone), a portable telephone, or a personal digital assistant (PDA). May be used.
  • the information processing unit 5 may be constructed by combining various types of computers. When a plurality of computers are used, these computers are connected via a communication network such as the Internet or an intranet.
  • FIG. 2 shows a general hardware configuration of the computer 100 constituting the information processing unit 5.
  • a computer 100 includes a CPU (processor) 101 that is an arithmetic device that executes an operating system, application programs, and the like, a main storage unit 102 that includes a ROM and a RAM, and an auxiliary storage unit that includes a hard disk, a flash memory, and the like. 103, a communication control unit 104 including a network card or a wireless communication module, an input device 105 such as a keyboard and a mouse, and an output device 106 such as a display and a printer.
  • the hardware modules to be mounted differ depending on the type of the computer 100.
  • a stationary PC and a workstation often include a keyboard, a mouse, and a display as input devices and output devices, but in a smartphone, a touch panel often functions as an input device and an output device.
  • Each functional element of the information processing unit 5 described later reads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and a database necessary for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.
  • the information processing unit 5 includes an input unit 7 and a learning device 9 as functional components.
  • the input unit 7 is a part that generates input data based on externally acquired signals and various data and inputs the input data to the learning device 9.
  • input data to be input to the learning device 9 it is used in the training data used in the learning phase for constructing a machine learning model in the learning device 9 and in the estimation / prediction phase in which the objective variable is actually estimated / predicted in the learning device 9. Divided into environmental data.
  • the input unit 7 detects the detection timing after occurrence of a predetermined event detected by the event detection unit 3 with respect to environmental data detected by an external sensor device or the like at a specific detection timing (time point). Add elapsed time information about elapsed time. At this time, the input unit 7 detects the occurrence timing of the specified event from the signal acquired from the event detection unit 3, and calculates the elapsed time information by calculating the time from the generation timing to the detection timing. Then, the input unit 7 generates a combination of the detected environmental data and elapsed time information corresponding to the environmental data for each of a plurality of continuous detection timings (sampling timings), and generates the plurality of combinations of the environmental data. As input to the learning device 9. In the learning phase, when inputting training data to the learning device 9, the input unit 7 adds an actually measured value related to the objective variable acquired from the outside to the combination of data in the environment data.
  • FIG. 3 shows an example of a time change of the explanatory variable and the elapsed time information included in the environment data generated by the input unit 7.
  • the environment data includes time series data of three explanatory variables V1, V2, and V3.
  • elapsed time information indicating the elapsed time ET from the predetermined event generation timings T1 to T8 corresponding to the sampling timing as shown in FIG. 3B is added to the time-series data of each sampling timing. .
  • the input unit 7 generates a combination of temperature, humidity, and light quantity data in the cultivation environment measured by the temperature / humidity sensor and the optical sensor as environment data related to the tomato cultivation environment.
  • the input unit 7 also generates training data by adding data of accumulated evapotranspiration based on a change in weight of the tomato cultivation pot measured by a weight sensor or the like to the environmental data.
  • the input unit 7 may further add the accumulated value of the explanatory variable at the sampling timing after the occurrence of the predetermined event to the environmental data, or integrate the environmental data instead of the elapsed time information. A value may be added. Further, the input unit 7 may further add an explanatory variable statistic at the sampling timing after the occurrence of a predetermined event to the environmental data, or instead of the elapsed time information, the statistical quantity may be added to the environmental data. May be added. Examples of the statistics to be added include a variance value and an average value.
  • the input unit 7 may apply resampling of training data in order to balance the distribution of objective variables included in the training data.
  • SMOTER SMOTE for Regression, which can be applied to oversampling that artificially amplifies data with low frequency in the distribution of objective variables, undersampling to remove data with high frequency, and combined regression regression problem
  • SMOTER SMOTE for Regression, which can be applied to oversampling that artificially amplifies data with low frequency in the distribution of objective variables, undersampling to remove data with high frequency, and combined regression regression problem
  • the learning device 9 is a functional unit that executes machine learning processing based on input data input from the input unit 7. That is, the learning device 9 constructs a model by optimizing model parameters according to a machine learning learning algorithm using training data in the learning phase, and uses the constructed model in the estimation / prediction phase. Then, a time series estimated / predicted value VP at each sampling timing of the objective variable is generated and output from the environmental data. For example, the learning device 9 estimates and predicts the accumulated evapotranspiration amount of tomato using environment data including the temperature, humidity, and light amount of the cultivation environment. Note that the learning device 9 executes machine learning processing using environment data to which elapsed time information is added or training data to which elapsed time information is added, and information on the integrated value added to these data. Further, the machine learning process may be executed, or the machine learning process may be executed by further using information on the statistics added to these data.
  • the learning device 9 includes a deep neural network (DNN: Deep) including an input layer 11 including a plurality of nodes, one or more hidden layers 13 each including one or more nodes, and an output layer 15. It is composed of MLP which is a kind of Neural Network. Each hidden layer 13 includes a fully connected layer (FC).
  • the machine learning model constructed in the learning device 9 is defined by various parameters such as activation functions of individual nodes or weight values in outputs between individual nodes, and these parameters are optimal in the learning phase. Set to a parameter.
  • FIG. 4 is a flowchart illustrating a procedure of an objective variable prediction process performed by the machine learning system 1.
  • a learning phase is started by a user input to the information processing unit 5 or the like (step S01).
  • the event detection unit 3 repeatedly detects the occurrence of a specified event, and a signal for notifying the detection timing is repeatedly output to the information processing unit 5 (step S02).
  • time-series environment data and time-series measured values related to the objective variable are acquired by the input unit 7 of the information processing unit 5 (step S03).
  • the input unit 7 calculates elapsed time information with respect to each sampling timing of the data series in the environmental data based on the occurrence timing of the event.
  • Training data is generated by adding the measured value of the objective variable (step S04).
  • the training data is input from the input unit 7 to the learning device 9, and the model is constructed and verified using the training data in the learning device 9 (step S05).
  • Model construction is the process of optimizing the parameters that define the machine learning model using training data.
  • Model validation means that the value predicted by the constructed model is changed to the actual measurement value in the learning phase. This is a process for verifying whether or not it is met.
  • the estimation / prediction phase is started in response to a user input to the information processing unit 5 (step S06).
  • occurrence of a prescribed event is repeatedly detected by the event detection unit 3, and a signal for notifying the detection timing is repeatedly output to the information processing unit 5 (step S07).
  • time-series environmental data is acquired by the input unit 7 of the information processing unit 5 (step S08).
  • the input unit 7 calculates elapsed time information based on the occurrence timing of the event for each sampling timing of the data series in the environmental data, and the elapsed time information is obtained for each sampling timing data series. It is added (step S09). Then, environment data is input from the input unit 7 to the learning device 9, and the estimation / prediction value of the objective variable is generated and output using the environment data in the learning device 9 (step S10).
  • training data including environment data at a plurality of points in time and elapsed time information regarding elapsed times at the plurality of points after occurrence of a predetermined event.
  • the learning device 9 can appropriately construct a model with a small amount of training data as compared with LSTM which is a conventional machine learning method.
  • LSTM which is a conventional machine learning method.
  • a model in which time-series features are superimposed can be constructed even with a method such as MLP that does not have a recursive structure and has few parameters to be optimized.
  • the calculation time for model construction in the learning device can be reduced, and the model construction can be made efficient.
  • the learning device 9 is constituted by a supervised learning device in machine learning, a model can be constructed based on the training data and the actual measurement value, and the temporal change of the phenomenon can be estimated and predicted by the model. Further, if the learning device 9 is configured by DNN, it is possible to extract complicated time-series features from the training data, and the expressive power of model construction in the learning device that learns the temporal change of the phenomenon increases. The accuracy of the estimated / predicted value can be further improved.
  • the learning device 9 when the learning device 9 constructs a model by additionally using the integrated value related to the environmental data, the learning device 9 can appropriately construct a model with a smaller amount of training data. In addition, when the learning device 9 constructs a model by additionally using the statistics regarding the environmental data, the learning device 9 can appropriately construct a model with a smaller amount of training data.
  • the effects of the machine learning system 1 and the machine learning method according to the present embodiment will be evaluated in comparison with comparative examples.
  • the temperature [° C.], the relative humidity [%], the light intensity [V], the irrigation amount [g], and the saturation [kPa] as explanatory variables and the elapsed time after irrigation as elapsed time information [ Minutes] and the elapsed time after sunrise [minutes] were added to the training data and the environmental data, and the learner predicted the cumulative evapotranspiration [g] in tomato, which was the objective variable.
  • the evaluation was performed by comparing the estimation accuracy of the objective variable and the model construction time between the following Comparative Examples 1 to 3 and the present embodiment.
  • the comparative example 1 it processed using the training data and environmental data which do not add elapsed time information in the machine learning system 1 of this embodiment.
  • the comparative example 2 it was made to process with the learning device of the conventional LSTM using the training data and environmental data of the short-term sequence to which elapsed time information is not added.
  • the comparative example 3 it was made to process with the learning device of the conventional LSTM using the training data and environmental data of the long-term sequence to which elapsed time information is not added.
  • FIG. 5A is a timing chart showing the sampling timing of the training data of the short-term sequence used in Comparative Example 2.
  • the environmental data or the training data used in the comparative example 2 is a predetermined interval (a plurality of periods P1 randomly set within a predetermined period P from time 7 o'clock to 19 o'clock of the day).
  • an explanatory variable having a sampling timing of 1 minute is included.
  • the period P1 can be tuned so as to include a variable number of time points (for example, the number of time points 10 to 260), and the start timing thereof is randomly set so that the period P1 does not cross the day.
  • FIG. 5B is a timing chart showing the sampling timing of the training data of the long-term sequence used in Comparative Example 3.
  • the environmental data or training data used in Comparative Example 3 is sampled at a predetermined interval (for example, 1 minute) in a relatively long period P2 that coincides with the predetermined period P from time 7:00 to time 19:00 of the day. Includes explanatory variables for timing.
  • This period P2 is repeatedly set every day until a predetermined total number of points is reached, and explanatory variables for the period P2 that is set repeatedly are included in the environmental data or the training data.
  • environmental data including explanatory variables of sampling timing set at random until reaching a predetermined total number of points in the same period as Comparative Examples 2 and 3 or Training data is used.
  • FIG. 6 shows an evaluation result of the average absolute error when the number of hidden layers of the learning device is changed in this embodiment and Comparative Examples 1 to 3.
  • the total number of training data used for training and verification in the learning phase is 16,560 and 5,040, respectively
  • the number of environmental data used for evaluation of the objective variable generated in the estimation / prediction phase is 6 480. From this result, it can be seen that the average absolute error of this embodiment is greatly reduced to about 3 [g] in all the layer numbers as compared with Comparative Example 1. This indicates that in this embodiment, learning including short-term and long-term time information as explanatory variables is possible.
  • the estimation accuracy is increased to the same level as in Comparative Example 2 in which the conventional LSTM is adopted in all the layers, and the number of layers is “2” compared with Comparative Example 3 in which the conventional LSTM is adopted.
  • FIG. 7 shows the evaluation result of the model construction time in the learning device when the number of hidden layers of the learning device is changed in this embodiment and Comparative Examples 2 to 3.
  • the model construction time the average computation time per construction (1 epoch) required for construction when training data with a total number of time points of 16,560 was input to the learning device a plurality of times was evaluated. From this result, the model construction time of this embodiment is reduced by 83.7% on average compared to Comparative Example 3, and is also reduced by 63.4% on average compared to Comparative Example 2, and model construction It can be seen that the time is greatly reduced.
  • FIG. 8 shows the evaluation results of the average absolute error when the total number of points of training data input to the learning device in the learning phase in this embodiment and Comparative Examples 1 to 3 is changed.
  • the number of hidden layers of the learning device is set to “2”. From this result, it can be seen that in this embodiment, the estimation error is the smallest except when the total number of time points is “16,560”.
  • the average absolute error of the present embodiment is 3.33 [g]
  • Comparative Example 2 is 5.57 [g]
  • Comparative Example 3 is. Is 5.69 [g]
  • the error can be reduced by 40% or more in this embodiment.
  • detection of a predetermined event serving as a reference for elapsed time information added to input data can target various events.
  • a machine learning system that learns input data related to plant growth etc.
  • events are pollinated, flowering, fruit setting, harvesting, planting, pinching, sunrise, irrigation, rapid It may be an environmental change (for example, the temperature has changed more than a predetermined temperature).
  • a machine learning system that learns input data related to the growth of animals such as humans, birth, pregnancy, childbirth (laying eggs), body length reaches a predetermined value, weight reaches a predetermined value, and age reaches a predetermined age. It may be reached.
  • the machine learning system which learns the input data regarding the freshness etc. of food, it is good also as a harvest date, sterilization, a cold storage start, etc.
  • rain clouds may be applied to the predicted points, rain clouds may be applied to points that are a predetermined distance from the predicted points, and input data related to disease progression, etc.
  • the date of infection, the date of onset, medication, treatment may be used.
  • the opportunity learning system that learns input data related to fishing the amount of catch in the previous fishing, natural disasters such as earthquakes or tsunamis, local environmental changes such as cold waves or heat waves, seasonal changes or global warming It may be a global environmental change such as.
  • an event is generated from the generation of transmitted content, the inflow population into the target area, or the target area.
  • a machine learning system that learns input data related to traffic congestion, etc. as a traffic accident, a change in the inflow population into the target area, or a change in the outflow population from the target area, etc. Also good.
  • the input unit 7 of the information processing unit 5 detects a plurality of elapsed time information related to the elapsed time of the detection timing after the occurrence of a plurality of events detected by the event detection unit 3 for each sampling timing.
  • the input data may be generated in combination with the environmental data (hereinafter, such input data is referred to as “multi-scale time series data”).
  • the learning device 9 of the information processing unit 5 is configured by MLP.
  • the event detection unit 3 detects light amount data and irrigation amount data in the plant cultivation environment, and detects sunrise and irrigation as two events that affect evapotranspiration of the plant based on these data, and the input unit 7 generates input data including two pieces of elapsed time information after the occurrence of those events.
  • This “sunrise” event is an event in which sunlight is applied to the plant and evapotranspiration is promoted
  • the “irrigation” event is an event in which moisture is given to the plant and evapotranspiration is promoted.
  • the surrounding environment there are a plurality of events that occur instantaneously and affect environmental data over time.
  • the time scale of the influence of each event differs depending on the frequency of occurrence of each event, but according to the above configuration, time series features with different time scales can be superimposed in the model, and the target variable Prediction accuracy can be improved.
  • the MLP is adopted as the learning device, the number of parameters of the machine learning model can be suppressed, and the amount of required training data can be reduced.
  • the wilting data which is the data regarding the wilting extracted from the grass figure image acquired from plants, such as a tomato, using a camera etc. is input with training data, and a model And using this model and environmental data input including wilting data, an operation may be performed to estimate and predict the amount of change in plant stem diameter.
  • irrigation control according to the amount of change in stem diameter (moisture stress) is possible.
  • FIG. 9 shows the evaluation result of the average absolute error of the objective variable in the above-described modified example for estimating / predicting the amount of change in plant stem diameter.
  • it is obtained using the optical flow method from temperature [° C.], relative humidity [%], light intensity [V], irrigation amount [g], saturation [kPa], and grass figure images as explanatory variables.
  • 11 dimensional data and the elapsed time [minute] after irrigation as the elapsed time information and the elapsed time [minute] after sunrise are added to the training data and the environmental data, and the learner 9 uses the stem as an objective variable.
  • the average absolute error is calculated by predicting the water stress value DSR based on the variation in diameter in time series, and comparing the predicted value DSR with the water stress value DSR calculated from the change in stem diameter measured by the laser displacement meter. Asked.
  • the value DSR of the water stress is obtained by subtracting the stem diameter at the current time from the maximum stem diameter between the irrigation time immediately before the current time to be calculated and the current time. Evaluation is based on the case where the objective function is predicted using multi-scale time series data in the modified example (modified example 1), and in the modified example, the objective function is used using training data and environment data not including elapsed time information. Was performed by comparing the average absolute error when the total number of time points of the training data was changed (in Comparative Example 4). This result also shows that the average absolute error is reduced as a result of superimposing time series features of different temporal scales in the model when using multiscale time series data.
  • FIG. 10 shows a schematic configuration of a machine learning system 1A according to the modification.
  • the machine learning system 1A is a computer system that performs transmission rate control of the mobile communication network 201 by executing deep reinforcement learning that optimizes behavior by repeating trial and error.
  • This machine learning system 1A has a content transmission rate that allows delay in order to maximize the efficiency of accommodation in a communication network (bandwidth utilization efficiency) due to congestion of communication lines due to locality in demand for mobile data communication.
  • the target of transmission rate control is the content transmission rate in a plurality of mobile phone terminals (UE: User Equipment) 205 wirelessly connected to a plurality of radio communication base stations (eNB: evolved Node B) 203 constituting the mobile communication network 201. is there.
  • UE User Equipment
  • eNB evolved Node B
  • the machine learning system 1A includes an event detection server 3A and an information processing unit 5A.
  • the event detection server 3 ⁇ / b> A and the information processing unit 5 ⁇ / b> A are configured to be able to transmit / receive information to / from each other by wired communication or wireless communication, and also to transmit / receive information to / from the mobile communication network 201.
  • the hardware configurations of the event detection server 3A and the information processing unit 5A are the same as those shown in FIG.
  • the event detection server 3A functions as a detection unit that detects the occurrence of a predetermined event and an input unit that adds elapsed time information to input data input to the learning device.
  • the event detection server 3A detects the start of content data transmission in the UE 205 as the occurrence of an event each time.
  • the event detection server 3A repeatedly collects environmental data from the mobile communication network 201 at a plurality of continuous sampling timings, and transmits the environmental data for a plurality of continuous sampling timings to the information processing unit 5A.
  • This environment data includes UE information that is information related to the UE 205, connected eNB information that is information related to the eNB 203 to which the UE 205 is connected, and neighboring eNB information that is information related to the eNB 203 adjacent to the eNB 203.
  • the UE information includes a remaining data amount related to the content being transmitted by the UE 205, a delay tolerance time indicating an overall allowable time at the time of content transmission, and the like.
  • the connected eNB information and the neighboring eNB information include information on communication load in the eNB 203, UE connection number information, and the like.
  • the event detection server 3A detects the start of transmission of content data from a certain UE 205
  • the event detection server 3A calculates the elapsed time at the sampling timing of each environmental data from the detection timing, and the corresponding data included in the environmental data By subtracting the elapsed time from the delay tolerance time for the UE 205, the delay tolerance remaining time is generated as elapsed time information. Then, the event detection server 3A adds the delay tolerance remaining time related to the UE 205 to the environment data at each sampling timing, and transmits it to the information processing unit 5A.
  • the information processing unit 5A constructs a transmission rate control model by executing deep reinforcement learning using environment data acquired from the event detection server 3A.
  • the information processing unit 5A includes an input unit 7A, a learning device 9A, and an output unit 17A as functional components.
  • the input unit 7A inputs the environment data transmitted from the event detection server 3A to the learning device 9A, and the output unit 17A controls the transmission rate of the UE 205 based on the transmission rate derived by the learning device 9A.
  • a control signal is notified to the mobile communication network 201.
  • the learning device 9A of the information processing unit 5A optimizes the parameters of the model by learning the environmental data by deep reinforcement learning, and performs transmission rate control using the optimized model.
  • the learning device 9A is configured by DDQN (Double Deep Q-Network) in which deep learning is applied to Q learning which is a kind of reinforcement learning.
  • DDQN is a learning method that uses different models for selection and evaluation of action a.
  • the learning device 9A quantifies the value of the action a that can be taken with respect to the state s represented by the acquired environmental data as an action value function Q (s, a), and calculates Q (s, a). Optimize behavior by updating sequentially to maximize.
  • learning is possible by approximating the action value function Q (s, a) with DNN for a high-dimensional state, so that the number of states as in a mobile communication network is enormous. Q learning can be applied to the environment.
  • the learning device 9A performs the deep reinforcement learning on the state s represented by the environmental data, thereby setting the QoS (Quality of Service) level for determining the priority for giving the band to the UE 205 to “level”.
  • the action a is derived from the four stages from 0 ”to“ level 3 ”.
  • the learning device 9A calculates the reward r used in the deep reinforcement learning by the following equations (1) and (2) based on the environment data acquired after the transmission rate control.
  • the learning device 9A learns transmission rate control that eliminates temporal locality of communication traffic by increasing or decreasing the reward r depending on whether or not the current load L t of the eNB 203 exceeds the ideal load L ideal. To do.
  • the learning device 9A reduces the reward r when the QoS level at the current time t is different from the QoS level at the immediately preceding time t-1.
  • the machine learning system 1A by applying deep reinforcement learning to environment data to which the delay tolerance residual time is added as elapsed time information, the QoS state is complicated every moment, Even in a communication environment in which various types of content are transmitted at various timings, it is possible to prevent the band utilization efficiency from being biased.
  • deep reinforcement learning it is possible to dynamically build a transmission rate control model according to the situation of the mobile communication network while taking into account the delay tolerance of content, maximizing bandwidth utilization efficiency. Realized.
  • the learning device may be a supervised learning device in machine learning.
  • a model can be constructed based on the input data, and the temporal change of the phenomenon can be estimated and predicted by the model.
  • the learning device may be configured by a neural network or may be configured by a deep neural network.
  • more abstract time-series features can be superimposed from the input data, and the model construction in the learning device that learns the temporal change of the phenomenon can be made more efficient.
  • the input unit generates a combination of the input data at a plurality of consecutive time points and elapsed time information corresponding to the input data for each of the plurality of time points, and inputs the combination for each of the plurality of time points. You can do it. By adopting such a configuration, it is possible to further improve the efficiency of model construction in a learning device that learns temporal changes in phenomena by inputting elapsed time information in combination with input data at a plurality of consecutive time points. .
  • a detection unit that detects occurrence of a predetermined event is further provided, and the input unit calculates elapsed time information corresponding to a specific time point according to detection by the detection unit, and the elapsed time information is input to the input data. It may be added. Thereby, the elapsed time information based on the occurrence of a predetermined event can be added to the input data, and the learner can appropriately construct a model with a smaller amount of training data.
  • the input unit further adds and inputs the integrated value after the occurrence of the event of the value included in the input data to the input data, and the learning device optimizes the parameter further using the integrated value. It is good as well. Thereby, the integrated value after the occurrence of the predetermined event can be added to the input data, and the model can be appropriately constructed by the learning device with a smaller amount of training data.
  • the input unit further adds and inputs a statistic after the occurrence of the event of the value included in the input data to the input data, and the learning device further optimizes the parameter using the statistic. It is good as well. As a result, statistics after the occurrence of a predetermined event can be added to the input data, and the model can be appropriately constructed by the learning device with a smaller amount of training data.
  • the input unit may apply resampling of input data and input the input data to which resampling is applied in order to balance the distribution of objective variables included in the input data.
  • the distribution of the objective variable in the input data can be balanced, and the accuracy of estimation / prediction of the objective variable can be further improved.
  • the input data may include environmental data and elapsed time information related to a plant cultivation environment, and the environmental data is at least one of temperature, relative humidity, saturation, light quantity, and irrigation amount. Also good. This makes it possible to efficiently and appropriately construct a machine learning model that estimates and predicts the cultivation state of a plant.
  • the input data to which the elapsed time information is added may be data indicating a change with respect to the elapsed time after sunrise and a change with respect to the elapsed time after irrigation. And irrigation. Also in this case, a machine learning model for estimating / predicting the cultivation state of the plant can be efficiently and appropriately constructed.
  • the detection unit may detect the light amount data and the irrigation amount data, and the input unit may generate input data including the light amount data and the irrigation amount data. In this way, it is possible to more appropriately construct a machine learning model for estimating / predicting the cultivation state of a plant by constructing a machine learning model using environmental data relating to the amount of light and the amount of irrigation.
  • One aspect of the present invention is to use a machine learning system and a machine learning method for learning a temporal change of a phenomenon, and to appropriately build a machine learning model related to the temporal change of the phenomenon with a small amount of training data. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

少ない訓練データ量で現象の時間的変化に関する機械学習のモデルを適切に構築するために、一形態にかかる機械学習システム1は、特定の時点における入力データに対して、既定のイベントの発生後の特定の時点における経過時間に関する経過時間情報を付加して入力する入力部7と、入力部7によって入力された経過時間情報が付加された入力データを基に、機械学習によってモデルのパラメータを最適化する学習器9とを備える。

Description

機械学習システム及び機械学習方法
 本発明の一側面は、現象の時間的変化を学習する機械学習システム及び機械学習方法に関する。
 近年、植物、動物等の生物に関連した自然現象の時間的変化、株価等の社会現象の時間的変化をモデル化する機械学習の技術が浸透し始めている。下記非特許文献1には、時系列特徴を重畳した機械学習のモデルを構築できる手法である再帰型ニューラルネットワーク(RNN:Recurrent Neural Networks)について記載されている。また、下記非特許文献2及び下記非特許文献3には、RNNの一種としてのLSTM(Long Short-Term Memory)について記載されている。この手法では、RNNに比べて長期の時系列特徴をモデルに重畳することができ、様々な時系列データの推定あるいは予測に適用されている。
C.A.Duchanoy et al., "A novel recurrent neural network soft sensor via a differential evolution training algorithm for the tire contact patch", Neurocomputing,vol.235, no.26, pp.71-82, April 2017 S. Hochreiter and J. Schmidhuber, "Long short-term memory", Neural Computation, vol.9, no.8, Nov. 1997 F. A.Gers et al., "Learning to forget: Continual prediction with lstm", Neural computation, vol.12, no.10,pp.2451-2471, Jan. 2000
 上述した従来のLSTMの手法では、時間的変化を含む現象の学習させたい時間長に応じてモデルを構築する際に最適化すべきパラメータが増加し、訓練データ量を多くしなければモデルに時系列特徴を適切に重畳することが難しい。
 本発明の一側面は、上記課題に鑑みて為されたものであり、少ない訓練データ量で現象の時間的変化に関する機械学習のモデルを適切に構築できる機械学習システム及び機械学習方法を提供することを目的とする。
 上記課題を解決するため、本発明の一形態にかかる機械学習システムは、特定の時点における入力データに対して、既定の複数のイベントの発生後の前記特定の時点における経過時間に関する複数の経過時間情報を付加して入力する入力部と、前記入力部によって入力された前記経過時間情報が付加された前記入力データを基に、機械学習によってモデルのパラメータを最適化する学習器と、を備える。
 あるいは、本発明の他の形態にかかる機械学習方法は、入力部が、特定の時点における入力データに対して、既定の複数のイベントの発生後の前記特定の時点における経過時間に関する複数の経過時間情報を付加して入力する入力ステップと、学習器が、前記入力部によって入力された前記経過時間情報が付加された前記入力データを基に、機械学習によってモデルのパラメータを最適化する学習ステップと、構築された前記モデルによって現象の時間的変化を推定・予測する推定・予測ステップと、を備える。
 上記形態の機械学習システムあるいは機械学習方法によれば、特定の時点における入力データと、既定のイベント発生後のその特定の時点における経過時間に関する経過時間情報とを含む訓練データを用いて、モデルのパラメータが最適化される。これにより、学習器が比較的少ない量の訓練データによって適切にモデル構築することができる。その結果、現象の時間的変化を学習する学習器におけるモデル構築を効率化することができる。
 本発明の一側面によれば、少ない訓練データ量で現象の時間的変化に関する機械学習のモデルを適切に構築できる。
実施形態にかかる機械学習システムの概略構成を示す図である。 図1の情報処理部5を構成するコンピュータのハードウェア構成を示す図である。 図1の入力部7によって生成される環境データに含まれる説明変数及び経過時間情報の時間変化を示すグラフである。 図1の機械学習システム1による目的変数の推定・予測処理の手順を示すフローチャートである。 比較例2,3において用いられる訓練データのサンプリングタイミングを示すタイミングチャートである。 本実施形態及び比較例1~3において学習器の隠れ層の層数を変更した場合の平均絶対誤差の評価結果を示すグラフである。 本実施形態及び比較例2~3において学習器の隠れ層の層数を変更した場合の学習器におけるモデル構築時間の評価結果を示すグラフである。 本実施形態及び比較例1~3において訓練データの合計時点数を変更した場合の平均絶対誤差の評価結果を示すグラフである。 変形例及び比較例において訓練データの合計時点数を変更した場合の平均絶対誤差の評価結果を示すグラフである。 変形例にかかる機械学習システム1Aの概略構成を示す図である。
 以下、図面を参照しつつ本発明に係る機械学習システムの好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。
 まず、図1~2を用いて、本発明の一実施形態にかかる機械学習システム1の機能および構成を説明する。図1に示す機械学習システム1は、現象の時間的変化を機械学習によって学習するコンピュータシステムであり、トマト等の植物の栽培環境(自然現象)に関する環境データ(説明変数)を学習して植物の生育状態としての灌水後の積算蒸発散量を目的変数として推定・予測するコンピュータシステムとして例示されている。
 本実施形態で使用する機械学習は、目的変数の既知の値を含む訓練データ(トレーニングデータ)を学習することで、活性化関数、重み付け値等のモデルのパラメータを最適化することによりモデルを構築し、そのモデルを用いて未知の値を予測する教師あり機械学習である。本実施形態では、数値列である訓練データを用い、その訓練データによって最適化されたパラメータを用いて未知の時点における値(現象)の時間的変化を推定・予測する。ここで、本明細書では、推定(Estimation)とは現在を予想することを意味するとし、予測(Prediction)とは将来を予想することを意味するとする。なお、数値列とは、複数の時点における現象の様々な観測値によって得られた数値の系列であり、その現象をある規則に基づいて複数の時点で観測することにより得られた数値の系列である。本実施形態では、多層パーセプトロン(MLP:Multilayer perceptron)によって構成された学習器を用いた教師あり機械学習を採用しているが、必ずしもその方式には限定されない。例えば、学習器は、教師あり機械学習器の1種である、ランダムフォレスト、サポートベクトルマシン、ニューラルネットワーク(NN)、ディープニューラルネットワーク(DNN)などによって構成されてもよい。
 機械学習システム1が学習する対象としては、トマト等の植物とその環境データが挙げられているが、これには限定されない。例えば、機械学習システム1は、動物または食品等のその他の有体物、天候、病気、または漁獲等の自然現象、通信ネットワーク、交通、ライフライン、株価、または需給等の社会現象を対象としてもよい。
 図1に示すように、機械学習システム1は、イベント検知部3と情報処理部5とを含んで構成されている。本実施形態では、イベント検知部3と情報処理部5とが別個の装置によって構成されているが、一体化された装置によって構成されてもよいし、それぞれがデータ送受信機能を有する複数の装置によって構成されていてもよい。
 イベント検知部3は、既定のイベントの発生を検知する部分である。例えば、機械学習システム1が予測する目的変数への影響が予測されるイベントが予め定められ、イベント検知部3はそのイベントの発生を検知する。例えば、機械学習システム1が学習する対象が植物である場合には、既定のイベントとして、定植、摘心、灌水、施肥、交配、病害虫防除、収穫、日の出、日の入り、開花、あるいは気温変化等が想定される。このイベント検知部3は、温度センサ、光センサ、カメラ等の外部センサ装置からの信号を基に既定のイベントの発生を検知してもよいし、ユーザ等の外部からの入力に応じて既定のイベントの発生を検知してもよい。この際、カメラからの画像データを基に検知する場合には、画像データを機械学習を用いて処理することでイベントの発生を検知してもよい。また、イベント検知部3にはイベントに関する状態を検知するセンサ装置自体であってもよい。
 情報処理部5は、機械学習を実行する装置あるいは装置群であって、機械学習を実行するための入力データを、外部から有線通信あるいは無線通信によって取得可能に構成されている。また、情報処理部5は、イベント検知部3からの信号も、有線通信あるいは無線通信によって取得可能に構成されている。この情報処理部5は1台以上のコンピュータを備え、複数台のコンピュータを備える場合には、後述する情報処理部5の各機能要素は分散処理により実現される。個々のコンピュータの種類は限定されない。例えば、据置型または携帯型のパーソナルコンピュータ(PC)を用いてもよいし、ワークステーションを用いてもよいし、高機能携帯電話機(スマートフォン)、携帯電話機、携帯情報端末(PDA)などの携帯端末を用いてもよい。あるいは、様々な種類のコンピュータを組み合わせて情報処理部5を構築してもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
 情報処理部5を構成するコンピュータ100の一般的なハードウェア構成を図2に示す。コンピュータ100は、オペレーティングシステムやアプリケーション・プログラムなどを実行する演算装置であるCPU(プロセッサ)101と、ROM及びRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。当然ながら、搭載されるハードウェアモジュールはコンピュータ100の種類により異なる。例えば、据置型のPCおよびワークステーションは入力装置および出力装置としてキーボード、マウス、およびディスプレイを備えることが多いが、スマートフォンではタッチパネルが入力装置および出力装置として機能することが多い。
 後述する情報処理部5の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
 図1に戻って、情報処理部5は、機能的構成要素として、入力部7及び学習器9を備える。
 入力部7は、外部から取得した信号及び各種データを基に入力データを生成し、その入力データを学習器9に入力する部分である。学習器9に入力する入力データとしては、学習器9において機械学習のモデルを構築する学習フェーズで用いられる訓練データと、学習器9において実際に目的変数を推定・予測する推定・予測フェーズで用いられる環境データとに分けられる。
 詳細には、入力部7は、特定の検知タイミング(時点)において外部のセンサ装置等で検知された環境データに対して、イベント検知部3によって検知された既定のイベントの発生後の検知タイミングの経過時間に関する経過時間情報を付加する。このとき、入力部7は、イベント検知部3から取得した信号によって規定のイベントの発生タイミングを検知し、その発生タイミングからの検知タイミングまでの時間を計算することによって経過時間情報を算出する。そして、入力部7は、検知された環境データとその環境データに対応する経過時間情報との組み合わせを、連続した複数の検知タイミング(サンプリングタイミング)毎に生成し、それらの複数の組み合わせを環境データとして学習器9に入力する。なお、学習フェーズにおいて、入力部7は、訓練データを学習器9に入力する場合には、環境データ中のデータの組み合わせに対して、外部から取得された目的変数に関する実測値を付加する。
 図3には、入力部7によって生成される環境データに含まれる説明変数及び経過時間情報の時間変化の一例を示す。図3(a)に示す例では、環境データに3つの説明変数V1,V2,V3の時系列データが含まれている。また、それぞれのサンプリングタイミングの時系列データには、図3(b)に示すようなサンプリングタイミングに対応する既定のイベントの発生タイミングT1~T8からの経過時間ETを示す経過時間情報が付加される。
 例えば、入力部7は、トマトの栽培環境に関する環境データとして、温湿度センサと光センサで計測された栽培環境における温度、湿度、及び光量のデータの組み合わせを生成する。また、入力部7は、環境データに対して、重量センサ等で計測されたトマトの栽培ポットの重量変化を基にした積算蒸発散量のデータを付加して訓練データを生成する。
 ここで、入力部7は、環境データに対して、既定のイベントの発生後のサンプリングタイミングにおける説明変数の積算値をさらに付加してもよいし、環境データに対して経過時間情報に代えて積算値を追加してもよい。また、入力部7は、環境データに対して、既定のイベントの発生後のサンプリングタイミングにおける説明変数の統計量をさらに付加してもよいし、環境データに対して経過時間情報に代えて統計量を追加してもよい。付加する統計量としては、分散値、平均値等が挙げられる。
 なお、入力部7では、訓練データに含まれる目的変数の分布を均衡化させるために、訓練データの再サンプリングを適用してもよい。再サンプリングの手法として、目的変数の分布における度数の小さいデータを人工的に増幅するオーバーサンプリングや、度数の大きいデータを除去するアンダーサンプリング、および両者を組み合わせ回帰問題にも適用できるSMOTER(SMOTE for Regression)などが挙げられるが、必ずしもこれら手法には限定されない。これにより、訓練データにおける目的変数の分布を均衡化でき、目的変数の推定・予測の精度の向上が実現できる。
 学習器9は、入力部7から入力された入力データを基に機械学習の処理を実行する機能部である。すなわち、学習器9は、学習フェーズにおいては、訓練データを用いて機械学習の学習アルゴリズムに従ってモデルのパラメータを最適化することによりモデルを構築し、推定・予測フェーズにおいては、構築されたモデルを用いて環境データから目的変数の各サンプリングタイミングにおける時系列の推定・予測値VPを生成および出力する。例えば、学習器9は、栽培環境の温度、湿度、及び光量等を含む環境データを用いて、トマトの積算蒸発散量を推定・予測する。なお、学習器9は、経過時間情報が付加された環境データ、あるいは経過時間情報が付加された訓練データを用いて機械学習の処理を実行するが、これらのデータに付加された積算値に関する情報をさらに用いて機械学習の処理を実行してもよいし、これらのデータに付加された統計量に関する情報をさらに用いて機械学習の処理を実行してもよい。
 詳細には、学習器9は、複数のノードを含む入力層11と、それぞれが1つ以上のノードを含む1つ以上の隠れ層13と、出力層15とを含むディープニューラルネットワーク(DNN:Deep Neural Network)の一種であるMLPによって構成されている。それぞれの隠れ層13は、全結合層(FC:Fully Connected layer)を含む。この学習器9において構築される機械学習のモデルは、個々のノードの活性化関数、あるいは個々のノード間の出力における重み付け値等の各種のパラメータによって規定され、これらのパラメータは学習フェーズにおいて最適なパラメータに設定される。
 次に、図4を参照しながら、機械学習システム1による目的変数の予測処理の手順について説明すると共に、実施形態にかかる機械学習方法について詳述する。図4は、機械学習システム1による目的変数の予測処理の手順を示すフローチャートである。
 まず、機械学習システム1において、情報処理部5へのユーザ入力等を契機に学習フェーズが開始される(ステップS01)。学習フェーズが開始されると、イベント検知部3によって規定のイベントの発生が繰り返し検知され、その検知タイミングを通知するための信号が情報処理部5に繰り返し出力される(ステップS02)。それに並行して、情報処理部5の入力部7により、時系列の環境データと、目的変数に関する時系列の実測値とが取得される(ステップS03)。
 その後、入力部7によって、環境データ中のデータ系列のそれぞれのサンプリングタイミングに関して、イベントの発生タイミングを基準にした経過時間情報が算出され、それぞれのサンプリングタイミングのデータ系列に対して、経過時間情報と目的変数の実測値とが付加されて訓練データが生成される(ステップS04)。そして、入力部7から学習器9に訓練データが入力され、学習器9内で訓練データを用いてモデルの構築及び検証が行われる(ステップS05)。モデルの構築とは、機械学習のモデルを規定するパラメータを訓練データを用いて最適化する処理であり、モデルの検証とは、学習フェーズにおいて、構築されたモデルによって予測される値が実測値にあっているかどうかを検証する処理である。
 その後、情報処理部5へのユーザ入力等を契機に推定・予測フェーズが開始される(ステップS06)。推定・予測フェーズが開始されると、イベント検知部3によって規定のイベントの発生が繰り返し検知され、その検知タイミングを通知するための信号が情報処理部5に繰り返し出力される(ステップS07)。それに並行して、情報処理部5の入力部7により、時系列の環境データが取得される(ステップS08)。
 その後、入力部7によって、環境データ中のデータ系列のそれぞれのサンプリングタイミングに関して、イベントの発生タイミングを基準にした経過時間情報が算出され、それぞれのサンプリングタイミングのデータ系列に対して、経過時間情報が付加される(ステップS09)。そして、入力部7から学習器9に環境データが入力され、学習器9内で環境データを用いて目的変数の推定・予測値の生成及び出力が行われる(ステップS10)。
 以上説明した実施形態に係る機械学習システム1及び機械学習方法によれば、複数の時点における環境データと、既定のイベント発生後のそれらの複数の時点における経過時間に関する経過時間情報とを含む訓練データを用いて、学習器9における機械学習によるモデル構築のためのパラメータが最適化される。これにより、学習器9が、従来の機械学習の方式であるLSTMと比較して少ない量の訓練データによって適切にモデル構築することができる。すなわち、再帰構造を持たず最適化すべきパラメータの少ないMLP等の方式でも時系列特徴を重畳したモデルを構築できるため、訓練データ量の削減と推定・予測値の推定精度の向上との両立も図れる。さらには、学習器におけるモデル構築のための演算時間も削減でき、モデル構築を効率化することができる。
 加えて本実施形態では、任意のイベントを設定することで、訓練データに含まれる学習させたい時間的変化を長期間化することが容易となる。このように長期間の時間的変化を学習させられるようになることで、現象の長期間の時系列特徴をモデルに反映させることができ、推定・予測値の精度をさらに向上させることができる。
 また、学習器9を、機械学習における教師あり学習器によって構成すれば、訓練データ及び実測値を基にモデルを構築してそのモデルによって現象の時間的変化を推定・予測することができる。また、学習器9を、DNNによって構成すれば、訓練データから複雑な時系列特徴をも抽出することができ、現象の時間的変化を学習する学習器におけるモデル構築の表現力が高まることで、推定・予測値の精度をさらに向上させることができる。
 さらに、学習器9が環境データに関する積算値をさらに付加的に用いてモデルを構築する場合には、学習器9がさらに少ない量の訓練データによって適切にモデル構築することができる。また、学習器9が環境データに関する統計量をさらに付加的に用いてモデルを構築する場合にも、学習器9がさらに少ない量の訓練データによって適切にモデル構築することができる。
 以下、本実施形態に係る機械学習システム1及び機械学習方法の効果について、比較例と比較しつつ評価する。評価においては、説明変数としての温度[°C]、相対湿度[%]、光量[V]、灌水量[g]、及び飽差[kPa]と、経過時間情報としての灌水後の経過時間[分]及び日の出後の経過時間[分]とを訓練データ及び環境データ中に付加させ、学習器によって目的変数であるトマトにおける積算蒸発散量[g]を予測させた。評価は、下記のような比較例1~3と本実施形態との間において、目的変数の推定精度及びモデル構築時間を比較することにより行った。すなわち、比較例1においては、本実施形態の機械学習システム1において経過時間情報を付加しない訓練データ及び環境データを用いて処理させた。比較例2においては、経過時間情報が付加されていない短期シーケンスの訓練データ及び環境データを用いて従来のLSTMの学習器によって処理させた。比較例3においては、経過時間情報が付加されていない長期シーケンスの訓練データ及び環境データを用いて従来のLSTMの学習器によって処理させた。
 図5(a)は、比較例2において用いられる短期シーケンスの訓練データのサンプリングタイミングを示すタイミングチャートである。このように、比較例2で用いられる環境データあるいは訓練データは、1日のうちの時刻7時~時刻19時までの所定期間P内でランダムに設定された複数の期間P1において、所定間隔(例えば1分)をサンプリングタイミングとした説明変数を含む。この期間P1は、可変の時点数(例えば、10~260の時点数)を含むようにチューニング可能とされ、その開始タイミングは期間P1が日を跨ることがないようにランダムに設定される。さらに、この複数の期間P1は、所定の合計時点数に達するまで複数の期間Pにおいて繰り返し設定され、繰り返し設定された期間P1分の説明変数が環境データあるいは訓練データに含まれる。また、図5(b)は、比較例3において用いられる長期シーケンスの訓練データのサンプリングタイミングを示すタイミングチャートである。比較例3で用いられる環境データあるいは訓練データは、1日のうちの時刻7時~時刻19時までの所定期間Pと一致した比較的長期の期間P2において、所定間隔(例えば1分)をサンプリングタイミングとした説明変数を含む。この期間P2は、所定の合計時点数に達するまで1日ごとに繰り返し設定され、繰り返し設定された期間P2分の説明変数が環境データあるいは訓練データに含まれる。これに対して、比較例1及び本実施形態においては、比較例2,3と同じ期間内において同様に所定の合計時点数に達するまでランダムに設定されたサンプリングタイミングの説明変数を含む環境データあるいは訓練データが用いられる。
 図6には、本実施形態及び比較例1~3において学習器の隠れ層の層数を変更した場合の平均絶対誤差の評価結果を示している。ここでは、学習フェーズでの訓練及び検証に用いる訓練データの合計時点数をそれぞれ16,560、5,040とし、推定・予測フェーズで生成された目的変数の評価に用いる環境データの時点数を6,480とした。この結果より、本実施形態の平均絶対誤差は比較例1に比較して全ての層数において3[g]程度に大きく低減されていることがわかる。これは、本実施形態においては、短期及び長期の時間情報を説明変数に含めた学習が可能となったことを示している。さらに、本実施形態では、全ての層数において従来のLSTMを採用した比較例2と同程度まで推定精度が高められており、従来のLSTMを採用した比較例3に比較して層数“2”以外の推定精度が向上している。これは、時系列特徴を事前抽出して説明変数に加えることで、再帰構造を持たないMLPでも、時系列特徴をモデルに重畳しLSTMと同等の精度で目的変数を推定できることを示している。
 図7には、本実施形態及び比較例2~3において学習器の隠れ層の層数を変更した場合の学習器におけるモデル構築時間の評価結果を示している。ここでは、モデル構築時間として、合計時点数が16,560の訓練データを複数回学習器に入力した際の構築にかかる1回(1epoch)当たりの平均演算時間を評価した。この結果より、本実施形態のモデル構築時間は、比較例3に比較して平均83.7%削減されており、比較例2に比較しても平均63.4%削減されており、モデル構築時間が大きく低減されていることがわかる。
 図8には、本実施形態及び比較例1~3において学習フェーズにおいて学習器に入力する訓練データの合計時点数を変更した場合の平均絶対誤差の評価結果を示している。ここでは、学習器の隠れ層の層数を“2”に設定した。この結果より、本実施形態では、合計時点数が“16,560”の場合を除いては最も推定誤差が小さいことがわかる。特に、最小の合計時点数“4,320”においては、本実施形態の平均絶対誤差が3.33[g]であるのに対して、比較例2が5.57[g]、比較例3が5.69[g]となっており、本実施形態において誤差を40パーセント以上低減できている。つまり、本実施形態では、時系列特徴を事前抽出しパラメータ数の少ないMLPの構成でモデルを構築することにより、少ない量の訓練データによるモデルのパラメータの最適化が可能とされたといえる。
 なお、本発明は、上述した実施形態の態様に限定されるものではない。
 例えば、機械学習システム1において、入力データに付加する経過時間情報の基準となる既定のイベントの検出は、様々なイベントを対象とすることができる。
 例えば、自然現象に関わる入力データの例として、植物の生育等に関わる入力データを学習する機械学習システムにおいては、イベントを、受粉、開花、着果、収穫、定植、摘心、日の出、灌水、急激な環境変化(例えば、温度が所定温度以上変化した等)等としてもよい。また、ヒト等の動物の生育等に関わる入力データを学習する機械学習システムにおいては、誕生、妊娠、出産(産卵)、体長が所定値に達する、体重が所定値に達する、年齢が所定年齢に達する等としてもよい。また、食品の鮮度等に関わる入力データを学習する機械学習システムにおいては、収穫日、殺菌、低温保存開始等としてもよい。また、降水量等に関わる入力データを学習する機械学習システムにおいては、予測地点に雨雲がかかる、予測地点から所定距離の地点に雨雲がかかる等としてもよいし、病気の進行等に関わる入力データを学習する機械学習システムにおいては、感染日、発症日、投薬、施術(手術、放射線治療等)等としてもよい。また、漁獲に関わる入力データを学習する機会学習システムにおいては、前回の漁における漁獲量、地震あるいは津波などの自然災害、寒波あるいは熱波などの局所的な環境変化、季節の変わり目あるいは地球温暖化などの大域的な環境変化等としてもよい。
 一方で、社会現象に関わる入力データの例として、通信ネットワークのトラフィック等に関わる入力データを学習する機械学習システムにおいては、イベントを、送信コンテンツの生成、対象エリア内への流入人口あるいは対象エリアからの流出人口の変化等としてもよく、交通混雑状態等に関わる入力データを学習する機械学習システムにおいては、交通事故、対象エリア内への流入人口の変化あるいは対象エリアからの流出人口の変化等としてもよい。また、ライフラインにおける需要に関わる入力データを学習する機械学習システムにおいては、自然災害(地震、台風など)、局所的な環境変化(寒波、熱波など)、大域的な環境変化(季節の変わり目、地球温暖化)等としてもよいし、株価の変動等に関わる入力データを学習する機械学習システムにおいては、新製品やサービス等の発表、自然災害、不祥事等の事件、関連会社の株価の急激な変化等としてもよく、購買需要等に関わる入力データを学習する機械学習システムにおいては、発売日、局所的な環境変化(寒波・熱波など)、大域的な環境変化(季節の変わり目、地球温暖化)等としてもよい。
 上記実施形態においては、情報処理部5の入力部7が、イベント検知部3によって検出された複数のイベントの発生後の検知タイミングの経過時間に関する複数の経過時間情報を、サンプリングタイミングごとに検知された環境データに組み合わせて、入力データを生成してもよい(以下、このような入力データを「マルチスケール時系列データ」と言う)。この場合、情報処理部5の学習器9は、MLPによって構成される。例えば、イベント検知部3によって植物の栽培環境における光量データ及び灌水量データを検出し、それらのデータを基に、植物の蒸発散に影響する2つのイベントとして、日の出及び灌水を検出し、入力部7が、それらのイベントの発生後の2つの経過時間情報を含む入力データを生成する。この「日の出」のイベントは、植物に日光が当たり蒸発散が促進されるイベントであり、「灌水」のイベントは、植物に水分が与えられ蒸発散が促進されるイベントである。
 一般に、周囲環境においては、瞬時的に発生し、環境データに経時的な影響を与えるイベントが複数存在する。上記変形例によれば、学習フェーズにおいてそのような複数のイベントの影響の時系列性を考慮したモデルの構築が可能となる。すなわち、イベントごとの発生頻度に応じて各イベントの与える影響の時間的スケールが異なるが、上記構成によれば、異なった時間的スケールの時系列特徴をモデル内に重畳することができ、目的変数の予測精度を向上させることができる。また、学習器としてMLPを採用しているので、機械学習のモデルのパラメータ数を抑えることができ、要求される訓練データの量も削減することができる。
 また、上記実施形態においては、情報処理部5において、トマト等の植物からカメラ等を用いて取得された草姿画像から抽出された萎れに関するデータである萎れデータを、訓練データとともに入力してモデルを構築し、このモデルと、萎れデータを含んで入力された環境データとを用いて、植物の茎径の変化量を推定・予測するように動作してもよい。このような情報処理部5によれば、茎径の変化量(水分ストレス)に応じた灌水制御が可能となる。
 図9には、植物の茎径の変化量を推定・予測する上記変形例における目的変数の平均絶対誤差の評価結果を示している。ここでは、説明変数としての温度[°C]、相対湿度[%]、光量[V]、灌水量[g]、飽差[kPa]、及び草姿画像からオプティカルフロ―法を用いて得られた11次元のデータと、経過時間情報としての灌水後の経過時間[分]及び日の出後の経過時間[分]とを訓練データ及び環境データ中に付加させ、学習器9によって目的変数である茎径の変動に基づく水分ストレスの値DSRを時系列に予測させ、予測値DSRをレーザ変位計で計測した茎径の変化量から計算される水分ストレスの値DSRと比較することにより平均絶対誤差を求めた。ここで、水分ストレスの値DSRは、計算対象の現在時刻の直前の灌水の時刻から現在時刻までの間の最大の茎径から、現在時刻の茎径を引き算することにより求められる。評価は、上記変形例においてマルチスケール時系列データを用いて目的関数を予測させた場合(変形例1)と、上記変形例において、経過時間情報を含まない訓練データ及び環境データを用いて目的関数を予測させた場合(比較例4)とで、訓練データの合計時点数を変更したときの平均絶対誤差を比較することにより行った。この結果からも、マルチスケール時系列データを用いた場合のほうが、異なった時間的スケールの時系列特徴をモデル内に重畳することができる結果、平均絶対誤差が低減されていることがわかる。
 以下、上記実施形態の変形例として、通信ネットワークの時間的に変化するトラフィックに関わる入力データを学習する機械学習システムについて説明する。
 図10には、変形例にかかる機械学習システム1Aの概略構成を示している。機械学習システム1Aは、試行錯誤を繰り返すことで行動を最適化する深層強化学習を実行することでモバイル通信ネットワーク201の送信レート制御を行うコンピュータシステムである。この機械学習システム1Aは、モバイルデータ通信の需要に局所性が生じることによって通信回線が混雑し通信ネットワークへの収容効率(帯域利用効率)を最大化するために、遅延を許容するコンテンツの送信レートを制御して負荷分散を行う。送信レート制御の対象は、モバイル通信ネットワーク201を構成する複数の無線通信基地局(eNB:evolved Node B)203に無線接続する複数の携帯電話端末(UE:User Equipment)205におけるコンテンツの送信レートである。
 すなわち、機械学習システム1Aは、イベント検知用サーバ3A及び情報処理部5Aを含んで構成される。イベント検知用サーバ3A及び情報処理部5Aは、有線通信あるいは無線通信によって、相互に情報の送受信が可能にされるとともに、モバイル通信ネットワーク201との間でも情報の送受信が可能に構成されている。また、イベント検知用サーバ3A及び情報処理部5Aのハードウェア構成は、図2に示す構成と同様である。
 イベント検知用サーバ3Aは、既定のイベントの発生を検知する検知部、及び学習器に入力する入力データに対して経過時間情報を付加する入力部として機能する。ここでは、イベント検知用サーバ3Aは、UE205におけるコンテンツデータの送信開始をイベントの発生としてその都度検知する。
 具体的には、イベント検知用サーバ3Aは、複数の連続したサンプリングタイミングで、環境データをモバイル通信ネットワーク201から繰り返し収集し、連続した複数のサンプリングタイミング分の環境データを情報処理部5Aに送信する。この環境データには、UE205に関する情報であるUE情報、UE205が接続中のeNB203に関する情報である接続中eNB情報、及びそのeNB203に隣接するeNB203に関する情報である周辺eNB情報が含まれる。UE情報には、UE205が送信中のコンテンツに関する残存データ量、コンテンツ送信時の全体の許容時間を示す遅延耐性時間等が含まれる。接続中eNB情報及び周辺eNB情報には、eNB203における通信負荷に関する情報、UE接続数情報等が含まれる。
 さらに、イベント検知用サーバ3Aは、あるUE205からのコンテンツデータの送信開始を検知した場合には、その検知タイミングからのそれぞれの環境データのサンプリングタイミングにおける経過時間を算出し、環境データに含まれる該当のUE205に関する遅延耐性時間から経過時間を減算することにより、遅延耐性残余時間を経過時間情報として生成する。そして、イベント検知用サーバ3Aは、それぞれのサンプリングタイミングにおける環境データに該当UE205に関する遅延耐性残余時間を付加して情報処理部5Aに送信する。
 情報処理部5Aは、イベント検知用サーバ3Aから取得した環境データを用いて深層強化学習を実行することにより送信レート制御モデルを構築する。この情報処理部5Aは、機能的な構成要素として、入力部7A、学習器9A、及び出力部17Aを備える。入力部7Aは、イベント検知用サーバ3Aから送信されてきた環境データを学習器9Aに入力し、出力部17Aは、学習器9Aによって導出された送信レートを基に、UE205の送信レートを制御する制御信号をモバイル通信ネットワーク201へ通知する。
 情報処理部5Aの学習器9Aは、環境データを深層強化学習によって学習することによってモデルのパラメータを最適化し、最適化されたモデルを用いて送信レート制御を行う。例えば、学習器9Aは、強化学習の一種であるQ学習に深層学習を適用したDDQN(Double Deep Q-Network)によって構成されている。DDQNは、行動aの選択と評価とにそれぞれ異なるモデルを使用する学習方法である。
 具体的には、学習器9Aは、取得した環境データで表される状態sに対して取りうる行動aの価値を行動価値関数Q(s,a)として定量化し、Q(s,a)を最大化するように逐次更新することで行動を最適化する。このような学習器9Aにおいては、高次元な状態に対して行動価値関数Q(s,a)をDNNで近似することで学習可能とすることにより、モバイル通信ネットワークのような状態数が膨大な環境に対してQ学習を適用することができる。
 さらに具体的には、学習器9Aは、環境データによって表される状態sに対して深層強化学習を行うことで、UE205に帯域を与える優先度を決定するQoS(Quality of Service)レベルを“レベル0”~“レベル3”までの4段階の間から行動aとして導出する。なお、学習器9Aは、深層強化学習において用いる報酬rを、送信レート制御後に取得された環境データを基に下記の式(1)及び式(2)によって計算する。
r=-1 if L>Lideal
r=+1 if L≦Lideal   …(1)
r=-1 if QoSt-1≠QoS
r=0  if QoSt-1=QoS   …(2)
つまり、学習器9Aは、現状のeNB203の負荷Lが理想負荷Lidealを超過しているか否かで報酬rを増減させることで、通信トラフィックの時間的局所性を解消する送信レート制御を学習する。また、QoSレベルが安定せずに学習が収束しないことを回避するために、学習器9Aは、現在時刻tのQoSレベルと直前の時刻t-1のQoSレベルとが異なる場合に報酬rを減少させる。
 上記のような機械学習システム1Aによれば、経過時間情報として遅延耐性残余時間が付加された環境データに対して深層強化学習を適用することにより、QoSの状態が時々刻々と複雑化したり、多種多様な種類のコンテンツが様々なタイミングで送信される通信環境であっても、帯域利用効率に偏りが生じることを防止できる。特に、深層強化学習が適用されることで、コンテンツの遅延耐性に考慮しながらモバイル通信ネットワークの状況に応じて送信レート制御のモデルを動的に構築することができ、帯域利用効率の最大化が実現される。
 ここで、上記実施形態では、学習器は、機械学習における教師あり学習器によって構成されている、こととしてもよい。かかる学習器を備えれば、入力データを基にモデルを構築してそのモデルによって現象の時間的変化を推定・予測することができる。
 また、学習器は、ニューラルネットワークによって構成されている、こととしてもよいし、ディープニューラルネットワークによって構成されている、こととしてもよい。この場合、入力データからより抽象的な時系列特徴を重畳することができ、現象の時間的変化を学習する学習器におけるモデル構築をより効率化することができる。
 また、前記入力部は、連続した複数の時点における前記入力データと前記入力データに対応する経過時間情報との組み合わせを、前記複数の時点毎に生成し、前記複数の時点毎の前記組み合わせを入力する、こととしてもよい。かかる構成を採れば、連続した複数の時点における入力データのそれぞれに経過時間情報を組み合わせて入力することで、現象の時間的変化を学習する学習器におけるモデル構築をより一層効率化することができる。
 また、既定のイベントの発生を検知する検知部をさらに備え、入力部は、検知部における検知に応じて特定の時点に対応する経過時間情報を算出し、当該経過時間情報を入力データに対して付加する、こととしてもよい。これにより、既定のイベントの発生を基準にした経過時間情報を入力データに付加することができ、学習器がより少ない量の訓練データで適切にモデル構築することができる。
 また、入力部は、入力データに対して、入力データに含まれる値のイベントの発生後における積算値をさらに付加して入力し、学習器は、積算値をさらに用いてパラメータを最適化する、こととしてもよい。これにより、既定のイベントの発生後における積算値を入力データに付加することができ、学習器がさらに少ない量の訓練データで適切にモデル構築することができる。
 また、入力部は、入力データに対して、入力データに含まれる値のイベントの発生後における統計量をさらに付加して入力し、学習器は、統計量をさらに用いてパラメータを最適化する、こととしてもよい。これにより、既定のイベントの発生後における統計量を入力データに付加することができ、学習器がさらに少ない量の訓練データで適切にモデル構築することができる。
 さらに、入力部は、入力データに含まれる目的変数の分布を均衡化させるために、入力データの再サンプリングを適用し、再サンプリングが適用された入力データを入力する、こととしてもよい。これにより、入力データにおける目的変数の分布を均衡化でき、目的変数の推定・予測の精度をさらに向上させることができる。
 また、入力データは、植物の栽培環境に関する環境データおよび経過時間情報を含む、ことでもよいし、環境データは、温度、相対湿度、飽差、光量、灌水量のうちの少なくとも1つであってもよい。これにより、植物の栽培状態を推定・予測する機械学習のモデルを効率的かつ適切に構築することができる。
 さらに、経過時間情報が付加された入力データは、日の出後の経過時間に対する変化、および灌水後の経過時間に対する変化を示すデータであってもよいし、経過時間情報の基となるイベントは、日の出および灌水であってもよい。この場合も、植物の栽培状態を推定・予測する機械学習のモデルを効率的かつ適切に構築することができる。
 また、検知部は、光量データおよび灌水量データを検出し、入力部は、光量データおよび灌水量データを含む入力データを生成してもよい。こうすれば、光量および灌水量に関する環境データを用いて機械学習のモデルを構築することにより、植物の栽培状態を推定・予測する機械学習のモデルをより適切に構築することができる。
 本発明の一側面は、現象の時間的変化を学習する機械学習システム及び機械学習方法を使用用途とし、少ない訓練データ量で現象の時間的変化に関する機械学習のモデルを適切に構築できるものである。
 1,1A…機械学習システム、3…イベント検知部(検知部)、3A…イベント検知用サーバ(入力部、検知部)5,5A…情報処理部、7,7A…入力部、9,9A…学習器。

Claims (15)

  1.  特定の時点における入力データに対して、既定の複数のイベントの発生後の前記特定の時点における経過時間に関する複数の経過時間情報を付加して入力する入力部と、
     前記入力部によって入力された前記経過時間情報が付加された前記入力データを基に、機械学習によってモデルのパラメータを最適化する学習器と、
    を備える機械学習システム。
  2.  前記学習器は、機械学習における教師あり学習器によって構成されている、
    請求項1記載の機械学習システム。
  3.  前記学習器は、ニューラルネットワークによって構成されている、
    請求項1又は2記載の機械学習システム。
  4.  前記学習器は、ディープニューラルネットワークによって構成されている、
    請求項1~3のいずれか1項に記載の機械学習システム。
  5.  前記入力部は、連続した複数の時点における前記入力データと前記入力データに対応する経過時間情報との組み合わせを、前記複数の時点毎に生成し、前記複数の時点毎の前記組み合わせを入力する、
    請求項1~4のいずれか1項に記載の機械学習システム。
  6.  前記既定のイベントの発生を検知する検知部をさらに備え、
     前記入力部は、前記検知部における検知に応じて前記特定の時点に対応する前記経過時間情報を算出し、当該経過時間情報を前記入力データに対して付加する、
    請求項1~5のいずれか1項に記載の機械学習システム。
  7.  前記入力部は、前記入力データに対して、前記入力データに含まれる値の前記イベントの発生後における積算値をさらに付加して入力し、
     前記学習器は、前記積算値をさらに用いて前記パラメータを最適化する、
    請求項1~6のいずれか1項に記載の機械学習システム。
  8.  前記入力部は、前記入力データに対して、前記入力データに含まれる値の前記イベントの発生後における統計量をさらに付加して入力し、
     前記学習器は、前記統計量をさらに用いて前記パラメータを最適化する、
    請求項1~7のいずれか1項に記載の機械学習システム。
  9.  前記入力部は、前記入力データに含まれる目的変数の分布を均衡化させるために、前記入力データの再サンプリングを適用し、再サンプリングが適用された前記入力データを入力する、
    請求項1~8のいずれか1項に記載の機械学習システム。
  10.  入力部が、特定の時点における入力データに対して、既定の複数のイベントの発生後の前記特定の時点における経過時間に関する複数の経過時間情報を付加して入力する入力ステップと、
     学習器が、前記入力部によって入力された前記経過時間情報が付加された前記入力データを基に、機械学習によってモデルのパラメータを最適化する学習ステップと、
     構築された前記モデルによって現象の時間的変化を推定・予測する推定・予測ステップと、
    を備える機械学習方法。
  11.  前記入力データは、植物の栽培環境に関する環境データおよび前記経過時間情報を含む、
    請求項1記載の機械学習システム。
  12.  前記環境データは、温度、相対湿度、飽差、光量、灌水量のうちの少なくとも1つである、
    請求項11記載の機械学習システム。
  13.  前記経過時間情報が付加された前記入力データは、日の出後の経過時間に対する変化、および灌水後の経過時間に対する変化を示すデータである、
    請求項11記載の機械学習システム。
  14.  前記イベントは、日の出および灌水である、
    請求項1記載の機械学習システム。
  15.  前記検知部は、光量データおよび灌水量データを検出し、
     前記入力部は、前記光量データおよび灌水量データを含む入力データを生成する、
    請求項6記載の機械学習システム。
PCT/JP2019/004061 2018-02-09 2019-02-05 機械学習システム及び機械学習方法 WO2019156070A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019570753A JP7246095B2 (ja) 2018-02-09 2019-02-05 機械学習システム及び機械学習方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-022132 2018-02-09
JP2018022132 2018-02-09

Publications (1)

Publication Number Publication Date
WO2019156070A1 true WO2019156070A1 (ja) 2019-08-15

Family

ID=67549358

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/004061 WO2019156070A1 (ja) 2018-02-09 2019-02-05 機械学習システム及び機械学習方法

Country Status (2)

Country Link
JP (1) JP7246095B2 (ja)
WO (1) WO2019156070A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079989A (zh) * 2019-11-29 2020-04-28 武汉理工大学 一种基于dwt-pca-lstm的供水公司供水量预测装置
JP2021135586A (ja) * 2020-02-25 2021-09-13 株式会社日立製作所 時系列データ予測装置及び時系列データ予測方法
JP7427950B2 (ja) 2019-12-12 2024-02-06 日本電気株式会社 サンプル作成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118763A (ja) * 1997-04-24 1999-01-12 Sharp Corp 画像読取装置
JP2017123088A (ja) * 2016-01-08 2017-07-13 安川情報システム株式会社 決定木学習アルゴリズムを用いた予測プログラム、装置及び方法
US20170308595A1 (en) * 2016-04-26 2017-10-26 Informatica Llc Learning from historical logs and recommending database operations on a data-asset in an etl tool

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118763A (ja) * 1997-04-24 1999-01-12 Sharp Corp 画像読取装置
JP2017123088A (ja) * 2016-01-08 2017-07-13 安川情報システム株式会社 決定木学習アルゴリズムを用いた予測プログラム、装置及び方法
US20170308595A1 (en) * 2016-04-26 2017-10-26 Informatica Llc Learning from historical logs and recommending database operations on a data-asset in an etl tool

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
OUKOUCHI, MASAKI ET AL.: "Estimating production of greenhouse crops by using Nonparametric Regressions", PROCEEDINGS OF THE 3RD FORUM ON DATA ENGINEERING AND INFORMATION MANAGEMENT, 2011, XP055629724, Retrieved from the Internet <URL:http://db-event.jpn.org/deim2011/proceedings/pdf/e5-2.pdf> [retrieved on 20190313] *
WAKAMORI, KAZUMASA ET AL.: "Time series feature injection method for estimating plant evapotranspiration using neural networks", IEICE TECHNICAL REPORT, vol. 117, no. 443, 12 February 2018 (2018-02-12), pages 115 - 120 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079989A (zh) * 2019-11-29 2020-04-28 武汉理工大学 一种基于dwt-pca-lstm的供水公司供水量预测装置
CN111079989B (zh) * 2019-11-29 2023-06-20 武汉理工大学 一种基于dwt-pca-lstm的供水公司供水量预测装置
JP7427950B2 (ja) 2019-12-12 2024-02-06 日本電気株式会社 サンプル作成方法
JP2021135586A (ja) * 2020-02-25 2021-09-13 株式会社日立製作所 時系列データ予測装置及び時系列データ予測方法
JP7393244B2 (ja) 2020-02-25 2023-12-06 株式会社日立製作所 時系列データ予測装置及び時系列データ予測方法

Also Published As

Publication number Publication date
JPWO2019156070A1 (ja) 2021-01-28
JP7246095B2 (ja) 2023-03-27

Similar Documents

Publication Publication Date Title
CN111639787B (zh) 一种基于图卷积网络的时空数据预测方法
Ahmadi et al. Application of an artificial intelligence technique enhanced with intelligent water drops for monthly reference evapotranspiration estimation
US11625627B2 (en) Predicted forecast offset from remote location sensor
WO2019156070A1 (ja) 機械学習システム及び機械学習方法
US20160224703A1 (en) Growth stage determination system and method
JP6885394B2 (ja) 情報処理システム、情報処理装置、シミュレーション方法およびシミュレーションプログラム
US20180173823A1 (en) Simulation device, simulation method, and recording medium for storing program
Holman et al. Gaussian process models for reference ET estimation from alternative meteorological data sources
JP2018206232A (ja) 生成装置、生成方法、及び生成プログラム
Lin et al. Stochastic conservative contextual linear bandits
CN117252344A (zh) 培育设施的适宜度评估方法、装置、电子设备和存储介质
KR20200070736A (ko) 작물수확량 예측방법 및 이를 구현하는 작물수확량 예측장치
JP7114092B2 (ja) 画像データ加工装置、植物栽培システム及び画像データ加工方法
Ravindranath et al. Season-ahead forecasting of water storage and irrigation requirements–an application to the southwest monsoon in India
Banakara et al. Evaluation of weather parameter-based pre-harvest yield forecast models for wheat crop: a case study in Saurashtra region of Gujarat
Pandhe et al. Crop yield prediction based on climatic parameters
Li et al. Analysing the generality of spatially predictive mosquito habitat models
Plazas et al. A tool for classification of cacao production in colombia based on multiple classifier systems
Linker et al. Concurrent data assimilation and model-based optimization of irrigation scheduling
Stepchenko Normalized difference vegetation index forecasting using a regularized layer recurrent neural network
CN117236519B (zh) 水肥调控方法、装置、电子设备和存储介质
Wanyonyi A Generalised Regression Neural Network Model For Maize Production In Trans Nzoia County
CN117371529B (zh) 作物表型数据知识图谱生成方法、装置、电子设备及介质
US20210318283A1 (en) Systems and methods for providing germplasm crop scenarios
Akhand et al. Using artificial neural network and satellite data to predict rice yield in Bangladesh

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19751307

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019570753

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19751307

Country of ref document: EP

Kind code of ref document: A1