WO2021131210A1 - 情報処理装置、方法及びプログラム - Google Patents

情報処理装置、方法及びプログラム Download PDF

Info

Publication number
WO2021131210A1
WO2021131210A1 PCT/JP2020/037104 JP2020037104W WO2021131210A1 WO 2021131210 A1 WO2021131210 A1 WO 2021131210A1 JP 2020037104 W JP2020037104 W JP 2020037104W WO 2021131210 A1 WO2021131210 A1 WO 2021131210A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
training
input data
correct answer
output data
Prior art date
Application number
PCT/JP2020/037104
Other languages
English (en)
French (fr)
Inventor
純一 出澤
志門 菅原
Original Assignee
株式会社エイシング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイシング filed Critical 株式会社エイシング
Priority to US17/786,148 priority Critical patent/US20220383194A1/en
Priority to JP2021510471A priority patent/JP6869589B1/ja
Priority to EP20905145.7A priority patent/EP4083866A4/en
Publication of WO2021131210A1 publication Critical patent/WO2021131210A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Definitions

  • the present invention relates to machine learning technology, particularly a device equipped with a learning model.
  • the most common design method for applying machine learning technology to this type of device is to acquire the characteristics of the target device in advance and perform machine learning (offline learning) in advance based on the characteristics to learn.
  • This is a method of mounting the trained model on the device after generating the trained model. According to such a method, learning based on abundant data prepared in advance can be performed, so that a certain output accuracy can be guaranteed.
  • the present invention has been made under the above-mentioned technical background, and an object of the present invention is to provide a machine learning technique capable of adapting to changes in model characteristics while ensuring a certain output accuracy. It is in.
  • the machine learning device is the first generated based on the reference input data acquisition unit that acquires the reference input data, the training input data, and the training correct answer data corresponding to the training input data.
  • the first output data generation unit that inputs the reference input data to the approximation function of the above and generates the first output data, the training input data, and the training input data are combined with the first approximation function.
  • the reference input data is input to the second trained model generated by performing machine learning based on the difference data between the output data generated by inputting to and the correct answer data for training.
  • Machine learning is performed based on the reference correct answer data acquisition unit that acquires data, the difference data between the first output data and the reference correct answer data, and the reference input data, and the second trained model is updated. , With an update section.
  • the approximate function obtained in advance is used for the first approximate function that generates the first output data, and the second that corresponds to the difference between the first output data and the correct answer data.
  • the second trained model that generates the output data of the above is updated by machine learning as appropriate, it is adapted by online learning about the characteristic change of the target model while ensuring a certain output accuracy by the approximation function acquired in advance.
  • Machine learning can be performed. That is, it is possible to provide a machine learning technique that can be adapted to changes in the characteristics of the target model while ensuring a certain level of output accuracy.
  • the first approximation function may be the first trained model generated by performing machine learning based on the training input data and the training correct answer data.
  • the first approximation function may be a function that formulates the relationship between the training input data and the training correct answer data.
  • the information processing device may further include an output limiting unit that limits the second output data to a predetermined range.
  • the information processing device further determines a predetermined condition based on the second output data, and if the predetermined condition is satisfied, generates a predetermined information presented to the user, a user-provided information generation. It may be provided with a part.
  • the information may be information regarding the maintenance time of the device from which the reference input data and the reference correct answer data have been acquired.
  • the present invention can also be thought of as a system. That is, the information processing system according to the present invention is the first generated based on the reference input data acquisition unit that acquires the reference input data, the training input data, and the training correct answer data corresponding to the training input data.
  • the first output data generation unit that inputs the reference input data to the approximation function of the above and generates the first output data, the training input data, and the training input data are combined with the first approximation function.
  • the reference input data is input to the second trained model generated by performing machine learning based on the difference data between the output data generated by inputting to and the correct answer data for training.
  • Machine learning is performed based on the reference correct answer data acquisition unit that acquires data, the difference data between the first output data and the reference correct answer data, and the reference input data, and the second trained model is updated. , With an update section.
  • the information processing method according to the present invention is the first generated based on the reference input data acquisition step of acquiring the reference input data, the training input data, and the training correct answer data corresponding to the training input data.
  • the first output data generation step in which the reference input data is input to the approximation function of the above to generate the first output data, the training input data, and the training input data are combined with the first approximation function.
  • the reference input data is input to the second trained model generated by performing machine learning based on the difference data between the output data generated by inputting to and the correct answer data for training.
  • the second output data generation step that generates the second output data
  • the final output data generation step that generates the final output data based on the first output data and the second output data
  • the reference correct answer is performed based on the reference correct answer data acquisition step for acquiring data, the difference data between the first output data and the reference correct answer data, and the reference input data, and the second trained model is updated. , With update steps.
  • the present invention can also be thought of as a computer program. That is, the program according to the present invention is generated based on the reference input data acquisition unit that acquires the reference input data, the training input data, and the training correct answer data corresponding to the training input data.
  • the first output data generation unit that inputs the reference input data to the approximation function of 1 to generate the first output data, the training input data, and the training input data are subjected to the first approximation.
  • the reference input data is input to the second trained model generated by performing machine learning based on the output data generated by inputting to the function and the difference data of the correct answer data for training.
  • the reference correct answer data acquisition unit that acquires the correct answer data, the difference data between the first output data and the reference correct answer data, and machine learning based on the reference input data are performed to update the second trained model.
  • This is a program for functioning as an information processing device equipped with an update unit.
  • the present invention can be considered as a device from another aspect. That is, the information processing apparatus according to the present invention has a first learning processing unit that generates a first trained model by performing machine learning based on training input data and training correct answer data, and the training unit. The second is performed by performing machine learning based on the input data, the output data generated by inputting the training input data into the first trained model, and the difference data of the training correct answer data. It includes a second training processing unit that generates a trained model.
  • the information processing method includes a first learning processing step that generates a first trained model by performing machine learning based on training input data and training correct answer data, and the training The second is performed by performing machine learning based on the input data, the output data generated by inputting the training input data into the first trained model, and the difference data of the training correct answer data. It includes a second training process step that generates a trained model.
  • the present invention can be thought of as a program from another aspect. That is, the information processing program according to the present invention includes a first learning processing unit that generates a first trained model by performing machine learning on a computer based on training input data and training correct answer data. By performing machine learning based on the training input data, the output data generated by inputting the training input data into the first trained model, and the difference data of the training correct answer data.
  • This is a program for functioning as an information processing device including a second learning processing unit that generates a second trained model.
  • the present invention can be thought of as a method from another aspect. That is, the method according to the present invention includes a first learning processing step that generates a first trained model by performing machine learning based on training input data and training correct answer data, and the training input data. And the second trained by performing machine learning based on the output data generated by inputting the training input data into the first trained model and the difference data of the training correct answer data.
  • a second learning process step for generating a model, the first trained model and the second trained model are acquired from the device with respect to a predetermined device, and the second trained model is acquired from the device. It includes a trained model mounting step, which is mounted in an updatable manner based on the data to be loaded.
  • FIG. 1 is a hardware configuration diagram of an information processing device.
  • FIG. 2 is a hardware configuration diagram of the braking distance estimation device.
  • FIG. 3 is a general flowchart according to the first embodiment.
  • FIG. 4 is a detailed flowchart of the pre-learning process.
  • FIG. 5 is a conceptual diagram of the pre-learning process.
  • FIG. 6 is a detailed flowchart of the actual operation process.
  • FIG. 7 is a conceptual diagram relating to the integrated processing of the estimated output.
  • FIG. 8 is a conceptual diagram of online learning.
  • FIG. 9 is an explanatory diagram showing the relationship between the true value and the estimated output.
  • FIG. 1 is a hardware configuration diagram of an information processing device 10 capable of performing machine learning processing to generate a trained model.
  • the control unit 11, the storage unit 12, the display unit 13, the operation signal input unit 14, the communication unit 15, and the I / O unit 16 are provided, and they are connected via a bus.
  • the control unit 11 is a control device such as a CPU and a GPU, and performs execution processing of a program that realizes various operations described later. For example, overall control of the information processing device 10, learning processing, estimation processing, and the like are performed.
  • the storage unit 12 is a volatile or non-volatile storage device such as a ROM or RAM, and stores training data to be learned including training input data, correct answer data, etc., a machine learning program, an estimation processing program, and the like. There is.
  • the display unit 13 is connected to a display or the like to control the display, and provides a GUI to the user via the display or the like.
  • the operation signal input unit 14 processes a signal input via an input unit such as a keyboard, a touch panel, or a button.
  • the communication unit 15 is a communication chip or the like that communicates with an external device via the Internet, LAN, or the like.
  • the I / O unit 16 is a device that performs input / output processing of information with an external device.
  • FIG. 2 is a hardware configuration diagram of a device on which a learned model learned offline is mounted, and in the present embodiment, a braking distance estimation device 20 mounted on a vehicle or the like and estimating the braking distance of the vehicle as an example.
  • the braking distance estimation device 20 is adopted, but the device to be mounted is not limited to such a device. Therefore, it can be applied to all kinds of devices such as machine tools and robots, for example.
  • control unit 21, the storage unit 22, the display unit 23, the operation signal input unit 24, the communication unit 25, and the I / O unit 26 are provided, and they are connected via a bus.
  • the control unit 21 is a control device such as a CPU and a GPU, and executes a program execution process that realizes various operations described later. For example, overall control of the information processing device 20, learning processing, estimation processing, and the like are performed.
  • the storage unit 22 is a volatile or non-volatile storage device such as a ROM or RAM, and is a training data to be learned including a trained model, training input data, correct answer data, etc., a machine learning program, an estimation processing program, etc. Is stored.
  • the display unit 23 is connected to a display or the like to control the display, and provides a GUI to the user via the display or the like.
  • the I / O unit 24 is a device that performs input / output processing of information with an external device.
  • the operation signal input unit 25 processes a signal input via an input unit such as a keyboard, a touch panel, or a button.
  • the communication unit 26 is a communication unit or the like that communicates with other configurations of the vehicle.
  • the sensor information acquisition unit 28 acquires various sensor information of the vehicle, for example, sensor information such as the number of rotations of the tire.
  • the hardware configuration is not limited to the configuration according to the present embodiment, and the configuration and functions may be distributed or integrated. Further, for example, the processing may be performed in a distributed manner by a plurality of information processing devices 1, or a large-capacity storage device may be further provided externally and connected to the information processing device 1. Further, it may be mounted in a circuit using an IC, particularly an ASIC or FPGA.
  • FIG. 3 is a general flowchart showing the flow of processing according to the present embodiment. As is clear from the figure, when the process starts, a process of performing machine learning in advance on the learning model mounted on the braking distance estimation device 20 on the information processing device 10, that is, a pre-learning process is performed (S1).
  • online learning means that the parameters of the learning model mounted on the device are machine-learned based on the data obtained in the device and updated on the device.
  • the update cycle can have various configurations, for example, it may be sequential learning corresponding to the control cycle of the device, or a batch performed after a predetermined amount of learning target data is accumulated. It may be learning or mini-batch learning.
  • FIG. 4 is a detailed flowchart of the pre-learning process
  • FIG. 5 is a conceptual diagram of the pre-learning process.
  • the training data is, for example, data actually obtained in advance from a device scheduled to be mounted.
  • the training input data is the number of rotations of the tire at the beginning of braking
  • the training correct answer data is the braking distance, that is, the number of rotations of the tire until the tire actually stops.
  • supervised learning is performed on the offline learning model based on the read training data group (S13).
  • a neural network is adopted as a model for offline learning.
  • the top of Fig. 5 is a conceptual representation of this learning process. That is, the data group of the training data including the training input data 31 and the training correct answer data 32 is input to the offline learning model and the learning process is performed. As a result, a trained model by offline learning based on the training data group is generated. This trained model outputs the estimated braking distance (the number of rotations until the tire stops) by inputting the rotation speed of the tire at the start of braking.
  • the model for offline learning is not limited to the learning model of this embodiment. Therefore, as an algorithm, for example, an algorithm such as a random forest, a learning tree (see JP-A-2016-173686 as an example), or a combination thereof may be adopted.
  • an algorithm for example, an algorithm such as a random forest, a learning tree (see JP-A-2016-173686 as an example), or a combination thereof may be adopted.
  • the difference data generation process is performed (S14). More specifically, a process of calculating the difference between the output (estimation result) of inputting the training data to the generated trained model and the training correct answer data is performed.
  • the middle part of FIG. 5 conceptually represents the generation process of this difference data. That is, a process is performed in which the difference between the output data 33 obtained by inputting the training input data 31 into the trained model generated by offline learning and the training correct answer data 32 is calculated to generate the difference data 34.
  • a learning process is performed on the online learning model (S15). That is, the process of learning the online learning model using the training input data and the difference data is performed.
  • Fig. 5 The lower part of Fig. 5 is a conceptual representation of the learning process of this online learning model. That is, machine learning is performed on the online learning model using the training input data 31 and the difference data 34, and a trained model for online learning is generated. This trained model outputs estimated difference data by inputting the number of rotations of the tire when the brake is started.
  • a learning tree (see JP-A-2016-173686 as an example) is used in this embodiment.
  • the input data is associated with and accumulated in each state space hierarchically divided according to the branching condition.
  • the estimated output is calculated by taking the arithmetic mean of the output values or output vectors corresponding to each data contained in each state space after learning. With such a configuration, the learning tree is suitable for online learning.
  • the online learning model is not limited to the learning model of the present embodiment. Therefore, for example, another algorithm such as a PA (Passive Aggressive) algorithm or a neural network may be adopted.
  • PA Passive Aggressive
  • a neural network may be adopted.
  • FIG. 6 is a detailed flowchart of the actual operation process. As is clear from the figure, when the process starts, the read process of the trained model or the like acquired by the pre-learning is performed (S51).
  • the braking distance estimation device 20 goes into a standby state until there is a braking distance estimation command (S52NO).
  • the sensor information is read from the sensor information acquisition unit 28 and used as input data for each trained model (S53).
  • the estimation command is, for example, a signal issued from another system indicating that the vehicle has begun to brake.
  • the sensor is a rotation speed detection sensor that detects the rotation speed of the tires of the vehicle.
  • other data may be used although the rotation speed is adopted as the sensor input. Therefore, for example, data corresponding to the road surface environment may be adopted.
  • a process is performed in which the tire rotation speed acquired through the sensor is input and the output data, that is, the estimated braking distance (the number of rotations until the stop) is output based on the trained model for offline learning. (S54). Similarly, a process of generating estimated difference data between the estimated braking distance and the correct answer value is performed based on the trained model for online learning by inputting the tire rotation speed acquired through the sensor (S55). ..
  • FIG. 7 is a conceptual diagram relating to the above-mentioned integrated processing of the estimated output.
  • the trained model for offline learning and the trained model for online learning are each provided with the same input data 41, that is, the number of rotations of the tire at a predetermined time point.
  • each trained model outputs the estimated braking distance data 42 and the estimated difference data 43, respectively.
  • the estimated braking distance data 42 and the estimated difference data 43 are added and integrated to calculate the final estimated braking distance.
  • the braking distance estimation device 20 reads out the actual braking distance (S57) and performs a process of generating difference data based on the actual braking distance data (S58). That is, the process of generating the difference data between the estimated braking distance and the actual braking distance data generated from the trained model for offline learning is performed.
  • FIG. 8 is a conceptual diagram relating to the above-mentioned online learning.
  • the input data 41 acquired from the sensor is input to the trained model for offline learning, and predetermined output data 42 corresponding to the estimated braking distance is generated from the trained model.
  • Difference data 52 is generated from the difference between the output data 42 and the actual braking distance data 51 acquired from the sensor. Based on the difference data 52 and the input data 41, a process of updating the trained model for online learning is performed by machine learning.
  • FIG. 9 is an explanatory diagram showing an example of the relationship between the true value and the estimated output.
  • the horizontal axis shows time and the vertical axis shows output value (estimated value).
  • the curve that most closely approximates the true value (correct answer value) shown by the solid line is the sum of the output of the trained model for offline learning and the output of the trained model for online learning.
  • the integrated output (broken line) consists of the output of the trained model for offline learning (dashed line) and the output of the trained model for online learning (dashed line), as is clear from the figure. It can be seen that the output of the trained model for offline learning is dominant, and the ratio of the output of the trained model for online learning is small.
  • the difference part is adjusted using the trained model for online learning.
  • adaptive learning can be performed while suppressing the influence of the trained model for online learning, which is generally not expected to be as accurate as offline learning. That is, it is understood that it is possible to provide a machine learning technique that can be adapted to changes in the characteristics of a target while ensuring a certain level of output accuracy.
  • the output of the trained model for offline learning and the output of the trained model for online learning are added together, but the present invention is not limited to such a configuration. Therefore, for example, a certain limit may be set on the output of the trained model for online learning. For example, an upper limit and a lower limit may be set in the output of the trained model for online learning.
  • the braking distance estimation device is adopted as the device for mounting the trained model, but the present invention is not limited to such a configuration. Therefore, for example, it can be mounted on all kinds of devices such as machine tools and robots in factories. In addition, any data can be adopted as the data to be learned.
  • the online learning model may be configured to proceed with learning after mounting the device without performing pre-learning.
  • the approximate function (learned model) is generated by offline learning, but the present invention is not limited to such a configuration. Therefore, for example, a formulated approximate function may be used without performing machine learning.
  • each of the offline learning model and the online learning model is described as being generated using a single model such as a neural network, but the present invention is not limited to such a configuration. Therefore, for example, the same or different learning models may be combined and used to form each model. That is, for example, a model for offline learning may be configured by using both a neural network and a random forest in combination.
  • a predetermined condition may be determined based on the output of the trained model for online learning, and the user may be notified of changes that have occurred in the device and information provided accordingly. For example, when the conditions are satisfied, the control of the device may be stopped, or information for alerting the user may be provided. For example, a predetermined error message may be notified, or the maintenance time of the device may be notified.
  • the condition determination can be, for example, whether or not the output of the trained model for online learning exceeds a predetermined threshold value.
  • a rate or frequency exceeding a predetermined threshold can be used as a condition.
  • the present invention can be used in various industries that utilize machine learning technology.
  • Control unit 12 Storage unit 13
  • Display unit 14 Operation signal input unit 15
  • Communication unit 16 I / O unit 20
  • Braking distance estimation device 21 Control unit 22
  • Storage unit 23 Display unit 24 I / O unit 25
  • Operation signal input unit 26 Communication unit 28

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】一定の出力精度を担保しつつモデルの特性変化にも適応可能な機械学習技術を提供すること。 【解決手段】参照入力データ取得部と、訓練用入力データと訓練用正解データに基づいて生成された第1の近似関数へと参照入力データを入力して第1の出力データを生成する第1出力データ生成部と、訓練用入力データと訓練用入力データを第1の近似関数へと入力して生成された出力データと訓練用正解データの差分データとに基づいて機械学習を行うことにより生成された第2の学習済モデルへと参照入力データを入力して第2の出力データを生成する第2出力データ生成部と、第1の出力データと第2の出力データに基づいて最終出力データを生成する最終出力データ生成部と、参照正解データ取得部と、第1の出力データと参照正解データとの差分データと参照入力データに基づいて機械学習を行い第2の学習済モデルを更新する更新部を備えた情報処理装置が提供される。

Description

情報処理装置、方法及びプログラム
 この発明は、機械学習技術、特に学習モデルを備えた装置等に関する。
 近年、工場内の装置等、様々な装置の制御に機械学習技術が利用されている。
 この種の装置に対して機械学習技術を適用するための最も一般的な設計手法は、予め対象となる装置の特性を取得し、当該特性に基づいて予め機械学習(オフライン学習)を行って学習済モデルを生成した後、当該学習済モデルを装置へと搭載する手法である。このような手法によれば、事前に用意した豊富なデータに基づく学習を行うことができるので、一定の出力精度を担保することができる。
 しかしながら、上述の所謂オフライン学習を伴う構成では、装置が経年劣化等により特性変化した場合には、事前学習時の装置特性との間でずれが生じ、出力精度が低下するおそれがある。
 これに対して、学習モデルを装置へと搭載し、当該装置を動作させつつ得られたデータに基づいて逐次的に機械学習を行って学習モデルを更新する設計(オンライン学習)も考え得る。このような手法によれば、装置が経年劣化等により特性変化した場合であっても学習により適応的に対応することができる。
 しかしながら、上述の所謂オンライン学習は、オフライン学習に比べて出力精度が悪い場合が多く、また、学習初期等においては出力精度を担保できないおそれもある。また、外れ値のような不適切なデータを学習してしまった場合には暴走のおそれもある。
 オフライン学習を行った学習済モデルを装置へと搭載し、その後に当該学習済モデルをオンライン学習によりさらに更新することも考えられる。
 しかしながら、このオンライン学習とオフライン学習とを単に使用する手法では、オンラインによる追加学習がオフライン学習により獲得されたモデルへと影響を及ぼし推定精度の低下を招く可能性がある。例えば、使用する学習モデルによっては、それまでに獲得したモデルが急激に失われてしまう、所謂、破壊的忘却(例えば、非特許文献1)等のおそれがある。以上より、信頼性の観点から、実用上、やはり本手法も採用し難い。
Robert M. French著、"Catastrophic Forgetting in Connectionist Networks: Causes, Consequences, Solutions"、[online]、平成11年5月、Quantitative Psycology and Cognitive Science, Department of Psycology, University of Liege,4000 Liege,Belgium,[令和1年12月12日]、インターネット<URL:https://www.researchgate.net/publication/12977135_Catastrophic_forgetting_in_connectionist_networks>
 すなわち、一定の出力精度を担保しつつもモデルの特性変化にも適応可能な機械学習技術はこれまでに提唱されていなかった。
 本発明は、上述の技術的背景の下になされたものであり、その目的とするところは、一定の出力精度を担保しつつもモデルの特性変化にも適応可能な機械学習技術を提供することにある。
 本発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者であれば容易に理解されるであろう。
 上述の技術的課題は、以下の構成を有する装置、システム、方法、プログラム等により解決することができる。
 すなわち、本発明に係る機械学習装置は、参照入力データを取得する、参照入力データ取得部と、訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、参照正解データを取得する、参照正解データ取得部と、前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えている。
 このような構成によれば、第1の出力データを生成する第1の近似関数については事前に獲得された近似関数を用いると共に、第1の出力データと正解データとの差分に相当する第2の出力データを生成する第2の学習済モデルについては適宜機械学習により更新を行うので、事前に獲得された近似関数により一定の出力精度を担保しつつ、対象モデルの特性変化についてオンライン学習により適応的に機械学習を行うことができる。すなわち、出力精度について一定の担保をしつつも対象モデルの特性変化等に対して適応可能な機械学習技術を提供することができる。
 前記第1の近似関数は、前記訓練用入力データと前記訓練用正解データに基づいて機械学習を行うことにより生成された第1の学習済モデルであってもよい。
 前記第1の近似関数は、前記訓練用入力データと前記訓練用正解データとの関係を定式化した関数であってもよい。
 前記情報処理装置は、さらに、前記第2の出力データを所定の値域へと制限する出力制限部を備えてもよい。
 前記情報処理装置は、さらに、前記第2の出力データに基づいて所定の条件判定を行い、所定の条件を満たす場合には、ユーザへと提示される所定の情報を生成する、ユーザ提供情報生成部を備える、ものであってもよい。
 前記情報は、前記参照入力データ及び前記参照正解データが取得された装置のメンテナンス時期に関する情報であってもよい。
 本発明は、システムとしても観念することができる。すなわち、本発明に係る情報処理システムは、参照入力データを取得する、参照入力データ取得部と、訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、参照正解データを取得する、参照正解データ取得部と、前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えている。
 本発明は、方法としても観念することができる。すなわち、本発明に係る情報処理方法は、参照入力データを取得する、参照入力データ取得ステップと、訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成ステップと、前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成ステップと、前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成ステップと、参照正解データを取得する、参照正解データ取得ステップと、前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新ステップと、を備えている。
 本発明は、コンピュータプログラムとしても観念することができる。すなわち、本発明に係るプログラムは、コンピュータを、参照入力データを取得する、参照入力データ取得部と、訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、参照正解データを取得する、参照正解データ取得部と、前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えた情報処理装置として機能させるためのプログラムである。
 また、本発明は、別の側面から装置として観念することができる。すなわち、本発明に係る情報処理装置は、訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理部と、前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理部と、を備えている。
 本発明は、別の側面から方法として観念することができる。すなわち、本発明に係る情報処理方法は、訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理ステップと、前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理ステップと、を備えている。
 本発明は、別の側面からプログラムとして観念することができる。すなわち、本発明に係る情報処理プログラムは、コンピュータを、訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理部と、前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理部と、を備える情報処理装置として機能させるためのプログラムである。
 本発明は、別の側面から方法として観念することができる。すなわち、本発明に係る方法は、訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理ステップと、前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理ステップと、前記第1の学習済モデル及び前記第2の学習済モデルを、所定の装置に対して、前記第2の学習済モデルについては前記装置から取得されるデータに基づいて更新可能な態様で搭載する、学習済モデル搭載ステップと、を備えている。
 本発明によれば、一定の出力精度を担保しつつもモデルの特性変化にも適応可能な機械学習技術を提供することができる。
図1は、情報処理装置のハードウェア構成図である。 図2は、制動距離推定装置のハードウェア構成図である。 図3は、第1の実施形態に係るゼネラルフローチャートである。 図4は、事前学習処理の詳細フローチャートである。 図5は、事前学習処理の概念図である。 図6は、実稼働処理の詳細フローチャートである。 図7は、推定出力の統合処理に関する概念図である。 図8は、オンライン学習の概念図である。 図9は、真値と推定出力との関係性ついて示す説明図である。
 以下、本発明の実施の一形態を、添付の図面を参照しつつ、詳細に説明する。
 (1.第1の実施形態)
  (1.1 ハードウェア構成)
  図1及び図2を参照しつつ、本実施形態に係るハードウェアについて説明する。
 図1は、機械学習処理を行って学習済モデルを生成することが可能な情報処理装置10のハードウェア構成図である。同図から明らかな通り、制御部11、記憶部12、表示部13、操作信号入力部14、通信部15及びI/O部16を備え、それらはバスを介して接続されている。
 制御部11は、CPU及びGPU等の制御装置であり、後述する様々な動作を実現するプログラムの実行処理を行う。例えば、情報処理装置10の全体制御や学習処理又は推定処理等を行う。記憶部12は、ROM、RAM等の揮発性又は不揮発性の記憶装置であり、訓練用入力データや正解データ等を含む学習対象となる訓練データ、機械学習プログラム、推定処理プログラム等を格納している。表示部13は、ディスプレイ等と接続されて表示制御を行い、ディスプレイ等を介してユーザにGUIを提供する。操作信号入力部14は、キーボード、タッチパネル、ボタン等の入力部を介して入力された信号を処理するものである。通信部15は、インターネットやLAN等を通じて外部機器と通信を行う通信チップ等である。I/O部16は、外部装置との情報の入出力処理を行う装置である。
 また、図2は、オフラインで学習された学習済モデルが搭載される装置、本実施形態では、例として車両等に搭載され車両の制動距離の推定を行う制動距離推定装置20のハードウェア構成図である。なお、本実施形態においては、制動距離推定装置20を採用したが、搭載対象装置はこのような装置に限定されない。従って、例えば、工作機械やロボット等のあらゆる装置に適用可能である。
 同図から明らかな通り、制御部21、記憶部22、表示部23、操作信号入力部24、通信部25及びI/O部26を備え、それらはバスを介して接続されている。
 制御部21は、CPU及びGPU等の制御装置であり、後述する様々な動作を実現するプログラムの実行処理を行う。例えば、情報処理装置20の全体制御や学習処理又は推定処理等を行う。記憶部22は、ROM、RAM等の揮発性又は不揮発性の記憶装置であり、学習済モデル、訓練用入力データや正解データ等を含む学習対象となる訓練データ、機械学習プログラム、推定処理プログラム等を格納している。表示部23は、ディスプレイ等と接続されて表示制御を行い、ディスプレイ等を介してユーザにGUIを提供する。I/O部24は、外部装置との情報の入出力処理を行う装置である。操作信号入力部25は、キーボード、タッチパネル、ボタン等の入力部を介して入力された信号を処理するものである。通信部26は、車両の他の構成と通信を行う通信ユニット等である。センサ情報取得部28は、車両の各種センサ情報、例えば、タイヤの回転数等のセンサ情報を取得する。
 なお、ハードウェア構成は本実施形態に係る構成に限定されるものではなく、構成や機能を分散又は統合してもよい。また、例えば、複数台の情報処理装置1により分散的に処理を行っても良いし、大容量記憶装置をさらに外部に設けて情報処理装置1と接続する等してもよい。さらに、IC、特に、ASICやFPGA等を用いて回路的に実装してもよい。
 (1.2 動作)
  次に、図3~図9を参照しつつ、情報処理装置10及び制動距離推定装置20の動作について説明する。
 図3は、本実施形態に係る処理の流れについて示すゼネラルフローチャートである。同図から明らかな通り、処理が開始すると、情報処理装置10上において制動距離推定装置20へと搭載する学習モデルに関して予め機械学習を行う処理、すなわち事前学習処理が行われる(S1)。
 この事前学習処理の後、事前学習処理において得られたオフライン学習用の学習済モデルとオンライン学習用の学習済モデルを対象装置、すなわち、本実施形態においては制動距離推定装置20へと実装する処理が行われる(S3)。
 この実装の後、制動距離推定装置20を動作させつつ、同装置から得られる現実のデータに基づいてオンライン学習を行う実稼働処理が行われる(S5)。その後、所定の終了条件を満たした場合、処理は終了する。なお、本実施形態において、オンライン学習とは、装置へと搭載した学習モデルのパラメータ等を装置において得られたデータに基づいて機械学習を行って装置上で更新することを意味する。なお、このとき、更新周期は、様々な構成とすることができ、例えば、装置の制御周期と対応した逐次的な学習であってもよいし、所定量学習対象データが蓄積してから行うバッチ学習又はミニバッチ学習等であってもよい。
 (1.2.1 事前学習処理の詳細)
  図4及び図5を参照しつつ、事前の機械学習処理の詳細について説明する。図4は、事前学習処理の詳細フローチャートであり、図5は、事前学習処理の概念図である。
 図4から明らかな通り、事前学習処理が開始すると、学習モデルやそのパラメータ、訓練用入力データと訓練用正解データとから成る訓練データ群等の各種データを読み出す処理が行われる(S11)。なお、訓練データは、例えば、搭載が予定される装置から予め実際に得られたデータ等である。本実施形態においては、訓練用入力データはブレーキのかけ初めのタイヤの回転数であり、訓練用正解データは制動距離、すなわち、タイヤが実際に停止するまでのタイヤの回転回数である。
 その後、読み出した訓練用データ群に基づいてオフライン学習用モデルについて教師あり学習が行われる(S13)。本実施形態においては、オフライン学習用モデルとして、ニューラルネットワークが採用される。
 この学習処理を概念的に表したものが図5最上段である。すなわち、訓練用入力データ31と訓練用正解データ32とから成る訓練用データのデータ群が、オフライン学習用モデルへと入力されて学習処理が行われる。これにより、訓練用データ群に基づくオフライン学習による学習済モデルが生成される。この学習済モデルは、ブレーキのかけ始めのタイヤの回転数を入力として推定制動距離(タイヤ停止までの回転回数)を出力する。
 なお、オフライン学習用モデルについては、本実施形態の学習モデルに限定されない。従って、アルゴリズムとして、例えば、ランダムフォレストや学習木(例として、特開2016-173686を参照)等又はそれらの組み合わせのアルゴリズムを採用してもよい。
 この学習済モデルを生成した後、差分データの生成処理が行われる(S14)。より詳細には、生成された学習済モデルに対して訓練用データを入力したその出力(推定結果)と、訓練用正解データとの差分を算出する処理が行われる。
 この差分データの生成処理を概念的に表したものが図5中段である。すなわち、訓練用入力データ31をオフライン学習により生成された学習済モデルへと入力した出力データ33と、訓練用正解データ32との差分を演算し、差分データ34を生成する処理が行われる。
 この差分データの生成処理の後、オンライン学習用モデルについて学習処理が行われる(S15)。すなわち、オンライン学習用モデルを、訓練用入力データと差分データを用いて学習する処理がなされる。
 このオンライン学習用モデルの学習処理を概念的に表したものが図5下段である。すなわち、訓練用入力データ31と差分データ34とを用いてオンライン学習用モデルについて機械学習を行い、オンライン学習用の学習済モデルを生成する。この学習済モデルは、ブレーキをかけ始めた際のタイヤの回転数を入力として推定差分データを出力する。
 なお、オンライン学習用モデルは、本実施形態においては、学習木(例として、特開2016-173686を参照)が利用される。学習木を用いた学習処理においては、入力されるデータが、分岐条件に応じて階層的に分割された各状態空間に対応付けられ蓄積されていく。推定出力は、学習後に各状態空間に内包される各データに対応する出力値又は出力ベクトルの相加平均をとることにより算出される。このような構成により、学習木は、オンライン学習に好適である。
 また、オンライン学習用モデルについては、本実施形態の学習モデルに限定されない。従って、例えば、PA(Passive Aggressive)アルゴリズムやニューラルネットワーク等の他のアルゴリズムを採用してもよい。
 オンライン学習用モデルについての学習処理が終了した後、オフライン学習を行った学習済モデル、オンライン学習を行った学習済モデルのいずれも含む各種データを記憶部12へと記憶する処理を行い(S17)、事前学習処理は終了する。
 (1.2.2 実稼働処理の詳細)
  次に、図6~図8を参照しつつ、車両の制動距離推定装置20の実稼働処理(S5)の詳細について説明する。
 図6は、実稼働処理の詳細フローチャートである。同図から明らかな通り、処理が開始すると、事前学習によって獲得された学習済モデル等の読み出し処理が行われる(S51)。
 その後、制動距離推定装置20は、制動距離の推定指令があるまで待機状態となる(S52NO)。この状態において、制動距離の推定指令を受信すると(S52YES)、センサ情報取得部28からセンサ情報を読み出して各学習済モデルへの入力データとする処理が行われる(S53)。
 推定指令は、例えば、車両に対してブレーキをかけ始めたことを表す他の系統から発せられた信号である。また、本実施形態においては、センサは車両のタイヤの回転数を検出する回転数検出センサである。なお、本実施形態においてはセンサ入力として回転数を採用しているものの他のデータであってもよい。従って、例えば、路面環境に相当するデータ等を採用してもよい。
 次に、センサを介して取得されたタイヤの回転数を入力として、オフライン学習用の学習済モデルに基づいて出力データ、すなわち、推定制動距離(停止までの回転回数)を出力する処理が行われる(S54)。同様に、センサを介して取得されたタイヤの回転数を入力として、オンライン学習用の学習済モデルに基づいて、推定制動距離と正解値との推定差分データを生成する処理が行われる(S55)。
 推定制動距離と推定差分データを生成した後、これらの推定出力を統合する処理を行って、最終的な推定制動距離を算出する(S56)。
 図7は、上述の推定出力の統合処理に関する概念図である。同図から明らかな通り、オフライン学習用の学習済モデルとオンライン学習用の学習済モデルにはそれぞれ同一の入力データ41、すなわち、所定時点のタイヤの回転数が提供される。この入力データを受けて、各学習済モデルはそれぞれ、推定制動距離データ42と推定差分データ43を出力する。その後、推定制動距離データ42と推定差分データ43とは足しあわされて統合されて、最終的な推定制動距離が算出される。
 このような構成により、ブレーキや車体の特性の変化等も考慮しつつ、ブレーキをかけた瞬間に車両の停止までの制動距離を推定することが出来る。これにより、例えば、推定制動距離を用いた車体制御等が可能となる。
 図6に戻り、統合推定データを生成した後、制動距離推定装置20は、実際の制動距離を読み出し(S57)、当該実制動距離データに基づいて差分データを生成する処理を行う(S58)。すなわち、オフライン学習用の学習済モデルから生成された推定制動距離と実制動距離データとの差分データを生成する処理を行う。
 この差分データと入力データに基づいて、オンライン学習用の学習済モデルについて機械学習を行いオンライン学習用の学習済モデルを更新する(S59)。その後、再び推定指令の待機状態となり一連の処理(S52~S59)が繰り返される。
 図8は、上述のオンライン学習に関する概念図である。同図から明らかな通り、センサから取得された入力データ41は、オフライン学習用の学習済モデルへと入力され、学習済モデルから推定制動距離に相当する所定の出力データ42が生成される。この出力データ42と、センサから取得された実制動距離データ51との差分から、差分データ52が生成される。この差分データ52と入力データ41とに基づいて、機械学習により、オンライン学習用の学習済モデルを更新する処理が行われる。
 このような構成によれば、事前に獲得された近似関数により一定の出力精度を担保しつつ、対象の特性変化についてオンライン学習により適応的に機械学習を行うことができる。すなわち、出力精度について一定の担保をしつつも対象の特性変化等に対して適応可能な機械学習技術を提供することができる。
 (1.2.3 その他)
  図9は、真値と推定出力との関係性の一例について示す説明図である。横軸は時間、縦軸は出力値(推定値)を示す。同図から明らかな通り、実線で示される真値(正解値)に最も近似している曲線は、オフライン学習用の学習済モデルの出力とオンライン学習用の学習済モデルの出力とを足し合わせて統合した出力を表す破線である。
 また、統合出力(破線)は、オフライン学習用の学習済モデルの出力(二点鎖線)とオンライン学習用の学習済モデルの出力(一点鎖線)から構成されるものの、同図から明らかな通り、オフライン学習用の学習済モデルの出力が支配的であって、オンライン学習用の学習済モデルの出力の割合は小さいことが分かる。
 すなわち、オフライン学習用の学習済モデルを用いて大まかな推定を行いつつも、オンライン学習用の学習済モデルを用いて差分部分について調整を行っている。これにより、一般にオフライン学習程の精度は期待できないことが多いオンライン学習用の学習済モデルの影響を抑えつつも適応的な学習を行うことができる。すなわち、出力精度について一定の担保をしつつも対象の特性変化等に対して適応可能な機械学習技術を提供することができることが把握される。
 (2.変形例)
  上述の実施形態においては、オフライン学習用の学習済モデルの出力とオンライン学習用の学習済モデルの出力とを足し合わせる構成としたが、本発明はこのような構成に限定されない。従って、例えば、オンライン学習用の学習済モデルの出力に一定の制限を設けてもよい。例えば、オンライン学習用の学習済モデルの出力に上限と下限を設けてもよい。
 上述の実施形態においては、学習済モデルを搭載する装置として、制動距離推定装置を採用したが、本発明はこのような構成に限定されない。従って、例えば、工場内の工作機械やロボットなどあらゆる種類の装置へと搭載することができる。また、学習対象とするデータもあらゆるデータを採用することができる。
 上述の実施形態においては、オフライン学習用モデルとオンライン学習用モデルの両方について予め事前学習を行う構成を採用した。しかしながら、本発明はこのような構成に限定されない。従って、例えば、オンライン学習用モデルについては事前学習を行わずに装置搭載後に学習を進める構成としてもよい。
 上述の実施形態においては、オフライン学習により近似関数(学習済モデル)を生成しているものの、本発明はそのような構成に限定されない。従って、例えば、機械学習を行わずに、定式化された近似関数を利用してもよい。
 上述の実施形態においては、オフライン学習用モデル又はオンライン学習用モデルのそれぞれについて、ニューラルネットワーク等の単一のモデルを用いて生成するものとして記載したが、本発明はこのような構成に限定されない。従って、例えば、同一の又は異なる複数の学習モデルを組み合わせて利用してそれぞれのモデルとして構成してもよい。すなわち、例えば、ニューラルネットワークとランダムフォレストの両方を組み合わせて利用してオフライン学習用モデルとして構成してもよい。
 上述の実施形態においては、オンライン学習用の学習済モデルとオフライン学習用の学習済モデルに基づいて出力推定を行う例について説明したが、これらの学習済モデルの利用はそのような例に留まらない。従って、例えば、オンライン学習用の学習済モデルの出力に基づいて所定の条件判定を行い、ユーザに対して、装置に生じた変化に関する通知やそれに伴う情報提供等を行っても良い。例えば、条件を満たした場合に、装置の制御を停止したり、ユーザに対して注意喚起を行う情報を提供する等してもよい。例えば、所定のエラーメッセージを通知したり、装置のメンテナンス時期を通知してもよい。
 条件判定は、例えば、オンライン学習用の学習済モデルの出力が所定の閾値を超えるか否かとすることができる。また、所定の閾値を超える割合や頻度を条件とすることもできる。
 本発明は、機械学習技術を利用する種々の産業等にて利用可能である。
10  情報処理装置
11  制御部
12  記憶部
13  表示部
14  操作信号入力部
15  通信部
16  I/O部
20  制動距離推定装置
21  制御部
22  記憶部
23  表示部
24  I/O部
25  操作信号入力部
26  通信部
28  センサ情報取得部

Claims (13)

  1.  参照入力データを取得する、参照入力データ取得部と、
     訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、
     前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、
     前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、
     参照正解データを取得する、参照正解データ取得部と、
     前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えた情報処理装置。
  2.  前記第1の近似関数は、前記訓練用入力データと前記訓練用正解データに基づいて機械学習を行うことにより生成された第1の学習済モデルである、請求項1に記載の情報処理装置。
  3.  前記第1の近似関数は、前記訓練用入力データと前記訓練用正解データとの関係を定式化した関数である、請求項1に記載の情報処理装置。
  4.  前記情報処理装置は、さらに、
     前記第2の出力データを所定の値域へと制限する出力制限部を備える、請求項1に記載の情報処理装置。
  5.  前記情報処理装置は、さらに、
     前記第2の出力データに基づいて所定の条件判定を行い、所定の条件を満たす場合には、ユーザへと提示される所定の情報を生成する、ユーザ提供情報生成部を備える、請求項1に記載の情報処理装置。
  6.  前記情報は、前記参照入力データ及び前記参照正解データが取得された装置のメンテナンス時期に関する情報である、請求項5に記載の情報処理装置。
  7.  参照入力データを取得する、参照入力データ取得部と、
     訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、
     前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、
     前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、
     参照正解データを取得する、参照正解データ取得部と、
     前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えた情報処理システム。
  8.  参照入力データを取得する、参照入力データ取得ステップと、
     訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成ステップと、
     前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成ステップと、
     前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成ステップと、
     参照正解データを取得する、参照正解データ取得ステップと、
     前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新ステップと、を備えた情報処理方法。
  9.  コンピュータを、
     参照入力データを取得する、参照入力データ取得部と、
     訓練用入力データと前記訓練用入力データに対応する訓練用正解データに基づいて生成された第1の近似関数へと、前記参照入力データを入力して第1の出力データを生成する、第1出力データ生成部と、
     前記訓練用入力データと、前記訓練用入力データを前記第1の近似関数へと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより生成された第2の学習済モデルへと、前記参照入力データを入力して第2の出力データを生成する、第2出力データ生成部と、
     前記第1の出力データと前記第2の出力データとに基づいて最終出力データを生成する、最終出力データ生成部と、
     参照正解データを取得する、参照正解データ取得部と、
     前記第1の出力データと前記参照正解データとの差分データと、前記参照入力データに基づいて機械学習を行い前記第2の学習済モデルを更新する、更新部と、を備えた情報処理装置として機能させるためのプログラム。
  10.  訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理部と、
     前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理部と、を備える情報処理装置。
  11.  訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理ステップと、
     前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理ステップと、を備える情報処理方法。
  12.  コンピュータを、
     訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理部と、
     前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理部と、を備える情報処理装置として機能させるためのプログラム。
  13.  訓練用入力データと訓練用正解データに基づいて機械学習を行うことにより第1の学習済モデルを生成する、第1の学習処理ステップと、
     前記訓練用入力データと、前記訓練用入力データを前記第1の学習済モデルへと入力して生成された出力データと前記訓練用正解データの差分データと、に基づいて機械学習を行うことにより第2の学習済モデルを生成する、第2の学習処理ステップと、
     前記第1の学習済モデル及び前記第2の学習済モデルを、所定の装置に対して、前記第2の学習済モデルについては前記装置から取得されるデータに基づいて更新可能な態様で搭載する、学習済モデル搭載ステップと、を備える学習済モデルの適用方法。
PCT/JP2020/037104 2019-12-24 2020-09-30 情報処理装置、方法及びプログラム WO2021131210A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/786,148 US20220383194A1 (en) 2019-12-24 2020-09-30 Information processing device, method, and program
JP2021510471A JP6869589B1 (ja) 2019-12-24 2020-09-30 情報処理装置、方法及びプログラム
EP20905145.7A EP4083866A4 (en) 2019-12-24 2020-09-30 DEVICE, METHOD AND PROGRAM FOR INFORMATION PROCESSING

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019233427 2019-12-24
JP2019-233427 2019-12-24

Publications (1)

Publication Number Publication Date
WO2021131210A1 true WO2021131210A1 (ja) 2021-07-01

Family

ID=76575858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037104 WO2021131210A1 (ja) 2019-12-24 2020-09-30 情報処理装置、方法及びプログラム

Country Status (2)

Country Link
JP (2) JP6919955B2 (ja)
WO (1) WO2021131210A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02100757A (ja) * 1988-10-07 1990-04-12 Ricoh Co Ltd 並列ニューラルネットワーク学習方式
JPH04213752A (ja) * 1990-12-10 1992-08-04 Fujitsu Ltd 対象システムのモデル化及び逆モデル化方法
JPH05290013A (ja) * 1992-04-06 1993-11-05 Sharp Corp ニューラルネットワーク演算装置
JPH07121206A (ja) * 1993-10-20 1995-05-12 Hitachi Ltd ニューラルネットワークによる制御方法および内蔵制御装置
JP2016173686A (ja) 2015-03-16 2016-09-29 国立大学法人岩手大学 情報処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220383194A1 (en) * 2019-12-24 2022-12-01 Aising Ltd. Information processing device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02100757A (ja) * 1988-10-07 1990-04-12 Ricoh Co Ltd 並列ニューラルネットワーク学習方式
JPH04213752A (ja) * 1990-12-10 1992-08-04 Fujitsu Ltd 対象システムのモデル化及び逆モデル化方法
JPH05290013A (ja) * 1992-04-06 1993-11-05 Sharp Corp ニューラルネットワーク演算装置
JPH07121206A (ja) * 1993-10-20 1995-05-12 Hitachi Ltd ニューラルネットワークによる制御方法および内蔵制御装置
JP2016173686A (ja) 2015-03-16 2016-09-29 国立大学法人岩手大学 情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ROBERT M. FRENCH: "Quantitative Psycology and Cognitive Science, Department of Psycology", May 1999, UNIVERSITY OF LIEGE, article "Catastrophic Forgetting in Connectionist Networks: Causes, Consequences, Solutions"

Also Published As

Publication number Publication date
JP2021170376A (ja) 2021-10-28
JP2021108172A (ja) 2021-07-29
JP6919955B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
JP6869589B1 (ja) 情報処理装置、方法及びプログラム
US20220146993A1 (en) Machine learning method and machine learning device for learning fault conditions, and fault prediction device and fault prediction system including the machine learning device
JP6148316B2 (ja) 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
US10782664B2 (en) Production system that sets determination value of variable relating to abnormality of product
JP6438366B2 (ja) 電動機に対する動作指令を学習する機械学習方法および機械学習装置並びに該機械学習装置を備えた制御装置および電動機装置
JP4952025B2 (ja) 運転制御方法,運転制御装置及び運転制御システム
EP3424650A1 (en) A method and apparatus for performing control of a movement of a robot arm
US10510016B2 (en) Methods and systems using a composition of autonomous self-learning software components for performing complex real time data-processing tasks
JP2019083309A5 (ja)
JP2019185127A5 (ja) ニューラルネットワークの学習装置およびその制御方法
US11579000B2 (en) Measurement operation parameter adjustment apparatus, machine learning device, and system
CN113614743A (zh) 用于操控机器人的方法和设备
US8190536B2 (en) Method of performing parallel search optimization
WO2021131210A1 (ja) 情報処理装置、方法及びプログラム
JP6603260B2 (ja) 数値制御装置
GB2617416A (en) Autonomous control system and method using embodied homeostatic feedback in an operating environment
CN112801558B (zh) 一种工艺参数调节动作决策模型的优化方法以及装置
WO2018224649A1 (en) Method and distributed control system for carrying out an automated industrial process
KR102200809B1 (ko) 학습기반 데이터 처리 시스템 및 모델 갱신 방법
EP3965020A1 (en) A model for a rapid continual anomaly detector
US11940787B2 (en) Control device, method, program, and system using machine learning technology
JP2020179438A (ja) 計算機システム及び機械学習方法
KR102222072B1 (ko) 학습기반 데이터 처리 시스템 및 모델 갱신 방법
US20230050374A1 (en) Backlash-amount measurement apparatus, backlash-amount measurement method and computer readable medium
JP2022535339A (ja) 自動化システムを操作する方法および装置、自動化システム、およびコンピュータプログラム製品

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021510471

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20905145

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020905145

Country of ref document: EP

Effective date: 20220725