JP2018147261A - Model integration device, model integration system, method and program - Google Patents

Model integration device, model integration system, method and program Download PDF

Info

Publication number
JP2018147261A
JP2018147261A JP2017042153A JP2017042153A JP2018147261A JP 2018147261 A JP2018147261 A JP 2018147261A JP 2017042153 A JP2017042153 A JP 2017042153A JP 2017042153 A JP2017042153 A JP 2017042153A JP 2018147261 A JP2018147261 A JP 2018147261A
Authority
JP
Japan
Prior art keywords
model
output
common
common model
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017042153A
Other languages
Japanese (ja)
Other versions
JP6660900B2 (en
Inventor
賢史 小森田
Masashi Komorida
賢史 小森田
茂之 酒澤
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017042153A priority Critical patent/JP6660900B2/en
Publication of JP2018147261A publication Critical patent/JP2018147261A/en
Application granted granted Critical
Publication of JP6660900B2 publication Critical patent/JP6660900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a model integration device, a model integration system, a method, and a program that realize reflection and integration of results of individual learning on a new model without holding sample data used for individual learning by comparing an individual model and a new common model and relearning them in the individual model derived from a common model.SOLUTION: A model integration device 10 for integrating a plurality of neural network models includes: an output acquisition unit 12 that acquires outputs from one learned common model that has accepted the same input, an individual model that has advanced learning based on the common model, and a new common model that has advanced learning based on the common model, as a first output, a second output, and a third output, respectively; and a selector 14 that selects, among the acquired outputs, one of them and outputs in accordance with a criterion for giving priority to the second output based on at least accuracy of the first output and accuracy of the second output.SELECTED DRAWING: Figure 4

Description

本発明は、複数のニューラルネットワークモデルを統合するモデル統合装置、モデル統合システム、方法およびプログラムに関する。   The present invention relates to a model integration device, a model integration system, a method, and a program for integrating a plurality of neural network models.

近年、ニューラルネットワークを活用した深層学習により、これまで機械的な判断では難しかった画像からの人物の動きなど、高度なコンテキスト理解が可能になっている。ただし、この深層学習による画像認識では、従来の手動で設計する特徴点に基づいた認識技術と異なり、自動的に特徴を抽出することができるが、精度を上げるためには大量のサンプル画像を用いて学習し、そのモデルを作成することが必要となる。   In recent years, deep learning using a neural network has made it possible to understand advanced contexts such as a person's movement from an image that has been difficult until now with mechanical judgment. However, in this image recognition by deep learning, features can be extracted automatically, unlike conventional recognition technology based on manually designed feature points, but a large number of sample images are used to improve accuracy. Learning and creating a model.

また、一般的にサンプル数が多いほど精度が向上するため、一度モデル化をした後もサンプルを収集し、モデルを更新、精度を上げつづけるシステムを構築することは、深層学習を用いたシステムにおいては重要である。例えば、写真のストレージサービスなどを無料利用可能な代わりにそのデータをサンプルとして学習に使用する(例:https://www.google.com/intl/ja/policies/terms/)ようなエコシステムの構築や、自社のシステムで利用可能なモデルや技術を広めるために、学習済みモデルの公開やオープンソース化(非特許文献1)が行われている。   In addition, since the accuracy generally increases as the number of samples increases, it is important to construct a system that collects samples, updates the model, and continues to increase accuracy after modeling once. Is important. For example, instead of being able to use a photo storage service for free, the data is used as a sample for learning (eg https://www.google.com/intl/en/policies/terms/) In order to spread models and technologies that can be used for construction and in-house systems, learned models have been made public and open sourced (Non-Patent Document 1).

Abadi, Martin, et al. "Tensorflow: Large-scale machine learning on heterogeneous distributed systems." arXiv preprint arXiv:1603.04467 (2016).Abadi, Martin, et al. "Tensorflow: Large-scale machine learning on heterogeneous distributed systems." ArXiv preprint arXiv: 1603.04467 (2016). R. Girshick, J. Donahue, T. Darrell, U. C. Berkeley, and J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. In Proc. IEEE CVPR, 2014.R. Girshick, J. Donahue, T. Darrell, U. C. Berkeley, and J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation.In Proc.IEEE CVPR, 2014. Jeffrey Dean, Gregory S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc’Aurelio Ranzato, Andrew Senior, Paul Tucker, 17 Ke Yang, and Andrew Y. Ng. Large scale distributed deep networks. In NIPS, 2012.Jeffrey Dean, Gregory S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc'Aurelio Ranzato, Andrew Senior, Paul Tucker, 17 Ke Yang, and Andrew Y. Ng. Large scale distributed deep networks. In NIPS, 2012.

上記のように多くのサンプルを集めることで精度が高くなるが、判断内容はいわゆる多数決で決めるような平均的な回答に近づいていく。一方で、各家庭では独自の文化があるように、深層学習においてもパーソナライズ化が必要とされており、各家庭の個別のサンプルを用いて学習を行った方が各家庭に適した判断ができるようになる。前者を共通モデル、後者を個別モデルと呼ぶとすると、個別モデルは一部の領域において高い精度を出すが、それ以外については共通モデルの方が優れることになる。   The accuracy increases by collecting a large number of samples as described above, but the judgment content approaches an average answer determined by a so-called majority vote. On the other hand, personalization is also required in deep learning, as each family has its own culture, and it is possible to make judgments that are more appropriate for each family by learning using individual samples from each family. It becomes like this. If the former is called a common model and the latter is called an individual model, the individual model gives high accuracy in a part of the area, but the common model is superior to the others.

一部について個別化したモデルを作るためには、ベースとなるモデルに基づいて再学習を行うFine Tuning(非特許文献2)という手法が確立しており、共通モデルをベースとして各家庭に個別化した学習ができる。しかしながら、前記したようにこのベースとなる共通モデルもその後学習が進み、より精度の高いものに進化してしまう。そのため、個別化されたモデルもそれに基づいて更新を行うことが考えられる。しかしながら、学習した個別モデルを新しい共通モデルに置き換えて再度学習をやり直しては、これまで各ユーザ、家庭で学習してきた内容が消えてしまい、ユーザの利用感にギャップが生じてしまう。   A method called Fine Tuning (Non-Patent Document 2), in which re-learning is performed based on the base model, has been established in order to create a model that is individualized for a part, and individualized to each household based on the common model Can learn. However, as described above, the common model serving as the base is subsequently learned and evolved to a higher accuracy. Therefore, it can be considered that the individualized model is updated based on the model. However, if the learned individual model is replaced with a new common model and learning is performed again, the contents learned at each user and at home disappear, and a gap in the user's feeling of use occurs.

そこで、新しい共通モデルと個別モデルをギャップなく統合する必要性が出てくる。各モデルのパラメタを計算式で統合することは学習結果の意味を失うため行われておらず、また共通モデルのニューラルネットワーク自体が変わってしまっている場合もあり困難である。一方で個別モデルの学習に用いたサンプルデータを、改めて新しい共通モデルに与えてFine Tuningをやり直すことは可能であるが、これらのサンプルデータはパーソナライズ化が進むにつれて膨大になるため、常時保持しておくことは難しい。複数の機材で並行して学習を行う並行学習の手法(非特許文献3)もあるが、これらは一つの学習モデルをタスク分散して生成する方式であって、個別に学習、また異なるネットワークモデルを持つ学習済みモデルを統合することはできない。   Therefore, it becomes necessary to integrate new common models and individual models without gaps. It is difficult to integrate the parameters of each model with a calculation formula because it loses the meaning of the learning result, and the neural network itself of the common model may have changed. On the other hand, it is possible to give the sample data used for learning the individual model again to the new common model and perform Fine Tuning again, but since these sample data become enormous as personalization progresses, keep them constantly. It is difficult to leave. There is also a parallel learning method (Non-Patent Document 3) in which learning is performed in parallel with multiple devices, but these are methods in which a single learning model is generated by task distribution, learning individually, and different network models You cannot integrate a trained model with

定期的に更新される学習済みの共通モデルがあり、これから派生した個別モデルにおいては、この更新された共通モデルと統合する必要がある。今までは、共通モデルをベースとして、個別モデルの学習に使用したサンプルデータを用いて再学習させる必要があった。しかしながら、学習が進むほどサンプルデータの量は多くなり、統合のために保持し続けることは難しくなる。   There is a learned common model that is regularly updated, and an individual model derived therefrom needs to be integrated with the updated common model. Until now, it was necessary to re-learn using sample data used for learning of individual models based on a common model. However, as learning progresses, the amount of sample data increases and it becomes difficult to keep it for integration.

本発明は、このような事情に鑑みてなされたものであり、共通モデルから派生した個別モデルにおいて、この個別モデルと新しい共通モデルを比較して再学習することにより、個別学習に用いたサンプルデータを保持することなく、新しいモデルに個別学習の結果を反映、統合することを実現するモデル統合装置、モデル統合システム、方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances. In an individual model derived from a common model, sample data used for individual learning is obtained by comparing and re-learning the individual model and a new common model. It is an object of the present invention to provide a model integration device, a model integration system, a method, and a program that realizes reflecting and integrating the results of individual learning into a new model without maintaining the above.

(1)上記の目的を達成するため、本発明は、以下のような手段を講じた。すなわち、本発明のモデル統合装置は、複数のニューラルネットワークモデルを統合するモデル統合装置であって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する出力取得部と、前記取得された各出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するセレクタと、を備える。   (1) In order to achieve the above object, the present invention has taken the following measures. That is, the model integration apparatus of the present invention is a model integration apparatus that integrates a plurality of neural network models, and has advanced learning based on one common model that has received the same input and the common model. An output acquisition unit that acquires an output from the individual model and a new common model that has been learned based on the common model as a first output, a second output, and a third output, respectively; A selector that selects and outputs one of the outputs according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output; Prepare.

これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。   Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.

(2)また、本発明のモデル統合装置は、前記共通モデルに基づいて学習を進めた新たな共通モデルに基づき、入力に対して判定結果を出力するモデル判定部と、前記選択された1つの出力に基づいて、前記新たな共通モデルに再学習を実施する再学習部と、を備え、前記新たな共通モデルに再学習が実施された場合、前記モデル判定部は、再学習された共通モデルに基づき、入力に対して判定結果を出力し、前記出力取得部は、再学習された共通モデルの出力を第3の出力として取得する。   (2) Further, the model integration device of the present invention includes a model determination unit that outputs a determination result with respect to an input based on a new common model learned based on the common model, and the selected one A re-learning unit that re-learns the new common model based on the output, and when the re-learning is performed on the new common model, the model determination unit is configured to re-learn the common model And the output acquisition unit acquires the re-learned output of the common model as a third output.

これにより、個別モデルを生成したデータが無くとも、新しいデータに対してその判定結果を利用することで、新たな共通モデルに基づいた新たな個別モデルを漸次に生成できる。また、新たな共通モデルで精度が向上した部分についても、取り入れることができる。   As a result, even if there is no data for generating the individual model, a new individual model based on the new common model can be generated gradually by using the determination result for the new data. It is also possible to incorporate parts with improved accuracy in the new common model.

(3)また、本発明のモデル統合装置は、前記新たな共通モデルに基づいて学習を進めた第3の共通モデルの有無を判断し、前記第3の共通モデルがある場合は前記第3の共通モデルを取り込み、前記新たな共通モデルと置き換える更新部を備え、前記第3の共通モデルが取り込まれた場合、前記モデル判定部は、前記第3の共通モデルに基づき、入力に対して判定結果を出力し、前記出力取得部は、同一の入力を受け付けた、前記新たな共通モデル、前記再学習されたモデル、および前記第3の共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得し、前記再学習部は、前記選択された1つの出力に基づいて、前記第3の共通モデルに再学習を実施する。   (3) Further, the model integration device of the present invention determines whether or not there is a third common model that has been learned based on the new common model, and if there is the third common model, the third common model An update unit that takes in a common model and replaces it with the new common model is provided, and when the third common model is taken in, the model determination unit determines a determination result for an input based on the third common model. The output acquisition unit receives the same input, and outputs the new common model, the re-learned model, and the third common model as the first output and the second common model, respectively. The re-learning unit performs re-learning on the third common model based on the selected one output.

これにより、新たな共通モデルに対してより精度を向上させた第3の共通モデルに基づいて、新たな個別モデルを生成できる。また、第3の共通モデルで精度が向上した部分についても、取り入れることができる。   Thereby, a new individual model can be generated based on the third common model in which the accuracy is further improved with respect to the new common model. In addition, it is possible to incorporate a portion whose accuracy has been improved by the third common model.

(4)また、本発明のモデル統合装置において、前記再学習部は、前記第2の出力と前記第3の出力とが、予め定められた閾値以上の割合で一致したときに再学習を停止する。   (4) In the model integration device of the present invention, the re-learning unit stops re-learning when the second output and the third output match at a rate equal to or greater than a predetermined threshold. To do.

これにより、十分に再学習がされたモデルに対して、繰り返し再学習されることがなくなり、無駄な処理を行わない。   As a result, the re-learned model is not repeatedly re-learned, and unnecessary processing is not performed.

(5)また、本発明のモデル統合装置において、前記出力取得部は、同一の入力を受け付けた、前記共通モデルとは異なる1以上のその他の共通モデルからの出力をさらに取得し、前記セレクタは、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、前記出力取得部が取得したすべての出力のうちいずれか1つを選択して出力する。   (5) Further, in the model integration device of the present invention, the output acquisition unit further acquires outputs from one or more other common models different from the common model that have received the same input, and the selector Selecting any one of all the outputs acquired by the output acquisition unit according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output And output.

これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルまたはその他の共通モデルの出力結果を利用することができる。   Thereby, in the individual model derived from the learned common model, the output result of the new common model or other common model can be used without losing the individually learned result.

(6)また、本発明のモデル統合システムは、複数のニューラルネットワークモデルを統合するモデル統合システムであって、共通モデルを管理し、学習を進めることにより精度を向上させる共通モデルサーバと、(3)に記載のモデル統合装置と、を備え、前記共通モデルサーバは、学習を進めた新たな共通モデルを定期的に公開し、前記モデル統合装置は、前記新たな共通モデルを定期的に取り込む。   (6) The model integration system of the present invention is a model integration system that integrates a plurality of neural network models, manages the common model, and advances the learning to improve the accuracy, and (3 The common model server periodically publishes a new common model that has been learned, and the model integration device periodically fetches the new common model.

これにより、サーバが公開した新たな共通モデルに基づいた新たな個別モデルを定期的に生成できる。なお、共通モデルサーバが管理する共通モデルには、学習済みの共通モデル、新たな共通モデル、第3の共通モデル、その他の共通モデルなど様々な共通モデルが含まれる。   Thereby, a new individual model based on a new common model published by the server can be periodically generated. The common model managed by the common model server includes various common models such as a learned common model, a new common model, a third common model, and other common models.

(7)また、本発明のモデル統合方法は、複数のニューラルネットワークモデルを統合するモデル統合方法であって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得するステップと、前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するステップと、を含む。   (7) Further, the model integration method of the present invention is a model integration method for integrating a plurality of neural network models, one learned common model that receives the same input, and learning based on the common model Obtaining the outputs from the individual model that has been advanced and the new common model that has been learned based on the common model as the first output, the second output, and the third output, respectively, And selecting and outputting any one of the first output according to a criterion that prioritizes the second output based on the accuracy of the first output and the accuracy of the second output.

これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。   Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.

(8)また、本発明のモデル統合プログラムは、複数のニューラルネットワークモデルを統合するモデル統合プログラムであって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する処理と、前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力する処理と、の一連の処理をコンピュータに実行させる。   (8) The model integration program according to the present invention is a model integration program that integrates a plurality of neural network models, and receives a single input common model that has received the same input, and learning based on the common model. And a process of acquiring outputs from the individual model that has been advanced and the new common model that has been learned based on the common model as the first output, the second output, and the third output, respectively, and the respective outputs A process of selecting and outputting any one of the first output in accordance with a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. Have the computer execute the process.

これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。   Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.

本発明によれば、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。   According to the present invention, an individual model derived from a learned common model can be integrated with a new common model without losing the individually learned result.

モデルの利用構成を示す概念図である。It is a conceptual diagram which shows the utilization structure of a model. モデルの発展の経時的な流れを示す概念図である。It is a conceptual diagram which shows the time course of development of a model. モデルの発展の経時的な流れを示す概念図である。It is a conceptual diagram which shows the time course of development of a model. 第1の実施形態に係るモデル統合装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus which concerns on 1st Embodiment. モデル判定機能により入力に対して判定結果として出力された情報の一例を示す表である。It is a table | surface which shows an example of the information output as a determination result with respect to input by the model determination function. 第1の実施形態に係るモデル統合装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus which concerns on 1st Embodiment. 第1の実施形態に係るモデル統合装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus which concerns on 1st Embodiment. 個別モデルと新たな共通モデルを統合する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which integrates an individual model and a new common model. 第2の実施形態に係るモデル統合装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus which concerns on 2nd Embodiment. 第2の実施形態に係るモデル統合装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus which concerns on 2nd Embodiment. (a)は、共通モデルに基づいて個別モデルを生成するまでの動作を示すフローチャートである。(b)は、個別モデルを生成した後、個別モデルと新たな共通モデルを統合すると共に、新たな共通モデルに基づいて新たな個別モデルを生成するまでの動作を示すフローチャートである。(A) is a flowchart which shows operation | movement until it produces | generates an individual model based on a common model. (B) is a flowchart showing an operation from generation of an individual model to integration of the individual model and a new common model and generation of a new individual model based on the new common model. 第3の実施形態に係るモデル統合装置およびモデル統合システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus and model integration system which concern on 3rd Embodiment. モデルが置き換えられた後の、第3の実施形態に係るモデル統合装置およびモデル統合システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the model integration apparatus and model integration system which concern on 3rd Embodiment after a model is replaced. モデルを置き換えるまでの動作を示すフローチャートである。It is a flowchart which shows the operation | movement until it replaces a model.

以下に本願での用語の定義を説明する。特記される場合を除き、以下の定義により解釈されるものとする。   The definitions of terms in the present application will be described below. Except as otherwise noted, it shall be interpreted according to the following definitions.

(1)共通モデルは、不特定多数の人やノードなどから収集したデータをサンプルデータとして学習をした、ニューラルネットワークモデルである。学習済みの共通モデルは、通常の使用ができる程度まで学習された共通モデルである。   (1) The common model is a neural network model in which data collected from an unspecified number of people and nodes is learned as sample data. The learned common model is a common model learned to the extent that it can be used normally.

(2)個別モデルは、特定少数の人やノード(特定の個人や家庭、会社など)から収集したデータをサンプルデータとして、共通モデルを基にさらに学習をした、ニューラルネットワークモデルである。サンプルデータの偏りによって、一部の領域の入力に対しては、基となった共通モデルよりも高い精度の出力が得られる。   (2) The individual model is a neural network model obtained by further learning based on a common model using data collected from a specific small number of people or nodes (specific individuals, homes, companies, etc.) as sample data. Due to the bias of the sample data, an output with higher accuracy than that of the base common model can be obtained for an input in a part of the region.

(3)学習は、問題の最適解を求める過程で、試行錯誤と結果のフィードバックによってよりよい解法へ近づいていくことである。ニューラルネットワークモデルは、学習によって通常は精度が向上する。   (3) Learning is a process of finding an optimal solution of a problem, and approaches a better solution by trial and error and feedback of results. Neural network models usually improve accuracy by learning.

(4)共通学習とは、共通モデルを得るため、または、共通モデルの精度を上げるために、不特定多数の人やノードなどから収集したデータをサンプルデータとして学習をすることである。   (4) Common learning is to learn data collected from an unspecified number of people or nodes as sample data in order to obtain a common model or improve the accuracy of the common model.

(5)個別に学習する(個別学習)とは、共通モデルに基づいて個別モデルを得るため、または、個別モデルの精度を上げるために、特定少数の人やノードから収集したデータをサンプルデータとして、学習をすることである。再学習も同じ意味で使用する。また、モデル統合装置の出力を利用して、自動で行うことも、ユーザのフィードバックの入力により行うことも含む。   (5) With individual learning (individual learning), in order to obtain an individual model based on a common model or to improve the accuracy of an individual model, data collected from a specific small number of people or nodes is used as sample data. To learn. Re-learning is used in the same meaning. Moreover, it includes performing automatically by using the output of the model integration device, and performing by inputting user feedback.

次に、本発明の実施の形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。   Next, embodiments of the present invention will be described with reference to the drawings. In order to facilitate understanding of the description, the same reference numerals are given to the same components in the respective drawings, and duplicate descriptions are omitted.

(モデルの利用構成)
本発明が想定するモデルの利用構成を図1に示す。一般的に深層学習などによるモデルは、大量のサンプルデータに基づいて作成される。これは一度作成されるだけではなく、継続的なサンプルデータの収集に基づいて常に更新し続ける。例えば、各家庭で収集したデータをクラウド上に集めて学習する、スマートフォンで収集したデータをクラウド上に集めて学習するなどが行われている。この学習によって生成されたモデルは汎用的な共通モデルであり、幅広く使用することができる。一方で、各家庭、各スマートフォンでも個別に学習が進んでいる。例えば、特定の発音、特定の操作、個人の画像などその利用者、利用環境にあった内容によって学習される。この場合、サンプルデータが少なくなりやすいことから、前記した共通モデルに基づき再学習して利用されることが多い。そのため、図1に示すようにサンプルデータの収集と共通モデルの学習、それに基づく個別の学習やその個別モデルの利用の関係が成り立つ。
(Model usage structure)
FIG. 1 shows a use configuration of a model assumed by the present invention. In general, a model by deep learning or the like is created based on a large amount of sample data. This is not only created once, but it is constantly updated based on continuous collection of sample data. For example, data collected at each home is collected and learned on the cloud, and data collected with a smartphone is collected and learned on the cloud. The model generated by this learning is a general-purpose common model and can be used widely. On the other hand, learning is progressing individually in each home and each smartphone. For example, learning is performed according to the content of the user and usage environment, such as specific pronunciation, specific operation, and personal image. In this case, sample data is likely to be reduced, so that it is often used after re-learning based on the common model. Therefore, as shown in FIG. 1, the relationship between collection of sample data and learning of the common model, individual learning based on the learning, and use of the individual model is established.

(モデルの発展の流れ)
次に、モデルの発展の経時的な流れを図2に示す。ある時点で既に存在する学習済みの共通モデルを「モデルA1」、これを複製したものを「モデルZ1」、これに基づいて個別に学習したモデルを「モデルZ1’」とする。一方で、「モデルA1」は時間経過と共にさらに学習を重ね「モデルA2」が生成される。この「モデルA2」は「モデルA1」よりも基本的には精度が高く、より広い判定ができるものとなっている。しかし、一般的な判断をするものであり、「モデルZ1’」を使用した方がよい場合がある。そこで、モデル統合装置を用いることで、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。
(Model development flow)
Next, the flow of model development over time is shown in FIG. A learned common model that already exists at a certain point in time is referred to as “model A1”, a duplicated model is referred to as “model Z1”, and a model individually learned based on this is referred to as “model Z1 ′”. On the other hand, “model A1” is further learned as time passes, and “model A2” is generated. The “model A2” is basically higher in accuracy than the “model A1” and can make a wider determination. However, this is a general decision, and it may be better to use “model Z1 ′”. Therefore, by using the model integration device, an individual model derived from a learned common model can be integrated with a new common model without losing the individually learned result.

また、再度「モデルA2」に基づいて個別に学習したモデル「モデルZ2’」を生成したい。しかしながら、「モデルZ2’」は、一般的に「モデルZ1’」や「モデルA2」から計算により求めることができない。そこで、モデル統合装置の出力を用いて、「モデルA2」を複製した「モデルZ2」に基づいて再学習したモデル「モデルZ2’」を漸次に生成する。   Also, it is desired to generate a model “model Z2 ′” that is individually learned based on “model A2” again. However, “model Z2 ′” cannot generally be obtained by calculation from “model Z1 ′” or “model A2”. Therefore, using the output of the model integration device, a model “model Z2 ′” that is relearned based on “model Z2” that is a duplicate of “model A2” is generated gradually.

また、図3に示すように、途中でほかの共通モデルでも合わせて取り込むことも可能にする。これは個別に学習した「モデルZ1’」を新しい共通モデルに適用させる際に、元となった「モデルA」以外の共通モデルを統合するものである。この統合する共通モデルは、B、C、D、E、…とN個取り扱うことができる。   Further, as shown in FIG. 3, it is possible to capture other common models along the way. This is to integrate common models other than the original “model A” when applying “model Z1 ′” learned individually to a new common model. This common model to be integrated can be handled as B, C, D, E,.

[第1の実施形態]
(モデル統合装置の構成)
図4は、本実施形態に係るモデル統合装置10の構成の一例を示すブロック図である。モデル統合装置10は、出力取得部12とセレクタ14とから構成されている。モデル統合装置10は、出力取得部12により取得された3以上の出力のうち、セレクタ14が1つを選択して出力する。
[First Embodiment]
(Configuration of model integration device)
FIG. 4 is a block diagram illustrating an example of the configuration of the model integration device 10 according to the present embodiment. The model integration device 10 includes an output acquisition unit 12 and a selector 14. In the model integration device 10, the selector 14 selects and outputs one of the three or more outputs acquired by the output acquisition unit 12.

出力取得部12は、少なくとも、同一の入力を受け付けた、「モデルZ1」(学習済みの共通モデル)、「モデルZ1’」(個別モデル)、および「モデルA2」を複製した「モデルZ2」(新たな共通モデル)からの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する。モデルの出力とは、モデル判定部16により入力に対して判定結果として出力された情報であり、学習内容のモデルによって異なるが、例えば椅子や机などのモノの判定。人物やペットなどの判定。また話しかけに対する対応タスクの選択などがあり得る。例えば、図5の表のような情報である。出力取得部12は、この出力のうち、例えば、「ClassID_X_k」(モデルXに基づいた、k番目に精度が高い判定内容)および「Confidence_X_k」(モデルXに基づいた、k番目の判定内容の精度)などの必要な情報を取り込む。なお、k=1のときは、「_k」を省略して表す。モデル判定部16はモデル毎にあるが、基とするモデルが異なるだけで、機能は同じである。   The output acquisition unit 12 receives at least the same input, “model Z1” (learned common model), “model Z1 ′” (individual model), and “model Z2” (“model A2”). Outputs from the new common model) are acquired as a first output, a second output, and a third output, respectively. The model output is information output as a determination result with respect to the input by the model determination unit 16, and for example, determination of an object such as a chair or a desk, depending on the learning content model. Judgment of people and pets. There may also be a selection of a task to respond to the conversation. For example, the information is as shown in the table of FIG. The output acquisition unit 12 includes, for example, “ClassID_X_k” (the determination content having the kth highest accuracy based on the model X) and “Confidence_X_k” (the accuracy of the kth determination content based on the model X). ) And other necessary information. When k = 1, “_k” is omitted. Although the model determination unit 16 is provided for each model, the function is the same except that the base model is different.

モデルZ1判定部16aは、「モデルZ1」に基づき、入力に対して判定結果を出力する機能を有する。出力内容は、判定内容を示す「ClassID_Z1_k」とその確からしさを示す精度「Confidence_Z1_k」の組からなる表である。例えば、入力は静止画映像で、「ClassID_Z1」は「テーブル」、「Confidence_Z1」は0.788などである。   The model Z1 determination unit 16a has a function of outputting a determination result with respect to an input based on “model Z1”. The output contents are a table composed of a set of “ClassID_Z1_k” indicating the determination contents and accuracy “Confidence_Z1_k” indicating the certainty thereof. For example, the input is a still image, “ClassID_Z1” is “table”, “Confidence_Z1” is 0.788, and the like.

モデルZ1’判定部16bは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルは個別に学習を進めたモデルであることが異なる。出力は、判定内容の「ClassID_Z1’_k」と、その精度「Confidence_Z1’_k」の組からなる表となる。   The model Z1 'determination unit 16b has a function equivalent to that of the model Z1 determination unit 16a described above, but the learning model used for the determination is a model in which learning is advanced individually. The output is a table composed of a set of determination content “ClassID_Z1′_k” and accuracy “Confidence_Z1′_k”.

モデルZ2判定部16cは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルは精度が上がった共通モデルであることが異なる。出力は、判定内容の「ClassID_Z2_k」と、その精度「Confidence_Z2_k」の組からなる表となる。   The model Z2 determination unit 16c has a function equivalent to that of the model Z1 determination unit 16a described above, but the learning model used for the determination is a common model with improved accuracy. The output is a table composed of a set of “ClassID_Z2_k” of determination contents and accuracy “Confidence_Z2_k”.

セレクタ14は、出力取得部12が取得した、少なくとも「モデルZ1」、「モデルZ1’」、および「モデルZ2」の出力を入力とし、いずれか1つを選択して出力する。この処理は、例えば、次のような基準に従って選択させることができる。
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
The selector 14 receives at least the outputs of the “model Z1”, “model Z1 ′”, and “model Z2” acquired by the output acquisition unit 12, and selects and outputs one of them. This process can be selected according to the following criteria, for example.
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.

これを詳細に場合分けすると次のようになる。
a)ClassID_Z1、ClassID_Z1’、ClassID_Z2がいずれも等しい場合
ClassID_Z2を出力とする。
b)ClassID_Z1、ClassID_Z1’が等しく、ClassID_Z2が異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
c)ClassID_Z1、ClassID_Z2が等しく、ClassID_Z1’が異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
d)ClassID_Z1’、ClassID_Z2が等しく、ClassID_Z1が異なる場合
ClassID_Z2を出力とする。
e)ClassID_Z1、ClassID_Z1’、ClassID_Z2のいずれも異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
This is divided into cases as follows.
a) When ClassID_Z1, ClassID_Z1 ', and ClassID_Z2 are all equal
ClassID_Z2 is output.
b) When ClassID_Z1 and ClassID_Z1 'are equal and ClassID_Z2 is different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
c) When ClassID_Z1 and ClassID_Z2 are equal and ClassID_Z1 'is different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
d) When ClassID_Z1 'and ClassID_Z2 are equal and ClassID_Z1 is different
ClassID_Z2 is output.
e) When ClassID_Z1, ClassID_Z1 ', and ClassID_Z2 are all different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.

モデル統合装置10は、図6に示すように、N個の共通モデルを統合して、出力を選択してもよい。図4と比較して、次の機能ブロックが異なる。   As illustrated in FIG. 6, the model integration device 10 may select N outputs by integrating N common models. Compared to FIG. 4, the following functional blocks are different.

モデルB2判定部16eは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルが「モデルB2」であることが異なる。出力は、判定内容の「ClassID_B2_k」と、その精度「Confidence_B2_k」の組からなる表となる。同様に、モデルC2判定部、モデルD2判定部とN個の判定部がある。   The model B2 determination unit 16e has a function equivalent to that of the model Z1 determination unit 16a described above, except that the learning model used for the determination is “model B2”. The output is a table composed of a set of determination content “ClassID_B2_k” and accuracy “Confidence_B2_k”. Similarly, there are a model C2 determination unit, a model D2 determination unit, and N determination units.

セレクタ14は、「モデルZ1」、「モデルZ1’」、「モデルZ2」、「モデルB2」…の判定結果の出力を入力とし、いずれか1つを選択して出力する。この処理は、例えば、次のような基準に従って選択させることができる。
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、「モデルZ1」「モデルZ1’」を除く尤も精度の高いClassIDを出力とする。
The selector 14 receives an output of determination results of “model Z1”, “model Z1 ′”, “model Z2”, “model B2”..., And selects and outputs one of them. This process can be selected according to the following criteria, for example.
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Other than that, class ID with high accuracy excluding “model Z1” and “model Z1 ′” is output.

なお、本実施形態に係るモデル統合装置10は、図4および図6のようにモデル判定部16を備えない装置について説明したが、図7のように、モデル毎のモデル判定部16の一部またはすべてを備えていてもよい。   Note that the model integration device 10 according to the present embodiment has been described with respect to an apparatus that does not include the model determination unit 16 as illustrated in FIGS. 4 and 6, but a part of the model determination unit 16 for each model as illustrated in FIG. 7. Or you may have everything.

(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図8は、個別モデル「モデルZ1’」と新たな共通モデル「モデルZ2」を統合する動作を示すフローチャートである。
(Operation of model integration device)
Next, the operation of the model integration device 10 will be described. FIG. 8 is a flowchart showing an operation of integrating the individual model “model Z1 ′” and the new common model “model Z2”.

出力取得部12は、少なくとも、同一の入力を受け付けた、「モデルZ1」、「モデルZ1’」、および「モデルA2」を複製した「モデルZ2」からの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得し、その他の出力があるときはその他の出力も取得する(ステップS1)。次に、出力取得部12は、取得した第1から第3の出力、およびその他の出力があるときはその他の出力をセレクタ14に入力する(ステップS2)。そして、セレクタ14は、上記のような、少なくとも第1の出力の精度と第2の出力の精度とに基づいた第2の出力を優先する基準に従って、いずれか1つを選択して出力する(ステップS3)。このような動作により、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合した判定結果を出力することができる。   The output acquisition unit 12 receives at least the same input, and outputs the output from “model Z2” obtained by duplicating “model Z1”, “model Z1 ′”, and “model A2” as the first output, 2 and the third output, and when there are other outputs, the other outputs are also acquired (step S1). Next, the output acquisition unit 12 inputs the other outputs to the selector 14 when there are the acquired first to third outputs and other outputs (step S2). Then, the selector 14 selects and outputs one of them according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output as described above ( Step S3). With such an operation, in the individual model derived from the learned common model, it is possible to output the determination result integrated with the new common model without losing the individually learned result.

[第2の実施形態]
第1の実施形態では、モデル統合装置10が、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合した判定結果を出力する構成としているが、その統合した判定結果を利用して、新たな共通モデルに再学習をさせることにより、新たな共通モデルに基づいた個別モデルを生成できる構成にしてもよい。
[Second Embodiment]
In the first embodiment, the model integration device 10 outputs a determination result integrated with a new common model without losing the individually learned result in the individual model derived from the learned common model. However, a configuration may be adopted in which an individual model based on a new common model can be generated by re-learning a new common model using the integrated determination result.

(モデル統合装置の構成)
図9は、本実施形態に係るモデル統合装置10の構成の一例を示すブロック図である。モデル統合装置10は、第1の実施形態にも示した出力取得部12とセレクタ14の構成以外に、モデルZ1判定部16a、モデルZ1’判定部16b、モデルZ2’判定部16d、および再学習部20から構成されている。モデル統合装置10は、出力取得部12により取得された3以上の出力のうち、セレクタ14が1つを選択して出力すると共に、再学習部20がセレクタ14が選択した出力に基づいて「モデルZ2’」に再学習を実施し、「モデルZ2」に基づいた新たな個別モデルを漸次に生成する。なお、ブロック図において、黒矢印は、学習によってモデルの中身が変化することを示す。「モデルZ2’」の初期値は、「モデルZ2」であり、これが学習によって「モデルZ2’」に変化する。
(Configuration of model integration device)
FIG. 9 is a block diagram illustrating an example of the configuration of the model integration device 10 according to the present embodiment. In addition to the configuration of the output acquisition unit 12 and the selector 14 shown in the first embodiment, the model integration device 10 includes a model Z1 determination unit 16a, a model Z1 ′ determination unit 16b, a model Z2 ′ determination unit 16d, and relearning The unit 20 is configured. The model integration device 10 selects one of the three or more outputs acquired by the output acquisition unit 12 and outputs it, and the relearning unit 20 selects “model” based on the output selected by the selector 14. Re-learning is performed on “Z2 ′”, and new individual models based on “model Z2” are gradually generated. In the block diagram, black arrows indicate that the contents of the model change due to learning. The initial value of “model Z2 ′” is “model Z2”, which changes to “model Z2 ′” by learning.

モデルZ1判定部16a、モデルZ1’判定部16b、モデルZ2’判定部16dは、それぞれ、「モデルZ1」、「モデルZ1’」、「モデルZ2’」に基づいて、入力に対して判定結果を出力する。出力取得部12、セレクタ14、の機能は、第1の実施形態と同様である。ただし、出力取得部12は、第3の出力をモデルZ2’判定部16dから取得する。また、セレクタ14の出力選択の判定基準は、上記基準のZ2をZ2’に置き換えたものとする。   The model Z1 determination unit 16a, the model Z1 ′ determination unit 16b, and the model Z2 ′ determination unit 16d respectively output determination results for inputs based on “model Z1”, “model Z1 ′”, and “model Z2 ′”. Output. The functions of the output acquisition unit 12 and the selector 14 are the same as those in the first embodiment. However, the output acquisition unit 12 acquires the third output from the model Z2 ′ determination unit 16d. In addition, it is assumed that the criterion for output selection of the selector 14 is obtained by replacing the reference Z2 with Z2 '.

再学習部20は、セレクタ14の出力が「ClassID_Z2’」でなかった場合、その入力と出力をサンプルデータとして、「モデルZ2’」に対して再学習を行う機能である。この再学習を繰り返すことで、「モデルZ2’」の中身は漸次に個別学習されたものへと変化する。   The relearning unit 20 has a function of performing relearning on the “model Z2 ′” using the input and output as sample data when the output of the selector 14 is not “ClassID_Z2 ′”. By repeating this relearning, the contents of “model Z2 ′” gradually change to those individually learned.

モデルZ2’判定部16dは、「モデルZ2’」に基づいて、入力に対して判定結果を出力するが、「モデルZ2’」が再学習される前は、「モデルZ2」に基づいた判断結果となる。また、モデルZ2’判定部16dは、「モデルZ2’」が再学習により漸次に変化するのに従い、再学習後は、再学習された「モデルZ2’」に基づいて、入力に対して判定結果を出力する。   The model Z2 ′ determination unit 16d outputs a determination result with respect to the input based on “model Z2 ′”, but before “model Z2 ′” is relearned, the determination result based on “model Z2” It becomes. Further, the model Z2 ′ determination unit 16d determines the determination result for the input based on the re-learned “model Z2 ′” after the relearning as the “model Z2 ′” gradually changes due to the relearning. Is output.

なお、本実施形態に係るモデル統合装置10は、図9のように、モデルZ2’判定部16d以外のモデル毎のモデル判定部16も備えた装置について説明したが、図10のように、モデルZ2’判定部16dのみ備えた装置であってもよい。   The model integration device 10 according to the present embodiment has been described with respect to the device including the model determination unit 16 for each model other than the model Z2 ′ determination unit 16d as illustrated in FIG. 9. However, as illustrated in FIG. The apparatus may include only the Z2 ′ determination unit 16d.

(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図11(a)は、共通モデル「モデルA1」を複製した「モデルZ1」に基づいて個別モデル「モデルZ1’」を生成するまでの動作を示すフローチャートである。図11(b)は、個別モデル「モデルZ1’」を生成した後、「モデルZ1’」と新たな共通モデルである「モデルA2(Z2)」を統合すると共に、「モデルZ2」に基づいて新たな個別モデル「モデルZ2’」を生成するまでの動作を示すフローチャートである。
(Operation of model integration device)
Next, the operation of the model integration device 10 will be described. FIG. 11A is a flowchart showing an operation until the individual model “model Z1 ′” is generated based on “model Z1” obtained by duplicating the common model “model A1”. In FIG. 11B, after the individual model “model Z1 ′” is generated, “model Z1 ′” and the new common model “model A2 (Z2)” are integrated, and based on “model Z2”. It is a flowchart which shows operation | movement until it produces | generates a new separate model "model Z2 '".

モデル統合装置10は、共通学習された「モデルA1」をダウンロードして取り込む。これを後に参考するために、複製して「モデルZ1」として保存しておく。また、これとは別に、個別に学習させるモデルのベースとして別途複製して保持し、これを「モデルZ1’」とする(ステップT1)。各ノードで実際に利用されると映像や音声などのデータが与えられ、このデータと「モデルZ1’」に基づき判定される(ステップT2)。初期状態では「モデルZ1」と「モデルZ1’」の差分はないが学習が進むと差異が生じる。判定結果が出力され、各ノードの機能としてそのまま利用される(ステップT3)。このフェーズでは共通モデルの学習結果を利用することが可能であり、共通モデルに基づくサービスが提供できる。   The model integration device 10 downloads and imports the commonly learned “model A1”. For reference later, this is duplicated and stored as “model Z1”. Separately from this, it is separately copied and held as a base of a model to be individually learned, and this is designated as “model Z1 ′” (step T1). When actually used in each node, data such as video and audio is given, and a determination is made based on this data and “model Z1 ′” (step T2). In the initial state, there is no difference between “model Z1” and “model Z1 ′”, but a difference occurs as learning progresses. The determination result is output and used as it is as a function of each node (step T3). In this phase, the learning result of the common model can be used, and a service based on the common model can be provided.

一方で出力された結果に対して、別途表示ディスプレイや音声などのユーザインタフェース(UI)を通してユーザよりフィードバックを得る。例えば、間違った出力判定に対して、訂正を入力される、もしくは出力が不明なため答えを問い合わせるなどが行われる(ステップT4)。フィードバックされた結果に基づいて、「モデルZ1’」の再学習を行う(ステップT5)。これは特定の映像や言葉など、各家庭や、ユーザの個別学習になる。   On the other hand, feedback is obtained from the user through a user interface (UI) such as a separate display or voice for the output result. For example, correction is input for an incorrect output determination, or an answer is inquired because the output is unknown (step T4). Based on the feedback result, the “model Z1 ′” is re-learned (step T5). This is individual learning for each home and user, such as specific videos and words.

モデル統合装置10は、定期的な、またはユーザの指示による更新として、新たな共通モデルである「モデルA2」をダウンロードして取り込む。これを後で参考とするために複製して、「モデルZ2」として保存する。また、これとは別に、個別に学習させるモデルのベースとして別途複製して保存し、これを「モデルZ2’」とする(ステップT6)。このフェーズでも、各ノードで実際に利用されると映像や音声などのデータが与えられる。このデータが「モデルZ1」、「モデルZ1’」および「モデルZ2’」(再学習される前は、中身は「モデルZ2」)に基づき判定され、セレクタ14により選択される(ステップT7)。例えば、映像を入力して、「モデルZ1」ではαさん、精度0.77、「モデルZ1’」ではβさん、精度0.89、「モデルZ2’」ではαさん、精度0.90となった場合、セレクタ14によって出力されるのは「モデルZ1’」によるβさんである。新たな共通モデルの結果よりも、個別に学習した結果が優先され、利用者にとって更新時のギャップがなくなる。この選択結果は、各ノードの機能としてそのまま利用され、これに基づくサービスが同様に提供できる(ステップT8)。   The model integration device 10 downloads and imports a new common model “model A2” periodically or as an update by a user instruction. This is copied for later reference and saved as “model Z2”. Separately from this, it is separately copied and stored as a base of a model to be individually learned, and this is designated as “model Z2 ′” (step T6). Even in this phase, data such as video and audio is given when actually used in each node. This data is determined based on “model Z1”, “model Z1 ′”, and “model Z2 ′” (the content is “model Z2” before being re-learned), and is selected by the selector 14 (step T7). For example, when an image is input, “Model Z1” has an accuracy of 0.77, “Model Z1 ′” has an accuracy of β, an accuracy of 0.89, and “Model Z2 ′” has an accuracy of Mr. α, an accuracy of 0.90. In this case, the output from the selector 14 is Mr. β by “model Z1 ′”. The learning result is prioritized over the new common model result, and there is no gap in updating for the user. This selection result is used as it is as a function of each node, and a service based on this can be provided in the same manner (step T8).

このフェーズでも同様に、出力された結果に対して、UIを通してユーザよりフィードバックを得る。例えば、間違った出力判定に対して、訂正を入力される、もしくは出力が不明なため答えを問い合わせるなどが行われる(ステップT9)。フィードバックされた結果に基づいて、「モデルZ2’」の再学習を行う(ステップT10)。これは特定の映像や言葉など、各ユーザ独自の学習になる。ステップT1〜ステップT5までのフェーズと異なるのは、「モデルZ2’」の再学習においては、ユーザのフィードバックが無くても、セレクタ14により選択された出力を正解とみなして再学習を行うことである。これにより、データが繰り返し与えられると、「モデルZ2’」の内容は、「モデルZ1’」で個別に学習した内容に近づく。   Similarly, in this phase, feedback is obtained from the user through the UI for the output result. For example, correction is input for an incorrect output determination, or an answer is inquired because the output is unknown (step T9). Based on the fed back result, the “model Z2 ′” is re-learned (step T10). This is unique learning for each user, such as specific images and words. The difference from the phase from Step T1 to Step T5 is that in the re-learning of “model Z2 ′”, the re-learning is performed by regarding the output selected by the selector 14 as the correct answer even if there is no user feedback. is there. Thus, when data is repeatedly given, the content of “model Z2 ′” approaches the content individually learned by “model Z1 ′”.

上記の動作により、「モデルZ1’」を生成したデータが無くとも、新しいデータに対してその判定結果を利用することで、新たな共通モデル「モデルZ2」に基づいた個別モデル「モデルZ2’」を漸次に生成できる。また、「モデルZ2」で新しく精度が向上した部分についても、「モデルZ1」と「モデルZ1’」の精度を確認することで、古い判定に引きずられることを避けている。なお、複数の共通モデルを統合する場合は、ステップT6でその他の共通モデルも取り込んで保存しておき、セレクタ14に基づく判定出力を得るときに使用する。   Even if there is no data that has generated “model Z1 ′”, the individual model “model Z2 ′” based on the new common model “model Z2” can be used by using the determination result for new data. Can be generated gradually. In addition, with respect to a portion of the “model Z2” whose accuracy has been improved, the accuracy of the “model Z1” and “model Z1 ′” is confirmed to avoid being dragged by old determinations. When integrating a plurality of common models, other common models are captured and stored in step T6, and used when obtaining a determination output based on the selector 14.

なお、セレクタ14の入力を「モデルZ1’」および「モデルZ2’」の出力2つとし、精度の高い方をセレクタ14の出力として、再学習してもよい。この場合、高い精度の誤りデータは残り続けるため、ユーザによるフィードバックがされないときは、再学習の精度は落ちる。また、セレクタ14の機能として自動的に選択するのではなく、画面表示などがある機器であれば、UIを通していずれを選択するかをユーザに問い合わせてもよい。その選択結果を出力として学習する。再学習は、リアルタイムに行ってもよい。また夜間など処理量が少ないときにまとめてバッチ処理にて行ってもよい。   Note that the input of the selector 14 may be two outputs of “model Z1 ′” and “model Z2 ′”, and the higher accuracy may be used as the output of the selector 14 to perform relearning. In this case, since highly accurate error data remains, the accuracy of relearning decreases when feedback from the user is not performed. Further, instead of automatically selecting the function of the selector 14, if the device has a screen display or the like, the user may be inquired about which to select through the UI. The selection result is learned as an output. Re-learning may be performed in real time. Alternatively, batch processing may be performed when the amount of processing is small such as at night.

セレクタ14において「ClassID_Z2’」の結果を出力することが多数(例えば98%など)になると、統合のための再学習を止めることが好ましい。十分に再学習がされたモデルに対して、繰り返し再学習されることがなくなり、無駄な処理を行わないからである。この場合は、再学習された「モデルZ2’」のみを使用する。また、再学習された「モデルZ2’」、「モデルZ2」、および図2に示す新たに精度の向上した「モデルA3」を使用して、同様の学習を繰り返してもよい。   When the selector 14 outputs a large number (for example, 98%) of “ClassID_Z2 ′” results, it is preferable to stop the relearning for integration. This is because a re-learned model is not repeatedly re-learned and a useless process is not performed. In this case, only the re-learned “model Z2 ′” is used. Similar learning may be repeated using the re-learned “model Z2 ′” and “model Z2” and the newly improved “model A3” shown in FIG.

なお、セレクタ14は、少なくとも「モデルZ1」と「モデルZ1’」の出力の精度を比較することにより、個別に学習した結果を優先して出力する機能ブロックであるが、「モデルZ1」と「モデルZ1’」の出力の精度の比較方法は上記の方法に限られない。例えば、次のような基準を用いてもよい。
Confidence_Z1’−Confidence_Z1>τ
これは「モデルZ1’」の出力の精度がある一定(τ)以上、「モデルZ1」よりも大きいことを条件とするものである。
また、「モデルZ1」の2番目に精度の高い出力を「Confidence_Z1_2」、同様に「モデルZ1’」の2番目に精度の出力を「Confidence_Z1’_2」とした場合に、
Confidence_Z1’−Confidence_Z1’_2>Confidence_Z1−Confidence_Z1_2
これは出力結果に対してほかに同精度の出力がないことを条件とするものである。次のようにも記述できる。
Confidence_Z1’/Confidence_Z1’_2>Confidence_Z1/Confidence_Z1_2
また、これらの考え方を組み合わせて、
Confidence_Z1’−Confidence_Z1’_2>τ かつ Confidence_Z1’>Confidence_Z1
などとしてもよい。
Note that the selector 14 is a functional block that gives priority to the result of individually learning by comparing the output accuracy of at least “model Z1” and “model Z1 ′”. The method of comparing the output accuracy of the model Z1 ′ ”is not limited to the above method. For example, the following criteria may be used.
Confidence_Z1'−Confidence_Z1> τ
This is on condition that the output accuracy of “model Z1 ′” is greater than a certain value (τ) and larger than “model Z1”.
In addition, when the second most accurate output of “Model Z1” is “Confidence_Z1_2” and the second most accurate output of “Model Z1 ′” is “Confidence_Z1'_2”,
Confidence_Z1'-Confidence_Z1'_2> Confidence_Z1-Confidence_Z1_2
This is on condition that there is no other output with the same precision for the output result. It can also be described as follows.
Confidence_Z1 '/ Confidence_Z1'_2> Confidence_Z1 / Confidence_Z1_2
Also, combining these ideas,
Confidence_Z1'-Confidence_Z1'_2> τ and Confidence_Z1 '> Confidence_Z1
And so on.

[第3の実施形態]
第2の実施形態では、モデル統合装置10が、統合した判定結果を利用して、新たな共通モデルに再学習をさせることにより、新たな共通モデルに基づいた個別モデルを生成できる構成であったが、新たな共通モデルも順次発展すると考えられるため、第2の実施形態の構成に加えて、新たな共通モデルに基づいて学習を進めた第3の共通モデルの有無を判断し、第3の共通モデルがある場合は前記第3の共通モデルを取り込み、新たな共通モデルと置き換える構成としてもよい。
[Third Embodiment]
In the second embodiment, the model integration device 10 can generate an individual model based on a new common model by causing the new common model to be relearned using the integrated determination result. However, since it is considered that new common models will also be developed sequentially, in addition to the configuration of the second embodiment, the presence or absence of a third common model that has advanced learning based on the new common model is determined, and the third If there is a common model, the third common model may be taken in and replaced with a new common model.

(モデル統合装置の構成)
図12は、本実施形態に係るモデル統合装置10およびモデル統合システム100の構成の一例を示すブロック図である。モデル統合装置10は、第2の実施形態に示した構成以外に、「モデルA2」(新たな共通モデル)に基づいて学習を進めた「モデルA3」(第3の共通モデル)の有無を判断し、「モデルA3」がある場合は「モデルA3」を取り込み、「モデルZ2’」と置き換える更新部22を備える。更新部22以外の機能は第2の実施形態と同様なので省略する。
(Configuration of model integration device)
FIG. 12 is a block diagram illustrating an example of the configuration of the model integration device 10 and the model integration system 100 according to the present embodiment. In addition to the configuration shown in the second embodiment, the model integration device 10 determines whether or not “model A3” (third common model) has been learned based on “model A2” (new common model). When there is “model A3”, an update unit 22 is provided that takes in “model A3” and replaces it with “model Z2 ′”. Since functions other than the update unit 22 are the same as those in the second embodiment, a description thereof is omitted.

更新部22は、定期的にまたはユーザの指示により、「モデルA2」に基づいて学習を進めた「モデルA3」の有無を判断し、「モデルA3」がある場合は「モデルA3」を取り込み、これを複製した「モデルZ3’」と「モデルZ2’」とを置き換える。   The update unit 22 determines the presence or absence of “model A3” that has been learned based on “model A2” periodically or according to an instruction from the user. The duplicated “model Z3 ′” and “model Z2 ′” are replaced.

「モデルA3」が取り込まれ、「モデルZ2’」と「モデルZ3’」とが置き換えられた場合、各モデル判定部16は、基とするモデルを変更し、「モデルZ2」(新たな共通モデル)、「モデルZ2’」(再学習されたモデル)、および「モデルZ3’」(第3の共通モデル)に基づき、同一の入力を受け付けて、判定結果を出力する。   When “model A3” is captured and “model Z2 ′” and “model Z3 ′” are replaced, each model determination unit 16 changes the model to be based on and changes to “model Z2” (new common model). ), “Model Z2 ′” (re-learned model), and “model Z3 ′” (third common model), the same input is received and a determination result is output.

また、出力取得部12は、各モデル判定部16により出力された「モデルZ2」、「モデルZ2’」、および「モデルZ3’」からの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する。「モデルZ2’」と「モデルZ3’」とが置き換えられた後のモデル統合装置10の構成の一例は、図13に示されるとおりである。   Further, the output acquisition unit 12 outputs the outputs from the “model Z2”, “model Z2 ′”, and “model Z3 ′” output by each model determination unit 16, respectively, as a first output, a second output, Get as output of 3. An example of the configuration of the model integration device 10 after “model Z2 ′” and “model Z3 ′” are replaced is as shown in FIG.

なお、本実施形態に係るモデル統合装置10は、図12および図13のような、モデルZ2’判定部16d(更新部により置き換えられた後は、モデルZ3’判定部16fとなる。)以外のモデル毎のモデル判定部16も備えた装置について説明したが、第2の実施形態の図10のように、モデルZ2’判定部16dのみ備えた装置であってもよい。   Note that the model integration device 10 according to the present embodiment is not the model Z2 ′ determination unit 16d (after being replaced by the update unit, becomes the model Z3 ′ determination unit 16f) as illustrated in FIGS. 12 and 13. Although the apparatus including the model determination unit 16 for each model has been described, the apparatus may include only the model Z2 ′ determination unit 16d as illustrated in FIG. 10 of the second embodiment.

(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図14は、モデルを置き換えるまでの動作を示すフローチャートである。まず、更新部22は、定期的にまたはユーザの指示により、「モデルA2」に基づいて学習を進めた「モデルA3」の有無を判断する(ステップU1)。そして、「モデルA3」がある場合は「モデルA3」を取り込み、これを複製した「モデルZ3’」と「モデルZ2’」とを置き換える(ステップU2)。一方、「モデルA3」がない場合は終了する。次に、各モデル判定部16は、基とするモデルを置き換える(ステップU3)。このような動作により、最新の共通モデルを取得する。
(Operation of model integration device)
Next, the operation of the model integration device 10 will be described. FIG. 14 is a flowchart showing an operation until a model is replaced. First, the updating unit 22 determines the presence or absence of “model A3” that has been learned based on “model A2” periodically or according to a user instruction (step U1). If there is “model A3”, “model A3” is taken in, and the duplicated “model Z3 ′” and “model Z2 ′” are replaced (step U2). On the other hand, if there is no “model A3”, the process ends. Next, each model determination unit 16 replaces the base model (step U3). With this operation, the latest common model is acquired.

モデルを置き換えた後の動作は、基とするモデルが異なるだけで、第2の実施形態で示した図11(b)の動作と同様である。このような動作により、新たな共通モデルに対してより精度を向上させた第3の共通モデルに基づいて、新たな個別モデルを生成できる。また、第3の共通モデルで精度が向上した部分についても、取り入れることができる。   The operation after replacing the model is the same as the operation of FIG. 11B shown in the second embodiment except that the base model is different. By such an operation, a new individual model can be generated based on the third common model that is improved in accuracy with respect to the new common model. In addition, it is possible to incorporate a portion whose accuracy has been improved by the third common model.

(モデル統合システムの構成)
本実施形態に係るモデル統合装置10は、学習を進めた共通モデルが定期的に公開される共通モデルサーバ50と組み合わせて、モデル統合システム100として構成できる。共通モデルサーバ50は、一連の共通モデルを管理し、学習を進めることにより精度を向上させる。また、共通モデルサーバ50は、学習を進めた共通モデルを定期的に公開する。
(Model integrated system configuration)
The model integration device 10 according to the present embodiment can be configured as a model integration system 100 in combination with a common model server 50 that regularly discloses a common model that has been learned. The common model server 50 manages a series of common models and improves accuracy by proceeding with learning. Further, the common model server 50 periodically publishes the common model that has been learned.

モデル統合装置10は、定期的に公開される共通モデルを定期的に取り込み、最新の共通モデルに基づいて新たな個別モデルを生成する。これにより、共通モデルサーバ50が公開した新たな共通モデルに基づいた新たな個別モデルを定期的に生成できる。   The model integration device 10 periodically takes in a common model that is regularly released, and generates a new individual model based on the latest common model. Thereby, a new individual model based on a new common model published by the common model server 50 can be periodically generated.

10 モデル統合装置
12 出力取得部
14 セレクタ
16、16a〜16f モデル判定部
20 再学習部
22 更新部
50 共通モデルサーバ
100 モデル統合システム
DESCRIPTION OF SYMBOLS 10 Model integration apparatus 12 Output acquisition part 14 Selector 16, 16a-16f Model determination part 20 Relearning part 22 Update part 50 Common model server 100 Model integration system

Claims (8)

複数のニューラルネットワークモデルを統合するモデル統合装置であって、
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する出力取得部と、
前記取得された各出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するセレクタと、を備えることを特徴とするモデル統合装置。
A model integration device that integrates a plurality of neural network models,
The output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model, respectively. An output acquisition unit that acquires the first output, the second output, and the third output;
Among the acquired outputs, any one is selected and output according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. A model integration device comprising: a selector;
前記共通モデルに基づいて学習を進めた新たな共通モデルに基づき、入力に対して判定結果を出力するモデル判定部と、
前記選択された1つの出力に基づいて、前記新たな共通モデルに再学習を実施する再学習部と、を備え、
前記新たな共通モデルに再学習が実施された場合、
前記モデル判定部は、再学習された共通モデルに基づき、入力に対して判定結果を出力し、
前記出力取得部は、再学習された共通モデルの出力を第3の出力として取得することを特徴とする請求項1記載のモデル統合装置。
A model determination unit that outputs a determination result in response to an input based on a new common model that has been learned based on the common model;
A re-learning unit that re-learns the new common model based on the selected one output,
When re-learning is performed on the new common model,
The model determination unit outputs a determination result with respect to an input based on the relearned common model,
The model integration apparatus according to claim 1, wherein the output acquisition unit acquires a re-learned output of the common model as a third output.
前記新たな共通モデルに基づいて学習を進めた第3の共通モデルの有無を判断し、前記第3の共通モデルがある場合は前記第3の共通モデルを取り込み、前記新たな共通モデルと置き換える更新部を備え、
前記第3の共通モデルが取り込まれた場合、
前記モデル判定部は、前記第3の共通モデルに基づき、入力に対して判定結果を出力し、
前記出力取得部は、同一の入力を受け付けた、前記新たな共通モデル、前記再学習されたモデル、および前記第3の共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得し、
前記再学習部は、前記選択された1つの出力に基づいて、前記第3の共通モデルに再学習を実施することを特徴とする請求項2記載のモデル統合装置。
An update that determines whether or not there is a third common model that has been trained based on the new common model, and if there is the third common model, imports the third common model and replaces it with the new common model Part
When the third common model is captured,
The model determination unit outputs a determination result with respect to an input based on the third common model,
The output acquisition unit receives the same input, and outputs outputs from the new common model, the relearned model, and the third common model as a first output, a second output, and a third output, respectively. As the output of
The model integration device according to claim 2, wherein the re-learning unit performs re-learning on the third common model based on the selected one output.
前記再学習部は、前記第2の出力と前記第3の出力とが、予め定められた閾値以上の割合で一致したときに再学習を停止することを特徴とする請求項2または請求項3記載のモデル統合装置。   The re-learning unit stops re-learning when the second output and the third output coincide with each other at a rate equal to or greater than a predetermined threshold. The model integration device described. 前記出力取得部は、同一の入力を受け付けた、前記共通モデルとは異なる1以上のその他の共通モデルからの出力を更に取得し、
前記セレクタは、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、前記出力取得部が取得したすべての出力のうちいずれか1つを選択して出力することを特徴とする請求項1から4のいずれかに記載のモデル統合装置。
The output acquisition unit further receives outputs from one or more other common models that accept the same input and are different from the common model,
The selector is any one of all outputs acquired by the output acquisition unit according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. 5. The model integration apparatus according to claim 1, wherein one of the two models is selected and output.
複数のニューラルネットワークモデルを統合するモデル統合システムであって、
共通モデルを管理し、学習を進めることにより精度を向上させる共通モデルサーバと、
請求項3に記載のモデル統合装置と、を備え、
前記共通モデルサーバは、学習を進めた新たな共通モデルを定期的に公開し、
前記モデル統合装置は、前記新たな共通モデルを定期的に取り込むことを特徴とするモデル統合システム。
A model integration system that integrates multiple neural network models,
A common model server that manages the common model and improves accuracy by advancing learning;
A model integration device according to claim 3,
The common model server periodically publishes a new common model that has been learned,
The model integration system, wherein the model integration device periodically captures the new common model.
複数のニューラルネットワークモデルを統合するモデル統合方法であって、
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得するステップと、
前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するステップと、を含むことを特徴とする方法。
A model integration method for integrating a plurality of neural network models,
The first input is an output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model. Obtaining as a second output, a second output, and a third output;
Selecting and outputting any one of the respective outputs according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output; A method comprising the steps of:
複数のニューラルネットワークモデルを統合するモデル統合プログラムであって、
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する処理と、
前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力する処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。
A model integration program that integrates multiple neural network models,
The first input is an output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model. Processing to obtain the output, the second output, and the third output,
A process of selecting and outputting any one of the respective outputs according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output; A program for causing a computer to execute a series of processes.
JP2017042153A 2017-03-06 2017-03-06 Model integration device, model integration system, method and program Active JP6660900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017042153A JP6660900B2 (en) 2017-03-06 2017-03-06 Model integration device, model integration system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017042153A JP6660900B2 (en) 2017-03-06 2017-03-06 Model integration device, model integration system, method and program

Publications (2)

Publication Number Publication Date
JP2018147261A true JP2018147261A (en) 2018-09-20
JP6660900B2 JP6660900B2 (en) 2020-03-11

Family

ID=63591270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017042153A Active JP6660900B2 (en) 2017-03-06 2017-03-06 Model integration device, model integration system, method and program

Country Status (1)

Country Link
JP (1) JP6660900B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086705A (en) * 2018-11-20 2020-06-04 株式会社東芝 Information processing system and information processing method
JP2020119476A (en) * 2019-01-29 2020-08-06 東京エレクトロン株式会社 Image recognition system and image recognition method
JP2020144775A (en) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 Model aggregation apparatus and model aggregation system
US20210109969A1 (en) 2019-10-11 2021-04-15 Kinaxis Inc. Machine learning segmentation methods and systems
CN113196313A (en) * 2019-01-18 2021-07-30 欧姆龙株式会社 Model integration device, model integration method, model integration program, estimation system, inspection system, and control system
JP2021113487A (en) * 2020-01-17 2021-08-05 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Neural task planning part for autonomous travelling vehicle
WO2022107330A1 (en) * 2020-11-20 2022-05-27 日本電気株式会社 State determination device, state determination system, state determination method and recording medium
JP2022548333A (en) * 2019-10-15 2022-11-17 キナクシス インコーポレイテッド interactive machine learning
JP7396133B2 (en) 2020-03-11 2023-12-12 オムロン株式会社 Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program
US11875367B2 (en) 2019-10-11 2024-01-16 Kinaxis Inc. Systems and methods for dynamic demand sensing
WO2024014061A1 (en) * 2022-07-11 2024-01-18 株式会社日立製作所 Isolator model generating system, isolator model generating device, and isolator model generating method
WO2024069956A1 (en) * 2022-09-30 2024-04-04 日本電気株式会社 Learning device, learning system, learning method, and computer-readable medium
JP7462259B2 (en) 2020-01-14 2024-04-05 パナソニックIpマネジメント株式会社 MEASUREMENT APPARATUS, SYSTEM, MEASUREMENT METHOD, AND PROGRAM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667698A (en) * 1992-06-19 1994-03-11 Seiko Epson Corp Speech recognizing device
JPH0696045A (en) * 1992-09-11 1994-04-08 Toyo Electric Mfg Co Ltd Pattern recognizing device
JPH10143490A (en) * 1996-11-07 1998-05-29 Fujitsu Ltd Demand prediction method, demand prediction system and recording medium
WO2010050334A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667698A (en) * 1992-06-19 1994-03-11 Seiko Epson Corp Speech recognizing device
JPH0696045A (en) * 1992-09-11 1994-04-08 Toyo Electric Mfg Co Ltd Pattern recognizing device
JPH10143490A (en) * 1996-11-07 1998-05-29 Fujitsu Ltd Demand prediction method, demand prediction system and recording medium
WO2010050334A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086705A (en) * 2018-11-20 2020-06-04 株式会社東芝 Information processing system and information processing method
JP7391503B2 (en) 2018-11-20 2023-12-05 株式会社東芝 Information processing system and information processing method
CN113196313A (en) * 2019-01-18 2021-07-30 欧姆龙株式会社 Model integration device, model integration method, model integration program, estimation system, inspection system, and control system
EP3913549A4 (en) * 2019-01-18 2022-11-09 OMRON Corporation Model integration device, method, and program, and inference, inspection, and control system
JP2020119476A (en) * 2019-01-29 2020-08-06 東京エレクトロン株式会社 Image recognition system and image recognition method
JP7262232B2 (en) 2019-01-29 2023-04-21 東京エレクトロン株式会社 Image recognition system and image recognition method
JP2020144775A (en) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 Model aggregation apparatus and model aggregation system
US20210109969A1 (en) 2019-10-11 2021-04-15 Kinaxis Inc. Machine learning segmentation methods and systems
US11886514B2 (en) 2019-10-11 2024-01-30 Kinaxis Inc. Machine learning segmentation methods and systems
US11875367B2 (en) 2019-10-11 2024-01-16 Kinaxis Inc. Systems and methods for dynamic demand sensing
JP2022548333A (en) * 2019-10-15 2022-11-17 キナクシス インコーポレイテッド interactive machine learning
JP7245961B2 (en) 2019-10-15 2023-03-24 キナクシス インコーポレイテッド interactive machine learning
JP7462259B2 (en) 2020-01-14 2024-04-05 パナソニックIpマネジメント株式会社 MEASUREMENT APPARATUS, SYSTEM, MEASUREMENT METHOD, AND PROGRAM
JP7169328B2 (en) 2020-01-17 2022-11-10 バイドゥ ユーエスエイ エルエルシー Neural Task Planner for Autonomous Vehicles
US11409287B2 (en) 2020-01-17 2022-08-09 Baidu Usa Llc Neural task planner for autonomous vehicles
JP2021113487A (en) * 2020-01-17 2021-08-05 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Neural task planning part for autonomous travelling vehicle
JP7396133B2 (en) 2020-03-11 2023-12-12 オムロン株式会社 Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program
WO2022107330A1 (en) * 2020-11-20 2022-05-27 日本電気株式会社 State determination device, state determination system, state determination method and recording medium
WO2024014061A1 (en) * 2022-07-11 2024-01-18 株式会社日立製作所 Isolator model generating system, isolator model generating device, and isolator model generating method
WO2024069956A1 (en) * 2022-09-30 2024-04-04 日本電気株式会社 Learning device, learning system, learning method, and computer-readable medium

Also Published As

Publication number Publication date
JP6660900B2 (en) 2020-03-11

Similar Documents

Publication Publication Date Title
JP6660900B2 (en) Model integration device, model integration system, method and program
US10706363B2 (en) Data recommendation method and device, and storage medium
CN111782965B (en) Intention recommendation method, device, equipment and storage medium
US7620610B2 (en) Resource availability for user activities across devices
WO2020229684A1 (en) Concepts for federated learning, client classification and training data similarity measurement
US20170279840A1 (en) Automated event id field analysis on heterogeneous logs
CN102467529B (en) Metadata synchronizing method and system
EP3932015A1 (en) Learning by inference from brownfield deployments
CN110428137B (en) Updating method and device of risk prevention and control strategy
US11170319B2 (en) Dynamically inferred expertise
EP3639134A1 (en) Detecting and managing recurring patterns in device and service configuration data
Pacheco et al. Algorithm Analysis in Multi-agent Systems
CN107229733A (en) Evaluation method and device are asked in extension
US10275223B2 (en) Distributed key-value consistency and mapping
Liu et al. A clustering method for web service discovery
CN106371931B (en) A kind of high-performance geoscience computing service system based on Web frame
WO2019180314A1 (en) Artificial neural networks
CN113268232B (en) Page skin generation method and device and computer readable storage medium
CN107391136A (en) A kind of programing system and method based on streaming
CN106778872B (en) Density-based connected graph clustering method and device
CN106503216A (en) Support the metadata synchronization method and metadata synchronization device of layering
CN113469377A (en) Federal learning auditing method and device
US7577649B2 (en) Engine for validating proposed changes to an electronic entity
CN106469086B (en) Event processing method and device
CN110768841A (en) Acceleration distributed online optimization method based on condition gradient

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6660900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150