JP2018147261A - Model integration device, model integration system, method and program - Google Patents
Model integration device, model integration system, method and program Download PDFInfo
- Publication number
- JP2018147261A JP2018147261A JP2017042153A JP2017042153A JP2018147261A JP 2018147261 A JP2018147261 A JP 2018147261A JP 2017042153 A JP2017042153 A JP 2017042153A JP 2017042153 A JP2017042153 A JP 2017042153A JP 2018147261 A JP2018147261 A JP 2018147261A
- Authority
- JP
- Japan
- Prior art keywords
- model
- output
- common
- common model
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、複数のニューラルネットワークモデルを統合するモデル統合装置、モデル統合システム、方法およびプログラムに関する。 The present invention relates to a model integration device, a model integration system, a method, and a program for integrating a plurality of neural network models.
近年、ニューラルネットワークを活用した深層学習により、これまで機械的な判断では難しかった画像からの人物の動きなど、高度なコンテキスト理解が可能になっている。ただし、この深層学習による画像認識では、従来の手動で設計する特徴点に基づいた認識技術と異なり、自動的に特徴を抽出することができるが、精度を上げるためには大量のサンプル画像を用いて学習し、そのモデルを作成することが必要となる。 In recent years, deep learning using a neural network has made it possible to understand advanced contexts such as a person's movement from an image that has been difficult until now with mechanical judgment. However, in this image recognition by deep learning, features can be extracted automatically, unlike conventional recognition technology based on manually designed feature points, but a large number of sample images are used to improve accuracy. Learning and creating a model.
また、一般的にサンプル数が多いほど精度が向上するため、一度モデル化をした後もサンプルを収集し、モデルを更新、精度を上げつづけるシステムを構築することは、深層学習を用いたシステムにおいては重要である。例えば、写真のストレージサービスなどを無料利用可能な代わりにそのデータをサンプルとして学習に使用する(例:https://www.google.com/intl/ja/policies/terms/)ようなエコシステムの構築や、自社のシステムで利用可能なモデルや技術を広めるために、学習済みモデルの公開やオープンソース化(非特許文献1)が行われている。 In addition, since the accuracy generally increases as the number of samples increases, it is important to construct a system that collects samples, updates the model, and continues to increase accuracy after modeling once. Is important. For example, instead of being able to use a photo storage service for free, the data is used as a sample for learning (eg https://www.google.com/intl/en/policies/terms/) In order to spread models and technologies that can be used for construction and in-house systems, learned models have been made public and open sourced (Non-Patent Document 1).
上記のように多くのサンプルを集めることで精度が高くなるが、判断内容はいわゆる多数決で決めるような平均的な回答に近づいていく。一方で、各家庭では独自の文化があるように、深層学習においてもパーソナライズ化が必要とされており、各家庭の個別のサンプルを用いて学習を行った方が各家庭に適した判断ができるようになる。前者を共通モデル、後者を個別モデルと呼ぶとすると、個別モデルは一部の領域において高い精度を出すが、それ以外については共通モデルの方が優れることになる。 The accuracy increases by collecting a large number of samples as described above, but the judgment content approaches an average answer determined by a so-called majority vote. On the other hand, personalization is also required in deep learning, as each family has its own culture, and it is possible to make judgments that are more appropriate for each family by learning using individual samples from each family. It becomes like this. If the former is called a common model and the latter is called an individual model, the individual model gives high accuracy in a part of the area, but the common model is superior to the others.
一部について個別化したモデルを作るためには、ベースとなるモデルに基づいて再学習を行うFine Tuning(非特許文献2)という手法が確立しており、共通モデルをベースとして各家庭に個別化した学習ができる。しかしながら、前記したようにこのベースとなる共通モデルもその後学習が進み、より精度の高いものに進化してしまう。そのため、個別化されたモデルもそれに基づいて更新を行うことが考えられる。しかしながら、学習した個別モデルを新しい共通モデルに置き換えて再度学習をやり直しては、これまで各ユーザ、家庭で学習してきた内容が消えてしまい、ユーザの利用感にギャップが生じてしまう。 A method called Fine Tuning (Non-Patent Document 2), in which re-learning is performed based on the base model, has been established in order to create a model that is individualized for a part, and individualized to each household based on the common model Can learn. However, as described above, the common model serving as the base is subsequently learned and evolved to a higher accuracy. Therefore, it can be considered that the individualized model is updated based on the model. However, if the learned individual model is replaced with a new common model and learning is performed again, the contents learned at each user and at home disappear, and a gap in the user's feeling of use occurs.
そこで、新しい共通モデルと個別モデルをギャップなく統合する必要性が出てくる。各モデルのパラメタを計算式で統合することは学習結果の意味を失うため行われておらず、また共通モデルのニューラルネットワーク自体が変わってしまっている場合もあり困難である。一方で個別モデルの学習に用いたサンプルデータを、改めて新しい共通モデルに与えてFine Tuningをやり直すことは可能であるが、これらのサンプルデータはパーソナライズ化が進むにつれて膨大になるため、常時保持しておくことは難しい。複数の機材で並行して学習を行う並行学習の手法(非特許文献3)もあるが、これらは一つの学習モデルをタスク分散して生成する方式であって、個別に学習、また異なるネットワークモデルを持つ学習済みモデルを統合することはできない。 Therefore, it becomes necessary to integrate new common models and individual models without gaps. It is difficult to integrate the parameters of each model with a calculation formula because it loses the meaning of the learning result, and the neural network itself of the common model may have changed. On the other hand, it is possible to give the sample data used for learning the individual model again to the new common model and perform Fine Tuning again, but since these sample data become enormous as personalization progresses, keep them constantly. It is difficult to leave. There is also a parallel learning method (Non-Patent Document 3) in which learning is performed in parallel with multiple devices, but these are methods in which a single learning model is generated by task distribution, learning individually, and different network models You cannot integrate a trained model with
定期的に更新される学習済みの共通モデルがあり、これから派生した個別モデルにおいては、この更新された共通モデルと統合する必要がある。今までは、共通モデルをベースとして、個別モデルの学習に使用したサンプルデータを用いて再学習させる必要があった。しかしながら、学習が進むほどサンプルデータの量は多くなり、統合のために保持し続けることは難しくなる。 There is a learned common model that is regularly updated, and an individual model derived therefrom needs to be integrated with the updated common model. Until now, it was necessary to re-learn using sample data used for learning of individual models based on a common model. However, as learning progresses, the amount of sample data increases and it becomes difficult to keep it for integration.
本発明は、このような事情に鑑みてなされたものであり、共通モデルから派生した個別モデルにおいて、この個別モデルと新しい共通モデルを比較して再学習することにより、個別学習に用いたサンプルデータを保持することなく、新しいモデルに個別学習の結果を反映、統合することを実現するモデル統合装置、モデル統合システム、方法およびプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances. In an individual model derived from a common model, sample data used for individual learning is obtained by comparing and re-learning the individual model and a new common model. It is an object of the present invention to provide a model integration device, a model integration system, a method, and a program that realizes reflecting and integrating the results of individual learning into a new model without maintaining the above.
(1)上記の目的を達成するため、本発明は、以下のような手段を講じた。すなわち、本発明のモデル統合装置は、複数のニューラルネットワークモデルを統合するモデル統合装置であって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する出力取得部と、前記取得された各出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するセレクタと、を備える。 (1) In order to achieve the above object, the present invention has taken the following measures. That is, the model integration apparatus of the present invention is a model integration apparatus that integrates a plurality of neural network models, and has advanced learning based on one common model that has received the same input and the common model. An output acquisition unit that acquires an output from the individual model and a new common model that has been learned based on the common model as a first output, a second output, and a third output, respectively; A selector that selects and outputs one of the outputs according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output; Prepare.
これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。 Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.
(2)また、本発明のモデル統合装置は、前記共通モデルに基づいて学習を進めた新たな共通モデルに基づき、入力に対して判定結果を出力するモデル判定部と、前記選択された1つの出力に基づいて、前記新たな共通モデルに再学習を実施する再学習部と、を備え、前記新たな共通モデルに再学習が実施された場合、前記モデル判定部は、再学習された共通モデルに基づき、入力に対して判定結果を出力し、前記出力取得部は、再学習された共通モデルの出力を第3の出力として取得する。 (2) Further, the model integration device of the present invention includes a model determination unit that outputs a determination result with respect to an input based on a new common model learned based on the common model, and the selected one A re-learning unit that re-learns the new common model based on the output, and when the re-learning is performed on the new common model, the model determination unit is configured to re-learn the common model And the output acquisition unit acquires the re-learned output of the common model as a third output.
これにより、個別モデルを生成したデータが無くとも、新しいデータに対してその判定結果を利用することで、新たな共通モデルに基づいた新たな個別モデルを漸次に生成できる。また、新たな共通モデルで精度が向上した部分についても、取り入れることができる。 As a result, even if there is no data for generating the individual model, a new individual model based on the new common model can be generated gradually by using the determination result for the new data. It is also possible to incorporate parts with improved accuracy in the new common model.
(3)また、本発明のモデル統合装置は、前記新たな共通モデルに基づいて学習を進めた第3の共通モデルの有無を判断し、前記第3の共通モデルがある場合は前記第3の共通モデルを取り込み、前記新たな共通モデルと置き換える更新部を備え、前記第3の共通モデルが取り込まれた場合、前記モデル判定部は、前記第3の共通モデルに基づき、入力に対して判定結果を出力し、前記出力取得部は、同一の入力を受け付けた、前記新たな共通モデル、前記再学習されたモデル、および前記第3の共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得し、前記再学習部は、前記選択された1つの出力に基づいて、前記第3の共通モデルに再学習を実施する。 (3) Further, the model integration device of the present invention determines whether or not there is a third common model that has been learned based on the new common model, and if there is the third common model, the third common model An update unit that takes in a common model and replaces it with the new common model is provided, and when the third common model is taken in, the model determination unit determines a determination result for an input based on the third common model. The output acquisition unit receives the same input, and outputs the new common model, the re-learned model, and the third common model as the first output and the second common model, respectively. The re-learning unit performs re-learning on the third common model based on the selected one output.
これにより、新たな共通モデルに対してより精度を向上させた第3の共通モデルに基づいて、新たな個別モデルを生成できる。また、第3の共通モデルで精度が向上した部分についても、取り入れることができる。 Thereby, a new individual model can be generated based on the third common model in which the accuracy is further improved with respect to the new common model. In addition, it is possible to incorporate a portion whose accuracy has been improved by the third common model.
(4)また、本発明のモデル統合装置において、前記再学習部は、前記第2の出力と前記第3の出力とが、予め定められた閾値以上の割合で一致したときに再学習を停止する。 (4) In the model integration device of the present invention, the re-learning unit stops re-learning when the second output and the third output match at a rate equal to or greater than a predetermined threshold. To do.
これにより、十分に再学習がされたモデルに対して、繰り返し再学習されることがなくなり、無駄な処理を行わない。 As a result, the re-learned model is not repeatedly re-learned, and unnecessary processing is not performed.
(5)また、本発明のモデル統合装置において、前記出力取得部は、同一の入力を受け付けた、前記共通モデルとは異なる1以上のその他の共通モデルからの出力をさらに取得し、前記セレクタは、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、前記出力取得部が取得したすべての出力のうちいずれか1つを選択して出力する。 (5) Further, in the model integration device of the present invention, the output acquisition unit further acquires outputs from one or more other common models different from the common model that have received the same input, and the selector Selecting any one of all the outputs acquired by the output acquisition unit according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output And output.
これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルまたはその他の共通モデルの出力結果を利用することができる。 Thereby, in the individual model derived from the learned common model, the output result of the new common model or other common model can be used without losing the individually learned result.
(6)また、本発明のモデル統合システムは、複数のニューラルネットワークモデルを統合するモデル統合システムであって、共通モデルを管理し、学習を進めることにより精度を向上させる共通モデルサーバと、(3)に記載のモデル統合装置と、を備え、前記共通モデルサーバは、学習を進めた新たな共通モデルを定期的に公開し、前記モデル統合装置は、前記新たな共通モデルを定期的に取り込む。 (6) The model integration system of the present invention is a model integration system that integrates a plurality of neural network models, manages the common model, and advances the learning to improve the accuracy, and (3 The common model server periodically publishes a new common model that has been learned, and the model integration device periodically fetches the new common model.
これにより、サーバが公開した新たな共通モデルに基づいた新たな個別モデルを定期的に生成できる。なお、共通モデルサーバが管理する共通モデルには、学習済みの共通モデル、新たな共通モデル、第3の共通モデル、その他の共通モデルなど様々な共通モデルが含まれる。 Thereby, a new individual model based on a new common model published by the server can be periodically generated. The common model managed by the common model server includes various common models such as a learned common model, a new common model, a third common model, and other common models.
(7)また、本発明のモデル統合方法は、複数のニューラルネットワークモデルを統合するモデル統合方法であって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得するステップと、前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するステップと、を含む。 (7) Further, the model integration method of the present invention is a model integration method for integrating a plurality of neural network models, one learned common model that receives the same input, and learning based on the common model Obtaining the outputs from the individual model that has been advanced and the new common model that has been learned based on the common model as the first output, the second output, and the third output, respectively, And selecting and outputting any one of the first output according to a criterion that prioritizes the second output based on the accuracy of the first output and the accuracy of the second output.
これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。 Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.
(8)また、本発明のモデル統合プログラムは、複数のニューラルネットワークモデルを統合するモデル統合プログラムであって、同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する処理と、前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力する処理と、の一連の処理をコンピュータに実行させる。 (8) The model integration program according to the present invention is a model integration program that integrates a plurality of neural network models, and receives a single input common model that has received the same input, and learning based on the common model. And a process of acquiring outputs from the individual model that has been advanced and the new common model that has been learned based on the common model as the first output, the second output, and the third output, respectively, and the respective outputs A process of selecting and outputting any one of the first output in accordance with a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. Have the computer execute the process.
これにより、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。 Thereby, in the individual model derived from the learned common model, it can be integrated with a new common model without losing the individually learned result.
本発明によれば、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。 According to the present invention, an individual model derived from a learned common model can be integrated with a new common model without losing the individually learned result.
以下に本願での用語の定義を説明する。特記される場合を除き、以下の定義により解釈されるものとする。 The definitions of terms in the present application will be described below. Except as otherwise noted, it shall be interpreted according to the following definitions.
(1)共通モデルは、不特定多数の人やノードなどから収集したデータをサンプルデータとして学習をした、ニューラルネットワークモデルである。学習済みの共通モデルは、通常の使用ができる程度まで学習された共通モデルである。 (1) The common model is a neural network model in which data collected from an unspecified number of people and nodes is learned as sample data. The learned common model is a common model learned to the extent that it can be used normally.
(2)個別モデルは、特定少数の人やノード(特定の個人や家庭、会社など)から収集したデータをサンプルデータとして、共通モデルを基にさらに学習をした、ニューラルネットワークモデルである。サンプルデータの偏りによって、一部の領域の入力に対しては、基となった共通モデルよりも高い精度の出力が得られる。 (2) The individual model is a neural network model obtained by further learning based on a common model using data collected from a specific small number of people or nodes (specific individuals, homes, companies, etc.) as sample data. Due to the bias of the sample data, an output with higher accuracy than that of the base common model can be obtained for an input in a part of the region.
(3)学習は、問題の最適解を求める過程で、試行錯誤と結果のフィードバックによってよりよい解法へ近づいていくことである。ニューラルネットワークモデルは、学習によって通常は精度が向上する。 (3) Learning is a process of finding an optimal solution of a problem, and approaches a better solution by trial and error and feedback of results. Neural network models usually improve accuracy by learning.
(4)共通学習とは、共通モデルを得るため、または、共通モデルの精度を上げるために、不特定多数の人やノードなどから収集したデータをサンプルデータとして学習をすることである。 (4) Common learning is to learn data collected from an unspecified number of people or nodes as sample data in order to obtain a common model or improve the accuracy of the common model.
(5)個別に学習する(個別学習)とは、共通モデルに基づいて個別モデルを得るため、または、個別モデルの精度を上げるために、特定少数の人やノードから収集したデータをサンプルデータとして、学習をすることである。再学習も同じ意味で使用する。また、モデル統合装置の出力を利用して、自動で行うことも、ユーザのフィードバックの入力により行うことも含む。 (5) With individual learning (individual learning), in order to obtain an individual model based on a common model or to improve the accuracy of an individual model, data collected from a specific small number of people or nodes is used as sample data. To learn. Re-learning is used in the same meaning. Moreover, it includes performing automatically by using the output of the model integration device, and performing by inputting user feedback.
次に、本発明の実施の形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。 Next, embodiments of the present invention will be described with reference to the drawings. In order to facilitate understanding of the description, the same reference numerals are given to the same components in the respective drawings, and duplicate descriptions are omitted.
(モデルの利用構成)
本発明が想定するモデルの利用構成を図1に示す。一般的に深層学習などによるモデルは、大量のサンプルデータに基づいて作成される。これは一度作成されるだけではなく、継続的なサンプルデータの収集に基づいて常に更新し続ける。例えば、各家庭で収集したデータをクラウド上に集めて学習する、スマートフォンで収集したデータをクラウド上に集めて学習するなどが行われている。この学習によって生成されたモデルは汎用的な共通モデルであり、幅広く使用することができる。一方で、各家庭、各スマートフォンでも個別に学習が進んでいる。例えば、特定の発音、特定の操作、個人の画像などその利用者、利用環境にあった内容によって学習される。この場合、サンプルデータが少なくなりやすいことから、前記した共通モデルに基づき再学習して利用されることが多い。そのため、図1に示すようにサンプルデータの収集と共通モデルの学習、それに基づく個別の学習やその個別モデルの利用の関係が成り立つ。
(Model usage structure)
FIG. 1 shows a use configuration of a model assumed by the present invention. In general, a model by deep learning or the like is created based on a large amount of sample data. This is not only created once, but it is constantly updated based on continuous collection of sample data. For example, data collected at each home is collected and learned on the cloud, and data collected with a smartphone is collected and learned on the cloud. The model generated by this learning is a general-purpose common model and can be used widely. On the other hand, learning is progressing individually in each home and each smartphone. For example, learning is performed according to the content of the user and usage environment, such as specific pronunciation, specific operation, and personal image. In this case, sample data is likely to be reduced, so that it is often used after re-learning based on the common model. Therefore, as shown in FIG. 1, the relationship between collection of sample data and learning of the common model, individual learning based on the learning, and use of the individual model is established.
(モデルの発展の流れ)
次に、モデルの発展の経時的な流れを図2に示す。ある時点で既に存在する学習済みの共通モデルを「モデルA1」、これを複製したものを「モデルZ1」、これに基づいて個別に学習したモデルを「モデルZ1’」とする。一方で、「モデルA1」は時間経過と共にさらに学習を重ね「モデルA2」が生成される。この「モデルA2」は「モデルA1」よりも基本的には精度が高く、より広い判定ができるものとなっている。しかし、一般的な判断をするものであり、「モデルZ1’」を使用した方がよい場合がある。そこで、モデル統合装置を用いることで、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合することができる。
(Model development flow)
Next, the flow of model development over time is shown in FIG. A learned common model that already exists at a certain point in time is referred to as “model A1”, a duplicated model is referred to as “model Z1”, and a model individually learned based on this is referred to as “model Z1 ′”. On the other hand, “model A1” is further learned as time passes, and “model A2” is generated. The “model A2” is basically higher in accuracy than the “model A1” and can make a wider determination. However, this is a general decision, and it may be better to use “model Z1 ′”. Therefore, by using the model integration device, an individual model derived from a learned common model can be integrated with a new common model without losing the individually learned result.
また、再度「モデルA2」に基づいて個別に学習したモデル「モデルZ2’」を生成したい。しかしながら、「モデルZ2’」は、一般的に「モデルZ1’」や「モデルA2」から計算により求めることができない。そこで、モデル統合装置の出力を用いて、「モデルA2」を複製した「モデルZ2」に基づいて再学習したモデル「モデルZ2’」を漸次に生成する。 Also, it is desired to generate a model “model Z2 ′” that is individually learned based on “model A2” again. However, “model Z2 ′” cannot generally be obtained by calculation from “model Z1 ′” or “model A2”. Therefore, using the output of the model integration device, a model “model Z2 ′” that is relearned based on “model Z2” that is a duplicate of “model A2” is generated gradually.
また、図3に示すように、途中でほかの共通モデルでも合わせて取り込むことも可能にする。これは個別に学習した「モデルZ1’」を新しい共通モデルに適用させる際に、元となった「モデルA」以外の共通モデルを統合するものである。この統合する共通モデルは、B、C、D、E、…とN個取り扱うことができる。 Further, as shown in FIG. 3, it is possible to capture other common models along the way. This is to integrate common models other than the original “model A” when applying “model Z1 ′” learned individually to a new common model. This common model to be integrated can be handled as B, C, D, E,.
[第1の実施形態]
(モデル統合装置の構成)
図4は、本実施形態に係るモデル統合装置10の構成の一例を示すブロック図である。モデル統合装置10は、出力取得部12とセレクタ14とから構成されている。モデル統合装置10は、出力取得部12により取得された3以上の出力のうち、セレクタ14が1つを選択して出力する。
[First Embodiment]
(Configuration of model integration device)
FIG. 4 is a block diagram illustrating an example of the configuration of the
出力取得部12は、少なくとも、同一の入力を受け付けた、「モデルZ1」(学習済みの共通モデル)、「モデルZ1’」(個別モデル)、および「モデルA2」を複製した「モデルZ2」(新たな共通モデル)からの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する。モデルの出力とは、モデル判定部16により入力に対して判定結果として出力された情報であり、学習内容のモデルによって異なるが、例えば椅子や机などのモノの判定。人物やペットなどの判定。また話しかけに対する対応タスクの選択などがあり得る。例えば、図5の表のような情報である。出力取得部12は、この出力のうち、例えば、「ClassID_X_k」(モデルXに基づいた、k番目に精度が高い判定内容)および「Confidence_X_k」(モデルXに基づいた、k番目の判定内容の精度)などの必要な情報を取り込む。なお、k=1のときは、「_k」を省略して表す。モデル判定部16はモデル毎にあるが、基とするモデルが異なるだけで、機能は同じである。
The
モデルZ1判定部16aは、「モデルZ1」に基づき、入力に対して判定結果を出力する機能を有する。出力内容は、判定内容を示す「ClassID_Z1_k」とその確からしさを示す精度「Confidence_Z1_k」の組からなる表である。例えば、入力は静止画映像で、「ClassID_Z1」は「テーブル」、「Confidence_Z1」は0.788などである。
The model
モデルZ1’判定部16bは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルは個別に学習を進めたモデルであることが異なる。出力は、判定内容の「ClassID_Z1’_k」と、その精度「Confidence_Z1’_k」の組からなる表となる。
The model Z1 '
モデルZ2判定部16cは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルは精度が上がった共通モデルであることが異なる。出力は、判定内容の「ClassID_Z2_k」と、その精度「Confidence_Z2_k」の組からなる表となる。
The model
セレクタ14は、出力取得部12が取得した、少なくとも「モデルZ1」、「モデルZ1’」、および「モデルZ2」の出力を入力とし、いずれか1つを選択して出力する。この処理は、例えば、次のような基準に従って選択させることができる。
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
The
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
これを詳細に場合分けすると次のようになる。
a)ClassID_Z1、ClassID_Z1’、ClassID_Z2がいずれも等しい場合
ClassID_Z2を出力とする。
b)ClassID_Z1、ClassID_Z1’が等しく、ClassID_Z2が異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
c)ClassID_Z1、ClassID_Z2が等しく、ClassID_Z1’が異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
d)ClassID_Z1’、ClassID_Z2が等しく、ClassID_Z1が異なる場合
ClassID_Z2を出力とする。
e)ClassID_Z1、ClassID_Z1’、ClassID_Z2のいずれも異なる場合
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、ClassID_Z2を出力とする。
This is divided into cases as follows.
a) When ClassID_Z1, ClassID_Z1 ', and ClassID_Z2 are all equal
ClassID_Z2 is output.
b) When ClassID_Z1 and ClassID_Z1 'are equal and ClassID_Z2 is different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
c) When ClassID_Z1 and ClassID_Z2 are equal and ClassID_Z1 'is different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
d) When ClassID_Z1 'and ClassID_Z2 are equal and ClassID_Z1 is different
ClassID_Z2 is output.
e) When ClassID_Z1, ClassID_Z1 ', and ClassID_Z2 are all different
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Otherwise, ClassID_Z2 is output.
モデル統合装置10は、図6に示すように、N個の共通モデルを統合して、出力を選択してもよい。図4と比較して、次の機能ブロックが異なる。
As illustrated in FIG. 6, the
モデルB2判定部16eは、前記したモデルZ1判定部16aと同等の機能を持つが、判定に使用する学習モデルが「モデルB2」であることが異なる。出力は、判定内容の「ClassID_B2_k」と、その精度「Confidence_B2_k」の組からなる表となる。同様に、モデルC2判定部、モデルD2判定部とN個の判定部がある。
The model
セレクタ14は、「モデルZ1」、「モデルZ1’」、「モデルZ2」、「モデルB2」…の判定結果の出力を入力とし、いずれか1つを選択して出力する。この処理は、例えば、次のような基準に従って選択させることができる。
Confidence_Z1’>Confidence_Z1であれば、ClassID_Z1’を出力とする。
それ以外は、「モデルZ1」「モデルZ1’」を除く尤も精度の高いClassIDを出力とする。
The
If Confidence_Z1 ′> Confidence_Z1, ClassID_Z1 ′ is output.
Other than that, class ID with high accuracy excluding “model Z1” and “model Z1 ′” is output.
なお、本実施形態に係るモデル統合装置10は、図4および図6のようにモデル判定部16を備えない装置について説明したが、図7のように、モデル毎のモデル判定部16の一部またはすべてを備えていてもよい。
Note that the
(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図8は、個別モデル「モデルZ1’」と新たな共通モデル「モデルZ2」を統合する動作を示すフローチャートである。
(Operation of model integration device)
Next, the operation of the
出力取得部12は、少なくとも、同一の入力を受け付けた、「モデルZ1」、「モデルZ1’」、および「モデルA2」を複製した「モデルZ2」からの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得し、その他の出力があるときはその他の出力も取得する(ステップS1)。次に、出力取得部12は、取得した第1から第3の出力、およびその他の出力があるときはその他の出力をセレクタ14に入力する(ステップS2)。そして、セレクタ14は、上記のような、少なくとも第1の出力の精度と第2の出力の精度とに基づいた第2の出力を優先する基準に従って、いずれか1つを選択して出力する(ステップS3)。このような動作により、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合した判定結果を出力することができる。
The
[第2の実施形態]
第1の実施形態では、モデル統合装置10が、学習済みの共通モデルから派生した個別モデルにおいて、その個別に学習した結果を失うことなく、新たな共通モデルと統合した判定結果を出力する構成としているが、その統合した判定結果を利用して、新たな共通モデルに再学習をさせることにより、新たな共通モデルに基づいた個別モデルを生成できる構成にしてもよい。
[Second Embodiment]
In the first embodiment, the
(モデル統合装置の構成)
図9は、本実施形態に係るモデル統合装置10の構成の一例を示すブロック図である。モデル統合装置10は、第1の実施形態にも示した出力取得部12とセレクタ14の構成以外に、モデルZ1判定部16a、モデルZ1’判定部16b、モデルZ2’判定部16d、および再学習部20から構成されている。モデル統合装置10は、出力取得部12により取得された3以上の出力のうち、セレクタ14が1つを選択して出力すると共に、再学習部20がセレクタ14が選択した出力に基づいて「モデルZ2’」に再学習を実施し、「モデルZ2」に基づいた新たな個別モデルを漸次に生成する。なお、ブロック図において、黒矢印は、学習によってモデルの中身が変化することを示す。「モデルZ2’」の初期値は、「モデルZ2」であり、これが学習によって「モデルZ2’」に変化する。
(Configuration of model integration device)
FIG. 9 is a block diagram illustrating an example of the configuration of the
モデルZ1判定部16a、モデルZ1’判定部16b、モデルZ2’判定部16dは、それぞれ、「モデルZ1」、「モデルZ1’」、「モデルZ2’」に基づいて、入力に対して判定結果を出力する。出力取得部12、セレクタ14、の機能は、第1の実施形態と同様である。ただし、出力取得部12は、第3の出力をモデルZ2’判定部16dから取得する。また、セレクタ14の出力選択の判定基準は、上記基準のZ2をZ2’に置き換えたものとする。
The model
再学習部20は、セレクタ14の出力が「ClassID_Z2’」でなかった場合、その入力と出力をサンプルデータとして、「モデルZ2’」に対して再学習を行う機能である。この再学習を繰り返すことで、「モデルZ2’」の中身は漸次に個別学習されたものへと変化する。
The relearning
モデルZ2’判定部16dは、「モデルZ2’」に基づいて、入力に対して判定結果を出力するが、「モデルZ2’」が再学習される前は、「モデルZ2」に基づいた判断結果となる。また、モデルZ2’判定部16dは、「モデルZ2’」が再学習により漸次に変化するのに従い、再学習後は、再学習された「モデルZ2’」に基づいて、入力に対して判定結果を出力する。
The model Z2 ′
なお、本実施形態に係るモデル統合装置10は、図9のように、モデルZ2’判定部16d以外のモデル毎のモデル判定部16も備えた装置について説明したが、図10のように、モデルZ2’判定部16dのみ備えた装置であってもよい。
The
(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図11(a)は、共通モデル「モデルA1」を複製した「モデルZ1」に基づいて個別モデル「モデルZ1’」を生成するまでの動作を示すフローチャートである。図11(b)は、個別モデル「モデルZ1’」を生成した後、「モデルZ1’」と新たな共通モデルである「モデルA2(Z2)」を統合すると共に、「モデルZ2」に基づいて新たな個別モデル「モデルZ2’」を生成するまでの動作を示すフローチャートである。
(Operation of model integration device)
Next, the operation of the
モデル統合装置10は、共通学習された「モデルA1」をダウンロードして取り込む。これを後に参考するために、複製して「モデルZ1」として保存しておく。また、これとは別に、個別に学習させるモデルのベースとして別途複製して保持し、これを「モデルZ1’」とする(ステップT1)。各ノードで実際に利用されると映像や音声などのデータが与えられ、このデータと「モデルZ1’」に基づき判定される(ステップT2)。初期状態では「モデルZ1」と「モデルZ1’」の差分はないが学習が進むと差異が生じる。判定結果が出力され、各ノードの機能としてそのまま利用される(ステップT3)。このフェーズでは共通モデルの学習結果を利用することが可能であり、共通モデルに基づくサービスが提供できる。
The
一方で出力された結果に対して、別途表示ディスプレイや音声などのユーザインタフェース(UI)を通してユーザよりフィードバックを得る。例えば、間違った出力判定に対して、訂正を入力される、もしくは出力が不明なため答えを問い合わせるなどが行われる(ステップT4)。フィードバックされた結果に基づいて、「モデルZ1’」の再学習を行う(ステップT5)。これは特定の映像や言葉など、各家庭や、ユーザの個別学習になる。 On the other hand, feedback is obtained from the user through a user interface (UI) such as a separate display or voice for the output result. For example, correction is input for an incorrect output determination, or an answer is inquired because the output is unknown (step T4). Based on the feedback result, the “model Z1 ′” is re-learned (step T5). This is individual learning for each home and user, such as specific videos and words.
モデル統合装置10は、定期的な、またはユーザの指示による更新として、新たな共通モデルである「モデルA2」をダウンロードして取り込む。これを後で参考とするために複製して、「モデルZ2」として保存する。また、これとは別に、個別に学習させるモデルのベースとして別途複製して保存し、これを「モデルZ2’」とする(ステップT6)。このフェーズでも、各ノードで実際に利用されると映像や音声などのデータが与えられる。このデータが「モデルZ1」、「モデルZ1’」および「モデルZ2’」(再学習される前は、中身は「モデルZ2」)に基づき判定され、セレクタ14により選択される(ステップT7)。例えば、映像を入力して、「モデルZ1」ではαさん、精度0.77、「モデルZ1’」ではβさん、精度0.89、「モデルZ2’」ではαさん、精度0.90となった場合、セレクタ14によって出力されるのは「モデルZ1’」によるβさんである。新たな共通モデルの結果よりも、個別に学習した結果が優先され、利用者にとって更新時のギャップがなくなる。この選択結果は、各ノードの機能としてそのまま利用され、これに基づくサービスが同様に提供できる(ステップT8)。
The
このフェーズでも同様に、出力された結果に対して、UIを通してユーザよりフィードバックを得る。例えば、間違った出力判定に対して、訂正を入力される、もしくは出力が不明なため答えを問い合わせるなどが行われる(ステップT9)。フィードバックされた結果に基づいて、「モデルZ2’」の再学習を行う(ステップT10)。これは特定の映像や言葉など、各ユーザ独自の学習になる。ステップT1〜ステップT5までのフェーズと異なるのは、「モデルZ2’」の再学習においては、ユーザのフィードバックが無くても、セレクタ14により選択された出力を正解とみなして再学習を行うことである。これにより、データが繰り返し与えられると、「モデルZ2’」の内容は、「モデルZ1’」で個別に学習した内容に近づく。
Similarly, in this phase, feedback is obtained from the user through the UI for the output result. For example, correction is input for an incorrect output determination, or an answer is inquired because the output is unknown (step T9). Based on the fed back result, the “model Z2 ′” is re-learned (step T10). This is unique learning for each user, such as specific images and words. The difference from the phase from Step T1 to Step T5 is that in the re-learning of “model Z2 ′”, the re-learning is performed by regarding the output selected by the
上記の動作により、「モデルZ1’」を生成したデータが無くとも、新しいデータに対してその判定結果を利用することで、新たな共通モデル「モデルZ2」に基づいた個別モデル「モデルZ2’」を漸次に生成できる。また、「モデルZ2」で新しく精度が向上した部分についても、「モデルZ1」と「モデルZ1’」の精度を確認することで、古い判定に引きずられることを避けている。なお、複数の共通モデルを統合する場合は、ステップT6でその他の共通モデルも取り込んで保存しておき、セレクタ14に基づく判定出力を得るときに使用する。
Even if there is no data that has generated “model Z1 ′”, the individual model “model Z2 ′” based on the new common model “model Z2” can be used by using the determination result for new data. Can be generated gradually. In addition, with respect to a portion of the “model Z2” whose accuracy has been improved, the accuracy of the “model Z1” and “model Z1 ′” is confirmed to avoid being dragged by old determinations. When integrating a plurality of common models, other common models are captured and stored in step T6, and used when obtaining a determination output based on the
なお、セレクタ14の入力を「モデルZ1’」および「モデルZ2’」の出力2つとし、精度の高い方をセレクタ14の出力として、再学習してもよい。この場合、高い精度の誤りデータは残り続けるため、ユーザによるフィードバックがされないときは、再学習の精度は落ちる。また、セレクタ14の機能として自動的に選択するのではなく、画面表示などがある機器であれば、UIを通していずれを選択するかをユーザに問い合わせてもよい。その選択結果を出力として学習する。再学習は、リアルタイムに行ってもよい。また夜間など処理量が少ないときにまとめてバッチ処理にて行ってもよい。
Note that the input of the
セレクタ14において「ClassID_Z2’」の結果を出力することが多数(例えば98%など)になると、統合のための再学習を止めることが好ましい。十分に再学習がされたモデルに対して、繰り返し再学習されることがなくなり、無駄な処理を行わないからである。この場合は、再学習された「モデルZ2’」のみを使用する。また、再学習された「モデルZ2’」、「モデルZ2」、および図2に示す新たに精度の向上した「モデルA3」を使用して、同様の学習を繰り返してもよい。
When the
なお、セレクタ14は、少なくとも「モデルZ1」と「モデルZ1’」の出力の精度を比較することにより、個別に学習した結果を優先して出力する機能ブロックであるが、「モデルZ1」と「モデルZ1’」の出力の精度の比較方法は上記の方法に限られない。例えば、次のような基準を用いてもよい。
Confidence_Z1’−Confidence_Z1>τ
これは「モデルZ1’」の出力の精度がある一定(τ)以上、「モデルZ1」よりも大きいことを条件とするものである。
また、「モデルZ1」の2番目に精度の高い出力を「Confidence_Z1_2」、同様に「モデルZ1’」の2番目に精度の出力を「Confidence_Z1’_2」とした場合に、
Confidence_Z1’−Confidence_Z1’_2>Confidence_Z1−Confidence_Z1_2
これは出力結果に対してほかに同精度の出力がないことを条件とするものである。次のようにも記述できる。
Confidence_Z1’/Confidence_Z1’_2>Confidence_Z1/Confidence_Z1_2
また、これらの考え方を組み合わせて、
Confidence_Z1’−Confidence_Z1’_2>τ かつ Confidence_Z1’>Confidence_Z1
などとしてもよい。
Note that the
Confidence_Z1'−Confidence_Z1> τ
This is on condition that the output accuracy of “model Z1 ′” is greater than a certain value (τ) and larger than “model Z1”.
In addition, when the second most accurate output of “Model Z1” is “Confidence_Z1_2” and the second most accurate output of “Model Z1 ′” is “Confidence_Z1'_2”,
Confidence_Z1'-Confidence_Z1'_2> Confidence_Z1-Confidence_Z1_2
This is on condition that there is no other output with the same precision for the output result. It can also be described as follows.
Confidence_Z1 '/ Confidence_Z1'_2> Confidence_Z1 / Confidence_Z1_2
Also, combining these ideas,
Confidence_Z1'-Confidence_Z1'_2> τ and Confidence_Z1 '> Confidence_Z1
And so on.
[第3の実施形態]
第2の実施形態では、モデル統合装置10が、統合した判定結果を利用して、新たな共通モデルに再学習をさせることにより、新たな共通モデルに基づいた個別モデルを生成できる構成であったが、新たな共通モデルも順次発展すると考えられるため、第2の実施形態の構成に加えて、新たな共通モデルに基づいて学習を進めた第3の共通モデルの有無を判断し、第3の共通モデルがある場合は前記第3の共通モデルを取り込み、新たな共通モデルと置き換える構成としてもよい。
[Third Embodiment]
In the second embodiment, the
(モデル統合装置の構成)
図12は、本実施形態に係るモデル統合装置10およびモデル統合システム100の構成の一例を示すブロック図である。モデル統合装置10は、第2の実施形態に示した構成以外に、「モデルA2」(新たな共通モデル)に基づいて学習を進めた「モデルA3」(第3の共通モデル)の有無を判断し、「モデルA3」がある場合は「モデルA3」を取り込み、「モデルZ2’」と置き換える更新部22を備える。更新部22以外の機能は第2の実施形態と同様なので省略する。
(Configuration of model integration device)
FIG. 12 is a block diagram illustrating an example of the configuration of the
更新部22は、定期的にまたはユーザの指示により、「モデルA2」に基づいて学習を進めた「モデルA3」の有無を判断し、「モデルA3」がある場合は「モデルA3」を取り込み、これを複製した「モデルZ3’」と「モデルZ2’」とを置き換える。
The
「モデルA3」が取り込まれ、「モデルZ2’」と「モデルZ3’」とが置き換えられた場合、各モデル判定部16は、基とするモデルを変更し、「モデルZ2」(新たな共通モデル)、「モデルZ2’」(再学習されたモデル)、および「モデルZ3’」(第3の共通モデル)に基づき、同一の入力を受け付けて、判定結果を出力する。 When “model A3” is captured and “model Z2 ′” and “model Z3 ′” are replaced, each model determination unit 16 changes the model to be based on and changes to “model Z2” (new common model). ), “Model Z2 ′” (re-learned model), and “model Z3 ′” (third common model), the same input is received and a determination result is output.
また、出力取得部12は、各モデル判定部16により出力された「モデルZ2」、「モデルZ2’」、および「モデルZ3’」からの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する。「モデルZ2’」と「モデルZ3’」とが置き換えられた後のモデル統合装置10の構成の一例は、図13に示されるとおりである。
Further, the
なお、本実施形態に係るモデル統合装置10は、図12および図13のような、モデルZ2’判定部16d(更新部により置き換えられた後は、モデルZ3’判定部16fとなる。)以外のモデル毎のモデル判定部16も備えた装置について説明したが、第2の実施形態の図10のように、モデルZ2’判定部16dのみ備えた装置であってもよい。
Note that the
(モデル統合装置の動作)
次に、モデル統合装置10の動作について説明する。図14は、モデルを置き換えるまでの動作を示すフローチャートである。まず、更新部22は、定期的にまたはユーザの指示により、「モデルA2」に基づいて学習を進めた「モデルA3」の有無を判断する(ステップU1)。そして、「モデルA3」がある場合は「モデルA3」を取り込み、これを複製した「モデルZ3’」と「モデルZ2’」とを置き換える(ステップU2)。一方、「モデルA3」がない場合は終了する。次に、各モデル判定部16は、基とするモデルを置き換える(ステップU3)。このような動作により、最新の共通モデルを取得する。
(Operation of model integration device)
Next, the operation of the
モデルを置き換えた後の動作は、基とするモデルが異なるだけで、第2の実施形態で示した図11(b)の動作と同様である。このような動作により、新たな共通モデルに対してより精度を向上させた第3の共通モデルに基づいて、新たな個別モデルを生成できる。また、第3の共通モデルで精度が向上した部分についても、取り入れることができる。 The operation after replacing the model is the same as the operation of FIG. 11B shown in the second embodiment except that the base model is different. By such an operation, a new individual model can be generated based on the third common model that is improved in accuracy with respect to the new common model. In addition, it is possible to incorporate a portion whose accuracy has been improved by the third common model.
(モデル統合システムの構成)
本実施形態に係るモデル統合装置10は、学習を進めた共通モデルが定期的に公開される共通モデルサーバ50と組み合わせて、モデル統合システム100として構成できる。共通モデルサーバ50は、一連の共通モデルを管理し、学習を進めることにより精度を向上させる。また、共通モデルサーバ50は、学習を進めた共通モデルを定期的に公開する。
(Model integrated system configuration)
The
モデル統合装置10は、定期的に公開される共通モデルを定期的に取り込み、最新の共通モデルに基づいて新たな個別モデルを生成する。これにより、共通モデルサーバ50が公開した新たな共通モデルに基づいた新たな個別モデルを定期的に生成できる。
The
10 モデル統合装置
12 出力取得部
14 セレクタ
16、16a〜16f モデル判定部
20 再学習部
22 更新部
50 共通モデルサーバ
100 モデル統合システム
DESCRIPTION OF
Claims (8)
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力を、それぞれ第1の出力、第2の出力、第3の出力として取得する出力取得部と、
前記取得された各出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するセレクタと、を備えることを特徴とするモデル統合装置。 A model integration device that integrates a plurality of neural network models,
The output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model, respectively. An output acquisition unit that acquires the first output, the second output, and the third output;
Among the acquired outputs, any one is selected and output according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. A model integration device comprising: a selector;
前記選択された1つの出力に基づいて、前記新たな共通モデルに再学習を実施する再学習部と、を備え、
前記新たな共通モデルに再学習が実施された場合、
前記モデル判定部は、再学習された共通モデルに基づき、入力に対して判定結果を出力し、
前記出力取得部は、再学習された共通モデルの出力を第3の出力として取得することを特徴とする請求項1記載のモデル統合装置。 A model determination unit that outputs a determination result in response to an input based on a new common model that has been learned based on the common model;
A re-learning unit that re-learns the new common model based on the selected one output,
When re-learning is performed on the new common model,
The model determination unit outputs a determination result with respect to an input based on the relearned common model,
The model integration apparatus according to claim 1, wherein the output acquisition unit acquires a re-learned output of the common model as a third output.
前記第3の共通モデルが取り込まれた場合、
前記モデル判定部は、前記第3の共通モデルに基づき、入力に対して判定結果を出力し、
前記出力取得部は、同一の入力を受け付けた、前記新たな共通モデル、前記再学習されたモデル、および前記第3の共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得し、
前記再学習部は、前記選択された1つの出力に基づいて、前記第3の共通モデルに再学習を実施することを特徴とする請求項2記載のモデル統合装置。 An update that determines whether or not there is a third common model that has been trained based on the new common model, and if there is the third common model, imports the third common model and replaces it with the new common model Part
When the third common model is captured,
The model determination unit outputs a determination result with respect to an input based on the third common model,
The output acquisition unit receives the same input, and outputs outputs from the new common model, the relearned model, and the third common model as a first output, a second output, and a third output, respectively. As the output of
The model integration device according to claim 2, wherein the re-learning unit performs re-learning on the third common model based on the selected one output.
前記セレクタは、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、前記出力取得部が取得したすべての出力のうちいずれか1つを選択して出力することを特徴とする請求項1から4のいずれかに記載のモデル統合装置。 The output acquisition unit further receives outputs from one or more other common models that accept the same input and are different from the common model,
The selector is any one of all outputs acquired by the output acquisition unit according to a criterion that prioritizes the second output based on at least the accuracy of the first output and the accuracy of the second output. 5. The model integration apparatus according to claim 1, wherein one of the two models is selected and output.
共通モデルを管理し、学習を進めることにより精度を向上させる共通モデルサーバと、
請求項3に記載のモデル統合装置と、を備え、
前記共通モデルサーバは、学習を進めた新たな共通モデルを定期的に公開し、
前記モデル統合装置は、前記新たな共通モデルを定期的に取り込むことを特徴とするモデル統合システム。 A model integration system that integrates multiple neural network models,
A common model server that manages the common model and improves accuracy by advancing learning;
A model integration device according to claim 3,
The common model server periodically publishes a new common model that has been learned,
The model integration system, wherein the model integration device periodically captures the new common model.
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得するステップと、
前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力するステップと、を含むことを特徴とする方法。 A model integration method for integrating a plurality of neural network models,
The first input is an output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model. Obtaining as a second output, a second output, and a third output;
Selecting and outputting any one of the respective outputs according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output; A method comprising the steps of:
同一の入力を受け付けた、1つの学習済みの共通モデル、前記共通モデルに基づいて学習を進めた個別モデル、および前記共通モデルに基づいて学習を進めた新たな共通モデルからの出力をそれぞれ第1の出力、第2の出力、第3の出力として取得する処理と、
前記それぞれの出力のうち、少なくとも前記第1の出力の精度と前記第2の出力の精度とに基づいた前記第2の出力を優先する基準に従って、いずれか1つを選択して出力する処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。 A model integration program that integrates multiple neural network models,
The first input is an output from one learned common model that has received the same input, an individual model that has been trained based on the common model, and a new common model that has been trained based on the common model. Processing to obtain the output, the second output, and the third output,
A process of selecting and outputting any one of the respective outputs according to a criterion for prioritizing the second output based on at least the accuracy of the first output and the accuracy of the second output; A program for causing a computer to execute a series of processes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042153A JP6660900B2 (en) | 2017-03-06 | 2017-03-06 | Model integration device, model integration system, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042153A JP6660900B2 (en) | 2017-03-06 | 2017-03-06 | Model integration device, model integration system, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018147261A true JP2018147261A (en) | 2018-09-20 |
JP6660900B2 JP6660900B2 (en) | 2020-03-11 |
Family
ID=63591270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042153A Active JP6660900B2 (en) | 2017-03-06 | 2017-03-06 | Model integration device, model integration system, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6660900B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086705A (en) * | 2018-11-20 | 2020-06-04 | 株式会社東芝 | Information processing system and information processing method |
JP2020119476A (en) * | 2019-01-29 | 2020-08-06 | 東京エレクトロン株式会社 | Image recognition system and image recognition method |
JP2020144775A (en) * | 2019-03-08 | 2020-09-10 | トヨタ自動車株式会社 | Model aggregation apparatus and model aggregation system |
US20210109969A1 (en) | 2019-10-11 | 2021-04-15 | Kinaxis Inc. | Machine learning segmentation methods and systems |
CN113196313A (en) * | 2019-01-18 | 2021-07-30 | 欧姆龙株式会社 | Model integration device, model integration method, model integration program, estimation system, inspection system, and control system |
JP2021113487A (en) * | 2020-01-17 | 2021-08-05 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | Neural task planning part for autonomous travelling vehicle |
WO2022107330A1 (en) * | 2020-11-20 | 2022-05-27 | 日本電気株式会社 | State determination device, state determination system, state determination method and recording medium |
JP2022548333A (en) * | 2019-10-15 | 2022-11-17 | キナクシス インコーポレイテッド | interactive machine learning |
JP7396133B2 (en) | 2020-03-11 | 2023-12-12 | オムロン株式会社 | Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program |
US11875367B2 (en) | 2019-10-11 | 2024-01-16 | Kinaxis Inc. | Systems and methods for dynamic demand sensing |
WO2024014061A1 (en) * | 2022-07-11 | 2024-01-18 | 株式会社日立製作所 | Isolator model generating system, isolator model generating device, and isolator model generating method |
WO2024069956A1 (en) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | Learning device, learning system, learning method, and computer-readable medium |
JP7462259B2 (en) | 2020-01-14 | 2024-04-05 | パナソニックIpマネジメント株式会社 | MEASUREMENT APPARATUS, SYSTEM, MEASUREMENT METHOD, AND PROGRAM |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0667698A (en) * | 1992-06-19 | 1994-03-11 | Seiko Epson Corp | Speech recognizing device |
JPH0696045A (en) * | 1992-09-11 | 1994-04-08 | Toyo Electric Mfg Co Ltd | Pattern recognizing device |
JPH10143490A (en) * | 1996-11-07 | 1998-05-29 | Fujitsu Ltd | Demand prediction method, demand prediction system and recording medium |
WO2010050334A1 (en) * | 2008-10-30 | 2010-05-06 | コニカミノルタエムジー株式会社 | Information processing device |
-
2017
- 2017-03-06 JP JP2017042153A patent/JP6660900B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0667698A (en) * | 1992-06-19 | 1994-03-11 | Seiko Epson Corp | Speech recognizing device |
JPH0696045A (en) * | 1992-09-11 | 1994-04-08 | Toyo Electric Mfg Co Ltd | Pattern recognizing device |
JPH10143490A (en) * | 1996-11-07 | 1998-05-29 | Fujitsu Ltd | Demand prediction method, demand prediction system and recording medium |
WO2010050334A1 (en) * | 2008-10-30 | 2010-05-06 | コニカミノルタエムジー株式会社 | Information processing device |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086705A (en) * | 2018-11-20 | 2020-06-04 | 株式会社東芝 | Information processing system and information processing method |
JP7391503B2 (en) | 2018-11-20 | 2023-12-05 | 株式会社東芝 | Information processing system and information processing method |
CN113196313A (en) * | 2019-01-18 | 2021-07-30 | 欧姆龙株式会社 | Model integration device, model integration method, model integration program, estimation system, inspection system, and control system |
EP3913549A4 (en) * | 2019-01-18 | 2022-11-09 | OMRON Corporation | Model integration device, method, and program, and inference, inspection, and control system |
JP2020119476A (en) * | 2019-01-29 | 2020-08-06 | 東京エレクトロン株式会社 | Image recognition system and image recognition method |
JP7262232B2 (en) | 2019-01-29 | 2023-04-21 | 東京エレクトロン株式会社 | Image recognition system and image recognition method |
JP2020144775A (en) * | 2019-03-08 | 2020-09-10 | トヨタ自動車株式会社 | Model aggregation apparatus and model aggregation system |
US20210109969A1 (en) | 2019-10-11 | 2021-04-15 | Kinaxis Inc. | Machine learning segmentation methods and systems |
US11886514B2 (en) | 2019-10-11 | 2024-01-30 | Kinaxis Inc. | Machine learning segmentation methods and systems |
US11875367B2 (en) | 2019-10-11 | 2024-01-16 | Kinaxis Inc. | Systems and methods for dynamic demand sensing |
JP2022548333A (en) * | 2019-10-15 | 2022-11-17 | キナクシス インコーポレイテッド | interactive machine learning |
JP7245961B2 (en) | 2019-10-15 | 2023-03-24 | キナクシス インコーポレイテッド | interactive machine learning |
JP7462259B2 (en) | 2020-01-14 | 2024-04-05 | パナソニックIpマネジメント株式会社 | MEASUREMENT APPARATUS, SYSTEM, MEASUREMENT METHOD, AND PROGRAM |
JP7169328B2 (en) | 2020-01-17 | 2022-11-10 | バイドゥ ユーエスエイ エルエルシー | Neural Task Planner for Autonomous Vehicles |
US11409287B2 (en) | 2020-01-17 | 2022-08-09 | Baidu Usa Llc | Neural task planner for autonomous vehicles |
JP2021113487A (en) * | 2020-01-17 | 2021-08-05 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | Neural task planning part for autonomous travelling vehicle |
JP7396133B2 (en) | 2020-03-11 | 2023-12-12 | オムロン株式会社 | Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program |
WO2022107330A1 (en) * | 2020-11-20 | 2022-05-27 | 日本電気株式会社 | State determination device, state determination system, state determination method and recording medium |
WO2024014061A1 (en) * | 2022-07-11 | 2024-01-18 | 株式会社日立製作所 | Isolator model generating system, isolator model generating device, and isolator model generating method |
WO2024069956A1 (en) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | Learning device, learning system, learning method, and computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP6660900B2 (en) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6660900B2 (en) | Model integration device, model integration system, method and program | |
US10706363B2 (en) | Data recommendation method and device, and storage medium | |
CN111782965B (en) | Intention recommendation method, device, equipment and storage medium | |
US7620610B2 (en) | Resource availability for user activities across devices | |
WO2020229684A1 (en) | Concepts for federated learning, client classification and training data similarity measurement | |
US20170279840A1 (en) | Automated event id field analysis on heterogeneous logs | |
CN102467529B (en) | Metadata synchronizing method and system | |
EP3932015A1 (en) | Learning by inference from brownfield deployments | |
CN110428137B (en) | Updating method and device of risk prevention and control strategy | |
US11170319B2 (en) | Dynamically inferred expertise | |
EP3639134A1 (en) | Detecting and managing recurring patterns in device and service configuration data | |
Pacheco et al. | Algorithm Analysis in Multi-agent Systems | |
CN107229733A (en) | Evaluation method and device are asked in extension | |
US10275223B2 (en) | Distributed key-value consistency and mapping | |
Liu et al. | A clustering method for web service discovery | |
CN106371931B (en) | A kind of high-performance geoscience computing service system based on Web frame | |
WO2019180314A1 (en) | Artificial neural networks | |
CN113268232B (en) | Page skin generation method and device and computer readable storage medium | |
CN107391136A (en) | A kind of programing system and method based on streaming | |
CN106778872B (en) | Density-based connected graph clustering method and device | |
CN106503216A (en) | Support the metadata synchronization method and metadata synchronization device of layering | |
CN113469377A (en) | Federal learning auditing method and device | |
US7577649B2 (en) | Engine for validating proposed changes to an electronic entity | |
CN106469086B (en) | Event processing method and device | |
CN110768841A (en) | Acceleration distributed online optimization method based on condition gradient |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6660900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |