JP7471135B2 - Learning model generation system and learning model generation method - Google Patents
Learning model generation system and learning model generation method Download PDFInfo
- Publication number
- JP7471135B2 JP7471135B2 JP2020075832A JP2020075832A JP7471135B2 JP 7471135 B2 JP7471135 B2 JP 7471135B2 JP 2020075832 A JP2020075832 A JP 2020075832A JP 2020075832 A JP2020075832 A JP 2020075832A JP 7471135 B2 JP7471135 B2 JP 7471135B2
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- layers
- model
- learning
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 23
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Description
本発明は、概して、モデルの生成に関する。 The present invention generally relates to generating models.
現場にあるデバイス(エッジデバイス)に実装されたAI(artificial intelligence)のAIモデルにより、ユーザへのフィードバック、働きかけといったアクトが行われている。かかるAIモデルには、現場で要求される機能が実現される必要がある。 AI (artificial intelligence) models implemented in on-site devices (edge devices) provide feedback to users and take other actions. Such AI models need to be able to realize the functions required in the field.
この点、AIモデルの種類、エッジデバイスのスペック等の情報に基づいて、クラウド環境で管理される学習済みのAIモデルをエッジデバイスがリクエストする技術が開示されている(特許文献1参照)。 In this regard, a technology has been disclosed in which an edge device requests a trained AI model managed in a cloud environment based on information such as the type of AI model and the specifications of the edge device (see Patent Document 1).
AIモデルには、現場の環境への適合が必要であるところ、特許文献1には、当該AIモデルを現場に適合させることについての言及はない。
AI models need to be adapted to the on-site environment, but
この点、AIモデルを現場に適合させることについて、Google Federated LearningといったAIモデル更新技術が知られている。AIモデル更新技術では、サーバ装置がAIモデルをクライアントに配布し、クライアント端末がAIモデルを学習し、学習した結果をサーバ装置に返し、サーバ装置がAIモデルを更新する。 In this regard, AI model updating technologies such as Google Federated Learning are known for adapting AI models to the field. In AI model updating technologies, a server device distributes an AI model to a client, the client terminal learns the AI model, and returns the learned results to the server device, which then updates the AI model.
AIモデル更新技術では、AIモデルを現場の環境に適合させることはできるが、現行のAIモデルとは別の機能を実現するAIモデルは生成することができないという問題がある。 While AI model updating technology can adapt an AI model to the on-site environment, it has the problem that it cannot generate an AI model that achieves functions different from those of the current AI model.
本発明は、以上の点を考慮してなされたもので、モデルを適切に生成し得る学習モデル生成システム等を提案しようとするものである。 The present invention was made in consideration of the above points, and aims to propose a learning model generation system that can appropriately generate models.
かかる課題を解決するため本発明においては、学習済みのモデルである既存の学習モデルを構成している複数の層の各々を記憶する記憶部と、複数の層が指定された仕様情報に基づいて、前記記憶部から前記複数の層の各々に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する生成部と、前記生成部により生成された学習モデルを出力する出力部と、を設けるようにした。 In order to solve this problem, the present invention provides a storage unit that stores each of the multiple layers that make up an existing learning model, which is a trained model; a generation unit that acquires layers corresponding to each of the multiple layers from the storage unit based on specification information in which the multiple layers are specified, and combines the acquired layers to generate a learning model; and an output unit that outputs the learning model generated by the generation unit.
上記構成によれば、既存の学習モデルの層が組み合わされて新規の学習モデルが生成されるので、学習モデルの生成にかかる時間を短縮することができる。 With the above configuration, layers of existing learning models are combined to generate a new learning model, thereby reducing the time it takes to generate a learning model.
本発明によれば、モデルを適切に生成することができる。上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。 According to the present invention, a model can be generated appropriately. Problems, configurations, and advantages other than those described above will become clear from the following description of the embodiment of the invention.
(1)第1の実施の形態
以下、本発明の一実施の形態を詳述する。本実施の形態では、学習モデルの生成に関して説明する。
(1) First Embodiment Hereinafter, one embodiment of the present invention will be described in detail. In this embodiment, the generation of a learning model will be described.
学習モデルとは、所定の精度が得られるように学習が行われている(学習済みの)、ニューラルネットワークのモデルである。学習モデルは、例えば、学習済みのディープニューラルネットワークのモデルである。学習モデルは、複数の層モデルが組み合わされて構成されている。層モデルは、入力に応じて出力を行う1つ以上の層からなる。つまり、層モデルは、1つの層であってもよいし、複数の層であってもよい。層モデルは、ネットワークの構造(以下、「ネットワーク」と記す)とネットワークに設定されるパラメータとから構成される。ネットワークは、ノードの定義、ノードの接続関係等の情報を含む。パラメータは、ノード間を接続するエッジの重み、ノードのバイアス等の情報を含む。 A learning model is a model of a neural network that has been trained (trained) to obtain a specified accuracy. A learning model is, for example, a trained deep neural network model. A learning model is configured by combining multiple layer models. A layer model consists of one or more layers that perform output according to input. In other words, a layer model may be one layer or multiple layers. A layer model is configured from a network structure (hereinafter referred to as "network") and parameters set in the network. A network includes information such as node definitions and node connection relationships. Parameters include information such as the weights of edges connecting nodes and node biases.
層モデルは、予め定めたカテゴリに対応して設けられていてもよい。カテゴリとしては、学習モデルに設定された課題を解くときの対象、即ち学習モデルにおける推論の対象の特徴を抽出するためのカテゴリ、当該推論のためのカテゴリ等が挙げられる。学習モデルにおける推論とは、工場のラインにおける作業者の支援、施設の監視、自動運転等に用いられる物体検出、姿勢検出、角度検出、距離測定等である。 The layer models may be provided corresponding to predetermined categories. Examples of categories include the target when solving the problem set in the learning model, i.e., categories for extracting the characteristics of the target of inference in the learning model, categories for the inference, etc. Inference in the learning model includes object detection, posture detection, angle detection, distance measurement, etc., used for supporting workers on factory lines, monitoring facilities, autonomous driving, etc.
本実施の形態の学習モデル生成システムでは、既存の学習モデルの層モデル(つまり、ネットワークおよびパラメータからなる層)が予め定めたカテゴリに紐付けられて記憶装置に記憶されている。学習モデル生成システムは、学習モデル生成システムのユーザによりカテゴリごとに指定された層モデルを示す情報を含む仕様情報をもとに、記憶装置から指定された既存の層モデルを組み合わせて新規の学習モデルを生成する。 In the learning model generation system of this embodiment, layer models of existing learning models (i.e., layers consisting of networks and parameters) are linked to predetermined categories and stored in a storage device. The learning model generation system generates a new learning model by combining the existing layer models specified from the storage device based on specification information including information indicating layer models specified for each category by a user of the learning model generation system.
学習モデル生成システムでは、既存の学習モデルの学習に用いられた既存のデータセットに対して、新規の学習モデルのためにラベル(正解データ)が付された新規のデータセットが新規の学習モデルに更に紐付けられて記憶装置に記憶されていてもよい。学習モデル生成システムは、新規のデータセットを用いて、新規の学習モデルを学習(再学習)してもよい。また、学習モデル生成システムは、記憶装置に記憶されている既存のデータセットを用いて、新規の学習モデルを再学習してもよい。 In the learning model generation system, a new dataset to which a label (correct answer data) for a new learning model is added may be further linked to the new learning model and stored in a storage device in addition to an existing dataset used to train an existing learning model. The learning model generation system may use the new dataset to train (re-train) a new learning model. The learning model generation system may also re-train a new learning model using an existing dataset stored in a storage device.
付言するならば、学習モデルは、教師あり学習により学習されるモデルであってもよいし、教師なし学習により学習されるモデルであってもよいし、強化学習により学習されるモデルであってもよい。以下では、教師あり学習によりモデルが学習される場合を例に挙げて説明する。 In addition, the learning model may be a model learned by supervised learning, a model learned by unsupervised learning, or a model learned by reinforcement learning. In the following, an example will be described in which the model is learned by supervised learning.
学習モデル生成システムでは、新規の学習モデルの層モデル(ネットワークおよびパラメータ)がカテゴリごとに紐付けられて記憶装置に記憶されてもよい。また、学習モデル生成システムでは、再学習された新規の学習モデルの層モデルがカテゴリごとに紐付けられて記憶装置に記憶されてもよい。学習モデル生成システムでは、再学習に用いられた新規のデータセットが新規の学習モデルに更に紐付けられて記憶装置に記憶されてよい。 In the learning model generation system, the layer models (network and parameters) of the new learning model may be linked by category and stored in a storage device. In addition, in the learning model generation system, the layer models of the new re-learned learning model may be linked by category and stored in a storage device. In the learning model generation system, the new dataset used for re-learning may be further linked to the new learning model and stored in a storage device.
上記構成によれば、複数の既存の学習モデルから、新規の学習モデルに最適な層モデルを再利用することができるので、学習モデル生成システムは、短期間で学習モデルを生成できる。また、例えば、複数の別機能の学習モデルが既存の学習モデルとして記憶されている場合、ユーザは、既存の学習モデルとは異なる機能の学習モデルを生成することができる。 According to the above configuration, the optimal layer model for a new learning model can be reused from multiple existing learning models, so the learning model generation system can generate a learning model in a short period of time. Also, for example, when multiple learning models with different functions are stored as existing learning models, the user can generate a learning model with a different function from the existing learning models.
学習モデル生成システムで生成された学習モデルは、各種の産業のシステム、モビリティシステムといった様々なシステムに適用可能である。 The learning models generated by the learning model generation system can be applied to a variety of systems, such as various industrial systems and mobility systems.
次に、図面を参照して本発明の実施の形態を説明する。実施例は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Next, an embodiment of the present invention will be described with reference to the drawings. The examples are illustrative for explaining the present invention, and some parts have been omitted or simplified as appropriate for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.
図面において示す各構成要素の位置、大きさ、形状、範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲等を表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲等に限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range, etc. disclosed in the drawings.
各種情報の例として、「テーブル」、「リスト」、「キュー」等の表現にて説明することがあるが、各種情報はこれら以外のデータ構造で表現されてもよい。例えば、「XXテーブル」、「XXリスト」、「XXキュー」等の各種情報は、「XX情報」としてもよい。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いるが、これらについてはお互いに置換が可能である。 As examples of various types of information, expressions such as "table," "list," and "queue" may be used, but the various types of information may be expressed in other data structures. For example, various types of information such as "XX table," "XX list," and "XX queue" may be expressed as "XX information." When explaining identification information, expressions such as "identification information," "identifier," "name," "ID," and "number" are used, but these are interchangeable.
同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are multiple components with the same or similar functions, they may be described using the same reference numerals with different subscripts. Also, when there is no need to distinguish between these multiple components, the subscripts may be omitted.
実施例において、プログラムを実行して行う処理について説明する場合がある。ここで、コンピュータは、プロセッサ(例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit))によりプログラムを実行し、記憶資源(例えばメモリ)、インターフェースデバイス(例えば通信ポート)等を用いながら、プログラムで定められた処理を行う。そのため、プログラムを実行して行う処理の主体を、プロセッサとしてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、コンピュータ、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であればよく、特定の処理を行う専用回路を含んでいてもよい。ここで、専用回路とは、例えばFPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等である。 In the embodiments, the processing performed by executing a program may be described. Here, the computer executes the program using a processor (e.g., CPU (Central Processing Unit), GPU (Graphics Processing Unit)) and performs the processing defined in the program using storage resources (e.g., memory), interface devices (e.g., communication ports), etc. Therefore, the subject of the processing performed by executing the program may be the processor. Similarly, the subject of the processing performed by executing the program may be a controller, device, system, computer, or node having a processor. The subject of the processing performed by executing the program may be a calculation unit, and may include a dedicated circuit that performs specific processing. Here, the dedicated circuit is, for example, an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), a CPLD (Complex Programmable Logic Device), etc.
プログラムは、プログラムソースからコンピュータにインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたはコンピュータが読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他のコンピュータに配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 The program may be installed on the computer from a program source. The program source may be, for example, a program distribution server or a computer-readable storage medium. When the program source is a program distribution server, the program distribution server may include a processor and a storage resource that stores the program to be distributed, and the processor of the program distribution server may distribute the program to be distributed to other computers. In addition, in the embodiments, two or more programs may be realized as one program, and one program may be realized as two or more programs.
図1において、100は、全体として第1の実施の形態による学習モデル生成システム(以下、「システム100」と記す)を示す。
In FIG. 1, 100 indicates a learning model generation system according to the first embodiment as a whole (hereinafter, referred to as "
システム100は、学習モデル生成装置(以下、「装置」と記す)101とクライアント端末(以下、「端末」と記す)102とを備える。装置101と端末102とは、通信可能に接続されている。装置101は、現場のシステム103で運用されている既存の1つ以上の学習モデルを記憶している。
The
装置101は、学習モデルを生成する装置である。装置101は、ノートパソコン、サーバ装置、量子コンピュータ等である。装置101のハードウェアの構成については、図2を用いて後述する。
The
装置101は、記憶部110と、生成部120と、出力部130とを備える。
The
記憶部110は、各種の情報を記憶する。例えば、記憶部110は、モデル情報111、学習モデル112、およびデータセット113を記憶している。なお、モデル情報111については、図3を用いて後述する。
The
学習モデル112は、既存の学習済みのモデルである。学習モデル112は、ネットワーク114およびパラメータ115から構成されている。
The
システム100では、学習モデル112のネットワーク114およびパラメータ115が、第1のカテゴリ、第2のカテゴリ、および第3のカテゴリの何れかのカテゴリに分類されて記憶部110に記憶されている。第1のカテゴリには、第1のネットワーク114-1および第1のパラメータ115-1とから構成されている第1の層モデルが分類されている。第2のカテゴリには、第2のネットワーク114-2および第2のパラメータ115-2とから構成されている第2の層モデルが分類されている。第3のカテゴリには、第3のネットワーク114-3および第3のパラメータ115-3とから構成されている第3の層モデルが分類されている。
In the
このように、記憶部110は、学習モデル112を、カテゴリごとに分類された層モデルとして記憶している。なお、カテゴリは、3つに限らない。カテゴリは、2つであってもよいし、4つ以上であってもよい。層モデルについては、図4を用いて後述する。
In this way, the
記憶部110には、学習モデル112が記憶される場合について説明したが、記憶部110に記憶される既存の学習モデルは、1つに限らない。記憶部110には、学習モデル112とは異なる学習モデルが1つ以上記憶されていてもよい。以下では、記憶部110に既存の複数の学習モデルが記憶されている場合を例に挙げて説明する。
Although the case where the
生成部120は、記憶部110に記憶されているモデル情報111と、端末102の入力部140により入力された仕様情報141とに基づいて、新規の学習モデルを生成する。
The
出力部130は、生成部120により生成された学習モデルを出力する。出力された学習モデルは、例えば、現場のシステム103のエッジデバイス150に搭載される。
The
端末102は、ノートパソコン、タブレット端末、スマートフォン等である。端末102は、入力部140を備える。
The terminal 102 is a notebook computer, a tablet terminal, a smartphone, etc. The terminal 102 is equipped with an
入力部140は、ユーザが必要とする学習モデルの仕様を示す仕様情報141を入力する。仕様情報141については、図5を用いて後述する。
The
システム103は、タクシーのシステム103-1、レンタサイクルのシステム103-2、配送のシステム103-3、卸のシステム103-4、小売のシステム103-5等である。各システム103は、エッジデバイス150を備える。 The systems 103 include a taxi system 103-1, a bicycle rental system 103-2, a delivery system 103-3, a wholesale system 103-4, a retail system 103-5, etc. Each system 103 is equipped with an edge device 150.
エッジデバイス150は、現場に近いデバイスである。エッジデバイス150は、例えば、インターネットに接続可能な小型のデバイスである。エッジデバイス150は、車両、スマートフォン、タブレット端末、携帯電話、カメラ、産業機器、センサ等である。エッジデバイス150には、現場のデータを取得するための各種のセンサが接続されていてもよい。 The edge device 150 is a device close to the site. The edge device 150 is, for example, a small device that can be connected to the Internet. The edge device 150 is a vehicle, a smartphone, a tablet terminal, a mobile phone, a camera, industrial equipment, a sensor, etc. The edge device 150 may be connected to various sensors for acquiring data on the site.
エッジデバイス150は、ネットワーク151およびパラメータ152からなる学習モデルを備える。エッジデバイス150は、学習モデルを用いて物体検出等を行う。エッジデバイス150は、センサから得られたデータをもとに学習モデルを再学習してもよい。エッジデバイス150は、学習モデルの再学習に用いたデータをデータセット153として記憶する。なお、データセット153については、エッジデバイス150に記憶されていてもよいし、エッジデバイス150と通信可能なコンピュータに記憶されていてもよい。 The edge device 150 has a learning model consisting of a network 151 and parameters 152. The edge device 150 performs object detection and the like using the learning model. The edge device 150 may re-learn the learning model based on data obtained from a sensor. The edge device 150 stores the data used to re-learn the learning model as a dataset 153. The dataset 153 may be stored in the edge device 150, or may be stored in a computer that can communicate with the edge device 150.
エッジデバイス150は、インターネットを介してデータセット153等を装置101に送信する。なお、ネットワーク151およびパラメータ152からなる学習モデルは、システム100の運用者によりカテゴリに対応するように層モデルに分割されて記憶部110に記憶される。この際、システム100の運用者により、記憶部110に記憶された内容がモデル情報111に反映される。
The edge device 150 transmits the data set 153 and the like to the
図1では、タクシーのシステム103-1、レンタサイクルのシステム103-2、配送のシステム103-3、および卸のシステム103-4の既存の学習モデルをもとに、小売のシステム103-5の新規の学習モデルが生成される例が示されている。 Figure 1 shows an example in which a new learning model for a retail system 103-5 is generated based on existing learning models for a taxi system 103-1, a bicycle rental system 103-2, a delivery system 103-3, and a wholesale system 103-4.
なお、システム100では、記憶部110と生成部120と出力部130とが装置101に設けられる場合ついて説明した。ただし、システム100は、この構成に限らない。例えば、記憶部110は、装置101と異なる他のコンピュータに設けられてもよい。
In the above description of the
図2は、装置101のハードウェアに係る構成の一例を示す図である。
Figure 2 shows an example of the hardware configuration of
装置101は、プロセッサ210と、主記憶装置220と、補助記憶装置230と、入力装置240と、出力装置250と、通信装置260とを備える。
The
プロセッサ210は、演算処理を行う装置である。プロセッサ210は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AIチップ等である。
The
主記憶装置220は、プログラム、データ等を記憶する装置である。主記憶装置220は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等である。ROMは、SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等である。RAMは、DRAM(Dynamic Random Access Memory)等である。
The
補助記憶装置230は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置等である。光学式記憶装置は、CD(Compact Disc)、DVD(Digital Versatile Disc)等である。補助記憶装置230に格納されているプログラム、データ等は、主記憶装置220に随時読み込まれる。
The
入力装置240は、ユーザから情報を受付けるユーザインターフェースである。入力装置240は、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。
The
出力装置250は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインターフェースである。出力装置250は、例えば、各種情報を可視化する表示装置、音声出力装置(スピーカ)、印字装置等である。表示装置は、LCD(Liquid Crystal Display)、グラフィックカード等である。
The
通信装置260は、通信媒体を介して他の装置と通信する通信インターフェースである。通信装置260は、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信装置260は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また、通信装置260は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。
The
装置101の機能(記憶部110、生成部120、出力部130等)は、例えば、プロセッサ210が補助記憶装置230に格納されたプログラムを主記憶装置220に読み出して実行すること(ソフトウェア)により実現されてもよい。装置101の機能は、専用の回路等のハードウェアにより実現されてもよい。装置101の機能は、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、装置101の機能の一部は、装置101と通信可能な他のコンピュータにより実現されてもよい。
The functions of the device 101 (
なお、端末102のハードウェアについては、装置101と同一または類似であるため、その説明を省略する。端末102の機能(入力部140等)は、例えば、プロセッサが補助記憶装置に格納されたプログラムを主記憶装置に読み出して実行すること(ソフトウェア)により実現されてもよい。端末102の機能は、専用の回路等のハードウェアにより実現されてもよい。端末102の機能は、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、端末102の機能の一部は、端末102と通信可能な他のコンピュータにより実現されてもよい。
Note that the hardware of the terminal 102 is the same as or similar to that of the
図3は、モデル情報111の一例(モデルテーブル300)を示す図である。 Figure 3 shows an example of model information 111 (model table 300).
モデルテーブル300には、学習モデルがカテゴリに対応するようにシステム100の運用者により分割された層モデルを示す情報と、当該学習モデルのデータセットを示す情報とが記憶されている。
The model table 300 stores information indicating the layer models divided by the operator of the
より具体的には、モデルテーブル300では、管理番号310と、第1の層モデル名320と、第2の層モデル名330と、第3の層モデル名340と、データセット名350との情報が対応付けられている。
More specifically, in the model table 300, information on a
管理番号310は、システム100の運用者により補助記憶装置230に登録された学習モデルを識別可能な情報である。第1の層モデル名320は、第1のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第1の層モデル名320には、第1のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。第2の層モデル名330は、第2のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第2の層モデル名330には、第2のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。第3の層モデル名340は、第3のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第3の層モデル名340には、第3のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。データセット名350は、当該学習モデルの学習に用いられたデータセットを示す名称である。データセット名350には、当該学習モデルの学習に用いられたデータセットが紐付けられている。
The
図4は、学習モデル112の一例を示す図である。
Figure 4 shows an example of a
学習モデル112は、第1の層モデル410と、第2の層モデル420と、第3の層モデル430とからなる。
The
第1の層モデル410は、学習モデル112における推論の対象(物体)の特徴を抽出するための層モデルである。第1の層モデル410は、例えば、物体が斜めになっている、物体が横になっている等、どのような物体を認識するのかといった物体の特徴を抽出するための層モデルであり、特徴抽出部と記すことがある。より具体的には、第1の層モデル410は、学習済みのパラメータ411-1,411-2が設定された2つの層412-1,412-2からなる。
The
第2の層モデル420は、学習モデル112における推論に及ぼす現場の影響を加味するための層モデルである。第2の層モデル420は、例えば、どのような照度、どのような天気に対して認識するのかといった現場の依存性を付加するための層モデルであり、境依存部と記すことがある。より具体的には、第2の層モデル420は、学習済みのパラメータ421-1,421-2,421-3が設定された3つの層422-1,422-2,422-3からなる。
The
現場の環境については、現場の照度および現場の天気を例に挙げて説明するが、これらに限らない。現場の環境は、現場の広さ、現場の混み具合等、他の物理的な指標であってもよい。 The on-site environment will be described using the illuminance and weather at the site as examples, but is not limited to these. The on-site environment may also be other physical indicators, such as the size of the site, how crowded the site is, etc.
第3の層モデル430は、物体を検出する、距離を測定するといった推論を行うための(目的の機能を担うための)層モデルであり、機能部と記すことがある。より具体的には、第3の層モデル430は、学習済みのパラメータ431-1,431-2,431-3が設定された3つの層432-1,432-2,432-3からなる。
The
第3の層モデル430には、出力層が含まれている場合を例に挙げて説明する。ただし、この構成に限らない。第3の層モデル430には、出力層が含まれていなくてもよい。この場合、出力層は、別体として設けられる。
The
図5は、仕様情報141を生成するための画面の一例(生成画面500)を示す図である。
Figure 5 shows an example of a screen (generation screen 500) for generating
生成画面500は、端末102に表示される。生成画面500に入力された情報をもとに仕様情報141が生成される。
The
生成画面500は、第1の選択リスト510と、第2の選択リスト520と、第3の選択リスト530と、再学習選択リスト540と、入力サイズ550と、出力先560と、モデル生成ボタン570とを備える。
The
第1の選択リスト510では、第1の層モデル名320の情報が選択可能に表示される。第2の選択リスト520では、第2の層モデル名330の情報が選択可能に表示される。第3の選択リスト530では、第3の層モデル名340の情報が選択可能に表示される。再学習選択リスト540では、新規の学習モデルを再学習するか否かが選択可能に表示される。
In the
入力サイズ550は、新規の学習モデルに入力するデータのサイズを入力するための領域である。出力先560は、新規の学習モデルを出力する場所を指定するための領域である。モデル生成ボタン570は、学習モデルの生成を指示するためのボタンである。
The
ユーザは、第1の選択リスト510、第2の選択リスト520、および第3の選択リスト530の各々から所望の層モデル(層)を選択する。また、ユーザは、入力サイズ550にデータのサイズを入力し、出力先560に出力先の場所を入力する。そして、ユーザがモデル生成ボタン570を押下することで、生成画面500で指定された内容の学習モデルが生成される。
The user selects the desired layer model (layer) from each of the
図6は、システム100における一連の処理(シーケンス)の一例を示す図である。
Figure 6 shows an example of a series of processes (sequence) in the
S601では、端末102は、学習モデルの生成を開始する旨の要求(生成要求)を装置101に送信する。
In S601, the terminal 102 sends a request (generation request) to the
S602では、装置101は、生成要求を受信し、モデル情報111を記憶部110から取得し、モデル情報111をもとに生成画面500の画面情報を生成する。
In S602, the
S603では、装置101は、画面情報を端末102に送信する。
In S603, the
S604では、端末102は、画面情報を受信し、生成画面500を表示し、ユーザからの入力を受け付ける。端末102は、ユーザからモデル生成ボタン570が押下された場合、生成画面500に入力されている情報をもとに仕様情報141を生成する。仕様情報141には、第1の選択リスト510、第2の選択リスト520、第3の選択リスト530、および再学習選択リスト540で選択されている情報と、入力サイズ550および出力先560に入力されている情報とが含まれる。
In S604, the terminal 102 receives the screen information, displays the
S605では、端末102は、仕様情報141を装置101に送信する。
In S605, the terminal 102 transmits the
S606では、装置101は、仕様情報141を受信し、学習モデルを生成する処理(生成処理)を行う。生成処理では、学習モデルが生成される。生成処理については、図7を用いて後述する。
In S606, the
図7は、装置101が実行する生成処理の一例を示す図である。
Figure 7 shows an example of the generation process performed by
S701では、生成部120は、仕様情報141を参照し、第1の選択リスト510、第2の選択リスト520、第3の選択リスト530で選択された層モデル名の層モデルを記憶部110から取得する。
In S701, the
S702では、生成部120は、仕様情報141に含まれる入力サイズ550の情報に応じて入力層のサイズを設定する。なお、入力層は、第1の層モデルに含まれていてもよい。この場合、生成画面500には、入力サイズ550は設けられない。
In S702, the
S703では、生成部120は、全ての層モデル間のサイズが一致しているか否かを判定する。より具体的には、生成部120は、入力層と第1の層モデルとのサイズが一致しているか否か、第1の層モデルと第2の層モデルとのサイズが一致しているか否か、第2の層モデルと第3の層モデルとのサイズが一致しているか否かを判定する。生成部120は、全ての層モデル間のサイズが一致していると判定した場合、S706に処理を移し、サイズが一致していない層モデル間があると判定した場合、S704に処理を移す。
In S703, the
S704では、生成部120は、サイズが異なる層モデル間のデータのサイズを変換(調整)する。
In S704, the
生成処理は、上述の内容に限らない。例えば、層モデルについては、装置101への記憶前に、または、生成処理の前に、層モデル間のサイズの調整が行われていてもよい。この場合、S703およびS704の処理は不要となる。
The generation process is not limited to the above. For example, the size of the layer models may be adjusted before storing them in the
S705では、生成部120は、層モデルを組み合わせて新規の学習モデルとする。
In S705, the
S706では、生成部120は、仕様情報141に含まれている再学習選択リスト540で選択されている情報を参照し、再学習が必要であるか否かを判定する。生成部120は、再学習が必要であると判定した場合、S707に処理を移し、再学習が必要でないと判定した場合、生成処理を終了する。
In S706, the
S707では、生成部120は、再学習に用いるデータセットをもとに、生成した新規の学習モデルを再学習する。
In S707, the
再学習に用いるデータセットは、システム100の運用者によりアノテーションが変更されることがある。ここで、第1の選択リスト510では「3:パレット」、第2の選択リスト520では「2:屋内、蛍光灯」、第3の選択リスト530では「1:物体検出」が選択された場合について説明する。この場合、再学習に用いるデータセットとしては、物体検出の対象となるデータ(例えば、画像)が含まれる管理番号310「3」のデータセットが用いられる。この際、管理番号310「3」のデータセットは、角度検出のラベルが付与されているため、システム100の運用者により物体検出のラベルが付け直される。
The annotations of the dataset used for re-learning may be changed by the operator of the
S708では、出力部130は、生成部120により生成された学習モデルを出力する。より具体的には、出力部130は、仕様情報141に含まれる出力先560の情報をもとに、出力先560で指定されている場所に学習モデルを送信する。
In S708, the
なお、装置101により生成された学習モデルについては、システム100の運用者により、チューニングが行われてもよい。
The learning model generated by the
図8は、学習モデルの精度と学習モデルの生成にかかる時間との関係を示す図(イメージ図800)である。 Figure 8 is a diagram (image 800) showing the relationship between the accuracy of a learning model and the time it takes to generate the learning model.
イメージ図800において、縦軸は、学習モデルの精度を示し、横軸は、学習モデルの生成にかかる時間を示す。グラフ810は、装置101により学習モデルを生成した際のグラフを示す。グラフ810は、既存の方法により学習モデルを生成した際のグラフを示す。
In the image diagram 800, the vertical axis indicates the accuracy of the learning model, and the horizontal axis indicates the time required to generate the learning model.
グラフ810に示すように、装置101が学習モデルの生成にかかる時間は、第1の時間x1であり、学習モデルの精度は、第1の精度y1である。
As shown in
グラフ820に示すように、既存の方法による学習モデルの生成にかかる時間は、データセットを準備する時間と、学習モデルを構築する時間とが必要となるため、第1の時間x1より長い第2の時間x2となる。また、既存の方法によれば、学習済みのパラメータが用いられないため、学習モデルの精度は、第1の精度y1より低い第2の精度y2となる。
As shown in
なお、学習モデルが生成された後は、現場において学習モデルの学習が行われており、学習モデルの精度が上がっている。 After the learning model is generated, it is trained in the field, and the accuracy of the learning model is improved.
本実施の形態によれば、既存の方法よりも短期間で学習モデルを生成することができる。また、本実施の形態によれば、既存の方法よりも精度が高い学習モデルを生成することができる。また、本実施の形態によれば、既存の学習モデルとは異なる機能の学習モデルを生成することができる。 According to this embodiment, it is possible to generate a learning model in a shorter time than existing methods. Furthermore, according to this embodiment, it is possible to generate a learning model with higher accuracy than existing methods. Furthermore, according to this embodiment, it is possible to generate a learning model with different functions from existing learning models.
(2)第2の実施の形態
本実施の形態では、装置101により生成された学習モデルが運用されている現場のデータ(現場データ)を当該学習モデルのデータセットとして用いる構成が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を付してその説明を省略する。
(2) Second embodiment In this embodiment, the main difference from the first embodiment is that data (on-site data) from a site where a learning model generated by the
図9は、本実施の形態のシステム900の一例を示す図である。
Figure 9 shows an example of a
小売システム903-5では、装置901により生成された学習モデル960がエッジデバイス950-5に設けられて運用されている。図示は省略するが、小売システム903-5には、各種のセンサが設けられている。
In the retail system 903-5, the
小売システム903-5では、小売システム903-5の運用者によりセンサで取得された現場データにラベルが付されたデータセット(データセット953-5)が用いられてパラメータ952-5の学習が行われていてもよい。学習が行われていない場合は、システム900の運用者または小売システム903-5の運用者により、現場データにラベルが付されたデータセット953-5が生成されていてもよい。
In the retail system 903-5, the parameters 952-5 may be trained using a dataset (dataset 953-5) in which the operator of the retail system 903-5 labels on-site data acquired by a sensor. If training is not performed, the operator of the
システム900において、小売システム903-5は、所定のタイミングでデータセット953-5を装置901に送信する。装置901の記憶部910は、受信したデータセット953-5を記憶する。この際、装置901は、学習モデル960の管理番号310に対応するデータセット名350に紐付いているデータセットをデータセット953-5で更新してもよいし、データセット953-5を追加して記憶してもよい。
In the
所定のタイミングは、例えば、システム900の運用者により定められた時間であってよい。また、例えば、所定のタイミングは、システム900の運用者により指示されたタイミングであってよい。
The specified timing may be, for example, a time determined by the operator of the
本実施の形態によれば、装置901は、生成した学習モデルを、現場データを用いて再学習することができるようになる。
According to this embodiment, the
なお、システム900では、システム900の運用者により、学習モデル960のパラメータ925-5が装置901に記憶されるようにしてもよい。
In addition, in the
(3)第3の実施の形態
本実施の形態では、ユーザにより指定された精度に応じて学習モデルを生成する構成が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を付してその説明を省略する。
(3) Third embodiment In this embodiment, the main difference from the first embodiment is the configuration for generating a learning model according to the accuracy designated by the user. In this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.
図10は、本実施の形態のシステム1000の一例を示す図である。
Figure 10 shows an example of a
システム1000では、端末1002の入力部1040は、ユーザにより指定された精度を示す精度情報を含むモデル仕様情報1041の入力を受け付ける。端末1002は、モデル仕様情報1041を装置1001に送信する。モデル仕様情報1041については、図11を用いて後述する。
In the
装置1001の生成部1020は、仕様情報1041と記憶部1010に記憶されているモデル情報1011とに基づいて、ユーザにより指定された精度に応じた学習モデルを生成する。モデル情報1011については、図12を用いて後述する。
The
図11は、モデル仕様情報1041の一例(モデル仕様情報1100)を示す図である。 Figure 11 shows an example of model specification information 1041 (model specification information 1100).
モデル仕様情報1100には、精度1110と、第1の層モデル名1120と、第2の層モデル名1130と、第3の層モデル名1140と、再学習有無1150とが対応付けられた情報が含まれる。
The
精度1110は、装置1001により生成される学習モデルにユーザが求める精度を示す情報である。第1の層モデル名1120は、当該学習モデルに用いられる第1のカテゴリの層モデルを示す情報である。第2の層モデル名1130は、当該学習モデルに用いられる第2のカテゴリの層モデルを示す情報である。第3の層モデル名1140は、当該学習モデルに用いられる第3のカテゴリの層モデルを示す情報である。再学習有無1150は、当該学習モデルの再学習が行われる否かを示す情報である。
なお、図示は省略するが、モデル仕様情報1041は、所定の画面を介して入力される。例えば、所定の画面は、生成画面500に、精度の情報を入力するための領域が設けられている画面であってもよい。
Although not shown in the figure, the
図12は、モデル情報1011の一例(モデルテーブル1200)を示す図である。 Figure 12 shows an example of model information 1011 (model table 1200).
モデルテーブル1200では、モデルテーブル300の情報に、精度1210の情報が更に対応付けられている。精度1210は、管理番号310の学習モデルの精度を示す情報である。
In model table 1200, information in model table 300 is further associated with information in
図13は、装置1001が行う生成処理の一例を示す図である。
Figure 13 shows an example of the generation process performed by
S1301では、生成部1020は、モデル仕様情報1041を参照し、ユーザにより指定された精度(指定精度)が既存の学習モデルの精度(モデル精度)より高いか否かを判定する。生成部1020は、指定精度がモデル精度より高いと判定した場合、S1302に処理を移し、指定精度がモデル精度より高くないと判定した場合、S1303に処理を移す。
In S1301, the
システム1000では、生成部1020は、学習モデルの精度としては、第1のカテゴリの層モデル(第1の層モデル名)が含まれていた学習モデルの精度を用いる。
In the
ここで、モデル仕様情報1100およびモデルテーブル1200を例に挙げて説明する。モデル仕様情報1100には、精度1110「55%」、第1の層モデル名1120「3:パレット」、第2の層モデル名1130「2:屋内、蛍光灯」、第3の層モデル名1140「1:物体検出」が含まれる。この場合、第1の層モデル名1120「3:パレット」が含まれていたモデル管理番号310「3」の学習モデルの精度1210「60%」が既存の学習モデルの精度として用いられる。よって、S1301においては、生成部1020は、ユーザにより指定された精度「55%」が既存の学習モデルの精度「60%」より高くないと判定し、S1303に処理を移す。
Here, the
なお、学習モデルの精度としては、第1のカテゴリの層モデルが含まれていた学習モデルの精度を用いるのは、第1のカテゴリの層モデルが特徴抽出部であるので、精度への影響が大きいことに基づいている。ただし、層モデルの分類の仕方によっては、精度への影響が大きい層モデルは異なることから、上記構成に限らない。例えば、学習モデルの精度として、第1のカテゴリの層モデルとは異なるカテゴリの層モデルが含まれていた学習モデルの精度を用いる構成としてもよい。 The reason for using the accuracy of the learning model that included a layer model of the first category as the accuracy of the learning model is that the layer model of the first category is a feature extraction unit and therefore has a large impact on the accuracy. However, the above configuration is not limited to this, since the layer model that has a large impact on the accuracy differs depending on how the layer models are classified. For example, the accuracy of the learning model may be configured to use the accuracy of a learning model that included a layer model of a category different from the layer model of the first category.
S1302では、生成部1020は、層を追加する。例えば、生成部1020は、第1の層モデルの最後の層(例えば、最も深い層)の後に、当該最後の層と同じ層を追加する。ただし、層の追加は、この処理に限らない。例えば、生成部1020は、指定された精度が学習モデルの精度との差に応じて、第1の層モデルの2つ以上の層を追加してもよい。また、例えば、生成部1020は、第1の層モデルとは異なる層モデルに層を追加してもよい。
In S1302, the
S1303では、生成部1020は、層を削除する。例えば、生成部1020は、第1の層モデルの最後を削除する。ただし、層の削除は、この処理に限らない。例えば、生成部1020は、指定された精度が学習モデルの精度との差に応じて、第1の層モデルの2つ以上の層を削除してもよい。また、例えば、生成部1020は、第1の層モデルとは異なる層モデルから層を削除してもよい。
In S1303, the
なお、装置101により生成された学習モデルについては、システム1000の運用者により、仕様情報141の精度に合うようにチューニングが行われてもよい。
The learning model generated by the
本実施の形態によれば、ユーザが指定する精度に応じて学習モデルを生成することができるようになる。 According to this embodiment, it becomes possible to generate a learning model according to the accuracy specified by the user.
(4)付記
上述の実施の形態には、例えば、以下のような内容が含まれる。
(4) Supplementary Notes The above-described embodiment includes, for example, the following contents.
上述の実施の形態においては、本発明を学習モデル生成システムに適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のシステム、装置、方法、プログラムに広く適用することができる。 In the above embodiment, the present invention has been described as being applied to a learning model generation system, but the present invention is not limited to this and can be widely applied to various other systems, devices, methods, and programs.
また、上述の実施の形態において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部または一部が1つのテーブルであってもよい。 In addition, in the above-described embodiment, the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of two or more tables may be one table.
また、上述の実施の形態において示した画面は、一例であり、受け付ける情報が同じであればどのような画面デザインであってもよい。例えば、各入力値の名称をタイトル行にもち、各行が個々の入力値の入力セルとなっているような表計算シート状の画面デザインであってもよい。また、画面は、ファイルの入力を受け付けるインターフェースを持ち、指定されたファイルの情報を基に画面の内容を更新してもよい。 The screens shown in the above-described embodiment are merely examples, and any screen design may be used as long as the information accepted is the same. For example, the screen may be designed like a spreadsheet, with the name of each input value in the title row, and each row being an input cell for an individual input value. The screen may also have an interface for accepting file input, and the contents of the screen may be updated based on the information in a specified file.
また、上記の説明において、各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, in the above description, information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or in a recording medium such as an IC card, an SD card, or a DVD.
上述した実施の形態は、例えば、以下の特徴的な構成を有する。 The above-described embodiment has the following characteristic configurations:
学習モデル生成システム(例えば、システム100、システム900、システム1000)は、記憶部と、生成部と、出力部と、を備える。
The learning model generation system (e.g.,
上記記憶部は、例えば、記憶部110、装置101、プロセッサ210、回路である。上記記憶部は、学習済みのモデル(例えば、ニューラルネットワークのモデル、ディープニューラルネットワークのモデル)である既存の学習モデル(例えば、学習モデル112)を構成している複数の層の各々を記憶する。上記複数の層は、第1のネットワーク114-1および第1のパラメータ115-1からなる層モデル、第2のネットワーク114-2および第2のパラメータ115-2からなる層モデル、第3のネットワーク114-3および第3のパラメータ115-3からなる層モデル等である。
The storage unit is, for example, the
上記既存の学習モデルは、1つであってもよいし、複数であってもよい。上記既存の学習モデルが1つである場合は、既存の学習モデルは、複数の層からなる。上記既存の学習モデルが複数である場合は、複数の学習モデルは、1つの現場に設けられていてもよいし、複数の現場に設けられていてもよい。また、上記既存の学習モデルが複数である場合は、複数の学習モデルは、同じ対象について推論を行うモデルであってもよいし、異なる対象について推論を行うモデルであってもよい。 The number of the existing learning models may be one or more. If there is one existing learning model, the existing learning model consists of multiple layers. If there are multiple existing learning models, the multiple learning models may be provided at one site, or at multiple sites. Furthermore, if there are multiple existing learning models, the multiple learning models may be models that perform inference on the same subject, or models that perform inference on different subjects.
上記記憶部に記憶される上記複数の各々は、予め定められたカテゴリまたは粒度に分類されていてもよいし、予め定められたカテゴリまたは粒度に分類されていなくてもよい。 Each of the plurality of items stored in the storage unit may be classified into a predetermined category or granularity, or may not be classified into a predetermined category or granularity.
上記生成部は、例えば、生成部120は、装置101、プロセッサ210、回路である。上記生成部は、複数の層が指定された仕様情報(例えば、仕様情報141)に基づいて、上記記憶部から上記複数の層の各々に対応する層を取得し、取得した層を組み合わせて学習モデル(例えば、ネットワーク151-5およびパラメータ152-5からなる学習モデル)を生成する。
The
上記仕様情報は、生成画面500等の画面を介して生成された情報であってもよいし、予め指定されたフォーマットで情報が入力されているファイルであってもよい。
The above specification information may be information generated via a screen such as the
上記出力部は、例えば、出力部130、装置101、プロセッサ210、回路である。上記出力部は、上記生成部により生成された学習モデルを出力する。なお、出力部は、ユーザにより指定された出力先に出力してもよいし、予め指定されている出力先に出力してもよい。
The output unit is, for example, the
上記構成では、既存の学習モデルの層が組み合わされて新規の学習モデルが生成されるので、上記学習モデル生成システムによれば、学習モデルの生成にかかる時間を短縮することができる。 In the above configuration, layers of existing learning models are combined to generate a new learning model, so the learning model generation system can reduce the time it takes to generate a learning model.
上記記憶部は、既存の複数の学習モデルおいて、各学習モデルを構成している複数の層の各々を記憶する。上記既存の複数の学習モデルは、ネットワーク151-1およびのパラメータ152-1からなる学習モデル、ネットワーク151-2およびのパラメータ152-2からなる学習モデル、ネットワーク151-3およびのパラメータ152-3からなる学習モデル、ネットワーク151-4およびのパラメータ152-4からなる学習モデル等である。 The storage unit stores each of the multiple layers constituting each of the multiple existing learning models. The multiple existing learning models include a learning model consisting of network 151-1 and parameters 152-1, a learning model consisting of network 151-2 and parameters 152-2, a learning model consisting of network 151-3 and parameters 152-3, a learning model consisting of network 151-4 and parameters 152-4, etc.
上記生成部は、上記複数のモデルのうち異なる学習モデルの層が指定(例えば、図5参照)された仕様情報に基づいて、上記記憶部から上記層に対応する層を取得する。上記生成部は、取得した層を組み合わせて学習モデルを生成する。 The generation unit acquires layers corresponding to the layers from the storage unit based on specification information in which layers of different learning models among the multiple models are specified (e.g., see FIG. 5). The generation unit combines the acquired layers to generate a learning model.
上記構成では、複数のモデルのうち異なるモデルの層が指定された仕様情報に基づいて、異なる学習モデルの層が組み合わされた新規の学習モデルが生成される。上記構成によれば、例えば、ユーザは、既存の学習モデルとは異なる学習モデルを生成することができる。 In the above configuration, a new learning model is generated in which layers of different learning models are combined based on specification information in which layers of different models among multiple models are specified. With the above configuration, for example, a user can generate a learning model that is different from an existing learning model.
上記記憶部は、上記既存の学習に用いられたデータセットにラベルが付されたデータセットを記憶する。上記データセットは、例えば、学習モデル生成システムの運用者により、上記記憶部に記憶される。上記生成部は、生成した学習モデルを、上記データセットを用いて再学習する。 The storage unit stores a dataset in which a label has been added to the dataset used in the existing learning. The dataset is stored in the storage unit, for example, by an operator of the learning model generation system. The generation unit re-trains the generated learning model using the dataset.
再学習は、行われてもよいし、行われなくてもよい。再学習が行われるか否かは、ユーザにより指定されてもよいし、指定されなくてもよい。ユーザにより指定される場合、例えば、再学習を行うか否かを示す情報が、直接または仕様情報141に含められて、装置101に取り込まれる。
Relearning may or may not be performed. Whether or not relearning is performed may or may not be specified by the user. When specified by the user, for example, information indicating whether or not relearning is performed is input to the
上記構成では、生成された学習モデルが、既存のデータセットにラベルが付されたデータセットをもとに再学習される。上記構成によれば、例えば、ユーザは、再学習により精度が高められた学習モデルを得ることができる。 In the above configuration, the generated learning model is retrained based on a dataset in which an existing dataset is labeled. With the above configuration, for example, a user can obtain a learning model whose accuracy has been improved by retraining.
上記記憶部は、上記生成部により生成された学習モデルを構成している複数の層と、上記学習モデルが運用されている現場において取得された現場のデータにラベルが付されたデータセットとを記憶する。上記データセットは、現場の運用者により生成されたものであってもよいし、学習モデル生成システムの運用者により生成されたものであってもよい。 The storage unit stores multiple layers constituting the learning model generated by the generation unit, and a dataset in which on-site data acquired at the site where the learning model is operated is labeled. The dataset may be generated by an operator at the site, or may be generated by an operator of the learning model generation system.
上記構成では、生成された学習モデルの複数の層と当該学習モデル運用されている現場のデータにラベルが付されたデータセットとが記憶される。上記構成によれば、例えば、ユーザは、新たに記憶された各層を選択して再学習された学習モデルを生成できるようになり、学習モデル生成システムの利便性が高められる。 In the above configuration, multiple layers of the generated learning model and a dataset in which data from the site where the learning model is being used are labeled are stored. With the above configuration, for example, a user can select each newly stored layer to generate a re-trained learning model, thereby improving the convenience of the learning model generation system.
上記仕様情報には、上記生成部により生成される学習モデルの精度を示す情報が含まれる(例えば、図11参照)。上記記憶部は、上記既存のモデルの精度を示す情報を記憶する(例えば、図12参照)。
上記生成部は、上記仕様情報に基づいて、上記記憶部から上記複数の層の各々に対応する層を取得する(例えば、S702参照)。上記生成部は、上記仕様情報の精度が上記既存の学習モデルの精度より高い場合には、取得した層に1つ以上の層を追加する(例えば、S1302参照)。上記生成部は、上記仕様情報の精度が上記既存の学習モデルの精度より高くない場合には、取得した層から1つ以上の層を削除する(例えば、S1303参照)。
The specification information includes information indicating accuracy of the learning model generated by the generation unit (see, for example, FIG. 11). The storage unit stores information indicating accuracy of the existing model (see, for example, FIG. 12).
The generation unit acquires layers corresponding to each of the layers from the storage unit based on the specification information (see, for example, S702). If the accuracy of the specification information is higher than the accuracy of the existing learning model, the generation unit adds one or more layers to the acquired layers (see, for example, S1302). If the accuracy of the specification information is not higher than the accuracy of the existing learning model, the generation unit deletes one or more layers from the acquired layers (see, for example, S1303).
上記構成では、指定された精度に応じて学習モデルが生成されるので、ユーザは、所望の精度に近づくように生成された学習モデルを得ることができる。 In the above configuration, a learning model is generated according to the specified accuracy, so the user can obtain a learning model that is generated to approach the desired accuracy.
上記記憶部は、上記既存の学習モデルを構成している層を、第1のカテゴリと、第2のカテゴリと、第3のカテゴリとの何れかに分類して記憶する(例えば、図12、図13参照「)。第1のカテゴリは、物体の特徴を抽出するための層の分類に適したカテゴリである。第2のカテゴリは、環境の特徴を抽出するための層の分類に適したカテゴリである。第3のカテゴリは、抽出した特徴を用いて推論するための層の分類に適したカテゴリである。 The storage unit classifies and stores the layers constituting the existing learning model into a first category, a second category, or a third category (see, for example, Figures 12 and 13). The first category is a category suitable for classifying layers for extracting object features. The second category is a category suitable for classifying layers for extracting environmental features. The third category is a category suitable for classifying layers for inference using the extracted features.
上記構成では、学習モデルの層がカテゴリに分類されて記憶されているので、例えば、ユーザは、整理されているカテゴリの中から層を選ぶことができ、所望の学習モデルを容易に生成することができるようになる。 In the above configuration, the layers of the learning model are classified and stored into categories, so that, for example, a user can select a layer from among the organized categories, making it easy to generate the desired learning model.
また上述した構成については、本発明の要旨を超えない範囲において、適宜に、変更したり、組み替えたり、組み合わせたり、省略したりしてもよい。 Furthermore, the above-mentioned configurations may be modified, rearranged, combined, or omitted as appropriate without departing from the spirit and scope of the present invention.
「A、B、およびCのうちの少なくとも1つ」という形式におけるリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができると理解されたい。同様に、「A、B、またはCのうちの少なくとも1つ」の形式においてリストされた項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができる。 It should be understood that an item listed in the format "at least one of A, B, and C" can mean (A), (B), (C), (A and B), (A and C), (B and C), or (A, B, and C). Similarly, an item listed in the format "at least one of A, B, or C" can mean (A), (B), (C), (A and B), (A and C), (B and C), or (A, B, and C).
100……システム、110……記憶部、120……生成部、130……出力部。 100...system, 110...memory unit, 120...generation unit, 130...output unit.
Claims (6)
生成画面を介して受け付けたユーザの入力操作により複数の層が指定された仕様情報に基づいて、前記既存の学習モデルを構成している前記複数の層の各々に対応する層を前記記憶部から取得し、取得した層を組み合わせて学習モデルを生成する生成部と、
前記生成部により生成された学習モデルを出力する出力部と、
を備え、
前記記憶部は、既存の複数の学習モデルにおいて、各学習モデルを構成している複数の層の各々を記憶し、
前記生成部は、前記複数のモデルのうち異なる学習モデルの層が指定された仕様情報に基づいて、前記記憶部から前記層に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する、
学習モデル生成システム。 A storage unit that stores each of a plurality of layers constituting an existing learning model that is a trained model;
a generation unit that acquires layers corresponding to each of the layers constituting the existing learning model from the storage unit based on specification information in which multiple layers are specified by a user's input operation received via a generation screen , and combines the acquired layers to generate a learning model;
an output unit that outputs the learning model generated by the generation unit;
Equipped with
The storage unit stores each of a plurality of layers constituting each of a plurality of existing learning models,
The generation unit acquires layers corresponding to different learning models from the storage unit based on specification information in which layers of the different learning models among the plurality of models are specified, and generates a learning model by combining the acquired layers.
Learning model generation system.
前記生成部は、生成した学習モデルを、前記データセットを用いて再学習する、
請求項1に記載の学習モデル生成システム。 The storage unit stores a dataset in which a label is added to the dataset used in the existing learning,
The generation unit re-trains the generated learning model using the dataset.
The learning model generation system according to claim 1 .
請求項1に記載の学習モデル生成システム。 The storage unit stores a plurality of layers constituting the learning model generated by the generation unit and a dataset in which site data acquired at the site where the learning model is operated is labeled.
The learning model generation system according to claim 1 .
前記記憶部は、前記既存のモデルの精度を示す情報を記憶し、
前記生成部は、前記仕様情報に基づいて、前記記憶部から前記複数の層の各々に対応する層を取得し、前記仕様情報の精度が前記既存の学習モデルの精度より高い場合には、取得した層に1つ以上の層を追加し、前記仕様情報の精度が前記既存の学習モデルの精度より高くない場合には、取得した層から1つ以上の層を削除する、
請求項1に記載の学習モデル生成システム。 The specification information includes information indicating accuracy of the learning model generated by the generation unit,
The storage unit stores information indicating accuracy of the existing model,
The generation unit acquires layers corresponding to each of the plurality of layers from the storage unit based on the specification information, and adds one or more layers to the acquired layers when the accuracy of the specification information is higher than the accuracy of the existing learning model, and deletes one or more layers from the acquired layers when the accuracy of the specification information is not higher than the accuracy of the existing learning model.
The learning model generation system according to claim 1 .
請求項1に記載の学習モデル生成システム。 the storage unit classifies and stores layers constituting the existing learning model into any one of categories suitable for classifying layers for extracting object features, categories suitable for classifying layers for extracting environmental features, and categories suitable for classifying layers for inference using the extracted features.
The learning model generation system according to claim 1 .
生成部が、生成画面を介して受け付けたユーザの入力操作により複数の層が指定された仕様情報に基づいて、前記既存の学習モデルを構成している前記複数の層の各々に対応する層を前記記憶部から取得し、取得した層を組み合わせて学習モデルを生成することと、
出力部が、前記生成部により生成された学習モデルを出力することと、
を含み、
前記記憶部は、既存の複数の学習モデルにおいて、各学習モデルを構成している複数の層の各々を記憶し、
前記生成部は、前記複数のモデルのうち異なる学習モデルの層が指定された仕様情報に基づいて、前記記憶部から前記層に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する、
学習モデル生成方法。 A storage unit stores each of a plurality of layers constituting an existing learning model that is a trained model;
A generation unit acquires layers corresponding to each of the layers constituting the existing learning model from the storage unit based on specification information in which a plurality of layers are specified by a user's input operation received via a generation screen , and generates a learning model by combining the acquired layers;
An output unit outputs the learning model generated by the generation unit;
Including,
The storage unit stores each of a plurality of layers constituting each of a plurality of existing learning models,
The generation unit acquires layers corresponding to different learning models from the storage unit based on specification information in which layers of the different learning models among the plurality of models are specified, and generates a learning model by combining the acquired layers.
How to generate a learning model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075832A JP7471135B2 (en) | 2020-04-22 | 2020-04-22 | Learning model generation system and learning model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075832A JP7471135B2 (en) | 2020-04-22 | 2020-04-22 | Learning model generation system and learning model generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174127A JP2021174127A (en) | 2021-11-01 |
JP7471135B2 true JP7471135B2 (en) | 2024-04-19 |
Family
ID=78281839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020075832A Active JP7471135B2 (en) | 2020-04-22 | 2020-04-22 | Learning model generation system and learning model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471135B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336463A1 (en) | 2017-05-18 | 2018-11-22 | General Electric Company | Systems and methods for domain-specific obscured data transport |
WO2020058570A1 (en) | 2018-09-20 | 2020-03-26 | Nokia Technologies Oy | An apparatus and a method for artificial intelligence |
-
2020
- 2020-04-22 JP JP2020075832A patent/JP7471135B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180336463A1 (en) | 2017-05-18 | 2018-11-22 | General Electric Company | Systems and methods for domain-specific obscured data transport |
WO2020058570A1 (en) | 2018-09-20 | 2020-03-26 | Nokia Technologies Oy | An apparatus and a method for artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
JP2021174127A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fazeli et al. | See, feel, act: Hierarchical learning for complex manipulation skills with multisensory fusion | |
US10719301B1 (en) | Development environment for machine learning media models | |
US11556746B1 (en) | Fast annotation of samples for machine learning model development | |
US10867244B2 (en) | Method and apparatus for machine learning | |
US10423647B2 (en) | Descriptive datacenter state comparison | |
Gudivada et al. | Cognitive analytics: Going beyond big data analytics and machine learning | |
US10395108B1 (en) | Automatically identifying and interacting with hierarchically arranged elements | |
EP3467723A1 (en) | Machine learning based network model construction method and apparatus | |
US8990128B2 (en) | Graph-based framework for multi-task multi-view learning | |
US20180174062A1 (en) | Root cause analysis for sequences of datacenter states | |
EP3542319B1 (en) | Training neural networks using a clustering loss | |
US11537506B1 (en) | System for visually diagnosing machine learning models | |
CN109800885A (en) | It is determined for the rule of black box machine learning model | |
Sublime et al. | Entropy based probabilistic collaborative clustering | |
US10949664B2 (en) | Optical character recognition training data generation for neural networks by parsing page description language jobs | |
US20200387553A1 (en) | Digitization of technical documentation driven by machine learning | |
WO2023279963A1 (en) | Neural network training method and apparatus, and computer device, storage medium and program | |
CN108255706A (en) | Edit methods, device, terminal device and the storage medium of automatic test script | |
CN115136162A (en) | System and computer-implemented method for validating tag data | |
CN110209860B (en) | Template-guided interpretable garment matching method and device based on garment attributes | |
CN115952966A (en) | Automatic data transfer between source and target using semantic artificial intelligence for robotic process automation | |
CN115271093A (en) | Neural network based multimodal transformer for multitasking user interface modeling | |
US20230111047A1 (en) | Classification Evaluation and Improvement in Machine Learning Models | |
JP7471135B2 (en) | Learning model generation system and learning model generation method | |
US20230186117A1 (en) | Automated cloud data and technology solution delivery using dynamic minibot squad engine machine learning and artificial intelligence modeling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |