JP7471135B2 - Learning model generation system and learning model generation method - Google Patents

Learning model generation system and learning model generation method Download PDF

Info

Publication number
JP7471135B2
JP7471135B2 JP2020075832A JP2020075832A JP7471135B2 JP 7471135 B2 JP7471135 B2 JP 7471135B2 JP 2020075832 A JP2020075832 A JP 2020075832A JP 2020075832 A JP2020075832 A JP 2020075832A JP 7471135 B2 JP7471135 B2 JP 7471135B2
Authority
JP
Japan
Prior art keywords
learning model
layers
model
learning
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020075832A
Other languages
Japanese (ja)
Other versions
JP2021174127A (en
Inventor
豪一 小野
理宇 平井
晃 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020075832A priority Critical patent/JP7471135B2/en
Publication of JP2021174127A publication Critical patent/JP2021174127A/en
Application granted granted Critical
Publication of JP7471135B2 publication Critical patent/JP7471135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、概して、モデルの生成に関する。 The present invention generally relates to generating models.

現場にあるデバイス(エッジデバイス)に実装されたAI(artificial intelligence)のAIモデルにより、ユーザへのフィードバック、働きかけといったアクトが行われている。かかるAIモデルには、現場で要求される機能が実現される必要がある。 AI (artificial intelligence) models implemented in on-site devices (edge devices) provide feedback to users and take other actions. Such AI models need to be able to realize the functions required in the field.

この点、AIモデルの種類、エッジデバイスのスペック等の情報に基づいて、クラウド環境で管理される学習済みのAIモデルをエッジデバイスがリクエストする技術が開示されている(特許文献1参照)。 In this regard, a technology has been disclosed in which an edge device requests a trained AI model managed in a cloud environment based on information such as the type of AI model and the specifications of the edge device (see Patent Document 1).

AIモデルには、現場の環境への適合が必要であるところ、特許文献1には、当該AIモデルを現場に適合させることについての言及はない。 AI models need to be adapted to the on-site environment, but Patent Document 1 makes no mention of adapting the AI model to the on-site environment.

この点、AIモデルを現場に適合させることについて、Google Federated LearningといったAIモデル更新技術が知られている。AIモデル更新技術では、サーバ装置がAIモデルをクライアントに配布し、クライアント端末がAIモデルを学習し、学習した結果をサーバ装置に返し、サーバ装置がAIモデルを更新する。 In this regard, AI model updating technologies such as Google Federated Learning are known for adapting AI models to the field. In AI model updating technologies, a server device distributes an AI model to a client, the client terminal learns the AI model, and returns the learned results to the server device, which then updates the AI model.

米国特許出願公開第2019/0042955号明細書US Patent Application Publication No. 2019/0042955

AIモデル更新技術では、AIモデルを現場の環境に適合させることはできるが、現行のAIモデルとは別の機能を実現するAIモデルは生成することができないという問題がある。 While AI model updating technology can adapt an AI model to the on-site environment, it has the problem that it cannot generate an AI model that achieves functions different from those of the current AI model.

本発明は、以上の点を考慮してなされたもので、モデルを適切に生成し得る学習モデル生成システム等を提案しようとするものである。 The present invention was made in consideration of the above points, and aims to propose a learning model generation system that can appropriately generate models.

かかる課題を解決するため本発明においては、学習済みのモデルである既存の学習モデルを構成している複数の層の各々を記憶する記憶部と、複数の層が指定された仕様情報に基づいて、前記記憶部から前記複数の層の各々に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する生成部と、前記生成部により生成された学習モデルを出力する出力部と、を設けるようにした。 In order to solve this problem, the present invention provides a storage unit that stores each of the multiple layers that make up an existing learning model, which is a trained model; a generation unit that acquires layers corresponding to each of the multiple layers from the storage unit based on specification information in which the multiple layers are specified, and combines the acquired layers to generate a learning model; and an output unit that outputs the learning model generated by the generation unit.

上記構成によれば、既存の学習モデルの層が組み合わされて新規の学習モデルが生成されるので、学習モデルの生成にかかる時間を短縮することができる。 With the above configuration, layers of existing learning models are combined to generate a new learning model, thereby reducing the time it takes to generate a learning model.

本発明によれば、モデルを適切に生成することができる。上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。 According to the present invention, a model can be generated appropriately. Problems, configurations, and advantages other than those described above will become clear from the following description of the embodiment of the invention.

第1の実施の形態による学習モデル生成システムに係る構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of a learning model generation system according to a first embodiment. 第1の実施の形態による学習モデル生成装置のハードウェアに係る構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a learning model generating device according to a first embodiment. 第1の実施の形態によるモデル情報の一例を示す図である。FIG. 4 is a diagram showing an example of model information according to the first embodiment; 第1の実施の形態による学習モデルの一例を示す図である。FIG. 2 is a diagram illustrating an example of a learning model according to the first embodiment. 第1の実施の形態による画面の一例を示す図である。FIG. 2 is a diagram showing an example of a screen according to the first embodiment; 第1の実施の形態による一連の処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of a series of processes according to the first embodiment. 第1の実施の形態による生成処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of a generation process according to the first embodiment. 第1の実施の形態による学習モデルの精度と学習モデルの生成にかかる時間との関係を示す図である。A diagram showing the relationship between the accuracy of a learning model and the time required to generate the learning model according to the first embodiment. 第2の実施の形態による学習モデル生成システムに係る構成の一例を示す図である。A figure showing an example of the configuration of a learning model generation system according to a second embodiment. 第3の実施の形態による学習モデル生成システムに係る構成の一例を示す図である。A figure showing an example of the configuration of a learning model generation system according to a third embodiment. 第3の実施の形態によるモデル仕様情報の一例である。13 is an example of model specification information according to the third embodiment. 第3の実施の形態によるモデル情報の一例を示す図である。FIG. 13 is a diagram illustrating an example of model information according to the third embodiment. 第3の実施の形態による生成処理の一例を示す図である。FIG. 13 illustrates an example of a generation process according to the third embodiment;

(1)第1の実施の形態
以下、本発明の一実施の形態を詳述する。本実施の形態では、学習モデルの生成に関して説明する。
(1) First Embodiment Hereinafter, one embodiment of the present invention will be described in detail. In this embodiment, the generation of a learning model will be described.

学習モデルとは、所定の精度が得られるように学習が行われている(学習済みの)、ニューラルネットワークのモデルである。学習モデルは、例えば、学習済みのディープニューラルネットワークのモデルである。学習モデルは、複数の層モデルが組み合わされて構成されている。層モデルは、入力に応じて出力を行う1つ以上の層からなる。つまり、層モデルは、1つの層であってもよいし、複数の層であってもよい。層モデルは、ネットワークの構造(以下、「ネットワーク」と記す)とネットワークに設定されるパラメータとから構成される。ネットワークは、ノードの定義、ノードの接続関係等の情報を含む。パラメータは、ノード間を接続するエッジの重み、ノードのバイアス等の情報を含む。 A learning model is a model of a neural network that has been trained (trained) to obtain a specified accuracy. A learning model is, for example, a trained deep neural network model. A learning model is configured by combining multiple layer models. A layer model consists of one or more layers that perform output according to input. In other words, a layer model may be one layer or multiple layers. A layer model is configured from a network structure (hereinafter referred to as "network") and parameters set in the network. A network includes information such as node definitions and node connection relationships. Parameters include information such as the weights of edges connecting nodes and node biases.

層モデルは、予め定めたカテゴリに対応して設けられていてもよい。カテゴリとしては、学習モデルに設定された課題を解くときの対象、即ち学習モデルにおける推論の対象の特徴を抽出するためのカテゴリ、当該推論のためのカテゴリ等が挙げられる。学習モデルにおける推論とは、工場のラインにおける作業者の支援、施設の監視、自動運転等に用いられる物体検出、姿勢検出、角度検出、距離測定等である。 The layer models may be provided corresponding to predetermined categories. Examples of categories include the target when solving the problem set in the learning model, i.e., categories for extracting the characteristics of the target of inference in the learning model, categories for the inference, etc. Inference in the learning model includes object detection, posture detection, angle detection, distance measurement, etc., used for supporting workers on factory lines, monitoring facilities, autonomous driving, etc.

本実施の形態の学習モデル生成システムでは、既存の学習モデルの層モデル(つまり、ネットワークおよびパラメータからなる層)が予め定めたカテゴリに紐付けられて記憶装置に記憶されている。学習モデル生成システムは、学習モデル生成システムのユーザによりカテゴリごとに指定された層モデルを示す情報を含む仕様情報をもとに、記憶装置から指定された既存の層モデルを組み合わせて新規の学習モデルを生成する。 In the learning model generation system of this embodiment, layer models of existing learning models (i.e., layers consisting of networks and parameters) are linked to predetermined categories and stored in a storage device. The learning model generation system generates a new learning model by combining the existing layer models specified from the storage device based on specification information including information indicating layer models specified for each category by a user of the learning model generation system.

学習モデル生成システムでは、既存の学習モデルの学習に用いられた既存のデータセットに対して、新規の学習モデルのためにラベル(正解データ)が付された新規のデータセットが新規の学習モデルに更に紐付けられて記憶装置に記憶されていてもよい。学習モデル生成システムは、新規のデータセットを用いて、新規の学習モデルを学習(再学習)してもよい。また、学習モデル生成システムは、記憶装置に記憶されている既存のデータセットを用いて、新規の学習モデルを再学習してもよい。 In the learning model generation system, a new dataset to which a label (correct answer data) for a new learning model is added may be further linked to the new learning model and stored in a storage device in addition to an existing dataset used to train an existing learning model. The learning model generation system may use the new dataset to train (re-train) a new learning model. The learning model generation system may also re-train a new learning model using an existing dataset stored in a storage device.

付言するならば、学習モデルは、教師あり学習により学習されるモデルであってもよいし、教師なし学習により学習されるモデルであってもよいし、強化学習により学習されるモデルであってもよい。以下では、教師あり学習によりモデルが学習される場合を例に挙げて説明する。 In addition, the learning model may be a model learned by supervised learning, a model learned by unsupervised learning, or a model learned by reinforcement learning. In the following, an example will be described in which the model is learned by supervised learning.

学習モデル生成システムでは、新規の学習モデルの層モデル(ネットワークおよびパラメータ)がカテゴリごとに紐付けられて記憶装置に記憶されてもよい。また、学習モデル生成システムでは、再学習された新規の学習モデルの層モデルがカテゴリごとに紐付けられて記憶装置に記憶されてもよい。学習モデル生成システムでは、再学習に用いられた新規のデータセットが新規の学習モデルに更に紐付けられて記憶装置に記憶されてよい。 In the learning model generation system, the layer models (network and parameters) of the new learning model may be linked by category and stored in a storage device. In addition, in the learning model generation system, the layer models of the new re-learned learning model may be linked by category and stored in a storage device. In the learning model generation system, the new dataset used for re-learning may be further linked to the new learning model and stored in a storage device.

上記構成によれば、複数の既存の学習モデルから、新規の学習モデルに最適な層モデルを再利用することができるので、学習モデル生成システムは、短期間で学習モデルを生成できる。また、例えば、複数の別機能の学習モデルが既存の学習モデルとして記憶されている場合、ユーザは、既存の学習モデルとは異なる機能の学習モデルを生成することができる。 According to the above configuration, the optimal layer model for a new learning model can be reused from multiple existing learning models, so the learning model generation system can generate a learning model in a short period of time. Also, for example, when multiple learning models with different functions are stored as existing learning models, the user can generate a learning model with a different function from the existing learning models.

学習モデル生成システムで生成された学習モデルは、各種の産業のシステム、モビリティシステムといった様々なシステムに適用可能である。 The learning models generated by the learning model generation system can be applied to a variety of systems, such as various industrial systems and mobility systems.

次に、図面を参照して本発明の実施の形態を説明する。実施例は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Next, an embodiment of the present invention will be described with reference to the drawings. The examples are illustrative for explaining the present invention, and some parts have been omitted or simplified as appropriate for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

図面において示す各構成要素の位置、大きさ、形状、範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲等を表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲等に限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range, etc. disclosed in the drawings.

各種情報の例として、「テーブル」、「リスト」、「キュー」等の表現にて説明することがあるが、各種情報はこれら以外のデータ構造で表現されてもよい。例えば、「XXテーブル」、「XXリスト」、「XXキュー」等の各種情報は、「XX情報」としてもよい。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いるが、これらについてはお互いに置換が可能である。 As examples of various types of information, expressions such as "table," "list," and "queue" may be used, but the various types of information may be expressed in other data structures. For example, various types of information such as "XX table," "XX list," and "XX queue" may be expressed as "XX information." When explaining identification information, expressions such as "identification information," "identifier," "name," "ID," and "number" are used, but these are interchangeable.

同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are multiple components with the same or similar functions, they may be described using the same reference numerals with different subscripts. Also, when there is no need to distinguish between these multiple components, the subscripts may be omitted.

実施例において、プログラムを実行して行う処理について説明する場合がある。ここで、コンピュータは、プロセッサ(例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit))によりプログラムを実行し、記憶資源(例えばメモリ)、インターフェースデバイス(例えば通信ポート)等を用いながら、プログラムで定められた処理を行う。そのため、プログラムを実行して行う処理の主体を、プロセッサとしてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、コンピュータ、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であればよく、特定の処理を行う専用回路を含んでいてもよい。ここで、専用回路とは、例えばFPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等である。 In the embodiments, the processing performed by executing a program may be described. Here, the computer executes the program using a processor (e.g., CPU (Central Processing Unit), GPU (Graphics Processing Unit)) and performs the processing defined in the program using storage resources (e.g., memory), interface devices (e.g., communication ports), etc. Therefore, the subject of the processing performed by executing the program may be the processor. Similarly, the subject of the processing performed by executing the program may be a controller, device, system, computer, or node having a processor. The subject of the processing performed by executing the program may be a calculation unit, and may include a dedicated circuit that performs specific processing. Here, the dedicated circuit is, for example, an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), a CPLD (Complex Programmable Logic Device), etc.

プログラムは、プログラムソースからコンピュータにインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたはコンピュータが読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他のコンピュータに配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 The program may be installed on the computer from a program source. The program source may be, for example, a program distribution server or a computer-readable storage medium. When the program source is a program distribution server, the program distribution server may include a processor and a storage resource that stores the program to be distributed, and the processor of the program distribution server may distribute the program to be distributed to other computers. In addition, in the embodiments, two or more programs may be realized as one program, and one program may be realized as two or more programs.

図1において、100は、全体として第1の実施の形態による学習モデル生成システム(以下、「システム100」と記す)を示す。 In FIG. 1, 100 indicates a learning model generation system according to the first embodiment as a whole (hereinafter, referred to as "system 100").

システム100は、学習モデル生成装置(以下、「装置」と記す)101とクライアント端末(以下、「端末」と記す)102とを備える。装置101と端末102とは、通信可能に接続されている。装置101は、現場のシステム103で運用されている既存の1つ以上の学習モデルを記憶している。 The system 100 includes a learning model generation device (hereinafter referred to as "device") 101 and a client terminal (hereinafter referred to as "terminal") 102. The device 101 and the terminal 102 are connected so as to be able to communicate with each other. The device 101 stores one or more existing learning models that are being operated in a field system 103.

装置101は、学習モデルを生成する装置である。装置101は、ノートパソコン、サーバ装置、量子コンピュータ等である。装置101のハードウェアの構成については、図2を用いて後述する。 The device 101 is a device that generates a learning model. The device 101 is a notebook computer, a server device, a quantum computer, etc. The hardware configuration of the device 101 will be described later with reference to FIG. 2.

装置101は、記憶部110と、生成部120と、出力部130とを備える。 The device 101 includes a memory unit 110, a generation unit 120, and an output unit 130.

記憶部110は、各種の情報を記憶する。例えば、記憶部110は、モデル情報111、学習モデル112、およびデータセット113を記憶している。なお、モデル情報111については、図3を用いて後述する。 The storage unit 110 stores various types of information. For example, the storage unit 110 stores model information 111, a learning model 112, and a dataset 113. The model information 111 will be described later with reference to FIG. 3.

学習モデル112は、既存の学習済みのモデルである。学習モデル112は、ネットワーク114およびパラメータ115から構成されている。 The learning model 112 is an existing trained model. The learning model 112 is composed of a network 114 and parameters 115.

システム100では、学習モデル112のネットワーク114およびパラメータ115が、第1のカテゴリ、第2のカテゴリ、および第3のカテゴリの何れかのカテゴリに分類されて記憶部110に記憶されている。第1のカテゴリには、第1のネットワーク114-1および第1のパラメータ115-1とから構成されている第1の層モデルが分類されている。第2のカテゴリには、第2のネットワーク114-2および第2のパラメータ115-2とから構成されている第2の層モデルが分類されている。第3のカテゴリには、第3のネットワーク114-3および第3のパラメータ115-3とから構成されている第3の層モデルが分類されている。 In the system 100, the network 114 and the parameters 115 of the learning model 112 are classified into one of a first category, a second category, and a third category and stored in the storage unit 110. The first category includes a first layer model composed of a first network 114-1 and a first parameter 115-1. The second category includes a second layer model composed of a second network 114-2 and a second parameter 115-2. The third category includes a third layer model composed of a third network 114-3 and a third parameter 115-3.

このように、記憶部110は、学習モデル112を、カテゴリごとに分類された層モデルとして記憶している。なお、カテゴリは、3つに限らない。カテゴリは、2つであってもよいし、4つ以上であってもよい。層モデルについては、図4を用いて後述する。 In this way, the storage unit 110 stores the learning model 112 as a layer model classified by category. Note that the number of categories is not limited to three. The number of categories may be two, or four or more. The layer model will be described later with reference to FIG. 4.

記憶部110には、学習モデル112が記憶される場合について説明したが、記憶部110に記憶される既存の学習モデルは、1つに限らない。記憶部110には、学習モデル112とは異なる学習モデルが1つ以上記憶されていてもよい。以下では、記憶部110に既存の複数の学習モデルが記憶されている場合を例に挙げて説明する。 Although the case where the learning model 112 is stored in the memory unit 110 has been described, the number of existing learning models stored in the memory unit 110 is not limited to one. The memory unit 110 may store one or more learning models different from the learning model 112. The following describes an example where multiple existing learning models are stored in the memory unit 110.

生成部120は、記憶部110に記憶されているモデル情報111と、端末102の入力部140により入力された仕様情報141とに基づいて、新規の学習モデルを生成する。 The generation unit 120 generates a new learning model based on the model information 111 stored in the memory unit 110 and the specification information 141 input by the input unit 140 of the terminal 102.

出力部130は、生成部120により生成された学習モデルを出力する。出力された学習モデルは、例えば、現場のシステム103のエッジデバイス150に搭載される。 The output unit 130 outputs the learning model generated by the generation unit 120. The output learning model is installed, for example, in the edge device 150 of the on-site system 103.

端末102は、ノートパソコン、タブレット端末、スマートフォン等である。端末102は、入力部140を備える。 The terminal 102 is a notebook computer, a tablet terminal, a smartphone, etc. The terminal 102 is equipped with an input unit 140.

入力部140は、ユーザが必要とする学習モデルの仕様を示す仕様情報141を入力する。仕様情報141については、図5を用いて後述する。 The input unit 140 inputs specification information 141 that indicates the specifications of the learning model required by the user. The specification information 141 will be described later with reference to FIG. 5.

システム103は、タクシーのシステム103-1、レンタサイクルのシステム103-2、配送のシステム103-3、卸のシステム103-4、小売のシステム103-5等である。各システム103は、エッジデバイス150を備える。 The systems 103 include a taxi system 103-1, a bicycle rental system 103-2, a delivery system 103-3, a wholesale system 103-4, a retail system 103-5, etc. Each system 103 is equipped with an edge device 150.

エッジデバイス150は、現場に近いデバイスである。エッジデバイス150は、例えば、インターネットに接続可能な小型のデバイスである。エッジデバイス150は、車両、スマートフォン、タブレット端末、携帯電話、カメラ、産業機器、センサ等である。エッジデバイス150には、現場のデータを取得するための各種のセンサが接続されていてもよい。 The edge device 150 is a device close to the site. The edge device 150 is, for example, a small device that can be connected to the Internet. The edge device 150 is a vehicle, a smartphone, a tablet terminal, a mobile phone, a camera, industrial equipment, a sensor, etc. The edge device 150 may be connected to various sensors for acquiring data on the site.

エッジデバイス150は、ネットワーク151およびパラメータ152からなる学習モデルを備える。エッジデバイス150は、学習モデルを用いて物体検出等を行う。エッジデバイス150は、センサから得られたデータをもとに学習モデルを再学習してもよい。エッジデバイス150は、学習モデルの再学習に用いたデータをデータセット153として記憶する。なお、データセット153については、エッジデバイス150に記憶されていてもよいし、エッジデバイス150と通信可能なコンピュータに記憶されていてもよい。 The edge device 150 has a learning model consisting of a network 151 and parameters 152. The edge device 150 performs object detection and the like using the learning model. The edge device 150 may re-learn the learning model based on data obtained from a sensor. The edge device 150 stores the data used to re-learn the learning model as a dataset 153. The dataset 153 may be stored in the edge device 150, or may be stored in a computer that can communicate with the edge device 150.

エッジデバイス150は、インターネットを介してデータセット153等を装置101に送信する。なお、ネットワーク151およびパラメータ152からなる学習モデルは、システム100の運用者によりカテゴリに対応するように層モデルに分割されて記憶部110に記憶される。この際、システム100の運用者により、記憶部110に記憶された内容がモデル情報111に反映される。 The edge device 150 transmits the data set 153 and the like to the apparatus 101 via the Internet. The learning model consisting of the network 151 and the parameters 152 is divided into layer models corresponding to categories by the operator of the system 100 and stored in the storage unit 110. At this time, the operator of the system 100 reflects the contents stored in the storage unit 110 in the model information 111.

図1では、タクシーのシステム103-1、レンタサイクルのシステム103-2、配送のシステム103-3、および卸のシステム103-4の既存の学習モデルをもとに、小売のシステム103-5の新規の学習モデルが生成される例が示されている。 Figure 1 shows an example in which a new learning model for a retail system 103-5 is generated based on existing learning models for a taxi system 103-1, a bicycle rental system 103-2, a delivery system 103-3, and a wholesale system 103-4.

なお、システム100では、記憶部110と生成部120と出力部130とが装置101に設けられる場合ついて説明した。ただし、システム100は、この構成に限らない。例えば、記憶部110は、装置101と異なる他のコンピュータに設けられてもよい。 In the above description of the system 100, the storage unit 110, the generation unit 120, and the output unit 130 are provided in the device 101. However, the system 100 is not limited to this configuration. For example, the storage unit 110 may be provided in a computer other than the device 101.

図2は、装置101のハードウェアに係る構成の一例を示す図である。 Figure 2 shows an example of the hardware configuration of device 101.

装置101は、プロセッサ210と、主記憶装置220と、補助記憶装置230と、入力装置240と、出力装置250と、通信装置260とを備える。 The device 101 includes a processor 210, a main memory device 220, an auxiliary memory device 230, an input device 240, an output device 250, and a communication device 260.

プロセッサ210は、演算処理を行う装置である。プロセッサ210は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AIチップ等である。 The processor 210 is a device that performs arithmetic processing. The processor 210 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an AI chip, etc.

主記憶装置220は、プログラム、データ等を記憶する装置である。主記憶装置220は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等である。ROMは、SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等である。RAMは、DRAM(Dynamic Random Access Memory)等である。 The main memory device 220 is a device that stores programs, data, etc. The main memory device 220 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. The ROM is, for example, a SRAM (Static Random Access Memory), a NVRAM (Non Volatile RAM), a Mask ROM (Mask Read Only Memory), a PROM (Programmable ROM), etc. The RAM is, for example, a DRAM (Dynamic Random Access Memory).

補助記憶装置230は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置等である。光学式記憶装置は、CD(Compact Disc)、DVD(Digital Versatile Disc)等である。補助記憶装置230に格納されているプログラム、データ等は、主記憶装置220に随時読み込まれる。 The auxiliary storage device 230 is a hard disk drive, a flash memory, an SSD (Solid State Drive), an optical storage device, etc. The optical storage device is a CD (Compact Disc), a DVD (Digital Versatile Disc), etc. The programs, data, etc. stored in the auxiliary storage device 230 are loaded into the main storage device 220 as needed.

入力装置240は、ユーザから情報を受付けるユーザインターフェースである。入力装置240は、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。 The input device 240 is a user interface that accepts information from a user. The input device 240 is, for example, a keyboard, a mouse, a card reader, a touch panel, etc.

出力装置250は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインターフェースである。出力装置250は、例えば、各種情報を可視化する表示装置、音声出力装置(スピーカ)、印字装置等である。表示装置は、LCD(Liquid Crystal Display)、グラフィックカード等である。 The output device 250 is a user interface that outputs various types of information (display output, audio output, print output, etc.). The output device 250 is, for example, a display device that visualizes various types of information, an audio output device (speaker), a printer, etc. The display device is an LCD (Liquid Crystal Display), a graphics card, etc.

通信装置260は、通信媒体を介して他の装置と通信する通信インターフェースである。通信装置260は、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信装置260は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また、通信装置260は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。 The communication device 260 is a communication interface that communicates with other devices via a communication medium. The communication device 260 is, for example, a network interface card (NIC), a wireless communication module, a universal serial interface (USB) module, a serial communication module, etc. The communication device 260 can also function as an input device that receives information from other devices that are communicatively connected. The communication device 260 can also function as an output device that transmits information to other devices that are communicatively connected.

装置101の機能(記憶部110、生成部120、出力部130等)は、例えば、プロセッサ210が補助記憶装置230に格納されたプログラムを主記憶装置220に読み出して実行すること(ソフトウェア)により実現されてもよい。装置101の機能は、専用の回路等のハードウェアにより実現されてもよい。装置101の機能は、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、装置101の機能の一部は、装置101と通信可能な他のコンピュータにより実現されてもよい。 The functions of the device 101 (storage unit 110, generation unit 120, output unit 130, etc.) may be realized, for example, by the processor 210 reading a program stored in the auxiliary storage device 230 into the main storage device 220 and executing it (software). The functions of the device 101 may be realized by hardware such as a dedicated circuit. The functions of the device 101 may be realized by a combination of software and hardware. In addition, some of the functions of the device 101 may be realized by another computer capable of communicating with the device 101.

なお、端末102のハードウェアについては、装置101と同一または類似であるため、その説明を省略する。端末102の機能(入力部140等)は、例えば、プロセッサが補助記憶装置に格納されたプログラムを主記憶装置に読み出して実行すること(ソフトウェア)により実現されてもよい。端末102の機能は、専用の回路等のハードウェアにより実現されてもよい。端末102の機能は、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、端末102の機能の一部は、端末102と通信可能な他のコンピュータにより実現されてもよい。 Note that the hardware of the terminal 102 is the same as or similar to that of the device 101, and therefore a description thereof will be omitted. The functions of the terminal 102 (such as the input unit 140) may be realized, for example, by a processor reading a program stored in an auxiliary storage device into a main storage device and executing it (software). The functions of the terminal 102 may be realized by hardware such as a dedicated circuit. The functions of the terminal 102 may be realized by a combination of software and hardware. In addition, some of the functions of the terminal 102 may be realized by another computer capable of communicating with the terminal 102.

図3は、モデル情報111の一例(モデルテーブル300)を示す図である。 Figure 3 shows an example of model information 111 (model table 300).

モデルテーブル300には、学習モデルがカテゴリに対応するようにシステム100の運用者により分割された層モデルを示す情報と、当該学習モデルのデータセットを示す情報とが記憶されている。 The model table 300 stores information indicating the layer models divided by the operator of the system 100 so that the learning models correspond to categories, and information indicating the datasets of the learning models.

より具体的には、モデルテーブル300では、管理番号310と、第1の層モデル名320と、第2の層モデル名330と、第3の層モデル名340と、データセット名350との情報が対応付けられている。 More specifically, in the model table 300, information on a management number 310, a first layer model name 320, a second layer model name 330, a third layer model name 340, and a data set name 350 is associated.

管理番号310は、システム100の運用者により補助記憶装置230に登録された学習モデルを識別可能な情報である。第1の層モデル名320は、第1のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第1の層モデル名320には、第1のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。第2の層モデル名330は、第2のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第2の層モデル名330には、第2のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。第3の層モデル名340は、第3のカテゴリに分類された当該学習モデルの層モデルを示す名称である。第3の層モデル名340には、第3のカテゴリに分類された当該学習モデルの層モデルが紐付けられている。データセット名350は、当該学習モデルの学習に用いられたデータセットを示す名称である。データセット名350には、当該学習モデルの学習に用いられたデータセットが紐付けられている。 The management number 310 is information that can identify a learning model registered in the auxiliary storage device 230 by the operator of the system 100. The first layer model name 320 is a name indicating a layer model of the learning model classified in the first category. The first layer model name 320 is linked to the layer model of the learning model classified in the first category. The second layer model name 330 is a name indicating a layer model of the learning model classified in the second category. The second layer model name 330 is linked to the layer model of the learning model classified in the second category. The third layer model name 340 is a name indicating a layer model of the learning model classified in the third category. The third layer model name 340 is linked to the layer model of the learning model classified in the third category. The dataset name 350 is a name indicating a dataset used in the learning of the learning model. The dataset name 350 is linked to the dataset used in the learning of the learning model.

図4は、学習モデル112の一例を示す図である。 Figure 4 shows an example of a learning model 112.

学習モデル112は、第1の層モデル410と、第2の層モデル420と、第3の層モデル430とからなる。 The learning model 112 consists of a first layer model 410, a second layer model 420, and a third layer model 430.

第1の層モデル410は、学習モデル112における推論の対象(物体)の特徴を抽出するための層モデルである。第1の層モデル410は、例えば、物体が斜めになっている、物体が横になっている等、どのような物体を認識するのかといった物体の特徴を抽出するための層モデルであり、特徴抽出部と記すことがある。より具体的には、第1の層モデル410は、学習済みのパラメータ411-1,411-2が設定された2つの層412-1,412-2からなる。 The first layer model 410 is a layer model for extracting the features of the subject (object) of inference in the learning model 112. The first layer model 410 is a layer model for extracting the features of an object, such as what kind of object is to be recognized, for example, whether the object is tilted or lying down, and may be referred to as a feature extraction unit. More specifically, the first layer model 410 consists of two layers 412-1 and 412-2 in which learned parameters 411-1 and 411-2 are set.

第2の層モデル420は、学習モデル112における推論に及ぼす現場の影響を加味するための層モデルである。第2の層モデル420は、例えば、どのような照度、どのような天気に対して認識するのかといった現場の依存性を付加するための層モデルであり、境依存部と記すことがある。より具体的には、第2の層モデル420は、学習済みのパラメータ421-1,421-2,421-3が設定された3つの層422-1,422-2,422-3からなる。 The second layer model 420 is a layer model for taking into account the influence of the site on the inference in the learning model 112. The second layer model 420 is a layer model for adding site dependency, such as the type of illuminance and the type of weather to be recognized, and may be referred to as the environment-dependent part. More specifically, the second layer model 420 consists of three layers 422-1, 422-2, and 422-3 in which learned parameters 421-1, 421-2, and 421-3 are set.

現場の環境については、現場の照度および現場の天気を例に挙げて説明するが、これらに限らない。現場の環境は、現場の広さ、現場の混み具合等、他の物理的な指標であってもよい。 The on-site environment will be described using the illuminance and weather at the site as examples, but is not limited to these. The on-site environment may also be other physical indicators, such as the size of the site, how crowded the site is, etc.

第3の層モデル430は、物体を検出する、距離を測定するといった推論を行うための(目的の機能を担うための)層モデルであり、機能部と記すことがある。より具体的には、第3の層モデル430は、学習済みのパラメータ431-1,431-2,431-3が設定された3つの層432-1,432-2,432-3からなる。 The third layer model 430 is a layer model for performing inference (for performing the intended function) such as detecting objects and measuring distances, and may be referred to as a functional unit. More specifically, the third layer model 430 consists of three layers 432-1, 432-2, and 432-3 in which learned parameters 431-1, 431-2, and 431-3 are set.

第3の層モデル430には、出力層が含まれている場合を例に挙げて説明する。ただし、この構成に限らない。第3の層モデル430には、出力層が含まれていなくてもよい。この場合、出力層は、別体として設けられる。 The third layer model 430 will be described using an example in which it includes an output layer. However, this is not the only possible configuration. The third layer model 430 does not necessarily need to include an output layer. In this case, the output layer is provided separately.

図5は、仕様情報141を生成するための画面の一例(生成画面500)を示す図である。 Figure 5 shows an example of a screen (generation screen 500) for generating specification information 141.

生成画面500は、端末102に表示される。生成画面500に入力された情報をもとに仕様情報141が生成される。 The generation screen 500 is displayed on the terminal 102. The specification information 141 is generated based on the information entered on the generation screen 500.

生成画面500は、第1の選択リスト510と、第2の選択リスト520と、第3の選択リスト530と、再学習選択リスト540と、入力サイズ550と、出力先560と、モデル生成ボタン570とを備える。 The generation screen 500 includes a first selection list 510, a second selection list 520, a third selection list 530, a re-learning selection list 540, an input size 550, an output destination 560, and a model generation button 570.

第1の選択リスト510では、第1の層モデル名320の情報が選択可能に表示される。第2の選択リスト520では、第2の層モデル名330の情報が選択可能に表示される。第3の選択リスト530では、第3の層モデル名340の情報が選択可能に表示される。再学習選択リスト540では、新規の学習モデルを再学習するか否かが選択可能に表示される。 In the first selection list 510, information on the first layer model name 320 is displayed in a selectable manner. In the second selection list 520, information on the second layer model name 330 is displayed in a selectable manner. In the third selection list 530, information on the third layer model name 340 is displayed in a selectable manner. In the re-learning selection list 540, whether or not to re-learn a new learning model is displayed in a selectable manner.

入力サイズ550は、新規の学習モデルに入力するデータのサイズを入力するための領域である。出力先560は、新規の学習モデルを出力する場所を指定するための領域である。モデル生成ボタン570は、学習モデルの生成を指示するためのボタンである。 The input size 550 is an area for inputting the size of the data to be input into the new learning model. The output destination 560 is an area for specifying the location to output the new learning model. The model generation button 570 is a button for instructing the generation of a learning model.

ユーザは、第1の選択リスト510、第2の選択リスト520、および第3の選択リスト530の各々から所望の層モデル(層)を選択する。また、ユーザは、入力サイズ550にデータのサイズを入力し、出力先560に出力先の場所を入力する。そして、ユーザがモデル生成ボタン570を押下することで、生成画面500で指定された内容の学習モデルが生成される。 The user selects the desired layer model (layer) from each of the first selection list 510, the second selection list 520, and the third selection list 530. The user also inputs the data size in input size 550 and the output location in output destination 560. Then, when the user presses model generation button 570, a learning model with the content specified on the generation screen 500 is generated.

図6は、システム100における一連の処理(シーケンス)の一例を示す図である。 Figure 6 shows an example of a series of processes (sequence) in the system 100.

S601では、端末102は、学習モデルの生成を開始する旨の要求(生成要求)を装置101に送信する。 In S601, the terminal 102 sends a request (generation request) to the device 101 to start generating a learning model.

S602では、装置101は、生成要求を受信し、モデル情報111を記憶部110から取得し、モデル情報111をもとに生成画面500の画面情報を生成する。 In S602, the device 101 receives the generation request, acquires the model information 111 from the memory unit 110, and generates screen information for the generation screen 500 based on the model information 111.

S603では、装置101は、画面情報を端末102に送信する。 In S603, the device 101 transmits screen information to the terminal 102.

S604では、端末102は、画面情報を受信し、生成画面500を表示し、ユーザからの入力を受け付ける。端末102は、ユーザからモデル生成ボタン570が押下された場合、生成画面500に入力されている情報をもとに仕様情報141を生成する。仕様情報141には、第1の選択リスト510、第2の選択リスト520、第3の選択リスト530、および再学習選択リスト540で選択されている情報と、入力サイズ550および出力先560に入力されている情報とが含まれる。 In S604, the terminal 102 receives the screen information, displays the generation screen 500, and accepts input from the user. When the user presses the model generation button 570, the terminal 102 generates specification information 141 based on the information entered in the generation screen 500. The specification information 141 includes the information selected in the first selection list 510, the second selection list 520, the third selection list 530, and the relearning selection list 540, as well as the information entered in the input size 550 and the output destination 560.

S605では、端末102は、仕様情報141を装置101に送信する。 In S605, the terminal 102 transmits the specification information 141 to the device 101.

S606では、装置101は、仕様情報141を受信し、学習モデルを生成する処理(生成処理)を行う。生成処理では、学習モデルが生成される。生成処理については、図7を用いて後述する。 In S606, the device 101 receives the specification information 141 and performs a process (generation process) to generate a learning model. In the generation process, a learning model is generated. The generation process will be described later with reference to FIG. 7.

図7は、装置101が実行する生成処理の一例を示す図である。 Figure 7 shows an example of the generation process performed by device 101.

S701では、生成部120は、仕様情報141を参照し、第1の選択リスト510、第2の選択リスト520、第3の選択リスト530で選択された層モデル名の層モデルを記憶部110から取得する。 In S701, the generation unit 120 refers to the specification information 141 and obtains from the storage unit 110 the layer models with the layer model names selected in the first selection list 510, the second selection list 520, and the third selection list 530.

S702では、生成部120は、仕様情報141に含まれる入力サイズ550の情報に応じて入力層のサイズを設定する。なお、入力層は、第1の層モデルに含まれていてもよい。この場合、生成画面500には、入力サイズ550は設けられない。 In S702, the generation unit 120 sets the size of the input layer according to the information of the input size 550 included in the specification information 141. Note that the input layer may be included in the first layer model. In this case, the input size 550 is not provided on the generation screen 500.

S703では、生成部120は、全ての層モデル間のサイズが一致しているか否かを判定する。より具体的には、生成部120は、入力層と第1の層モデルとのサイズが一致しているか否か、第1の層モデルと第2の層モデルとのサイズが一致しているか否か、第2の層モデルと第3の層モデルとのサイズが一致しているか否かを判定する。生成部120は、全ての層モデル間のサイズが一致していると判定した場合、S706に処理を移し、サイズが一致していない層モデル間があると判定した場合、S704に処理を移す。 In S703, the generation unit 120 determines whether the sizes of all layer models match. More specifically, the generation unit 120 determines whether the sizes of the input layer and the first layer model match, whether the sizes of the first layer model and the second layer model match, and whether the sizes of the second layer model and the third layer model match. If the generation unit 120 determines that the sizes of all layer models match, it proceeds to S706, and if it determines that there are layer models whose sizes do not match, it proceeds to S704.

S704では、生成部120は、サイズが異なる層モデル間のデータのサイズを変換(調整)する。 In S704, the generation unit 120 converts (adjusts) the size of data between layer models of different sizes.

生成処理は、上述の内容に限らない。例えば、層モデルについては、装置101への記憶前に、または、生成処理の前に、層モデル間のサイズの調整が行われていてもよい。この場合、S703およびS704の処理は不要となる。 The generation process is not limited to the above. For example, the size of the layer models may be adjusted before storing them in the device 101 or before the generation process. In this case, the processes of S703 and S704 are not necessary.

S705では、生成部120は、層モデルを組み合わせて新規の学習モデルとする。 In S705, the generation unit 120 combines the layer models to generate a new learning model.

S706では、生成部120は、仕様情報141に含まれている再学習選択リスト540で選択されている情報を参照し、再学習が必要であるか否かを判定する。生成部120は、再学習が必要であると判定した場合、S707に処理を移し、再学習が必要でないと判定した場合、生成処理を終了する。 In S706, the generation unit 120 refers to the information selected in the relearning selection list 540 included in the specification information 141 and determines whether or not relearning is necessary. If the generation unit 120 determines that relearning is necessary, it proceeds to S707, and if it determines that relearning is not necessary, it ends the generation process.

S707では、生成部120は、再学習に用いるデータセットをもとに、生成した新規の学習モデルを再学習する。 In S707, the generation unit 120 re-trains the generated new learning model based on the dataset used for re-learning.

再学習に用いるデータセットは、システム100の運用者によりアノテーションが変更されることがある。ここで、第1の選択リスト510では「3:パレット」、第2の選択リスト520では「2:屋内、蛍光灯」、第3の選択リスト530では「1:物体検出」が選択された場合について説明する。この場合、再学習に用いるデータセットとしては、物体検出の対象となるデータ(例えば、画像)が含まれる管理番号310「3」のデータセットが用いられる。この際、管理番号310「3」のデータセットは、角度検出のラベルが付与されているため、システム100の運用者により物体検出のラベルが付け直される。 The annotations of the dataset used for re-learning may be changed by the operator of the system 100. Here, a case will be described where "3: Palette" is selected in the first selection list 510, "2: Indoors, fluorescent light" is selected in the second selection list 520, and "1: Object detection" is selected in the third selection list 530. In this case, the dataset with management number 310 "3" that contains data to be subjected to object detection (e.g., an image) is used as the dataset to be used for re-learning. In this case, since the dataset with management number 310 "3" has been assigned a label for angle detection, the operator of the system 100 re-assigns the label for object detection.

S708では、出力部130は、生成部120により生成された学習モデルを出力する。より具体的には、出力部130は、仕様情報141に含まれる出力先560の情報をもとに、出力先560で指定されている場所に学習モデルを送信する。 In S708, the output unit 130 outputs the learning model generated by the generation unit 120. More specifically, the output unit 130 transmits the learning model to the location specified by the output destination 560 based on the information on the output destination 560 included in the specification information 141.

なお、装置101により生成された学習モデルについては、システム100の運用者により、チューニングが行われてもよい。 The learning model generated by the device 101 may be tuned by the operator of the system 100.

図8は、学習モデルの精度と学習モデルの生成にかかる時間との関係を示す図(イメージ図800)である。 Figure 8 is a diagram (image 800) showing the relationship between the accuracy of a learning model and the time it takes to generate the learning model.

イメージ図800において、縦軸は、学習モデルの精度を示し、横軸は、学習モデルの生成にかかる時間を示す。グラフ810は、装置101により学習モデルを生成した際のグラフを示す。グラフ810は、既存の方法により学習モデルを生成した際のグラフを示す。 In the image diagram 800, the vertical axis indicates the accuracy of the learning model, and the horizontal axis indicates the time required to generate the learning model. Graph 810 shows a graph when a learning model is generated by device 101. Graph 810 shows a graph when a learning model is generated by an existing method.

グラフ810に示すように、装置101が学習モデルの生成にかかる時間は、第1の時間xであり、学習モデルの精度は、第1の精度yである。 As shown in graph 810, the time it takes for device 101 to generate the learning model is a first time x1 , and the accuracy of the learning model is a first accuracy y1 .

グラフ820に示すように、既存の方法による学習モデルの生成にかかる時間は、データセットを準備する時間と、学習モデルを構築する時間とが必要となるため、第1の時間xより長い第2の時間xとなる。また、既存の方法によれば、学習済みのパラメータが用いられないため、学習モデルの精度は、第1の精度yより低い第2の精度yとなる。 As shown in graph 820, the time required to generate a learning model by the existing method is a second time x2 that is longer than the first time x1 because it requires a time to prepare a dataset and a time to construct the learning model. In addition, according to the existing method, since trained parameters are not used, the accuracy of the learning model is a second accuracy y2 that is lower than the first accuracy y1 .

なお、学習モデルが生成された後は、現場において学習モデルの学習が行われており、学習モデルの精度が上がっている。 After the learning model is generated, it is trained in the field, and the accuracy of the learning model is improved.

本実施の形態によれば、既存の方法よりも短期間で学習モデルを生成することができる。また、本実施の形態によれば、既存の方法よりも精度が高い学習モデルを生成することができる。また、本実施の形態によれば、既存の学習モデルとは異なる機能の学習モデルを生成することができる。 According to this embodiment, it is possible to generate a learning model in a shorter time than existing methods. Furthermore, according to this embodiment, it is possible to generate a learning model with higher accuracy than existing methods. Furthermore, according to this embodiment, it is possible to generate a learning model with different functions from existing learning models.

(2)第2の実施の形態
本実施の形態では、装置101により生成された学習モデルが運用されている現場のデータ(現場データ)を当該学習モデルのデータセットとして用いる構成が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を付してその説明を省略する。
(2) Second embodiment In this embodiment, the main difference from the first embodiment is that data (on-site data) from a site where a learning model generated by the device 101 is operated is used as a data set for the learning model. In this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and descriptions thereof are omitted.

図9は、本実施の形態のシステム900の一例を示す図である。 Figure 9 shows an example of a system 900 according to this embodiment.

小売システム903-5では、装置901により生成された学習モデル960がエッジデバイス950-5に設けられて運用されている。図示は省略するが、小売システム903-5には、各種のセンサが設けられている。 In the retail system 903-5, the learning model 960 generated by the apparatus 901 is provided in an edge device 950-5 and is operated. Although not shown in the figure, the retail system 903-5 is provided with various sensors.

小売システム903-5では、小売システム903-5の運用者によりセンサで取得された現場データにラベルが付されたデータセット(データセット953-5)が用いられてパラメータ952-5の学習が行われていてもよい。学習が行われていない場合は、システム900の運用者または小売システム903-5の運用者により、現場データにラベルが付されたデータセット953-5が生成されていてもよい。 In the retail system 903-5, the parameters 952-5 may be trained using a dataset (dataset 953-5) in which the operator of the retail system 903-5 labels on-site data acquired by a sensor. If training is not performed, the operator of the system 900 or the operator of the retail system 903-5 may generate the dataset 953-5 in which the on-site data is labeled.

システム900において、小売システム903-5は、所定のタイミングでデータセット953-5を装置901に送信する。装置901の記憶部910は、受信したデータセット953-5を記憶する。この際、装置901は、学習モデル960の管理番号310に対応するデータセット名350に紐付いているデータセットをデータセット953-5で更新してもよいし、データセット953-5を追加して記憶してもよい。 In the system 900, the retail system 903-5 transmits a dataset 953-5 to the device 901 at a predetermined timing. The memory unit 910 of the device 901 stores the received dataset 953-5. At this time, the device 901 may update the dataset linked to the dataset name 350 corresponding to the management number 310 of the learning model 960 with the dataset 953-5, or may add and store the dataset 953-5.

所定のタイミングは、例えば、システム900の運用者により定められた時間であってよい。また、例えば、所定のタイミングは、システム900の運用者により指示されたタイミングであってよい。 The specified timing may be, for example, a time determined by the operator of the system 900. Also, for example, the specified timing may be a timing instructed by the operator of the system 900.

本実施の形態によれば、装置901は、生成した学習モデルを、現場データを用いて再学習することができるようになる。 According to this embodiment, the device 901 can retrain the generated learning model using field data.

なお、システム900では、システム900の運用者により、学習モデル960のパラメータ925-5が装置901に記憶されるようにしてもよい。 In addition, in the system 900, the operator of the system 900 may store the parameters 925-5 of the learning model 960 in the device 901.

(3)第3の実施の形態
本実施の形態では、ユーザにより指定された精度に応じて学習モデルを生成する構成が第1の実施の形態と主に異なる。本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を付してその説明を省略する。
(3) Third embodiment In this embodiment, the main difference from the first embodiment is the configuration for generating a learning model according to the accuracy designated by the user. In this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

図10は、本実施の形態のシステム1000の一例を示す図である。 Figure 10 shows an example of a system 1000 according to this embodiment.

システム1000では、端末1002の入力部1040は、ユーザにより指定された精度を示す精度情報を含むモデル仕様情報1041の入力を受け付ける。端末1002は、モデル仕様情報1041を装置1001に送信する。モデル仕様情報1041については、図11を用いて後述する。 In the system 1000, the input unit 1040 of the terminal 1002 accepts input of model specification information 1041 including accuracy information indicating the accuracy specified by the user. The terminal 1002 transmits the model specification information 1041 to the device 1001. The model specification information 1041 will be described later with reference to FIG. 11.

装置1001の生成部1020は、仕様情報1041と記憶部1010に記憶されているモデル情報1011とに基づいて、ユーザにより指定された精度に応じた学習モデルを生成する。モデル情報1011については、図12を用いて後述する。 The generation unit 1020 of the device 1001 generates a learning model according to the accuracy specified by the user, based on the specification information 1041 and the model information 1011 stored in the storage unit 1010. The model information 1011 will be described later with reference to FIG. 12.

図11は、モデル仕様情報1041の一例(モデル仕様情報1100)を示す図である。 Figure 11 shows an example of model specification information 1041 (model specification information 1100).

モデル仕様情報1100には、精度1110と、第1の層モデル名1120と、第2の層モデル名1130と、第3の層モデル名1140と、再学習有無1150とが対応付けられた情報が含まれる。 The model specification information 1100 includes information that corresponds the accuracy 1110, the first layer model name 1120, the second layer model name 1130, the third layer model name 1140, and whether or not re-learning is performed 1150.

精度1110は、装置1001により生成される学習モデルにユーザが求める精度を示す情報である。第1の層モデル名1120は、当該学習モデルに用いられる第1のカテゴリの層モデルを示す情報である。第2の層モデル名1130は、当該学習モデルに用いられる第2のカテゴリの層モデルを示す情報である。第3の層モデル名1140は、当該学習モデルに用いられる第3のカテゴリの層モデルを示す情報である。再学習有無1150は、当該学習モデルの再学習が行われる否かを示す情報である。 Accuracy 1110 is information indicating the accuracy desired by the user for the learning model generated by the device 1001. First layer model name 1120 is information indicating the layer model of the first category used in the learning model. Second layer model name 1130 is information indicating the layer model of the second category used in the learning model. Third layer model name 1140 is information indicating the layer model of the third category used in the learning model. Relearning 1150 is information indicating whether or not relearning of the learning model is performed.

なお、図示は省略するが、モデル仕様情報1041は、所定の画面を介して入力される。例えば、所定の画面は、生成画面500に、精度の情報を入力するための領域が設けられている画面であってもよい。 Although not shown in the figure, the model specification information 1041 is input via a specified screen. For example, the specified screen may be a screen in which an area for inputting accuracy information is provided on the generation screen 500.

図12は、モデル情報1011の一例(モデルテーブル1200)を示す図である。 Figure 12 shows an example of model information 1011 (model table 1200).

モデルテーブル1200では、モデルテーブル300の情報に、精度1210の情報が更に対応付けられている。精度1210は、管理番号310の学習モデルの精度を示す情報である。 In model table 1200, information in model table 300 is further associated with information in accuracy 1210. Accuracy 1210 is information indicating the accuracy of the learning model of management number 310.

図13は、装置1001が行う生成処理の一例を示す図である。 Figure 13 shows an example of the generation process performed by device 1001.

S1301では、生成部1020は、モデル仕様情報1041を参照し、ユーザにより指定された精度(指定精度)が既存の学習モデルの精度(モデル精度)より高いか否かを判定する。生成部1020は、指定精度がモデル精度より高いと判定した場合、S1302に処理を移し、指定精度がモデル精度より高くないと判定した場合、S1303に処理を移す。 In S1301, the generation unit 1020 refers to the model specification information 1041 and determines whether the accuracy specified by the user (specified accuracy) is higher than the accuracy of the existing learning model (model accuracy). If the generation unit 1020 determines that the specified accuracy is higher than the model accuracy, it proceeds to S1302, and if it determines that the specified accuracy is not higher than the model accuracy, it proceeds to S1303.

システム1000では、生成部1020は、学習モデルの精度としては、第1のカテゴリの層モデル(第1の層モデル名)が含まれていた学習モデルの精度を用いる。 In the system 1000, the generation unit 1020 uses the accuracy of the learning model that included the layer model of the first category (first layer model name) as the accuracy of the learning model.

ここで、モデル仕様情報1100およびモデルテーブル1200を例に挙げて説明する。モデル仕様情報1100には、精度1110「55%」、第1の層モデル名1120「3:パレット」、第2の層モデル名1130「2:屋内、蛍光灯」、第3の層モデル名1140「1:物体検出」が含まれる。この場合、第1の層モデル名1120「3:パレット」が含まれていたモデル管理番号310「3」の学習モデルの精度1210「60%」が既存の学習モデルの精度として用いられる。よって、S1301においては、生成部1020は、ユーザにより指定された精度「55%」が既存の学習モデルの精度「60%」より高くないと判定し、S1303に処理を移す。 Here, the model specification information 1100 and the model table 1200 are taken as examples for explanation. The model specification information 1100 includes the accuracy 1110 "55%", the first layer model name 1120 "3: Palette", the second layer model name 1130 "2: Indoor, fluorescent light", and the third layer model name 1140 "1: Object detection". In this case, the accuracy 1210 "60%" of the learning model with the model management number 310 "3" that included the first layer model name 1120 "3: Palette" is used as the accuracy of the existing learning model. Therefore, in S1301, the generation unit 1020 determines that the accuracy "55%" specified by the user is not higher than the accuracy "60%" of the existing learning model, and proceeds to S1303.

なお、学習モデルの精度としては、第1のカテゴリの層モデルが含まれていた学習モデルの精度を用いるのは、第1のカテゴリの層モデルが特徴抽出部であるので、精度への影響が大きいことに基づいている。ただし、層モデルの分類の仕方によっては、精度への影響が大きい層モデルは異なることから、上記構成に限らない。例えば、学習モデルの精度として、第1のカテゴリの層モデルとは異なるカテゴリの層モデルが含まれていた学習モデルの精度を用いる構成としてもよい。 The reason for using the accuracy of the learning model that included a layer model of the first category as the accuracy of the learning model is that the layer model of the first category is a feature extraction unit and therefore has a large impact on the accuracy. However, the above configuration is not limited to this, since the layer model that has a large impact on the accuracy differs depending on how the layer models are classified. For example, the accuracy of the learning model may be configured to use the accuracy of a learning model that included a layer model of a category different from the layer model of the first category.

S1302では、生成部1020は、層を追加する。例えば、生成部1020は、第1の層モデルの最後の層(例えば、最も深い層)の後に、当該最後の層と同じ層を追加する。ただし、層の追加は、この処理に限らない。例えば、生成部1020は、指定された精度が学習モデルの精度との差に応じて、第1の層モデルの2つ以上の層を追加してもよい。また、例えば、生成部1020は、第1の層モデルとは異なる層モデルに層を追加してもよい。 In S1302, the generation unit 1020 adds a layer. For example, the generation unit 1020 adds a layer that is the same as the last layer (e.g., the deepest layer) of the first layer model after the last layer of the first layer model. However, the addition of a layer is not limited to this process. For example, the generation unit 1020 may add two or more layers of the first layer model depending on the difference between the specified accuracy and the accuracy of the learning model. Also, for example, the generation unit 1020 may add a layer to a layer model different from the first layer model.

S1303では、生成部1020は、層を削除する。例えば、生成部1020は、第1の層モデルの最後を削除する。ただし、層の削除は、この処理に限らない。例えば、生成部1020は、指定された精度が学習モデルの精度との差に応じて、第1の層モデルの2つ以上の層を削除してもよい。また、例えば、生成部1020は、第1の層モデルとは異なる層モデルから層を削除してもよい。 In S1303, the generation unit 1020 deletes a layer. For example, the generation unit 1020 deletes the end of the first layer model. However, the deletion of layers is not limited to this process. For example, the generation unit 1020 may delete two or more layers of the first layer model depending on the difference between the specified accuracy and the accuracy of the learning model. Also, for example, the generation unit 1020 may delete a layer from a layer model different from the first layer model.

なお、装置101により生成された学習モデルについては、システム1000の運用者により、仕様情報141の精度に合うようにチューニングが行われてもよい。 The learning model generated by the device 101 may be tuned by the operator of the system 1000 to match the accuracy of the specification information 141.

本実施の形態によれば、ユーザが指定する精度に応じて学習モデルを生成することができるようになる。 According to this embodiment, it becomes possible to generate a learning model according to the accuracy specified by the user.

(4)付記
上述の実施の形態には、例えば、以下のような内容が含まれる。
(4) Supplementary Notes The above-described embodiment includes, for example, the following contents.

上述の実施の形態においては、本発明を学習モデル生成システムに適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のシステム、装置、方法、プログラムに広く適用することができる。 In the above embodiment, the present invention has been described as being applied to a learning model generation system, but the present invention is not limited to this and can be widely applied to various other systems, devices, methods, and programs.

また、上述の実施の形態において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部または一部が1つのテーブルであってもよい。 In addition, in the above-described embodiment, the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of two or more tables may be one table.

また、上述の実施の形態において示した画面は、一例であり、受け付ける情報が同じであればどのような画面デザインであってもよい。例えば、各入力値の名称をタイトル行にもち、各行が個々の入力値の入力セルとなっているような表計算シート状の画面デザインであってもよい。また、画面は、ファイルの入力を受け付けるインターフェースを持ち、指定されたファイルの情報を基に画面の内容を更新してもよい。 The screens shown in the above-described embodiment are merely examples, and any screen design may be used as long as the information accepted is the same. For example, the screen may be designed like a spreadsheet, with the name of each input value in the title row, and each row being an input cell for an individual input value. The screen may also have an interface for accepting file input, and the contents of the screen may be updated based on the information in a specified file.

また、上記の説明において、各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, in the above description, information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or in a recording medium such as an IC card, an SD card, or a DVD.

上述した実施の形態は、例えば、以下の特徴的な構成を有する。 The above-described embodiment has the following characteristic configurations:

学習モデル生成システム(例えば、システム100、システム900、システム1000)は、記憶部と、生成部と、出力部と、を備える。 The learning model generation system (e.g., system 100, system 900, system 1000) includes a memory unit, a generation unit, and an output unit.

上記記憶部は、例えば、記憶部110、装置101、プロセッサ210、回路である。上記記憶部は、学習済みのモデル(例えば、ニューラルネットワークのモデル、ディープニューラルネットワークのモデル)である既存の学習モデル(例えば、学習モデル112)を構成している複数の層の各々を記憶する。上記複数の層は、第1のネットワーク114-1および第1のパラメータ115-1からなる層モデル、第2のネットワーク114-2および第2のパラメータ115-2からなる層モデル、第3のネットワーク114-3および第3のパラメータ115-3からなる層モデル等である。 The storage unit is, for example, the storage unit 110, the device 101, the processor 210, or a circuit. The storage unit stores each of the multiple layers constituting an existing learning model (e.g., the learning model 112) that is a trained model (e.g., a neural network model, a deep neural network model). The multiple layers are a layer model consisting of a first network 114-1 and a first parameter 115-1, a layer model consisting of a second network 114-2 and a second parameter 115-2, a layer model consisting of a third network 114-3 and a third parameter 115-3, etc.

上記既存の学習モデルは、1つであってもよいし、複数であってもよい。上記既存の学習モデルが1つである場合は、既存の学習モデルは、複数の層からなる。上記既存の学習モデルが複数である場合は、複数の学習モデルは、1つの現場に設けられていてもよいし、複数の現場に設けられていてもよい。また、上記既存の学習モデルが複数である場合は、複数の学習モデルは、同じ対象について推論を行うモデルであってもよいし、異なる対象について推論を行うモデルであってもよい。 The number of the existing learning models may be one or more. If there is one existing learning model, the existing learning model consists of multiple layers. If there are multiple existing learning models, the multiple learning models may be provided at one site, or at multiple sites. Furthermore, if there are multiple existing learning models, the multiple learning models may be models that perform inference on the same subject, or models that perform inference on different subjects.

上記記憶部に記憶される上記複数の各々は、予め定められたカテゴリまたは粒度に分類されていてもよいし、予め定められたカテゴリまたは粒度に分類されていなくてもよい。 Each of the plurality of items stored in the storage unit may be classified into a predetermined category or granularity, or may not be classified into a predetermined category or granularity.

上記生成部は、例えば、生成部120は、装置101、プロセッサ210、回路である。上記生成部は、複数の層が指定された仕様情報(例えば、仕様情報141)に基づいて、上記記憶部から上記複数の層の各々に対応する層を取得し、取得した層を組み合わせて学習モデル(例えば、ネットワーク151-5およびパラメータ152-5からなる学習モデル)を生成する。 The generation unit 120 is, for example, the device 101, the processor 210, and a circuit. The generation unit acquires layers corresponding to each of the multiple layers from the storage unit based on specification information (for example, specification information 141) in which multiple layers are specified, and combines the acquired layers to generate a learning model (for example, a learning model consisting of network 151-5 and parameters 152-5).

上記仕様情報は、生成画面500等の画面を介して生成された情報であってもよいし、予め指定されたフォーマットで情報が入力されているファイルであってもよい。 The above specification information may be information generated via a screen such as the generation screen 500, or may be a file in which information has been entered in a pre-specified format.

上記出力部は、例えば、出力部130、装置101、プロセッサ210、回路である。上記出力部は、上記生成部により生成された学習モデルを出力する。なお、出力部は、ユーザにより指定された出力先に出力してもよいし、予め指定されている出力先に出力してもよい。 The output unit is, for example, the output unit 130, the device 101, the processor 210, or a circuit. The output unit outputs the learning model generated by the generation unit. The output unit may output to an output destination specified by the user, or may output to an output destination specified in advance.

上記構成では、既存の学習モデルの層が組み合わされて新規の学習モデルが生成されるので、上記学習モデル生成システムによれば、学習モデルの生成にかかる時間を短縮することができる。 In the above configuration, layers of existing learning models are combined to generate a new learning model, so the learning model generation system can reduce the time it takes to generate a learning model.

上記記憶部は、既存の複数の学習モデルおいて、各学習モデルを構成している複数の層の各々を記憶する。上記既存の複数の学習モデルは、ネットワーク151-1およびのパラメータ152-1からなる学習モデル、ネットワーク151-2およびのパラメータ152-2からなる学習モデル、ネットワーク151-3およびのパラメータ152-3からなる学習モデル、ネットワーク151-4およびのパラメータ152-4からなる学習モデル等である。 The storage unit stores each of the multiple layers constituting each of the multiple existing learning models. The multiple existing learning models include a learning model consisting of network 151-1 and parameters 152-1, a learning model consisting of network 151-2 and parameters 152-2, a learning model consisting of network 151-3 and parameters 152-3, a learning model consisting of network 151-4 and parameters 152-4, etc.

上記生成部は、上記複数のモデルのうち異なる学習モデルの層が指定(例えば、図5参照)された仕様情報に基づいて、上記記憶部から上記層に対応する層を取得する。上記生成部は、取得した層を組み合わせて学習モデルを生成する。 The generation unit acquires layers corresponding to the layers from the storage unit based on specification information in which layers of different learning models among the multiple models are specified (e.g., see FIG. 5). The generation unit combines the acquired layers to generate a learning model.

上記構成では、複数のモデルのうち異なるモデルの層が指定された仕様情報に基づいて、異なる学習モデルの層が組み合わされた新規の学習モデルが生成される。上記構成によれば、例えば、ユーザは、既存の学習モデルとは異なる学習モデルを生成することができる。 In the above configuration, a new learning model is generated in which layers of different learning models are combined based on specification information in which layers of different models among multiple models are specified. With the above configuration, for example, a user can generate a learning model that is different from an existing learning model.

上記記憶部は、上記既存の学習に用いられたデータセットにラベルが付されたデータセットを記憶する。上記データセットは、例えば、学習モデル生成システムの運用者により、上記記憶部に記憶される。上記生成部は、生成した学習モデルを、上記データセットを用いて再学習する。 The storage unit stores a dataset in which a label has been added to the dataset used in the existing learning. The dataset is stored in the storage unit, for example, by an operator of the learning model generation system. The generation unit re-trains the generated learning model using the dataset.

再学習は、行われてもよいし、行われなくてもよい。再学習が行われるか否かは、ユーザにより指定されてもよいし、指定されなくてもよい。ユーザにより指定される場合、例えば、再学習を行うか否かを示す情報が、直接または仕様情報141に含められて、装置101に取り込まれる。 Relearning may or may not be performed. Whether or not relearning is performed may or may not be specified by the user. When specified by the user, for example, information indicating whether or not relearning is performed is input to the device 101 directly or included in the specification information 141.

上記構成では、生成された学習モデルが、既存のデータセットにラベルが付されたデータセットをもとに再学習される。上記構成によれば、例えば、ユーザは、再学習により精度が高められた学習モデルを得ることができる。 In the above configuration, the generated learning model is retrained based on a dataset in which an existing dataset is labeled. With the above configuration, for example, a user can obtain a learning model whose accuracy has been improved by retraining.

上記記憶部は、上記生成部により生成された学習モデルを構成している複数の層と、上記学習モデルが運用されている現場において取得された現場のデータにラベルが付されたデータセットとを記憶する。上記データセットは、現場の運用者により生成されたものであってもよいし、学習モデル生成システムの運用者により生成されたものであってもよい。 The storage unit stores multiple layers constituting the learning model generated by the generation unit, and a dataset in which on-site data acquired at the site where the learning model is operated is labeled. The dataset may be generated by an operator at the site, or may be generated by an operator of the learning model generation system.

上記構成では、生成された学習モデルの複数の層と当該学習モデル運用されている現場のデータにラベルが付されたデータセットとが記憶される。上記構成によれば、例えば、ユーザは、新たに記憶された各層を選択して再学習された学習モデルを生成できるようになり、学習モデル生成システムの利便性が高められる。 In the above configuration, multiple layers of the generated learning model and a dataset in which data from the site where the learning model is being used are labeled are stored. With the above configuration, for example, a user can select each newly stored layer to generate a re-trained learning model, thereby improving the convenience of the learning model generation system.

上記仕様情報には、上記生成部により生成される学習モデルの精度を示す情報が含まれる(例えば、図11参照)。上記記憶部は、上記既存のモデルの精度を示す情報を記憶する(例えば、図12参照)。
上記生成部は、上記仕様情報に基づいて、上記記憶部から上記複数の層の各々に対応する層を取得する(例えば、S702参照)。上記生成部は、上記仕様情報の精度が上記既存の学習モデルの精度より高い場合には、取得した層に1つ以上の層を追加する(例えば、S1302参照)。上記生成部は、上記仕様情報の精度が上記既存の学習モデルの精度より高くない場合には、取得した層から1つ以上の層を削除する(例えば、S1303参照)。
The specification information includes information indicating accuracy of the learning model generated by the generation unit (see, for example, FIG. 11). The storage unit stores information indicating accuracy of the existing model (see, for example, FIG. 12).
The generation unit acquires layers corresponding to each of the layers from the storage unit based on the specification information (see, for example, S702). If the accuracy of the specification information is higher than the accuracy of the existing learning model, the generation unit adds one or more layers to the acquired layers (see, for example, S1302). If the accuracy of the specification information is not higher than the accuracy of the existing learning model, the generation unit deletes one or more layers from the acquired layers (see, for example, S1303).

上記構成では、指定された精度に応じて学習モデルが生成されるので、ユーザは、所望の精度に近づくように生成された学習モデルを得ることができる。 In the above configuration, a learning model is generated according to the specified accuracy, so the user can obtain a learning model that is generated to approach the desired accuracy.

上記記憶部は、上記既存の学習モデルを構成している層を、第1のカテゴリと、第2のカテゴリと、第3のカテゴリとの何れかに分類して記憶する(例えば、図12、図13参照「)。第1のカテゴリは、物体の特徴を抽出するための層の分類に適したカテゴリである。第2のカテゴリは、環境の特徴を抽出するための層の分類に適したカテゴリである。第3のカテゴリは、抽出した特徴を用いて推論するための層の分類に適したカテゴリである。 The storage unit classifies and stores the layers constituting the existing learning model into a first category, a second category, or a third category (see, for example, Figures 12 and 13). The first category is a category suitable for classifying layers for extracting object features. The second category is a category suitable for classifying layers for extracting environmental features. The third category is a category suitable for classifying layers for inference using the extracted features.

上記構成では、学習モデルの層がカテゴリに分類されて記憶されているので、例えば、ユーザは、整理されているカテゴリの中から層を選ぶことができ、所望の学習モデルを容易に生成することができるようになる。 In the above configuration, the layers of the learning model are classified and stored into categories, so that, for example, a user can select a layer from among the organized categories, making it easy to generate the desired learning model.

また上述した構成については、本発明の要旨を超えない範囲において、適宜に、変更したり、組み替えたり、組み合わせたり、省略したりしてもよい。 Furthermore, the above-mentioned configurations may be modified, rearranged, combined, or omitted as appropriate without departing from the spirit and scope of the present invention.

「A、B、およびCのうちの少なくとも1つ」という形式におけるリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができると理解されたい。同様に、「A、B、またはCのうちの少なくとも1つ」の形式においてリストされた項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができる。 It should be understood that an item listed in the format "at least one of A, B, and C" can mean (A), (B), (C), (A and B), (A and C), (B and C), or (A, B, and C). Similarly, an item listed in the format "at least one of A, B, or C" can mean (A), (B), (C), (A and B), (A and C), (B and C), or (A, B, and C).

100……システム、110……記憶部、120……生成部、130……出力部。 100...system, 110...memory unit, 120...generation unit, 130...output unit.

Claims (6)

学習済みのモデルである既存の学習モデルを構成している複数の層の各々を記憶する記憶部と、
生成画面を介して受け付けたユーザの入力操作により複数の層が指定された仕様情報に基づいて、前記既存の学習モデルを構成している前記複数の層の各々に対応する層を前記記憶部から取得し、取得した層を組み合わせて学習モデルを生成する生成部と、
前記生成部により生成された学習モデルを出力する出力部と、
を備え
前記記憶部は、既存の複数の学習モデルにおいて、各学習モデルを構成している複数の層の各々を記憶し、
前記生成部は、前記複数のモデルのうち異なる学習モデルの層が指定された仕様情報に基づいて、前記記憶部から前記層に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する、
学習モデル生成システム。
A storage unit that stores each of a plurality of layers constituting an existing learning model that is a trained model;
a generation unit that acquires layers corresponding to each of the layers constituting the existing learning model from the storage unit based on specification information in which multiple layers are specified by a user's input operation received via a generation screen , and combines the acquired layers to generate a learning model;
an output unit that outputs the learning model generated by the generation unit;
Equipped with
The storage unit stores each of a plurality of layers constituting each of a plurality of existing learning models,
The generation unit acquires layers corresponding to different learning models from the storage unit based on specification information in which layers of the different learning models among the plurality of models are specified, and generates a learning model by combining the acquired layers.
Learning model generation system.
前記記憶部は、前記既存の学習に用いられたデータセットにラベルが付されたデータセットを記憶し、
前記生成部は、生成した学習モデルを、前記データセットを用いて再学習する、
請求項1に記載の学習モデル生成システム。
The storage unit stores a dataset in which a label is added to the dataset used in the existing learning,
The generation unit re-trains the generated learning model using the dataset.
The learning model generation system according to claim 1 .
前記記憶部は、前記生成部により生成された学習モデルを構成している複数の層と、前記学習モデルが運用されている現場において取得された現場のデータにラベルが付されたデータセットとを記憶する、
請求項1に記載の学習モデル生成システム。
The storage unit stores a plurality of layers constituting the learning model generated by the generation unit and a dataset in which site data acquired at the site where the learning model is operated is labeled.
The learning model generation system according to claim 1 .
前記仕様情報には、前記生成部により生成される学習モデルの精度を示す情報が含まれ、
前記記憶部は、前記既存のモデルの精度を示す情報を記憶し、
前記生成部は、前記仕様情報に基づいて、前記記憶部から前記複数の層の各々に対応する層を取得し、前記仕様情報の精度が前記既存の学習モデルの精度より高い場合には、取得した層に1つ以上の層を追加し、前記仕様情報の精度が前記既存の学習モデルの精度より高くない場合には、取得した層から1つ以上の層を削除する、
請求項1に記載の学習モデル生成システム。
The specification information includes information indicating accuracy of the learning model generated by the generation unit,
The storage unit stores information indicating accuracy of the existing model,
The generation unit acquires layers corresponding to each of the plurality of layers from the storage unit based on the specification information, and adds one or more layers to the acquired layers when the accuracy of the specification information is higher than the accuracy of the existing learning model, and deletes one or more layers from the acquired layers when the accuracy of the specification information is not higher than the accuracy of the existing learning model.
The learning model generation system according to claim 1 .
前記記憶部は、前記既存の学習モデルを構成している層を、物体の特徴を抽出するための層の分類に適したカテゴリと、環境の特徴を抽出するための層の分類に適したカテゴリと、抽出した特徴を用いて推論するための層の分類に適したカテゴリとの何れかに分類して記憶する、
請求項1に記載の学習モデル生成システム。
the storage unit classifies and stores layers constituting the existing learning model into any one of categories suitable for classifying layers for extracting object features, categories suitable for classifying layers for extracting environmental features, and categories suitable for classifying layers for inference using the extracted features.
The learning model generation system according to claim 1 .
記憶部が、学習済みのモデルである既存の学習モデルを構成している複数の層の各々を記憶することと、
生成部が、生成画面を介して受け付けたユーザの入力操作により複数の層が指定された仕様情報に基づいて、前記既存の学習モデルを構成している前記複数の層の各々に対応する層を前記記憶部から取得し、取得した層を組み合わせて学習モデルを生成することと、
出力部が、前記生成部により生成された学習モデルを出力することと、
を含み、
前記記憶部は、既存の複数の学習モデルにおいて、各学習モデルを構成している複数の層の各々を記憶し、
前記生成部は、前記複数のモデルのうち異なる学習モデルの層が指定された仕様情報に基づいて、前記記憶部から前記層に対応する層を取得し、取得した層を組み合わせて学習モデルを生成する、
学習モデル生成方法。
A storage unit stores each of a plurality of layers constituting an existing learning model that is a trained model;
A generation unit acquires layers corresponding to each of the layers constituting the existing learning model from the storage unit based on specification information in which a plurality of layers are specified by a user's input operation received via a generation screen , and generates a learning model by combining the acquired layers;
An output unit outputs the learning model generated by the generation unit;
Including,
The storage unit stores each of a plurality of layers constituting each of a plurality of existing learning models,
The generation unit acquires layers corresponding to different learning models from the storage unit based on specification information in which layers of the different learning models among the plurality of models are specified, and generates a learning model by combining the acquired layers.
How to generate a learning model.
JP2020075832A 2020-04-22 2020-04-22 Learning model generation system and learning model generation method Active JP7471135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075832A JP7471135B2 (en) 2020-04-22 2020-04-22 Learning model generation system and learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075832A JP7471135B2 (en) 2020-04-22 2020-04-22 Learning model generation system and learning model generation method

Publications (2)

Publication Number Publication Date
JP2021174127A JP2021174127A (en) 2021-11-01
JP7471135B2 true JP7471135B2 (en) 2024-04-19

Family

ID=78281839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075832A Active JP7471135B2 (en) 2020-04-22 2020-04-22 Learning model generation system and learning model generation method

Country Status (1)

Country Link
JP (1) JP7471135B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336463A1 (en) 2017-05-18 2018-11-22 General Electric Company Systems and methods for domain-specific obscured data transport
WO2020058570A1 (en) 2018-09-20 2020-03-26 Nokia Technologies Oy An apparatus and a method for artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336463A1 (en) 2017-05-18 2018-11-22 General Electric Company Systems and methods for domain-specific obscured data transport
WO2020058570A1 (en) 2018-09-20 2020-03-26 Nokia Technologies Oy An apparatus and a method for artificial intelligence

Also Published As

Publication number Publication date
JP2021174127A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
Fazeli et al. See, feel, act: Hierarchical learning for complex manipulation skills with multisensory fusion
US10719301B1 (en) Development environment for machine learning media models
US11556746B1 (en) Fast annotation of samples for machine learning model development
US10867244B2 (en) Method and apparatus for machine learning
US10423647B2 (en) Descriptive datacenter state comparison
Gudivada et al. Cognitive analytics: Going beyond big data analytics and machine learning
US10395108B1 (en) Automatically identifying and interacting with hierarchically arranged elements
EP3467723A1 (en) Machine learning based network model construction method and apparatus
US8990128B2 (en) Graph-based framework for multi-task multi-view learning
US20180174062A1 (en) Root cause analysis for sequences of datacenter states
EP3542319B1 (en) Training neural networks using a clustering loss
US11537506B1 (en) System for visually diagnosing machine learning models
CN109800885A (en) It is determined for the rule of black box machine learning model
Sublime et al. Entropy based probabilistic collaborative clustering
US10949664B2 (en) Optical character recognition training data generation for neural networks by parsing page description language jobs
US20200387553A1 (en) Digitization of technical documentation driven by machine learning
WO2023279963A1 (en) Neural network training method and apparatus, and computer device, storage medium and program
CN108255706A (en) Edit methods, device, terminal device and the storage medium of automatic test script
CN115136162A (en) System and computer-implemented method for validating tag data
CN110209860B (en) Template-guided interpretable garment matching method and device based on garment attributes
CN115952966A (en) Automatic data transfer between source and target using semantic artificial intelligence for robotic process automation
CN115271093A (en) Neural network based multimodal transformer for multitasking user interface modeling
US20230111047A1 (en) Classification Evaluation and Improvement in Machine Learning Models
JP7471135B2 (en) Learning model generation system and learning model generation method
US20230186117A1 (en) Automated cloud data and technology solution delivery using dynamic minibot squad engine machine learning and artificial intelligence modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409