JP2021165909A - Information processing apparatus, information processing method for information processing apparatus, and program - Google Patents

Information processing apparatus, information processing method for information processing apparatus, and program Download PDF

Info

Publication number
JP2021165909A
JP2021165909A JP2020068649A JP2020068649A JP2021165909A JP 2021165909 A JP2021165909 A JP 2021165909A JP 2020068649 A JP2020068649 A JP 2020068649A JP 2020068649 A JP2020068649 A JP 2020068649A JP 2021165909 A JP2021165909 A JP 2021165909A
Authority
JP
Japan
Prior art keywords
data
learning
subset
information processing
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020068649A
Other languages
Japanese (ja)
Inventor
慧 ▲高▼山
Kei Takayama
敦史 野上
Atsushi Nogami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020068649A priority Critical patent/JP2021165909A/en
Publication of JP2021165909A publication Critical patent/JP2021165909A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To select learning data effective for learning in good balance to determine a learning subset.SOLUTION: An information processing apparatus has: first evaluation means (202) that receives input of a plurality of pieces of learning data each including input data and training data, and acquires evaluation values of the input data based on the training data by using a model; learning subset determination means (205) that, based on the evaluation values and the order of priority of the attributes of the learning data, selects some pieces of learning data of the plurality of pieces of learning data, and determines a learning subset; and learning means (206) that performs learning of the model by using the determined leaning subset.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理装置の情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method and a program of the information processing device.

機械学習では、学習に有効なデータを集めて学習データを作成し、学習を行うことが、モデルの性能を高める上で重要である。有効な学習データを作成するための方法として、学習途中のモデルを用いて学習データに対して認識処理を行い、誤認識した一部のデータを抽出した学習データを作成して学習する方法が知られている。この学習方法では、モデルが誤認識した苦手なデータを集中的に学習できるため、すべてのデータを学習するより効率的に学習を行うことができる。しかし、学習データに複数の属性のデータが存在するとき、この方法を適用すると、特定の属性のデータばかりが収集されてデータに偏りが生じる場合がある。そのため、属性も考慮してバランス良く学習するのが望ましい。特許文献1には、データの属性を考慮して、あらゆる属性のデータをバランス良く集めて学習する方法が記載されている。 In machine learning, it is important to collect data effective for learning, create learning data, and perform learning in order to improve the performance of the model. As a method for creating effective learning data, it is known how to perform recognition processing on learning data using a model in the middle of learning and create learning data by extracting some misrecognized data for learning. Has been done. In this learning method, it is possible to intensively learn the data that the model is not good at erroneously recognizing, so that the learning can be performed more efficiently than learning all the data. However, when there are data of a plurality of attributes in the training data, if this method is applied, only the data of a specific attribute may be collected and the data may be biased. Therefore, it is desirable to study in a well-balanced manner in consideration of attributes. Patent Document 1 describes a method of collecting and learning data of all attributes in a well-balanced manner in consideration of the attributes of the data.

特開2012−208710号公報Japanese Unexamined Patent Publication No. 2012-208710

複数の属性のデータを混ぜて学習するとき、モデルが苦手とするデータを調べた結果と、どの属性のデータを優先的に学習するかという情報の両方を考慮してバランス良く学習データを作成することが重要である。この課題に対して、現状では、両方を考慮してデータバランスを調整し、学習データを作成する方法は開示されていない。特許文献1では、属性を考慮して学習データを作成する方法について述べられているが、モデルが苦手なデータを調べた結果に基づく学習データの選択は行っていない。 When learning by mixing data of multiple attributes, create training data in a well-balanced manner by considering both the result of examining the data that the model is not good at and the information of which attribute data is to be learned preferentially. This is very important. At present, there is no disclosure of a method of adjusting the data balance and creating learning data in consideration of both of them. Patent Document 1 describes a method of creating training data in consideration of attributes, but does not select training data based on the result of examining data that the model is not good at.

本発明の目的は、学習に有効な学習データをバランス良く選択して学習サブセットを決定できるようにすることである。 An object of the present invention is to be able to determine a learning subset by selecting learning data effective for learning in a well-balanced manner.

本発明の情報処理装置は、各々が入力データと教師データを含む複数の学習データを入力し、モデルを用いて、前記教師データに基づいて前記入力データの各々の評価値を取得する第1の評価手段と、前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定手段と、前記決定された学習サブセットを用いて、前記モデルの学習を行う学習手段とを有する。 The information processing apparatus of the present invention is a first method in which a plurality of learning data including input data and teacher data are input, and an evaluation value of each of the input data is acquired based on the teacher data by using a model. An evaluation means, a learning subset determining means for selecting a part of the learning data from the plurality of learning data based on the evaluation value and the priority for each attribute of the learning data, and determining the learning subset. It has a learning means for learning the model using the determined learning subset.

本発明によれば、学習に有効な学習データをバランス良く選択して学習サブセットを決定することができる。 According to the present invention, learning data effective for learning can be selected in a well-balanced manner to determine a learning subset.

情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of an information processing apparatus. 情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an information processing apparatus. 情報処理方法を示すフローチャートである。It is a flowchart which shows the information processing method. バランス調整部の処理を示すフローチャートである。It is a flowchart which shows the process of a balance adjustment part. データを説明するための図である。It is a figure for demonstrating data. 優先度設定部の処理を説明するための図である。It is a figure for demonstrating the process of a priority setting part. 重み決定部の処理を説明するための図である。It is a figure for demonstrating the processing of the weight determination part. 学習サブセット決定部の処理を説明するための図である。It is a figure for demonstrating the processing of a learning subset determination part. バランス調整部の処理を説明するための図である。It is a figure for demonstrating the processing of the balance adjustment part. 情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an information processing apparatus. 情報処理方法を示すフローチャートである。It is a flowchart which shows the information processing method. 優先度設定部の処理を説明するための図である。It is a figure for demonstrating the process of a priority setting part.

<実施形態1>
実施形態1は、複数の属性のデータを混ぜて学習するとき、学習に有効なデータをバランス良く集めて学習データを作成するための方法に関する。はじめに、実施形態1の前提について説明する。
<Embodiment 1>
The first embodiment relates to a method for creating learning data by collecting data effective for learning in a well-balanced manner when learning by mixing data of a plurality of attributes. First, the premise of the first embodiment will be described.

まず、前提とするデータの状況について述べる。実施形態1は、特定の認識対象のデータを高性能に認識するモデルを作ることを学習の目的とする。そして、実施形態1は、認識対象のデータの一部に教師データを付与し、そのデータを用いて学習を行い、教師データを付与していない残りのデータを認識することを想定している。以降、区別しやすさのため、認識対象データのうち学習に用いる一部のデータを学習用認識対象データ、残りのデータをテスト用認識対象データと記載する。 First, the status of the assumed data will be described. The purpose of the first embodiment is to create a model that recognizes data of a specific recognition target with high performance. Then, in the first embodiment, it is assumed that teacher data is added to a part of the data to be recognized, learning is performed using the data, and the remaining data to which the teacher data is not added is recognized. Hereinafter, for ease of distinction, some of the recognition target data used for learning will be referred to as learning recognition target data, and the remaining data will be referred to as test recognition target data.

テスト用認識対象データを高性能に認識する目的において、学習用認識対象データは、テスト用認識対象データと同じ認識対象のデータから取得するデータであるため、重要である。しかし、学習用認識対象データの量は非常に少なく、テスト用認識対象データに存在するすべてのパターンを含んでいるわけではない。このため、学習用認識対象データのみを用いて学習してモデルを作成しても、テスト用認識対象データ全体を高性能に認識することは困難である。 For the purpose of recognizing the test recognition target data with high performance, the learning recognition target data is important because it is data acquired from the same recognition target data as the test recognition target data. However, the amount of recognition target data for training is very small, and it does not include all the patterns existing in the recognition target data for testing. Therefore, even if the model is created by learning using only the recognition target data for learning, it is difficult to recognize the entire recognition target data for testing with high performance.

このような状況では、一般的に、学習用認識対象データに、データ量を補充する目的で既存のデータを混ぜて学習する。既存データは、膨大であり、上述の目的において無駄なデータも多いが、中には学習に有効なデータ、具体的には認識対象データの違いによらず存在する間違えやすいパターンのデータを含んでいる。間違えやすいパターンは、テスト用認識対象データにも存在する可能性がある。したがって、学習用認識対象データに既存データを混ぜて学習することにより、学習用認識対象データのみを用いて学習するより誤認識を抑制できる場合がある。ただし、あくまで既存データは、学習用認識対象データを補充するためのデータであり、優先的に学習したいデータは、学習用認識対象データである。 In such a situation, in general, the recognition target data for learning is learned by mixing the existing data for the purpose of supplementing the amount of data. The existing data is enormous, and there are many useless data for the above-mentioned purpose, but some of them include data that is effective for learning, specifically, data that exists regardless of the difference in the data to be recognized and that is easily mistaken. There is. A pattern that is easy to make a mistake may also exist in the test recognition target data. Therefore, by learning by mixing the existing data with the learning recognition target data, it may be possible to suppress erroneous recognition as compared with learning using only the learning recognition target data. However, the existing data is data for supplementing the learning recognition target data, and the data to be preferentially learned is the learning recognition target data.

また、機械学習では、学習途中のモデルが誤認識した苦手なデータの一部の学習データを抽出した学習データを作成して学習するフレームワークが用いられる。実施形態1は、このフレームワークを基本とした学習を行うことを前提とする。具体的には、学習途中のモデルを用いて大量のデータに対して認識処理を行い、誤認識したデータを含む画像を収集してサブセットを作成し、サブセットを用いて次の学習を行う。この方法により、学習途中のモデルが苦手とするデータを効率的に学習することができる。この学習では、学習データごとに認識した結果と教師データを比較し、誤差の大きいデータを次の学習で使用する。実施形態1では、このような学習を基本とし、すべての学習データを用いて学習するのではなく、次の学習に用いるデータを抽出して学習を繰り返す。以降、学習データから次の学習のために抽出したデータセットのことを、学習データの母集団と区別するために学習サブセットと記載するものとする。上述の前提のように、大量のデータを用いて学習する場合は特に、上述のフレームワークの学習により学習データから学習に有効なデータを抽出して学習することで、学習が早く進み、かつ、認識性能が高まる。 Further, in machine learning, a framework is used in which learning data is created and learned by extracting some learning data of data that the model in the middle of learning is not good at erroneously recognizing. The first embodiment is premised on learning based on this framework. Specifically, a large amount of data is recognized using a model in the middle of learning, an image containing erroneously recognized data is collected to create a subset, and the next learning is performed using the subset. By this method, it is possible to efficiently learn the data that the model in the middle of learning is not good at. In this learning, the result recognized for each learning data is compared with the teacher data, and the data having a large error is used in the next learning. In the first embodiment, based on such learning, instead of learning using all the learning data, the data used for the next learning is extracted and the learning is repeated. Hereinafter, the data set extracted from the training data for the next learning shall be described as a learning subset in order to distinguish it from the population of the training data. As in the above premise, especially when learning using a large amount of data, by extracting data effective for learning from the learning data by learning of the above-mentioned framework and learning, learning proceeds quickly and Recognition performance is improved.

しかし、上述の想定する状況、すなわち、優先的に学習したいデータが全体の中で少ない場合は、上述のフレームワークの学習は、必ずしもうまくいくとは限らない。なぜなら、優先的に学習したいデータが学習データの母集団の中で相対的に少ないと、学習サブセット中でそのデータが占める割合は、極端に小さくなるためである。実施形態1では、以上のことを前提とし、データバランスを適切に調整して学習サブセットを作成する方法を示す。 However, in the above-mentioned assumed situation, that is, when the data to be preferentially learned is small in the whole, the learning of the above-mentioned framework does not always succeed. This is because if the data to be preferentially trained is relatively small in the population of training data, the proportion of the data in the learning subset becomes extremely small. In the first embodiment, on the premise of the above, a method of appropriately adjusting the data balance to create a learning subset will be shown.

なお、学習用認識対象データか既存データかといった、優先的に学習するかどうかを決定する要素を、以降では属性と記載する。実施形態1においては、属性は、データと紐づいた情報とし、具体的にはデータセットの内容とし、学習用認識対象データと既存データの2種類あるとする。また、本実施形態におけるバランスとは、学習に用いる学習サブセット内の、属性ごとのデータ数の割合のことを指すものとする。また、以降では、学習途中のモデルが苦手なデータを調べる処理を、評価と記載する。 In addition, the element that determines whether or not to preferentially learn, such as the recognition target data for learning or the existing data, will be described as an attribute hereafter. In the first embodiment, the attribute is information associated with the data, specifically, the content of the data set, and there are two types of data to be recognized for learning and existing data. Further, the balance in the present embodiment refers to the ratio of the number of data for each attribute in the learning subset used for learning. In the following, the process of examining data that the model in the middle of learning is not good at will be described as evaluation.

次に、実施形態1の概要について説明する。実施形態1では、誤差の評価結果と、属性に基づき決まるデータの優先度を考慮してデータのバランスを調整して学習サブセットを作成し、学習する。以降では、簡単のため、属性に基づき決まるデータの優先度のことを、単に優先度と記載する。評価の結果のみを考慮すれば、学習サブセットのうち優先度の高いデータの占める割合が小さくなる。一方、優先度のみを考慮をすれば、間違えやすいパターンのデータの学習が疎かになる。そこで、実施形態1では、評価の結果と優先度の両方を考慮してデータのバランスが適切な学習サブセットを作成し、学習を行う。実施形態1では、評価の結果と優先度を用いて学習サブセット内の属性ごとのデータ量を決め、その結果に基づき全学習データから一部のデータを抽出して学習サブセットを作成する。このための手順としては、まず評価結果に基づき、学習サブセット内の属性ごとの仮のデータ量を決める。続いて、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量を決める。次に、評価値に基づく仮のデータ量と、優先度に基づく仮のデータ量のどちらに比重を置くかを操作することで、学習サブセット内の属性ごとのデータ量を決定する。この操作に用いるパラメータを、以降では重みと記載する。重みは、割合で指定し、重みを用いて、評価値に基づく仮のデータ量と優先度に基づく仮のデータ量に重みづけを行うことで、学習サブセット内の属性ごとのデータ数のバランスを決定する。実施形態1では、学習を繰り返す中で学習の進み具合に合わせて適切に重みづけを行うことにより、データのバランスを調整していく方法を示す。 Next, the outline of the first embodiment will be described. In the first embodiment, the learning subset is created and learned by adjusting the balance of the data in consideration of the evaluation result of the error and the priority of the data determined based on the attributes. Hereinafter, for the sake of simplicity, the priority of data determined based on the attributes will be simply referred to as priority. Considering only the evaluation results, the proportion of high-priority data in the learning subset becomes small. On the other hand, if only the priority is considered, the learning of the data of the pattern that is easy to make a mistake becomes sparse. Therefore, in the first embodiment, a learning subset having an appropriate data balance is created in consideration of both the evaluation result and the priority, and learning is performed. In the first embodiment, the amount of data for each attribute in the learning subset is determined using the evaluation result and the priority, and a part of the data is extracted from all the learning data based on the result to create the learning subset. As a procedure for this, first, a temporary data amount for each attribute in the learning subset is determined based on the evaluation result. Then, based on the priority, the provisional amount of data for each attribute in the learning subset is determined. Next, the amount of data for each attribute in the learning subset is determined by manipulating whether the weight is placed on the provisional data amount based on the evaluation value or the provisional data amount based on the priority. The parameters used for this operation will be referred to as weights hereafter. The weight is specified as a percentage, and the weight is used to weight the temporary data amount based on the evaluation value and the temporary data amount based on the priority, thereby balancing the number of data for each attribute in the learning subset. decide. In the first embodiment, a method of adjusting the balance of data by appropriately weighting according to the progress of learning while repeating learning is shown.

実施形態1では、評価結果と優先度に基づいてデータのバランスを調整して学習データを作成する方法について、インフラ構造物の点検における変状認識モデルの学習を例に、説明する。 In the first embodiment, a method of adjusting the balance of data based on the evaluation result and the priority to create the learning data will be described by taking the learning of the deformation recognition model in the inspection of the infrastructure structure as an example.

まず、インフラ構造物の点検について説明する。インフラ構造物の壁面の点検では、点検者は、コンクリート壁面のひび割れ等の変状を記録する。画像を用いた点検では、点検者は、構造物の壁面を撮影し、撮影した画像の中から、変状の位置や範囲を記録することにより点検結果を作成する。作成した点検結果は、画像とともに構造物の図面に対応づけて管理する。このとき、画像の中から、全ての変状を発見し、記録する作業は大変な作業となる。従って、近年、機械学習により、コンクリート壁面画像の変状を認識する認識モデルを学習し、画像点検の効率化を図ることが行われている。以下、変状認識のモデルは、コンクリート壁面画像からひび割れを認識する画像認識モデルであるとする。 First, the inspection of the infrastructure structure will be described. In the inspection of the wall surface of the infrastructure structure, the inspector records the deformation such as cracks on the concrete wall surface. In the inspection using images, the inspector photographs the wall surface of the structure and creates the inspection result by recording the position and range of the deformation from the captured images. The created inspection results are managed in association with the drawings of the structure together with the images. At this time, the work of discovering and recording all the deformations in the image becomes a difficult work. Therefore, in recent years, machine learning has been used to learn a recognition model for recognizing deformation of a concrete wall surface image to improve the efficiency of image inspection. Hereinafter, the model for recognizing deformation is assumed to be an image recognition model for recognizing cracks from a concrete wall surface image.

実施形態1では、ある一つの構造物の壁面画像を認識対象データとし、一部の領域に教師データを付与する。また、既存データとして、様々な構造物の壁面画像と、それらの壁面画像に対して教師データが用意されているものとし、認識対象の構造物の画像のうち教師データを付与した一部のデータと既存データから学習データを作成する。その学習データを用いて学習したモデルにより、テスト用認識対象データ、すなわち、壁面画像のうち教師データを付与していないデータに認識処理をする。 In the first embodiment, the wall surface image of a certain structure is used as the recognition target data, and the teacher data is added to a part of the areas. Further, as existing data, it is assumed that wall images of various structures and teacher data are prepared for those wall images, and some data to which teacher data is added among the images of the structures to be recognized. And create training data from existing data. The model trained using the training data is used to perform recognition processing on the test recognition target data, that is, the wall surface image to which the teacher data is not added.

また、詳細は後述するが、実施形態1では、ひび割れを認識するためのモデルを学習するため、ひび割れを含むコンクリート壁面画像と、当該画像でのひび割れ正解位置を示す教師データから構成されるデータを扱う。以降では、教師データを付与する対象のデータを入力データと記載する。実施形態1の場合、入力データは、壁面画像のことを指す。また、入力データと教師データのペアから成るデータを学習データと記載する。 Further, although details will be described later, in the first embodiment, in order to learn a model for recognizing a crack, data composed of a concrete wall surface image including the crack and teacher data indicating the correct position of the crack in the image are provided. deal. Hereinafter, the data to which the teacher data is given will be described as the input data. In the case of the first embodiment, the input data refers to a wall surface image. In addition, data consisting of a pair of input data and teacher data is described as learning data.

図1は、実施形態1に係る情報処理装置100のハードウェア構成例を示すブロック図である。情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、操作部106と、通信部107とを有している。 FIG. 1 is a block diagram showing a hardware configuration example of the information processing apparatus 100 according to the first embodiment. The information processing device 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a display unit 105, an operation unit 106, and a communication unit 107.

CPU101は、中央演算装置(Central Processing Unit)であり、各種処理のための演算や論理判断等を行い、システムバス108に接続された各構成要素を制御する。ROM(Read-Only Memory)102は、プログラムメモリであって、後述する各種処理手順を含むCPU101による制御のためのプログラムを格納する。RAM(Random Access Memory)103は、CPU101の主メモリおよびワークエリア等の一時記憶領域として用いられる。なお、情報処理装置100に接続された外部記憶装置等からRAM103にプログラムをロードすることで、プログラムメモリを実現してもよい。 The CPU 101 is a central processing unit that performs arithmetic operations, logical determinations, and the like for various processes, and controls each component connected to the system bus 108. The ROM (Read-Only Memory) 102 is a program memory, and stores a program for control by the CPU 101 including various processing procedures described later. The RAM (Random Access Memory) 103 is used as a temporary storage area such as a main memory and a work area of the CPU 101. The program memory may be realized by loading the program into the RAM 103 from an external storage device or the like connected to the information processing device 100.

HDD104は、電子データやプログラムを記憶しておくためのハードディスクである。HDD104と同様の役割を果たすものとして、外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等である。また、外部記憶装置は、ネットワークで接続されたサーバー装置等であってもよい。 The HDD 104 is a hard disk for storing electronic data and programs. An external storage device may be used to play the same role as the HDD 104. Here, the external storage device can be realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the medium. Examples of such media include a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory, and the like. Further, the external storage device may be a server device or the like connected by a network.

表示部105は、例えばCRTディスプレイや、液晶ディスプレイ等であって、表示画面に画像を表示するデバイスである。なお、表示部105は、情報処理装置100と有線あるいは無線で接続された外部デバイスでもよい。操作部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、公知の通信技術により、他の情報処理装置や通信機器、外部記憶装置等との間で、有線または無線による双方向の通信を行う。 The display unit 105 is, for example, a CRT display, a liquid crystal display, or the like, and is a device for displaying an image on a display screen. The display unit 105 may be an external device connected to the information processing device 100 by wire or wirelessly. The operation unit 106 has a keyboard and a mouse, and accepts various operations by the user. The communication unit 107 performs two-way communication by wire or wireless with another information processing device, a communication device, an external storage device, or the like by using a known communication technique.

図2は、情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、データ格納部201と、評価部202と、優先度設定部203と、バランス調整部204と、学習サブセット決定部205と、学習部206と、モデル格納部207と、重み決定部208とを有する。モデル格納部207と重み決定部208は、なくてもよい。 FIG. 2 is a block diagram showing a functional configuration example of the information processing apparatus 100. The information processing device 100 includes a data storage unit 201, an evaluation unit 202, a priority setting unit 203, a balance adjustment unit 204, a learning subset determination unit 205, a learning unit 206, a model storage unit 207, and weight determination. It has a part 208 and. The model storage unit 207 and the weight determination unit 208 may not be provided.

これらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、プログラムを実行し、後述する各フローチャートに従った処理を実行することで実現される。そして、CPU101は、各処理の実行結果をRAM103またはHDD104に保持する。また例えば、CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。 Each of these functional units is realized by the CPU 101 expanding the program stored in the ROM 102 into the RAM 103, executing the program, and executing processing according to each flowchart described later. Then, the CPU 101 holds the execution result of each process in the RAM 103 or the HDD 104. Further, for example, when hardware is configured as an alternative to software processing using the CPU 101, a calculation unit or a circuit corresponding to the processing of each functional unit described here may be configured.

図5は、データ格納部201が格納するデータを示す図である。データ格納部201は、全学習データ504を格納する。全学習データ504は、認識対象データ501の一部から作成した学習用認識対象データ502と、既存データ503を含む。また、全学習データ504は、画像中のひび割れを認識するモデルを学習するためのデータであり、コンクリートの壁面画像である入力データと、画像中のひび割れ位置を示す教師データのペアから構成される。教師データは、入力データと同じサイズの画像であり、ひび割れ部分と背景部分には異なる値を設定し、ひび割れ位置の画素には1、背景部分の画素には0を格納した画像である。全学習データ504のペアは、吹き出し505の入力データの画像506と教師データの画像507を有する。この入力データの画像506と教師データの画像507のペアが一組の学習データである。情報処理装置100は、このペアを多数集めたデータ群を用いてモデルの学習を行う。モデルの学習には、どのような機械学習アルゴリズムを用いてもよく、例えば、ニューラルネットワークのようなアルゴリズムを用いることができる。データの属性は、学習用認識対象データ502と既存データ503の2種類とする。学習用認識対象データ502は、ごく少量のデータである。既存データ503は、膨大なデータである。また、データ格納部201は、テーブル508に示すように、学習用認識対象データ502か既存データ503かといった属性の情報を、各入力データd1、d2、・・・dnと対応づけて格納する。入力データd1、d2、・・・dnは、全学習データ504の各学習データの入力データである。 FIG. 5 is a diagram showing data stored in the data storage unit 201. The data storage unit 201 stores all the learning data 504. The total learning data 504 includes the learning recognition target data 502 created from a part of the recognition target data 501 and the existing data 503. Further, the total learning data 504 is data for learning a model for recognizing a crack in an image, and is composed of a pair of input data which is a concrete wall surface image and teacher data indicating a crack position in the image. .. The teacher data is an image having the same size as the input data, and different values are set for the cracked portion and the background portion, and 1 is stored in the pixel at the cracked position and 0 is stored in the pixel in the background portion. The pair of all training data 504 has an image 506 of the input data of the balloon 505 and an image 507 of the teacher data. The pair of the image 506 of the input data and the image 507 of the teacher data is a set of training data. The information processing device 100 trains a model using a data group obtained by collecting a large number of these pairs. Any machine learning algorithm may be used for learning the model, and for example, an algorithm such as a neural network can be used. There are two types of data attributes, the recognition target data 502 for learning and the existing data 503. The learning recognition target data 502 is a very small amount of data. The existing data 503 is a huge amount of data. Further, as shown in Table 508, the data storage unit 201 associates the attribute information such as the learning recognition target data 502 or the existing data 503 with the input data d 1 , d 2 , ... d n. Store. Input data d 1 , d 2 , ... d n are input data of each learning data of all training data 504.

図3は、情報処理装置100の情報処理方法を示すフローチャートである。情報処理装置100は、全学習データから所定数のデータを学習サブセットとして抽出し、学習することを所定回数繰り返す。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。S304に示すバランス調整部204の処理は、学習に用いるデータのバランスを調整する処理であり、重要な部分であるため、図4を用いてより詳細に説明する。 FIG. 3 is a flowchart showing an information processing method of the information processing apparatus 100. The information processing device 100 extracts a predetermined number of data as a learning subset from all the learning data, and repeats learning a predetermined number of times. In the following description, the description of the process (step) is omitted by adding S at the beginning of each process (step). Since the process of the balance adjusting unit 204 shown in S304 is a process of adjusting the balance of the data used for learning and is an important part, it will be described in more detail with reference to FIG.

まず、S301では、評価部202は、データ格納部201から複数の学習データを入力する。各学習データは、入力データと教師データのペアから構成される。次に、S302では、評価部202は、取得された学習データの各々の評価を実施する。ここで、評価部202の評価の処理について説明する。評価部202は、まず、学習途中のモデルを用いて、入力データ(画像)に対して検知処理を実行する。評価部202は、検知処理により、ひび割れがある可能性の高い画素には高いスコアが格納され、ひび割れがある可能性の低い画素には低いスコアが格納された画像を出力する。ここで出力される画像を、以下では検知画像と記載する。評価部202は、学習途中のモデルを用いて、教師データに基づいて、入力データの各々の評価値を取得する。例えば、評価値は、誤検知した画素数、すなわち、検知画像上の全画素のうちの教師データ上の画素値と一致しない画素数とする。具体的には、評価部202は、検知画像を2値化した2値画像から教師データを差し引くことで、差分画像を取得する。そして、評価部202は、差分画像内で0ではない画素の数をカウントし、そのカウント値を誤検知画素数とする。評価部202は、この誤検知画素数を、ある入力データの評価値とする。評価値が高いデータは、間違えた画素数が多いことを示すため、モデルが苦手なデータであると判断できる。 First, in S301, the evaluation unit 202 inputs a plurality of learning data from the data storage unit 201. Each learning data is composed of a pair of input data and teacher data. Next, in S302, the evaluation unit 202 evaluates each of the acquired learning data. Here, the evaluation process of the evaluation unit 202 will be described. First, the evaluation unit 202 executes detection processing on the input data (image) using the model in the middle of learning. By the detection process, the evaluation unit 202 outputs an image in which a high score is stored in a pixel having a high possibility of cracking and a low score is stored in a pixel having a low possibility of cracking. The image output here will be referred to as a detection image below. The evaluation unit 202 acquires each evaluation value of the input data based on the teacher data by using the model in the middle of learning. For example, the evaluation value is the number of falsely detected pixels, that is, the number of pixels that does not match the pixel value on the teacher data among all the pixels on the detected image. Specifically, the evaluation unit 202 acquires the difference image by subtracting the teacher data from the binarized image of the detected image. Then, the evaluation unit 202 counts the number of non-zero pixels in the difference image, and sets the count value as the number of false detection pixels. The evaluation unit 202 uses this number of false positive pixels as an evaluation value of certain input data. Data with a high evaluation value indicates that the number of wrong pixels is large, so it can be judged that the data is not good for the model.

なお、評価値は、誤検知画素数に限らず、未検知画素数や誤差二乗和であってもよい。未検知画素数は、検知画像を2値化した2値画像を、教師データから差し引くことで差分画像を取得し、差分画像内で0ではない画素の数をカウントすることで求める。誤差二乗和は、検知画像の画素ごとに、教師データ上の対応する画素との画素値との差分の二乗を算出し、画像全体で和を算出することにより求める。評価部202は、入力データの認識処理を行い、その認識処理の結果と教師データとに基づく誤差二乗和、誤検知画素数、または未検知画素数を、評価値として取得する。 The evaluation value is not limited to the number of falsely detected pixels, but may be the number of undetected pixels or the sum of squared errors. The number of undetected pixels is obtained by subtracting a binary image obtained by binarizing the detected image from the teacher data to obtain a difference image, and counting the number of non-zero pixels in the difference image. The error squared sum is obtained by calculating the square of the difference between the pixel value and the corresponding pixel on the teacher data for each pixel of the detected image and calculating the sum of the entire image. The evaluation unit 202 performs recognition processing of the input data, and acquires the sum of squared errors, the number of false detection pixels, or the number of undetected pixels based on the result of the recognition processing and the teacher data as evaluation values.

具体的には、評価部202は、式(1)により、評価値Eを算出する。ただし、nは検知画像内の全画素数である。ykは検知画像の画素kのスコアである。tkはある画素kの教師データの値である。 Specifically, the evaluation unit 202 calculates the evaluation value E by the equation (1). However, n is the total number of pixels in the detected image. y k is the score of the pixel k of the detected image. t k is the value of the teacher data of a certain pixel k.

Figure 2021165909
Figure 2021165909

次に、S303では、優先度設定部203は、学習データの属性ごとの優先度を設定する。ここで、優先度設定部203の処理を説明する。優先度設定部203は、入力データごとに、属性に基づき、入力データの優先度を設定する。例えば、属性は、既存データ503と学習用認識対象データ502の2種類である。学習用認識対象データ502の方が既存データ503よりも優先度が高いデータである。これを踏まえ、優先度設定部203は、学習用認識対象データ502の優先度を既存データ503の優先度より高い値に設定する。例えば、優先度設定部203は、学習用認識対象データ502の優先度を0.9に設定し、既存データ503の優先度を0.1に設定する。属性が学習用認識対象データ502である場合の優先度は、属性が既存データ503である場合の優先度より高い。 Next, in S303, the priority setting unit 203 sets the priority for each attribute of the learning data. Here, the processing of the priority setting unit 203 will be described. The priority setting unit 203 sets the priority of the input data for each input data based on the attribute. For example, there are two types of attributes, the existing data 503 and the learning recognition target data 502. The recognition target data 502 for learning has a higher priority than the existing data 503. Based on this, the priority setting unit 203 sets the priority of the learning recognition target data 502 to a value higher than the priority of the existing data 503. For example, the priority setting unit 203 sets the priority of the learning recognition target data 502 to 0.9 and sets the priority of the existing data 503 to 0.1. The priority when the attribute is the recognition target data 502 for learning is higher than the priority when the attribute is the existing data 503.

次に、S304では、バランス調整部204は、評価部202から評価値を取得し、優先度設定部203から属性ごとの優先度を取得し、これらの評価値と優先度に基づいて、学習サブセット内のデータのバランスを調整する。上述のように、ここでのバランスは、学習サブセットに用いるデータの属性ごとの割合のことである。バランスを調整することは、割合を決定することに相当する。属性ごとの割合の情報は、後の学習サブセット決定部205が学習に用いるデータを選択する際に必要となる。バランス調整部204の大まかな手順としては、まず、バランス調整部204は、評価値に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決める。続いて、バランス調整部204は、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決める。次に、バランス調整部204は、評価値に基づく仮のデータ量の割合と、優先度に基づく仮のデータ量の割合に対して、後述の重み決定部208が決定する重みづけを行うことにより、学習サブセット内の属性ごとのデータ量の割合を決定する。 Next, in S304, the balance adjusting unit 204 acquires the evaluation value from the evaluation unit 202, acquires the priority for each attribute from the priority setting unit 203, and based on these evaluation values and priorities, the learning subset. Adjust the balance of the data in. As mentioned above, the balance here is the ratio of the data used for the learning subset for each attribute. Adjusting the balance is equivalent to determining the proportion. The information on the ratio for each attribute is required when the learning subset determination unit 205 later selects the data to be used for learning. As a rough procedure of the balance adjustment unit 204, first, the balance adjustment unit 204 determines the ratio of the provisional data amount for each attribute in the learning subset based on the evaluation value. Subsequently, the balance adjustment unit 204 determines the ratio of the provisional data amount for each attribute in the learning subset based on the priority. Next, the balance adjustment unit 204 weights the ratio of the provisional data amount based on the evaluation value and the ratio of the provisional data amount based on the priority, which is determined by the weight determination unit 208 described later. , Determine the percentage of the amount of data for each attribute in the learning subset.

図4は、図3のS304の処理の詳細を示すフローチャートである。まず、S401では、バランス調整部204は、評価値に基づき、学習サブセットの属性ごとの仮の学習データ量の割合を決定する。手順としては、まず、バランス調整部204は、入力データを評価値の高い順、すなわち誤検知画素数の多い順に並び替える。そして、バランス調整部204は、評価値の高い方から、所定数の入力データを選択する。次に、バランス調整部204は、選択した入力データのうちの属性ごとの入力データ数をカウントする。例えば、所定数が10000であり、学習用認識対象データ502の数が1000であり、既存データ503の数が9000であったとする。次に、バランス調整部204は、ここでカウントした学習用認識対象データ502の数と既存データ503の数から、学習用認識対象データ502の数と既存データ503の数の割合を算出する。そして、バランス調整部204は、その算出した割合を基に、学習サブセットの属性ごとの仮のデータ量の割合を決定する。具体的には、バランス調整部204は、上記のカウントの数の割合に基づき、評価値から決まる仮のデータ量の割合として、学習用認識対象データ502の仮のデータ量の割合を0.1とし、既存データ503の仮のデータ量の割合を0.9とする。なお、ここでは説明しやすさのため、割合は、合計が1となるように配分した。 FIG. 4 is a flowchart showing the details of the process of S304 of FIG. First, in S401, the balance adjustment unit 204 determines the ratio of the provisional learning data amount for each attribute of the learning subset based on the evaluation value. As a procedure, first, the balance adjustment unit 204 sorts the input data in descending order of evaluation value, that is, in descending order of the number of false positive pixels. Then, the balance adjusting unit 204 selects a predetermined number of input data from the one with the highest evaluation value. Next, the balance adjustment unit 204 counts the number of input data for each attribute of the selected input data. For example, suppose that the predetermined number is 10,000, the number of recognition target data 502 for learning is 1000, and the number of existing data 503 is 9000. Next, the balance adjusting unit 204 calculates the ratio between the number of learning recognition target data 502 and the number of existing data 503 from the number of learning recognition target data 502 and the number of existing data 503 counted here. Then, the balance adjustment unit 204 determines the ratio of the provisional data amount for each attribute of the learning subset based on the calculated ratio. Specifically, the balance adjustment unit 204 sets the ratio of the provisional data amount of the recognition target data 502 for learning to 0.1 as the ratio of the provisional data amount determined from the evaluation value based on the ratio of the number of counts described above. Then, the ratio of the provisional data amount of the existing data 503 is set to 0.9. For ease of explanation, the ratios are distributed so that the total is 1.

次に、S402では、バランス調整部204は、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決定する。優先度は、図3のS303の処理で設定されており、学習用認識対象データ502の優先度は0.9であり、既存データ503の優先度は0.1である。バランス調整部204は、簡単のため、学習用認識対象データ502の優先度の値と既存データ503の優先度の値を、そのまま、学習サブセット内の学習用認識対象データ502と既存データ503の仮のデータ量の割合として決定する。なお、S401とS402の処理の順序は、反対にしてもよい。 Next, in S402, the balance adjustment unit 204 determines the ratio of the provisional data amount for each attribute in the learning subset based on the priority. The priority is set by the process of S303 in FIG. 3, the priority of the recognition target data 502 for learning is 0.9, and the priority of the existing data 503 is 0.1. For the sake of simplicity, the balance adjusting unit 204 uses the priority value of the learning recognition target data 502 and the priority value of the existing data 503 as they are, and temporarily uses the learning recognition target data 502 and the existing data 503 in the learning subset. Determined as a percentage of the amount of data in. The processing order of S401 and S402 may be reversed.

次に、バランス調整部204は、S401で評価値に基づき決定した仮のデータ量の割合と、S402で優先度に基づき決定した仮のデータ量の割合に対して、重みづけを行うことにより、学習サブセット内の属性ごとのデータ量の割合を決定する処理を行う。この処理は、S403とS404の処理により行うが、これらの処理の説明の前に、重みづけについて説明する。重みづけは、評価値と優先度から決まる仮のデータ量の割合のバランスをとる操作であり、具体的には式(2)により行う。 Next, the balance adjusting unit 204 weights the ratio of the provisional data amount determined based on the evaluation value in S401 and the ratio of the provisional data amount determined based on the priority in S402. Performs the process of determining the ratio of the amount of data for each attribute in the learning subset. This process is performed by the processes of S403 and S404, but the weighting will be described before the description of these processes. The weighting is an operation of balancing the ratio of the provisional data amount determined by the evaluation value and the priority, and is specifically performed by the equation (2).

Figure 2021165909
Figure 2021165909

iは属性ごとに異なる添え字である。ここでは、学習用認識対象データ502の添え字iを1とし、既存データ503の添え字iを2とする。Diは、学習サブセット内の属性iのデータ量の割合である。Daiは、評価値から決まる属性iの仮のデータ量の割合である。Dbiは、優先度から決まる属性iの仮のデータ量の割合である。waとwbは、上述の重みに相当する。waが評価値に基づく仮のデータ量の割合Daiに対する重みである。wbが優先度に基づく仮のデータ量の割合Dbiに対する重みである。 i is a subscript that differs for each attribute. Here, the subscript i of the recognition target data 502 for learning is set to 1, and the subscript i of the existing data 503 is set to 2. Di is the ratio of the amount of data of the attribute i in the learning subset. D ai is the ratio of the provisional data amount of the attribute i determined from the evaluation value. D bi is the ratio of the provisional data amount of the attribute i determined by the priority. w a and w b correspond to the above weights. w a is the weight for the ratio D ai of the provisional data amount based on the evaluation value. w b is the weight for the ratio D bi of the provisional data amount based on the priority.

学習サブセットの学習用認識対象データ502のデータ量の割合D1を決定する方法を説明する。その場合、バランス調整部204は、S401とS402の処理の結果から、式(2)において、評価値に基づく仮のデータ量の割合Da1に0.1を代入し、優先度に基づく仮のデータ量の割合Db1に0.9を代入する。 A method of determining the ratio D 1 of the amount of data of the recognition target data 502 for learning of the learning subset will be described. In that case, the balance adjusting unit 204 substitutes 0.1 for the ratio D a1 of the provisional data amount based on the evaluation value in the equation (2) from the result of the processing of S401 and S402, and provisionally based on the priority. Substitute 0.9 for the data volume ratio D b1.

同様に、学習サブセット内の既存データ503の量D2を決定する方法を説明する。その場合、バランス調整部204は、S401とS402の処理の結果から、式(2)において、評価値に基づく仮のデータ量の割合Da2に0.9を代入し、優先度に基づく仮のデータ量の割合Db2に0.1を代入する。 Similarly, a method of determining the quantity D 2 of the existing data 503 in the learning subset will be described. In that case, the balance adjusting unit 204 substitutes 0.9 for the ratio D a2 of the provisional data amount based on the evaluation value in the equation (2) from the result of the processing of S401 and S402, and provisionally based on the priority. Substitute 0.1 for the data volume ratio D b2.

重みwaとwbは、和が1となるように設定される。バランス調整部204は、評価値と優先度から決まる仮のデータ量のバランスを取る。以上を踏まえ、図4のフローチャートの重みづけを行う処理の説明に戻る。 The weights w a and w b are set so that the sum is 1. The balance adjusting unit 204 balances the provisional data amount determined from the evaluation value and the priority. Based on the above, the description of the process of weighting the flowchart of FIG. 4 will be returned.

S403では、重み決定部208は、式(2)の重みwaとwbを決定する。重み決定部208が、重みwaとwbを、評価値の結果に基づき決定する方法を説明する。具体的には、重み決定部208は、全入力データの各々の評価値の総和を算出し、その総和に基づいて重みwaとwbを決定する。評価値は、入力データの誤検知画素数であるため、評価値の総和は、入力データ全体の誤検知画素数の総和である。より具体的には、重み決定部208は、図7に示すように、評価値の総和により、重みwaとwbが変化するように、ルールを決めておく。例えば、評価値の総和が所定値より大きいとき、全体的に間違えるデータが多いと解釈できる。そのため、重み決定部208は、間違えたデータを集中的に学習できるように、重みwaとwbを決定する。具体的には、重み決定部208は、評価値に基づく仮のデータ量の割合の重みwaが、優先度に基づく仮のデータ量の割合の重みwbより大きくなるように比重を置く。図7の例では、重み決定部208は、評価値の総和が50000以上である場合には、重みwaを0.8とし、重みwbを0.2とする。 In S403, the weight determination unit 208 determines the weights w a and w b in the equation (2). A method of determining the weights w a and w b based on the result of the evaluation value by the weight determination unit 208 will be described. Specifically, the weight determination unit 208 calculates the sum of the evaluation values of all the input data, and determines the weights w a and w b based on the sum. Since the evaluation value is the total number of false positive pixels of the input data, the total evaluation value is the total number of false positive pixels of the entire input data. More specifically, as shown in FIG. 7, the weight determination unit 208 determines a rule so that the weights w a and w b change according to the sum of the evaluation values. For example, when the sum of the evaluation values is larger than the predetermined value, it can be interpreted that there are many data that are mistaken as a whole. Therefore, the weight determination unit 208 determines the weights w a and w b so that the wrong data can be intensively learned. Specifically, the weight determination unit 208 sets the weight so that the weight w a of the ratio of the provisional data amount based on the evaluation value is larger than the weight w b of the ratio of the provisional data amount based on the priority. In the example of FIG. 7, when the sum of the evaluation values is 50,000 or more, the weight determination unit 208 sets the weight w a to 0.8 and the weight w b to 0.2.

一方、重み決定部208は、評価値の総和が所定値より小さい場合には、全体的に間違えるデータが少ないため評価値の結果には比重を置かず、優先度の方に比重を置いて、学習用認識対象データ502を多く収集して学習できるように、重みwaとwbを決定する。具体的には、重み決定部208は、優先度に基づく仮のデータ量の重みwbが、評価値に基づく仮のデータ量の重みwaより大きくなるように設定する。図7の例では、重み決定部208は、評価値の総和が所定値より小さい場合、例えば評価値の総和が10000未満である場合、重みwaを0.2にし、重みwbを0.8とする。 On the other hand, when the sum of the evaluation values is smaller than the predetermined value, the weight determination unit 208 does not give a weight to the result of the evaluation value because there is little data to be mistaken as a whole, but puts a weight to the priority. The weights w a and w b are determined so that a large amount of recognition target data 502 for learning can be collected and learned. Specifically, the weight determination unit 208 sets the weight w b of the provisional data amount based on the priority to be larger than the weight w a of the provisional data amount based on the evaluation value. In the example of FIG. 7, when the sum of the evaluation values is smaller than the predetermined value, for example, when the sum of the evaluation values is less than 10,000, the weight determination unit 208 sets the weight w a to 0.2 and sets the weight w b to 0. It is set to 8.

また、重み決定部208は、評価値の総和が上記のいずれにも該当しない場合、例えば評価値の総和が10000以上50000未満の場合、重みwaとwbを均等にし、重みwaとwbのどちらも0.5とする。このように、重み決定部208は、評価値の総和に基づき重みwaとwbを決定することにより、学習途中のモデルに合わせて、重みwaとwbを適切に決定できる。 Further, the weight determining unit 208, the sum of the evaluation value may not satisfy any of the above, for example, in the case of less than 50,000 total 10,000 or more evaluation values, to equalize the weights w a and w b, the weights w a and w Both of b are set to 0.5. In this way, the weight determination unit 208 can appropriately determine the weights w a and w b according to the model in the middle of learning by determining the weights w a and w b based on the sum of the evaluation values.

続いて、S404では、バランス調整部204は、重み決定部208から重みwaとwbを取得し、重みwaとwbを用いて、学習サブセットの属性ごとのデータ量の割合を決定する。まず、バランス調整部204は、式(2)により、重みwaとwbを基に、割合Da1、Da2、Db1、Db2を重みづけ加算することにより、学習サブセット内の学習用認識対象データ502の割合D1と既存データ503の割合D2を算出する。例えば、S403で、重みwaが0.2であり、重みwbが0.8であると決定される。S401とS402で決まる割合Da1、Da2、Db1、Db2から、割合D1は0.74となり、割合D2は0.26となる。次に、バランス調整部204は、属性ごとの割合D1とD2から、属性ごとのデータ数を決める。バランス調整部204は、データ量の割合D1とD2に対して、学習サブセットの所定のデータ数を乗ずることにより、学習サブセット内の属性ごとのデータ数を算出する。上述のように、学習サブセットのデータ数は10000である。その場合、学習サブセット内の学習用認識対象データ502のデータ数は、7400に決定され、学習サブセット内の既存データ503のデータ数は、2600に決定される。 Subsequently, in S404, the balance adjusting unit 204 acquires the weights w a and w b from the weight determining unit 208, and uses the weights w a and w b to determine the ratio of the amount of data for each attribute of the learning subset. .. First, the balance adjusting unit 204 weights and adds the ratios D a1 , D a2 , D b1 , and D b2 based on the weights w a and w b according to the equation (2) for learning in the learning subset. calculating a ratio D 1 of the recognition target data 502 the ratio D 2 of the existing data 503. For example, in S403, it is determined that the weight w a is 0.2 and the weight w b is 0.8. From the ratios D a1 , D a2 , D b1 , and D b2 determined by S401 and S402, the ratio D 1 is 0.74 and the ratio D 2 is 0.26. Next, the balance adjusting unit 204 determines the number of data for each attribute from the ratios D 1 and D 2 for each attribute. The balance adjustment unit 204 calculates the number of data for each attribute in the learning subset by multiplying the ratios D 1 and D 2 of the amount of data by a predetermined number of data in the learning subset. As mentioned above, the number of data in the learning subset is 10,000. In that case, the number of data to be recognized for learning 502 in the learning subset is determined to be 7400, and the number of existing data 503 in the learning subset is determined to be 2600.

以上が、S304のバランス調整の処理内容である。このように、バランス調整部204は、重みwaとwbを用いて、評価値に基づくデータ収集と優先度に基づくデータ収集の比重を操作することにより、学習サブセット内のデータのバランスを適切に調整する。 The above is the processing content of the balance adjustment of S304. In this way, the balance adjustment unit 204 appropriately balances the data in the learning subset by manipulating the weights of the data collection based on the evaluation value and the data collection based on the priority by using the weights w a and w b. Adjust to.

次に、S305では、学習サブセット決定部205は、バランス調整部204から、学習サブセット内の属性ごとのデータ数を取得し、学習サブセットを決定する。以下に、学習サブセット決定部205の処理について説明する。学習サブセット決定部205は、バランス調整部204が決定した、学習サブセット内の属性ごとのデータ数に基づき、全学習データ504の一部の学習データを選択することで、学習サブセットを決定する。バランス調整部204は、学習サブセット内の学習用認識対象データ502のデータ数が7400であり、学習サブセット内の既存データ503のデータ数が2600であると決定した。学習サブセット決定部205は、これらのデータ数に合うように、学習データを選択し、学習サブセットを決定する。 Next, in S305, the learning subset determination unit 205 acquires the number of data for each attribute in the learning subset from the balance adjustment unit 204 and determines the learning subset. The processing of the learning subset determination unit 205 will be described below. The learning subset determination unit 205 determines the learning subset by selecting a part of the learning data of all the learning data 504 based on the number of data for each attribute in the learning subset determined by the balance adjustment unit 204. The balance adjusting unit 204 has determined that the number of data to be recognized for learning 502 in the learning subset is 7400, and the number of existing data 503 in the learning subset is 2600. The learning subset determination unit 205 selects learning data so as to match the number of these data, and determines the learning subset.

学習サブセット決定部205は、評価値に基づいて、学習サブセットを作成する上での学習データの選択を行う。学習サブセット決定部205は、バランス調整部204で決定した属性ごとのデータ数だけ、評価値の高い方から順に学習データを選択することにより、学習サブセットを決定する。その処理の手順を、図8を用いて説明する。全学習データ810は、学習用認識対象データ502を評価値が高い順に並べ、既存データ503を評価値の高い順に並べたものである。学習サブセット決定部205は、学習用認識対象データ502のうちの評価値が高い方から7400個の学習用認識対象データ811を選択し、既存データ503のうちの評価値が高い方から2600個の既存データ812を選択し、学習サブセット820を決定する。 The learning subset determination unit 205 selects learning data for creating the learning subset based on the evaluation value. The learning subset determination unit 205 determines the learning subset by selecting the learning data in order from the one with the highest evaluation value by the number of data for each attribute determined by the balance adjustment unit 204. The procedure of the process will be described with reference to FIG. In the total learning data 810, the recognition target data 502 for learning is arranged in descending order of evaluation value, and the existing data 503 is arranged in descending order of evaluation value. The learning subset determination unit 205 selects 7400 learning recognition target data 811 from the one with the highest evaluation value among the learning recognition target data 502, and 2600 from the one with the highest evaluation value among the existing data 503. The existing data 812 is selected and the learning subset 820 is determined.

次に、S306では、学習部206は、学習サブセット決定部205により決定された学習サブセットを用いて、学習途中のモデルの学習を行う。学習部206は、学習済みのモデルを、次の学習の評価値に用いるため、モデル格納部207に格納する。 Next, in S306, the learning unit 206 learns the model in the middle of learning by using the learning subset determined by the learning subset determination unit 205. The learning unit 206 stores the trained model in the model storage unit 207 in order to use it as an evaluation value for the next learning.

以上が一回の学習の流れである。学習部206は、学習を繰り返し行うため、S307では、学習部206は、学習回数が所定回数に到達したか否かを判定する。学習部206は、学習回数が所定回数に到達した場合には、処理を終了する。また、学習部206は、学習回数が所定回数に到達していない場合には、S302に戻り、評価部202と優先度設定部203とバランス調整部204と学習サブセット決定部205と学習部206は、S302からS306の一連の処理を所定回数繰り返す。なお、S302の評価は、S306の学習済みのモデルを用いて行う。このように、情報処理装置100が、学習モデルを更新しながら、一連の処理を繰り返すと、学習の進み具合に応じて、評価値の総和が変化するため、図7に示したように、重み決定部208の決定する重みwaとwbが変化する。したがって、情報処理装置100は、その時点のモデルの学習に合わせて、重みwaとwbを適切に変更しながら、データバランスを調整できる。 The above is the flow of one learning. Since the learning unit 206 repeatedly performs learning, in S307, the learning unit 206 determines whether or not the number of times of learning has reached a predetermined number of times. When the number of times of learning reaches a predetermined number of times, the learning unit 206 ends the process. Further, when the number of learnings has not reached the predetermined number, the learning unit 206 returns to S302, and the evaluation unit 202, the priority setting unit 203, the balance adjustment unit 204, the learning subset determination unit 205, and the learning unit 206 , S302 to S306 are repeated a predetermined number of times. The evaluation of S302 is performed using the trained model of S306. As described above, when the information processing apparatus 100 repeats a series of processes while updating the learning model, the sum of the evaluation values changes according to the progress of learning. Therefore, as shown in FIG. 7, the weights are weighted. The weights w a and w b determined by the determination unit 208 change. Therefore, the information processing apparatus 100 can adjust the data balance while appropriately changing the weights w a and w b according to the learning of the model at that time.

以上の方法により、情報処理装置100は、評価値の結果と優先度に基づいて、データのバランスを調整して学習サブセットを決定でき、有効な学習データをバランス良く集めて学習を実施できる。 According to the above method, the information processing apparatus 100 can adjust the balance of data to determine the learning subset based on the result and priority of the evaluation value, and can collect effective learning data in a well-balanced manner and perform learning.

なお、上述の説明では、評価部202は、入力データ全体を対象として評価を行ったが、入力データ全体から一部を抽出したデータセットを対象として評価してもよい。なお、上述したが、入力データは、学習データのうちの教師データを付与する対象のデータを指す。以下では、ここで抽出したデータセットのことを、学習サブセットと区別するため、学習候補サブセットと記載する。全学習データから所定数の学習データをランダムに抽出し、学習候補サブセットを作成し、学習候補サブセットに対して評価部202が評価を実施する。上記の説明では、学習サブセット決定部205は、全学習データから学習サブセットを決定したが、この場合は、学習候補サブセットから学習サブセットを決定する。この学習候補サブセットは、学習を繰り返す度に選択し直すものとする。このような学習を行うことで、学習の度にすべての入力データに対して評価を実施せずに済むため、処理時間を短縮することができる。また、毎回評価対象のデータが同じ場合は、評価値の上位に、学習の度に同じデータが集まることがあるが、学習候補サブセットから学習サブセットを作成することで、同じデータばかり収集することを防ぐことができる。 In the above description, the evaluation unit 202 evaluates the entire input data, but may evaluate the data set obtained by extracting a part from the entire input data. As described above, the input data refers to the data to which the teacher data is added among the learning data. In the following, the data set extracted here will be referred to as a learning candidate subset in order to distinguish it from the learning subset. A predetermined number of learning data are randomly extracted from all the learning data, a learning candidate subset is created, and the evaluation unit 202 evaluates the learning candidate subset. In the above description, the learning subset determination unit 205 determines the learning subset from all the learning data, but in this case, the learning subset is determined from the learning candidate subset. This learning candidate subset shall be reselected each time learning is repeated. By performing such learning, it is not necessary to evaluate all the input data each time the learning is performed, so that the processing time can be shortened. Also, if the data to be evaluated is the same each time, the same data may be collected at the top of the evaluation value each time learning is performed, but by creating a learning subset from the learning candidate subset, only the same data can be collected. Can be prevented.

なお、学習部206は、繰り返し学習を行う中で、重み決定部208が決定する重みwaとwbに基づき、学習を終了してもよい。具体的には、学習部206は、学習途中であっても、重みwaとwbの変化が閾値より小さくなったら、学習が収束していると判断し、学習を終了する。評価部202と優先度設定部203とバランス調整部204と学習サブセット決定部205と学習部206は、重みwaとwbの変化が閾値より小さくなるまで処理を繰り返す。この処理が有効となる場合として、学習が進むにつれて、評価値の総和が所定値を超えることがなくなる場合がある。この状態で学習を継続すると、重み決定部208が図9に示したルールに基づき重みを決定するとき、優先度に基づくデータ収集の重みが大きい状態で学習を何度も繰り返すことになる。その結果、序盤で学習した既存データ503の学習が忘却され、少量の学習用認識対象データ502ばかりを選択して学習することによる過学習が起きる。このようなケースにおいて、学習部206は、重みwaとwbの変化がなくなった段階で、学習を終了することにより、これらの問題を防ぐことができる。 The learning unit 206 may end the learning based on the weights w a and w b determined by the weight determining unit 208 during the iterative learning. Specifically, the learning unit 206 determines that the learning has converged when the change of the weights w a and w b becomes smaller than the threshold value even during the learning, and ends the learning. The evaluation unit 202, the priority setting unit 203, the balance adjustment unit 204, the learning subset determination unit 205, and the learning unit 206 repeat the process until the changes in the weights w a and w b become smaller than the threshold value. As a case where this process is effective, the sum of the evaluation values may not exceed a predetermined value as the learning progresses. If learning is continued in this state, when the weight determination unit 208 determines the weight based on the rule shown in FIG. 9, the learning is repeated many times in a state where the weight of data collection based on the priority is large. As a result, the learning of the existing data 503 learned in the early stage is forgotten, and over-learning occurs by selecting and learning only a small amount of the recognition target data 502 for learning. In such a case, the learning unit 206 can prevent these problems by ending the learning when the changes in the weights w a and w b have disappeared.

なお、ここまでの説明では、バランス調整部204は、重み決定部208が決定した重みwaとwbを用いてバランスを調整したが、重み決定部208を使用せずに、バランス調整部204が予め決めておいた重みを用いて処理を行ってもよい。具体的には、バランス調整部204は、学習回数ごとに重みを決めておき、学習の序盤では評価の結果に基づくデータ収集の重みが大きくなり、学習終盤では反対に優先度に基づくデータ収集の重みが大きくなるように、学習の度に重みを徐々に変化させる。より具体的には、バランス調整部204は、学習序盤では式(2)の重みwaとwbをそれぞれ0.9と0.1とし、学習中盤では重みwaとwbをそれぞれ0.5と0.5とし、学習終盤では重みwaとwbをそれぞれ0.1と0.9とする。バランス調整部204は、学習を繰り返す中で、このように重みを変化させることで、早い段階では間違えやすいデータを学習し、誤認識が少なく、かつ徐々に学習用認識対象データ502の特性に特化した学習を行うことができる。なお、重みは上記の例の他にも、過去に学習がうまくいったときの重み情報を参照して予め設定してもおいてもよい。 In the description so far, the balance adjusting unit 204 adjusts the balance by using the weights w a and w b determined by the weight determining unit 208, but the balance adjusting unit 204 does not use the weight determining unit 208. May perform the process using a predetermined weight. Specifically, the balance adjustment unit 204 determines the weight for each number of learnings, and the weight of data collection based on the evaluation result becomes large in the early stage of learning, and conversely, the weight of data collection based on the priority is increased in the final stage of learning. The weight is gradually changed with each learning so that the weight becomes large. More specifically, the balance adjusting unit 204 sets the weights w a and w b of the equation (2) to 0.9 and 0.1, respectively, in the early stage of learning, and sets the weights w a and w b of 0, respectively, in the middle stage of learning. It is set to 5 and 0.5, and the weights w a and w b are set to 0.1 and 0.9, respectively, at the end of learning. By changing the weight in this way while repeating learning, the balance adjustment unit 204 learns data that is easily mistaken at an early stage, has less false recognition, and is characterized by the characteristics of the recognition target data 502 for learning gradually. It is possible to carry out specialized learning. In addition to the above example, the weight may be set in advance by referring to the weight information when learning was successful in the past.

なお、上記では、学習サブセット決定部205が、全学習データの中から学習データを選択して学習サブセットを作成したが、この方法が適用できないケースがある。具体的には、特定の属性の学習データ数が少なく、バランス調整部204が決定した学習データ数を用意できない場合がある。この状況においては、学習サブセット決定部205は、バランス調整部204が決定する属性ごとの学習データ数に基づいて、入力データに対して画像処理変換を行ったデータを用いて、データ数を増加し、増加したデータを用いて学習サブセットを決定するとよい。画像処理変換には、例えば、回転や反転などの幾何学変換や、色調変換や階調変換がある。このような処理により、データ数を調整することで、特に学習したい属性の学習データが少ない場合であっても、バランス良く学習サブセットを作成できる。 In the above, the learning subset determination unit 205 selects learning data from all the learning data to create a learning subset, but there are cases where this method cannot be applied. Specifically, the number of learning data of a specific attribute may be small, and the number of learning data determined by the balance adjusting unit 204 may not be prepared. In this situation, the learning subset determination unit 205 increases the number of data by using the data obtained by performing image processing conversion on the input data based on the number of training data for each attribute determined by the balance adjustment unit 204. , It is advisable to use the increased data to determine the learning subset. Image processing transformations include, for example, geometric transformations such as rotation and inversion, color tone transformations, and gradation transformations. By adjusting the number of data by such processing, a learning subset can be created in a well-balanced manner even when the learning data of the attribute to be learned is particularly small.

なお、上記の説明では、重み決定部208は、評価値の総和に基づいて重みwaとwbを決定したが、誤った入力データの数をカウントし、その結果に基づき重みwaとwbを決定してもよい。この方法では、重み決定部208は、画素単位で誤検知の量を集計するのではなく、誤検知画素数が所定値より大きい入力データの数を誤識別した入力データとしてカウントする。重み決定部208は、誤った入力データ数が所定値より多い場合は、式(2)の評価値に基づくデータ収集の重みwaを大きくし、誤った入力データ数が所定数より少ない場合は、式(2)の優先度に基づくデータ収集の重みwbを大きくする。重み決定部208は、誤った入力データ数に基づき重みwaとwbを決定すると、評価値の総和に基づき重みwaとwbを決定するより計算コストを削減できる。 In the above description, the weight determination unit 208 determines the weights w a and w b based on the sum of the evaluation values, but counts the number of erroneous input data and the weights w a and w based on the result. b may be determined. In this method, the weight determination unit 208 does not total the amount of false positives on a pixel-by-pixel basis, but counts the number of input data in which the number of false positive pixels is larger than a predetermined value as the falsely identified input data. The weight determination unit 208 increases the weight w a of data collection based on the evaluation value of the equation (2) when the number of erroneous input data is larger than the predetermined value, and increases the weight w a when the number of erroneous input data is less than the predetermined value. , Increase the weight w b of data collection based on the priority of equation (2). When the weight determination unit 208 determines the weights w a and w b based on the number of erroneous input data, the calculation cost can be reduced as compared with the determination of the weights w a and w b based on the sum of the evaluation values.

<優先度の設定方法のバリエーション>
なお、上述の説明では、属性は学習用認識対象データ502と既存データ503の2種類とし、属性が学習用認識対象データ502の入力データは優先度が高いものとしたが、属性および優先度の適用範囲はこれに限定されない。ここでは、属性として上記以外の例を挙げながら、優先度を学習用認識対象データ502に基づき決める方法を3種類説明する。
<Variations of priority setting method>
In the above description, there are two types of attributes, the recognition target data 502 for learning and the existing data 503, and the input data of the recognition target data 502 for learning has a high priority. The scope of application is not limited to this. Here, three types of methods for determining the priority based on the learning recognition target data 502 will be described with reference to examples other than the above as attributes.

1つ目は、ユーザ操作に基づき優先度を決定する方法である。この方法では、優先度設定部203は、ユーザ操作に応じて、認識対象の画像と類似した既存データ503の画像を、優先して学習できるように優先度を設定する。処理の流れとしては、まず、優先度設定部203は、表示部105を介して学習用認識対象データ502に関する情報を画面に表示し、次に操作部106を介してユーザから選択操作を受け付け、ユーザ操作に基づき優先度を設定する。具体的には、既存データ503として、壁面上にチョークで線がひかれた画像ばかりを集めたデータセット、型枠の画像ばかりを集めたデータセット、ぼけた画像ばかりを集めたデータセットがあるとする。属性はデータセットの種類とし、学習用認識対象データ502、チョークの既存データ503、型枠の既存データ503、ぼけの既存データ503の4種類とする。上記の説明では、学習用認識対象データ502を優先度の高いものとしたが、ここでは学習用認識対象データ502に限らず、既存データ503の中にも比較的優先して学習したいデータがある状況を想定する。例えば、人が学習用認識対象データ502の一部を見て、画像内にチョークでひいた線があることを認識したとする。チョークで線をひいた箇所は線状のため、ひび割れ検知用のモデルを適用するとひび割れと誤認識しやすいことから、チョークで引いた線の映ったデータは優先して学習すべきデータであると人が判断する。この判断を踏まえ、優先度設定部203は、学習用認識対象データ502とチョークの既存データ503の優先度を高く設定し、残りの型枠とぼけの既存データ503の優先度を低く設定する。例えば、属性が学習用認識対象データ502、チョークの既存データ503、型枠の既存データ503、ぼけの既存データ503の優先度をそれぞれ、0.5、0.3、0.1、0.1のように設定する。 The first is a method of determining the priority based on the user operation. In this method, the priority setting unit 203 sets the priority so that the image of the existing data 503 similar to the image to be recognized can be preferentially learned according to the user operation. As a processing flow, first, the priority setting unit 203 displays information on the learning recognition target data 502 on the screen via the display unit 105, and then accepts a selection operation from the user via the operation unit 106. Set the priority based on the user operation. Specifically, as existing data 503, there is a data set that collects only images with lines drawn with chalk on the wall surface, a data set that collects only images of the mold, and a data set that collects only blurred images. do. The attributes are the types of data sets, and are four types: recognition target data 502 for learning, existing data 503 for chokes, existing data 503 for formwork, and existing data 503 for blurring. In the above explanation, the learning recognition target data 502 has a high priority, but here, not only the learning recognition target data 502 but also the existing data 503 includes data to be learned with relatively high priority. Imagine a situation. For example, suppose that a person looks at a part of the recognition target data 502 for learning and recognizes that there is a line drawn with chalk in the image. Since the part drawn with the chalk is linear, it is easy to mistakenly recognize it as a crack when applying the model for crack detection, so the data showing the line drawn with the chalk is the data that should be learned with priority. People judge. Based on this determination, the priority setting unit 203 sets the priority of the learning recognition target data 502 and the existing data 503 of the choke to be high, and sets the priority of the remaining formwork and the existing data 503 of blur to be low. For example, the priorities of the recognition target data 502 for learning, the existing data 503 of the choke, the existing data 503 of the formwork, and the existing data 503 of the blur are 0.5, 0.3, 0.1, and 0.1, respectively. Set as.

この方法を実現するためユーザインターフェースの具体例を図6のウィンドウ610に示す。優先度設定部203は、表示部105を介して、図6のウィンドウ610を表示する。ウィンドウ610には、学習用認識対象データ611と、既存データ503の属性に関する情報612が表示される。ウィンドウ610に学習用認識対象データ611も表示しておくことで、どの属性のデータが学習に役立つかを判断しやすくなる。簡単のため、情報612には、チョーク、型枠、ぼけの属性をA、B、Cと記載している。情報612は、既存データ503の各属性にチェック欄を有する。そして、操作部106によりユーザにマウスポインタ613を操作させる。ユーザがチェック欄にマウスポインタ613を重ねてクリック操作をすると、表示部105がチェック欄にチェックを表示する。このような表示部105と操作部106の処理により優先度の高い入力データを決める。ウィンドウ610の例は、ユーザがチョークのチェック欄にチェックを入れたときのイメージを表している。なお、図6には、既存データ503の属性情報として、属性名称のみを記載する例を示したが、各属性の画像のサンプルを表示してもよい。画像のサンプルも表示すると、優先度を高くするべき入力データをユーザは直感的に判断しやすくなる。 A specific example of the user interface for realizing this method is shown in window 610 of FIG. The priority setting unit 203 displays the window 610 of FIG. 6 via the display unit 105. In the window 610, the recognition target data 611 for learning and the information 612 regarding the attributes of the existing data 503 are displayed. By displaying the recognition target data 611 for learning in the window 610, it becomes easy to determine which attribute data is useful for learning. For simplicity, information 612 describes the attributes of choke, formwork, and blur as A, B, and C. Information 612 has a check column for each attribute of the existing data 503. Then, the operation unit 106 causes the user to operate the mouse pointer 613. When the user puts the mouse pointer 613 on the check field and clicks it, the display unit 105 displays the check in the check field. Input data having a high priority is determined by such processing of the display unit 105 and the operation unit 106. The example of window 610 shows an image when the user checks the chalk check box. Although FIG. 6 shows an example in which only the attribute name is described as the attribute information of the existing data 503, an image sample of each attribute may be displayed. Displaying a sample image also makes it easier for the user to intuitively determine the input data that should be given higher priority.

優先度の設定方法バリエーションの2つ目は、属性の共通性に基づき優先度を決定する方法である。ここでは、学習用認識対象データ502、構造物S1の既存データ503、構造物S2の既存データ503、構造物S3の既存データ503のデータセットがあるとする。また、データ格納部201は、データセットごとに複数の属性の情報を格納する。ここまでの例では、データセットの種類を属性としたが、ここではより詳細な複数のデータ情報を属性とする。具体的には、図12に示す例のように、構造物の種類と、壁面状態と、撮影条件を属性として、データセットごとに格納しておく。優先度設定部203は、学習用認識対象データ502の属性とその他のデータセットの属性を照合し、共通する属性のあるデータセットの優先度を高く設定する。図12の例では、各データセットについて、属性ごとに該当する場合には○、該当しない場合は×と記載している。ここでは、ひび割れを検知したい対象の構造物の画像を学習用認識対象データ502とする。例えば、構造物の種類の属性に着目すると、学習用認識対象データ502と、構造物S1の既存データ503と、構造物S2の既存データ503は、橋梁の画像の学習データであり、構造物S3の既存データ503は、トンネルの画像の学習データである。優先度の高いデータを決める際には、属性の一致数が最も多いデータを選択する。このとき、予め、必ず一致しなければならない属性を設定しておくようにしてもよい。例えば、構造物の種類は、重要な属性であるとして、まず、少なくとも構造物種類の属性が一致するデータセットを選択する。そして、構造物の種類に基づいて選択したデータセットの中から、属性が最も一致するものを選択する。なお、図12の例では、属性として構造物の種類や撮影条件を記載しているが、解像度や入力データの構造物全体における座標情報であってもよい。 Priority setting method The second variation is a method of determining the priority based on the commonality of attributes. Here, it is assumed that there is a data set of the recognition target data 502 for learning, the existing data 503 of the structure S1, the existing data 503 of the structure S2, and the existing data 503 of the structure S3. In addition, the data storage unit 201 stores information on a plurality of attributes for each data set. In the examples so far, the type of data set is used as an attribute, but here, a plurality of more detailed data information is used as an attribute. Specifically, as in the example shown in FIG. 12, the type of structure, the wall surface state, and the shooting conditions are stored as attributes for each data set. The priority setting unit 203 collates the attributes of the learning recognition target data 502 with the attributes of other data sets, and sets the priority of the data set having the common attributes to be high. In the example of FIG. 12, for each data set, if it corresponds to each attribute, it is described as ◯, and if it does not correspond, it is described as ×. Here, the image of the target structure for which cracks are to be detected is used as the learning recognition target data 502. For example, focusing on the attribute of the type of the structure, the recognition target data 502 for learning, the existing data 503 of the structure S1, and the existing data 503 of the structure S2 are the learning data of the image of the bridge, and the structure S3. The existing data 503 of the above is the training data of the image of the tunnel. When determining high-priority data, select the data with the highest number of attribute matches. At this time, attributes that must always match may be set in advance. For example, assuming that the structure type is an important attribute, first select a dataset that matches at least the structure type attribute. Then, from the datasets selected based on the type of structure, the one with the most matching attributes is selected. In the example of FIG. 12, the type of the structure and the shooting conditions are described as attributes, but the resolution and the coordinate information of the input data in the entire structure may be used.

優先度の設定方法バリエーションの3つ目は、入力データの統計量に基づき優先度を決定する方法である。この方法では、優先度設定部203は、学習用認識対象データ502と既存データ503から入力データの特性を表す統計量を属性として取得し、属性に基づき、既存データ503の優先度を決定する。例えば、既存データ503として、3種類の構造物の壁面画像のデータセットS1、S2、およびS3があるとする。統計量は、例えば入力データの画像のテクスチャ情報などの特徴量を取得し、データセットごとに特徴量の重心や平均、中央値などを算出することにより求める。テクスチャ情報は、例えば周波数成分の取得方法の1つであるフーリエ変換を入力データに適用することにより抽出できる。優先度設定部203は、統計量を求めたら、データセットごとに統計量の重心を算出する。優先度設定部203は、学習用認識対象データ502と各データセットの統計量の重心の距離を算出し、これを属性とする。学習用認識対象データ502の重心位置と近いデータセットの入力データは、学習用認識対象データ502に合った学習ができると判断し、優先度を高く設定する。このように、優先度設定部203は、統計量に基づき優先度を設定することで、例えば学習用認識対象データ502と背景の雰囲気が似ているデータセットを優先的に選択することができる。画像の雰囲気が似ているものを人が判断するのは主観が入るため難しいが、このような統計量を用いた方法ではデータセットごとに自動的に優先度を設定できる。 Priority setting method The third variation is a method of determining the priority based on the statistic of the input data. In this method, the priority setting unit 203 acquires a statistic representing the characteristics of the input data from the learning recognition target data 502 and the existing data 503 as an attribute, and determines the priority of the existing data 503 based on the attribute. For example, suppose that the existing data 503 includes data sets S1, S2, and S3 of wall surface images of three types of structures. The statistic is obtained by acquiring the feature amount such as the texture information of the image of the input data and calculating the center of gravity, the average, the median value, etc. of the feature amount for each data set. Texture information can be extracted, for example, by applying a Fourier transform, which is one of the methods for acquiring frequency components, to input data. After obtaining the statistic, the priority setting unit 203 calculates the center of gravity of the statistic for each data set. The priority setting unit 203 calculates the distance between the learning recognition target data 502 and the center of gravity of the statistic of each data set, and sets this as an attribute. It is determined that the input data of the data set close to the position of the center of gravity of the learning recognition target data 502 can be learned according to the learning recognition target data 502, and the priority is set high. In this way, the priority setting unit 203 can preferentially select a data set having a background atmosphere similar to that of the learning recognition target data 502 by setting the priority based on the statistic. It is difficult for a person to judge what the image atmosphere is similar because it is subjective, but in the method using such statistics, the priority can be automatically set for each data set.

<学習サブセット決定部205の補足>
上記の説明では、学習サブセット決定部205は、図8で説明した属性ごとに評価値の高い学習データを選択して学習サブセットを作成したが、入力データが複数の属性と紐づいている場合は、この方法はそのまま適用することができない。具体的には、学習用認識対象データ502と既存データ503を混ぜて学習する場合において、属性は入力データ(画像)の内容とし、ここでは、属性は、学習用認識対象データ502、既存データ503、ひび割れが映っているデータ、ひび割れが映っていないデータの4種類とする。このうち、学習用認識対象データ502、ひび割れが映っているデータの優先度が高いとする。ひび割れが映っているかどうかは、例えば入力データとペアをなしている教師データにひび割れを示す画素があるかどうかで判断する。ひび割れが映っているデータは、学習用認識対象データ502にも既存データ503にも存在する。このとき、学習用認識対象データ502であり、かつひび割れが映っているデータは、2つの属性と紐づくことになる。このような場合、上記の学習サブセット決定部205の説明に記したように、属性ごとにリストを作成して評価値の高いデータを学習に用いるデータとして収集すると、同じ入力データが複数の属性のリストから選択され、学習データに重複が生じる。1回の学習に用いる学習データの数が固定値である場合、学習サブセット内に重複したデータがあると、1回の学習に用いる学習データのバリエーションが減少してしまう。この場合は、学習サブセットから重複分のデータを除去した上で、学習サブセットが所定数に到達するよう、各属性のリストから他のデータを選択して学習サブセットを補充する必要がある。具体的には、学習サブセット決定部205は、学習用認識対象データ502とひび割れの映ったデータについて、評価値の順に並べたリストをそれぞれ作成する。例えば、学習サブセット決定部205は、学習用認識対象データ502のリストの評価値の高い方から5000個のデータを選択し、ひび割れの映ったデータのリストから5000個のデータを選択する。このとき、学習用認識対象データ502のリストから選択したデータとひび割れの映ったデータのリストから選択したデータにおいて、1000個のデータが重複したとする。このとき、学習サブセット決定部205は、重複した1000個のデータを学習サブセットから除去する。続いて、学習サブセット決定部205は、補充のため、各リストから評価値が5001番目に高いデータから5500番目に高いデータをそれぞれ選択し、学習サブセットに追加する。そして、学習サブセット決定部205は、このような除去と補充の処理を重複がなくなるまで繰り返すことで、学習サブセットを作成する。なお、補充する際、データの選択方法はこれに限らず、ランダムに選択してもよい。以上のように、学習サブセット決定部205は、学習サブセットを決定する際に、データの重複を考慮することにより、一回の学習に用いる学習データのバリエーションの減少を防ぐことができる。
<Supplement to learning subset determination unit 205>
In the above description, the learning subset determination unit 205 creates the learning subset by selecting the learning data having a high evaluation value for each attribute described in FIG. 8, but when the input data is associated with a plurality of attributes, , This method cannot be applied as it is. Specifically, in the case of learning by mixing the learning recognition target data 502 and the existing data 503, the attribute is the content of the input data (image), and here, the attribute is the learning recognition target data 502 and the existing data 503. , Data with cracks and data without cracks. Of these, it is assumed that the recognition target data 502 for learning and the data showing cracks have high priority. Whether or not a crack is reflected is determined by, for example, whether or not there is a pixel indicating a crack in the teacher data paired with the input data. The data in which the cracks are reflected exists in both the learning recognition target data 502 and the existing data 503. At this time, the data to be recognized for learning 502 and the data in which the cracks are reflected are associated with the two attributes. In such a case, as described in the explanation of the learning subset determination unit 205 above, if a list is created for each attribute and data having a high evaluation value is collected as data used for learning, the same input data can be obtained for a plurality of attributes. It is selected from the list and the training data is duplicated. When the number of learning data used for one learning is a fixed value, if there is duplicate data in the learning subset, the variation of the learning data used for one learning is reduced. In this case, after removing the duplicated data from the learning subset, it is necessary to supplement the learning subset by selecting other data from the list of each attribute so that the learning subset reaches a predetermined number. Specifically, the learning subset determination unit 205 creates a list in which the recognition target data 502 for learning and the data in which the cracks are reflected are arranged in the order of evaluation values. For example, the learning subset determination unit 205 selects 5000 data from the list of the data to be recognized for learning 502 with the highest evaluation value, and selects 5000 data from the list of the data in which the cracks are reflected. At this time, it is assumed that 1000 data are duplicated in the data selected from the list of the recognition target data 502 for learning and the data selected from the list of the cracked data. At this time, the learning subset determination unit 205 removes 1000 duplicate data from the learning subset. Subsequently, the learning subset determination unit 205 selects from each list the data having the highest evaluation value of 5001 to the data having the highest evaluation value of 5500, and adds the data to the learning subset for supplementation. Then, the learning subset determination unit 205 creates a learning subset by repeating such a process of removal and replenishment until there is no duplication. When replenishing, the data selection method is not limited to this, and may be randomly selected. As described above, the learning subset determination unit 205 can prevent a decrease in the variation of the learning data used for one learning by considering the duplication of data when determining the learning subset.

<実施形態2>
実施形態1では、バランス調整部204は、評価値に基づき決まる仮のデータ量の割合と、優先度に基づき決まる仮のデータ量の割合に基づき、データ量を決定したが、バランス調整方法はこれに限定されない。実施形態2では、バランス調整部204は、評価値と優先度に基づき、入力データごとにサンプル重みという指標を算出する。サンプル重みは、学習サブセット作成の際に用いる指標である。具体的には、サンプル重みは、評価値も優先度も高い場合は大きくなり、どちらも低い場合は小さくなるようにする。こうすることで、学習サブセット作成の際に、サンプル重みが大きい入力データは選択されやすく、サンプル重みが小さい入力データは選択されにくくなる。つまり、バランス調整部204は、サンプル重みを算出することで、学習サブセット作成時に選択するデータを制御することによって、データのバランスを調整することになる。
<Embodiment 2>
In the first embodiment, the balance adjustment unit 204 determines the amount of data based on the ratio of the provisional data amount determined based on the evaluation value and the ratio of the provisional data amount determined based on the priority. Not limited to. In the second embodiment, the balance adjusting unit 204 calculates an index called a sample weight for each input data based on the evaluation value and the priority. The sample weight is an index used when creating a learning subset. Specifically, the sample weight is increased when both the evaluation value and the priority are high, and decreased when both are low. By doing so, when creating the learning subset, the input data having a large sample weight is easily selected, and the input data having a small sample weight is difficult to be selected. That is, the balance adjusting unit 204 adjusts the balance of the data by calculating the sample weight and controlling the data selected at the time of creating the learning subset.

実施形態2では、実施形態1と同様に、インフラ構造物の点検を目的として、ひび割れ認識のための学習を行う例について説明する。実施形態2では、実施形態1と同様に、認識対象の構造物の壁面画像の一部に教師データを付与して学習用認識対象データ502とする。 In the second embodiment, as in the first embodiment, an example in which learning for crack recognition is performed for the purpose of inspecting the infrastructure structure will be described. In the second embodiment, as in the first embodiment, teacher data is added to a part of the wall surface image of the structure to be recognized to obtain the recognition target data 502 for learning.

以下に、各機能部の処理について説明する。データ格納部201は、学習用認識対象データ502と既存データ503を格納している。属性は、実施形態1と同様に、学習用認識対象データ502と既存データ503の2種類とする。 The processing of each functional unit will be described below. The data storage unit 201 stores the learning recognition target data 502 and the existing data 503. Similar to the first embodiment, there are two types of attributes, the recognition target data 502 for learning and the existing data 503.

評価部202と優先度設定部203の処理は実施形態1と同様であるため、詳細な説明は省略する。評価部202は、評価値として、入力データごとに教師データを用いて誤検知画素数を取得する。優先度設定部203は、学習用認識対象データ502の方が既存データ503より優先度が高いものとし、学習用認識対象データ502の優先度を0.9とし、既存データ503の優先度を0.1とする。 Since the processing of the evaluation unit 202 and the priority setting unit 203 is the same as that of the first embodiment, detailed description thereof will be omitted. The evaluation unit 202 acquires the number of erroneous detection pixels by using the teacher data for each input data as the evaluation value. The priority setting unit 203 assumes that the learning recognition target data 502 has a higher priority than the existing data 503, sets the priority of the learning recognition target data 502 to 0.9, and sets the priority of the existing data 503 to 0. Let it be 1.1.

次に、バランス調整部204の処理について説明する。バランス調整部204は、評価値と優先度に基づき、サンプル重みを算出する。バランス調整部204は、サンプル重みを算出することにより、学習サブセットを決定する際に選択されるデータのバランスを調整する。サンプル重みは、評価値と属性ごとの優先度から、入力データごとに算出する値である。例えば、バランス調整部204は、評価値と属性ごとの優先度との積を、サンプル重みとして算出する。学習サブセット決定部205は、後のステップで学習サブセットを作成する際に、サンプル重みが大きいデータを収集することで、評価値と優先度が総合的に高いデータを選択することができる。具体的な例を図9に示す。図9には、入力データごとに、評価値と、優先度と、サンプル重みを記載している。入力データd1は、評価値と優先度が高いため、サンプル重みの値も大きくなることから、学習サブセット作成の際に選択されやすい。入力データd2と入力データd3は、評価値は同じであるが、優先度に差がある。入力データd2は、評価値と優先度の積を算出すると、優先度が高いため、サンプル重みが比較的大きくなり、学習サブセット作成の際に選択されやすくなる。一方、入力データd3は、優先度が低いため、サンプル重みが比較的小さくなり、学習サブセット作成の際に選択されにくくなる。このように、バランス調整部204は、サンプル重みを算出することにより、学習サブセット作成時に選択されるデータのバランスを調整できる。 Next, the processing of the balance adjusting unit 204 will be described. The balance adjustment unit 204 calculates the sample weight based on the evaluation value and the priority. The balance adjustment unit 204 adjusts the balance of the data selected when determining the learning subset by calculating the sample weight. The sample weight is a value calculated for each input data from the evaluation value and the priority for each attribute. For example, the balance adjustment unit 204 calculates the product of the evaluation value and the priority for each attribute as a sample weight. When the learning subset determination unit 205 creates the learning subset in a later step, it can select data having a high evaluation value and a high priority by collecting data having a large sample weight. A specific example is shown in FIG. FIG. 9 shows the evaluation value, the priority, and the sample weight for each input data. Since the input data d1 has a high evaluation value and a high priority, the sample weight value also becomes large, so that it is easy to be selected when creating the learning subset. The input data d2 and the input data d3 have the same evaluation value, but have different priorities. When the product of the evaluation value and the priority is calculated, the input data d2 has a high priority, so that the sample weight becomes relatively large and it is easy to be selected when creating the learning subset. On the other hand, since the input data d3 has a low priority, the sample weight becomes relatively small, and it becomes difficult to select the input data d3 when creating the learning subset. In this way, the balance adjusting unit 204 can adjust the balance of the data selected at the time of creating the learning subset by calculating the sample weight.

次に、学習サブセット決定部205の処理について説明する。学習サブセット決定部205は、バランス調整部204が算出したサンプル重みに基づき、全学習データ504の一部の学習データを選択することで、学習サブセットを決定する。まず、学習サブセット決定部205は、サンプル重みの高い順に入力データを並び替える。図9に、並び替えた入力データ910を示す。次に、学習サブセット決定部205は、サンプル重みの値が高い方から所定数の入力データ911を選択し、学習サブセットとして決定する。 Next, the processing of the learning subset determination unit 205 will be described. The learning subset determination unit 205 determines the learning subset by selecting a part of the learning data of all the learning data 504 based on the sample weight calculated by the balance adjustment unit 204. First, the learning subset determination unit 205 sorts the input data in descending order of sample weight. FIG. 9 shows the sorted input data 910. Next, the learning subset determination unit 205 selects a predetermined number of input data 911 from the one with the highest sample weight value, and determines as the learning subset.

ここまでの処理が完了したら、学習部206は、学習サブセットを用いて、学習途中のモデルの学習を行う。情報処理装置100は、以上の処理を行うことにより、評価値と優先度に基づき、サンプル重みを算出することにより、学習サブセットを決定する際に選択されるデータを制御し、データのバランスを調整できる。 When the processing up to this point is completed, the learning unit 206 trains the model in the middle of learning using the learning subset. The information processing apparatus 100 controls the data selected when determining the learning subset by calculating the sample weight based on the evaluation value and the priority by performing the above processing, and adjusts the balance of the data. can.

なお、上記の説明では、サンプル重みの算出方法は、評価値と優先度の積としたが、算出方法はこれに限定されない。例えば、バランス調整部204は、式(3)により、評価値xと優先度yの線形和を基に、サンプル重みswを算出する。 In the above description, the sample weight calculation method is the product of the evaluation value and the priority, but the calculation method is not limited to this. For example, the balance adjusting unit 204 calculates the sample weight sw based on the linear sum of the evaluation value x and the priority y according to the equation (3).

Figure 2021165909
Figure 2021165909

ここで、αとβは、係数である。αとβは、予め決定しておく。バランス調整部204は、入力データごとに、評価値xと優先度yを式(3)に代入するとで、サンプル重みswを算出する。式(3)のように、バランス調整部204は、係数αとβを利用することによって、評価値xに基づくデータ収集と、優先度yに基づくデータ収集のバランスを設定することができる。 Here, α and β are coefficients. α and β are determined in advance. The balance adjusting unit 204 calculates the sample weight sw by substituting the evaluation value x and the priority y into the equation (3) for each input data. As shown in the equation (3), the balance adjusting unit 204 can set the balance between the data collection based on the evaluation value x and the data collection based on the priority y by using the coefficients α and β.

<実施形態3>
実施形態3では、実施形態1と同様に、バランス調整部204が、評価値に基づき決まる仮のデータ量の割合と、優先度に基づき決まる仮のデータ量の割合に、重みづけを行うことによりデータのバランスを調整する。ただし、実施形態1と3では、重みwaとwbの決定方法が異なる。実施形態1では、重み決定部208は、評価値の総和に基づいて重みwaとwbを決定した。実施形態3では、重み決定部208は、学習データセットごとに適切な重みがあるはずであるという仮定の下、過去の学習で蓄積した情報を用いて適切な重みを推定する式を構築し、これから学習する学習データセットにおいて適切な重みを推定する。重み決定部208は、重み推定式を用いて、学習データセットに応じて、より適切な重みを設定する。
<Embodiment 3>
In the third embodiment, as in the first embodiment, the balance adjusting unit 204 weights the ratio of the provisional data amount determined based on the evaluation value and the ratio of the provisional data amount determined based on the priority. Adjust the data balance. However, the methods for determining the weights w a and w b are different between the first and third embodiments. In the first embodiment, the weight determination unit 208 determines the weights w a and w b based on the sum of the evaluation values. In the third embodiment, the weight determination unit 208 constructs an equation for estimating an appropriate weight using the information accumulated in the past learning, assuming that there should be an appropriate weight for each training data set. Estimate the appropriate weights for the training data set to be learned. The weight determination unit 208 uses the weight estimation formula to set more appropriate weights according to the training data set.

実施形態3の大まかな流れを説明する。まず、情報処理装置100は、学習データセットに対して様々な重みを用いて学習を行い、学習後にモデルの性能に基づき、その学習データセットにおいて最適な重みを決定する。情報処理装置100は、このような処理を、様々な学習データセットに対して実行し、学習データセットごとに適切な重みを調べる。次に、情報処理装置100は、学習データセットごとに、学習データセット全体としての特徴量を取得し、学習データセットごとに、特徴量と最適な重みのペアを作成する。これらの処理が完了したら、情報処理装置100は、特徴量と最適な重みのペアを多数用いて、特徴量と最適な重みの関係を表す式を構築し、これを重み推定式とする。情報処理装置100は、重み推定式を構築することにより、モデルを学習する対象の学習データセットのデータセット全体の特徴量とモデルから、この学習データに適した重みを推定できるようになる。 The general flow of the third embodiment will be described. First, the information processing apparatus 100 learns the training data set using various weights, and after learning, determines the optimum weight in the training data set based on the performance of the model. The information processing apparatus 100 executes such processing on various training data sets, and checks an appropriate weight for each training data set. Next, the information processing apparatus 100 acquires the feature amount of the entire training data set for each training data set, and creates a pair of the feature amount and the optimum weight for each training data set. When these processes are completed, the information processing apparatus 100 constructs an equation expressing the relationship between the feature quantity and the optimum weight by using a large number of pairs of the feature quantity and the optimum weight, and uses this as a weight estimation formula. By constructing the weight estimation formula, the information processing apparatus 100 can estimate the weight suitable for the training data from the feature amount and the model of the entire data set of the training data set for which the model is to be trained.

情報処理装置100は、このような処理を実現するため、これまでの実施形態とは異なり、事前準備を必要とする。事前準備には、過去の情報を蓄積する処理と、蓄積した情報から重み推定式を構築する処理がある。事前準備が完了したら、情報処理装置100は、新しい学習用認識対象データ502を対象として重み推定式により適切な重みを推定し、学習を行う。 In order to realize such processing, the information processing apparatus 100 requires advance preparation unlike the conventional embodiments. The advance preparation includes a process of accumulating past information and a process of constructing a weight estimation formula from the accumulated information. When the preparation is completed, the information processing apparatus 100 estimates an appropriate weight by the weight estimation formula for the new recognition target data 502 for learning, and performs learning.

実施形態3で扱うデータは、ここまでの実施形態と同様に、インフラ点検用の構造物壁面画像とする。また、他の実施形態と同様に、認識対象データ501は、学習に用いる部分を学習用認識対象データ502とし、テストに用いる部分をテスト用認識対象データとする。そして、学習部206は、テスト用認識対象データを高性能に検知することを目的として学習を行う。データ格納部201は、学習用認識対象データ502と、既存データ503を格納している。属性は、実施形態1と同様に、学習用認識対象データ502と、既存データ503の2種類とする。 The data handled in the third embodiment is an image of the wall surface of the structure for infrastructure inspection, as in the previous embodiments. Further, as in the other embodiment, in the recognition target data 501, the part used for learning is the learning recognition target data 502, and the part used for the test is the test recognition target data. Then, the learning unit 206 performs learning for the purpose of detecting the recognition target data for the test with high performance. The data storage unit 201 stores the learning recognition target data 502 and the existing data 503. Similar to the first embodiment, there are two types of attributes, the recognition target data 502 for learning and the existing data 503.

図10は、実施形態3に係る情報処理装置100の機能構成例を示すブロック図である。図10の情報処理装置100は、図2の情報処理装置100に対して、抽出部209と、蓄積部210と、重み学習部211と、分析部212を追加したものである。追加した構成要素も事前準備に用いる。 FIG. 10 is a block diagram showing a functional configuration example of the information processing apparatus 100 according to the third embodiment. The information processing device 100 of FIG. 10 is obtained by adding an extraction unit 209, a storage unit 210, a weight learning unit 211, and an analysis unit 212 to the information processing device 100 of FIG. The added components are also used for advance preparation.

以下に、情報処理装置100の処理内容について説明する。まず、1つ目の事前準備として、情報を蓄積する処理について説明する。ここでは、情報処理装置100は、過去に高性能なモデルを生成できたときに用いた重みの情報を蓄積していく。具体的には、情報処理装置100は、実施形態1で説明した式(2)の重みwaとwbの設定値の組み合わせを変更しながら複数回学習を行い、学習の結果生成されるモデルの性能を比較し、性能に基づき最適な重みを決定する。また、分析部212は、学習に用いるデータから、データの特性を表す特徴量を取得しておく。そして、分析部212は、最適な重みと特徴量を、蓄積部210に格納する。 The processing contents of the information processing apparatus 100 will be described below. First, as the first preparation, the process of accumulating information will be described. Here, the information processing apparatus 100 accumulates weight information used when a high-performance model could be generated in the past. Specifically, the information processing apparatus 100 performs learning a plurality of times while changing the combination of the set values of the weights w a and w b of the equation (2) described in the first embodiment, and the model generated as a result of the learning. Compare the performance of and determine the optimum weight based on the performance. In addition, the analysis unit 212 acquires a feature amount representing the characteristics of the data from the data used for learning. Then, the analysis unit 212 stores the optimum weight and feature amount in the storage unit 210.

図11は、情報処理装置100の情報処理方法を示すフローチャートである。なお、図11に記載のS301からS303、S304からS306の処理は、図3に記載の同一番号の処理と同じため、詳細な説明は省略する。 FIG. 11 is a flowchart showing an information processing method of the information processing apparatus 100. Since the processes of S301 to S303 and S304 to S306 described in FIG. 11 are the same as the processes of the same number shown in FIG. 3, detailed description thereof will be omitted.

まず、情報処理装置100は、図3と同様に、S301からS303の処理を行う。S301からS303で評価部202と優先度設定部203の処理が完了したら、S1101では、重み決定部208は、仮の重みを複数設定する。例えば、重み決定部208は、式(2)の重みwaとwbの設定値の組み合わせをランダムに5種類用意する。 First, the information processing apparatus 100 processes S301 to S303 in the same manner as in FIG. When the processing of the evaluation unit 202 and the priority setting unit 203 is completed in S301 to S303, the weight determination unit 208 sets a plurality of temporary weights in S1101. For example, the weight determination unit 208 randomly prepares five types of combinations of the set values of the weights w a and w b in the equation (2).

次に、S1102では、重み決定部208は、仮の重みを1つ選択する。次に、S304では、バランス調整部204は、仮の重みを用いてデータのバランスを決定し、学習サブセット内の属性ごとのデータ数を算出する。次に、S305では、学習サブセット決定部205は、学習サブセットを決定する。次に、S306では、学習部206は、学習サブセットを用いて、モデルの学習を実施する。 Next, in S1102, the weight determination unit 208 selects one temporary weight. Next, in S304, the balance adjusting unit 204 determines the balance of the data using the tentative weight, and calculates the number of data for each attribute in the learning subset. Next, in S305, the learning subset determination unit 205 determines the learning subset. Next, in S306, the learning unit 206 trains the model using the learning subset.

S1102からS306の処理は、仮の重みを変更しながら繰り返す。S1103では、学習部206は、一通りの仮の重みを使って処理が完了したか否かを判定する。学習部206は、完了していない場合には、S1102に戻り、完了している場合には、S1104に進む。仮の重みは5種類用意したため、この時点でモデルは、仮の重みごとに、5つ生成されている。学習部206は、これらのモデルをモデル格納部207に格納しておく。 The processing of S1102 to S306 is repeated while changing the temporary weight. In S1103, the learning unit 206 determines whether or not the process is completed by using a set of temporary weights. The learning unit 206 returns to S1102 if it is not completed, and proceeds to S1104 if it is completed. Since five types of tentative weights are prepared, five models are generated for each tentative weight at this point. The learning unit 206 stores these models in the model storage unit 207.

次に、S1104では、分析部212は、モデル格納部207に格納されたモデルの性能を評価し、最適な重みを決める。分析部212は、モデル格納部207に格納されているモデルの評価を行い、最も性能の高いモデルを分析する。性能評価は、例えばテスト用認識対象データの一部に追加で教師データを付与し、そのテスト用認識対象データの領域に認識処理を行い、認識結果と教師データの差異を調べることにより行う。そして、分析部212は、性能の高いモデルを生成したときに用いた仮の重みを、最適な重みとして決定する。 Next, in S1104, the analysis unit 212 evaluates the performance of the model stored in the model storage unit 207 and determines the optimum weight. The analysis unit 212 evaluates the model stored in the model storage unit 207 and analyzes the model having the highest performance. Performance evaluation is performed by, for example, adding teacher data to a part of the test recognition target data, performing recognition processing on the area of the test recognition target data, and examining the difference between the recognition result and the teacher data. Then, the analysis unit 212 determines the tentative weight used when the high-performance model is generated as the optimum weight.

以上のように、仮の重みを変更しながら、バランス調整部204と学習サブセット決定部205と学習部206は、それぞれ、それぞれの仮の重みに対する処理を行う。分析部212は、評価部であり、学習部206により学習されたそれぞれの仮の重みに対するモデルの性能を評価し、最も性能が高いモデルに対応する仮の重みを最適な重みとして決定する。 As described above, the balance adjustment unit 204, the learning subset determination unit 205, and the learning unit 206 each perform processing on each of the temporary weights while changing the temporary weights. The analysis unit 212 is an evaluation unit, evaluates the performance of the model with respect to each temporary weight learned by the learning unit 206, and determines the temporary weight corresponding to the model with the highest performance as the optimum weight.

次に、S1105では、抽出部209は、学習用認識対象データ502と既存データ503を合わせた学習データのデータセット全体としての特徴量を抽出する。抽出部209は、特徴量抽出法として、例えばデータセットの入力データ(画像)ごとに、一般的に画像処理分野で使用されるヒストグラムを算出し、全入力データのヒストグラムから平均値や分散を算出し、この結果をデータセット全体の特徴量とする。ヒストグラムは、画像の輝度値ごとに、その輝度値を持つ画素の数をカウントすることで得られる情報である。特徴量を取得する対象は、上記では学習用認識対象データ502と既存データ503を合わせた学習データ全体としたが、これに限定されない。抽出部209は、他にも、学習データ全体のうち、既存データ503は含めずに、学習用認識対象データ502だけを、特徴量抽出の対象とすることもできる。また、抽出部209は、学習用認識対象データ502とテスト用認識対象データを合わせたデータセットを、特徴量抽出の対象とすることもできる。 Next, in S1105, the extraction unit 209 extracts the feature amount of the entire data set of the learning data, which is the combination of the learning recognition target data 502 and the existing data 503. As a feature amount extraction method, the extraction unit 209 calculates a histogram generally used in the image processing field for each input data (image) of a data set, and calculates an average value and a variance from the histogram of all the input data. Then, this result is used as the feature quantity of the entire data set. The histogram is information obtained by counting the number of pixels having the brightness value for each brightness value of the image. In the above, the target for acquiring the feature amount is the entire learning data including the recognition target data 502 for learning and the existing data 503, but the target is not limited to this. In addition, the extraction unit 209 may set only the learning recognition target data 502 as the target of feature quantity extraction without including the existing data 503 in the entire learning data. Further, the extraction unit 209 can also set a data set in which the learning recognition target data 502 and the test recognition target data are combined as the target of feature quantity extraction.

最後に、S1106では、蓄積部210は、最適な重みと特徴量を合わせて格納する。以上が1つ目の事前準備である。情報処理装置100は、このような処理を、様々な学習用認識対象データ502を対象に実施し、学習データセットごとに、最適な重みと特徴量の情報を蓄積していく。なお、図11では、情報処理装置100は、S1104で最適な重みを決め、S1105で特徴量を抽出した後に、S1106で情報を格納する処理を実行したが、処理の順番は必ずしもこの通りでなくてよい。情報を格納するS1106は、S1104で最適な重みを決めた後と、S1105で特徴量を抽出した後の両方にあってもよい。また、特徴量を抽出するS1105は、S301からS1104を通して最適な重みを決める処理と独立しているため、どの段階で実行してもよい。 Finally, in S1106, the storage unit 210 stores the optimum weight and the feature amount together. The above is the first preparation. The information processing device 100 performs such processing on various learning recognition target data 502, and accumulates information on the optimum weight and feature amount for each learning data set. In FIG. 11, the information processing apparatus 100 determines the optimum weight in S1104, extracts the feature amount in S1105, and then executes the process of storing the information in S1106, but the order of the processes is not necessarily the same. It's okay. The S1106 for storing the information may be located both after the optimum weight is determined in S1104 and after the feature amount is extracted in S1105. Further, since S1105 for extracting the feature amount is independent of the process of determining the optimum weight through S301 to S1104, it may be executed at any stage.

次に、2つ目の事前準備として、重み学習部211は、構築部であり、蓄積部210から最適な重みと特徴量の情報を受け取り、最適な重みと特徴量を基に、特徴量に基づき重みを推定する推定式を構築する。重み学習部211が重み推定式を構築することで、新しい学習用認識対象データ502の学習を行う際に、重み推定式により、学習用認識対象データ502の学習に合った重みを決めることができる。式(4)と式(5)に、重みwaとwbの推定式の例を示す。 Next, as a second preparation, the weight learning unit 211 is a construction unit, receives information on the optimum weight and feature amount from the storage unit 210, and uses the optimum weight and feature amount as the feature amount. Build an estimation formula to estimate the weight based on it. By constructing the weight estimation formula by the weight learning unit 211, when the new learning recognition target data 502 is learned, the weight estimation formula can be used to determine the weight suitable for the learning of the learning recognition target data 502. .. Equations (4) and (5) show examples of estimation equations for the weights w a and w b.

Figure 2021165909
Figure 2021165909

ここで、nは、特徴量の次元数である。kは、特徴量の次元ごとに異なる添え字である。xkは、特徴量である。akは、係数である。重み学習部211は、式(4)の係数akを決定することで、特徴量xkから重みwaとwbを推定する推定式を構築できる。係数akは、蓄積部210から取得する最適な重みと特徴量のペアを複数用いて、最小二乗法により決定することができる。最小二乗法は、入力値と教師値と、実際の出力値の差が最小となるように係数を決定する方法である。ここでは、入力値が特徴量xk、教師値が蓄積部210から取得する最適な重みに相当する。 Here, n is the number of dimensions of the feature quantity. k is a subscript that differs depending on the dimension of the feature quantity. x k is a feature quantity. a k is a coefficient. The weight learning unit 211 can construct an estimation formula for estimating the weights w a and w b from the feature quantity x k by determining the coefficient a k of the formula (4). The coefficient a k can be determined by the least squares method using a plurality of optimal weight / feature pairs obtained from the storage unit 210. The least squares method is a method of determining the coefficient so that the difference between the input value, the teacher value, and the actual output value is minimized. Here, the input value corresponds to the feature amount x k , and the teacher value corresponds to the optimum weight acquired from the storage unit 210.

ここまでが事前準備である。事前準備が完了したら、重み決定部208は、重み推定式(4)と(5)を用いて、重みwaとwbを算出する。そして、情報処理装置100は、重みwaとwbを用いて、実施形態1と同様に、ひび割れ検知を目的としたモデルを生成するための学習を行う。以降の処理では、抽出部209の処理が加わることと、重み決定部208の処理が変わることを除くと、実施形態1と同じである。そのため、抽出部209と重み決定部208について説明し、その他の処理の詳細は省略する。 This is the preparation. When the preparation is completed, the weight determination unit 208 calculates the weights w a and w b using the weight estimation equations (4) and (5). Then, the information processing apparatus 100 uses the weights w a and w b to perform learning for generating a model for crack detection, as in the first embodiment. Subsequent processing is the same as that of the first embodiment except that the processing of the extraction unit 209 is added and the processing of the weight determination unit 208 is changed. Therefore, the extraction unit 209 and the weight determination unit 208 will be described, and the details of other processes will be omitted.

抽出部209は、新しい学習用認識対象データ502と既存データ503を含む学習データの全体の特徴量を抽出する。ここでは、抽出部209は、事前準備のS1105で用いた特徴量抽出法と同じ方法により、学習データのデータセット全体としての特徴量を抽出する。上記の例では、抽出部209は、特徴量としてヒストグラムを用いたため、ここでもヒストグラムを特徴量として抽出する。 The extraction unit 209 extracts the entire feature amount of the learning data including the new recognition target data 502 for learning and the existing data 503. Here, the extraction unit 209 extracts the feature amount of the entire data set of the training data by the same method as the feature amount extraction method used in S1105 prepared in advance. In the above example, since the extraction unit 209 uses the histogram as the feature amount, the histogram is also extracted as the feature amount here.

次に、重み決定部208は、重み学習部211から重み推定式を受け取り、抽出部209から特徴量を受け取り、重み推定式を用いて、その特徴量に基づき重みwaとwbを決定する。重み決定部208は、重み推定式(4)に特徴量を代入することにより、学習用認識対象データ502に合った重みwaとwbを算出する。バランス調整部204は、ここで算出された重みwaとwbを受け取り、データバランスを調整する。この他の処理は、実施形態1と同様の処理により実施できる。 Next, the weight determination unit 208 receives the weight estimation formula from the weight learning unit 211, receives the feature amount from the extraction unit 209, and determines the weights w a and w b based on the feature amount using the weight estimation formula. .. The weight determination unit 208 calculates the weights w a and w b that match the learning recognition target data 502 by substituting the feature amount into the weight estimation formula (4). The balance adjusting unit 204 receives the weights w a and w b calculated here, and adjusts the data balance. Other processing can be carried out by the same processing as in the first embodiment.

以上のように、情報処理装置100は、重み推定式を構築し、学習データセットに応じて適切な重みwaとwbを推定して、データバランスを調整し、学習を実施することができる。 As described above, the information processing apparatus 100 can construct a weight estimation formula, estimate appropriate weights w a and w b according to the learning data set, adjust the data balance, and perform learning. ..

<実施形態4>
以上の実施形態では、認識対象の例として、インフラ構造物の点検のための、ひび割れ認識を例に説明した。適応対象は、これに限らず、他の用途に用いてもよい。実施形態4では、他の適応先として、監視カメラ等の固定カメラで用いる認識モデルの学習について説明する。なお、実施形態4のハードウェア構成と機能構成は、実施形態1〜3と同様であるので、説明を省略する。
<Embodiment 4>
In the above embodiment, as an example of the recognition target, crack recognition for inspection of the infrastructure structure has been described as an example. The applicable target is not limited to this, and may be used for other purposes. In the fourth embodiment, learning of a recognition model used in a fixed camera such as a surveillance camera will be described as another adaptation destination. Since the hardware configuration and the functional configuration of the fourth embodiment are the same as those of the first to third embodiments, the description thereof will be omitted.

監視カメラ等の固定カメラにおいて、実施形態4の目的は、固定カメラを設置した環境で不審者を検出するための学習を行うことである。この目的に情報処理装置100を適用するためには、データ格納部201が格納するデータを、固定カメラでの認識に関するデータに変更すればよい。データ格納部201が格納するデータや優先度設定部203の処理を除けば、他の実施形態と同様の処理により学習を実施できる。従って、以下では、固定カメラを対象とした場合のデータ格納部201が格納するデータについて説明する。 In a fixed camera such as a surveillance camera, an object of the fourth embodiment is to perform learning for detecting a suspicious person in an environment in which the fixed camera is installed. In order to apply the information processing device 100 for this purpose, the data stored in the data storage unit 201 may be changed to the data related to recognition by the fixed camera. Learning can be performed by the same processing as in other embodiments, except for the data stored in the data storage unit 201 and the processing of the priority setting unit 203. Therefore, in the following, the data stored in the data storage unit 201 when the fixed camera is targeted will be described.

本実施形態では、認識対象データ501として固定カメラで撮影した動画のデータセットを作成し、その一部に教師データを付与した学習用認識対象データ502を用意してデータ格納部201に格納する。データ格納部201は、学習用認識対象データ502の他に、既存データ503を格納している。既存データ503は、認識対象データ501とは異なる環境で撮影されたデータであり、不審者が映っているデータセット、マスク着用者が映っているデータセット、夜間に撮影したデータセットを含む。学習データは、これまでの実施形態と同様に、入力データと教師データのペアから構成されるが、異なる点として、教師データは画像単位で設定する。具体的には、不審者が映っている入力データには1の教師データが付与され、その他の入力データには0の教師データが付与される。情報処理装置100は、このような学習データを用いてモデルの学習を行い、検知結果として画像ごとに、不審者が映っている可能性の高い場合は1に近い数値、そうでない場合は0に近い数値を出力するモデルを生成する。また、属性は、データセットの種類とし、学習用認識対象データ502と、不審者データの既存データ503と、マスク着用者データの既存データ503と、夜間撮影データの既存データ503の4種類である。 In the present embodiment, a data set of a moving image taken by a fixed camera is created as recognition target data 501, and learning recognition target data 502 to which teacher data is added to a part of the data set is prepared and stored in the data storage unit 201. The data storage unit 201 stores the existing data 503 in addition to the learning recognition target data 502. The existing data 503 is data taken in an environment different from the recognition target data 501, and includes a data set in which a suspicious person is shown, a data set in which a mask wearer is shown, and a data set taken at night. The learning data is composed of a pair of input data and teacher data as in the conventional embodiments, but the difference is that the teacher data is set for each image. Specifically, 1 teacher data is given to the input data in which the suspicious person is shown, and 0 teacher data is given to the other input data. The information processing device 100 learns a model using such learning data, and sets a value close to 1 when there is a high possibility that a suspicious person is shown as a detection result for each image, and 0 otherwise. Generate a model that outputs close values. Further, the attributes are four types of data set, that is, the recognition target data 502 for learning, the existing data 503 of the suspicious person data, the existing data 503 of the mask wearer data, and the existing data 503 of the night photography data. ..

他の各機能部の処理は、ここまでに説明した実施形態と同様の処理のため、詳細な説明は省略する。評価部202は、データ格納部201のデータを受け取り、学習途中のモデルを用いて不審者を検知する処理を実行し、検知結果と教師データを比較して入力データごとに評価値を取得する。評価値は、例えば、入力データごとに、検知結果と教師データの誤差二乗和を算出した結果とする。優先度設定部203は、固定カメラを設置した環境で不審者を検出することを目的とした学習のため、学習用認識対象データ502、不審者データの既存データ503の優先度を高く設定する。その後、バランス調整部204は、評価の結果と優先度に基づき学習サブセット内の属性ごとのデータ量を調整する。最後に、学習サブセット決定部205は、そのデータ量に基づき学習サブセットを作成し、学習部206が学習を行う。 Since the processing of each of the other functional parts is the same as that of the embodiments described so far, detailed description thereof will be omitted. The evaluation unit 202 receives the data of the data storage unit 201, executes a process of detecting a suspicious person using the model in the middle of learning, compares the detection result with the teacher data, and acquires an evaluation value for each input data. The evaluation value is, for example, the result of calculating the sum of the error squares of the detection result and the teacher data for each input data. The priority setting unit 203 sets the priority of the recognition target data 502 for learning and the existing data 503 of the suspicious person data to be high for learning for the purpose of detecting a suspicious person in the environment where the fixed camera is installed. After that, the balance adjustment unit 204 adjusts the amount of data for each attribute in the learning subset based on the evaluation result and priority. Finally, the learning subset determination unit 205 creates a learning subset based on the amount of data, and the learning unit 206 performs learning.

以上に説明したように、情報処理装置100は、属性を変更することにより、任意の認識対象のモデル選択に利用することができる。 As described above, the information processing apparatus 100 can be used for model selection of an arbitrary recognition target by changing the attributes.

なお、以上の説明では、入力データは画像とし、教師データは画素単位や画像単位で与えたが、これに限定されない。入力データは、画像に限らず、音声データやテキストデータであってもよい。また、教師データは、画素単位ではなくデータ単位で与えることもできる。情報処理装置100は、各実施形態に説明した内容と同様の処理を実施することができる。 In the above description, the input data is an image, and the teacher data is given in pixel units or image units, but the present invention is not limited to this. The input data is not limited to images, but may be voice data or text data. Further, the teacher data can be given not in pixel units but in data units. The information processing device 100 can perform the same processing as the contents described in each embodiment.

実施形態1〜実施形態4によれば、情報処理装置100は、様々な属性の学習データを混ぜて学習するとき、学習に有効な学習データをバランス良く集めて、学習サブセットを作成することができる。情報処理装置100は、モデルが苦手な学習データを調べた結果と、属性を考慮して学習データのバランスを調整して学習サブセットを作成できる。 According to the first to fourth embodiments, the information processing apparatus 100 can create a learning subset by collecting learning data effective for learning in a well-balanced manner when learning by mixing learning data of various attributes. .. The information processing device 100 can create a learning subset by adjusting the balance of the learning data in consideration of the result of examining the learning data that the model is not good at and the attributes.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that all of the above embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100 情報処理装置,201 データ格納部,202 評価部,203 優先度設定部,204 バランス調整部,205 学習サブセット決定部,206 学習部,207 モデル格納部,208 重み決定部 100 Information processing device, 201 Data storage unit, 202 Evaluation unit, 203 Priority setting unit, 204 Balance adjustment unit, 205 Learning subset determination unit, 206 Learning unit, 207 Model storage unit, 208 Weight determination unit

Claims (18)

各々が入力データと教師データを含む複数の学習データを入力し、モデルを用いて、前記教師データに基づいて前記入力データの各々の評価値を取得する第1の評価手段と、
前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定手段と、
前記決定された学習サブセットを用いて、前記モデルの学習を行う学習手段と
を有することを特徴とする情報処理装置。
A first evaluation means, each of which inputs a plurality of training data including input data and teacher data, and obtains an evaluation value of each of the input data based on the teacher data by using a model.
A learning subset determination means for selecting a part of the learning data from the plurality of learning data and determining the learning subset based on the evaluation value and the priority for each attribute of the learning data.
An information processing apparatus comprising a learning means for learning the model using the determined learning subset.
前記評価値に基づく前記学習データの属性ごとのデータ量の割合と、前記優先度に基づく前記学習データの属性ごとのデータ量の割合とを基に、学習サブセット内の属性ごとのデータ量の割合を調整する調整手段をさらに有し、
前記学習サブセット決定手段は、前記調整された学習サブセット内の属性ごとのデータ量の割合を基に、前記複数の学習データの中の一部の学習データを選択し、前記学習サブセットを決定することを特徴とする請求項1に記載の情報処理装置。
The ratio of the amount of data for each attribute in the training subset based on the ratio of the amount of data for each attribute of the training data based on the evaluation value and the ratio of the amount of data for each attribute of the training data based on the priority. Further have adjustment means to adjust
The learning subset determining means selects a part of the learning data from the plurality of learning data based on the ratio of the amount of data for each attribute in the adjusted learning subset, and determines the learning subset. The information processing apparatus according to claim 1.
前記調整手段は、前記評価値に基づく前記学習データの属性ごとのデータ量の割合と、前記優先度に基づく前記学習データの属性ごとのデータ量の割合とを重みづけ加算することにより、前記学習サブセット内の属性ごとのデータ量の割合を算出することを特徴とする請求項2に記載の情報処理装置。 The adjusting means weights and adds the ratio of the amount of data for each attribute of the training data based on the evaluation value and the ratio of the amount of data for each attribute of the learning data based on the priority. The information processing apparatus according to claim 2, wherein the ratio of the amount of data for each attribute in the subset is calculated. 前記入力データの各々の評価値を基に、重みを決定する重み決定手段をさらに有し、
前記調整手段は、前記重みを基に、重みづけ加算することを特徴とする請求項3に記載の情報処理装置。
It further has a weight determining means for determining the weight based on each evaluation value of the input data.
The information processing apparatus according to claim 3, wherein the adjusting means is weighted and added based on the weights.
前記学習サブセット決定手段は、前記評価値を基に、前記複数の学習データの中の一部の学習データを選択することを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 4, wherein the learning subset determining means selects a part of the learning data from the plurality of learning data based on the evaluation value. Device. 前記学習サブセット決定手段は、前記評価値と前記学習データの属性ごとの優先度との積または線形和を基に、前記複数の学習データの中の一部の学習データを選択することを特徴とする請求項1に記載の情報処理装置。 The learning subset determining means is characterized in that a part of the learning data among the plurality of learning data is selected based on the product or linear sum of the evaluation value and the priority of each attribute of the learning data. The information processing apparatus according to claim 1. 重みを変更しながら、前記調整手段と前記学習サブセット決定手段と前記学習手段は、それぞれ、それぞれの重みに対する処理を行い、
前記学習手段により学習されたそれぞれの重みに対するモデルの性能を評価し、最も性能が高いモデルに対応する重みを第1の重みとして決定する第2の評価手段をさらに有することを特徴とする請求項3に記載の情報処理装置。
While changing the weights, the adjusting means, the learning subset determining means, and the learning means each perform processing on their respective weights.
The claim is characterized by further having a second evaluation means for evaluating the performance of the model with respect to each weight learned by the learning means and determining the weight corresponding to the model with the highest performance as the first weight. The information processing apparatus according to 3.
前記複数の学習データの全体の第1の特徴量を抽出する抽出手段と、
前記第1の重みと前記第1の特徴量を基に、特徴量に基づき重みを推定する式を構築する構築手段とをさらに有し、
前記抽出手段は、新しい複数の学習データの全体の第2の特徴量を抽出し、
前記式を用いて、前記第2の特徴量に基づき重みを決定する重み決定手段をさらに有し、
前記調整手段は、前記決定された重みを基に、重みづけ加算することを特徴とする請求項7に記載の情報処理装置。
An extraction means for extracting the first feature amount of the entire plurality of training data, and an extraction means.
It further has a construction means for constructing an equation for estimating the weight based on the feature amount based on the first weight and the first feature amount.
The extraction means extracts the second feature amount of the whole of the new plurality of training data.
It further has a weight determining means for determining the weight based on the second feature amount by using the above formula.
The information processing apparatus according to claim 7, wherein the adjusting means is weighted and added based on the determined weight.
前記属性は、前記入力データに対応づけて格納されていることを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the attribute is stored in association with the input data. 前記属性は、前記入力データの統計量であることを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the attribute is a statistic of the input data. 前記第1の評価手段は、前記入力データの認識処理を行い、前記認識処理の結果と前記教師データとに基づく誤差二乗和、誤検知画素数、または未検知画素数を、前記評価値として取得することを特徴とする請求項1〜10のいずれか1項に記載の情報処理装置。 The first evaluation means performs recognition processing of the input data, and acquires the sum of squares of errors, the number of false detection pixels, or the number of undetected pixels based on the result of the recognition processing and the teacher data as the evaluation value. The information processing apparatus according to any one of claims 1 to 10, wherein the information processing apparatus is used. ユーザの操作に応じて、前記学習データの属性ごとの優先度を設定する優先度設定手段をさらに有することを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 11, further comprising a priority setting means for setting a priority for each attribute of the learning data according to a user operation. 前記属性は、認識対象データと既存データを含み、
前記属性が認識対象データである場合の優先度は、前記属性が既存データである場合の優先度より高いことを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。
The attributes include recognition target data and existing data.
The information processing apparatus according to any one of claims 1 to 11, wherein the priority when the attribute is recognition target data is higher than the priority when the attribute is existing data.
前記第1の評価手段と前記学習サブセット決定手段と前記学習手段は、処理を所定回数繰り返すことを特徴とする請求項1〜13のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 13, wherein the first evaluation means, the learning subset determining means, and the learning means repeat processing a predetermined number of times. 前記第1の評価手段と前記重み決定手段と前記調整手段と前記学習サブセット決定手段と前記学習手段は、前記重みの変化が閾値より小さくなるまで処理を繰り返すことを特徴とする請求項4に記載の情報処理装置。 The fourth aspect of claim 4, wherein the first evaluation means, the weight determination means, the adjustment means, the learning subset determination means, and the learning means repeat processing until the change in the weight becomes smaller than the threshold value. Information processing device. 前記学習サブセット決定手段は、前記入力データに対して画像処理変換を行ったデータを用いて、前記学習サブセットを決定することを特徴とする請求項1〜15のいずれか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 15, wherein the learning subset determining means determines the learning subset using data obtained by performing image processing conversion on the input data. Device. 各々が入力データと教師データを含む複数の学習データを入力し、モデルを用いて、前記教師データに基づいて前記入力データの各々の評価値を取得する第1の評価ステップと、
前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定ステップと、
前記決定された学習サブセットを用いて、前記モデルの学習を行う学習ステップと
を有することを特徴とする情報処理装置の情報処理方法。
A first evaluation step in which a plurality of training data including input data and teacher data are input, and an evaluation value of each of the input data is acquired based on the teacher data using a model.
A learning subset determination step of selecting a part of the learning data from the plurality of learning data and determining the learning subset based on the evaluation value and the priority of each attribute of the learning data.
An information processing method for an information processing apparatus, which comprises a learning step for learning the model using the determined learning subset.
コンピュータを、請求項1〜16のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 16.
JP2020068649A 2020-04-06 2020-04-06 Information processing apparatus, information processing method for information processing apparatus, and program Pending JP2021165909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068649A JP2021165909A (en) 2020-04-06 2020-04-06 Information processing apparatus, information processing method for information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068649A JP2021165909A (en) 2020-04-06 2020-04-06 Information processing apparatus, information processing method for information processing apparatus, and program

Publications (1)

Publication Number Publication Date
JP2021165909A true JP2021165909A (en) 2021-10-14

Family

ID=78022119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068649A Pending JP2021165909A (en) 2020-04-06 2020-04-06 Information processing apparatus, information processing method for information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP2021165909A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7217570B1 (en) * 2022-08-04 2023-02-03 株式会社センシンロボティクス Information processing system and program, information processing method, server
CN116909169A (en) * 2023-09-14 2023-10-20 光轮智能(北京)科技有限公司 Training method of operation control model, operation control method, equipment and medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7217570B1 (en) * 2022-08-04 2023-02-03 株式会社センシンロボティクス Information processing system and program, information processing method, server
WO2024029046A1 (en) * 2022-08-04 2024-02-08 株式会社センシンロボティクス Information processing system and program, information processing method, and server
CN116909169A (en) * 2023-09-14 2023-10-20 光轮智能(北京)科技有限公司 Training method of operation control model, operation control method, equipment and medium
CN116909169B (en) * 2023-09-14 2023-12-19 光轮智能(北京)科技有限公司 Training method of operation control model, operation control method, equipment and medium

Similar Documents

Publication Publication Date Title
JP7493323B2 (en) Information processing device, method for controlling information processing device, and program
JP2016133895A (en) Information processing device, information processing method, and program
WO2020192442A1 (en) Method for generating classifier using a small number of annotated images
JPWO2019026104A1 (en) Information processing apparatus, information processing program, and information processing method
JP6973625B2 (en) Learning equipment, learning methods and learning programs
JP6897749B2 (en) Learning methods, learning systems, and learning programs
JP6844564B2 (en) Inspection system, identification system, and learning data generator
JP2016040650A (en) Classifier construction method, image classifying method, and image classifying device
CN111126278A (en) Target detection model optimization and acceleration method for few-category scene
WO2023280229A1 (en) Image processing method, electronic device, and storage medium
JP2021165909A (en) Information processing apparatus, information processing method for information processing apparatus, and program
KR102364865B1 (en) A method and apparatus for determining whether the product is defective or not
CN112348809A (en) No-reference screen content image quality evaluation method based on multitask deep learning
CN111414930B (en) Deep learning model training method and device, electronic equipment and storage medium
CN113283467B (en) Weak supervision picture classification method based on average loss and category-by-category selection
CN111539456A (en) Target identification method and device
JP2016110626A (en) Classifying method, inspection method, inspection apparatus, and program
CN116977271A (en) Defect detection method, model training method, device and electronic equipment
CN115345848A (en) Quality inspection method of display screen based on big data
JP2016062249A (en) Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program
CN114511715A (en) Driving scene data mining method
CN113627522A (en) Image classification method, device and equipment based on relational network and storage medium
CN113516328A (en) Data processing method, service providing method, device, equipment and storage medium
Chee et al. Detecting Corruption in Real Video Game Graphics using Deep Convolutional Neural Networks.
CN118644667B (en) Method and device for detecting surface defects of hub based on deep learning