JP2021165909A - Information processing apparatus, information processing method for information processing apparatus, and program - Google Patents
Information processing apparatus, information processing method for information processing apparatus, and program Download PDFInfo
- Publication number
- JP2021165909A JP2021165909A JP2020068649A JP2020068649A JP2021165909A JP 2021165909 A JP2021165909 A JP 2021165909A JP 2020068649 A JP2020068649 A JP 2020068649A JP 2020068649 A JP2020068649 A JP 2020068649A JP 2021165909 A JP2021165909 A JP 2021165909A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- subset
- information processing
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理装置の情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method and a program of the information processing device.
機械学習では、学習に有効なデータを集めて学習データを作成し、学習を行うことが、モデルの性能を高める上で重要である。有効な学習データを作成するための方法として、学習途中のモデルを用いて学習データに対して認識処理を行い、誤認識した一部のデータを抽出した学習データを作成して学習する方法が知られている。この学習方法では、モデルが誤認識した苦手なデータを集中的に学習できるため、すべてのデータを学習するより効率的に学習を行うことができる。しかし、学習データに複数の属性のデータが存在するとき、この方法を適用すると、特定の属性のデータばかりが収集されてデータに偏りが生じる場合がある。そのため、属性も考慮してバランス良く学習するのが望ましい。特許文献1には、データの属性を考慮して、あらゆる属性のデータをバランス良く集めて学習する方法が記載されている。
In machine learning, it is important to collect data effective for learning, create learning data, and perform learning in order to improve the performance of the model. As a method for creating effective learning data, it is known how to perform recognition processing on learning data using a model in the middle of learning and create learning data by extracting some misrecognized data for learning. Has been done. In this learning method, it is possible to intensively learn the data that the model is not good at erroneously recognizing, so that the learning can be performed more efficiently than learning all the data. However, when there are data of a plurality of attributes in the training data, if this method is applied, only the data of a specific attribute may be collected and the data may be biased. Therefore, it is desirable to study in a well-balanced manner in consideration of attributes.
複数の属性のデータを混ぜて学習するとき、モデルが苦手とするデータを調べた結果と、どの属性のデータを優先的に学習するかという情報の両方を考慮してバランス良く学習データを作成することが重要である。この課題に対して、現状では、両方を考慮してデータバランスを調整し、学習データを作成する方法は開示されていない。特許文献1では、属性を考慮して学習データを作成する方法について述べられているが、モデルが苦手なデータを調べた結果に基づく学習データの選択は行っていない。
When learning by mixing data of multiple attributes, create training data in a well-balanced manner by considering both the result of examining the data that the model is not good at and the information of which attribute data is to be learned preferentially. This is very important. At present, there is no disclosure of a method of adjusting the data balance and creating learning data in consideration of both of them.
本発明の目的は、学習に有効な学習データをバランス良く選択して学習サブセットを決定できるようにすることである。 An object of the present invention is to be able to determine a learning subset by selecting learning data effective for learning in a well-balanced manner.
本発明の情報処理装置は、各々が入力データと教師データを含む複数の学習データを入力し、モデルを用いて、前記教師データに基づいて前記入力データの各々の評価値を取得する第1の評価手段と、前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定手段と、前記決定された学習サブセットを用いて、前記モデルの学習を行う学習手段とを有する。 The information processing apparatus of the present invention is a first method in which a plurality of learning data including input data and teacher data are input, and an evaluation value of each of the input data is acquired based on the teacher data by using a model. An evaluation means, a learning subset determining means for selecting a part of the learning data from the plurality of learning data based on the evaluation value and the priority for each attribute of the learning data, and determining the learning subset. It has a learning means for learning the model using the determined learning subset.
本発明によれば、学習に有効な学習データをバランス良く選択して学習サブセットを決定することができる。 According to the present invention, learning data effective for learning can be selected in a well-balanced manner to determine a learning subset.
<実施形態1>
実施形態1は、複数の属性のデータを混ぜて学習するとき、学習に有効なデータをバランス良く集めて学習データを作成するための方法に関する。はじめに、実施形態1の前提について説明する。
<
The first embodiment relates to a method for creating learning data by collecting data effective for learning in a well-balanced manner when learning by mixing data of a plurality of attributes. First, the premise of the first embodiment will be described.
まず、前提とするデータの状況について述べる。実施形態1は、特定の認識対象のデータを高性能に認識するモデルを作ることを学習の目的とする。そして、実施形態1は、認識対象のデータの一部に教師データを付与し、そのデータを用いて学習を行い、教師データを付与していない残りのデータを認識することを想定している。以降、区別しやすさのため、認識対象データのうち学習に用いる一部のデータを学習用認識対象データ、残りのデータをテスト用認識対象データと記載する。 First, the status of the assumed data will be described. The purpose of the first embodiment is to create a model that recognizes data of a specific recognition target with high performance. Then, in the first embodiment, it is assumed that teacher data is added to a part of the data to be recognized, learning is performed using the data, and the remaining data to which the teacher data is not added is recognized. Hereinafter, for ease of distinction, some of the recognition target data used for learning will be referred to as learning recognition target data, and the remaining data will be referred to as test recognition target data.
テスト用認識対象データを高性能に認識する目的において、学習用認識対象データは、テスト用認識対象データと同じ認識対象のデータから取得するデータであるため、重要である。しかし、学習用認識対象データの量は非常に少なく、テスト用認識対象データに存在するすべてのパターンを含んでいるわけではない。このため、学習用認識対象データのみを用いて学習してモデルを作成しても、テスト用認識対象データ全体を高性能に認識することは困難である。 For the purpose of recognizing the test recognition target data with high performance, the learning recognition target data is important because it is data acquired from the same recognition target data as the test recognition target data. However, the amount of recognition target data for training is very small, and it does not include all the patterns existing in the recognition target data for testing. Therefore, even if the model is created by learning using only the recognition target data for learning, it is difficult to recognize the entire recognition target data for testing with high performance.
このような状況では、一般的に、学習用認識対象データに、データ量を補充する目的で既存のデータを混ぜて学習する。既存データは、膨大であり、上述の目的において無駄なデータも多いが、中には学習に有効なデータ、具体的には認識対象データの違いによらず存在する間違えやすいパターンのデータを含んでいる。間違えやすいパターンは、テスト用認識対象データにも存在する可能性がある。したがって、学習用認識対象データに既存データを混ぜて学習することにより、学習用認識対象データのみを用いて学習するより誤認識を抑制できる場合がある。ただし、あくまで既存データは、学習用認識対象データを補充するためのデータであり、優先的に学習したいデータは、学習用認識対象データである。 In such a situation, in general, the recognition target data for learning is learned by mixing the existing data for the purpose of supplementing the amount of data. The existing data is enormous, and there are many useless data for the above-mentioned purpose, but some of them include data that is effective for learning, specifically, data that exists regardless of the difference in the data to be recognized and that is easily mistaken. There is. A pattern that is easy to make a mistake may also exist in the test recognition target data. Therefore, by learning by mixing the existing data with the learning recognition target data, it may be possible to suppress erroneous recognition as compared with learning using only the learning recognition target data. However, the existing data is data for supplementing the learning recognition target data, and the data to be preferentially learned is the learning recognition target data.
また、機械学習では、学習途中のモデルが誤認識した苦手なデータの一部の学習データを抽出した学習データを作成して学習するフレームワークが用いられる。実施形態1は、このフレームワークを基本とした学習を行うことを前提とする。具体的には、学習途中のモデルを用いて大量のデータに対して認識処理を行い、誤認識したデータを含む画像を収集してサブセットを作成し、サブセットを用いて次の学習を行う。この方法により、学習途中のモデルが苦手とするデータを効率的に学習することができる。この学習では、学習データごとに認識した結果と教師データを比較し、誤差の大きいデータを次の学習で使用する。実施形態1では、このような学習を基本とし、すべての学習データを用いて学習するのではなく、次の学習に用いるデータを抽出して学習を繰り返す。以降、学習データから次の学習のために抽出したデータセットのことを、学習データの母集団と区別するために学習サブセットと記載するものとする。上述の前提のように、大量のデータを用いて学習する場合は特に、上述のフレームワークの学習により学習データから学習に有効なデータを抽出して学習することで、学習が早く進み、かつ、認識性能が高まる。 Further, in machine learning, a framework is used in which learning data is created and learned by extracting some learning data of data that the model in the middle of learning is not good at erroneously recognizing. The first embodiment is premised on learning based on this framework. Specifically, a large amount of data is recognized using a model in the middle of learning, an image containing erroneously recognized data is collected to create a subset, and the next learning is performed using the subset. By this method, it is possible to efficiently learn the data that the model in the middle of learning is not good at. In this learning, the result recognized for each learning data is compared with the teacher data, and the data having a large error is used in the next learning. In the first embodiment, based on such learning, instead of learning using all the learning data, the data used for the next learning is extracted and the learning is repeated. Hereinafter, the data set extracted from the training data for the next learning shall be described as a learning subset in order to distinguish it from the population of the training data. As in the above premise, especially when learning using a large amount of data, by extracting data effective for learning from the learning data by learning of the above-mentioned framework and learning, learning proceeds quickly and Recognition performance is improved.
しかし、上述の想定する状況、すなわち、優先的に学習したいデータが全体の中で少ない場合は、上述のフレームワークの学習は、必ずしもうまくいくとは限らない。なぜなら、優先的に学習したいデータが学習データの母集団の中で相対的に少ないと、学習サブセット中でそのデータが占める割合は、極端に小さくなるためである。実施形態1では、以上のことを前提とし、データバランスを適切に調整して学習サブセットを作成する方法を示す。 However, in the above-mentioned assumed situation, that is, when the data to be preferentially learned is small in the whole, the learning of the above-mentioned framework does not always succeed. This is because if the data to be preferentially trained is relatively small in the population of training data, the proportion of the data in the learning subset becomes extremely small. In the first embodiment, on the premise of the above, a method of appropriately adjusting the data balance to create a learning subset will be shown.
なお、学習用認識対象データか既存データかといった、優先的に学習するかどうかを決定する要素を、以降では属性と記載する。実施形態1においては、属性は、データと紐づいた情報とし、具体的にはデータセットの内容とし、学習用認識対象データと既存データの2種類あるとする。また、本実施形態におけるバランスとは、学習に用いる学習サブセット内の、属性ごとのデータ数の割合のことを指すものとする。また、以降では、学習途中のモデルが苦手なデータを調べる処理を、評価と記載する。 In addition, the element that determines whether or not to preferentially learn, such as the recognition target data for learning or the existing data, will be described as an attribute hereafter. In the first embodiment, the attribute is information associated with the data, specifically, the content of the data set, and there are two types of data to be recognized for learning and existing data. Further, the balance in the present embodiment refers to the ratio of the number of data for each attribute in the learning subset used for learning. In the following, the process of examining data that the model in the middle of learning is not good at will be described as evaluation.
次に、実施形態1の概要について説明する。実施形態1では、誤差の評価結果と、属性に基づき決まるデータの優先度を考慮してデータのバランスを調整して学習サブセットを作成し、学習する。以降では、簡単のため、属性に基づき決まるデータの優先度のことを、単に優先度と記載する。評価の結果のみを考慮すれば、学習サブセットのうち優先度の高いデータの占める割合が小さくなる。一方、優先度のみを考慮をすれば、間違えやすいパターンのデータの学習が疎かになる。そこで、実施形態1では、評価の結果と優先度の両方を考慮してデータのバランスが適切な学習サブセットを作成し、学習を行う。実施形態1では、評価の結果と優先度を用いて学習サブセット内の属性ごとのデータ量を決め、その結果に基づき全学習データから一部のデータを抽出して学習サブセットを作成する。このための手順としては、まず評価結果に基づき、学習サブセット内の属性ごとの仮のデータ量を決める。続いて、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量を決める。次に、評価値に基づく仮のデータ量と、優先度に基づく仮のデータ量のどちらに比重を置くかを操作することで、学習サブセット内の属性ごとのデータ量を決定する。この操作に用いるパラメータを、以降では重みと記載する。重みは、割合で指定し、重みを用いて、評価値に基づく仮のデータ量と優先度に基づく仮のデータ量に重みづけを行うことで、学習サブセット内の属性ごとのデータ数のバランスを決定する。実施形態1では、学習を繰り返す中で学習の進み具合に合わせて適切に重みづけを行うことにより、データのバランスを調整していく方法を示す。 Next, the outline of the first embodiment will be described. In the first embodiment, the learning subset is created and learned by adjusting the balance of the data in consideration of the evaluation result of the error and the priority of the data determined based on the attributes. Hereinafter, for the sake of simplicity, the priority of data determined based on the attributes will be simply referred to as priority. Considering only the evaluation results, the proportion of high-priority data in the learning subset becomes small. On the other hand, if only the priority is considered, the learning of the data of the pattern that is easy to make a mistake becomes sparse. Therefore, in the first embodiment, a learning subset having an appropriate data balance is created in consideration of both the evaluation result and the priority, and learning is performed. In the first embodiment, the amount of data for each attribute in the learning subset is determined using the evaluation result and the priority, and a part of the data is extracted from all the learning data based on the result to create the learning subset. As a procedure for this, first, a temporary data amount for each attribute in the learning subset is determined based on the evaluation result. Then, based on the priority, the provisional amount of data for each attribute in the learning subset is determined. Next, the amount of data for each attribute in the learning subset is determined by manipulating whether the weight is placed on the provisional data amount based on the evaluation value or the provisional data amount based on the priority. The parameters used for this operation will be referred to as weights hereafter. The weight is specified as a percentage, and the weight is used to weight the temporary data amount based on the evaluation value and the temporary data amount based on the priority, thereby balancing the number of data for each attribute in the learning subset. decide. In the first embodiment, a method of adjusting the balance of data by appropriately weighting according to the progress of learning while repeating learning is shown.
実施形態1では、評価結果と優先度に基づいてデータのバランスを調整して学習データを作成する方法について、インフラ構造物の点検における変状認識モデルの学習を例に、説明する。 In the first embodiment, a method of adjusting the balance of data based on the evaluation result and the priority to create the learning data will be described by taking the learning of the deformation recognition model in the inspection of the infrastructure structure as an example.
まず、インフラ構造物の点検について説明する。インフラ構造物の壁面の点検では、点検者は、コンクリート壁面のひび割れ等の変状を記録する。画像を用いた点検では、点検者は、構造物の壁面を撮影し、撮影した画像の中から、変状の位置や範囲を記録することにより点検結果を作成する。作成した点検結果は、画像とともに構造物の図面に対応づけて管理する。このとき、画像の中から、全ての変状を発見し、記録する作業は大変な作業となる。従って、近年、機械学習により、コンクリート壁面画像の変状を認識する認識モデルを学習し、画像点検の効率化を図ることが行われている。以下、変状認識のモデルは、コンクリート壁面画像からひび割れを認識する画像認識モデルであるとする。 First, the inspection of the infrastructure structure will be described. In the inspection of the wall surface of the infrastructure structure, the inspector records the deformation such as cracks on the concrete wall surface. In the inspection using images, the inspector photographs the wall surface of the structure and creates the inspection result by recording the position and range of the deformation from the captured images. The created inspection results are managed in association with the drawings of the structure together with the images. At this time, the work of discovering and recording all the deformations in the image becomes a difficult work. Therefore, in recent years, machine learning has been used to learn a recognition model for recognizing deformation of a concrete wall surface image to improve the efficiency of image inspection. Hereinafter, the model for recognizing deformation is assumed to be an image recognition model for recognizing cracks from a concrete wall surface image.
実施形態1では、ある一つの構造物の壁面画像を認識対象データとし、一部の領域に教師データを付与する。また、既存データとして、様々な構造物の壁面画像と、それらの壁面画像に対して教師データが用意されているものとし、認識対象の構造物の画像のうち教師データを付与した一部のデータと既存データから学習データを作成する。その学習データを用いて学習したモデルにより、テスト用認識対象データ、すなわち、壁面画像のうち教師データを付与していないデータに認識処理をする。 In the first embodiment, the wall surface image of a certain structure is used as the recognition target data, and the teacher data is added to a part of the areas. Further, as existing data, it is assumed that wall images of various structures and teacher data are prepared for those wall images, and some data to which teacher data is added among the images of the structures to be recognized. And create training data from existing data. The model trained using the training data is used to perform recognition processing on the test recognition target data, that is, the wall surface image to which the teacher data is not added.
また、詳細は後述するが、実施形態1では、ひび割れを認識するためのモデルを学習するため、ひび割れを含むコンクリート壁面画像と、当該画像でのひび割れ正解位置を示す教師データから構成されるデータを扱う。以降では、教師データを付与する対象のデータを入力データと記載する。実施形態1の場合、入力データは、壁面画像のことを指す。また、入力データと教師データのペアから成るデータを学習データと記載する。 Further, although details will be described later, in the first embodiment, in order to learn a model for recognizing a crack, data composed of a concrete wall surface image including the crack and teacher data indicating the correct position of the crack in the image are provided. deal. Hereinafter, the data to which the teacher data is given will be described as the input data. In the case of the first embodiment, the input data refers to a wall surface image. In addition, data consisting of a pair of input data and teacher data is described as learning data.
図1は、実施形態1に係る情報処理装置100のハードウェア構成例を示すブロック図である。情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、操作部106と、通信部107とを有している。
FIG. 1 is a block diagram showing a hardware configuration example of the
CPU101は、中央演算装置(Central Processing Unit)であり、各種処理のための演算や論理判断等を行い、システムバス108に接続された各構成要素を制御する。ROM(Read-Only Memory)102は、プログラムメモリであって、後述する各種処理手順を含むCPU101による制御のためのプログラムを格納する。RAM(Random Access Memory)103は、CPU101の主メモリおよびワークエリア等の一時記憶領域として用いられる。なお、情報処理装置100に接続された外部記憶装置等からRAM103にプログラムをロードすることで、プログラムメモリを実現してもよい。
The
HDD104は、電子データやプログラムを記憶しておくためのハードディスクである。HDD104と同様の役割を果たすものとして、外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等である。また、外部記憶装置は、ネットワークで接続されたサーバー装置等であってもよい。
The
表示部105は、例えばCRTディスプレイや、液晶ディスプレイ等であって、表示画面に画像を表示するデバイスである。なお、表示部105は、情報処理装置100と有線あるいは無線で接続された外部デバイスでもよい。操作部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、公知の通信技術により、他の情報処理装置や通信機器、外部記憶装置等との間で、有線または無線による双方向の通信を行う。
The
図2は、情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、データ格納部201と、評価部202と、優先度設定部203と、バランス調整部204と、学習サブセット決定部205と、学習部206と、モデル格納部207と、重み決定部208とを有する。モデル格納部207と重み決定部208は、なくてもよい。
FIG. 2 is a block diagram showing a functional configuration example of the
これらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、プログラムを実行し、後述する各フローチャートに従った処理を実行することで実現される。そして、CPU101は、各処理の実行結果をRAM103またはHDD104に保持する。また例えば、CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
Each of these functional units is realized by the
図5は、データ格納部201が格納するデータを示す図である。データ格納部201は、全学習データ504を格納する。全学習データ504は、認識対象データ501の一部から作成した学習用認識対象データ502と、既存データ503を含む。また、全学習データ504は、画像中のひび割れを認識するモデルを学習するためのデータであり、コンクリートの壁面画像である入力データと、画像中のひび割れ位置を示す教師データのペアから構成される。教師データは、入力データと同じサイズの画像であり、ひび割れ部分と背景部分には異なる値を設定し、ひび割れ位置の画素には1、背景部分の画素には0を格納した画像である。全学習データ504のペアは、吹き出し505の入力データの画像506と教師データの画像507を有する。この入力データの画像506と教師データの画像507のペアが一組の学習データである。情報処理装置100は、このペアを多数集めたデータ群を用いてモデルの学習を行う。モデルの学習には、どのような機械学習アルゴリズムを用いてもよく、例えば、ニューラルネットワークのようなアルゴリズムを用いることができる。データの属性は、学習用認識対象データ502と既存データ503の2種類とする。学習用認識対象データ502は、ごく少量のデータである。既存データ503は、膨大なデータである。また、データ格納部201は、テーブル508に示すように、学習用認識対象データ502か既存データ503かといった属性の情報を、各入力データd1、d2、・・・dnと対応づけて格納する。入力データd1、d2、・・・dnは、全学習データ504の各学習データの入力データである。
FIG. 5 is a diagram showing data stored in the
図3は、情報処理装置100の情報処理方法を示すフローチャートである。情報処理装置100は、全学習データから所定数のデータを学習サブセットとして抽出し、学習することを所定回数繰り返す。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。S304に示すバランス調整部204の処理は、学習に用いるデータのバランスを調整する処理であり、重要な部分であるため、図4を用いてより詳細に説明する。
FIG. 3 is a flowchart showing an information processing method of the
まず、S301では、評価部202は、データ格納部201から複数の学習データを入力する。各学習データは、入力データと教師データのペアから構成される。次に、S302では、評価部202は、取得された学習データの各々の評価を実施する。ここで、評価部202の評価の処理について説明する。評価部202は、まず、学習途中のモデルを用いて、入力データ(画像)に対して検知処理を実行する。評価部202は、検知処理により、ひび割れがある可能性の高い画素には高いスコアが格納され、ひび割れがある可能性の低い画素には低いスコアが格納された画像を出力する。ここで出力される画像を、以下では検知画像と記載する。評価部202は、学習途中のモデルを用いて、教師データに基づいて、入力データの各々の評価値を取得する。例えば、評価値は、誤検知した画素数、すなわち、検知画像上の全画素のうちの教師データ上の画素値と一致しない画素数とする。具体的には、評価部202は、検知画像を2値化した2値画像から教師データを差し引くことで、差分画像を取得する。そして、評価部202は、差分画像内で0ではない画素の数をカウントし、そのカウント値を誤検知画素数とする。評価部202は、この誤検知画素数を、ある入力データの評価値とする。評価値が高いデータは、間違えた画素数が多いことを示すため、モデルが苦手なデータであると判断できる。
First, in S301, the
なお、評価値は、誤検知画素数に限らず、未検知画素数や誤差二乗和であってもよい。未検知画素数は、検知画像を2値化した2値画像を、教師データから差し引くことで差分画像を取得し、差分画像内で0ではない画素の数をカウントすることで求める。誤差二乗和は、検知画像の画素ごとに、教師データ上の対応する画素との画素値との差分の二乗を算出し、画像全体で和を算出することにより求める。評価部202は、入力データの認識処理を行い、その認識処理の結果と教師データとに基づく誤差二乗和、誤検知画素数、または未検知画素数を、評価値として取得する。
The evaluation value is not limited to the number of falsely detected pixels, but may be the number of undetected pixels or the sum of squared errors. The number of undetected pixels is obtained by subtracting a binary image obtained by binarizing the detected image from the teacher data to obtain a difference image, and counting the number of non-zero pixels in the difference image. The error squared sum is obtained by calculating the square of the difference between the pixel value and the corresponding pixel on the teacher data for each pixel of the detected image and calculating the sum of the entire image. The
具体的には、評価部202は、式(1)により、評価値Eを算出する。ただし、nは検知画像内の全画素数である。ykは検知画像の画素kのスコアである。tkはある画素kの教師データの値である。
Specifically, the
次に、S303では、優先度設定部203は、学習データの属性ごとの優先度を設定する。ここで、優先度設定部203の処理を説明する。優先度設定部203は、入力データごとに、属性に基づき、入力データの優先度を設定する。例えば、属性は、既存データ503と学習用認識対象データ502の2種類である。学習用認識対象データ502の方が既存データ503よりも優先度が高いデータである。これを踏まえ、優先度設定部203は、学習用認識対象データ502の優先度を既存データ503の優先度より高い値に設定する。例えば、優先度設定部203は、学習用認識対象データ502の優先度を0.9に設定し、既存データ503の優先度を0.1に設定する。属性が学習用認識対象データ502である場合の優先度は、属性が既存データ503である場合の優先度より高い。
Next, in S303, the
次に、S304では、バランス調整部204は、評価部202から評価値を取得し、優先度設定部203から属性ごとの優先度を取得し、これらの評価値と優先度に基づいて、学習サブセット内のデータのバランスを調整する。上述のように、ここでのバランスは、学習サブセットに用いるデータの属性ごとの割合のことである。バランスを調整することは、割合を決定することに相当する。属性ごとの割合の情報は、後の学習サブセット決定部205が学習に用いるデータを選択する際に必要となる。バランス調整部204の大まかな手順としては、まず、バランス調整部204は、評価値に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決める。続いて、バランス調整部204は、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決める。次に、バランス調整部204は、評価値に基づく仮のデータ量の割合と、優先度に基づく仮のデータ量の割合に対して、後述の重み決定部208が決定する重みづけを行うことにより、学習サブセット内の属性ごとのデータ量の割合を決定する。
Next, in S304, the
図4は、図3のS304の処理の詳細を示すフローチャートである。まず、S401では、バランス調整部204は、評価値に基づき、学習サブセットの属性ごとの仮の学習データ量の割合を決定する。手順としては、まず、バランス調整部204は、入力データを評価値の高い順、すなわち誤検知画素数の多い順に並び替える。そして、バランス調整部204は、評価値の高い方から、所定数の入力データを選択する。次に、バランス調整部204は、選択した入力データのうちの属性ごとの入力データ数をカウントする。例えば、所定数が10000であり、学習用認識対象データ502の数が1000であり、既存データ503の数が9000であったとする。次に、バランス調整部204は、ここでカウントした学習用認識対象データ502の数と既存データ503の数から、学習用認識対象データ502の数と既存データ503の数の割合を算出する。そして、バランス調整部204は、その算出した割合を基に、学習サブセットの属性ごとの仮のデータ量の割合を決定する。具体的には、バランス調整部204は、上記のカウントの数の割合に基づき、評価値から決まる仮のデータ量の割合として、学習用認識対象データ502の仮のデータ量の割合を0.1とし、既存データ503の仮のデータ量の割合を0.9とする。なお、ここでは説明しやすさのため、割合は、合計が1となるように配分した。
FIG. 4 is a flowchart showing the details of the process of S304 of FIG. First, in S401, the
次に、S402では、バランス調整部204は、優先度に基づき、学習サブセット内の属性ごとの仮のデータ量の割合を決定する。優先度は、図3のS303の処理で設定されており、学習用認識対象データ502の優先度は0.9であり、既存データ503の優先度は0.1である。バランス調整部204は、簡単のため、学習用認識対象データ502の優先度の値と既存データ503の優先度の値を、そのまま、学習サブセット内の学習用認識対象データ502と既存データ503の仮のデータ量の割合として決定する。なお、S401とS402の処理の順序は、反対にしてもよい。
Next, in S402, the
次に、バランス調整部204は、S401で評価値に基づき決定した仮のデータ量の割合と、S402で優先度に基づき決定した仮のデータ量の割合に対して、重みづけを行うことにより、学習サブセット内の属性ごとのデータ量の割合を決定する処理を行う。この処理は、S403とS404の処理により行うが、これらの処理の説明の前に、重みづけについて説明する。重みづけは、評価値と優先度から決まる仮のデータ量の割合のバランスをとる操作であり、具体的には式(2)により行う。
Next, the
iは属性ごとに異なる添え字である。ここでは、学習用認識対象データ502の添え字iを1とし、既存データ503の添え字iを2とする。Diは、学習サブセット内の属性iのデータ量の割合である。Daiは、評価値から決まる属性iの仮のデータ量の割合である。Dbiは、優先度から決まる属性iの仮のデータ量の割合である。waとwbは、上述の重みに相当する。waが評価値に基づく仮のデータ量の割合Daiに対する重みである。wbが優先度に基づく仮のデータ量の割合Dbiに対する重みである。
i is a subscript that differs for each attribute. Here, the subscript i of the
学習サブセットの学習用認識対象データ502のデータ量の割合D1を決定する方法を説明する。その場合、バランス調整部204は、S401とS402の処理の結果から、式(2)において、評価値に基づく仮のデータ量の割合Da1に0.1を代入し、優先度に基づく仮のデータ量の割合Db1に0.9を代入する。
A method of determining the ratio D 1 of the amount of data of the
同様に、学習サブセット内の既存データ503の量D2を決定する方法を説明する。その場合、バランス調整部204は、S401とS402の処理の結果から、式(2)において、評価値に基づく仮のデータ量の割合Da2に0.9を代入し、優先度に基づく仮のデータ量の割合Db2に0.1を代入する。
Similarly, a method of determining the quantity D 2 of the existing
重みwaとwbは、和が1となるように設定される。バランス調整部204は、評価値と優先度から決まる仮のデータ量のバランスを取る。以上を踏まえ、図4のフローチャートの重みづけを行う処理の説明に戻る。
The weights w a and w b are set so that the sum is 1. The
S403では、重み決定部208は、式(2)の重みwaとwbを決定する。重み決定部208が、重みwaとwbを、評価値の結果に基づき決定する方法を説明する。具体的には、重み決定部208は、全入力データの各々の評価値の総和を算出し、その総和に基づいて重みwaとwbを決定する。評価値は、入力データの誤検知画素数であるため、評価値の総和は、入力データ全体の誤検知画素数の総和である。より具体的には、重み決定部208は、図7に示すように、評価値の総和により、重みwaとwbが変化するように、ルールを決めておく。例えば、評価値の総和が所定値より大きいとき、全体的に間違えるデータが多いと解釈できる。そのため、重み決定部208は、間違えたデータを集中的に学習できるように、重みwaとwbを決定する。具体的には、重み決定部208は、評価値に基づく仮のデータ量の割合の重みwaが、優先度に基づく仮のデータ量の割合の重みwbより大きくなるように比重を置く。図7の例では、重み決定部208は、評価値の総和が50000以上である場合には、重みwaを0.8とし、重みwbを0.2とする。
In S403, the
一方、重み決定部208は、評価値の総和が所定値より小さい場合には、全体的に間違えるデータが少ないため評価値の結果には比重を置かず、優先度の方に比重を置いて、学習用認識対象データ502を多く収集して学習できるように、重みwaとwbを決定する。具体的には、重み決定部208は、優先度に基づく仮のデータ量の重みwbが、評価値に基づく仮のデータ量の重みwaより大きくなるように設定する。図7の例では、重み決定部208は、評価値の総和が所定値より小さい場合、例えば評価値の総和が10000未満である場合、重みwaを0.2にし、重みwbを0.8とする。
On the other hand, when the sum of the evaluation values is smaller than the predetermined value, the
また、重み決定部208は、評価値の総和が上記のいずれにも該当しない場合、例えば評価値の総和が10000以上50000未満の場合、重みwaとwbを均等にし、重みwaとwbのどちらも0.5とする。このように、重み決定部208は、評価値の総和に基づき重みwaとwbを決定することにより、学習途中のモデルに合わせて、重みwaとwbを適切に決定できる。
Further, the
続いて、S404では、バランス調整部204は、重み決定部208から重みwaとwbを取得し、重みwaとwbを用いて、学習サブセットの属性ごとのデータ量の割合を決定する。まず、バランス調整部204は、式(2)により、重みwaとwbを基に、割合Da1、Da2、Db1、Db2を重みづけ加算することにより、学習サブセット内の学習用認識対象データ502の割合D1と既存データ503の割合D2を算出する。例えば、S403で、重みwaが0.2であり、重みwbが0.8であると決定される。S401とS402で決まる割合Da1、Da2、Db1、Db2から、割合D1は0.74となり、割合D2は0.26となる。次に、バランス調整部204は、属性ごとの割合D1とD2から、属性ごとのデータ数を決める。バランス調整部204は、データ量の割合D1とD2に対して、学習サブセットの所定のデータ数を乗ずることにより、学習サブセット内の属性ごとのデータ数を算出する。上述のように、学習サブセットのデータ数は10000である。その場合、学習サブセット内の学習用認識対象データ502のデータ数は、7400に決定され、学習サブセット内の既存データ503のデータ数は、2600に決定される。
Subsequently, in S404, the
以上が、S304のバランス調整の処理内容である。このように、バランス調整部204は、重みwaとwbを用いて、評価値に基づくデータ収集と優先度に基づくデータ収集の比重を操作することにより、学習サブセット内のデータのバランスを適切に調整する。
The above is the processing content of the balance adjustment of S304. In this way, the
次に、S305では、学習サブセット決定部205は、バランス調整部204から、学習サブセット内の属性ごとのデータ数を取得し、学習サブセットを決定する。以下に、学習サブセット決定部205の処理について説明する。学習サブセット決定部205は、バランス調整部204が決定した、学習サブセット内の属性ごとのデータ数に基づき、全学習データ504の一部の学習データを選択することで、学習サブセットを決定する。バランス調整部204は、学習サブセット内の学習用認識対象データ502のデータ数が7400であり、学習サブセット内の既存データ503のデータ数が2600であると決定した。学習サブセット決定部205は、これらのデータ数に合うように、学習データを選択し、学習サブセットを決定する。
Next, in S305, the learning
学習サブセット決定部205は、評価値に基づいて、学習サブセットを作成する上での学習データの選択を行う。学習サブセット決定部205は、バランス調整部204で決定した属性ごとのデータ数だけ、評価値の高い方から順に学習データを選択することにより、学習サブセットを決定する。その処理の手順を、図8を用いて説明する。全学習データ810は、学習用認識対象データ502を評価値が高い順に並べ、既存データ503を評価値の高い順に並べたものである。学習サブセット決定部205は、学習用認識対象データ502のうちの評価値が高い方から7400個の学習用認識対象データ811を選択し、既存データ503のうちの評価値が高い方から2600個の既存データ812を選択し、学習サブセット820を決定する。
The learning
次に、S306では、学習部206は、学習サブセット決定部205により決定された学習サブセットを用いて、学習途中のモデルの学習を行う。学習部206は、学習済みのモデルを、次の学習の評価値に用いるため、モデル格納部207に格納する。
Next, in S306, the
以上が一回の学習の流れである。学習部206は、学習を繰り返し行うため、S307では、学習部206は、学習回数が所定回数に到達したか否かを判定する。学習部206は、学習回数が所定回数に到達した場合には、処理を終了する。また、学習部206は、学習回数が所定回数に到達していない場合には、S302に戻り、評価部202と優先度設定部203とバランス調整部204と学習サブセット決定部205と学習部206は、S302からS306の一連の処理を所定回数繰り返す。なお、S302の評価は、S306の学習済みのモデルを用いて行う。このように、情報処理装置100が、学習モデルを更新しながら、一連の処理を繰り返すと、学習の進み具合に応じて、評価値の総和が変化するため、図7に示したように、重み決定部208の決定する重みwaとwbが変化する。したがって、情報処理装置100は、その時点のモデルの学習に合わせて、重みwaとwbを適切に変更しながら、データバランスを調整できる。
The above is the flow of one learning. Since the
以上の方法により、情報処理装置100は、評価値の結果と優先度に基づいて、データのバランスを調整して学習サブセットを決定でき、有効な学習データをバランス良く集めて学習を実施できる。
According to the above method, the
なお、上述の説明では、評価部202は、入力データ全体を対象として評価を行ったが、入力データ全体から一部を抽出したデータセットを対象として評価してもよい。なお、上述したが、入力データは、学習データのうちの教師データを付与する対象のデータを指す。以下では、ここで抽出したデータセットのことを、学習サブセットと区別するため、学習候補サブセットと記載する。全学習データから所定数の学習データをランダムに抽出し、学習候補サブセットを作成し、学習候補サブセットに対して評価部202が評価を実施する。上記の説明では、学習サブセット決定部205は、全学習データから学習サブセットを決定したが、この場合は、学習候補サブセットから学習サブセットを決定する。この学習候補サブセットは、学習を繰り返す度に選択し直すものとする。このような学習を行うことで、学習の度にすべての入力データに対して評価を実施せずに済むため、処理時間を短縮することができる。また、毎回評価対象のデータが同じ場合は、評価値の上位に、学習の度に同じデータが集まることがあるが、学習候補サブセットから学習サブセットを作成することで、同じデータばかり収集することを防ぐことができる。
In the above description, the
なお、学習部206は、繰り返し学習を行う中で、重み決定部208が決定する重みwaとwbに基づき、学習を終了してもよい。具体的には、学習部206は、学習途中であっても、重みwaとwbの変化が閾値より小さくなったら、学習が収束していると判断し、学習を終了する。評価部202と優先度設定部203とバランス調整部204と学習サブセット決定部205と学習部206は、重みwaとwbの変化が閾値より小さくなるまで処理を繰り返す。この処理が有効となる場合として、学習が進むにつれて、評価値の総和が所定値を超えることがなくなる場合がある。この状態で学習を継続すると、重み決定部208が図9に示したルールに基づき重みを決定するとき、優先度に基づくデータ収集の重みが大きい状態で学習を何度も繰り返すことになる。その結果、序盤で学習した既存データ503の学習が忘却され、少量の学習用認識対象データ502ばかりを選択して学習することによる過学習が起きる。このようなケースにおいて、学習部206は、重みwaとwbの変化がなくなった段階で、学習を終了することにより、これらの問題を防ぐことができる。
The
なお、ここまでの説明では、バランス調整部204は、重み決定部208が決定した重みwaとwbを用いてバランスを調整したが、重み決定部208を使用せずに、バランス調整部204が予め決めておいた重みを用いて処理を行ってもよい。具体的には、バランス調整部204は、学習回数ごとに重みを決めておき、学習の序盤では評価の結果に基づくデータ収集の重みが大きくなり、学習終盤では反対に優先度に基づくデータ収集の重みが大きくなるように、学習の度に重みを徐々に変化させる。より具体的には、バランス調整部204は、学習序盤では式(2)の重みwaとwbをそれぞれ0.9と0.1とし、学習中盤では重みwaとwbをそれぞれ0.5と0.5とし、学習終盤では重みwaとwbをそれぞれ0.1と0.9とする。バランス調整部204は、学習を繰り返す中で、このように重みを変化させることで、早い段階では間違えやすいデータを学習し、誤認識が少なく、かつ徐々に学習用認識対象データ502の特性に特化した学習を行うことができる。なお、重みは上記の例の他にも、過去に学習がうまくいったときの重み情報を参照して予め設定してもおいてもよい。
In the description so far, the
なお、上記では、学習サブセット決定部205が、全学習データの中から学習データを選択して学習サブセットを作成したが、この方法が適用できないケースがある。具体的には、特定の属性の学習データ数が少なく、バランス調整部204が決定した学習データ数を用意できない場合がある。この状況においては、学習サブセット決定部205は、バランス調整部204が決定する属性ごとの学習データ数に基づいて、入力データに対して画像処理変換を行ったデータを用いて、データ数を増加し、増加したデータを用いて学習サブセットを決定するとよい。画像処理変換には、例えば、回転や反転などの幾何学変換や、色調変換や階調変換がある。このような処理により、データ数を調整することで、特に学習したい属性の学習データが少ない場合であっても、バランス良く学習サブセットを作成できる。
In the above, the learning
なお、上記の説明では、重み決定部208は、評価値の総和に基づいて重みwaとwbを決定したが、誤った入力データの数をカウントし、その結果に基づき重みwaとwbを決定してもよい。この方法では、重み決定部208は、画素単位で誤検知の量を集計するのではなく、誤検知画素数が所定値より大きい入力データの数を誤識別した入力データとしてカウントする。重み決定部208は、誤った入力データ数が所定値より多い場合は、式(2)の評価値に基づくデータ収集の重みwaを大きくし、誤った入力データ数が所定数より少ない場合は、式(2)の優先度に基づくデータ収集の重みwbを大きくする。重み決定部208は、誤った入力データ数に基づき重みwaとwbを決定すると、評価値の総和に基づき重みwaとwbを決定するより計算コストを削減できる。
In the above description, the
<優先度の設定方法のバリエーション>
なお、上述の説明では、属性は学習用認識対象データ502と既存データ503の2種類とし、属性が学習用認識対象データ502の入力データは優先度が高いものとしたが、属性および優先度の適用範囲はこれに限定されない。ここでは、属性として上記以外の例を挙げながら、優先度を学習用認識対象データ502に基づき決める方法を3種類説明する。
<Variations of priority setting method>
In the above description, there are two types of attributes, the
1つ目は、ユーザ操作に基づき優先度を決定する方法である。この方法では、優先度設定部203は、ユーザ操作に応じて、認識対象の画像と類似した既存データ503の画像を、優先して学習できるように優先度を設定する。処理の流れとしては、まず、優先度設定部203は、表示部105を介して学習用認識対象データ502に関する情報を画面に表示し、次に操作部106を介してユーザから選択操作を受け付け、ユーザ操作に基づき優先度を設定する。具体的には、既存データ503として、壁面上にチョークで線がひかれた画像ばかりを集めたデータセット、型枠の画像ばかりを集めたデータセット、ぼけた画像ばかりを集めたデータセットがあるとする。属性はデータセットの種類とし、学習用認識対象データ502、チョークの既存データ503、型枠の既存データ503、ぼけの既存データ503の4種類とする。上記の説明では、学習用認識対象データ502を優先度の高いものとしたが、ここでは学習用認識対象データ502に限らず、既存データ503の中にも比較的優先して学習したいデータがある状況を想定する。例えば、人が学習用認識対象データ502の一部を見て、画像内にチョークでひいた線があることを認識したとする。チョークで線をひいた箇所は線状のため、ひび割れ検知用のモデルを適用するとひび割れと誤認識しやすいことから、チョークで引いた線の映ったデータは優先して学習すべきデータであると人が判断する。この判断を踏まえ、優先度設定部203は、学習用認識対象データ502とチョークの既存データ503の優先度を高く設定し、残りの型枠とぼけの既存データ503の優先度を低く設定する。例えば、属性が学習用認識対象データ502、チョークの既存データ503、型枠の既存データ503、ぼけの既存データ503の優先度をそれぞれ、0.5、0.3、0.1、0.1のように設定する。
The first is a method of determining the priority based on the user operation. In this method, the
この方法を実現するためユーザインターフェースの具体例を図6のウィンドウ610に示す。優先度設定部203は、表示部105を介して、図6のウィンドウ610を表示する。ウィンドウ610には、学習用認識対象データ611と、既存データ503の属性に関する情報612が表示される。ウィンドウ610に学習用認識対象データ611も表示しておくことで、どの属性のデータが学習に役立つかを判断しやすくなる。簡単のため、情報612には、チョーク、型枠、ぼけの属性をA、B、Cと記載している。情報612は、既存データ503の各属性にチェック欄を有する。そして、操作部106によりユーザにマウスポインタ613を操作させる。ユーザがチェック欄にマウスポインタ613を重ねてクリック操作をすると、表示部105がチェック欄にチェックを表示する。このような表示部105と操作部106の処理により優先度の高い入力データを決める。ウィンドウ610の例は、ユーザがチョークのチェック欄にチェックを入れたときのイメージを表している。なお、図6には、既存データ503の属性情報として、属性名称のみを記載する例を示したが、各属性の画像のサンプルを表示してもよい。画像のサンプルも表示すると、優先度を高くするべき入力データをユーザは直感的に判断しやすくなる。
A specific example of the user interface for realizing this method is shown in
優先度の設定方法バリエーションの2つ目は、属性の共通性に基づき優先度を決定する方法である。ここでは、学習用認識対象データ502、構造物S1の既存データ503、構造物S2の既存データ503、構造物S3の既存データ503のデータセットがあるとする。また、データ格納部201は、データセットごとに複数の属性の情報を格納する。ここまでの例では、データセットの種類を属性としたが、ここではより詳細な複数のデータ情報を属性とする。具体的には、図12に示す例のように、構造物の種類と、壁面状態と、撮影条件を属性として、データセットごとに格納しておく。優先度設定部203は、学習用認識対象データ502の属性とその他のデータセットの属性を照合し、共通する属性のあるデータセットの優先度を高く設定する。図12の例では、各データセットについて、属性ごとに該当する場合には○、該当しない場合は×と記載している。ここでは、ひび割れを検知したい対象の構造物の画像を学習用認識対象データ502とする。例えば、構造物の種類の属性に着目すると、学習用認識対象データ502と、構造物S1の既存データ503と、構造物S2の既存データ503は、橋梁の画像の学習データであり、構造物S3の既存データ503は、トンネルの画像の学習データである。優先度の高いデータを決める際には、属性の一致数が最も多いデータを選択する。このとき、予め、必ず一致しなければならない属性を設定しておくようにしてもよい。例えば、構造物の種類は、重要な属性であるとして、まず、少なくとも構造物種類の属性が一致するデータセットを選択する。そして、構造物の種類に基づいて選択したデータセットの中から、属性が最も一致するものを選択する。なお、図12の例では、属性として構造物の種類や撮影条件を記載しているが、解像度や入力データの構造物全体における座標情報であってもよい。
Priority setting method The second variation is a method of determining the priority based on the commonality of attributes. Here, it is assumed that there is a data set of the
優先度の設定方法バリエーションの3つ目は、入力データの統計量に基づき優先度を決定する方法である。この方法では、優先度設定部203は、学習用認識対象データ502と既存データ503から入力データの特性を表す統計量を属性として取得し、属性に基づき、既存データ503の優先度を決定する。例えば、既存データ503として、3種類の構造物の壁面画像のデータセットS1、S2、およびS3があるとする。統計量は、例えば入力データの画像のテクスチャ情報などの特徴量を取得し、データセットごとに特徴量の重心や平均、中央値などを算出することにより求める。テクスチャ情報は、例えば周波数成分の取得方法の1つであるフーリエ変換を入力データに適用することにより抽出できる。優先度設定部203は、統計量を求めたら、データセットごとに統計量の重心を算出する。優先度設定部203は、学習用認識対象データ502と各データセットの統計量の重心の距離を算出し、これを属性とする。学習用認識対象データ502の重心位置と近いデータセットの入力データは、学習用認識対象データ502に合った学習ができると判断し、優先度を高く設定する。このように、優先度設定部203は、統計量に基づき優先度を設定することで、例えば学習用認識対象データ502と背景の雰囲気が似ているデータセットを優先的に選択することができる。画像の雰囲気が似ているものを人が判断するのは主観が入るため難しいが、このような統計量を用いた方法ではデータセットごとに自動的に優先度を設定できる。
Priority setting method The third variation is a method of determining the priority based on the statistic of the input data. In this method, the
<学習サブセット決定部205の補足>
上記の説明では、学習サブセット決定部205は、図8で説明した属性ごとに評価値の高い学習データを選択して学習サブセットを作成したが、入力データが複数の属性と紐づいている場合は、この方法はそのまま適用することができない。具体的には、学習用認識対象データ502と既存データ503を混ぜて学習する場合において、属性は入力データ(画像)の内容とし、ここでは、属性は、学習用認識対象データ502、既存データ503、ひび割れが映っているデータ、ひび割れが映っていないデータの4種類とする。このうち、学習用認識対象データ502、ひび割れが映っているデータの優先度が高いとする。ひび割れが映っているかどうかは、例えば入力データとペアをなしている教師データにひび割れを示す画素があるかどうかで判断する。ひび割れが映っているデータは、学習用認識対象データ502にも既存データ503にも存在する。このとき、学習用認識対象データ502であり、かつひび割れが映っているデータは、2つの属性と紐づくことになる。このような場合、上記の学習サブセット決定部205の説明に記したように、属性ごとにリストを作成して評価値の高いデータを学習に用いるデータとして収集すると、同じ入力データが複数の属性のリストから選択され、学習データに重複が生じる。1回の学習に用いる学習データの数が固定値である場合、学習サブセット内に重複したデータがあると、1回の学習に用いる学習データのバリエーションが減少してしまう。この場合は、学習サブセットから重複分のデータを除去した上で、学習サブセットが所定数に到達するよう、各属性のリストから他のデータを選択して学習サブセットを補充する必要がある。具体的には、学習サブセット決定部205は、学習用認識対象データ502とひび割れの映ったデータについて、評価値の順に並べたリストをそれぞれ作成する。例えば、学習サブセット決定部205は、学習用認識対象データ502のリストの評価値の高い方から5000個のデータを選択し、ひび割れの映ったデータのリストから5000個のデータを選択する。このとき、学習用認識対象データ502のリストから選択したデータとひび割れの映ったデータのリストから選択したデータにおいて、1000個のデータが重複したとする。このとき、学習サブセット決定部205は、重複した1000個のデータを学習サブセットから除去する。続いて、学習サブセット決定部205は、補充のため、各リストから評価値が5001番目に高いデータから5500番目に高いデータをそれぞれ選択し、学習サブセットに追加する。そして、学習サブセット決定部205は、このような除去と補充の処理を重複がなくなるまで繰り返すことで、学習サブセットを作成する。なお、補充する際、データの選択方法はこれに限らず、ランダムに選択してもよい。以上のように、学習サブセット決定部205は、学習サブセットを決定する際に、データの重複を考慮することにより、一回の学習に用いる学習データのバリエーションの減少を防ぐことができる。
<Supplement to learning
In the above description, the learning
<実施形態2>
実施形態1では、バランス調整部204は、評価値に基づき決まる仮のデータ量の割合と、優先度に基づき決まる仮のデータ量の割合に基づき、データ量を決定したが、バランス調整方法はこれに限定されない。実施形態2では、バランス調整部204は、評価値と優先度に基づき、入力データごとにサンプル重みという指標を算出する。サンプル重みは、学習サブセット作成の際に用いる指標である。具体的には、サンプル重みは、評価値も優先度も高い場合は大きくなり、どちらも低い場合は小さくなるようにする。こうすることで、学習サブセット作成の際に、サンプル重みが大きい入力データは選択されやすく、サンプル重みが小さい入力データは選択されにくくなる。つまり、バランス調整部204は、サンプル重みを算出することで、学習サブセット作成時に選択するデータを制御することによって、データのバランスを調整することになる。
<Embodiment 2>
In the first embodiment, the
実施形態2では、実施形態1と同様に、インフラ構造物の点検を目的として、ひび割れ認識のための学習を行う例について説明する。実施形態2では、実施形態1と同様に、認識対象の構造物の壁面画像の一部に教師データを付与して学習用認識対象データ502とする。
In the second embodiment, as in the first embodiment, an example in which learning for crack recognition is performed for the purpose of inspecting the infrastructure structure will be described. In the second embodiment, as in the first embodiment, teacher data is added to a part of the wall surface image of the structure to be recognized to obtain the
以下に、各機能部の処理について説明する。データ格納部201は、学習用認識対象データ502と既存データ503を格納している。属性は、実施形態1と同様に、学習用認識対象データ502と既存データ503の2種類とする。
The processing of each functional unit will be described below. The
評価部202と優先度設定部203の処理は実施形態1と同様であるため、詳細な説明は省略する。評価部202は、評価値として、入力データごとに教師データを用いて誤検知画素数を取得する。優先度設定部203は、学習用認識対象データ502の方が既存データ503より優先度が高いものとし、学習用認識対象データ502の優先度を0.9とし、既存データ503の優先度を0.1とする。
Since the processing of the
次に、バランス調整部204の処理について説明する。バランス調整部204は、評価値と優先度に基づき、サンプル重みを算出する。バランス調整部204は、サンプル重みを算出することにより、学習サブセットを決定する際に選択されるデータのバランスを調整する。サンプル重みは、評価値と属性ごとの優先度から、入力データごとに算出する値である。例えば、バランス調整部204は、評価値と属性ごとの優先度との積を、サンプル重みとして算出する。学習サブセット決定部205は、後のステップで学習サブセットを作成する際に、サンプル重みが大きいデータを収集することで、評価値と優先度が総合的に高いデータを選択することができる。具体的な例を図9に示す。図9には、入力データごとに、評価値と、優先度と、サンプル重みを記載している。入力データd1は、評価値と優先度が高いため、サンプル重みの値も大きくなることから、学習サブセット作成の際に選択されやすい。入力データd2と入力データd3は、評価値は同じであるが、優先度に差がある。入力データd2は、評価値と優先度の積を算出すると、優先度が高いため、サンプル重みが比較的大きくなり、学習サブセット作成の際に選択されやすくなる。一方、入力データd3は、優先度が低いため、サンプル重みが比較的小さくなり、学習サブセット作成の際に選択されにくくなる。このように、バランス調整部204は、サンプル重みを算出することにより、学習サブセット作成時に選択されるデータのバランスを調整できる。
Next, the processing of the
次に、学習サブセット決定部205の処理について説明する。学習サブセット決定部205は、バランス調整部204が算出したサンプル重みに基づき、全学習データ504の一部の学習データを選択することで、学習サブセットを決定する。まず、学習サブセット決定部205は、サンプル重みの高い順に入力データを並び替える。図9に、並び替えた入力データ910を示す。次に、学習サブセット決定部205は、サンプル重みの値が高い方から所定数の入力データ911を選択し、学習サブセットとして決定する。
Next, the processing of the learning
ここまでの処理が完了したら、学習部206は、学習サブセットを用いて、学習途中のモデルの学習を行う。情報処理装置100は、以上の処理を行うことにより、評価値と優先度に基づき、サンプル重みを算出することにより、学習サブセットを決定する際に選択されるデータを制御し、データのバランスを調整できる。
When the processing up to this point is completed, the
なお、上記の説明では、サンプル重みの算出方法は、評価値と優先度の積としたが、算出方法はこれに限定されない。例えば、バランス調整部204は、式(3)により、評価値xと優先度yの線形和を基に、サンプル重みswを算出する。
In the above description, the sample weight calculation method is the product of the evaluation value and the priority, but the calculation method is not limited to this. For example, the
ここで、αとβは、係数である。αとβは、予め決定しておく。バランス調整部204は、入力データごとに、評価値xと優先度yを式(3)に代入するとで、サンプル重みswを算出する。式(3)のように、バランス調整部204は、係数αとβを利用することによって、評価値xに基づくデータ収集と、優先度yに基づくデータ収集のバランスを設定することができる。
Here, α and β are coefficients. α and β are determined in advance. The
<実施形態3>
実施形態3では、実施形態1と同様に、バランス調整部204が、評価値に基づき決まる仮のデータ量の割合と、優先度に基づき決まる仮のデータ量の割合に、重みづけを行うことによりデータのバランスを調整する。ただし、実施形態1と3では、重みwaとwbの決定方法が異なる。実施形態1では、重み決定部208は、評価値の総和に基づいて重みwaとwbを決定した。実施形態3では、重み決定部208は、学習データセットごとに適切な重みがあるはずであるという仮定の下、過去の学習で蓄積した情報を用いて適切な重みを推定する式を構築し、これから学習する学習データセットにおいて適切な重みを推定する。重み決定部208は、重み推定式を用いて、学習データセットに応じて、より適切な重みを設定する。
<Embodiment 3>
In the third embodiment, as in the first embodiment, the
実施形態3の大まかな流れを説明する。まず、情報処理装置100は、学習データセットに対して様々な重みを用いて学習を行い、学習後にモデルの性能に基づき、その学習データセットにおいて最適な重みを決定する。情報処理装置100は、このような処理を、様々な学習データセットに対して実行し、学習データセットごとに適切な重みを調べる。次に、情報処理装置100は、学習データセットごとに、学習データセット全体としての特徴量を取得し、学習データセットごとに、特徴量と最適な重みのペアを作成する。これらの処理が完了したら、情報処理装置100は、特徴量と最適な重みのペアを多数用いて、特徴量と最適な重みの関係を表す式を構築し、これを重み推定式とする。情報処理装置100は、重み推定式を構築することにより、モデルを学習する対象の学習データセットのデータセット全体の特徴量とモデルから、この学習データに適した重みを推定できるようになる。
The general flow of the third embodiment will be described. First, the
情報処理装置100は、このような処理を実現するため、これまでの実施形態とは異なり、事前準備を必要とする。事前準備には、過去の情報を蓄積する処理と、蓄積した情報から重み推定式を構築する処理がある。事前準備が完了したら、情報処理装置100は、新しい学習用認識対象データ502を対象として重み推定式により適切な重みを推定し、学習を行う。
In order to realize such processing, the
実施形態3で扱うデータは、ここまでの実施形態と同様に、インフラ点検用の構造物壁面画像とする。また、他の実施形態と同様に、認識対象データ501は、学習に用いる部分を学習用認識対象データ502とし、テストに用いる部分をテスト用認識対象データとする。そして、学習部206は、テスト用認識対象データを高性能に検知することを目的として学習を行う。データ格納部201は、学習用認識対象データ502と、既存データ503を格納している。属性は、実施形態1と同様に、学習用認識対象データ502と、既存データ503の2種類とする。
The data handled in the third embodiment is an image of the wall surface of the structure for infrastructure inspection, as in the previous embodiments. Further, as in the other embodiment, in the
図10は、実施形態3に係る情報処理装置100の機能構成例を示すブロック図である。図10の情報処理装置100は、図2の情報処理装置100に対して、抽出部209と、蓄積部210と、重み学習部211と、分析部212を追加したものである。追加した構成要素も事前準備に用いる。
FIG. 10 is a block diagram showing a functional configuration example of the
以下に、情報処理装置100の処理内容について説明する。まず、1つ目の事前準備として、情報を蓄積する処理について説明する。ここでは、情報処理装置100は、過去に高性能なモデルを生成できたときに用いた重みの情報を蓄積していく。具体的には、情報処理装置100は、実施形態1で説明した式(2)の重みwaとwbの設定値の組み合わせを変更しながら複数回学習を行い、学習の結果生成されるモデルの性能を比較し、性能に基づき最適な重みを決定する。また、分析部212は、学習に用いるデータから、データの特性を表す特徴量を取得しておく。そして、分析部212は、最適な重みと特徴量を、蓄積部210に格納する。
The processing contents of the
図11は、情報処理装置100の情報処理方法を示すフローチャートである。なお、図11に記載のS301からS303、S304からS306の処理は、図3に記載の同一番号の処理と同じため、詳細な説明は省略する。
FIG. 11 is a flowchart showing an information processing method of the
まず、情報処理装置100は、図3と同様に、S301からS303の処理を行う。S301からS303で評価部202と優先度設定部203の処理が完了したら、S1101では、重み決定部208は、仮の重みを複数設定する。例えば、重み決定部208は、式(2)の重みwaとwbの設定値の組み合わせをランダムに5種類用意する。
First, the
次に、S1102では、重み決定部208は、仮の重みを1つ選択する。次に、S304では、バランス調整部204は、仮の重みを用いてデータのバランスを決定し、学習サブセット内の属性ごとのデータ数を算出する。次に、S305では、学習サブセット決定部205は、学習サブセットを決定する。次に、S306では、学習部206は、学習サブセットを用いて、モデルの学習を実施する。
Next, in S1102, the
S1102からS306の処理は、仮の重みを変更しながら繰り返す。S1103では、学習部206は、一通りの仮の重みを使って処理が完了したか否かを判定する。学習部206は、完了していない場合には、S1102に戻り、完了している場合には、S1104に進む。仮の重みは5種類用意したため、この時点でモデルは、仮の重みごとに、5つ生成されている。学習部206は、これらのモデルをモデル格納部207に格納しておく。
The processing of S1102 to S306 is repeated while changing the temporary weight. In S1103, the
次に、S1104では、分析部212は、モデル格納部207に格納されたモデルの性能を評価し、最適な重みを決める。分析部212は、モデル格納部207に格納されているモデルの評価を行い、最も性能の高いモデルを分析する。性能評価は、例えばテスト用認識対象データの一部に追加で教師データを付与し、そのテスト用認識対象データの領域に認識処理を行い、認識結果と教師データの差異を調べることにより行う。そして、分析部212は、性能の高いモデルを生成したときに用いた仮の重みを、最適な重みとして決定する。
Next, in S1104, the
以上のように、仮の重みを変更しながら、バランス調整部204と学習サブセット決定部205と学習部206は、それぞれ、それぞれの仮の重みに対する処理を行う。分析部212は、評価部であり、学習部206により学習されたそれぞれの仮の重みに対するモデルの性能を評価し、最も性能が高いモデルに対応する仮の重みを最適な重みとして決定する。
As described above, the
次に、S1105では、抽出部209は、学習用認識対象データ502と既存データ503を合わせた学習データのデータセット全体としての特徴量を抽出する。抽出部209は、特徴量抽出法として、例えばデータセットの入力データ(画像)ごとに、一般的に画像処理分野で使用されるヒストグラムを算出し、全入力データのヒストグラムから平均値や分散を算出し、この結果をデータセット全体の特徴量とする。ヒストグラムは、画像の輝度値ごとに、その輝度値を持つ画素の数をカウントすることで得られる情報である。特徴量を取得する対象は、上記では学習用認識対象データ502と既存データ503を合わせた学習データ全体としたが、これに限定されない。抽出部209は、他にも、学習データ全体のうち、既存データ503は含めずに、学習用認識対象データ502だけを、特徴量抽出の対象とすることもできる。また、抽出部209は、学習用認識対象データ502とテスト用認識対象データを合わせたデータセットを、特徴量抽出の対象とすることもできる。
Next, in S1105, the
最後に、S1106では、蓄積部210は、最適な重みと特徴量を合わせて格納する。以上が1つ目の事前準備である。情報処理装置100は、このような処理を、様々な学習用認識対象データ502を対象に実施し、学習データセットごとに、最適な重みと特徴量の情報を蓄積していく。なお、図11では、情報処理装置100は、S1104で最適な重みを決め、S1105で特徴量を抽出した後に、S1106で情報を格納する処理を実行したが、処理の順番は必ずしもこの通りでなくてよい。情報を格納するS1106は、S1104で最適な重みを決めた後と、S1105で特徴量を抽出した後の両方にあってもよい。また、特徴量を抽出するS1105は、S301からS1104を通して最適な重みを決める処理と独立しているため、どの段階で実行してもよい。
Finally, in S1106, the storage unit 210 stores the optimum weight and the feature amount together. The above is the first preparation. The
次に、2つ目の事前準備として、重み学習部211は、構築部であり、蓄積部210から最適な重みと特徴量の情報を受け取り、最適な重みと特徴量を基に、特徴量に基づき重みを推定する推定式を構築する。重み学習部211が重み推定式を構築することで、新しい学習用認識対象データ502の学習を行う際に、重み推定式により、学習用認識対象データ502の学習に合った重みを決めることができる。式(4)と式(5)に、重みwaとwbの推定式の例を示す。
Next, as a second preparation, the weight learning unit 211 is a construction unit, receives information on the optimum weight and feature amount from the storage unit 210, and uses the optimum weight and feature amount as the feature amount. Build an estimation formula to estimate the weight based on it. By constructing the weight estimation formula by the weight learning unit 211, when the new learning
ここで、nは、特徴量の次元数である。kは、特徴量の次元ごとに異なる添え字である。xkは、特徴量である。akは、係数である。重み学習部211は、式(4)の係数akを決定することで、特徴量xkから重みwaとwbを推定する推定式を構築できる。係数akは、蓄積部210から取得する最適な重みと特徴量のペアを複数用いて、最小二乗法により決定することができる。最小二乗法は、入力値と教師値と、実際の出力値の差が最小となるように係数を決定する方法である。ここでは、入力値が特徴量xk、教師値が蓄積部210から取得する最適な重みに相当する。 Here, n is the number of dimensions of the feature quantity. k is a subscript that differs depending on the dimension of the feature quantity. x k is a feature quantity. a k is a coefficient. The weight learning unit 211 can construct an estimation formula for estimating the weights w a and w b from the feature quantity x k by determining the coefficient a k of the formula (4). The coefficient a k can be determined by the least squares method using a plurality of optimal weight / feature pairs obtained from the storage unit 210. The least squares method is a method of determining the coefficient so that the difference between the input value, the teacher value, and the actual output value is minimized. Here, the input value corresponds to the feature amount x k , and the teacher value corresponds to the optimum weight acquired from the storage unit 210.
ここまでが事前準備である。事前準備が完了したら、重み決定部208は、重み推定式(4)と(5)を用いて、重みwaとwbを算出する。そして、情報処理装置100は、重みwaとwbを用いて、実施形態1と同様に、ひび割れ検知を目的としたモデルを生成するための学習を行う。以降の処理では、抽出部209の処理が加わることと、重み決定部208の処理が変わることを除くと、実施形態1と同じである。そのため、抽出部209と重み決定部208について説明し、その他の処理の詳細は省略する。
This is the preparation. When the preparation is completed, the
抽出部209は、新しい学習用認識対象データ502と既存データ503を含む学習データの全体の特徴量を抽出する。ここでは、抽出部209は、事前準備のS1105で用いた特徴量抽出法と同じ方法により、学習データのデータセット全体としての特徴量を抽出する。上記の例では、抽出部209は、特徴量としてヒストグラムを用いたため、ここでもヒストグラムを特徴量として抽出する。
The
次に、重み決定部208は、重み学習部211から重み推定式を受け取り、抽出部209から特徴量を受け取り、重み推定式を用いて、その特徴量に基づき重みwaとwbを決定する。重み決定部208は、重み推定式(4)に特徴量を代入することにより、学習用認識対象データ502に合った重みwaとwbを算出する。バランス調整部204は、ここで算出された重みwaとwbを受け取り、データバランスを調整する。この他の処理は、実施形態1と同様の処理により実施できる。
Next, the
以上のように、情報処理装置100は、重み推定式を構築し、学習データセットに応じて適切な重みwaとwbを推定して、データバランスを調整し、学習を実施することができる。
As described above, the
<実施形態4>
以上の実施形態では、認識対象の例として、インフラ構造物の点検のための、ひび割れ認識を例に説明した。適応対象は、これに限らず、他の用途に用いてもよい。実施形態4では、他の適応先として、監視カメラ等の固定カメラで用いる認識モデルの学習について説明する。なお、実施形態4のハードウェア構成と機能構成は、実施形態1〜3と同様であるので、説明を省略する。
<Embodiment 4>
In the above embodiment, as an example of the recognition target, crack recognition for inspection of the infrastructure structure has been described as an example. The applicable target is not limited to this, and may be used for other purposes. In the fourth embodiment, learning of a recognition model used in a fixed camera such as a surveillance camera will be described as another adaptation destination. Since the hardware configuration and the functional configuration of the fourth embodiment are the same as those of the first to third embodiments, the description thereof will be omitted.
監視カメラ等の固定カメラにおいて、実施形態4の目的は、固定カメラを設置した環境で不審者を検出するための学習を行うことである。この目的に情報処理装置100を適用するためには、データ格納部201が格納するデータを、固定カメラでの認識に関するデータに変更すればよい。データ格納部201が格納するデータや優先度設定部203の処理を除けば、他の実施形態と同様の処理により学習を実施できる。従って、以下では、固定カメラを対象とした場合のデータ格納部201が格納するデータについて説明する。
In a fixed camera such as a surveillance camera, an object of the fourth embodiment is to perform learning for detecting a suspicious person in an environment in which the fixed camera is installed. In order to apply the
本実施形態では、認識対象データ501として固定カメラで撮影した動画のデータセットを作成し、その一部に教師データを付与した学習用認識対象データ502を用意してデータ格納部201に格納する。データ格納部201は、学習用認識対象データ502の他に、既存データ503を格納している。既存データ503は、認識対象データ501とは異なる環境で撮影されたデータであり、不審者が映っているデータセット、マスク着用者が映っているデータセット、夜間に撮影したデータセットを含む。学習データは、これまでの実施形態と同様に、入力データと教師データのペアから構成されるが、異なる点として、教師データは画像単位で設定する。具体的には、不審者が映っている入力データには1の教師データが付与され、その他の入力データには0の教師データが付与される。情報処理装置100は、このような学習データを用いてモデルの学習を行い、検知結果として画像ごとに、不審者が映っている可能性の高い場合は1に近い数値、そうでない場合は0に近い数値を出力するモデルを生成する。また、属性は、データセットの種類とし、学習用認識対象データ502と、不審者データの既存データ503と、マスク着用者データの既存データ503と、夜間撮影データの既存データ503の4種類である。
In the present embodiment, a data set of a moving image taken by a fixed camera is created as
他の各機能部の処理は、ここまでに説明した実施形態と同様の処理のため、詳細な説明は省略する。評価部202は、データ格納部201のデータを受け取り、学習途中のモデルを用いて不審者を検知する処理を実行し、検知結果と教師データを比較して入力データごとに評価値を取得する。評価値は、例えば、入力データごとに、検知結果と教師データの誤差二乗和を算出した結果とする。優先度設定部203は、固定カメラを設置した環境で不審者を検出することを目的とした学習のため、学習用認識対象データ502、不審者データの既存データ503の優先度を高く設定する。その後、バランス調整部204は、評価の結果と優先度に基づき学習サブセット内の属性ごとのデータ量を調整する。最後に、学習サブセット決定部205は、そのデータ量に基づき学習サブセットを作成し、学習部206が学習を行う。
Since the processing of each of the other functional parts is the same as that of the embodiments described so far, detailed description thereof will be omitted. The
以上に説明したように、情報処理装置100は、属性を変更することにより、任意の認識対象のモデル選択に利用することができる。
As described above, the
なお、以上の説明では、入力データは画像とし、教師データは画素単位や画像単位で与えたが、これに限定されない。入力データは、画像に限らず、音声データやテキストデータであってもよい。また、教師データは、画素単位ではなくデータ単位で与えることもできる。情報処理装置100は、各実施形態に説明した内容と同様の処理を実施することができる。
In the above description, the input data is an image, and the teacher data is given in pixel units or image units, but the present invention is not limited to this. The input data is not limited to images, but may be voice data or text data. Further, the teacher data can be given not in pixel units but in data units. The
実施形態1〜実施形態4によれば、情報処理装置100は、様々な属性の学習データを混ぜて学習するとき、学習に有効な学習データをバランス良く集めて、学習サブセットを作成することができる。情報処理装置100は、モデルが苦手な学習データを調べた結果と、属性を考慮して学習データのバランスを調整して学習サブセットを作成できる。
According to the first to fourth embodiments, the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that all of the above embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
100 情報処理装置,201 データ格納部,202 評価部,203 優先度設定部,204 バランス調整部,205 学習サブセット決定部,206 学習部,207 モデル格納部,208 重み決定部 100 Information processing device, 201 Data storage unit, 202 Evaluation unit, 203 Priority setting unit, 204 Balance adjustment unit, 205 Learning subset determination unit, 206 Learning unit, 207 Model storage unit, 208 Weight determination unit
Claims (18)
前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定手段と、
前記決定された学習サブセットを用いて、前記モデルの学習を行う学習手段と
を有することを特徴とする情報処理装置。 A first evaluation means, each of which inputs a plurality of training data including input data and teacher data, and obtains an evaluation value of each of the input data based on the teacher data by using a model.
A learning subset determination means for selecting a part of the learning data from the plurality of learning data and determining the learning subset based on the evaluation value and the priority for each attribute of the learning data.
An information processing apparatus comprising a learning means for learning the model using the determined learning subset.
前記学習サブセット決定手段は、前記調整された学習サブセット内の属性ごとのデータ量の割合を基に、前記複数の学習データの中の一部の学習データを選択し、前記学習サブセットを決定することを特徴とする請求項1に記載の情報処理装置。 The ratio of the amount of data for each attribute in the training subset based on the ratio of the amount of data for each attribute of the training data based on the evaluation value and the ratio of the amount of data for each attribute of the training data based on the priority. Further have adjustment means to adjust
The learning subset determining means selects a part of the learning data from the plurality of learning data based on the ratio of the amount of data for each attribute in the adjusted learning subset, and determines the learning subset. The information processing apparatus according to claim 1.
前記調整手段は、前記重みを基に、重みづけ加算することを特徴とする請求項3に記載の情報処理装置。 It further has a weight determining means for determining the weight based on each evaluation value of the input data.
The information processing apparatus according to claim 3, wherein the adjusting means is weighted and added based on the weights.
前記学習手段により学習されたそれぞれの重みに対するモデルの性能を評価し、最も性能が高いモデルに対応する重みを第1の重みとして決定する第2の評価手段をさらに有することを特徴とする請求項3に記載の情報処理装置。 While changing the weights, the adjusting means, the learning subset determining means, and the learning means each perform processing on their respective weights.
The claim is characterized by further having a second evaluation means for evaluating the performance of the model with respect to each weight learned by the learning means and determining the weight corresponding to the model with the highest performance as the first weight. The information processing apparatus according to 3.
前記第1の重みと前記第1の特徴量を基に、特徴量に基づき重みを推定する式を構築する構築手段とをさらに有し、
前記抽出手段は、新しい複数の学習データの全体の第2の特徴量を抽出し、
前記式を用いて、前記第2の特徴量に基づき重みを決定する重み決定手段をさらに有し、
前記調整手段は、前記決定された重みを基に、重みづけ加算することを特徴とする請求項7に記載の情報処理装置。 An extraction means for extracting the first feature amount of the entire plurality of training data, and an extraction means.
It further has a construction means for constructing an equation for estimating the weight based on the feature amount based on the first weight and the first feature amount.
The extraction means extracts the second feature amount of the whole of the new plurality of training data.
It further has a weight determining means for determining the weight based on the second feature amount by using the above formula.
The information processing apparatus according to claim 7, wherein the adjusting means is weighted and added based on the determined weight.
前記属性が認識対象データである場合の優先度は、前記属性が既存データである場合の優先度より高いことを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。 The attributes include recognition target data and existing data.
The information processing apparatus according to any one of claims 1 to 11, wherein the priority when the attribute is recognition target data is higher than the priority when the attribute is existing data.
前記評価値と前記学習データの属性ごとの優先度とを基に、前記複数の学習データの中の一部の学習データを選択し、学習サブセットを決定する学習サブセット決定ステップと、
前記決定された学習サブセットを用いて、前記モデルの学習を行う学習ステップと
を有することを特徴とする情報処理装置の情報処理方法。 A first evaluation step in which a plurality of training data including input data and teacher data are input, and an evaluation value of each of the input data is acquired based on the teacher data using a model.
A learning subset determination step of selecting a part of the learning data from the plurality of learning data and determining the learning subset based on the evaluation value and the priority of each attribute of the learning data.
An information processing method for an information processing apparatus, which comprises a learning step for learning the model using the determined learning subset.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068649A JP2021165909A (en) | 2020-04-06 | 2020-04-06 | Information processing apparatus, information processing method for information processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068649A JP2021165909A (en) | 2020-04-06 | 2020-04-06 | Information processing apparatus, information processing method for information processing apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021165909A true JP2021165909A (en) | 2021-10-14 |
Family
ID=78022119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020068649A Pending JP2021165909A (en) | 2020-04-06 | 2020-04-06 | Information processing apparatus, information processing method for information processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021165909A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7217570B1 (en) * | 2022-08-04 | 2023-02-03 | 株式会社センシンロボティクス | Information processing system and program, information processing method, server |
CN116909169A (en) * | 2023-09-14 | 2023-10-20 | 光轮智能(北京)科技有限公司 | Training method of operation control model, operation control method, equipment and medium |
-
2020
- 2020-04-06 JP JP2020068649A patent/JP2021165909A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7217570B1 (en) * | 2022-08-04 | 2023-02-03 | 株式会社センシンロボティクス | Information processing system and program, information processing method, server |
WO2024029046A1 (en) * | 2022-08-04 | 2024-02-08 | 株式会社センシンロボティクス | Information processing system and program, information processing method, and server |
CN116909169A (en) * | 2023-09-14 | 2023-10-20 | 光轮智能(北京)科技有限公司 | Training method of operation control model, operation control method, equipment and medium |
CN116909169B (en) * | 2023-09-14 | 2023-12-19 | 光轮智能(北京)科技有限公司 | Training method of operation control model, operation control method, equipment and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7493323B2 (en) | Information processing device, method for controlling information processing device, and program | |
JP2016133895A (en) | Information processing device, information processing method, and program | |
WO2020192442A1 (en) | Method for generating classifier using a small number of annotated images | |
JPWO2019026104A1 (en) | Information processing apparatus, information processing program, and information processing method | |
JP6973625B2 (en) | Learning equipment, learning methods and learning programs | |
JP6897749B2 (en) | Learning methods, learning systems, and learning programs | |
JP6844564B2 (en) | Inspection system, identification system, and learning data generator | |
JP2016040650A (en) | Classifier construction method, image classifying method, and image classifying device | |
CN111126278A (en) | Target detection model optimization and acceleration method for few-category scene | |
WO2023280229A1 (en) | Image processing method, electronic device, and storage medium | |
JP2021165909A (en) | Information processing apparatus, information processing method for information processing apparatus, and program | |
KR102364865B1 (en) | A method and apparatus for determining whether the product is defective or not | |
CN112348809A (en) | No-reference screen content image quality evaluation method based on multitask deep learning | |
CN111414930B (en) | Deep learning model training method and device, electronic equipment and storage medium | |
CN113283467B (en) | Weak supervision picture classification method based on average loss and category-by-category selection | |
CN111539456A (en) | Target identification method and device | |
JP2016110626A (en) | Classifying method, inspection method, inspection apparatus, and program | |
CN116977271A (en) | Defect detection method, model training method, device and electronic equipment | |
CN115345848A (en) | Quality inspection method of display screen based on big data | |
JP2016062249A (en) | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program | |
CN114511715A (en) | Driving scene data mining method | |
CN113627522A (en) | Image classification method, device and equipment based on relational network and storage medium | |
CN113516328A (en) | Data processing method, service providing method, device, equipment and storage medium | |
Chee et al. | Detecting Corruption in Real Video Game Graphics using Deep Convolutional Neural Networks. | |
CN118644667B (en) | Method and device for detecting surface defects of hub based on deep learning |