JP6611865B1 - 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム - Google Patents

学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム Download PDF

Info

Publication number
JP6611865B1
JP6611865B1 JP2018114544A JP2018114544A JP6611865B1 JP 6611865 B1 JP6611865 B1 JP 6611865B1 JP 2018114544 A JP2018114544 A JP 2018114544A JP 2018114544 A JP2018114544 A JP 2018114544A JP 6611865 B1 JP6611865 B1 JP 6611865B1
Authority
JP
Japan
Prior art keywords
image
type
correct
data
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018114544A
Other languages
English (en)
Other versions
JP2019219728A (ja
Inventor
勝人 伊佐野
勝人 伊佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2018114544A priority Critical patent/JP6611865B1/ja
Application granted granted Critical
Publication of JP6611865B1 publication Critical patent/JP6611865B1/ja
Publication of JP2019219728A publication Critical patent/JP2019219728A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体検出につき、物体に応じて精度の高い学習済みモデルを選定できる方法等を提供する。【解決手段】画像の機械学習に係る学習済みモデルが選定される。各画像は3種類以上の物体を含む可能性がある。コンピュータ10は、複数の学習用正解画像I5および複数の検証用正解画像I6を含む複数の正解用画像I3について、各物体を検出した正解データAを取得し、物体の種類セットごとに種類セット別学習済みモデルM1〜M6を生成し、種類セットごとに検証用データB1〜B6を生成し、物体の種類ごとに、種類セット別学習済みモデルM1〜M6のうち検証用データB1〜B6の精度が最も高くなるものを選定する。【選択図】図9

Description

本発明は、機械学習に係る学習済みモデルを選定する方法等に関する。
画像に基づいて、画像中に現れる物体の位置および名称を特定する処理のことを物体検出と呼ぶ。物体検出処理には、機械学習によって生成された学習済みモデルを用いる場合がある。このような処理の例は特許文献1に記載される。
物体検出処理を適切に学習させるためには、画像中の物体の位置および名称を正しく特定する訓練データを大量に準備する必要がある。画像のどこに何があるかというデータを入力する処理を、アノテーション処理と呼ぶ。
特開2014−130583号公報
従来の技術では、多数の物体に対する学習済みモデルを選定するとき、学習に用いることができる画像が少数しかない場合、学習済みモデルの精度を上げにくいという問題があった。
この発明は、このような問題点を解決するためになされたものであり、物体に応じて精度の高い学習済みモデルを選定できる方法等を提供することを目的とする。
上述の問題点を解決するため、この発明に係る方法は、
画像の機械学習に係る学習済みモデルを選定する方法であって、
各画像は3種類以上の物体を含む可能性があり、
コンピュータが、複数の学習用正解画像および複数の検証用正解画像を含む複数の正解用画像について、各物体を検出した正解データを取得するステップと、
コンピュータが、各前記学習用正解画像および前記正解データに基づき、互いに異なる複数の種類を含む種類セットについて、それぞれ種類セット別学習済みモデルを生成する、第1学習ステップと、
コンピュータが、前記種類セットのそれぞれについて、当該種類セットに係る前記種類セット別学習済みモデルに基づき、各前記検証用正解画像中の各物体を検出した検証用データを生成するステップと、
物体の各種類について、前記検証用正解画像に基づき、その種類を含む前記種類セットのうち前記検証用データの精度が最も高くなるものに基づき、物体の当該種類に対応する学習済みモデルを選定するステップと
を備える。
特定の態様によれば、
各画像はn種類(ただしnは3以上の整数)の物体を含む可能性があり、
前記第1学習ステップは、コンピュータが、個(ただしmは2≦m<nとなる整数)の種類セットのそれぞれについて、各前記正解用画像と、前記正解データのうち当該種類セットに係る種類セット別正解データとに基づき、種類セット別学習済みモデルを生成するステップを含む。
特定の態様によれば、m=2である。
また、この発明に係る方法は、
機械学習に用いられる訓練データを生成する方法であって、
上述の方法を用いて、学習済みモデルを選定するステップと、
物体の各種類について、選定された前記学習済みモデルを用いて、その種類に係る種類別訓練データを生成する、生成ステップと、
前記種類別訓練データに基づいて機械学習に用いられる訓練データを生成するステップと
を備える。
特定の態様によれば、
コンピュータが、複数の画像を複数のクラスタに分類するステップと、
コンピュータが、各クラスタから前記正解用画像を少なくとも1枚選択するステップと、
を備え、
前記生成ステップは、前記正解用画像でない前記画像に基づいて実行される。
また、この発明に係る方法は、
コンピュータが、画像に基づいて画像中の物体を検出するための学習済みモデルを生成する方法であって、
コンピュータが、上述の方法を用いて前記訓練データを生成するステップと、
コンピュータが、前記訓練データに基づいて学習済みモデルを生成するステップと、
を備え、
前記訓練データは、画像に基づいて画像中の物体を検出するために用いられる学習済みモデルを生成するための機械学習に用いられる
た、この発明に係るコンピュータは、上述の方法を実行する。
また、この発明に係るプログラムは、コンピュータに上述の方法を実行させる。
この発明に係る方法等によれば、一部の種類の物体のみに特化された種類セット別学習モデルを選択的に利用することができる。
本発明の実施の形態1に係るコンピュータの構成の例を示す図である。 図1のコンピュータが処理する画像の例である。 図1のコンピュータが実行する処理の流れを説明するフローチャートである。 図1のコンピュータが図3の処理に関連して処理する画像の種類を示す図である。 実施の形態1に係る正解データの構成の例を示す図である。 実施の形態1に係る種類セットの例を示す図である。 正解データを図6の種類セットに分割する処理を説明する図である。 図3のステップS8の処理の概要を示す図である。 図3のステップS9の処理の概要を示す図である。 図3のステップS11の処理の概要を示す図である。 図3のステップS12およびS13の処理の概要を示す図である。 図3のステップS14の処理の概要を示す図である。
以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1に、本発明の実施の形態1に係るコンピュータ10の構成の例を示す。コンピュータ10は、画像の機械学習に係る学習済みモデルを選定する装置として機能する。また、コンピュータ10は、機械学習に用いられる訓練データを生成する方法を実行することにより、訓練データを生成する装置としても機能する。また、コンピュータ10は、生成された訓練データを用いて学習済みモデルを生成する方法を実行することにより、学習済みモデルを生成する装置としても機能する。また、コンピュータ10は、本明細書に記載される他の方法を実行する機能を備える。
図1に示すように、コンピュータ10は公知のコンピュータとしての構成を有し、演算を行う演算手段11と、情報を格納する記憶手段12とを備える。演算手段11はたとえばCPU(中央処理装置)を含み、記憶手段12はたとえば半導体メモリおよびHDD(ハードディスクドライブ)を含む。
記憶手段12はプログラム(図示せず)も格納しており、演算手段11がこのプログラムを実行することによって、コンピュータ10は本明細書に記載される機能を実現する。すなわち、このプログラムは、コンピュータ10に本明細書に記載の方法を実行させるものである。
コンピュータ10は、公知のコンピュータが通常備える他の構成要素を備えてもよい。たとえば、出力装置であるディスプレイおよびプリンタ、入力装置であるキーボードおよびマウス、通信ネットワークに対する入力装置と出力装置とを兼ねるネットワークインタフェース、等を備えてもよい。
図2に、コンピュータ10が処理する画像の例を示す。画像は物体検出に用いられる。1枚の画像が複数種類の物体を含んでもよい。たとえば、各物体は、「ドライバー」、「ニッパー」、「レンチ」、「ハンマー」という4種類のいずれかに該当する。図2の例では4種類の物体が1つずつ現れている。
図2のような画像に基づく物体検出処理では、どのような種類の物体が画像中のどこに現れるかを特定する。画像データの表現形式はどのようなものであってもよいが、たとえばビットマップ形式であってもよく、他の形式であってもよい。すべての画像にすべての種類の物体が現れるとは限らず、また、1枚の画像に同じ種類の物体が複数現れる場合もある。
以上のような構成を備えるコンピュータ10の動作を、図3〜図12を用いて以下に説明する。
図3は、コンピュータ10(より厳密には、演算手段11)が実行する処理の流れを説明するフローチャートである。また、図4は、コンピュータ10が図3の処理に関連して処理する画像の種類を示す図である。
図3の処理において、コンピュータ10は、まず複数の画像I1を取得する(ステップS1)。本実施形態では画像I1として10万枚の画像が用いられる。画像I1はたとえば図2のような内容を有し、3種類以上の物体を含む可能性がある。とくに本実施形態では、各画像I1は、「ドライバー」、「ニッパー」、「レンチ」、「ハンマー」という4種類の物体を含む可能性があり、各画像I1は、いずれの種類も含まない画像と、1種類のみの物体を含む画像と、2種類のみの物体を含む画像と、3種類のみの物体を含む画像と、4種類すべての物体を含む画像と、のいずれかに該当する。
次に、コンピュータ10は、取得した画像I1をクラスタリングする(ステップS2)。たとえば、画像I1を1000個のクラスタに分類する。この処理はどのようなアルゴリズムで行われてもよい。たとえば、各画像I1の特徴を抽出し、特徴が類似しているものを同じクラスタに分類するような公知の処理を用いることができる。公知の画像自動選択ツールを用いてもよい。たとえば、訓練済みの物体認識モデルに入力し、中間層から出力されるデータを特徴として用いてもよい。訓練済みの物体認識モデルは、公知のConvolutional Neural Networkを用いてもよく、より具体的にはVGG16、Inception、ResNet等を用いてもよい。
次に、コンピュータ10は、画像I1の各クラスタから少なくとも1枚のサンプル画像I2(第2画像)を選択する(ステップS3)。たとえば、各クラスタから一定数のサンプル画像I2を選択してもよい。本実施形態では、各クラスタから1枚ずつのサンプル画像I2が選択される。ここで、本実施形態では画像I1について1000個のクラスタが形成されているので、合計1000枚のサンプル画像I2が選択されることになる。
次に、コンピュータ10は、サンプル画像I2をさらにクラスタリングする(ステップS4)。たとえば、サンプル画像I2を100個のクラスタに分類する。この処理はどのようなアルゴリズムで行われてもよい。たとえば、各サンプル画像I2の特徴を抽出し、特徴が類似しているものを同じクラスタに分類するような公知の処理を用いることができる。公知の画像自動選択ツールまたは訓練済みの物体認識モデル等を用いてもよく、ステップS2と同一の処理を用いてもよい。
次に、コンピュータ10は、サンプル画像I2の各クラスタから少なくとも1枚の正解用画像I3(第1画像)を選択する(ステップS5)。たとえば、各クラスタから同数の正解用画像I3を選択してもよい。本実施形態では、各クラスタから3枚ずつの正解用画像I3が選択される。サンプル画像I2のうち選択されなかったものは訓練データ用画像I4とする(後述)。本実施形態ではサンプル画像I2について100個のクラスタが形成されているので、合計300枚のサンプル画像I2が正解用画像I3となり、合計700枚のサンプル画像I2が訓練データ用画像I4となることになる。
ここで、すべてのサンプル画像I2が正解用画像I3として選択されるクラスタがあってもよい(言い換えると、訓練データ用画像I4が残らないクラスタがあってもよい)が、全体で少なくとも1枚の訓練データ用画像I4が残されるように、正解用画像I3が選択される。
次に、コンピュータ10は、正解用画像I3を一定の割合で、学習用正解画像I5(第3画像)と検証用正解画像I6(第4画像)に分割する。一定の割合とは、たとえば学習用画像I5が90%、検証用画像I6が10%であり、学習用正解画像I5の割合が検証用正解画像I6の割合より大きくなれば別の割合でもかまわない。本実施の形態では、90%を学習用正解画像I5に、10%を検証用正解画像I6に分割するとし、すなわち300枚の正解用画像I3を270枚の学習用正解画像I5と30枚の検証用正解画像I6に分割したとして説明する。
次に、コンピュータ10は、各正解用画像I3(すなわち各学習用正解画像I5および各検証用正解画像I6)について、各物体を検出した正解データを取得する(ステップS6)。
図5に、正解データAの構成の例を示す。正解データは、画像と、0個以上の物体の種類および位置を表す情報とを関連付けるデータである(1個以上の物体に係るデータのみに限定してもよい)。図5の例では、「001」という番号により特定される画像が、ドライバー、レンチおよびハンマーを1つずつ含んでいるということが示されている。各物体の位置は、たとえば矩形の枠によって表され、枠の左上頂点のx座標(x)と、枠の左上頂点のy座標(y)と、枠の横幅(w)と、枠の縦幅(h)とによって表される。同じ種類の物体が複数含まれていてもよく、その場合にはたとえば同じ種類で位置のみ異なるデータを繰り返して表現することが可能である。
コンピュータ10は、このような正解データAをどのような方法で取得してもよいが、たとえば、手動アノテーション用プログラム(アノテーションアプリ)を実行することによって正解データAが出力されてもよい。
アノテーションアプリは、たとえば、画像を表示し、画像内に表示されている物体の種類を入力する手段(ラジオボタン等)と、その物体の位置を入力する手段(画像に重畳して表示されドラッグ操作によって変形可能な矩形等)と、決定手段(表示されている種類および位置を正解データとして決定するためのボタン等)とを備えてもよい。
次に、コンピュータ10は、正解データAを物体の種類セット単位に分割する(ステップS7)。
図6および図7を用いて、種類セットへの分割処理を説明する。種類セットは、それぞれ複数(ただし全種類の数未満)の種類を含む集合である。本実施形態のように4種類の物体を用いる場合には、4種類未満の種類セットに分割することができる。図6および図7は、2種類の種類セットに分割した場合の例である。
この例では、各種類セットは2つの種類の組に対応するので、種類セットの数は、=6通りとなる。とくに、本実施形態では、「ドライバー」と「ニッパー」とを含む種類セット(以下「ドライバー&ニッパー」のように略記)と、「ドライバー&レンチ」と、「ドライバー&ハンマー」と、「ニッパー&レンチ」と、「ニッパー&ハンマー」と、「レンチ&ハンマー」との、合計6通りの種類セットが定義可能である。このように、各種類セットに含まれる種類の組み合わせは、互いに異なる。
図7に示すように、正解データAが種類セット単位に分割されて種類セット別正解データA1〜A6となる。各種類セット別正解データは、正解データAのうち、その種類セット別正解データに係る種類の物体に係る情報のみを含む。たとえば、画像「001」について、元の正解データAは「ドライバー」「レンチ」「ハンマー」の情報を含むが、「ドライバー&ニッパー」に係る種類セット別正解データA1は、これらのうちレンチおよびハンマーに係る情報を含まない。
次に、コンピュータ10は、学習用正解画像I5および種類セット別正解データA1〜A6に基づき、各種類セットについて機械学習を実行し、それぞれ種類セット別学習済みモデルを生成する(ステップS8、第1学習ステップ)。
図8に、ステップS8の処理の概要を示す。たとえば、270枚の学習用正解画像I5について、「ドライバー&レンチ」に係る種類セット別正解データA2を用いて機械学習が実行され、「ドライバー&レンチ」に係る種類セット別学習済みモデルM2が生成される。この種類セット別学習済みモデルM2は、画像中に現れるドライバーおよびレンチを検出してその位置を特定することができるが、ハンマーおよびニッパーに対しては反応しないということができる。このように、種類セットごとに、異なる組み合わせの種類の物体を検出するために用いられる種類セット別学習済みモデルが生成される。
種類セット別学習済みモデルは、画像に基づいて画像中の物体を検出するためのモデルである。すなわち、画像を入力として受け付け、画像に含まれる物体の種類および位置を特定して出力するためのモデルである。
具体的な学習方法および学習済みモデルの形式は任意に設計可能であるが、たとえば公知のSSD(Single Shot Multibox Detector)を用いることができる。また、学習を実行する際には、各種類セット別正解データについて必ずしもすべての正解用画像I3を用いるのではなく、対応する種類セットのいずれかが現れている正解用画像I3のみを用いてもよい(たとえば、「ドライバー&ニッパー」に係る種類セット別正解データA1を用いる場合には、ドライバーもニッパーも現れない正解用画像I3については学習対象から除外してもよい)。
なお、ステップS7を考慮すると、種類セット別正解データA1〜A6は全体で正解データAと同等の情報を含むので、種類セット別学習済みモデルの生成は、正解データA全体に基づいて行われると表現することも可能である。
次に、コンピュータ10は、種類セットのそれぞれについて、当該種類セットに係る種類セット別学習済みモデルに基づき、各正解用画像I3中の各物体を検出した検証用データを生成する(ステップS9)。
図9に、ステップS9の処理の概要を示す。たとえば「ドライバー&ニッパー」という種類セットについて、種類セット別学習済みモデルM1に、30枚の検証用正解画像I6を入力することにより、検証用データB1が出力される。検証用データB1は、画像と、0個以上の物体の種類および位置を表す情報とを関連付けるデータである。検証用データB1は、たとえば正解データAと同一の形式で表現することができる。同様にして、たとえば種類セット別学習済みモデルM2に基づいて検証用データB2が生成され、種類セット別学習済みモデルM3に基づいて検証用データB3が生成される。
次に、コンピュータ10は、各検証用データの精度を決定する(ステップS10)。精度は、たとえば、各検証用データが、それぞれ対応する種類セット別正解データをどの程度よく再現できているかを表す情報であり、公知の基準等を用いて決定可能である。
次に、コンピュータ10は、物体の種類ごとに、精度の高い種類セット別学習済みモデルを選定する(ステップS11)。この選定は、物体の各種類について、検証用正解画像I6に基づき、その種類を含む種類セットのうち検証用データB1〜B6の精度が最も高くなるものに基づき、物体の当該種類に対応する学習済みモデルを選定するよう実行される。
図10に、ステップS11の処理の概要を示す。各種類セット別学習済みモデルの精度が図示の通りであった場合、ドライバーに注目すると、ドライバーを含む種類セット別学習済みモデルは種類セット別学習済みモデルM1〜M3の3つであり、このうちで最も精度が高いものは種類セット別学習済みモデルM2である。したがって、コンピュータ10は、ドライバーについては種類セット別学習済みモデルM2を選定する。同様の処理が、ニッパー、レンチおよびハンマーについても行われる。
次に、コンピュータ10は、種類ごとに精度の高い種類セット別学習済みモデルを用い、訓練データ用画像I4に基づいて種類別訓練データを生成する(ステップS12、生成ステップ)。
図11に、ステップS12(および後述のステップS13)の処理の概要を示す。たとえばドライバーについて、最も精度の高い種類セット別学習済みモデルは、「ドライバー&レンチ」に係る種類セット別学習済みモデルM2である。この種類セット別学習済みモデルM2に、700枚の訓練データ用画像I4を入力することにより、ドライバーに係る種類別訓練データTAが出力される。
同様にして、ニッパーについて、最も精度の高い種類セット別学習済みモデル(たとえば種類セット別学習済みモデルM5)を用いて種類別訓練データTBが生成され、レンチについて、最も精度の高い種類セット別学習済みモデル(たとえば種類セット別学習済みモデルM6)を用いて種類別訓練データTCが生成され、ハンマーについて、最も精度の高い種類セット別学習済みモデル(たとえば種類セット別学習済みモデルM6)を用いて種類別訓練データTCが生成される。なお、図11の例ではレンチおよびハンマーについて最も精度の高い種類セット別学習済みモデルが同一であるので、これらについては1回の処理で並行して種類別訓練データTCを生成することも可能である。
種類別訓練データTA〜TCは、画像と、0個以上の物体の種類および位置を表す情報とを関連付けるデータである(1個以上の物体に係るデータのみに限定してもよい)。種類別訓練データTA〜TCは、たとえば正解データAまたは検証用データB1〜B6と同一の形式で表現することができる。
本実施形態では、各種類別訓練データTA〜TCは、最も精度が高い種類以外の種類についてのデータも含む。たとえば、種類セット別学習済みモデルM2はドライバーのみならずレンチについてのデータも含んでいるので、種類別訓練データTAもドライバーおよびレンチについてのデータを含むことになる。
このように、ステップS12では、物体の各種類について、訓練データ用画像I4に基づき、その種類を含む種類セットのうち検証用データB1〜B6の精度が最も高くなるものを用いて、その種類に係る種類別訓練データTA〜TCが生成される。
次に、コンピュータ10は、種類別訓練データTA〜TCに基づいて訓練データTを生成する(ステップS13)。たとえば、種類別訓練データTA〜TCをマージすることにより訓練データTを生成する。すなわち、同一の画像について、検出された各物体に係るデータがまとめられて1組のデータとなる。訓練データTは、画像と、0個以上の物体の種類および位置を表す情報とを関連付けるデータである(1個以上の物体に係るデータのみに限定してもよい)。検証用データB1は、たとえば正解データA、検証用データB1〜B6、種類別訓練データTA〜TC、等と同一の形式で表現することができる。
マージの具体的処理は適宜設計可能である。たとえば、マージの際に、最も精度が高い種類に係るデータのみを用いてもよい。図11の例では、レンチについて、ドライバーに係る種類別訓練データTAに含まれる部分は無視し(図11では二重取り消し線で示す)、レンチに係る種類別訓練データTCに含まれる部分のみを訓練データTに含めてもよい。
または、マージの際に、最も精度が高い種類に係るデータを優先してもよい。たとえば、レンチについて、ある訓練データ用画像I4についてレンチに係る種類別訓練データTCにレンチの検出結果が含まれている場合には、その訓練データ用画像I4についての他の種類別訓練データTAまたはTBに含まれるレンチの検出結果を無視し、レンチに係る種類別訓練データTCにレンチの検出結果が含まれていない場合には、その訓練データ用画像I4についての他の種類別訓練データTAまたはTBに含まれるレンチの検出結果を訓練データTに含めてもよい。
このようにして、700枚の訓練データ用画像I4に対応する訓練データTが生成される。訓練データTの生成は、アノテーション処理が行われることなく自動的に行われるので、手動で行う場合に比較してコストが節約できる。
また、一部の種類の物体のみに特化された種類セット別学習モデルを複数生成し、最も精度が高いものを選択的に利用して訓練データを生成するので、訓練データTの精度が高くなる。とくに、多種類(たとえば4種類)の物体を同時に検出するモデルを利用する場合や、単一種類の物体のみを検出するモデルを4種類組み合わせて利用する場合と比較すると、本実施形態ではより相性の良い種類の組み合わせに特化したモデルを用いているので、全体的に精度が向上する。ここで、「相性の良い種類の組み合わせ」とは、たとえば、互いに形状が類似いることまたは類似していないことにより、一方が検出されることまたはされないことにより、他方の検出に良い影響を与えるような組み合わせということができる。
説明のための仮想的具体例として、「猫」「虎」および「車」を含む多種類の物体検出を行う場合を考える。「猫&車」という種類セットでは、猫と車との類似度の低さから、全体の精度が向上する場合がある。一方、「猫&虎」という種類セットでは、猫と虎との類似度の高さから、全体の精度が低下する場合がある。このような場合には、「猫」の種類別訓練データの生成に「猫&車」を用いることにより、精度の高い訓練データを生成することができる。
本実施形態では、各種類セットが2種類の物体しか含まないので、少量の正解データAで検証用データB1〜B6の精度が高くなりやすく、また学習処理に要する時間も短い。また、とくに物体の種類が多い場合には、各種類セットを2種類にしておくと種類セットの数(組み合わせの数)も少なくなるので、組み合わせ爆発を回避して全体の処理を簡素にすることができる。
次に、コンピュータ10は、正解データAおよび訓練データTに基づいて全種類学習済みモデルMを生成する(ステップS14)。
図12に、ステップS14の処理の概要を示す。たとえば、1000枚のサンプル画像I2について、正解データAおよび訓練データTを用いて機械学習が実行される(より厳密には、サンプル画像I2のうち正解用画像I3については正解データAが用いられ、サンプル画像I2のうち訓練データ用画像I4については訓練データTが用いられる)。これによって全種類学習済みモデルMが生成される。
全種類学習済みモデルMは、種類セット別学習済みモデルM1〜M6と同様に、画像に基づいて画像中の物体を検出するためのモデルである。なお、全種類学習済みモデルMは、種類セット別学習済みモデルM1〜M6とは異なり、すべての種類について処理を行うことができる。
具体的な学習方法および学習済みモデルの形式は任意に設計可能であるが、たとえば公知のRCNN(Residual Convolutional Neural Network: Faster R-CNN; https://arxiv.org/abs/1506.01497)、SSD(Single Shot MultiBox Detector; https://arxiv.org/abs/1512.02325)、Yolo(You Only Look Once; https://pjreddie.com/darknet/yolo/)、等を用いることができる。
ステップS8における、第1学習ステップについても同様である。
全種類学習済みモデルMは、画像を入力として受け付け、画像に含まれる物体の種類および位置を特定して出力するためのモデルである。すなわち、全種類学習済みモデルMは、画像に基づいて画像中の物体を検出するようコンピュータを機能させるための学習済みモデルであるということができる。
なお図3の処理において、画像I1をクラスタリングした後(ステップS2)、各クラスタから一定数のサンプル画像I2を選択する(ステップS3)のは、それぞれの類似度が低いサンプル画像I2を得るためである。また訓練データ用画像I4のクラスタは、正解用画像I3のクラスタに含まれるので、学習の効果が期待できる。
上述の実施の形態1において、次のような変形を施すことができる。
物体の種類の数と、各種類セットに含まれる種類の数とは、任意に変更可能である。たとえば、各画像はn種類(ただしnは3以上の整数。実施の形態1ではn=4)の物体を含む可能性があり、各種類セットはm種類(ただしmは2≦m<nとなる整数。実施の形態1ではm=2)の物体に係るものとなる可能性がある。
その場合には、たとえばコンピュータ10は、個の種類セットのそれぞれについて、各正解用画像I3と、正解データAのうち当該種類セットに係る種類セット別正解データとに基づいて、種類セット別学習済みモデルを生成することになる。
また、種類セット別学習済みモデルは、必ずしも個生成されなくともよい。少なくとも2つの種類セット別学習済みモデルが生成されれば、その部分については本発明の効果を得ることができる。すなわち、少なくとも、第1種類セット別学習済みモデルが、各正解用画像I3と、第1種類セットに係る種類セット別正解データとに基づいて生成され、第2種類セット別学習済みモデルが、各正解用画像I3と、第2種類セットに係る種類セット別正解データとに基づいて生成されればよい。ただし、第1種類セットと第2種類セットとは、少なくとも1種類が共通し、かつ、少なくとも1種類が異なる。
実施の形態1では、ステップS14において正解用画像I3および訓練データ用画像I4をすべて用いたが、これらのうち一部のみを用いてもよい。また、正解用画像I3および正解データAを用いず、訓練データ用画像I4および訓練データTのみを用いても実行可能である。
実施の形態1では、ステップS6で取得した正解データAをステップS7で種類セット別正解データA1〜A6に分割したが、ステップS6において正解データとして種類セット別正解データA1〜A6を取得してもよい(その場合にはステップS7は省略してもよい)。
実施の形態1ではコンピュータ10がすべてのステップを実行したが、各ステップはそれぞれ異なるコンピュータによって実行されてもよい。たとえば、第1のコンピュータがステップS1〜S13を実行して訓練データTを生成し、第2のコンピュータが訓練データTに基づいて全種類学習済みモデルMを生成してもよい。
実施の形態1では、訓練データTは、画像に基づいて画像中の物体を検出するために用いられる学習済みモデルを生成するための機械学習に用いられるが、訓練データTは他の用途に用いてもよい。
10 コンピュータ、I1 画像、I2 サンプル画像(第2画像)、I3 正解用画像(第1画像)、A 正解データ、A1〜A6 種類セット別正解データ(正解データ)、B1〜B6 検証用データ、T 訓練データ、TA〜TC 各種類別訓練データ、M 学習済みモデル、M1〜M6 種類セット別モデル、S8 第1学習ステップ、S12 生成ステップ。

Claims (8)

  1. 画像の機械学習に係る学習済みモデルを選定する方法であって、
    各画像は3種類以上の物体を含む可能性があり、
    コンピュータが、複数の学習用正解画像および複数の検証用正解画像を含む複数の正解用画像について、各物体を検出した正解データを取得するステップと、
    コンピュータが、各前記学習用正解画像および前記正解データに基づき、互いに異なる複数の種類を含む種類セットについて、それぞれ種類セット別学習済みモデルを生成する、第1学習ステップと、
    コンピュータが、前記種類セットのそれぞれについて、当該種類セットに係る前記種類セット別学習済みモデルに基づき、各前記検証用正解画像中の各物体を検出した検証用データを生成するステップと、
    物体の各種類について、前記検証用正解画像に基づき、その種類を含む前記種類セットのうち前記検証用データの精度が最も高くなるものに基づき、物体の当該種類に対応する学習済みモデルを選定するステップと
    を備える方法。
  2. 各画像はn種類(ただしnは3以上の整数)の物体を含む可能性があり、
    前記第1学習ステップは、コンピュータが、個(ただしmは2≦m<nとなる整数)の種類セットのそれぞれについて、各前記正解用画像と、前記正解データのうち当該種類セットに係る種類セット別正解データとに基づき、種類セット別学習済みモデルを生成するステップを含む、
    請求項1に記載の方法。
  3. m=2である、請求項2に記載の方法。
  4. 機械学習に用いられる訓練データを生成する方法であって、
    請求項1〜3のいずれか一項に記載の方法を用いて、学習済みモデルを選定するステップと、
    物体の各種類について、選定された前記学習済みモデルを用いて、その種類に係る種類別訓練データを生成する、生成ステップと、
    前記種類別訓練データに基づいて機械学習に用いられる訓練データを生成するステップと
    を備える請求項1〜3のいずれか一項に記載の方法。
  5. コンピュータが、複数の画像を複数のクラスタに分類するステップと、
    コンピュータが、各クラスタから前記正解用画像を少なくとも1枚選択するステップと、
    を備え、
    前記生成ステップは、前記正解用画像でない前記画像に基づいて実行される、
    請求項4に記載の方法。
  6. コンピュータが、画像に基づいて画像中の物体を検出するための学習済みモデルを生成する方法であって、
    コンピュータが、請求項4または5に記載の方法を用いて前記訓練データを生成するステップと、
    コンピュータが、前記訓練データに基づいて学習済みモデルを生成するステップと、
    を備え、
    前記訓練データは、画像に基づいて画像中の物体を検出するために用いられる学習済みモデルを生成するための機械学習に用いられる、
    方法。
  7. 請求項1〜6のいずれか一項に記載の方法を実行するコンピュータ。
  8. コンピュータに請求項1〜6のいずれか一項に記載の方法を実行させるプログラム。
JP2018114544A 2018-06-15 2018-06-15 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム Active JP6611865B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018114544A JP6611865B1 (ja) 2018-06-15 2018-06-15 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114544A JP6611865B1 (ja) 2018-06-15 2018-06-15 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム

Publications (2)

Publication Number Publication Date
JP6611865B1 true JP6611865B1 (ja) 2019-11-27
JP2019219728A JP2019219728A (ja) 2019-12-26

Family

ID=68692045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114544A Active JP6611865B1 (ja) 2018-06-15 2018-06-15 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム

Country Status (1)

Country Link
JP (1) JP6611865B1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423631B2 (ja) * 2010-09-24 2014-02-19 株式会社デンソー 画像認識装置
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置

Also Published As

Publication number Publication date
JP2019219728A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
US11176415B2 (en) Assisted image annotation
JP6441980B2 (ja) 教師画像を生成する方法、コンピュータおよびプログラム
US9886669B2 (en) Interactive visualization of machine-learning performance
US20190095806A1 (en) SGCNN: Structural Graph Convolutional Neural Network
US10460256B2 (en) Interactive performance visualization of multi-class classifier
JP6182242B1 (ja) データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
JP2018200685A (ja) 完全教師あり学習用のデータセットの形成
JP7405775B2 (ja) コンピュータで実行される見積もり方法、見積もり装置、電子機器及び記憶媒体
JP6612486B1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
WO2023050651A1 (zh) 图像语义分割方法、装置、设备及存储介质
CN104484886A (zh) 一种mr图像的分割方法及装置
WO2019217562A1 (en) Aggregated image annotation
JP7298825B2 (ja) 学習支援装置、学習装置、学習支援方法及び学習支援プログラム
JP5898584B2 (ja) 六面体メッシュ生成装置
JP6330665B2 (ja) 可視化装置、可視化方法および可視化プログラム
JP6623851B2 (ja) 学習方法、情報処理装置および学習プログラム
TW202321979A (zh) 以並行卷積神經網路進行模式選擇的人臉識別的系統和方法
JP6611865B1 (ja) 学習済みモデルを選定する方法、訓練データを生成する方法、学習済みモデルを生成する方法、コンピュータおよびプログラム
JP6622369B1 (ja) 訓練データを生成する方法、コンピュータおよびプログラム
CN113010687B (zh) 一种习题标签预测方法、装置、存储介质以及计算机设备
US8606494B2 (en) Map generation apparatus, map generation method and computer readable medium
US11068716B2 (en) Information processing method and information processing system
JP2020057264A (ja) 計算機システム及びデータ分類の分析方法
US20230005248A1 (en) Machine learning (ml) quality assurance for data curation
US11961223B2 (en) Apparatus for predicting wheel performance in vehicle and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R150 Certificate of patent or registration of utility model

Ref document number: 6611865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250