JP2022078377A - 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット - Google Patents

学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット Download PDF

Info

Publication number
JP2022078377A
JP2022078377A JP2019061930A JP2019061930A JP2022078377A JP 2022078377 A JP2022078377 A JP 2022078377A JP 2019061930 A JP2019061930 A JP 2019061930A JP 2019061930 A JP2019061930 A JP 2019061930A JP 2022078377 A JP2022078377 A JP 2022078377A
Authority
JP
Japan
Prior art keywords
learning
target data
feature amount
feature
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019061930A
Other languages
English (en)
Inventor
秀人 本村
Hideto Motomura
久治 村田
Hisaharu Murata
ジェッフリー フェルナンド
Fernando Jeffry
裕也 菅澤
Yuya SUGASAWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019061930A priority Critical patent/JP2022078377A/ja
Priority to PCT/JP2020/011114 priority patent/WO2020195958A1/ja
Publication of JP2022078377A publication Critical patent/JP2022078377A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】課題は、閾値を利用する判定の精度の向上が図れる、学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセットを提供することである。【解決手段】学習方法は、対象データから特徴量を算出する算出ステップ(S11)と、特徴量に基づく特徴量情報を提示する提示ステップ(S12)と、特徴量に基づく対象データの判定のための閾値の入力を受け付ける受付ステップ(S13)と、閾値を用いて、対象データと判定の結果との入出力関係を学習した学習済みモデルを生成する学習ステップ(S14)とを含む。【選択図】 図2

Description

本開示は、一般に、学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセットに関する。本開示は、特に、閾値を利用する判定のための、学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセットに関する。
特許文献1は、画像検査装置を開示する。特許文献1の画像検査装置は、基準画像の少なくとも一部及び検査画像の少なくとも一部を第1及び第2画像データとして画素レベルで対応させて画像重合処理を行う。そして、画像検査装置は、画像重合された第1及び第2画像データを比較して両画像データ間での差分を検出し、検出された差分に対して部分領域毎に異なる閾値を用いて相違点表示画像データを生成して画像検査処理を行う。
特許第6416531号公報
特許文献1の画像検査装置では、判定の精度を向上するためには、閾値を適切に設定する必要がある。
課題は、閾値を利用する判定の精度の向上が図れる、学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセットを提供することである。
本開示の一態様に係る学習方法は、算出ステップと、提示ステップと、受付ステップと、学習ステップとを含む。前記算出ステップは、対象データから特徴量を算出するステップである。前記提示ステップは、前記特徴量に基づく特徴量情報を提示するステップである。前記受付ステップは、前記特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるステップである。前記学習ステップは、前記閾値を用いて、前記対象データと前記判定の結果との入出力関係を学習した学習済みモデルを生成するステップである。
本開示の一態様に係る判定方法は、前記学習方法により得られた学習済みモデルを利用して、対象データの判定を行う判定ステップを含む。
本開示の一態様に係るプログラムは1以上のプロセッサに、前記学習方法を実行させるための、プログラムである。
本開示の一態様に係る学習システムは、算出部と、提示部と、受付部と、学習部とを含む。前記算出部は、対象データから複数の特徴量を算出するように構成される。前記提示部は、前記複数の特徴量に基づく特徴量情報を提示するように構成される。前記受付部は、前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるように構成される。前記学習部は、前記閾値を用いて、前記対象データと前記判定の結果との関係を機械学習のモデルに学習させるように構成される。
本開示の一態様に係る学習用データセットの生成方法は、算出ステップと、提示ステップと、受付ステップと、生成ステップとを含む。前記算出ステップは、対象データから複数の特徴量を算出するステップである。前記提示ステップは、前記複数の特徴量に基づく特徴量情報を提示するステップである。前記受付ステップは、前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるステップである。前記生成ステップは、前記対象データと前記閾値とを含む学習用データセットを生成するステップである。
本開示の一態様に係る学習用データセットは、対象データと、前記対象データから算出される複数の特徴量に基づく特徴量情報の提示に対して入力された、前記複数の特徴量に基づく前記対象データの判定のための閾値と、とを含む。
本開示の態様によれば、閾値を利用する判定の精度の向上が図れる、という効果を奏する。
図1は、実施形態1のシステムのブロック図である。 図2は、上記システムが実行する学習方法のフローチャートである。 図3は、上記システムが実行する判定方法のフローチャートである。 図4は、上記学習方法に用いられる基準画像の一例を示す図である。 図5は、上記学習方法に用いられる対象画像の一例を示す図である。 図6は、上記学習方法での特徴量の算出方法の説明図である。 図7は、上記特徴量の算出方法の説明図である。 図8は、上記学習方法で提示される特徴量画像の一例を示す図である。 図9は、実施形態2のシステムのブロック図である。 図10は、上記システムが実行する学習方法のフローチャートである。 図11は、上記学習方法における事前学習ステップの説明図である。 図12は、変形例の特徴量の算出方法の説明図である。
1.実施形態
1.1 実施形態1
1.1.1 概要
図1は、実施形態1のシステム10を示す。システム10は、学習方法及び判定方法を実行する。図2は、システム10が実行する学習方法のフローチャートを示し、図3は、システム10が実行する判定方法のフローチャートを示す。
本実施形態の学習方法は、対象データの判定を行う学習済みモデルを生成するための方法である。本実施形態の学習方法は、図2に示すように、算出ステップS11と、提示ステップS12と、受付ステップS13と、学習ステップS14とを含む。算出ステップS11は、対象データから特徴量を算出するステップである。提示ステップS12は、特徴量に基づく特徴量情報を提示するステップである。受付ステップS13は、特徴量に基づく対象データの判定のための閾値の入力を受け付けるステップである。学習ステップS14は、閾値を用いて、対象データと判定の結果との入出力関係を学習した学習済みモデルを生成するステップである。
このように、本実施形態の学習方法では、学習済みモデルでの判定に利用される特徴量に基づく特徴量情報を提示して、判定のための閾値の入力を受け付ける。そして、学習済みモデルの生成には、特徴量情報を考慮して入力された閾値が利用される。つまり、本実施形態の学習方法では、ユーザが、学習済みモデルでの判定に利用される特徴量に基づく特徴量情報を参照しながら、判定のための閾値を入力することができる。これによって、学習済みモデルは、ユーザにより入力された閾値に基づいて、対象データと判定の結果との入出力関係を学習することができる。よって、本実施形態の学習方法によれば、閾値を利用する判定の精度の向上が図れる。
本実施形態の判定方法は、対象データの判定を行う方法である。本実施形態の判定方法は、図3に示すように、判定ステップS21,S23を含む。判定ステップS21,S23は、本実施形態の学習方法により得られた学習済みモデルを利用して、対象データの判定を行うステップである。
このように、本実施形態の判定方法では、上記の学習方法で生成された学習済みモデルを利用して、対象データの判定を実行する。よって、本実施形態の判定方法によれば、閾値を利用する判定の精度の向上が図れる。
1.1.2 詳細
以下、本実施形態のシステム10について、図1~図8を参照して更に詳細に説明する。システム10は、学習方法及び判定方法を実行する。よって、システム10は、学習システム及び判定システムとしての側面を有する。学習方法は、対象データの判定を行う学習済みモデルを生成するための方法である。判定方法は、学習方法で生成された学習済みモデルを利用して対象データの判定を行う方法である。
本実施形態では、対象データは、対象画像30(図4及び図5参照)を表すデータである。対象画像30は、判定対象物20の画像である。判定対象物20は、缶である。対象画像30は、缶の底面を表している。また、図4の対象画像30は、正常な状態の判定対象物20を示す。図5の対象画像30は、異常な状態の判定対象物20を示す。図5の対象画像30では、判定対象物20に、異物21及び線傷22がある。なお、判定対象物20の異常な状態としては、判定対象物20に点打痕、円擦り傷、汚れ、及び液付着の少なくとも一つがある場合も含まれ得る。判定対象物20のどのような状態が、異常な状態かは、適宜決められる。
本実施形態では、対象データの判定は、対象データが表す対象画像30に写った判定対象物20が正常な状態か異常な状態かの判定を意味する。つまり、システム10は、対象データの入力に対して、対象データの判定の結果、つまり、判定対象物20が正常な状態か異常な状態かの判定の結果を出力する。このように、システム10は、判定対象物20の検査に利用され得る。
システム10は、図1に示すように、入力部11と、出力部12と、モデル格納部13と、処理部14とを備える。
入力部11は、システム10に情報を入力するために用いられる。入力部11によりシステム10に入力する情報の例としては、学習方法の実行のための情報、判定方法の実行のための情報、及び、システム10の操作のための情報を含み得る。入力部11は、情報の入力のための1以上のインタフェースを含む。1以上のインタフェースは、データの入力のためのポート、及びシステム10を操作するための入力装置を含む。入力装置は、例えば、キーボード、マウス、トラックボール、タッチパッド等を含み得る。
出力部12は、システム10から情報を出力するために用いられる。出力部12によりシステム10から出力する情報の例としては、学習方法の実行のための情報、判定方法の実行のための情報、及び、システム10の操作のための情報を含み得る。出力部12は、情報の出力のための1以上のインタフェースを含む。1以上のインタフェースは、データの出力のためのポート、及び情報を表示するための画像表示装置を備える。画像表示装置は、液晶ディスプレイや有機ELディスプレイ等の薄型のディスプレイ装置を含み得る。
モデル格納部13は、対象データの判定に使用される判定モデルを格納する。判定モデルは、対象データと判定の結果との関係を学習した学習済みモデルである。モデル格納部13は、1以上の記憶装置を含む。記憶装置は、例えば、RAM(Random Access Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)である。
処理部14は、システム10の全体的な制御、すなわち、入力部11、出力部12、及びモデル格納部13を制御するように構成される。処理部14は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部14として機能する。プログラムは、ここでは処理部14のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
処理部14は、図1に示すように、学習機能部F10と、判定機能部F20とを備える。図1において、学習機能部F10及び判定機能部F20は実体のある構成を示しているわけではなく、処理部14によって実現される機能を示している。
学習機能部F10は、対象データの判定を行う学習済みモデルを生成するための学習方法を実行する。つまり、学習機能部F10は、主に学習フェーズに関する処理を担う。学習方法では、複数の対象データが用いられる。つまり、対象画像30が学習画像として利用される。学習画像には、図4に示すような正常な状態の判定対象物20の画像だけではなく、図5に示すような異常な状態の判定対象物20の画像も含まれ得る。なお、学習方法に関しては、対象データを学習用データということがある。
学習機能部F10は、算出部F11と、提示部F12と、受付部F13と、学習部F14とを備える。
算出部F11は、対象データ(学習用データ)から特徴量を算出するように構成される。つまり、算出部F11は、対象データ(学習用データ)から特徴量を算出する算出ステップを実行する。特徴量の算出には、基準データが用いられる。基準データは、対象データの基準となるデータである。基準データは、対象データと同様に判定対象物20の画像である。本実施形態では、基準データは、正常な状態の判定対象物20の画像(基準画像)を示すデータである。よって、図4に示す対象画像30は、正常な状態の判定対象物20の画像を示しており、基準画像31として利用され得る。本実施形態では、基準画像31と学習画像(対象画像30)は、判定対象物20の位置及びサイズが一致している。また、基準画像31と学習画像(対象画像30)は、判定対象物20の背景が同じである。
算出部F11は、特徴ベクトルを利用して、特徴量を算出する。算出部F11は、図6に示すように、対象画像30及び基準画像31に共通して設定される、1以上の画素を含む同じ大きさの複数のブロック300のそれぞれから特徴量を算出する。各ブロック300は、m×nの画素で構成される。m、nはいずれも1以上の整数である。本実施形態では、各ブロック300は、5×5の画素で構成される。算出部F11は、対象データ(対象画像30)及び基準データ(基準画像31)それぞれにおいて、ブロック300毎に、特徴ベクトルを算出する。特徴ベクトルは、ブロック300に含まれる画素の画素値を要素とする。ブロック300が5×5の画素で構成される場合、特徴ベクトルは、25の要素を持つ。つまり、特徴ベクトルは、25次元空間のベクトルである。算出部F11は、図7に示すように、対象データから特徴ベクトル(第1特徴ベクトルV1)を算出し、対象データの基準となる基準データから第1特徴ベクトルV1に対応する特徴ベクトル(第2特徴ベクトルV2)を算出する。ここで、「第1特徴ベクトルV1に対応する」とは、第2特徴ベクトルV2が第1特徴ベクトルV1と同じブロック300に対応することを意味する。つまり、第1特徴ベクトルV1と第2特徴ベクトルV2とは、対象画像30と基準画像31とで同じ位置(ブロック)にある。算出部F11は、互いに対応する第1特徴ベクトルV1と第2特徴ベクトルV2との差分を特徴量とする。つまり、特徴量は、第1特徴ベクトルV1と第2特徴ベクトルV2との差分ベクトルV3で表される。算出部F11は、対象データが表す対象画像30の全てのブロック300について、特徴量である差分ベクトルV3を算出する。
提示部F12は、特徴量に基づく特徴量情報を提示するように構成される。つまり、提示部F12は、特徴量に基づく特徴量情報を提示する提示ステップを実行する。本実施形態では、特徴量情報は、図8に示すように、特徴量の大きさを示す特徴量画像40である。特徴量画像40は、対象画像30のブロック300毎に特徴量の大きさを示す。特徴量の大きさは、特徴量である差分ベクトルV3の大きさで評価される。特徴量画像40は、対象画像30の複数のブロック300のそれぞれを、対応する特徴量の大きさに応じた色で表す画像である。特徴量画像40は、いわゆるヒートマップである。なお、図8では、対象画像30のブロック300との関係を分かりやすく示すために、特徴量画像40を格子状の線に区切っているが、実際の画像では、格子状の線は表示しなくてよい。また、図8の特徴量画像40はあくまでも一例である。
特徴量画像40では、特徴量の大きさを、6つのレベルに分類しており、6つのレベルが異なる色で表されている。特徴量の大きさの分類は、絶対的な尺度で行ってもよいし、相対的な尺度で行ってもよい。相対的な尺度を用いる場合には、一例として、複数のブロック300の差分ベクトルV3の最大値に対する割合で、特徴量の大きさを分類してよい。図8では、色が濃いほど、特徴量が大きいことを示している。特徴量が大きいほど、第1特徴ベクトルV1が第2特徴ベクトルV2から遠い、つまり、似ていないことになる。
提示部F12は、特徴量画像40を提示する。更に、提示部F12は、特徴量画像40の生成に用いられた対象画像30を提示する。一例として、図8の特徴量画像40は、図5の対象画像30から得られている。本実施形態では、提示部F12は、出力部12を用いて、特徴量画像40及び対象画像30を提示する。特に、提示部F12は、出力部12の画像表示装置に、特徴量画像40及び対象画像30を一緒に表示する。これによって、特徴量画像40及び対象画像30の対比が容易になる。なお、特徴量画像40及び対象画像30は、画像表示装置の画面において、上下又は左右等の所定の方向に並べられてもよいし、重ねて表示されてもよい。
受付部F13は、特徴量に基づく対象データの判定のための閾値の入力を受け付けるように構成される。つまり、受付部F13は、特徴量に基づく対象データの判定のための閾値の入力を受け付ける受付ステップを実行する。受付部F13は、入力部11により、閾値の入力を受け付ける。特に、受付部F13は、提示部F12が特徴量画像40を提示している状態において、閾値の入力を受け付ける。したがって、ユーザは、特徴量画像40を参照しながら、閾値の入力が可能である。提示部F12は、特徴量画像40とともに、対象画像30を提示する。そのため、ユーザは、特徴量画像40及び対象画像30を見て、特徴量画像40において特徴量が大きい場所が、対象画像30のどの場所かを把握できる。例えば、特徴量画像40において、特徴量が比較的大きい領域41,42は、それぞれ、図5の対象画像30の異物21及び線傷22に対応している。ユーザは、異物21及び線傷22がある場合に対象データの判定の結果が異常となるように、閾値を入力する。つまり、ユーザは、判定対象物20の異常な部分に対応するブロック300と判定対象物20の正常な部分に対応するブロック300との境界となるブロック300が、閾値に該当する。受付部F13は、特徴量の大きさのレベルを閾値として、受け取ることができる。この場合に、ユーザは、特徴量の大きさのレベルをキーボード等で直接入力することができる。また、ユーザは、特徴量画像40において、閾値に使用したいレベルに対応するブロック300を指定することで、閾値の入力を行える。受付部F13は、閾値とするレベルが指定されると、指定されたレベルに分類される大きさの特徴量を持つブロック300を抽出し、抽出したブロック300に対応する差分ベクトルV3を閾値の決定に利用する。受付部F13は、抽出したブロック300に対応する差分ベクトルV3の代表値を持つベクトルを利用して、対象データの判定のための閾値を表す閾値ベクトルを設定する。ここで、代表値としては、平均値、最頻値、中央値、最大値、最小値が挙げられる。あるいは、受付部F13は、閾値とするレベルが指定されると、指定されたレベルを基準に、差分ベクトルを特徴量が閾値より大きい第1グループと特徴量が閾値より小さい第1グループとに分けてもよい。そして、受付部F13は、第1グループの代表となる差分ベクトルと第2グループの代表となる差分ベクトルとから等距離となるベクトルを閾値ベクトルとして設定してよい。第1グループの代表となる差分ベクトルは、第1グループにおいて最も中心に位置するベクトル、又は、第1グループにおいて第2グループに最も近いベクトルであってよい。第2グループの代表となる差分ベクトルは、第2グループにおいて最も中心に位置するベクトル、又は、第2グループにおいて第1グループに最も近いベクトルであってよい。このようにして、受付部F13は、ユーザから、対象画像30に適した、閾値を受け付ける。
学習部F14は、閾値(受付部F13で受け付けた閾値)を用いて、対象データと当該対象データの判定の結果との入出力関係を学習した学習済みモデルを生成するように構成される。つまり、学習部F14は、閾値を用いて、対象データと判定の結果との入出力関係を学習した学習済みモデルを生成する学習ステップを実行する。特に、学習部F14は、対象データ(対象画像30)と、対象データ(対象画像30)から生成された特徴量画像40に対して入力された閾値(閾値ベクトル)との対応関係を利用して、学習済みモデルを生成する。つまり、対象データ(対象画像30)に対して、閾値が決まれば、対象データ(対象画像30)に対して、判定対象物20が正常な状態か異常な状態かの判定の結果を出力することができる。本実施形態では、対象データの複数のブロックの差分ベクトルV3の少なくとも一つにおいて大きさが閾値ベクトル以上であれば、判定対象物20が異常な状態であるとしている。学習部F14は、対象データと、対象データから算出される複数の特徴量に基づく特徴量情報の提示に対して入力された複数の特徴量に基づく対象データの判定のための閾値とを含む、複数の学習用データセットを用意する。つまり、学習部F14は、提示部F12での処理(提示ステップ)と受付部F13での処理(受付ステップ)とを複数回実行して、複数の学習用データセットを生成する。学習部F14は、このようにして生成された複数の学習用データセットを用いた教師あり学習により、学習済みモデルを生成する。より詳細には、学習部F14は、複数の学習用データセットにより、人工知能のプログラム(アルゴリズム)に、対象データと当該対象データの判定の結果との入出力関係を学習させる。なお、人工知能のプログラムは、機械学習のモデルであって、例えば、階層モデルの一種であるニューラルネットワークが用いられる。学習部F14は、ニューラルネットワークに学習用データセットで機械学習(例えば、深層学習)を行わせることで、学習済みモデルを生成する。学習部F14は、生成した学習済みモデルを、モデル格納部13に格納する。
判定機能部F20は、学習方法で生成された学習済みモデルを利用して対象データの判定を行う判定方法を実行する。つまり、判定機能部F20は、主に推論フェーズに関する処理を担う。判定方法は、システム10に新しく入力される対象データに対して実施される。システム10に新しく入力される対象データは、学習済みモデルの生成に利用された対象データとは異なる。なお、判定方法に関しては、対象データを学習用データと区別して判定用データということがある。判定用データは、入力部11によりシステム10に入力され得る。
判定機能部F20は、判定部F21と、調整部F22とを備える。
判定部F21は、学習方法により得られた学習済みモデルを利用して、対象データの判定を行うように構成される。つまり、判定部F21は、学習方法により得られた学習済みモデルを利用して、対象データの判定を行う判定ステップを実行する。より詳細には、判定部F21は、入力部11により判定用データとしての対象データがシステム10に入力された場合に、モデル格納部13に格納された学習済みモデルを利用して、対象データ(判定用データ)の判定を行う。判定部F21は、入力部11を通じて対象データを受け取ると、モデル格納部13に格納された学習済みモデルに、受け取った対象データを入力して、対象データの判定の結果を出力させる。判定部F21は、対象データの判定の結果が得られると、出力部12により提示する。
調整部F22は、閾値の調整を行うように構成される。つまり、調整部F22は、閾値の調整を行う調整ステップを実行する。言い換えれば、調整部F22は、モデル格納部13に格納された学習済みモデルの再学習を行うといえる。調整部F22は、学習機能部F10の算出部F11、提示部F12、受付部F13、及び学習部F14と同様の処理を実行する。つまり、調整部F22は、対象データから特徴量を算出するステップ(第2算出ステップ)を実行する。また、調整部F22は、特徴量に基づく特徴量情報を提示するステップ(第2提示ステップ)を実行する。また、調整部F22は、特徴量に基づく対象データの判定のための閾値の入力を受け付けるステップ(第2受付ステップ)を実行する。また、調整部F22は、閾値を用いて、学習済みモデルに入出力関係を再度学習させるステップ(第2学習ステップ)を実行する。調整部F22は、算出部F11、提示部F12、受付部F13、及び学習部F14と同様の処理によって実現可能である。ユーザは、判定部F21での判定の結果が想定とは異なる場合に、調整部F22によって、閾値の調整を行うことができる。つまり、判定対象物20の環境等の影響により、モデル格納部13に格納された学習済みモデルでは、新しい対象データに対応できなくなってくることが想定される。このような場合に、調整部F22によって、再学習を行うことで、学習済みモデルを新しい対象データに適応させることが可能となる。
1.1.3 動作
1.1.3.1 学習
次に、システム10の学習時の動作(つまり、学習機能部F10の動作)について図2のフローチャートを参照して簡単に説明する。
まず、学習機能部F10に、学習用のデータとして、対象データを入力する(S10)。学習機能部F10は、算出部F11によって、入力された対象データから、特徴量を算出する(S11)。次に、学習機能部F10は、提示部F12によって、特徴量画像40を特徴量情報として提示する(S12)。そして、学習機能部F10は、受付部F13によって、ユーザからの閾値の入力を受け付ける(S13)。学習機能部F10は、ユーザにより入力された閾値を用いて、対象データと判定の結果との入出力関係を学習した学習済みモデルを生成する(S14)。
このように、本実施形態の学習方法では、学習済みモデルでの判定に利用される特徴量に基づく特徴量情報を提示して、判定のための閾値の入力を受け付ける。これによって、学習済みモデルは、ユーザにより入力された閾値に基づいて、対象データと判定の結果との入出力関係を学習することができる。よって、本実施形態の学習方法によれば、閾値を利用する判定の精度の向上が図れる。
1.1.3.2 判定
次に、システム10の判定時の動作(つまり、判定機能部F20の動作)について図3のフローチャートを参照して簡単に説明する。
まず、判定機能部F20に、判定用のデータとして、対象データを入力する(S20)。判定機能部F20は、判定部F21によって、入力された対象データから、学習済みモデルを用いて、対象データの判定の結果を出力する(S21)。ここで、ユーザがステップS21での判定の結果に疑義がある場合には、閾値の調整(学習済みモデルの再学習)が実行され得る(S22)。判定機能部F20は、ステップS22においては、対象データ(一例として、ステップS20で入力された対象データ)から、特徴量を算出し、特徴量に基づいて特徴量画像40を提示し、ユーザからの閾値の入力を受け付ける。学習機能部F10は、ユーザにより入力された閾値を用いて、学習済みモデルの再学習を実行する。そして、判定機能部F20は、判定部F21によって、入力された対象データから、再学習後の学習済みモデルを用いて、対象データの判定の結果を再度出力する(S23)。
このように、本実施形態の判定方法では、上記の学習方法で生成された学習済みモデルを利用して、対象データの判定を実行する。よって、本実施形態の判定方法によれば、閾値を利用する判定の精度の向上が図れる。更に、判定方法では、必要に応じて、学習済みモデルの再学習が可能である。この再学習においても、学習済みモデルでの判定に利用される特徴量に基づく特徴量情報を提示して、判定のための閾値の入力を受け付ける。よって、再学習により、閾値を利用する判定の精度の向上が図れる。ステップS22及びS23は、必ずしも毎回実行されるわけではなく、必要に応じて実行される。また、ステップS23の後に、更に、ステップS22が実行され、再度、ステップS23が実行される場合もある。つまり、閾値の調整(ステップS22)は、必要に応じて何回も実行可能である。
1.1.4 まとめ
以上述べたように、システム10は、学習システムとして機能し、算出部F11と、提示部F12と、受付部F13と、学習部F14とを備える。算出部F11は、対象データから複数の特徴量を算出するように構成される。提示部F12は、複数の特徴量に基づく特徴量情報を提示するように構成される。受付部F13は、複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるように構成される。学習部F14は、閾値を用いて、対象データと判定の結果との関係を機械学習のモデルに学習させるように構成される。よって、本実施形態の学習システム(システム10)によれば、閾値を利用する判定の精度の向上が図れる。
換言すれば、学習システム(システム10)は、下記の方法(学習方法)を実行しているといえる。学習方法は、対象データの判定を行う学習済みモデルを生成するための方法である。本実施形態の学習方法は、図2に示すように、算出ステップS11と、提示ステップS12と、受付ステップS13と、学習ステップS14とを含む。算出ステップS11は、対象データから特徴量を算出するステップである。提示ステップS12は、特徴量に基づく特徴量情報を提示するステップである。受付ステップS13は、特徴量に基づく対象データの判定のための閾値の入力を受け付けるステップである。学習ステップS14は、閾値を用いて、対象データと判定の結果との入出力関係を学習した学習済みモデルを生成するステップである。このような学習方法によれば、学習システム(システム10)と同様に、閾値を利用する判定の精度の向上が図れる。
また、学習システム(システム10)は、コンピュータシステム(1以上のプロセッサ)により実現されている。つまり、学習システムは、1以上のプロセッサがプログラム(コンピュータプログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに学習方法を実行させるためのプログラムである。このようなプログラムによれば、学習方法と同様に、閾値を利用する判定の精度の向上が図れる。
システム10は、判定部F21を備える。判定部F21は、学習方法で生成された学習済みモデルを利用して対象データの判定を行うように構成される。学習済みモデルは、上述したように、ユーザにより入力された閾値に基づいて、対象データと判定の結果との入出力関係を学習している。よって、システム10によれば、閾値を利用する判定の精度の向上が図れる。
換言すれば、システム10は、下記の方法(判定方法)を実行しているといえる。判定方法は、対象データの判定を行う方法である。本実施形態の判定方法は、図3に示すように、学習方法で生成された学習済みモデルを利用して対象データの判定を行う判定ステップ(S21,S23)を含む。このような判定方法によれば、システム10と同様に、閾値を利用する判定の精度の向上が図れる。
また、システム10は、コンピュータシステム(1以上のプロセッサ)により実現されている。つまり、システム10は、1以上のプロセッサがプログラム(コンピュータプログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに判定方法を実行させるためのプログラムである。このようなプログラムによれば、判定方法と同様に、閾値を利用する判定の精度の向上が図れる。
更に、本実施形態では、学習部F14は、学習用データセットを利用した教師あり学習により、学習済みモデルを生成している。すなわち、学習システム(システム10)は、学習用データセットの生成方法を実行している。この学習用データセットの生成方法は、算出ステップS11と、提示ステップS12と、受付ステップS13と、生成ステップ(学習ステップS14)とを含む。算出ステップS11は、対象データから複数の特徴量を算出するステップである。提示ステップS12は、複数の特徴量に基づく特徴量情報を提示するステップである。受付ステップS13は、複数の特徴量に基づく対象データの判定のための閾値の入力を受け付けるステップである。生成ステップ(学習ステップS14)は、対象データと閾値とを含む学習用データセットを生成するステップである。このような学習用データセットは、対象データと、対象データから算出される複数の特徴量に基づく特徴量情報の提示に対して入力された、複数の特徴量に基づく対象データの判定のための閾値とを含む。よって、このような学習用データセットを利用して学習を実行して得られた学習済みモデルを利用することで、閾値を利用する判定の精度の向上が図れる。
1.2 実施形態2
以下、実施形態2のシステム10Aについて、図9~図11を参照して説明する。システム10Aは、システム10の学習機能部F10とは異なる学習機能部F10Aを備える。
学習機能部F10Aは、対象データの判定を行う学習済みモデルを生成するための学習方法を実行する。学習機能部F10Aは、算出部F11と、提示部F12と、受付部F13と、学習部F14とに加えて、事前学習部F15を備える。
事前学習部F15は、複数の対象データを用いた教師なし学習により、人工知能のプログラムに複数の対象データのグループ分けを学習させて事前学習済みモデルを生成するように構成される。つまり、事前学習部F15は、複数の対象データを用いた教師なし学習により、人工知能のプログラムに複数の対象データのグループ分けを学習させて事前学習済みモデルを生成する事前学習ステップ(図10のステップS31)を実行する。より詳細には、事前学習部F15は、複数の対象データの各々について、算出部F11と同様に、ブロック300毎の特徴量(差分ベクトルV3)を算出する。事前学習部F15は、ブロック300毎に、教師なし学習により、特徴量に基づく対象データのグループ分けを実行する。教師なし学習のアルゴリズムとしては、クラスタリングが挙げられる。また、クラスタリングの一例としては、k-平均法が挙げられる。本実施形態では、対象データの判定の結果が、判定対象物20が正常な状態か異常な状態かの2つであるから、クラスタの数を2つとしてクラスタリングが実行され得る。例えば、図11に示すように、複数の対象データの同一ブロック300から算出される差分ベクトルV3は、クラスタC11,C12のいずれかに分類される。そして、差分ベクトルV3がクラスタC11,C12のいずれに属するかを決めるための閾値となる閾値ベクトルT10が決定される。このようにして、事前学習部F15は、ブロック300毎に閾値を設定し、事前学習済みモデルを生成する。
算出部F11は、事前学習部F15での事前学習済みモデルの生成に用いられた複数の対象データから選択される1以上の特定の対象データについて、1以上の特徴量の算出を行うように構成される。また、提示部F12は、1以上の特定の対象データについて1以上の特徴量情報を提示するように構成される。更に、受付部F13は、1以上の特定の対象データについて1以上の閾値の入力を受け付けるように構成される。
ここで、1以上の特定の対象データは、事前学習済みモデルに対してユーザの判断を反映させるために利用される。1以上の特定の対象データは、複数の対象データからランダムに選択されてもよい。ただし、本実施形態では、複数の対象データから、複数の特定の対象データを選択している。ここで、複数の特定の対象データの数は、複数の対象データの数よりも少ないほうが、学習方法において、ユーザの負担を低減できる。複数の特定の対象データは、複数の対象データのうち事前学習済みモデルでのグループ分けの信頼性が異なる複数の対象データである。ここで、グループ分けの信頼性は、同一クラスタに分類されると判断された特徴量に関して、クラスタの中心点からの距離で評価される。つまり、クラスタの中心点に近い特徴量ほどグループ分けの信頼性が高く、クラスタの中心点から遠い特徴量ほどグループ分けの信頼性が低い。ここで、複数の特定の対象データは、クラスタ毎に、クラスタの中心点に最も近い特徴量を含む対象データ(つまり、信頼性が高い対象データ)と、クラスタの中心点から最も遠い特徴量を含む対象データ(信頼性が低い対象データ)とを含むことが好ましい。
学習部F14は、1以上の特定の対象データについての1以上の閾値を用いて、事前学習済みモデルに入出力関係を学習させて、学習済みモデルを生成するように構成される。本実施形態では、学習部F14は、特定の対象データ(対象画像30)と、特定の対象データ(対象画像30)から生成された特徴量画像40に対して入力された閾値(閾値ベクトル)との対応関係を利用して、事前学習済みモデルに入出力関係を学習させる。事前学習済みモデルは、複数の対象データについて、特徴量の分類を学習しているが、この学習の結果にはユーザの判断が反映されていない。学習部F14は、対象データに対してユーザが与えた閾値を利用して、事前学習済みモデルにユーザの判断を学習させる処理を行う。例えば、図11において、差分ベクトルV31は、当初はクラスタC11に属している。ユーザが差分ベクトルV31はクラスタC12に属するべきだと考えて閾値を入力することによって、クラスタC11は、差分ベクトルV31を含まないクラスタC21に変更され、クラスタC12は、差分ベクトルV31を含むクラスタC22に変更され得る。更に、閾値ベクトルT10が、新たな閾値ベクトルT20に変更される。このように、学習部F14は、特定の対象データに対してユーザが入力した閾値を利用して、事前学習済みモデルの有する閾値ベクトルを修正することで、学習済みモデルにユーザの判断を反映させる。
具体的には、学習部F14は、特定の対象データから、対象データと閾値とを含む学習用データセットを用意する。学習部F14は、事前学習済みモデルをベースにして、学習用データセットを用いた教師あり学習を実行し、学習済みモデルを生成する。より詳細には、学習部F14は、学習用データセットにより、事前学習済みモデルに、対象データと当該対象データの判定の結果との入出力関係を学習させる。学習部F14は、複数の特定の対象データがある場合には、複数の特定の対象データの各々に対して、学習用データセットを用意する。学習部F14は、信頼性が高い順に、学習用データセットを事前学習済みモデルに適用して学習済みモデルを生成する。つまり、学習部F14は、信頼性が高い対象データから順に学習に用いる。これによって、算出部F11の処理(ステップS32)、提示部F12の処理(ステップS33)、受付部F13の処理(ステップS34)、及び学習部F14の処理(ステップS35)は、複数の特定の対象データについて、信頼性が高い順に実行される。学習部F14は、生成した学習済みモデルをモデル格納部13に格納する。
次に、システム10Aの学習時の動作(つまり、学習機能部F10Aの動作)について図10のフローチャートを参照して簡単に説明する。なお、判定機能部F20の動作については、システム10とシステム10Aとで変わりはない。
まず、学習機能部F10Aに、学習用のデータとして、複数の対象データを入力する(S30)。学習機能部F10Aは、事前学習部F15によって、複数の対象データから、事前学習済みモデルを生成する(S31)。学習機能部F10Aは、算出部F11によって、特定の対象データから、特徴量を算出する(S32)。次に、学習機能部F10Aは、提示部F12によって、特徴量情報(図8の特徴量画像40参照)を提示する(S33)。そして、学習機能部F10Aは、受付部F13によって、ユーザからの閾値の入力を受け付ける(S34)。学習機能部F10Aは、ユーザにより入力された閾値を用いて、特定の対象データと判定の結果との入出力関係を事前学習済みモデルに学習させ、学習済みモデルを生成する(S35)。
このように、本実施形態の学習方法では、学習済みモデルでの判定に利用される特徴量に基づく特徴量情報を提示して、判定のための閾値の入力を受け付ける。これによって、学習済みモデルは、ユーザにより入力された閾値に基づいて、対象データと判定の結果との入出力関係を学習することができる。よって、本実施形態の学習方法によれば、閾値を利用する判定の精度の向上が図れる。更に、複数の対象データから、事前学習済みモデルを生成し、この事前学習済みモデルをベースに、最終的な学習済みモデルを生成する。この場合、複数の対象データの全てに対して学習用データセットを作成する場合に比べれば、ユーザが閾値を入力する回数を減らすことができる。よって、学習方法の実施にかかるユーザの負担を低減できる。ここで、複数の対象データから複数の特定の対象データを選ぶ場合、算出ステップ(S32)、提示ステップ(S33)、受付ステップ(S34)、及び学習ステップ(S35)は、複数の特定の対象データについて、信頼性が高い順に実行されるとよい。
2.変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
一変形例では、算出部F11は、実施形態1,2と異なる方法で、特徴量を算出してよい。算出部F11は、対象画像30及び基準画像31に共通して設定される、1以上の画素を含む同じ大きさの複数のブロック300のそれぞれから特徴量を算出する。算出部F11は、対象データの全てのブロック300について特徴ベクトル(第1特徴ベクトルV1)を算出し、更に、対象データの基準となる基準データの全てのブロックについて特徴ベクトル(第2特徴ベクトルV2)を算出する。算出部F11は、第1特徴ベクトルV1に、第2特徴ベクトルV2のいずれとも合致しない第1特徴ベクトルV1があるかどうかを調べる。例えば、図12は、第1特徴ベクトルV1の分布を示している。図12において、G10は、第2特徴ベクトルV2のいずれかに合致する第1特徴ベクトルV1のグループを示す。G11は、第2特徴ベクトルV2のいずれにも合致しない第1特徴ベクトルV1のグループを示す。グループG11に属する第1特徴ベクトルV1は、基準画像31に存在しない特徴ベクトルであるから、判定対象物20の異常に関する可能性が高い。このような観点から、算出部F11は、対象データから第1特徴ベクトルV1を算出し、対象データの基準となる基準データから第1特徴ベクトルV1との距離が最も近い第2特徴ベクトルV2を算出する。そして、算出部F11は、第1特徴ベクトルV1と第2特徴ベクトルV2との差分を特徴量とする。言い換えれば、算出部F11は、次の算出ステップを実行する。算出ステップでは、算出部F11は、対象データから第1特徴ベクトルV1を算出し、対象データの基準となる基準データから第1特徴ベクトルV1との距離が最も近い第2特徴ベクトルV2を算出する。算出部F11は、第1特徴ベクトルV1と第2特徴ベクトルV2との差分を特徴量とする。特徴量が大きければ、基準画像31に存在しない特徴ベクトルである可能性が高く、判定対象物20の異常に関する可能性が高い。この場合には、対象画像30及び基準画像31において、判定対象物20の位置及びサイズをそろえておく必要がなくなる。そのため、対象画像30を得るための処理が簡略化され得る。
一変形例では、特徴量情報は、図8に示す特徴量画像40に限定されない。特徴量情報は、特徴量の大きさをユーザが理解できる形式の情報であればよい。例えば、特徴量情報の例としては、ヒートマップの他に、等高線及び3D棒グラフが挙げられる。
実施形態1では、システム10は、学習機能部F10及び判定機能部F20の両方を備えているが、学習機能部F10及び判定機能部F20の一方だけを備えていてよい。また、判定機能部F20は、調整部F22を必ずしも有している必要はない。この点は、実施形態2のシステム10Aにおいても同様に適用できる。
一変形例では、判定対象物20は、缶以外の物体であってもよい。物体は、検査又は検出の対象となる物体であってよく、一例としては、電気製品、車両、船舶、航空機、食器、家具、寝具、衣類、建物、遊具、書籍、看板等があり得る。
一変形例では、対象データは、画像を表すデータでなくてもよい。例えば、対象データは、音を表すデータであってもよい。つまり、対象データは、特徴量の算出が可能なデータであればよい。
一変形例では、システム(10,10A)は、複数のコンピュータにより構成されていてもよい。例えば、システム(10,10A)の機能(特に、学習機能部F10,F10A及び判定機能部F20)は、複数の装置に分散されていてもよい。更に、学習機能部F10,F10A及び判定機能部F20の機能の少なくとも一部が、例えば、クラウド(クラウドコンピューティング)によって実現されていてもよい。
以上述べたシステム(10,10A)の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるシステム(10,10A)の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FGPA)、ASIC(application specific integrated circuit)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
3.態様
上記実施形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施形態との対応関係を明示するためだけに、符号を括弧付きで付している。
第1の態様は、学習方法であって、算出ステップ(S11;S32)と、提示ステップ(S12;S33)と、受付ステップ(S13;S34)と、学習ステップ(S14;S35)とを含む。前記算出ステップ(S11;S32)は、対象データから特徴量を算出するステップである。前記提示ステップ(S12;S33)は、前記特徴量に基づく特徴量情報を提示するステップである。前記受付ステップ(S13;S34)は、前記特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるステップである。前記学習ステップ(S14;S35)は、前記閾値を用いて、前記対象データと前記判定の結果との入出力関係を学習した学習済みモデルを生成するステップである。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第2の態様は、第1の態様の学習方法に基づく。第2の態様では、前記特徴量情報は、前記特徴量の大きさ示す特徴量画像(40)である。この態様によれば、ユーザが閾値を容易に決定できるようになる。
第3の態様は、第2の態様の学習方法に基づく。第3の態様では、前記対象データは、対象画像(30)を表すデータである。前記提示ステップは、前記対象画像(30)と前記特徴量画像(40)とを提示する。この態様によれば、ユーザが閾値を容易に決定できるようになる。
第4の態様は、第3の態様の学習方法に基づく。第4の態様では、前記算出ステップ(S11)は、前記対象画像(30)に設定される、1以上の画素を含む同じ大きさの複数のブロック(300)のそれぞれから前記特徴量を算出する。前記特徴量画像(40)は、前記複数のブロック(300)のそれぞれを、対応する特徴量の大きさに応じた色で表す画像である。この態様によれば、ユーザが閾値を容易に決定できるようになる。
第5の態様は、第1~第4の態様のいずれか一つの学習方法に基づく。第5の態様では、前記学習ステップ(S14)は、複数の学習用データセットを用いた教師あり学習により、前記学習済みモデルを生成する。前記複数の学習用データセットは、前記提示ステップ(S12)と前記受付ステップ(S13)とを複数回実行して生成され、それぞれ前記対象データと前記閾値とを含む。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第6の態様は、第1~第4の態様のいずれか一つの学習方法に基づく。第6の態様では、前記学習方法は、前記算出ステップ(S32)の前に実行される事前学習ステップ(S31)を含む。前記事前学習ステップ(S31)は、複数の前記対象データを用いた教師なし学習により、人工知能のプログラムに前記複数の対象データのグループ分けを学習させて事前学習済みモデルを生成するステップである。前記算出ステップ(S32)は、前記複数の対象データのうちの1以上の特定の対象データについて1以上の特徴量を算出する。前記提示ステップ(S33)は、前記1以上の特定の対象データについて1以上の前記特徴量情報を提示する。前記受付ステップ(S34)は、前記1以上の特定の対象データについて1以上の前記閾値の入力を受け付ける。前記学習ステップ(S35)は、前記1以上の特定の対象データについての前記1以上の閾値を用いて、前記事前学習済みモデルに前記入出力関係を学習させて、前記学習済みモデルを生成する。この態様によれば、学習方法の実施にかかるユーザの負担を低減できる。
第7の態様は、第6の態様の学習方法であって、前記1以上の特定の対象データは、前記複数の対象データのうち前記事前学習済みモデルでの前記グループ分けの信頼性が異なる複数の特定の対象データである。前記算出ステップ(S32)、前記提示ステップ(S33)、前記受付ステップ(S34)、及び前記学習ステップ(S35)は、前記複数の特定の対象データについて、前記信頼性が高い順に実行される。この態様によれば、学習方法の実施にかかるユーザの負担を低減できる。
第8の態様は、第1~第7の態様のいずれか一つの学習方法に基づく。第8の態様では、前記算出ステップ(S11;S32)は、前記対象データから第1特徴ベクトル(V1)を算出し、前記対象データの基準となる基準データから前記第1特徴ベクトル(V1)に対応する第2特徴ベクトル(V2)を算出する。前記算出ステップ(S11;S32)は、前記第1特徴ベクトル(V1)と前記第2特徴ベクトル(V2)との差分を前記特徴量とする。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第9の態様は、第1~第7の態様のいずれか一つの学習方法に基づく。第9の態様では、前記算出ステップ(S11;S32)は、前記対象データから第1特徴ベクトル(V1)を算出し、前記対象データの基準となる基準データから前記第1特徴ベクトル(V1)との距離が最も近い第2特徴ベクトル(V2)を算出する。前記算出ステップ(S11;S32)は、前記第1特徴ベクトル(V1)と前記第2特徴ベクトル(V2)との差分を前記特徴量とする。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第10の態様は、判定方法であって、第1~第9の態様のいずれか一つの学習方法により得られた学習済みモデルを利用して、対象データの判定を行う判定ステップ(S21,S23)を含む。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第11の態様は、第10の態様の判定方法に基づく。第11の態様では、前記判定方法は、調整ステップ(S22)を更に含む。前記調整ステップ(S22)は、第2算出ステップと、第2提示ステップと、第2受付ステップと、第2学習ステップとを含む。前記第2算出ステップは、対象データから特徴量を算出するステップである。前記第2提示ステップは、前記特徴量に基づく特徴量情報を提示するステップである。前記第2受付ステップは、前記特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるステップである。前記第2学習ステップは、前記閾値を用いて、前記学習済みモデルに前記入出力関係を再度学習させるステップである。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第12の態様は、プログラム(コンピュータプログラム)であって、1以上のプロセッサに、第1~第9の態様のいずれか一つの学習方法を実行させるための、プログラムである。この態様によれば、閾値を利用する判定の精度の向上が図れる。なお、第12の態様の他例は、プログラム(コンピュータプログラム)であって、1以上のプロセッサに、第10又は第11の態様の判定方法を実行させるための、プログラムである。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第13の態様は、学習システム(10;10A)であって、算出部(F11)と、提示部(F12)と、受付部(F13)と、学習部(F14)と、を備える。前記算出部(F11)は、対象データから複数の特徴量を算出するように構成される。前記提示部(F12)は、前記複数の特徴量に基づく特徴量情報を提示するように構成される。前記受付部(F13)は、前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるように構成される。前記学習部(F14)は、前記閾値を用いて、前記対象データと前記判定の結果との関係を機械学習のモデルに学習させるように構成される。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第14の態様は、学習用データセットの生成方法であって、算出ステップ(S11)と、提示ステップ(S12)と、受付ステップ(S13)と、生成ステップ(S14)とを含む。前記算出ステップ(S11)は、対象データから複数の特徴量を算出するステップである。前記提示ステップ(S12)は、前記複数の特徴量に基づく特徴量情報を提示するステップである。前記受付ステップ(S13)は、前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付けるステップである。前記生成ステップ(S14)は、前記対象データと前記閾値とを含む学習用データセットを生成するステップである。この態様によれば、閾値を利用する判定の精度の向上が図れる。
第15の態様は、学習用データセットであって、対象データと、前記対象データから算出される複数の特徴量に基づく特徴量情報の提示に対して入力された、前記複数の特徴量に基づく前記対象データの判定のための閾値と、を含む。この態様によれば、閾値を利用する判定の精度の向上が図れる。
10,10A システム(学習システム)
F11 算出部
F12 提示部
F13 受付部
F14 学習部
30 対象画像
300 ブロック
40 特徴量画像
V1 特徴ベクトル(第1特徴ベクトル)
V2 特徴ベクトル(第2特徴ベクトル)
S11,S32 算出ステップ
S12,S33 提示ステップ
S13,S34 受付ステップ
S14,S35 学習ステップ
S31 事前学習ステップ
S21,S23 判定ステップ
S22 調整ステップ

Claims (15)

  1. 対象データから特徴量を算出する算出ステップと、
    前記特徴量に基づく特徴量情報を提示する提示ステップと、
    前記特徴量に基づく前記対象データの判定のための閾値の入力を受け付ける受付ステップと、
    前記閾値を用いて、前記対象データと前記判定の結果との入出力関係を学習した学習済みモデルを生成する学習ステップと、
    を含む、
    学習方法。
  2. 前記特徴量情報は、前記特徴量の大きさ示す特徴量画像である、
    請求項1の学習方法。
  3. 前記対象データは、対象画像を表すデータであり、
    前記提示ステップは、前記対象画像と前記特徴量画像とを提示する、
    請求項2の学習方法。
  4. 前記算出ステップは、前記対象画像に設定される、1以上の画素を含む同じ大きさの複数のブロックのそれぞれから前記特徴量を算出し、
    前記特徴量画像は、前記複数のブロックのそれぞれを、対応する特徴量の大きさに応じた色で表す画像である、
    請求項3の学習方法。
  5. 前記学習ステップは、前記提示ステップと前記受付ステップとを複数回実行して生成された、それぞれ前記対象データと前記閾値とを含む複数の学習用データセットを用いた教師あり学習により、前記学習済みモデルを生成する、
    請求項1~4のいずれか一つの学習方法。
  6. 前記算出ステップの前に実行される事前学習ステップを含み、
    前記事前学習ステップは、複数の前記対象データを用いた教師なし学習により、人工知能のプログラムに前記複数の対象データのグループ分けを学習させて事前学習済みモデルを生成するステップであり、
    前記算出ステップは、前記複数の対象データのうちの1以上の特定の対象データについて1以上の特徴量を算出し、
    前記提示ステップは、前記1以上の特定の対象データについて1以上の前記特徴量情報を提示し、
    前記受付ステップは、前記1以上の特定の対象データについて1以上の前記閾値の入力を受け付け、
    前記学習ステップは、前記1以上の特定の対象データについての前記1以上の閾値を用いて、前記事前学習済みモデルに前記入出力関係を学習させて、前記学習済みモデルを生成する、
    請求項1~4のいずれか一つの学習方法。
  7. 前記1以上の特定の対象データは、前記複数の対象データのうち前記事前学習済みモデルでの前記グループ分けの信頼性が異なる複数の特定の対象データであり、
    前記算出ステップ、前記提示ステップ、前記受付ステップ、及び前記学習ステップは、前記複数の特定の対象データについて、前記信頼性が高い順に実行される、
    請求項6の学習方法。
  8. 前記算出ステップは、前記対象データから第1特徴ベクトルを算出し、前記対象データの基準となる基準データから前記第1特徴ベクトルに対応する第2特徴ベクトルを算出し、前記第1特徴ベクトルと前記第2特徴ベクトルとの差分を前記特徴量とする、
    請求項1~7のいずれか一つの学習方法。
  9. 前記算出ステップは、前記対象データから第1特徴ベクトルを算出し、前記対象データの基準となる基準データから前記第1特徴ベクトルとの距離が最も近い第2特徴ベクトルを算出し、前記第1特徴ベクトルと前記第2特徴ベクトルとの差分を前記特徴量とする、
    請求項1~7のいずれか一つの学習方法。
  10. 請求項1~9のいずれか一つの学習方法により得られた学習済みモデルを利用して、対象データの判定を行う判定ステップを含む、
    判定方法。
  11. 調整ステップを更に含み、
    前記調整ステップは、
    対象データから特徴量を算出する第2算出ステップと、
    前記特徴量に基づく特徴量情報を提示する第2提示ステップと、
    前記特徴量に基づく前記対象データの判定のための閾値の入力を受け付ける第2受付ステップと、
    前記閾値を用いて、前記学習済みモデルに前記入出力関係を再度学習させる第2学習ステップと、
    を含む、
    請求項10の判定方法。
  12. 1以上のプロセッサに、請求項1~9のいずれか一つの学習方法を実行させるための、
    プログラム。
  13. 対象データから複数の特徴量を算出する算出部と、
    前記複数の特徴量に基づく特徴量情報を提示する提示部と、
    前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付ける受付部と、
    前記閾値を用いて、前記対象データと前記判定の結果との関係を機械学習のモデルに学習させる学習部と、
    を備える、
    学習システム。
  14. 対象データから複数の特徴量を算出する算出ステップと、
    前記複数の特徴量に基づく特徴量情報を提示する提示ステップと、
    前記複数の特徴量に基づく前記対象データの判定のための閾値の入力を受け付ける受付ステップと、
    前記対象データと前記閾値とを含む学習用データセットを生成する生成ステップと、
    を含む、
    学習用データセットの生成方法。
  15. 対象データと、
    前記対象データから算出される複数の特徴量に基づく特徴量情報の提示に対して入力された、前記複数の特徴量に基づく前記対象データの判定のための閾値と、
    を含む、
    学習用データセット。
JP2019061930A 2019-03-27 2019-03-27 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット Pending JP2022078377A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019061930A JP2022078377A (ja) 2019-03-27 2019-03-27 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット
PCT/JP2020/011114 WO2020195958A1 (ja) 2019-03-27 2020-03-13 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061930A JP2022078377A (ja) 2019-03-27 2019-03-27 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット

Publications (1)

Publication Number Publication Date
JP2022078377A true JP2022078377A (ja) 2022-05-25

Family

ID=72610530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061930A Pending JP2022078377A (ja) 2019-03-27 2019-03-27 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット

Country Status (2)

Country Link
JP (1) JP2022078377A (ja)
WO (1) WO2020195958A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7345867B2 (ja) * 2021-04-08 2023-09-19 株式会社ナガセインテグレックス 砥面判定装置、学習器、判定プログラム、および砥面判定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177139A (ja) * 2002-11-25 2004-06-24 Renesas Technology Corp 検査条件データ作成支援プログラム及び検査装置及び検査条件データ作成方法
JP5372365B2 (ja) * 2007-12-25 2013-12-18 株式会社日立ハイテクノロジーズ 検査装置及び検査方法
JP5260183B2 (ja) * 2008-08-25 2013-08-14 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
US9964500B2 (en) * 2014-12-08 2018-05-08 Hitachi High-Technologies Corporation Defect inspection device, display device, and defect classification device
JP6529315B2 (ja) * 2015-04-09 2019-06-12 キヤノン株式会社 主被写体検出方法、主被写体検出装置及びプログラム
JP6597972B2 (ja) * 2016-03-23 2019-10-30 株式会社Screenホールディングス 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
WO2020195958A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
US11256961B2 (en) Training a neural network to predict superpixels using segmentation-aware affinity loss
US10318848B2 (en) Methods for object localization and image classification
JP5352738B2 (ja) 3次元モデルを使用した物体認識
US20200125889A1 (en) Information processing device, recording medium recording information processing program, and information processing method
US20180365532A1 (en) Semi-supervised learning for landmark localization
Yuan et al. Iterative transformer network for 3d point cloud
JP5174040B2 (ja) 画像の構成要素と背景とを区別するためにコンピュータで実行される方法および画像の構成要素と背景とを区別するためのシステム
CN110060237A (zh) 一种故障检测方法、装置、设备及系统
JP2018200685A (ja) 完全教師あり学習用のデータセットの形成
CN111275660B (zh) 一种平板显示器缺陷检测方法及装置
CN112241784A (zh) 训练生成模型和判别模型
KR20150111641A (ko) 계층적 패턴 구조에 기반한 기술자 생성 방법 및 이를 이용한 객체 인식 방법과 장치
US20210272295A1 (en) Analysing Objects in a Set of Frames
TWI831016B (zh) 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體
CN111127400A (zh) 一种乳腺病变检测方法和装置
Wang et al. Recent advances in 3D object detection based on RGB-D: A survey
BR112021008735A2 (pt) sistema automático de análise de conteúdo de alta faixa dinâmica em tempo real
WO2020195958A1 (ja) 学習方法、判定方法、プログラム、学習システム、学習用データセットの生成方法、及び、学習用データセット
CN113128565B (zh) 面向预训练标注数据不可知的图像自动标注系统和装置
KR102225099B1 (ko) 불량 이미지 생성 장치 및 방법
US11816185B1 (en) Multi-view image analysis using neural networks
WO2021019865A1 (ja) 検査装置、検査方法、および、検査プログラム、ならびに、学習装置、学習方法、および、学習プログラム
US20220092448A1 (en) Method and system for providing annotation information for target data through hint-based machine learning model
US11605230B2 (en) Systems and methods for compliance monitoring
US20210056247A1 (en) Pose detection of objects from image data