JP7161974B2 - 品質管理方法 - Google Patents

品質管理方法 Download PDF

Info

Publication number
JP7161974B2
JP7161974B2 JP2019108386A JP2019108386A JP7161974B2 JP 7161974 B2 JP7161974 B2 JP 7161974B2 JP 2019108386 A JP2019108386 A JP 2019108386A JP 2019108386 A JP2019108386 A JP 2019108386A JP 7161974 B2 JP7161974 B2 JP 7161974B2
Authority
JP
Japan
Prior art keywords
inference
data
model
teacher model
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019108386A
Other languages
English (en)
Other versions
JP2020201727A (ja
Inventor
育郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2019108386A priority Critical patent/JP7161974B2/ja
Publication of JP2020201727A publication Critical patent/JP2020201727A/ja
Application granted granted Critical
Publication of JP7161974B2 publication Critical patent/JP7161974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、データセットの拡張方法に適用される品質管理方法に関する。
現在、深層学習は、物体認識、音声認識をはじめとした様々な分野で活用されている。深層学習は、その学習に用いるデータセット(教師データ、訓練データ等ともいう)が増えれば増えるほど精度が向上する。非特許文献1では、テスト誤差は、データセットのサイズのべき乗に比例すると推測している。
学習に用いるデータセットとしては、入力値とその入力値の正解ラベル(真値)のセットが用いられる。入力値を入力したときの推論結果と正解ラベルとの誤差に基づいて、逆誤差伝播法という方法によってニューラルネットワークモデルの学習が行われる。したがって、データセットのサイズを増やすためには、正解ラベルを持ったラベル有り入力値を増やす必要がある。
しかし、大量のラベル有り入力値を準備することは容易ではない。なぜなら、正解ラベルは、人が入力値を確認してその正解ラベルを付さなければならないからである。
最近では、知識継承によってモデルを学習する方法が知られている(非特許文献2)。これは、精度の高い推論を行える深くて大きいモデル(教師モデルともいう)によって入力値に対するラベルを推論し、その推論結果を入力値に対するラベルの準真値とし、ラベルと準真値を用いて新しいモデル(生徒モデルともいう)を学習する方法である。これは、「知識の蒸留」と呼ばれる方法であり、通常は、新たに生成されるモデルは、教師モデルに対して小さくて軽量なモデルである。
Joel Hestness他「Deep Learning Scaling is Predictable, Empirically」arXiv:1712.00409 Geoffrey Hinton, Oriol Vinyals, Jeff Dean「Distilling the Knowledge in a Neural Network」arXiv:1503.02531
上記したような知識継承を行うことによって、データセットを継続的に拡張することができるが、ここで問題となるのが品質管理である。学習したモデルによる推論において、不具合が起きた場合に原因を特定し、不具合に対処しなければならないが、この際に、不具合の原因を一定の論理性をもって特定できることが望ましい。
本発明は、上記背景に鑑み、学習モデルに不具合が発生した場合に、その原因を解析し、データセットの拡張に適用される品質管理方法を提供することを目的とする。
本発明の品質管理方法は、正解ラベルが既知のラベル有り入力値を教師データとして用いた学習によって教師モデルを生成するステップと、前記教師モデルに真値が不明なラベル無し入力値を入力して推論を行うステップと、前記推論によって求めた値を前記ラベル無し入力値に対応するラベルの準真値とし、前記ラベル無し入力値と前記準真値の組合せを教師データとして用いた学習によって、前記教師モデルよりも規模の小さい学習モデルを生成するステップとを備えるデータセットの拡張方法に適用される品質管理方法であって、前記学習モデルを用いた推論に失敗したとき、推論を失敗した不具合データ標本を前記教師モデルに与えて推論をするステップと、前記教師モデルによって推論した結果が正解か否かを判定するステップと、前記判定の結果が正解である場合に、前記学習モデルに推論失敗の原因があると判定するステップとを備える。
このように学習モデルを用いた推論に失敗したとき、推論を失敗した不具合データ標本に対して、教師モデルが正解できるか否かを判定し、教師モデルが正解できる場合には、学習モデル自体が推論失敗の原因であると特定する。学習モデル側の原因としては、例えば、学習モデルを実現するハードウェア(LSI等)の能力不足等が考えられる。
本発明の品質管理方法は、前記教師モデルによる推論結果が不正解と判定された場合に、前記教師モデルを生成する際に前記教師モデルの検証に用いたテストデータの中から、前記不具合データ標本と所定の類似度を有する類似データを検索するステップと、前記類似データを前記教師モデルに与えて推論をするステップと、前記教師モデルによって推論した結果が正解か否かを判定するステップと、前記判定の結果が正解である場合に、推論失敗の原因が、前記教師モデルを生成するのに用いたラベル有り入力値のデータにあると判定するステップとを備える。
このように不具合データ標本に類似するテストデータに対して、教師モデルが正解できるか否かを判定し、教師モデルが正解できる場合には、教師モデルの学習に用いた学習データに過学習を起こしている可能性があり、教師モデルを生成するのに用いたラベル有り入力値のデータが原因であると特定する。
本発明の品質管理方法は、前記類似データを検索するステップにて検索された類似データのデータ数が所定の基準に達しない場合には、推論失敗の原因が、前記教師モデルを生成するのに用いたラベル有り入力値のデータにあると判定するステップを備えてもよい。
このように不具合データ標本に類似するものとして検索された類似データのデータ数が所定の基準に達しない場合には、不具合データ標本に類似するデータ数が不足していると可能性があり、教師モデルを生成するのに用いたラベル有り入力値のデータが原因であると特定する。
本発明によれば、学習モデルでの推論に失敗した場合に、その原因が学習モデル側にあるのか教師モデル側にあるかの原因を特定することができる。
(a)教師モデルアンサンブルの生成について説明するための図である。(b)教師モデルアンサンブルを用いたデータセットの拡張を説明するための図である。 教師モデルアンサンブルで求めたラベル無し入力値の準真値を用いた学習モデル(生徒モデル)の生成について説明するための図である。 学習モデルにおいて推論失敗が起きたときに、その原因を特定するフローチャートである。
本発明の実施の形態のデータセットの拡張方法に適用される品質管理方法について説明する。最初に、データセットの拡張方法および拡張されたデータセットを用いて学習モデルを生成する方法について説明する。続いて、学習モデルにおいて推論失敗が起きたときに、原因を特定し、学習モデルの品質を管理する方法について説明する。
図1(a)は、教師モデルアンサンブルの生成について説明するための図である。教師モデルアンサンブルは、複数のモデル(学習器)を融合させて1つの教師モデルを構成する手法である。本実施の形態では、教師モデルアンサンブルを例としているが、教師モデルがアンサンブルであることは必須ではない。
教師モデルアンサンブルを学習するための教師データは、正解ラベルが既知のラベル有り入力値である。ラベル有り入力値は、訓練用のデータと検証用のテストデータに分けられる。訓練用のデータは、教師モデルアンサンブルの学習を行うために用いられる。検証用のテストデータは、学習中の教師モデルアンサンブルの推論の精度を検証し、適当なEPOCH数で学習を停止するために用いられる。
図1(b)は、教師モデルアンサンブルを用いたデータセットの拡張を説明するための図である。教師モデルアンサンブルに真値が不明なラベル無し入力値を入力して推論を行い、推論によって求めた値をラベル無し入力値に対応するラベルの準真値とする。ラベル無し入力値は、ラベル有り入力値よりも遥かに大量に存在するので、この方法により、大量のラベル無し入力値と準真値の組み合わせを求めることができる。なお、このようにして求めたラベル無し入力値に対する準真値を人が確認をしたうえでラベル付けし、ラベル有り入力値としてもよい。
図2は、教師モデルで求めたラベル無し入力値の準真値を用いた学習モデル(生徒モデル)の生成について説明するための図である。ラベル無し入力値とそれに対する準真値の組み合わせを教師データとして、教師モデルアンサンブルよりも規模の小さい学習モデルを生成する。この際に、教師モデルアンサンブルを生成するのに用いたラベル有り入力値も教師データとして用いてもよい。
図3は、学習モデルにおいて推論失敗が起きたときに、原因を特定し、学習モデルの品質を管理する方法について説明するための図である。学習モデルを用いた推論に失敗したときに、推論を失敗した不具合データ標本を教師モデルアンサンブルに与えて推論を行い(S10)、教師モデルアンサンブルによって推論した結果が正解か否かを判定する(S11)。この判定の結果、教師モデルアンサンブルが正解できた場合には(S11でYES)、推論失敗の原因が学習モデルにあると判定する(S16)。
教師データアンサンブルが不具合データ標本を推論した結果、推論失敗であった場合(S11でNO)、教師モデルアンサンブルを生成した教師データの検証用データの中から、不具合データ標本に類似する類似データを検索する(S12)。類似データの検索の方法としては、様々な手法を用いることができる。単純には、入力値に関連つけられたメタデータ(対象物、状況等)を参照し、メタデータが一致する入力値を類似と判断することができる。また、画像の意味的距離を規定し、不具合データ標本に対して所定の意味的距離を有する画像を類似画像として検索してもよいし、あるいは、意味的距離が近い方から所定数の類似画像を検索してもよい。
検索された類似データのデータ数が所定の閾値以上に達しない場合には(S13でNO)、不具合データ標本に類似するデータ数が不足していると判定する(S17)。つまり、不具合データ標本に類似するデータについて十分な学習を行えていないので、教師モデルアンサンブルにおいて不具合データ標本を正しく推論することができず、ひいては学習モデルでも推論を失敗したと判断できる。なお、本実施の形態では、類似データ数の判定に、所定の閾値を用いたが、類似データ数が十分かどうかは他の基準で判断してもよい。例えば、訓練データの全数に対して所定の割合(%)以上、存在するか否かを判定することとしてもよい。
類似データ数が所定の閾値以上である場合には(S13でYES)、類似データを教師モデルアンサンブルに適用して推論を行う(S14)。この結果、教師モデルアンサンブルが類似データに対して正解できたか否かを判定する(S15)。複数の類似データについて、正解できたか否かを判断する方法としては、例えば、所定の閾値(例えば70%)より高い正解率を得られたときに正解できたと判断してもよいし、全テストデータの正解率と比較し、全体の正解率より高い正解率が得られたときに正解できたと判断してもよい。
判定の結果、教師モデルアンサンブルが、不具合データ標本の類似データについて正解できた場合には(S15でYES)、教師モデルの過学習であると判定する(S18)。つまり、不具合データ標本とその類似データに対する過学習が進んで、汎化性能が低下している。
判定の結果、教師モデルアンサンブルが、不具合データ標本の類似データについて正解できなかった場合には(S15でNO)、教師データ以外の部分、例えば、入力用のハードウェア等に原因があると判定する(S19)。入力用のハードウェアとは、例えば、カメラの解像度や画角等である。
なお、本実施の形態において、教師モデルアンサンブルが類似データを正解できたか否かの判定結果に基づいて原因を出力する構成としたが、類似データを推論したときの正解率を出力することとしてもよい。これにより、類似データに対する正解率を見て、原因の所在を推定することができる。
データセットを継続的に拡張して生成した学習モデルに適用される品質管理方法として有用である。

Claims (3)

  1. コンピュータが、正解ラベルが既知のラベル有り入力値を教師データとして用いた学習によって教師モデルを生成するステップと、
    前記コンピュータが、前記教師モデルに真値が不明なラベル無し入力値を入力して推論を行うステップと、
    前記コンピュータが、前記推論によって求めた値を前記ラベル無し入力値に対応するラベルの準真値とし、前記ラベル無し入力値と前記準真値の組合せを教師データとして用いた学習によって、前記教師モデルよりも規模の小さい学習モデルを生成するステップと、
    を備えるデータセットの拡張方法に適用される品質管理方法であって、
    前記コンピュータが、前記学習モデルを用いた推論に失敗したとき、推論を失敗した不具合データ標本を前記教師モデルに与えて推論をするステップと、
    前記コンピュータが、前記教師モデルによって推論した結果が正解か否かを判定するステップと、
    前記コンピュータが、前記判定の結果が正解である場合に、前記学習モデルに推論失敗の原因があると判定するステップと、
    を備える品質管理方法。
  2. 前記コンピュータが、前記教師モデルによる推論結果が不正解と判定された場合に、前記教師モデルを生成する際に前記教師モデルの検証に用いたテストデータの中から、前記不具合データ標本と所定の類似度を有する類似データを検索するステップと、
    前記コンピュータが、前記類似データを前記教師モデルに与えて推論をするステップと、
    前記コンピュータが、前記教師モデルによって推論した結果が正解か否かを判定するステップと、
    前記コンピュータが、前記判定の結果が正解である場合に、推論失敗の原因が、前記教師モデルを生成するのに用いたラベル有り入力値のデータにあると判定するステップと、
    を備える請求項1に記載の品質管理方法。
  3. 前記コンピュータが、前記類似データを検索するステップにて検索された類似データのデータ数が所定の基準に達しない場合には、推論失敗の原因が、前記教師モデルを生成するのに用いたラベル有り入力値のデータにあると判定するステップを備える請求項2に記載の品質管理方法。
JP2019108386A 2019-06-11 2019-06-11 品質管理方法 Active JP7161974B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108386A JP7161974B2 (ja) 2019-06-11 2019-06-11 品質管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108386A JP7161974B2 (ja) 2019-06-11 2019-06-11 品質管理方法

Publications (2)

Publication Number Publication Date
JP2020201727A JP2020201727A (ja) 2020-12-17
JP7161974B2 true JP7161974B2 (ja) 2022-10-27

Family

ID=73743441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108386A Active JP7161974B2 (ja) 2019-06-11 2019-06-11 品質管理方法

Country Status (1)

Country Link
JP (1) JP7161974B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180749A1 (ja) * 2021-02-25 2022-09-01 日本電気株式会社 分析装置、分析方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2018190131A (ja) 2017-05-01 2018-11-29 日本電信電話株式会社 特定装置、分析システム、特定方法及び特定プログラム
JP2019082847A (ja) 2017-10-30 2019-05-30 株式会社Preferred Networks データ推定装置、データ推定方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2018190131A (ja) 2017-05-01 2018-11-29 日本電信電話株式会社 特定装置、分析システム、特定方法及び特定プログラム
JP2019082847A (ja) 2017-10-30 2019-05-30 株式会社Preferred Networks データ推定装置、データ推定方法及びプログラム

Also Published As

Publication number Publication date
JP2020201727A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
US11934956B2 (en) Regularizing machine learning models
US11568855B2 (en) System and method for defining dialog intents and building zero-shot intent recognition models
US11132512B2 (en) Multi-perspective, multi-task neural network model for matching text to program code
US11481416B2 (en) Question Answering using trained generative adversarial network based modeling of text
US11281976B2 (en) Generative adversarial network based modeling of text for natural language processing
US20230259784A1 (en) Regularized neural network architecture search
US11113479B2 (en) Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query
US11210470B2 (en) Automatic text segmentation based on relevant context
US10970493B1 (en) Systems and methods for slot relation extraction for machine learning task-oriented dialogue systems
US11625540B2 (en) Encoder, system and method for metaphor detection in natural language processing
US10909970B2 (en) Utilizing a dynamic memory network to track digital dialog states and generate responses
CN110569356B (zh) 基于智能面试交互系统的面试方法、装置和计算机设备
US20230034414A1 (en) Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program
JP7161974B2 (ja) 品質管理方法
JP2020135689A (ja) モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム
WO2020240572A1 (en) Method for training a discriminator
US20240005131A1 (en) Attention neural networks with tree attention mechanisms
US20240037335A1 (en) Methods, systems, and media for bi-modal generation of natural languages and neural architectures
US10929761B2 (en) Systems and methods for automatically detecting and repairing slot errors in machine learning training data for a machine learning-based dialogue system
CN114511023A (zh) 分类模型训练方法以及分类方法
CN116010563A (zh) 一种多轮对话数据分析方法、电子设备和存储介质
Nixon et al. Semi-supervised class discovery
US12008024B2 (en) System to calculate a reconfigured confidence score
CN113792703B (zh) 一种基于Co-Attention深度模块化网络的图像问答方法及装置
US11934794B1 (en) Systems and methods for algorithmically orchestrating conversational dialogue transitions within an automated conversational system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7161974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150