JP7456289B2 - 判定プログラム、判定方法および情報処理装置 - Google Patents

判定プログラム、判定方法および情報処理装置 Download PDF

Info

Publication number
JP7456289B2
JP7456289B2 JP2020093595A JP2020093595A JP7456289B2 JP 7456289 B2 JP7456289 B2 JP 7456289B2 JP 2020093595 A JP2020093595 A JP 2020093595A JP 2020093595 A JP2020093595 A JP 2020093595A JP 7456289 B2 JP7456289 B2 JP 7456289B2
Authority
JP
Japan
Prior art keywords
data
learning
model
test data
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020093595A
Other languages
English (en)
Other versions
JP2021189685A (ja
Inventor
茉莉子 加瀬
裕司 溝渕
拓未 赤▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020093595A priority Critical patent/JP7456289B2/ja
Publication of JP2021189685A publication Critical patent/JP2021189685A/ja
Application granted granted Critical
Publication of JP7456289B2 publication Critical patent/JP7456289B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、判定プログラム、判定方法および情報処理装置に関する。
機械学習の能力は、学習させるデータの質および量に寄与することが一般的に知られており、大量かつ質の高い正解タグ付きデータ(教師データ)を用意するために、データに対して正解タグを付与するアノテーション作業が行われている。質の高い教師データを生成するためには、MATTERと呼ばれるサイクルを実行することが行われている。例えば、MATTERサイクルは、Model、Annotate、Train、Test、Evaluate、Reviseの各フェーズを繰り返して実行する。ここで、Modelフェーズでは、タグの種類や判定基準などのルール作りが実行され、Annotateフェーズでは、アノテーション作業が実行され、Trainフェーズでは、学習が実行される。また、Testフェーズでは、学習器(モデル)の能力の確認が実行され、Evaluateフェーズでは、教師データの不備の対応付けが検討され、Reviseフェーズでは、学習器の修正が検討される。
そして、アノテーション作業としては、ルールベースの自動化手法や能動学習手法などが知られている。例えば、ルールベースの自動化手法は、専門家によるアノテーションをLabel Functionとして関数化することで、大量の教師データを生成する手法である。能動学習手法は、小数の専門家によるタグ付きデータと、大量の正解無しデータを用意し、正例と負例の境界付近にある正解無しのデータにのみタグを付与することで、判定に寄与するデータにタグ付けを行う手法である。
近年では、アノテーション作業により生成された教師データを修正する手法として、全教師データを学習用と評価用に分割し、学習と評価を複数回繰り返した中で、教師データ毎の誤判定の回数を記録することで、ミスタグしている可能性の高い教師データを抽出する技術が知られている。
特開2015-232847号公報 特開2018-155522号公報 米国特許出願公開第2016/0275417号明細書
"AIプロダクト品質保証ガイドライン"、AIプロダクト品質保証コンソーシアム、2019年5月17日公開
しかしながら、上記技術では、アノテーション作業により生成された教師データの修正が必要か否かの判定が効率的ではなく、修正対象の教師データを特定することが難しい。例えば、上記特許文献3では、誤判定の回数を全教師データに対して取得する必要があるので、全ての教師データが最低1回でもモデル検証用データになるよう処理を繰り返す必要がある。例えば、全教師データ10,000件のうちテストデータを2,000件とした場合、少なくとも5回は学習させることになり、処理量が膨大となる。
一つの側面では、修正対象の教師データを効率的に特定することができる判定プログラム、判定方法および情報処理装置を提供することを目的とする。
第1の案では、判定プログラムは、コンピュータに、複数の学習データを含む学習データ群と複数のテストデータを含むテストデータ群とを含む教師データのうち、前記学習データ群を用いてモデルの機械学習を実行する処理を実行させる。判定プログラムは、コンピュータに、前記テストデータ群を用いて学習後の前記モデルから得られた推測結果に基づき、前記モデルによる推測結果が誤判定である特定のテストデータを選択する処理を実行させる。判定プログラムは、コンピュータに、前記特定のテストデータに対応する特定の学習データを、前記学習データ群から除外した更新後の学習データを用いて、前記モデルの再学習を実行する処理を実行させる。判定プログラムは、コンピュータに、前記モデルの再学習の結果に応じて、修正対象の教師データを特定する処理を実行させる。
一つの側面では、修正対象の教師データを効率的に特定することができる。
図1は、実施例1にかかる情報処理装置の動作を説明する図である。 図2は、実施例1にかかる情報処理装置の動作を説明する図である。 図3は、実施例1にかかる情報処理装置の動作を説明する図である。 図4は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図5は、BIOタグを説明する図である。 図6Aは、固有表現を抽出したいテキストの例を示す図である。 図6Bは、アノテーション作業により作成された教師データを示す図である。 図7は、教師データDBに保存された単語埋込表現の例を示す図である。 図8は、推測結果の例を説明する図である。 図9は、教師データのベクトル空間上に学習データとテストデータ及び推測結果を表示した二次元マップを説明する図である。 図10は、修正の要否判定を説明する図である。 図11は、ユーザに表示する修正画面例を説明する図である。 図12は、修正の要否判定を説明する図である。 図13は、教師データの修正処理の流れを示すフローチャートである。 図14は、修正候補の検討処理の流れを示すフローチャートである。 図15は、ハードウェア構成例を説明する図である。
以下に、本願の開示する判定プログラム、判定方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[情報処理装置10の動作の説明]
機械学習により生成されるモデルの性能は、学習させるデータの質および量に寄与することから、多くの教師データを用いて機械学習を実行することが要求される。しかし、収集した教師データが、常に正しくアノテーションされているとは限らず、正解タグが間違って付与された教師データを用いたまま機械学習を実行すると、モデルの性能を上げることが難しい。
そこで、情報処理装置10は、アノテーション作業により正解タグが付与された教師データについて、作成された教師データから修正対象の教師データを効率的に特定する。具体的には、情報処理装置10は、教師データを何等かの埋め込み表現技術を用いてベクトル空間上に保持する。情報処理装置10は、複数の学習データを含む学習データ群を用いてモデルの機械学習を実行する。情報処理装置10は、複数のテストデータを含むテストデータ群を学習後のモデルに入力して得られた推測結果に基づき、推測結果が誤判定であるテストデータを含む上記ベクトル空間上の範囲を「修正候補範囲」とする。情報処理装置10は、上記「修正候補範囲」に含まれる特定の学習データを除外した仮学習データ群を用いて、モデルの再学習を実行する。その後、情報処理装置10は、モデルの再学習の結果に応じて、修正対象の教師データを特定する。
なお、情報処理装置10は、アノテーション済みの教師データがあることを前提とする。また、実施例1では、テキストデータから固有表現を抽出するタスクを例にして説明する。
ここで、図1から図3を用いて、情報処理装置10による、アノテーション作業により生成された教師データの修正要否の判定について説明する。図1、図2、図3は、実施例1にかかる情報処理装置10の動作を説明する図である。
アノテーション作業により生成された教師データについて、Word2Vecなどの埋込表現(ベクトル表現)を用いて、埋込空間(ベクトル空間)上にプロットする。その際に、正例と負例のクラスタリングを行い、ベクトル空間上に境界線を設ける。
図1に示すように、情報処理装置10は、アノテーション作業により生成された教師データのうち任意のデータ(例えば全体の9割)を学習データとし、この学習データを含む学習データ群を用いて、モデルの機械学習を実行する。
続いて、情報処理装置10は、学習データを用いて機械学習された学習後のモデルに、アノテーション作業により生成された教師データのうち任意のデータ(例えば全体の1割)をテストデータとし、このテストデータを含むテストデータ群を入力して、モデルによる推測結果を取得する。そして、情報処理装置10は、各テストデータの入力に応じたモデルの推測結果に基づき、教師データのベクトル空間上で、間違えた推測が行われたテストデータを特定する。さらに、情報処理装置10は、各テストデータを入力したときのモデルのF値(第1のF値)を取得する。なお、F値とは、再現率と適合率の調和平均であり、0から1の範囲の値で示され、値が1に近いほうが「モデルの性能が良い」ことを示す。
次に、図2に示すように、情報処理装置10は、教師データのベクトル空間上のテストデータのプロットに対して、テストデータの推測結果と、元のアノテーションが異なるデータを推測を間違えたデータとして特定し、正例、負例の境界付近でかつ推測結果が誤判定であるデータを含む範囲を「修正候補範囲」として選択する。そして、情報処理装置10は、学習器側の問題と切り分けるために、テストデータ群から「修正候補範囲」に含まれるテストデータを削除した仮テストデータ群を生成する。
同様に、情報処理装置10は、教師データのベクトル空間上の学習データのプロットに、前記「修正候補範囲」を対応付け、「修正候補範囲」に含まれる学習データを特定する。そして、情報処理装置10は、学習データ群から「修正候補範囲」に含まれる学習データを削除した仮学習データ群を生成する。
その後、図3に示すように、情報処理装置10は、仮学習データ群に含まれる各学習データを用いて、モデルの再学習を実行する。そして、情報処理装置10は、仮学習データ群を用いて再学習された再学習後のモデルに、仮テストデータ群の各テストデータを入力し、モデルの推測結果を取得する。このとき、情報処理装置10は、仮テストデータ群の各テストデータを入力したときのモデルのF値(第2のF値)を取得する。
そして、情報処理装置10は、削除前の学習データ群を用いたときのF値(第1のF値)と、削除後の仮学習データ群を用いたときのF値(第2のF値)とを比較する。ここで、情報処理装置10は、第2のF値が第1のF値よりも向上している場合、「修正候補範囲」に該当する学習データの正解タグの修正が必要と判定する。
このように、情報処理装置10は、学習データとテストデータとが同じ教師データのベクトル空間上であることを利用して、テストデータのベクトル表現からアノテーションミス(正解タグの付与ミス、タグミスと同義)しやすい表現を探し出すことができるので、修正対象の教師データを効率的に特定することができる。
[機能構成]
図4は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図4に示すように、情報処理装置10は、通信部11、表示部12、記憶部13、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部11は、管理者が利用する管理者端末などから処理開始の指示を受信し、管理者端末から教師データなどの入力を受け付ける。
表示部12は、各種情報を表示する処理部であり、例えばディスプレイやタッチパネルなどにより実現される。例えば、表示部12は、後述する制御部20が生成する画面等を表示する。
記憶部13は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどにより実現される。この記憶部13は、モデル14、教師データDB15を記憶する。
モデル14は、学習データを用いた機械学習により生成されるモデルである。例えば、モデル14は、テキストデータの入力を受け付けて、テキストの分類結果を出力する学習モデルである。
教師データDB15は、予め用意された正解タグ付きデータを含むデータベースであり、学習データ群16とテストデータ群17とを記憶する。
学習データ群16は、モデル14の機械学習に利用される、正解タグが付与された複数の学習データから構成される。テストデータ群17は、修正候補の生成及びモデル14の性能検証に利用される、正解タグが付与された複数のテストデータから構成される。
図4に戻り、制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部20は、埋込表現生成部21、機械学習部22、修正候補作成部23、仮データ生成部24、修正要否判定部25を有する。なお、埋込表現生成部21、機械学習部22、修正候補作成部23、仮データ生成部24、修正要否判定部25は、プロセッサなどの電子回路として実現することもでき、プロセッサが実行するプロセスとして実現することもできる。
埋込表現生成部21は、教師データDB15に格納されている各データの埋込表現を生成する。なお、埋込表現生成部21は、埋込表現を記憶部13に格納する。その際に、教師データの正例と負例を分割する境界線を算出し、記憶部13に格納する。例えば、図6BでBIタグを付与された名詞を抽出し、それぞれの名詞を二次元のベクトルとして埋込表現を生成したものを図7に示す。例えば、営業はベクトル[0.4,0.4]で表現される。
機械学習部22は、モデル14の機械学習を実行する処理部である。機械学習部22は、学習データ群16の各学習データを用いてモデル14の学習を実行する。また、機械学習部22は、後述する仮学習データを用いてモデル14の再学習を実行する。機械学習部22は、テストデータを用いてモデル14のF値(第1のF値)を算出する。また、機械学習部22は、後述する仮テストデータを用いて再学習済みのモデル14のF値(第2のF値)を算出する。なお、機械学習部22は、F値などの学習結果を記憶部13に格納する。
修正候補作成部23は、教師データのタグミスが疑われる修正候補を生成する処理部である。修正候補作成部23は、テストデータ群18の各テストデータをモデル14で推測した結果から、正解データと異なる結果となったデータの埋込表現空間上の位置でかつ埋込表現生成部21が生成した境界線近傍を修正候補範囲とする。
仮データ生成部24は、タグミスと推定されるデータを削除した仮データを生成する処理部である。仮データ生成部24は、テストデータ群17から修正候補作成部23が作成した修正候補範囲に含まれるテストデータを削除した仮テストデータ群を生成する。
また、仮データ生成部24は、学習データ群16から修正候補作成部23が作成した修正候補範囲に含まれる学習データを削除した仮学習データ群を生成する。なお、仮データ生成部24は、仮テストデータ群および仮学習データ群を記憶部13に格納する。
修正要否判定部25は、仮データ生成部24によりタグミスの可能性が高いデータとして推定したデータが、修正するべきかどうかを判定する処理部である。また、修正要否判定部25は、修正が必要と判定した場合、該当する教師データのタグの修正を受け付ける処理部である。
具体的には、修正要否判定部25は、テストデータ群17を用いて、学習データ群16により学習されたモデル14の性能を検証したときのF値(第1のF値)と、仮テストデータ群を用いて、仮学習データ群により再学習されたモデル14の性能を検証したときのF値(第2のF値)とを比較する。そして、修正要否判定部25は、F値が向上しており、さらにF値の差が任意の値(閾値)以上の場合、上記修正候補範囲に含まれる教師データに関して、修正が必要と判定する。なお、修正要否判定部25は、F値の差が閾値未満の場合、その時点での教師データの修正は必要なく、モデル14に問題があると判定する。
また、修正要否判定部25は、上記特定の教師データの修正を許容する画面を表示部12等に表示して上記修正候補範囲に含まれる教師データの修正を受け付ける。そして、修正要否判定部25は、教師データDB15の更新を実行する。
[具体例]
次に、教師データの修正要否を判定する具体例を説明する。具体的には、情報処理装置10は、学習データ群16を用いたモデル14の学習、F値の算出、仮テストデータおよび仮学習データの生成、仮学習データを用いたモデル14の再学習、モデル14のF値の変化を特定、修正すべき教師データの判定を順次実行する。
まず、埋込表現生成部21は、学習データ群16に含まれる各学習データ{x1,x2,x3,・・・xm}に対して埋込処理を実行して単語のベクトル表現を生成し、単語のベクトル表現を記憶部13等に保存する。同様に、埋込表現生成部xxは、テストデータ群17に含まれる各テストデータ{xm,xm+1,xm+2,・・・xn}に対して埋込処理を実行して単語のベクトル表現を生成し、単語のベクトル表現を記憶部13に保存する。
例えば、図6Aに示したような、固有表現を抽出したい自然言語で書かれたテキスト群{X1,・・・,Xn}に対して、BIOタグを付与することにより、教師データが生成される。固有表現抽出とは、自然言語で書かれた文章について、単語レベルに分割してその単語の属性を自動的に付与するタスクのことである。一般的な属性としては、組織名(ORGANIZATION)、人名(PERSON)、地名(LOCATION)、日付表現(DATE)、時間表現(TIME)、金額表現(MONEY)、割合表現(PERCENT)の7つがあり、この他にも、分野やタスク毎に任意で設計される。この属性のことをタグと呼ぶ。
ここで、BIOタグの付与について説明する。図5は、BIOタグを説明する図である。図5に示すように、テキストデータ「佐藤太郎は、明日鈴木太郎になる」にBIOタグを付与する場合、「佐藤」に「B-PERSON」タグ、「太郎」に「I-PERSON」タグ、「は」に「O」タグ、「、」に「O」タグ、「明日」に「B-DATE」タグ、「鈴木」に「B-PERSON」タグ、「太郎」に「I-PERSON」タグ、「に」に「O」タグ、「なる」に「O」タグが付与される。
上述したBIOタグの付与を図6Aのテキスト群に対して行った結果を図6Bに示す。図6Bは、アノテーション作業により作成された教師データを説明する図である。ここでは、図6Aのテキスト群{X1,・・・,Xn}を形態素解析によって分かち書きしたものに対してBIOタグを付与することにより、教師データが生成される。例えば、アノテーション作業により、テキストデータX1「営業佐藤です。xxxの件についての問い合わせです。」から、学習データx1として、「営業:B-PERSON,佐藤:I-PERSON,です。:O、・・・」が生成される。
また、テキストデータX2「経理最上です。xxxの件について回答します。」から、学習データx2として、「経理:B-PERSON,最上:I-PERSON,です。:O、・・・」が生成される。また、テキストデータX3「営業の伊達政子です。xxxの件についての問い合わせです。」から、学習データx3として、「営業:B-DEPARTMENT,の:O,伊達:I-PERSON,政子:I-PERSON,です。:O、・・・」が生成される。
なお、図6Bの例では、学習データx1において、「営業」に「B-PERSON」タグがタグ付けされており、アノテーションミスが発生している。同様に、学習データx2において、「経理」に「B-PERSON」タグがタグ付けされており、アノテーションミスが発生している。また、テストデータxm+1、xm+2でも同様のアノテーションミスが発生している。
次に、情報処理装置10の機械学習部22は、学習データを含む学習データ群16を用いて、モデル14の機械学習を実行し、学習済みのモデル14を生成する。更に機械学習部22は、テストデータ群17に含まれるテストデータを用いて学習済みモデル14の推測結果の一覧を生成する。図6Bに示したテストデータを使った推測結果の例を図8に示す。
例えば、機械学習部22は、推測結果の一覧として「単語、アノテーション、推測結果」を生成する。ここで、「単語」は、テストデータに含まれる単語であり、「アノテーション」は、単語に設定されていた正解タグを示し、「推測結果」は、モデル14が「単語」の入力に応じて出力した推測結果である。図8の例では、テストデータxm+2「営業の木下・・・」に対して、推測結果「営業、B-DEPARTMENT、B-PERSON」、「の、O、O」、「木下、B-PERSON、B-PERSON」などが生成されたことを示す。つまり、単語「営業」に対して誤判定が発生している。また、機械学習部22は、推測結果を用いて、F値を算出して記憶部13に保存する。
続いて、情報処理装置10は、修正候補を作成し、仮テストデータおよび仮学習データの生成、仮学習データを用いたモデル14の再学習、モデル14のF値の変化を特定、修正すべき教師データの判定を実行する。
具体的には、情報処理装置10の修正候補作成部23は、ベクトル空間上にマッピングしたテストデータの単語のベクトル表現された点のうち、正解タグと推測結果が異なる点と、埋込表現生成部xxで生成いた境界線と、から修正候補範囲を設定する。
図9は、図8の推測結果から修正候補範囲を設定する例を説明する図である。また、図9は図7に示した学習データ群16及びテストデータ群17の単語のベクトル表現を二次元マップ上に表現したものである。図9に示すように、修正候補作成部23は、教師データDBに保存された学習データ群16及びテストデータ群17に含まれる単語のベクトル表現を二次元マップ上にマッピングする。また、図9では、図8の推測結果から推測を間違えた単語の二次元マップ上の位置を特定する。この推測を間違えた単語の位置と、埋込表現生成部21で生成した正例と負例の境界線との位置関係から修正候補範囲を決定する。例えば図9では、境界線から最も近い推測を間違えた単語「営業」と、境界線の距離を修正候補範囲の片側の距離とし、境界線に対して線対称に広げた範囲を修正候補範囲と設定している。この図9では、修正候補範囲に含まれる単語は「北条」「伊達」「最上」「営業」「経理」である。
情報処理装置10の仮データ生成部24は、「修正候補範囲」に対応する学習データを削除した仮学習データ群を生成する。
例えば、仮データ生成部24は、図9で設定した修正候補範囲に存在する単語を含む学習データ群のうちx1、x2、x3・・・を除外して仮学習データ群を生成する。
また、情報処理装置10の仮データ生成部24は、「修正候補範囲」に対応するテストデータを削除した仮テストデータ群を生成する。
例えば、仮データ生成部24は、図9で設定した修正候補範囲に存在する単語を含むテストデータ群のうちxm+1、xm+2、xm+3、xm+4・・・を除外して仮テストデータ群を生成する。
次に、情報処理装置10は、仮学習データを生成してモデル14の再学習を実行する。その後、機械学習部22は、再学習後のモデル14を記憶部13に格納する。
次に、情報処理装置10は、「修正候補範囲」に該当するテストデータを削除した仮テストデータ群を用いて、再学習後のモデル14を評価する機械学習部22は、再学習後のモデル14による推測結果を用いて、再学習後のモデル14のF値を算出して記憶部13に保存する。
ここで、情報処理装置10は、F値の変化により、「修正候補範囲」に該当する教師データ(学習データとテストデータ)の修正要否を判定する。図10は、修正の要否判定を説明する図である。図10に示すように、修正要否判定部25は、再学習前のF値(0.3)と再学習後のF値(0.6)を比較し、再学習後のF値の方が大きな値であり、差分が閾値(例えば0.1)以上である場合、修正要と判定する。そして、修正要否判定部25は、「修正候補範囲」に該当したために削除された学習データx1、x2、x3・・・およびテストデータxm、xm+1、xm+2、xm+3、xm+4・・・をユーザに提示して、正解タグの修正を許容する。
図11は、ユーザに表示する修正画面例を説明する図である。図11に示すように、修正要否判定部25は、修正画面50を表示して、修正画面50上で、「修正候補範囲」に該当する学習データとテストデータの正解タグの修正を受け付けると、受け付けた内容により学習データ群16とテストデータ群17を更新する。
例えば、修正画面50は、モデルの学習、モデルのテスト、修正候補の表示をタグにより切り替えられる構成である。修正要否判定部25は、「修正候補の表示」タグが選択されると、修正候補と候補に対するアクションの内容を表示する。具体的には、修正要否判定部25は、教師データの一覧と、再学習前のF値と、再学習後のF値である修正候補を除外したF値とを表示する。また、教師データの一覧には、学習データとテストデータとが含まれるとともに、修正候補に該当する教師データは強調表示され、例えばプルダウンで表示されるタグ一覧から新たなタグを選択することにより、正解タグの修正が受け付けられる。
一方、修正要否判定部25は、F値の変化が小さい場合は、修正不要と判定される。図12は、修正の要否判定を説明する図である。図12に示すように、修正要否判定部25は、再学習前のF値(0.6)と再学習後のF値(0.6)を比較し、差分が閾値(例えば0.1)未満である場合、修正不要と判定する。なお、修正要否判定部25は、再学習前のF値と再学習後のF値を比較し、再学習後のF値の方が小さい場合も、修正不要と判定する。
[処理の流れ]
図13は、教師データの修正処理の流れを示すフローチャートである。図13に示すように、管理者等により処理が開始されると(S101:Yes)、埋込表現生成部21は、学習データ群16及びテストデータ群17の各データに含まれる単語のベクトル表現を生成する(S102)。続いて、機械学習部22は、各学習データを用いてモデル14の学習を実行する(S103)。
各テストデータのベクトル表現をモデル14に入力して、モデル14による推測結果とF値とを取得する(S104)。
ここで、前回よりもF値が向上していない場合(S105:No)、処理が終了する。一方、前回よりもF値が向上している場合(S105:Yes)、修正候補の検討処理を行う(S106)。
修正要否判定部25は、修正候補の検討処理の結果、修正候補ありと判定した場合(S107:Yes)、修正候補をユーザに表示し(S108)、修正内容を受け付けて、修正した教師データを生成する(S109)。その後は、修正後の教師データに対してS103以降の処理が繰り返される。一方、修正要否判定部25は、修正候補の検討処理の結果、修正候補なしと判定した場合(S107:No)、処理を終了する。
続いて、図13のS106で実行される修正候補の検討処理について説明する。図14は、修正候補の検討処理の流れを示すフローチャートである。図14に示すように、修正候補作成部23は、教師データの単語ベクトル空間において各テストデータの推測結果から推測を間違えた単語を特定し、特定した単語の位置及び正例と負例をクラス分けする境界線との位置関係から修正候補範囲を設定する(S201)。
続いて、仮データ生成部24は、学習データ群16から修正候補範囲に属する学習データを削除した仮学習データ群を生成する(S202)。また、仮データ生成部24は、テストデータ群17から修正候補範囲に属するテストデータを削除した仮テストデータ群を生成する(S203)。
そして、機械学習部22は、仮学習データ群を用いてモデル14の再学習を実行する(S204)。続いて、修正候補作成部23は、テストデータ群17を用いて、再学習後のモデル14の推測結果とF値とを取得する(S205)。
その後、修正要否判定部25は、再学習前のF値と再学習後のF値との差分を算出し、差分と閾値との比較により、F値が改善したと判定した場合(S206:Yes)、修正候補ありを設定し(S207)、F値が改善していないと判定した場合(S206:No)、修正候補なしを設定する(S208)。
[効果]
上述したように、情報処理装置10は、教師データがモデル(学習器)の能力に与える影響を考慮しつつ、教師データの修正候補範囲を提示することで、効率的な教師データの修正を行うことができる。具体的には、特許文献3を例とすると、例えば全データ10,000件、その内テストデータ2,000件とした場合、最短5回は学習させることになる。これに対して、実施例1にかかる手法では、データ数に関係なく最短2回の学習で修正要否を判定することができ、一般技術の2/5の工数でデータ修正を行うことができる。したがって、情報処理装置10は、教師データの修正要否を効率的に判定することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[数値等]
上記実施例で用いた対象とする教師データの種類、教師データの数、教師データのベクトル表現、タグ、次元数等は、あくまで一例であり、任意に変更することができる。また、上記実施例では、テキストデータの単語や文書をベクトル化して、テキスト分類を行うモデルの機械学習を例にして説明したが、これに限定されるものではなく、音声や画像などの分類等にも適用することができる。また、モデル14には、ニューラルネットワークを用いた畳み込みニューラルネットワークやオートエンコーダなどを採用することもでき、決定木やサポートベクタマシンなどを採用することもできる。
[モデル]
上記実施例では、未学習のモデル14を用いて、教師データの修正を行う例を説明したが、これに限定されるものではない。例えば、学習済みのモデルでもよく、学習が完了しているが性能が悪いので再生成の対象となっているモデルなどを用いることもできる。この場合、モデルに問題があったのか、教師データに問題があったのかを迅速に判定することができる。
[教師データ]
上記実施例では、アノテーション作業により生成された教師データを含む複数の教師データから修正が必要な教師データを特定する例を説明したが、これに限定されるものではない。例えば、アノテーション作業により生成された教師データを含まない複数の教師データでもよく、アノテーション作業により生成された教師データを含んでいるのか不明である複数の教師データなど、アノテーション作業の有無に関わらず、様々な教師データを対象とすることができる。
また、上記実施例では、学習データもテストデータも修正する例を説明したが、これに限定されるものではなく、例えば学習データのみを修正することもできる。また、修正要否判定部25は、修正画面50を表示部12に表示することもでき、管理者の端末など任意に指定された送信先に送信することもできる。
[修正候補範囲]
上記実施例では、テストデータのベクトル空間において、正例と負例との境界付近でかつ推測結果が誤判定であるデータを含む範囲を「修正候補範囲」として選択する例を説明したが、これに限定されるものではない。例えば、推測結果が誤判定であるデータのうち、正例と負例との境界からの距離が近い順に所定数のデータを「修正候補範囲」のデータとして選択することもできる。また、正例と負例との境界付近でかつ推測結果が誤判定であるデータが所定数含まれる最小の範囲を「修正候補範囲」として選択することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、機械学習部22は、第1実行部と第2実行部の一例であり、埋込表現生成部21、修正候補作成部23と仮データ生成部24は、選択部の一例であり、修正要否判定部25は、特定部の一例である。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
次に、情報処理装置10のハードウェア構成例を説明する。図15は、ハードウェア構成例を説明する図である。図15に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)(またはSSD:Solid State Drive)10b、メモリ10c、プロセッサ10dを有する。また、図15に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図4に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図4に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図4等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、埋込表現生成部21、機械学習部22、修正候補作成部23、仮データ生成部24、修正要否判定部25等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、埋込表現生成部21、機械学習部22、修正候補作成部23、仮データ生成部24、修正要否判定部25等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで情報処理方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
11 通信部
12 表示部
13 記憶部
14 モデル
15 教師データDB
16 学習データ群
17 テストデータ群
20 制御部
21 埋込表現生成部
22 機械学習部
23 修正候補作成部
24 仮データ生成部
25 修正要否判定部

Claims (8)

  1. コンピュータに、
    複数の学習データを含む学習データ群と複数のテストデータを含むテストデータ群とを含む教師データのうち、前記学習データ群を用いてモデルの機械学習を実行し、
    前記テストデータ群を用いて学習後の前記モデルから得られた推測結果に基づき、前記モデルによる推測結果が誤判定である特定のテストデータを選択し、
    前記特定のテストデータに対応する特定の学習データを、前記学習データ群から除外した更新後の学習データを用いて、前記モデルの再学習を実行し、
    前記モデルの再学習の結果に応じて、修正対象の教師データを特定する
    処理を実行させることを特徴とする判定プログラム。
  2. 前記特定する処理は、前記特定のテストデータを前記テストデータ群から除外した更新後のテストデータ群を用いて、再学習後の前記モデルを評価した結果に基づき、前記修正対象の教師データを特定することを特徴とする請求項1に記載の判定プログラム。
  3. 前記実行する処理は、前記教師データのベクトル表現を生成し、前記複数の学習データそれぞれから生成された各ベクトル表現を用いて前記モデルの機械学習を実行し、
    前記選択する処理は、前記複数のテストデータそれぞれから生成された各ベクトル表現から、前記特定のテストデータのベクトル表現を選択し、
    前記実行する処理は、前記特定のテストデータのベクトル表現に対応する前記特定の学習データを除外した前記更新後の学習データ群を用いて、前記モデルの再学習を実行することを特徴とする請求項2に記載の判定プログラム。
  4. 前記選択する処理は、前記教師データのベクトル空間上の前記テストデータ群のプロットに対して、正例と負例との境界において前記特定のテストデータのベクトル表現を含む所定範囲を選択し、
    前記実行する処理は、前記教師データのベクトル空間上の前記学習データ群のプロットに対して前記所定範囲に属する学習データを前記特定の学習データに選択し、選択した前記特定の学習データを除外した前記更新後の学習データ群を用いて、前記モデルの再学習を実行することを特徴とする請求項3に記載の判定プログラム。
  5. 前記特定する処理は、前記テストデータ群を用いて前記学習後のモデルを評価したときの第1のF値と、前記更新後のテストデータ群を用いて前記再学習後のモデルを評価したときの第2のF値とを比較して、前記特定の学習データまたは前記特定のテストデータの修正要否を特定することを特徴とする請求項2から4のいずれか一つに記載の判定プログラム。
  6. 前記特定する処理は、前記第2のF値が前記第1のF値よりも大きな値であり、前記第1のF値と前記第2のF値との差が閾値以上である場合に、前記特定の学習データまたは前記特定のテストデータを修正対象と特定し、前記特定の学習データまたは前記特定のテストデータに設定される正解タグの修正を許容する画面を表示することを特徴とする請求項5に記載の判定プログラム。
  7. コンピュータが、
    複数の学習データを含む学習データ群と複数のテストデータを含むテストデータ群とを含む教師データのうち、前記学習データ群を用いてモデルの機械学習を実行し、
    前記テストデータ群を用いて学習後の前記モデルから得られた推測結果に基づき、前記モデルによる推測結果が誤判定である特定のテストデータを選択し、
    前記特定のテストデータに対応する特定の学習データを、前記学習データ群から除外した更新後の学習データを用いて、前記モデルの再学習を実行し、
    前記モデルの再学習の結果に応じて、修正対象の教師データを特定する
    処理を実行することを特徴とする判定方法。
  8. 複数の学習データを含む学習データ群と複数のテストデータを含むテストデータ群とを含む教師データのうち、前記学習データ群を用いてモデルの機械学習を実行する第1実行部と、
    前記テストデータ群を用いて学習後の前記モデルから得られた推測結果に基づき、前記モデルによる推測結果が誤判定である特定のテストデータを選択する選択部と、
    前記特定のテストデータに対応する特定の学習データを、前記学習データ群から除外した更新後の学習データを用いて、前記モデルの再学習を実行する第2実行部と、
    前記モデルの再学習の結果に応じて、修正対象の教師データを特定する特定部と
    を有することを特徴とする情報処理装置。
JP2020093595A 2020-05-28 2020-05-28 判定プログラム、判定方法および情報処理装置 Active JP7456289B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020093595A JP7456289B2 (ja) 2020-05-28 2020-05-28 判定プログラム、判定方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020093595A JP7456289B2 (ja) 2020-05-28 2020-05-28 判定プログラム、判定方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2021189685A JP2021189685A (ja) 2021-12-13
JP7456289B2 true JP7456289B2 (ja) 2024-03-27

Family

ID=78849600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020093595A Active JP7456289B2 (ja) 2020-05-28 2020-05-28 判定プログラム、判定方法および情報処理装置

Country Status (1)

Country Link
JP (1) JP7456289B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119615A1 (ja) 2009-04-15 2010-10-21 日本電気株式会社 学習データ生成装置、及び固有表現抽出システム
US20180260735A1 (en) 2017-03-08 2018-09-13 International Business Machines Corporation Training a hidden markov model
JP2018155522A (ja) 2017-03-16 2018-10-04 株式会社島津製作所 データ解析装置
JP2019079167A (ja) 2017-10-23 2019-05-23 オリンパス株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119615A1 (ja) 2009-04-15 2010-10-21 日本電気株式会社 学習データ生成装置、及び固有表現抽出システム
US20180260735A1 (en) 2017-03-08 2018-09-13 International Business Machines Corporation Training a hidden markov model
JP2018155522A (ja) 2017-03-16 2018-10-04 株式会社島津製作所 データ解析装置
JP2019079167A (ja) 2017-10-23 2019-05-23 オリンパス株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JP2021189685A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
WO2017216980A1 (ja) 機械学習装置
JP7353946B2 (ja) アノテーション装置および方法
US20140308650A1 (en) Evaluation control
CN111328407A (zh) 用于基于学习效率提供私人定制教育内容的机械学习方法、装置及计算机程序
US11620558B1 (en) Iterative machine learning based techniques for value-based defect analysis in large data sets
CN109616101B (zh) 声学模型训练方法、装置、计算机设备和可读存储介质
CN113723070B (zh) 文本相似度模型训练方法、文本相似度检测方法及装置
JP2020060970A (ja) コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム
JP2019212115A (ja) 検査装置、検査方法、プログラム及び学習装置
CN109564613A (zh) 签名创建设备、签名创建方法、记录签名创建程序的记录介质、以及软件确定系统
JP2019204214A (ja) 学習装置、学習方法、プログラム及び推定装置
CN109408175B (zh) 通用高性能深度学习计算引擎中的实时交互方法及系统
CN112119410A (zh) 用于用覆盖引导模糊测试调试神经网络的系统和方法
JP7456289B2 (ja) 判定プログラム、判定方法および情報処理装置
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
KR102546023B1 (ko) 업무 프로세스 분석 방법
US20070282536A1 (en) Method and apparatus for evaluating interaction between protein complexes, and computer product
CN114626545A (zh) 用于人工智能模型的数据准备
CN113723436A (zh) 数据的处理方法、装置、计算机设备和存储介质
JP6768750B2 (ja) 学習方法、誤り判定方法、学習システム、誤り判定システム、およびプログラム
CN112784015A (zh) 信息识别方法和装置、设备、介质和程序
CN115270802B (zh) 一种问题语句的处理方法、电子设备及存储介质
JP3833626B2 (ja) テストケース生成装置及びテストケース生成方法
JP2020095452A (ja) 語彙抽出支援システムおよび語彙抽出支援方法
US20240320585A1 (en) Task process analysis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7456289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150