JP2018045559A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2018045559A
JP2018045559A JP2016181414A JP2016181414A JP2018045559A JP 2018045559 A JP2018045559 A JP 2018045559A JP 2016181414 A JP2016181414 A JP 2016181414A JP 2016181414 A JP2016181414 A JP 2016181414A JP 2018045559 A JP2018045559 A JP 2018045559A
Authority
JP
Japan
Prior art keywords
teacher data
data elements
information processing
machine learning
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016181414A
Other languages
English (en)
Other versions
JP6839342B2 (ja
Inventor
裕司 溝渕
Yuji Mizobuchi
裕司 溝渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016181414A priority Critical patent/JP6839342B2/ja
Priority to US15/673,606 priority patent/US20180082215A1/en
Publication of JP2018045559A publication Critical patent/JP2018045559A/ja
Application granted granted Critical
Publication of JP6839342B2 publication Critical patent/JP6839342B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

【課題】機械学習の学習精度を向上する。【解決手段】制御部12は、教師データ要素20a1〜20anから、それぞれが教師データ要素20a1〜20anのうちの1つ以上に含まれている特徴候補A〜Cを抽出する。制御部12は、教師データ要素20a1〜20anにおける特徴候補A〜Cのそれぞれの出現頻度に基づいて、機械学習における特徴候補A〜Cそれぞれの重要度を算出する。制御部12は、教師データ要素20a1〜20anのそれぞれに含まれる特徴候補A〜Cに対して算出された重要度を用いて、教師データ要素20a1〜20anのそれぞれの情報量を算出する。制御部12は、教師データ要素20a1〜20anのそれぞれの情報量に基づいて、教師データ要素20a1〜20anの中から機械学習に使用する教師データ要素を選択する。【選択図】図1

Description

本発明は情報処理装置、情報処理方法およびプログラムに関する。
コンピュータを利用したデータ分析の1つとして、機械学習が行われることがある。機械学習には、教師なし学習と教師あり学習とがある。教師あり学習では、コンピュータは、事前に与えられたデータ(教師データと呼ばれることもある)に基づき、要因(説明変数や独立変数と呼ばれることもある)と結果(目的変数や従属変数と呼ばれることもある)との間の関係を一般化した学習モデルを算出する。学習モデルを用いることで、未知の事例についての結果を予測することができる。例えば、複数の文書が類似するか否かを判別するための学習モデルを算出することが提案されている。
学習モデルを算出するための学習アルゴリズムには、SVM(Support Vector Machine)を用いたものや、ニューラルネットワークを用いたものなどがある。
特開2003−16082号公報 特開2003−36262号公報 特開2005−181928号公報 特開2010−204866号公報
ところで、機械学習では、未知の事例の結果を正確に予測する能力が高い学習モデルを算出すること、すなわち、学習精度が高いことが好ましい。しかし、従来、教師あり学習において用いられる複数の教師データ要素には、学習精度の向上を妨げるものが含まれている場合があった。例えば、複数の文書が類似するか否かを判別するための学習モデルを算出する際に、教師データ要素として用いられる複数の文書のなかに、判別に役に立つ特徴がない、もしくは少ない文書がある可能性がある。このような教師データ要素を用いると、学習精度の向上の妨げとなるという問題があった。
1つの側面では、本発明は、機械学習の学習精度を向上できる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。
1つの態様では、記憶部と制御部とを有する情報処理装置が提供される。記憶部は、複数の教師データ要素を記憶する。制御部は、複数の教師データ要素から、それぞれが複数の教師データ要素のうちの1つ以上に含まれている複数の特徴候補を抽出する。制御部は、複数の教師データ要素における複数の特徴候補それぞれの出現頻度に基づいて、機械学習における複数の特徴候補それぞれの重要度を算出する。制御部は、複数の教師データ要素それぞれに含まれる特徴候補に対して算出された重要度を用いて、複数の教師データ要素それぞれの情報量を算出する。制御部は、複数の教師データ要素それぞれの情報量に基づいて、複数の教師データ要素の中から機械学習に使用する教師データ要素を選択する。
また、1つの態様では、情報処理装置が実行する情報処理方法が提供される。また、1つの態様では、コンピュータに実行させるプログラムが提供される。
1つの側面では、機械学習の学習精度を向上できる。
第1の実施の形態の情報処理装置の例を示す図である。 情報処理装置のハードウェア例を示すブロック図である。 教師データ要素として用いられる複数の文書の一例を示す図である。 抽出された特徴候補の一例を示す図である。 各特徴候補の出現頻度の計数結果の一例を示す図である。 特徴候補ごとの重要度の算出結果の一例を示す図である。 ポテンシャル情報量の算出結果の一例を示す図である。 ソート結果の一例を示す図である。 生成された複数の教師データ集合の一例を示す図である。 教師データ集合に含まれる文書数とF値との一例の関係を示す図である。 情報処理装置の機能例を示す機能ブロック図である。 第2の実施の形態の情報処理装置による情報処理の一例の流れを示すフローチャートである。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
第1の実施の形態を説明する。
図1は、第1の実施の形態の情報処理装置の例を示す図である。
第1の実施の形態の情報処理装置10は、機械学習の1つである教師あり学習に用いる教師データを選択する。教師あり学習では、事前に与えられた教師データに基づき、未知の事例の結果を予測する学習モデルが生成される。学習モデルを用いることで、未知の事例についての結果を予測することができる。機械学習の結果は、複数の文書が類似するか否かの判別のほかに、病気の発症リスクの予測、将来の商品・サービスの需要量の予測、工場における新製品の歩留まりの予測など、様々な用途に利用することができる。情報処理装置10は、ユーザが操作するクライアントコンピュータでもよいし、クライアントコンピュータからネットワーク経由でアクセスされるサーバコンピュータでもよい。
なお、以下では、情報処理装置10が機械学習に用いる教師データの選択および機械学習を行うものとして説明するが、機械学習については情報処理装置10とは異なる情報処理装置で行われるようにしてもよい。
情報処理装置10は、記憶部11および制御部12を有する。記憶部11は、RAM(Random Access Memory)などの揮発性の半導体メモリでもよいし、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性のストレージでもよい。制御部12は、例えば、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。ただし、制御部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの特定用途の電子回路を含んでもよい。プロセッサは、RAMなどのメモリ(記憶部11でもよい)に記憶されたプログラムを実行する。プログラムには、例えば、後述する教師データの機械学習を情報処理装置10に実行させるプログラムが含まれる。複数のプロセッサの集合(マルチプロセッサ)を「プロセッサ」と呼ぶこともある。
機械学習には、SVM、ニューラルネットワーク、回帰判別などの機械学習アルゴリズムが用いられる。
記憶部11は、教師ありの機械学習を行うための教師データである複数の教師データ要素を記憶する。図1には、n個の教師データ要素20a1,20a2,…,20anの例が示されている。教師データ要素20a1〜20anとして、画像や文書などを用いることができる。
制御部12は、以下の処理を行う。
まず、制御部12は、記憶部11に記憶されている教師データ要素20a1〜20anを読み出して、教師データ要素20a1〜20anから、それぞれが教師データ要素20a1〜20anのうちの1つ以上に含まれている複数の特徴候補を抽出する。
図1では、教師データ要素20a1〜20anに、特徴候補A,B,Cが含まれている例が示されている。教師データ要素20a1〜20anにおいて、何を特徴候補A〜Cとするかについては、機械学習により何を学習するかに応じて予め決められている。例えば、制御部12は、2つの文書が類似するかどうかを判別する学習モデルを生成する際、単語や単語の組み合わせを抽出対象である特徴とする。また、制御部12は、2つの画像が類似するかどうかを判別する学習モデルを生成する際、画素値や画素値の組み合わせを抽出対象である特徴とする。
そして、制御部12は、教師データ要素20a1〜20anにおける特徴候補A〜Cのそれぞれの出現頻度に基づいて、機械学習における特徴候補A〜Cのそれぞれの重要度を算出する。重要度は、例えば、全教師データ要素20a1〜20anにおける出現頻度が低い特徴候補ほど大きな値をもつ。なお、制御部12は、出現頻度が低すぎる特徴候補についてはノイズとみなし、重要度を0としてもよい。
図1には、教師データ要素20a1に含まれる特徴候補A,Bの重要度の例が示されている。図1の例では、特徴候補Aの重要度は0.1、特徴候補Bの重要度は5となっている。つまり、全教師データ要素20a1〜20anにおいて、特徴候補Bの出現頻度は、特徴候補Aの出現頻度よりも低い。
重要度は、特徴候補A〜Cが単語または単語の組み合わせである場合、例えば、逆文書頻度(idf:inverse document frequency)などを用いることができる。分類に役立たない特徴候補であっても、単語数が多くなればなるほど出現頻度は小さくなる傾向がある。そのため、制御部12は、idfを特徴候補の長さ(単語数)で割ることで正規化したものを重要度としてもよい。idf値を単語数で割って正規化することで、単語数が多いだけで分類に役立たない特徴候補についても重要度が大きくなることを抑制できる。
さらに、制御部12は、教師データ要素20a1〜20anのそれぞれに含まれる特徴候補に対して算出された重要度を用いて、教師データ要素20a1〜20anのそれぞれの情報量(以下、ポテンシャル情報量と呼ぶ場合もある)を算出する。
情報量は、例えば、教師データ要素20a1〜20anのそれぞれに含まれる特徴候補に対して算出された重要度の合計値である。
図1の例では、教師データ要素20a1の情報量は20.3、教師データ要素20a2の情報量は40.5、教師データ要素20anの情報量は35.2と算出されている。
次に、制御部12は、教師データ要素20a1〜20anのそれぞれの情報量に基づいて、教師データ要素20a1〜20anの中から機械学習に使用する教師データ要素を選択する。
例えば、制御部12は、教師データ要素20a1〜20anのうち、情報量が最も大きい教師データ要素から情報量がk番目(kは2以上の自然数)に大きい教師データ要素までを含む教師データ集合を生成する。または、制御部12は、教師データ要素20a1〜20anのうち、情報量が閾値以上である教師データ要素を選択して教師データ集合を生成する。さらに制御部12は、その教師データ集合に情報量の大きい順に教師データを順に追加していくことで複数の教師データ集合を生成する。
例えば、図1の教師データ集合21aには、情報量が最も大きい教師データ要素20a2から、情報量がk番目に大きい教師データ要素20anが含まれている。次に生成される教師データ集合21bには、k+1番目に大きい情報量(34.5)をもつ教師データ要素20aiが追加されている。また、その次に生成される教師データ集合21cには、k+2番目に大きい情報量(32.0)をもつ教師データ要素20ajが追加される。
kは、例えば、後述する学習モデルの評価値の算出の際に用いる教師データ要素数の最小値である。制御部12が評価値を算出する際に、10−分割交差検証を用いる場合、k=10となる。
そして、制御部12は、複数の教師データ集合のそれぞれに基づく機械学習により複数の学習モデルを生成する。
例えば、制御部12は、教師データ集合21aに基づき、2つの文書が類似するかどうかを判別する学習モデル22aを機械学習で生成する。この場合、教師データ集合21aに含まれる教師データ要素20a2〜20anは文書であり、教師データ要素20a2〜20anのそれぞれには、ある類似グループに属するか否かを示す識別情報が付与されている。例えば、教師データ要素20a2と教師データ要素20anが類似している場合、両者には類似グループに属することを示す識別情報が付与される。
同様に、教師データ集合21b,21cに基づいて、学習モデル22b,22cが生成される。
さらに、制御部12は、機械学習で生成された学習モデル22a,22b,22cの性能の評価値を算出する。
例えば、教師データ集合21aに含まれる教師データ要素20a2〜20anが10個であり、制御部12が10−分割交差検証を用いて評価値を算出する場合には、以下のような処理が行われる。
制御部12は、機械学習を行う際に、教師データ集合21aに含まれる教師データ要素20a2〜20anを、9個の教師データ要素と1個の教師データ要素とに分割する。9個の教師データ要素は訓練データとして、学習モデル22aを生成するために用いられる。1個の教師データ要素はテストデータとして、学習モデル22aを評価するために用いられる。制御部12は、10個の教師データ要素20a2〜20anのうち、異なる教師データ要素をテストデータとして用いて、学習モデル22aの評価を10回行う。そして、制御部12は、10回の評価結果に基づいて、評価値を算出する。
評価値として、例えば、F値を用いることができる。F値は、再現率と適合率の平均調和である。
学習モデル22b,22cに対しても同様に評価値が算出され、例えば、記憶部11に記憶される。
制御部12は、このような評価値を、機械学習の結果として、例えば、記憶部11から取得し、機械学習の結果に基づいて、機械学習の結果が所定の条件を満たすように、教師データ要素20a1〜20anの部分集合を探索する。例えば、制御部12は、評価値が最大となる学習モデルが得られる教師データ集合を探索する。なお、機械学習が情報処理装置10とは異なる情報処理装置で行われる場合には、制御部12は、その情報処理装置で算出された評価値を取得して、上記の処理を行う。
また、制御部12は、評価値が最大となる学習モデルを出力する。制御部12は、評価値が最大となる学習モデルが得られる教師データ集合を出力するようにしてもよい。
図1では、学習モデル22a,22b,22cのうち、学習モデル22bの評価値が最大となっている例が示されている。このとき制御部12は、学習モデル22bを出力する。
例えば、学習モデル22bがニューラルネットワークである場合には、機械学習によって得られるニューラルネットワークの各ノード(ニューロン)間の結合の重み値(結合係数と呼ばれる)などが出力される。制御部12が出力した学習モデル22bは、記憶部11に記憶されてもよいし、情報処理装置10の外部に出力されてもよい。
このような学習モデル22bに対して、未知のデータ(文書や画像など)が入力されると、例えば、そのデータが類似グループに属するか否か、などの結果が得られる。
第1の実施の形態の情報処理装置10は、各特徴候補の重要度を複数の教師データ要素内での出現頻度から算出し、重要度を用いて各教師データ要素の情報量を算出し、機械学習に使用する教師データ要素を選択する。これにより特徴の弱い(情報量が小さい)不適切な教師データ要素を除外でき学習精度を向上できる。
また、第1の実施の形態の情報処理装置10によれば、情報量の多い教師データ要素に基づいた機械学習により生成される学習モデルが出力される。図1の例では、教師データ要素20aiよりも情報量が小さい教師データ要素20ajを含む教師データ集合21cに基づいて生成された学習モデル22cは出力されない。機械学習の際、情報量が小さい教師データ要素を用いても、学習精度の向上が期待できない。例えば、どんな文書においても出現する単語または単語の組み合わせを多く含む教師データ要素は、2つの文書の類似性を精度よく判定するのにはあまり役に立たない。
第1の実施の形態の情報処理装置10では、このような情報量が小さい教師データ要素が除外されることで、精度のよい学習モデルが得られる。
なお、制御部12は、上記のような教師データ集合を1つ生成するたびに、機械学習および評価値の算出を行ってもよい。教師データ要素を大きい順に追加して生成される教師データ集合を用いた場合、はじめは評価値が大きくなっていき、ある時点で、機械学習の学習精度の向上に寄与しない教師データ要素の影響で評価値が下がり始めると考えられる。制御部12は、評価値が下がり始めたら、教師データ集合の生成や機械学習を終了するようにしてもよい。これにより、学習時間を短縮できる。
[第2の実施の形態]
次に、第2の実施の形態を説明する。
図2は、情報処理装置のハードウェア例を示すブロック図である。
情報処理装置100は、CPU101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、媒体リーダ106および通信インタフェース107を有する。CPU101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、媒体リーダ106および通信インタフェース107は、バス108に接続されている。なお、情報処理装置100は、第1の実施の形態の情報処理装置10に対応する。CPU101は、第1の実施の形態の制御部12に対応する。RAM102またはHDD103は、第1の実施の形態の記憶部11に対応する。
CPU101は、プログラムの命令を実行する演算回路を含むプロセッサである。CPU101は、HDD103に記憶されたプログラムやデータの少なくとも一部をRAM102にロードし、プログラムを実行する。なお、CPU101は複数のプロセッサコアを備えてもよく、情報処理装置100は複数のプロセッサを備えてもよく、以下で説明する処理を複数のプロセッサまたはプロセッサコアを用いて並列に実行してもよい。また、複数のプロセッサの集合(マルチプロセッサ)を「プロセッサ」と呼んでもよい。
RAM102は、CPU101が実行するプログラムやCPU101が演算に用いるデータを一時的に記憶する揮発性の半導体メモリである。なお、情報処理装置100は、RAM以外の種類のメモリを備えてもよく、複数個のメモリを備えてもよい。
HDD103は、OS(Operating System)やミドルウェアやアプリケーションソフトウェアなどのソフトウェアのプログラム、および、データを記憶する不揮発性の記憶装置である。プログラムには、例えば、機械学習を情報処理装置100に実行させるプログラムが含まれる。なお、情報処理装置100は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の記憶装置を備えてもよく、複数の不揮発性の記憶装置を備えてもよい。
画像信号処理部104は、CPU101からの命令に従って、情報処理装置100に接続されたディスプレイ111に画像を出力する。ディスプレイ111としては、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(LCD:Liquid Crystal Display)、プラズマディスプレイ(PDP:Plasma Display Panel)、有機EL(OEL:Organic Electro-Luminescence)ディスプレイなどを用いることができる。
入力信号処理部105は、情報処理装置100に接続された入力デバイス112から入力信号を取得し、CPU101に出力する。入力デバイス112としては、マウスやタッチパネルやタッチパッドやトラックボールなどのポインティングデバイス、キーボード、リモートコントローラ、ボタンスイッチなどを用いることができる。また、情報処理装置100に、複数の種類の入力デバイスが接続されていてもよい。
媒体リーダ106は、記録媒体113に記録されたプログラムやデータを読み取る読み取り装置である。記録媒体113として、例えば、磁気ディスク、光ディスク、光磁気ディスク(MO:Magneto-Optical disk)、半導体メモリなどを使用できる。磁気ディスクには、フレキシブルディスク(FD:Flexible Disk)やHDDが含まれる。光ディスクには、CD(Compact Disc)やDVD(Digital Versatile Disc)が含まれる。
媒体リーダ106は、例えば、記録媒体113から読み取ったプログラムやデータを、RAM102やHDD103などの他の記録媒体にコピーする。読み取られたプログラムは、例えば、CPU101によって実行される。なお、記録媒体113は、可搬型記録媒体であってもよく、プログラムやデータの配布に用いられることがある。また、記録媒体113やHDD103を、コンピュータ読み取り可能な記録媒体と言うことがある。
通信インタフェース107は、ネットワーク114に接続され、ネットワーク114を介して他の情報処理装置と通信を行うインタフェースである。通信インタフェース107は、スイッチなどの通信装置とケーブルで接続される有線通信インタフェースでもよいし、基地局と無線リンクで接続される無線通信インタフェースでもよい。
第2の実施の形態の機械学習では、情報処理装置100は、既知の事例を示す複数の教師データ要素を含むデータを予め収集しておく。情報処理装置100または他の情報処理装置が、センサデバイスなどの各種デバイスからネットワーク114経由でデータを収集してもよい。収集されるデータは、「ビッグデータ」と呼ばれるサイズの大きなデータであってもよい。
以下では、教師データ要素として自然言語を含む文書を用いて、類似の文書を分類する学習モデルを生成する例を説明する。
図3は、教師データ要素として用いられる複数の文書の一例を示す図である。
図3には、プログラミングに関するWeb上の知識共有コミュニティサイト(例えば、スタックオーバーフローなど)から収集された文書20b1,20b2,…,20bnの例が示されている。文書20b1〜20bnは、例えば、バグに関するレポートである。
文書20b1は、タイトル30と本文31を含み、本文31は、例えば、説明文31a,31b,31c、ソースコード31d、ログ31eを含む。文書20b2〜20bnも同様のフォーマットとなっている。
なお、文書20b1〜20bnのそれぞれには、例えば、ある類似グループに属するか否かを示す識別情報がタグ付けられている。類似とみなせる複数の文書には、類似グループに属することを示す識別情報がタグ付けされている。情報処理装置100は、このような識別情報も収集する。
情報処理装置100は、文書20b1〜20bnから複数の特徴候補を抽出する。情報処理装置100は、例えば、文書20b1のうち、タイトル30と説明文31a,31b,31cから自然言語処理を用いて複数の特徴候補を抽出する。複数の特徴候補は、単語および単語の組み合わせである。情報処理装置100は、例えば、一文ごとに、単語および単語の組み合わせを特徴候補として抽出する。空白で単語の区切りが判断される。ドットやアンダーバーなどは無視される。特徴候補の最小単位は単語である。また、ある文に含まれる特徴候補の長さの最大値は、その文に含まれる単語の数としてもよいし、最大値が予め決められていてもよい。
なお、ソースコード31dやログ31eは、同じような単語や単語の組み合わせが頻出し過ぎる傾向にあるため、タイトル30や説明文31a,31b,31cとともに特徴候補抽出の対象とすることは好ましくない。そのため、情報処理装置100は、ソースコード31dとログ31eから特徴候補の抽出をしない。
図4は、抽出された特徴候補の一例を示す図である。
特徴候補群40a1,40a2,…,40anには、文書20b1〜20bnから抽出された特徴候補が含まれている。例えば、特徴候補群40a1には、文書20b1から抽出された特徴候補である、単語と単語の組み合わせが含まれている。特徴候補群40a1の1行目には、タイトル30から抽出された特徴候補(ドットは無視されるため1つの単語として抽出される)が示されている。2行目以降には、本文31から抽出されたN−gram(N=1,2,…)の特徴候補が示されている。第2の実施の形態の機械学習において、N−gramは、1つの単語または、N個の単語の組み合わせを示すものとする。
次に、情報処理装置100は、全ての文書20b1〜20bnにおける各特徴候補の出現頻度を計数する。出現頻度は、文書20b1〜20bnのうち、各特徴候補が含まれる文書数を示すものとする。以下では説明の便宜上、文書20b1〜20bnの数(n)を100とする。
図5は、各特徴候補の出現頻度の計数結果の一例を示す図である。
図5に示されている出現頻度の計数結果50において、文書20b1のタイトル30である特徴候補の出現頻度は1、1−gramの特徴候補である“in”の出現頻度は100、“the”の出現頻度は90、“below”の出現頻度は12である。また、2−gramの特徴候補である“in the”の出現頻度は90、“the below”の出現頻度は12である。
次に、情報処理装置100は、複数の特徴候補の全ての文書20b1〜20bnにおける出現頻度に基づいて、機械学習における複数の特徴候補のそれぞれの重要度を算出する。
重要度として、例えば、idf値や、相互情報量を用いることができる。
ある単語または単語の組み合わせのidf値であるidf(t)は、全文書数をnとし、ある単語または単語の組み合わせを含む文書数をdf(t)とすると、数式(1)のように算出される。
Figure 2018045559
一方、相互情報量とは、2つの確率変数の相互依存の尺度を表す量である。2つの確率変数として、全文書中においてある単語または単語の組み合わせの出現確率を表す確率変数Xと、全文書中において類似グループに属する文書の出現確率を表す確率変数Yを用いると、相互情報量I(X;Y)は、例えば、数式(2)のように算出される。
Figure 2018045559
数式(2)において、p(x,y)はXとYの同時分布関数、p(x)とp(y)はそれぞれXとYの周辺確率分布関数である。x,yは1または0の値をとる。x=1は、ある文書において、ある単語または単語の組み合わせが出現することを示し、x=0は、その単語または単語の組み合わせが出現しないことを示す。また、y=1は、ある文書が類似グループに属することを示し、y=0は、その文書が類似グループに属さないことを示す。
例えば、ある単語または単語の組み合わせである特徴候補t1が出現する文書の数をMt1とし、全文書数をnとすると、p(x=1)は、Mt1/nと算出できる。また特徴候補t1が出現しない文書の数をMt2とすると、p(x=0)は、Mt2/nと算出できる。一方、類似グループg1に属する文書の数をMg1とすると、p(y=1)は、Mg1/nと算出できる。また、類似グループg1に属さない文書の数をMg0とすると、p(y=0)は、Mg0/nと算出できる。さらに、特徴候補t1が出現し、類似グループg1に属する文書の数をM11とすると、p(1,1)は、M11/nと算出できる。特徴候補t1が出現せず、類似グループg1に属する文書の数をM01とすると、p(0,1)は、M01/nと算出できる。また、特徴候補t1が出現し、類似グループg1に属さない文書の数をM10とすると、p(1,0)は、M10/nと算出できる。また、特徴候補t1が出現せず、類似グループg1に属さない文書の数をM00とすると、p(0,0)は、M00/nと算出できる。相互情報量I(X;Y)の値が大きいほど、類似グループg1の特徴候補を表すような特徴候補t1であるとみなすことができる。
図6は、特徴候補ごとの重要度の算出結果の一例を示す図である。
図6に示されている重要度の算出結果51には、特徴候補である単語または単語の組み合わせごとのidf値に基づく重要度の例が示されている。なお、図6の例では、数式(1)において、n=100、logの底が10であるときの各特徴候補のidf値を、単語数で割ることで正規化した値が、重要度として表されている。
例えば、前述の図5に示したように特徴候補“below”の出現頻度は12であるため、idf値は、数式(1)より、0.92となる。特徴候補“below”の単語数は1であるため、重要度は、図6に示すように0.92となる。また、前述の図5に示したように特徴候補“the below”の出現頻度は12であるため、idf値は、数式(1)より、0.92となる。特徴候補“the below”の単語数は2であるため、重要度は、図6に示すように0.46となる。
分類に役立たない特徴候補であっても、単語数が多くなればなるほど出現頻度は小さくなる傾向がある。情報処理装置100は、各特徴候補のidf値を単語数で割って正規化することで、単語数が多いだけで分類に役立たない特徴候補についても重要度が大きくなることを抑制できる。
次に、情報処理装置100は、文書20b1〜20bnのそれぞれに含まれる1または複数の特徴候補の重要度を加算して、文書20b1〜20bnのそれぞれにおいて、重要度の合計値であるポテンシャル情報量を算出する。
図7は、ポテンシャル情報量の算出結果の一例を示す図である。
ポテンシャル情報量の算出結果52において、例えば、“ドキュメント1: 9.8”は、文書20b1のポテンシャル情報量が9.8であることを表している。また、“ドキュメント2: 31.8”は、文書20b2のポテンシャル情報量が31.8であることを表している。
その後、情報処理装置100は、文書20b1〜20bnを、ポテンシャル情報量が大きい順にソートする。
図8は、ソート結果の一例を示す図である。
ソート結果53には、“ドキュメント1”、“ドキュメント2”などと表記されている文書20b1〜20bnが、ポテンシャル情報量の一番大きい“ドキュメント2”(文書20b2)から順に配列されている。
次に、情報処理装置100は、ソート結果53に基づき、複数の教師データ集合を生成する。
図9は、生成された複数の教師データ集合の一例を示す図である。
図9には、情報処理装置100が、10−分割交差検証により、学習モデルの評価値を算出する際に用いる91個の教師データ集合54a1,54a2,…,54a91の例が示されている。
教師データ集合54a1には、10個の文書が、ポテンシャル情報量が大きい順に配列されている。教師データ集合54a1では、一番大きいポテンシャル情報量をもつ“ドキュメント2”が先頭に配列されている。また、教師データ集合54a1では、10番目に大きいポテンシャル情報量をもつ“ドキュメント92”が最後尾に配列されている。次に生成される教師データ集合54a2には、11番目に大きいポテンシャル情報量をもつ“ドキュメント65”が追加されている。最後に生成される教師データ集合54a91の最後尾には、最も小さいポテンシャル情報量をもつ“ドキュメント34”が追加されている。
そして、情報処理装置100は、例えば、上記のような教師データ集合54a1〜54a91のそれぞれに基づき機械学習を行う。
まず、情報処理装置100は、教師データ集合54a1を10分割することで得られる10個の分割要素のうち、9個の分割要素を訓練データとして用いて、2つの文書が類似するかどうかを判別する学習モデルを機械学習で生成する。機械学習には、例えば、SVM、ニューラルネットワーク、回帰判別などの機械学習アルゴリズムが用いられる。
そして、情報処理装置100は、10個の分割要素のうち、1個の分割要素をテストデータとして用いて、学習モデルを評価する。例えば、情報処理装置100は、テストデータとして用いられる1個の分割要素に含まれる文書について、学習モデルを用いた予測処理によって、その文書が、類似グループに属するか否かを判定する。
情報処理装置100は、10個の分割要素のうち、異なる分割要素をテストデータとして用いて、同様の処理を10回行う。そして、情報処理装置100は、評価値を算出する。評価値として、例えば、F値を用いることができる。F値は、再現率と適合率の平均調和であり、再現率Pと適合率Rを用いて、数式(3)のように算出される。
Figure 2018045559
再現率は、類似グループに属する文書のうち、学習モデルの評価の際に正しく類似グループに属すると判定された文書の割合である。適合率は、全判定回数に対して、正しく類似グループに属するまたは類似グループに属さないと判定できた回数の割合である。
例えば、教師データ集合54a1に、類似グループに属する文書が7つ含まれていて、学習モデルの評価の際に正しく類似グループに属すると判定された文書が3つである場合には、再現率Pは3/7となる。また、10−分割交差検証による10回の判定のうち、6回正しい判定結果が得られた場合、適合率Rは0.6となる。
同様の処理が、教師データ集合54a2〜54a91についても行われる。なお、教師データ集合54a2〜54a91には11以上の文書が含まれているため、10−分割交差検証の際には、10個の分割要素のうち、少なくとも1つの分割要素には2つ以上の文書が含まれることになる。
その後、情報処理装置100は、評価値が最大となる学習モデルを出力する。
図10は、教師データ集合に含まれる文書数とF値との一例の関係を示す図である。
図10において、横軸は文書数を表し、縦軸はF値を表している。図10の例では、文書数が59のときのF値が最大となっている。このため、情報処理装置100は、文書数が59である教師データ集合に基づき生成された学習モデルを出力する。例えば、10−分割交差検証の際には、1つの教師データ集合に対して、9個の分割要素を訓練データとして学習モデルが生成され1個の分割処理をテストデータとして評価する処理が10回行われる。つまり10個の学習モデルのそれぞれに対して評価が行われるが、正しい値が得られた学習モデルが1つまたは複数出力される。
例えば、学習モデルがニューラルネットワークである場合には、機械学習によって得られるニューラルネットワークの各ノード(ニューロン)間の結合係数などが出力される。学習モデルがSVMで得られたものである場合には、学習モデルに含まれる係数などが出力される。情報処理装置100は、例えば、通信インタフェース107を用いて、学習モデルをネットワーク114に接続されている他の情報処理装置に送信する。また、情報処理装置100は、学習モデルをHDD103に記憶させるようにしてもよい。
上記のような処理を行う情報処理装置100は、例えば、以下のような機能ブロック図で表せる。
図11は、情報処理装置の機能例を示す機能ブロック図である。
情報処理装置100は、教師データ記憶部121、学習モデル記憶部122、特徴候補抽出部123、重要度算出部124、情報量算出部125、教師データ集合生成部126、機械学習部127、評価値算出部128、学習モデル出力部129を有する。教師データ記憶部121および学習モデル記憶部122は、例えば、RAM102またはHDD103に確保した記憶領域を用いて実装できる。特徴候補抽出部123、重要度算出部124、情報量算出部125、教師データ集合生成部126、機械学習部127、評価値算出部128、および学習モデル出力部129は、例えば、CPU101が実行するプログラムモジュールを用いて実装できる。
教師データ記憶部121は、教師あり機械学習を行うときに用いられる教師データである複数の教師データ要素を記憶する。複数の教師データ要素として、画像や文書などを用いることができる。教師データ記憶部121に記憶されたデータは、情報処理装置100または他の情報処理装置が各種デバイスから収集したものでもよいし、情報処理装置100または他の情報処理装置に対してユーザが入力したものでもよい。
学習モデル記憶部122は、学習モデル出力部129が出力した学習モデル(評価値が最大となる学習モデル)を記憶する。
特徴候補抽出部123は、教師データ記憶部121に記憶された複数の教師データ要素から複数の特徴候補を抽出する。教師データ要素が文書のとき、特徴候補は、例えば図4に示したように、単語または単語の組み合わせである。
重要度算出部124は、複数の特徴候補の全教師データ要素における出現頻度に基づく重要度を複数の特徴候補のそれぞれについて算出する。前述したように、重要度は、例えば、idf値や相互情報量に基づいて算出される。重要度は、例えば図5に示したように、idf値を特徴候補の長さ(単語数)で正規化したものであってもよい。
情報量算出部125は、複数の教師データ要素のそれぞれに含まれる1または複数の特徴候補の重要度を積算して、複数の教師データ要素のそれぞれにおける重要度の合計値であるポテンシャル情報量を算出する。教師データ要素が文書の場合、例えば図7に示したようなポテンシャル情報量の算出結果52が得られる。
教師データ集合生成部126は、ポテンシャル情報量が大きい順に教師データ要素をソートする。そして、ポテンシャル情報量が大きい順に1つずつ追加して得られる複数の教師データ集合を生成する。教師データ要素が文書の場合、例えば図9に示したような教師データ集合54a1〜54a91が得られる。
機械学習部127は、複数の教師データ集合のそれぞれに基づき機械学習を行う。例えば、機械学習部127は、複数の教師データ集合のそれぞれに基づき、2つの文書が類似するかどうかを判別する学習モデルを機械学習で生成する。
評価値算出部128は、機械学習で生成された学習モデルの性能の評価値を算出する。評価値算出部128は、評価値として、例えば、F値を算出する。
学習モデル出力部129は、評価値が最大となる学習モデルを出力する。例えば、図10に示した例では、文書数が59の教師データ集合に基づき生成された学習モデルの評価値(F値)が最大になっているため、この学習モデルを出力する。学習モデル出力部129が出力した学習モデルは、学習モデル記憶部122に記憶されてもよいし、情報処理装置100の外部に出力されてもよい。
図12は、第2の実施の形態の情報処理装置による情報処理の一例の流れを示すフローチャートである。
(S10)特徴候補抽出部123は、教師データ記憶部121に記憶された複数の教師データ要素から複数の特徴候補を抽出する。
(S11)重要度算出部124は、ステップS10の処理で抽出された複数の特徴候補の全教師データ要素における出現頻度に基づき、機械学習における重要度を複数の特徴候補のそれぞれについて算出する。
(S12)情報量算出部125は、ステップS11の処理で算出された、複数の教師データ要素のそれぞれに含まれる1または複数の特徴候補の重要度を積算して、複数の教師データ要素のそれぞれにおける重要度の合計値であるポテンシャル情報量を算出する。
(S13)教師データ集合生成部126は、ステップS12の処理で算出されたポテンシャル情報量が大きい順に教師データ要素をソートする。
(S14)教師データ集合生成部126は、ステップS13の処理でソートした教師データ要素を、ポテンシャル情報量が大きい順に1つずつ追加して得られる複数の教師データ集合を生成する。評価値を算出する際に10−分割交差検証が行われる場合には、教師データ集合に含まれる教師データ要素の数の初期値は10以上である。
(S15)機械学習部127は、複数の教師データ集合から、例えば、教師データ要素の少ない順に1つずつ教師データ集合を選択する。
(S16)機械学習部127は、選択した教師データ集合に基づき機械学習を行い、学習モデルを生成する。機械学習部127は、例えば、選択した1つの教師データ集合に基づき機械学習を行い、学習モデルを生成する。
(S17)評価値算出部128は、機械学習で生成された学習モデルの性能の評価値を算出する。評価値算出部128は、評価値として、例えば、F値を算出する。
(S18)学習モデル出力部129は、前回選択された教師データ集合に基づき生成された学習モデルの評価値よりも、今回選択された教師データ集合に基づき生成された学習モデルの評価値が悪化したか否かを判定する。評価値が悪化していないときには、ステップS15からの処理が繰り返される。評価値が悪化したときには、ステップS19の処理が行われる。
(S19)評価値が悪化したとき(評価値が悪化する学習モデルを検出したとき)、学習モデル出力部129は、前回選択された教師データ集合に基づき生成された学習モデルを、評価値が最大の学習モデルであるとして出力し、処理(機械学習処理)を終了する。出力された学習モデルに対して、未知のデータ(文書や画像など)が入力されると、例えば、そのデータが類似グループに属するか否か、などの結果が得られる。
なお、図12に示されている処理では、教師データ要素の少ない順に選択された教師データ集合に基づき生成された学習モデルの評価値が順番に算出されていったときに、一旦評価値が悪化したら、そのまま悪化し続けるものと仮定されている。
なお、ステップS14の処理で、教師データ集合生成部126は、図9に示したような全ての教師データ集合54a1〜54a91を一度に生成しなくてもよい。例えば、教師データ集合生成部126は、教師データ集合54a1〜54a91を1つずつ生成し、1つ生成するごとに、ステップS16〜S18の処理が行われるようにしてもよい。その場合、評価値が悪化した時点で、教師データ集合生成部126は、教師データ集合の生成を停止するようにしてもよい。
また、情報処理装置100、同様の機械学習を複数回行う際に、前回の機械学習で評価値が最大となり出力された学習モデルを生成するために用いられた教師データ集合に含まれる文書群のポテンシャル情報量を参照してもよい。その場合、情報処理装置100は、その教師データ集合に含まれる文書群のポテンシャル情報量と同様のポテンシャル情報量をもつ文書群を含む教師データ集合を用いて学習モデルを生成および評価して、評価値が最大の学習モデルを検出するようにしてもよい。これにより、学習時間を短縮できる。
また、ステップS16,S17の処理は、情報処理装置100とは異なる外部の情報処理装置が行ってもよい。その場合、情報処理装置100は、外部の情報処理装置から評価値を取得して、ステップS18の処理を行う。
以上のような第2の実施の形態の情報処理装置によれば、ポテンシャル情報量の大きい教師データ要素が優先的に選択された教師データ集合に基づいて機械学習を行うことが可能となる。これにより特徴の弱い(ポテンシャル情報量が小さい)不適切な教師データ要素を除外でき学習精度を向上できる。
また、情報処理装置100によれば、ポテンシャル情報量の大きい教師データ要素が優先的に集められた教師データ集合に基づいた機械学習により生成される学習モデルが出力される。例えば、図10の例では、含まれる文書数が59である教師データ集合の各文書よりもポテンシャル情報量の小さい文書を含む教師データ集合(文書数が60〜100であるもの)に基づいて生成された学習モデルは出力されない。情報処理装置100では、このようなポテンシャル情報量が小さい教師データ要素(文書)が除外されるため、精度のよい学習モデルが得られる。
また、図12に示したように、情報処理装置100は、評価値が悪化した時点で機械学習を終了することで、学習時間を短縮できる。
なお、前述のように、第1の実施の形態の情報処理は、情報処理装置10にプログラムを実行させることで実現できる。第2の実施の形態の情報処理は、情報処理装置100にプログラムを実行させることで実現できる。
プログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体113)に記録しておくことができる。記録媒体として、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどを使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD−R(Recordable)/RW(Rewritable)、DVDおよびDVD−R/RWが含まれる。プログラムは、可搬型の記録媒体に記録されて配布されることがある。その場合、可搬型の記録媒体から他の記録媒体(例えば、HDD103)にプログラムをコピーして実行してもよい。
10 情報処理装置
11 記憶部
12 制御部
20a1〜20an 教師データ要素
21a,21b,21c 教師データ集合
22a,22b,22c 学習モデル

Claims (5)

  1. 複数の教師データ要素を記憶する記憶部と、
    前記複数の教師データ要素から、それぞれが前記複数の教師データ要素のうちの1つ以上に含まれている複数の特徴候補を抽出し、
    前記複数の教師データ要素における前記複数の特徴候補それぞれの出現頻度に基づいて、機械学習における前記複数の特徴候補それぞれの重要度を算出し、
    前記複数の教師データ要素それぞれに含まれる特徴候補に対して算出された前記重要度を用いて、前記複数の教師データ要素それぞれの情報量を算出し、
    前記複数の教師データ要素それぞれの前記情報量に基づいて、前記複数の教師データ要素の中から機械学習に使用する教師データ要素を選択する制御部と、
    を有する情報処理装置。
  2. 前記使用する教師データ要素の選択では、前記情報量が大きい方から所定個の教師データ要素または前記情報量が閾値以上である教師データ要素を選択する、
    請求項1記載の情報処理装置。
  3. 前記使用する教師データ要素の選択では、第1の教師データ要素を含み前記第1の教師データ要素より前記情報量の小さい第2の教師データ要素を含まない第1の教師データ集合と、前記第1および第2の教師データ要素を含む第2の教師データ集合とを生成し、
    前記制御部はさらに、前記第1の教師データ集合を用いて実行された第1の機械学習の結果と前記第2の教師データ集合を用いて実行された第2の機械学習の結果とを取得し、前記第1および第2の機械学習の結果に基づいて、機械学習の結果が所定の条件を満たすような前記複数の教師データ要素の部分集合を探索する、
    請求項1記載の情報処理装置。
  4. コンピュータが実行する情報処理方法であって、
    複数の教師データ要素から、それぞれが前記複数の教師データ要素のうちの1つ以上に含まれている複数の特徴候補を抽出し、
    前記複数の教師データ要素における前記複数の特徴候補それぞれの出現頻度に基づいて、機械学習における前記複数の特徴候補それぞれの重要度を算出し、
    前記複数の教師データ要素それぞれに含まれる特徴候補に対して算出された前記重要度を用いて、前記複数の教師データ要素それぞれの情報量を算出し、
    前記複数の教師データ要素それぞれの前記情報量に基づいて、前記複数の教師データ要素の中から機械学習に使用する教師データ要素を選択する、
    情報処理方法。
  5. コンピュータに、
    複数の教師データ要素から、それぞれが前記複数の教師データ要素のうちの1つ以上に含まれている複数の特徴候補を抽出し、
    前記複数の教師データ要素における前記複数の特徴候補それぞれの出現頻度に基づいて、機械学習における前記複数の特徴候補それぞれの重要度を算出し、
    前記複数の教師データ要素それぞれに含まれる特徴候補に対して算出された前記重要度を用いて、前記複数の教師データ要素それぞれの情報量を算出し、
    前記複数の教師データ要素それぞれの前記情報量に基づいて、前記複数の教師データ要素の中から機械学習に使用する教師データ要素を選択する、
    処理を実行させるプログラム。
JP2016181414A 2016-09-16 2016-09-16 情報処理装置、情報処理方法およびプログラム Active JP6839342B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016181414A JP6839342B2 (ja) 2016-09-16 2016-09-16 情報処理装置、情報処理方法およびプログラム
US15/673,606 US20180082215A1 (en) 2016-09-16 2017-08-10 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016181414A JP6839342B2 (ja) 2016-09-16 2016-09-16 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018045559A true JP2018045559A (ja) 2018-03-22
JP6839342B2 JP6839342B2 (ja) 2021-03-10

Family

ID=61620490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181414A Active JP6839342B2 (ja) 2016-09-16 2016-09-16 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20180082215A1 (ja)
JP (1) JP6839342B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021301A (ja) * 2018-08-01 2020-02-06 株式会社デンソー 訓練データ評価装置、訓練データ評価方法、およびプログラム
JP2020030692A (ja) * 2018-08-23 2020-02-27 ファナック株式会社 判別装置及び機械学習方法
JP2020046909A (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP2020046907A (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP2020077361A (ja) * 2018-11-05 2020-05-21 株式会社トランス 学習モデル構築装置、入社後評価予測装置、学習モデル構築方法および入社後評価予測方法
WO2020170849A1 (ja) * 2019-02-19 2020-08-27 Jfeスチール株式会社 操業結果予測方法、学習モデルの学習方法、操業結果予測装置および学習モデルの学習装置
WO2020179729A1 (ja) * 2019-03-04 2020-09-10 Sppテクノロジーズ株式会社 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
JP2020173673A (ja) * 2019-04-11 2020-10-22 富士通株式会社 文書処理方法、文書処理プログラムおよび情報処理装置
WO2020241772A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2020241836A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
JP2021022377A (ja) * 2019-07-26 2021-02-18 スアラブ カンパニー リミテッド データ管理方法
JP2021033895A (ja) * 2019-08-29 2021-03-01 株式会社豊田中央研究所 変数選定方法、変数選定プログラムおよび変数選定システム
WO2021171863A1 (ja) * 2020-02-27 2021-09-02 オムロン株式会社 モデル更新装置、方法、及びプログラム
WO2022013954A1 (ja) * 2020-07-14 2022-01-20 富士通株式会社 機械学習プログラム、機械学習方法および情報処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11334608B2 (en) * 2017-11-23 2022-05-17 Infosys Limited Method and system for key phrase extraction and generation from text
JP6799047B2 (ja) * 2018-11-19 2020-12-09 ファナック株式会社 暖機運転評価装置、暖機運転評価方法及び暖機運転評価プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102895A (ja) * 1992-09-18 1994-04-15 N T T Data Tsushin Kk 音声認識モデル学習装置
JP2009251810A (ja) * 2008-04-03 2009-10-29 Olympus Corp データ分類装置、データ分類方法、データ分類プログラムおよび電子機器
US20110004573A1 (en) * 2009-07-02 2011-01-06 International Business Machines, Corporation Identifying training documents for a content classifier
JP2014092750A (ja) * 2012-11-06 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> 音響モデル生成装置とその方法とプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102895A (ja) * 1992-09-18 1994-04-15 N T T Data Tsushin Kk 音声認識モデル学習装置
JP2009251810A (ja) * 2008-04-03 2009-10-29 Olympus Corp データ分類装置、データ分類方法、データ分類プログラムおよび電子機器
US20110004573A1 (en) * 2009-07-02 2011-01-06 International Business Machines, Corporation Identifying training documents for a content classifier
JP2014092750A (ja) * 2012-11-06 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> 音響モデル生成装置とその方法とプログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021301A (ja) * 2018-08-01 2020-02-06 株式会社デンソー 訓練データ評価装置、訓練データ評価方法、およびプログラム
JP7095467B2 (ja) 2018-08-01 2022-07-05 株式会社デンソー 訓練データ評価装置、訓練データ評価方法、およびプログラム
JP2020030692A (ja) * 2018-08-23 2020-02-27 ファナック株式会社 判別装置及び機械学習方法
US11461584B2 (en) 2018-08-23 2022-10-04 Fanuc Corporation Discrimination device and machine learning method
JP7299002B2 (ja) 2018-08-23 2023-06-27 ファナック株式会社 判別装置及び機械学習方法
WO2020059506A1 (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP2020046909A (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP7135640B2 (ja) 2018-09-19 2022-09-13 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP7135641B2 (ja) 2018-09-19 2022-09-13 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP2020046907A (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
WO2020059469A1 (ja) * 2018-09-19 2020-03-26 日本電信電話株式会社 学習装置、抽出装置及び学習方法
JP2020191131A (ja) * 2018-11-05 2020-11-26 株式会社アッテル 学習モデル構築装置、入社後評価予測装置、学習モデル構築方法および入社後評価予測方法
JP2020077361A (ja) * 2018-11-05 2020-05-21 株式会社トランス 学習モデル構築装置、入社後評価予測装置、学習モデル構築方法および入社後評価予測方法
JPWO2020170849A1 (ja) * 2019-02-19 2021-03-11 Jfeスチール株式会社 操業結果予測方法、学習モデルの学習方法、操業結果予測装置および学習モデルの学習装置
WO2020170849A1 (ja) * 2019-02-19 2020-08-27 Jfeスチール株式会社 操業結果予測方法、学習モデルの学習方法、操業結果予測装置および学習モデルの学習装置
WO2020178945A1 (ja) * 2019-03-04 2020-09-10 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群
WO2020179729A1 (ja) * 2019-03-04 2020-09-10 Sppテクノロジーズ株式会社 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
JP2020173673A (ja) * 2019-04-11 2020-10-22 富士通株式会社 文書処理方法、文書処理プログラムおよび情報処理装置
JP7243402B2 (ja) 2019-04-11 2023-03-22 富士通株式会社 文書処理方法、文書処理プログラムおよび情報処理装置
WO2020241772A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
WO2020241836A1 (ja) * 2019-05-31 2020-12-03 国立大学法人京都大学 情報処理装置、スクリーニング装置、情報処理方法、スクリーニング方法、及びプログラム
JP7186200B2 (ja) 2019-07-26 2022-12-08 スアラブ カンパニー リミテッド データ管理方法
JP2021022377A (ja) * 2019-07-26 2021-02-18 スアラブ カンパニー リミテッド データ管理方法
JP2021033895A (ja) * 2019-08-29 2021-03-01 株式会社豊田中央研究所 変数選定方法、変数選定プログラムおよび変数選定システム
WO2021171863A1 (ja) * 2020-02-27 2021-09-02 オムロン株式会社 モデル更新装置、方法、及びプログラム
WO2022013954A1 (ja) * 2020-07-14 2022-01-20 富士通株式会社 機械学習プログラム、機械学習方法および情報処理装置
JP7364083B2 (ja) 2020-07-14 2023-10-18 富士通株式会社 機械学習プログラム、機械学習方法および情報処理装置

Also Published As

Publication number Publication date
JP6839342B2 (ja) 2021-03-10
US20180082215A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6839342B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11615341B2 (en) Customizable machine learning models
US11568300B2 (en) Apparatus and method for managing machine learning with plurality of learning algorithms and plurality of training dataset sizes
US7801836B2 (en) Automated predictive data mining model selection using a genetic algorithm
US9249287B2 (en) Document evaluation apparatus, document evaluation method, and computer-readable recording medium using missing patterns
JP6536295B2 (ja) 予測性能曲線推定プログラム、予測性能曲線推定装置および予測性能曲線推定方法
Angeli et al. Stanford’s 2014 slot filling systems
Budhiraja et al. A supervised learning approach for heading detection
US20220207302A1 (en) Machine learning method and machine learning apparatus
US20170293863A1 (en) Data analysis system, and control method, program, and recording medium therefor
JP5310196B2 (ja) 分類体系改正支援プログラム、分類体系改正支援装置、および分類体系改正支援方法
JP7292235B2 (ja) 分析支援装置及び分析支援方法
US11514311B2 (en) Automated data slicing based on an artificial neural network
US20230281275A1 (en) Identification method and information processing device
Zhan et al. Reliability-based cleaning of noisy training labels with inductive conformal prediction in multi-modal biomedical data mining
US11797592B2 (en) Document classification method, document classifier, and recording medium
CN116932487B (zh) 一种基于数据段落划分的量化式数据分析方法及系统
AU2021312671B2 (en) Value over replacement feature (VORF) based determination of feature importance in machine learning
US20240134615A1 (en) Method and apparatus for information processing
KR102165863B1 (ko) 소셜 네트워크 서비스에서 카테고리 간의 강도 및 카테고리 내의 강도 기반의 감정 분석 방법 및 장치
Kaur et al. Improved Framework for Bug Severity Classification using N-gram Features with Convolution Neural Network
Liu et al. Revisiting code smell severity prioritization using learning to rank techniques
EP3771996A1 (en) Information retrieval device and method using a set of search configurations pre-selected using efficiency and risk functions
Sangli et al. An Approach for Sub Selecting Variables that have Higher Influence on the Outcome in Developing Predictive Model using Staff Turnover.
JP2024062515A (ja) 情報処理プログラム、情報処理方法および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190613

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R150 Certificate of patent or registration of utility model

Ref document number: 6839342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150