JPWO2019092931A1 - 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム - Google Patents

判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム Download PDF

Info

Publication number
JPWO2019092931A1
JPWO2019092931A1 JP2019551882A JP2019551882A JPWO2019092931A1 JP WO2019092931 A1 JPWO2019092931 A1 JP WO2019092931A1 JP 2019551882 A JP2019551882 A JP 2019551882A JP 2019551882 A JP2019551882 A JP 2019551882A JP WO2019092931 A1 JPWO2019092931 A1 JP WO2019092931A1
Authority
JP
Japan
Prior art keywords
label
value
objective variable
threshold value
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019551882A
Other languages
English (en)
Other versions
JP7070584B2 (ja
Inventor
啓 谷本
啓 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019092931A1 publication Critical patent/JPWO2019092931A1/ja
Application granted granted Critical
Publication of JP7070584B2 publication Critical patent/JP7070584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

判別モデル生成装置80は、算出部81と、学習部82とを備えている。算出部81は、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、その学習データに付加するラベルを算出する。学習部82は、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する。

Description

本発明は、学習データに基づいて判別モデルを生成する判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラムに関する。
現在や将来予測される状況を判別するため、学習データから判別に用いるモデルを生成することが行われる。具体的には、目的変数yが数値で表される場合に、その目的変数yがしきい値θより大きいか否かに基づいて、対象とする事例を判別するモデルを生成する場合がある。
このような事例として、例えば、ある状態値yが危険水準θに達するか否か、飲食店の評価値yが高評価θ以上になるか否か、新商品発売後1週間で一定数θ以上売り上げるか否か、などが挙げられる。
例えば、特許文献1には、監視領域内に滞留している人や物を識別する識別器を学習するための装置が記載されている。特許文献1に記載された装置は、検出対象が滞留していることを示す画像を正例、検出対象が滞留していないことを示す画像を負例として、検出対象が滞留しているか否かを識別する識別器を学習する。このように生成された識別器を用いることで、任意の入力画像に対し、正例または負例に属する確からしさを示す滞留度を得ることが可能になる。
なお、特許文献2には、機械学習における能動学習方法が記載されている。特許文献2に記載された能動学習方法では、学習データの取得順序に応じて学習データに重みを設定し、以前から蓄積されているデータよりも、新しく取得されたデータを重要視した学習を行う。
国際公開2016/136214号 国際公開2008/072459号
状況を判別する方法として、回帰分析を行い、生成された予測モデルによる予測値に対して判別を行う方法が一案として考えられる。ただし、ある状態になるか否かを判別する状況においては、目的変数の精度自体は必ずしも必要ではない。例えば、正例を示すデータが少ないような状況では、興味のない領域の精度が、興味領域の精度を下げてしまう場合がある。
例えば、交通事故が発生するか否かを判別するような事例を考える。一般に、交通事故が発生する状況は、交通事故が発生しない状況に比べて大幅に少ない。このような事例において回帰分析を行うと、交通事故が発生する状況が興味領域であるにもかかわらず、交通事故が発生しない状況に最もフィットするようなモデルが生成されてしまう。
一方、特許文献1に記載された装置は、予め正例と負例とにラベル付けされた学習データに基づいて識別器が学習される。ところで、識別器を学習する際に用いられる学習データとして、学習データに含まれる識別対象(目的変数)の実測値が、正例(例えば、1)か負例(例えば、0)かの2値ではなく、実測値そのものとして入手できる場合がある。
このような場合、例えば数値データとして入手可能な値を、数値データから正例(1)か、負例(0)かの2値に変換してから学習を行うことが考えられる。しかし、このような変換は、数値データが使えるにも関わらず、値を0または1に縮約してしまうため、利用可能な情報量が減ってしまい、モデルの判別精度に悪影響を与える場合がある。
判別モデルを生成するには、より多くの学習データを利用できることが好ましい。しかし、学習データが少ない場合であっても、少ない学習データをより効率的に用いて精度のよいモデルを学習できることが望まれている。
そこで、本発明は、学習データが少ない場合でも精度のよい判別モデルを学習できる判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラムを提供することを目的とする。
本発明による判別モデル生成装置は、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、その学習データに付加するラベルを算出する算出部と、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習部とを備えたことを特徴とする。
本発明による判別モデル生成方法は、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、その学習データに付加するラベルを算出することを特徴とする。
本発明による判別モデル生成プログラムは、コンピュータに、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、その学習データに付加するラベルを算出する算出処理、および、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習処理とを実行させることを特徴とする。
本発明によれば、学習データが少ない場合でも精度のよい判別モデルを学習できるという技術的効果を奏する。
本発明による判別モデル生成装置の第1の実施形態の構成例を示すブロック図である。 学習データの例を示す説明図である。 学習データに基づいてラベルを算出した結果の例を示す説明図である。 第1の実施形態の判別モデル生成装置の動作例を示すフローチャートである。 本発明による判別モデル生成装置の第2の実施形態の構成例を示すブロック図である。 学習データから正例のデータおよび負例のデータを生成する処理の例を示す説明図である。 学習データに基づいて重みを算出した結果の例を示す説明図である。 第2の実施形態の判別モデル生成装置の動作例を示すフローチャートである。 本発明による判別モデル生成装置の第3の実施形態の構成例を示すブロック図である。 第3の実施形態の判別モデル生成装置の動作例を示すフローチャートである。 本発明によるラベル生成装置の一実施形態を示すブロック図である。 実施例における学習データの分布を示す説明図である。 しきい値に基づいてサンプルを正例のデータおよび負例のデータに分類した結果の例を示す。 評価結果の例を示す説明図である。 本発明による判別モデル生成装置の概要を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。本実施形態で生成する判別モデルは、上述するような、目的変数yが数値で表される場合に、判別対象(予測対象)の目的変数yが、あるしきい値θを超える(すなわち、y>θになる)か否かを判別するモデルであるとする。
実施形態1.
図1は、本発明による判別モデル生成装置の第1の実施形態の構成例を示すブロック図である。本実施形態の判別モデル生成装置100は、記憶部10と、ラベル算出部20と、学習器30とを備えている。
記憶部10は、学習データを記憶する。なお、学習データのことを、サンプルと記すこともある。また、記憶部10は、後述するラベル算出部20および学習器30が用いるパラメータなどのデータを記憶していてもよい。記憶部10は、例えば、磁気ディスク装置等により実現される。
図2は、学習データの例を示す説明図である。図2に例示する学習データは、ある商品の日付ごとの売上データを示す。図2に例示する学習データは、1週間前の売上、休日か否かを示す休日フラグ、温度、および、売上を含む。これらのデータは、判別モデルにおける説明変数として用いられる。また、図2に例示する判定結果は、売上が100を超えたか否か(超えている場合1、超えていない場合0)を示す。
ラベル算出部20は、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、学習データに付加するラベルを算出する。具体的には、ラベル算出部20は、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する。
例えば、正例を表すラベルを「1」とし、負例を表すラベルを「0」とする。そして、「1」に近い値ほど、より正例らしさを表すラベルを表し、「0」に近い値ほど、より負例らしさを表すラベルを表すとする。このとき、ラベル算出部20は、目的変数の値がしきい値に比べて大きくなるほど、「1」に近い値を示すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、「0」に近い値を示すラベルを算出してもよい。このように、本発明で算出するラベルは、正例らしさおよび負例らしさを完全に区別するものではなく、柔軟なラベルであることから、ソフトラベル(soft−Label)と言うことができる。一方、ソフトラベルの対として、正例らしさおよび負例らしさを完全に区別するラベル(例えば、正例を表すラベルが「1」、負例を表すラベルが「0」)のことを、以下、ハードラベルと記す。
ラベル算出部20は、目的変数と閾値との差に基づいて値を決定する関数を用いて、ラベルを算出してもよい。ラベル算出部20は、例えば、目的変数の値としきい値とが等しい場合に、正例および負例らしさが同等(0.5)になり、目的変数の値がしきい値よりも大きくなるにしたがって1に近づき、目的変数の値がしきい値よりも小さくなるにしたがって0に近づくシグモイド関数を用いて、ラベルを算出してもよい。
しきい値をθとし、データiの目的変数の値をyとすると、シグモイド関数fは、以下に示す式1で表される。なお、式1において、Tは、温度パラメータである。
Figure 2019092931
なお、ラベル算出部20がラベルの算出に用いる関数は、シグモイド関数に限定されない。例えば、正例を表すラベルを「1」とし、負例を表すラベルを「0」とした場合には、目的変数の値について単調非減少、かつ値域が[0,1]に収まる関数であれば、その内容は任意である。
図3は、学習データに基づいてラベルを算出した結果の例を示す説明図である。図3に示す例では、上記に示す式1に基づいてラベルを算出した結果を示す。ここでは、温度パラメータT=10としている。一般的な方法の場合、例えば、id=2のデータが示す売上は、99であり、極めて正例に近いデータであるにもかかわらず、閾値100より小さいため、id=2のデータは単なる負例(0)のデータとして用いられる。
しかし、本実施形態では、ラベル算出部20が、負例とされるデータであっても、正例に近いようなデータには、負例の中でも正例に近いことを示すラベルを算出する。言い換えると、ラベル算出部20は、学習データに含まれる目的変数の値としきい値とを比較したときには負例と判別される学習データであっても、その学習データについて正例らしさを表すラベルを算出する。そのため、学習データが少ない場合でも、その学習データを効率的に利用できるため、より精度のよい判別モデルを学習できる
学習器30は、ラベル算出部20が算出したラベルを対応付けた学習データを用いて、判別モデルを学習する。具体的には、学習器30は、しきい値を超えるか否かを目的変数とし、図2に例示するような変数を説明変数とするような判別モデルを生成する。なお、本実施形態では、学習データの目的変数に対応する値として、「しきい値を超えるか否か」を表すようなハードラベルの代わりにソフトラベルを用いる。すなわち、ソフトラベルをあたかも目的変数のように扱って学習が行われる。例えば、説明変数をx、ソフトラベルをs、ハードラベルをyと定義した場合、一般的な判別モデルの学習では(x,y)が学習データとして用いられるところ、本実施形態では(x,s)が学習データとして用いられる。なお、学習器30が学習を行う方法は任意である。学習器30は、例えば、ロジスティック回帰を用いて判別モデルを学習してもよい。
ラベル算出部20と、学習器30とは、プログラム(判別モデル生成プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU(Central Processing Unit )、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array ))によって実現される。
例えば、プログラムは、記憶部10に記憶され、プロセッサは、そのプログラムを読み込み、プログラムに従って、ラベル算出部20および学習器30として動作してもよい。また、推奨発注数決定装置の機能がSaaS(Software as a Service )形式で提供されてもよい。
ラベル算出部20と、学習器30とは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry )、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。
また、判別モデル生成装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
次に、本実施形態の判別モデル生成装置の動作を説明する。図4は、本実施形態の判別モデル生成装置の動作例を示すフローチャートである。ラベル算出部20は、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、学習データに付加するラベルを算出する(ステップS11)。具体的には、ラベル算出部20は、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する。そして、学習器30は、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する(ステップS12)。
以上のように、本実施形態では、ラベル算出部20が、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、学習データに付加するラベルを算出し、学習器30が、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する。よって、学習データが少ない場合でも精度のよい判別モデルを学習できる。
実施形態2.
次に、本発明による判別モデル生成装置の第2の実施形態を説明する。第1の実施形態では、ラベル算出部20が、各学習データについて、目的変数の値としきい値との差に応じて正例らしさまたは負例らしさを表すラベルを算出する方法を説明した。本実施形態では、各学習データについて、正例のデータとしたときの重み(正例の重み)と、負例のデータとしたときの重み(負例の重み)をそれぞれラベルとして算出する方法を説明する。
図5は、本発明による判別モデル生成装置の第2の実施形態の構成例を示すブロック図である。本実施形態の判別モデル生成装置200は、記憶部10と、重み算出部21と、学習器31とを備えている。記憶部10が記憶する内容は、第1の実施形態と同様である。
重み算出部21は、目的変数の値に関わらず、学習データから、正例のデータおよび負例のデータを生成する。図6は、学習データから正例のデータおよび負例のデータを生成する処理の例を示す説明図である。図6に示す例では、重み算出部21が、図2に例示する学習データを、それぞれ正例のデータおよび負例のデータとして生成していることを示す。
例えば、図2に例示するid=0のデータは、判定結果から正例のデータである。一方、本実施形態では、正例のデータからも敢えて負例として用いるデータを生成する。具体的には、重み算出部21は、図2に例示するid=0の正例データから、図6に例示するid=0の正例データだけでなく、id=5の負例データを生成する。同様に、重み算出部21は、図2に例示するid=1のデータからid=1の正例データ及びid=6の負例データを生成する。
同様に、本実施形態では、負例のデータからも正例として用いるデータを生成する。具体的には、重み算出部21は、図2に例示するid=2の負例データから、図6に例示するid=7の負例データだけでなく、id=2の正例データを生成する。同様に、重み算出部21は、図2に例示するid=3のデータからid=3の正例データ及びid=8の負例データを生成し、図2に例示するid=4のデータからid=4の正例データ及びid=9の負例データを生成する。
重み算出部21は、生成した正例のデータに対しては、目的変数の値がしきい値に比べて大きくなるほど、正例の重みを高く算出する。また、生成した負例のデータに対しては、目的変数の値がしきい値に比べて小さくなるほど、負例の重みを高く算出する。この正例の重みおよび負例の重みが、第1の実施形態のラベルと言うことができる。
具体的には、重み算出部21は、第1の実施形態におけるラベル算出部20がラベルを算出する方法と同様の方法で、正例の重みを算出してもよい。重み算出部21は、例えば、目的変数の値がしきい値に比べて大きくなるほど、「1」に近くなるような正例の重みを算出する。そして、重み算出部21は、算出した正例の重みを1から減ずることにより、負例の重みを算出してもよい。すなわち、i番目の学習データをxとし、正例のデータの重み(正例の重み)をwとした場合、重み算出部21は、負例のデータの重みを1−wで算出してもよい。
また、重み算出部21は、目的変数と閾値との差に基づいて値を決定する関数を用いて、正例の重みおよび負例の重みを算出してもよい。具体的には、重み算出部21は、上記式1に示すシグモイド関数を用いて、正例の重みを算出してもよく、目的変数の値について単調非減少、かつ値域が[0,1]に収まる関数を用いて正例の重みを算出してもよい。
図7は、学習データに基づいて重みを算出した結果の例を示す説明図である。図7に示す例でも、上記に示す式1に基づいて重みを算出しており、温度パラメータT=10である。例えば、図7に例示するid=5のデータは、本来は正例であるデータから生成された負例のデータである。しかし、本実施形態では、ソフトラベルを用いることで、可能性として存在する負例の重みを算出できる。このように、図7に例示する結果と図3に例示する結果とを比較すると、負例のデータについても重みが算出されるため、学習データを増やすことが可能になる。
例えば、負例であっても目的変数の値が閾値に近いサンプル(例えば、事故の有無を示すデータにおける“ヒヤリハット”のような事例)は、正例のサンプルとしての利用価値もあるサンプルと考えられる。本実施形態では、重み算出部21は、学習データに含まれる目的変数の値としきい値とを比較したときには負例と判別される学習データであっても、その学習データについて正例らしさを表すラベル(すなわち、正例のデータ)を算出する。すなわち、このようなサンプルに正例の重みを設定することで、学習データを増やすことが可能になる。
また、後述する学習器31が、ハードラベルを学習できるように、重み算出部21は、算出した重みwに定数Cを加えてもよい。すなわち、重み算出部21は、w+Cを重みとして算出してもよい。
また、重み算出部21は、機械学習における不均衡問題(imbalanced問題)への対応と同様に、正例と負例の重みの合計のバランスを1:1などに調整してもよい。重み算出部21は、例えば、正例の重みをw/Σw、負例の重みを(1−w)/(Σ1−w)と調整してもよい。
学習器31は、重み算出部21が算出した正例の重みまたは負例の重みを対応付けた学習データを用いて、判別モデルを学習する。第1の実施形態と同様、学習器31は、しきい値を超えるか否かを目的変数とし、図6に例示するような変数を説明変数とするような判別モデルを、重み付けされたサンプルを用いて学習することにより生成する。なお、学習器31が学習を行う方法は任意である。学習器31は、例えば、ロジスティック回帰を用いて判別モデルを学習してもよい。
重み算出部21および学習器31も、プログラム(判別モデル生成プログラム)に従って動作するコンピュータのプロセッサによって実現される。
次に、本実施形態の判別モデル生成装置の動作を説明する。図8は、本実施形態の判別モデル生成装置の動作例を示すフローチャートである。重み算出部21は、学習データから、正例のデータおよび負例のデータを生成する(ステップS21)。重み算出部21は、しきい値と、学習データに含まれる目的変数の値との差に応じて、正例の重みおよび負例の重みを算出する(ステップS22)。具体的には、重み算出部21は、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みを算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みを算出する。学習器31は、算出された正例の重みおよび負例の重みを対応付けた学習データを用いて、判別モデルを学習する(ステップS23)。
以上のように、本実施形態では、重み算出部21が、学習データから、正例のデータおよび負例のデータを生成する。その際、重み算出部21は、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出する。よって、第1の実施形態の効果に加え、正例および負例のデータを使用して学習する既存の手法を利用することが可能になる。
実施形態3.
次に、本発明による判別モデル生成装置の第3の実施形態を説明する。本実施形態では、複数の判別モデルを学習し、より評価の高い判別モデルを選択する方法を説明する。図9は、本発明による判別モデル生成装置の第3の実施形態の構成例を示すブロック図である。本実施形態の判別モデル生成装置300は、記憶部10と、算出部22と、学習器32と、評価部40とを備えている。記憶部10が記憶する内容は、第1の実施形態と同様である。
算出部22は、学習データに付加するラベルを算出する。算出部22が算出するラベルは、第1の実施形態のラベル算出部20が算出するラベルであってもよく、第2の実施形態の重み算出部21が算出する正例の重みおよび負例の重みであってもよい。
また、本実施形態の算出部22は、複数の観点に基づいて、各学習データに対して複数のラベルを算出する。観点の選択方法は任意である。例えば、上記の式1を用いてラベルを算出する場合、算出部22は、温度パラメータTを変更させて複数のラベルを算出してもよい。すなわち、算出部22は、閾値と目的変数との値の差に応じて変化させる度合いを変更させながら複数のラベルを算出してもよい。また、算出部22は、複数種類の関数を用いて複数のラベルを算出してもよい。
学習器32は、算出部22が算出したラベルを用いて、観点ごとに判別モデルを学習する。学習器32が行う学習方法は、算出部22が作成するラベルの内容に応じて定めておけばよい。
評価部40は、学習器32が学習した各判別モデルの評価を行う。評価部40は、例えば、交差検証等、任意の方法を用いて評価を行えばよい。また、評価部40は、評価結果を出力してもよい。
算出部22、学習器32および評価部40も、プログラム(判別モデル生成プログラム)に従って動作するコンピュータのプロセッサによって実現される。
次に、本実施形態の判別モデル生成装置の動作を説明する。図10は、本実施形態の判別モデル生成装置の動作例を示すフローチャートである。算出部22は、複数の観点に基づいて、各学習データに対して複数のラベルを算出する(ステップS31)。学習器32は、算出部22が算出したラベルを用いて、観点ごとに判別モデルを学習する(ステップS32)。評価部40は、学習器32が学習した各判別モデルの評価を行う(ステップS33)。
以上のように、本実施形態では、算出部22が、複数の観点に基づいて、各学習データに対して複数のラベルを算出し、学習器32が、観点ごとに判別モデルを学習する。そして、評価部40が、学習された各判別モデルの評価を行う。よって、第1の実施形態および第2の実施形態の効果に加え、より精度の高い判別モデルを選択することが可能になる。
実施形態4.
次に、本発明の第4の実施形態を説明する。第1の実施形態から第3の実施形態では、算出されたラベルに基づいて判別モデルを生成する判別モデル生成装置について説明した。一方、学習データに対応付けるラベルを算出する機能で一つの装置が実現されていてもよい。
図11は、本発明によるラベル生成装置の一実施形態を示すブロック図である。本実施形態のラベル生成装置400は、記憶部10と、ラベル算出部20とを備えている。すなわち、本実施形態のラベル生成装置400は、第1の実施形態の判別モデル生成装置100から、学習器30を除いた構成に対応する。なお、ラベル算出部20が、第2の実施形態における重み算出部21、または、第3の実施形態における算出部22で実現されていてもよい。
図11に例示するラベル生成装置を用いてラベルを対応付けた学習データを生成することで、少ない学習データから、効率的な学習データを生成することが可能になる。
以下、具体的な実施例及び図面を用いて本発明を説明するが、本発明の範囲は以下に説明する内容に限定されない。
図12は、本実施例の学習データの分布を示す説明図である。図12に例示するサンプルは、正規分布に従う3000のサンプルである。本実施例では、しきい値を20に設定した。図13は、しきい値に基づいてサンプルを正例のデータおよび負例のデータに分類した結果の例を示す。本実施例では、正例のデータ数が255、負例のデータ数が2745であり、正例のデータ数の割合が1割弱である。
また、本実施例では、正例のデータの重みwを、上記に示す式1で算出した。また、学習に用いる損失関数として、以下に例示する式2を用いた。
Figure 2019092931
また、図12に例示するサンプルの一部を学習データとして用い、一部を評価用として用いた。具体的には、生成した判別モデルに対し、評価用のサンプルを用いてAUC(Area Under the Curve)評価を行った。本評価が、上述する評価部40が行う処理に対応する。
まず、一般的な手法を用いて、サンプルを正例(1)および負例(0)に分類してから判別モデルを生成した。一方、本願発明を用いて生成された判別モデルを用いた判別(以下、soft−Label判別と記す。)において、上記に示す式1の温度パラメータTを12種類(T=0.001,0.003,0.01,0.03,0.1,0.3,1,3,10,30,100,300)に変化させてラベルを生成し、判別モデルを生成した。
図14は、評価結果の例を示す説明図である。図14に例示する破線で示すグラフは、一般的な手法を用いた場合のAUCの値(AUC=0.982)を示す。また、図14に例示する実線で示すグラフは、soft−Label判別において温度パラメータTの値を変化させた場合のAUCの値を示す。図14に例示するように、温度パラメータTの値を上げることで、一般的な手法を用いた場合よりも精度が向上することを確認できた。
次に、本発明の概要を説明する。図15は、本発明による判別モデル生成装置の概要を示すブロック図である。本発明による判別モデル生成装置80は、正例または負例を判別するためのしきい値(例えば、しきい値θ)と、学習データに含まれる目的変数の値との差に応じて、その学習データに付加するラベルを算出する算出部81(例えば、ラベル算出部20)と、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習部82(例えば、学習器30)とを備えている。
そのような構成により、学習データが少ない場合でも精度のよい判別モデルを学習できる。
具体的には、算出部81は、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出してもよい。
また、算出部81(例えば、重み算出部21)は、学習データから、正例のデータおよび負例のデータを生成し、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出してもよい。
また、算出部81は、正例の重みの合計および負例の重みの合計に基づいて、その正例の重みおよび負例の重みを調整してもよい。
また、算出部81は、目的変数について単調非減少、かつ、値域が0から1の間の値をとる関数を用いて、ラベルを算出してもよい。
具体的には、算出部81は、目的変数の値がしきい値と等しい場合に正例らしさおよび負例らしさが同等になるシグモイド関数(例えば、上記に示す式1)を用いてラベルを算出してもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出部と、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習部とを備えたことを特徴とする判別モデル生成装置。
(付記2)算出部は、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する付記1記載の判別モデル生成装置。
(付記3)算出部は、学習データから、正例のデータおよび負例のデータを生成し、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出する付記1または付記2記載の判別モデル生成装置。
(付記4)算出部は、正例の重みの合計および負例の重みの合計に基づいて、当該正例の重みおよび負例の重みを調整する付記3記載の判別モデル生成装置。
(付記5)算出部は、目的変数について単調非減少、かつ、値域が0から1の間の値をとる関数を用いて、ラベルを算出する付記1から付記4のうちのいずれか1つに記載の判別モデル生成装置。
(付記6)学習データに含まれる目的変数の値としきい値とを比較したときに負例と判別される当該学習データについて、正例らしさを表すラベルを算出する付記1から付記5のうちのいずれか1つに記載の判別モデル生成装置。
(付記7)算出部は、目的変数の値がしきい値と等しい場合に正例らしさおよび負例らしさが同等になるシグモイド関数を用いてラベルを算出する付記1から付記6のうちのいずれか1つに記載の判別モデル生成装置。
(付記8)学習された判別モデルを評価する評価部を備え、算出部は、複数の観点に基づいて、各学習データに対して複数のラベルを算出し、学習部は、前記観点ごとに判別モデルを学習し、前記評価部は、学習された各判別モデルの評価を行う付記1から付記7のうちのいずれか1つに記載の判別モデル生成装置。
(付記9)正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出し、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習することを特徴とする判別モデル生成方法。
(付記10)各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する付記9記載の判別モデル生成方法。
(付記11)学習データから、正例のデータおよび負例のデータを生成し、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出する付記9または付記10記載の判別モデル生成方法。
(付記12)コンピュータに、正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出処理、および、算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習処理とを実行させるための判別モデル生成プログラム。
(付記13)コンピュータに、前記算出処理で、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出させ、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出させる付記12記載の判別モデル生成プログラム。
(付記14)正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出部を備えたことを特徴とするラベル生成装置。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年11月7日に出願された日本特許出願2017−214687を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 記憶部
20 ラベル算出部
21 重み算出部
22 算出部
30,31,32 学習器
40 評価部
100,200,300 判別モデル生成装置
400 ラベル生成装置

Claims (14)

  1. 正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出部と、
    算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習部とを備えた
    ことを特徴とする判別モデル生成装置。
  2. 算出部は、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する
    請求項1記載の判別モデル生成装置。
  3. 算出部は、学習データから、正例のデータおよび負例のデータを生成し、目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出する
    請求項1または請求項2記載の判別モデル生成装置。
  4. 算出部は、正例の重みの合計および負例の重みの合計に基づいて、当該正例の重みおよび負例の重みを調整する
    請求項3記載の判別モデル生成装置。
  5. 算出部は、目的変数について単調非減少、かつ、値域が0から1の間の値をとる関数を用いて、ラベルを算出する
    請求項1から請求項4のうちのいずれか1項に記載の判別モデル生成装置。
  6. 学習データに含まれる目的変数の値としきい値とを比較したときに負例と判別される当該学習データについて、正例らしさを表すラベルを算出する
    請求項1から請求項5のうちのいずれか1項に記載の判別モデル生成装置。
  7. 算出部は、目的変数の値がしきい値と等しい場合に正例らしさおよび負例らしさが同等になるシグモイド関数を用いてラベルを算出する
    請求項1から請求項6のうちのいずれか1項に記載の判別モデル生成装置。
  8. 学習された判別モデルを評価する評価部を備え、
    算出部は、複数の観点に基づいて、各学習データに対して複数のラベルを算出し、
    学習部は、前記観点ごとに判別モデルを学習し、
    前記評価部は、学習された各判別モデルの評価を行う
    請求項1から請求項7のうちのいずれか1項に記載の判別モデル生成装置。
  9. 正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出し、
    算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する
    ことを特徴とする判別モデル生成方法。
  10. 各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出し、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出する
    請求項9記載の判別モデル生成方法。
  11. 学習データから、正例のデータおよび負例のデータを生成し、
    目的変数の値がしきい値に比べて大きくなるほど大きくなるように正例の重みをラベルとして算出し、目的変数の値がしきい値に比べて小さくなるほど大きくなるように負例の重みをラベルとして算出する
    請求項9または請求項10記載の判別モデル生成方法。
  12. コンピュータに、
    正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出処理、および、
    算出されたラベルを対応付けた学習データを用いて、判別モデルを学習する学習処理とを実行させる
    ための判別モデル生成プログラム。
  13. コンピュータに、
    算出処理で、各学習データについて、目的変数の値がしきい値に比べて大きくなるほど、より正例らしさを表すラベルを算出させ、目的変数の値がしきい値に比べて小さくなるほど、より負例らしさを表すラベルを算出させる
    請求項12記載の判別モデル生成プログラム。
  14. 正例または負例を判別するためのしきい値と、学習データに含まれる目的変数の値との差に応じて、当該学習データに付加するラベルを算出する算出部を備えた
    ことを特徴とするラベル生成装置。
JP2019551882A 2017-11-07 2018-07-24 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム Active JP7070584B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017214687 2017-11-07
JP2017214687 2017-11-07
PCT/JP2018/027610 WO2019092931A1 (ja) 2017-11-07 2018-07-24 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2019092931A1 true JPWO2019092931A1 (ja) 2020-11-12
JP7070584B2 JP7070584B2 (ja) 2022-05-18

Family

ID=66438347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551882A Active JP7070584B2 (ja) 2017-11-07 2018-07-24 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム

Country Status (3)

Country Link
US (1) US20200272906A1 (ja)
JP (1) JP7070584B2 (ja)
WO (1) WO2019092931A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6595151B2 (ja) * 2017-06-29 2019-10-23 株式会社Preferred Networks 訓練方法、訓練装置、プログラム及び非一時的コンピュータ可読媒体
WO2020170304A1 (ja) * 2019-02-18 2020-08-27 日本電気株式会社 学習装置及び方法、予測装置及び方法、並びにコンピュータ可読媒体
JP2021068136A (ja) * 2019-10-23 2021-04-30 株式会社日立製作所 計算機システム、学習方法、及びプログラム
JP7472496B2 (ja) * 2020-01-15 2024-04-23 日本電気株式会社 モデル生成装置、モデル生成方法、及び、記録媒体
CN112509600A (zh) * 2020-12-11 2021-03-16 平安科技(深圳)有限公司 模型的训练方法、装置、语音转换方法、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203991A (ja) * 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040146936A1 (en) * 2002-06-21 2004-07-29 Bader Joel S System and method for identifying cellular pathways and interactions
GB2471036B (en) * 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
CN103310221B (zh) * 2012-03-16 2016-04-13 富士通株式会社 图像处理装置、图像处理方法以及设备
CA2952576C (en) * 2014-06-20 2022-07-26 Miovision Technologies Incorporated Machine learning platform for performing large scale data analytics
US20160071022A1 (en) * 2014-09-04 2016-03-10 International Business Machines Corporation Machine Learning Model for Level-Based Categorization of Natural Language Parameters

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203991A (ja) * 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP7070584B2 (ja) 2022-05-18
US20200272906A1 (en) 2020-08-27
WO2019092931A1 (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
JP7070584B2 (ja) 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
WO2018121690A1 (zh) 对象属性检测、神经网络训练、区域检测方法和装置
CN112990432A (zh) 目标识别模型训练方法、装置及电子设备
JP5454827B1 (ja) 文書評価装置、文書評価方法、及びプログラム
US11593299B2 (en) Data analysis device, data analysis method and data analysis program
JP2018045516A (ja) 分類装置、分類方法およびプログラム
US20220253725A1 (en) Machine learning model for entity resolution
CN105095494A (zh) 一种对分类数据集进行测试的方法
CN110969200A (zh) 基于一致性负样本的图像目标检测模型训练方法及装置
JP2019197355A (ja) クラスタリング装置、クラスタリング方法およびプログラム
JP6962123B2 (ja) ラベル推定装置及びラベル推定プログラム
Kamath et al. Performance analysis of the pretrained efficientdet for real-time object detection on raspberry pi
CN109615080B (zh) 无监督模型评估方法、装置、服务器及可读存储介质
JP6988995B2 (ja) 画像生成装置、画像生成方法および画像生成プログラム
CN113379059B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
WO2021200392A1 (ja) データ調整システム、データ調整装置、データ調整方法、端末装置及び情報処理装置
JP7363910B2 (ja) 表示方法、表示プログラム及び情報処理装置
WO2021061951A1 (en) Distance-based learning confidence model
JP2017151679A (ja) 識別装置及び識別プログラム
CN112749978B (zh) 检测方法、装置、设备、存储介质以及程序产品
JP7363912B2 (ja) 表示方法、表示プログラム及び情報処理装置
JP7363911B2 (ja) 表示方法、表示プログラム及び情報処理装置
Farhad et al. Keep Your Distance: Determining Sampling and Distance Thresholds in Machine Learning Monitoring
WO2021079446A1 (ja) 表示方法、表示プログラム及び情報処理装置
CN112926663A (zh) 分类模型的训练方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R151 Written notification of patent or utility model registration

Ref document number: 7070584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151