JP2021149818A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2021149818A
JP2021149818A JP2020051326A JP2020051326A JP2021149818A JP 2021149818 A JP2021149818 A JP 2021149818A JP 2020051326 A JP2020051326 A JP 2020051326A JP 2020051326 A JP2020051326 A JP 2020051326A JP 2021149818 A JP2021149818 A JP 2021149818A
Authority
JP
Japan
Prior art keywords
data
uncertainty
unit
uncertainties
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020051326A
Other languages
English (en)
Other versions
JP7395396B2 (ja
Inventor
鳴鏑 蘇
Mingdi Su
鳴鏑 蘇
遼平 田中
Ryohei Tanaka
遼平 田中
信太郎 高橋
Shintaro Takahashi
信太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2020051326A priority Critical patent/JP7395396B2/ja
Publication of JP2021149818A publication Critical patent/JP2021149818A/ja
Application granted granted Critical
Publication of JP7395396B2 publication Critical patent/JP7395396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】不確実度を高精度に算出する。【解決手段】実施形態の情報処理装置は、分割部と、算出部と、統合部と、を備える。分割部は、データを入力して処理結果を出力する処理の対象とする入力データを、複数の部分データに分割する。算出部は、複数の部分データごとに処理を実行し、処理の不確実性を示す複数の不確実度を算出する。統合部は、複数の不確実度を統合し、入力データの不確実度として出力する。【選択図】図2

Description

本発明の実施形態は、情報処理装置、情報処理方法およびプログラムに関する。
不確実性(uncertainty)は、統計学、経済学、および、自然科学等の分野で生まれてきた概念である。不確実性を表現する方法(不確実度、不確実性尺度)として様々な方法が提案されている。機械学習分野でも、不確実度は、能動学習のための訓練データの選別、および、高精度なモデルを学習するための訓練データの選別などの様々な活用法がある。
特開2019−061642号公報
しかしながら、従来技術では、不確実度を高精度に算出できない場合があった。
実施形態の情報処理装置は、分割部と、算出部と、統合部と、を備える。分割部は、データを入力して処理結果を出力する処理の対象とする入力データを、複数の部分データに分割する。算出部は、複数の部分データごとに処理を実行し、処理の不確実性を示す複数の不確実度を算出する。統合部は、複数の不確実度を統合し、入力データの不確実度として出力する。
図1は、2クラス分類問題のデータ分布の例を示す図である。 図2は、第1の実施形態にかかる情報処理装置の構成の一例を示すブロック図である。 図3は、パーツの分割方法の一例を示す図である。 図4は、第1の実施形態における学習処理の一例を示すフローチャートである。 図5は、第1の実施形態におけるデータ選別処理の一例を示すフローチャートである。 図6は、画像データおよび当該画像データに対する認識結果の例を示す図である。 図7は、画像データおよび当該画像データに対する認識結果の例を示す図である。 図8は、第2の実施形態にかかる情報処理装置の構成の一例を示すブロック図である。 図9は、第2の実施形態における学習処理の一例を示すフローチャートである。 図10は、訓練データと選別対象データとの関係を説明するための図である。 図11は、第1または第2の実施形態にかかる情報処理装置のハードウェア構成例を示す説明図である。
以下に添付図面を参照して、この発明にかかる情報処理装置の好適な実施形態を詳細に説明する。以下では、不確実度を算出し、算出した不確実度に基づいて訓練データを選別し、選別した訓練データで機械学習モデル(以下、モデルという)を学習する情報処理装置(学習装置)を例に説明する。モデルは、例えばニューラルネットワークモデル、ランダムフォレスト、サポートベクターマシン(SVM)、条件付き確率場(Conditional Random Fields:CRF)、および、ロジスティック回帰などである。
不確実度を用いる処理は学習処理に限られるものではなく、どのような処理であってもよい。例えば、データに対する処理の不確実度を算出して出力(表示など)する装置に適用してもよい。
能動学習は、専門家に質問しながら分類器(モデルの一例)を学習させる機械学習のフレームワークの1つである。一般的な教師あり学習では、数千以上の大量のラベル付きデータ(訓練データ)によって学習を行う必要がある。しかし、多くの教師あり学習タスクでは、ラベル付きデータの入手は非常に困難であったり、時間的コストおよび費用的コストが必要であったりする場合が多い。能動学習は、できるだけ学習に効果的な訓練データを優先的に選別して教示するユーザに提示することで、教示コストを削減するための学習方法である。
理論的には、不確実性とは、モデルによるデータに対する処理結果(予測結果)の曖昧さを表す指標である。以下では不確実性を示す度合いを不確実度という。不確実性の高い(予測結果が最も曖昧である)データを訓練データとして学習するほうが、モデルの予測精度を向上させること、および、所望の予測性能を達成するまでの学習期間を短縮することができる。
図1は、2クラス分類問題のデータ分布の例を示す図である。白い三角および黒い三角は、それぞれ2クラスのうちいずれかのクラスに分類されるデータを表す。実線は、データに対するモデルによる分類の境界線を表す。境界線に近いデータほど、不確実性が高いデータであると考えられる。
不確実性の高いデータを訓練データとすることで予測精度が向上する原因として以下が挙げられる。
(F1)各クラスのデータ分布の中心部11、12のデータの学習頻度を減らし、中心部11、12のデータへの過学習を防ぐ。
(F2)境界線から遠く離れて、ラベルが間違っているデータ21、22、23を排除できる。
(F3)不確実性の高いデータは情報エントロピー(情報量)が大きく、境界線との距離が近い領域31に含まれると考えられる。このようなデータを集中的に学習すれば、より高精度に境界線32を構築できる。
不確実性が高いデータを選別する方法としては、以下のような方法が存在する。なお、確率とは、処理の精度(予測精度など)を示す値である。例えば認識処理の場合、認識率が確率に相当する。
(M1)LeastConfidence:「確率最大のラベル」の確率が最小のデータを選ぶ。
(M2)MarginSampling:「1番目に確率の高いラベル」と「2番目に確率の高いラベル」との間の確率の差が最も小さいデータを選ぶ。
(M3)EntropyBased:予測分布のエントロピーが最大のデータを選ぶ。
(M4)Query-By-Committee:相互に異なる初期値から学習された複数の異なるモデル(committee)によりデータに対する予測処理を行い、複数のモデル間の予測結果のばらつき、または、誤差(Loss値)が最も大きいデータを選ぶ。
上記の各方法では、それぞれ以下の指標が、不確実度に相当する。なお指標に応じて、値が大きいほど不確実性(処理結果の曖昧さ)が高くなる場合と、値が小さいほど不確実性が高くなる場合がある。
(I1)「確率最大のラベル」の確率の低さ
(I2)「1番目に確率の高いラベル」と「2番目に確率の高いラベル」確率の差
(I3)予測分布のエントロピーの大きさ
(I4)複数のモデル間の予測のばらつき、または、誤差の大きさ
データを予め定められたルールに従って複数の部分データ(以下、パーツという場合がある)に分割し、予測処理等を行う方法も存在する。例えば、コネクションニスト時系列分類法(connectionist temporal classification)では、系列データを畳み込んで、特徴マップを1画素ずつのパーツに分割し、各パーツの予測情報を統合し、最終の予測を出力する。しかし、このような方法では、局所の不確実性に左右され、全般的な不確実性の高いデータを選別することができない。
(第1の実施形態)
そこで、第1の実施形態にかかる情報処理装置は、局所の不確実性に左右されることなく、全般的な不確実性がより考慮されるように、データの不確実度を算出する。なお、不確実度を算出する対象となる処理はどのような処理であってもよいが、例えば、予測、分類、または、物体認識などである。
図2は、第1の実施形態にかかる情報処理装置100の構成の一例を示すブロック図である。図2に示すように、情報処理装置100は、前処理部101と、学習部102と、出力制御部103と、選別部110と、記憶部121と、を備えている。
前処理部101は、データ選別処理および学習処理の前処理を実行する。訓練済みのモデルが既に存在する場合、前処理は、目的に応じた訓練済みのモデルをベースモデルとして準備する処理である。前処理部101は、訓練済みのモデルをそのままベースモデルとして準備してもよいし、プルーニングなどの学習を必要としない前処理を訓練済みのモデルに対して実行してベースモデルを生成してもよい。
訓練済みモデルが存在しない場合、前処理は、入力されたデータから予め定められたルールに従って訓練データと選別対象データとに分ける処理、および、訓練データを用いてモデルを学習してベースモデルを生成する処理を含む。訓練データは、事前にモデルを学習するために用いられるデータである。選別対象データは、選別部110によるデータ選別処理の対象となるデータである。ルールの例を以下に記載する。
(R1)データをランダムに分ける。
(R2)データに付与されたラベル(教示情報)を参照し、同じラベルが付与されたデータが偏らないように分ける。
(R3)データを複数のクラスタに分類した分類情報(クラスタリング結果情報)を参照し、同じクラスタに分類されたデータが偏らないように分ける。
前処理部101は、訓練データを用いてモデルを学習し、ベースモデルを生成する。なお、訓練済みのモデルが予め準備され、そのモデルをそのまま利用できる場合は、情報処理装置100は、前処理部101を備えなくてもよい。
学習部102は、データを入力して処理結果を出力する処理を実行するモデルを、訓練データを用いて学習する。例えば学習部102は、前処理により訓練データとして分けられたデータと、選別対象データのうち選別部110により選別されたデータと、を訓練データとして用いてモデルを学習する。選別部110によるデータ選別処理は後述する。
出力制御部103は、情報処理装置100による各種情報の出力を制御する。例えば出力制御部103は、学習部102により学習されたモデルの情報を、モデルを用いる外部の装置等に出力する。出力制御部103は、算出された不確実度をディスプレイなどの表示装置に表示してもよい。
選別部110は、選別対象データに対するデータ選別処理を実行する。選別部110は、分割部111と、算出部112と、統合部113と、を備えている。
分割部111は、選別対象データ(入力データ)を、複数の部分データ(パーツ)に分割する。分割部111は、入力された選別対象データをそのまま分割してもよいし、選別対象データに対して処理を加えたデータを分割してもよい。選別対象データに加える処理は、例えば選別対象データの特徴量を求める処理である。
選別対象データに処理を加えるか否かは、例えば、学習するモデルに対する入力データの形式に応じて決定すればよい。例えば画像データを入力するモデルを用いる場合は、分割部111は、画像データである選別対象データをそのまま分割してもよい。例えば画像データの特徴量を入力して認識処理を行うモデルを用いる場合は、分割部111は、画像データの特徴量を求める処理を実行し、得られた特徴量を分割してもよい。
画像データは例えば2次元のデータである。画像データの特徴量は、例えば2次元の画像データを畳み込むことで算出される特徴マップである。特徴マップは、例えば画像データを入力して特徴マップを出力するニューラルネットワークにより算出することができる。特徴マップは、例えば、2次元の画素位置それぞれに特徴量を示す画素値が設定されたデータである。画像データまたは特徴マップに対しては、分割部111は、例えば、上下または左右の一定数の画素ごとにデータを分割して複数のパーツを生成する。
例えば文字列データおよび音声データなどの1次元の系列データを入力するモデルを用いる場合、分割部111は、系列データを一定の間隔、または、不特定の間隔で分割して複数のパーツを生成する。不特定の間隔とは、例えばランダムに決定される間隔である。
図3は、パーツの分割方法の一例を示す図である。画像301、302は、分割前のデータの例である。画像301、302は、それぞれ特徴マップ311に変換される。分割部111は、特徴マップ311を、左右方向、または、上下方向に分割してパーツを生成する。
算出部112は、複数のパーツごとの不確実度を算出する。例えば算出部112は、複数のパーツをそれぞれモデルに入力し、処理結果から、上記の(I1)〜(I4)などに示す不確実度を算出する。
統合部113は、複数のパーツそれぞれに対して算出された複数の不確実度を統合し、分割前の選別対象データに対する不確実度を求めて出力する。まず統合部113は、検証用データ(バリデーションデータ)に対するモデルの状態を示す状態情報に基づいて、複数の統合方法のうちいずれかの統合方法を決定する。
複数の統合方法は、例えば以下の方法を含む。
(MM1)複数の不確実度すべての平均値または中央値を算出する。
(MM2)複数の不確実度のうち一部の不確実度の平均値または中央値を算出する。
(MM3)複数の不確実度の重み付け加算値を算出する。
(MM2)は、例えば複数の不確実度のうち値が予め定められた範囲に含まれる不確実度の平均値または中央値を算出する方法である。予め定められた範囲は、例えば、値が乖離しているような不確実度を除外するような範囲である。
検証用データとは、例えば、学習対象とするモデルを用いて事前に処理を行ったときのデータ、および、このモデルに対して事前に学習を行ったときのデータなどである。状態情報は、例えば検証用データに対するモデルの予測精度、および、検証用データに対してモデルを学習したときの誤差である。
例えば統合部113は、検証用データに対するモデルの各カテゴリの認識率(予測精度)が大きく異なっている場合は、上記(MM3)を統合方法として決定する。そして統合部113は、例えば、認識率が高いパーツほど小さい重みをかけ、認識率が低いパーツほど大きな重みをかけて、不確実度を統合する。
また統合部113は、例えばモデルの学習時に検証用データに対する認識率または誤差が大きく変動している場合は、(MM2)を統合方法として決定する。そして統合部113は、予め定められた範囲外である不確実度を除外することにより、不確実度が乖離しているパーツを除去してから、各パーツの中央値または平均値を算出して、不確実度を統合する。
また統合部113は、モデルの状態情報が取得できない場合は、(MM1)を統合方法として決定する。
上記各部(前処理部101、学習部102、出力制御部103、および、選別部110)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
記憶部121は、情報処理装置100による各種処理で用いられる各種情報を記憶する。例えば記憶部121は、訓練データ、選別対象データ、および、モデルを示すデータなどを記憶する。記憶部121は、フラッシュメモリ、メモリカード、RAM(Random Access Memory)、HDD(Hard Disk Drive)、および、光ディスクなどの一般的に利用されているあらゆる記憶媒体により構成することができる。
次に、このように構成された第1の実施形態にかかる情報処理装置100による学習処理について説明する。図4は、第1の実施形態における学習処理の一例を示すフローチャートである。
前処理部101は、入力されたデータを訓練データと選別対象データとに分ける(ステップS101)。前処理部101は、訓練データを用いてモデルを学習しベースモデルを生成する(ステップS102)。なお、訓練済みのモデルが予め準備されている場合は、ステップS101、S102は省略することができる。
選別部110は、選別対象データを対象としてデータ選別処理を実行する(ステップS103)。データ選別処理の詳細は後述する。
学習部102は、データ選別処理により、不確実性が高いデータが得られたか否かを判定する(ステップS104)。不確実性が高いデータが得られた場合(ステップS104:Yes)、学習部102は、選別されたデータを訓練データに追加してモデルを学習する(ステップS105)。
学習部102による学習方法はどのような方法であってもよい。例えば学習部102は、訓練データが教師なしデータの場合、能動学習によりモデルを学習する。学習部102は、訓練データが教師ありデータの場合、教師あり学習によりモデルを学習する。
モデルを学習した後、ステップS103に戻り処理が繰り返される。不確実性が高いデータが得られなかった場合(ステップS104:No)、学習部102は、それまでに学習された学習済みのモデルを出力し(ステップS106)、学習処理を終了する。
次に、ステップS103のデータ選別処理の詳細について説明する。図5は、第1の実施形態におけるデータ選別処理の一例を示すフローチャートである。
分割部111は、入力された選別対象データそれぞれを複数のパーツに分割する(ステップS201)。算出部112は、分割された複数のパーツごとに、不確実度を算出する(ステップS202)。統合部113は、モデルの状態情報を参照して不確実度の統合方法を決定する(ステップS203)。統合部113は、決定した統合方法により、複数の不確実度を統合し、分割前の選別対象データに対する不確実度を算出する(ステップS204)。統合部113は、算出した不確実度が示す不確実性が高い(例えば不確実性が閾値以上である)選別対象データを出力する(ステップS205)。
例えば上記(I2)(「1番目に確率の高いラベル」と「2番目に確率の高いラベル」確率の差)のように、値が小さいほど不確実性が高い不確実度を用いる場合、統合部113は、不確実度が閾値以下である選別対象データを出力する。上記(I3)(予測分布のエントロピーの大きさ)のように、値が大きいほど不確実性が高い不確実度を用いる場合、統合部113は、不確実度が閾値以上である選別対象データを出力する。
閾値および終了条件は、予め定められた値または条件を用いてもよいし、ユーザにより設定可能としてもよい。また、閾値および終了条件は、処理中に状況に応じて動的に変更されてもよい。例えば、ある閾値を用いて選別対象データが得られなかった場合は、統合部113は、選別対象データが得られやすいように閾値を変更してもよい。
以下に、本実施形態と比較例との相違について説明する。説明を簡単にするため、「a」および「b」の2種類のカテゴリのみである文字列を含む画像データをモデルにより認識し、認識したカテゴリを出力する例とする。パーツの分割方法は、画像データをニューラルネットに入力して得らえる特徴マップを分割する方法とする。本実施形態で不確実性が高いデータを選別する方法は、(M2)(MarginSampling)とする。また、一般に不確実度はノイズおよび文字の綺麗さなどと関連するが、ここではノイズのみで不確実度を表す。
図6および図7は、画像データおよび当該画像データに対する認識結果の例を示す図である。図6および図7内の楔形状は、画像上にノイズが含まれることを意味する。図6および図7の例では、「aab」の文字列を含む画像データ602および702が、それぞれ3つのパーツP1、P2、P3に分割される。画像データ602は、パーツP3のみにノイズが含まれている。すなわち、画像データ602は、局所的に不確実性が高いデータとなる。画像データ702は、すべてのパーツにノイズが含まれている。すなわち、画像データ702は、全般的な不確実性の高いデータとなる。
画像データ602および702の上には、それぞれ対応する認識結果601および701の例が示されている。認識結果601および701内の数値は、各パーツに対応する文字列がカテゴリ「a」または「b」に属する確率を示している。
画像データ602は、パーツP1、P2に相当する「aa」に対してはノイズがなく高い確率で認識されるが、パーツP3に相当する「b」に対しては大きなノイズのため認識が困難となるようなデータである。画像データ702は、すべてのパーツP1、P2、P3に相当する「aab」に小さなノイズがあり平均的に認識が困難となるようなデータである。
比較例では、各パーツのカテゴリの確率の積で、各ラベル列の確率を算出し、各ラベル列の確率の差を不確実度とする。ラベル列とは、各パーツの認識結果となりうる文字(ラベル)を並べた情報である。図6および図7の例では、「aaa」、「aab」、「aba」、「abb」、「baa」、「bab」、「bba」、「bbb」の8種類のラベル列が得られる。
また比較例では、「1番目に確率の高いラベル列」と「2番目に確率の高いラベル列」との間の確率の差(=不確実度)が最も小さい画像データが選別されるものとする。比較例では、画像データ602に対する不確実度は例えば以下のように算出される。
ラベル列「aab」:1×1×0.5=0.5
ラベル列「aaa」:1×1×0.5=0.5
不確実度=0.5−0.5=0
また、比較例では、画像データ702に対する不確実度は例えば以下のように算出される。
ラベル列「aab」:0.75×0.75×0.75≒0.42
ラベル列「aaa」:0.75×0.75×0.25≒0.14
不確実度=0.42−0.14=0.28
従って、比較例では、不確実性が高い(不確実度の値が小さい)データとして、全般的な不確実性の高い画像データ702(不確実度=0.28)ではなく、局所的に不確実性が高い画像データ602(不確実度=0)が選別される。
これに対して本実施形態では、画像データ602に対する不確実度は例えば以下のように算出される。
パーツP1の不確実度:1−0=1
パーツP2の不確実度:1−0=1
パーツP3の不確実度:0.5−0.5=0
画像データ602の不確実度:(1+1+0)/3≒0.67
また、本実施形態では、画像データ702に対する不確実度は例えば以下のように算出される。
パーツP1の不確実度:0.75−0.25=0.5
パーツP2の不確実度:0.75−0.25=0.5
パーツP3の不確実度:0.75−0.25=0.5
画像データ702の不確実度:(0.5+0.5+0.5)/3=0.5
従って、本実施形態では、不確実性が高い(不確実度の値が小さい)データとして、全般的な不確実性の高い画像データ702が選別される。
以上のように、比較例では、複数のパーツのうち1つでもパーツごとの1位候補の確率と2位候補の確率の差が小さい場合、ラベル列間の確率の差分(Margin)も必然的に小さくなる。すなわち、局所的な不確実度の影響が大きくなる。
一方、本実施形態では、パーツごとに不確実度を算出し、各パーツの不確実度を統合する(ここでは平均値をとる)ことで、データの不確実度を算出する。このため、全般的な不確実度を考慮したより高精度な不確実度を算出することができる。この結果、全般的に不確実性が高いデータを選別することが可能となる。
また本実施形態では、以下のように計算量を削減することも可能となる。比較例では、データの不確実度を算出するときに、各パーツのカテゴリの積で各ラベル列(カテゴリの全ての組み合わせ)の確率を算出する。このため、比較例の計算量のオーダーは、Ο((カテゴリのクラス数)^(系列長))となる。すなわち、パーツの数が増えると、計算量が指数関数的に増加する。
一方、本実施形態では、パーツごとにクラス間の比較を行えばよい。このため、計算量のオーダーは、Ο((カテゴリのクラス数)×(系列長))となる。本実施形態では、パーツの数が増えると、計算量が線形関数的に増加する。従って、本実施形態では、比較例より少ない計算量でデータを選別することができる。
例えば図3の場合、比較例では不確実度を計算するために「aaa」、「aab」、「aba」、「abb」、「baa」、「bab」、「bba」、「bbb」の8種類の文字列の確率を計算し、比較する必要があるが、本実施形態では3つのパーツに対してそれぞれ「a」と「b」の確率を計3回比較するだけでよい。
以上のように、第1の実施形態にかかる情報処理装置では、不確実度をより高精度に算出することができる。
(第2の実施形態)
第2の実施形態の情報処理装置は、モデルの学習をより効率的に実行する機能をさらに備える。
図8は、第2の実施形態にかかる情報処理装置100−2の構成の一例を示すブロック図である。図8に示すように、情報処理装置100−2は、前処理部101−2と、学習部102−2と、出力制御部103と、選別部110と、記憶部121と、を備えている。
第2の実施形態では、前処理部101−2および学習部102−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる情報処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
前処理部101−2は、認識するカテゴリを設定する機能をさらに備える点が、第1の実施形態の前処理部101と異なっている。例えば文字認識の場合、前処理部101−2は、カテゴリを文字または部首に設定する。例えば音声認識の場合、前処理部101−2は、カテゴリを基本音素に設定する。例えば物体認識の場合、前処理部101−2は、カテゴリを認識する各物体に設定する。前処理部101−2は、例えばユーザから指定されたカテゴリを、認識するカテゴリとして設定する。
学習部102−2は、不確実性が低いデータを訓練データから除外するための機能(忘却機能)、および、学習の収束を判定する機能をさらに備える点が、第1の実施形態の学習部102と異なっている。
次に、このように構成された第2の実施形態にかかる情報処理装置100−2による学習処理について図9を用いて説明する。図9は、第2の実施形態における学習処理の一例を示すフローチャートである。
前処理部101は、認識処理で用いられるカテゴリを設定する(ステップS301)。
ステップS302、S303は、第1の実施形態にかかる情報処理装置100におけるステップS101、S102と同様の処理なので、その説明を省略する。
本実施形態では、学習部102−2が、訓練データを用いた学習が終了(収束)したか否かを判定する(ステップS304)。例えば学習部102−2は、学習時に算出される誤差およびエラー率などを用いて学習が収束したか判定する。学習部102−2は、例えば誤差またはエラー率が閾値以下となった場合に学習が収束したと判定する。
学習が終了していない場合(ステップS304:No)、学習部102−2は、ステップS303に戻り処理を繰り返す。学習が終了した場合(ステップS304:Yes)、学習部102−2は、訓練データの一部を選別対象データに移動する(ステップS305)。例えば学習部102−2は、訓練データからランダムに一部のデータを選択し、選択したデータを選別対象データに移動する。
図10は、訓練データと選別対象データとの関係を説明するための図である。データ1001は、ステップS302の処理の対象となるデータ(入力されたデータ)に相当する。ステップS302で分けられた訓練データを図10ではベースモデル訓練データ1002と記載している。またステップS302で分けられた選別対象データが図10の選別対象データ1003に相当する。
選別対象データ1003のうち選別処理により選別されたデータ(選別:Yes)は、訓練データ1004に追加される。訓練データ1004は、ベースモデル訓練データ1002とともにステップS308のモデルの学習で用いられる。選別対象データ1003のうち選別処理により選別されなかったデータ(選別:No)は、選別対象データ1003に残される。
本実施形態では、ステップS308のモデルの学習を繰り返すごとに、ステップS305で、ベースモデル訓練データ1002の一部を選別対象データに移動する。仮に不確実性が低いデータがベースモデル訓練データ1002に含まれていた場合は、ステップS305の処理でこのデータが選別対象データ1003に移動されれば、選別処理により選別されず、訓練データ1004から除外することが可能となる。従って、より効率的にモデルを学習することができる。
図9の説明に戻る。ステップS306〜S309は、第1の実施形態にかかる情報処理装置100におけるステップS103〜S106と同様の処理なので、その説明を省略する。
ステップS308の後、学習部102−2は、選別したデータを用いた学習が終了(収束)したか否かを判定する(ステップS310)。この処理は、ステップS304と同様に、学習時に算出される誤差およびエラー率などを用いた判定処理である。
学習が終了していない場合(ステップS310:No)、学習部102−2は、ステップS308に戻り処理を繰り返す。学習が終了した場合(ステップS310:Yes)、学習部102−2は、ステップS305に戻り処理を繰り返す。
このように、第2の実施形態にかかる情報処理装置では、不確実性が低いデータを訓練データから除外する機能、および、学習の収束を判定する機能をさらに備えるため、モデルの学習をより効率的に実行することができる。
以上説明したとおり、第1から第2の実施形態によれば、不確実度を高精度に算出することができる。
次に、第1または第2の実施形態にかかる情報処理装置のハードウェア構成について図11を用いて説明する。図11は、第1または第2の実施形態にかかる情報処理装置のハードウェア構成例を示す説明図である。
第1または第2の実施形態にかかる情報処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施形態にかかる情報処理装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施形態にかかる情報処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる情報処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる情報処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる情報処理装置で実行されるプログラムは、コンピュータを上述した情報処理装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100−2 情報処理装置
101、101−2 前処理部
102、102−2 学習部
103 出力制御部
110 選別部
111 分割部
112 算出部
113 統合部
121 記憶部

Claims (7)

  1. データを入力して処理結果を出力する処理の対象とする入力データを、複数の部分データに分割する分割部と、
    複数の前記部分データごとに前記処理を実行し、前記処理の不確実性を示す複数の不確実度を算出する算出部と、
    複数の前記不確実度を統合し、前記入力データの不確実度として出力する統合部と、
    を備える情報処理装置。
  2. 前記統合部は、検証用データに対する前記処理の状態を示す状態情報に基づいて、複数の統合方法のうちいずれかの統合方法を決定し、決定した統合方法により、複数の前記不確実度を統合する、
    請求項1に記載の情報処理装置。
  3. 複数の前記統合方法は、複数の前記不確実度の平均値または中央値を算出する方法、複数の前記不確実度のうち一部の前記不確実度の平均値または中央値を算出する方法、および、複数の前記不確実度の重み付け加算値を算出する方法、を含む、
    請求項2に記載の情報処理装置。
  4. 複数の前記不確実度のうち一部の前記不確実度は、複数の前記不確実度のうち値が予め定められた範囲に含まれる前記不確実度である、
    請求項3に記載の情報処理装置。
  5. 前記統合部により出力された不確実度が示す不確実性が閾値以上である複数の入力データを訓練データとして用いて、前記処理を実行するための機械学習モデルを学習する学習部をさらに備える、
    請求項1に記載の情報処理装置。
  6. データを入力して処理結果を出力する処理の対象とする入力データを、複数の部分データに分割する分割ステップと、
    複数の前記部分データごとに前記処理を実行し、前記処理の不確実性を示す複数の不確実度を算出する算出ステップと、
    複数の前記不確実度を統合し、前記入力データの不確実度として出力する統合ステップと、
    を含む情報処理方法。
  7. コンピュータに、
    データを入力して処理結果を出力する処理の対象とする入力データを、複数の部分データに分割する分割ステップと、
    複数の前記部分データごとに前記処理を実行し、前記処理の不確実性を示す複数の不確実度を算出する算出ステップと、
    複数の前記不確実度を統合し、前記入力データの不確実度として出力する統合ステップと、
    を実行させるためのプログラム。
JP2020051326A 2020-03-23 2020-03-23 情報処理装置、情報処理方法およびプログラム Active JP7395396B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020051326A JP7395396B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051326A JP7395396B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021149818A true JP2021149818A (ja) 2021-09-27
JP7395396B2 JP7395396B2 (ja) 2023-12-11

Family

ID=77849176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051326A Active JP7395396B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7395396B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007283108A (ja) * 2006-04-17 2007-11-01 Siemens Medical Solutions Usa Inc 画像の位置合わせを容易にするシステム及び方法
JP2017531519A (ja) * 2014-10-22 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像化不確実性の可視化
JP2019028887A (ja) * 2017-08-02 2019-02-21 国立研究開発法人産業技術総合研究所 画像処理方法
WO2019043988A1 (en) * 2017-08-31 2019-03-07 Mitsubishi Electric Corporation ACTIVE LEARNING SYSTEM AND METHOD
JP2020016928A (ja) * 2018-07-23 2020-01-30 株式会社東芝 画像処理装置、画像処理システム、画像処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007283108A (ja) * 2006-04-17 2007-11-01 Siemens Medical Solutions Usa Inc 画像の位置合わせを容易にするシステム及び方法
JP2017531519A (ja) * 2014-10-22 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像化不確実性の可視化
JP2019028887A (ja) * 2017-08-02 2019-02-21 国立研究開発法人産業技術総合研究所 画像処理方法
WO2019043988A1 (en) * 2017-08-31 2019-03-07 Mitsubishi Electric Corporation ACTIVE LEARNING SYSTEM AND METHOD
JP2020016928A (ja) * 2018-07-23 2020-01-30 株式会社東芝 画像処理装置、画像処理システム、画像処理方法及びプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TEJASWI KASARLA ET AL.: ""Region-based active learning for efficient labeling in semantic segmentation"", 2019 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV), JPN6023033892, 7 January 2019 (2019-01-07), US, pages 1109 - 1117, ISSN: 0005185748 *
井上 眞乙、外2名: ""能動学習を用いた系列データの自動分類"", 第9回データ工学と情報マネジメントに関するフォーラム (第15回日本データベース学会年次大会), JPN6023033890, 27 February 2017 (2017-02-27), JP, pages 1 - 7, ISSN: 0005132797 *
日朝 祐太: ""ディープラーニングを用いた臨床CT画像からの筋骨格解剖の自動認識システム"", INNERVISION, vol. 35, no. 1, JPN6023033891, 25 December 2019 (2019-12-25), JP, pages 84 - 87, ISSN: 0005132798 *
河原 達也: ""音声認識技術の変遷と最先端 −深層学習によるEnd−to−Endモデル−"", 日本音響学会誌, vol. 74, no. 7, JPN6023033889, 1 July 2018 (2018-07-01), JP, pages 381 - 386, ISSN: 0005132796 *

Also Published As

Publication number Publication date
JP7395396B2 (ja) 2023-12-11

Similar Documents

Publication Publication Date Title
US9002101B2 (en) Recognition device, recognition method, and computer program product
US11581067B2 (en) Method and apparatus for generating a chemical structure using a neural network
US11886990B2 (en) Classification device, classification method, and computer program product
KR102189688B1 (ko) 동의어 추출 방법
US9159021B2 (en) Performing multistep prediction using spatial and temporal memory system
JP2011150541A (ja) 学習装置、学習方法、及びプログラム
US20220138621A1 (en) System and method for facilitating a machine learning model rebuild
CN111738807B (zh) 用于推荐目标对象的方法、计算设备和计算机存储介质
US11748600B2 (en) Quantization parameter optimization method and quantization parameter optimization device
JP2018147449A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20230034414A1 (en) Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program
JP6208018B2 (ja) 画像認識アルゴリズム組合せ選択装置
CN113780365A (zh) 样本生成方法和装置
WO2019092867A1 (ja) 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体
US20210342707A1 (en) Data-driven techniques for model ensembles
JP7395396B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20230019364A1 (en) Selection method of learning data and computer system
US11868885B2 (en) Learning device, inference device, learning method, and inference method using a transformation matrix generated from learning data
US20210042550A1 (en) Information processing device, information processing method, and computer-readable recording medium recording information processing program
US11113569B2 (en) Information processing device, information processing method, and computer program product
US11537794B2 (en) Learning device, learning method, computer program product, and information processing system
JP2009070321A (ja) 文書分類装置、及び文書分類プログラム
US20240037407A1 (en) Learning apparatus, trained model generation method, classification apparatus, classification method, and computer readable recording medium
US20230133868A1 (en) Computer-readable recording medium storing explanatory program, explanatory method, and information processing apparatus
EP4357974A1 (en) Electronic device and control method for electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R150 Certificate of patent or registration of utility model

Ref document number: 7395396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150