JPWO2018079020A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JPWO2018079020A1
JPWO2018079020A1 JP2018547148A JP2018547148A JPWO2018079020A1 JP WO2018079020 A1 JPWO2018079020 A1 JP WO2018079020A1 JP 2018547148 A JP2018547148 A JP 2018547148A JP 2018547148 A JP2018547148 A JP 2018547148A JP WO2018079020 A1 JPWO2018079020 A1 JP WO2018079020A1
Authority
JP
Japan
Prior art keywords
learning
data
information processing
unit
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018547148A
Other languages
English (en)
Other versions
JP6911866B2 (ja
Inventor
井手 直紀
直紀 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018079020A1 publication Critical patent/JPWO2018079020A1/ja
Application granted granted Critical
Publication of JP6911866B2 publication Critical patent/JP6911866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Abstract

【課題】学習データのラベリング状況に応じた学習性能を予め予測する。【解決手段】入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、を備え、前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、情報処理装置が提供される。【選択図】図12

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、機械学習分野では、種々のアルゴリズムを用いた研究開発が行われている。上記のアルゴリズムには、例えば、半教師学習のように、ラベル付きの学習データとラベルのない学習データの両方を入力とする手法も存在する。非特許文献1によれば、手書き数字データの認識に半教師学習を用いた例が報告されている。
Diederik P. Kingma、外3名、「Semi-supervisedLearning with Deep Generative Models」、2014年10月31日、[Online]、[平成28年9月7日検索]、インターネット<https://arxiv.org/pdf/1406.5298v2.pdf>
しかし、一般に、非特許文献1に記載されるような半教師学習は、全てのデータにラベルを付けて学習する教師あり学習と比較して、ラベルをつけていないことによる学習性能の劣化が懸念される。さらには、上記のような半教師学習では、どの程度、学習性能が劣化するかを予め予測することが困難である。このため、性能の向上を追求する場合、結局、すべてのデータにラベルを付けることも想定される。
そこで、本開示では、学習データのラベリング状況に応じた学習性能を予め予測することが可能な、新規かつ改良された装置が提案される。
本開示によれば、入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、を備え、前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、情報処理装置が提供される。
また、本開示によれば、プロセッサが、入力される学習データに基づく次元圧縮を行い、前記学習データに係るデータ分布図を生成することと、前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測することと、前記データ分布図および前記学習性能に係る表示を制御することと、を含み、前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、情報処理方法が提供される。
以上説明したように本開示によれば、学習データのラベリングに応じた学習性能を予め予測することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係るデータ収集装置10の機能ブロック図である。 同実施形態に係る情報処理サーバ20の機能ブロック図である。 同実施形態に係る情報処理端末30の機能ブロック図である。 同実施形態に係る学習装置40の機能ブロック図である。 同実施形態に係るデータ分布提示部により生成される学習データのプロット図の一例を示す図である。 同実施形態に係るデータ分布提示部により生成される学習データのプロット図の一例を示す図である。 同実施形態に係るデータ分布提示部により生成される分布イメージ図の一例である。 同実施形態に係るデータ分布提示部により生成される分布重なり表の一例である。 同実施形態に係る表示制御部の制御に基づいて出力部に表示されるラベリング候補の一例を示す図である。 同実施形態に係る情報処理端末の出力部に表示されるユーザインタフェースの一例である。 同実施形態に係る参照情報がセンサ情報である場合の例を示す図である。 同実施形態に係る学習性能予測部による学習性能の予測について説明するための図である。 同実施形態に係る各クラスタ数における最大学習性能の比較例を示す図である。 同実施形態に係るVAEを用いた半教師学習を行うニューラルネットワークのネットワーク構造を示す図である。 同実施形態に係るラケットスポーツAにおけるスイング種別の判定結果を示す図である。 同実施形態に係るラケットスポーツAおよびBの判別タスクにおいて用いられた学習データのクラスタリング結果である。 同実施形態に係るラケットスポーツBにおけるスイング種別の判定結果を示す図である。 同実施形態に係る類似性を有する異なる2つ以上のデータセットを用いた学習について説明するためのデータフロー図である。 同実施形態に係る情報処理サーバ20の動作の流れを示すフローチャートである。 本開示の第2の実施形態に係る表示制御部がデータ収集装置の出力部に表示させるユーザインタフェースの一例である。 同実施形態に係るラベリングの要否判定について説明するための図である。 同実施形態に係るデータの収集とラベルの追加に係るタイミングを示す図である。 同実施形態に係る情報処理サーバ20の動作の流れを示すフローチャートである。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.第1の実施形態の概要
1.2.システム構成例
1.3.データ収集装置10の機能構成例
1.4.情報処理サーバ20の機能構成例
1.5.情報処理端末30の機能構成例
1.6.学習装置40の機能構成例
1.7.データセットの加工
1.8.データ分布図の生成
1.9.ラベリング候補の選択
1.10.ラベリングの実行
1.11.学習性能の予測
1.12.学習データに基づく学習
1.13.本実施形態に係る半教師学習の効果
1.14.情報処理サーバ20の動作の流れ
2.第2の実施形態
2.1.第2の実施形態の概要
2.2.情報処理サーバ20の機能構成例
2.3.ラベリングの要否判定
2.4.情報処理サーバ20の動作の流れ
3.ハードウェア構成例
4.まとめ
<1.第1の実施形態>
<<1.1.第1の実施形態の概要>>
まず、本開示の第1の実施形態の概要について説明する。上述したとおり、近年では、情報処理技術の発展に伴い、種々のアルゴリズムを用いた学習が行われている。例えば、すべての入力にラベル付きの学習データを用いる教師あり学習では、比較的高い学習性能が期待されるが、入力する学習データの量に比例してラベリングの負担も増大することとなる。
一方、半教師学習では、入力にラベル付きの学習データとラベルのない学習データとを用いることで、教師あり学習と比べラベリングの負担を軽減することができる。しかし、半教師学習では、すべての学習データにラベリングを行った場合と比較して、どの程度、性能が劣化しているかが不明であるため、目標性能を確保するために必要なラベル付きデータの量を把握することが困難である。
また、能動学習では、性能向上に寄与すると予測される学習データ、すなわちラベリングすべき学習データを提示することが可能であるが、この場合、ある程度、認識器が完成していることが前提となる。一方、はじめに学習データの収集のみを行い、その後ラベリングを行う場合には、認識器が生成されていないため、ラベリングすべき学習データを提示することができない。
本実施形態に係る情報処理装置および情報処理方法は、上記の点に着目し発想されたものであり、学習データのラベリング状況に係る学習性能を予測することができる。このために、本実施形態に係る情報処理装置は、入力される学習データに基づく次元圧縮を行い、当該学習データに係るデータ分布図を生成する機能を有する。また、本実施形態に係る情報処理装置は、データ分布図と学習データに係るラベリング状況とに基づいて学習性能を予測する機能を有する。また、本実施形態に係るデータ分布図は、学習データから構成されるクラスタの重なり情報、および各クラスタに属する学習データの数、あるいは、分布の情報を含むことを特徴の一つとする。本実施形態に係る情報処理装置および情報処理方法によれば、ラベリングに伴う学習性能の向上を予め予測することにより、ラベリングに係る負担を最小限に抑えることが可能となる。
<<1.2.システム構成例>>
次に、本実施形態に係るシステム構成例について説明する。図1は、本実施形態に係る情報処理システムの構成例を示す図である。図1を参照すると、本実施形態に係る情報処理システムは、データ収集装置10、情報処理サーバ20、情報処理端末30、および学習装置40を含んで構成され得る。また、情報処理サーバ20と、データ収集装置10、情報処理端末30、および学習装置40とは、互いに情報通信が行えるように、ネットワーク50を介して接続される。
(データ収集装置10)
本実施形態に係るデータ収集装置10は、情報処理サーバ20に入力されるデータセットを収集する装置である。本実施形態に係るデータ収集装置10は、例えば、ユーザにより入力されるデータセットを記憶する機能を有してもよいし、ネットワーク50を介して、例えば、インターネットなどのネットワーク上からデータセットを動的に収集する機能を有してもよい。
また、本実施形態に係るデータ収集装置10は、種々のセンサ情報を収集する機能を有してもよい。この場合、収集されたセンサ情報や当該センサ情報を加工した情報が上記のデータセットとして用いられ得る。
本実施形態に係るデータ収集装置10は、上記のいずれかの機能を有する装置として定義できる。このため、本実施形態に係るデータ収集装置10は、PC(Personal Computer)、携帯電話、スマートフォン、タブレット、またはウェアラブルデバイスなどであってもよい。また、本実施形態に係るデータ収集装置10は、センサ情報を収集する機能を有する種々のセンサ装置であってもよい。
(情報処理サーバ20)
本実施形態に係る情報処理サーバ20は、データ収集装置10により収集されたデータセットから、学習装置40の学習性能を予測する機能を有する情報処理装置である。より具体的には、本実施形態に係る情報処理サーバ20は、データ収集装置10が収集したデータセットに基づく学習データからデータ分布図を生成する機能を有する。また、上述したように、本実施形態に係る情報処理サーバ20は、生成したデータ分布図と学習データに係るラベリング状況とに基づいて学習装置40の学習性能を予測する機能を有する。また、本実施形態に係る情報処理サーバ20は、上記のデータ分布図や予測した学習性能に係る表示制御を行う機能を有する。
(情報処理端末30)
本実施形態に係る情報処理端末30は、情報処理サーバ20による制御に基づいて、上記のデータ分布図や予測された学習性能をユーザに提示する機能を有する。また、本実施形態に係る情報処理端末30は、ユーザによる入力操作を受け付け、当該入力操作に係る情報を情報処理サーバ20に送信する機能を有する。すなわち、本実施形態に係る情報処理端末30は、学習データのラベリングや学習に係るユーザインタフェースをユーザに提供する情報処理装置である。本実施形態に係る情報処理端末30は、例えば、PC、スマートフォン、タブレットなどであってよい。
(学習装置40)
本実施形態に係る学習装置40は、学習データに基づく学習を行う機能を有する。本実施形態に係る学習装置40は、例えば、ニューラルネットワーク(ディープラーニング)による半教師学習を行ってよい。また、本実施形態に係る学習装置40は、ドメイン適応や転移学習、弱教師学習などを行ってもよい。本実施形態に係る学習装置40は、上記のような学習により得られたモデルを記録または出力する機能を有する。
(ネットワーク50)
ネットワーク50は、上述した各装置と情報処理サーバ20とを接続する機能を有する。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク50は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク50は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図1を用いた上記の説明では、データ収集装置10、情報処理サーバ20、情報処理端末30、および学習装置40がそれぞれ独立した情報処理装置として実現される場合を例に述べたが、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、本実施形態に係る情報処理サーバ20は、データ収集装置10、情報処理端末30、学習装置40が有する機能のいずれか、またはすべてを含むように構成されてもよい。例えば、本実施形態に係る情報処理サーバ20は、データ収集機能と、学習性能の予測機能、および学習機能を有する情報処理装置として実現され得る。
一方、本実施形態に係る情報処理サーバ20が有する各機能は、2台以上の情報処理装置により実現されてもよい。本実施形態に係るシステム構成例は、扱われる情報の特性やシステムの仕様、運用条件などに応じて柔軟に変形され得る。
<<1.3.データ収集装置10の機能構成例>>
次に、本実施形態に係るデータ収集装置10の機能構成例について詳細に説明する。図2は、本実施形態に係るデータ収集装置10の機能ブロック図である。図2を参照すると、本実施形態に係るデータ収集装置10は、入力部110、センサ部120、記憶部130、出力部140、および通信部150を備える。以下、上記に示す各構成について、当該構成が有する特徴を中心に説明する。
(入力部110)
入力部110は、ユーザによる入力操作を受け付ける機能を有する。本実施形態に係る入力部110は、例えば、ユーザによるデータセットの入力を受け付け、当該データセットを記憶部130に引き渡す。入力部110は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。また、入力部110は、マイクロフォンなどを含んでよい。
(センサ部120)
センサ部120は、学習データとして用いられる種々のセンサ情報を収集する機能を有する。このために、本実施形態に係るセンサ部120は、例えば、GPS(Global Positioning System)、Wi−Fi、加速度センサ、ジャイロセンサ、地磁気センサ、撮像センサ、マイクロフォン、各種のレーダや光センサ、時計などを含んで構成され得る。なお、本実施形態に係るセンサ部120は、上記以外のセンサを含んで構成されてもよい。本実施形態に係るセンサ部120は、収集するデータセットに応じたセンサを含んで構成され得る。また、センサ部120は、収集したセンサ情報を記憶部130に引き渡す。
(記憶部130)
記憶部130は、入力部110またはセンサ部120から引き渡されるデータセットを記憶する機能を有する。
(出力部140)
出力部140は、ユーザに視覚情報や聴覚情報を提示する機能を有する。このために、出力部140は、例えば、ディスプレイ装置やスピーカを含んで構成され得る。ここで、上記のディスプレイ装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネル、プロジェクタなどにより実現されてもよい。
(通信部150)
通信部150は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部150は、記憶部130に記憶されるデータセットを情報処理サーバ20に送信する。また、通信部150は、情報処理サーバ20は、情報処理サーバ20以外の装置との情報通信を行ってもよい。例えば、通信部150は、制御部(図示しない)による制御に基づいて、ネットワーク上からデータセットを動的に収集してもよい。
以上、本実施形態に係るデータ収集装置10の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係るデータ収集装置10の構成は、図2を用いて説明した例に限定されない。本実施形態に係るデータ収集装置10は、例えば、各構成を制御する制御部を備えてよい。また、データ収集装置10は、図2に示される構成の一部を備えなくてもよい。本実施形態に係るデータ収集装置10の構成は、収集する学習データの特性に応じて柔軟に変形され得る。
<<1.4.情報処理サーバ20の機能構成例>>
次に、本実施形態に係る情報処理サーバ20の機能構成例について説明する。図3は、本実施形態に係る情報処理サーバ20の機能ブロック図である。図3を参照すると、本実施形態に係る情報処理サーバ20は、学習データ入力部210、データ分布提示部220、ラベリング候補選択部230、ラベリング実行部240、学習性能予測部250、表示制御部260、および通信部270を備える。以下、上記に示す各構成の概要について説明する。
(学習データ入力部210)
学習データ入力部210は、データ収集装置10により収集されたデータセットを学習データとしてデータ分布提示部に入力する機能を有する。本実施形態に係る学習データ入力部210の機能詳細については別途後述する。
(データ分布提示部220)
データ分布提示部220は、学習データ入力部210により入力される学習データに対する次元圧縮を行い、当該学習データに係るデータ分布図を生成する機能を有する。なお、本実施形態に係るデータ分布図には、高次元データを低次元データに射影してプロットした図や、学習データにより構成されるクラスタおよびクラスタ間の重なりの度合いを示す図表が含まれてよい。なお、既にラベリングが行われている学習データが存在する場合、データ分布提示部220は、付与されているラベルに応じて色付けを行うことで、ラベリングが行われている学習データとラベリングが行われていない学習データとを区別してもよい。本実施形態に係るデータ分布提示部220の機能詳細については別途後述する。
(ラベリング候補選択部230)
ラベリング候補選択部230は、データ分布提示部220により生成されるデータ分布図に基づいて、学習データからラベリング候補を選択する機能を有する。すなわち、本実施形態に係るラベリング候補選択部230は、ラベリングによる性能向上の効果が大きいと予測される学習データを選択することができる。なお、既にラベリングが行われている学習データが存在する場合、ラベリング候補選択部230は、当該学習データを加味してラベリング候補を選択することができる。本実施形態に係るラベリング候補選択部230の機能詳細については別途後述する。
(ラベリング実行部240)
ラベリング実行部240は、情報処理端末30の出力部320に表示されるデータ分布図において選択された学習データと入力値とに基づいて、当該学習データのラベリングを行う機能を有する。
(学習性能予測部250)
学習性能予測部250は、データ分布図と学習データに係るラベリング状況とに基づいて、学習装置40による学習性能を予測する機能を有する。この際、本実施形態に係る学習性能予測部250は、各クラスタにラベル付きの学習データが存在するか否か、や、クラスタ間の重なりが発生しているか否か、を判定することで、上記の学習性能を予測することができる。本実施形態に係る学習性能予測部250の機能詳細については別途後述する。
(表示制御部260)
表示制御部260は、データ分布提示部220が生成するデータ分布図や学習性能予測部250が予測する学習性能に係る表示を制御する機能を有する。また、本実施形態に係る表示制御部260は、ラベリング候補選択部230が選択したラベリング候補やユーザが選択した学習データに係る表示制御を行う機能を有する。すなわち、本実施形態に係る表示制御部260は、情報処理端末30に表示されるユーザインタフェースの表示を制御する。本実施形態に係る表示制御部260の機能詳細については別途後述する。
(通信部270)
通信部270は、データ収集装置10、情報処理端末30、および学習装置40との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部270は、データ収集装置10から収集されたデータセットを受信する。また、通信部270は、表示制御部260により生成される制御信号を情報処理端末30に送信し、情報処理端末30からユーザによる入力情報を受信する。また、通信部270は、学習データを学習装置40に送信する。
以上、本実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の構成は、図3を用いて説明した例に限定されない。上述したとおり、本実施形態に係る情報処理サーバ20は、データ収集装置10、情報処理端末30、学習装置40が有する機能のいずれか、またはすべてを含むように構成されてもよい。
また、情報処理サーバ20が備える構成の一部は、別の装置の機能として実現することもできる。例えば、データ分布提示部220や学習性能予測部250は、情報処理サーバ20とは異なる別の装置の機能として実現されてもよい。また、本実施形態に係る情報処理サーバ20は、上記で説明した構成以外をさらに備えてもよい。本実施形態に係る情報処理サーバ20の機能構成は、柔軟に変形され得る。
<<1.5.情報処理端末30の機能構成例>>
次に、本実施形態に係る情報処理端末30の機能構成例について詳細に説明する。図4は、本実施形態に係る情報処理端末30の機能ブロック図である。図4を参照すると、本実施形態に係る情報処理端末30は、入力部310、出力部320、および通信部330を備える。
(入力部310)
入力部310は、ユーザによる入力操作を受け付ける機能を有する。本実施形態に係る入力部310は、例えば、ユーザによる学習データの選択操作やラベルの入力操作を受け付ける。また、入力部310は、学習装置40による学習に係るモデル構造やパラメータ、その他の学習設定の入力を受け付けてもよい。入力部310は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。
(出力部320)
出力部320は、学習データのラベリングや学習に係るユーザインタフェースをユーザに提供する機能を有する。より具体的には、本実施形態に係る出力部320は、情報処理サーバ20の制御に基づいて、上記のユーザインタフェース上にデータ分布図や学習性能を表示する。このために、出力部320は、ディスプレイ装置を含んで構成され得る。上記のディスプレイ装置は、例えば、CRTディスプレイ装置、液晶ディスプレイ装置、OLED装置、タッチパネル、プロジェクタなどにより実現されてもよい。また、本実施形態に係る出力部320は、ユーザに聴覚情報を提示する機能を有してもよい。この場合、出力部320は、スピーカなどを含んで構成される。
(通信部330)
通信部330は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部330は、情報処理サーバ20からユーザインタフェースの表示制御に係る制御信号を受信する。また、通信部330は、ユーザが選択した学習データの情報や入力されたラベルの情報を情報処理サーバ20に送信する。また、通信部330は、入力された学習設定に係る情報を学習装置40に送信してよい。
以上、本実施形態に係る情報処理端末30の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る情報処理端末30の構成は、図4を用いて説明した例に限定されない。本実施形態に係る情報処理端末30は、例えば、各構成を制御する制御部を備えてよい。本実施形態に係る情報処理端末30の構成は、柔軟に変形され得る
<<1.6.学習装置40の機能構成例>>
次に、本実施形態に係る学習装置40の機能構成例について説明する。図5は、本実施形態に係る学習装置40の機能ブロック図である。図5を参照すると、本実施形態に係る学習装置40は、学習部410、認識器出力部420、および通信部430を備える。以下、上記に示す各構成の概要について説明する。
(学習部410)
学習部410は、学習データに基づく学習を行う機能を有する。上述したとおり、本実施形態に係る学習データには、ラベル付きの学習データとラベルのない学習データとが含まれてよい。本実施形態に係る学習部410は、例えば、上記の学習データに基づく半教師学習、ドメイン適応、弱教師学習などを行うことができる。なお、学習に係るモデル構造やパラメータ、その他の学習設定は、情報処理端末30に表示されるユーザインタフェースを介して入力されてもよい。本実施形態に係る学習部410の機能詳細については別途後述する。
(認識器出力部420)
認識器出力部420は、学習部410による学習結果として得られた認識器を出力する機能を有する。本実施形態に係る認識器出力部は、認識器(モデル)の構造やパラメータ、および学習状況などをメモリやファイルなどに記録する。
(通信部430)
通信部430は、情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部430は、情報処理サーバ20から学習データを受信する。情報処理サーバ20により学習データが別途の記憶装置に記憶された場合には、通信部430は、当該記憶装置のパスなどを受信してもよい。また、通信部430は、情報処理端末30から学習設定に係る情報を受信してもよい。
以上、本実施形態に係る学習装置40の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る学習装置40の構成は、図5を用いて説明した例に限定されない。本実施形態に係る学習装置40は、例えば、各構成を制御する制御部を備えてよい。本実施形態に係る学習装置40の構成は、柔軟に変形され得る。
<<1.7.データセットの加工>>
次に、本実施形態に係る学習データ入力部210が有する機能の詳細について説明する。上述したとおり、本実施形態に係る学習データ入力部210は、データ収集装置10により収集されたデータセットを学習データとしてデータ分布提示部に入力する機能を有する。この際、本実施形態に係る学習データ入力部210は、収集されたデータセットに次元削減を目的とする加工を施し、加工後のデータを学習データとしてデータ分布提示部220に入力することができる。本実施形態に係る学習データ入力部は、例えば、PCA(Principal Component Analysis)、オートエンコーダ(AutoEncoder)、VAE(Variational AutoEncoder)などの手法を用いて上記の加工を行うことができる。
例えば、学習データ入力部210は、PCAによりデータセットを第1主成分、第2主成分、第N主成分と加工してもよい。また、例えば、学習データ入力部210は、オートエンコーダにデータセットを入力し出力された結果を学習データとしてデータ分布提示部220に入力してもよい。また、VAEを用いる場合、エンコーダによる出力から平均パラメータを抽出し当該パラメータを学習データとして扱ってもよい。本実施形態に係る学習データ入力部210は、収集されたデータセットや学習のアルゴリズムに応じた加工を施すことができる。なお、データセットの性質や学習のアルゴリズムによっては、学習データ入力部210による加工は必ずしも行われなくてもよい。
<<1.8.データ分布図の生成>>
次に、本実施形態に係るデータ分布提示部220が有する機能の詳細について説明する。上述したとおり、本実施形態に係るデータ分布提示部220は、学習データ入力部210により入力される学習データに対する次元圧縮を行い、当該学習データに係るデータ分布図を生成する機能を有する。この際、本実施形態に係るデータ分布提示部220は、MDS(Multi−Dimentional Scaling)やtSNE(t−distributed Stochastic Neighbor Embedding)などの手法を用いて上記の次元圧縮を行ってもよい。
例えば、本実施形態に係るデータ分布提示部220は、MDSを用いて、多次元空間におけるデータ間の距離、あるいは、類似度を、距離尺度を維持しながら別次元の空間に射影することができる。また、例えば、本実施形態に係るデータ分布提示部220は、tSNEを用いて、確率分布の距離尺度に基づく次元圧縮を行ってもよい。
なお、データ分布提示部220は、上記以外にも例えば、LLE(Locally Linear Embedding)、LTSA(Local Tangent Space Alignment)、HessianLLE、ManiforLLe、Isomap、SpectralEmbeddingなどを用いて次元圧縮を行うこともできる。
図6Aは、データ分布提示部220による次元圧縮処理により生成される学習データのプロット図の一例を示す図である。図6Aに示すように、本実施形態に係るデータ分布提示部220は、tSNEなどを用いて学習データを二次元平面上にプロットすることができる。このように、本実施形態に係るデータ分布図には、次元圧縮により可視化された学習データのプロット図が含まれてよい。
なお、データ分布提示部220は、点によるプロットの他、密度推定などを用いた図を生成してもよい。この場合、データ分布提示部220は、図6Bに示すような密度推定線を付加したデータ分布図を生成することができる。
さらには、データ分布提示部220は、密度推定処理を簡略化し、パラメトリックな分布推定を行ってもよい。データ分布提示部220は、例えば、混合ガウス分布やk−meansなどを用いることができる。この際、混合ガウス分布における混合数やk−meansにおけるkの値は、ユーザにより設定されてもよい。
また、本実施形態に係るデータ分布提示部220は、図6Aおよび図6Bに示したようなプロット図を簡略化した分布イメージ図を生成することもできる。図7は、データ分布提示部220により生成される分布イメージ図の一例である。図7には、次元圧縮により、二次元平面上に3つのクラスタが確認された場合の学習データの分布イメージが示されている。図7を参照すると、3つのクラスタA〜Cには、それぞれ90、50、60の学習データにより構成されていることがわかる。また、クラスタAおよびBは、10の学習データを共有していることがわかる。
さらには、本実施形態に係るデータ分布提示部220は、各クラスタに属する学習データの数を表にまとめた分布重なり表を生成してもよい。図8は、データ分布提示部220により生成される分布重なり表の一例である。図8に示すように、本実施形態に係る分布重なり表は、縦軸および横軸にクラスタのIdを配置し、縦軸および横軸の交差点に、対応するクラスタに属する学習データの数を示すものであってもよい。
例えば、図8には、クラスタA(縦軸)とクラスタA(横軸)の交差点に80という数字が示されているが、これはクラスタAのみに属する学習データが80存在することを表している。また、図8には、クラスタA(縦軸)とクラスタB(横軸)の交差点に10という数字が示されているが、これはクラスタAとクラスタBの両方に属する学習データが10存在することを表している。
本実施形態に係るデータ分布提示部220は、低次元空間上のデータから図8に示すような分布重なり表を生成してもよいし、元の高次空間上の距離から計算し分布重なり表を生成してもよい。
以上説明したように、本実施形態に係るデータ分布提示部220は、入力される学習データに対する次元圧縮を行い、当該学習データに係るデータ分布図を生成することができる。また、本実施形態に係るデータ分布図には、次元圧縮により生成されるプロット図や、当該プロット図を簡略化した分布イメージ図、各クラスタに属する学習データの数を表にまとめた分布重なり表などを含んでよい。すなわち、本実施形態に係るデータ分布図は、学習データから構成されるクラスタの重なり情報、および各クラスタに属する学習データの数の情報を含んだ図と定義できる。
本実施形態に係るデータ分布提示部220が生成するデータ分布図が情報処理端末30のユーザインタフェース上に表示されることで、ユーザが学習データの分布を視覚的に把握することが可能となる。なお、この際、表示制御部260は、データ分布提示部220が生成するいずれかのデータ分布図を情報処理端末30の出力部320に表示させてもよいし、すべてのデータ分布図を表示させてもよい。また、表示制御部260は、ユーザの操作により各データ分布図の表示有無を切り替える制御を行ってもよい。
<<1.9.ラベリング候補の選択>>
次に、本実施形態に係るラベリング候補選択部230が有する機能の詳細について説明する。上述したとおり、本実施形態に係るラベリング候補選択部230は、データ分布提示部220が生成するデータ分布図に基づいて、学習データからラベリング候補を選択する機能を有する。
この際、本実施形態に係るラベリング候補選択部230は、データ分布図においてクラスタの重心付近に位置する学習データをラベリング候補として選択してもよい。重心付近とは、必ずしも厳密ではなくてよい。境界付近と比べて、重心付近のデータがよりクラスタを代表するラベルになっていると期待するためである。また、表示制御部260は、ラベリング候補選択部230が選択したラベリング候補を情報処理端末30の出力部320に表示させる。
図9は、表示制御部260の制御に基づいて出力部320に表示されるラベリング候補の一例を示す図である。図9には、データ分布提示部220により生成されたデータ分布図が示されている。ここで、データ分布図には、クラスタA〜Cと、クラスタA〜Cにおいてラベリング候補選択部230が選択したラベリング候補CA1〜CA3とがそれぞれ示されている。
このように、本実施形態に係るラベリング候補選択部230は、各クラスタの重心付近に位置する学習データをラベリング候補として選択することができる。なお、クラスタに既にラベル付きの学習データが存在する場合には、ラベリング候補選択部230は、ラベル付きの学習データが存在しないクラスタにおける学習データを優先的にラベリング候補として選択してよい。本実施形態に係るラベリング候補選択部230が有する上記の機能によれば、性能向上に寄与すると予測される学習データをユーザが直観的に把握することが可能となる。
また、すべてのクラスにラベル付きの学習データが存在する場合には、本実施形態に係るラベリング候補選択部230は、より境界付近に位置する学習データをラベリング候補として選択してもよい。これは、本実施形態に係るラベリング候補選択部230が、誤認識率が高いと予測される学習データをラベリング候補として選択することで、境界付近の厳密な識別面を獲得するためである。ラベリング候補選択部230が有する上記の機能によれば、能動学習で行われるようなより効率のよいラベリングを実現することが可能である。
また、例えば、クラスタの共通部分にラベル付きの学習データが存在する場合などには、ラベリング候補選択部230は、当該学習データをラベリング候補として選択してもよい。すなわち、ラベリング候補選択部230は、誤認識率の要因となり得る学習データに係るラベルの削除または付け直しをユーザに促してもよい。
<<1.10.ラベリングの実行>>
次に、本実施形態に係るラベリングの実行について詳細に説明する。上述したとおり、本実施形態に係るラベリング実行部240は、出力部320に表示されるデータ分布図において選択された学習データと入力値とに基づいて、当該学習データのラベリングを行う機能を有する。
図10は、情報処理端末30の出力部320に表示されるユーザインタフェースIF1の一例である。出力部320は、表示制御部260による制御に基づいて、ユーザインタフェースIF1を表示することができる。図10を参照すると、本実施形態に係るユーザインタフェースIF1は、3つの領域R1〜R3を含んでいる。
ここで、領域R1は、データ分布提示部220により生成されたデータ分布図を表示するための領域であってよい。図10を参照すると、領域R1には、3つのクラスタを含むデータ分布図が示されている。また、当該データ分布図には、ラベリング候補選択部230が選択したラベリング候補CA4〜CA6が併せて表示されている。このように、本実施形態に係るラベリング候補選択部230は、1つのクラスタにおいて複数のラベリング候補を選択してもよい。
また、ユーザは、ラベリング候補選択部230が選択したラベリング候補の他、自らの操作によりラベリングを行う学習データを選択してよい。この場合、例えば、ユーザがデータ分布図においてクラスタをクリックしたことに基づいて、クリックしたポイント付近に位置する学習データがラベリング候補CA4〜CA6として表示されてもよい。この際、ユーザは続いて、ラベリング候補CA4〜CA6のうち任意の学習データを再度クリックすることで、実際にラベリングを行う学習データを選択することができる。なお、図10では、ユーザまたはラベリング候補選択部230によりラベリング候補CA4が実際のラベリング対象として選択された場合の例を示している。
この際、本実施形態に係る表示制御部260は、選択された学習データに基づいて、当該学習データに対応する参照情報を出力部320に表示させることができる。図10の領域R2には、表示制御部260の制御に基づいて表示される参照情報が示されている。ここで、本実施形態に係る参照情報は、学習データの内容をユーザが把握するための情報であってよい。図10には、参照情報がネコの画像である場合の例が示されている。すなわち、図10に示す一例は、学習装置40が画像情報に基づく認識タスクを行う場合、表示制御部260が学習データの内容を示す画像をユーザに提示することを示している。
本実施形態に係る表示制御部260が有する上記の機能によれば、ユーザが、ユーザインタフェースIF1に表示される参照情報を視認することで、学習データの内容を把握し、適切なラベリングを行うことが可能となる。図10に示す一例では、ユーザは領域R2に表示される参照情報を視認し、領域R3において、学習データのラベルを、「Cat」、と入力している。この際、ユーザは、自由入力を行ってもよいし、予め作成されたリストから選択してラベリングを行ってもよい。ラベリング実行部240は、入力されたラベルに基づいて、選択された学習データのラベリングを実行する。
なお、本実施形態に係る参照情報は、データ収集装置10により収集されたオリジナルデータであってもよいし、オリジナルデータを基に適宜加工が施されたデータであってもよい。例えば、オリジナルデータが画像データである場合、本実施形態に係る参照情報は、上記のオリジナルデータの解像度を変更した画像データであってもよいし、トリミングを行った画像データであってもよい。
また、本実施形態に係る参照情報は、画像情報に限定されない。例えば、学習装置40が収集されたセンサ情報に基づく認識タスクを行う場合、本実施形態に係る参照情報は、選択された学習データに対応するセンサ情報であってもよい。図11は、本実施形態に係る参照情報がセンサ情報である場合の例を示す図である。図11には、ユーザインタフェースIF1の領域R2に表示される参照情報d1が示されている。ここで、参照情報r1は、例えば、加速度情報、ジャイロ情報、地磁気情報、気圧情報などを示す波形データであってよい。
また、この際、本実施形態に係る表示制御部260は、参照情報d1に加え、参照情報r1と同期した付随データr1を、参照情報d1と関連付けて表示させることができる。図11に示す一例では、付随データr1は、センサ情報である参照情報d1と時間的に同期された動画データであってよい。すなわち、本実施形態に係る表示制御部260は、センサ情報の収集時に同時に録画された動画データを付随データとしてユーザインタフェース上に表示させることができる。
本実施形態に係る表示制御部260が有する上記の機能によれば、学習データがセンサ情報のように、ユーザが直観感的に把握することが困難なデータである場合であっても、ユーザによる適切なラベリングを補助することが可能となる。
なお、上記では、単一の学習データにラベリングを行う場合を例に説明したが、本実施形態に係るユーザインタフェースIF1によれば、複数の学習データに同時にラベリングを行うことも可能である。この場合、本実施形態に係る表示制御部260は、ユーザまたはラベリング候補選択部230により選択された複数の学習データに対応する複数の参照情報を表示させることができる。また、ユーザは、表示される複数の参照情報を確認し、異なるラベルを付けるべき学習データを排除したうえで、残った複数の学習データに同時にラベリングを行うことが可能である。
<<1.11.学習性能の予測>>
次に、本実施形態に係る学習性能予測部250の機能詳細について説明する。上述したとおり、本実施形態に係る学習性能予測部250は、データ分布提示部220が生成するデータ分布図と学習データに係るラベリング状況とに基づいて、学習装置40の学習性能を予測する機能を有する。
本実施形態に係る学習性能予測部250は、例えば、ラベリング実行部240により学習データのラベリングが実行されたことに基づいて、上記の学習性能を予測してもよい。図12は、本実施形態に係る学習性能予測部250による学習性能の予測について説明するための図である。
図12には、データ分布提示部220により生成されたデータ分布図上に、学習性能予測部250が予測した学習性能が併せて表示される場合の例が示されている。ここで、図12に示す一例は、クラスタAに属する学習データdl1にラベリングが行われた場合の学習性能の予測結果を示しており、また、各クラスタA〜Cを構成する学習データの数は、図8に示すとおりの構成であってよい。また、図12に示す一例では、クラスタAに属する学習データdl1以外の学習データには、ラベリングが行われていないものとする。
この際、本実施形態に係る学習性能予測部250は、単一のクラスタのみに属するラベル付きの学習データが存在する場合、当該クラスタのみに属するラベルのない学習データは、当該ラベル付きの学習データと同一のクラスに分類されると予測してよい。
図12に示す一例では、学習データdl1は、クラスタAのみに属している。このため、学習性能予測部250は、クラスタAのみに属するラベルのない学習データ、すなわち、差集合A−Bに属するラベルのない学習データは、すべて学習データdl1と同一のクラスに分類されると予測できる。
また、本実施形態に係る学習性能予測部250は、あるクラスタにおいて、当該クラスタのみに属するラベル付きの学習データが存在しない場合、当該クラスタのみに属するラベルのない学習データが正しいクラスに分類される確率は、全クラスタ数の逆数に比例すると予測してよい。
上述したとおり、図12に示す一例では、学習データdl1のみにラベリングが行われている状況であり、クラスタBまたはCに属する学習データは、すべてラベルのない学習データであってよい。この際、本実施形態に係る学習性能予測部250は、クラスタBのみに属する40の学習データが正しいクラスに分類される確率は、全クラスタ数の逆数、すなわち、1/3であると予測することができる。つまり、学習性能予測部250は、クラスタBのみに属する学習データ、すなわち、差集合B−Aに属する40の学習データのうち、正しいクラスに分類される学習データは13データであると予測する。
また、同様に、学習性能予測部250は、クラスタCのみに属する60の学習データが正しいクラスに分類される確率は、1/3であると予測する。つまり、学習性能予測部250は、クラスタCのみに属する学習データのうち、正しいクラスに分類される学習データは20データであると予測してよい。
また、本実施形態に係る学習性能予測部250は、クラスタの共通部分に属するラベルのない学習データが正しいクラスに分類される確率は、前記共通部分を形成するクラスタ数の逆数に比例すると予測することができる。図12に示す一例では、クラスタAおよびBにより形成される共通部分に10の学習データが属している。この場合、学習性能予測部250は、AおよびBの共通部分に属する10の学習データが正しいクラスに分類される確率は、1/2であると予測することができる。つまり、学習性能予測部250は、AおよびBの共通部分に属する10の学習データのうち、正しいクラスに分類される学習データは13データであると予測する。
以上の演算の結果、学習性能予測部250は、全体で190の学習データのうち、正しいクラスに分類される学習データは112データであり、正答率はおよそ62%であると予測することができる。
次に、図12の示す状態において、新たにクラスタBのみに属する学習データにラベリングが行われた場合について述べる。また、この際、クラスタBのみに属する学習データに付与されたラベルと、クラスタAのみに属する学習データdl1に係るラベルが同一であった場合を想定する。この場合、差集合A−B、差集合B−A、およびAとBの共通部分に属する計130の学習データは、すべて学習データdl1と同一のクラスに分類されると予測できる。一方、上述の演算により、クラスタCについては、60データのうち2/3が誤分類されると予測されるため、全体の正答率は、150/190=79%と予測できる。
他方、図12に示す状態において、クラスタBのみに属する学習データに付与されたラベルが、クラスタAのみに属する学習データdl1に係るラベルとは異なる場合、AとBの共通部に属する10の学習データは、上述の演算により50%が誤って分類されると予測される。なお、クラスタCに属する学習データについては、他の例と同様に40データが誤って分類されると予測されるため、全体の正答率は、145/190=76%と予測できる。また、上記の状態において、クラスタCに属する学習データに新たにラベリングが行われた場合は、クラスタCに属する60の学習データは、すべて正しいクラスに分類されると予測される。この結果、誤って分類される学習データは、AおよびBの共通部分に属する10の学習データのうちの50%、すなわち5データのみとなり、学習性能予測部250は、全体の正答率を、185/190=97%と予測する。
以上、本実施形態に係る学習性能予測部250による学習性能の予測方法について説明した。上述したように、本実施形態に係る学習性能予測部250は、データ分布図と学習データのラベリング状況とに基づいて、学習性能の予測を行うことができる。なお、図12を用いた上記の説明では、学習データのラベリングが実行されたことに基づいて、学習性能予測部250による性能予測が行われる場合を例に説明した。一方、本実施形態に係る学習性能予測部250は、ラベリングが行われていない場合であっても、学習性能を予測することが可能である。
この場合、本実施形態に係るデータ分布提示部220は、クラスタ数の設定に係るハイパーパラメータをスイープし、各値を用いたクラスタリングを実行することで、クラスタ数の異なる複数のデータ分布図を生成してよい。続いて、本実施形態に係る学習性能予測部250は、上記の複数のデータ分布図に基づいて、各クラスタ数における最大学習性能の予測を行うことができる。この際、学習性能予測部250は、すべてのクラスタにラベル付きの学習データが存在する場合の学習性能を予測し、当該学習性能を最大学習性能としてよい。より正確には、学習性能予測部250は、すべてのクラスタにおいて、各クラスタのみに属するラベル付きの学習データが存在する場合の学習性能を、最大学習性能として予測することができる。
また、本実施形態に係る表示制御部260は、上記のクラスタ数と上記の最大学習性能とを関連付けて表示させてよい。この際、本実施形態に係る表示制御部260は、各クラスタ数における最大学習性能の比較を表示させることができる。
図13は、各クラスタ数における最大学習性能の比較例を示す図である。本実施形態に係る表示制御部260は、例えば、図13に示すようなグラフをユーザインタフェースIF1上に表示させてもよい。図13に示す一例では、横軸にクラスタ数が示されており、また、縦軸に予測された最大学習性能が示されている。また、図13には、学習性能の許容値T1が破線により示されている。ここで、許容値T1は、許容され得る学習性能の最小値を示すものであり、例えば、ユーザなどにより予め設定される値であってよい。
ユーザは、図13に示すようなグラフを確認することで、許容値を満たすために必要なクラスタ数、すなわち、ラベリングが必要な学習データの数を把握することができる。具体的には、図13に示す一例では、クラスタ数が10を超える場合、学習性能が許容値を上回ることを示している。ここで、上述したとおり、図13に示される学習性能は、各クラスタのみに属するラベル付き学習データが存在する場合の最大学習性能であってよい。このため、ユーザは、許容値を超える学習性能を確保するためには、各クラスタのみに属する10の学習データにラベリングを行えばよいことを把握できる。
また、図13を参照すると、クラスタ数がN−2以上である場合、最大学習性能がほぼ変化しないことがわかる。すなわち、図13に示すグラフは、クラスタ数がN−2以上である場合には、ラベリングの負担が増加する一方、得られる性能向上効果が低いことを示唆している。このように、本実施形態に係る学習性能予測部250がクラスタ数ごとの最大学習性能を予測することで、ユーザは、ラベリングにより得られる性能向上効果を視覚的に把握することができ、不要なラベリングを行う手間を省くことができる。例えば、ユーザは、図13に示すようなグラフを確認したうえで、クラスタ数を決定し、生成されたデータ分布図に基づいて、各クラスタの重心付近に位置する学習データにラベリングを行ってもよい。この際、ユーザは、例えば、k−meansにおけるkの値を設定することで、上記のクラスタ数を制御することができる。ユーザは、kの値を小さく設定することで、ラベリングの負担を軽減することを優先してもよいし、kの値を大きく設定することで、学習性能の向上を優先してもよい。
また、本実施形態に係るクラスタ数の決定は、学習性能予測部250により動的に行われてもよい。すなわち、本実施形態に係る学習性能予測部250は、各クラスタ数における最大学習性能に基づいて最適クラスタ数を決定することができる。この際、学習性能予測部250は、上述した許容値や設定された優先モードなどに基づいて、上記の最適クラスタ数を決定してもよい。また、本実施形態に係るデータ分布提示部220は、上記の最適クラスタ数に基づいて、データ分布図を生成してよい。上述したように、データ分布図は、最適クラスタ数に基づいてkの値を設定することで、生成するデータ分布図におけるクラスタ数を制御することができる。
<<1.12.学習データに基づく学習>>
次に、学習装置40による学習の詳細について説明する。上述したとおり、本実施形態に係る学習装置40の学習部410は、ラベル付きの学習データとラベルのない学習データとに基づく学習を行う機能を有する。本実施形態に係る学習部410は、例えば、上記の学習データに基づく半教師学習、ドメイン適応、弱教師学習などを行ってもよい。なお、以下においては、学習部410が半教師学習を行う場合を例に説明する。
本実施形態に係る学習部410は、学習性能予測部250が予測した学習性能を正とし、当該学習性能を満たすために、例えば、ニューラルネットワークの設計や手法を変更しながら学習性能を向上させる機能を有する。この際、学習部410は、例えば、広く用いられるVAE、ADGM、SDGM、DCGAN、LadderNet、VAT、またはAAEなどによる半教師学習を行ってもよい。学習部410は、学習データの性質などに基づいて、上記から有用な手法を選択し、当該手法に応じたニューラルネットワークを設計する機能を有してもよい。以下、上記に挙げた各方法について概要を説明する。
(VAE)
VAEは、DGM(Deep Generative Models)を学習するために、変分ベイズとオートエンコーダを融合した手法である。VAEでは、一般的なオートエンコーダとは異なり、ロス関数に代えてモデルエビデンスの変分下限が用いられる。また、VAEでは、変分下限の計算のため、中間層に確率的な層(ガウスサンプリング層)を有することを特徴の一つとする。
VAEは従来、教師なし学習に用いられる手法であるが、本実施形態では、拡張されたVAEを用いることで半教師学習を行うことができる。より具体的には、本実施形態に係る学習部410は、拡張されたラベル入力付きのVAEと、認識モデルとを組み合わせることで半教師学習を行う。
図14は、VAEを用いた半教師学習を行うニューラルネットワークNN1のネットワーク構造を示す図である。図14に示すように、ニューラルネットワークNN1は、モデルM1およびモデルM2から構成される。
ここで、モデルM1は、教師なし学習による事前学習を行うVAEである。より詳細には、モデルM1は、エンコーダe1により推論分布をモデル化し、デコーダd1により生成分布をモデル化することができる。この際、モデルM1の目的関数は、モデルエビデンスの変分下限により表現される。なお、上記目的関数に含まれる、内部変数zによる周辺化の処理はサンプリング積分により近似される。
また、モデルM2は、実際の半教師学習を行うモデルである。具体的には、モデルM2は、モデルM1が生成した特徴量を学習データとして半教師学習を行うことができる。すなわち、モデルM1による特徴抽出は、モデルM2に用いられる学習データの加工と見なすこともできる。
(ADGMおよびSDGM)
ADGMは、Auxiliary Deep Generative Modelsの略称である。また、SDGMは、Skip Deep Generative Modelsの略称であり、ADGMと類似のグラフモデルで表される。ここで、上記のAuxiliaryは、確率的補助変数を表しており、当該確率的補助変数は、変分ベイズの推論分布推定などにおいて分布の表現力を向上させるために用いられる。
ADGMおよびSDGMは、一括学習(EndToEnd)による半教師学習を実現するモデルである。なお、上述したVAEを用いたモデルM2も単体で半教師学習を行うことができるが、性能向上のためには、モデルM1およびM2による二段階学習が望ましい。一方、ADGMは、補助変数を用いてモデルM2の表現能力を増加させており、一括学習を実現することができる。
(DCGAN)
DCGAN(Deep Convolutional Generative Adversarial Network)は、GAN(Generative Adversarial Network)を精緻化したモデルである。ここで、GANとは、生成モデルと判別モデル(真偽判別モデル)とを対向させて学習させる手法である。なお、真偽判別モデルとは、入力されたデータが真のデータであるか、生成モデルが生成した偽のデータであるかを判別する判別器のことを示す。GANでは、生成モデルが真偽判別モデルによる誤判別を増加させるように動作し、真偽判別モデルは生成モデルが生成した偽のデータを偽物と見抜く率を向上させるように動作する。この結果、生成モデルは、真のデータにより近いデータを生成する能力を獲得する。
DCGANでは、上記の真偽判別モデルを特徴抽出モデルとして用いることもできる。また、この特徴抽出モデルと、判別モデルを組み合わせて半教師学習も実現できる。具体的には、真偽判別モデルの各層の出力を接続し、SVM(Support Vector Machine)などの学習を行う。
(LadderNet)
LadderNetは、はしご(Ladder)結合を有するデノイジングオートエンコーダと認識モデルとを組み合わせた手法である。LadderNetでは、エンコーダと認識モデルとが重みを共有し、また、エンコーダとデコーダは同一の深さで構成され、同じ深さの階層間に結合を有する。なお、エンコーダからデコーダへの結合は、デノイジングの作用を有する演算により構成される。
(AAE)
AAE(Adversarial AutoEncoder)は、上述したGANにおける真偽判別モデルをVAEの中間層に対する事前分布と推論分布の真偽判定に用いる手法である。AAEは、すなわち、中間層をラベルとスタイルに分離することで半教師学習を実現する。
以上、本実施形態に係る学習部410が採用し得るニューラルネットワークの構成について、例を挙げて説明した。上記に述べたニューラルネットワークは、認識モデル、生成モデル、推論モデル、また真偽判別モデルといった複数のモジュールを組み合わせ、同時に学習する構成である。なお、各モジュールに対応するネットワークは、CNN、バッチノーマライゼーション、RNN、ResidualNetなどのより簡素なモジュールの組み合わせにより構成され得る。学習部410は、上記で述べたようなモジュールを用いてニューラルネットワークを設計し、学習性能予測部250により予測された学習性能に近づくように学習を行うことができる。なお、実際の学習性能と予測値とが大きく乖離する場合には、ラベリングの不足が原因と予想されるため、ラベル付きの学習データを増やしたうえで、再度、学習部410に学習を行わせてもよい。
<<1.13.本実施形態に係る半教師学習の効果>>
次に、本実施形態に係る半教師学習の効果について、具体例を挙げて説明する。以下では、学習装置40にラケットスポーツAおよびBにおけるスイング種別の判別タスクを行わせた際の判別結果について述べる。
まず、ラケットスポーツAにおけるスイング種別の判定タスクの結果について説明する。ここでは、ラケットに装着したデータ収集装置10により、3軸方向の加速度および角速度をそれぞれ所定の周波数でサンプリングし、時系列の切り出し波形をデータセットとした。また、学習時には、9クラスのスイング動作に係るラベル付きの学習データを作成し学習装置40に半教師学習を行わせ、テスト時には、学習データにない波形データからスイング動作の種別を推定させた。
図15は、ラケットスポーツAにおけるスイング種別の判定結果を示す図である。ここで、図15には、縦軸に誤判別率が示されており、横軸にラベル付きの学習データの数が示されている。また、図15には、半教師学習を行わせた際の判別結果LC1と教師あり学習を行わせた際の判別結果LC2とが示されている。図15を参照すると、90のラベル付きデータを用いた場合、半教師学習を行った場合の誤判別率は、教師あり学習を行った場合の誤判別率を大きく下回ることがわかる。なお、この際、半教師学習においては、90のラベル付きデータと併せて14490のラベルなしデータを用いた。
また、図16の左側には、ラケットスポーツAの判別タスクにおいて用いられた学習データのクラスタリング結果が示されている。なお、図16に示すクラスタリング結果では、各クラスに対応する学習データを、数字を用いて模式的に表現している。図16を参照すると、ラケットスポーツAに係るクラスタリング結果では、一部クラスに対応するクラスタが分離して存在するものの、各クラスタの境界は明瞭であることがわかる。
ラケットスポーツBにおけるスイング種別の判定タスクの結果について説明する。ラケットスポーツBに係る判別タスクでは、ラケットスポーツAの場合と同様に、データ収集装置10により収集されたセンサ情報を加工し学習データに用いた。ただし、ラケットスポーツBに係る判別タスクでは、18クラスのスイング動作に係るラベル付きの学習データを作成し学習を行わせている。
図17は、ラケットスポーツBにおけるスイング種別の判定結果を示す図である。図17には、図15と同様に、縦軸に誤判別率が示されており、横軸にラベル付きの学習データの数が示されている。また、図17には、半教師学習を行わせた際の判別結果LC3と教師あり学習を行わせた際の判別結果LC4とが示されている。図17に示すように、ラケットスポーツBに係る判別タスクにおいても、半教師学習を行った場合の誤判別率は、教師あり学習を行った場合の誤判別率を下回ることがわかる。
また、図16の右側には、ラケットスポーツBの判別タスクにおいて用いられた学習データのクラスタリング結果が示されている。図16を参照すると、ラケットスポーツBに係るクラスタリング結果では、ラケットスポーツAのクラスタリング結果と比較してクラスタの重なりが目立つものの、各クラスタをおおまかに把握できることがわかる。
以上、本実施形態に係る半教師学習の効果について説明した。なお、上記では、ラケットスポーツAおよびBにおけるスイング種別の判別タスクについて述べたが、本実施形態に係る半教師学習は、例えば、手書き数字の判別タスクや行動認識の判別タスクに用いられてもよい。上述したように、本実施形態に係る半教師学習によれば、教師あり学習に比べ、より精度の高い判別を実現することが期待される。
また、本実施形態に係る学習部410は、類似性を有する異なる2つ以上のデータセットを用いて学習を行ってもよい。例えば、本実施形態に係る学習部410は、ラケットスポーツAおよびBに係るデータセットを統合し、半教師学習を行うこともできる。
上記で述べたラケットスポーツAおよびBは、互いに種別の異なるスポーツではあるが、ラケットに装着したデータ収集装置10により、当該ラケットに加わる加速度やねじれを計測した時系列データを学習に用いる点で共通している。このような場合、本実施形態に係る学習部410は、収集されるデータセットの感度や系列の長さを同一にすることで、両スポーツにおいて収集されたデータセットを同一形式として扱うことができる。一方、この場合、ラケットスポーツAおよびBでは、スイング動作に係る種別、すなわちラベルが異なる。このように、本実施形態に係る類似性を有する異なるデータセットとは、例えば、上記の例のラケットスポーツの例にように、関節の動きなどの、共通背景を有するデータセットにおいて、それぞれラベリングルールが異なるものを指す。
図18は、本実施形態に係る類似性を有する異なる2つ以上のデータセットを用いた学習について説明するためのデータフロー図である。図18には、類似性を有する異なる2つのデータセットDS1およびDS2が示されている。ここで、データセットDS1およびDS2は、上述したように、ラケットスポーツAおよびBに係るデータであり得る。この場合、例えば、本実施形態に係る学習部410は、学習機能Fun1により、データセットDS1およびDS2に基づいて、ラケットスポーツAに係るスイング種別判別の学習を行うことができる。この際、例えば、学習部410は、ラケットスポーツBに付与されているラベルを使用せずに、ラケットスポーツBのデータをラベルなしデータとして半教師学習に用いてもよい。また、認識器出力部420は、認識器出力機能Fun2により、学習結果として得られたラケットスポーツAのスイング動作に係る認識器RM1を出力する。
以上、本実施形態に係る類似性を有する異なるデータセットに基づく学習について説明した。なお、本実施形態に係る類似性を有する異なるデータセットには、例えば、ラベリングルールの異なる元々同種のデータセットが含まれてよい。例えば、当初は3クラスによる識別を行っていた学習において、詳細化によりクラス数を9に増やした場合、各クラス数による学習に用いられるデータセットは、類似性を有する異なるデータセットといえる。
また、類似する認識対象であるものの一方のデータセットに対するラベリングが困難な場合も、本実施形態では、各データセットを、類似性を有する異なるデータセットとして扱うことができる。例えば、人間のバイタル情報から感情のラベルを取得したい場合において、プライバシー保護などの理由からデータを収集するのが困難な場合、動物のバイタル情報を用いてデータを割増し、学習を行うことが可能である。この場合、動物のバイタルデータは取得できても感情のラベルは取得が困難なため、半教師学習のようなラベルなしデータトラベルありデータを混在して学習する手法が必要である。また、このような例の他にも、ラベルを収集できない、あるいは、収集が困難なタスクに対し、計算機シミュレーションでラベル付きデータを擬似的に収集してもよい。
なお、図18を用いた説明では、一方のデータセットのラベルを使用せずにラベルなしデータとして用いる場合を例に述べたが、本実施形態に係る学習部410は、例えば、両方のデータセットのラベルを用いて半教師学習を行ってもよい。また、両方のデータセットのラベルを使用せずにデータ分布を調べ、両データセットの分布の類似性などを比較することも可能である。
<<1.14.情報処理サーバ20の動作の流れ>>
次に、本実施形態に係る情報処理サーバ20の動作の流れについて詳細に説明する。図19は、情報処理サーバ20の動作の流れを示すフローチャートである。
図19を参照すると、まず、情報処理サーバ20の通信部270は、データ収集装置10からデータセットを受信する(S1101)。
次に、学習データ入力部210は、ステップS1101で受信したデータセットに次元削減を目的とする加工を施し、加工後のデータを学習データとしてデータ分布提示部220に入力する(S1102)。この際、学習データ入力部210は、上述したとおり、PCA、AutoEncoder、VAEなどの手法を用いて上記の加工を行うことができる。
次に、データ分布提示部220は、ステップS1102で次元削減された学習データに基づいてデータ分布図を生成する(S1103)。この際、本実施形態に係るデータ分布提示部220は、MDSやtSNEなどの手法を用いて次元圧縮を行ってもよい。また、表示制御部260は、ステップS1103において生成されたデータ分布図をインターフェースIF1上に表示させる。
次に、ラベリング候補選択部230は、ステップS1103において生成されたデータ分布図に基づいて、学習データからラベリング候補を選択する(S1104)。この際、本実施形態に係るラベリング候補選択部230は、データ分布図においてクラスタの重心付近に位置する学習データをラベリング候補として選択してもよい。また、表示制御部260は、ステップS1104において選択されたラベリング候補をユーザインタフェースIF1上に表示させる。
次に、ラベリング実行部240は、ユーザインタフェースIF1上に表示されるデータ分布図において選択された学習データと入力値とに基づいて、当該学習データのラベリングを行う(S1105)。
次に、学習性能予測部250は、データ分布提示部220が生成するデータ分布図と学習データに係るラベリング状況とに基づいて、学習装置40の学習性能を予測する(S1106)。
以上、本実施形態に係る情報処理サーバ20の動作の流れについて説明した。なお、上記では、学習性能予測部250が、学習データのラベリングが行われたことに基づいて、学習性能を予測する場合を例に述べたが、上述したとおり、本実施形態に係る学習性能予測部250は、ラベリングが行われていない場合であっても、学習性能の予測を行うことができる。
<2.第2の実施形態>
<<2.1.第2の実施形態の概要>>
次に、本開示の第2の実施形態について説明する。ここでは、まず、本開示の第2の実施形態の概要について述べる。上記における第1の実施形態の説明では、情報処理サーバ20が、データ収集装置10により収集、蓄積されたデータセットに基づいて種々の処理を行う場合について述べた。一方、本開示の第2の実施形態に係る情報処理サーバ20は、逐次収集されるデータに基づいて処理を行うことを特徴の一つとする。より具体的には、本実施形態に係る学習性能予測部250は、生成したデータ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う機能を有する。また、本実施形態に係る表示制御部260は、学習性能予測部250によるラベリングの要否判定に基づいて、新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる機能を有する。以下、本実施形態に係る情報処理サーバ20が有する上記の機能について詳細に説明する。
<<2.2.情報処理サーバ20の機能構成例>>
まず、本実施形態に係る情報処理サーバ20の機能構成例について説明する。ここでは、第1の実施形態に係る情報処理サーバ20との差異について中心に述べ、重複する機能については説明を省略する。
(学習データ入力部210)
本実施形態に係る学習データ入力部210は、データ収集装置10により逐次収集されるデータを学習データとしてデータ分布提示部220に入力する。なお、本実施形態に係るデータ収集装置10は、例えば、ユーザの有するスマートフォンやタブレット、PC、携帯電話などであってよい。
(データ分布提示部220)
本実施形態に係るデータ分布提示部220は、学習データ入力部210により逐次入力される学習データに基づいてデータ分布図を生成する。
(学習性能予測部250)
本実施形態に係る学習性能予測部250は、データ分布提示部220により生成されたデータ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う。本実施形態に係る学習性能予測部250が有する上記の機能については、別途詳細に説明する。
(表示制御部260)
本実施形態に係る表示制御部260は、学習性能予測部250によるラベリングの要否判定に基づいて、新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる。
図20は、表示制御部260がデータ収集装置10の出力部140に表示させるユーザインタフェースの一例である。上述したように、本実施形態に係るデータ収集装置10は、ユーザが所持する種々の情報処理端末であってよい。なお、図20は、収集されるデータが位置情報である場合の表示例を示している。図20に示すように、本実施形態に係る表示制御部260は、新たに入力された学習データに対するラベリングを促すウィンドウW1を表示させることができる。また、この際、表示制御部260は、図20に示すように、ユーザによるラベリングを補助するためのボタンb1〜b3を表示させてもよい。
なお、図20の一例では、表示制御部260がユーザに位置を選択させるメッセージを表示させる場合を示しているが、表示制御部260は、例えば、「ここは、Homeですか?」、などメッセージを表示させることもできる。また、図20には示していないが、表示制御部260は、キャンセルボタンなどをユーザインタフェースに配置してもよい。
(ラベリング実行部240)
本実施形態に係るラベリング実行部240は、表示制御部260により表示制御されるユーザインタフェースにおいて、ユーザが入力した情報に基づいて学習データのラベリングを行う機能を有する。すなわち、本実施形態に係るラベリング実行部240は、ユーザがラベルの入力を行った場合には、該当する学習データをラベル付きのデータセットへ追加し、ラベリングの入力が行われない場合には、上記の学習データをラベルなしのデータセットへと追加する。
<<2.3.ラベリングの要否判定>>
ここで、本実施形態に係るラベリングの要否判定について説明する。上述したとおり、本実施形態に係る学習性能予測部250は、データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う機能を有する。
図21は、本実施形態に係るラベリングの要否判定について説明するための図である。図21には、判定時の前日におけるデータ分布図F3aと、判定時におけるデータ分布図F3bとが示されている。ここで、前日におけるデータ分布図F3aには、不明なクラスタFが生成されたとする。この際、判定時におけるデータ分布図F3bにおいて、新たに入力された学習データNP1が上記のクラスタFに該当する場合、学習性能予測部250は、学習データNP1に対するラベリングが必要であると判定する。すなわち、本実施形態に係る情報処理サーバ20は、新たに入力された学習データが学習性能の向上に寄与するか否かを判定し、当該学習データが性能向上に寄与すると判定した場合には、当該学習データに対するラベリングをユーザに促すことができる。本実施形態に係る情報処理サーバ20が有する上記の機能によれば、ユーザの負担を軽減しながらも、適切なタイミングでラベリングを要求することができる。
なお、図22は、本実施形態に係るデータの収集とラベルの追加に係るタイミングを示す図である。図22に示すように、本実施形態では、データが逐次収集される一方、ラベルの追加頻度は次第に減少していくことが予想される。このため、初期においては、ユーザによるラベルの追加負荷がある場合であっても、当該負荷は徐々に減少していくことが期待される。
以上、本実施形態に係るラベリングの要否判定について説明した。なお、ユーザによるラベルの入力が行われない場合にあっては、学習装置40は、当該ラベルなしの学習データを必ずしも学習に用いなくてもよい。この際、学習装置40は、ストレージなどへの負荷を軽減するために学習済みのラベルなしデータを消去してもよいし、現在のモデルにおけるパラメータを初期値に戻す処理を行ってもよい。また、学習装置40は、まだ使用していないラベルなしデータのみで学習を行うこともできる。
また、一方、学習装置40は、学習の精度を維持するために、学習済みのラベルなしデータは可能な限り保存してもよいし、上記のパラメータを毎度初期化してもよい。また、学習装置40は、ランダムに選択したラベルなしデータを用いて学習を行うこともできる。本実施形態に係る学習装置40は、上記に挙げた例の組み合わせや、その他の基準により選択した学習データを用いて学習を行うことが可能である。
<<2.4.情報処理サーバ20の動作の流れ>>
次に、本実施形態に係る情報処理サーバ20の動作の流れについて詳細に説明する。図23は、本実施形態に係る情報処理サーバ20の動作の流れを示すフローチャートである。
図23を参照すると、まず、情報処理サーバ20の学習データ入力部210は、逐次収集されるデータをデータ分布提示部220に入力する(S1201)。
次に、データ分布提示部220は、ステップS1201で入力されるデータに基づいて、データ分布図を生成する(S1202)。
次に、学習性能予測部250は、データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う(S1203)。
ここで、学習性能予測部250によりラベリングが必要であると判定された場合、表示制御部260は、ユーザにラベリングを要求するユーザインタフェースをデータ収集装置10に表示させる(S1204)。
次に、ラベリング実行部240は、ユーザによるラベルの入力情報に基づいて、データセットを更新し(S1205)、情報処理サーバ20は一連の処理を終了する。
<3.ハードウェア構成例>
次に、本開示に係るデータ収集装置10、情報処理サーバ20、情報処理端末30及び学習装置40に共通するハードウェア構成例について説明する。図24は、本開示に係るデータ収集装置10、情報処理サーバ20、情報処理端末30及び学習装置40のハードウェア構成例を示すブロック図である。図14を参照すると、本開示に係る上記の各装置は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<4.まとめ>
以上説明したように、本開示に係る情報処理サーバ20は、入力される学習データに基づいてデータ分布図を生成し、ユーザにデータの分布状況を可視化して提示することができる。また、本開示に係る情報処理サーバ20は、生成したデータ分布図に基づいて、学習性能を予測し、当該予想の結果をユーザに提示することができる。また、情報処理サーバ20は、学習性能の向上に寄与する学習データを選択し、当該学習データをユーザに提示することができる。係る構成によれば、学習データのラベリング状況に応じた学習性能を予め予測することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書の情報処理サーバ20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理サーバ20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、
前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、
を備え、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理装置。
(2)
前記学習性能予測部は、単一のクラスタのみに属するラベル付きの学習データが存在する場合、当該クラスタのみに属するラベルのない学習データは、当該ラベル付きデータと同一のクラスに分類されると予測する、
前記(1)に記載の情報処理装置。
(3)
前記学習性能予測部は、あるクラスタにおいて、当該クラスタのみに属するラベル付きの学習データが存在しない場合、当該クラスタのみに属するラベルのない学習データが正しいクラスに分類される確率は、全クラスタ数の逆数に比例すると予測する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記学習性能予測部は、クラスタの共通部分に属するラベルのない学習データが正しいクラスに分類される確率は、前記共通部分を形成するクラスタ数の逆数に比例すると予測する、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記学習性能予測部は、すべてのクラスタにおいて、各クラスタのみに属するラベル付き学習データが存在する場合の学習性能を、最大学習性能として予測し、
前記表示制御部は、クラスタ数と前記最大学習性能とを関連付けて表示させる、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記データ分布提示部は、クラスタ数の異なる複数の前記データ分布図を生成し、
前記学習性能予測部は、複数の前記データ分布図に基づいて、各クラスタ数における前記最大学習性能を予測し、
前記表示制御部は、各クラスタ数における前記最大学習性能の比較を表示させる、
前記(5)に記載の情報処理装置。
(7)
前記学習性能予測部は、前記クラスタ数と当該クラスタ数における前記最大学習性能とに基づいて最適クラスタ数を決定し、
前記データ分布提示部は、前記最適クラスタ数に基づいて前記データ分布図を生成する、
前記(6)に記載の情報処理装置。
(8)
前記データ分布図に基づいて、前記学習データからラベリング候補を選択するラベリング候補選択部、
をさらに備え、
前記ラベリング候補選択部は、前記クラスタの重心付近に位置する学習データを前記ラベリング候補として選択し、
前記表示制御部は、前記ラベリング候補を表示させる、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記データ分布図において選択された学習データと入力値とに基づいて、当該当該学習データのラベリングを行うラベリング実行部、
をさらに備える、
前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記表示制御部は、選択された学習データに基づいて、当該学習データに対応する参照情報を表示させる、
前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記参照情報と、前記参照情報に同期した付随データとを関連付けて表示させる、
前記(10)に記載の情報処理装置。
(12)
前記学習性能予測部は、前記データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う、
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
前記表示制御部は、前記学習性能予測部による前記ラベリングの要否判定に基づいて、前記新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる、
前記(12)に記載の情報処理装置。
(14)
前記学習データに基づく学習を行う学習部、
をさらに備える、
前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記学習部は、類似性を有する異なる2つ以上のデータセットを用いて前記学習を行う、
前記(14)に記載の情報処理装置。
(16)
前記類似性を有する異なる2つ以上のデータセットは、互いにラベリングルールの異なるデータセットである、
前記(15)に記載の情報処理装置。
(17)
前記学習部は、半教師学習またはドメイン適応による学習を行う、
前記(14)〜(16)のいずれかに記載の情報処理装置。
(18)
前記学習データに対する次元削減を行い、前記データ分布提示部に入力する学習データ入力部、
をさらに備える、
前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
前記学習性能予測部は、前記学習データのラベリングが実行されたことに基づいて、前記学習性能を予想する、
前記(1)〜(18)のいずれかに記載の情報処理装置。
(20)
プロセッサが、
入力される学習データに基づく次元圧縮を行い、前記学習データに係るデータ分布図を生成することと、
前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測することと、
前記データ分布図および前記学習性能に係る表示を制御することと、
を含み、
前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
情報処理方法。
10 データ収集装置
110 入力部
120 センサ部
130 記憶部
140 出力部
150 通信部
20 情報処理サーバ
210 学習データ入力部
220 データ分布提示部
230 ラベリング候補選択部
240 ラベリング実行部
250 学習性能予測部
260 表示制御部
270 通信部
30 情報処理端末
310 入力部
320 出力部
330 通信部
40 学習装置
410 学習部
420 認識器出力部
430 通信部

Claims (20)

  1. 入力される学習データに対する次元圧縮を行い、前記学習データに係るデータ分布図を生成するデータ分布提示部と、
    前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測する学習性能予測部と、
    前記データ分布図および前記学習性能に係る表示を制御する表示制御部と、
    を備え、
    前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
    情報処理装置。
  2. 前記学習性能予測部は、単一のクラスタのみに属するラベル付きの学習データが存在する場合、当該クラスタのみに属するラベルのない学習データは、当該ラベル付きデータと同一のクラスに分類されると予測する、
    請求項1に記載の情報処理装置。
  3. 前記学習性能予測部は、あるクラスタにおいて、当該クラスタのみに属するラベル付きの学習データが存在しない場合、当該クラスタのみに属するラベルのない学習データが正しいクラスに分類される確率は、全クラスタ数の逆数に比例すると予測する、
    請求項1に記載の情報処理装置。
  4. 前記学習性能予測部は、クラスタの共通部分に属するラベルのない学習データが正しいクラスに分類される確率は、前記共通部分を形成するクラスタ数の逆数に比例すると予測する、
    請求項1に記載の情報処理装置。
  5. 前記学習性能予測部は、すべてのクラスタにおいて、各クラスタのみに属するラベル付き学習データが存在する場合の学習性能を、最大学習性能として予測し、
    前記表示制御部は、クラスタ数と前記最大学習性能とを関連付けて表示させる、
    請求項1に記載の情報処理装置。
  6. 前記データ分布提示部は、クラスタ数の異なる複数の前記データ分布図を生成し、
    前記学習性能予測部は、複数の前記データ分布図に基づいて、各クラスタ数における前記最大学習性能を予測し、
    前記表示制御部は、各クラスタ数における前記最大学習性能の比較を表示させる、
    請求項5に記載の情報処理装置。
  7. 前記学習性能予測部は、前記クラスタ数と当該クラスタ数における前記最大学習性能とに基づいて最適クラスタ数を決定し、
    前記データ分布提示部は、前記最適クラスタ数に基づいて前記データ分布図を生成する、
    請求項6に記載の情報処理装置。
  8. 前記データ分布図に基づいて、前記学習データからラベリング候補を選択するラベリング候補選択部、
    をさらに備え、
    前記ラベリング候補選択部は、前記クラスタの重心付近に位置する学習データを前記ラベリング候補として選択し、
    前記表示制御部は、前記ラベリング候補を表示させる、
    請求項1に記載の情報処理装置。
  9. 前記データ分布図において選択された学習データと入力値とに基づいて、当該当該学習データのラベリングを行うラベリング実行部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  10. 前記表示制御部は、選択された学習データに基づいて、当該学習データに対応する参照情報を表示させる、
    請求項9に記載の情報処理装置。
  11. 前記表示制御部は、前記参照情報と、前記参照情報に同期した付随データとを関連付けて表示させる、
    請求項10に記載の情報処理装置。
  12. 前記学習性能予測部は、前記データ分布図と新たに入力された学習データとに基づいて、当該学習データに係るラベリングの要否判定を行う、
    請求項1に記載の情報処理装置。
  13. 前記表示制御部は、前記学習性能予測部による前記ラベリングの要否判定に基づいて、前記新たに入力された学習データのラベリングを促すユーザインタフェースを表示させる、
    請求項12に記載の情報処理装置。
  14. 前記学習データに基づく学習を行う学習部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  15. 前記学習部は、類似性を有する異なる2つ以上のデータセットを用いて前記学習を行う、
    請求項14に記載の情報処理装置。
  16. 前記類似性を有する異なる2つ以上のデータセットは、互いにラベリングルールの異なるデータセットである、
    請求項15に記載の情報処理装置。
  17. 前記学習部は、半教師学習またはドメイン適応による学習を行う、
    請求項14に記載の情報処理装置。
  18. 前記学習データに対する次元削減を行い、前記データ分布提示部に入力する学習データ入力部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  19. 前記学習性能予測部は、前記学習データのラベリングが実行されたことに基づいて、前記学習性能を予想する、
    請求項1に記載の情報処理装置。
  20. プロセッサが、
    入力される学習データに基づく次元圧縮を行い、前記学習データに係るデータ分布図を生成することと、
    前記データ分布図と前記学習データに係るラベリング状況とに基づいて、学習性能を予測することと、
    前記データ分布図および前記学習性能に係る表示を制御することと、
    を含み、
    前記データ分布図は、前記学習データから構成されるクラスタの重なり情報、および各クラスタに属する前記学習データの数の情報を含む、
    情報処理方法。
JP2018547148A 2016-10-26 2017-08-18 情報処理装置および情報処理方法 Active JP6911866B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016209332 2016-10-26
JP2016209332 2016-10-26
PCT/JP2017/029691 WO2018079020A1 (ja) 2016-10-26 2017-08-18 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018079020A1 true JPWO2018079020A1 (ja) 2019-09-12
JP6911866B2 JP6911866B2 (ja) 2021-07-28

Family

ID=62023363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547148A Active JP6911866B2 (ja) 2016-10-26 2017-08-18 情報処理装置および情報処理方法

Country Status (5)

Country Link
US (1) US11610148B2 (ja)
EP (1) EP3534303A4 (ja)
JP (1) JP6911866B2 (ja)
CN (1) CN109844777A (ja)
WO (1) WO2018079020A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3531730B1 (en) * 2014-06-30 2021-08-11 Huawei Technologies Co., Ltd. Terminal management method and network device
US11171977B2 (en) * 2018-02-19 2021-11-09 Nec Corporation Unsupervised spoofing detection from traffic data in mobile networks
US11763188B2 (en) * 2018-05-03 2023-09-19 International Business Machines Corporation Layered stochastic anonymization of data
US10635939B2 (en) * 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
JP6952660B2 (ja) * 2018-08-28 2021-10-20 株式会社東芝 更新支援装置、更新支援方法およびプログラム
US20210358564A1 (en) * 2018-10-23 2021-11-18 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Active Transfer Learning with Deep Featurization
JP7353032B2 (ja) 2018-11-15 2023-09-29 株式会社Preferred Networks データ生成装置、データ生成方法及びプログラム
CN111241571B (zh) * 2018-11-28 2023-08-01 创新工场(北京)企业管理股份有限公司 一种数据共享方法及模型系统、存储介质
JP6860602B2 (ja) * 2019-02-26 2021-04-14 三菱Ufj信託銀行株式会社 汎用人工知能装置及び汎用人工知能プログラム
US11494690B2 (en) 2019-03-15 2022-11-08 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method of high dimensional data analysis in real-time
KR102213460B1 (ko) * 2019-03-18 2021-02-08 주식회사 위젯누리 머신러닝을 이용한 소프트웨어 화이트리스트 생성 시스템 및 방법
JP7195187B2 (ja) * 2019-03-19 2022-12-23 ヤフー株式会社 推定装置、推定方法及び推定プログラム
JP7183904B2 (ja) * 2019-03-26 2022-12-06 日本電信電話株式会社 評価装置、評価方法、および、評価プログラム
US20220335085A1 (en) * 2019-07-30 2022-10-20 Nippon Telegraph And Telephone Corporation Data selection method, data selection apparatus and program
CN110636066B (zh) * 2019-09-24 2021-10-19 中国民航大学 基于无监督生成推理的网络安全威胁态势评估方法
CN115176277A (zh) 2020-03-04 2022-10-11 三菱电机株式会社 标注装置以及学习装置
WO2022113274A1 (ja) * 2020-11-27 2022-06-02 日本電信電話株式会社 時系列データ分析装置、時系列データ分析方法、及び時系列データ分析プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100274539A1 (en) * 2009-04-24 2010-10-28 Hemant VIRKAR Methods for mapping data into lower dimensions
WO2015033431A1 (ja) * 2013-09-06 2015-03-12 Necソリューションイノベータ株式会社 アノテーション装置及びアノテーションシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412425B2 (en) * 2005-04-14 2008-08-12 Honda Motor Co., Ltd. Partially supervised machine learning of data classification based on local-neighborhood Laplacian Eigenmaps
US20070150802A1 (en) * 2005-12-12 2007-06-28 Canon Information Systems Research Australia Pty. Ltd. Document annotation and interface
WO2008154029A1 (en) * 2007-06-11 2008-12-18 The Trustees Of Columbia University In The City Of New York Data classification and hierarchical clustering
US7740547B2 (en) * 2007-07-31 2010-06-22 Bridgestone Sports Co., Ltd. Multi-piece solid golf ball
WO2010030794A1 (en) * 2008-09-10 2010-03-18 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
JP2013520714A (ja) * 2009-10-23 2013-06-06 コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ 高次元データ空間内のテストデータのクラスを評価するための方法およびシステム
US8417651B2 (en) * 2010-05-20 2013-04-09 Microsoft Corporation Matching offers to known products
US8311973B1 (en) * 2011-09-24 2012-11-13 Zadeh Lotfi A Methods and systems for applications for Z-numbers
KR102274069B1 (ko) * 2014-10-30 2021-07-06 삼성에스디에스 주식회사 예측 모델 생성 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100274539A1 (en) * 2009-04-24 2010-10-28 Hemant VIRKAR Methods for mapping data into lower dimensions
WO2015033431A1 (ja) * 2013-09-06 2015-03-12 Necソリューションイノベータ株式会社 アノテーション装置及びアノテーションシステム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LUGHOFER, EDWIN: "Hybrid active learning for reducing the annotation effort of operators in classification systems", PATTERN RECOGNITION, vol. Volume 45, Issue 2, JPN6021021945, February 2012 (2012-02-01), pages 884 - 896, ISSN: 0004524376 *
竹内正明、外3名: "距離の再定義を伴う事例選択を用いたタンパク質機能情報文抽出方式", 情報処理学会研究報告 2009-BIO-16, vol. 2009, no. 25, JPN6017037441, 26 February 2009 (2009-02-26), JP, pages 9 - 12, ISSN: 0004524375 *

Also Published As

Publication number Publication date
JP6911866B2 (ja) 2021-07-28
CN109844777A (zh) 2019-06-04
US20190244132A1 (en) 2019-08-08
EP3534303A1 (en) 2019-09-04
WO2018079020A1 (ja) 2018-05-03
EP3534303A4 (en) 2019-11-06
US11610148B2 (en) 2023-03-21

Similar Documents

Publication Publication Date Title
WO2018079020A1 (ja) 情報処理装置および情報処理方法
US11763580B2 (en) Information processing apparatus, information processing method, and program
US10593322B2 (en) Electronic device and method for controlling the same
TW202131281A (zh) 圖像處理方法及圖像處理裝置、電子設備和電腦可讀儲存媒介
US10521723B2 (en) Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
EP3523710B1 (en) Apparatus and method for providing a sentence based on user input
US20110176725A1 (en) Learning apparatus, learning method and program
US11881209B2 (en) Electronic device and control method
KR20190096876A (ko) 음성인식 성능 향상을 위한 비 지도 가중치 적용 학습 시스템 및 방법, 그리고 기록 매체
KR102628042B1 (ko) 연락처 정보를 추천하는 방법 및 디바이스
US11825278B2 (en) Device and method for auto audio and video focusing
US20210182558A1 (en) Apparatus for generating user interest information and method therefor
US10762902B2 (en) Method and apparatus for synthesizing adaptive data visualizations
WO2020241467A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20200080418A (ko) 단말기 및 그의 동작 방법
US10917721B1 (en) Device and method of performing automatic audio focusing on multiple objects
KR20190061824A (ko) 전자장치 및 그 제어 방법
WO2016189905A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20200234187A1 (en) Information processing apparatus, information processing method, and program
WO2020170986A1 (ja) 情報処理装置、方法及びプログラム
KR20210048270A (ko) 복수 객체에 대한 오디오 포커싱 방법 및 장치
KR102337678B1 (ko) 그래프 유사 여부를 분석하기 위하여 기계학습을 이용한 전자 장치 및 그 제어 방법
EP4096209A1 (en) Information processing device, information processing method, and information processing program
Rustam et al. Home Automation-Based Health Assessment Along Gesture Recognition via Inertial Sensors
Sharma Gesture Recognition Using Tensor flow, Opencv and Python.

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R151 Written notification of patent or utility model registration

Ref document number: 6911866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151