JPWO2019035364A1 - プログラム、情報処理方法、および情報処理装置 - Google Patents

プログラム、情報処理方法、および情報処理装置 Download PDF

Info

Publication number
JPWO2019035364A1
JPWO2019035364A1 JP2019536728A JP2019536728A JPWO2019035364A1 JP WO2019035364 A1 JPWO2019035364 A1 JP WO2019035364A1 JP 2019536728 A JP2019536728 A JP 2019536728A JP 2019536728 A JP2019536728 A JP 2019536728A JP WO2019035364 A1 JPWO2019035364 A1 JP WO2019035364A1
Authority
JP
Japan
Prior art keywords
network
learning
data
data set
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019536728A
Other languages
English (en)
Other versions
JP7207309B2 (ja
Inventor
井手 直紀
直紀 井手
由幸 小林
由幸 小林
章 中村
章 中村
愉希夫 大渕
愉希夫 大渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019035364A1 publication Critical patent/JPWO2019035364A1/ja
Application granted granted Critical
Publication of JP7207309B2 publication Critical patent/JP7207309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本技術は、ネットワークの設計を容易に行うことができるようにするプログラム、情報処理方法、および情報処理装置に関する。
本技術の一側面のプログラムは、コンピュータを、学習用のデータを含むデータセットが指定されることに応じて、データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、学習用のデータを学習用ネットワークに入力し、推論実行用ネットワークの学習を行う学習部として機能させるためのプログラムである。本技術は、Deep Learningによるネットワークの設計を支援するプログラムに適用することができる。

Description

本技術は、プログラム、情報処理方法、および情報処理装置に関し、特に、ネットワークの設計を容易に行うことができるようにしたプログラム、情報処理方法、および情報処理装置に関する。
従来、Deep Learningのネットワーク(ニューラルネットワーク)の設計では、最終層やロス関数を、解きたい問題の種別に応じて設計者が決める必要があった。これらの設計には、例えば、回帰問題であれば二乗誤差を用いる、分類問題であればクロスエントロピーロスを用いる、などの定石と言えるような設計がある。
設計の定石は、回帰問題・分類問題によるものに限られない。例えば、メトリック学習であれば、シャミーズ(Siamese)ネットワークやトリプレット(Triplet)ネットワークを用いるといった定石がある。また、生成モデルを作成するのであれば、その学習に変分オートエンコーダ(VAE(Variational Auto Encoder))やGAN(Generative Adversarial Network)を用いる、半教師学習であれば、VAT(Virtual Adversarial Training)を用いる、といった定石がある。
TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems <URL: https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/45166.pdf>
上述したようなロス関数の選択や学習ネットワークの構造の選択は、設計者の知識に依存するところが大きい。従って、知識がない設計者にとっては、それらの選択が、適切なネットワークを設計するための大きな障害となる。
本技術はこのような状況に鑑みてなされたものであり、ネットワークの設計を容易に行うことができるようにするものである。
本技術の一側面のプログラムは、コンピュータを、学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部として機能させるためのプログラムである。
本技術の一側面においては、学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークが生成され、前記学習用のデータを前記学習用ネットワークに入力して、前記推論実行用ネットワークの学習が行われる。
本技術によれば、ユーザは、ネットワークの設計を容易に行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係るプログラムを提供する提供システムの構成例を示す図である。 ネットワーク設計支援プログラムの表示画面の例を示す図である。 ネットワークの構造を示す図である。 学習の例を示す図である。 PCの構成例を示すブロック図である。 PCの機能構成例を示すブロック図である。 ネットワーク自動生成処理について説明するフローチャートである。 回帰問題におけるデータセットの第1の例を示す図である。 回帰問題におけるデータセットの第2の例を示す図である。 予測器と学習器の例を示す図である。 分類問題におけるデータセットの第1の例を示す図である。 分類問題におけるデータセットの第2の例を示す図である。 二値分類問題における分類器と学習器の例を示す図である。 多値分類問題における分類器と学習器の例を示す図である。 ネットワークの定石の設計をまとめて示す図である。 特徴抽出器とSiameseロスを用いた学習器の例を示す図である。 特徴抽出器とTripletロスを用いた学習器の例を示す図である。 メトリック学習におけるデータセットの第1の例を示す図である。 メトリック学習におけるデータセットの第2の例を示す図である。 分類器と学習器の例を示す図である。 ノイズ計算ネットワークの例を示す図である。 予測器と学習器の例を示す図である。 生成器とVAEを用いた学習器の例を示す図である。 生成器とGANを用いた学習器の例を示す図である。 図7のステップS2において行われる問題推定処理について説明するフローチャートである。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.ネットワークの自動生成機能
2.PCの構成と動作
3.各問題に応じたネットワークの具体例
4.その他
<<1.ネットワークの自動生成機能>>
<1−1.ネットワーク設計支援プログラムについて>
図1は、本技術の一実施形態に係るプログラムを提供する提供システムの構成例を示す図である。
図1に示す提供システムは、PC1と提供サーバ2が、インターネットなどのネットワーク3を介して接続されることによって構成される。
PC1は、例えば、Deep Learningのためのネットワークを設計する設計者が使用する装置である。PC1には、提供サーバ2が提供するプログラムがインストールされ、そのプログラムを用いてネットワークの設計が行われる。
提供サーバ2が提供するプログラムは、ネットワークの設計を支援するためのプログラムである。以下、適宜、提供サーバ2が提供するプログラムをネットワーク設計支援プログラムという。
ネットワーク設計支援プログラムには、ネットワークを設計するための各種のツールが用意されている。ネットワーク設計支援プログラムのユーザ(設計者)は、ネットワーク設計支援プログラムの機能を利用することにより、ネットワークの設計、学習、評価などを行うことができる。
図2は、ネットワーク設計支援プログラムの表示画面の例を示す図である。
ウィンドウ21の上方にはツールの選択に用いられるボタンが並ぶツールバーが表示され、その下に、選択領域21Aとモデル表示領域21Bが形成される。
縦長帯状の選択領域21Aは、ネットワークを構成する各種のコンポーネントの選択に用いられる領域である。図2の例においては、各コンポーネントが、「IO」、「Loss」、「Parameter」、「Basic」、「Pooling」、「Activation」、「LoopControl」、・・・などのカテゴリ毎に分けて表示されている。
例えば「Loss」のコンポーネントとして、「SquaredError」、「HuberLoss」、「BinaryCrossEntropy」、「SingmoidCrossEntropy」、「SoftmaxCrossEntropy」、「KLmultinominal」が用意されている。また、「Basic」のコンポーネントとして、「Affine」、「Convolution」、「Deconvolution」、「Embed」などの項目が用意されている。「Activation」のコンポーネントとして、「Tanh」、「Sigmoid」、「Abs」などの項目が用意されている。
モデル表示領域21Bは、選択領域21Aに用意されているコンポーネントを用いて設計したネットワークの表示領域である。図2の例においては、「Input」、「Affine」、「Sigmoid」、「BinaryCrossEntropy」の各コンポーネントが順に選択されることによって、各コンポーネントを表すブロック31−1乃至31−4が重ねて表示されている。ブロック31−1乃至31−4は、入力層、線形層、活性化層、ロス関数層を含むネットワーク(学習器)を表す。
学習用データセットを指定し、学習の実行をユーザが指示したとき、このネットワークを用いた学習が行われる。このように、ユーザは、選択領域21Aからコンポーネントを選択することでネットワークの設計を行うことができる。
ネットワーク設計支援プログラムには、ネットワークを用いた推論によってユーザが解こうとしている問題と、ユーザが指定したデータセットに基づいて、ネットワークを自動的に構築する機能が搭載されている。ネットワーク設計支援プログラムには、問題の種類とデータセットの内容に応じた、ネットワークの設計の定石に関する情報が設定されている。
ここで、問題には、例えば以下のような種類の問題が含まれる。
(1)回帰問題
(2)分類問題
(3)メトリック学習(メトリック学習の結果を用いた特徴抽出)
(4)半教師学習(半教師学習の結果を用いた回帰・分類問題)
(5)生成モデル(生成モデルを用いたデータの生成)
このような問題が、ユーザにより指定されることによってネットワーク設計支援プログラムに与えられる。後述するように、データセットなどに基づいてネットワーク設計支援プログラムにより推定されるようにすることも可能である。ユーザが解こうとしている問題の推定がネットワーク設計支援プログラムにより行われる場合、データセットをユーザが指定するだけで、データセットに応じたネットワークが自動的に生成されることになる。
データセットは、学習用データセットと評価用データセットから構成される。データセットが学習用データセットのみからなり、評価用データセットが含まれないこともある。データセットには、例えば以下のようなドメインのデータが含まれる。
(1)画像(動画、静止画)
(2)音声
(3)項目
(4)テキスト
なお、センサデータは、音声と同じドメインのデータとして扱われる。加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、生体センサ(心拍センサ、血圧センサなど)などの各種のセンサにより測定されたセンサデータも、ネットワークの学習などに用いられる。
定石の設計によって自動的に生成されたネットワークは、図2に示すような画面によってユーザに提示される。ユーザは、提示されたネットワークに変更を適宜加えて、所望のネットワークを設計することができる。ネットワーク設計支援プログラムが自動的に生成し、ユーザに提示するネットワークは定番のネットワークであり、それに変更を加えることで所望のネットワークの設計が行われることになる。
このように、解きたい問題とデータセットをインタフェースを介して指定するだけで定番のネットワークを得ることができるため、ユーザは、ネットワークの設計に要する時間を大幅に短縮することができる。
また、ユーザは、ネットワークの設計に関する知識が少ない場合であっても、ネットワークを容易に設計することが可能になる。
<1−2.ネットワークについて>
ここで、ネットワークの基本的な事項について説明する。
図3は、ネットワークの構造を示す図である。
図3の上段に示すように、ニューラルネットワークは、線形層と活性化層を重ね、入力層と出力層を付加することによって構成される。図3の例においては、三層のニューラルネットワークが示されている。
線形層は、変数(ベクトル)の線形変換を行う層である。線形層に対する入力をx、各入力に対する重みをwとすると、出力yは、下式(1)のような、各入力に重みを掛け、バイアスbを足した値として表される。重みwが、学習により最適化する対象のパラメータとなる。
Figure 2019035364
活性化層は、変数の非線形変換を行う層である。活性化層には、学習するパラメータがない(ことが多い)。活性化関数の1つであるSigmoid関数は、下式(2)により表される。
Figure 2019035364
図2のブロック31−1乃至31−4は、このようなネットワークを模式的に示す画像である。
図4は、学習の例を示す図である。
解こうとしている問題が回帰問題である場合、図4の左側に示すような予測器が用いられる。予測器に対する入力をデータx、入力から出力までの変換をまとめて関数fθと表記すると、予測値yは下式(3)により表される。
Figure 2019035364
このような予測器のパラメータの学習は、白抜き矢印の先に示すように、予測器の最終層にロス関数を設けた学習器を用いて行われる。ロスは、予測値と、データのラベル(正解値)との誤差であり、問題に合わせて設定される。図4の例においては、ロス関数として、二乗誤差の演算を行う関数が設定されている。
学習器を用いた学習は、計算したロスの勾配を逆伝搬しつつ、各パラメータに勾配を加えて更新し(勾配法)、ロスを最小化するパラメータを求めるようにして行われる(誤差逆伝搬法)。
<<2.PCの構成と動作>>
<2−1.PCの構成>
図5は、PC1の構成例を示すブロック図である。
CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続される。ドライブ110には、リムーバブルメディア111が接続される。
入力部106は、キーボード、マウスなどにより構成される。入力部106を用いて、問題の指定などの操作が行われる。
出力部107は、ディスプレイ、スピーカなどにより構成される。図2を参照して説明したような画面が、出力部107を構成するディスプレイに表示される。
記憶部108は、ハードディスクや不揮発性のメモリなどにより構成される。記憶部108には、上述したネットワーク設計支援プログラムが記憶される。
通信部109は、ネットワークインタフェースなどにより構成される。ネットワーク設計支援プログラムをダウンロードするための通信などの各種の通信が通信部109において行われる。ネットワーク設計支援プログラムのインストールが通信を介して行われるのではなく、リムーバブルメディア111を介して行われるようにしてもよい。この場合、ネットワーク設計支援プログラムが記憶されたリムーバブルメディア111が、ドライブ110に接続され、読み出される。
以上のような構成を有するPC1においては、CPU101が、記憶部108に記憶されているネットワーク設計支援プログラムをRAM103にロードして実行することにより、ネットワークの設計のための処理が行われる。
図6は、PC1の機能構成例を示すブロック図である。
ネットワーク設計支援プログラムがCPU101により実行されることによって、図6に示す情報処理部131が実現される。図6に示すように、情報処理部131は、問題推定部141、ネットワーク生成部142、提示制御部143、および学習実行部144から構成される。学習用のデータを含むデータセットは、問題推定部141、ネットワーク生成部142、および学習実行部144に入力される。
問題推定部141は、データセットを解析し、ユーザが解こうとしている問題を推定する。問題推定部141により、例えば上述した5種類の問題のうちのいずれかの問題が推定される。問題の推定結果を表す情報はネットワーク生成部142に供給される。解こうとしている問題がユーザにより指定された場合、問題推定部141による問題の推定は行われない。
ネットワーク生成部142は、問題推定部141により推定された問題とデータセットに基づいて、推論器(推論実行用のネットワーク)と学習器(学習用のネットワーク)を生成する。ネットワーク生成部142には、問題とデータセットに応じた定石の設計に関する情報が予め設定されている。ネットワーク生成部142は、ユーザによる操作によらずに、定石の設計を踏まえたネットワークを生成することになる。
なお、問題の推定が問題推定部141により行われない場合、ネットワーク生成部142は、ユーザにより指定された問題とデータセットに基づいて、ネットワークを生成する。ネットワーク生成部142により生成されたネットワークに関する情報は、デフォルトのネットワークに関する情報として提示制御部143と学習実行部144に供給される。
また、ネットワーク生成部142は、デフォルトのネットワークを生成した後、デフォルトのネットワークをユーザによる操作に応じて変更する。変更が加えられたネットワークの情報も提示制御部143と学習実行部144に供給される。
提示制御部143は、ネットワーク生成部142により生成されたネットワークをネットワーク設計支援プログラムの画面に表示させ、ユーザに提示する。ネットワーク設計支援プログラムの画面には、デフォルトのネットワークの情報とともに、ネットワークに変更を加えるための各種のツールを選択するための表示なども設けられる。
学習実行部144は、ユーザにより適宜変更が加えられることによって生成された学習器を用いて学習を実行する。学習実行部144による学習には、データセットに含まれる学習用のデータが用いられる。学習を行うことによって得られた推論器は、PC1が有するアプリケーション、PC1の外部の装置が有するアプリケーションなどに提供され、推論処理に用いられる。
PC1が、ユーザによる操作を受け付けるとともにネットワークの設計を行うための情報をユーザに提示するインタフェースとして機能し、問題の推定、ネットワークの生成、学習の実行などの各機能が提供サーバ2などの外部の装置に用意されるようにしてもよい。この場合、図6に示す構成のうちの少なくとも一部が、外部の装置において実現されることになる。
<2−2.PCの動作>
ここで、図7のフローチャートを参照して、以上のような構成を有する情報処理部131のネットワーク自動生成処理について説明する。
ステップS1において、問題推定部141は、学習用のデータを含むデータセットを取得する。
ステップS2において、問題推定部141は問題推定処理を行う。問題推定処理により、ユーザが解こうとしている問題がデータセットに基づいて推定される。問題推定処理の詳細については後述する。
ステップS3において、ネットワーク生成部142は、データセットと問題に応じた推論器を生成する。
ステップS4において、ネットワーク生成部142は、問題に応じたロス関数を推論器に付加することによって、学習器を生成する。
ステップS5において、提示制御部143は、ネットワーク生成部142により生成された推論器と学習器をデフォルトのネットワークとして、デフォルトのネットワークに関する情報をネットワーク設計支援プログラムの画面に表示させる。
ステップS6において、ネットワーク生成部142は、ユーザの操作に基づいて、提示制御部143により提示されたネットワークの変更を行う。
ステップS7において、学習実行部144は、学習の実行が指示されることに応じて、データセットに含まれる学習用のデータを学習器に入力し、学習を実行する。
ステップS8において、学習実行部144は、学習を行うことによって得られた推論器を外部に出力し、処理を終了させる。
以上のように、問題の推定がネットワーク設計支援プログラムにより行われるため、ユーザは、学習用のデータを含むデータセットを指定するだけで、ネットワークを生成することができる。また、問題の推定が行われない場合においても、ユーザは、問題とデータセットを指定するだけでネットワークを生成することが可能になる。
<<3.各問題に応じたネットワークの具体例>>
ここで、ユーザが解こうとする問題に応じて自動的に生成される推論器と学習器の具体例について説明する。重複する説明については適宜省略する。
<3−1.回帰問題>
回帰問題は、連続値を想定したデータの予測を行うものである。推論器として生成されるネットワークは予測器となる。
・3−1−1.回帰問題における学習の流れ
(1)前提
ユーザは、データを入力して、別のデータ(連続値)を予測する予測器を作りたいとする。このような予測器には、例えば、不動産物件の様々な情報を入力して、不動産物件の価格を予測(査定)する予測器がある。不動産物件の価格の予測の他に、画像から特定の物体の位置(座標)を予測する予測器、音声から音源の位置を推定する予測器、センサデータから他のセンサ値を予測する予測器などがある。
この場合、ユーザは、データと正解値(ラベル)をネットワーク設計支援プログラムに与え、学習を行わせることによって、このような予測器を作ることになる。
(2)事前準備
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
例えば、データ毎に対応するラベルを記録しているファイル、データのファイルとラベルのファイルが保存されたファイルシステムがデータセットとして用意される。
(3)実行
ユーザは、学習用データセットを指定して、予測器の設計をシステム(ネットワーク設計支援プログラム)に指示する。システムにおいては、学習用データセットから、ユーザが解こうとしている問題が回帰問題であるとして推定され、回帰問題における定番の予測器と定番の学習器が生成される。定番の学習器は、定番の予測器に、定番のロス関数を付加することによって生成される。
定番の予測器の構造は、予測に用いるデータのドメインに基づいて特定される。予測に用いるデータのドメインは、学習用データセットに含まれるファイルの拡張子などに基づいて推定される。ドメインがユーザにより入力されるようにしてもよい。
定番のロス関数は、解こうとしている問題が回帰問題であることに基づいて特定される。
自動的に生成された定番の予測器と定番の学習器は、ネットワークのソースコードをディスプレイに表示することによって、または、図2を参照して説明したような、ネットワークのモジュール構成を示す画像を画面に表示することによってユーザに提示される。
ユーザは、提示されたネットワークに対して、必要に応じて変更(例えば、事前知識に基づく変更や、評価に基づく試行錯誤)を加えて、学習の実行を指示する。
システムにおいては、学習用データセットを用いた学習が行われ、予測器が生成される。ユーザは、最後に、学習によって得られた予測器を外部に提供する。
・3−1−2.データセットの例
図8は、データセットの第1の例を示す図である。
図8の例においては、各サンプルのデータにはデータIDが設定され、連続値のラベルが対応付けて管理されている。各データは、項目1、項目2、項目3などの各項目の値から構成される。不動産物件の価格を予測する予測器を作成する場合、項目は、駅からの距離、階数、築年数などの、価格決定に寄与するデータであり、ラベルは、成約価格を表す値(例えば小数値)となる。
このように、項目の値をユーザが直接書き込む場合、データとラベルをまとめた1つのファイルによって学習用データセットが構成されるようにすることができる。
図8に示すような学習用データセットが入力された場合、システムにおいては、例えば、ラベルが整数値でないことに基づいて、ユーザが解こうとしている問題が回帰問題であるとして推定される。解こうとしている問題が回帰問題であることをユーザが指定するようにしてもよい。
また、システムにおいては、各データに項目の値が含まれていることに基づいて、データのドメインが項目として特定される。
図9は、データセットの第2の例を示す図である。
図9のファイルシステムにおいては、学習用データセットとして、ファイル名「data_0」、「data_1」、「data_2」、「data_3」、「data_4」の各ファイルが「ForTraining」のディレクトリに保存されている。各ファイルは、画像や音楽などのファイルである。適宜、ラベルのファイルも保存される。「ForTest」のディレクトリには評価用データセットを構成するファイルが保存される。
このように、ラベルが対応付けられたファイルを保存するファイルシステムによって学習用データセットが構成されるようにすることができる。
図9に示すような学習用データセットが入力された場合、システムにおいては、ファイルシステムの構造に基づいて、ユーザが解こうとしている問題が回帰問題であるとして推定される。例えば、回帰問題であることを表す構造を有するファイルシステムが学習用データセットとして用意される。解こうとしている問題が回帰問題であることをユーザが指定するようにしてもよい。
また、システムにおいては、wav,mp3である場合には音楽、png,jpeg,bmpである場合には静止画、mp4,wmvである場合には動画、txtである場合にはテキストといったように、ファイルの拡張子に基づいてデータのドメインが特定される。
・3−1−3.回帰問題における定番のネットワーク
図10は、予測器と学習器の例を示す図である。
図10の左側に示すように、予測器は、回帰問題における定番の予測器を含むように構成される。定番の予測器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の予測器のネットワークには入力層(x)と出力層(z)が付加される。
一方、図10の右側に示すように、学習器は、定番の予測器に、二乗誤差関数の層を付加して構成される。
太線L1で囲んで示す、予測器における定番の予測器のパラメータと、太線L2で囲んで示す、学習器における定番の予測器のパラメータは共有される。学習によって学習器のパラメータが更新された場合、予測器のパラメータも同様に更新される。
このように、回帰問題においては、定番の予測器に、二乗誤差関数の層を付けて学習器とすることが定石の設計とされる。また、予測器の最終層を、線形層とすることが定石の設計とされる。
線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。例えば、データのドメインが画像または音声である場合には畳み込み層が選択され、項目またはテキストである場合には、全結合層が選択される。図10は、データのドメインが項目またはテキストである場合のデフォルトのネットワークの例を示している。
データのドメインが画像または音声である場合、畳み込み層を含むLenetやResnetなどのネットワークを定番の予測器として採用することが可能である。また、データのドメインが項目またはテキストである場合、Embed層を含むネットワークを定番の予測器として採用することが可能である。
なお、Resnetについては下記の文献に開示されている。
・Deep Residual Learning for Image Recognition <https://arxiv.org/abs/1512.03385>
図10に示すような予測器と学習器が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。2つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の予測器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
<3−2.分類問題>
分類問題は、入力されたデータを、それが属するカテゴリに分類するものである。分類問題は、クラス数が2である二値分類問題と、3以上である多値分類問題に分けられる。推論器として生成されるネットワークは分類器となる。
・3−2−1.分類問題における学習の流れ
(1)前提
ユーザは、データを入力して、そのデータが所属するカテゴリ(離散値)を分類する分類器を作りたいとする。このような分類器には、例えば、花が写る画像を入力して、花の種類毎に分類する分類器、動物が写る画像を入力して、動物の種類毎に分類する分類器がある。
この場合、ユーザは、データとラベルをネットワーク設計支援プログラムに与え、学習を行わせることによって、このような分類器を作ることになる。
(2)事前準備
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
例えば、データ毎に対応するラベルを記録しているファイル、データのファイルがラベル毎に予め分類した形で保存されたファイルシステムがデータセットとして用意される。
(3)実行
ユーザは、学習用データセットを指定して、分類器の設計をシステムに指示する。システムにおいては、学習用データセットから、ユーザが解こうとしている問題が分類問題であるとして推定され、分類問題における定番の分類器と定番の学習器が生成される。定番の学習器は、定番の分類器に、定番のロス関数を付加することによって生成される。
定番の分類器の構造は、分類に用いるデータのドメインに基づいて特定される。分類に用いるデータのドメインは、学習用データセットに含まれるファイルの拡張子などに基づいて推定される。ドメインがユーザにより入力されるようにしてもよい。
定番のロス関数は、解こうとしている問題が分類問題であることに基づいて特定される。
自動的に生成された定番の分類器と定番の学習器は、ネットワークのソースコードをディスプレイに表示することによって、または、ネットワークのモジュール構成を示す画像を画面に表示することによってユーザに提示される。
ユーザは、提示されたネットワークに対して、必要に応じて変更を加えて、学習の実行を指示する。
システムにおいては、学習用データセットを用いた学習が行われ、分類器が生成される。ユーザは、最後に、学習によって得られた分類器を外部に提供する。
・3−2−2.データセットの例
図11は、データセットの第1の例を示す図である。
図11の例においては、各サンプルのデータにはデータIDが設定され、離散値のラベルが対応付けて管理されている。各データは、項目1、項目2、項目3などの各項目の値から構成される。画像に写る花の種類に分類する分類器を作成する場合、項目は、雄しべの数、花弁の数などの、花の種類を特徴付けるデータであり、ラベルは、花の種類を表す整数値となる。
このように、項目の値をユーザが直接書き込む場合、データとラベルをまとめた1つのファイルによって学習用データセットが構成されるようにすることができる。
図11に示すような学習用データセットが入力された場合、システムにおいては、例えば、ラベルが整数値であることに基づいて、ユーザが解こうとしている問題が分類問題であるとして推定される。解こうとしている問題が分類問題であることをユーザが指定するようにしてもよい。
また、システムにおいては、ラベルを表す整数値が2種類以上あることに基づいて、分類問題の中でも、多値分類問題であると推定される。ラベルを表す整数値が2種類である場合、二値分類問題であると推定されることになる。このように、分類問題の場合、分類するカテゴリの数も学習用データセットに基づいて推定される。
図12は、データセットの第2の例を示す図である。
図12のファイルスシステムにおいては、「ForTraining」のディレクトリの下に、「label_0」、「label_1」、「label_2」の各ディレクトリが設定されている。「label_0」のディレクトリにはファイル名「data_0」、「data_1」、「data_2」の各ファイルが保存されている。「label_1」のディレクトリにはファイル名「data_3」のファイルが保存され、「label_2」のディレクトリにはファイル名「data_4」のファイルが保存されている。各ファイルは、画像や音楽などのファイルである。
「label_0」、「label_1」、「label_2」のディレクトリは、それぞれのディレクトリに保存されているファイルのデータのラベルを表す。
このように、ラベルを表すディレクトリ毎に分類してファイルを保存するファイルシステムによって学習用データセットが構成されるようにすることができる。
図12に示すような学習用データセットが入力された場合、システムにおいては、ファイルシステムの構造に基づいて、ユーザが解こうとしている問題が分類問題であり、カテゴリの数が3であるとして推定される。解こうとしている問題が分類問題であることをユーザが指定するようにしてもよい。
また、システムにおいては、ファイルの拡張子に基づいてデータのドメインが特定される。
・3−2−3.分類問題における定番のネットワーク
図13は、二値分類問題における分類器と学習器の例を示す図である。
図13の左側に示すように、分類器は、二値分類問題における定番の分類器を含むように構成される。定番の分類器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の分類器の下の最終層には、ソフト二値分類(確率)を表す出力を得るためにSigmoid関数が設定される。定番の分類器のネットワークには入力層(x)と出力層(z)が付加される。
一方、図13の中央と右側に示すように、学習器#1と学習器#2の2つの学習器が生成される。
学習器#1は、定番の分類器に、Sigmoid関数の層とBinaryCE(バイナリクロスエントロピー)関数の層を付加して構成される。
学習器#2は、定番の分類器に、SigmoidCE関数の層を付加して構成される。このように、実用上、Sigmoid関数とBinaryCE関数の層の代わりに、SigmoidCE関数の層を最終層として用いることも可能である。
太線L11で囲んで示す、分類器における定番の分類器のパラメータと、太線L12,L13で囲んで示す、学習器における定番の分類器のパラメータは共有される。学習によって学習器のパラメータが更新された場合、分類器のパラメータも同様に更新される。
このように、二値分類問題においては、定番の分類器に、Sigmoid関数とBinaryCE関数の層、またはSigmoidCE関数の層を付けて学習器とすることが定石の設計とされる。
線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。例えば、データのドメインが画像または音声である場合には畳み込み層が選択され、項目またはテキストである場合には、全結合層が選択される。
図13に示すような分類器と学習器#1,#2が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。3つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の分類器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
図14は、多値分類問題における分類器と学習器の例を示す図である。
図14の左側に示すように、分類器は、多値分類問題における定番の分類器を含むように構成される。定番の分類器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の分類器の下の最終層には、ソフト多値分類(確率)を表す出力を得るためにSoftmax関数が設定される。定番の分類器のネットワークには入力層(x)と出力層(z)が付加される。
一方、図14の中央と右側に示すように、学習器#1と学習器#2の2つの学習器が生成される。
学習器#1は、定番の分類器の下に、Softmax関数の層とCategoricalCE(カテゴリカルクロスエントロピー)関数の層を付加して構成される。
学習器#2は、定番の分類器の下に、SoftmaxCE関数の層を付加して構成される。このように、実用上、Softmax関数とCategoricalCE関数の層の代わりに、SoftmaxCE関数の層を最終層として用いることも可能である。
太線L21で囲んで示す、分類器における定番の分類器のパラメータと、太線L22,L23で囲んで示す、学習器における定番の分類器のパラメータは共有される。学習によって学習器のパラメータが更新された場合、分類器のパラメータも同様に更新される。
このように、多値分類問題においては、定番の分類器に、Softmax関数とCategoricalCE関数の層、またはSoftmaxCE関数の層を付けて学習器とすることが定石の設計とされる。
線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。例えば、データのドメインが画像または音声である場合には畳み込み層が選択され、項目またはテキストである場合には、全結合層が選択される。
図14に示すような分類器と学習器#1,#2が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。3つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の分類器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
・3−2−4.Feedforwardネットワークの設計
図15は、以上のような、回帰問題と分類問題において用いられるネットワークの定石の設計をまとめて示す図である。図6のネットワーク生成部142は、このような定石の設計に関する情報を有している。
ラベルの型が連続値である場合(ラベルの値が小数値である場合)、回帰問題を解こうとしていることが推定され、ロス関数として二乗誤差関数が選択される。
ラベルの型が離散二値である場合(ラベルの値が2種類の整数値である場合)、二値分類問題を解こうとしていることが推定され、ロス関数として、Sigmoid関数とBinaryCE関数の組み合わせ、またはSigmoidCE関数が選択される。
ラベルの型が離散多値である場合(ラベルの値が3種類以上の整数値である場合)、多値分類問題を解こうとしていることが推定され、ロス関数として、Softmax関数とCategoricalCE関数の組み合わせ、またはSoftmaxCE関数が選択される。
これらのロス関数の層が定番の推論器のネットワークに付加されることによって学習器が自動的に生成され、ユーザに提示される。
また、線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。データのドメインが画像または音声である場合には畳み込み層が選択され、テキストまたは項目である場合には全結合層が選択される。
このように、データのドメインに応じて選択された畳み込み層を含むネットワーク、または全結合層を含むネットワークが、定番の推論器として自動的に生成され、ユーザに提示される。
<3−3.メトリック学習>
メトリック学習(特徴空間学習)は、データの、特徴空間への埋め込み方法を推定する学習である。推論器として生成されるネットワークは特徴抽出器となる。
・3−3−1.メトリック学習の流れ
(1)前提
ユーザは、データを入力して、特徴空間上に射影する特徴抽出器を作りたいとする。特徴抽出器は、例えば、事前登録されているデータと、入力されたデータのマッチング(同じデータであるか違うデータであるかの判定)を行うアプリケーションなどで用いられる。
特徴抽出器を用いることにより、例えば、手書き数字の"2"の画像がラベル無しで入力された時に、太さや傾きなどが近い"2"の画像を選ぶことができる。また、後述するような、所定の対象の識別、認証、トラッキングが可能になる。
この場合、ユーザは、データとラベルをネットワーク設計支援プログラムに与え、メトリック学習を行わせることによって、このような特徴抽出器を作ることになる。
(2)事前準備
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットと評価用データセットにおいては、各データとラベルが対応付けて管理されている。
例えば、分類問題で用いられるデータセットと同様のデータセットがメトリック学習において用いられる。
(3)実行
ユーザは、学習用データセットを指定して、特徴抽出器の設計をシステムに指示する。システムにおいては、メトリック学習を行うことが推定され、メトリック学習における定番の特徴抽出器と定番の学習器が生成される。定番の学習器は、定番の特徴抽出器を含むネットワークに、定番のロス関数を付加することによって生成される。
定番の特徴抽出器の構造は、特徴抽出に用いるデータのドメインに基づいて特定される。特徴抽出に用いるデータのドメインは、学習用データセットに含まれるファイルの拡張子などに基づいて推定される。ドメインがユーザにより入力されるようにしてもよい。
定番のロス関数は、学習手法がメトリック学習であることに基づいて特定される。メトリック学習におけるロスには、SiameseロスとTripletロスがある。なお、ここでは、Tripletロスと対比的に書くため、Siameseネットワークに用いるロスを、便宜的にSiameseロスと呼ぶことにしている。SiameseロスとTripletロスのうちのいずれのロスを用いるのかがシステムにより選択されるようにしてもよいし、ユーザに選択させるようにしてもよい。
自動的に生成された定番の特徴抽出器と定番の学習器は、ネットワークのソースコードをディスプレイに表示することによって、または、ネットワークのモジュール構成を示す画像を画面に表示することによってユーザに提示される。
ユーザは、提示されたネットワークに対して、必要に応じて変更を加えて、学習の実行を指示する。
システムにおいては、学習用データセットを用いた学習が行われ、特徴抽出器が生成される。ユーザは、最後に、学習によって得られた特徴抽出器を外部に提供する。
・3−3−2.メトリック学習における定番のネットワーク
図16は、特徴抽出器とSiameseロスを用いた学習器の例を示す図である。Siameseロスを用いる場合のメトリック学習は、Siameseネットワークとして構成される学習器を用いて行われる。
図16の左側に示すように、特徴抽出器は、定番の特徴抽出器を含むように構成される。定番の特徴抽出器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の特徴抽出器のネットワークには入力層(x)と出力層(z)が付加される。
一方、図16の右側に示すように、学習器としてSiameseネットワークが生成される。Siameseネットワークは、入力が異なる、2つの定番の特徴抽出器を並列に並べることによって構成される。太線L32で囲んで示す定番の特徴抽出器に入力されるデータx_0と、太線L33で囲んで示す定番の特徴抽出器に入力されるデータx_1の組み合わせはランダムでも良いが、同じラベルの組み合わせが十分に出現するように、ランダムネスがコントロールされていることが望ましい。
Siameseネットワークは、2つの定番の特徴抽出器の下に、全結合層(Affine層)とSigmoidCE関数の層を付加して構成される。全結合層に対しては、データx_0とデータx_1のそれぞれの特徴空間上の位置を表すデータが入力される。
なお、SigmoidCE関数の層に入力されるラベル(Same/Different)は、データx_0とデータx_のラベルが同じであるか否かを表す。例えば、ラベルとして与えられる値が0である場合、データx_0とデータx_1のラベルが同じであることを表し、1である場合、データx_0とデータx_1のラベルが異なることを表す。
太線L31で囲んで示す、特徴抽出器における定番の特徴抽出器のパラメータと、太線L32,L33で囲んで示す、Siameseネットワークにおける定番の特徴抽出器のパラメータは共有される。学習によってSiameseネットワークのパラメータが更新された場合、特徴抽出器のパラメータも同様に更新される。
Siameseネットワークによるメトリック学習は、定番の特徴抽出器の出力の距離(|f(x0)-f(x1)|)が、データx_0とデータx_1のラベルが同一ラベルのとき小さくなり、異なるラベルのとき大きくなるパラメータを求めるようにして行われる。
このように、メトリック学習においては、Siameseネットワークが、学習器を構成する定番のネットワークとされる。
線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。例えば、データのドメインが画像または音声である場合には畳み込み層が選択され、項目またはテキストである場合には、全結合層が選択される。
図16に示すような特徴抽出器と学習器が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。2つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の特徴抽出器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
図17は、特徴抽出器とTripletロスを用いた学習器の例を示す図である。Tripletロスを用いる場合のメトリック学習は、Tripletネットワークとして構成される学習器を用いて行われる。
図17の左側に示す特徴抽出器は、図16の特徴抽出器と同じである。
図17の右側に示すように、学習器としてTripletネットワークが生成される。Tripletネットワークは、入力が異なる、3つの定番の特徴抽出器を並列に並べることによって構成される。太線L42で囲んで示す定番の特徴抽出器に入力されるデータx_0と、太線L43で囲んで示す定番の特徴抽出器に入力されるデータx_1は、例えばlabel_0またはlabel_1として同じラベルが設定された、異なるサンプルのデータである。データx_0は、学習用データセットからランダムに選択される。一方、太線L44で囲んで示す定番の特徴抽出器に入力されるデータx_2は、データx_0と異なるラベルが設定されたデータである。
Tripletネットワークは、3つの定番の特徴抽出器のそれぞれの下に、全結合層(Affine層)を付加して構成される。全結合層に対しては、データx_0、データx_1、データx_2のそれぞれの特徴空間上の位置を表すデータが入力される。
各全結合層の下にはTripletロスを求める層が付加される。Tripletロスは、同一ラベルのデータx_0とデータx_1の距離が近いと小さくなり、別ラベルのデータx_0とデータx_2の距離が遠いと小さくなるロスである。Tripletロスは、下式(4)により表される。式(4)のαはマージンと呼ばれるパラメータであり、例えば1が設定される。
Figure 2019035364
太線L41で囲んで示す、特徴抽出器における定番の特徴抽出器のパラメータと、太線L42,L43,L44で囲んで示す、Tripletネットワークにおける定番の特徴抽出器のパラメータは共有される。学習によってTripletネットワークのパラメータが更新された場合、特徴抽出器のパラメータも同様に更新される。
このように、メトリック学習においては、Tripletネットワークが、学習器を構成する定番のネットワークとされる。
線形層を畳み込み層とするのか全結合層とするのかは、特定されたデータのドメインに応じて選択される。例えば、データのドメインが画像または音声である場合には畳み込み層が選択され、項目またはテキストである場合には、全結合層が選択される。
図17に示すような特徴抽出器と学習器が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。2つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の特徴抽出器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
・3−3−3.Siamese/Tripletネットワークを用いたメトリック学習の応用例
メトリック学習を用いることにより、画像や音声等の所定のデータを最初に登録しておき、新たに入力されたデータが、登録済みのデータと同一か否かを判別することが可能になる。このような技術は、例えば顔識別のアプリケーションや物体トラッキングのアプリケーションに用いられる。
顔識別は、入力された顔画像を、事前に登録された顔画像のリストと照合して人物を識別するものである。学習により、顔の特徴のうち、同じ人か別の人かを判別することに寄与する特徴を用いて特徴抽出器が構築される。
メトリック学習を用いた顔識別については、例えば下記の文献に開示されている。
・DeepFace - Closing the Gap to Human-Level Performance in Face Verification, Taigman <https://research.fb.com/publications/deepface-closing-the-gap-to-human-level-performance-in-face-verification/>
・Triplet Similarity Embedding for Face Verification、Sankaranarayanan <https://arxiv.org/abs/1602.03418>
物体トラッキングは、動画を構成するフレームのうちの最初のフレームで指定したオブジェクトを、続くフレームの中から検出するものである。メトリック学習を用いた物体トラッキングについては、例えば下記の文献に開示されている。
・Fully-Convolutional Siamese Networks for Object Tracking, Bertinetto <https://arxiv.org/abs/1606.09549>
なお、Tripletネットワークについては例えば下記の文献に開示されている。
・Deep metric learning using Triplet network, Hoffer <https://arxiv.org/abs/1412.6622>
<3−4.半教師学習>
半教師学習は、ラベルありデータとラベルなしデータを用いた学習である。推論器として生成されるネットワークは、解こうとしている問題が回帰問題である場合には予測器となり、分類問題である場合には分類器となる。回帰問題と分類問題について上述した説明と重複する説明については適宜省略する。
・3−4−1.半教師学習の流れ
(1)前提
ユーザは、ラベルありデータとラベルなしデータを持っていて、別のデータを予測する予測器、または、入力したデータが所属するカテゴリを分類する分類器を作りたいとする。
この場合、ユーザは、ラベルありデータとラベルなしデータをネットワーク設計支援プログラムに与え、半教師学習を行わせることによって、予測器または分類器を作ることになる。
(2)事前準備
ユーザは、データセットを事前に用意しておく。データセットには、学習用データセットと評価用データセットが含まれていることが望ましいが、学習用データセットだけでもよい。学習用データセットには、各データにラベルが対応付けられたラベルありデータセットと、ラベルが対応付けられていないラベルなしデータセットの両方のデータセットが含まれる。評価用データセットには、ラベルありデータセットが含まれる。
例えば、ラベルありデータセットのファイルとラベルなしデータセットのファイルのペア、ラベルありデータセットのファイルとラベルなしデータセットのファイルが区別して保存されたファイルシステムが、データセットとして用意される。
(3)実行
ユーザは、学習用データセットを指定して、ネットワークの設計をシステムに指示する。システムにおいては、学習用データセットから、半教師学習を行うことが推定される。また、システムにおいては、ユーザが解こうとしている問題が、回帰問題であるのか、分類問題であるのかが推定される。
回帰問題であると推定された場合、回帰問題を解くための定番の予測器と定番の学習器が生成される。定番の学習器は、定番の予測器に、定番のロス関数を付加することによって生成される。
また、分類問題であると推定された場合、分類問題を解くための定番の分類器と定番の学習器が生成される。定番の学習器は、定番の分類器に、定番のロス関数を付加することによって生成される。
自動的に生成された定番のネットワークは、ネットワークのソースコードをディスプレイに表示することによって、または、ネットワークのモジュール構成を示す画像を画面に表示することによってユーザに提示される。
ユーザは、提示されたネットワークに対して、必要に応じて変更を加えて、学習の実行を指示する。
システムにおいては、学習用データセットを用いた半教師学習が行われ、予測器または分類器が生成される。ユーザは、最後に、学習によって得られた予測器または分類器を外部に提供する。
・3−4−2.データセットの例
図18は、データセットの第1の例を示す図である。
図18に示すように、半教師学習の場合、ラベルありデータセットとラベルなしデータセットが用意される。左側に示すラベルありデータセットは図8のデータセットと同じであり、各データには、ラベルが対応付けて管理されている。一方、右側に示すラベルなしデータセットにおいては、ラベルが含まれていない。
図18に示すような学習用データセットが入力された場合、システムにおいては、ラベルありデータセットとラベルなしデータセットが学習用データセットに含まれていることに基づいて、半教師学習を行うことが推定される。
また、図18の例では、ラベルが整数値でないことに基づいて、ユーザが解こうとしている問題が回帰問題であるとして推定される。解こうとしている問題をユーザが指定するようにしてもよい。
図19は、データセットの第2の例を示す図である。
左側に示すラベルありデータセットは、図12のデータセットと同じである。ラベルありデータセットからなるファイルシステムにおいて、各ファイルは、ラベルを表すディレクトリに保存されている。
一方、右側に示すラベルなしデータセットは、図9のデータセットと同じである。ラベルなしデータセットからなるファイルシステムにおいて、各ファイルは、ラベルを表すディレクトリ毎に分けるような形ではなく、「ForTraining」のディレクトリに保存されている。
図19に示すようなデータセットが入力された場合、システムにおいては、ラベルありデータセットのファイルシステムとラベルなしデータセットのファイルシステムが学習用データセットに含まれていることに基づいて、半教師学習を行うことが推定される。
また、システムにおいては、ファイルシステムの構造に基づいて、ユーザが解こうとしている問題が分類問題であるとして推定される。解こうとしている問題をユーザが指定するようにしてもよい。
・3−4−3.半教師学習における定番のネットワーク
図20は、分類器と学習器の例を示す図である。
解こうとしている問題が分類問題である場合、図20の左側に示すように、分類器が生成される。分類器は、定番の分類器を含むように構成される。定番の分類器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の分類器の下の最終層には、ソフト多値分類を表す出力を得るためにSoftmax関数が設定される。定番の分類器のネットワークには入力層(x)と出力層(z)が付加される。
なお、図20に示す分類器は、多値分類問題において用いられる図14の分類器と同じネットワークである。解こうとしている問題が二値分類問題である場合、Softmax関数の層に代えて、図13を参照して説明したようにSigmoid関数の層が設定される。
一方、図20の中央と右側に示すように、ラベルありデータ用学習器とラベルなしデータ用学習器の2つの学習器が生成される。半教師学習における学習器は、ラベルありデータ用とラベルなしデータ用とで別のネットワークになっている。
ラベルありデータ用学習器は、図14の学習器#2と同じである。ラベルありデータ用学習器は、定番の分類器に、SoftmaxCE関数の層を付加して構成される。
ラベルなしデータ用学習器は、VAT(Virtual Adversarial Training)と呼ばれるネットワークとして構成される。VATについては、例えば下記の文献に開示されている。
・"Distributional Smoothing with Virtual Adversarial Training, Miyato" <https://arxiv.org/abs/1507.00677>
ラベルなしデータ用学習器であるVATのネットワークは、Siameseネットワークと同じように定番の分類器を並列に配置し、ロスを多項分布用KL(KLMultinomial)としたネットワークである。太線L53で囲んで示す定番の分類器にはデータxが入力され、太線L54で囲んで示す定番の分類器にはデータxとともにノイズnが入力される。VATを用いた半教師学習は、データxの確率分布と、ノイズnを加えたデータxの確率分布が滑らかになるパラメータを求めるようにして行われる。
太線L51で囲んで示す、分類器における定番の分類器のパラメータと、太線L52,L53,L54で囲んで示す、学習器における定番の分類器のパラメータは共有される。学習によって学習器のパラメータが更新された場合、分類器のパラメータも同様に更新される。
このように、半教師学習で分類問題を解く場合には、図14の学習器#2と同じ学習器がラベルありデータ用の学習器とされ、VATのネットワークを含む学習器が、ラベルなしデータ用の学習器とされる。
図20に示すような分類器と学習器が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。3つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の分類器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
なお、VATのネットワークを用いた学習にはノイズnが必要になる。ノイズnを生成するためのネットワークであるノイズ計算ネットワークも、図20に示す3つのネットワークとともに自動的に生成され、ユーザに提示される。
図21は、ノイズ計算ネットワークの例を示す図である。
図21に示すように、ノイズ計算ネットワークは、ラベルなしデータ用のSiameseネットワークを流用したネットワークとされる。太線L61,L62で囲んで示す、ノイズ計算ネットワークにおける定番の分類器のパラメータは、図20の定番の分類器のパラメータと共有される。
ノイズは、ラベルなしデータ用のSiameseネットワークのロスから、ノイズに関する勾配を逆伝搬することによって求められる。この逆伝搬においては、中間層のパラメータの更新を行わないようにするための設定が行われる。
このようなノイズ計算ネットワークにより求められたノイズは、図20のラベルなしデータ用学習器に入力され、ロスの計算に用いられる。
このように、半教師学習時、ラベルなしデータ用学習器に必要なノイズの計算に用いるネットワークについても、デフォルトのネットワークとして自動的に生成される。
図22は、予測器と学習器の例を示す図である。
解こうとしている問題が回帰問題である場合、図22の左側に示すように、予測器が生成される。予測器は、定番の予測器を含むように構成される。定番の予測器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、全結合層(Affine層)を重ねることによって構成される。定番の予測器のネットワークには入力層(x)と出力層(z)が付加される。
なお、図22に示す予測器は、図10の予測器と同じネットワークである。
一方、図22の中央と右側に示すように、ラベルありデータ用学習器とラベルなしデータ用学習器の2つの学習器が生成される。図22に示す2つの学習器は、ロス関数が回帰問題用の二乗誤差関数に変更されている点を除いて、図20のラベルありデータ用学習器とラベルなしデータ用学習器と同じである。
すなわち、図22のラベルありデータ用学習器は、定番の予測器の最終層に、二乗誤差関数の層を付加して構成される。ラベルありデータ用学習器は図10の学習器と同じである。
ラベルなしデータ用学習器であるVATは、Siameseネットワークと同じように定番の予測器を並列に配置し、ロスを二乗誤差としたネットワークである。太線L73で囲んで示す定番の予測器にはデータxが入力され、太線L74で囲んで示す定番の予測器にはデータxとともにノイズnが入力される。
ノイズnの計算に用いられるノイズ計算ネットワークは、図21を参照して説明したネットワークと同じである。
太線L71で囲んで示す、予測器における定番の予測器のパラメータと、太線L72,L73,L74で囲んで示す、学習器における定番の予測器のパラメータは共有される。学習によって学習器のパラメータが更新された場合、予測器のパラメータも同様に更新される。
このように、半教師学習で回帰問題を解く場合には、図10を参照して説明した学習器がラベルなしデータ用の学習器とされ、VATのネットワークを含む学習器が、ラベルなしデータ用の学習器とされる。
図22に示すような予測器と学習器、および図21のノイズ計算ネットワークが自動的に生成され、デフォルトのネットワークとしてユーザに提示される。それぞれのネットワークに関する情報を並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の予測器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
<3−5.生成モデル>
・3−5−1.生成モデルの学習の流れ
(1)前提
ユーザは、生成したいドメインのデータを持っていて、乱数を入力して擬似データを生成する生成器(生成モデル)を作りたいとする。
この場合、ユーザは、学習用データセットをネットワーク設計支援プログラムに与え、学習を行わせることによって、このような生成器を作ることになる。生成器の学習には、例えば、変分オートエンコーダ(VAE(Variational Auto Encoder))が用いられる。VAEについては下記の文献に開示されている。
・Auto-Encoding Variational Bayes, Kingma, 1312.6114v10 <https://arxiv.org/abs/1312.6114>
また、生成器の学習には、敵対的生成ネットワーク(GAN(Generative Adversarial Network))が用いられる。GANについては下記の文献に開示されている。
・Generative Adversarial Nets, Goodfellow, 1406.2661v1 <https://arxiv.org/abs/1406.2661>
(2)事前準備
ユーザは、生成したいドメインのデータからなる学習用データセットを事前に用意しておく。学習用データセットの各データはラベルなしであってもよいが、ドメインがある程度絞られているデータであることが望ましい。
(3)実行
ユーザは、学習技術(VAEを用いた学習、またはGANを用いた学習など)を指定して、生成器の設計をシステムに指示する。ユーザが生成器を作成しようとしていることが学習用データセットに基づいてシステムにより推定されるようにしてもよい。この場合、生成器の設計を指示することは不要となる。
システムにおいては、定番の生成器と定番の学習器が生成される。定番の学習器は、定番の生成器に、定番の追加ネットワークとロス関数を付加することによって生成される。
定番の生成器の構造は、学習用データセットのドメインに基づいて特定される。データのドメインは、学習用データセットに含まれるファイルの拡張子などに基づいて推定される。ドメインがユーザにより入力されるようにしてもよい。
自動的に生成された定番の生成器と定番の学習器は、ネットワークのソースコードをディスプレイに表示することによって、または、ネットワークのモジュール構成を示す画像を画面に表示することによってユーザに提示される。
ユーザは、提示されたネットワークに対して、必要に応じて変更を加えて、学習の実行を指示する。
システムにおいては、学習用データセットを用いた学習が行われ、生成器が生成される。ユーザは、最後に、学習によって得られた生成器を、アプリケーションに適用するなどのために外部に提供する。
・3−5−2.生成器の定番のネットワーク
図23は、生成器と、VAEを用いた学習器の例を示す図である。
図23の左側に示すように、生成器は、定番の生成器を含み、乱数(と付加情報)であるデータzを入力して、擬似データであるデータxを出力するネットワークとして構成される。定番の生成器は、上から順に、全結合層(Affine層)、活性化層(Relu層)、逆畳み込み層(Deconvolution層)を重ねることによって構成される。定番の分類器にはサンプリング層が設定される。
一方、図23の右側に示すように、学習器は、変分オートエンコーダのネットワークとして構成される。破線L82で囲んで示すネットワークがエンコーダ側のネットワークとなり、太線L83で囲んで示すネットワークがデコーダ側のネットワークとなる。
エンコーダ側のネットワークは推論モデルであり、太線L81で囲んで示す定番の生成器とは異なるパラメータを有する。エンコーダ側のネットワークの出力は、KL距離ロスのネットワークに接続されるとともに、サンプリング層を介して、デコーダ側のネットワークに接続される。
デコーダ側のネットワークは、太線L81で囲んで示す定番の生成器と同一である。デコーダ側のネットワークのパラメータは、定番の生成器のパラメータと共有される。デコーダ側のネットワークに付加されるロスは、データ分布のパラメータを元にした尤度(Likelihood)である。
エンコーダ側のネットワークの出力のロスであるKL距離ロスと、デコーダ側のネットワークの出力のロスである尤度は、加算されて1つのLossとして出力される。
図23に示すような生成器とVAEの学習器が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。2つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の生成器の近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
図24は、生成器と、GANを用いた学習器の例を示す図である。
図24の左側に示す生成器は、サンプリング層が設けられていない点を除いて、図23の生成器と同じである。
一方、図24の中央と右側に示すように、学習器#1と学習器#2の2つの学習器が生成される。
学習器#1は、畳み込み層(Convolution層)、活性化層(Relu層)、全結合層(Affine層)を重ねて構成される、discriminatorとしてのネットワークを有する。discriminatorの下には、SigmoidCE関数の層が設けられる。学習器#1による学習は、入力されたデータxを、真のデータとして判定するようにして行われる。
学習器#2は、太線L93で囲んで示す定番の生成器をgeneratorとして、generatorの下に、学習器#1のdiscriminatorと同じネットワーク(破線L94で囲んで示すネットワーク)が設けられることによって構成される。discriminatorの下には、SigmoidCE関数の層が付加される。
generatorには乱数であるデータzが入力され、擬似データx’が出力される。generatorから出力された擬似データx’はdiscriminatorに入力される。学習器#2による学習は、generatorから出力された擬似データx’を、偽のデータとして判定するようにして行われる。
太線L91で囲んで示す、生成器における定番の生成器のパラメータと、太線L93で囲んで示す、学習器#2におけるgeneratorのパラメータは共有される。学習によってgeneratorのパラメータが更新された場合、生成器のパラメータも同様に更新される。また、破線L92で囲んで示す、学習器#1におけるdiscriminatorのパラメータと、破線L94で囲んで示す、学習器#2におけるdiscriminatorのパラメータは共有される。
このように、GANは、generatorとしてのネットワークと、discriminatorとしてのネットワークを含むようにして構成される。
図24に示すような生成器と学習器#1,#2が自動的に生成され、デフォルトのネットワークとしてユーザに提示される。3つのネットワークに関する情報が並べて提示されるようにしてもよいし、別々に提示されるようにしてもよい。ネットワークの提示画面において、定番の生成器(generator)とdiscriminatorの近くに、「ここを改造してください」などの、設計変更を促すメッセージが表示されるようにしてもよい。
ユーザが生成器を生成しようとしている場合、図23のVAEのネットワーク、または図24のGANのネットワークが自動的に生成される。いずれのネットワークが自動的に生成されるようにするのかを、ユーザが選択することができるようにしてもよい。
<3−6.問題の推定>
ユーザが解こうとしている問題の推定は、図15等を参照して説明したように、ラベルの型が連続値である場合には回帰問題として推定し、ラベルの型が離散値である場合には分類問題として推定するようにして行われる。ここで、半教師学習等の、それ以外の上述した問題を含む場合の推定処理について説明する。
図25のフローチャートを参照して、図7のステップS2において行われる問題推定処理について説明する。
ステップS51において、問題推定部141は、ステップS1で取得したデータセットの中に、解きたい問題の記載が含まれているか否かを判定する。例えば、ユーザが解こうとしている問題を指定したファイルがデータセットに含まれている場合、データセットのファイルシステムの構造が、特定の問題を指定する構造である場合などにおいて、解きたい問題の記載が含まれているものとして判定される。
解きたい問題の記載がデータセットの中に含まれているとステップS51において判定された場合、図7のステップS3に戻り、それ以降の処理が行われる。ステップS3においては、データセットによって指定された問題に応じた推論器が生成される。
一方、解きたい問題の記載がデータセットの中に含まれていないとステップS51において判定した場合、ステップS52において、問題推定部141は、学習用データセットの構造を確認する。
学習用データセットに、ラベルありデータが含まれておらず、ラベルなしデータが含まれている場合、ステップS53において、問題推定部141は、ユーザが解こうとしている問題が生成モデルを用いた問題であるとして判定する。
また、学習用データセットに、ラベルありデータとラベルなしデータが混在している場合、ステップS54において、問題推定部141は、ユーザが解こうとしている問題が半教師学習を用いた問題であるとして判定する。半教師学習を用いて回帰問題を解こうとしているのか、分類問題を解こうとしているのかは、上述したようにラベルの型に基づいて判定される。
学習用データセットに、ラベルなしデータが含まれておらず、ラベルありデータが含まれている場合、ステップS55において、問題推定部141は、教師あり学習を用いた問題であるとして推定する。
教師あり学習を用いた問題であるとして推定した後、ステップS56において、問題推定部141は、評価用データセットのラベルに、学習用データセットにないラベルが含まれているか否かを判定する。ここでは、評価用データセットに含まれるラベルと学習用データセットに含まれるラベルが比較され、両方のデータセットに含まれるラベルが同じラベルであるか否かが判定されることになる。
評価用データセットのラベルに学習用データセットにないラベルが含まれているとステップS56において判定した場合、ステップS57において、問題推定部141は、ユーザが解こうとしている問題がメトリック学習を用いた問題であるとして判定する。例えば、メトリック学習によって得られた特徴抽出器を上述した顔識別のアプリケーションに用いる場合、評価用データセットに含まれる人物ID(ラベル)の範囲と、学習用データセットに含まれる人物IDの範囲は異なる範囲となる。
なお、学習用データセットに含まれるデータが動画ファイルであり、ラベルが、物体の位置(領域)を指定するような値である場合にメトリック学習として判定されるようにしてもよい。
一方、評価用データセットのラベルに学習用データセットにないラベルが含まれていないとステップS56において判定した場合、ステップS58において、問題推定部141は、ユーザが解こうとしている問題が回帰問題または分類問題であるとして判定する。回帰問題と分類問題のうちのいずれの問題であるのかは、上述したようにラベルの型に基づいて判定される。
なお、ユーザにより入力されたデータセットに学習用データセットのみが含まれ、評価用データセットが含まれていない場合も、評価用データセットのラベルに学習用データセットにないラベルが含まれていないものとして判定される。
学習用データセットに含まれるデータが時系列データである場合、ステップS59において、問題推定部141は、時系列データを用いた学習の問題であるとして推定する。時系列データを用いた学習については後述する。
ユーザが解こうとしている問題が、生成モデルを用いた問題、半教師学習を用いた問題、メトリック学習を用いた問題、回帰問題、分類問題、時系列データを用いた学習の問題のうちのいずれかの問題として推定された後、処理はステップS60に進む。
ステップS60において、提示制御部143は、「〇〇問題と推定したので〇〇ネットワークを提案します」などのメッセージをネットワーク設計支援プログラムの画面に表示し、問題の推定結果が正しいか否かを確認する。例えば、問題の推定結果が間違っている場合、正しい問題がユーザにより指定される。
問題の推定結果が正しいか否かが確認された後、図7のステップS3に戻り、それ以降の処理が行われる。
このように、ユーザが解こうとしている問題がシステムにより推定されるため、ユーザは、問題を自ら指定する必要がなく、ネットワークの設計を容易に行うことが可能になる。
<<4.その他>>
<4−1.時系列データ>
学習用データセットに含まれるデータを時系列データとすることも可能である。学習用データセットに含まれるデータが時系列データである場合、時系列データを構成する各時刻のデータ(スナップショットデータ)を用いて、以上の処理と同様の処理が行われる。
すなわち、時系列データを用いた学習の問題は、上述した予測器、分類器、特徴抽出器、生成器を時系列方向に拡張したネットワークを用いた処理である。ネットワークの構造を時系列方向に拡張するために、LSTMやGRUと呼ばれるデフォルトのユニットを含むネットワークが用いられる。
時系列データを用いた学習によって解こうとしている問題に応じた定番の推論器と定番の学習器が生成され、ユーザに提示される。定番の推論器と定番の学習器として生成されるネットワークは、上述した各問題に応じたネットワークと同じネットワークである。推論器の学習はスナップショットデータを用いて行われる。
<4−2.変形例>
デフォルトのネットワークとしてシステムにより自動的に生成されるネットワークは、上述したものに限られない。
例えば、ユーザが解こうとしている問題が回帰問題である場合、図10に示すネットワークとは異なるネットワークがデフォルトのネットワークとして生成されるようにすることが可能である。また、ユーザが解こうとしている問題が分類問題である場合、図13または図14に示すネットワークとは異なるネットワークがデフォルトのネットワークとして生成されるようにすることが可能である。
すなわち、設計の定石に沿ったネットワークであれば、他のロス関数が付加されたネットワークがデフォルトのネットワークとして生成されるようにすることが可能である。また、他の構造を有するネットワークがデフォルトのネットワークとして生成されるようにすることが可能である。
例えば、解決しようとする問題がメトリック学習を用いた問題である場合、上述したsiameseネットワークまたはtripletネットワークではなく、これらから派生したネットワークが学習器として生成されるようにしてもよい。また、解決しようとする問題が、半教師学習を用いた回帰問題または分類問題である場合、上述したVATのネットワークではなく、その派生したネットワークが学習器として生成されるようにしてもよい。さらに、解決しようとする問題が生成モデルを用いた問題である場合、上述した変分オートエンコーダのネットワークまたはGANではなく、これらから派生したネットワークが学習器として生成されるようにしてもよい。
PC1が実行するネットワーク設計支援プログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ネットワーク設計支援プログラムがPC1において実行されるものとしたが、ネットワーク設計支援プログラムがインストールされ、実行される装置はPCに限られない。すなわち、スマートフォン、タブレット端末などの携帯端末においてネットワーク設計支援プログラムが実行されるようにすることも可能である。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<4−3.構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
コンピュータを、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
して機能させるためのプログラム。
(2)
前記生成部は、前記学習用のデータのドメインに応じた構造を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
前記(1)に記載のプログラム。
(3)
前記生成部は、前記学習用のデータのドメインが画像または音声である場合、畳み込み層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成し、前記学習用のデータのドメインが項目またはテキストである場合、全結合層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
前記(2)に記載のプログラム。
(4)
前記生成部は、前記推論実行用ネットワークに、推論によって解こうとする問題に応じたロス関数を付加することによって前記学習用ネットワークを生成する
前記(1)乃至(3)のいずれかに記載のプログラム。
(5)
前記生成部は、前記問題が回帰問題である場合、二乗誤差関数を付加し、前記問題が分類問題である場合、クロスエントロピー関数を付加する
前記(4)に記載のプログラム。
(6)
前記生成部は、前記問題がメトリック学習を用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むsiameseネットワークまたはtripletネットワーク、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(7)
前記生成部は、前記問題が、半教師学習を用いた回帰問題または分類問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むVATのネットワーク、あるいは、その派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(8)
前記生成部は、前記問題が、生成モデルを用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含む変分オートエンコーダのネットワークまたはGAN、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
前記(4)に記載のプログラム。
(9)
前記データセットの内容に基づいて前記問題を推定する問題推定部をさらに備える
前記(4)乃至(8)のいずれかに記載のプログラム。
(10)
前記問題推定部は、前記データセットにおける正解ラベルが連続値である場合、前記問題が回帰問題であるとして推定し、離散値である場合、前記問題が分類問題であるとして推定する
前記(9)に記載のプログラム。
(11)
前記問題推定部は、前記学習用のデータと評価用のデータが前記データセットに含まれ、正解ラベルの値の範囲が、前記学習用のデータと前記評価用のデータとで異なる場合、前記問題が、メトリック学習を用いた問題であるとして推定する
前記(9)に記載のプログラム。
(12)
前記問題推定部は、前記学習用のデータとして、正解ラベルを含むデータと正解ラベルを含まないデータが前記データセットに含まれている場合、前記問題が、半教師学習を用いた回帰問題または分類問題であるとして推定する
前記(9)に記載のプログラム。
(13)
前記問題推定部は、前記学習用のデータに、正解ラベルが含まれていない場合、前記問題が、生成モデルを用いた問題であるとして推定する
前記(9)に記載のプログラム。
(14)
前記問題推定部は、前記データセットに含まれる、前記問題を指定するデータに基づいて前記問題を推定する
前記(9)に記載のプログラム。
(15)
前記生成部により生成された前記推論実行用ネットワークと前記学習用ネットワークに関する情報を提示する提示制御部をさらに備える
前記(1)乃至(14)のいずれかに記載のプログラム。
(16)
前記提示制御部は、前記推論実行用ネットワークと前記学習用ネットワークのソースコード、または、前記推論実行用ネットワークと前記学習用ネットワークのモジュール構成を表す画像を提示する
前記(15)に記載のプログラム。
(17)
前記生成部は、ユーザによる入力に応じて、提示された前記推論実行用ネットワークと前記学習用ネットワークの設計変更を行う
前記(15)または(16)に記載のプログラム。
(18)
前記生成部による前記推論実行用ネットワークと前記学習用ネットワークの生成は、前記データセットが指定された後、ユーザによる操作によらずに行われる
前記(1)乃至(17)のいずれかに記載のプログラム。
(19)
情報処理装置が、
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成し、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う
情報処理方法。
(20)
学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
を備える情報処理装置。
1 PC, 2 提供サーバ, 131 情報処理部, 141 問題推定部, 142 ネットワーク生成部, 143 提示制御部, 144 学習実行部

Claims (20)

  1. コンピュータを、
    学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
    前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
    して機能させるためのプログラム。
  2. 前記生成部は、前記学習用のデータのドメインに応じた構造を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
    請求項1に記載のプログラム。
  3. 前記生成部は、前記学習用のデータのドメインが画像または音声である場合、畳み込み層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成し、前記学習用のデータのドメインが項目またはテキストである場合、全結合層を有する前記推論実行用ネットワークと前記学習用ネットワークを生成する
    請求項2に記載のプログラム。
  4. 前記生成部は、前記推論実行用ネットワークに、推論によって解こうとする問題に応じたロス関数を付加することによって前記学習用ネットワークを生成する
    請求項1に記載のプログラム。
  5. 前記生成部は、前記問題が回帰問題である場合、二乗誤差関数を付加し、前記問題が分類問題である場合、クロスエントロピー関数を付加する
    請求項4に記載のプログラム。
  6. 前記生成部は、前記問題がメトリック学習を用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むsiameseネットワークまたはtripletネットワーク、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
    請求項4に記載のプログラム。
  7. 前記生成部は、前記問題が、半教師学習を用いた回帰問題または分類問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含むVATのネットワーク、あるいは、その派生したネットワークを、前記学習用ネットワークとして生成する
    請求項4に記載のプログラム。
  8. 前記生成部は、前記問題が、生成モデルを用いた問題である場合、前記推論実行用ネットワークとパラメータを共有するネットワークを含む変分オートエンコーダのネットワークまたはGAN、あるいは、これらから派生したネットワークを、前記学習用ネットワークとして生成する
    請求項4に記載のプログラム。
  9. 前記データセットの内容に基づいて前記問題を推定する問題推定部をさらに備える
    請求項4に記載のプログラム。
  10. 前記問題推定部は、前記データセットにおける正解ラベルが連続値である場合、前記問題が回帰問題であるとして推定し、離散値である場合、前記問題が分類問題であるとして推定する
    請求項9に記載のプログラム。
  11. 前記問題推定部は、前記学習用のデータと評価用のデータが前記データセットに含まれ、正解ラベルの値の範囲が、前記学習用のデータと前記評価用のデータとで異なる場合、前記問題が、メトリック学習を用いた問題であるとして推定する
    請求項9に記載のプログラム。
  12. 前記問題推定部は、前記学習用のデータとして、正解ラベルを含むデータと正解ラベルを含まないデータが前記データセットに含まれている場合、前記問題が、半教師学習を用いた回帰問題または分類問題であるとして推定する
    請求項9に記載のプログラム。
  13. 前記問題推定部は、前記学習用のデータに、正解ラベルが含まれていない場合、前記問題が、生成モデルを用いた問題であるとして推定する
    請求項9に記載のプログラム。
  14. 前記問題推定部は、前記データセットに含まれる、前記問題を指定するデータに基づいて前記問題を推定する
    請求項9に記載のプログラム。
  15. 前記生成部により生成された前記推論実行用ネットワークと前記学習用ネットワークに関する情報を提示する提示制御部をさらに備える
    請求項1に記載のプログラム。
  16. 前記提示制御部は、前記推論実行用ネットワークと前記学習用ネットワークのソースコード、または、前記推論実行用ネットワークと前記学習用ネットワークのモジュール構成を表す画像を提示する
    請求項15に記載のプログラム。
  17. 前記生成部は、ユーザによる入力に応じて、提示された前記推論実行用ネットワークと前記学習用ネットワークの設計変更を行う
    請求項15に記載のプログラム。
  18. 前記生成部による前記推論実行用ネットワークと前記学習用ネットワークの生成は、前記データセットが指定された後、ユーザによる操作によらずに行われる
    請求項1に記載のプログラム。
  19. 情報処理装置が、
    学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成し、
    前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う
    情報処理方法。
  20. 学習用のデータを含むデータセットが指定されることに応じて、前記データセットに対応する推論実行用ネットワークと学習用ネットワークを生成する生成部と、
    前記学習用のデータを前記学習用ネットワークに入力し、前記推論実行用ネットワークの学習を行う学習部と
    を備える情報処理装置。
JP2019536728A 2017-08-16 2018-08-02 プログラム、情報処理方法、および情報処理装置 Active JP7207309B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017157214 2017-08-16
JP2017157214 2017-08-16
PCT/JP2018/028986 WO2019035364A1 (ja) 2017-08-16 2018-08-02 プログラム、情報処理方法、および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2019035364A1 true JPWO2019035364A1 (ja) 2020-09-03
JP7207309B2 JP7207309B2 (ja) 2023-01-18

Family

ID=65362823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019536728A Active JP7207309B2 (ja) 2017-08-16 2018-08-02 プログラム、情報処理方法、および情報処理装置

Country Status (4)

Country Link
US (1) US11605002B2 (ja)
EP (1) EP3671566A4 (ja)
JP (1) JP7207309B2 (ja)
WO (1) WO2019035364A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056406B2 (ja) * 2018-06-22 2022-04-19 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム
CN114080612A (zh) * 2019-07-22 2022-02-22 索尼集团公司 信息处理方法、信息处理设备和程序
US20230029988A1 (en) * 2020-01-14 2023-02-02 Nec Corporation Learning device, facial recognition system, learning method, and recording medium
US11334795B2 (en) 2020-03-14 2022-05-17 DataRobot, Inc. Automated and adaptive design and training of neural networks
CN113569928B (zh) * 2021-07-13 2024-01-30 湖南工业大学 一种列车运行状态检测数据缺失处理模型及重建的方法
WO2024157398A1 (ja) * 2023-01-25 2024-08-02 日本電気株式会社 学習装置、学習方法、プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0333968A (ja) * 1989-06-30 1991-02-14 Hitachi Ltd ニューラルネツトを用いた情報処理システム及びパターン認識システム
JPH08249007A (ja) * 1995-03-08 1996-09-27 Mitsubishi Electric Corp 予測方法及び予測装置
JP2000231548A (ja) * 1999-02-08 2000-08-22 Nec Corp データ分類装置、データ分類方法およびデータ分類用プログラムを記録した記録媒体
JP2014228995A (ja) * 2013-05-21 2014-12-08 パイオニア株式会社 画像特徴学習装置、画像特徴学習方法及びプログラム
WO2015008567A1 (ja) * 2013-07-18 2015-01-22 Necソリューションイノベータ株式会社 顔印象度推定方法、装置、及びプログラム
JP2015052832A (ja) * 2013-09-05 2015-03-19 国立大学法人 東京大学 重み設定装置および方法
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080222065A1 (en) * 2007-03-05 2008-09-11 Sharkbait Enterprises Llc Learning and analysis systems and methods
US20200226012A1 (en) * 2010-06-07 2020-07-16 Affectiva, Inc. File system manipulation using machine learning
US10303953B2 (en) * 2017-04-17 2019-05-28 Intel Corporation Person tracking and privacy and acceleration of data using autonomous machines
US10498609B1 (en) * 2017-07-11 2019-12-03 Amdocs Development Limited System, method, and computer program for enterprise service network design driven by deep machine learning and artificial intelligence
JP2023501041A (ja) * 2019-08-28 2023-01-18 Visualize株式会社 深層学習を使用して2dフォトから3dオブジェクトの圧力マップを予測するための方法及びシステム
EP4275148A1 (en) * 2021-01-08 2023-11-15 Regeneron Pharmaceuticals, Inc. Methods and systems for improved deep-learning models

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0333968A (ja) * 1989-06-30 1991-02-14 Hitachi Ltd ニューラルネツトを用いた情報処理システム及びパターン認識システム
JPH08249007A (ja) * 1995-03-08 1996-09-27 Mitsubishi Electric Corp 予測方法及び予測装置
JP2000231548A (ja) * 1999-02-08 2000-08-22 Nec Corp データ分類装置、データ分類方法およびデータ分類用プログラムを記録した記録媒体
JP2014228995A (ja) * 2013-05-21 2014-12-08 パイオニア株式会社 画像特徴学習装置、画像特徴学習方法及びプログラム
WO2015008567A1 (ja) * 2013-07-18 2015-01-22 Necソリューションイノベータ株式会社 顔印象度推定方法、装置、及びプログラム
JP2015052832A (ja) * 2013-09-05 2015-03-19 国立大学法人 東京大学 重み設定装置および方法
JP2017016414A (ja) * 2015-07-01 2017-01-19 株式会社リコー 学習方法、プログラム及び学習装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
安倍 満 他: "「対応点探索のための特徴量表現」", 電子情報通信学会技術研究報告, vol. 第115巻 第388号, JPN6018043022, 14 December 2015 (2015-12-14), pages 53 - 73, ISSN: 0004812134 *
宮戸 岳 他: "「分布の局所平滑化による正則化の提案」", 電子情報通信学会技術研究報告, vol. 第115巻 第323号, JPN6018043023, 19 November 2015 (2015-11-19), pages 257 - 264, ISSN: 0004812135 *
岡野原 大輔: "「AI最前線 第10回 Generative Adversarial Networks ニューラルネットを競合させ生成モデルを鍛える」", 日経ROBOTICS 5月号, vol. 第10号, JPN6018043024, 10 April 2016 (2016-04-10), pages 36 - 37, ISSN: 0004812136 *

Also Published As

Publication number Publication date
WO2019035364A1 (ja) 2019-02-21
US11605002B2 (en) 2023-03-14
JP7207309B2 (ja) 2023-01-18
EP3671566A1 (en) 2020-06-24
US20200184341A1 (en) 2020-06-11
EP3671566A4 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
JP7207309B2 (ja) プログラム、情報処理方法、および情報処理装置
Elgendy Deep learning for vision systems
JP7335274B2 (ja) ジオロケーションの予測のためのシステムおよび方法
US11966839B2 (en) Auto-regressive neural network systems with a soft attention mechanism using support data patches
US11074454B1 (en) Classifying videos using neural networks
Goyal et al. Towards transparent ai systems: Interpreting visual question answering models
US20190156204A1 (en) Training a neural network model
US20240029436A1 (en) Action classification in video clips using attention-based neural networks
CN110073369B (zh) 时间差分模型的无监督学习技术
CN110796190A (zh) 具有深度学习特征的指数建模
US11887215B2 (en) Image processing apparatus and method for style transformation
CN110473526A (zh) 对语音识别模型进行个性化的装置和方法及电子装置
US20190318262A1 (en) Tool for designing artificial intelligence systems
CN109410924A (zh) 识别方法和识别设备
CN109716365A (zh) 动态地管理人工神经网络
KR20180054407A (ko) 로봇 시스템
US11475236B2 (en) Minimum-example/maximum-batch entropy-based clustering with neural networks
Kember Ambient intelligent photography
Suthar et al. Human activity recognition using deep learning: a survey
CN115374304A (zh) 数据处理方法、电子设备、存储介质及计算机程序产品
Vishwakarma et al. A Survey on Deep Learning Methods in Image Analytics
KR102463875B1 (ko) 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템
CN110689117A (zh) 基于神经网络的信息处理方法和装置
CN113516670B (zh) 一种反馈注意力增强的非模式图像分割方法及装置
CN114692022A (zh) 基于时空行为模式的位置预测方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7207309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151