JP2019175513A - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP2019175513A
JP2019175513A JP2019128361A JP2019128361A JP2019175513A JP 2019175513 A JP2019175513 A JP 2019175513A JP 2019128361 A JP2019128361 A JP 2019128361A JP 2019128361 A JP2019128361 A JP 2019128361A JP 2019175513 A JP2019175513 A JP 2019175513A
Authority
JP
Japan
Prior art keywords
neural network
network
information processing
search
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019128361A
Other languages
English (en)
Other versions
JP6922945B2 (ja
JP2019175513A5 (ja
Inventor
由幸 小林
Yoshiyuki Kobayashi
由幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019175513A publication Critical patent/JP2019175513A/ja
Publication of JP2019175513A5 publication Critical patent/JP2019175513A5/ja
Application granted granted Critical
Publication of JP6922945B2 publication Critical patent/JP6922945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】環境に応じたネットワーク構造をより効率的に探索する。【解決手段】本開示によれば、プロセッサが、一のニューラルネットワークからネットワーク構造の異なる別のニューラルネットワークを生成することと、生成された前記別のニューラルネットワークの評価結果が、前記一のニューラルネットワークの評価結果を上回る場合、前記別のニューラルネットワークをパレート最適解として更新することと、を含む、情報処理方法が提供される。【選択図】図9

Description

本開示は、情報処理方法および情報処理装置に関する。
近年、脳神経系の仕組みを模したニューラルネットワークが注目されている。他方、複数の候補の中から最適解を探索するための種々の手法が提案されている。例えば、特許文献1には、遺伝的アルゴリズムを用いて対象問題に対する解を求める情報処理方法が開示されている。
特開2009−48266号公報
しかし、特許文献1に記載の情報処理方法は、ニューラルネットワークに特有のレイヤー構成やパラメータを考慮していないため、ニューラルネットワークに係るネットワーク構造の探索にそのまま適用することは困難である。
そこで、本開示では、環境に応じたネットワーク構造をより効率的に探索することが可能な情報処理方法および情報処理装置を提案する。
本開示によれば、プロセッサが、一のニューラルネットワークからネットワーク構造の異なる別のニューラルネットワークを生成することと、生成された前記別のニューラルネットワークの評価結果が、前記一のニューラルネットワークの評価結果を上回る場合、前記別のニューラルネットワークをパレート最適解として更新することと、を含む、情報処理方法が提供される。
また、本開示によれば、ユーザによるニューラルネットワークの指定を受け付ける入力部と、評価済のニューラルネットワークに係るパレート最適解の提示を制御する制御部と、を備え、前記制御部は、前記ユーザにより指定されたニューラルネットワークから生成された別のニューラルネットワークの評価結果に基づいて更新されるパレート最適解を提示する、情報処理装置が提供される。
以上説明したように本開示によれば、環境に応じたネットワーク構造をより効率的に探索することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係るネットワークの生成を説明するための図である。 本開示に係るシステム構成例を示す図である。 本開示に係る情報処理装置の機能ブロック図である。 本開示に係る情報処理サーバの機能ブロック図である。 本開示の第1の実施形態に係るネットワークの生成チャートである。 同実施形態に係る突然変異制御のフローチャートである。 同実施形態に係る交叉制御のフローチャートである。 同実施形態に係る探索過程のビジュアライズ例である。 同実施形態に係る探索過程のビジュアライズ例である。 同実施形態に係る探索過程のビジュアライズ例である。 同実施形態に係る探索結果の提示例である。 同実施形態に係る探索されたネットワーク構造の例である。 同実施形態に係る探索されたネットワーク構造の例である。 同実施形態に係る情報処理方法の評価結果である。 同実施形態に係る情報処理方法の評価結果である。 本開示の第2の実施形態に係る評価対象の選択を説明する図である。 同実施形態に係るガウシアンプロセスの概念図である。 同実施形態に係るパレート最適解の更新面積について説明する図である。 同実施形態に係るnet2vecの評価結果である。 同実施形態に係るnet2vecを用いた分析結果の例である。 同実施形態に係るnet2vecを用いた分析結果の詳細例である。 同実施形態に係るnet2vecを用いた分析結果の詳細例である。 同実施形態に係るnet2vecを用いた分析結果の詳細例である。 第1及び第2の実施形態に係る探索過程の比較を示す図である。 第1及び第2の実施形態に係る探索過程の比較を示す図である。 第1及び第2の実施形態に係る探索過程の比較を示す図である。 第2の実施形態に係る情報処理方法の評価結果である。 第2の実施形態に係る情報処理方法の評価結果である。 第2の実施形態に係る情報処理方法の評価結果である。 第2の実施形態に係る情報処理方法の評価結果である。 本開示に係る探索の設定について説明する図である。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示に係るネットワーク構造の探索
1.1.ニューラルネットワークとは
1.2.ニューラルネットワークの生成
1.3.本開示に係るシステム構成例
1.4.本開示に係る情報処理装置10
1.5.本開示に係る情報処理サーバ30
2.第1の実施形態
2.1.第1の実施形態に係るニューラルネットワークの生成
2.2.パレート最適解の更新によるネットワーク構造の探索
2.3.本実施形態に係る探索の効果
3.第2の実施形態
3.1.本実施形態に係る予測誤差の測定
3.2.ネットワーク構造に係る特徴量ベクトルの算出
3.3.本実施形態に係る探索の効果
3.4.本開示に係る探索の設定
4.ハードウェア構成例
5.まとめ
<1.本開示に係るネットワーク構造の探索>
<<1.1.ニューラルネットワークとは>>
ニューラルネットワークとは、人間の脳神経回路を模したモデルであり、人間が持つ学習能力をコンピュータ上で実現しようとする技法である。上述したとおり、ニューラルネットワークは学習能力を有することを特徴の一つとする。ニューラルネットワークでは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によりシナプスの結合強度を変化させることで、問題に対する解決能力を獲得することが可能である。すなわち、ニューラルネットワークは、学習を重ねることで、問題に対する解決ルールを自動的に推論することができる。
ニューラルネットワークによる学習の例としては、画像認識や音声認識が挙げられる。ニューラルネットワークでは、例えば、手書きの数字パターンを繰り返し学習することで、入力される画像情報を、0〜9の数字のいずれかに分類することが可能となる。ニューラルネットワークの有する上記のような学習能力は、人工知能(Artificial Intelligence)の発展を推し進める鍵としても注目されている。また、ニューラルネットワークが有するパターン認識力は、種々の産業分野における応用が期待される。
一方、ニューラルネットワークによる学習の精度は、与えられるデータやネットワーク構造に大きく依存することが知られている。すなわち、ニューラルネットワークによる学習では、与えられるデータの量と質が直接的に性能に影響する。また、同一のデータが与えられた場合でも、ネットワーク構造の異なるニューラルネットワークでは、学習精度に大きな差が生じる可能性がある。
また、ニューラルネットワークによる処理においては、学習精度の他、演算量も重要な指標の一つとなる。ニューラルネットワークにおいて、演算量は、ネットワーク構造に依存して定まる値である。また、ニューラルネットワークでは、通常、演算量が増加するほど学習精度が向上する傾向がある。
しかし、演算量は、ニューラルネットワークが搭載されるハードウェアの使用メモリ量や実行時間に大きく影響するため、学習精度の高いニューラルネットワークが必ずしも最良とは限らない。言い換えると、ニューラルネットワークにおいて、演算量と学習精度とは、いわゆるトレードオフの関係にあたる。このため、演算量を抑えながら、より学習精度の高いネットワーク構造を探索する手法が求められていた。
本開示に係る情報処理方法および情報処理装置は、上記で説明したようなネットワーク構造の探索に着目して発想されたものである。具体的には、本開示に係る情報処理方法では、生成されたニューラルネットワークの評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新し、当該パレート最適解をユーザに提示することが可能である。すなわち、本開示に係る情報処理方法は、ネットワークの生成とパレート最適解の更新を繰り返すことで、効率の良いネットワーク構造を探索し、ユーザに提示することができる。
<<1.2.ニューラルネットワークの生成>>
ここで、本開示に係るニューラルネットワークの生成について、概要を説明する。上述したとおり、本開示に係る情報処理方法では、元となる評価済のニューラルネットワーク(以降、シードネットワーク、とも呼ぶ)から、ネットワーク構造の異なる別のニューラルネットワークを生成すること可能である。また、後述するように、本開示に係る情報処理方法は、パレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
本開示に係るニューラルネットワークの生成は、例えば、突然変異や交叉(または、交差、とも呼ぶ)などを含む遺伝的操作により実現されてもよい。ここで、上記の突然変異とは、生物に見られる遺伝子の突然変異をモデル化したものであってよい。すなわち、本開示に係る情報処理方法では、ネットワークを構成する各レイヤーを遺伝子と見立て、レイヤーを突然変異させることで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、上記の交叉とは、生物の交配における染色体の部分的交換をモデル化したものであってよい。すなわち、本開示に係る情報処理方法では、2つのネットワークのレイヤー構成を部分的に交換することで、上記の別のニューラルネットワークを生成することができる。なお、本開示に係る突然変異及び交叉の詳細については後述する。
図1は、突然変異によるニューラルネットワークの生成を説明するための図である。図1を参照すると、シードネットワークSNは、「Input」及び「Output」を含む10のレイヤーから構成されていることがわかる。また、図1の例に示すように、本開示に係るニューラルネットワークは、入出力層の他、中間層、活性化関数などから構成されてよい。
例えば、図1の例において、「Conv1」及び「Conv2」は、Convolutionレイヤーを示し、「Pool1」及び「Pool2」は、Max−Poolingを示している。このため、「Conv1」及び「Conv2」には、カーネルシェイプや出力マップ数などのパラメータが表示されており、「Pool1」及び「Pool2」には、プールシェイプを示すパラメータが表示されている。なお、上記で示した例を含む各レイヤーについては、広く使用されるものであるため、詳細な説明は省略する。
続いて、図1に示されるニューラルネットワークMN1を参照する。ニューラルネットワークMN1は、シードネットワークSNを突然変異させることで生成される別のニューラルネットワークである。ニューラルネットワークMN1を参照すると、シードネットワークSNのネットワーク構造から、レイヤー構成の一部が変化していることがわかる。具体的には、ニューラルネットワークMN1では、シードネットワークSNに係る活性化関数「relu1」が、別の活性化関数「Tanh1」に変化している。このように、本開示に係る情報処理方法では、ネットワーク構造を構成するレイヤーのレイヤー種類を変更することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、ニューラルネットワークMN2を参照すると、ニューラルネットワークMN1の状態から、さらにネットワーク構造が変化していることがわかる。ニューラルネットワークMN2のネットワーク構造では、ニューラルネットワークMN1のレイヤー構成に加え、活性化関数「Abs1」が挿入されている。このように、本開示に係る情報処理方法では、レイヤーを新規に挿入することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
以上、本開示に係るネットワークの生成について、概要を説明した。上記で説明したとおり、本開示に係る情報処理方法では、元となるネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することが可能である。なお、上記では、遺伝的操作により別のニューラルネットワークを生成する場合を例に説明したが、本開示に係るニューラルネットワークの生成方法は、係る例に限定されない。本開示に係る別のニューラルネットワークの生成は、例えば、入力されたネットワークのネットワーク構造を変化させるニューラルネットワークを用いて実現されてもよい。ニューラルネットワークの生成には、上記の例を含む種々の方法が適用され得る。
<<1.3.本開示に係るシステム構成例>>
次に、本開示に係る情報処理方法を実施するためのシステム構成例について説明する。上述したとおり、本開示に係る情報処理方法は、評価済みのニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成すること、を特徴の一つとする。また、本開示に係る情報処理方法では、生成されたニューラルネットワークの評価結果を取得し、当該取得結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新することが可能である。すなわち、本開示に係る情報処理方法では、生成された別のニューラルネットワークの評価結果が、評価済みのニューラルネットワークの評価結果を上回る場合、上記の別のニューラルネットワークをパレート最適解として更新することができる。さらに、本開示に係る情報処理方法は、パレート最適に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。すなわち、本開示に係る情報処理方法では、パレート最適解として更新された上記の別のニューラルネットワークを、評価済のニューラルネットワークとして新たな別のニューラルネットワークを生成することが可能である。
すなわち、本開示に係る情報処理方法は、ネットワークの生成とパレート最適解の更新を繰り返すことで、より効率の良いネットワーク構造を探索し、当該探索の結果をユーザに提示することが可能である。
図2は、本開示に係る情報処理方法を実施するためのシステム構成例を示す図である。図2を参照すると、本開示に係る情報処理システムは、情報処理装置10及び情報処理サーバ30を含む。また、情報処理装置10と情報処理サーバ30は、互いに通信が行えるように、ネットワーク20を介して接続される。
ここで、情報処理装置10は、ユーザに探索の結果を提示するための情報処理端末である。情報処理装置10は、例えば、PC(Personal Computer)、スマートフォン、タブレットなどであってよい。また、情報処理サーバ30は、シードネットワークから別のニューラルネットワークを生成し、生成されたニューラルネットワークの評価結果に基づいてパレート最適解を更新する情報処理装置である。
また、ネットワーク20は、情報処理装置10と情報処理サーバ30を接続する機能を有する。ネットワーク20は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク20は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本開示に係るシステム構成例について説明した。以降の説明では、本開示に係る情報処理装置10と情報処理サーバ30の機能構成上の特徴を挙げながら、当該特徴が奏する効果について述べる。
<<1.4.本開示に係る情報処理装置10>>
次に、本開示に係る情報処理装置10について詳細に説明する。本開示に係る情報処理装置10は、ユーザによるニューラルネットワークの指定を受け付ける機能を有する。また、情報処理装置10は、評価済のニューラルネットワークに係るパレート最適解の提示を制御する機能を有する。すなわち、本開示に係る情報処理装置10は、指定されたシードネットワークから生成された別のニューラルネットワークの評価結果に基づいて更新されるパレート最適解をユーザに提示することができる。
また、情報処理装置10は、ユーザの操作を受け付け、情報処理サーバ30に、ニューラルネットワークの実行に係るファイルのダウンロードを要求する機能を有する。ここで、ニューラルネットワークの実行に係るファイルには、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及び上記の2ファイルを読み込んでForwardPropを実行するソースコードが含まれてよい。
図3は、本開示に係る情報処理装置10の機能ブロック図である。図3を参照すると、本開示に係る情報処理装置10は、表示部110、入力部120、フォーム制御部130、及びサーバ通信部140を備える。以下、情報処理装置10が備える各構成について説明する。
(表示部110)
表示部110は、情報処理装置10の各構成により制御される情報を表示する機能を有する。本開示において、表示部110は、特に、評価済のニューラルネットワークに係るパレート最適解を表示する機能を有してよい。上記の機能は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置により実現されてもよい。また、表示部110は、ユーザからの情報入力を受け付ける入力部としての機能を有してもよい。入力部としての機能は、例えば、タッチパネルにより実現され得る。
(入力部120)
入力部120は、ユーザからの情報入力を受け付け、情報処理装置10の各構成に入力情報を引き渡す機能を有する。本開示において、入力部120は、特に、シードネットワークを指定するユーザの操作を受け付け、当該操作に基づく入力情報を後述するフォーム制御部130に引き渡す機能を有してよい。上記の機能は、例えば、キーボードやマウスにより実現されてもよい。
(フォーム制御部130)
フォーム制御部130は、シードネットワークの指定やパレート最適解の提示を行うためのフォームを制御する機能を有する。具体的には、フォーム制御部130は、入力部120から取得したユーザの入力情報に基づいて、シードネットワークの指定や、フォームの表示制御を行うことができる。
また、フォーム制御部130は、後述するサーバ通信部140を介して情報処理サーバ30から取得する情報に基づいて、表示部110に表示させるフォームの表示を制御する機能を有する。本開示において、フォーム制御部130は、特に、指定されたシードネットワークから生成された別のニューラルネットワークの評価結果に基づいて更新されるパレート最適解の提示を制御する機能を有する。また、フォーム制御部130は、入力部120から取得する情報に基づいて、指定されたニューラルネットワークの実行に係るファイルのダウンロードを情報処理サーバ30に要求する機能を有する。
(サーバ通信部140)
サーバ通信部140は、ネットワーク20を介して、情報処理サーバ30との情報通信を行う機能を有する。具体的には、サーバ通信部140は、フォーム制御部130の制御に基づいて、上記フォームに係る情報を情報処理サーバ30に送信する。また、サーバ通信部140は、情報処理サーバ30から取得した情報をフォーム制御部130に引き渡す。本開示において、サーバ通信部140は、特に、パレート最適解に係る情報を情報処理サーバ30から取得し、フォーム制御部130に引き渡してよい。
<<1.5.本開示に係る情報処理サーバ30>>
次に、本開示に係る情報処理サーバ30について詳細に説明する。本開示に係る情報処理サーバ30は、評価済のニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成する情報処理装置である。また、情報処理サーバ30は、生成されたニューラルネットワークの評価結果を取得し、当該評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新する機能を有する。また、情報処理サーバ30は、上記のパレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
すなわち、本開示に係る情報処理サーバ30は、ネットワークの生成とパレート最適解の更新を繰り返すことで、より効率の良いネットワーク構造を探索することが可能である。
図4は、本開示に係る情報処理サーバ30の機能ブロック図である。図4を参照すると、本開示に係る情報処理サーバ30は、生成部310、評価部320、及び装置通信部330を備える。以下、情報処理サーバ30が備える各構成について説明する。
(生成部310)
生成部310は、元となるネットワークからネットワーク構造の異なる別のニューラルネットワークを生成する機能を有する。生成部310は、シードネットワークやパレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成してよい。生成部310は、例えば、上述した突然変異及び交叉を含む遺伝的操作により、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。また、生成部310は、例えば、入力されたネットワークのネットワーク構造を変化させるニューラルネットワークを用いて、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
(評価部320)
評価部320は、生成されたニューラルネットワークの評価結果を取得する機能を有する。評価部320は、例えば、生成されたニューラルネットワークをクラウド上のコンピューティングリソースに実行させ、上記の評価結果を取得してもよい。また、評価部320は、エミュレータやネットワーク20を介して接続される各種のデバイスにニューラルネットワークを実行させ、評価結果を取得してもよい。
また、評価部320が取得する評価結果には、生成されたニューラルネットワークに係る演算量、及び学習誤差またはヴァリデーション誤差(以下、まとめて誤差と表現することがある)のうち少なくとも一方が含まれてよい。評価部320は、生成されたニューラルネットワークのネットワーク構造に基づいて、上記の演算量を取得することができる。
また、評価部320は、生成されたニューラルネットワークの評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新する機能を有する。すなわち、評価部320は、生成部310が生成したニューラルネットワークの評価結果を取得し、当該評価結果に基づいてパレート最適解の更新を繰り返し実行する。評価部320によるパレート最適解の更新の詳細については後述する。
(装置通信部330)
装置通信部330は、ネットワーク20を介して、情報処理装置10との情報通信を行う機能を有する。具体的には、装置通信部330は、生成部310により生成されたニューラルネットワークに係る情報や、評価部320が更新したパレート最適解に係る情報を情報処理装置10に送信する。また、装置通信部330は、情報処理装置10から、ユーザが指定したシードネットワークの情報や、ファイルのダウンロード要求を受信する。
<2.第1の実施形態>
<<2.1.第1の実施形態に係るニューラルネットワークの生成>>
続いて、本開示の第1の実施形態に係るニューラルネットワークの生成について、詳細に説明する。本実施形態に係る情報処理サーバ30は、情報処理装置10からユーザが指定したシードネットワークの情報を取得し、当該シードネットワークに基づいて、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。また、本実施形態に係る情報処理サーバ30は、パレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
(ネットワーク生成の流れ)
以下、図5を参照して、情報処理サーバ30の生成部310によるニューラルネットワークの生成について説明する。図5は、生成部310によるニューラルネットワーク生成の流れを示すフローチャートである。
図5を参照すると、まず、生成部310は、元となるニューラルネットワークに適用する別のニューラルネットワークの生成方法をランダムで決定する(S1101)。この際、元となるニューラルネットワークは、ユーザにより指定されたシードネットワークであってもよいし、評価部320が更新したパレート最適解に係るニューラルネットワークから生成部310がランダムに選択したネットワークであってもよい。
次に、生成部310は、ステップS1101で選択した生成方法に基づいて、元となるニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成する。図5に示す一例を参照すると、本実施形態に係る生成部310は、元となるニューラルネットワークを突然変異させることで、上記の別のニューラルネットワークを生成してもよい(S1102)。
また、生成部310は、元となるニューラルネットワークを交叉させることで、上記の別のニューラルネットワークを生成してもよい(S1103)。ステップS1102及びステップS1103における突然変異と交叉の詳細な流れについては後述する。
続いて、生成部310は、ステップS1102またはステップS1103で生成したニューラルネットワークの整合性を判定する(S1104)。この際、生成部310は、生成したニューラルネットワークのレイヤー構成にエラーが生じているか否かを判定してもよい。生成部310は、例えば、Max−Pooling処理に際し、入力されるデータが小さすぎる場合などに、ネットワークの整合性がない、と判定してよい。このように、生成したニューラルネットワークの整合性がないと判定した場合(S1104:No)、生成部310は、生成したニューラルネットワークを破棄し、ステップS1101に復帰する。
一方、生成したニューラルネットワークに整合性が認められる場合(S1104:Yes)、生成部310は、続いて、生成したニューラルネットワークと、元となるニューラルネットワークと、の入出力が同一であるか否かを判定する(S1105)。ここで、両者の入出力が異なる場合(S1105:No)、想定する認識問題を処理することが困難となるため、生成部310は、生成したニューラルネットワークを破棄し、ステップS1101へと復帰する。一方、生成したニューラルネットワークと、元となるニューラルネットワークとの入出力が同一である場合(S1105:Yes)、生成部310は、ネットワーク生成に係る処理を正常に終了する。
以上、本実施形態に係るニューラルネットワークの生成について説明した。上述したとおり、本実施形態に係る生成部310は、シードネットワークやパレート最適解に係るネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することが可能である。なお、図5では、生成部310が突然変異または交叉を用いた遺伝的操作により別のニューラルネットワークを生成する場合を例に説明したが、本実施形態に係るネットワークの生成は係る例に限定されない。本実施形態に係る生成部310は、入力されたニューラルネットワークのネットワーク構造を変化させるニューラルネットワークを用いて、上記の別のニューラルネットワークを生成してもよい。生成部310によるニューラルネットワークの生成には、種々の手法が適用されてよい。
(突然変異によるネットワーク生成の流れ)
続いて、本実施形態に係る突然変異によるネットワーク生成の流れについて説明する。図6は、生成部310による突然変異を用いたネットワーク生成を説明するためのフローチャートである。すなわち、図6に示すフローチャートは、図5に示したステップS1102における生成部310の詳細な制御を示している。図6を参照すると、本実施形態に係る突然変異は、レイヤーの挿入、レイヤーの削除、レイヤー種類の変更、パラメータの変更、グラフ分岐、グラフ分岐の削除を含んでよい。
図6を参照すると、まず、生成部310は、元となるニューラルネットワークに適用する突然変異の手法をランダムで決定する(S1201)。続いて、生成部310は、ステップS1201で選択した手法に基づいて、元となるニューラルネットワークのネットワーク構造を変化させる。
生成部310は、新規レイヤーを挿入する処理を行ってもよい(S1202)。生成部310は、例えば、元となるニューラルネットワークに、Reluなどの活性化関数を新たに挿入することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、生成部310は、既存レイヤーを削除する処理を行ってもよい(S1203)。生成部310は、例えば、元となるニューラルネットワークから、Max−Poolingに係るレイヤーを削除することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、生成部310は、既存レイヤーのレイヤー種類を変更する処理を行ってもよい(S1204)。生成部310は、例えば、元となるニューラルネットワークに存在する活性化関数を別の活性化関数に置換することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、生成部310は、既存レイヤーに係るパラメータを変更する処理を行ってもよい(S1205)。生成部310は、例えば、既存するConvolutionレイヤーのカーネルシェイプを変更することで、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。
また、生成部310は、新たなグラフ分岐を作成する処理を行ってもよい(S1206)。生成部310は、例えば、既存レイヤーの一部をコピーすることでグラフ分岐を作成し、当該グラフ分岐の結合部としてConcatenateレイヤーを挿入することで、別のニューラルネットワークを生成することができる。
また、生成部310は、既存のグラフ分岐を削除する処理を行ってもよい(S1207)。生成部310は、例えば、既存するグラフ分岐の1ルートを削除し、当該削除により分岐が消失した場合にはConcatenateレイヤーも削除することで、別のニューラルネットワークを生成することができる。
以上、本実施形態に係る生成部310による突然変異を用いたネットワーク生成について説明した。なお、上記では、生成部310がランダムで選択したステップS1202〜S1207の処理を実行する場合を例に説明したが、本実施形態に係る突然変異の制御は、係る例に限定されない。生成部310は、ステップS1202〜S1207に係る処理を同時に2つ以上行ってもよいし、ステップS1202〜S1207の実行判断をそれぞれ実施してもよい。また、生成部310は、図6の例に示した以外の処理を実行してもよい。生成部310による突然変異の制御は、柔軟に変更され得る。
(交叉によるネットワーク生成の流れ)
続いて、本実施形態に係る交叉によるネットワーク生成の流れについて説明する。図7は、生成部310による交叉を用いたネットワーク生成を説明するためのフローチャートである。すなわち、図7に示すフローチャートは、図5に示したステップS1103における生成部310の詳細な制御を示している。
図7を参照すると、まず、生成部310は、交叉を実行するために、元となる2つのネットワークを選択する(S1301)。ここで、生成部310は、情報処理装置10からユーザが指定した2つのシードネットワークの情報を取得し、当該2つのシードネットワークを選択してもよい。また、生成部310は、ユーザが指定した1つのシードネットワークと、予め登録された交叉用のネットワークと、を選択することもできる。さらには、生成部310は、ユーザが指定したシードネットワークから突然変異により生成した別のニューラルネットワークを選択してもよい。
続いて、生成部310は、ステップS1301で選択した2つのネットワークを交叉させ、ネットワーク構造の異なる別のニューラルネットワークを生成する(S1302)。この際、生成部310は、種々の手法により交叉を実行してよい。生成部310は、例えば、一点交叉、二点交叉、多点交叉、一様交叉などにより、上記の別のニューラルネットワークを生成することができる。
以上、本実施形態に係るニューラルネットワークの生成について説明した。上述したとおり、本実施形態に係る生成部310は、突然変異及び交叉を含む遺伝的操作などにより、元となるニューラルネットワークからネットワーク構造の異なる別のニューラルネットワークを生成することができる。すなわち、本実施形態に係る情報処理方法では、生成部310が生成したニューラルネットワークの評価結果に基づいてパレート最適解の更新を繰り返すことで、より効率のよいネットワーク構造を探索することが可能となる。
<<2.2.パレート最適解の更新によるネットワーク構造の探索>>
次に、本実施形態に係るパレート最適解の更新によるネットワーク構造の探索について詳細に説明する。本実施形態に係る評価部320は、生成部310が生成したニューラルネットワークの評価結果を取得し、当該評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新することができる。すなわち、本実施形態に係る情報処理方法では、演算量または誤差のいずれか一方を小さくするネットワークをパレート最適解として更新する。
(探索過程のビジュアライズ)
ここで、図8A〜8Cを参照し、本実施形態に係るネットワーク構造の探索過程について例を挙げて説明する。図8A〜8Cは、評価部320によるパレート最適解の更新を段階的に示した図である。図8A〜8Cは、情報処理装置10の表示部110に表示される、ニューラルネットワークの評価結果に基づいたトレードオフ情報であってよい。すなわち、本実施形態に係る情報処理方法では、ネットワーク構造の探索過程をビジュアライズし、当該情報をリアルタイムにユーザに提示することが可能である。
なお、図8A〜8Cでは、目的関数の演算量と誤差レートに係るトレードオフ情報を提示する場合を例に説明する。このため、図8A〜8Cでは、縦軸に誤差レートが、横軸に目的関数の演算量が示されている。また、図8A〜8Cでは、目的関数の演算量に係る例として、乗加算回数を採用している。
図8Aは、シードネットワークが指定された段階におけるトレードオフ情報を示す図である。図8Aを参照すると、本段階のトレードオフ情報には、評価済であるシードネットワークのヴァリデーション誤差SV、及び学習誤差STが表示されている。また、トレードオフ情報には、パレート最適解の境界線PLが示されている。本段階では、評価済のネットワークがシードネットワークのみであるため、パレート最適解PLは直線で表示され、パレート最適解の境界線PL上には、シードネットワークのヴァリデーション誤差SVのみが表示されている。
図8Bは、探索途中段階におけるトレードオフ情報を示す図である。図8Bを参照すると、本段階におけるトレードオフ情報には、シードネットワークのヴァリデーション誤差SV、及び学習誤差STの他、複数のネットワークに係る誤差情報が示されている。すなわち、図8Bに示すトレードオフ情報は、生成部310によるネットワークの生成と、評価部320によるパレート最適解の更新が複数回繰り返された場合を示している。
このため、図8Bに示されるパレート最適解の境界線PLは、生成部310により生成されたニューラルネットワークの評価結果に基づいて更新されている。図8Bに示す例では、パレート最適解の境界線PL上には、新たなパレート最適解に係るニューラルネットワークのヴァリデーション誤差P1〜P3が表示されている。
このように、評価部320は、生成されたニューラルネットワークの評価結果を取得し、当該評価結果に基づいて、パレート最適解を更新できる。また、生成部310は、評価部320により更新されたパレート最適解に係るニューラルネットワークP1〜P3からランダムで選択したニューラルネットワークに基づいて、別のネットワークを生成してよい。すなわち、本実施形態に係る情報処理方法では、パレート最適解に係るニューラルネットワークから別のニューラルネットワークを生成し、当該別のニューラルネットワークの評価結果に基づくパレート最適解の更新を繰り返し実行する。
図8Cは、ネットワーク構造の探索が終了した段階におけるトレードオフ情報を示す図である。図8Cに示すように、本段階のトレードオフ情報には、シードネットワークとパレート最適解に係るニューラルネットワークの誤差情報のみが表示されてもよい。図8Cを参照すると、本段階におけるパレート最適解の境界線PLは、図8A及び図8Cに示した状態から大きく更新されていることがわかる。
以上、本実施形態に係る探索過程のビジュアライズについて説明した。上述したとおり、本実施形態に係る情報処理方法では、ニューラルネットワークの生成とパレート最適解の更新を繰り返すことで、より効率の良いネットワーク構造を探索することができる。また、本実施形態に係る情報処理方法では、ネットワーク構造の探索過程をビジュアライズし、当該情報をリアルタイムにユーザに提示することが可能である。ユーザは、探索過程をリアルタイムに確認することで、探索の経過に応じた種々の判断を行うことができる。
なお、上記の例では、誤差と演算量に係るトレードオフ情報をユーザに提示する場合を例に説明したが、本実施形態に係るトレードオフ情報は、係る例に限定されない。本実施形態に係るトレードオフ情報には、演算量の他、例えば、ハードウェアに係る使用メモリ量、発熱量、消費電力量などが用いられてもよい。また、トレードオフ情報には、演算量から算出されるハードウェアのトータルコストや、サーバ費用などを含むトータルサービスコストなどが用いられてもよい。さらには、ユーザの選択により、上記に示す項目の切り替えが実現されてもよい。評価部320は、予め記憶されたハードウェアやサービスに係る情報を基に、上記の値を算出することができる。
(探索結果の提示例)
以上、本実施形態に係る探索過程のビジュアライズについて述べた。続いて、本実施形態に係る探索結果の提示例について詳細に説明する。図9は、ネットワーク構造の探索が終了した際に、ユーザに提示されるフォームの構成例を示す図である。
図9を参照すると、探索結果が表示されるフォームF1は、パレート最適解を表示するための領域V1と、評価結果の概要を表示するための領域V2と、を含んでいる。ここで、領域V1を参照すると、図9に示す一例では、図8Cに示したパレート最適解の状態に加え、3つのパレート最適解に係るニューラルネットワークP4〜P6が強調表示されていることがわかる。
ここで、ニューラルネットワークP4〜P6はそれぞれ、最高性能、中間解、及び最小演算量に係るネットワークであってよい。この際、ニューラルネットワークP4は、探索されたネットワークのうち、最も誤差の少ないネットワークであってよい。また、ニューラルネットワークP5は、探索されたネットワークのうち、誤差及び演算量のバランスに優れたネットワークであってよい。なお、中間解の定義は、条件に応じて適宜設計されてよい。また、ニューラルネットワークP6は、探索されたネットワークのうち、誤差がシードネットワーク以下かつ演算量が最も少ないネットワークであってよい。このように、本実施形態に係る情報処理方法では、探索されたネットワークから条件に一致する候補を選択し、ユーザに提示することができる。
また、領域V2には、上記で説明した最高性能、中間解、及び最小演算量に係るネットワークP4〜P6の評価概要R1〜R3が表示されてよい。図9を参照すると、評価概要R1〜R3には、実行日時、学習誤差、ヴァリデーション誤差、及び演算量の情報が含まれている。ユーザは、評価概要R1〜R3に示される上記の情報を確認することで、学習結果の概要を把握することができる。
また、図示しないが、ユーザは、評価概要R1〜R3を選択することで、該当するニューラルネットワークの詳細を表示させることができてよい。ユーザは、例えば、評価概要R1〜R3をクリックすることで、該当するネットワーク構造や、より詳細な学習曲線などを確認することができる。また、この際、情報処理装置10のフォーム制御部130は、例えば、最高性能に係るニューラルネットワークの評価概要R1がデフォルトで選択された状態となるよう制御を行ってもよい。
さらには、ユーザは、評価概要R1〜R3を操作することで、該当するニューラルネットワークの実行に係るファイルをダウンロードできてよい。ここで、ダウンロードされるファイルには、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及び上記の2ファイルを読み込んでForwardProp(予測や識別)を実行するソースコードなどが含まれてよい。
以上、本実施形態に係る探索結果の提示例について説明した。上述したとおり、本実施形態に係る情報処理方法は、パレート最適解に係るニューラルネットワークから選択した候補をユーザに提示することができる。ここで、上記の候補は、最高性能、中間解、及び最小演算量に係るネットワークを含んでよい。また、本実施形態に係る情報処理方法では、ネットワークの実行に係るファイルをユーザにダウンロードさせることができる。これにより、ユーザは、条件に適したネットワークを容易に選択し、当該ネットワークの実行に係るファイルを取得することできる。
なお、上記では、最高性能、中間解、及び最小演算量に係るネットワークを提示する場合を例に説明したが、本実施形態に係る探索結果の提示は、係る例に限定されない。本実施形態に係る探索結果の提示は、例えば、ユーザが予め指定したハードウェアの仕様に基づいて行われてもよい。評価部320は、例えば、ハードウェアに搭載可能な演算量を考慮することもできる。すなわち、評価部320は、上記の演算量を下回り、かつ誤差の最も少ないネットワークを選択し、ユーザに提示してもよい。本実施形態に係る探索結果の提示は、要件に応じて適宜変更され得る。
<<2.3.本実施形態に係る探索の効果>>
以上、本実施形態に係るネットワーク構造の探索について説明した。続いて、本実施形態に係る探索の効果について説明する。
(新たなネットワーク構造の発見)
図10A及び図10Bは、図1に示したシードネットワークSNを基に探索されたネットワーク構造の構成例を示す図である。図10Aを参照すると、探索後のニューラルネットワークMN3では、シードネットワークSNに比べ、「Conv1」や「Pool2」に係るパラメータ数が変化していることがわかる。
具体的には、探索後のニューラルネットワークMN3では、「Conv1」に係るカーネルシェイプが、シードネットワークSNの5(縦)×5(横)から、4(縦)×8(横)に変更されている。また、探索後のニューラルネットワークMN3では、「Pool2」に係るプールシェイプが、シードネットワークSNの2(縦)×2(横)から、2(縦)×4(横)に変更されている。
上記のように、本実施形態に係る情報処理方法では、人手による探索では、手が及びづらい異方性パラメータを発見することが可能である。図10Aに示すような異方性パラメータは、レイヤーごとに無数のパターンが存在するため、ユーザが異なる値を設定し、探索を行うのは困難である。一方、本実施形態に係る情報処理方法は、パラメータをランダムに変更し探索を行うため、上記のような異方性パラメータを発見できる可能性を高めることが可能である。
また、図10Bを参照すると、探索後のニューラルネットワークMN4では、「Conv1」及び「Conv2」の後に、それぞれ異なる活性化関数「Abs1」及び「Relu1」が挿入されていることがわかる。また、探索後のニューラルネットワークMN4では、ネットワーク構造に新たに「Dropout」が挿入されている。また、図示されていないが、探索後のニューラルネットワークMN4における「Conv1」では、ストライドパラメータが1(縦)×2(横)に変更されている。
上記のように、本実施形態に係る情報処理方法では、同一の活性化関数を繰り返し使用するのではなく、レイヤー構成に適したコンポーネントの配置を新たに発見することが可能である。すわなち、本実施形態に係る情報処理方法では、ネットワーク構造をランダムに変化させることで、ユーザが設定しがちなネットワーク構造とは異なる、新たなネットワーク構造を発見する効果を有する。
(本実施形態に係る評価結果)
続いて、本実施形態に係る情報処理方法の評価結果について述べる。図11A及び図11Bは、手書き数字認識データセットMNISTを用いた本実施形態に係る情報処理方法の評価結果を示すグラフである。
ここで、図11A及び図11Bに示す評価結果は、学習データ数6万、評価データ数1万、入力ノード28×28、出力ノード10(0〜9)により得られたデータである。また、図11A及び図11Bに示す評価結果では、互いにネットワーク構造の異なる5つのシードネットワークNN1〜NN5を評価している。
図11Aは、評価データ誤差(Categorical Cross Entropy)と探索試行回数との関係を示している。図11Aでは、縦軸に評価データ誤差、横軸に探索試行回数が示されている。図11Aを参照すると、シードネットワークNN1〜NN5のいずれにおいても、探索試行回数と共に評価データ誤差が低減していることがわかる。例えば、シードネットワークNN1においては、探索開始前の評価データ誤差が0.044であるのに対し、探索終了後の評価データ誤差は0.027を示している。このように、本実施形態に係る情報処理方法によれば、シードネットワークに基づいて、より精度の高いネットワーク構造を探索することが可能となる。
また、図11Bは、乗加算回数と探索試行回数との関係を示している。図11Bでは、縦軸に乗加算回数、横軸に探索試行回数が示されている。図11Bを参照すると、シードネットワークNN1〜NN5のいずれにおいても、探索試行回数と共に乗加算回数が低減していることがわかる。例えば、シードネットワークNN1においては、探索開始前の乗加算回数が2.3Mであるのに対し、探索終了後の乗加算回数は103Kを示している。このように、本実施形態に係る情報処理方法によれば、シードネットワークに基づいて、より演算量を抑えたネットワーク構造を探索することが可能となる。
以上、本実施形態に係る情報処理方法の評価結果について説明した。上述したとおり、本実施形態に係る情報処理方法によれば、シードネットワークを基に、より精度が高く、より軽いネットワークを発見することが可能となる。すなわち、本実施形態に係る情報処理方法は、性能を損なわず実行速度を大幅に改善したネットワーク構造を自動的に発見する効果を有する。
<3.第2の実施形態>
<<3.1.本実施形態に係る予測誤差の測定>>
以上、本開示の第1の実施形態に係る情報処理方法について説明した。続いて、本開示の第2の実施形態に係る情報処理方法について詳細に説明する。本開示の第2の実施形態に係る情報処理方法では、生成されたニューラルネットワークの予測誤差を測定し、当該予測誤差に基づいて選択したニューラルネットワークの評価結果を取得すること、を特徴の一つとする。すなわち、本実施形態に係る情報処理方法では、事前の誤差予測に基づいて取得した別のニューラルネットワークの評価結果と評価済のニューラルネットワークの評価結果とを比較することができる。上記の予測誤差には、予測された学習誤差または予測されたヴァリデーション誤差のうち少なくとも一方に係る値が含まれてよい。すなわち、本実施形態に係る情報処理方法は、生成されたニューラルネットワークのうち、最も小さい誤差が期待できるネットワークを選択的に評価することで、探索効率を向上させることが可能である。
なお、以下の説明においては、第1の実施形態との差異について重点的に説明し、共通する情報処理装置10及び情報処理サーバ30の機能については、説明を省略する。
(予測誤差に基づく評価対象の選択)
上述したとおり、本実施形態に係る情報処理方法は、生成されたニューラルネットワークの予測誤差を測定し、最も小さい誤差が期待できるネットワークを選択的に評価することができる。図12は、本実施形態に係る評価対象の選択を説明するための概念図である。
図12を参照すると、本実施形態に係る情報処理方法では、元となるニューラルネットワークO1に基づいて、複数の別のニューラルネットワークM1〜M4が生成される。すなわち、生成部310は、シードネットワークまたはパレート最適解に係るネットワークから、複数のニューラルネットワークを生成する。この際、元となるニューラルネットワークは、必ずしも単一のネットワークでなくてもよい。すなわち、生成部310は、複数の元となるネットワークから、複数の別のニューラルネットワークを生成してよい。
次に、本実施形態に係る評価部320は、生成部310が生成した複数のニューラルネットワークの予測誤差を測定する。図12に示す一例では、評価部320がニューラルネットワークM1〜M4の予測誤差をそれぞれ測定している。この際、評価部320は、生成されたニューラルネットワークに係るネットワーク構造の特徴量に基づいて予測誤差を測定してよい。評価部320による予測誤差測定の詳細については後述する。
続いて、評価部320は、予測誤差を測定したニューラルネットワークのうち、最も小さい誤差が期待できるネットワークを次の評価対象として選択する。図12に示す一例は、評価部320が、最も予測誤差の小さいニューラルネットワークM1を選択した場合を示している。
以上、説明したように、本実施形態に係る情報処理方法では、生成された複数のニューラネットワークのうち、最も小さい誤差が期待できるニューラルネットワークを選択的に評価することができる。これにより、本実施形態に係る情報処理方法では、生成された単一のネットワークの評価を繰り返す第1の実施形態と比較し、探索の効率を向上させる効果が期待できる。なお、図12の例では、元となるネットワークから4つのニューラルネットワークを生成する場合を示したが、生成部310が生成するネットワークの数は、1100以上であってもよいし、1000以上であってもよい。
(ガウシアンプロセスによる予測誤差の測定)
続いて、本実施形態に係るガウシアンプロセスを利用した予測誤差の測定について説明する。上述したとおり、本実施形態に係る情報処理方法では、生成されたニューラルネットワークの予測誤差を測定することができる。この際、評価部320は、ネットワーク構造を特徴量ベクトル化し、当該特徴量ベクトルからエラーを回帰することで、予測誤差の測定を行ってよい。すなわち、本実施形態に係る評価部320は、評価済のネットワークの特徴量ベクトルと誤差から定義されるガウシアンプロセスにより、予測誤差を測定することができる。
図13は、本実施形態に係るガウシアンプロセスの概念図である。図13に示す一例では、縦軸に誤差が、横軸にネットワークの特徴量ベクトルが示されており、各点が評価済のネットワーク構造を示している。また、図13において、曲線はガウス確率場により予測された予測誤差の平均μを示しており、ハッチングにより強調された領域は予測誤差の分散μ±σ1を示している。このように、本実施形態に係る情報処理方法では、ガウシアンプロセスにより、生成されたネットワークの予測誤差を測定することができる。また、図13において、直線LLは、評価済のネットワークに係る最小の誤差を示すラインであり、評価部320は、直線LLが更新される確率が最も高いネットワーク構造を、次の評価対象として選択してよい。なお、図13に示した図は概念図であるため、1次元により表現されている。
以上、説明したように、本実施形態に係る情報処理方法では、ガウシアンプロセスを用いて、ニューラルネットワークの予測誤差を測定することができる。ここで、上記の予測誤差は、予測された誤差の平均及び分散を含んでよい。評価部320は、予測された誤差の平均及び分散と、演算量と、に基づいて評価対象とするネットワークを選択し、評価結果を取得することができる。
(予測誤差の分布に基づいた評価対象の選択)
以上、本実施形態に係るガウシアンプロセスによる予測誤差の測定について述べた。上述したとおり、本実施形態に係る評価部320は、予測された誤差の平均及び分散と、演算量と、に基づいて評価対象とするネットワークを選択してよい。この際、評価部320は、予測誤差の分布と演算量とに基づいて、評価対象を決定することができる。評価部320は、例えば、パレート最適解に係る境界線を更新する面積の期待値に基づいて、評価対象とするニューラルネットワークを選択してもよい。具体的には、評価部320は、生成されたネットワークの予測誤差の平均及び分散から上記の期待値を積分で求め、期待値が最大となるネットワークを選択することができる。これにより、本実施形態に係る情報処理方法では、より誤差が小さく、より演算量の少ないネットワークを効率的に探索することができる。
図14は、パレート最適解に係る境界線を更新する面積の期待値について説明するための概念図である。図14では、縦軸に誤差が、横軸に乗加算回数が示されている。また、図14には、評価済のネットワークEN1〜EN4により構成されるパレート最適解の境界線PLが示されている。
また、図14には、生成部310により生成されたネットワークCN1〜CN3の予測誤差と、それぞれのネットワークCN1〜CN3に係る予測誤差の分布を示すD1〜D3が示されている。ここで、分布D1〜D3は、予測誤差の平均及び分散から求められるデータであってよい。
本実施形態に係る評価部320は、分布D1〜D3に基づいて、境界線PLを更新する面積の期待値を求めることができる。図14に示される面積EA1〜EA3は、それぞれのネットワークCN1〜CN3に係る分布D1〜D3から算出された面積の期待値である。このように、本実施形態に係る評価部320は、パレート最適解に係る境界線を更新する面積の期待値を算出し、当該面積の期待値が最大となるネットワークを次の評価対象として選択することができる。なお、この際、面積EA1〜EA3は、演算量方向に係る面積を無限に更新する可能性があるため、評価部320は、演算量方向に係る面積については、最大値を設定してそれぞれの期待値を算出してもよい。
以上、本実施形態に係る予測誤差の測定と、当該予測誤差に基づく評価対象の選択について述べた。上述したとおり、本実施形態に係る情報処理方法では、生成されたネットワークのネットワーク構造に基づいて予測誤差を測定することができる。また、本実施形態に係る情報処理方法では、最も小さい誤差が期待できるネットワークを選択的に評価することで、探索効率を向上させることが可能である。
なお、上記では、ガウシアンプロセスを用いた予測誤差の測定を例に説明したが、本実施形態に係る予測誤差の測定は、係る例に限定されない。本実施形態に係る予測誤差は、例えば、入力されたニューラルネットワークのネットワーク構造を認識するニューラルネットワークを用いて測定されてもよい。本実施形態に係る予測誤差の想定には、種々の機械学習手法を適用することが可能である。
<<3.2.ネットワーク構造に係る特徴量ベクトルの算出>>
次に、本実施形態に係る特徴量ベクトルの算出について詳細に説明する。上述したとおり、本実施形態に係る情報処理方法では、生成されたネットワークのネットワーク構造に基づいて、当該ネットワーク構造の特徴量ベクトルを算出することができる。この際、評価部320は、以下の数式(1)を用いて、特徴量ベクトルを算出してよい。
Figure 2019175513
ここで、数式(1)におけるnet2vecは、ネットワーク構造に基づいて、特徴量ベクトルを算出するための関数であってよい。本実施形態に係る情報処理方法では、数式(1)により算出された特徴量ベクトルを、上記の数式(2)に適用することで、ネットワークの予測誤差を算出することができる。上述したように、数式(2)における関数fは、ガウシアンプロセスにより定義されるものであってよい。
(net2vecによる特徴量ベクトルの算出)
続いて、本実施形態に係るnet2vecの詳細について説明する。本実施形態に係るnet2vecは、レイヤーの出現頻度、レイヤーの出現位置に係るヒストグラム、出現位置ごとの分岐数、及び出現位置ごとの主要パラメータの統計量に基づいて、特徴量ベクトルを算出することができる。
ここで、レイヤーの出現頻度は、n−gramにより求められてよい。この際、評価部320は、uni−gram及びbi−gramを用いて、各レイヤーやレイヤーの組み合わせに係る出現頻度を算出することができる。なお、ネットワーク構造にグラフ分岐が存在する場合、評価部320は、分岐ルートごとに出現頻度を求めてよい。
また、レイヤーの出現位置に係るヒストグラムは、各出現位置における各レイヤーの数に基づいて求められてよい。この際、評価部320は、例えば、ネットワーク構造に係る出現位置を8区分に定義して上記のヒストグラムを算出してもよい。また、出現位置ごとの分岐数は、各出現位置におけるグラフ分岐数の平均値であってよい。
また、出現位置ごとの主要パラメータの統計量は、上記の出現位置ごとにおける各パラメータの最大量、合計値、及び平均値などを基に求められてよい。評価部320は、例えば、出力バッファサイズ、レイヤーに含まれるパラメータ数(メモリ量)、乗加算回数などを主要パラメータの統計量として扱ってよい。
また、上記の主要パラメータには、Affineレイヤーのアウトシェイプ、LCL(Locally Connected Layer)またはConvolutionレイヤーのカーネルシェイプや出力マップが含まれてもよい。
また、主要パラメータには、Max−PoolingやSum−Poolingに係るプールシェイプや、Dropoutに係る確率Pなどが含まれてもよい。
以上、説明したように、本実施形態に係るnet2vecでは、ネットワーク構造に係る種々の要素を考慮して、ネットワーク構造の特徴量ベクトルを算出することができる。なお、本実施形態に係るnet2vecは、上記に挙げた例以外の要素に基づいて、特徴量ベクトルを算出してもよい。本実施形態に係るnet2vecは、評価するニューラルネットワーク群の特定に応じて柔軟に変形され得る。
(net2vecの評価結果)
続いて、本実施形態に係るnet2vecの評価結果について述べる。図15〜図17は、第1の実施形態に係る情報処理方法において、MNISTデータセットを用いて探索を行った際に得られた評価実験の結果を示している。なお、図15〜図17に示す評価結果は、前853データを処理して得られた結果である。
図15は、特徴量ベクトルと誤差との関係を回帰学習し、net2vecの妥当性を検証した結果を示している。図15には、縦軸に実測誤差が、横軸に特徴量ベクトルから算出された予測誤差が示されている。図15を参照すると、net2vecを用いて算出される予測誤差と実測誤差とには、強い正の相関(R=0.77)が認められる。このように、本実施形態に係る情報処理方法では、net2vecによりネットワーク構造の特徴量ベクトルを算出することで、精度の高い誤差予測を実現することが可能である。
また、例えば、図15に示す評価結果では、予測誤差が0.1を超える場合、実測誤差の値も大きくなる傾向が認められる。このため、評価部320による評価対象の選択では、予測誤差が0.1を超えるネットワークを排除するなどの条件を設けてもよい。本実施形態に係る情報処理方法では、得られた評価結果に基づいて、生成部310及び評価部320の動作を適宜修正することで、より精度の高い探索を実現できる。
次に、図16に示される評価結果について説明する。図16は、ネットワーク構造における各特徴と、それぞれの特徴に係る学習精度への寄与率との関係を示している。なお、図16において、「at_n」で示される数字は、上記で説明したレイヤーの出現位置を示す値であり、数値が小さいほど、入力層に近いことを示している。
図16を参照すると、例えば、入力層に近い出現位置におけるレイヤーの最大出力サイズや平均出力サイズが、学習精度に大きく影響を与えていることがわかる。また、例えば、Dropoutを挿入することで、学習精度が向上する傾向があることがわかる。上記のように、本実施形態に係る情報処理方法では、ネットワーク構造における各特徴の学習精度への寄与率を分析することで、ニューラルネットワークの性能に影響する要因を特定することが可能である。
図17A〜図17Cは、図16に示した学習精度への寄与率に係る詳細な評価結果の例である。ここで、図17Aは、最大出力サイズ(出現位置=0)と実測誤差との関係を示すグラフである。図17Aには、縦軸に実測誤差、横軸に出現位置0における最大出力サイズが示されている。図17Aを参照すると、入力層に近い出現位置0においては、レイヤーの最大出力サイズが大きいほど実測誤差が小さくなる傾向が認められる。
また、図17Bは、合計パラメータ数(出現位置=4)と実測誤差との関係を示すグラフである。図17Bには、縦軸に実測誤差、横軸に出現位置4における合計パラメータ数が示されている。図17Bを参照すると、処理全体の中間にあたる出現位置4においては、合計パラメータ数が比較的大きい場合に実測誤差が小さくなる傾向が認められる。
また、図17Cは、Dropoutの出現回数と実測誤差との関係を示すグラフである。図17Cには、縦軸に実測誤差、横軸にDropoutの出現回数が示されている。図17Cを参照すると、Dropoutの出現回数が1回である場合に実測誤差が小さくなる傾向が認められる。
以上、本実施形態に係るnet2vecの評価結果について説明した。上述したとおり、本実施形態に係る情報処理方法では、net2vecを用いることで、精度の高い予測誤差測定を実現することができる。また、本実施形態に係る情報処理方法では、学習精度に影響するネットワーク構造の特徴を分析することが可能である。
<<3.3.本実施形態に係る探索の効果>>
以上、本実施形態に係るネットワーク構造の探索について説明した。続いて、本実施形態に係る探索の効果について説明する。
(パレート最適解の更新に係る頻度向上)
図18A〜図18Cは、第1及び第2の実施形態に係るネットワーク探索の過程を比較した図である。図18A〜図18Cでは、図中左に第1の実施形態に係る探索画面EMが、図中右に第2の実施形態に係る探索画面BOがそれぞれ示されている、また、探索画面EM及びBOでは、縦軸に誤差が、横軸に乗加算回数が示されている。
図18Aは、第1及び第2の実施形態に係る探索開始時点のトレードオフ情報を示す図である。図18Aを参照すると、探索画面EM及びBOには、シードネットワークに係るヴァリデーション誤差SV2及びSV3と、パレート最適解の境界線PL2及びPL3と、がそれぞれ示されている。
なお、本段階では、評価済のネットワークがシードネットワークのみであるため、それぞれの探索画面EM及びBOにおけるパレート最適解の境界線PL2及びPL3には、シードネットワークのヴァリデーション誤差SV2またはSV3のみが表示されている。
図18Bは、第1及び第2の実施形態に係る探索において、探索が5回繰り返された場合のトレードオフ情報を示す図である。すなわち、図18Bに示される探索画面EM及びBOには、生成部310によるネットワークの生成と、評価部320による評価結果の取得と、が5回繰り返された際のトレードオフ情報が示されている。この際、第2の実施形態に係る探索においては、上述したとおり、評価部320による予測誤差の測定に基づいた評価対象の決定が実施されている。
ここで、第1の実施形態に係る探索画面EMを参照すると、パレート最適解の境界線PL2は、1つのパレート最適解により更新されていることがわかる。一方、第2の実施形態に係る探索画面BOでは、パレート最適解の境界線PL3は、3つのパレート最適解により更新されている。すなわち、第2の実施形態に係る情報処理方法では、第1の実施形態と比較し、より効率的にパレート最適解を更新することができる。
また、図18Cは、第1及び第2の実施形態に係る探索終了時点のトレードオフ情報を示す図である。図18Cを参照すると、第2の実施形態に係る探索画面BOでは、探索画面EMに比べ、より多くのパレート最適解が提示されていることがわかる。また、第2の実施形態に係る探索では、より演算数の少ないネットワーク構造が効率的に探索されていることがわかる。
以上、説明したように、本開示に係る第2の実施形態では、生成された複数のネットワークの予測誤差を測定し、当該予測誤差に基づいて評価対象を選択することで、探索の効率を大きく向上させることが可能である。なお、図18A〜Cでは図示していないが、第2の実施形態に係る探索画面BOでは、評価部320が選択したネットワークに係る予測誤差の平均や分散の値が画面上に表示されてもよい。ユーザは、上記の予測誤差を確認することで、パレート最適解の境界線PL3が更新される期待値を把握することができる。
(本実施形態に係る評価結果)
続いて、本実施形態に係る情報処理方法の評価結果について述べる。図19A〜図19Dは、第1及び第2の実施形態に係るネットワーク構造の探索結果と探索試行回数との関係を示すグラフである。すなわち、図19A〜図19Dは、第1及び第2の実施形態に係る情報処理方法により、学習精度と演算量の両方を考慮して探索を行った結果を示している。なお、図19A〜図19Dでは、横軸に探索試行回数が示されている。
図19Aは、探索試行回数と実測誤差との関係を示すグラフである。図19Aには、縦軸に実測誤差が示されており、第1の実施形態に係る評価結果EM1、及び第2の実施形態に係る評価結果BO1がそれぞれプロットされている。
図19Aにおいて、例えば、実測誤差0.033を実現するネットワークに着目すると、第2の実施形態に係る探索では、第1の実施形態と比べ、およそ1/3〜1/4の探索試行回数で該当するネットワークを発見できている。このように、第2の実施形態に係る情報処理方法によれば、より少ない探索試行回数で学習精度の高いネットワーク構造を探索することが可能である。
また、図19Bは、探索試行回数と実測誤差0.04を実現する乗加算回数との関係を示すグラフである。図19Bには、縦軸に乗加算回数が示されており、第1の実施形態に係る評価結果EM2、及び第2の実施形態に係る評価結果BO2がそれぞれプロットされている。
図19Bにおいて、例えば、乗加算回数が300K回を下回るネットワークに着目すると、第2の実施形態に係る探索では、第1の実施形態と比べ、およそ1/6〜1/7の探索試行回数で該当するネットワークを発見できている。
また、図19Cは、探索試行回数と実測誤差0.05を実現する乗加算回数との関係を示すグラフである。図19Cには、縦軸に乗加算回数が示されており、第1の実施形態に係る評価結果EM3、及び第2の実施形態に係る評価結果BO3がそれぞれプロットされている。
図19Cにおいて、例えば、乗加算回数が300K回を下回るネットワークに着目すると、第2の実施形態に係る探索では、第1の実施形態と比べ、およそ1/8〜1/9の探索試行回数で該当するネットワークを発見できている。
また、図19Dは、探索試行回数と実測誤差0.06を実現する乗加算回数との関係を示すグラフである。図19Dには、縦軸に乗加算回数が示されており、第1の実施形態に係る評価結果EM4、及び第2の実施形態に係る評価結果BO4がそれぞれプロットされている。
図19Dにおいて、例えば、乗加算回数が300K回を下回るネットワークに着目すると、第2の実施形態に係る探索では、第1の実施形態と比べ、およそ1/8の探索試行回数で該当するネットワークを発見できている。
以上、図19B〜図19Dに示したとおり、本実施形態に係る情報処理方法によれば、より少ない探索試行回数で、性能を損なわず実行速度を大幅に改善したネットワーク構造を探索することが可能である。
<<3.4.本開示に係る探索の設定>>
次に、本開示に係る探索の設定について説明する。本開示に係るネットワーク構造の探索は、ユーザによる種々の設定を受け付けてよい。図20は、本開示の探索に係る設定画面の一例である。ここで、図20に示す例は、情報処理装置10の表示部110に表示される画面例であってよい。
図20を参照すると、本開示の探索に係る設定画面は、例えば、探索方法、最適化対象、探索範囲、早期終了、及びタイムリミットに係る設定項目を含んでよい。
ユーザは、探索方法(Method)を選択することで、ネットワーク構造の探索を行う際の探索方法を指定できてよい。ユーザは、例えば、第1の実施形態に係るランダム選択による探索や、第2の実施形態に係る予測誤差を用いた探索方法などを指定できてよい。
また、ユーザは、最適化対象(Optimize for)を選択することで、最適化する対象を指定できてよい。ユーザは、例えば、学習精度と演算量の両方を最適化するように指定できてもよいし、学習精度または演算量のいずれか一方を最適化するように指定できてもよい。最適化対象を指定することで、ユーザは用途に則した探索結果を得ることができる。
また、ユーザは、探索範囲(Search Range)を入力することで、探索を行うネットワークの範囲を指定できてよい。ユーザは、例えば、探索するネットワークのヴァリデーション誤差や乗加算回数に係る最大値及び最小値を指定できてよい。ユーザは、上記の探索範囲を指定することで、演算量の多すぎるネットワークや学習精度の低すぎるネットワークの探索を防ぐことができる。
また、ユーザは、早期終了(Early Stopping)をチェックすることで、ニューラルネットワークの学習に係る早期終了を設定できてよい。ここで、上記の早期終了設定とは、学習中のネットワークが既存のネットワーク性能を超えることがないと予想されることに基づいて、当該学習中のネットワークを早期終了させる設定であってよい。ユーザが上記の早期終了を設定することで、探索に係る処理時間を短縮することが可能である。
また、ユーザは、タイムリミット(Time Limit)の値を入力することで、ネットワークの学習時間に係る時間制限を設定できてよい。ここで、上記のタイムリミットとは、1つの学習に対して許容し得る学習時間の制限であってよい。ユーザは、上記のタイムリミットを設定することで、学習に時間の掛かり過ぎるネットワークの探索を防ぐことができる。
以上、本開示に係る探索の設定について説明した。上述したとおり、本開示に係る情報処理方法は、ネットワークの探索に係る種々の設定を受け付けることができる。これにより、本開示に係る情報処理方法では、よりユーザにとって価値の高い探索を実行することが可能である。
なお、本開示に係るネットワークの探索は、上記に挙げた例以外の設定により制御されてもよい。本開示に係る探索は、例えば、ユーザにより指定された探索試行回数や、ニューラルネットワークが実装されるハードウェアに係る使用メモリ量などの制限情報に基づいて制御されてもよい。本開示に係る探索の設定は、ニューラルネットワークに係る仕様や運用に応じて適宜変更され得る。
<4.ハードウェア構成例>
次に、本開示に係る情報処理装置10及び情報処理サーバ30に共通するハードウェア構成例について説明する。図21は、本開示に係る情報処理装置10及び情報処理サーバ30のハードウェア構成例を示すブロック図である。図21を参照すると、情報処理装置10及び情報処理サーバ30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力装置879)
出力装置879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<5.まとめ>
以上説明したように、本開示に係る情報処理方法は、評価済みのニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成すること、を特徴の一つとする。また、本開示に係る情報処理方法では、生成されたニューラルネットワークの評価結果を取得し、当該取得結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新することが可能である。さらに、本開示に係る情報処理方法は、パレート最適に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することができる。係る構成によれば、環境に応じたネットワーク構造をより効率的に探索することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、情報処理サーバ30が、ニューラルネットワークの生成及びパレート最適解の更新を行う場合を例に説明したが、本技術は係る例に限定されない。例えば、ニューラルネットワークの生成及びパレート最適解の更新は、情報処理装置10により実現されてもよい。この場合、情報処理装置10のフォーム制御部130が、シードネットワークに基づいて別のネットワークを生成し、当該別のネットワークに係る情報を情報処理サーバ30に送信してもよい。また、フォーム制御部130は、情報処理サーバ30から取得したネットワークの評価結果に基づいてパレート最適解を更新し、表示部110に表示させてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
プロセッサが、評価済のニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することと、
生成されたニューラルネットワークの評価結果を取得することと、
生成されたニューラルネットワークの評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新することと、
前記パレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成することと、
を含む、
情報処理方法。
(2)
遺伝的操作により、前記別のニューラルネットワークを生成する、
前記(1)に記載の情報処理方法。
(3)
前記遺伝的操作は、突然変異または交叉のうち少なくとも一方を含む、
前記(2)に記載の情報処理方法。
(4)
前記突然変異は、レイヤーの挿入、レイヤーの削除、レイヤー種類の変更、パラメータの変更、グラフ分岐、またはグラフ分岐の削除を含む、
前記(3)に記載の情報処理方法。
(5)
前記評価結果は、演算量、及び学習誤差またはヴァリデーション誤差のうち少なくとも一方を含む、
前記(1)〜(4)のいずれかに記載の情報処理方法。
(6)
生成されたニューラルネットワークの予測誤差を測定すること、
をさらに含み、
前記予測誤差は、予測された学習誤差または予測されたヴァリデーション誤差のうち少なくとも一方に係る値を含み、
前記評価結果を取得することは、前記予測誤差に基づいて選択したニューラルネットワークの前記評価結果を取得すること、を含む、
前記(1)〜(5)のいずれかに記載の情報処理方法。
(7)
生成されたニューラルネットワークに係るネットワーク構造の特徴量に基づいて前記予測誤差を測定する、
前記(6)に記載の情報処理方法。
(8)
前記予測誤差は、予測された誤差の平均及び分散を含み、
前記評価結果を取得することは、前記予測された誤差の平均及び分散と、演算量と、に基づいて選択したニューラルネットワークの前記評価結果を取得すること、を含む、
前記(6)または(7)に記載の情報処理方法。
(9)
前記評価結果を取得することは、前記パレート最適解に係る境界線を更新する面積の期待値に基づいて選択したニューラルネットワークの前記評価結果を取得すること、を含む、
前記(8)に記載の情報処理方法。
(10)
前記ネットワーク構造の特徴量は、レイヤーの出現頻度、レイヤーの出現位置に係るヒストグラム、前記出現位置ごとの分岐数、または前記出現位置ごとの主要パラメータの統計量のうち少なくとも1つに基づいて算出される、
前記(7)〜(9)のいずれかに記載の情報処理方法。
(11)
前記パレート最適解に係るニューラルネットワークから選択した候補をユーザに提示すること、
をさらに含み、
前記候補は、最高性能、中間解、または最小演算量に係るニューラルネットワークのうち少なくとも1つを含む、
前記(5)〜(10)のいずれかに記載の情報処理方法。
(12)
入力されたニューラルネットワークのネットワーク構造を変化させるニューラルネットワークを用いて、別のニューラルネットワークを生成する、
前記(1)〜(11)のいずれかに記載の情報処理方法。
(13)
前記予測誤差を測定することは、入力されたニューラルネットワークのネットワーク構造を認識するニューラルネットワークを用いて前記予測誤差を測定すること、を含む、
前記(6)〜(10)のいずれかに記載の情報処理方法。
(14)
評価済のニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成する生成部と、
生成されたニューラルネットワークの評価結果を取得する評価部と、
を備え、
前記評価部は、生成されたニューラルネットワークの評価結果に基づいて、評価済のニューラルネットワークに係るパレート最適解を更新し、
前記生成部は、前記パレート最適解に係るニューラルネットワークから、ネットワーク構造の異なる別のニューラルネットワークを生成する、
情報処理装置。
(15)
ユーザによるニューラルネットワークの指定を受け付ける入力部と、
評価済のニューラルネットワークに係るパレート最適解の提示を制御する制御部と、
を備え、
前記制御部は、前記ユーザにより指定されたニューラルネットワークから生成された別のニューラルネットワークの評価結果に基づいて更新されるパレート最適解を提示する、
情報処理装置。
(16)
プロセッサが、一のニューラルネットワークからネットワーク構造の異なる別のニューラルネットワークを生成することと、
生成された前記別のニューラルネットワークの評価結果が、前記一のニューラルネットワークの評価結果を上回る場合、前記別のニューラルネットワークをパレート最適解として更新することと、
を含む、
情報処理方法。
(17)
前記評価結果は、演算量または誤差のうち少なくともいずれか一方を含み、
前記パレート最適解として更新することは、前記演算量または誤差のいずれか一方を小さくすることをさらに含む、
前記(16)に記載の情報処理方法。
(18)
前記別のニューラルネットワークを生成することは、遺伝的操作により前記別のニューラルネットワークを生成すること、をさらに含み、
前記遺伝的操作は、突然変異または交叉のうち少なくとも一方を含む、
前記(16)または(17)に記載の情報処理方法。
(19)
前記パレート最適解として更新することは、事前の誤差予測に基づいて取得した別のニューラルネットワークの評価結果と前記一のニューラルネットワークの評価結果とを比較すること、をさらに含む、
前記(16)〜(18)のいずれかに記載の情報処理方法。
(20)
前記パレート最適解として更新された前記別のニューラルネットワークを、前記一のニューラルネットワークとして新たな別のニューラルネットワークを生成すること、
をさらに含む、
前記(16)〜(19)のいずれかに記載の情報処理方法。
10 情報処理装置
110 表示部
120 入力部
130 フォーム制御部
140 サーバ通信部
20 ネットワーク
30 情報処理サーバ
310 生成部
320 評価部
330 装置通信部

Claims (6)

  1. プロセッサが、一のニューラルネットワークからネットワーク構造の異なる別のニューラルネットワークを生成することと、
    生成された前記別のニューラルネットワークの評価結果が、前記一のニューラルネットワークの評価結果を上回る場合、前記別のニューラルネットワークをパレート最適解として更新することと、
    を含む、
    情報処理方法。
  2. 前記評価結果は、演算量または誤差のうち少なくともいずれか一方を含み、
    前記パレート最適解として更新することは、前記演算量または誤差のいずれか一方を小さくすることをさらに含む、
    請求項1に記載の情報処理方法。
  3. 前記別のニューラルネットワークを生成することは、遺伝的操作により前記別のニューラルネットワークを生成すること、をさらに含み、
    前記遺伝的操作は、突然変異または交叉のうち少なくとも一方を含む、
    請求項1に記載の情報処理方法。
  4. 前記パレート最適解として更新することは、事前の誤差予測に基づいて取得した別のニューラルネットワークの評価結果と前記一のニューラルネットワークの評価結果とを比較すること、をさらに含む、
    請求項1に記載の情報処理方法。
  5. 前記パレート最適解として更新された前記別のニューラルネットワークを、前記一のニューラルネットワークとして新たな別のニューラルネットワークを生成すること、
    をさらに含む、
    請求項1に記載の情報処理方法。
  6. ユーザによるニューラルネットワークの指定を受け付ける入力部と、
    評価済のニューラルネットワークに係るパレート最適解の提示を制御する制御部と、
    を備え、
    前記制御部は、前記ユーザにより指定されたニューラルネットワークから生成された別のニューラルネットワークの評価結果に基づいて更新されるパレート最適解を提示する、
    情報処理装置。
JP2019128361A 2016-03-09 2019-07-10 情報処理方法 Active JP6922945B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016045614 2016-03-09
JP2016045614 2016-03-09
JP2018503999A JP6555411B2 (ja) 2016-03-09 2016-11-28 情報処理方法および情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018503999A Division JP6555411B2 (ja) 2016-03-09 2016-11-28 情報処理方法および情報処理装置

Publications (3)

Publication Number Publication Date
JP2019175513A true JP2019175513A (ja) 2019-10-10
JP2019175513A5 JP2019175513A5 (ja) 2020-01-09
JP6922945B2 JP6922945B2 (ja) 2021-08-18

Family

ID=59789126

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018503999A Active JP6555411B2 (ja) 2016-03-09 2016-11-28 情報処理方法および情報処理装置
JP2019128361A Active JP6922945B2 (ja) 2016-03-09 2019-07-10 情報処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018503999A Active JP6555411B2 (ja) 2016-03-09 2016-11-28 情報処理方法および情報処理装置

Country Status (4)

Country Link
US (1) US20180365557A1 (ja)
EP (1) EP3428856A4 (ja)
JP (2) JP6555411B2 (ja)
WO (1) WO2017154284A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7311700B1 (ja) 2022-07-11 2023-07-19 アクタピオ,インコーポレイテッド 情報処理方法、情報処理装置および情報処理プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949736B2 (en) * 2016-11-03 2021-03-16 Intel Corporation Flexible neural network accelerator and methods therefor
US20180330272A1 (en) * 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Method of Adding Classes to Classifier
JP6694197B2 (ja) * 2017-09-28 2020-05-13 良徳 若林 学習ネットワーク生成装置、及び学習ネットワーク生成プログラム
KR102227906B1 (ko) * 2017-12-29 2021-03-16 주식회사 아임클라우드 자동 학습 데이터 생성을 통한 모델 학습 시스템 및 방법
JP6901423B2 (ja) * 2018-03-12 2021-07-14 Kddi株式会社 情報処理装置、情報処理端末、及びプログラム
US20210019122A1 (en) 2018-03-28 2021-01-21 Sony Corporation Information processing method, information processing apparatus, and program
US20210019628A1 (en) * 2018-07-23 2021-01-21 Intel Corporation Methods, systems, articles of manufacture and apparatus to train a neural network
CN112513886B (zh) * 2018-08-03 2024-03-22 索尼公司 信息处理方法、信息处理装置和信息处理程序
JP6697042B2 (ja) * 2018-08-31 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、固体撮像方法及びプログラム
JP6925474B2 (ja) * 2018-08-31 2021-08-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、情報処理システム、固体撮像装置の動作方法及びプログラム
US20200143243A1 (en) * 2018-11-01 2020-05-07 Cognizant Technology Solutions U.S. Corporation Multiobjective Coevolution of Deep Neural Network Architectures
US11556778B2 (en) * 2018-12-07 2023-01-17 Microsoft Technology Licensing, Llc Automated generation of machine learning models
CN113383347A (zh) * 2019-02-15 2021-09-10 三菱电机株式会社 信息处理装置、信息处理方法和信息处理程序
WO2020176435A1 (en) * 2019-02-25 2020-09-03 Google Llc Systems and methods for producing an architecture of a pyramid layer
WO2020198520A1 (en) 2019-03-27 2020-10-01 Cognizant Technology Solutions U.S. Corporation Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions
US11461657B2 (en) * 2019-05-10 2022-10-04 Fujitsu Limited Data augmentation in training deep neural network (DNN) based on genetic model
CN114080612A (zh) * 2019-07-22 2022-02-22 索尼集团公司 信息处理方法、信息处理设备和程序
CN112884118A (zh) * 2019-11-30 2021-06-01 华为技术有限公司 神经网络的搜索方法、装置及设备
CN111339713B (zh) * 2020-03-13 2023-09-26 上海电气风电集团股份有限公司 风电场的优化设计方法、系统、电子设备和存储介质
WO2021252734A1 (en) * 2020-06-11 2021-12-16 DataRobot, Inc. Systems and methods for managing machine learning models
US11775841B2 (en) 2020-06-15 2023-10-03 Cognizant Technology Solutions U.S. Corporation Process and system including explainable prescriptions through surrogate-assisted evolution
CN115917558A (zh) * 2020-09-10 2023-04-04 艾佐斯株式会社 超参数调整装置、记录有超参数调整程序的非暂时性记录介质以及超参数调整程序
US20220198260A1 (en) * 2020-12-22 2022-06-23 International Business Machines Corporation Multi-level multi-objective automated machine learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108593A (ja) * 1991-10-14 1993-04-30 Sanyo Electric Co Ltd ニユーロ開発支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096881A (ja) * 1995-06-15 1997-01-10 Toyo Electric Mfg Co Ltd ニューラルネットワーク
JP2001331780A (ja) * 2000-05-24 2001-11-30 Fujitsu Ltd 進化型問題解決装置及び記録媒体
JP2002288625A (ja) * 2001-03-28 2002-10-04 Mitsubishi Heavy Ind Ltd 多目的最適化方法、プログラムおよびプラン立案装置
JP2004163446A (ja) * 2002-09-24 2004-06-10 Japan Science & Technology Agency タブ譜自動作成方法、タブ譜自動作成プログラム及びそのプログラムを記録した記録媒体
US7280987B2 (en) * 2004-03-26 2007-10-09 Halliburton Energy Services, Inc. Genetic algorithm based selection of neural network ensemble for processing well logging data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108593A (ja) * 1991-10-14 1993-04-30 Sanyo Electric Co Ltd ニユーロ開発支援装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIN, YAOCHU, ET AL.: "Neural Network Regularization and Ensembling Using Multi-objective Evolutionary Algorithms", PROCEEDINGS OF THE 2004 CONGRESS ON EVOLUTIONARY COMPUTATION (IEEE CAT. NO.04TH8753), JPN6019010882, 3 September 2004 (2004-09-03), US, pages 1 - 8, ISSN: 0004407128 *
ROSALES-PEREZ, ALEJANDRO, ET AL.: "A hybrid surrogate-based approach for evolutionary multi-objective optimization", 2013 IEEE CONGRESS ON EVOLUTIONARY COMPUTATION, JPN6020048282, 15 July 2013 (2013-07-15), pages 2548 - 2555, ISSN: 0004407129 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7311700B1 (ja) 2022-07-11 2023-07-19 アクタピオ,インコーポレイテッド 情報処理方法、情報処理装置および情報処理プログラム

Also Published As

Publication number Publication date
EP3428856A1 (en) 2019-01-16
US20180365557A1 (en) 2018-12-20
JP6555411B2 (ja) 2019-08-07
JP6922945B2 (ja) 2021-08-18
WO2017154284A1 (ja) 2017-09-14
EP3428856A4 (en) 2019-04-10
JPWO2017154284A1 (ja) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6555411B2 (ja) 情報処理方法および情報処理装置
JP2024026276A (ja) 機械学習モデルにおいて動的外れ値偏り低減を実装するように構成されるコンピュータベースシステム、コンピュータコンポーネント及びコンピュータオブジェクト
JP6954003B2 (ja) データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法
JP2019139792A (ja) 情報処理方法および情報処理装置
JP2019164839A (ja) 情報処理方法および情報処理装置
CN111708876B (zh) 生成信息的方法和装置
CN109685204B (zh) 图像处理方法及装置、存储介质及电子设备
JP2012058972A (ja) 評価予測装置、評価予測方法、及びプログラム
KR102170968B1 (ko) 머신 러닝 기반의 근사모델 구축 방법 및 시스템
TWI828109B (zh) 用於組織分割之機器學習模型的交互式訓練
WO2019100635A1 (zh) 自动化测试脚本的编辑方法、装置、终端设备及存储介质
US11900052B2 (en) Automatic generation of transformations of formatted templates using deep learning modeling
CN114648681B (zh) 一种图像生成方法、装置、设备及介质
CN113939870A (zh) 为基于生成和检索的应用学习有效音乐特征的技术
US20220366257A1 (en) Small and Fast Video Processing Networks via Neural Architecture Search
CN113330462A (zh) 使用软最近邻损失的神经网络训练
Taylor et al. Interactive multiobjective optimisation: Preference changes and algorithm responsiveness
WO2020121450A1 (ja) 情報処理装置、情報処理方法、記録媒体
US11521353B2 (en) Automated processing for determination of a volume of an object in a digital environment
JP7348444B2 (ja) 機械学習モデルのハイパーパラメータ最適化過程の分析と調整のためのチューニングアルゴリズム認識視覚化方法
Hemmat et al. Feedback-guided Data Synthesis for Imbalanced Classification
JP2023520313A (ja) 不確定区間を有する性能予測の生成
JPWO2012032747A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
CN113128677A (zh) 模型生成方法和装置
JP7379300B2 (ja) 推定装置、推定方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R151 Written notification of patent or utility model registration

Ref document number: 6922945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151