JP6881511B2 - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP6881511B2
JP6881511B2 JP2019114081A JP2019114081A JP6881511B2 JP 6881511 B2 JP6881511 B2 JP 6881511B2 JP 2019114081 A JP2019114081 A JP 2019114081A JP 2019114081 A JP2019114081 A JP 2019114081A JP 6881511 B2 JP6881511 B2 JP 6881511B2
Authority
JP
Japan
Prior art keywords
learning
information
comparison
error
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019114081A
Other languages
English (en)
Other versions
JP2019164839A (ja
JP2019164839A5 (ja
Inventor
和樹 吉山
和樹 吉山
由幸 小林
由幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2019164839A publication Critical patent/JP2019164839A/ja
Publication of JP2019164839A5 publication Critical patent/JP2019164839A5/ja
Application granted granted Critical
Publication of JP6881511B2 publication Critical patent/JP6881511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/80Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
    • G06F16/83Querying
    • G06F16/838Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)
  • Debugging And Monitoring (AREA)

Description

本開示は、情報処理方法および情報処理装置に関する。
近年、脳神経系の仕組みを模したニューラルネットワークが注目されている。また、ニューラルネットワークを開発するための種々の手法が提案されている。例えば、非特許文献1には、ニューラルネットワークによる学習過程をモニタリングするライブラリが開示されている。
Google Research、外40名、「TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems」、2015年11月9日、[Online]、[平成28年1月12日検索]、インターネット<http://download.tensorflow.org/paper/whitepaper2015.pdf>
しかし、非特許文献1に記載のライブラリでは、複数のニューラルネットワークによる学習結果を比較することが困難である。
そこで、本開示では、ニューラルネットワークの開発効率を向上させる情報をユーザに提示することが可能な情報処理方法および情報処理装置を提案する。
本開示によれば、プロセッサが、複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報をグラフで提示すること、を含む、情報処理方法が提供される。
また、本開示によれば、複数モデルのニューラルネットワークによる学習結果を取得し、前記学習結果に係る比較情報を制御する制御部、を備え、前記制御部は、前記比較情報をグラフで提示する、情報処理装置が提供される。
複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報を生成する比較部、を備え、前記比較情報はグラフによる比較情報である、情報処理装置が提供される。
以上説明したように本開示によれば、ニューラルネットワークの開発効率を向上させる情報をユーザに提示することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係るビジュアルプログラミングを説明するための図である。 本開示に係るネットワークを定義するXMLファイルの一例である。 本開示に係るソースコードの一例である。 本開示の実施形態に係るシステム構成例を示す図である。 同実施形態に係る情報処理装置の機能ブロック図である。 同実施形態に係るサーバの機能ブロック図である。 同実施形態に係るフォームを説明するための図である。 同実施形態に係る結果概要の表示例である。 同実施形態に係る学習曲線の表示例である。 同実施形態に係る学習曲線による比較の表示例である。 同実施形態に係るトレードオフ情報の表示例である。 同実施形態に係るトレードオフ情報のパレート最適解を説明するための図である。 同実施形態に係る実行設定画面の一例である。 本開示に係るハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
1.1.ニューラルネットワークとは
1.2.ビジュアルプログラミングの概要
2.実施形態
2.1.本開示に係るシステム構成例
2.2.本実施形態に係る情報処理装置
2.3.本実施形態に係るサーバ30
2.4.本実施形態に係るフォームの説明
2.5.本実施形態に係る比較情報
2.6.ニューラルネットワークの並列実行
3.ハードウェア構成例
4.まとめ
<1.背景>
<<1.1.ニューラルネットワークとは>>
ニューラルネットワークとは、人間の脳神経回路を模したモデルであり、人間が持つ学習能力をコンピュータ上で実現しようとする技法である。上述したとおり、ニューラルネットワークは学習能力を有することを特徴の一つとする。ニューラルネットワークでは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によりシナプスの結合強度を変化させることで、問題に対する解決能力を獲得することが可能である。すなわち、ニューラルネットワークは、学習を重ねることで、問題に対する解決ルールを自動的に推論することができる。
ニューラルネットワークによる学習の例としては、画像認識や音声認識が挙げられる。ニューラルネットワークでは、例えば、手書きの数字パターンを繰り返し学習することで、入力される画像情報を、0〜9の数字のいずれかに分類することが可能となる。ニューラルネットワークの有する上記のような学習能力は、人工知能(Artificial Intelligence)の発展を推し進める鍵としても注目されている。また、ニューラルネットワークが有するパターン認識力は、種々の産業分野における応用が期待される。
本開示に係る情報処理方法および情報処理装置は、上記で説明したようなニューラルネットワークの開発手法に着目して発想されたものであり、ニューラルネッワークの開発工程において、開発効率を向上させることが可能である。
<<1.2.ビジュアルプログラミングの概要>>
続いて、本開示に係るビジュアルプログラミングについて、概要を説明する。本開示において、ビジュアルプログラミングとは、ソフトウェア開発において、プログラムコードをテキストで記述することなく、視覚的なオブジェクトを用いて作成する手法を指す。ビジュアルプログラミングでは、例えば、GUI(Graphical User Interface)上で、オブジェクトを操作することで、プログラムを作成することができる。
図1は、本開示に係るビジュアルプログラミングのイメージ図である。図1には、GUI上に配置されたオブジェクト(コンポーネント)を基に生成される生成物が示されている。図1に示す一例では、コンポーネント1〜3が順に処理されるように配置されている。ここで、コンポーネント1〜3は、例えば、データの取り込み、データの処理、データの出力をそれぞれ意味するコンポーネントであってもよい。また、図1に示すように、本開示に係るビジュアルプログラミングでは、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及び上記の2ファイルを読み込んでForwardProp(予測や識別)を実行するソースコードなどが生成されてよい。
図2は、上記で述べたXMLファイルの一例である。上述したとおり、本開示に係るXMLファイルには、ニューラルネットワークに係るネットワーク構造が定義されてよい。図2を参照すると、本開示に係るXMLファイルには、ネットワークを構成するレイヤーや、ノード、インプット、アウトプットなどに係る情報が定義されている。また、図2に示すように、各レイヤーには、入出力に係るノードやニューロンの数が定義されてよい。このように、本開示に係るビジュアルプログラミングでは、ネットワークを定義するXMLをソースコードとは別に生成することが可能である。
また、図3は、上記で述べたForwardPropを実行するソースコードの一例である。上述したとおり、本開示に係るソースコードは、ネットワークを定義するXMLフィルやパラメータの設定ファイルを読み込んで処理を実行する。図3に示す一例において、load_network()は、指定された上記のXMLファイルを読み込むための関数であってよい。また、dump_network()は、読み込んだネットワーク構造をダンプするための関数であってよく、initialize_context()は、コンテキストの初期化を行うための関数であってよい。このように、本開示に係るソースコードは、読み込んだファイルの情報を基に順次処理を行い、ForwardPropを実行することができる。
以上説明したように、本開示に係るビジュアルプログラミングでは、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及びForwardPropを実行するソースコードを分離して生成することができる。これにより、上記の3種のファイルをそれぞれファイル単位で再利用することが可能となる。ユーザは、例えば、XMLファイルを修正し、当該XMLファイルをソースコードに読み込ませることで、異なるネットワーク構造による処理結果を取得することができる。
なお、図3で示した一例は、ソースコードの一部を抜粋したサンプルであり、各処理の前後には、それぞれ適切なコードが記載されてよい。また、本開示に係るソースコードは、特定のプログラム言語に限定されるものではなく、開発仕様や運用により適宜変更され得る。
以上、本開示に係る背景について説明した。上述したとおり、本開示に係る情報処理方法および情報処理装置は、ニューラルネッワークの開発工程において、開発効率を向上させることを可能とする。以降の実施形態の説明では、本開示に係る情報処理方法および情報処理装置の特徴を挙げながら、当該特徴が奏する効果について述べる。
<2.実施形態>
<<2.1.本開示に係るシステム構成例>>
まず、図4を参照して本開示の実施形態に係る情報処理方法を実施するためのシステム構成例について説明する。図4を参照すると、本実施形態に係る情報処理方法を実施するためのシステムは、情報処理装置10、サーバ30、及びデバイス40を備える。また、情報処理装置10、サーバ30、及びデバイス40は、ネットワーク20を介して、互いに通信が行えるように接続される。
ここで、本実施形態に係る情報処理装置10は、ユーザにニューラルネットワークの学習結果を提示するクライアント端末である。また、サーバ30は、複数モデルのニューラルネットワークによる学習結果を取得し、当該学習結果に係る比較情報を生成する情報処理装置である。上記の比較情報は、グラフによる比較情報であってよい。また、デバイス40は、サーバ30により作成されたニューラルネットワークのプログラムを実行するハードウェアである。デバイス40は、例えば、スマートフォン、タブレット、PC(Personal Computer)などであってよい。
また、ネットワーク20は、インターネット、電話回線網、衛星通信網などの公衆回線網であってもよいし、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
本実施形態に係る情報処理方法では、ニューラルネットワークによる学習結果をユーザに提示するためのフォームが提供される。また、本実施形態に係る情報処理方法は、プロセッサが、複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報をグラフで提示すること、を特徴の一つとする。また、本実施形態に係る情報処理方法は、ニューラルネットワークによる学習結果をリアルタイムに提示できる。また、上記の学習結果には、演算量、学習誤差、及びヴァリデーション誤差などが含まれてよい。これにより、ユーザは、ネットワーク構造やハイパーパラメータを変更した複数モデルのニューラルネットワークを作成し、学習結果を容易に比較することが可能となる。
<<2.2.本実施形態に係る情報処理装置>>
次に、本実施形態に係る情報処理装置10について詳細に説明する。本実施形態に係る情報処理装置10は、複数モデルのニューラルネットワークによる学習結果を取得し、当該学習結果に係る比較情報をグラフにより提示する機能を有する。また、情報処理装置10は、ユーザの操作を受け付け、当該ユーザに指定されたニューラルネットワークの学習結果に係る比較情報を提示することができる。
また、情報処理装置10は、ユーザの操作を受け付け、サーバ30に、ニューラルネットワークの実行に係るファイルのダウンロードを要求する機能を有する。ここで、ニューラルネットワークの実行に係るファイルには、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及び上記の2ファイルを読み込んでForwardPropを実行するソースコードが含まれてよい。
図5を参照すると、本実施形態に係る情報処理装置10は、表示部110、入力部120、フォーム制御部130、及びサーバ通信部140を備える。以下、情報処理装置10が備える各構成について説明する。
(表示部110)
表示部110は、情報処理装置10の各構成により制御される情報を表示する機能を有する。本実施形態においては、特に、ニューラルネットワークの学習結果を提示するフォームを表示する機能を有してよい。上記の機能は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置により実現されてもよい。また、表示部110は、ユーザからの情報入力を受け付ける入力部としての機能を有してもよい。入力部としての機能は、例えば、タッチパネルにより実現され得る。
(入力部120)
入力部120は、ユーザからの情報入力を受け付け、情報処理装置10の各構成に入力情報を引き渡す機能を有する。本実施形態においては、特に、ニューラルネットワークの学習結果を提示するフォーム上におけるユーザの操作を受け付け、当該操作に基づく入力情報を後述するフォーム制御部130に引き渡す機能を有してよい。上記の機能は、例えば、キーボードやマウスにより実現されてもよい。
(フォーム制御部130)
フォーム制御部130は、ニューラルネットワークの学習結果を提示するフォームを制御する機能を有する。具体的には、フォーム制御部130は、後述するサーバ通信部140を介してサーバ30から取得する情報に基づいて、表示部110に表示させる内容を制御する機能を有する。また、フォーム制御部130は、入力部120から取得する情報に基づいて、対象となるニューラルネットワークの情報や、ファイルのダウンロードをサーバ30に要求する機能を有する。
(サーバ通信部140)
サーバ通信部140は、ネットワーク20を介して、サーバ30との情報通信を行う機能を有する。具体的には、サーバ通信部140は、フォーム制御部130の制御に基づいて、上記フォームに係る情報をサーバ30に送信する。また、サーバ通信部140は、サーバ30から取得した情報をフォーム制御部130に引き渡す。
<<2.3.本実施形態に係るサーバ30>>
次に、本実施形態に係るサーバ30について詳細に説明する。本実施形態に係るサーバ30は、複数モデルのニューラルネットワークによる学習結果から、当該学習結果に係る比較情報を生成する情報処理装置である。上記の比較情報はグラフによる比較情報であってよい。また、本実施形態に係るサーバ30は、複数モデルのニューラルネットワークに異なるハイパーパラメータを設定し、並列実行させる機能を有する。
図6を参照すると、本実施形態に係るサーバ30は、比較部310、実行制御部320、及び端末通信部330を備える。以下、サーバ30が備える各構成について説明する。
(比較部310)
比較部310は、後述する実行制御部320から、複数モデルのニューラルネットワークによる学習結果を取得し、当該学習結果に係る比較情報を生成する機能を有する。ここで、学習結果には、例えば、演算量、学習誤差、及びヴァリデーション誤差が含まれてよい。
具体的には、比較部310は、上記の学習結果と、ニューラルネットワークにおける学習時間と、の関係を示す学習曲線グラフによる比較情報を作成することができる。また、比較部310は、演算量と誤差とのトレードオフ情報に係るグラフを作成することができる。ここで、上記の誤差には、学習誤差とヴァリデーション誤差が含まれてよい。また、比較部310は、上記のトレードオフ情報をパレート最適解で限定したグラフを作成することができる。比較部310により生成される比較情報を情報処理装置10上で確認することで、ユーザは、ビジュアルプログラミングにより作成したニューラルネットワークの性能を容易に比較することできる。
さらに、比較部310は、情報処理装置10から取得した情報に基づいて、ユーザが指定したニューラルネットワークによる学習結果の比較情報を生成してもよい。これにより、ユーザが、任意のニューラルネットワークによる学習結果を比較すること可能となる。また、比較部310は、実行制御部320の制御により実行されるニューラルネットワークの学習結果をリアルタイムに取得し、比較情報を生成してもよい。これにより、ユーザが、実行中のニューラルネットワークの学習結果をリアルタイムで取得し、学習結果を比較することが可能となる。なお、比較部310による比較情報の生成に係る詳細については、後述する。
(実行制御部320)
実行制御部320は、クラウド上のコンピューティングリソースに実装されるニューラルネットワークの実行を制御する機能を有する。また、実行制御部320は、実行させたニューラルネットワークの学習結果をリアルタイムに取得する機能を有する。さらに、本実施形態に係る実行制御部320は、複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを自動的に設定し、学習を並列実行させること、を特徴の一つとする。実行制御部320による当該機能の詳細については後述する。
また、実行制御部320は、エミュレータやデバイス40にニューラルネットワークを実行させ、学習結果を取得する機能を有してよい。この際、実行制御部320は、ネットワーク20を介してサーバ30と接続されるエミュレータにニューラルネットワークを実行させ、学習結果を取得してもよい。または、実行制御部320は、エミュレータとしての機能を有し、ニューラルネットワークによる処理を実行し、学習結果を得てもよい。
(端末通信部330)
端末通信部330は、ネットワーク20を介して、情報処理装置10及びデバイス40との情報通信を行う機能を有する。具体的には、端末通信部330は、比較部310が生成する比較情報を情報処理装置10に送信する。ここで、比較部310が生成する比較情報には、複数モデルのニューラルネットワークによる学習結果と、当該学習結果を基に生成されたグラフの情報と、が含まれてよい。また、端末通信部330は、情報処理装置10から、比較対象となるニューラルネットワークの情報や、ファイルのダウンロード要求を受信する。また、端末通信部330は、実行制御部320の制御に基づいて、エミュレータやデバイス40にニューラルネットワークの実行要求を送信し、当該要求に基づいて実行された学習結果を取得する機能を有する。
<<2.4.本実施形態に係るフォームの説明>>
次に、本実施形態に係るニューラルネットワークによる学習結果をユーザに提示するフォームについて詳細に説明する。本実施形態に係るフォームは、複数モデルのニューラルネットワークによる学習結果の比較情報を提示する。なお、本実施形態に係るフォームは情報処理装置10の表示部110に表示されてよい。ユーザは、上記のフォームに表示される比較情報を参照することで、作成したニューラルネットワークの学習性能を容易に比較することができる。
図7は、本実施形態に係るフォームの構成例を示す図である。図7を参照すると、本実施形態に係るフォームF1は、パレットP1〜P3を含んでいる。ここで、パレットP1は、ニューラルネットワークによる学習結果の概要(以下、結果概要、とも呼ぶ)を表示する領域であってよい。また、パレットP2は、選択されたニューラルネットワークのネットワーク構造を示す領域であってよい。また、パレットP3は、学習結果の詳細や比較情報などを表示する領域であってよい。本実施形態に係るフォーム制御部130は、サーバ30から取得した情報に基づいて、パレットP1〜P3に表示させる情報を制御することができる。
(パレットP1)
上述したとおり、パレットP1は、ニューラルネットワークに係る結果概要を表示する領域である。図7を参照すると、パレットP1には、複数の結果概要R1〜R4が表示されている。
続いて、図8を用いて、パレットP1に表示される結果概要について詳細に説明する。図8は、パレットP1に表示される結果概要の表示例である。図8に示す一例では、結果概要には、実行日時、実行状態、学習誤差、ヴァリデーション誤差、及び演算量が含まれている。ここで、実行日時は、例えば、「yyyyMMdd_HHmmss」の形式で表示され、ユーザが実行結果を識別するために用いられてよい。また、実行日時は日付と採番により設定される値であってもよい。また、図8には示していないが、パレットP1に表示される結果概要には、ユーザが指定する任意の名称が含まれてもよい。
また、実行状態は、例えば、評価済、未完了、または中断などのステータスにより示されてよい。図8に示す一例では、評価済を示すステータス、「evaluated」、が表示されている。ユーザは、実行状態を確認することで、ニューラルネットワークによる学習の状況を確認することができる。
また、学習誤差、ヴァリデーション誤差、及び演算量は、それぞれ学習過程における最新の値であってよい。すなわち、結果概要に含まれる上記の3項目は、学習が進行中の場合、リアルタイムに更新される。これにより、ユーザは、常に最新の学習結果を確認することができる。なお、図8に示す一例では、演算量として、乗加算回数が表示されている。
さらに、図8に示すように、結果概要上には、ニューラルネットワークの実行に係るファイルをダウンロードするためのボタンb1が配置されてもよい。上述したとおり、ニューラルネットワークの実行に係るファイルには、パラメータの設定ファイル、ネットワークを定義するXMLファイル、及び上記の2ファイルを読み込んでForwardPropを実行するソースコードが含まれてよい。ユーザは、フォームF1に示される比較情報を確認することで、学習結果が良好なニューラルネットワークを特定し、学習済みのニューラルネットワークの実行に係るファイルをダウンロードできる。また、パラメータの設定ファイル及びネットワークを定義するXMLファイルを、ソースコードと分離して、ダウンロードできることで、上記3種のファイルを、ファイル単位で再利用することが可能となる。
なお、図8では、ファイルのダウンロードボタンを配置する例について説明したが、本実施形態に係るファイルのダウンロードはボタン操作以外の方法により実現されてもよい。本実施形態に係るファイルのダウンロードは、例えば、結果概要を右クリックすることで表示されるメニュー上から実行されてもよい。
(パレットP2)
再び、図7に戻って、本実施形態に係るフォームF1についての説明を続ける。上述したとおり、パレットP2は、選択されたニューラルネットワークのネットワーク構造を示す領域である。図7に示す一例は、結果概要R1が選択された状態を示している。すなわち、図7に示すパレットP2には、結果概要R1に係るニューラルネットワークのネットワーク構造が示されている。
図7を参照すると、パレットP2には、ニューラルネットワークを構成するレイヤーに該当するコンポーネントが直線により接続された状態で示されている。ここで、「Input」及び「Output」は、入力レイヤー及び出力レイヤーを示すコンポーネントであってよい。また、「Affine #1」及び「Affine#2」は、中間層の1種であるAffineレイヤーを示すコンポーネントであってよい。また、「Tanh」及び「Softmax」は、それぞれ該当する活性化関数を示すコンポーネントであってよい。このように、本実施形態に係るビジュアルプログラミングでは、ニューラルネットワークのレイヤーに該当するコンポーネントを接続することで、視覚的にプログラミングを行うことができる。
以上、本実施形態に係るパレットP2に表示されるニューラルネットワークのネットワーク構造について説明した。上述したように、選択したニューラルネットワークのネットワーク構造がパレットP2に表示されることで、ユーザは、学習結果とネットワーク構造とを1つの画面で確認することができる。これにより、ユーザが、複数モデルのニューラルネットワークによる学習結果をより詳細に比較することが可能となる。なお、上記で示したAffineレイヤーや活性化関数については、ニューラルネットワークの開発において広く利用されるものであるため、詳細な説明は省略する。
(パレットP3)
パレットP3は、学習結果の詳細や、複数モデルのニューラルネットワークに係る学習結果の比較情報などを表示する領域である。図7に示す一例では、パレットP3には、パレットP1で選択された結果概要R1に係るニューラルネットワークの学習曲線がインフォメーションi1として表示されている。このように、パレットP3は、ユーザの操作により指定された情報を表示するための領域であってもよい。
図9は、パレットP3に表示されるニューラルネットワークの学習曲線の表示例である。図9を参照すると、学習曲線に係るグラフでは、縦軸に目的関数の演算量及び誤差レート、横軸に学習時間が示されている。ここで、曲線C1は、目的関数の演算量を示す曲線であってよい。なお、図9に示す例においては、曲線C1は、乗加算回数を示している。また、曲線T1及び曲線V1は、それぞれ学習誤差及びヴァリデーション誤差を示す曲線であってよい。ユーザは、曲線C1、T1、及びV1により示される演算量や誤差を確認することで、ニューラルネットワークの学習結果を総合的に判断することができる。なお、選択されたニューラルネットワークに係る学習が実行中である場合、学習曲線に示される各情報はリアルタイムに更新されてよい。
以上、本実施系形態に係るフォームF1の構成、及び表示される情報の一例について説明した。本実施形態に係る情報処理装置10のフォーム制御部130は、サーバ30から取得した情報に基づいて、フォームF1の表示を制御することができる。これにより、ユーザがニューラルネットワークのネットワーク構造や学習結果を同一の画面で確認することが可能となり、ニューラルネットワークの開発に係る効率を向上させることができる。
なお、本実施形態に係るフォームF1は、上記で説明した情報以外を表示してもよい。例えば、本実施形態に係るフォームF1は、パレットP4をさらに含み、パレットP4には、ニューラルネットワークの実行に係るログが表示されてもよい。本実施形態に係るフォームF1の構成は、開発を行うニューラルネットワークの特性や、開発手順などに応じて、適宜設計され得る。
<<2.5.本実施形態に係る比較情報>>
次に、本実施形態に係る比較情報について詳細に説明する。本実施形態に係る情報処理方法では、複数モデルのニューラルネットワークによる学習結果から比較情報を生成し、当該比較情報をユーザに提示することができる。すなわち、サーバ30の比較部310は、実行制御部320が取得したニューラルネットワークの学習結果に基づいて比較情報を生成することができる。また、情報処理装置10のフォーム制御部130は、比較部310により生成された比較情報を取得し、フォームF1上に表示させることができる。以下、本実施形態に係る比較情報について、具体的な例を挙げながら詳細に説明する。なお、以降に説明される比較情報は、フォームF1上のパレットP3に表示されてよい。
(学習曲線による比較)
本実施形態に係る情報処理方法では、複数のニューラルネットワークに係る学習曲線を比較して提示することができる。本実施形態に係る比較部310は、情報処理装置10から、ユーザの操作に基づいて選択された複数のニューラルネットワークの情報を取得し、当該複数のニューラルネットワークに係る学習曲線を比較情報として生成することができる。
図10は、本実施形態に係る学習曲線による比較の一例である。図10を参照すると、図9に示した学習曲線の一例とは異なり、2つのニューラルネットワークに係る演算量及び誤差の情報が示されている。図10に示す一例は、図7で示したパレットP1上で結果概要R1が選択された状態から、さらに結果概要R2が選択された場合の表示例であってよい。すなわち、図10の一例では、結果概要R1に係るニューラルネットワークによる学習曲線を示した図9の例に加え、さらに結果概要R2に係るニューラルネットワークによる学習曲線が示されている。
図10の一例では、結果概要R1に係るニューラルネットワークの演算量、学習誤差、及びヴァリデーション誤差が、それぞれ、曲線C1、曲線T1、及び曲線V1で示されている。また、結果概要R2に係るニューラルネットワークの演算量、学習誤差、及びヴァリデーション誤差が、それぞれ、曲線C2、曲線T2、及び曲線V2で示されている。なお、それぞれのニューラルネットワークに係る学習曲線は、異なる色で示されてもよい。このように、本実施形態に係る情報処理方法では、複数のニューラルネットワークに係る学習曲線を比較情報として提示することが可能である。ユーザは、学習曲線を確認することで、作成した複数モデルの学習結果をネットワーク構造と対応付けて比較することができる。
また、図10では、2つのニューラルネットワークに係る学習曲線を比較する例を示しているが、本実施形態に係る情報処理方法では、3つ以上のニューラルネットワークに係る学習曲線が提示されてよい。ニューラルネットワークの開発では、ネットワーク構造やハイパーパラメータの異なる複数モデルの比較検討を行うことが多いため、複数モデルのニューラルネットワークに係る学習曲線を提示することで、ユーザの利便性を高めることが可能となる。
また、本実施形態に係る学習曲線には、演算量、学習誤差、またヴァリデーション誤差のうち、ユーザが指定した項目のみが比較対象として表示されてもよい。ユーザは、例えば、グラフ上の凡例をクリックすることで、各項目の表示及び非表示を切り替えてもよい。上記の機能により、ユーザが比較したい項目のみを表示させることができ、グラフ上における情報量を低減することが可能となる。表示項目の指定に係る上記の機能は、比較対象のニューラルネットワークの数が増加した場合、特に有効である。
なお、上記では、クラウド上のコンピューティングリソースなどにより実行されるニューラルネットワークの学習結果比較について説明したが、本実施形態に係る情報処理方法では、エミュレータやデバイス40における学習結果との比較を行うこともできる。この場合、実行制御部320は、指定されたニューラルネットワークをエミュレータやデバイス40に実行させ、学習結果を取得してよい。また、比較部310は、当該学習結果に基づいて、比較情報を生成することができる。これにより、ユーザがデバイス40の仕様に基づいた学習結果との差分を把握することが可能となる。
(トレードオフ情報による比較)
次に、本実施形態に係るトレードオフ情報について説明する。通常、ニューラルネットワークでは、演算量が増加するほど学習精度が向上する傾向がある。言い換えると、ニューラルネットワークにおいて、演算量と誤差は、いわゆるトレードオフの関係にあたる。このため、本実施形態に係るトレードオフ情報は、演算量と誤差との関係を示す情報であってよい。
本実施形態に係る情報処理方法では、複数モデルのニューラルネットワークに係る演算量と誤差の関係をトレードオフ情報として提示することができる。このように、本実施形態に係る比較情報は、トレードオフ情報を含んでよい。本実施形態に係る比較部310は、実行制御部320から複数のニューラルネットワークに係る学習結果を取得し、上記のトレードオフ情報を生成することができる。
図11は、本実施形態に係るトレードオフ情報の表示例である。図11を参照すると、トレードオフ情報に係るグラフでは、縦軸に誤差レートが、横軸に演算量が示され、複数のニューラルネットワークに係る誤差情報がプロットされている。図11に示す一例では、学習誤差が枠線のみの四角形で、ヴァリデーション誤差が塗りつぶされた四角形で示されている。
なお、本実施形態に係るトレードオフ情報では、上記の学習誤差及びヴァリデーション誤差が、ニューラルネットワークごとに異なる色で示されてよい。誤差情報がニューラルネットワークごとに異なる色で表示されることで、ユーザは、異なるニューラルネットワークに係る誤差情報を識別できる。また、同一のニューラルネットワークに係る誤差情報が同一色で表示されることで、ユーザは、同一のニューラルネットワークに係る学習誤差とヴァリデーション誤差とを対応付けて認識することができる。
また、本実施形態に係る比較部310は、過去に実行されたすべての学習結果に基づいて、トレードオフ情報を生成してもよい。ニューラルネットワークの開発では、ネットワーク構造やハイパーパラメータを変更した複数モデルのニューラルネットワークを作成し、学習結果の比較を行うことが多い。言い換えると、ユーザは、複数モデルのニューラルネットワークを作成し、学習結果を比較することで、採用するネットワーク構造やハイパーパラメータの値を決定する。このため、比較部310が過去のすべての学習結果に基づくトレードオフ情報を生成することで、ユーザが一度に複数モデルの学習結果を比較し、採用するネットワーク構造やハイパーパラメータの値を決定することができる。
一方、本実施形態に係る比較部310は、ユーザが選択したニューラルネットワークの学習結果に限定してトレードオフ情報を生成してもよいし、後述する並列実行されたニューラルネットワークの学習結果に限定してトレードオフ情報を生成してもよい。このように、本実施形態に係る情報処理方法では、グラフ上に表示する情報量を限定することで、ユーザの目的に合わせた比較情報を提示することができる。
また、図11に示すように、本実施形態に係るトレードオフ情報では、選択された誤差情報に係るニューラルネットワークの結果概要がグラフ上に表示されてもよい。図11に示す一例では、学習誤差T3がユーザにより選択された状態を示している。この際、学習誤差T3、及び学習誤差T3と対応するヴァリデーション誤差V3は、強調された形式で表示されてよい。また、グラフ上には、学習誤差T1に係るニューラルネットワークの結果概要R5が表示されてよい。このように、選択された誤差情報に係るニューラルネットワークの結果概要が表示されることで、ユーザは、選択した誤差情報に係るニューラルネットワークを特定することができる。なお、ユーザは、トレードオフ情報に係るグラフ上に表示される結果概要を操作することで、ニューラルネットワークの実行に係るファイルをダウンロードできてよい。
続いて、本実施形態に係るトレードオフ情報のパレート最適解による限定表示について説明する。本実施形態に係る情報処理方法では、上記で説明したトレードオフ情報をパレート最適解で限定し、該当するニューラルネットワークに係るトレードオフ情報のみをユーザに提示することができる。すなわち、本実施形態に係る情報処理方法によれば、誤差レートまたは演算量のいずれかの指標が他の学習結果を上回っている学習結果のみに限定してトレードオフ情報を提示することが可能となる。これにより、ユーザは、比較対象とするニューラルネットワークを直観的に把握することができ、比較に係る作業を効率化することができる。
図12は、図11に示したトレードオフ情報をパレート最適解により限定した場合の一例である。図12を参照すると、図11と比較して、グラフ上にプロットされる誤差情報の数が減少していることがわかる。図12に示す一例では、ヴァリデーション誤差に係るパレート最適解が、各プロットを結ぶ線により示されている。図12を参照すると、パレート最適解を示す線よりもヴァリデーション誤差が大きいプロット、及び当該ヴァリデーション誤差に対応する学習誤差のプロットが消失していることがわかる。なお、本実施形態に係るパレート最適解は、学習誤差またはヴァリデーション誤差ごとに判別されてよい。
以上、本実施形態に係るトレードオフ情報について説明した。上述したように、本実施形態に係る情報処理方法によれば、複数モデルのニューラルネットワークに係る演算量と誤差の関係をトレードオフ情報として提示することができる。また、本実施形態に係る情報処理方法によれば、上記のトレードオフ情報をパレート最適解により限定して提示することができる。これにより、ユーザは、複数モデルのニューラルネットワークに係る学習結果を一度に確認し、適用するネットワーク構造やハイパーパラメータの値を決定することができる。
<<2.6.ニューラルネットワークの並列実行>>
次に、本実施形態に係るニューラルネットワークの並列実行について説明する。本実施形態に係る情報処理方法では、複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを自動的に設定し、学習を並列実行させることができる。本実施形態に係る実行制御部320は、情報処理装置10から、ユーザが指定した並列実行に係る情報を取得し、当該情報に基づいて、ニューラルネットワークによる学習を並列で実行させることができる。
図13は、フォームF1に表示されるニューラルネットワークの実行に係る設定画面の一例である。ユーザは、当該画面に表示される各項目の値を指定することで、ニューラルネットワークの実行に係る条件を設定することができる。図13を参照すると、ニューラルネットワークの実行に係る設定画面には、「Execution host」、「Processor type」、及び「Job type」の3つの項目が含まれている。
ここで、「Execution host」は、ニューラルネットワークによる学習を実行するホストを指定する項目であってよい。ユーザは、例えば、ローカルやクラウド上のコンピューティングリソースをホストとして指定できる。
また、「Processor type」は、ニューラルネットワークの実行に係るプロセッサを指定する項目であってよい。ユーザは、例えば、CPU(Central Processing Unit)やGPU(GraPhics Processing Unit)をプロセッサとして指定できる。
また、「Job type」は、ニューラルネットワークの実行種類を指定する項目であってよい。ユーザは、例えば、単独実行、複数リソースによる分散実行、または複数のニューラルネットワークの並列実行から、実行種類を指定できる。本実施形態に係る実行制御部320は、「Job type」に、並列実行が指定されたことに基づいて、複数のニューラルネットワークによる学習を並列実行させてよい。この際、実行制御部320は、設定画面に指定された数値に基づいて、並列実行させるニューラルネットワークの数を決定することができる。図13に示す一例では、ユーザが4並列を指定した場合を示している。
以上説明したように、本実施形態に係る実行制御部320は、ユーザに指定された情報に基づいて、複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを自動的に設定し、学習を並列実行させることができる。この際、実行制御部320は、予め設定されたニューラルネットワークに係るパラメータ値を平均とした標準正規分布(X; 設定値,1)からn並列サンプリングすることで、ハイパーパラメータの値を設定してよい。また、実行制御部320は、外れ値の大きな値を除外するため、2シグマによるクリッピングを実施してよい。
以上、本実施系形態に係るニューラルネットワークの並列実行について詳細に説明した。当然ながら、本実施形態に係る情報処理方法では、並列実行させたニューラルネットワークの学習結果を取得し、当該学習情報に係る比較情報をユーザに提示することが可能である。例えば、本実施形態に係る比較部310は、並列実行されるニューラルネットワークの学習結果をリアルタイムに取得し、学習曲線やトレードオフ情報を生成することができる。このため、本実施形態に係る情報処理方法によれば、ユーザがハイパーパラメータの値を手動で設置する負担を低減し、さらに、複数モデルのニューラルネットワークによる学習結果を比較して提示することが可能となる。
<3.ハードウェア構成例>
次に、本開示に係る情報処理装置10、サーバ30、及びデバイス40に共通するハードウェア構成例について説明する。図14は、本開示に係る情報処理装置10、サーバ30、及びデバイス40のハードウェア構成例を示すブロック図である。図14を参照すると、情報処理装置10、サーバ30、及びデバイス40は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<4.まとめ>
以上説明したように、本開示に係る情報処理方法では、複数モデルのニューラルネットワークによる学習結果から比較情報を生成し、当該比較情報をユーザに提示することができる。比較情報には、学習曲線による比較や、演算量と誤差とのトレードオフ情報が含まれてよい。また、本開示に係る情報処理方法では、複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを自動的に設定し、学習を並列実行させることができる。係る構成によれば、ニューラルネットワークの開発効率を向上させる情報をユーザに提示することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、ビジュアルプログラミングにより作成されるニューラルネットワークについて説明したが、本技術はかかる例に限定されない。本開示に係るニューラルネットワークは、例えば、プログラムコードをテキストで記述することで作成されてもよい。
また、例えば、上記実施形態では、サーバ30が、学習結果に基づいた比較情報を生成する場合を例に説明したが、本技術はかかる例に限定されない。例えば、比較情報の生成は、情報処理装置10により実現されてもよい。この場合、情報処理装置10のフォーム制御部130が、複数のニューラルネットワークの学習結果を取得し、当該学習結果に基づいて比較情報を生成することができる。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
プロセッサが、複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報をグラフで提示すること、
を含む、情報処理方法。
(2)
前記学習結果は、演算量、学習誤差、またはヴァリデーション誤差のうち少なくとも1つを含む、
前記(1)に記載の情報処理方法。
(3)
前記比較情報は、前記学習結果と、前記ニューラルネットワークにおける学習時間と、の関係を示す学習曲線による比較を含む、
前記(1)または(2)に記載の情報処理方法。
(4)
前記比較情報は、前記演算量と誤差とのトレードオフ情報による比較を含み、
前記誤差は、前記学習誤差または前記ヴァリデーション誤差のうち少なくとも1つを含む、
前記(2)に記載の情報処理方法。
(5)
前記比較情報は、前記トレードオフ情報をパレート最適解で限定した比較を含む、
前記(4)に記載の情報処理方法。
(6)
ユーザにより指定された前記ニューラルネットワークの前記比較情報を提示する、
前記(1)〜(5)のいずれかに記載の情報処理方法。
(7)
複数モデルのニューラルネットワークによる学習を並列実行させること、
をさらに含む、
前記(1)〜(6)のいずれかに記載の情報処理方法。
(8)
複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを設定し学習を並列実行させる、
前記(1)〜(7)のいずれかに記載の情報処理方法。
(9)
前記並列実行される複数モデルのニューラルネットワークに係る前記比較情報をリアルタイムに提示する、
前記(7)または(8)に記載の情報処理方法。
(10)
前記ニューラルネットワークは、ビジュアルプログラミングにより作成される、
前記(1)〜(9)のいずれかに記載の情報処理方法。
(11)
ユーザにより指定された前記ニューラルネットワークの実行に係るファイルのダウンロードを許可する、
前記(1)〜(10)のいずれかに記載の情報処理方法。
(12)
前記ニューラルネットワークの実行に係るファイルは、ネットワーク定義ファイル、パラメータファイル、またはソースコードのうち少なくとも1つを含む、
前記(11)に記載の情報処理方法。
(13)
複数モデルのニューラルネットワークによる学習結果を取得し、前記学習結果に係る比較情報を制御する制御部、
を備え、
前記制御部は、前記比較情報をグラフで提示する、
情報処理装置。
(14)
複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報を生成する比較部、
を備え、
前記比較情報はグラフによる比較情報である、
情報処理装置。
10 情報処理装置
110 表示部
120 入力部
130 フォーム制御部
140 サーバ通信部
20 ネットワーク
30 サーバ
310 比較部
320 実行制御部
330 端末通信部
40 デバイス

Claims (10)

  1. プロセッサが、複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報をグラフで提示すること、
    を含む、情報処理方法であって、
    前記学習結果は、演算量、学習誤差、またはヴァリデーション誤差のうち少なくとも1つを含み、
    前記比較情報は、前記学習結果と、前記ニューラルネットワークにおける学習時間と、の関係を示す学習曲線による比較を含み
    前記比較情報は、前記演算量と誤差とのトレードオフ情報による比較を含み、
    前記誤差は、前記学習誤差または前記ヴァリデーション誤差のうち少なくとも1つを含む
    報処理方法。
  2. ユーザにより指定された前記ニューラルネットワークの前記比較情報を提示する、
    請求項1に記載の情報処理方法。
  3. 複数モデルのニューラルネットワークによる学習を並列実行させること、
    をさらに含む、
    請求項1又は請求項2に記載の情報処理方法。
  4. 複数のニューラルネットワークにそれぞれ異なるハイパーパラメータを設定し学習を並列実行させる、
    請求項1乃至請求項の何れか1項に記載の情報処理方法。
  5. 前記並列実行される複数モデルのニューラルネットワークに係る前記比較情報をリアルタイムに提示する、
    請求項または請求項に記載の情報処理方法。
  6. 前記ニューラルネットワークは、ビジュアルプログラミングにより作成される、
    請求項1乃至請求項の何れか1項に記載の情報処理方法。
  7. ユーザにより指定された前記ニューラルネットワークの実行に係るファイルのダウンロードを許可する、
    請求項1乃至請求項の何れか1項に記載の情報処理方法。
  8. 前記ニューラルネットワークの実行に係るファイルは、ネットワーク定義ファイル、パラメータファイル、またはソースコードのうち少なくとも1つを含む、
    請求項に記載の情報処理方法。
  9. 複数モデルのニューラルネットワークによる学習結果を取得し、前記学習結果に係る比較情報を制御する制御部、
    を備え、
    前記制御部は、前記比較情報をグラフで提示し、
    前記学習結果は、演算量、学習誤差、またはヴァリデーション誤差のうち少なくとも1つを含み、
    前記比較情報は、前記学習結果と、前記ニューラルネットワークにおける学習時間と、の関係を示す学習曲線による比較を含み、
    前記比較情報は、前記演算量と誤差とのトレードオフ情報による比較を含み、
    前記誤差は、前記学習誤差または前記ヴァリデーション誤差のうち少なくとも1つを含む、
    情報処理装置。
  10. 複数モデルのニューラルネットワークによる学習結果を比較し、前記学習結果に係る比較情報を生成する比較部、
    を備え、
    前記比較情報はグラフによる比較情報であり、
    前記学習結果は、演算量、学習誤差、またはヴァリデーション誤差のうち少なくとも1つを含み、
    前記比較情報は、前記学習結果と、前記ニューラルネットワークにおける学習時間と、の関係を示す学習曲線による比較を含み、
    前記比較情報は、前記演算量と誤差とのトレードオフ情報による比較を含み、
    前記誤差は、前記学習誤差または前記ヴァリデーション誤差のうち少なくとも1つを含む、
    情報処理装置。
JP2019114081A 2016-02-17 2019-06-19 情報処理方法および情報処理装置 Active JP6881511B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016027923 2016-02-17
JP2016027923 2016-02-17

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017567959A Division JP6574942B2 (ja) 2016-02-17 2016-11-25 情報処理方法および情報処理装置

Publications (3)

Publication Number Publication Date
JP2019164839A JP2019164839A (ja) 2019-09-26
JP2019164839A5 JP2019164839A5 (ja) 2020-01-09
JP6881511B2 true JP6881511B2 (ja) 2021-06-02

Family

ID=59625826

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017567959A Active JP6574942B2 (ja) 2016-02-17 2016-11-25 情報処理方法および情報処理装置
JP2019114081A Active JP6881511B2 (ja) 2016-02-17 2019-06-19 情報処理方法および情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017567959A Active JP6574942B2 (ja) 2016-02-17 2016-11-25 情報処理方法および情報処理装置

Country Status (4)

Country Link
US (1) US10664752B2 (ja)
EP (1) EP3418949A4 (ja)
JP (2) JP6574942B2 (ja)
WO (1) WO2017141517A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102527605B1 (ko) * 2017-10-31 2023-05-02 한국전자기술연구원 다중 아날로그 제어 변수 생성을 위한 다중 뉴럴 네트워크 구성 방법
JPWO2020157939A1 (ja) * 2019-01-31 2021-10-14 富士通株式会社 情報処理装置、学習履歴管理システム及び学習履歴管理プログラム
JP2022528787A (ja) * 2019-04-12 2022-06-15 エレメント エーアイ インコーポレイテッド ソフトウェアモジュール開発用システム
JP7361505B2 (ja) * 2019-06-18 2023-10-16 キヤノンメディカルシステムズ株式会社 医用情報処理装置及び医用情報処理方法
US11615321B2 (en) * 2019-07-08 2023-03-28 Vianai Systems, Inc. Techniques for modifying the operation of neural networks
US11681925B2 (en) 2019-07-08 2023-06-20 Vianai Systems, Inc. Techniques for creating, analyzing, and modifying neural networks
US11640539B2 (en) 2019-07-08 2023-05-02 Vianai Systems, Inc. Techniques for visualizing the operation of neural networks using samples of training data
KR102164509B1 (ko) * 2019-12-11 2020-10-12 김용걸 인공지능을 이용한 IoT 기반 쓰레기 수거차량 최적화 경로 제공시스템
US11431688B2 (en) 2019-12-13 2022-08-30 TripleBlind, Inc. Systems and methods for providing a modified loss function in federated-split learning
US11528259B2 (en) 2019-12-13 2022-12-13 TripleBlind, Inc. Systems and methods for providing a systemic error in artificial intelligence algorithms
US11973743B2 (en) 2019-12-13 2024-04-30 TripleBlind, Inc. Systems and methods for providing a systemic error in artificial intelligence algorithms
US11363002B2 (en) * 2019-12-13 2022-06-14 TripleBlind, Inc. Systems and methods for providing a marketplace where data and algorithms can be chosen and interact via encryption
JP7447529B2 (ja) * 2020-02-17 2024-03-12 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
EP4154196A4 (en) * 2020-05-18 2024-06-26 INTEL Corporation METHODS AND APPARATUS FOR ATTESTATION OF AN ARTIFICIAL INTELLIGENCE MODEL
JP7423484B2 (ja) * 2020-09-16 2024-01-29 株式会社東芝 学習装置、方法及びプログラム
JP7524031B2 (ja) 2020-10-30 2024-07-29 株式会社東芝 学習装置、方法及びプログラム
US11507693B2 (en) 2020-11-20 2022-11-22 TripleBlind, Inc. Systems and methods for providing a blind de-identification of privacy data
CN116450465B (zh) * 2023-06-14 2023-09-15 建信金融科技有限责任公司 数据处理方法、装置、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04190461A (ja) * 1990-11-26 1992-07-08 Fujitsu Ltd ニューラルネットワークの構築表示方法
JP3412384B2 (ja) * 1996-03-13 2003-06-03 株式会社日立製作所 制御モデル構築支援装置
JP2001034599A (ja) * 1999-07-22 2001-02-09 Fujitsu Ltd 問題解決システムにおけるインタフェース装置、インタフェース生成方法及び記録媒体
JP2002042107A (ja) * 2000-07-31 2002-02-08 Fuji Electric Co Ltd ニューラルネットワークの学習方法
US20120158623A1 (en) * 2010-12-21 2012-06-21 Microsoft Corporation Visualizing machine learning accuracy
JP5792642B2 (ja) * 2012-01-12 2015-10-14 日本電信電話株式会社 データ解析装置、データ解析調整方法およびプログラム

Also Published As

Publication number Publication date
JP6574942B2 (ja) 2019-09-18
JPWO2017141517A1 (ja) 2018-12-06
JP2019164839A (ja) 2019-09-26
WO2017141517A1 (ja) 2017-08-24
US20180330237A1 (en) 2018-11-15
EP3418949A4 (en) 2019-02-27
EP3418949A1 (en) 2018-12-26
US10664752B2 (en) 2020-05-26

Similar Documents

Publication Publication Date Title
JP6881511B2 (ja) 情報処理方法および情報処理装置
JP6516025B2 (ja) 情報処理方法および情報処理装置
US11275742B2 (en) Digital processing systems and methods for smart table filter with embedded boolean logic in collaborative work systems
US11604641B2 (en) Methods and systems for resolving user interface features, and related applications
US20190057309A1 (en) Information processing apparatus and information processing method
JP2011040059A5 (ja)
JP2021528714A (ja) アバター生成装置およびコンピュータプログラム
US11954536B2 (en) Data engine
US8788248B2 (en) Transparent flow model simulation implementing bi-directional links
JP2024504529A (ja) 欠陥検出方法及びその装置、モデルトレーニング方法及びその装置、及び電子デバイス
WO2016065960A1 (en) Graphically building abstract syntax trees
WO2020239033A1 (zh) 机器学习自动建模过程的展示方法及系统
US11687785B2 (en) Modification of neural network topology
Stary et al. Featuring dual learning experiences in tangible CPS education: A synchronized internet-of-things–digital-twin system
JP2021099885A (ja) 文書種別の推奨方法、装置、電子機器、可読記憶媒体及びコンピュータプログラム製品
US8881110B2 (en) Role-based automation scripts
JPWO2019187542A1 (ja) 情報処理方法、情報処理装置、およびプログラム
JP6694197B2 (ja) 学習ネットワーク生成装置、及び学習ネットワーク生成プログラム
JP6360197B2 (ja) 知識の認識ベースの処理のためのシステムおよび方法
KR20230088939A (ko) 데모 프로그램 생성 장치 및 방법
CN116236790A (zh) 虚拟角色的换装方法、装置、存储介质及电子设备
Łatuszyńska Web-based tools for system dynamics simulation
JP2018163636A (ja) 情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R151 Written notification of patent or utility model registration

Ref document number: 6881511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151