JP2018097671A - サービス構築装置、サービス構築方法及びサービス構築プログラム - Google Patents

サービス構築装置、サービス構築方法及びサービス構築プログラム Download PDF

Info

Publication number
JP2018097671A
JP2018097671A JP2016242441A JP2016242441A JP2018097671A JP 2018097671 A JP2018097671 A JP 2018097671A JP 2016242441 A JP2016242441 A JP 2016242441A JP 2016242441 A JP2016242441 A JP 2016242441A JP 2018097671 A JP2018097671 A JP 2018097671A
Authority
JP
Japan
Prior art keywords
learning
unit
learned model
data
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016242441A
Other languages
English (en)
Other versions
JP6817625B2 (ja
Inventor
英裕 最首
Eihiro Saishu
英裕 最首
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groovenauts Inc
Original Assignee
Groovenauts Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groovenauts Inc filed Critical Groovenauts Inc
Priority to JP2016242441A priority Critical patent/JP6817625B2/ja
Publication of JP2018097671A publication Critical patent/JP2018097671A/ja
Application granted granted Critical
Publication of JP6817625B2 publication Critical patent/JP6817625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】機械学習の成果を利用したサービスの迅速な開発を支援することのできるサービス構築装置、サービス構築方法及びサービス構築プログラムを提供する。【解決手段】サービス構築装置10は、学習条件の設定を行う設定部12と、学習条件に従って学習された学習済みモデルを取得する学習済みモデル取得部13と、学習済みモデルをモデルデータベースMDBに登録する登録部14と、モデルデータベースMDBから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける配置受付部15と、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように制御し、予測を行うための入力データに基づいて特定の学習済みモデルにより予測結果が出力されるように制御する処理制御部16と、を備える。【選択図】図2

Description

本発明は、サービス構築装置、サービス構築方法及びサービス構築プログラムに関する。
近年、コンピュータにタスクを実行させる場合に、コンピュータによって自律的にタスクの実行性能を向上させる機械学習と呼ばれる技術が研究されている。機械学習は、例えば、画像を分類したり、商品の需要予測を行ったりするために用いられている。
例えば、特許文献1には、画像認識に関し、第1の学習処理において学習対象データから複数の学習対象データ群を設定し、第2の学習処理において第1の学習処理とは異なる組み合わせで複数の学習対象データ群を設定して、学習処理部によって複数の学習対象データ群それぞれに対して1単位の認識処理を行って認識処理部の処理パラメータを学習する学習装置が記載されている。
特開2016−143351号公報
機械学習の成果は、タスク(予測を行うための処理)を実行するための学習済みモデルによって提供される場合がある。学習済みモデルは、所定の条件を満たす予測を行うための入力データに対してタスクの実行結果である予測の結果を出力するものであり、例えば、天気や曜日等を含む予測を行うための入力データが入力された場合に、商品需要の予測結果を出力する需要予測モデルが挙げられる。学習済みモデルは、内部的な処理の詳細を把握していない者であっても容易に利用することができ、他のアプリケーションから呼び出されて使用される場合もある。
しかしながら、学習済みモデルを生成するためには、機械学習に関する理論やプログラミング言語に習熟する必要があり、相当の時間を費やして開発にあたる場合があった。また、仮に機械学習に関する理論やプログラミング言語に習熟している場合であっても、タスクをより効率良く高精度で実行する学習済みモデルを生成するためには、どのような因子が影響しているのか分析するために相当の試行錯誤が避けられない場合がある。そのため、機械学習の成果を利用したサービスを行おうとするユーザは、迅速なサービス開発が困難となり、時機を逸するおそれがあった。
そこで、本発明は、機械学習の成果を利用したサービスの迅速な開発を支援することのできるサービス構築装置、サービス構築方法及びサービス構築プログラムを提供する。
本発明の一態様に係るサービス構築装置は、ユーザより入力された第1学習条件を含む学習条件の設定を行う設定部と、設定部によって設定された学習条件に従って学習された学習済みモデルを取得する学習済みモデル取得部と、学習済みモデル取得部によって取得された学習済みモデルをモデルデータベースに登録する登録部と、モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける配置受付部と、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように制御する処理制御部と、を備える。
この態様によれば、学習条件の設定と学習済みモデルの確認を繰り返すことで、不可避な試行錯誤を効率的に行うことができる。また、処理に対応するブロックの配置を受け付けることで、学習済みモデルによって実行されるタスクを他の処理と容易に組み合わせることができる。そのため、機械学習の成果を利用したサービスの迅速な開発を支援することができる。
上記態様において、予め定められた複数の学習タイプのうちから1の学習タイプの選択を受け付けるタイプ受付部をさらに備え、設定部は、タイプ受付部により受け付けた1の学習タイプに応じて、学習条件の設定を行ってもよい。
この態様によれば、ユーザは、用意された学習タイプのうちから実行させようとしているタスクに適した学習タイプを容易に見出すことができ、学習タイプの選定に伴う負担を軽減することができる。また、受け付けた学習タイプに応じて学習条件の設定が行われるため、どのような学習条件を定めなければならないのか学習タイプ毎に確認する負担が軽減される。
上記態様において、設定部は、予め定められた1又は複数のパラメータの数値の設定をユーザから受け付けて、第1学習条件の設定を行ってもよい。
この態様によれば、ユーザによって設定可能な学習条件が絞られるため、学習条件の設定変更を行う場合の方向性が明確となり、不可避な試行錯誤を効率的に行うことができる。
上記態様において、学習を行うための学習用のデータを収集する学習データ収集部をさらに備え、学習データ収集部は、学習用のデータをデータ出力源から継続的に収集する継続取得部と、学習用のデータを一括して収集する一括収集部と、を含んでもよい。
この態様によれば、時々刻々と変化する動的なデータを収集することができ、蓄積された統計データ等の静的なデータを一括して収集することができる。ユーザは、収集する学習用のデータのデータ形式に適した方法で学習用のデータの収集を行うことができ、学習用のデータの収集が効率化される。
上記態様において、配置受付部は、1又は複数のブロックの直列的な配置を受け付けてもよい。
この態様によれば、ブロックの接続順序によって処理の流れが表され、ブロックの配置によって処理の大枠を容易に捉えられるようになる。
本発明の一態様に係るサービス構築方法は、ユーザより入力された第1学習条件を含む学習条件の設定を行う第1ステップと、第1ステップによって設定された学習条件に従って学習された学習済みモデルを取得する第2ステップと、第2ステップによって取得された学習済みモデルをモデルデータベースに登録する第3ステップと、モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける第4ステップと、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように制御する第5ステップと、を含む。
この態様によれば、学習条件の設定と学習済みモデルの確認を繰り返すことで、不可避な試行錯誤を効率的に行うことができる。また、処理に対応するブロックの配置を受け付けることで、学習済みモデルによって実行されるタスクを他の処理と容易に組み合わせることができる。そのため、機械学習の成果を利用したサービスの迅速な開発を支援することができる。
本発明の一態様に係るサービス構築プログラムは、コンピュータを、ユーザより入力された第1学習条件を含む学習条件の設定を行う設定部と、設定部によって設定された学習条件に従って学習された学習済みモデルを取得する学習済みモデル取得部と、学習済みモデル取得部によって取得された学習済みモデルをモデルデータベースに登録する登録部と、モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける配置受付部と、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように制御する処理制御部と、として機能させる。
この態様によれば、学習条件の設定と学習済みモデルの確認を繰り返すことで、不可避な試行錯誤を効率的に行うことができる。また、処理に対応するブロックの配置を受け付けることで、学習済みモデルによって実行されるタスクを他の処理と容易に組み合わせることができる。そのため、機械学習の成果を利用したサービスの迅速な開発を支援することができる。
本発明の実施形態に係るサービス構築装置のネットワーク構成図である。 本発明の実施形態に係るサービス構築装置の機能ブロック図である。 本発明の実施形態に係るサービス構築装置による学習タイプの選択受付の例を示す図である。 本発明の実施形態に係るサービス構築装置による第1学習条件の設定の例を示す図である。 本発明の実施形態に係るサービス構築装置によって実行される学習済みモデル登録処理を示すフローチャートである。 本発明の実施形態に係るサービス構築装置によるブロックの配置受付の例を示す図である。 本発明の実施形態に係るサービス構築装置によって実行されるフロー実行処理を示すフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の実施形態に係るサービス構築装置10のネットワーク構成図である。サービス構築装置10は、少なくとも演算回路、通信インターフェース及び記憶部を備え、ユーザ端末装置20から受け付けた入力データに基づいて、サービスの構築を行う。サービスは、機械学習の学習済みモデルを利用した分析処理や予測処理を含む1又は複数の処理により提供される。例えば、サービス構築装置10は、ユーザ端末装置20より画像データを受け付けて、画像分類や画像認識等の画像解析結果を、任意のデータベースに登録するサービスを構築する。また、サービス構築装置10は、ユーザ端末装置20より音声データを受け付けて、音声解析により音声データをテキストデータに変換し、テキストデータについてキーワード抽出等のテキスト解析を行った結果を所望のデータベースに登録するサービスを構築することもできる。また、サービス構築装置10は、後述するデータ収集機能部10cにより天気や曜日等のデータを収集し、商品需要の予測結果を任意のデータベースに登録するサービスを構築することもできるし、その他任意のサービスを構築することができる。サービス構築装置10は、通信ネットワークNに接続され、ユーザ端末装置20、学習済みモデル生成装置31、データ処理装置32及びセンサ40と、通信ネットワークNを介して接続される。
通信ネットワークNは、有線又は無線の電気通信回線であり、例えばインターネットである。通信ネットワークNは、LAN(Local Area Network)等であってもよい。
ユーザ端末装置20は、少なくとも演算回路、通信インターフェース、入力部、出力部及び記憶部を備え、ユーザにより操作される装置である。ユーザ端末装置20は、例えばパーソナルコンピュータやスマートフォンにより構成されてよい。
学習済みモデル生成装置31は、少なくとも演算回路、通信インターフェース及び記憶部を備え、サービス構築装置10からの指令に従って、学習を行うための入力データ(学習用のデータ)に基づき学習済みモデルを生成し、出力する。学習済みモデルは、例えば、予測を行うための入力データとして画像データを受け付けて、予測結果データとして画像分類結果や画像認識結果を出力するものである。学習済みモデルの生成は、例えば、用意されたトレーニングデータを再現するように学習モデルを学習させ、学習モデルによる分析性能の優劣を検証データによって検証し、学習モデルを逐次改良していくことによって行われる。学習済みモデル生成装置31により生成された学習済みモデルは、モデルデータベースMDBに格納される。なお、学習を行うための入力データは、学習用のデータであり、後述するサービス構築装置10のデータ収集機能部10cにより収集されるものであってよい。
データ処理装置32は、少なくとも演算回路、通信インターフェース及び記憶部を備え、サービス構築装置10からの指令に基づいて、学習済みモデルに入力される予測を行うための入力データの処理を行ったり、学習済みモデルにより出力される予測結果データの処理を行ったりする。トレーニングデータ及び検証データは、センサ40から出力されたセンシングデータや統計データを含む。トレーニングデータ及び検証データは、それぞれ独立に収集されたものであってもよいし、一群のセンシングデータや統計データから選び出されたものであってよい。例えば、一群のセンシングデータや統計データのうちからランダムに選び出した8割のデータをトレーニングデータとして、残り2割のデータを検証データとしてもよい。データ処理装置32は、学習データデータベースLDBに格納されたデータから必要なデータを抽出したり、整形したり、新たなデータを学習データデータベースLDBに格納したりする。
学習済みモデル生成装置31、データ処理装置32、モデルデータベースMDB及び学習データデータベースLDBは、例えばクラウドサービスとして提供されるものであってよい。学習済みモデル生成装置31及びデータ処理装置32は、演算能力を提供するクラウドサービスにより実現されてよいし、モデルデータベースMDB及び学習データデータベースLDBは、データの格納場所を提供するクラウドサービスにより実現されてよい。具体的には、学習済みモデル生成装置31、データ処理装置32、モデルデータベースMDB及び学習データデータベースLDBは、Google社のGoogle Cloud Platformにより実現されてよい。より詳細には、学習済みモデル生成装置31はCloud Machine Learning Platformにより実現されてよく、データ処理装置32は、BigQueryにより実現されてよい。また、モデルデータベースMDB及び学習データデータベースLDBは、Cloud Strageにより実現されてよい。本実施形態に係るサービス構築装置10によれば、既存のクラウドサービスによって提供される高度な演算能力や豊富な記憶容量をプログラミングせずに利用できるようになり、サービス開発の時間を短縮することができる。
センサ40は、対象となる物理量を検出してセンシングデータを出力する装置であり、例えば、画像データを出力するカメラ、音声データを出力するマイクロフォン、GPS(Global Positioning System)を用いて位置データを出力する位置センサである。センサ40から出力されるセンシングデータは、学習済みモデルの生成に用いるトレーニングデータ及び検証データや、学習済みモデルによる予測を行うための入力データとして学習データデータベースLDBに格納されてよい。
図2は、本発明の実施形態に係るサービス構築装置10の機能ブロック図である。サービス構築装置10は、学習機能部10a、サービス構築機能部10b、データ収集機能部10c及び表示制御部19を備える。学習機能部10aは、タイプ受付部11、設定部12、学習済みモデル取得部13及び登録部14を含む。サービス構築機能部10bは、配置受付部15及び処理制御部16を含む。データ収集機能部10cは、学習データ収集部18を含む。データ収集機能部10cは、学習用のデータと、予測を行うための入力データとを収集する機能を有する。学習機能部10aは、データ収集機能部10cにより収集された学習用データを用いて学習された学習済みモデルを、学習済みモデル生成装置31に生成させ、出力させる機能を有する。また、サービス構築機能部10bは、データ収集機能部10cにより収集された予測を行うための入力データを学習済みモデルに入力させ、学習済みモデルによる予測結果を出力させる機能を有する。
タイプ受付部11は、予め定められた複数の学習タイプのうちから1の学習タイプの選択を受け付ける。タイプ受付部11は、ユーザ端末装置20から学習タイプの選択を受け付ける。本実施形態において、予め定められた複数の学習タイプは、数値型分類タイプ、数値型回帰タイプ、画像型分類タイプ及び文字型分類タイプを含む。予め定められた複数の学習タイプは、これら以外のものを含んでもよく、任意のタイプを加えることができる。
設定部12は、ユーザより入力された第1学習条件を含む学習条件の設定を行う。ここで、第1学習条件は、ユーザから明示の指定を受けた学習条件であり、図4を用いて説明するように、学習の最大試行回数やトレーニングデータの指定を含む。また、学習条件は、第1学習条件以外の第2学習条件を含む。第2学習条件は、ユーザから明示の指定を受けていない学習条件であって、サービス構築装置10により自動的に設定される学習条件である。第2学習条件は、例えば、ニューラルネットワークのレイヤー数を含む。設定部12は、予め定められた1又は複数のパラメータの数値の設定をユーザから受け付けて、第1学習条件の設定を行う。設定部12は、タイプ受付部11により受け付けた1の学習タイプに応じて、学習条件の設定を行う。
学習済みモデル取得部13は、設定部12によって設定された学習条件に従って学習された学習済みモデルを取得する。学習済みモデルは、設定部12によって設定された学習条件に従って、学習を行うための入力データ(学習用のデータ)に基づき生成され、出力されるものである。学習済みモデル取得部13は、設定部12によって設定された学習条件を学習済みモデル生成装置31に送信し、学習済みモデル生成装置31は、受信した学習条件に従って、学習済みモデルを生成し、出力する。学習済みモデル取得部13は、生成された学習済みモデルを学習済みモデル生成装置31より取得する。
登録部14は、学習済みモデル取得部13によって取得された学習済みモデルをデプロイして、デプロイされた学習済みモデルとしてモデルデータベースMDBに登録する。ここで学習済みモデルのデプロイとは、学習済みモデルを他のアプリケーションから呼び出せるデータ形式に変換し、予測に利用できる状態にすることをいう。学習済みモデルは、バージョン情報と共にモデルデータベースMDBに登録されてもよい。バージョン情報は、学習済みモデルの生成に用いられたトレーニングデータや検証データ毎に付されるものであってよい。ユーザは、設定部12によりトレーニングデータ及び検証データの指定を含む学習条件の設定を行い、学習済みモデル取得部13により取得された学習済みモデルを確認し、設定部12により学習条件の再設定(トレーニングデータ及び検証データの再設定)を行い、学習済みモデルの改良を行う。ユーザは、学習済みモデルを完成させた場合、登録部14により当該学習済みモデルをデプロイされた学習済みモデルとしてモデルデータベースMDBに登録する。なお、登録部14によるデプロイされた学習済みモデルの登録は、学習済みモデル生成装置31へ登録指令を送信することにより行ってよい。
配置受付部15は、特定の学習済みモデルをモデルデータベースMDBから呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける。本実施形態において、ブロックは、一単位の処理に対応するものであり、例えばデプロイされた学習済みモデルの呼び出しや、予測のための入力データの読み出し、予測結果データの出力等を表す。本実施形態において、ブロックは、特定の図形として表されるが、ブロックの表し方は任意であり、一単位の処理に対応することが示されればどのような表し方であっても構わない。配置受付部15は、ユーザ端末装置20よりブロックの配置の指令を受け付ける。配置受付部15は、1又は複数のブロックの直列的な配置を受け付けてよい。
処理制御部16は、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように制御する。処理制御部16は、配置受付部15により受け付けた1又は複数のブロックの配置を参照して、データ処理装置32に対して、1又は複数のブロックの配置に応じた順序で処理の実行指令を送信する。データ処理装置32は、処理制御部16より受け付けた指令に従って、適宜モデルデータベースMDBに格納されたデプロイされた学習済みモデルの呼び出しを行って、学習データデータベースLDBに格納された予測のための入力データの取得を行い、学習済みモデルに基づき予測結果を出力する。
学習データ収集部18は、学習済みモデルを生成するために用いられる学習用のデータ(トレーニングデータ及び検証データ)を収集する。また、学習データ収集部18は、学習済みモデルに入力される予測のための入力データを収集する。学習データ収集部18は、センサ40やユーザ端末装置20から学習用のデータ及び予測を行うための入力データを収集する。学習データ収集部18は、継続収集部18aと、一括収集部18bとを含む。継続収集部18aは、学習用のデータ及び予測のための入力データをデータ出力源(センサ40等)から継続的に収集する。継続収集部18aによれば、時々刻々と変化する動的なデータを収集することができる。一括収集部18bは、学習用のデータ及び予測を行うための入力データを一括して収集する。一括収集部18bによれば、蓄積された統計データ等の静的なデータを一括して収集することができる。学習データ収集部18が継続収集部18aと、一括収集部18bとを含むことで、ユーザは、収集する学習用のデータ及び予測を行うための入力データのデータ形式に適した方法でデータの収集を行うことができ、データの収集が効率化される。
学習済みモデル生成装置31によって学習済みモデルを生成するためには、学習過程において使用されるトレーニングデータや検証データ等の学習用のデータを収集する必要がある。学習済みモデルによるタスクの実行性能は、豊富なトレーニングデータや検証データに基づく学習によって向上する傾向にあるが、トレーニングデータや検証データは必ずしも十分に用意されているとは限らない。学習データ収集部18によれば、動的な学習用のデータと静的な学習用のデータを効率良く収集することができ、ひいては学習済みモデルによるタスクの実行性能を向上させることができる。
表示制御部19は、学習機能部10a、サービス構築機能部10b及びデータ収集機能部10cより受け付けたデータを、ユーザ端末装置20の表示部に表示させる制御を行う。ユーザは、ユーザ端末装置20によりサービス構築装置10を操作して、学習済みモデルの確認やブロックの配置等を行い、サービスを構築する。
図3は、本発明の実施形態に係るサービス構築装置10による学習タイプの選択受付の例を示す図である。同図では、ユーザ端末装置20の表示部に表示される学習モデル選択画面DP1を示している。学習モデル選択画面DP1は、数値型分類タイプの選択を受け付ける第1アイコンIC1と、数値型回帰タイプの選択を受け付ける第2アイコンIC2と、画像型分類タイプの選択を受け付ける第3アイコンIC3と、文字型分類タイプの選択を受け付ける第4アイコンIC4と、を含む。ここで、数値型分類タイプは、数値データを幾つかの種類に分類する学習タイプであり、例えば、数値データをDNN(Deep Neural Network)により分類する学習タイプであってよい。数値型回帰タイプは、数値データから従属変数と独立変数の関係を求める学習タイプであり、例えば、数値データをDNNにより回帰分析する学習タイプであってよい。画像型分類タイプは、画像データを幾つかの種類に分類する学習タイプであり、例えば、画像データをCNN(Convolutional Neural Network)により分類する学習タイプであってよい。文字型分類タイプは、文字データを幾つかの種類に分類する学習タイプであり、例えば、文字データをNN(Neural Network)により分類する学習タイプであってよい。なお、文字型分類タイプは、いわゆる「Sequence to Sequence Learning with Neural Networks」と呼ばれる学習タイプであってよい。第1アイコンIC1、第2アイコンIC2、第3アイコンIC3及び第4アイコンIC4は、タイプ受付部11として機能する。
ユーザは、予め定められた複数の学習タイプに対応する第1アイコンIC1、第2アイコンIC2、第3アイコンIC3及び第4アイコンIC4のうちから1のアイコンをポインタPTによりクリックすることで1の学習タイプを選択する。なお、アイコンの選択は、タッチパネルのタッチや他の入力方法により行われてもよい。以下では、ユーザにより第1アイコンIC1が選択され、DNNによる数値分類の学習タイプが選択された場合について説明する。
図4は、本発明の実施形態に係るサービス構築装置10による学習条件の設定の例を示す図である。同図では、ユーザ端末装置20の表示部に表示される学習条件設定画面DP2を示している。学習条件設定画面DP2は、DNNの入力ノード数に相当する入力値の種類を設定する第1パラメータPR1と、DNN分類によりデータを分類する際のクラスタ数に相当する出力値の分類数を設定する第2パラメータPR2と、パラメータを自動変更して学習を繰り返す学習の最大試行回数を設定する第3パラメータPR3と、学習の制限時間を設定する第4パラメータPR4と、を含む。本例では、入力値の種類(第1パラメータPR1)が「4」、出力値の分類数(第2パラメータPR2)が「3」、学習の最大試行回数(第3パラメータPR3)が「10」、学習の制限時間(第4パラメータPR4)が「90」と設定されている。ここで、学習の制限時間(第4パラメータPR4)の単位は「分」である。設定部12は、これらのパラメータの数値により、第1学習条件の設定を行う。同図に示す第1パラメータPR1、第2パラメータPR2、第3パラメータPR3及び第4パラメータPR4は、予め定められた1又は複数のパラメータである。なお、第1パラメータPR1、第2パラメータPR2、第3パラメータPR3及び第4パラメータPR4は、予め定められた1又は複数のパラメータの例示であり、設定部12は、これら以外の種類のパラメータの設定を行ってもよいことは言うまでもない。なお、設定部12は、1又は複数のパラメータについてデフォルト値を示して、ユーザから特段の修正が無い場合、デフォルト値によって第1学習条件の設定を行ってよい。
このように、予め定められた1又は複数のパラメータの数値の設定により、第1学習条件の設定を行うことで、ユーザにより設定可能な学習条件が絞られるため、学習条件の設定変更を行う場合の方向性が明確となり、不可避な試行錯誤を効率的に行うことができる。また、多数のパラメータが存在する場合に、設定すべきパラメータを厳選してユーザによる入力を受け付ける第1学習条件として提示し、ユーザによる入力を受け付けない第2学習条件に含まれるパラメータについては設定部12により自動設定することで、ユーザによるパラメータ設定作業を簡略化することができる。例えば、設定部12は、ニューラルネットワークのレイヤー数を自動で設定してよい。レイヤー数の設定は、トレーニングデータの内容に応じて決定されてもよい。
学習条件設定画面DP2は、学習におけるトレーニングデータの格納場所を設定する第1入力データIN1と、学習における検証データの格納場所を設定する第2入力データIN2と、予測結果データの格納場所を設定する出力データOTと、を含む。本例では、第1入力データIN1が「URL1」、第2入力データIN2が「URL2」、出力データOTが「URL3」にそれぞれ格納されるよう設定されている。設定部12は、第1入力データIN1及び第2入力データIN2のURL(Uniform Resource Locator)により指定される場所に格納されたトレーニングデータ及び検証データを第1学習条件として設定し、出力データOTのURLにより指定される場所を予測結果データの格納場所として設定する。
タイプ受付部11によって、予め定められた複数の学習タイプのうちから1の学習タイプの選択を受け付けることで、ユーザは、用意された学習タイプのうちから実行させようとしているタスクに適した学習タイプを容易に見出すことができ、学習タイプの選定に伴う負担を軽減することができる。また、設定部12によって、タイプ受付部11により受け付けた1の学習タイプに応じて、学習条件の設定を行うことで、受け付けた学習タイプに応じて学習条件の設定が行われるため、どのような学習条件を定めなければならないのか学習タイプ毎に確認する負担が軽減される。
図5は、本発明の実施形態に係るサービス構築装置10によって実行される学習済みモデル登録処理を示すフローチャートである。タイプ受付部11は、予め定められた複数の学習タイプのうちから1の学習タイプの選択を受け付ける(S10)。設定部12は、タイプ受付部11により受け付けた1の学習タイプに応じて、学習条件の設定を行う。設定部12は、予め定められた1又は複数のパラメータの数値の設定をユーザから受け付けて、学習条件(第1学習条件)の設定を行う(S11)。また、設定部12は、トレーニングデータ、検証データ及び予測結果データの格納場所の設定を行う(S12)。設定部12は、この他に、ユーザから明示の指定を受け付けていない学習条件(第2学習条件)について自動で設定を行う。
学習済みモデル取得部13は、学習済みモデル生成装置31に対して、設定部12により設定された学習条件に従って、学習済みモデルの生成を行うよう指示を行う(S13)。学習済みモデル取得部13は、学習済みモデル生成装置31より生成された学習済みモデルを受信して、ユーザ端末装置20に表示させる。
トレーニングデータや検証データの修正を行う場合(S14:Yes)、設定部12は、トレーニングデータや検証データの再設定を行う(S15)。トレーニングデータや検証データの再設定は、新たなトレーニングデータや検証データの格納先を再設定することにより行われてもよいし、既に設定された格納場所に格納されたトレーニングデータや検証データを更新することにより行われてもよい。学習済みモデル取得部13は、学習済みモデル生成装置31に対して、設定部12により再設定されたトレーニングデータ及び検証データに従って、学習済みモデルの生成を行うよう指示を行う(S13)。ユーザは、学習条件の修正と学習済みモデルの確認を繰り返して、学習済みモデルを改良していく。なお、設定部12は、トレーニングデータや検証データ以外の学習条件の再設定を行ってもよい。例えば、設定部12は、学習の最大試行回数の再設定をユーザから受け付けたり、学習の制限時間の再設定をユーザから受け付けたりしてもよい。
トレーニングデータや検証データの修正を行わない場合(S14:No)、登録部14は、学習済みモデル取得部13により取得された学習済みモデルをデプロイして、デプロイされた学習済みモデルとしてモデルデータベースMDBに登録する(S16)。以上により、学習済みモデル登録処理が終了する。
図6は、本発明の実施形態に係るサービス構築装置10によるブロックの配置受付の例を示す図である。同図では、ユーザ端末装置20の表示部に表示されるブロック配置画面DP3を示している。ブロック配置画面DP3は、データ処理装置32に行わせる処理に対応する第1ブロックB1、第2ブロックB2、第3ブロックB3、第4ブロックB4及び第5ブロックB5を含む。第1ブロックB1、第2ブロックB2、第3ブロックB3、第4ブロックB4及び第5ブロックB5は、配置受付部15により配置を受け付けたブロックである。また、ブロック配置画面DP3は、配置することのできるブロックのリストを表示するブロックリストLTと、選択されたブロックの設定を表示するプロパティPPと、実行ボタンBTと、を含む。
本例において、第1ブロックB1は、1又は複数の処理を順次行う「フロー」を開始させる処理に対応する。第2ブロックB2は、予測を行うための入力データを学習データデータベースLDBから取得するようデータ処理装置32に指示する処理に対応する。なお、予測を行うための入力データは、学習データデータベースLDB以外から取得されるものであってもよい。第3ブロックB3は、モデルデータベースMDBよりデプロイされた学習済みモデルを呼び出し、予測を行うための入力データを入力として、デプロイされた学習済みモデルによる予測結果データを出力させる処理に対応する。第4ブロックB4は、デプロイされた学習済みモデルによる予測結果データを指定されたデータベースに登録する処理に対応する。第5ブロックB5は、「フロー」を終了させる処理に対応する。配置受付部15は、これら以外のブロックの配置を受け付けてもよいことは言うまでもない。
配置受付部15は、1又は複数のブロックの直列的な配置を受け付ける。すなわち、配置受付部15は、分岐を含むブロックの配置を受け付けない。ブロックの直列的な配置を受け付けることで、ブロックの接続順序によって処理の流れが表され、ブロックの配置によって処理の大枠を容易に捉えられるようになる。
ブロックリストLTは、配置することのできるブロックのリストを表示しており、ユーザは、ポインタPTによりブロックリストLTに表示された所望のブロックを選択し、既に配置されたブロックに重なるようにドラックアンドドロップして、ブロックの列を形成し、フローを構築することができる。本例では、ブロックリストLTに「フローの開始」及び「データ取得」と示された2つのブロックを表示しているが、ブロックリストLTには、配置可能な全てのブロックの一覧が表示されてよい。
プロパティPPは、選択されたブロックの設定を表示しており、本例では、「学習済みモデルで予測」のブロックを選択した場合を示している。具体的には、プロパティPPは、選択されたブロックの名称であるブロック名と、デプロイされた学習済みモデルに付されたモデル名と、デプロイされた学習済みモデルの入力変数と、デプロイされた学習済みモデルの出力変数と、デプロイされた学習済みモデルのバージョンと、を含む。本例では、ブロック名として「学習済みモデルで予測」が表示され、モデル名として「Model A」が表示され、入力変数として「X」が表示され、出力変数として「Y」が表示され、バージョンとして「2.0」が表示されている。ユーザは、選択したブロックのプロパティPPを編集することで、当該ブロックに対応する処理の詳細を設定することができる。例えば、モデル名を編集することで、呼び出し対象となるデプロイされた学習済みモデルを変更することができ、バージョンを変更することで、異なるトレーニングデータ及び検証データにより学習され、デプロイされた学習済みモデルを呼び出すことができる。
ブロックの配置とプロパティPPの設定を完了した場合、実行ボタンBTを押下することで、構築したフローを実行することができる。本例の場合、所定のデータが取得され、取得したデータについてデプロイされた学習済みモデルによる予測が行われ、予測結果データが所定の出力先に出力されるというフローが実行される。完成したフローは、サービスとして提供される。このようにして、本実施形態に係るサービス構築装置10によりサービスを構築することができる。なお、フローの実行タイミングは、実行ボタンBTが押下された際に限られない。例えば、フローは、定期的に実行されてもよいし、他のアプリケーションから呼び出された場合に実行されてもよい。
設定部12及び学習済みモデル取得部13によって、学習条件の設定と学習済みモデルの確認を繰り返すことで、不可避な試行錯誤を効率的に行うことができる。また、配置受付部15によって、処理に対応するブロックの配置を受け付けることで、デプロイされた学習済みモデルによって実行されるタスクを他の処理と容易に組み合わせることができる。そのため、本実施形態に係るサービス構築装置10によれば、機械学習の成果を利用したサービスの迅速な開発を支援することができる。
図7は、本発明の実施形態に係るサービス構築装置10によって実行されるフロー実行処理を示すフローチャートである。配置受付部15は、デプロイされた学習済みモデルをモデルデータベースMDBから呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける(S20)。サービス構築装置10は、配置されたブロックについて、プロパティの設定を行う(S21)。そして、1又は複数のブロックに対応するフローの実行指示(ユーザによる指示及び定期的な実行指示を含む。また、他のアプリケーションによる呼び出しを含む。)を受け付ける(S22)。
処理制御部16は、1又は複数のブロックに対応する1又は複数の処理が、1又は複数のブロックの配置に応じた順序で実行されるように、データ処理装置32に対して指示する(S23)。配置されたブロックに対応する全ての処理が完了していない場合(S24:No)、処理制御部16は、データ処理装置32に対する指示を継続する。一方、配置されたブロックに対応する全ての処理が完了した場合(S24:Yes)、フローの実行処理が終了する。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10…サービス構築装置、10a…学習機能部、10b…サービス構築機能部、10c…データ収集機能部、11…タイプ受付部、12…設定部、13…学習済みモデル取得部、14…登録部、15…配置受付部、16…処理制御部、18…学習データ収集部、18a…継続収集部、18b…一括収集部、19…表示制御部、20…ユーザ端末装置、31…学習済みモデル生成装置、32…データ処理装置、40…センサ、B1…第1ブロック、B2…第2ブロック、B3…第3ブロック、B4…第4ブロック、B5…第5ブロック、DP1…学習モデル選択画面、DP2…学習条件設定画面、DP3…ブロック配置画面、BT…実行ボタン、IC1…第1アイコン、IC2…第2アイコン、IC3…第3アイコン、IC4…第4アイコン、IN1…第1入力データ、IN2…第2入力データ、LDB…学習データデータベース、LT…ブロックリスト、MDB…モデルデータベース、OT…出力データ、PP…プロパティ、PR1…第1パラメータ、PR2…第2パラメータ、PR3…第3パラメータ、PR4…第4パラメータ、PT…ポインタ。

Claims (7)

  1. ユーザより入力された第1学習条件を含む学習条件の設定を行う設定部と、
    前記設定部によって設定された学習条件に従って学習された学習済みモデルを取得する学習済みモデル取得部と、
    前記学習済みモデル取得部によって取得された学習済みモデルをモデルデータベースに登録する登録部と、
    前記モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける配置受付部と、
    前記1又は複数のブロックに対応する1又は複数の処理が、前記1又は複数のブロックの配置に応じた順序で実行されるように制御する処理制御部と、
    を備えるサービス構築装置。
  2. 予め定められた複数の学習タイプのうちから1の学習タイプの選択を受け付けるタイプ受付部をさらに備え、
    前記設定部は、前記タイプ受付部により受け付けた前記1の学習タイプに応じて、前記学習条件の設定を行う、
    請求項1に記載のサービス構築装置。
  3. 前記設定部は、予め定められた1又は複数のパラメータの数値の設定を前記ユーザから受け付けて、前記第1学習条件の設定を行う、
    請求項1又は2に記載のサービス構築装置。
  4. 前記学習を行うための学習用のデータを収集する学習データ収集部をさらに備え、
    前記学習データ収集部は、
    前記学習用のデータをデータ出力源から継続的に収集する継続取得部と、
    前記学習用のデータを一括して収集する一括取得部と、を含む、
    請求項1から3のいずれか1項に記載のサービス構築装置。
  5. 前記配置受付部は、前記1又は複数のブロックの直列的な配置を受け付ける、
    請求項1から4のいずれか1項に記載のサービス構築装置。
  6. ユーザより入力された第1学習条件を含む学習条件の設定を行う第1ステップと、
    前記第1ステップによって設定された学習条件に従って学習された学習済みモデルを取得する第2ステップと、
    前記第2ステップによって取得された学習済みモデルをモデルデータベースに登録する第3ステップと、
    前記モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける第4ステップと、
    前記1又は複数のブロックに対応する1又は複数の処理が、前記1又は複数のブロックの配置に応じた順序で実行されるように制御する第5ステップと、
    を含むサービス構築方法。
  7. コンピュータを、
    ユーザより入力された第1学習条件を含む学習条件の設定を行う設定部と、
    前記設定部によって設定された学習条件に従って学習された学習済みモデルを取得する学習済みモデル取得部と、
    前記学習済みモデル取得部によって取得された学習済みモデルをモデルデータベースに登録する登録部と、
    前記モデルデータベースから特定の学習済みモデルを呼び出す処理を含む1又は複数の処理に対応する1又は複数のブロックの配置を受け付ける配置受付部と、
    前記1又は複数のブロックに対応する1又は複数の処理が、前記1又は複数のブロックの配置に応じた順序で実行されるように制御する処理制御部と、
    として機能させるサービス構築プログラム。
JP2016242441A 2016-12-14 2016-12-14 サービス構築装置、サービス構築方法及びサービス構築プログラム Active JP6817625B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016242441A JP6817625B2 (ja) 2016-12-14 2016-12-14 サービス構築装置、サービス構築方法及びサービス構築プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016242441A JP6817625B2 (ja) 2016-12-14 2016-12-14 サービス構築装置、サービス構築方法及びサービス構築プログラム

Publications (2)

Publication Number Publication Date
JP2018097671A true JP2018097671A (ja) 2018-06-21
JP6817625B2 JP6817625B2 (ja) 2021-01-20

Family

ID=62632236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016242441A Active JP6817625B2 (ja) 2016-12-14 2016-12-14 サービス構築装置、サービス構築方法及びサービス構築プログラム

Country Status (1)

Country Link
JP (1) JP6817625B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020030692A (ja) * 2018-08-23 2020-02-27 ファナック株式会社 判別装置及び機械学習方法
JP2020091824A (ja) * 2019-03-11 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
JP2020091736A (ja) * 2018-12-06 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
WO2020158217A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2020158954A1 (ja) * 2019-02-01 2020-08-06 株式会社コンピュータマインド サービス構築装置、サービス構築方法及びサービス構築プログラム
CN113167704A (zh) * 2018-12-05 2021-07-23 里沃恩株式会社 信息处理装置、信息处理方法、学习模型生成方法以及程序
WO2022030551A1 (ja) * 2020-08-07 2022-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 画像照合処理装置、方法およびプログラム
US11373422B2 (en) 2019-07-17 2022-06-28 Olympus Corporation Evaluation assistance method, evaluation assistance system, and computer-readable medium
EP4099204A1 (en) 2021-06-03 2022-12-07 Fujitsu Limited Probabilistic classifier maximum certainty factor correction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141678A (ja) * 2010-01-06 2011-07-21 Sumitomo Electric Ind Ltd 情報処理装置、コンピュータプログラム及び情報処理方法
JP2018514840A (ja) * 2015-03-02 2018-06-07 ブルヴェクター, インコーポレーテッドBluvector, Inc. 機械学習アプリケーション用のデジタルオブジェクトライブラリ管理システム
JP2018198746A (ja) * 2017-05-26 2018-12-20 株式会社ドワンゴ 端末およびサーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141678A (ja) * 2010-01-06 2011-07-21 Sumitomo Electric Ind Ltd 情報処理装置、コンピュータプログラム及び情報処理方法
JP2018514840A (ja) * 2015-03-02 2018-06-07 ブルヴェクター, インコーポレーテッドBluvector, Inc. 機械学習アプリケーション用のデジタルオブジェクトライブラリ管理システム
JP2018198746A (ja) * 2017-05-26 2018-12-20 株式会社ドワンゴ 端末およびサーバ

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AZURE MACHINE LEARNING "HELLO WORLD" USING R [ONLINE], JPN6020046502, 21 August 2014 (2014-08-21), pages 13, ISSN: 0004399351 *
MICHAEL, AZURE MACHINE LEARNINGで多項分類を試してみた[ONLINE], JPN6020034950, 20 April 2016 (2016-04-20), ISSN: 0004349528 *
ZHAO, KATHERINE, LOAD A TRAINED DEEP LEARNING MODEL [TRAINING EXPERIMENT] [ONLINE], JPN6020034949, 15 September 2016 (2016-09-15), ISSN: 0004349527 *
湯下 達郎, 「AZURE × IOTプラットフォーム」 事始め 4 [ONLINE], JPN6020034953, 5 October 2016 (2016-10-05), ISSN: 0004349529 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020030692A (ja) * 2018-08-23 2020-02-27 ファナック株式会社 判別装置及び機械学習方法
JP7299002B2 (ja) 2018-08-23 2023-06-27 ファナック株式会社 判別装置及び機械学習方法
US11461584B2 (en) 2018-08-23 2022-10-04 Fanuc Corporation Discrimination device and machine learning method
CN113167704A (zh) * 2018-12-05 2021-07-23 里沃恩株式会社 信息处理装置、信息处理方法、学习模型生成方法以及程序
JP2020091736A (ja) * 2018-12-06 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
JPWO2020158954A1 (ja) * 2019-02-01 2021-02-18 株式会社コンピュータマインド サービス構築装置、サービス構築方法及びサービス構築プログラム
WO2020158954A1 (ja) * 2019-02-01 2020-08-06 株式会社コンピュータマインド サービス構築装置、サービス構築方法及びサービス構築プログラム
JP2022033153A (ja) * 2019-02-01 2022-02-28 株式会社コンピュータマインド 情報処理装置
WO2020158217A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2020091824A (ja) * 2019-03-11 2020-06-11 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
US11373422B2 (en) 2019-07-17 2022-06-28 Olympus Corporation Evaluation assistance method, evaluation assistance system, and computer-readable medium
WO2022030551A1 (ja) * 2020-08-07 2022-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 画像照合処理装置、方法およびプログラム
JP2022030869A (ja) * 2020-08-07 2022-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 画像照合処理装置、方法およびプログラム
EP4099204A1 (en) 2021-06-03 2022-12-07 Fujitsu Limited Probabilistic classifier maximum certainty factor correction

Also Published As

Publication number Publication date
JP6817625B2 (ja) 2021-01-20

Similar Documents

Publication Publication Date Title
JP6817625B2 (ja) サービス構築装置、サービス構築方法及びサービス構築プログラム
CN105959374B (zh) 一种数据推荐方法及其设备
Sarangi et al. Automation of Agriculture Support Systems using Wisekar: Case study of a crop-disease advisory service
JP6752457B2 (ja) 機械学習システム、装置及び情報処理方法
CN103699233B (zh) 字符串输入方法和输入装置
WO2020006076A1 (en) Method and system for automating web processes utilizing an abstractable underlying platform layer
CN112036577B (zh) 基于数据形式的应用机器学习的方法、装置和电子设备
CN102741840B (zh) 用于对个性化场景建模的方法和装置
CN107590188A (zh) 一种自动化垂直细分领域的爬虫爬取方法及其管理系统
CN104391996B (zh) 移动终端的用户交互行为的收集分析方法
US20160308795A1 (en) Method, system and apparatus for configuing a chatbot
KR102411816B1 (ko) 로보틱 처리 자동화(rpa) 포털을 이용한 업무 자동화 서비스 제공방법, 서버 및 컴퓨터프로그램
JP6685985B2 (ja) 分類支援装置、分類支援方法、および分類支援プログラム
JP6116650B1 (ja) 学習支援システム、学習支援方法、学習支援装置、および学習支援プログラム
CN109202908B (zh) 机器人的控制方法、装置、设备、系统和存储介质
CN114253735A (zh) 一种任务处理方法、装置及相关设备
CN109741108A (zh) 基于情境感知的流式应用推荐方法、装置和电子设备
CN110098959B (zh) 工控协议交互行为的建模方法、装置、系统及存储介质
KR20190109669A (ko) 인공지능 기반 부품 검색 시스템
CN111210017A (zh) 确定布局顺序及数据处理的方法、装置、设备及存储介质
US20180210619A1 (en) Automated user interface design improvement
CN113033990A (zh) 一种设计师智能匹配方法
CN110162361B (zh) 基于用户行为的智能提示方法、装置、终端及存储介质
JP6141378B2 (ja) 人材検索サーバ
CN111062914A (zh) 用于采集脸部图像的方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201218

R150 Certificate of patent or registration of utility model

Ref document number: 6817625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250