JP2020046956A - 機械学習システム - Google Patents

機械学習システム Download PDF

Info

Publication number
JP2020046956A
JP2020046956A JP2018175028A JP2018175028A JP2020046956A JP 2020046956 A JP2020046956 A JP 2020046956A JP 2018175028 A JP2018175028 A JP 2018175028A JP 2018175028 A JP2018175028 A JP 2018175028A JP 2020046956 A JP2020046956 A JP 2020046956A
Authority
JP
Japan
Prior art keywords
information
symbol
symbols
machine learning
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018175028A
Other languages
English (en)
Inventor
篤志 宮本
Atsushi Miyamoto
篤志 宮本
忠幸 松村
Tadayuki Matsumura
忠幸 松村
教夫 大久保
Michio Okubo
教夫 大久保
竜治 嶺
Ryuji Mine
竜治 嶺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018175028A priority Critical patent/JP2020046956A/ja
Publication of JP2020046956A publication Critical patent/JP2020046956A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】より複雑な機械学習タスクにおいても高い収束性を有する学習を可能とする。【解決手段】機械学習システムは、事前学習用データ を使用して複数の第1ニューラルネットワークそれぞれの事前学習を行うニューラルネットワークシステム部と、前記事前学習により得られた前記複数の第1ニューラルネットワークのパラメータ情報を取得し、前記第1ニューラルネットワークそれぞれに対応する記号と前記パラメータ情報とを関連付ける記号情報 を生成する、記号化処理部と、前記記号情報の前記記号間の関係情報を生成する、記号処理システム部と、前記記号情報及び前記関係情報を用いて、機械学習タスクに対する第2ニューラルネットワークを再構成する、ニューラルネットワーク作用部と、を含む。【選択図】図1

Description

本発明は、機械学習システムに関する。
人工知能(AI)関連技術、とりわけ機械学習技術が注目されている。機械学習技術の手法として、大きく、ニューラルネットワーク、遺伝的プログラムの手法がある。ニューラルネットワークは、生物の神経ネットワークの構造を模倣した学習アルゴリズムであり、ネットワークの相互接続で計算を表現し、入出力間の関係性をモデル化する方法である。一方で、遺伝的プログラムは、進化的アルゴリズムを元に、タスクを実行するプログラムを探索的に求める方法である。
学習されるモデルを近似的に求める方法か、学習されるモデルを探索的に求める方法か、という点において両者は大きく異なる。ニューラルネットワークは、近似的にモデルを求める方法であるため、大量のデータが必要となる。大量のデータがあれば収束性は高いが、一方で、データが少ない場合や複雑なタスクを扱う場合には、学習精度を高めるために問題設定やアーキテクチャなどの工夫を施さなければならない。すなわち、膨大な開発コストがかかる。
一方、遺伝的プログラムは、探索的にモデル求める方法である。少量の学習用データでも解を探索できる可能性があるが、一方で、複雑なタスクを扱う場合には、組み合わせ爆発によって収束性が得られなくなる。
特許文献1では、複数のパラメータ記述からなるブロックダイアグラムデータからニューラルネットをそれぞれ生成して学習し、さらに遺伝的アルゴリズムによって評価することで、所望の機能を実現するニューラルネットワークを探索する方法が開示されている。また、特許文献2では、if−thenルールを、自己増殖型ニューラルネットワークを用いて学習することで、パターンベースの推論をより適切に行うことができる推論装置が開示されている。
特開2003−317073号公報 特開2008−305129号公報
特許文献1に記載の技術は、ブロックダイアグラムデータ(パラメータ情報)を元にニューラルネットワークの構成を探索する手法であり、また特許文献2の手法も入力データパターンに応じて自己増殖型ニューラルネットを適用する。しかし、パラメータや入力データパターンを用いた探索のみでは、複雑な手続きを必要とするタスクには適応できない。これらのタスクには、ニューラルネットワーク単体の識別・判別だけなく、記号的な推論を組み合わせる必要がある。したがって、より複雑な機械学習タスクにおいても高い収束性を有する学習を可能とする技術が望まれる。
本願において開示される発明の代表的な一例を示せば以下の通りである。機械学習システムは、事前学習用データ を使用して複数の第1ニューラルネットワークそれぞれの事前学習を行うニューラルネットワークシステム部と、前記事前学習により得られた前記複数の第1ニューラルネットワークのパラメータ情報を取得し、前記第1ニューラルネットワークそれぞれに対応する記号 と前記パラメータ情報とを関連付ける記号情報 を生成する、記号化処理部と、前記記号情報の前記記号間の関係情報を生成する、記号処理システム部と、前記記号情報及び前記関係情報を用いて、機械学習タスクに対する第2ニューラルネットワークを再構成する、ニューラルネットワーク作用部と、を含む。
本開示の一例は、より複雑な機械学習タスクにおいても高い収束性を有する学習を可能とする。
上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
互いに通信する機械学習装置及びユーザ端末を含む機械学習システムの構成例を示すブロック図である。 実施例の機械学習装置が適用されるシステム構成例を示すブロック図である。 機械学習装置のハードウェア構成例を示すブロック図である。 事前学習処理において用いられる構成要素を示す。 事前学習処理のフローチャートを示す。 学習したモデルの一例として、ニューラルネットワークを示す。 ニューラルネットワークの構成要素を示す。 タスク毎に学習された認識情報の例である 記号化処理部が実行する記号化処理の概要を示すフローチャートである。 記号化処理により得られた記号情報の一例を示す。 記号処理において用いられる構成要素を示す。 記号処理の概要を示すフローチャートである。 記号情報をグラフで表した概念図の一例であり、 記号間の関係情報をグラフで表した概念図の一例である。 知識データベースに格納されている、記号間の関係情報の例を示す。 記号情報及び記号間の関係の追加をグラフで示す。 記号の追加による知識データベースに格納されている記号情報の変化の例を示す。 新たに生成される記号間の関係情報の例を示す。 機械学習装置による記号及び記号間の関係の追加処理の概要を説明するフローチャートである。 指定された記号情報の分布図を表示する例である。 指定された記号間の関係情報をグラフで表示する例である。 ユーザによって記号及び記号間の関係が追加される例を示す。 ユーザによる記号及び記号間の関係の追加処理の概要を説明するフローチャートである。 タスク学習処理において用いられる構成要素を示す。 タスク学習及び実行処理の概要を示すフローチャートである。 ニューラルネットワーク作用部が実行するニューラルネットワーク再構成処理の概要を説明するフローチャートである。 ニューラルネットワークA及びニューラルネットワークBから融合ニューラルネットワークを生成する例を示す。
以下、添付図面を参照して本発明の実施例について説明する。添付図面では、機能的に同じ要素は同じ番号で表示されている。なお、添付図面は本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
以下において、複雑な機械学習タスクにも対応するために、ニューラルネットワークによって学習用データから得られた知識を記号化して蓄積し、記号化された知識の関係性も考慮した上で記号化された知識を所望の機械学習タスクに活用できる方法並びにそれを実行する装置及びシステムを開示する。
当該方法は、ニューラルネットワークの学習タスクの認識情報を記号情報として蓄積する。認識情報は、ニューラルネットワークのパラメータの情報及び特定層から出力されるベクトルの情報を含む。当該方法は、記号情報におけるベクトル情報を分類し、記号間の関係情報を追加する。さらに、記号間の関係情報に基づき、新たな記号の記号情報を生成する。
また、当該方法は、記憶された記号情報を、ユーザインターフェースを介してユーザに提示し、ユーザにより指定された記号間の関係情報を記号情報に関連付けて記憶する。新たなタスクに応じて、適切に記憶された記号情報及び記号間の関係情報を選択して活用し、より複雑な機械学習タスクにおいても、高い収束性を有する学習を可能とする。
まず、本実施例の概要について、図1を参照しつつ説明する。図1は機械学習装置100及びユーザ端末210を含む機械学習システム(計算機システム)を示す。機械学習装置100は、収束不可能な複雑な機械学習タスクに対応するために、大きく、事前学習処理、記号処理及びタスク学習処理の3つの処理を実行する。
(1)事前学習処理
データから知識を抽出して、機械学習タスクの学習に利用するために、機械学習装置100は、データベースから入力をされた事前学習用データ171を、ニューラルネットワークシステム部101で学習し、機械学習モデル(ニューラルネットワーク)を示す認識情報を作成する。記号化処理部102は、得られた認識情報から対象を分類し、分類された対象それぞれに対する記号情報を格納する。分類された対象は、記号で表わされる。記号情報は、記号と、当該記号に紐付けられた認識情報とを含む。
事前学習は、結果として得られる記号情報を、知識として知識データベース105に格納する。事前学習用データ171は、例えば、画像、テキスト、音声などのセンシングデータ、購買履歴、作業履歴などの業務データなど、機械学習が分析可能な多岐のデータを含み得る。
事前学習の機械学習タスクは、例えば、入力データが対象であるか否かを問う、判別タスクである。画像データに対して犬(対象)を判別するタスク(例えば事前学習タスク1)であれば、犬に対する機械学習モデル(ニューラルネットワーク)111Aが認識情報として学習される。同様に、画像データに対する猫(対象)を判別するタスク(例えば事前学習タスク2)であれば、猫に対する機械学習モデル(ニューラルネットワーク)111Bが認識情報として学習される。
認識情報は、例えば、事前学習によって得られたニューラルネットワークのパラメータ情報や特定層から出力される埋め込みベクトル情報(分散表現)などを含む。事前学習において、例えば、「犬」や「猫」などのラベル(教師情報)は記号であり、認識情報に紐つけられて記号情報に含まれる。
ニューラルネットワークシステム部101のネットワーク構造やパラメータの次元などは、タスクの種別が同じであれば同じものを想定する。画像データに対する判別タスクであれば、犬を判別するタスクでも、猫を判別するタスクでも同じネットワーク構造及びパラメータを用いる。一方、テキストデータを入力とした単語を学習するタスクは、画像データに対するタスクとは、異なるネットワーク構造及びパラメータを用いる。
(2)記号処理
記号処理システム部103は、知識データベース105に格納された記号情報を用いて、記号間の関係情報を設定または生成し、知識データベース105へ再び格納する。記号間の関係情報は、ユーザインターフェース106を通してユーザから与えられて設定される、または、記号の類似度の分析や、すでに取得された記号間の関係情報から類推する処理を実行することで生成される。
ユーザインターフェース106は、知識データベース105が格納する記号情報(記号)の分布を、ベクトル情報を元に表示することや、ラベル付けされた記号間の関係情報をグラフとして表示することが可能である。ユーザは、その表示に従い記号間の関係を画面上で指定して追加することができる。
(3)タスク学習処理
タスク学習処理は、知識データベース105に格納された記号情報及び記号間の関係情報を元に、機械学習タスクに対するニューラルネットワーク112を再構成し、再構成されたニューラルネットワーク112の元で、タスクを学習する。タスク学習処理では、ニューラルネットワーク112の再構成に必要な記号情報や記号間の関係情報を、ユーザインターフェース106を通してユーザが選択する。
ユーザからの選択情報をトリガとして、ニューラルネットワーク作用部104は、対応する記号情報を知識データベース105から取得し、ネットワーク再構成情報を作成する。ネットワーク再構成情報は、選択された記号情報のもつパラメータを融合して作られる。ニューラルネットワークシステム部101は、ネットワーク再構成情報に基づいたネットワークを用いて、機械学習タスクに対する学習用データ172が与えられ、学習が実行される。
以上のように、機械学習装置100は、事前学習によって得られた認識情報を記号情報に変換し、記号処理によって記号間の関係を定義し、タスク学習処理によって適切な選択情報からネットワークの再構成情報を生成する。これにより、複雑な機械学習タスクも実行可能となる。
機械学習装置100は、事前学習において、学習されたモデルを認識情報、学習用データの対象に対する教師ラベルを記号として、それらを統合して記号情報を生成する。機械学習装置100は、記号処理において、記号情報のもつ対象のベクトル情報を元に、記号情報の分布や、記号間の関係性をユーザに提示する。機械学習装置100は、記号処理において、画面上でのユーザの指定に基づき、記号情報や記号間の関係情報を変更する。機械学習装置100は、タスク学習処理において、ユーザが指定した記号情報の選択情報を元に、ニューラルネットワークを再構成する。
以下において、実施例を説明する。上述のように、図1は、互いに通信する機械学習装置100及びユーザ端末210を含む機械学習システム(計算機システム)の構成例を示すブロック図である。図2Aは、実施例の機械学習装置100が適用されるシステム構成例を示すブロック図である。図2Bは機械学習装置100のハードウェア構成例を示すブロック図である。
図2Aに示すシステムは、機械学習装置100、基地局220、ユーザ端末210、及びデータベース200を含む。機械学習装置100、基地局220及びデータベース200はネットワーク240を介して互いに接続される。ネットワーク240は、例えば、WAN、LAN等が考えられるが、ネットワーク240の種別は限定されない。
ユーザ端末210は、基地局220を介して無線通信を介して、機械学習装置100等と接続される。なお、ユーザ端末210と基地局220との間は有線通信を介して接続されてよいし、ユーザ端末210が直接ネットワーク240と接続されてもよい。
ユーザ端末210は、例えばパーソナルコンピュータ又はタブレット端末等の装置である。ユーザ端末210は、プロセッサ、メモリ、ネットワークインターフェース、及び入出力装置(図示省略)を備える。入出力装置には、ディスプレイ、キーボード、マウス、及びタッチパネル等が含まれる。ユーザ端末210は、機械学習装置100を操作するためのユーザインターフェース106を提供する。
データベース200は、SQLなどのリレーショナルデータベースや、特に構造データを扱う場合には、XMLデータベースが利用できる。データベース200は、事前学習タスクのための学習用データ171及び再構成されたニューラルネットワーク112のタスク学習用データ172を格納する。
図2Bに示すように、機械学習装置100は、例えば、1以上の計算機で構成することができる。図2Bは、一つの計算機の構成例を示す。データベース200及びユーザ端末210も同様の計算機構成を有してよい。
機械学習装置100は、プロセッサ121、メモリ122、補助記憶装置123、ネットワークインターフェース125を含む。上記構成要素は、バスによって互いに接続されている。メモリ122、補助記憶装置123又はこれらの組み合わせは記憶装置の例である。これらの一部構成は省略されてもよく、他の構成要素が追加されてもよい。
メモリ122は、例えば半導体メモリから構成され、主にプログラムやデータを一時的に保持するために利用される。メモリ122は、ニューラルネットワークシステム部101、記号化処理部102、記号処理システム部103及びニューラルネットワーク作用部104それぞれを構成するためのプログラムを格納する。
プロセッサ121は、メモリ122に格納されているプログラムに従って、様々な処理を実行する。プロセッサ121がプログラムに従って動作することで、様々な機能部が実現される。例えば、プロセッサ121は、プログラムそれぞれに従って、ニューラルネットワークシステム部101、記号化処理部102、記号処理システム部103及びニューラルネットワーク作用部104として動作する。
補助記憶装置123は、例えばハードディスクドライブやソリッドステートドライブなどの大容量の記憶装置から構成され、プログラムやデータを保存するために利用される。例えば、知識データベース105は、補助記憶装置123に格納することができる。補助記憶装置123に格納されたプログラムが起動時又は必要時にメモリ122にロードされる。このプログラムをプロセッサ121が実行することにより機械学習装置100の各種処理が実行される。したがって、プログラムにより実行される処理は、プロセッサ121又は機械学習装置100による処理である。
ネットワークインターフェース125は、ネットワークに接続するためのインターフェースである。機械学習装置100は、ネットワークインターフェース125及びネットワークを介して、データベース200及びユーザ端末210と通信を行う。
機械学習装置100は、ユーザ端末210の指示に従って、データベース200から学習用データ171又は172を取得し、機械学習処理を実行する。データベース200から検索され、読み込まれたデータは、補助記憶装置123又はメモリ122に格納される。機械学習処理のための実行プログラム、及び当該プログラムの実行時に用いられる情報は、メモリ122に格納される。
図1の説明に戻る。次に、メモリ122に格納される機械学習処理のための実行プログラム及び情報について説明する。機械学習装置100は、事前学習処理、記号処理、及びタスク学習処理の3つの処理を実行する、複数の機能部を含む。プロセッサ121は、プログラムに従って複数の機能部として動作する。具体的には、機械学習装置100は、ニューラルネットワークシステム部101、記号化処理部102、記号処理システム部103、ニューラルネットワーク作用部104を含む。
ニューラルネットワークシステム部101は、ユーザ端末210のユーザインターフェース106から検索項目やキーワードを受け取り、登録されたデータベース200にアクセスして、補助記憶装置123又はメモリ122に、取得された学習用データ171、172を格納する。
事前学習処理時、ニューラルネットワークシステム部101は、事前学習用に取得したデータ171をニューラルネットワーク111A及び111Bで学習し認識情報を出力する。タスク学習処理時、ニューラルネットワークシステム部101は、ニューラルネットワークの再構成情報を入力として、タスクに対するニューラルネットワーク112を再構成する。ニューラルネットワークシステム部101は、再構成されたニューラルネットワーク112で、タスク用に取得したデータからタスクを学習し、結果を出力する。
記号化処理部102は、ニューラルネットワークシステム部101から得られた認識情報を入力として、事前学習におけるラベルを対象の記号として分類し、分類されたラベル(記号)それぞれに対して認識情報を紐付けて、記号情報を生成する。結果として得られた記号情報は、知識データベース105に格納される。
記号処理システム部103は、知識データベース105に格納された記号情報に含まれる対象のベクトル情報を教師なしクラスタリングによって分析して、新たなカテゴリ(記号間の関係を示す)を記号情報に追加する。記号処理システム部103は、ユーザインターフェース106を介して、ユーザに記号情報を、ベクトル情報の分布や、記号間の関係を表すグラフとして提示する。
ユーザは、ユーザインターフェース106を介して、表示されたグラフに対して記号間の関係を画面上で指定して追加する。記号処理システム部103は、生成された記号間の関係情報を知識データベース105へ格納する。タスク学習時、記号処理システム部103は、ユーザインターフェース106からの指定に伴い、再構成に必要な記号情報や記号間の関係情報を取得し、選択情報としてニューラルネットワーク作用部104へ出力する。
ニューラルネットワーク作用部104は、ユーザから記号情報の選択情報をユーザインターフェース106を介して受け付け、対応する記号情報を知識データベース105から取得し、ネットワーク再構成情報を作成する。
知識データベース105は、記号化処理によって生成された記号情報及び記号化処理によって生成された記号間の関係情報を格納する。知識データベース105は、補助記憶装置123もしくはメモリ122、または、外部ネットワーク240を介して接続されるデータベース200に格納することができる。
ユーザ端末210において、ユーザインターフェース106は、プログラムに従って動作するプロセッサにより実現される。ユーザインターフェース106は、知識データベース105が格納する記号情報及び記号間の関係情報をユーザ端末210の表示デバイスにおいて表示する。記号処理時、ユーザインターフェース106は、ユーザが入力デバイスから指定する記号間の関係情報を受け付ける。タスク処理時、ユーザインターフェース106は、ユーザが入力デバイスから指定する記号情報の選択情報を受け付ける。
以下において、機械学習装置100が実行する処理の流れを説明する。上述のように、機械学習装置100は、事前学習処理、記号処理及びタスク学習処理を実行する。
<事前学習処理>
図3は、事前学習処理において用いられる構成要素を示す。事前学習処理は、いくつかのタスクのデータに対して、予め学習を実施しておく処理である。事前学習処理は、その学習で得た知識を、記号情報として、知識データベース105に格納する。記号情報は、入力情報、出力情報(教師データであるラベル)、学習されたニューラルネットワークのパラメータ情報、学習用データに対するベクトル情報(中間層の出力)を含むである。
図4は、事前学習処理のフローチャートを示す。機械学習装置100は、事前学習処理を、ユーザ端末210から受信した開始指示に応答して実行する。ニューラルネットワークシステム部101は、タスク毎にステップS301〜S304を実行する。ニューラルネットワークシステム部101は、タスク毎に、ユーザインターフェース106からキーワード、対象となるデータベース、期間指定などの検索項目を受け付け、受信した情報を元に、外部ネットワーク240を介して、データベース200から該当する事前学習用データ171を検索して取得する(ステップS302)。取得された事前学習用データ171は、機械学習装置100の補助記憶装置123に格納される。
ニューラルネットワークシステム部101、取得された事前学習用データ171に対して、事前学習用データ学習処理を実行する(ステップS303)。事前学習用データ学習処理において、想定される機械学習タスクは、例えば、入力データが、対象か否かを問う判別タスクである。ここで、タスク種別(画像の判別タスク、テキストの単語学習タスクなど)が同じであれば、ニューラルネットワークのネットワーク構造や、パラメータの次元などは同じと想定する。一方で、タスク種別が異なれば、それぞれニューラルネットワークのネットワーク構造やパラメータ次元などは異なると想定する。
ニューラルネットワークの例は、画像を取り扱うのに適したコンボリューショナルニューラルネットワーク、テキストなど系列データを扱うのに適したリカレントニューラルネットワーク、である。ニューラルネットワークのパラメータ情報は、タスク種別ごとに保持される。
図5Aは、学習したモデルの一例として、ニューラルネットワーク401を示す。図5Bは、ニューラルネットワーク401の構成要素を示す。ニューラルネットワーク401は、対象か否かを問う判別タスクの例である。説明の簡単化のため、ニューラルネットワーク401は3層構造を有する。実際のニューラルネットワークは、より多くの層からなる多層構造を有してよい。
W1、W2は、ニューラルネットワーク401のパラメータ情報を表す。W1は対象のベクトル情報(分散表現)への埋め込みを学習するエンコーダとしてのパラメータ情報を表す。当該パラメータ情報は、入力層と中間層との間のエッジそれぞれの重みやバイアスを示す。W2は対象のベクトル情報からの判定を学習するデコーダとしてのパラメータ情報を表す。当該パラメータ情報は、中間層と出力層との間のエッジそれぞれの重みやバイアスを示す。hは、W1によって埋め込まれた対象に対するベクトル情報(分散表現)を表す。hは、中間層からの出力ベクトルである。
inはニューラルネットワークの入力情報、outは出力情報(対象に対する教師ラベル)である。図5A及び5Bの例は、入力が判別対象か否かを問う判別タスクのため、出力情報の教師ラベルはpositiveかnegativeの二通りであり、出力層は二つのポートを備えている。例えば、犬又は猫の判別モデルのpositiveのラベルは、犬又は猫のラベルである。
事前学習用データ171を使用した事前学習処理は、タスク毎に学習される機械学習モデルを認識情報として出力する。図6はタスク毎に学習された認識情報の例410である。認識情報410は、構成情報411及び処理データ情報415を含む。図6の例において、画像及び文書のタスク種別に対して、犬を判別するタスク及び猫を判別するタスクの二つのタスクが存在する。認識情報410はメモリ122に格納されると共に、知識データベース105に格納されてもよい。
構成情報411は、各タスクのタスク種別及びニューラルネットワークの学習後のパラメータ情報(W1及びW2)を示す。処理データ情報415は、各タスクにおける、入力情報(in)、対応する教師ラベル(out)及び、教師ラベル(out)が示す対象に対する埋め込み情報としてのベクトル情報の組、を示す。タスクが実行される毎に、構成情報が追加される。
処理データ情報415は、構成情報411が示すパラメータ情報を有するニューラルネットワークに対する入力、ベクトル情報及び出力のラベルを示す。出力のラベルは犬又は猫である。つまり、処理データ情報415は、猫又は犬と判別された入力及びベクトル情報の組を示す。これら入力に対するニューラルネットワークそれぞれの出力の値は、positiveである。このように、図6の例において、構成情報411に対して、犬及び猫をラベルとして判別する情報が付加されている。
図4に戻って、ステップS301〜ステップS304の処理が、タスク毎に認識情報を得る処理である。ニューラルネットワークシステム部101は、事前学習用のタスクに応じてこの処理を繰り返し実行し、タスクの認識情報を順次追加する。ここで、ベクトル情報は、入力(in)とパラメータ情報(W1、W2)から計算可能なため、ベクトル情報を保持せずに後から計算してもよい。
機械学習装置100は、取得された認識情報を入力として、記号化処理を実効する(ステップS305)。具体的には、記号化処理部102が記号化処理を実行する。記号化処理は、教師ラベルを認識情報に紐付けて、記号情報を生成する。記号情報は、対象を判別するための記号を含み、事前学習処理における認識情報に含まれる教師ラベルがそれを表す。記号化処理は、タスク毎に整理された認識情報を、対象の記号(教師ラベル)毎に整理し直す。結果として得られる記号情報は、知識データベース105に格納される(ステップS306)。
図7は、記号化処理部102が実行する記号化処理の概要を示すフローチャートである。図8は、記号化処理により得られた記号情報の一例451を示す。図7を参照して、記号化処理部102は、認識情報を取得する(ステップS601)。記号化処理部102は、認識情報の中から同一の教師ラベルの情報を抽出する(ステップS602)。同一の教師ラベルは、図6の認識情報410における犬、猫などである。
認識情報に含まれるベクトル情報は入力に応じて複数存在するため、記号化処理部102は、タスク毎(ステップS603及びS605)に、同一ラベルのベクトル情報をまとめる処理を実行する(ステップS604)。図6の例において、記号化処理部102は、画像タスク1において、同一のラベルを持つh1、h2及びh3をまとめて合成ベクトル情報h123を生成する。h1、h2及びh3のまとめ方は、例えば、それらの平均(単純平均又は加重平均)を計算してもよいし、別の方法であってもよい。
次に、記号化処理部102は、ラベル毎(ステップS606及びS608)に全ての情報を集約する(ステップS607)。集約された情報が記号情報となる。図8に示す記号情報451は、各ラベルに対応する、パラメータ情報、ベクトル情報及び合成ベクトル情報の組を保持している。記号情報451は、さらに、各ラベルにおいて、各タスク種別に対応するパラメータ情報、ベクトル情報及び合成ベクトル情報の組と関係を保持している。
最後に、記号化処理部102は、得られた記号情報を出力し、知識データベース105へ格納する(ステップS609)。上記処理フロー例は、タスク毎の認識情報を作成した後で、記号化処理を実行している。これと異なり、記号化処理を実行後にタスクを追加し、認識情報を追加してもよい。その場合、関係する対象の教師ラベルをキーとして、知識データベース105に格納済みの記号情報を問い合わせ、同様の処理を実行する。
上述のように、事前学習処理は、いくつかのタスクのデータ群に対して、予め学習を実行し、その際に学習されたパラメータ情報及びベクトル情報を、教師ラベルを元に整理して、記号情報として知識データベース105に蓄える。
<記号処理>
図9は、記号処理において用いられる構成要素を示す。記号処理は、知識データベース105に格納されている記号情報を元に、記号間の関係情報を生成する。記号間の関係情報の生成には、主に、既存記号と関係を有する新たな記号の追加と既存記号間の関係の追加がある。記号間の関係情報は、機械学習装置100による自動推論により生成される、または、ユーザによる補助の元で生成される。
ユーザによる補助の元で関係情報を生成するため、記号処理は、ユーザインターフェース106を介して、ユーザに記号間の関係を提示する。また、記号処理は、ユーザからの指定をユーザインターフェース106を介して受け付け、指定された変更内容を元に、記号間の関係情報を設定する。これらの処理は、ユーザからの指定によってインタラクティブに実行される。
図10は、記号処理の概要を示すフローチャートである。記号処理システム部103は、ユーザからの処理の指定を受け付ける(ステップS307)。ユーザから指定される処理は、機械学習装置100による記号及び記号間の関係の追加処理、ユーザによる記号及び記号間の関係の追加処理、ユーザインターフェース106を介した記号情報及び記号間の関係情報の参照処理、及びユーザインターフェース106を介した記号情報及び記号間の関係情報の変更処理を含む。ユーザからの処理の指定は、ユーザインターフェース106から与えられる。
記号処理システム部103は、ユーザからの指定内容に応じて、知識データベース105に格納された記号情報及び/または記号間の関係情報を取得する(ステップS308)。記号情報は、事前学習処理によって生成されて、知識データベース105に格納されている。記号間の関係情報は、後述する記号間の関係情報生成処理によって生成されて、知識データベース105に格納されている。また、ユーザは、処理の内容に応じて、ユーザインターフェース106上で、取得する記号情報や記号間の関係情報の範囲を指定することができる。
記号処理システム部103は、取得した記号情報または記号間の関連情報を入力として、記号間の関係情報生成処理を実行する(ステップS309)。記号間の関係情報生成処理(ステップS309)は、上記ユーザに指示される1又は複数の処理を実行する。ユーザに指示される処理は、機械学習装置100による記号及び記号間の関係の追加処理、ユーザによる記号及び記号間の関係の追加処理、ユーザによる記号情報及び記号間の関係情報の参照処理、又はユーザによる記号情報及び記号間の関係情報の変更処理である。
選択された記号情報に対する新たな記号間の関係情報は、機械学習装置100又はユーザによる記号及び記号間の関係の追加処理で生成される。機械学習装置100又はユーザによる記号及び記号間の関係の追加処理は、さらに、生成された記号間の関係情報に新たな関係情報を追加することができる。
記号情報及び記号間の関係情報の変更処理は、例えば、記号情報において記号の削除又は名称の変更、記号間の関係情報において関係の削除を行う。記号情報及び記号間の関係情報の参照処理は、ユーザに指定された記号情報及び/または記号間の関係情報をユーザに提示する。
記号処理システム部103は、生成された記号間の関係情報を知識データベース105に格納し、また、知識データベース105に格納されている記号情報及び記号間の関係情報を更新する。
図11Aは記号情報をグラフで表した概念図の一例501であり、図11Bは記号間の関係情報をグラフで表した概念図の一例502である。記号情報グラフ501及び記号間関係情報グラフ502において、円で示されるノードは、記号(ラベル)を示し、ノード間を接続するエッジが記号間の関係を示す。記号情報は記号それぞれの情報を示し、記号間の接続情報を示さないため、記号情報グラフ501ではエッジが存在しない。
記号間関係情報グラフ502において、関係を有する記号(ノード)がエッジで接続されている。本例においては、「動物」は「犬」及び「猫」と接続されており、「動物」は「犬」及び「猫」を包含するカテゴリである。また、「生物」は「犬」、「猫」及び「蛙」と接続されており、「生物」は「犬」、「猫」及び「蛙」を包含するカテゴリである。
図11Cは、知識データベース105に格納されている、記号間の関係情報の例505を示す。記号間の関係情報505は、記号間関係情報グラフ502に対応する。記号間の関係情報505は、記号間の関係を示す記号間のエッジの情報を保持している。なお、記号間の関係情報は、グラフ構造と異なる形態で知識データベース105に格納されていてもよい。
図12A、12B及び12Cは、記号及び記号間の関係を追加する処理の一例を示す。図12Aは、記号情報及び記号間の関係の追加をグラフで示す。グラフ531は、記号及び記号間の関係の追加前のグラフを示し、グラフ532はそれらが追加された後のグラフを示す。本例において、「カテゴリ1(犬、猫)」の記号が追加され、さらに、「カテゴリ1(犬、猫)」と「犬」との間の関係(エッジ)及び「カテゴリ1(犬、猫)」と「猫」との間の関係(エッジ)が追加されている。
図12Bは、記号の追加による知識データベース105に格納されている記号情報551の変化の例を示す。図12Bは、図12Aに対応している。「カテゴリ1(犬、猫)」の情報が、記号情報551に追加されている。「カテゴリ1(犬、猫)」は、「犬」及び「猫」と関係を有する。「カテゴリ1(犬、猫)」のパラメータ情報及びベクトル情報は、「犬」及び「猫」双方のパラメータ情報及びベクトル情報を含む。
図12Cは、新たに生成される記号間の関係情報の例571を示す。図12Cは、図12A及び12Bに対応する。「カテゴリ1(犬、猫)」の追加の前に、関係を有する記号は存在していないため、記号間の関係情報は空である(又は存在しない)。「カテゴリ1(犬、猫)」の追加に応じて、記号間の関係情報571が生成され、知識データベース105に格納される。記号間の関係情報571は、「カテゴリ1(犬、猫)」と「犬」及び「猫」それぞれとの間にエッジ(関係)が存在することを示す。
前述のように、ユーザ指示に応じた処理は、機械学習装置100による記号及び記号間の関係の追加処理、ユーザによる記号及び記号間の関係の追加処理、ユーザによる記号情報及び記号間の関係情報の参照処理、及びユーザによる記号情報及び記号間の関係情報の変更処理の四つの処理を含む。以下において、これらの処理を説明する。
図13は、機械学習装置100による記号及び記号間の関係の追加処理の概要を説明するフローチャートである。機械学習装置100による記号及び記号間の関係の追加処理は、既に登録されている記号情報から、新たな記号を自動で推論して生成し、記号情報の記号間の関係情報を付加する。機械学習装置100は、例えば、新たな記号及び記号間の関係情報を生成するために記号情報の分布を用い、分布に対する教師なし学習(クラスタリング)により、新たなカテゴリを生成し、それらに対応する新たな記号情報及び記号間の関係情報を生成する。
まず、記号処理システム部103は、指定されたタスク種別毎に記号情報を取得する(ステップS901)。記号処理システム部103は、タスク毎にステップS902〜S907を実行する。記号処理システム部103は、タスク種別毎に記号情報のベクトル情報の分布を生成し、教師なし学習(例えば、教師なしクラスタリング)によって、再分類を行う(ステップS903)。
図8の記号情報451を例として、記号処理システム部103は、画像タスクの犬を表すh1、h2、h3の分布及び画像タスクの猫を表すh4、h5、h6の分布から、それらを含む新たなカテゴリを新たな分類として獲得する。記号処理システム部103は、得られた新たなカテゴリを、新たな教師ラベル(記号)として記号情報に追加する。
図12A、12B及び12Cを参照して説明した例を使用すると、記号処理システム部103は、カテゴリ1(犬、猫)というラベルを追加する(ステップS904)。このとき、図12Bに示すように、記号処理システム部103は、新たなカテゴリに対する記号情報を、元のラベル(記号)のベクトル情報とパラメータ情報を集約して生成する。記号処理システム部103は、集約する際、h123とh456をまとめてh123456を生成する。h123とh456のまとめ方は、例えば、ベクトル又はパラメータの重心を計算してもよいし、他の方法であってもよい。
次に、記号処理システム部103は、図12Cに示すような記号間の関係情報を生成する(ステップS905)。本例は、新たな記号の記号情報と記号間の関係情報を同時に生成する。これと異なり、記号処理システム部103は、新たに記号情報を生成することなく、既に存在する記号間で探索処理を実行し、記号間の関係情報のみを推論して追加することもできる。
探索処理は、例えば、遺伝的アルゴリズムのような構成的な方法、ベイズ推定によるリンク予測のような確率的な方法を使用することができる。記号間の関係性の追加は、グラフに新たな辺(エッジ)を追加する。記号処理システム部103は、生成された記号情報を知識データベース105へ保存する(ステップS906)。
次に、ユーザによる記号及び記号間の関係の追加処理を説明する。当該処理は、新たな記号や記号間の関係をユーザが指定して追加する。ここでは、ユーザが新たな記号や記号間の関係を追加できるように、ユーザインターフェース106は、ユーザへ記号情報の分布図またはグラフを表示する。ユーザは、表示された画像を参照して、追加する新たな記号または記号間の関係を決定し、新たな記号情報または記号間の関係情報を追加する。
図14A及び14Bは、ユーザに提示されるGUI画像の例を示す。図14Aは、指定された記号情報の分布図を表示する例である。GUI画像は、ユーザが処理を指定するセクション601及び分布図を表示するセクション602を含む。セクション601において、ユーザは、処理の内容及び記号情報の範囲を指定することができる。
セクション602が表示する分布図は、記号情報におけるベクトル情報の分布である。ユーザは、セクション602において記号情報の分布を視認することができ、さらに、新たな分類を入力することができる。たとえば、処理及び範囲を指定する情報がセクション601において入力されて、実行ボタン611が押下されると、セクション602が分布図を表示する。ユーザは、セクション602において例えば新たな分類を追加し、実行ボタン612を押下して確定する。
図14Bは、指定された記号間の関係情報をグラフで表示する例である。GUI画像は、ユーザが処理を指定するセクション631及びグラフを表示するセクション632を含む。グラフにおけるノードの位置は、例えば、合成ベクトル情報に基づいて決定される。セクション631において、ユーザは、処理の内容及び記号情報の範囲を指定することができる。
ユーザは、セクション632において記号間の関係情報を視認することができ、さらに、新たな関係を入力することができる。たとえば、処理及び範囲を指定する情報がセクション631において入力されて、実行ボタン611が押下されると、セクション632がグラフを表示する。ユーザは、セクション632において、新たな記号及び関係を追加し、又は、既存の記号間に新たな関係を追加して、実行ボタン642を押下して確定する。
図15は、ユーザによって記号及び記号間の関係が追加される例を示す。図15は、記号間の関係が追加される前の記号情報のグラフ651と、記号情報に対して記号間の関係が追加されたグラフ652とを示す。「動物」及び「生物」の記号が追加され、さらに、「動物」と「犬」との間のエッジ、「動物」と「猫」との間のエッジ、「生物」と「犬」との間のエッジ、「生物」と「猫」との間のエッジ、及び「生物」と「蛙」との間のエッジが追加されている。
機械学習装置100は、ユーザ端末210において、例えば、図14Bに示すように、グラフを示すGUI画像を表示する。セクション632は、グラフ651を表示する。ユーザは、ユーザインターフェース106から、ノード及びノード間にエッジを追加することで、記号及び記号間の関係を追加する。セクション632は、追加されたノード及びエッジを含むグラフ652を表示する。ユーザは、実行ボタン641を押下して、追加した記号間の関係を確定する。追加された記号間の関係情報は、知識データベース105に格納される。
図16は、ユーザによる記号及び記号間の関係の追加処理の概要を説明するフローチャートである。ユーザからの指示に応答して、本処理は開始する。記号処理システム部103は、指定された記号情報及び記号間の関係情報を知識データベース105から取得する(ステップS908)。記号処理システム部103は、ユーザへ、ユーザインターフェース106を介して、記号情報や記号間の関係情報を、分布図やグラフとして提示する(ステップS909)。
その後、記号処理システム部103は、ユーザインターフェース106を介して、ユーザが指定する記号の追加や記号間の関係を受け付ける(ステップS910)。例えば、ユーザは、提示される画面のグラフ上に、記号としてのノードを追加し、また、記号間の関係としてのエッジを追加することができる。図15に示すように、追加ノードやエッジをユーザが手動で与えることができる。
次に、記号処理システム部103は、ユーザの指定した追加内容に従い、追加処理を行う。この際、機械で自動推論する場合と同様に、図11に示すようにタスク毎に集約処理を実施する(ステップS911〜S915)。
次に、ユーザによる参照処理及び変更処理を説明する。参照処理は、ユーザインターフェース106を介して、ユーザへ記号情報や記号間の関係情報を、図14A及び14Bに示すように、分布図やグラフで表示する。変更処理は、ユーザインターフェース106を介して、ユーザからの記号情報及び記号間の関係情報の変更を受け付ける。変更処理は、記号及び記号間の関係の削除、並びに、記号に設定されているラベル名の変更等を含む。
上述のように、記号処理システム部103は、ユーザインターフェース106と連携して、ユーザから指定される処理を受け付け、それに応じて、機械学習装置100による記号及び記号間の関係の追加処理、ユーザによる記号及び記号間の関係の追加処理、記号間の関係情報の参照処理及び変更処理を実行して、記号間の関係の情報を構築して、知識データベース105へと格納する。
なお、機械学習装置100は、自装置またはユーザ指示の一方によってのみ、記号及び間の関係を追加してもよい。記号及び記号間の関係のためにベクトル情報を使用する必要がない場合、例えば、ユーザ指示によってのみ記号及び記号間の関係の追加を行う場合、ベクトル情報を省略してもよい。
<タスク学習及び実行処理>
図17は、タスク学習処理において用いられる構成要素を示す。タスク学習処理は、ユーザが設定したタスクに対して、記号情報及び記号間の関係情報をユーザが選択して、それらを元にニューラルネットワークを再構成して、タスクに対する学習を実行する。
図18は、タスク学習及び実行処理の概要を示すフローチャートである。ニューラルネットワーク作用部104は、ユーザインターフェース106より、機械学習タスクに対する選択情報を受け付け(ステップS311)、知識データベース105に格納された記号情報及び/または記号間の関係情報を取得する(ステップS312)。選択情報は、タスク学習に対して、記号情報及び記号間の関係情報のいずれを使うかを示す。ニューラルネットワーク作用部104は、取得された記号情報及び記号間の関係情報を元に、機械学習タスクに対するニューラルネットワークシステム部101で学習されるニューラルネットワークの再構成処理を行う(ステップS313)。
図19は、ニューラルネットワーク作用部104が実行するニューラルネットワーク再構成処理の概要を説明するフローチャートである。ニューラルネットワーク作用部104は、取得した記号情報及び記号間の関係情報の中から、学習するタスクとタスク種別が同じタスクの重みを抽出する(ステップS951)。ニューラルネットワーク作用部104は、抽出された重みを融合してニューラルネットワークを再構成する(ステップS952)。例えば、犬と猫を選択情報として、動物を学習するタスクに対するニューラルネットワークを作成する場合、動物に対応した(W1、W3)、(W2、W4)が抽出されて、融合され融合処理が行われる。
図20に、ニューラルネットワークA701及びニューラルネットワークB702から融合ニューラルネットワーク703を生成する例を示す。ニューラルネットワーク作用部104は、ニューラルネットワークA701のパラメータW1、W2(犬を学習したネットワーク)とニューラルネットワークB702(猫を学習したネットワーク)のW3、W4を融合する。動物に対応した(W1、W3)、(W2、W4)の重みパラメータから、融合ニューラルネットワーク703のパラメータW13、W24を生成する。重みの融合の方法としては、例えば、単純平均や加重平均などがある。
ニューラルネットワークの再構成の方法は、重みを変更する方法に限定されるものではなく、記号情報や記号間の関係情報から生成できるものであれば、ノードの数を変更する、探索的にネットワーク構造を求めてもよい。結果として、ネットワーク再構成処理では、機械学習タスク用にカスタマイズされたネットワーク情報を得る(ステップS953)。
図18に戻って、ニューラルネットワーク作用部104は、機械学習タスクに対するデータを入力として、再構成されたネットワーク情報を用いて、タスクに対する学習処理を実行する(ステップS314)。ステップS311〜313までの処理がタスク学習処理に該当する。これらのステップは、与えられた記号情報及び記号間の関係情報を用いて、ネットワーク情報を再構成して学習を実行できる。
最後に、ニューラルネットワークシステム部101は、タスクに対するデータを入力として、学習された学習モデル(ニューラルネットワーク)112を用いて実行処理を実行する(ステップS315)。得られた結果は、ユーザインターフェース106を介して、出力される。
以上のような3つの処理を実行することにより、機械学習装置100は、事前学習によって得られた認識情報を記号情報に変換し、記号処理によって記号間の関係情報を生成する。機械学習装置100は、タスク学習処理では、記号の選択情報からニューラルネットワークを再構成したタスク学習を行うことができる。
認識情報の記号化は、データの抽象化を意味し、これにより細かな認識をメタ的かつ構造化して扱うとともに、ユーザへの可解釈性と提示容易性を与えることができる。記号処理は、対象間の関係や外部知識を与えるユーザインタラクションを含み、関係情報を作ることができる。この関係を考慮したタスク学習、すなわち関係情報を考慮して生成したニューラルネットワークを用いたタスク学習を行うことで、従来は困難な複雑な機械学習タスクにも対応可能となる。
本実施例によれば、まず、ユーザは、事前学習処理において、過去に実施したタスクの認識情報(パラメータ情報やベクトル情報)を記号情報として、蓄積することができる。また、ユーザは、蓄積された記号情報を元に、記号間の関係情報を、例えばグラフのように、生成することができる。これらの処理は、ユーザインターフェースを介して、適応的に行うことができる。最後にユーザは、蓄積または生成された記号情報や記号間の関係情報を元に、タスクに対するニューラルネットワークを再構成して学習することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
100 機械学習装置
101 ニューラルネットワークシステム部、102 記号化処理部、103 記号処理システム部、104 ニューラルネットワーク作用部、105 知識データベース、106 ユーザインターフェース、111A、111B ニューラルネットワーク、112 ニューラルネットワーク、121 プロセッサ、122 メモリ、123 補助記憶装置、125 ネットワークインターフェース、171 事前学習用データ、172 タスク学習用データ、200 データベース、210 ユーザ端末、220 基地局、240 外部ネットワーク、401 ニューラルネットワーク、410 認識情報、411 構成情報、415 処理データ情報、451 記号情報、501 記号情報グラフ、502 記号間関係情報グラフ、505 関係情報、531、532 グラフ、551 記号情報、571 関係情報、601、602 セクション、611、612 実行ボタン、631、632 セクション、632 セクション、641、642 実行ボタン、651、652 グラフ、701、702 ニューラルネットワーク、703 融合ニューラルネットワーク

Claims (10)

  1. 事前学習用データを使用して複数の第1ニューラルネットワークそれぞれの事前学習を行うニューラルネットワークシステム部と、
    前記事前学習により得られた前記複数の第1ニューラルネットワークのパラメータ情報を取得し、前記第1ニューラルネットワークそれぞれに対応する記号と前記パラメータ情報とを関連付ける記号情報を生成する、記号化処理部と、
    前記記号情報の前記記号間の関係情報を生成する、記号処理システム部と、
    前記記号情報及び前記関係情報を用いて、機械学習タスクに対する第2ニューラルネットワークを再構成する、ニューラルネットワーク作用部と、を含む機械学習システム。
  2. 請求項1に記載の機械学習システムであって、
    前記記号情報は、前記複数の第1ニューラルネットワークそれぞれに対応する前記記号と、前記事前学習により得られた前記複数の第1ニューラルネットワークそれぞれの中間層のベクトル情報とを、さらに関連付ける、機械学習システム。
  3. 請求項2に記載の機械学習システムであって、
    前記複数の第1ニューラルネットワークは、タスク種別に毎に、同一ネットワーク構造を有し、
    前記記号情報は、前記タスク種別毎に、前記記号を前記パラメータ情報及び前記ベクトル情報に関連付け、
    前記記号は、前記複数の第1ニューラルネットワークのラベルで表わされ、
    各タスク種別の前記ベクトル情報は、複数の入力それぞれに対する複数のベクトルから生成された一つのベクトルを示す、機械学習システム。
  4. 請求項1、2又は3に記載の機械学習システムであって、
    前記記号情報及び前記記号間の関係情報を格納する、知識データベースと、
    前記記号処理システム部は、
    ユーザインターフェースを介して、前記知識データベースに格納されている前記記号情報及び前記記号間の関係情報をユーザに提示し、
    前記ユーザインターフェースを介して、前記ユーザからの記号間の関係の追加を受け付け、
    前記追加された記号間の関係に応じて、前記記号間の関係情報を生成する、機械学習システム。
  5. 請求項4に記載の機械学習システムであって、
    前記記号処理システム部は、
    前記ユーザインターフェースを介して、前記ユーザからの新規の記号の追加及び前記新規の記号と他の記号との間の関係の追加を受け付け、
    追加された前記新規の記号及び前記新規の記号と他の記号との間の関係に応じて、前記記号間の関係情報を生成する、機械学習システム。
  6. 請求項4に記載の機械学習システムであって、
    前記記号処理システム部は、前記ユーザインターフェースを介して、前記ユーザからの提示されている記号間の関係の追加を受け付ける、機械学習システム。
  7. 請求項4、5又は6に記載の機械学習システムであって、
    前記ユーザに提示される前記記号情報及び前記記号間の関係情報は、前記記号それぞれを表すノードと、前記記号間の関係を表す前記ノード間を接続するエッジと、を含むグラフで表わされる、機械学習システム。
  8. 請求項2又は3に記載の機械学習システムであって、
    前記記号処理システム部は、前記記号情報の生成において、
    前記ベクトル情報をクラスタリングによって複数のカテゴリに分類し、複数の前記ベクトル情報を含むカテゴリを新たな記号として追加し、
    前記複数のベクトル情報の記号と前記新たな記号との間の関係を追加する、機械学習システム。
  9. 請求項1〜8のいずれか一項に記載の機械学習システムであって、
    前記記号処理システム部は、前記記号情報の生成において、前記複数の第1ニューラルネットワークの記号間で探索処理によって前記記号間の関係を推論して追加する、機械学習システム。
  10. 計算機システムが、機械学習タスクのためのニューラルネットワークを構成する方法であって、
    前記計算機システムが、事前学習用データを使用して複数の第1ニューラルネットワークそれぞれの事前学習を行い、
    前記計算機システムが、前記事前学習により得られた前記複数の第1ニューラルネットワークのパラメータ情報を取得し、前記第1ニューラルネットワークそれぞれに対応する記号と対応する前記パラメータ情報とを関連付ける記号情報を生成し、
    前記計算機システムが、前記記号情報の前記記号間の関係情報を生成し、
    前記計算機システムが、前記記号情報及び前記関係情報を用いて、機械学習タスクに対する第2ニューラルネットワークを再構成する、ことを含む方法。
JP2018175028A 2018-09-19 2018-09-19 機械学習システム Pending JP2020046956A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018175028A JP2020046956A (ja) 2018-09-19 2018-09-19 機械学習システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175028A JP2020046956A (ja) 2018-09-19 2018-09-19 機械学習システム

Publications (1)

Publication Number Publication Date
JP2020046956A true JP2020046956A (ja) 2020-03-26

Family

ID=69899790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175028A Pending JP2020046956A (ja) 2018-09-19 2018-09-19 機械学習システム

Country Status (1)

Country Link
JP (1) JP2020046956A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059175A1 (ja) * 2020-09-18 2022-03-24 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059175A1 (ja) * 2020-09-18 2022-03-24 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置

Similar Documents

Publication Publication Date Title
Raschka et al. Python machine learning: Machine learning and deep learning with Python, scikit-learn, and TensorFlow 2
Raschka et al. Machine Learning with PyTorch and Scikit-Learn: Develop machine learning and deep learning models with Python
Beyeler Machine Learning for OpenCV
Xie et al. A semantic-based method for visualizing large image collections
US20190318262A1 (en) Tool for designing artificial intelligence systems
CN110737778A (zh) 基于知识图谱和Transformer的专利推荐方法
Rivas Deep Learning for Beginners: A beginner's guide to getting up and running with deep learning from scratch using Python
Kaluža Machine Learning in Java
Sosnovshchenko et al. Machine Learning with Swift: Artificial Intelligence for IOS
CN116601626A (zh) 个人知识图谱构建方法、装置及相关设备
Johnston et al. Applied Unsupervised Learning with Python: Discover hidden patterns and relationships in unstructured data with Python
CN115203498A (zh) 应用专家系统的数据信息推送分析方法及系统
CN111902812A (zh) 电子装置及其控制方法
CN105164672A (zh) 内容分类
KR20210110604A (ko) 자연 솔루션 언어
Mattmann Machine Learning with TensorFlow
US11620550B2 (en) Automated data table discovery for automated machine learning
JP2020046956A (ja) 機械学習システム
US20230186117A1 (en) Automated cloud data and technology solution delivery using dynamic minibot squad engine machine learning and artificial intelligence modeling
US20230229691A1 (en) Methods and systems for prediction of a description and icon for a given field name
Radecic Machine Learning Automation with TPOT: Build, validate, and deploy fully automated machine learning models with Python
CN113434722B (zh) 图像分类方法、装置、设备及计算机可读存储介质
CN115033700A (zh) 基于相互学习网络的跨领域情感分析方法、装置以及设备
US20210174910A1 (en) Method and apparatus for generating new chemical structure using neural network
Körner et al. Mastering Azure Machine Learning: Perform large-scale end-to-end advanced machine learning in the cloud with Microsoft Azure Machine Learning