JP2020140226A - 汎用人工知能装置及び汎用人工知能プログラム - Google Patents

汎用人工知能装置及び汎用人工知能プログラム Download PDF

Info

Publication number
JP2020140226A
JP2020140226A JP2019032978A JP2019032978A JP2020140226A JP 2020140226 A JP2020140226 A JP 2020140226A JP 2019032978 A JP2019032978 A JP 2019032978A JP 2019032978 A JP2019032978 A JP 2019032978A JP 2020140226 A JP2020140226 A JP 2020140226A
Authority
JP
Japan
Prior art keywords
artificial intelligence
data
intelligence device
learning
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019032978A
Other languages
English (en)
Other versions
JP6860602B2 (ja
Inventor
裕之 樋口
Hiroyuki Higuchi
裕之 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi UFJ Trust and Banking Corp
Original Assignee
Mitsubishi UFJ Trust and Banking Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi UFJ Trust and Banking Corp filed Critical Mitsubishi UFJ Trust and Banking Corp
Priority to JP2019032978A priority Critical patent/JP6860602B2/ja
Publication of JP2020140226A publication Critical patent/JP2020140226A/ja
Application granted granted Critical
Publication of JP6860602B2 publication Critical patent/JP6860602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 本発明は、AIの経験が乏しいユーザであっても、AIモデルを自ら調整することができる、人工知能装置及び人工知能プログラムの提供を目的とする。【解決手段】 人工知能装置100は、学習データが入力されるデータ入力部10と、データ入力部10から提供された学習データを用いて、複数のAIモデルが学習及び予測を実行する学習予測部20と、データ入力部10から得られた学習データ、及び学習予測部20から得られた予測データを解析して、データ構造を生成するデータ解析部30と、データ解析部30から得られたデータ構造を表示する表示部40とを備える。【選択図】 図1

Description

本発明は、汎用人工知能装置及び汎用人工知能プログラムに関し、より詳細には、複数の人工知能モデルについて、学習データ構造のチェック機能を備えた汎用人工知能装置及び汎用人工知能プログラムに関する。
人工知能(AI)モデルの開発にあたって、従来は特定の予測対象について、専用のAIモデルがPython等のプログラム言語を用いて個別に開発され、AIモデルのパラメータが調整(チューニング)されていた。このようなAIモデル開発及び調整は、専門的知識を有するエンジニアや一部の実務者に限定されていた。
一般的なAIモデルを開発する際は、予測対象データに対する実務的な知識に加え、AI技術に関する知識、プログラミング知識が必要である。仮に開発できたとしても、AIモデルを調整(チューニング)することは一定の経験が必要であった。さらに、AIの経験が乏しいユーザは、AIモデルの機械学習において発生する過学習を見分けることが困難であった。なお、過学習とは、学習済みAIモデルが、学習データに必要以上のフィッテングをしてしまい、逆に未知のデータにはフィッティングしにくくなることで、未来の予測精度が落ちてしまう現象をいう。
さらに、AIの経験が乏しいユーザは、学習済みAIモデルの予測結果を見ただけでは、AIの学習に用いた学習データが予測に影響ある情報を持っているか否かを判別することは困難であった。
そこで、本発明は、AIやプログラミングなど専門的な知識をもたないユーザであっても、簡単な操作で、AI予測ができ、AIモデルを自ら調整することができる、人工知能装置及び人工知能プログラムの提供を目的とする。または、本発明は、AIの経験が乏しいユーザであっても、学習済みAIモデルの予測結果に基づき、過学習が生じているかを判別可能な、人工知能装置及び人工知能プログラムの提供を目的とする。または、本発明は、AIの経験が乏しいユーザであっても、AIの学習に用いた学習データが予測に影響ある情報を持っているか否かを判別することができる、人工知能装置及び人工知能プログラムの提供を目的とする。
本発明の各態様は次の通りである。
(態様1)
人工知能モデルを用いて予測を実行する人工知能装置であって、
少なくとも学習データが入力されるデータ入力部と、
前記学習データを用いて、1つまたは複数の人工知能モデルによる学習及び予測を実行する学習予測部と、
前記学習データ、及び前記学習予測部が予測した予測データを用いて、データ構造を解析するデータ解析部とを備える、人工知能装置。
(態様2)
態様1に記載の人工知能装置において、
前記データ解析部は、前記データ構造に基づくイメージを生成する、人工知能装置。
(態様3)
態様1または2に記載の人工知能装置において、
前記学習データは、高次元データであり、
前記データ解析部は、前記高次元データの次元圧縮を実行する、人工知能装置。
(態様4)
態様3に記載の人工知能装置において、
前記データ解析部は、前記高次元データから2次元データ及び/または3次元データを生成する、人工知能装置。
(態様5)
態様4に記載の人工知能装置において、
前記データ解析部は、前記2次元データ及び/または3次元データに基づき、2次元グラフ及び/または3次元グラフを生成する、人工知能装置。
(態様6)
態様5に記載の人工知能装置において、
前記データ解析部は、前記2次元グラフ及び/または3次元グラフに含まれる前記データ構造を表す複数のクラスターを生成する、人工知能装置。
(態様7)
態様3乃至6のいずれか一項に記載の人工知能装置において、
前記次元圧縮は、t−SNEにより実行される、人工知能装置。
(態様8)
態様1乃至7のいずれか一項に記載の人工知能装置において、
前記データ解析部は、前記学習データから複数の散布図を生成し、前記複数の散布図から構成されたマトリックスを生成する、人工知能装置。
(態様9)
態様1乃至8のいずれか一項に記載の人工知能装置において、
前記1つまたは複数の人工知能モデルは、ディープラーニングモデル、サポートベクターマシンモデル、ランダムフォレストモデルの少なくとも1つを含む、人工知能装置。
(態様10)
態様1乃至9のいずれか一項に記載の人工知能装置において、
前記データ解析部が解析した前記データ構造を表示する表示部を含む、人工知能装置。
(態様11)
態様10に記載の人工知能装置において、
前記データ解析部は、前記1つまたは複数の人工知能モデルについて、調整可能パラメータ、予測精度、及び予測結果の少なくとも1つを前記表示部に表示する、人工知能装置。
(態様12)
態様11に記載の人工知能装置において、
前記予測精度は、学習精度、汎化精度の少なくとも1つを含む、人工知能装置。
(態様13)
態様1乃至12のいずれか一項に記載の人工知能装置において、
前記データ解析部による解析に用いた情報を記録する記録部を備える、人工知能装置。
(態様14)
人工知能モデルを用いて予測を実行する人工知能装置を作動するための人工知能プログラムであって、
前記人工知能装置が、学習データを用いて、1つまたは複数の人工知能モデルの学習及び予測を実行する学習予測ステップと、
前記人工知能装置が、前記学習データ、及び前記学習予測ステップで予測された予測データを用いて、データ構造を解析するデータ解析ステップとを実行する、人工知能プログラム。
(態様15)
態様14に記載の人工知能プログラムにおいて、
前記人工知能装置が、前記データ構造に基づくイメージを生成するイメージ生成ステップを実行する、人工知能プログラム。
(態様16)
態様14または15に記載の人工知能プログラムにおいて、
前記人工知能装置が、高次元データの前記学習データを2次元データまたは3次元データに次元圧縮を行う次元圧縮ステップを実行する、人工知能プログラム。
(態様17)
態様16に記載の人工知能プログラムにおいて、
前記人工知能装置が、前記2次元データ及び/または3次元データに基づき、2次元グラフ及び/または3次元グラフを生成するグラフ生成ステップを実行する、人工知能プログラム。
(態様18)
態様17に記載の人工知能プログラムにおいて、
前記前記人工知能装置が、前記2次元グラフ及び/または3次元グラフに含まれる前記データ構造を表す複数のクラスターを生成するクラスター生成ステップを実行する、人工知能プログラム。
本発明の人工知能装置及び人工知能プログラムは、AIの経験が乏しいユーザであっても、データ解析部によって生成されたデータ構造を確認することにより、AI予測に有効な学習データの選別が可能となる。
本発明の実施形態に係る人工知能装置のブロック図である。 本発明の実施形態に用いる学習例及び予測結果を示す概念図である。 図1の表示部に表示されるデータ表示画面を示す画面構成図である。 図1の表示部に表示されるAIモデル調整画面を示す画面構成図である。 図1のパラメータ調整部が生成する3次元圧縮図を含む画面構成図である。 学習データを含む散布図のマトリックスを示す模式図である。 3次元グラフ及び学習データが予測に影響ある情報を持っているか否かを判別する画面構成図である。 2次元グラフ及び学習データが予測に影響ある情報を持っているか否かを判別する画面構成図である。
本発明の人工知能装置及び人工知能プログラムに関する実施形態を、図面を参照して説明する。
本発明の実施形態に係る人工知能装置100は、図1のブロック図に示すように構成される。人工知能装置100は、少なくとも学習データが入力されるデータ入力部10と、データ入力部10から得られた学習データを用いて、1つまたは複数のAIモデルが学習及び予測を実行する学習予測部20と、データ入力部10から得られた学習データ、及び学習予測部20から得られた予測データを解析して、データ構造を生成するデータ解析部30とから構成される。
さらに、人工知能装置100は、AIモデルの予測結果及びデータ解析部30によって生成されたデータ構造等を表示する表示部(ディスプレイ)40と、各種のパラメータ等を記憶する記憶部50とを備えてもよい。人工知能装置100は、一般的なパーソナルコンピュータに本実施形態の人工知能プログラムをインストールすることにより構成される。本実施形態の人工知能プログラムは、図1の各部の処理を実行するように構成されている。限定するものではないが、例えば、人工知能プログラムをR言語で構築することができる。
学習予測部20は、1つまたは複数のAIモデルを有する。1つまたは複数のAIモデルは、例えば、ディープラーニング(深層学習)を用いて学習・予測を実行するディープラーニングモデル22と、ランダムフォレストを用いて学習・予測を実行するランダムフォレストモデル24と、サポートベクターマシンを用いて学習・予測を実行するサポートベクターマシンモデル26と、の少なくとも1つまたは複数とすることができる。なお、各AIモデルは、自らの予測結果の精度を評価するための精度評価データを有している。
ディープラーニングモデルとは、人間の脳神経(視神経)を模したモデルである。そのため、データ数の多い画像処理や音声処理にブレイクスルーをもたらす。一般的にニューロンが4層以上のものをディープラーニングと呼び、インプットデータの性質を各ニューロンで重み付けすることで、過去の局面を記憶する。しかし、ディープラーニングモデルの構造として多次元の多項式を最適化させているため、局所最適になり易く、ディープラーニングモデルのアウトプットが安定しない傾向が生じるという問題がある。一般的な解手段としては、複数の似たディープラーニングの予測を多数決で判定する方式(ソフトボート)などがある。本実施形態においては、ディープラーニングモデル22の予測結果を、後述するように、データ構造の解析を実行するか、他のAIモデル(機械学習モデル)24、26との比較することで対処している。ディープラーニングモデルは、大量の学習データが必要なモデルである。
ランダムフォレストモデルとは、数百〜数千回ランダムサンプリングしたデータを決定木に当てはめ、それら算出結果を多数決または平均するものである、これによって、ランダムフォレストモデルは、ノイズに強く、パフォーマンスのよいモデルである。しかし、ランダムフォレストモデルは、少ないデータ数に対応可能である一方、複雑で数量が多いデータだと推定精度が落ちる傾向がある。
サポートベクターマシンモデルは、学習データを元々のデータ空間から高次元空間に写像し、その高次元空間上で線形データ解析を行うモデルである。上述したディープラーニングモデルでは局所最適問題があるため、推定が安定しない傾向にあるが、サポートベクターマシンモデルは大局的最適解となる傾向があるため、サポートベクターマシンモデルとディープラーニングモデルとを組み合わせて使うと効果的である。サポートベクターマシンモデルは、比較的広範囲のデータに使用可能である。
データ解析部30は、学習データ、ディープラーニングモデル22の予測結果、ランダムフォレストモデル24の予測結果、及びサポートベクターマシンモデル26の予測結果に基づき、データ構造の解析を実行する。データ解析部30は、各モデル内部で計算される精度評価データに加え、予測結果が偶然にでてきたものか否かを、次に述べるデータ構造の観点からも分析する。
データ解析部30は、学習データの構造チェック・スクリーニングを実行する。構造チェック・スクリーニングは、データ解析部30が、各学習データの相関分布図を生成し表示部40に表示すること(図6)、学習データの種別毎に、機械学習(ランダムフォレストモデル)の特徴量を算出し表示部40に表示すること(図4)、高次元データを次元圧縮して表示部40に表示すること(図7、図8)、の1または複数を実行することである。これによって、ユーザはデータ構造を視覚的に認識し、構造チェック及び学習データのスクリーニングが可能となる。
本実施形態において、高次元データの次元圧縮に、t−SNE(t-distributed Stochastic Neighbor Embedding)を用いた場合を説明する。データ解析部30が、高次元データを次元圧縮し、機械学習の結果が判別できるデータ構造(低次元データ、好ましくは、2次元データまたは3次元データのグラフ)を生成することができる。次元圧縮されたデータ構造を参照すれば、ユーザは、適切なデータ構造となっているかを、視覚的または感覚的に確認することができる。なお、本実施形態において、高次元データとは、4以上の学習データ項目から構成される学習データをいい、低次元データとは、3以下のデータに次元圧縮されたデータをいうものとする。
t−SNEとは、各データの類似度を確率分布で表現し、高次元データを低次元データに圧縮する手法である。本実施形態においては、各モデルの予測結果を、2次元または3次元に次元圧縮した状態で、表示部40上にグラフに表示することにより、ユーザに観察可能としている。
データ解析部30は、入力された学習データ、及び予測データから各AIモデルが予測可能な学習データか否かを判定するための情報(図7、図8)を、表示部40を介してユーザに表示することができる。
次に、本実施形態の人工知能装置100及び人工知能プログラムが実行する、具体的な学習データ(関連データ)を用いた予測処理の概要を説明する。人工知能装置100及び人工知能プログラムは、例えば、ある時点(t=T)の対象データの状態を予測するにあたって、過去(t=1〜T−1)の関連する学習データの値を学習する。
図2においては、予測対象データを北米CDSとし、2018年8月24日の北米CDSの状態(上昇、下落、不変等)を過去の複数の関連データ(1〜14)から予測する場合を示している。なお、CDS(クレジット・デリバティブ・スワップ)とは、クレジット・デリバティブの一種で、社債や国債、貸付債権などの信用リスクに対して、保険の役割を果たすデリバティブ契約である。学習データは、2013年1月1日から2018年8月17日までの週次において、北米CDSに関連する関連データ1〜14が選択されている。
学習予測部20は、ある時点の関連データと、その翌時点の北米CDSの状態(上昇、下落、不変等)との間のパターンに、一定の再現性がある場合、そのパターンを学習し、未来を予測する。図3は、表示部40に表示されるデータ表示画面42の一例である。データ表示画面42には、関連データ(学習データ)及び予測データが表示される。データ解析部30は、データ表示画面42を表示部40に表示するように制御する。データ表示画面42において、横軸は関連データの項目または種別(EUR CDS、JPY CDS等)であり、縦軸は関連データが得られた時間t(t=1〜T−1)、及び予想する時間Tを表す。関連データ領域12Aには、AIモデル22、24、26が予測に使用する各関連データ項目の過去の値(学習データ)が入力されている。関連データ領域12Bには、AIモデルが各関連データから予測した予測値(予測データ)が表示されている。本実施形態の人工知能装置100は、図3に示すようなデータセットを用意するだけで、マーケットデータを用意せずに、予測を実行することができる。
データ表示画面42において、過去の各時間(t=1〜T−1)における予測対象データ(北米CDS)の実際の状態が、予測対象データの過去状態表示領域34Aに、上昇(U)または下降(D)として表示されている。予測対象データの予測状態表示領域34Bは、図3では空欄であるが実際には上昇(U)または下降(D)等が表示されることになる。学習予測部20は、各AIモデルごとに、関連データ領域12Bに表示された予測値を用いて、予測状態表示領域34Bに表示するための予測状態が算出する。
図4は、人工知能装置100及び人工知能ソフトウエアが備えるAIモデル調整画面44の画面構成図である。AIモデル調整画面44は、各AIモデルごとに、パラメータ調整領域35と、予測精度表示領域36と、予測結果表示領域37とを有している。さらに、AIモデル調整画面44は、パラメータを保存するセーブボタン46と、ディープラーニングモデルによる学習及び/または予測を実行するディープラーニング実行ボタン48Aと、サポートベクターマシンモデルによる学習及び/または予測を実行するサポートベクターマシン実行ボタン48Bと、ランダムフォレストモデルによる学習及び/または予測を実行するランダムフォレスト実行ボタン48Cとを備えている。セーブボタン37で予測に使用したパラメータなどを記憶部50に記憶することにより、その後の分析の際に読み出して活用することができる。
パラメータ調整領域35は、各AIモデルごとに調整可能なパラメータ名及びその選択状態が表示されている。選択状態の欄をクリックすると、選択可能な選択肢が表示される。パラメータ調整領域35において、ブランクの部分は、自動で設定される項目である。
一般的にはサポートベクターマシンモデル26は、パラメータの調整(チューニング)項目が少なく汎用性が高い。そこで、一定の精度がでるまで、ユーザは、サポートベクターマシンモデル26のパラメータを調整することが好ましい。その後、ユーザは、ディープラーニングモデル22の調整を行うと同モデルの過学習に気づきやすい。
予測精度表示領域36には、各AIモデルごとに、学習基準、学習精度、汎化精度、全データ数、汎化精度用データ数が表示される。学習精度は、学習データ内での精度を表す。汎化精度は、未学習データに対する精度を表す。
マーケットデータ(学習データ)に関しては、好ましくは学習精度及び汎化精度が60%程度になることが理想的である。したがって、ユーザは、学習精度及び汎化精度が60%程度になるようにパラメータを調整することができる。なお、学習精度が高く汎化精度が低い場合は、過学習の可能性があり、学習精度が低く汎化精度が高い場合は、今後の予測精度が低下する可能性がある。
図4の予測結果表示領域37には、パラメータ調整領域62で設定されたパラメータ、及び予測精度表示領域36に表示された予測精度に基づく、予測の結果とその確度(信頼度)が表示されている。具体的には、ディープラーニングモデルとランダムフォレストモデルの確度は60%を超えているため、ディープラーニングモデルとランダムフォレストモデルに関しては、「d(下降)」の可能性が高いと表示される。
データ解析部30は、パラメータ調整領域35でパラメータが変更されると、変更後のパラメータを各AIモデルに適用する。データ解析部30は、各AIモデルから得られた予測精度データを予測精度表示領域36に表示する。データ解析部30は、各AIモデルから得られた予測結果及び確度を予測結果表示領域37に表示する。
図5は、データ解析部30が生成したデータ構造(3次元グラフ)を含む3次元表示画面400である。図5の3次元グラフを参照すれば、ユーザはデータ構造を立体的に把握できるとともに、3次元グラフに付与された複数のクラスター403により学習データのまとまり(関連性大)を視覚的に把握することができる。なお、AIモデルを用いて適切な予測結果を得るためには、予測対象と関連性のある学習データを選ぶ必要があるため、グラフ表示及びクラスター表示は極めて有効である。ただし、本実施形態における学習データは時系列データを同一時点で比較していることに留意する必要がある。予測対象との関連性に疑義が生じた学習データについて、ユーザはデータ表示画面42のサンプル期間tを変えるなどして、より適切なデータを選択することができる。
また、図5の3次元表示画面400において、ペア表示ボタン402Cをユーザがクリックすると、図6(M)に示すような多数の散布図から構成されるマトリックスMが表示される。図6(M)のマトリックスは、各学習データの項目または種類ごとに、相関関係を表示している。具体的には、縦軸及び横軸に沿って、図2の学習データの項目1〜14及び予測データが対応する順序で配置されている。
図6(M)のマトリックスに含まれる散布図Aは、図6(A)に拡大表示される。図6(M)のマトリックスに含まれる散布図Bは、図6(B)に拡大表示される。図6(A)の散布図によれば、米国社債スプレッドと米国CDSとは相関関係が強い(予測しやすい)ことから、従来型の線形回帰モデルなど平易なモデルでも予想可能なデータであることがユーザは視覚的に理解できる。図6(B)の散布図によれば、米国社債スプレッドとドル円ヘッジコストとは相関関係が弱い(予測しにくい)ものの、ドル円のヘッジコストの水準で構造変化していることが読み取れ、このようなデータは従来型の線形回帰モデルでは予測が難しいものの、AIモデルならば予測できる可能性が高い。ユーザーはこのようなデータを視覚的に探して、モデルに学習させ、学習データの有効性を判別することができる。
図7及び図8を用いて、学習データ及び予測データの次元圧縮を用いたクラスター解析モードを説明する。図7には、3次元のクラスター解析画面410が示されている。データ解析部30は、クラスター解析画面410を表示部40に表示する。クラスター解析画面410は、t−SNEパラメータ(3D)を調整する調整領域412を有している。調整領域412には、パラメータ調整表412Aと、t−SNE(3D)調整ボタン412Bとが表示されている。パラメータ調整表412Aには、クラスター用パラメータの値が変更可能に表示され、設定されたクラスター用パラメータに基づくエラー率も表示されている。データ解析部30は、調整領域412に入力されたパラメータにしたがって、例えば、図2の学習例(学習データ)の複数の項目から構成される高次元データを3次元データに次元圧縮を行って、クラスター解析を実行する。クラスター解析の手順は、次の通りである。
ユーザは、第1ステップで調整領域412に表示されるクラスター用パラメータの値を変更する。次に、ユーザは、第2ステップでt−SNE(3D)調整ボタン412Bをクリックすると、データ解析部30は、調整領域412のエラー率を更新する。
さらに、ユーザが、第3ステップで、クラスター計算ボタン414をクリックすると、データ解析部30が複数のクラスター413の計算を実行する。ユーザが、第4ステップで3次元グラフに変更したパラメータ及び計算した複数のクラスターを反映するための反映ボタン416をクリックすると、データ解析部30は、変更したパラメータに基づき3次元グラフを生成するとともに、各クラスターに所定範囲のデータが入る範囲を計算し、その範囲をクラスター413として、クラスター解析画面410の3次元グラフ上に表示する。前記所定範囲は、好ましくは55〜65%、より好ましくは約60%とすることができる。そして、ユーザは、パラメータ変更部412Aのエラー率が1以下かつ以3次元グラフに示される複数のクラスター413がある程度分離できている状況になるまで、第1ステップから第4ステップを繰り返す。
データ解析部30は、各クラスターに属する予測データについて状態(d(下降)かu(上昇)等)の割合と、予想対象がどのクラスターに属しているかを判別して表示することもできる。ユーザは、図7の比較表418に基づき、クラスターによる判別結果をAIモデルの予測と比較して、AIの正当性の参考にすることができる。データ解析部30は、クラスターの情報及びAIモデルの予想結果に基づき、比較表418を生成する。
図8には、2次元のクラスター解析画面420が示されている。データ解析部30は、クラスター解析画面420を表示部40に表示する。クラスター解析画面420は、t−SNEパラメータ(2D)を調整する調整領域422を有している。調整領域422には、パラメータ調整表422Aと、t−SNE(2D)調整ボタン422Bとが表示されている。パラメータ調整表422Aには、クラスター用パラメータの値が変更可能に表示され、設定されたクラスター用パラメータに基づくエラー率も表示されている。データ解析部30は、クラスター用パラメータにしたがって、例えば、図2の学習例(学習データ)の複数の項目から構成される高次元データを2次元データに次元圧縮を行って、クラスター解析を実行する。クラスター解析の手順は、図7の場合と同じである。
本発明の実施形態に係る人工知能プログラムは、好ましくはR言語で記載することができる。マイクロソフトエクセル(登録商標)において、R言語の動作、及び学習データの入力、予測データの出力を規定し、エクセルシートから図3〜図8の画面を構成することもできる。これによって、コンピュータにR言語及びマイクロソフトエクセルをインストールして、エクセルを起動すれば、全てエクセルシート上の操作で様々な予測対象のAIを用いた予測が可能となる。
本発明の実施形態の人工知能装置及び人工知能プログラムは、3種の性質の異なった機械学習メソッドを予測し、予測結果(数値)を比較することにより、AIの経験が乏しいユーザでも比較的容易に過学習を見分けることができることに加え、データ数の少ないものやマーケットデータ以外のものなど様々なデータに適用可能となる。
本発明の実施形態の人工知能装置及び人工知能プログラムは、AIモデルが有する学習データが予測に影響のある情報を持っているか否かを、AIモデルが予測した予測データから判定するデータ解析部を備えている。これによって、本発明の実施形態の人工知能装置及び人工知能プログラムによれば、AI経験が乏しいユーザであっても、問題とされているAIのブラックボックス化を避けるとともに、予測に適切な学習データの選別が可能となる。
100 人工知能装置
10 入力部
20 学習予測部
22 ディープラーニングモデル
24 ランダムフォレストモデル
26 サポートベクターマシンモデル
30 データ解析部
40 表示部
50 記憶部

Claims (18)

  1. 人工知能モデルを用いて予測を実行する人工知能装置であって、
    少なくとも学習データが入力されるデータ入力部と、
    前記学習データを用いて、1つまたは複数の人工知能モデルによる学習及び予測を実行する学習予測部と、
    前記学習データ、及び前記学習予測部が予測した予測データを用いて、データ構造を解析するデータ解析部とを備える、人工知能装置。
  2. 請求項1に記載の人工知能装置において、
    前記データ解析部は、前記データ構造に基づくイメージを生成する、人工知能装置。
  3. 請求項1または2に記載の人工知能装置において、
    前記学習データは、高次元データであり、
    前記データ解析部は、前記高次元データの次元圧縮を実行する、人工知能装置。
  4. 請求項3に記載の人工知能装置において、
    前記データ解析部は、前記高次元データから2次元データ及び/または3次元データを生成する、人工知能装置。
  5. 請求項4に記載の人工知能装置において、
    前記データ解析部は、前記2次元データ及び/または3次元データに基づき、2次元グラフ及び/または3次元グラフを生成する、人工知能装置。
  6. 請求項5に記載の人工知能装置において、
    前記データ解析部は、前記2次元グラフ及び/または3次元グラフに含まれる前記データ構造を表す複数のクラスターを生成する、人工知能装置。
  7. 請求項3乃至6のいずれか一項に記載の人工知能装置において、
    前記次元圧縮は、t−SNEまたは主成分分析により実行される、人工知能装置。
  8. 請求項1乃至7のいずれか一項に記載の人工知能装置において、
    前記データ解析部は、前記学習データから複数の散布図を生成し、前記複数の散布図から構成されたマトリックスを生成する、人工知能装置。
  9. 請求項1乃至8のいずれか一項に記載の人工知能装置において、
    前記1つまたは複数の人工知能モデルは、ディープラーニングモデル、サポートベクターマシンモデル、ランダムフォレストモデルの少なくとも1つを含む、人工知能装置。
  10. 請求項1乃至9のいずれか一項に記載の人工知能装置において、
    前記データ解析部が解析した前記データ構造を表示する表示部を含む、人工知能装置。
  11. 請求項10に記載の人工知能装置において、
    前記データ解析部は、前記1つまたは複数の人工知能モデルについて、調整可能パラメータ、予測精度、及び予測結果の少なくとも1つを前記表示部に表示する、人工知能装置。
  12. 請求項11に記載の人工知能装置において、
    前記予測精度は、学習精度、汎化精度の少なくとも1つを含む、人工知能装置。
  13. 請求項1乃至12のいずれか一項に記載の人工知能装置において、
    前記データ解析部による解析に用いた情報を記録する記録部を備える、人工知能装置。
  14. 人工知能モデルを用いて予測を実行する人工知能装置を作動するための人工知能プログラムであって、
    前記人工知能装置が、学習データを用いて、1つまたは複数の人工知能モデルの学習及び予測を実行する学習予測ステップと、
    前記人工知能装置が、前記学習データ、及び前記学習予測ステップで予測された予測データを用いて、データ構造を解析するデータ解析ステップとを実行する、人工知能プログラム。
  15. 請求項14に記載の人工知能プログラムにおいて、
    前記人工知能装置が、前記データ構造に基づくイメージを生成するイメージ生成ステップを実行する、人工知能プログラム。
  16. 請求項14または15に記載の人工知能プログラムにおいて、
    前記人工知能装置が、高次元データの前記学習データを2次元データまたは3次元データに次元圧縮を行う次元圧縮ステップを実行する、人工知能プログラム。
  17. 請求項16に記載の人工知能プログラムにおいて、
    前記人工知能装置が、前記2次元データ及び/または3次元データに基づき、2次元グラフ及び/または3次元グラフを生成するグラフ生成ステップを実行する、人工知能プログラム。
  18. 請求項17に記載の人工知能プログラムにおいて、
    前記前記人工知能装置が、前記2次元グラフ及び/または3次元グラフに含まれる前記データ構造を表す複数のクラスターを生成するクラスター生成ステップを実行する、人工知能プログラム。
JP2019032978A 2019-02-26 2019-02-26 汎用人工知能装置及び汎用人工知能プログラム Active JP6860602B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019032978A JP6860602B2 (ja) 2019-02-26 2019-02-26 汎用人工知能装置及び汎用人工知能プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019032978A JP6860602B2 (ja) 2019-02-26 2019-02-26 汎用人工知能装置及び汎用人工知能プログラム

Publications (2)

Publication Number Publication Date
JP2020140226A true JP2020140226A (ja) 2020-09-03
JP6860602B2 JP6860602B2 (ja) 2021-04-14

Family

ID=72264902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032978A Active JP6860602B2 (ja) 2019-02-26 2019-02-26 汎用人工知能装置及び汎用人工知能プログラム

Country Status (1)

Country Link
JP (1) JP6860602B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023002648A1 (ja) * 2021-07-23 2023-01-26 ソニーグループ株式会社 情報処理方法及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045846A (ja) * 2014-08-26 2016-04-04 株式会社日立パワーソリューションズ 動態監視装置及び動態監視方法
JP2018045266A (ja) * 2016-09-12 2018-03-22 株式会社日立製作所 設計支援装置
WO2018079020A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置および情報処理方法
JP2019003408A (ja) * 2017-06-15 2019-01-10 株式会社日立製作所 ハイパーパラメータの評価方法、計算機及びプログラム
WO2019022085A1 (ja) * 2017-07-24 2019-01-31 アクシオンリサーチ株式会社 対象システムの内部状態を推定する支援システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045846A (ja) * 2014-08-26 2016-04-04 株式会社日立パワーソリューションズ 動態監視装置及び動態監視方法
JP2018045266A (ja) * 2016-09-12 2018-03-22 株式会社日立製作所 設計支援装置
WO2018079020A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置および情報処理方法
JP2019003408A (ja) * 2017-06-15 2019-01-10 株式会社日立製作所 ハイパーパラメータの評価方法、計算機及びプログラム
WO2019022085A1 (ja) * 2017-07-24 2019-01-31 アクシオンリサーチ株式会社 対象システムの内部状態を推定する支援システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023002648A1 (ja) * 2021-07-23 2023-01-26 ソニーグループ株式会社 情報処理方法及び情報処理システム

Also Published As

Publication number Publication date
JP6860602B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
Dangeti Statistics for machine learning
Raikwal et al. Performance evaluation of SVM and k-nearest neighbor algorithm over medical data set
CN111242310B (zh) 特征有效性评估方法、装置、电子设备及存储介质
Ahmed et al. Clarify of the random forest algorithm in an educational field
US20190251458A1 (en) System and method for particle swarm optimization and quantile regression based rule mining for regression techniques
CN108475393A (zh) 通过合成特征和梯度提升决策树进行预测的系统和方法
CN101556553A (zh) 基于需求变更的缺陷预测方法和系统
CN110379521B (zh) 基于信息论的医疗数据集特征选择方法
CN112215696A (zh) 基于时序归因分析的个人信用评估与解释方法、装置、设备及存储介质
WO2020013726A1 (ru) Способ интерпретации искусственных нейронных сетей
Kamath et al. Supervised learning model for kickstarter campaigns with R mining
CN115145817A (zh) 一种软件测试方法、装置、设备及可读存储介质
CN110956543A (zh) 异常交易检测的方法
JP6860602B2 (ja) 汎用人工知能装置及び汎用人工知能プログラム
KR101745874B1 (ko) 학습코스 자동 생성 방법 및 시스템
CN109460474B (zh) 用户偏好趋势挖掘方法
Sánchez-Monedero et al. Evaluating the performance of evolutionary extreme learning machines by a combination of sensitivity and accuracy measures
CN115936773A (zh) 一种互联网金融黑产识别方法与系统
Jiang et al. Applying AdaBoost to improve diagnostic accuracy
CN111026661B (zh) 一种软件易用性全面测试方法及系统
US20220164659A1 (en) Deep Learning Error Minimizing System for Real-Time Generation of Big Data Analysis Models for Mobile App Users and Controlling Method for the Same
WO2021214936A1 (ja) 予測装置、予測方法、及び、記録媒体
CN112883284A (zh) 一种基于网络和数据分析的在线学习系统及测试题推荐方法
CN113011748A (zh) 推荐效果的评估方法、装置、电子设备及可读存储介质
Boschetti et al. Complexity of a modelling exercise: A discussion of the role of computer simulation in complex system science

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210224

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210326

R150 Certificate of patent or registration of utility model

Ref document number: 6860602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250