JP7168393B2 - 情報処理装置、情報処理方法、プログラム及び記憶媒体 - Google Patents
情報処理装置、情報処理方法、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP7168393B2 JP7168393B2 JP2018177602A JP2018177602A JP7168393B2 JP 7168393 B2 JP7168393 B2 JP 7168393B2 JP 2018177602 A JP2018177602 A JP 2018177602A JP 2018177602 A JP2018177602 A JP 2018177602A JP 7168393 B2 JP7168393 B2 JP 7168393B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- series data
- recalled
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
情報処理装置100は、ハードウェア構成として、CPU101、メモリ102、表示部103、入力部104、通信部105を少なくとも有する。
CPU101は、情報処理装置100の全体を制御する。CPU101がメモリ102に記憶されたプログラムに基づき処理を実行することにより、情報処理装置100の機能及び、後述する図3、図4、図6のフローチャートの処理が実現される。メモリ102は、プログラム、CPU101がプログラムに基づき処理を実行する際に用いるデータ等を記憶する。表示部103は、各種情報を表示する。入力部104は、キーボード、マウス、表示部103に表示された画面等を介したユーザの操作等を受け付け、入力する。表示部103及び入力部104は、タッチパネルディスプレイ等、一体として構成されてもよい。通信部105は、情報処理装置100をネットワークに接続し、ネットワークを介した外部装置との通信処理を行う。メモリ102は、記憶媒体の一例である。
他の例としては、情報処理装置100の機能や処理の少なくとも一部は、複数のCPU、メモリを協働させることにより実現してもよい。また、他の例としては、情報処理装置100の機能や処理の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、他の例としては、情報処理装置100の機能及び処理は、複数の装置が協働して実現してもよい。
CPU101は、株価時系列データの一部(以下、部分チャートという)を受け取る(図2の(a))。データの一部というのは、例えば市況検索を行う際に検索対象として選択された所定の長さの時系列データである。なお、株価時系列データとしては分足レベルの時系列データであってもよいし、時間足や日足レベルの時系列データでもよい。部分チャートの長さは都度ユーザによって選択されてもよいし、検索対象となる所定の長さ(例えば9:00-12:00の株価時系列データ等)が予め定められていてもよく、特に限定はされない。
CPU101は、受け取った部分チャートに基づき、部分チャートと一致(同一)又は類似の部分を含む、株価時系列データの全部(以下、全体チャートという)を想起する(図2の(b))。ここで、全体チャートを想起チャートともいう。
全体チャートは、検索対象の部分チャートに応じて分足や時間足や日足、又は週足や月足等の時系列データとして抽出される。想起チャート(全体チャート)は、予め複数のスケールや長さごとに用意されており、スケールや長さは市況検索の都度ユーザによって指定されてもよいし、所定のスケールや長さ(9:00-15:00の分足の株価時系列データ等)が予め定められていてもよく、限定はされない。CPU101は、想起チャートに基づき特徴空間上の類似データ(集合)を取得する(図2の(c))。CPU101は、同じクラスタでも最も類似性の高いデータから一定の空間距離内のデータ郡を取得する。
CPU101は、取得した類似データ群を表示部103に表示する。
S201において、CPU101は、部分チャートを受け取る。表示部103に表示された画面等を介したユーザの選択操作に応じて、部分チャートを受け取ってもよいし、外部装置より部分チャートを受け取ってもよい。
S202において、CPU101は、全体チャートを想起する。S202の処理の詳細は、後述する図4に示す。
S203において、CPU101は、想起した全体チャートに類似する類似チャート群を取得する。S203の処理の詳細は、後述する図6に示す。
S204において、CPU101は、取得した類似チャート群を表示部103に出力する。
S301において、CPU101は、部分チャートをベクトルデータに変換する。
S302において、CPU101は、全体チャート想起ニューラルネットワーク(全体チャート想起NN)300に部分チャートのベクトルデータを入力する。
全体チャート想起NN300は、部分チャートのベクトルデータが入力されると、想起チャートのベクトルデータ(想起時系列データ)を出力する。全体チャート想起NN300の詳細は、後述する図5に示す。
S303において、CPU101は、全体チャート想起NN300より想起チャートのベクトルデータを受け取る。
まず、ベクトルデータについて補足する。ベクトルデータは複数の特徴量をまとめた特徴ベクトルのことである。本実施形態では、チャートの画像を格子状のブロックに分割し、各ブロックをベクトルの要素に対応付けている。また、本実施形態ではチャートを画像データとしてとらえ、ニューラルネットワークの機能を利用するものである。ニューラルネットワークへの入力を行う際、より厳密には、画像データを多次元配列として扱うことになる。多次元配列は、例えば、2×2の行列であれば4つの要素をもつベクトルと捉えることが可能であり、また、例えば、3×3×3の多次元配列であれば27の要素をもつベクトルと捉えることができる。したがって、以下ではベクトルデータという表現を用いて説明する。
例えば、一例としてチャートの線が含まれるブロックの要素の値を1、含まれないブロックの要素の値を0としたベクトルを正規化したものを特徴ベクトルとする。なお、図5に示す例では、ベクトルのイメージを模式的に説明するため、チャート画像を100ブロックに分割した場合の例(即ち、X1~X100の要素を有するベクトル)を示しているが、ベクトルの要素を画像データの各画素に対応させ、数百万の要素で構成されるベクトルデータとしてもよい。CPU101は、このようにして、チャートの画像データが入力されると、それを特徴ベクトルに変換する処理を行う。
さらに、CPU101は、ユーザからの指示に基づき、画像データの反転やフーリエ変換等によりフィルタを施して全体チャート想起NN300の特性等に適応させるために各種の前処理を実行してもよい。例えば、フーリエ変換による前処理は、時系列データを特徴ベクトルとする場合に特に好適である。フーリエ変換後のデータは周波数×スペクトルとなるため、周波数のブロックごとに正規化されたスペクトルの大きさをある周波数まで並べて利用する。即ち、特徴ベクトル(時系列データのサンプリング値)を周波数領域に変換し、周波数領域に変換されたデータに例えばローパスフィルタをかけて特定の周波数×スペクトルの範囲のデータを取り出す。そして、取り出したデータの値(スペクトル)を母集合の最大値を用いて正規化してグレースケール(8ビットの0,1の組み合わせ256階調)で表現する。
また、画像データでは一般的に線が黒の場合、線を構成する画素を1、0で表現すると0になるが、ニューラルネットでは、画素が存在する場合を1、存在しない場合を0として1の想起される確率を出力する。したがって、フーリエ変換以外の前処理として、画像の線を1となるように元画像を反転させておくと認識しやすくなる。
以上のとおり、本願においては、チャートの画像データをベクトルデータとして扱う構成のほか、時系列データをフーリエ変換して周波数領域のベクトルデータに変換して扱う構成についても含まれるが、これらのベクトルデータ(多次元配列)を総称して特徴量データと呼ぶ。
ところで、CPU101は、過去チャートの特徴ベクトルデータで全体チャート想起NN300を学習させる。本実施形態では、全体チャート想起NN300を制限付きボルツマンマシンとして構成するものとする。ここで、9:00から15:00までの単位で過去チャートを全体チャート想起NN300に学習させるとして説明を行う。しかし、CPU101は、入力部104等を介した入力操作等に応じて、何時から何時までを単位(日跨ぎでもよい)として過去チャートを学習させるか変更してもよい。また、何時から何時までの単位ごとに、全体チャート想起NNを用意する構成としてもよい。また、想起させたいチャートに応じて、分足レベル、時間足レベル、日足レベル、又は週足や月足のいずれで学習させる構成としてもよい。また、CPU101は、銘柄の種類、同じ業種ごとに全体チャート想起NN300を学習させてもよい。 そして、全体チャート想起NN300は、入力される部分チャートのベクトルデータから想起される全体チャートのベクトルデータを出力する。即ち、画像データは[1,0]の2値で構成されるところ、部分チャートの画像データに対応するベクトルデータが、全体チャート想起NN300としての制限付きボルツマンマシンに入力されると、その入力に基づいて生成される確率分布と所与の閾値に従って全体チャートの画像データに対応するベクトルデータの要素として1又は0の値を出力する。
この構成の場合、部分チャートの時系列データをフーリエ変換により周波数領域に変換して得られる特徴ベクトルが全体チャート想起NN300に相当する全体データ想起NNに入力され、全体データ想起NNは、フーリエ変換により周波数領域に変換された過去チャート(全体チャート)に対応する特徴ベクトルを想起し出力する。この場合、厳密には過去の全体チャートが想起されるわけではなく、周波数領域変換後のデータが想起されることになる。このデータは、広義的には想起チャートともいえるが、狭義の想起チャートに加え、このような広義の想起チャートも含めて想起データと呼ぶことができる。
ここで、想起NN(ニューラルネットワーク)について補足すれば以下のとおりである。ニューラルネットワークは生物の脳を模した仕組みとして捉えることができるが、生物の脳の中ではニューロン一つ一つがある特定の情報を記憶しているのではなく、膨大な数のニューロン集団全体が複数の情報を同時に協力して記憶していると考えられる。また、生物の脳の中での情報処理は、各ニューロンに入力された初期状態がニューロン集団に記憶されている情報によって形成された各ニューロン間の結合パターンの作用を受けて、入力の総和演算、しきい値処理及びフィードバックを繰り返すことによって、自発的に安定状態(系のエネルギーの低い状態)に収束していく過程で行われる。
本実施形態に即して説明すれば、始めに学習データとしての複数の画像データ(過去の全体チャート=想起チャートの画像データ)を制限付きボルツマンマシンに記憶させておく。そして、図5に示すように、例えばユーザが今後のチャートの動きを予測したいと考えたときに、制限付きボルツマンマシンにより構成されるニューラルネットワークにそのときのチャート(部分チャート)の画像をベクトル化したデータとして入力すると、部分チャートの画像に一致(同一)又は類似する部分を有する全体チャート(想起チャート)が出力されることになる。
制限付きボルツマンマシンには様々な用途があり、例えば、画像のノイズ除去等に用いることもできる。即ち、ある画像を記憶させておき、ノイズの入った画像を入力するとノイズが除去された画像を復元することができる。本実施形態における制限付きボルツマンマシンの利用もこれと同様のイメージで捉えることもできる。
制限付きボルツマンマシンにおける学習について補足すれば以下のとおりである。制限付きボルツマンマシンは、複数の可視ノード(v1~vn)からなる可視層と複数の隠れノード(h1~hn)からなる隠れ層とを含んで構成され、可視ノードと隠れノードとが結合係数wによって接続されている。また、可視層及び隠れ層の層内の各ユニットにはバイアスa,bが関連付けられる。制限付きボルツマンマシンでは、ノード間の接続が制限されており、可視ノード同士や隠れノード同士は接続されていない。
換言すれば、制限付きボルツマンマシンにおける学習は、制限付きボルツマン確率分布p(v|θ)が入力ベクトルの分布q(v)に近づくようにパラメータθ(θはパラメータw,a,b)を調整していくことにより行われる。
なお、本実施形態では、部分チャートから全体チャートを想起するニューラルネットワークとして制限付きボルツマンマシンを用いた構成として説明するが、連想記憶や自己想起が可能な他のニューラルネットワークモデルを利用できる。
S401において、CPU101は、クラスタマッピングニューラルネットワーク(クラスタマッピングNN)400に想起チャートのベクトルデータを入力する。クラスタマッピングNN400は、クラスタリング及びマッピングを行う機能を有するニューラルネットワークの一例である。
クラスタマッピングNN400は、想起チャートのベクトルデータが入力されると、ベクトルデータが何れのクラスタに属するかを示すクラスタ情報を出力することができる。クラスタマッピングNN400の詳細は、後述する図7に示す。
S402において、CPU101は、クラスタマッピングNN400よりクラスタを識別するクラスタ情報を受け取る。
S403において、CPU101は、クラスタ情報に基づき、クラスタ別過去チャート群DB500より、想起チャートの類似チャート群を検索する。クラスタ別過去チャート群DB500の詳細は、後述する図8に示す。クラスタ別過去チャート群DB500は、メモリ102に記憶されていてもよいし、ネットワークを介して通信可能なストレージに記憶されていてもよい。クラスタ別過去チャート群DB500は、クラスタ別の過去時系列データ群の一例である。
S404において、CPU101は、検索の結果として、クラスタ別過去チャート群DB500より想起チャートの類似チャート群を取得する。
CPU101は、過去チャートの特徴ベクトルデータでクラスタマッピングNN400を学習させておく。即ち、本実施形態では、学習データとしての複数の過去チャートの特徴ベクトルデータをクラスタ化して自己組織化マップを作成すると共に、新たに入力されるベクトルデータ(過去の類似チャート群を取得したい対象の想起チャート)を、自己組織化マップの学習により生成されたクラスタの何れかへマッピングする(又はマップ空間へ写像する)機能を有するニューラルネットワークを用意しておく。
本実施形態では、例えばクラスタマッピングNN400として自己組織化マップを用いる構成を例に説明するが、クラスタリング機能を有する他の機械学習モデルやニューラルネットワーク等を用いてクラスタへのマッピング機能を実現することもできる。
ここで、自己組織化マップについて補足すれば以下のとおりである。自己組織化ニューラルネットワークとしては、自己組織化マップ(SOM:Self-Organizing Map)の他、LVQ(Learning Vector Quantization)モデル等もある。LVQモデルは、予め分類されたクラスタに属し、入力パターンベクトルと同次元の参照ベクトルを多数用意しておき、入力パターンベクトルに最も近い参照ベクトルの属するクラスタを、入力パターンベクトルの属するクラスタとして出力するものである。
学習を進めていくと、最終的に、ネットワーク内で近接するセルの参照ベクトルは、類似の(ベクトル空間内で距離が近い)参照ベクトルに逐次更新され、ネットワーク内に類似の参照ベクトルのクラスタが形成される。この学習の結果、類似するチャートは同一のクラスタに対応することになる。自己組織化マップは通常2次元のユニットで結合させるが、3次元でユニットを結合し、3次元のユニットから勝者ユニットを見つけて競合学習させてもよい。
なお、自己組織化マップは、チャート画像の特徴ベクトルを用いて学習する構成に限らず、想起チャートの特徴ベクトルに応じて、例えば上述したフーリエ変換後の周波数領域における特徴ベクトルを用いて学習する構成としてもよい。周波数領域における特徴ベクトルを用いて自己組織化マップを生成する場合、過去の全体チャートの周波数領域における特徴ベクトルの集合が入力されると、上述した自己組織化マップのアルゴリズムに従って、各セルの参照ベクトルの更新を行いながら、周波数領域における特徴ベクトルのクラスタリングが行われる。
又はッシュ値ではなく、一意に識別可能な他の識別IDを付して、周波数領域における特徴ベクトルの最大周波数以降に識別IDを含ませておく等したうえで、識別IDと過去の全体チャートとを対応づけて変換DBとしてデータベース化しておく構成としてよい。又は、過去の全体チャートそのものではなく、そのチャートを特定可能な日時等の情報を対応付けてデータベース化しておく構成であってもよい。さらには、必ずしもID等を付してデータベース化しておく必要はなく、抽出された後、周波数領域における特徴ベクトルを逆フーリエ変換によって時間領域のチャートデータに戻してもよく、特に限定はされない。
このような構成とすることで、周波数領域における特徴ベクトルから、それに対応する過去の全体チャートを抽出することができる。
図7の右上の図は自己組織化マップを表しており、各〇がクラスタ(又は発火中心のニューロン)を表している。上述のようにして過去チャートの画像に基づく又は周波数領域への変換後の特徴ベクトルによる学習を行ったクラスタマッピングNN400により、入力された想起チャートをマップ空間へ写像することで、その特徴ベクトルが何れのクラスタに属するかが特定される。
クラスタ別過去チャート群DB500では、クラスタ情報と時系列データとが直接、又は間接的に対応付けられている。CPU101は、クラスタ情報に対応付けられている時系列データをクラスタ別過去チャート群DB500より取得することができる。クラスタ別過去チャート群DBでクラスタ情報と対応付けられている過去チャート群のそれぞれは全体チャート(想起チャート)と同じ長さ(同じ特徴ベクトル次元)の時系列データとなる。例えば、自己組織化マップの学習を行う場合、チャート画像の特徴ベクトルデータを用いる構成のときは縦×横で同じ次元とし、フーリエ変換後の周波数領域の特徴ベクトルデータを用いるときは、スペクトル×周波数の範囲を固定化し、それぞれ同じ次元とする。ここで、それぞれのベクトルの要素は0から1の範囲に閉じさせる。
さらに、CPU101は、クラスタ別過去チャート群DB500によって同じクラスタに分類されている複数の時系列データの中から、一定の空間距離内にあるデータ群を取得する。即ち、CPU101は、想起チャートの特徴ベクトルと、想起チャートが分類されたクラスタと同じクラスタに含まれる過去チャートの特徴ベクトルのそれぞれとの空間距離を算出し、所定の空間距離の過去チャートのみを抽出することができる。所定の空間距離は予め定められていてもよいし、都度、ユーザが変更できる構成であってもよい。
これにより、同じクラスタに属する全ての過去チャートのうち、想起チャートとの類似性が高い過去チャート群のみを抽出してユーザに提示することができる。したがって、ユーザにとっては、類似性の低い過去チャートの情報を確認する必要がなくなり、自己にとって有用な過去チャートの情報のみを確認することができる。
即ち、自己組織化マップは、入力層を備えており、入力層には複数の入力層ニューロンが存在する。また、自己組織化マップ上にも複数のマップ上ニューロンが存在しており、入力層とマップ上のニューロンは、結合荷重ベクトルによって結合されている。入力ベクトル(特徴ベクトル)は入力層ニューロンに入力される。
また、周波数領域における特徴ベクトルがクラスタリングされたクラスタマッピングNN400を用いる場合にも、上述したのと同様にクラスタへのマッピングやユーザによって入力等された所定の距離内にある周波数領域における特徴ベクトル群の抽出等をすることができる。
そして、抽出された所定距離内にある周波数領域における特徴ベクトル群のそれぞれは、上述した変換DBにより過去の全体チャートのデータに変換される。なお、全体チャート想起NN300による想起データの想起を周波数領域における特徴ベクトルを用いて行い、クラスタマッピングNN400によるクラスタへのマッピング及び過去の類似の全体チャート群の抽出を画像データとしての特徴ベクトルを用いて行う等の組み合わせは仕様に応じて任意に組み合わせることができ、特に限定はされない。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
例えば、全体チャート想起NN300は、制限付きボルツマンマシンとして説明したが、Hopfieldモデル等の他の自己想起ニューラルネットワークであってもよいし、CNNや連想記憶ニューラルネットワークであってもよい。なお、制限付きボルツマンマシンは入力層と隠れ層とからなり、同一層内では情報伝達を行わないという制限がつけられているが、情報処理装置として量子コンピュータ等を採用し、情報処理装置の処理能力を向上させた場合には、同一層内でも情報伝達を行う膨大な計算が必要となる制限なしボルツマンマシンとして構成することも可能となる。
また、クラスタマッピングNN400は、自己組織化マップによってクラスタ化する例について説明したが、k-Means等でクラスタ化を行ってもよい。
また、上述した実施形態では、時系列データの一例として、株価時系列データを用いて説明を行ったが、為替や先物、その他の金融商品の時系列データに適用可能であり、センサから取得されるセンサ情報の時系列データであってもよい。センサとしては、物の有無、形状、位置等を読み取るセンサ、圧力、重力、ひずみ等を読み取るセンサ、速度、加速度、回転数等を読み取るセンサ、音声、超音波、振動等を読み取るセンサ、熱、温度、湿度等を読み取るセンサ、可視光、赤外線、紫外線等を読み取るセンサ、磁界、電流、電圧等を読み取るセンサ等がある。
101 CPU
Claims (5)
- ニューラルネットワークを用いて時系列データの一部から、前記一部と同一又は類似の部分を含む前記時系列データの所定範囲の全体を想起時系列データとして想起する想起手段と、
前記時系列データがクラスタリングされた結果に基づいて、前記想起手段により想起された前記想起時系列データに類似する時系列データ群を取得する取得手段と、
前記取得手段により取得された前記時系列データ群を出力する出力手段と、
を有し、
前記想起手段は、前記時系列データの一部を特徴量データに変換し、前記特徴量データを前記ニューラルネットワークに入力し、前記ニューラルネットワークより前記想起時系列データの特徴量データを受け取ることで、前記時系列データの一部から、前記一部と同一又は類似の部分を含む前記想起時系列データを想起し、
前記取得手段は、前記想起時系列データの特徴量データをクラスタリングするニューラルネットワークに入力し、前記クラスタリングするニューラルネットワークによりマッピングされた結果に基づき、前記想起時系列データに類似する時系列データ群を取得する、
情報処理装置。 - 前記時系列データは価値の変動を表すデータである請求項1記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
ニューラルネットワークを用いて時系列データの一部から、前記一部と同一又は類似の部分を含む前記時系列データの所定範囲の全体を想起時系列データとして想起する想起工程と、
前記時系列データがクラスタリングされた結果に基づいて、前記想起工程により想起された前記想起時系列データに類似する時系列データ群を取得する取得工程と、
前記取得工程により取得された前記時系列データ群を出力する出力工程と、
を含み、
前記想起工程は、前記時系列データの一部を特徴量データに変換し、前記特徴量データを前記ニューラルネットワークに入力し、前記ニューラルネットワークより前記想起時系列データの特徴量データを受け取ることで、前記時系列データの一部から、前記一部と同一又は類似の部分を含む前記想起時系列データを想起し、
前記取得工程は、前記想起時系列データの特徴量データをクラスタリングするニューラルネットワークに入力し、前記クラスタリングするニューラルネットワークによりマッピングされた結果に基づき、前記想起時系列データに類似する時系列データ群を取得する、
情報処理方法。 - コンピュータに、
ニューラルネットワークを用いて時系列データの一部から、前記一部と同一又は類似の部分を含む前記時系列データの所定範囲の全体を想起時系列データとして想起する想起工程と、
前記時系列データがクラスタリングされた結果に基づいて、前記想起工程により想起された前記想起時系列データに類似する時系列データ群を取得する取得工程と、
前記取得工程により取得された前記時系列データ群を出力する出力工程と、
を実行させ、
前記想起工程は、前記時系列データの一部を特徴量データに変換し、前記特徴量データを前記ニューラルネットワークに入力し、前記ニューラルネットワークより前記想起時系列データの特徴量データを受け取ることで、前記時系列データの一部から、前記一部と同一又は類似の部分を含む前記想起時系列データを想起し、
前記取得工程は、前記想起時系列データの特徴量データをクラスタリングするニューラルネットワークに入力し、前記クラスタリングするニューラルネットワークによりマッピングされた結果に基づき、前記想起時系列データに類似する時系列データ群を取得する、
プログラム。 - コンピュータに、
ニューラルネットワークを用いて時系列データの一部から、前記一部と同一又は類似の部分を含む前記時系列データの所定範囲の全体を想起時系列データとして想起する想起工程と、
前記時系列データがクラスタリングされた結果に基づいて、前記想起工程により想起された前記想起時系列データに類似する時系列データ群を取得する取得工程と、
前記取得工程により取得された前記時系列データ群を出力する出力工程と、
を実行させ、
前記想起工程は、前記時系列データの一部を特徴量データに変換し、前記特徴量データを前記ニューラルネットワークに入力し、前記ニューラルネットワークより前記想起時系列データの特徴量データを受け取ることで、前記時系列データの一部から、前記一部と同一又は類似の部分を含む前記想起時系列データを想起し、
前記取得工程は、前記想起時系列データの特徴量データをクラスタリングするニューラルネットワークに入力し、前記クラスタリングするニューラルネットワークによりマッピングされた結果に基づき、前記想起時系列データに類似する時系列データ群を取得する、
プログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018177602A JP7168393B2 (ja) | 2018-09-21 | 2018-09-21 | 情報処理装置、情報処理方法、プログラム及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018177602A JP7168393B2 (ja) | 2018-09-21 | 2018-09-21 | 情報処理装置、情報処理方法、プログラム及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047219A JP2020047219A (ja) | 2020-03-26 |
JP7168393B2 true JP7168393B2 (ja) | 2022-11-09 |
Family
ID=69900050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018177602A Active JP7168393B2 (ja) | 2018-09-21 | 2018-09-21 | 情報処理装置、情報処理方法、プログラム及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7168393B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6898688B1 (ja) | 2021-02-18 | 2021-07-07 | グリーンモンスター株式会社 | 予測装置、予測方法、予測プログラムおよび、学習装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015231293A (ja) | 2014-06-05 | 2015-12-21 | 株式会社日立パワーソリューションズ | 発電量予測方法およびそのシステム |
JP2018088742A (ja) | 2016-11-28 | 2018-06-07 | アイフォーコムホールディングス株式会社 | エネルギ需要予測システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2986294B2 (ja) * | 1992-11-30 | 1999-12-06 | 株式会社日立製作所 | 成長機能を有するニューラルネットワークシステム |
-
2018
- 2018-09-21 JP JP2018177602A patent/JP7168393B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015231293A (ja) | 2014-06-05 | 2015-12-21 | 株式会社日立パワーソリューションズ | 発電量予測方法およびそのシステム |
JP2018088742A (ja) | 2016-11-28 | 2018-06-07 | アイフォーコムホールディングス株式会社 | エネルギ需要予測システム |
Also Published As
Publication number | Publication date |
---|---|
JP2020047219A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875268B2 (en) | Object recognition with reduced neural network weight precision | |
US10248664B1 (en) | Zero-shot sketch-based image retrieval techniques using neural networks for sketch-image recognition and retrieval | |
Ahmadi et al. | FWNNet: Presentation of a New Classifier of Brain Tumor Diagnosis Based on Fuzzy Logic and the Wavelet‐Based Neural Network Using Machine‐Learning Methods | |
CN109754078A (zh) | 用于优化神经网络的方法 | |
Gopal | Artificial neural networks in geospatial analysis | |
Goh et al. | Mars terrain segmentation with less labels | |
CN112288086A (zh) | 一种神经网络的训练方法、装置以及计算机设备 | |
Park et al. | Fast and scalable approximate spectral matching for higher order graph matching | |
EP3588441B1 (en) | Imagification of multivariate data sequences | |
Buvana et al. | Content-based image retrieval based on hybrid feature extraction and feature selection technique pigeon inspired based optimization | |
Yamada et al. | Guiding labelling effort for efficient learning with georeferenced images | |
CN110188621B (zh) | 一种基于ssf-il-cnn的三维人脸表情识别方法 | |
JP7168393B2 (ja) | 情報処理装置、情報処理方法、プログラム及び記憶媒体 | |
Tayeb et al. | A new neural architecture for feature extraction of remote sensing data | |
CN111260074B (zh) | 一种超参数确定的方法、相关装置、设备及存储介质 | |
Gabel et al. | Learning Lie group symmetry transformations with neural networks | |
Wang et al. | Multi‐modal broad learning for material recognition | |
CN114254739A (zh) | 多模态电力传感器的数据处理方法、装置和计算机设备 | |
Singh et al. | Implication of Mathematics in Data Science Technology Disciplines | |
Claussen et al. | Magnification control in winner relaxing neural gas | |
Deotale et al. | Face recognition using artificial neural networks | |
Al-Hameed et al. | Evaluating face recognition with different texture descriptions and convolution neural network | |
Dar et al. | Deep variational auto encoder for dimensionality reduction, denoising in MNIST datasets using TensorFlow and keras | |
Kountchev et al. | New Approaches in Intelligent Image Analysis | |
Zhang et al. | Calibrated multivariate regression networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7168393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |