JP6784357B2 - 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム - Google Patents
人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム Download PDFInfo
- Publication number
- JP6784357B2 JP6784357B2 JP2017212246A JP2017212246A JP6784357B2 JP 6784357 B2 JP6784357 B2 JP 6784357B2 JP 2017212246 A JP2017212246 A JP 2017212246A JP 2017212246 A JP2017212246 A JP 2017212246A JP 6784357 B2 JP6784357 B2 JP 6784357B2
- Authority
- JP
- Japan
- Prior art keywords
- probability
- layer
- artificial intelligence
- deep learning
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013473 artificial intelligence Methods 0.000 title claims description 43
- 238000013136 deep learning model Methods 0.000 title claims description 36
- 238000013135 deep learning Methods 0.000 title claims description 18
- 238000010276 construction Methods 0.000 title description 2
- 238000010801 machine learning Methods 0.000 claims description 79
- 230000013016 learning Effects 0.000 claims description 66
- 210000005036 nerve Anatomy 0.000 claims description 51
- 238000000034 method Methods 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 27
- 210000004556 brain Anatomy 0.000 claims description 20
- 238000009826 distribution Methods 0.000 claims description 20
- 230000001537 neural effect Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 19
- 230000002490 cerebral effect Effects 0.000 claims description 16
- 230000001960 triggered effect Effects 0.000 claims description 9
- 230000002500 effect on skin Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 11
- 238000001228 spectrum Methods 0.000 description 11
- 210000003792 cranial nerve Anatomy 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000012896 Statistical algorithm Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000000196 olfactory nerve Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Fuzzy Systems (AREA)
- Automation & Control Theory (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
以上述べたように深層学習モデルに対して、工業的に広く応用することを期待できない。
人間の脳神経は神経にトリガーされた時に、ニューラルのしきい値の役割を一致する可能な新しいニューラルネットワークモデルを正確的に構築する方法を発見すること。
また、機械学習の能力が無限的に深くに行くことができるし、計算複雑度が変わらず新しいニューラルネットワークモデルを提出すること。
複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴値として、入力層の各ノードに入力すること;
入力層の各ノードに対応した複数回で入力し学習された最大確率の特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率の特徴 値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力する;
出力層、即ち脳皮層は、前記すべての隠れ層、即ち神経層の出力最大確率尺度により、興奮レベルを決める確率尺度に基づいた自己組織アルゴリズムを備えることを特徴とする人工知能超深層学習モデルの構築方法である。
複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴値をとして、入力層の各ノードに入力するモジュール;
さらに、入力層の各ノードに対応した複数回で入力し学習された最大確率特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力するモジュール;
出力層、即ち脳皮層は、隠れ層、即ち神経層からトリガーされた神経信号の数によって、脳の興奮の程度を決定し、最終の結果を決める確率尺度に基づいた自己組織アルゴリズムを搭載したモジュールを備えることを特徴とする人工知能超深層学習装置である。
入力情報から無教師機械学習により最大確率の特徴情報を抽出し、入力層に入力する
前記の無教師機械学習により学習してから、それぞれ最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが搭載された汎用モバイル端末を備えることを特徴とする人工知能超深層学習モデルが搭載された汎用モバイル端末装置である。
前記の無教師機械学習により、最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくでも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが作成されるプログラムを備えることを特徴とする人工知能超深層学習モデルのプログラムである。
図1は、人工知能超深層学習モデルの構成図である。
図1に示すように、隠れ層、即ち神経層のノード数h(h=1,2,…,k)とし、学習の回数をz(z=1,2,…,w)とし、また、学習される画像をFz(z=1,2,…,w)とする。
一回目の学習を行う時に、入力情報を無教師機械学習により学習してから、入力層のノードに入力する、そこで、無教師機械学習MLz phに対し、入力層p=1のために、MLz 1hとすると、
次、各層のノードNz phを定義する、入力層p=1になると、入力層ノードをNz 1hとする。
上述のように無教師機械学習により接続されたノード間で学習する方法ではない場合に、統計学のアルゴリズムを用いても良い、例えば平均値や分散値などの統計学的いろんな計算により、また、他の機械学習により、前記と同様な超深層学習モデルを構成することになると、本発明の範囲に属することである。
前記、画像を学習する時に、w回の画像を読取ることにより、F画像集合を得る。F∈Fz(z=1,2,…,w)画像に対し、ML1h(h=1,2,…,k)のk個の無教師機械学習を用いて、w回により学習した結果,L1 1h,L2 1h,…,Lz 1h,(h=1,2,…,k)を入力層P1の各ノードN1h(h=1,2,…,k)に一回ずつで送る、入力層のw回の学習結果をさらに無教師機械学習ML2h(h=1,2,…,k)送る、無教師機械学習ML2h(h=1,2,…,k)を用いて、学習値と脳神経のトリガーのしきい値(L2h、T2h)(h=1,2,…,k)が生成される。
認識ステップでは、上述と同じように、認識される画像FsをML1h(h=1,2,…,k)のk個の無教師機械学習に入力し、学習すると、サンプリングの学習値Ls 1h(h=1,2,…,k)を得る、同様に入力層P1の各ノードN1h(h=1,2,…,K)に送る、入力層と隠れ層、即ち神経層の間で接続された無教師機械学習ML2h(h=1,2,…,k)を通じて、隠れ層、即ち神経層の出力基準値を算出する、もし|LS 1h
ば、|LS 1h−L2h|>T2h→″0″となると、神経信号がない。
また、上記の超深層学習は、処理能力や処理精度が高くなるために、まず、対象の画像Fに対して分割された画像Ih∈ph ij(i=1,2,…,n,j=1,2,…,m,h=1,2,…,k)の数を増加すること、分割された画像数が多ければ多いほど、画像認識の精度が高くなる、または、対象の画像Fに対して、元の画像から、幾何学的モデル、または物理的モデルを用いて、画像の写像を行う時に、画像の写像の数を増加すること、画像の写像の数が多ければ多いほど、同様に画像認識の精度が高くなる、この二つのやり方により、入力層、隠れ層、即ち神経層のノードの数と、機械学習の数とを増加するたけ、計算複雑度が変わらない。上述のように本発明の超深層学習モデルは処理能力と精度が無限に深くなることを、理論的に証明できる。
図3に示すように、学習ステップでは、各音声信号Vz(z=1,2,…,w)に対し、高速フーリエ変換FFTによってz(z=1,2,…,w)個の音声信号のスペクトルのデータを変換することができる、隣接する各x個のスペクトルの値を1つの特徴値とすると、h=y/xとすると、h(h=1,2,…,k)個の入力層の特徴値を得る、また、x個毎のスペクトルを、それぞれの無教師機械学習MLz 11に入力し、k個の無教師機械学習により、Lz 1h(h=1,2,…,k,z=1,2,…,w)個特徴値が得られる後、それぞれ入力層の各ノードNz 1h(h=1,2,…,k,z=1,2,…,w)に送る。
る、そうではなければ、|LS 1h−L2h|>T2h→″0″となると、神経信号がない。
図3と同じように、実際の音声認識向けの超深層学習のモデル構造が図4に示しているようになる、音声認識の学習のステップでは、w回の音声データVz(z=1,2,…,w)に対し、高速フーリエ変換FFTによって音声信号のスペクトルのデータse(e=1,2,…,y)を変換することができる、隣接しているx個のスペクトルのデータを1つのスペクトル値とすると、k=y/xになる、k個の入力層の特徴値を得る、また、h番目の特徴情報のx個のスペクトルを、それぞれの無教師機械学習ML1hに入力し、k個無教師機械学習により、Lz 1h(h=1,2,…,k,z=1,2,…,w)個の特徴値が得られる、それぞれ入力層の各ノードN1h(h=1,2,…,k,z=1,2,…,w)に送る。
る、そうではなければ、|LS 1h−L2h|>T2h→″0″となると、隠れ層(神経層)が“0”を出力する。
図5に示すように、与えられた確率分布を持つ要素g1、g2,…,gζの集合をG∈gf(f=1,2,…,ζ)とすると、確率尺度に基づいた自己組織アルゴリズムは次のような4つのステップになる。
自己組織の最大処理回数MNの設定方法は、一般に5〜10回十分である。
ステップ4:自己組織化処理の終了。
まずファジィ事象確率測度の定義:関数f(x)がファジィ空間の集合で独立して計算可能であると仮定する、F(x)とp(x)は上記のファジィ測度と確率測度との条件を満たすと、ファジィ事象確率尺度Mfpは次のとおりです。
図6に示すように、複数の角度から株を予測するため、まず予測に関連する社会学的情報F1に属する要素をf1 n(n=1,2,…,y)とし、ファジィ数学のメンバーシップ関数を用いて人間介入を行うと、各要素fnにx個データが存在し、k=y/xをすると、k個の入力層情報がある。H番目の入力情報のx個のデータを無教師学習M1 1h(h=1,2,…,k)に入力して、学習させ、k個の社会学に関連する学習値L1 11,L1 12,…,L1 1kを得る。
また、予測に関連する歴史学情報Fwに属する要素をfw n(n=1,2,…,y)とし、各x個のデータ毎を無教師学習Mw 1h(h=1,2,…,k)に入力して、学習させると、k個の歴史学に関連する学習値Lw 11,Lw 12,…,Lw 1kを得る。
上記のようにw×h個の無教師機械学習MLz 1h(h=1,2,…,k,z=1,2,…,w)により、学習を行うと、w×h個の学習値Lz 1h(h=1,2,…,k,z=1,2,…,w)が得られる、これらのデータをそれぞれ入力層のPz(z=1,2,…,w)の各々のノードNz 1h(h=1,2,…,k,z=1,2,…,w)に送る。
Claims (8)
- 人工知能超深層学習モデルの構築方法であって、
複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴値として、入力層の各ノードに入力すること;
入力層の各ノードに対応した複数回で入力し学習された最大確率の特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率の特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力する;
出力層、即ち脳皮層は、前記すべての隠れ層、即ち神経層の出力最大確率尺度により、興奮レベルを決める確率尺度に基づいた自己組織アルゴリズムを備えることを特徴とする人工知能超深層学習モデルの構築方法。 - 前記、無教師機械学習とは、確率尺度、若しくはファジィ事象確率測度に基づいて、繰返して処理することにより、新しい確率尺度、或はファジィ事象確率測度、或は最大確率の特徴値を得る確率尺度に基づいた自己組織アルゴリズムを特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
- 前記、確率尺度とは、確率分布に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大確率分布を計ることができる値を特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
- 前記、ファジィ事象確率測度とは、確率情報と、曖昧な情報に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大ファジィ事象確率測度を計ることができる値を特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
- 確率尺度、或はファジィ事象確率測度を、超深層学習モデルにおいて、脳の神経トリガーのしきい値とすることを特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
- 人工知能超深層学習モデルの装置であって、
複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴値をとして、入力層の各ノードに入力するモジュール;
さらに、入力層の各ノードに対応した複数回で入力し学習された最大確率特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力するモジュール;
出力層、即ち脳皮層は、隠れ層、即ち神経層からトリガーされた神経信号の数によって、脳の興奮の程度を決定し、最終の結果を決める確率尺度に基づいた自己組織アルゴリズムを搭載したモジュールを備えることを特徴とする人工知能超深層学習装置。 - 入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続すること;
入力情報から無教師機械学習により最大確率の特徴情報を抽出し、入力層に入力する
前記の無教師機械学習により学習してから、それぞれ最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが搭載された汎用モバイル端末を備えることを特徴とする人工知能超深層学習モデルが搭載された汎用モバイル端末装置。 - 入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続すること;
前記の無教師機械学習により、最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが作成されるプログラムを備えることを特徴とする人工知能超深層学習モデルのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611034133.6A CN108073978A (zh) | 2016-11-14 | 2016-11-14 | 一种人工智能超深度学习模型的构成方法 |
CN201611034133.6 | 2016-11-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018081684A JP2018081684A (ja) | 2018-05-24 |
JP6784357B2 true JP6784357B2 (ja) | 2020-11-11 |
Family
ID=62108533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017212246A Expired - Fee Related JP6784357B2 (ja) | 2016-11-14 | 2017-10-17 | 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180137409A1 (ja) |
JP (1) | JP6784357B2 (ja) |
CN (1) | CN108073978A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111045422A (zh) * | 2018-10-11 | 2020-04-21 | 顾泽苍 | 一种自动驾驶导入“机智获得”模型的控制方法 |
CN111046710A (zh) * | 2018-10-11 | 2020-04-21 | 顾泽苍 | 一种导入sdl模型的图像抽出的方法 |
CN109460077B (zh) * | 2018-11-19 | 2022-05-17 | 深圳博为教育科技有限公司 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
CN110163269A (zh) * | 2019-05-09 | 2019-08-23 | 北京迈格威科技有限公司 | 基于深度学习的模型生成方法、装置和计算机设备 |
CN114372627B (zh) * | 2022-01-07 | 2024-06-07 | 中南大学 | 基于混合深度学习框架的城市车辆旅行时间估计方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3354593B2 (ja) * | 1992-06-10 | 2002-12-09 | 日本政策投資銀行 | ネットワーク型情報処理装置の学習システム |
CA2199588A1 (en) * | 1997-03-10 | 1998-09-10 | Efrem Hoffman | Hierarchical data matrix pattern recognition and identification system |
JP4427132B2 (ja) * | 1999-06-30 | 2010-03-03 | グローリー株式会社 | 競合型ニューラルネットワークを用いた紙葉類の識別方法 |
EP1353295B1 (en) * | 2000-12-12 | 2007-08-22 | Consejo Superior De Investigaciones Cientificas | Non-linear data mapping and dimensionality reduction system |
US7398259B2 (en) * | 2002-03-12 | 2008-07-08 | Knowmtech, Llc | Training of a physical neural network |
CN104376280B (zh) * | 2013-08-12 | 2017-09-05 | 天津市阿波罗信息技术有限公司 | 一种面向谷歌眼镜的图像代码生成方法 |
JP6107531B2 (ja) * | 2013-08-15 | 2017-04-05 | 富士ゼロックス株式会社 | 特徴抽出プログラム及び情報処理装置 |
CN104852892B (zh) * | 2014-02-18 | 2019-10-08 | 天津市阿波罗信息技术有限公司 | 一种新型物联网网站系统的自主登录方法 |
US11221990B2 (en) * | 2015-04-03 | 2022-01-11 | The Mitre Corporation | Ultra-high compression of images based on deep learning |
CN105404865A (zh) * | 2015-11-16 | 2016-03-16 | 杭州电子科技大学 | 基于概率态受限玻尔兹曼机级联的人脸检测方法 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
-
2016
- 2016-11-14 CN CN201611034133.6A patent/CN108073978A/zh active Pending
-
2017
- 2017-10-17 JP JP2017212246A patent/JP6784357B2/ja not_active Expired - Fee Related
- 2017-11-12 US US15/810,105 patent/US20180137409A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20180137409A1 (en) | 2018-05-17 |
CN108073978A (zh) | 2018-05-25 |
JP2018081684A (ja) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6784357B2 (ja) | 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム | |
Qin et al. | A dual-stage attention-based recurrent neural network for time series prediction | |
US11461654B2 (en) | Multi-agent cooperation decision-making and training method | |
Lendasse et al. | Non-linear financial time series forecasting-Application to the Bel 20 stock market index | |
Nowlan | Maximum likelihood competitive learning | |
Razmjooy et al. | A hybrid neural network Imperialist Competitive Algorithm for skin color segmentation | |
CN108445752B (zh) | 一种自适应选择深度特征的随机权神经网络集成建模方法 | |
CN106709820A (zh) | 一种基于深度置信网络的电力系统负荷预测方法及装置 | |
CN114155270A (zh) | 行人轨迹预测方法、装置、设备及存储介质 | |
Bodyanskiy et al. | Self-learning cascade spiking neural network for fuzzy clustering based on group method of data handling | |
CN115376317B (zh) | 一种基于动态图卷积和时序卷积网络的交通流预测方法 | |
CN108062566A (zh) | 一种基于多核潜在特征提取的智能集成软测量方法 | |
CN112766603A (zh) | 一种交通流量预测方法、系统、计算机设备及存储介质 | |
CN111130909B (zh) | 基于自适应储备池esn的网络流量预测方法 | |
Lemos et al. | Evolving intelligent systems: Methods, algorithms and applications | |
Wei et al. | K-NN based neuro-fuzzy system for time series prediction | |
Li et al. | Short-term traffic flow prediction based on recurrent neural network | |
CN110109005B (zh) | 一种基于序贯测试的模拟电路故障测试方法 | |
CN109862625B (zh) | 一种基于深度学习的短波测向灵活组网方法 | |
CN108073979A (zh) | 一种导入人工智能超深度学习用于图像识别的方法 | |
Jamsandekar et al. | Self generated fuzzy membership function using ANN clustering technique | |
CN108073985A (zh) | 一种导入人工智能超深度学习用于语音识别的方法 | |
Lan et al. | Pc-snn: Supervised learning with local hebbian synaptic plasticity based on predictive coding in spiking neural networks | |
Anastassiou et al. | A recurrent neural fuzzy network | |
Barreto et al. | Nonstationary time series prediction using local models based on competitive neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6784357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |