JP6784357B2 - 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム - Google Patents

人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム Download PDF

Info

Publication number
JP6784357B2
JP6784357B2 JP2017212246A JP2017212246A JP6784357B2 JP 6784357 B2 JP6784357 B2 JP 6784357B2 JP 2017212246 A JP2017212246 A JP 2017212246A JP 2017212246 A JP2017212246 A JP 2017212246A JP 6784357 B2 JP6784357 B2 JP 6784357B2
Authority
JP
Japan
Prior art keywords
probability
layer
artificial intelligence
deep learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017212246A
Other languages
English (en)
Other versions
JP2018081684A (ja
Inventor
澤蒼 顧
澤蒼 顧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2018081684A publication Critical patent/JP2018081684A/ja
Application granted granted Critical
Publication of JP6784357B2 publication Critical patent/JP6784357B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Fuzzy Systems (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理の分野に属し、特に人工知能超深層学習モデルを構築する方法である、また、人工知能超深層学習装置、人工知能超深層学習モデルを搭載する汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラムである。
近年、世界範囲で、人工知能がホットな話題になった、人工知能の関連特許も注目されている。ここで、日本の大手会社の古河電気工業株式会社により「画像処理方法および画像処理装置」[特許文献1]という特許出願を提出した、この出願はエッジ画像を抽出するしきい値に対し、人工知能のニューラルネットワークアルゴリズムを用いて、選択することにより高精度のエッジ画像を得ることが可能になった。
自動運転分野への応用では、日本の大手会社のトヨタは、「運転指向推定装置」[特許文献2]という出願を提出した。この出願は、交通事故の発生を避けるために、逆転送ニューラルネットワークの機械学習アルゴリズムの人工知能を介して、運転者が反映されていない場合であっても、不測の事態を防ぐために、自動的に運転状態を選択することができる自動車の制御方法を提案している。
特開2013−109762号公報 特開2008−225923号公報
[特許文献1]および[特許文献2]では、すべて人工知能の従来のニューラルネットワークアルゴリズムを採用しているが、従来のニューラルネットワークの重み値W、及びしきい値Tを選ぶ時に、最適解を取得するため、すべての可能性を組み合わせる必要がある、その組み合わせの総数は、P×(W×T)になる、ここで、Pを、従来のニューラルネットワークの層の数とし、nを層毎の接点の数とする。
上式のようなに、膨大な組み合わせの数により、計算複雑度はO(n)になり、NP完全の問題になるため、現在の計算機を用いて計算の結果を得られることは不可能に近いことを分かった。
さらに、従来のニューラルネットワークモデルの重み値W、及びしきい値Tの定義方法は従来の数学しか使っていないため、結果的に脳のトリガー信号の原理とまったく異なっている。人間の脳の神経は従来のニューラルネットワークモデルとまったく別のメカニズムを判明した。
また、実際の目的関数は元々確率の問題に属することは多かったので、従来のニューラルネットワークモデルは関数の写像しかできない、そのため、大量学習データに依存する必要がある。確率問題を解決することが困難である。特に重み値W、及びしきい値Tを選ぶ時に最適解を得ないので、ブラックボックス問題を残している。
現在注目されている深層学習モデルは従来のニューラルネットワークモデルを基礎として、隠れ層の数を数百以上増やして行くことにより、処理の能力が深くなることを考えているが、隠れ層の数と処理の能力との間の関係があることを理論的に証明できない、そのため、このような構成により計算の複雑度がもっと高くならざるを得ない。
以上述べたように深層学習モデルに対して、工業的に広く応用することを期待できない。
本発明の第一の目的は、人間の脳のトリガーの機能を重点に置いて、脳の機能を再現することができる新しいニューラルネットワークモデルを提出すること。
人間の脳神経は神経にトリガーされた時に、ニューラルのしきい値の役割を一致する可能な新しいニューラルネットワークモデルを正確的に構築する方法を発見すること。
また、機械学習の能力が無限的に深くに行くことができるし、計算複雑度が変わらず新しいニューラルネットワークモデルを提出すること。
本発明の第二の目的は、実際の工業化への応用するために、低い計算複雑度、高効率、従来の深層学習モデルより根本的に一層進化した新しい人工知能モデルを見つける。
前記課題を解決するために、請求1に係れる発明は、人工知能超深層学習モデルの構築方法であって、
複数の入力情報を、第1の無教師機械学習により学習してから各々最大確率の特徴値として、入力層の各ノードに入力すること;
入力層の各ノードに対応した複数回で入力し学習された最大確率の特徴値を第2の無教師機械学習により学習してから、それぞれの最大確率の特徴 値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力する
出力層、即ち脳皮層は、前記すべての隠れ層、即ち神経層の出力最大確率尺度により、興奮レベルを決める確率尺度に基づいた自己組織アルゴリズムを備えることを特徴とする人工知能超深層学習モデルの構築方法である。
前記、無教師機械学習とは、確率尺度、若しくはファジィ事象確率測度に基づいて、繰返して処理することにより、新しい確率尺度、或はファジィ事象確率測度、或は最大確率の特徴値を得る確率尺度に基づいた自己組織アルゴリズムを特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法である。
前記、確率尺度とは、確率分布に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大確率分布を計ることができる値である。
前記、ファジィ事象確率測度とは、確率情報と、曖昧な情報に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大ファジィ事象確率測度を計ることができる値である。
前記、確率尺度或はファジィ事象確率測度を、超深層学習モデルにおいて、脳神経のトリガーのしきい値とする。
前記課題を解決するために、請求6に係れる発明は、人工知能超深層学習モデルの装置であって
複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴として、入力層の各ノードに入力するモジュール
さらに、入力層の各ノードに対応した複数回で入力し学習された最大確率特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力するモジュール
出力層、即ち脳皮層は、隠れ層、即ち神経層からトリガーされた神経信号の数によって、脳の興奮の程度を決定し、最終の結果を決める確率尺度に基づいた自己組織アルゴリズムを搭載したモジュールを備えることを特徴とする人工知能超深層学習装置である。
前記課題を解決するために、請求7に係れる発明は、入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続することと;
入力情報から無教師機械学習により最大確率の特徴情報を抽出し、入力層に入力する
前記の無教師機械学習により学習してから、それぞれ最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが搭載された汎用モバイル端末を備えることを特徴とする人工知能超深層学習モデルが搭載された汎用モバイル端末装置である。
前記課題を解決するために、請求8に係れる発明は、入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続すること
前記の無教師機械学習により、最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくでも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
前記のアルゴリズムが作成されるプログラムを備えることを特徴とする人工知能超深層学習モデルのプログラムである。
本発明は超深層学習では、人工知能の新しい超新層学習モデルの構成の方法を提出した、この方法は、脳神経のメカニズムのシミュレーションを達成することを重点おいて機械学習アルゴリズムを構成する。このようなアルゴリズムを用いて、確率分布による複雑系の問題に対処できる。
新しい「超深層学習」の計算複雑度はO(n)であり、通常の無線端末に適用することができ、学習プロセスの目標は明確で、処理効率は高い、特に、ハードウェア回路を実装しやすい、人工知能の機械学習チップを構成することができる。自己組織された確率尺度を脳神経のトリガーのしきい値として、処理した結果は、実際の脳神経のメカニズムに非常に近い、そして、ランダム的な目的関数向けパターン認識を対象とした複雑系の問題に対して、対処することができ、新しいニューラルネットワークの理論には画期的なものである。
以下に説明する通り、本発明の実施形態について、添付の図面を参照して、さらに詳細に説明するが、本発明の実施形態は例示的なものであり、限定的ではない。
図1は、人工知能超深層学習モデルの構成図である。
図1に示すように、隠れ層、即ち神経層のノード数h(h=1,2,…,k)とし、学習の回数をz(z=1,2,…,w)とし、また、学習される画像をF(z=1,2,…,w)とする。
一回目の学習を行う時に、入力情報を無教師機械学習により学習してから、入力層のノードに入力する、そこで、無教師機械学習ML phに対し、入力層p=1のために、ML 1hとすると、
Figure 0006784357
したがって、学習段階で毎回の無教師機械学習により学習する計算の複雑度は線形的であるので、w回に学習する計算の複雑度はO(n)になる。
次、各層のノードN phを定義する、入力層p=1になると、入力層ノードをN 1hとする。
Figure 0006784357
同様に、2番目の学習を行う時に、入力層のノードと隠れ層、即ち神経層のノードの間で、接続された無教師機械学習により学習する必要もある、ここで、P=2、無教師機械学習をML2hとする。
Figure 0006784357
同様に、隠れ層、即ち神経層のノードにはp=2、隠れ層、即ち神経層のノードをN2hとする。
Figure 0006784357
同じに、出力層、即ち脳皮層p=3であり、1つのノードしかないので、即ち出力層(脳皮層)のノードをN31とする。
次に、識別ステップについて、識別される画像Fの特徴情報を抽出する必要がある無教師機械学習を、ML phに対し、入力層p=1になるので、ML 1hとする。
Figure 0006784357
同様に、識別される画像Fの特徴情報は、入力層のノードに対応するデータは1個だけので、入力層のノードをN 1hとする。
Figure 0006784357
識別ステップを行う場合に、画像Fの情報に対して、無教師機械学習ML 1hにより、学習したデータを直接に、入力層と隠れ層、即ち神経層との間で、接続される無教師機械学習ML2hに入力することである。
ここで、画像認識の方法を例として説明するが、図1に示すように、学習ステップでは、Fを学習される対象の画像とし、対象の画像Fをn*m画素の1つの画像として分割する、ここで、分割されたk個のh番目の分割画像をI∈p ij(i=1,2,…,n,j=1,2,…,m,h=1,2,…,k)とし、分割画像に属する画素をp ijとすると、1つの分割画像I∈p ijの各画素p ijが、それぞれ1つの無教師機械学習ML 1hの入力側に入力され、分割画像I∈p ijの各画素から1つの最大確率の特徴値が、無教師機械学習の学習により抽出された。このような処理を繰り替えて、対象の画像Fのすべての分割画像I∈p ijから、対象の画像Fの最大確率の特徴ベクトルを抽出することが可能になった。
上記の処理仕方に基づいて、z(z=1,2,…,w)番目の画像Fのh(h=1,2,…,k)番目の画像I∈p ijのg個の画素p ijのグレー値を第一回の無教師機械学習ML 1hに入力すると、得られた学習の結果L 1hを、最初の入力層のh番目のノードN 1h,に送られ、学習されたz番目の画像Fのk個領域に対してk×z個無教師機械学習ML 1hによって学習した後の結果は、第1入力層のk個のノードに入力され、w回の異なる作成環境について得られた学習画像F(z=1,2,…,w)は、無教師機械学習により学習したw×k個の入力層のデータL 1h(h=1,2,…,k,z=1,2,…,w)即ち、
Figure 0006784357
z番目の入力層の各ノードN 1hに対応されたそれぞれ特徴値L 11,L 12,…,L 1k,(z=1,2,…,w)を、第2の無教師機械学習ML2hにより、学習すると、学習値L21,L22,…,L2kを得た、また、それぞれの最大確率尺度、若しくは最大ファジィ事象確率測度も得られた、最大確率尺度、若しくは最大ファジィ事象確率測度を脳神経のトリガーのしきい値T2h(h=1,2,…,k)とする、上述のすべての結果は、データベースとして登録される。
認識ステップでは、認識される画像Fのh(h=1,2,…,k)領域のg個画素を、無教師機械学習ML 1hに入力すると、学習を行ったサンプリングの学習値L 1hをk個のノードN 2h(h=1,2,…,k)に送信する、認識される画像Fのサンプリングの学習値L 1hと、データベースに登録された学習値L2h値、脳神経のトリガーのしきい値T2hを用いて計算することによって、
Figure 0006784357
隠れ層、即ち神経層のh(h=1,2,…,k)番目のノードN2hがトリガーされ、それ以外の場合に
Figure 0006784357
信号が出力されません。
その出力層、即ち脳皮層は、隠れ層、即ち神経層からトリガーされた神経信号の数によって、脳の興奮の程度を決定し、ニューロンの興奮の程度に応じて、すなわち、隠れ層、即ち神経層の各ノードの出力「1」の数により、認識される画像Fが、学習された画像に属する度合いを決定することによって、脳の意思決定の効果を果たすことができる。
また、識別の際に、識別画像の認識に対した複数の識別の結果に基づいて、隠れ層、即ち神経層の各ノードの出力が「1」である確率を計算することにより、識別のパラメータを自動的に補正することにより、自己学習の効果を果たすことができる。
ここで、識別のパラメータを補正するアルゴリズムには、2つの方法があり、1つ方法は隠れ層、即ち神経層の各ノードの出力″1″の確率を計算すると、隠れ層、即ち神経層の各ノードの出力基準値にそのノードの確率値を掛ける、隠れ層、即ち神経層の各ノードが「1」を出力する確率をP(h=1,2,…,k)とし、隠れ層、即ち神経層各ノードの補正後の出力基準値をNV(h=1,2,…,k)とすると、認識される画像Fが、学習値L2hに該当される画像に属する出力層、即ち脳皮層の興奮値XVを
Figure 0006784357
と定義することができる。
もう一つの方法は、識別された画像を学習データとして隠れ層、即ち神経層に再入力し、再学習して新しい学習結果を得ることである。
上述のように無教師機械学習により接続されたノード間で学習する方法ではない場合に、統計学のアルゴリズムを用いても良い、例えば平均値や分散値などの統計学的いろんな計算により、また、他の機械学習により、前記と同様な超深層学習モデルを構成することになると、本発明の範囲に属することである。
図2は、実際の人工知能超深層学習モデルの概略図である。
前記、画像を学習する時に、w回の画像を読取ることにより、F画像集合を得る。F∈F(z=1,2,…,w)画像に対し、ML1h(h=1,2,…,k)のk個の無教師機械学習を用いて、w回により学習した結果,L 1h,L 1h,…,L 1h,(h=1,2,…,k)を入力層Pの各ノードN1h(h=1,2,…,k)に一回ずつで送る、入力層のw回の学習結果をさらに無教師機械学習ML2h(h=1,2,…,k)送る、無教師機械学習ML2h(h=1,2,…,k)を用いて、学習値と脳神経のトリガーのしきい値(L2h、T2h)(h=1,2,…,k)が生成される。
図2に示すように、学習ステップでは、F画像に対して、F(z=1,2,…,w)画像をそれぞれw回で、k個の無教師機械学習ML1h(h=1,2,…,k)に入力し、学習データL 1h(h=1,2,…,k,z=1,2,…,w)が得られたことである。W回により学習した結果L1h,(h=1,2,…,k)を入力層の各ノードN1h(h=1,2,…,k)にそれぞれに送る。
入力層のh個ノードN1hによって得られたw個のデータL1h(h=1,2,…,k)をさらに無教師機械学習ML2h(h=1,2,…,k)により学習する、その結果は、k個の新しいニューラルネットワーク学習値および脳神経のトリガーのしきい値(L2h,T2h)(h=1,2,…,k)が得られる。
認識ステップでは、上述と同じように、認識される画像FをML1h(h=1,2,…,k)のk個の無教師機械学習に入力し、学習すると、サンプリングの学習値L 1h(h=1,2,…,k)を得る、同様に入力層Pの各ノードN1h(h=1,2,…,K)に送る、入力層と隠れ層、即ち神経層の間で接続された無教師機械学習ML2h(h=1,2,…,k)を通じて、隠れ層、即ち神経層の出力基準値を算出する、もし|L 1h
Figure 0006784357
ば、|L 1h−L2h|>T2h→″0″となると、神経信号がない。
出力層、即ち脳皮層は上述と同じのようになる、隠れ層、即ち神経層により出力した「1」の数に基づいて、脳の興奮レベルを決める、ニューラルの興奮の度合いにより、隠れ層、即ち神経層の出力した「1」の数に基づいて、識別される画像が学習したF画像に属する度合いになる、これを脳神経の意思決定の効果と言える。
また、上記の超深層学習は、処理能力や処理精度が高くなるために、まず、対象の画像Fに対して分割された画像I∈p ij(i=1,2,…,n,j=1,2,…,m,h=1,2,…,k)の数を増加すること、分割された画像数が多ければ多いほど、画像認識の精度が高くなる、または、対象の画像Fに対して、元の画像から、幾何学的モデル、または物理的モデルを用いて、画像の写像を行う時に、画像の写像の数を増加すること、画像の写像の数が多ければ多いほど、同様に画像認識の精度が高くなる、この二つのやり方により、入力層、隠れ層、即ち神経層のノードの数と、機械学習の数とを増加するたけ、計算複雑度が変わらない。上述のように本発明の超深層学習モデルは処理能力と精度が無限に深くなることを、理論的に証明できる。
図3は、音声認識向けの超深層学習のモデルの構成図である。
図3に示すように、学習ステップでは、各音声信号V(z=1,2,…,w)に対し、高速フーリエ変換FFTによってz(z=1,2,…,w)個の音声信号のスペクトルのデータを変換することができる、隣接する各x個のスペクトルの値を1つの特徴値とすると、h=y/xとすると、h(h=1,2,…,k)個の入力層の特徴値を得る、また、x個毎のスペクトルを、それぞれの無教師機械学習ML 11に入力し、k個の無教師機械学習により、L 1h(h=1,2,…,k,z=1,2,…,w)個特徴値が得られる後、それぞれ入力層の各ノードN 1h(h=1,2,…,k,z=1,2,…,w)に送る。
無教師機械学習ML 11により算出したw個の入力層の第1のノードN 11の特徴値L 11(z=1,2,…,w)は、入力層と隠れ層、即ち神経層の間で接続される無教師機械学習ML21の入力側に送られ、同様にML 12により算出したw個の入力層の第2のノードN 12の特徴値L 12(z=1,2,…,w)は、ML22の入力側に送られ、それによって、ML 1kにより算出したw個の入力層の第kのノードN 1kの特徴値L 1k(z=1,2,…,w)は、ML2kの入力側に送られると、入力層と隠れ層、即ち神経層の間で接続されるk個の無教師機械学習ML2kによってk個の学習値L2h、及びk個の脳神経のトリガーのしきい値T2h即ち(L2h,T2h)(h=1,2,…,k)を算出することができる、その結果を、データベースに記憶する。
認識ステップでは、識別される音声Vは、上述の学習状態と同じように、高速フーリエ変換FFTによってVの音声信号のスペクトルのデータを変換し、隣接する各x個のスペクトルの値を1つの特徴値とすると、h=y/x、h(h=1,2,…,k)個の入力層の情報を得る、また、x個毎のスペクトルを、それぞれの無教師機械学習ML 1hに入力し、k個無教師機械学習により、L 1h(h=1,2,…,k)個特徴値が得られる後、それぞれ入力層の各ノードN 1h(h=1,2,…,k,z=1,2,…,w)に送る。
無教師機械学習ML 1hにより算出した入力層のk個のノードN 11のサンプリングの学習値L 1h(h=1,2,…,k)は、入力層と隠れ層、即ち神経層の間で接続される無教師機械学習ML2h(h=1,2,…,k)の入力側に送られ、上記の登録された音声認識の学習値と脳神経のトリガーのしきい値(L2h,T2h)(h=1,2,…,k)を用いて、隠れ層、即ち神経層が「1」、或は「0」を出力する判定の基準を計
Figure 0006784357
る、そうではなければ、|L 1h−L2h|>T2h→″0″となると、神経信号がない。
同様に、隠れ層、即ち神経層により出力した「1」の数に基づいて、脳の興奮レベルを決める、ニューラルの興奮の度合いにより、即ち隠れ層(神経層)の出力した「1」の数に基づいて、識別される音声が学習したV音声に属する度合いになる、これは音声認識に向け脳の意思決定の効果と言い過ぎない。
上述と同じように、識別の際に、識別される音声の認識に対した複数の識別の結果に基づいて、隠れ層、即ち神経層の各ノードの出力が「1」である確率を計算することにより、識別のパラメータを自動的に補正することにより、自己学習の効果を果たすことができる。
図4は、音声認識向けの超深層学習のモデル構造の概略図である。
図3と同じように、実際の音声認識向けの超深層学習のモデル構造が図4に示しているようになる、音声認識の学習のステップでは、w回の音声データV(z=1,2,…,w)に対し、高速フーリエ変換FFTによって音声信号のスペクトルのデータs(e=1,2,…,y)を変換することができる、隣接しているx個のスペクトルのデータを1つのスペクトル値とすると、k=y/xになる、k個の入力層の特徴値を得る、また、h番目の特徴情報のx個のスペクトルを、それぞれの無教師機械学習ML1hに入力し、k個無教師機械学習により、L 1h(h=1,2,…,k,z=1,2,…,w)個の特徴値が得られる、それぞれ入力層の各ノードN1h(h=1,2,…,k,z=1,2,…,w)に送る。
入力層のk個のノードN1h(h=1,2,…,k)に、入力した無教師機械学習ML11によりw回で算出した特徴値L 1h,L 1h,…,L 1h,(h=1,2,…,k)は、w回としてそれぞれ入力層と隠れ層、即ち神経層の間で接続された無教師機械学習ML2h(h=1,2,…,k)の入力側に送られ、k個の学習値L2h、及びk個の脳神経のトリガーのしきい値T2h即ち(L2h,T2h)(h=1,2,…,k)を算出することができる、その結果を、音声認識の学習値と脳神経のトリガーのしきい値としてデータベースに記憶されている。
認識ステップでは、識別される音声Vは、上述の学習状態と同じように、高速フーリエ変換FFTによって音声データVのスペクトルのデータを変換し、隣接している各x個のスペクトルの値を1つの特徴データとすると、k=y/x個の入力層の情報を得る、また、h番目の特徴データのx個のスペクトルを、それぞれの無教師機械学習ML1h(h=1,2,…,k)に入力し、k個無教師機械学習により、L 1h(h=1,2,…,k)個サンプリングの学習値が得られる後、それぞれ入力層の各ノードN1h(h=1,2,…,k)に送る。
無教師機械学習ML1hにより算出した入力層のk個のノードN11のサンプリングの特徴値L 1h(h=1,2,…,k)は、入力層と隠れ層、即ち神経層の間で接続される無教師機械学習ML2h(h=1,2,…,k)の入力側に送られ、上記の登録された音声認識の学習値と脳神経のトリガーのしきい値(L2h,T2h)(h=1,2,…,k)を用いて、隠れ層、即ち神経層が「1」、或は「0」を出力する判定の基準を算
Figure 0006784357
る、そうではなければ、|L 1h−L2h|>T2h→″0″となると、隠れ層(神経層)が“0”を出力する。
同様に、隠れ層、即ち神経層により出力した「1」の数に基づいて、脳の興奮レベルを決める、ニューラルの興奮の度合いにより、即ち隠れ層(神経層)の出力した「1」の数に基づいて、識別される音声が学習したV音声に属する度合いになる、これは音声認識に向け脳の意思決定の効果を得た。
音声認識の精度を向上させるためには、音声信号の内容と発音の状態に応じて、音声信号を分割し、分割した各々音声情報を、それぞれスペクトル分析を行う、また、分割した音声情報の間での状態遷移の確率値を学習内容として、無教師機械学習を使って、態遷移の確率情報を学習する。音声認識する時に、いくつかの音声状態の組み合わせに応じて音声認識の精度を向上させ、音声内容を判定し、音声状態遷移の確率を考慮することができる。
前記に述べた認識画像は、超深層学習の処理を行うことであるが、このような処理方法だけでなく、画像や音声をそれぞれの複数な空間に写像してから、次のように、超深層学習方法によって処理することも可能である。
次に、空間写像の方法について説明する。従来のシステムは直接に解決することが可能できるが、顔認識、画像認識や文字認識のような複雑系の問題は、普段に直接に解決することが難しい場合が多かった。複雑系の問題に対応することができる1つの有効な手法は、空間写像の理論である。空間写像の理論は、人工知能の理論に含まれ、複雑系の問題に対応するため、ファジィ数学に基づく、複雑系の空間を幾つかのシンプルな空間に写像する、幾つかのシンプルな空間ごとに対し、より簡単な問題しか解決できないが、組み合わせにより、複数な空間からシンプルな空間に写像することにより、シンプルな問題を別々解決することによって、複雑系の問題を解決することができる1つの発想である。
ここで、空間写像理論の1つの重要なポイントは、複雑系の空間からシンプルな空間へ写像する方法は、人間の脳の考えることによって写像モデルを決める、この方法を「人間の介入」と言う。従来の数学はもともと硬い、人間介入しにくい欠点があるが、ファジィ数学が使い易い、人間が目的関数を理解する上に、幾つか観点からファジィ数学のメンバーシップ関数を用いて定式し、複雑系の問題を解決することができる。ここで、このようなアルゴリズムは、人間の介入に基づいて、ファジィ数学の定式を作成し、複雑系の問題を解決することができるので、人工知能の理論の範囲に属することと言い過ぎない。
本発明の人工知能超深度学習モデルを用いた無教師機械学習について、次のように詳細に説明する、無教師機械学習が、新しいニューラルネットワークの入力層と隠れ層、即ち神経層の間で、互いに対応されている各ノードに接続されている、無教師機械学習を、確率尺度に基づいた自己組織アルゴリズムとする。このような新しいニューラルネットワークを構成することは、画期的な人工知能モデルと言える、次に無教師機械学習に関する自己組織アルゴリズムを紹介する。
確率分布を持つ要素g、g,…,gζの集合をG∈g(f=1,2,…,ζ)とし、その集合Gの中心値をA(G)とし、また、中心値A(G)に対する確率尺度をM[G,A(G)]とすると、自己組織の繰り返す計算によって算出した第n−1回の中心値A(G(n−1))とし、また、中心値A(G(n−1))に対する確率尺度M[G(n−1),A(G(n−1))]の範囲で、もし、含まれた要素g、g,…,gの集合G(n)∈g(f=1,2,…,k)を存在していると、自己組織アルゴリズムは次のようになる。
Figure 0006784357
上記の公式11によって、繰り返す計算によって最終に算出された中心値と確率尺度は、確率分布を持つ要素g、g,…,gζから、確率分布の母体に最も近い推定値と言える、また、統計学の精度に超えた確率分布のパラメータと言える。実際応用時に算出された中心値を、確率分布を持つ要素の集合G∈g(f=1,2,…,ζ)に対して1つの最大確率の特徴値とする、また、算出された確率尺度を、確率分布を持つ要素の集合G∈g(f=1,2,…,ζ)に対して、最大確率分布になる新しい要素の集合G’∈g(f=1,2,…,δ)の判断基準とする、また、算出された確率尺度を脳神経のトリガーのしきい値とする。このような特徴をもっているので、本発明により提出した超深層学習モデルは脳の機能に一番近いモデルと言える。
図5は、確率尺度に基づいた自己組織の処理流れ図である。
図5に示すように、与えられた確率分布を持つ要素g、g,…,gζの集合をG∈g(f=1,2,…,ζ)とすると、確率尺度に基づいた自己組織アルゴリズムは次のような4つのステップになる。
ステップ1:前処理ステップであり、M(0)を初期確率尺度、A(0)を自己組織の初期中心値、Vを自己組織値の収束値、MNを自己組織の最大処理回数とする、また、自己組織処理回数の初期値をn=0とする。
初期確率尺度M(0)を決定する方法については、厳密に設定する必要はない。人間的に適当で決めてもいい、初期確率尺度M(0)の値は、最終の確率尺度の範囲にとって、少なくとも一部データが、初期化確率尺度M(0)の中に含まれる必要がある、初期確率尺度M(0)が大きければ大きいほど、計算時間が長くなり、逆に小さいすぎになると、正しい結果を得ることができない可能性がある。
収束値Vの設定方法は、収束値Vが大きいほど、自己組織の処理結果の精度が低くなる、逆に収束値Vが小さいほど、計算時間が長くなる。正しい設定方法は、最終自己組織確率尺度の約10%程度である。
自己組織の最大処理回数MNの設定方法は、一般に5〜10回十分である。
ステップ2:自己組織ステップであり、n回で自己組織処理をすると、自己組織中心値としてのA(n)、半径としての確率尺度M(n)に基づいて、含まれた全ての集合要素g(f=1,2,…,ζ)に対し、新しい中心値V(n+1)と分散値S(n+1)を算出する、また、V(n+1)=A(n+1)、S(n+1)=M(n+1)、n=n+1とする。
Figure 0006784357
Figure 0006784357
ステップ3:自己組織判別ステップであり、 (n≧MN)または自己組織処理収束(|M(n)−M(n+1)|≦V)であれば、次の自己組織処理は終了し、自己組織処理終了ステップ4にジャンプする。NOの場合は、ステップ2にジャンプして自己組織処理を継続する。
ステップ4:自己組織化処理の終了。
確率尺度M(n)は、複数の属性を有する確率統計のパラメータである。例えば、正規分布、指数分布、Irral分布、ウェーバー分布、三角分布、ベータ分布など。例えば、確率尺度M(n)は、正規分布の分散値として使用することができる。
確率尺度の自己組織アルゴリズムは、1つの無教師機械学習として人工知能の分野で広く応用することが可能になる。また、従来の統計の基本定数に対して画期的に超越し、基本定数に密接に関連する相関分析や、回帰分析などもブレークスルーにつながり、新しい統計アルゴリズムが生成される。人工知能の機械学習理論によって新しい統計的関連理論を形成することを予想している。
機械学習の中で尺度の問題については、確率尺度に基づいて自己組織のアルゴリズムはなぜ画期的に超越する成果を達成することができるか、その要因は確率尺度と自己組織アルゴリズムを導入することである。
次に、ファジィ事象確率測度を述べる。
まずファジィ事象確率測度の定義:関数f(x)がファジィ空間の集合で独立して計算可能であると仮定する、F(x)とp(x)は上記のファジィ測度と確率測度との条件を満たすと、ファジィ事象確率尺度Mfpは次のとおりです。
Figure 0006784357
[数14]の物理的意味は、複雑系の問題を解決する場合に、多数のわずかなファジィ情報とわずかな確率情報を、それらの測度の性質を利用することにより、積分することによって安定した価値の高い情報値を得ることが可能であるということである。ファジィ事象確率測度を自己組織の尺度とすることにより、複雑系の問題を解決する予期せぬ効果を得ることができる。
図6は、超深層学習を導入した株予測プラットフォームの概略図である。
図6に示すように、複数の角度から株を予測するため、まず予測に関連する社会学的情報Fに属する要素をf (n=1,2,…,y)とし、ファジィ数学のメンバーシップ関数を用いて人間介入を行うと、各要素fにx個データが存在し、k=y/xをすると、k個の入力層情報がある。H番目の入力情報のx個のデータを無教師学習M 1h(h=1,2,…,k)に入力して、学習させ、k個の社会学に関連する学習値L 11,L 12,…,L 1kを得る。
同様な方法で、株予測に関連する経済学情報Fに属する要素をf (n=1,2,…,y)とし、各x個のデータ毎を無教師学習M 1h(h=1,2,…,k)に入力して、学習させ、k個の経済学に関連する学習値L 11,L 12,…,L 1kを得る。
また、予測に関連する歴史学情報Fに属する要素をf (n=1,2,…,y)とし、各x個のデータ毎を無教師学習M 1h(h=1,2,…,k)に入力して、学習させると、k個の歴史学に関連する学習値L 11,L 12,…,L 1kを得る。
上記のようにw×h個の無教師機械学習ML 1h(h=1,2,…,k,z=1,2,…,w)により、学習を行うと、w×h個の学習値L 1h(h=1,2,…,k,z=1,2,…,w)が得られる、これらのデータをそれぞれ入力層のP(z=1,2,…,w)の各々のノードN 1h(h=1,2,…,k,z=1,2,…,w)に送る。
入力層のP(z=1,2,…,w)の各々のノードN 1h(h=1,2,…,k,z=1,2,…,w)に入力された学習データL 1h,L 1h,…,L 1h(h=1,2,…,k)に対し、さらに、無教師機械学習ML21,ML22,…,ML2kを用いて、学習すると、k個の学習値L21,L22,…,L2k及びk個の脳神経のトリガーのしきい値T21,T22,…,T2kが得られる、各学習値を、該当された株予測の関連情報により生成された予測値とする、最終意思決定するため、予測値と脳神経のトリガーのしきい値を、隠れ層、即ち神経層の各ノードを通じて出力層、即ち脳皮層に送る、出力層、即ち脳皮層では、すべての関連情報の予測値L21,L22,…,L2kによって、予測範囲を計算する、そして、この予測範囲で自己テストを行う。
自己テストする方法は、出力層、即ち脳皮層は、自己テスト値TV(i=1,2,…,r)を与え、rは自己テストの数であり、TVは隠れ層、即ち神経層の各々のノードに送られる、隠れ層、即ち神経層の各々のノード上に|TV−L2z|(i=1,2,…,r,Z=1,2,…,w、)を算出すると、上記と同じ、隠れ層、即ち神経層の興奮の度合いに基づいて、出力層、即ち脳皮層は最大興奮自己テスト値を見つける、この自己テスト値を最終的な予測値として出力する。
予測が失敗した場合に、出力層、即ち脳皮層は実際の株データを使用して、ファジィパラメータによって設定されたさまざまなファクタを評価することができ。ファジィパラメータを自動的または手動で調整して、予測エフェクトの最高精度を実現でき。
纏めて言うと、人工知能超深層学習の株予測の方法は、その特徴が予測に関連するすべての情報、または数学的予測モデルの計算結果を、無教教師機械学習の処理による、その結果を超深度学習の入力層の各ノードに送る、さらに、入力層の各ノード情報から、無教教師機械学習によって予測値と脳神経のトリガーのしきい値が算出され、出力層、即ち脳皮層に送る、出力層、即ち脳皮層は予測値に応じて予測範囲を生成し、自己テスト値を選ぶ、また、隠れ層、即ち神経層の各ノードに送る、隠れ層、即ち神経層の興奮の度合いに基づいて、出力層、即ち脳皮層は最大興奮自己テスト値を見つける、この自己テスト値を最終的な予測値として出力する。
上述により提出された人工知能超深層学習モデルは産業ロボットにとって高い精度の視覚認識、音声認識を応用することができる、特に本発明提出した無教師機械学習モデルは分散機械学習システムを構築する可能になったため、産業工作機械、自動車運転、などシステムの各々部分に対して、それぞれ複数な無教師機械学習を混在しても可能であるので、従来の深層学習と比べる飛躍的に進化することができる。
人工知能超深層学習モデルの構成図 実際の人工知能超深層学習モデルの概略図 音声認識向けの超深層学習のモデルの構成図 音声認識向けの超深層学習のモデル構造の概略図 確率尺度に基づいた自己組織の処理流れ図 超深層学習を導入した株予測プラットフォームの概略図

Claims (8)

  1. 人工知能超深層学習モデルの構築方法であって、
    複数の入力情報を、第1の無教師機械学習により学習してから各々最大確率の特徴値として、入力層の各ノードに入力すること;
    入力層の各ノードに対応した複数回で入力し学習された最大確率の特徴値を第2の無教師機械学習により学習してから、それぞれの最大確率の特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力する
    出力層、即ち脳皮層は、前記すべての隠れ層、即ち神経層の出力最大確率尺度により、興奮レベルを決める確率尺度に基づいた自己組織アルゴリズムを備えることを特徴とする人工知能超深層学習モデルの構築方法。
  2. 前記、無教師機械学習とは、確率尺度、若しくはファジィ事象確率測度に基づいて、繰返して処理することにより、新しい確率尺度、或はファジィ事象確率測度、或は最大確率の特徴値を得る確率尺度に基づいた自己組織アルゴリズムを特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
  3. 前記、確率尺度とは、確率分布に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大確率分布を計ることができる値を特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
  4. 前記、ファジィ事象確率測度とは、確率情報と、曖昧な情報に属するデータにおいて必ず1つの尺度を備える、この尺度は、与えたデータの中で最大ファジィ事象確率測度を計ることができる値を特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
  5. 確率尺度、或はファジィ事象確率測度を、超深層学習モデルにおいて、脳の神経トリガーのしきい値とすることを特徴とする請求項1に記載の人工知能超深層学習モデルの構築方法。
  6. 人工知能超深層学習モデルの装置であって
    複数の入力情報を、第1の無教師機械学習により学習してから、各々最大確率の特徴として、入力層の各ノードに入力するモジュール
    さらに、入力層の各ノードに対応した複数回で入力し学習された最大確率特徴値を、第2の無教師機械学習により学習してから、それぞれの最大確率特徴値、最大確率尺度、最大ファジィ事象確率測度を含めて少なくとも一つの学習値を得てから、トリガーされた神経信号として、隠れ層の各ノードに出力するモジュール
    出力層、即ち脳皮層は、隠れ層、即ち神経層からトリガーされた神経信号の数によって、脳の興奮の程度を決定し、最終の結果を決める確率尺度に基づいた自己組織アルゴリズムを搭載したモジュールを備えることを特徴とする人工知能超深層学習装置。
  7. 入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続すること
    入力情報から無教師機械学習により最大確率の特徴情報を抽出し、入力層に入力する
    前記の無教師機械学習により学習してから、それぞれ最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
    前記のアルゴリズムが搭載された汎用モバイル端末を備えることを特徴とする人工知能超深層学習モデルが搭載された汎用モバイル端末装置。
  8. 入力情報と入力層の各ノードとの間、入力層と隠れ層、即ち神経層との各ノードとの間で、それぞれ無教師機械学習モデルに搭載されたモジュールと相互に接続すること
    前記の無教師機械学習により、最大確率特徴値、確率尺度、或はファジィ事象確率測度を含む、少なくとも一つの解を求める確率尺度に基づいた自己組織アルゴリズムとすること;
    前記のアルゴリズムが作成されるプログラムを備えることを特徴とする人工知能超深層学習モデルのプログラム。
JP2017212246A 2016-11-14 2017-10-17 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム Expired - Fee Related JP6784357B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611034133.6A CN108073978A (zh) 2016-11-14 2016-11-14 一种人工智能超深度学习模型的构成方法
CN201611034133.6 2016-11-14

Publications (2)

Publication Number Publication Date
JP2018081684A JP2018081684A (ja) 2018-05-24
JP6784357B2 true JP6784357B2 (ja) 2020-11-11

Family

ID=62108533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017212246A Expired - Fee Related JP6784357B2 (ja) 2016-11-14 2017-10-17 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム

Country Status (3)

Country Link
US (1) US20180137409A1 (ja)
JP (1) JP6784357B2 (ja)
CN (1) CN108073978A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045422A (zh) * 2018-10-11 2020-04-21 顾泽苍 一种自动驾驶导入“机智获得”模型的控制方法
CN111046710A (zh) * 2018-10-11 2020-04-21 顾泽苍 一种导入sdl模型的图像抽出的方法
CN109460077B (zh) * 2018-11-19 2022-05-17 深圳博为教育科技有限公司 一种自动跟踪方法、自动跟踪设备及自动跟踪系统
CN110163269A (zh) * 2019-05-09 2019-08-23 北京迈格威科技有限公司 基于深度学习的模型生成方法、装置和计算机设备
CN114372627B (zh) * 2022-01-07 2024-06-07 中南大学 基于混合深度学习框架的城市车辆旅行时间估计方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3354593B2 (ja) * 1992-06-10 2002-12-09 日本政策投資銀行 ネットワーク型情報処理装置の学習システム
CA2199588A1 (en) * 1997-03-10 1998-09-10 Efrem Hoffman Hierarchical data matrix pattern recognition and identification system
JP4427132B2 (ja) * 1999-06-30 2010-03-03 グローリー株式会社 競合型ニューラルネットワークを用いた紙葉類の識別方法
EP1353295B1 (en) * 2000-12-12 2007-08-22 Consejo Superior De Investigaciones Cientificas Non-linear data mapping and dimensionality reduction system
US7398259B2 (en) * 2002-03-12 2008-07-08 Knowmtech, Llc Training of a physical neural network
CN104376280B (zh) * 2013-08-12 2017-09-05 天津市阿波罗信息技术有限公司 一种面向谷歌眼镜的图像代码生成方法
JP6107531B2 (ja) * 2013-08-15 2017-04-05 富士ゼロックス株式会社 特徴抽出プログラム及び情報処理装置
CN104852892B (zh) * 2014-02-18 2019-10-08 天津市阿波罗信息技术有限公司 一种新型物联网网站系统的自主登录方法
US11221990B2 (en) * 2015-04-03 2022-01-11 The Mitre Corporation Ultra-high compression of images based on deep learning
CN105404865A (zh) * 2015-11-16 2016-03-16 杭州电子科技大学 基于概率态受限玻尔兹曼机级联的人脸检测方法
CN105679316A (zh) * 2015-12-29 2016-06-15 深圳微服机器人科技有限公司 一种基于深度神经网络的语音关键词识别方法及装置

Also Published As

Publication number Publication date
US20180137409A1 (en) 2018-05-17
CN108073978A (zh) 2018-05-25
JP2018081684A (ja) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6784357B2 (ja) 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム
Qin et al. A dual-stage attention-based recurrent neural network for time series prediction
US11461654B2 (en) Multi-agent cooperation decision-making and training method
Lendasse et al. Non-linear financial time series forecasting-Application to the Bel 20 stock market index
Nowlan Maximum likelihood competitive learning
Razmjooy et al. A hybrid neural network Imperialist Competitive Algorithm for skin color segmentation
CN108445752B (zh) 一种自适应选择深度特征的随机权神经网络集成建模方法
CN106709820A (zh) 一种基于深度置信网络的电力系统负荷预测方法及装置
CN114155270A (zh) 行人轨迹预测方法、装置、设备及存储介质
Bodyanskiy et al. Self-learning cascade spiking neural network for fuzzy clustering based on group method of data handling
CN115376317B (zh) 一种基于动态图卷积和时序卷积网络的交通流预测方法
CN108062566A (zh) 一种基于多核潜在特征提取的智能集成软测量方法
CN112766603A (zh) 一种交通流量预测方法、系统、计算机设备及存储介质
CN111130909B (zh) 基于自适应储备池esn的网络流量预测方法
Lemos et al. Evolving intelligent systems: Methods, algorithms and applications
Wei et al. K-NN based neuro-fuzzy system for time series prediction
Li et al. Short-term traffic flow prediction based on recurrent neural network
CN110109005B (zh) 一种基于序贯测试的模拟电路故障测试方法
CN109862625B (zh) 一种基于深度学习的短波测向灵活组网方法
CN108073979A (zh) 一种导入人工智能超深度学习用于图像识别的方法
Jamsandekar et al. Self generated fuzzy membership function using ANN clustering technique
CN108073985A (zh) 一种导入人工智能超深度学习用于语音识别的方法
Lan et al. Pc-snn: Supervised learning with local hebbian synaptic plasticity based on predictive coding in spiking neural networks
Anastassiou et al. A recurrent neural fuzzy network
Barreto et al. Nonstationary time series prediction using local models based on competitive neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201009

R150 Certificate of patent or registration of utility model

Ref document number: 6784357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees