JPH0535710A - ニユーラルネツトワークの学習方法および学習装置 - Google Patents

ニユーラルネツトワークの学習方法および学習装置

Info

Publication number
JPH0535710A
JPH0535710A JP3215883A JP21588391A JPH0535710A JP H0535710 A JPH0535710 A JP H0535710A JP 3215883 A JP3215883 A JP 3215883A JP 21588391 A JP21588391 A JP 21588391A JP H0535710 A JPH0535710 A JP H0535710A
Authority
JP
Japan
Prior art keywords
learning
layer
category
neural network
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3215883A
Other languages
English (en)
Inventor
Sumio Watanabe
澄夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3215883A priority Critical patent/JPH0535710A/ja
Publication of JPH0535710A publication Critical patent/JPH0535710A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 複数のカテゴリについてのニューラルネット
ワークの学習を信頼性良く高速にかつ効率的に行なうこ
とが可能である。 【構成】 3層パーセプトロンを用いて対象がどのカテ
ゴリに属するかを識別させる際には、これに先立って、
識別対象のカテゴリに合わせた形で3層パーセプトロン
の学習がなされる。この場合に、各カテゴリのサンプル
データxi(j)であるN次元のベクトルに基づき、M
個のカテゴリを各々分離する(M−1)種類の超平面を
構成し、(M−1)種類の超平面を構成する(M−1)
種類の各パラメータを中間層P2の対応した(M−1)
個のユニットに割当てて入力層P1から中間層P2への学
習を行なう。即ち、入力層P1と中間層P2のユニット間
の結合の重みwn(i)と中間層P2の各ユニットのバイ
アス値bnの学習を行なう。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声認識,文字認識,
物体認識,ロボット制御,株価予測等の分野に利用され
るニューラルネットワークの学習方法および学習装置に
関する。
【0002】
【従来の技術】従来、ニューラルネットワークの分野に
おいては、その学習アルゴリズムとして、誤差逆伝播学
習(バックプロパゲーション学習)が知られている。
【0003】このバックプロパゲーションによる学習ア
ルゴリズムは、入力ベクトルに対して出力の誤まりを訂
正する方向にネットワークを構成するユニット間の結合
の重みを修正して学習を行なうものであり、この修正を
二乗誤差の評価関数に関する最急降下法により行なうよ
うになっている。すなわち、それぞれの入力ベクトルの
組に関する二乗誤差を求めると、この二乗誤差はユニッ
ト間の結合の重みの関数となっているので、結合の重み
を変数として二乗誤差の評価関数に関し最急降下法を行
なうことにより、各入力ベクトルに関して二乗誤差を最
も小さくするような方向へユニット間の結合の重みを修
正することができる。
【0004】さらに、従来ではこれを発展させた確率的
降下法の理論(以下では、これをも含めて最急降下法と
呼ぶ)も知られている。
【0005】
【発明が解決しようとする課題】しかしながら、バック
プロパゲーション学習では、出力層での誤差を出力層へ
の入力として、出力層から入力層の方向へ逆方向に伝播
させて学習がなされるので、必ずしも良い学習結果が得
られるとは限らず、またたとえ良い学習結果が得られる
場合でも、得られたネットワークの解釈が難かしく、ま
た学習に相当時間がかかるという問題があった。このた
め、入力データが複数のカテゴリのうちのどのカテゴリ
に属するかをニューラルネットワークを用いて実際に識
別させようとする場合、それに先立ってなされる複数の
カテゴリについてのニューラルネットワークの学習をバ
ックプロパゲーションによって行なうとしたときには、
学習を信頼性良く高速に行なうことはできず、さらに識
別したいカテゴリが後から増えた場合には、全ての学習
を最初からし直す必要があり、効率的でないという欠点
があった。
【0006】本発明は、複数のカテゴリについてのニュ
ーラルネットワークの学習を信頼性良く高速にかつ効率
的に行なうことの可能なニューラルネットワークの学習
方法および学習装置を提供することを目的としている。
【0007】
【課題を解決するための手段】上記目的を達成するため
に本発明のニューラルネットワークの学習方法は、入力
データが複数のカテゴリのうちのどのカテゴリに属する
かをニューラルネットワークを用いて識別するに際し
て、各カテゴリを分離する超平面を構成することによ
り、ニューラルネットワークの入力層から中間層への結
合の重みの決定を行ない、複数のカテゴリについてのニ
ューラルネットワークの学習を行なうようになっている
ことを特徴としている。
【0008】各カテゴリを分離する超平面を構成するに
際しては、先づ、各カテゴリの順番を各カテゴリの平均
ベクトルの位置関係によって決定し、次いで、決定され
た順番n(n≧1)に従い、第(n+1)番目のカテゴ
リを第n番目までのカテゴリから分離させるように超平
面を構成するようになっていることを特徴としている。
【0009】さらに、本発明では、各カテゴリを分離す
る超平面を構成することによってニューラルネットワー
クの入力層から中間層への結合の重みを決定した後、中
間層から出力層への結合の重みを最小二乗法によって決
定するようになっていることを特徴としている。
【0010】また、本発明のニューラルネットワークの
学習装置は、N個のユニットを有する入力層から(M−
1)個のユニットを有する中間層への学習を行なう第1
の学習手段と、(M−1)個のユニットを有する中間層
からM個のユニットを有する出力層への学習を行なう第
2の学習手段とを有し、前記第1の学習手段は、識別し
たいカテゴリの数がMであり、各カテゴリのサンプルデ
ータがN次元のベクトルであるときに、各カテゴリのサ
ンプルデータであるN次元のベクトルに基づき、M個の
カテゴリを各々分離する(M−1)種類の超平面を構成
し、(M−1)種類の超平面を規定する(M−1)種類
の各パラメータを中間層の対応した(M−1)個のユニ
ットに割当てて入力層から中間層への学習を行なうよう
になっていることを特徴としている。
【0011】
【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本発明の一実施例のブロック図である。
本実施例では、ニューラルネットワークが多層パーセプ
トロン型のネットワークNWとして構成されていると
し、与えられた入力データ(入力パターン)が望ましい
カテゴリ(種類)に識別されるようこのネットワークN
Wの学習を行なうようになっている。このため、本実施
例では、階層的なニューラルネットワークNWに対し
て、前段階,例えば初段の学習を行なう第1の学習手段
1と、後段階,例えば2段目以後の学習を行なう第2の
学習手段2とが設けられている。第1の学習手段1は、
各カテゴリごとのサンプルデータに基づき前段階の学習
を行なうようになっている。また、第2の学習手段2
は、例えば最小二乗法を用いて後段階以後の学習を行な
うようになっている。
【0012】いま、例えば図2に示すような3層パーセ
プトロンのニューラルネットワークNWを用いて音声,
画像,文字等の対象,すなわち入力データの識別を行な
うようとする場合を考える。この際、音声,画像,文字
等の対象はN次元ユークリッド空間R(N)に値をもつ
ベクトルであるとする。すなわち、音声,画像,文字等
のデータをユークリッド空間R(N)の元として取り扱
うものとする。また、識別したい種類,すなわちカテゴ
リの数をM個,第i番目のカテゴリのサンプル数をMi
個とし、第i番目のカテゴリの第j番目のサンプルデー
タをxi(j)と書くと、この場合には、図2の3層パ
ーセプトロンにおいて、入力層P1がN個のユニット、
中間層P2が(M−1)個のユニット、出力層P3がM個
のユニットからなるものとして構成する。
【0013】なお、図2において、wn(i)は入力層
1と中間層P2のユニット間の結合の重みであり、Bj
(n)は中間層P2と出力層P3のユニット間の結合の重
みを表わしており、bnは中間層P2の各ユニットのバイ
アス値、tjは出力層P3の各ユニットのバイアス値を表
わしている。
【0014】図2のような3層パーセプトロンを用いて
対象がどのカテゴリに属するかを識別させようとする際
には、これに先立って、識別対象のカテゴリに合わせた
形で3層パーセプトロンの学習が行なわれる。この場合
に、上記第1の学習手段1は、各カテゴリのサンプルデ
ータであるN次元のベクトルに基づき、M個のカテゴリ
を各々分離する(M−1)種類の超平面を構成し、(M
−1)種類の超平面を構成する(M−1)種類の各パラ
メータを中間層P2の対応した(M−1)個のユニット
に割当てて入力層P1から中間層P2への学習を行なうよ
うになっている。すなわち、入力層P1と中間層P2のユ
ニット間の結合の重みwn(i)と中間層P2の各ユニッ
トのバイアス値bnの学習を行なうようになっている。
【0015】次に、本実施例の学習処理について図3の
フローチャートを用いて説明する。なお、以下では、こ
の3層パーセプトロンにおいて、第1の学習手段1が入
力層P1から中間層P2への学習を行ない、第2の学習手
段2が中間層P2から出力層P3への学習を行なうものと
する。先づ、第1の学習手段1は、i番目のカテゴリに
属するサンプルデータxi(j)の平均値,すなわち平
均ベクトルxiを次式により計算する(ステップS
1)。
【0016】
【数1】
【0017】また、各カテゴリの平均ベクトルx(i)
を平均した全ベクトルxを次式のように計算する(ステ
ップS2)。
【0018】
【数2】
【0019】次いで、各カテゴリに対し、次のようにし
て順番iを新たに設定する。すなわち、平均ベクトルが
全ベクトルxに対して最も遠い位置にあるカテゴリを1
番目のカテゴリとし、平均ベクトルがn番目のカテゴリ
の平均ベクトルから最も近い位置にあるカテゴリを(n
+1)番目のカテゴリとして順番を設定し、カテゴリに
ついてのサフィックスiを上記の順番に入れ替える(ス
テップS3)。なお、ここで、平均ベクトル間の遠近
は、N次元のユークリッド空間におけるベクトル間のユ
ークリッド距離,すなわちノルムによって決定される。
【0020】このようにして、M個の各カテゴリについ
て順番を設定した後、入力層P1と中間層P2との間の学
習処理を行なう(ステップS4乃至S8)。すなわち、
順番カウンタnを“1”に初期設定し(ステップS
4)、xn+1を{x1,…,xn}と分離させる超平面fn
を作る(ステップS5)。なお、この際、{x1,…,
n}のうちでxn+1に最も近いxnと分離させるよう超
平面fnを作る。次いで、この超平面を規定するパラメ
ータwn(i),bnを中間層P2のn番目のユニットに
対する結合の重み,n番目のユニットのバイアス値とし
てそれぞれ割り当てる(ステップS6)。
【0021】しかる後、順番カウンタnを“1”だけ歩
進し(ステップS7)、ステップS6,S7の処理を同
様にして繰り返し行ない、nがMとなった時点で、すな
わち中間層P2の(M−1)個の全てのユニットに対し
て学習を行なった時点で(ステップS8)、入力層P1
と中間層P2との間の学習を終了する。
【0022】具体的には、先づ、1番目のカテゴリと2
番目のカテゴリとを分離する超平面f1を次式により構
成する。なお、以下では、w,xはベクトルを表わし、
w(i),x(i)はベクトルw,xのi番目の成分を
表わすものとする。
【0023】
【数3】
【0024】ここで、上記超平面fnを規定するパラメ
ータwn(i)は次式のように決定される。
【0025】
【数4】
【0026】また、パラメータb1は、次のようにして
決定される。すなわち、数4によって求まったw
1(i)(ベクトルw1)を用いて先づ、次式により分布
関数q(x)を定義する。
【0027】
【数5】g(x)=w1・x
【0028】そして、実数をとる2つの分布関数g(x
1(j)),g(x2(j))の平均E1,E2と標準偏差
σ1,σ2とを次式により計算する。
【0029】
【数6】
【0030】そこで、パラメータb1を次式のように決
める。
【0031】
【数7】 b1=−g〔(σ1・x2+σ2・x1)/(σ1+σ2)〕
【0032】パラメータw1を数4により決定し、また
パラメータb1を数7のように定めると、数3の超平面
(f1=0)は2つの平均ベクトルx1,x2を最も良く
分離するものとなる。さらに分離の度合いを表わす実数
Tを次式で定め、数3,数7により定めたパラメータw
1,b1をT倍して、これを最終的なパラメータw1,b1
とする。
【0033】
【数8】T=‖x1−x2‖/(σ1+σ2
【0034】このようにして、パラメータw1,b1が求
まると、図2に示すように、パラメータであるベクトル
1の各成分w1(i)(i=1〜N)を入力層P1のN
個の各ユニットから中間層P2の1番目のユニットへの
結合の重みw1(i)(i=1〜N)として割り当て、
また、パラメータb1を中間層P2の1番目のユニットの
バイアス値b1として割り当てる。
【0035】次いで、1番目,2番目のカテゴリと3番
目のカテゴリとを分離する超平面f2を数3と同様にし
て構成し、上述したと同様にして、超平面f2を規定す
るパラメータw2,b2を求めて、パラメータであるベク
トルw2の各成分w2(i)(i=1〜N)を入力層P1
のN個の各ユニットから中間層P2の2番目のユニット
への結合の重みw2(i)(i=1〜N)として割り当
て、またパラメータb2を中間層P2の2番目のユニット
のバイアス値b2として割り当てる。
【0036】以下同様の手順を帰納的に繰り返し、1番
目〜n番目のカテゴリと(n+1)番目のカテゴリとを
分離する超平面fnを構成し、パラメータwn,bnを求
め、パラメータwnを入力層P1のN個の各ユニットから
中間層P2のn番目のユニットへの結合の重みwn(i)
(i=1〜N)として割り当て、パラメータbnを中間
層P2のn番目のユニットのバイアス値bnとして割り当
てる。
【0037】そして、nが(M−1)となり、パラメー
タwM-1を入力層P1のN個のユニットから中間層P2
(M−1)番目へのユニットへの結合の重みwM-1(i
=1〜N)として割り当て、パラメータbM-1を中間層
2の(M−1)番目のユニットのバイアス値bM-1とし
て割り当てた時点で、入力層P1から中間層P2への学習
を終了する。
【0038】しかる後、第2の学習手段2は、中間層P
2から出力層P3への学習を行なう。この学習では、先
づ、i番目のカテゴリのサンプルデータxi(j)に対
する中間層P2での出力ベクトルfを求めておく。すな
わち、中間層P2での出力ベクトルfは、ステップS1
〜S8で学習のなされた入力層P1から中間層P2へのネ
ットワークにより、次式のようになる。
【0039】
【数9】f=sigmoid(w・xi(j)+bi
【0040】ここで、シグモイド関数sigmoid(x)は
ニューロンの特性を表わす単調増加関数であって、この
関数として、実際上は、〔1/(1+exp(−
x))〕等が用いられる。
【0041】次いで、i番目のカテゴリに属するデータ
が入力層P1に入力するとしたときに出力層P3の各ユニ
ットから次式のような出力ベクトルhが出力されるよう
に学習を行なう。
【0042】
【数10】h=(0.01,0.01,…,0.99,
…,0.01,…,0.01)
【0043】すなわち、i番目のカテゴリに対応したi
番目の成分が“0.99”で、それ以外の成分が“0.
01”となるような出力ベクトルhが出力されるように
学習を行なう。このような出力ベクトルhは、出力層P
3でシグモイド関数sigmoid(x)を経た後での値となる
ので、シグモイド関数sigmoid(x)を経る前の値とし
て、この出力ベクトルhをsigmoid(x)で逆変換した
次式のベクトルyを求めておく。
【0044】
【数11】y=(sigmoid(0.01),sigmoid(0.
01),…,sigmoid(0.99),…,sigmoid(0.
01))
【0045】このとき、中間層P2と出力層P3のユニッ
ト間の結合の重みBj(n),出力層の各ユニットのバ
イアス値tjは、次式Uを最小にするZ,Cによりそれ
ぞれ与えられる。ここでZはベクトルである。
【0046】
【数12】
【0047】Uを最小にするようなZ,Cは最小二乗法
によって計算することができ、これにより、中間層P2
から出力層P3への学習を行なうことができる。
【0048】上述のように、本実施例では、M個のカテ
ゴリを各々分離する(M−1)種類の超平面を構成し、
(M−1)種類の超平面を規定する(M−1)種類の各
パラメータを中間層P2の対応した(M−1)個のユニ
ットに割り当てて入力層P1から中間層P2への学習を行
なうようにしており、超平面を規定するパラメータを中
間層P2の対応したユニットに割り当てるだけの簡単な
処理で学習がなされるので、従来のバックプロパゲーシ
ョン学習に比べて、学習を迅速に行なうことができ、ま
た、中間層P2のユニットの各々に特定のカテゴリを分
離させる機能を持たせることができるので、学習した結
果のニューラルネットワークの解釈を簡単に行なうこと
ができる。さらに、識別したいカテゴリの種類が増加し
た場合にも、入力層P1と中間層P2との間の学習に関し
ては、既存の学習結果を維持し、新たに追加されたカテ
ゴリについてのみ新たに学習を行なうだけで良く、カテ
ゴリの種類の増加にも学習を煩雑なものにさせずに極め
て簡単に対処することができる。具体的には、(M+
1)番目のカテゴリが新たに追加されたとき、中間層P
2,出力層P3のユニットを1つだけ増加し、それぞれ、
M個,(M+1)個のユニットとし、入力層P1と中間
層P2との間の学習に関しては中間層P2のM番目のユニ
ットについてだけ帰納的に新たに学習を行なえば良い。
【0049】以上のようにニューラルネットワークNW
の学習が行なわれた後、実際の入力データを入力層P1
に入力させ、出力層P3からこの入力データのカテゴリ
識別結果を得ることができる。
【0050】この際に、実際の入力データとして例えば
3番目のカテゴリに属するデータが入力層P1に入力す
ると、中間層P2の2番目のユニットだけが他のユニッ
トの出力f1,f3,〜f(M-1)とは異なる特性(符号あ
るいは値)の出力f2を出力する。
【0051】これにより、出力層P3において、3番目
のカテゴリに対応した3番目のユニットからの出力が例
えば“0.99”となり、他のユニットからの出力が
“0.01”となって、入力データが3番目のカテゴリ
に属するものであると正確に識別することができる。
【0052】なお、上述の実施例では、ネットワークを
3層パーセプトロンとして構成し1つの中間層P2だけ
が設けられている場合について述べたが、ネットワーク
を4層以上のパーセプトロンで構成し、第1,第2…の
複数の中間層が設けられている場合にも、本発明を同様
に適用することができ、このときには、第1の学習手段
1は、入力層と第1の中間層との間の学習を行ない、第
2の学習手段2は、第1の中間層と第2の中間層との間
の学習,第2の中間層と第3の中間層との間の学習等を
最後が出力層となるまで、最小二乗法により行なう。こ
の際、第2の学習手段2が各段で最小二乗法を用いると
きには、各段において望ましい出力ベクトルが必要とな
るが、それには最終段(出力層の段階)での望ましい出
力ベクトルを用いれば良い。但し、この場合に、第2の
中間層から出力層までの各層は同じユニット数Mである
必要がある。
【0053】
【発明の効果】以上に説明したように本発明によれば、
入力データが複数のカテゴリのうちのどのカテゴリに属
するかをニューラルネットワークを用いて識別するに際
して、各カテゴリを分離する超平面を構成し、該超平面
を構成するパラメータに基づき、ニューラルネットワー
クの入力層から中間層への学習を行なうようになってい
るので、複数のカテゴリについてのニューラルネットワ
ークの学習を信頼性良く高速にかつ効率的に行なうこと
ができ、この学習結果に基づき入力データのカテゴリを
正しく識別することができる。
【0054】また、各カテゴリを分離する超平面を構成
することによってニューラルネットワークの入力層から
中間層への学習を行なった後、中間層から出力層への学
習を最小二乗法によって行なうようになっているので、
中間層から出力層までの学習をバックプロパゲーション
によって行なう場合に比べ、ニューラルネットワーク全
体の学習を高速にかつ効率的に行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施例のブロック図である。
【図2】本発明が適用されるニューラルネットワークの
一例を示す図である。
【図3】本発明の学習処理を説明するためのフローチャ
ートである。
【符号の説明】
1 第1の学習手段 2 第2の学習手段 NW ニューラルネットワーク P1 入力層 P2 中間層 P3 出力層 wn(i) 初段の結合の重み Bj(n) 2段目の結合の重み bn 中間層のバイアス値 tj 出力層のバイアス値

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力データが複数のカテゴリのうちのど
    のカテゴリに属するかをニューラルネットワークを用い
    て識別するに際して、各カテゴリを分離する超平面を構
    成し、該超平面を構成するパラメータに基づき、ニュー
    ラルネットワークの入力層から中間層への学習を行なう
    ようになっていることを特徴とするニューラルネットワ
    ークの学習方法。
  2. 【請求項2】 請求項1記載のニューラルネットワーク
    の学習方法において、各カテゴリを分離する超平面を構
    成するに際しては、先づ、各カテゴリの順番を各カテゴ
    リの平均ベクトルの位置関係によって決定し、次いで、
    決定された順番n(n≧1)に従い、第(n+1)番目
    のカテゴリを第n番目までのカテゴリから分離させるよ
    うに超平面を構成するようになっていることを特徴とす
    るニューラルネットワークの学習方法。
  3. 【請求項3】 請求項1記載のニューラルネットワーク
    の学習方法において、各カテゴリを分離する超平面を構
    成することによってニューラルネットワークの入力層か
    ら中間層への学習を行なった後、中間層から出力層への
    学習を最小二乗法によって行なうようになっていること
    を特徴とするニューラルネットワークの学習方法。
  4. 【請求項4】 N個のユニットを有する入力層から(M
    −1)個のユニットを有する中間層への学習を行なう第
    1の学習手段と、(M−1)個のユニットを有する中間
    層からM個のユニットを有する出力層への学習を行なう
    第2の学習手段とを有し、前記第1の学習手段は、識別
    したいカテゴリの数がMであり、各カテゴリのサンプル
    データがN次元のベクトルであるときに、各カテゴリの
    サンプルデータであるN次元のベクトルに基づき、M個
    のカテゴリを各々分離する(M−1)種類の超平面を構
    成し、(M−1)種類の超平面を規定する(M−1)種
    類の各パラメータを中間層の対応した(M−1)個のユ
    ニットに割当てて入力層から中間層への学習を行なうよ
    うになっていることを特徴とするニューラルネットワー
    クの学習装置。
JP3215883A 1991-08-01 1991-08-01 ニユーラルネツトワークの学習方法および学習装置 Pending JPH0535710A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3215883A JPH0535710A (ja) 1991-08-01 1991-08-01 ニユーラルネツトワークの学習方法および学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3215883A JPH0535710A (ja) 1991-08-01 1991-08-01 ニユーラルネツトワークの学習方法および学習装置

Publications (1)

Publication Number Publication Date
JPH0535710A true JPH0535710A (ja) 1993-02-12

Family

ID=16679840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3215883A Pending JPH0535710A (ja) 1991-08-01 1991-08-01 ニユーラルネツトワークの学習方法および学習装置

Country Status (1)

Country Link
JP (1) JPH0535710A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058531A (ko) * 2000-06-10 2000-10-05 김성석 음성합성 및 음성인식 기술을 이용한 언어 학습 및 훈련기능을 가진 완구의 제어방법
JP2016040650A (ja) * 2014-08-12 2016-03-24 株式会社Screenホールディングス 分類器構築方法、画像分類方法および画像分類装置
JP2017117152A (ja) * 2015-12-24 2017-06-29 みずほ証券株式会社 取引管理システム、取引管理方法及び取引管理プログラム
JP2018022473A (ja) * 2016-07-21 2018-02-08 パナソニックIpマネジメント株式会社 学習装置、識別装置、学習識別システム、及び、プログラム
JP2019211627A (ja) * 2018-06-05 2019-12-12 日本電信電話株式会社 モデル学習装置、方法及びプログラム
JP2021099677A (ja) * 2019-12-23 2021-07-01 Kddi株式会社 学習装置、学習方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058531A (ko) * 2000-06-10 2000-10-05 김성석 음성합성 및 음성인식 기술을 이용한 언어 학습 및 훈련기능을 가진 완구의 제어방법
JP2016040650A (ja) * 2014-08-12 2016-03-24 株式会社Screenホールディングス 分類器構築方法、画像分類方法および画像分類装置
JP2017117152A (ja) * 2015-12-24 2017-06-29 みずほ証券株式会社 取引管理システム、取引管理方法及び取引管理プログラム
WO2017110171A1 (ja) * 2015-12-24 2017-06-29 みずほ証券 株式会社 取引管理システム、取引管理方法及び取引管理プログラム
JP2018022473A (ja) * 2016-07-21 2018-02-08 パナソニックIpマネジメント株式会社 学習装置、識別装置、学習識別システム、及び、プログラム
JP2019211627A (ja) * 2018-06-05 2019-12-12 日本電信電話株式会社 モデル学習装置、方法及びプログラム
JP2021099677A (ja) * 2019-12-23 2021-07-01 Kddi株式会社 学習装置、学習方法及びプログラム

Similar Documents

Publication Publication Date Title
CN111583263A (zh) 一种基于联合动态图卷积的点云分割方法
CN107636691A (zh) 用于识别图像中的文本的方法和设备
CN110619059B (zh) 一种基于迁移学习的建筑物标定方法
JPH08227408A (ja) ニューラルネットワーク
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
CN111652021B (zh) 一种基于bp神经网络的人脸识别方法及系统
CN116403608A (zh) 基于多标签纠正和时空协同融合的语音情感识别方法
US5490236A (en) Method of assigning initial values of connection parameters to a multilayered neural network
JP2993862B2 (ja) 信号認識方法、信号認識装置、信号認識装置の学習方法及び信号認識装置の学習装置
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH10187649A (ja) ニューラルネットワーク
JPH05314090A (ja) ニューラルネットを用いたパターン認識方法およびその装置
JPH0512242A (ja) ニユーラルネツトワークの学習方式
JPH0981535A (ja) ニューラルネットワークの学習方法
JPH1063632A (ja) 大規模ニューラルネットワーク構築方法及び大規模ニューラルネットワーク構築装置及びニューラルネットワーク装置
CN115546590A (zh) 一种基于多模态预训练持续学习的目标检测优化方法
JP2778047B2 (ja) 時系列パターンを認織するニューラルネットワーク
JPH03175594A (ja) 文字認識装置
JPH07160659A (ja) 学習方式
Pappas et al. A new algorithm for on-line Multivariate ARMA identification using Multimodel Partitioning Theory
CN117079311A (zh) 行人检测及属性识别方法、系统、电子设备及存储介质
CN117392511A (zh) 基于特征融合和噪声抑制的并行式人物交互关系检测方法
CN117994577A (zh) 基于双通道特征提取网络的数据处理方法
JP2737733B2 (ja) パターン分類装置