JPH0565908B2 - - Google Patents
Info
- Publication number
- JPH0565908B2 JPH0565908B2 JP59016472A JP1647284A JPH0565908B2 JP H0565908 B2 JPH0565908 B2 JP H0565908B2 JP 59016472 A JP59016472 A JP 59016472A JP 1647284 A JP1647284 A JP 1647284A JP H0565908 B2 JPH0565908 B2 JP H0565908B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- mapping function
- average
- standard pattern
- patterns
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000013507 mapping Methods 0.000 claims description 79
- 230000006870 function Effects 0.000 claims description 78
- 238000010606 normalization Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 32
- 230000008602 contraction Effects 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 13
- 238000003909 pattern recognition Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】
本発明はパタン認識における標準パタン作成方
式、特に文字認識、音声認識等のパタン認識にお
いて、特徴ベクトルの系列として記述されたパタ
ンを用いて認識処理を行なうときの標準パタンを
作成する方式に関する。
式、特に文字認識、音声認識等のパタン認識にお
いて、特徴ベクトルの系列として記述されたパタ
ンを用いて認識処理を行なうときの標準パタンを
作成する方式に関する。
従来パタン認識において、最も重要な処理は特
徴抽出処理と、種々のパタンマツチング法を含ん
だ判定処理であつた。その重要性は現在も変わら
ないが、種々のパタン認識での認識率が向上し、
実用化が意識されるにつれて、標準パタンの良し
悪しの占める比重が大きくなりつつある。認識過
程で扱われるパタンが多次元空間の1点を示す特
徴ペクトルとして表わされる場合は、用意された
複数個の学習パタンからより良い標準パタンを作
成する方法が研究され、提案されているが、特徴
ペクトルの系列として記述されたパタンが引線形
処理によつて認識処理が行なわれるような場合に
は、複数個の学習データから標準パタンを自動的
に作成することは一般に行なわれていない。
徴抽出処理と、種々のパタンマツチング法を含ん
だ判定処理であつた。その重要性は現在も変わら
ないが、種々のパタン認識での認識率が向上し、
実用化が意識されるにつれて、標準パタンの良し
悪しの占める比重が大きくなりつつある。認識過
程で扱われるパタンが多次元空間の1点を示す特
徴ペクトルとして表わされる場合は、用意された
複数個の学習パタンからより良い標準パタンを作
成する方法が研究され、提案されているが、特徴
ペクトルの系列として記述されたパタンが引線形
処理によつて認識処理が行なわれるような場合に
は、複数個の学習データから標準パタンを自動的
に作成することは一般に行なわれていない。
本発明は前記非線形処理によつて認識処理が行
なわれるような場合において、複数個の学習パタ
ンからより良い標準パタンを自動的に作成する標
準パタン作成方式を提供するものであり、これに
よつて認識処理による認識率を向上させ、且つ標
準パタン作成のための工数を大幅に軽減できる。
なわれるような場合において、複数個の学習パタ
ンからより良い標準パタンを自動的に作成する標
準パタン作成方式を提供するものであり、これに
よつて認識処理による認識率を向上させ、且つ標
準パタン作成のための工数を大幅に軽減できる。
本発明によると特徴ペクトルの系列として表わ
されるパタンを用いたパタン認識に必要な標準パ
タンを複数個の学習パタンを用いて作成する標準
パタン作成方式において、第1の仮の標準パタン
を格納する仮の標準パタン記憶手段と、順次入力
される前記複数個の学習パタンを各々と前記第1
の仮の標準パタンとを入力し両者の伸縮整合を行
ない最適な整合となるときの前記学習パタンの
各々と前記第1の仮の標準パタンとの対応を示す
第1の写像関数を出力する第1の写像関数生成手
段と、前記複数個の学習パタンの各々について得
られる第1の写像関数の平均となる平均写像関数
を求める平均写像関数生成手段と、前記平均写像
関数を伸縮正規化用写像関数として前記第1の仮
の標準パタンに第1の伸縮正規化処理を行つて第
2の仮の標準パタンを作成する第1の伸縮正規化
手段と、前記複数個の学習パタンを順次入力し前
記第2の仮の標準パタンとの伸縮整合を行ない最
適な整合となるときの第2の写像関数を出力する
第2の写像関数生成手段と、前記学習パタンと前
記学習パタンに対応する前記第2の写像関数とを
用いて第2の伸縮正規化処理を行なう第2の伸縮
正規化手段と、前記第2伸縮正規化処理を行なつ
て得られる前記学習パタンの伸縮正規化パタンを
順次入力し平均パタンを生成する平均パタン生成
手段とを含み、前記平均パタンを標準パタンとし
て出力することを特徴とするパタン認識における
標準パタン作成方式が得られる。
されるパタンを用いたパタン認識に必要な標準パ
タンを複数個の学習パタンを用いて作成する標準
パタン作成方式において、第1の仮の標準パタン
を格納する仮の標準パタン記憶手段と、順次入力
される前記複数個の学習パタンを各々と前記第1
の仮の標準パタンとを入力し両者の伸縮整合を行
ない最適な整合となるときの前記学習パタンの
各々と前記第1の仮の標準パタンとの対応を示す
第1の写像関数を出力する第1の写像関数生成手
段と、前記複数個の学習パタンの各々について得
られる第1の写像関数の平均となる平均写像関数
を求める平均写像関数生成手段と、前記平均写像
関数を伸縮正規化用写像関数として前記第1の仮
の標準パタンに第1の伸縮正規化処理を行つて第
2の仮の標準パタンを作成する第1の伸縮正規化
手段と、前記複数個の学習パタンを順次入力し前
記第2の仮の標準パタンとの伸縮整合を行ない最
適な整合となるときの第2の写像関数を出力する
第2の写像関数生成手段と、前記学習パタンと前
記学習パタンに対応する前記第2の写像関数とを
用いて第2の伸縮正規化処理を行なう第2の伸縮
正規化手段と、前記第2伸縮正規化処理を行なつ
て得られる前記学習パタンの伸縮正規化パタンを
順次入力し平均パタンを生成する平均パタン生成
手段とを含み、前記平均パタンを標準パタンとし
て出力することを特徴とするパタン認識における
標準パタン作成方式が得られる。
以下図面を用いて本発明の原理について詳細に
説明する。第1図は特徴ペクトルの系列として表
わされる2個のパタン10,11の伸縮整合を行
ない、最適な整合となるときの写像関数12を示
す図である。第2図は標準パタンの違いが認識処
理に及ぼす影響の一例を示すための図である。第
2図aにおいて13は標準パタン、130は各写
像関数の始点と終点を結ぶ直線、131,13
2,133,134,135は前記準パタン13
と同じカテゴリAのサンプルパタンとの間の写像
関数、136,137は前記標準パタン13と異
なるカテゴリBのサンプルパタンとの間の写像関
数とする。
説明する。第1図は特徴ペクトルの系列として表
わされる2個のパタン10,11の伸縮整合を行
ない、最適な整合となるときの写像関数12を示
す図である。第2図は標準パタンの違いが認識処
理に及ぼす影響の一例を示すための図である。第
2図aにおいて13は標準パタン、130は各写
像関数の始点と終点を結ぶ直線、131,13
2,133,134,135は前記準パタン13
と同じカテゴリAのサンプルパタンとの間の写像
関数、136,137は前記標準パタン13と異
なるカテゴリBのサンプルパタンとの間の写像関
数とする。
従来のパタン認識方式では伸縮整合を行なつて
得られる類似度のみで判定を行なつていたので、
前記131,…,137の写像関数を求めたとき
に得られる類似度がほぼ同じ値になるとき、カテ
ゴリAとカテゴリBとの識別が困難であつた。
得られる類似度のみで判定を行なつていたので、
前記131,…,137の写像関数を求めたとき
に得られる類似度がほぼ同じ値になるとき、カテ
ゴリAとカテゴリBとの識別が困難であつた。
第2図bにおいて、14は前記標準パタン13
を伸縮正規化して得られるカテゴリAの標準パタ
ンであり、140は各写像関数の始点と終点を結
ぶ直線、141,142,143,144,14
5は前記カテゴリAのサンプルパタンと前記標準
パタン14との写像関数、146,147は前記
カテゴリBのサンプルパタンと前記標準パタン1
4との写像関数をする。
を伸縮正規化して得られるカテゴリAの標準パタ
ンであり、140は各写像関数の始点と終点を結
ぶ直線、141,142,143,144,14
5は前記カテゴリAのサンプルパタンと前記標準
パタン14との写像関数、146,147は前記
カテゴリBのサンプルパタンと前記標準パタン1
4との写像関数をする。
若し、前記141,…,147の写像関数を求
めたときに得られる類似度がほぼ同じ値になると
しても、前記直線140と各写像関数の離れ具合
で前記カテゴリAと前記カテゴリBとを識別する
ことができる。また類似度を求めるときに、写像
関数が直線140から離れる程ペナルテイを加え
るように類似度を定めると、類似度の判定能力が
更に増すことになる。
めたときに得られる類似度がほぼ同じ値になると
しても、前記直線140と各写像関数の離れ具合
で前記カテゴリAと前記カテゴリBとを識別する
ことができる。また類似度を求めるときに、写像
関数が直線140から離れる程ペナルテイを加え
るように類似度を定めると、類似度の判定能力が
更に増すことになる。
従つて、第2図a,bの例でパタン13よりは
パタン14の方が標準パタンとして好ましいこと
がわかる。前記パタン13から前記パタン14を
生成する手段を以下に述べるが、同時にこれが本
発明の原理である。
パタン14の方が標準パタンとして好ましいこと
がわかる。前記パタン13から前記パタン14を
生成する手段を以下に述べるが、同時にこれが本
発明の原理である。
写像関数131,…,137をそれぞれ
j=1(i),j=2(i),…,j=7(i)
とする、ここでカテゴリAの写像関数の荷重平均
として得られる関数を j=(i) とすると、(i)は次式のようにして求まる。
として得られる関数を j=(i) とすると、(i)は次式のようにして求まる。
(i)={5
〓K=1
WK(i)}/{5
〓K=1
WK}
ここでWK(K=1、…、5)は荷重であり、
WK=(K=1、…、5)のとき(i)は単純平均と
なる。このようにして得られる前記関数j=(i)
を用いて、第3図に示すような操作で、前記パタ
ン13から写像関数j=(i)を示す15を経て、
前記パタン14が生成できる。式で表現すると、
パタン13をj13(i)、前記パタン14をj=j14(i)
とすると、 j14(i)=j13((i)) で表わされる非線形正規化処理で前記パタン13
から前記パタン14が得られる。前記パタン14
が第2の仮の標準パタンである。
WK=(K=1、…、5)のとき(i)は単純平均と
なる。このようにして得られる前記関数j=(i)
を用いて、第3図に示すような操作で、前記パタ
ン13から写像関数j=(i)を示す15を経て、
前記パタン14が生成できる。式で表現すると、
パタン13をj13(i)、前記パタン14をj=j14(i)
とすると、 j14(i)=j13((i)) で表わされる非線形正規化処理で前記パタン13
から前記パタン14が得られる。前記パタン14
が第2の仮の標準パタンである。
そこで前記各学習パタンと前記パタン14との
第2の写像関数を j=^1(i),j=^2(i),…,j=^5(i) とすると、これは第2図bの写像関数141,1
42,143,144,145である。
第2の写像関数を j=^1(i),j=^2(i),…,j=^5(i) とすると、これは第2図bの写像関数141,1
42,143,144,145である。
前記学習パタンを
j=f1(i)、j=f2(i)、…、j=f5(i)
とし第2の非線形正規化処理で得られる各パタン
を j=f^1(i)、j=f^2(i)、…、j=f^5(i) とすると、 fK(i)=fK(^K(i)) である。(K=1、2、3、4、5)従つて標準
パタンj=fS(i)は前記二線形正規化パタンj=f^K
(i)の荷重和で次式のようにして定める fS(i)={5 〓K=1 W^Kf^K(i)}/{5 〓K=1 W^K} ここでW^K(K=1、…、5)は荷重であり、
W^K=1(K=1、…、5)のときfS(i)は単純平均
となる。認識対象のパタンj=j(i)が2値パタン
として扱つてよい場合には、前記非線形正規化パ
タンの荷重和をとつたパタンと前記仮の標準パタ
ンを前記写像関数j=(i)で非線形正規化して得
られるパタンとは類似したパタンとなり、類似度
の値に影響を与えないが、前記認識対象のパタン
j=j(i)が多値パタンとして扱われる場合には、
前記パタンj=f^K(i)の荷重平均で標準パタンを求
めることが平均的な類似度の精度を高めるために
必要となる。尚ここではK=5として説明を行な
つたが、Kの値は特に5と定めるものではなく任
意である。
を j=f^1(i)、j=f^2(i)、…、j=f^5(i) とすると、 fK(i)=fK(^K(i)) である。(K=1、2、3、4、5)従つて標準
パタンj=fS(i)は前記二線形正規化パタンj=f^K
(i)の荷重和で次式のようにして定める fS(i)={5 〓K=1 W^Kf^K(i)}/{5 〓K=1 W^K} ここでW^K(K=1、…、5)は荷重であり、
W^K=1(K=1、…、5)のときfS(i)は単純平均
となる。認識対象のパタンj=j(i)が2値パタン
として扱つてよい場合には、前記非線形正規化パ
タンの荷重和をとつたパタンと前記仮の標準パタ
ンを前記写像関数j=(i)で非線形正規化して得
られるパタンとは類似したパタンとなり、類似度
の値に影響を与えないが、前記認識対象のパタン
j=j(i)が多値パタンとして扱われる場合には、
前記パタンj=f^K(i)の荷重平均で標準パタンを求
めることが平均的な類似度の精度を高めるために
必要となる。尚ここではK=5として説明を行な
つたが、Kの値は特に5と定めるものではなく任
意である。
第4図a,b,c,dは伸縮整合処理の一つで
あるDPマツチング法の一例を説明するための図
である。
あるDPマツチング法の一例を説明するための図
である。
標準パタンA0がM次元ペクトルA1 0、A2 0、…、
AN 0の系列から成り、入力パタンAがM次元ペク
トルA1、M2、…、ANの系列から成つているとす
る。また標準パタンの任意のベクトルAj 0と、入
力パタンの任意のベクトルAiとの距離をd(i,
j)とする。単純な整合をとると、入力パタンA
と標準パタンA0との相違度D(A,A0)は、例え
ば下式で求めることになる。
AN 0の系列から成り、入力パタンAがM次元ペク
トルA1、M2、…、ANの系列から成つているとす
る。また標準パタンの任意のベクトルAj 0と、入
力パタンの任意のベクトルAiとの距離をd(i,
j)とする。単純な整合をとると、入力パタンA
と標準パタンA0との相違度D(A,A0)は、例え
ば下式で求めることになる。
D(A、A0)=N
〓i=1
d(i、j)
この式は第4aの写像関数j=i上でAiとAi 0
とを対応させて、両パタンの相違度を求めている
が、同図の写像関数j=(i)上で、AiとAi 0とを
対応させることができれば、両パタンの相違度を
求めるのに、入力パタンAを部分的に伸縮して標
準パタンA0と整合をとることができる。
とを対応させて、両パタンの相違度を求めている
が、同図の写像関数j=(i)上で、AiとAi 0とを
対応させることができれば、両パタンの相違度を
求めるのに、入力パタンAを部分的に伸縮して標
準パタンA0と整合をとることができる。
DPマツチング法は、入力パタンを部分的に伸
縮して整合をとるための手法であり、例えば第4
図bでは下記の初期値及び漸化式からg(N、N)
を求めることにより、写像関数j=(i)上でAiと
Aj 0とを対応させて整合をとることができる。
縮して整合をとるための手法であり、例えば第4
図bでは下記の初期値及び漸化式からg(N、N)
を求めることにより、写像関数j=(i)上でAiと
Aj 0とを対応させて整合をとることができる。
g=(1、1)=d(1、1)
g=(i、j)=d(i、j)+min{g(i−1、
j)、g(i−1、j−1)、g(i−1、j−2)}
ただし、d(i、j)=∞(i≦0またはj≦
0)である。
j)、g(i−1、j−1)、g(i−1、j−2)}
ただし、d(i、j)=∞(i≦0またはj≦
0)である。
第4図cは上記漸化式を求めるDPマツチング
法の一例を示すための図であり、入力パタンは5
個の一次元ベクトル、すなわちスカラー量の系列
{1、2、4、5、5}であり、標準パタンは同
じく5個の系列{1、2、3、4、5}であり、
(i、j)が(1、1)、(2、2)、(3、4)、
(4、5)、(5、5)、となる写像関数上の伸縮整
合を行なつている。
法の一例を示すための図であり、入力パタンは5
個の一次元ベクトル、すなわちスカラー量の系列
{1、2、4、5、5}であり、標準パタンは同
じく5個の系列{1、2、3、4、5}であり、
(i、j)が(1、1)、(2、2)、(3、4)、
(4、5)、(5、5)、となる写像関数上の伸縮整
合を行なつている。
第4図dは上記漸化式計算の計算量を減少させ
るために i−Δ≦j≦i+Δ の範囲内で、漸化式計算を行なうことを示してお
り、一般にDPマツチング法では、この範囲を整
合窓と呼び、実際に計算量の効率化を図つてい
る。
るために i−Δ≦j≦i+Δ の範囲内で、漸化式計算を行なうことを示してお
り、一般にDPマツチング法では、この範囲を整
合窓と呼び、実際に計算量の効率化を図つてい
る。
前記漸化式は単に相違度を求めるためだけのも
のであるが、 min(g(i−1、j)、g(i−1、j−1)、g
(i−1、j−2))=g(i−1、j(i-1)) (ただしj(i−1)はj、j−1、j−2のい
ずれがである)のとき、 h(i、j)=j(i-1) として、関数h(i、j)を求めておくことによ
り、相違度が求められた後にh(i、j)の値を
h(N、N)から順次h(1、1)まで求めること
により写像関数を求めることができる。例えば第
4図cの例ではh(5、5)は h=(5、5)=5、h(4、5)=4、h(3、
4)=2、h(2、2)=1 であるから、写像関数(i、j)が (1、1)、(2、2)、(3、4)、(4、5)、
(5、5) と求まる。
のであるが、 min(g(i−1、j)、g(i−1、j−1)、g
(i−1、j−2))=g(i−1、j(i-1)) (ただしj(i−1)はj、j−1、j−2のい
ずれがである)のとき、 h(i、j)=j(i-1) として、関数h(i、j)を求めておくことによ
り、相違度が求められた後にh(i、j)の値を
h(N、N)から順次h(1、1)まで求めること
により写像関数を求めることができる。例えば第
4図cの例ではh(5、5)は h=(5、5)=5、h(4、5)=4、h(3、
4)=2、h(2、2)=1 であるから、写像関数(i、j)が (1、1)、(2、2)、(3、4)、(4、5)、
(5、5) と求まる。
第5図は伸縮正規化処理の一例を示すための図
であり、X(i)(1≦i≦16)は入力パタン、Y(j)
(1≦j≦16)は伸縮正規化パタンで、j=(i)
は伸縮正規化のための写像関数である。この例で
はY(j)は次の規則によつて定まる。
であり、X(i)(1≦i≦16)は入力パタン、Y(j)
(1≦j≦16)は伸縮正規化パタンで、j=(i)
は伸縮正規化のための写像関数である。この例で
はY(j)は次の規則によつて定まる。
(1) j=(i)>(i−1)且つ(i)<(i+
1)のときY(j)=X(i) (2) j=(i)>(i−1)+2のとき Y(j−
1)=X(i) (3) j=(i)>(i−1)<(i+1)のとき
Y(j)=X(i) 次に本発明の実施例を図面について説明する。
1)のときY(j)=X(i) (2) j=(i)>(i−1)+2のとき Y(j−
1)=X(i) (3) j=(i)>(i−1)<(i+1)のとき
Y(j)=X(i) 次に本発明の実施例を図面について説明する。
第6図は本発明の一実施例の構成図であり、2
は仮の標準パタン記憶手段で、20は第1の仮の
標準パタンとなる複数個の学習パタンの中の1個
を示す信号であり、前記信号20として入力した
第1の仮の標準パタンを格納し、信号22とし
て、後述する第1の写像関数生成手段3と第1の
伸縮正規化手段5に第1の仮の標準パタンを供給
する。第1の写像関数生成手段3は前記複数個の
学習パタンを1個ずつ信号21として順次入力
し、第1の写像関数を求め、信号23として順次
出力する。4は平均写像関数生成手段で、前記信
号23として順次入力されるすべての第1の写像
関数の荷重平均を求めることにより平均写像関数
を定め、信号24として前記平均写像関数を出力
する。伸縮正規化手段5は前記第1の仮の標準パ
タンを信号22として、前記平均写像関数を信号
24として入力し、非線形正規化処理を行なつて
得られる第2の仮の標準パタンを信号25として
出力する。
は仮の標準パタン記憶手段で、20は第1の仮の
標準パタンとなる複数個の学習パタンの中の1個
を示す信号であり、前記信号20として入力した
第1の仮の標準パタンを格納し、信号22とし
て、後述する第1の写像関数生成手段3と第1の
伸縮正規化手段5に第1の仮の標準パタンを供給
する。第1の写像関数生成手段3は前記複数個の
学習パタンを1個ずつ信号21として順次入力
し、第1の写像関数を求め、信号23として順次
出力する。4は平均写像関数生成手段で、前記信
号23として順次入力されるすべての第1の写像
関数の荷重平均を求めることにより平均写像関数
を定め、信号24として前記平均写像関数を出力
する。伸縮正規化手段5は前記第1の仮の標準パ
タンを信号22として、前記平均写像関数を信号
24として入力し、非線形正規化処理を行なつて
得られる第2の仮の標準パタンを信号25として
出力する。
6は第2の写像関数生成手段であり、前記第2
の仮の標準パタンを信号25、前記学習パタンを
信号21として順次入力し、信号26として第2
の写像関数を出力する。7は第2の伸縮正規化手
段であり、前記学習パタンを信号21、前記学習
パタンに対応する第2の写像関数を信号26とし
て順次入力し、前記学習パタンに対応する伸縮正
規化パタンを信号27として順次入力し、8は平
均パタン生成手段で、信号27として順次入力さ
れるすべての前記伸縮正規化パタンの荷重平均を
求め、平均パタンを信号28として出力し標準パ
タンとする。
の仮の標準パタンを信号25、前記学習パタンを
信号21として順次入力し、信号26として第2
の写像関数を出力する。7は第2の伸縮正規化手
段であり、前記学習パタンを信号21、前記学習
パタンに対応する第2の写像関数を信号26とし
て順次入力し、前記学習パタンに対応する伸縮正
規化パタンを信号27として順次入力し、8は平
均パタン生成手段で、信号27として順次入力さ
れるすべての前記伸縮正規化パタンの荷重平均を
求め、平均パタンを信号28として出力し標準パ
タンとする。
上記説明において前記仮の標準パタン記憶手段
2は通常用いられているものでよい。
2は通常用いられているものでよい。
第7図は前記写像関数生成手段3の構成の一例
を示すためのブロツク図である。ここでの処理は
前記DPマツチング法の説明の中の、漸化式(i、
j)の計算と、漸化式決算の結果得られる軌跡h
(i、j)を求め、h(i、j)から写像関数を求
めるものである。
を示すためのブロツク図である。ここでの処理は
前記DPマツチング法の説明の中の、漸化式(i、
j)の計算と、漸化式決算の結果得られる軌跡h
(i、j)を求め、h(i、j)から写像関数を求
めるものである。
21は順次入力される前記学習パタンを示す信
号で特徴ベクトルの系列A1、A2、…、ANに対応
し、22は前記仮の標準パタンを示す信号で特徴
ベクトルの系列A1 0、A2 0、…、AN 0に対応し、31
は距離演算部で上記2信号を入力とし、d(i、
j)を計算し、信号311として出力する。32
は前出の漸化式 g=(i、j)=d(i、j)+min{g(i−1、
j)、g(i−1、j−1)、g(i−1、j−2)}
を計算する漸化式演算部で、d(i、j)を信号
311、min(g(i−1、j)、g(i−1、j−
1)、g(i−1、j−2))を信号341として
入力し、演算結果のg(i、j)を信号321と
して、累積値記憶部33に出力する。
号で特徴ベクトルの系列A1、A2、…、ANに対応
し、22は前記仮の標準パタンを示す信号で特徴
ベクトルの系列A1 0、A2 0、…、AN 0に対応し、31
は距離演算部で上記2信号を入力とし、d(i、
j)を計算し、信号311として出力する。32
は前出の漸化式 g=(i、j)=d(i、j)+min{g(i−1、
j)、g(i−1、j−1)、g(i−1、j−2)}
を計算する漸化式演算部で、d(i、j)を信号
311、min(g(i−1、j)、g(i−1、j−
1)、g(i−1、j−2))を信号341として
入力し、演算結果のg(i、j)を信号321と
して、累積値記憶部33に出力する。
34は最小値選択部で、累積値記憶部33から
g(i−1、j)、g(i−1、j−1)そしてg
(i−1、j−2)を信号331、信号332そ
して信号333として読込み、min(g(i−1、
j)、g(i−1、j−1)、g(i−1、i−2))
を信号341、そしてh(i、j)を信号342
として写像軌跡記憶部35に出力する。漸化式演
算が終了すると前記写像軌跡記憶部35から写像
関数を信号23として出力する。
g(i−1、j)、g(i−1、j−1)そしてg
(i−1、j−2)を信号331、信号332そ
して信号333として読込み、min(g(i−1、
j)、g(i−1、j−1)、g(i−1、i−2))
を信号341、そしてh(i、j)を信号342
として写像軌跡記憶部35に出力する。漸化式演
算が終了すると前記写像軌跡記憶部35から写像
関数を信号23として出力する。
上記説明において、距離演算部31、漸化式演
算部32、累積値記憶部33、最小値選択部3
4、写像軌跡記憶部35はいずれも通常の記憶手
段、加算等の演算手段、比較手段を用いて容易に
実現できる。
算部32、累積値記憶部33、最小値選択部3
4、写像軌跡記憶部35はいずれも通常の記憶手
段、加算等の演算手段、比較手段を用いて容易に
実現できる。
前記平均写像関数生成手段4は、前記信号23
として入力される写像関数を逐次加算し、荷重平
均をとるものであるが、これは通常の記憶手段、
加算、乗算等の演算手段を用いて容易に実現でき
る。尚、荷重平均処理の荷重は認識対象のパタン
の性質によつて変わるが、前記性質が未知のとき
には単純平均でもよい。
として入力される写像関数を逐次加算し、荷重平
均をとるものであるが、これは通常の記憶手段、
加算、乗算等の演算手段を用いて容易に実現でき
る。尚、荷重平均処理の荷重は認識対象のパタン
の性質によつて変わるが、前記性質が未知のとき
には単純平均でもよい。
前記第2の写像関数生成手段6は前記写像関数
生成手段3と全く同一の構成のものでよい。同様
に前記第2の伸縮正規化手段7は前記伸縮正規化
手段5と全く同一の構成のものでよい。
生成手段3と全く同一の構成のものでよい。同様
に前記第2の伸縮正規化手段7は前記伸縮正規化
手段5と全く同一の構成のものでよい。
前記平均パタン生成手段8は、前記信号27と
して入力される伸縮正規化パタンを逐次加算し、
荷重平均をとるものであるが、これは通常の記憶
手段、加算、乗算等の演算手段を用いて容易に実
現できる。尚荷重平均処理の荷重は認識対象のパ
タンの性質によつて変わるが、前記性質が未知の
ときには単純平均でもよい。
して入力される伸縮正規化パタンを逐次加算し、
荷重平均をとるものであるが、これは通常の記憶
手段、加算、乗算等の演算手段を用いて容易に実
現できる。尚荷重平均処理の荷重は認識対象のパ
タンの性質によつて変わるが、前記性質が未知の
ときには単純平均でもよい。
このようにすれば複数個の学習パタンの仮の標
準パタンとから得られる複数個の写像関数の平均
写像関数を求め、前記仮の標準パタンと前記平均
写像関数とから、第2の仮の標準パタンを求め、
前記第2の仮の標準パタンと各学習パタンとから
各々の第2の写像関数を求め、次に各々の伸縮正
規化パタンの平均パタンを求め、前記平均パタン
を標準パタンと定めることにより、偏りの少ない
標準パタンを自動的に得ることができる。この偏
りの少ない標準パタンを用いることにより、認識
率の向上を計ることができ、空に認識のための伸
縮整合処理としてDPマツチング法を用いる場合
には、偏りの大きい標準パタンに比べて整合窓幅
を狭くできるので、計算量を減らす効果も得られ
る。また自動的に処理できることから、標準パタ
ン作成のための工数を大幅に減らすという効果も
得られる。
準パタンとから得られる複数個の写像関数の平均
写像関数を求め、前記仮の標準パタンと前記平均
写像関数とから、第2の仮の標準パタンを求め、
前記第2の仮の標準パタンと各学習パタンとから
各々の第2の写像関数を求め、次に各々の伸縮正
規化パタンの平均パタンを求め、前記平均パタン
を標準パタンと定めることにより、偏りの少ない
標準パタンを自動的に得ることができる。この偏
りの少ない標準パタンを用いることにより、認識
率の向上を計ることができ、空に認識のための伸
縮整合処理としてDPマツチング法を用いる場合
には、偏りの大きい標準パタンに比べて整合窓幅
を狭くできるので、計算量を減らす効果も得られ
る。また自動的に処理できることから、標準パタ
ン作成のための工数を大幅に減らすという効果も
得られる。
尚以上の説明では標準パタンと入力パタンの系
列が同じ長さとしてきたが、若し長さが異なる場
合には長さの正規化等の前処理を行なえばよく、
また前処理によつてパタンの形状が大きく変わる
場合は、別のサブカテゴリーとして取り扱えばよ
い。従つて本発明は必ずしも1つのカテゴリーの
すべての学習パタンに対して適用するものではな
く、サブカテゴリー単位で適用すれば、より以上
の効果が得られる。また伸縮整合処理はDPマツ
チングに限ることなく、またDPマツチングを用
いる場合でも、使用する漸化式は本発明の漸化式
に限るものではない。また仮の標準パタンは、あ
らかじめ用意されたものではなく、複数個の学習
パタンの中から1個を選択したものでもよい。
列が同じ長さとしてきたが、若し長さが異なる場
合には長さの正規化等の前処理を行なえばよく、
また前処理によつてパタンの形状が大きく変わる
場合は、別のサブカテゴリーとして取り扱えばよ
い。従つて本発明は必ずしも1つのカテゴリーの
すべての学習パタンに対して適用するものではな
く、サブカテゴリー単位で適用すれば、より以上
の効果が得られる。また伸縮整合処理はDPマツ
チングに限ることなく、またDPマツチングを用
いる場合でも、使用する漸化式は本発明の漸化式
に限るものではない。また仮の標準パタンは、あ
らかじめ用意されたものではなく、複数個の学習
パタンの中から1個を選択したものでもよい。
本発明は複数の学習パタンからより良い標準パ
タンを自動的に作成することができ、認識処理に
よる認識率を向上させ、且つ標準パタン作成のた
めの工数を大幅に軽減できる効果がある。
タンを自動的に作成することができ、認識処理に
よる認識率を向上させ、且つ標準パタン作成のた
めの工数を大幅に軽減できる効果がある。
第1図は特徴ベクトルの系列として表わされる
2つのパタンの伸縮整合を行なつたときの写像関
数を示す図、第2図は標準パタンの違いによる写
像関数の違いを示す図で、aは複数個の学習パタ
ンに対して偏りの大きな標準パタンの場合、bは
偏りの少ない標準パタンの場合である。第3図は
写像関数を用いて伸縮正規化処理を行なうことを
示す図、第4図a〜dはDPマツチング法の一例
を説明するための図、第5図は伸縮正規化処理の
一例を示すための図、第6図は本発明の一実施例
のブロツク図、第7図は第6図中の写像関数生成
手段の構成の一例を示すブロツク図である。2は
仮の標準パタン記憶手段、3は写像関数生成手
段、4は平均写像関数生成手段、5は伸縮正規化
手段、6は第2の写像関数生成手段、7は第2の
伸縮正規化手段、8は平均パタン生成手段、31
は距離演算部、32は漸化式演算部、33は累積
値記憶部、34は最小値選択部、35は写像軌跡
記憶部。
2つのパタンの伸縮整合を行なつたときの写像関
数を示す図、第2図は標準パタンの違いによる写
像関数の違いを示す図で、aは複数個の学習パタ
ンに対して偏りの大きな標準パタンの場合、bは
偏りの少ない標準パタンの場合である。第3図は
写像関数を用いて伸縮正規化処理を行なうことを
示す図、第4図a〜dはDPマツチング法の一例
を説明するための図、第5図は伸縮正規化処理の
一例を示すための図、第6図は本発明の一実施例
のブロツク図、第7図は第6図中の写像関数生成
手段の構成の一例を示すブロツク図である。2は
仮の標準パタン記憶手段、3は写像関数生成手
段、4は平均写像関数生成手段、5は伸縮正規化
手段、6は第2の写像関数生成手段、7は第2の
伸縮正規化手段、8は平均パタン生成手段、31
は距離演算部、32は漸化式演算部、33は累積
値記憶部、34は最小値選択部、35は写像軌跡
記憶部。
Claims (1)
- 1 特徴ベクトルの系列として表わされるパタン
を用いたパタン認識に必要な標準パタンを複数個
の学習パタンを用いて作成する標準パタン作成方
式において、第1の仮の標準パタンを格納する仮
の標準パタン記憶手段と、順次入力される前記複
数個の学習パタンの各々と前記第1の仮の標準パ
タンとを入力し両者の伸縮整合を行ない最適な整
合となるときの前記学習パタンの各々と前記第1
の仮の標準パタンとの対応を示す第1の写像関数
を出力する第1の写像関数生成手段と、前記複数
個の学習パタンの各々について得られる第1の写
像関数の平均となる平均写像関数を求める平均写
像関数生成手段と、前記平均写像関数を伸縮正規
化用写像関数として前記第1の仮の標準パタンに
第1の伸縮正規化処理を行つて第2の仮の標準パ
タンを作成する第1の伸縮正規化手段と、前記複
数個の学習パタンを順次入力し前記第2の仮の標
準パタンとの伸縮整合を行ない最適な整合となる
ときの第2の写像関数を出力する第2の写像関数
生成手段と、前記学習パタンと前記学習パタンに
対応する前記第2の写像関数とを用いて第2の伸
縮正規化処理を行なう第2の伸縮正規化手段と、
前記第2の伸縮正規化処理を行なつて得られる前
記学習パタンの伸縮正規化パタンを順次入力し平
均パタンを生成する平均パタン生成手段とを含
み、前記平均パタンを標準パタンとして出力する
ことを特徴とするパタン認識における標準パタン
作成方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59016472A JPS60160489A (ja) | 1984-02-01 | 1984-02-01 | パタン認識における標準パタン作成方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59016472A JPS60160489A (ja) | 1984-02-01 | 1984-02-01 | パタン認識における標準パタン作成方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS60160489A JPS60160489A (ja) | 1985-08-22 |
JPH0565908B2 true JPH0565908B2 (ja) | 1993-09-20 |
Family
ID=11917203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP59016472A Granted JPS60160489A (ja) | 1984-02-01 | 1984-02-01 | パタン認識における標準パタン作成方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60160489A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4901549B2 (ja) * | 2007-03-29 | 2012-03-21 | 株式会社ダイヘン | 集電装置 |
JP5074919B2 (ja) * | 2007-12-27 | 2012-11-14 | アズビル株式会社 | 標準時系列データ算出方法、異常検出方法、標準時系列データ算出装置、および異常検出装置 |
-
1984
- 1984-02-01 JP JP59016472A patent/JPS60160489A/ja active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS60160489A (ja) | 1985-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7505637B2 (en) | Method, apparatus, computer program, computer system, and computer-readable storage medium for representing and searching for an object in an image | |
JP2795058B2 (ja) | 時系列信号処理装置 | |
EP0103245B1 (en) | Pattern matching apparatus | |
Forman | Putting metaclasses to work | |
KR980011007A (ko) | 음성 인식 방법, 정보 형성 방법, 음성 인식 장치 및 기록 매체 | |
KR100978913B1 (ko) | Svm기반 복 수의 매칭 알고리즘을 결합한 음원 검색 시스템 및 방법 | |
JPS6024994B2 (ja) | パタ−ン類似度計算方式 | |
JPH07319924A (ja) | 手書き電子文書のインデックス付けおよび探索方法 | |
Shi et al. | Music genre classification based on chroma features and deep learning | |
US7447373B2 (en) | Method for efficient coding of shape descriptor parameters | |
JPH0565908B2 (ja) | ||
JPH0565907B2 (ja) | ||
JPH0531792B2 (ja) | ||
Gaudin et al. | An adaptable time warping distance for time series learning | |
CN105069464A (zh) | 一种分类器使用方法 | |
JP2008197463A (ja) | 音声認識装置及び音声認識方法 | |
JPH0432432B2 (ja) | ||
JPH024919B2 (ja) | ||
JP2518871B2 (ja) | パタン比較器 | |
JP2785939B2 (ja) | 連続音声認識装置 | |
JPH0683938A (ja) | 連続手話認識方法および装置 | |
JPH0576669B2 (ja) | ||
Ebrahim et al. | A novel warping distance measure | |
Kalluri et al. | Approximate weighted myriad computation by fixed point search | |
JPS6328313B2 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |