JP2007220032A - Method and device for recognizing time-series data, and program - Google Patents

Method and device for recognizing time-series data, and program Download PDF

Info

Publication number
JP2007220032A
JP2007220032A JP2006043009A JP2006043009A JP2007220032A JP 2007220032 A JP2007220032 A JP 2007220032A JP 2006043009 A JP2006043009 A JP 2006043009A JP 2006043009 A JP2006043009 A JP 2006043009A JP 2007220032 A JP2007220032 A JP 2007220032A
Authority
JP
Japan
Prior art keywords
winner
vector
unit
time
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006043009A
Other languages
Japanese (ja)
Other versions
JP4710014B2 (en
Inventor
Retsu Yamakawa
烈 山川
Keiichi Horio
恵一 堀尾
Junichi Takatori
純一 高取
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2006043009A priority Critical patent/JP4710014B2/en
Publication of JP2007220032A publication Critical patent/JP2007220032A/en
Application granted granted Critical
Publication of JP4710014B2 publication Critical patent/JP4710014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a time-series data recognizing method for improving recognition precision by reflecting the transition of the time-series data on data recognition, and to provide a time-series data recognizing device and a program. <P>SOLUTION: A winner unit is selected based on similarity between each input vector x(t) constituting the time-series data and a connection weight vector Wj and similarity between a winner afterglow vector Y(t) and an experience weight vector Uj. Then, the winner afterglow vector Y(t) is updated according to the selected winner unit. Besides, the time-series data for recognition is recognized by a part or the whole of the selected winner unit. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は時系列データ認識方法、時系列データ認識装置及びプログラムに関し、特に時間経過に従って内容が変化する時系列データの認識に関する。   The present invention relates to a time-series data recognition method, a time-series data recognition apparatus, and a program, and more particularly to recognition of time-series data whose contents change with time.

ニューラルネットワークの一種である自己組織化マップ(Self-Organizing Map;SOM)は、T.Kohonenによって提案された教師なし競合学習モデルである。自己組織化とは、外部からの信号に自己を変化させ、適応することであり、自己組織化過程を簡略化したモデルが自己組織化マップである。かかる自己組織化マップによれば、外部から与えられたデータを、その内容に従って分類することが可能であり、データ認識技術への適用が広く検討されている。   A self-organizing map (SOM), which is a kind of neural network, is an unsupervised competitive learning model proposed by T. Kohonen. Self-organization means changing and adapting itself to external signals, and a model that simplifies the self-organization process is a self-organization map. According to such a self-organizing map, it is possible to classify data given from the outside according to its contents, and its application to data recognition technology has been widely studied.

ところで、データ認識技術が対象とすべきデータは、例えば時系列の音圧データ群を特定する音声データ、時系列の静止画像群を特定する動画像データ、時系列の筆記位置群を特定する手書き文字のデータ等、その多くが時間経過に従って内容が変化する時系列データである。ところが、従来の自己組織化マップを用いた時系列データの認識技術では、データの内容とその時間情報を同列に扱って、自己組織化マップに入力するものが多かった。このため、時系列データの推移をデータ認識に反映させることが困難であり、データ認識の精度向上に限界があった。   By the way, the data to be targeted by the data recognition technology includes, for example, voice data that specifies a time-series sound pressure data group, moving image data that specifies a time-series still image group, and handwriting that specifies a time-series writing position group. Most of the data, such as character data, is time-series data whose contents change over time. However, many of the conventional time-series data recognition techniques using a self-organizing map treat the data contents and the time information in the same row and input them to the self-organizing map. For this reason, it is difficult to reflect the transition of time-series data in data recognition, and there is a limit to improving the accuracy of data recognition.

本発明は上記課題に鑑みてなされたものであって、その目的は、時系列データの推移をデータ認識に反映させて、認識精度を向上させることができる時系列データ認識方法、時系列データ認識装置及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a time-series data recognition method and time-series data recognition capable of improving the recognition accuracy by reflecting the transition of time-series data in data recognition. To provide an apparatus and a program.

上記課題を解決するために、本発明に係る時系列データ認識方法は、複数のユニットが配置された競合層を備えるとともに、前記各ユニットに第1及び第2の重みベクトルが関連づけられた自己組織化マップの学習を学習用の時系列データを用いて行う学習ステップと、前記自己組織化マップを用いて認識用の時系列データを認識する認識ステップと、を含む。   In order to solve the above-described problem, a time-series data recognition method according to the present invention includes a competitive layer in which a plurality of units are arranged, and a self-organization in which first and second weight vectors are associated with each unit. A learning step for learning the learning map using the time series data for learning, and a recognition step for recognizing the time series data for recognition using the self-organizing map.

そして、前記学習ステップは、前記学習用の時系列データに対応する学習入力ベクトルを順次受け付けるステップと、順次受け付けられた前記学習入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するステップと、選出された前記ユニットに関連づけられた前記第1の重みベクトルを、受け付けられた前記学習入力ベクトルに近づけるステップと、前記学習用の時系列データに対応する学習入力ベクトルを時間順に受け付けるステップと、順次受け付けられた前記学習入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するとともに、選出された前記ユニットに関連づけられた前記第2の重みベクトルと、以前に受け付けられた前記学習入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルと、の類似度に基づいて、選出された前記一部のユニットの中から1の勝者ユニットを選出するステップと、選出された前記勝者ユニットに関連づけられた前記第2の重みベクトルを前記勝者余韻ベクトルに近づけるステップと、選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新するステップと、を含む。   The learning step sequentially receives a learning input vector corresponding to the learning time-series data, the sequentially received learning input vector, and the first weight vector associated with each unit, A step of selecting a part of the plurality of units based on the degree of similarity, and a step of bringing the first weight vector associated with the selected unit closer to the accepted learning input vector A step of accepting learning input vectors corresponding to the time-series data for learning in time order, and the similarity between the sequentially accepted learning input vectors and the first weight vectors associated with the units. And selecting a part of the plurality of units based on the selected unit. Among the selected some units, based on the similarity between the second weight vector associated with and the winner reverberation vector indicating the history of the winner unit with respect to the previously accepted learning input vector. Selecting one winner unit from the step, bringing the second weight vector associated with the selected winner unit closer to the winner reverberation vector, and updating the winner reverberation vector according to the selected winner unit Including the steps of:

一方、前記認識ステップは、前記認識用の時系列データに対応する認識入力ベクトルを時間順に受け付けるステップと、順次受け付けられた前記認識入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するとともに、選出された前記一部のユニットに関連づけられた前記第2の重みベクトルと、以前に受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルと、の類似度に基づいて、選出された前記一部のユニットの中から1の勝者ユニットを選出するステップと、選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新するステップと、選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識するステップと、を含む。   On the other hand, the recognition step includes a step of receiving a recognition input vector corresponding to the time-series data for recognition in time order, the recognition input vector sequentially received, and the first weight vector associated with each unit. And selecting a part of the plurality of units based on the similarity, the second weight vector associated with the selected part of the unit, and the recognition received previously. Selecting one winner unit from among the selected units based on the similarity between the winner reverberation vector indicating the history of the winner unit with respect to the input vector, and according to the selected winner unit The step of updating the winner reverberation vector and a part or all of the selected winner units When including the, and step recognizes the series data.

また、本発明に係る時系列データ認識装置は、複数のユニットが配置された競合層を備える自己組織化マップを用いて、時系列データを認識する時系列データ認識装置であって、前記各ユニットに関連づけて、第1及び第2の重みベクトルを記憶する重みベクトル記憶手段と、認識用の時系列データに対応する認識入力ベクトルを時間順に受け付ける認識入力ベクトル受付手段と、順次受け付けられた前記認識入力ベクトルと前記第1の重みベクトルとの類似度、及び前記第2の重みベクトルと以前に前記認識入力ベクトル受付手段により受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルとの類似度に基づいて、前記複数のユニットの中から1の勝者ユニットを選出する勝者ユニット選出手段と、選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新する勝者余韻ベクトル更新手段と、選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識する認識手段と、を含むことを特徴とする。   The time-series data recognition apparatus according to the present invention is a time-series data recognition apparatus for recognizing time-series data using a self-organizing map having a competitive layer in which a plurality of units are arranged. A weight vector storage means for storing the first and second weight vectors, a recognition input vector reception means for receiving the recognition input vectors corresponding to the time-series data for recognition in time order, and the recognition that has been sequentially received. The similarity between the input vector and the first weight vector, and the second weight vector and a winner reverberation vector indicating the history of the winner unit for the recognized input vector previously received by the recognized input vector receiving means. A winner unit selection means for selecting one winner unit from the plurality of units based on the similarity; A winner reverberation vector updating means for updating the winner reverberation vector according to the selected winner unit, and a recognition means for recognizing the time-series data for recognition by a part or all of the selected winner units. It is characterized by.

また、本発明に係るプログラムは、複数のユニットが配置された競合層を備える自己組織化マップを用いて、時系列データを認識するプログラムであって、前記各ユニットに関連づけて、第1及び第2の重みベクトルを記憶する重みベクトル記憶手段、認識用の時系列データに対応する認識入力ベクトルを時間順に受け付ける認識入力ベクトル受付手段、順次受け付けられた前記認識入力ベクトルと、順次受け付けられた前記認識入力ベクトルと前記第1の重みベクトルとの類似度、及び前記第2の重みベクトルと以前に前記認識入力ベクトル受付手段により受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルとの類似度に基づいて、前記複数のユニットの中から1の勝者ユニットを選出する勝者ユニット選出手段と、選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新する勝者余韻ベクトル更新手段、及び選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識する認識手段としてコンピュータを機能させるためのプログラムである。   A program according to the present invention is a program for recognizing time-series data using a self-organizing map having a competitive layer in which a plurality of units are arranged, and is associated with each unit, Weight vector storage means for storing two weight vectors, recognition input vector reception means for receiving recognition input vectors corresponding to time series data for recognition in time order, the recognition input vectors received sequentially, and the recognition received sequentially The similarity between the input vector and the first weight vector, and the second weight vector and a winner reverberation vector indicating the history of the winner unit for the recognized input vector previously received by the recognized input vector receiving means. Based on the similarity, the winner unit selects one winner unit from the plurality of units. Recognition for recognizing the time-series data for recognition by a selection means, a winner reverberation vector updating means for updating the winner reverberation vector in accordance with the selected winner unit, and a part or all of the selected winner units A program for causing a computer to function as means.

本発明では、データ認識の際、認識用の時系列データが入力される。この時系列データは認識入力ベクトルの時間順の列からなっており、各認識入力ベクトルが時間順に入力される。自己組織化マップの競合層に配置された各ユニットには、2つの重みベクトル、すなわち第1及び第2の重みベクトルが関連づけられる。第1の重みベクトルは認識入力ベクトルとの類似度(第1の類似度)が算出されるものであり、第2の重みベクトルは勝者ユニットの履歴を示す勝者余韻ベクトルとの類似度(第2の類似度)が算出されるものである。本発明によれば、競合層のユニットのうちどれが勝者ユニットであるかを、上記第1の類似度、すなわち認識入力ベクトルの内容に関する評価と、上記第2の類似度、すなわち勝者ユニットの履歴に関する評価と、を考慮して決定することができる。換言すれば、本発明では、認識入力ベクトルの内容及びその内容に至るまでの認識入力ベクトルの変化を考慮して勝者ユニットを決定することができる。このため、認識用の時系列データの推移をデータ認識に反映させて、認識精度を向上させることができる。   In the present invention, time series data for recognition is input at the time of data recognition. This time-series data consists of a sequence of recognition input vectors in time order, and each recognition input vector is input in time order. Each unit placed in the competitive layer of the self-organizing map is associated with two weight vectors, namely a first and a second weight vector. The first weight vector is for calculating the similarity (first similarity) with the recognition input vector, and the second weight vector is the similarity (second) with the winner reverberation vector indicating the history of the winner unit. Of similarity) is calculated. According to the present invention, which of the competitive layer units is the winner unit is evaluated based on the first similarity, that is, the contents of the recognition input vector, and the second similarity, that is, the history of the winner unit. And can be determined in consideration of the evaluation. In other words, in the present invention, the winner unit can be determined in consideration of the content of the recognition input vector and the change of the recognition input vector up to the content. For this reason, the transition of the time series data for recognition can be reflected in data recognition, and recognition accuracy can be improved.

なお、前記勝者余韻ベクトルは、前記各ユニットに関連づけられた、該ユニットが勝者ユニットとして選出されるのに応じて更新される勝者余韻値を含んでもよい。また、前記勝者余韻値は、前記学習入力ベクトル又は前記認識入力ベクトルが受け付けられるのに従って減少するようにしてもよい。   The winner reverberation vector may include a winner reverberation value associated with each unit and updated as the unit is selected as a winner unit. The winner reverberation value may be decreased as the learning input vector or the recognition input vector is accepted.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

本実施形態に係る時系列データ認識方法では自己組織化マップが用いられる。図1は、この自己組織化マップのネットワーク構造を示す図である。本実施形態では、同図に示す構造の自己組織化マップがコンピュータ上で管理され、これを用いてコンピュータにより時系列データの認識が行われる。同図に示すように、本実施形態に係る時系列データ認識方法で用いる自己組織化マップは、入力層、競合層、勝者余韻層の3層から構成されている点が特徴的である。   In the time-series data recognition method according to the present embodiment, a self-organizing map is used. FIG. 1 is a diagram showing a network structure of this self-organizing map. In the present embodiment, a self-organizing map having the structure shown in FIG. 3 is managed on a computer, and time series data is recognized by the computer using this map. As shown in the figure, the self-organizing map used in the time-series data recognition method according to the present embodiment is characterized by being composed of three layers: an input layer, a competitive layer, and a winner reverberation layer.

入力層は、時系列データを構成する入力ベクトルの各成分が入力されるユニットが配置されている。本実施形態では、手書き数字の筆跡を示す座標の系列から生成された速度ベクトルの系列が、認識対象の時系列データとして用いられる。図2は、本実施形態において認識対象となる時系列データの生成手順を示している。同図に示すように、まずタブレット等にユーザが数字を筆記することにより、所定時間毎の筆記位置の座標が取得される。そして、時間的に前後する筆記位置の座標の差分を演算することにより、各手書き数字について、筆記位置の速度ベクトルの系列が得られる。同図において、各手書き数字の上に描かれた丸印はタブレット等により取得される所定時間毎の筆記位置を示している。また、各手書き数字の右側に示されたグラフは、筆記位置の速度ベクトルの垂直方向及び水平方向の各成分の値の推移を示している。次式(1)に示すように、各手書き数字は、有限(例えばT個)の速度ベクトル(入力ベクトル)の系列(時系列データ)により表現され、各速度ベクトルは、次式(2)に示すように、垂直方向の成分x1(t)及び水平方向の成分x2(t)を有している。ここでは、入力層に2つのユニットが配置され、一方にx1(t)が入力され、他方にx2(t)が入力される。   In the input layer, units for inputting each component of the input vector constituting the time series data are arranged. In the present embodiment, a speed vector series generated from a series of coordinates indicating handwriting of handwritten numerals is used as time series data to be recognized. FIG. 2 shows a procedure for generating time-series data to be recognized in the present embodiment. As shown in the figure, when a user first writes a number on a tablet or the like, the coordinates of the writing position for each predetermined time are acquired. Then, by calculating the difference between the coordinates of the writing position that moves back and forth in time, a series of velocity vectors at the writing position can be obtained for each handwritten numeral. In the figure, a circle drawn on each handwritten numeral indicates a writing position for each predetermined time acquired by a tablet or the like. The graph shown on the right side of each handwritten numeral shows the transition of the value of each component in the vertical direction and the horizontal direction of the velocity vector at the writing position. As shown in the following equation (1), each handwritten numeral is represented by a series (time series data) of finite (eg, T) velocity vectors (input vectors), and each velocity vector is expressed by the following equation (2). As shown, it has a vertical component x1 (t) and a horizontal component x2 (t). Here, two units are arranged in the input layer, x1 (t) is input to one and x2 (t) is input to the other.

Figure 2007220032
Figure 2007220032

競合層にはN個のユニット(ここではN=6×6)が正方配置されており、各ユニットには結合重みベクトル(第1の重みベクトル)Wj及び経験重みベクトル(第2の重みベクトル)Ujが関連づけられている。入力層に時系列データを構成する各入力ベクトルが入力されると、各ユニットの結合重みベクトルWj及び経験重みベクトルUjに基づいて、競合層に配置されたユニットの中から1つの勝者ユニットが選出される。結合重みベクトルWjは、次式(3)に示すように入力ベクトルと同次元のベクトルであり、経験重みベクトルUjは、次式(4)に示すように競合層に配置されたユニットと同数の次元数を有するベクトルである。   N units (here, N = 6 × 6) are squarely arranged in the competitive layer, and each unit has a combined weight vector (first weight vector) Wj and an empirical weight vector (second weight vector). Uj is associated. When each input vector constituting the time series data is input to the input layer, one winner unit is selected from the units arranged in the competitive layer based on the coupling weight vector Wj and the experience weight vector Uj of each unit. Is done. The joint weight vector Wj is a vector having the same dimension as the input vector as shown in the following equation (3), and the empirical weight vector Uj is the same as the units arranged in the competitive layer as shown in the following equation (4). A vector having dimensionality.

Figure 2007220032
Figure 2007220032

勝者余韻層にも、競合層に配置されたユニットと同数のN個のユニットが正方配置されている。勝者余韻層の各ユニットAjは、競合層のユニットBjに対応している。そして、勝者余韻層の各ユニットAjには勝者余韻値Yj(t)が関連づけられている。この勝者余韻値Yj(t)は、競合層のユニットBjが勝者ユニットに選出された場合に増加し、また時間経過に従って減少するものである。従って、次式(5)に示す、勝者余韻値Y1(t)〜YN(t)を成分とする勝者余韻ベクトルY(t)は、競合層に配置されたユニットにおける勝者ユニットの履歴を示す。   The same number of N units as the units arranged in the competitive layer are also arranged squarely in the winner reverberation layer. Each unit Aj of the winner reverberation layer corresponds to the unit Bj of the competitive layer. Each unit Aj of the winner reverberation layer is associated with a winner reverberation value Yj (t). The winner reverberation value Yj (t) increases when the competitive layer unit Bj is selected as the winner unit, and decreases with time. Accordingly, the winner reverberation vector Y (t) having the components of the winner reverberation values Y1 (t) to YN (t) shown in the following equation (5) indicates the history of the winner unit in the units arranged in the competitive layer.

Figure 2007220032
Figure 2007220032

図3は、勝者余韻ベクトルの更新を説明する図である。同図において、勝者余韻層のユニット上に描かれた棒は同ユニットに関連づけられた勝者余韻値の大きさを示している。同図に示すように、時刻1で競合層のあるユニットが勝者ユニットに選出されると、時刻2でそのユニットに関連づけられた勝者余韻値が急増する。また、時刻2では競合層の別のユニットが勝者ユニットに選出されると、時刻3でそのユニットに関連づけられた勝者余韻値が急増する。このとき、時刻2で急増した勝者余韻値は時刻3になると、時間経過により減少する。同様に、時刻3で競合層のさらに別のユニットが勝者ユニットに選出されると、時刻4でそのユニットに関連づけられた勝者余韻値が急増する。このとき、時刻3で急増した勝者余韻値は時刻4になると、時間経過により減少する。また、時刻2で急増した勝者余韻値は、時間経過によりさらに減少する。このように、勝者余韻ベクトルY(t)は、時刻t−1以前における勝者ユニット及びそれらが勝者ユニットに選出された順序の情報を含んでいる。   FIG. 3 is a diagram for explaining the update of the winner reverberation vector. In the figure, the bar drawn on the unit of the winner reverberation layer indicates the size of the winner reverberation value associated with the unit. As shown in the figure, when a unit having a competitive layer is selected as a winner unit at time 1, the winner reverberation value associated with that unit rapidly increases at time 2. Further, when another unit in the competitive layer is selected as a winner unit at time 2, the winner reverberation value associated with that unit rapidly increases at time 3. At this time, the winner reverberation value that rapidly increased at time 2 decreases at time 3 when time passes. Similarly, when another unit in the competitive layer is selected as a winner unit at time 3, the winner reverberation value associated with that unit rapidly increases at time 4. At this time, the winner reverberation value that rapidly increased at time 3 decreases at time 4 as time elapses. In addition, the winner reverberation value that rapidly increased at time 2 further decreases with the passage of time. Thus, the winner reverberation vector Y (t) includes information on the winner units before time t−1 and the order in which they were selected as the winner units.

具体的には、勝者余韻ベクトルの更新は、次式(6)に従って行われる。同式によりYjの値域は次式(7)のようになる。また、式(6)の右辺第一項に含まれるZj(t)は、次式(8)に示すように、時刻tにおいて競合層のユニットBjが勝者ユニットに選出された場合に1の値をとり、選出されなかった場合に0の値をとる関数である。また、式(6)の右辺に含まれるγは次式(9)の値域をとる忘却関数であり、あるユニットが勝者ユニットに選出された場合に、それに対応する勝者余韻値が急増する程度、及び時間経過とともに勝者余韻値が減少する程度を示すパラメータである。   Specifically, the winner reverberation vector is updated according to the following equation (6). From this equation, the value range of Yj becomes the following equation (7). In addition, Zj (t) included in the first term on the right side of Expression (6) is a value of 1 when a competitive unit Bj is selected as a winner unit at time t as shown in Expression (8) below. Is a function that takes a value of 0 if not selected. Further, γ included in the right side of Expression (6) is a forgetting function that takes a range of the following Expression (9), and when a unit is selected as a winner unit, the corresponding winner reverberation value rapidly increases. And a parameter indicating the extent to which the winner finish value decreases with time.

Figure 2007220032
Figure 2007220032

ここで、時系列データの認識にあたって必要となる、事前準備の処理について説明する。図4は、この事前準備の処理を示すフロー図である。事前準備としては、まず学習用の時系列データを用いて、自己組織化マップの競合層の各ユニットBjに関連づけられた結合重みベクトルWjの学習を行う(S101)。さらに、同じく学習用の時系列データを用いて、各ユニットBjに関連づけられた経験重みベクトルUjの学習を行う(S102)。その後、既知の時系列データを学習済みの自己組織化マップに入力して、その時系列データを構成する入力ベクトルのうち最後のものに対応する勝者ユニットの識別番号を出力する(S103)。そして、その値をS103で自己組織化マップに入力した時系列データが表す手書き数字の内容に関連づけて、判定データとして記録しておく(S104)。   Here, a preparation process required for recognizing time-series data will be described. FIG. 4 is a flowchart showing the preparation process. As advance preparation, first, learning of the connection weight vector Wj associated with each unit Bj of the competitive layer of the self-organizing map is performed using the time series data for learning (S101). Further, the empirical weight vector Uj associated with each unit Bj is also learned using the time series data for learning (S102). Thereafter, the known time-series data is input to the learned self-organizing map, and the identification number of the winner unit corresponding to the last one of the input vectors constituting the time-series data is output (S103). Then, the value is recorded as determination data in association with the contents of the handwritten numerals represented by the time-series data input to the self-organizing map in S103 (S104).

次に、時系列データの内容を判定する処理について説明する。図5は、時系列データの内容判定処理を示すフロー図である。この処理では、まず認識用の時系列データを学習済みの自己組織化マップに入力して、その時系列データを構成する入力ベクトルのうち最後のものに対応する勝者ユニットの識別番号を出力する(S501)。そして、この識別番号を上記判定データに照らして、認識用の時系列データが表す手書き数字の内容を判定し、判定結果を出力する(S502)。   Next, processing for determining the contents of time-series data will be described. FIG. 5 is a flowchart showing the content determination processing of time series data. In this process, first, the time series data for recognition is input to the learned self-organizing map, and the identification number of the winner unit corresponding to the last one of the input vectors constituting the time series data is output (S501). ). Then, the content of the handwritten number represented by the time-series data for recognition is determined by comparing the identification number with the determination data, and the determination result is output (S502).

図6は、結合重みベクトルの学習処理を示すフロー図である。同図に示す処理は、図4のS101の処理を詳細に示すものである。この処理では、まず結合重みベクトルWj(j=1〜N)を例えば乱数により初期化する(S201)。次に、事前に用意された、多数の学習用の時系列データのそれぞれを構成する入力ベクトルx(1)〜x(T)の中から、ランダムに選択された1つ(ここではx(t)と記す)を取得する(S202)。そして、この入力ベクトルx(t)と結合重みベクトルWj(j=1〜N)の類似度を次式(10)により算出するとともに、その値を用いて次式(11)により勝者ユニットcを選出する。すなわち、勝者ユニットcは、競合層に配置されたユニットBj(j=1〜N)のうち、それに対応する結合重みベクトルWjと入力ベクトルx(t)との類似度が最も大きなものである。さらに、競合層において、勝者ユニットcの近傍(所定の近傍範囲内)に配置されたユニットも選出する(S203)。   FIG. 6 is a flowchart showing the learning process of the connection weight vector. The process shown in the figure shows the process of S101 in FIG. 4 in detail. In this process, first, the connection weight vector Wj (j = 1 to N) is initialized with a random number, for example (S201). Next, one randomly selected from the input vectors x (1) to x (T) constituting each of a large number of learning time-series data prepared in advance (here, x (t )) Is acquired (S202). Then, the similarity between the input vector x (t) and the coupling weight vector Wj (j = 1 to N) is calculated by the following equation (10), and the winner unit c is calculated by the following equation (11) using the value. elect. That is, the winner unit c has the highest similarity between the corresponding combination weight vector Wj and the input vector x (t) among the units Bj (j = 1 to N) arranged in the competitive layer. Further, a unit arranged in the vicinity of the winner unit c (within a predetermined vicinity range) in the competitive layer is also selected (S203).

Figure 2007220032
Figure 2007220032

そして、勝者ユニットc及びその近傍のユニットに関連づけられた結合重みベクトルWjを次式(12)に従って更新する。ここで、Wjnewは更新後の重みベクトルWjであり、Wjoldは更新前の重みベクトルWjである。また、αは学習係数である。   Then, the connection weight vector Wj associated with the winner unit c and its neighboring units is updated according to the following equation (12). Here, Wjnew is a weight vector Wj after update, and Wjold is a weight vector Wj before update. Α is a learning coefficient.

Figure 2007220032
Figure 2007220032

その後、事前に用意された入力ベクトルの中に、S202で未だ選択されていないものがないかを判断する(S205)。そして、そのようなものがあれば、それらの入力ベクトルについてS202〜S204の処理を実行する。また、以上のS202〜S205の処理は既定回数繰り返される(S206)。この際、上記の学習係数αを徐々に小さくし、また上記の所定の近傍範囲を徐々に狭くする。以上の学習処理により、競合層の各ユニットBjに関連づけられた結合重みベクトルWjは、手書き文字で頻出する速度ベクトルに相当するものとなる。   Thereafter, it is determined whether there are any input vectors prepared in advance that have not yet been selected in S202 (S205). If there is such a thing, the processes of S202 to S204 are executed for those input vectors. Further, the processes of S202 to S205 are repeated a predetermined number of times (S206). At this time, the learning coefficient α is gradually reduced, and the predetermined neighborhood range is gradually narrowed. With the above learning process, the connection weight vector Wj associated with each unit Bj in the competitive layer corresponds to a velocity vector that frequently appears in handwritten characters.

次に、図7は、経験重みベクトルUjの学習処理を示すフロー図である。同図に示す処理は、図4のS102の処理を詳細に示すものである。この処理では、まず経験重みベクトルUj(j=1〜N)を例えば乱数により初期化する(S301)。次に、時間の変数tを1に設定して(S302)、学習用の時系列データを構成する入力ベクトルx(t)を取得する(S303)。そして、次式(13)により仮勝者ユニットkを決定する(S304)。ここで、次式(13)において、右辺の括弧内の式は入力ベクトルx(t)と結合重みベクトルWjの類似度を示す。さらに、次式(14)を満足する、複数の勝者候補ユニットhを決定する(S305)。ここで、Φは所与の定数である。   Next, FIG. 7 is a flowchart showing learning processing of the experience weight vector Uj. The process shown in the figure shows the process of S102 of FIG. 4 in detail. In this process, first, the experience weight vector Uj (j = 1 to N) is initialized, for example, with a random number (S301). Next, a time variable t is set to 1 (S302), and an input vector x (t) constituting time series data for learning is acquired (S303). Then, the temporary winner unit k is determined by the following equation (13) (S304). Here, in the following expression (13), the expression in parentheses on the right side indicates the similarity between the input vector x (t) and the coupling weight vector Wj. Further, a plurality of winner candidate units h that satisfy the following expression (14) are determined (S305). Where Φ is a given constant.

Figure 2007220032
Figure 2007220032

その後、勝者候補ユニットhの中から、次式(15)により勝者ユニットsを選出する(S306)。すなわち、すべての勝者候補ユニットhについて、次式(16)により、勝者余韻ベクトルY(t)と経験重みベクトルUj(j∈h)との類似度を算出し、類似度が最大となる(つまり、式(16)の値が最小となる)ものを、勝者ユニットsとして選出する。そして、次式(17)により、勝者ユニットsの経験重みベクトルUsを更新する。ここで、Usnewは更新後の経験重みベクトルUsであり、Usoldは更新前の経験重みベクトルUsである。   Thereafter, the winner unit s is selected from the winner candidate units h by the following equation (15) (S306). That is, the similarity between the winner reverberation vector Y (t) and the experience weight vector Uj (j∈h) is calculated for all winner candidate units h by the following equation (16), and the similarity is maximized (that is, , The value of Equation (16) is minimized) is selected as the winner unit s. Then, the experience weight vector Us of the winner unit s is updated by the following equation (17). Here, Usnew is the updated experience weight vector Us, and Usold is the updated experience weight vector Us.

Figure 2007220032
Figure 2007220032

その後、上記の式(6)及び式(8)により、勝者余韻ベクトルY(t)を更新して、時刻t+1における勝者余韻ベクトルY(t+1)を算出する(S308)。そして、tの値がT(学習用の時系列データを構成する入力ベクトルの個数)以上となるまで、tを1ずつインクリメントして(S310)、S303〜S308を繰り返す。こうして、学習用の時系列データを構成する入力ベクトルx(1)〜x(T)を順に用いて、経験重みベクトルUj(j=1〜N)の学習を行う。以上の処理は他の手書き数字に対応する時系列データについても同様に行われ(S311)、さらにいずれも既定回数繰り返される(S312)。以上の学習処理により、競合層の各ユニットBjに関連づけられた経験重みベクトルUjは、ユニットBjが勝者ユニットに選出される際の勝者余韻ベクトルY(t)に相当するものとなる。   Thereafter, the winner reverberation vector Y (t) is updated by the above equations (6) and (8) to calculate the winner reverberation vector Y (t + 1) at time t + 1 (S308). Then, t is incremented by 1 (S310) and S303 to S308 are repeated until the value of t is equal to or greater than T (the number of input vectors constituting learning time-series data). In this way, the empirical weight vectors Uj (j = 1 to N) are learned using the input vectors x (1) to x (T) constituting the time series data for learning in order. The above processing is similarly performed for time-series data corresponding to other handwritten numerals (S311), and both are repeated a predetermined number of times (S312). Through the above learning process, the experience weight vector Uj associated with each unit Bj of the competitive layer corresponds to the winner reverberation vector Y (t) when the unit Bj is selected as the winner unit.

ここで、以上のようにして結合重みベクトルWj及び経験重みベクトルUjの学習を終えた自己組織化マップを用いて、時系列データを認識する処理について説明する。図8は、時系列データの認識処理を示すフロー図であり、図4のS103及び図5のS501の処理を詳細に示すものである。この処理では、まず時間の変数tを1に設定して(S401)、認識用の時系列データを構成する入力ベクトルx(t)を取得する(S402)。そして、上式(13)により仮勝者ユニットkを決定する(S403)。さらに、上式(14)を満足する、複数の勝者候補ユニットhを決定する(S404)。   Here, a process for recognizing time-series data using the self-organizing map after learning the connection weight vector Wj and the experience weight vector Uj as described above will be described. FIG. 8 is a flowchart showing time-series data recognition processing, and shows details of the processing in S103 in FIG. 4 and S501 in FIG. In this process, first, a time variable t is set to 1 (S401), and an input vector x (t) constituting time series data for recognition is acquired (S402). Then, the temporary winner unit k is determined by the above equation (13) (S403). Further, a plurality of winner candidate units h that satisfy the above equation (14) are determined (S404).

その後、勝者候補ユニットhの中から、上式(15)により勝者ユニットsを選出する(S405)。すなわち、すべての勝者候補ユニットhについて、上式(16)により、勝者余韻ベクトルY(t)と経験重みベクトルUj(j∈h)との類似度を算出し、類似度が最大となる(つまり、式(16)の値が最小となる)ものを、勝者ユニットsとして選出する。   Thereafter, the winner unit s is selected from the winner candidate units h by the above equation (15) (S405). That is, the similarity between the winner reverberation vector Y (t) and the experience weight vector Uj (j∈h) is calculated by the above equation (16) for all winner candidate units h, and the similarity is maximized (that is, , The value of Equation (16) is minimized) is selected as the winner unit s.

次に、上記の式(6)及び式(8)により、勝者余韻ベクトルY(t)を更新して、時刻t+1における勝者余韻ベクトルY(t+1)を算出する(S406)。そして、tの値がT(認識用の時系列データを構成する入力ベクトルの個数)以上となるまで、tを1ずつインクリメントして(S408)、S402〜S406を繰り返す。こうして、認識用の時系列データを構成する入力ベクトルx(1)〜x(T)を順に自己組織化マップに入力して、勝者ユニットsを順次決定する。そして、最終の入力ベクトル、すなわち入力ベクトルx(T)に対して得られた勝者ユニットsの識別番号sを出力する(S409)。   Next, the winner reverberation vector Y (t) is updated by the above equations (6) and (8) to calculate the winner reverberation vector Y (t + 1) at time t + 1 (S406). Then, t is incremented by 1 until the value of t becomes equal to or greater than T (the number of input vectors constituting the recognition time-series data) (S408), and S402 to S406 are repeated. In this way, the input vectors x (1) to x (T) constituting the time series data for recognition are sequentially input to the self-organizing map, and the winner unit s is sequentially determined. Then, the identification number s of the winner unit s obtained for the final input vector, that is, the input vector x (T) is output (S409).

図1に示す自己組織化マップにおいて、競合層の各ユニットBjに関連づけられた結合重みベクトルWjは、事前の学習により、手書き文字で頻出する速度ベクトルに相当するものとなっている。また、競合層の各ユニットBjに関連づけられた経験重みベクトルUjは、事前の学習により、ユニットBjが勝者ユニットに選出される際の勝者余韻ベクトルY(t)に相当するものとなっている。従って、認識用の時系列データを構成する入力ベクトルx(t)を自己組織化マップに時間順に入力して、入力ベクトルx(t)と結合重みベクトルWjとの類似度が高く、且つ勝者余韻ベクトルY(t)と経験重みベクトルUjとの類似度が高い競合層のユニットBjを勝者ユニットsとして順次決定することにより、最終の入力ベクトルx(T)に対応する勝者ユニットsは、認識用に入力した時系列データが示す手書き数字の内容に対応するものとなる。そして、本実施形態では、この勝者ユニットsの識別番号sを、判定データに照査することにより認識用に入力した時系列データが示す手書き数字の内容を判定するようにしている。このように、本実施形態によれば、認識用の時系列データの推移をデータ認識に反映させることができるので、認識精度を向上させることができる。   In the self-organizing map shown in FIG. 1, the connection weight vector Wj associated with each unit Bj in the competitive layer corresponds to a velocity vector that frequently appears in handwritten characters by prior learning. Further, the experience weight vector Uj associated with each unit Bj in the competitive layer corresponds to the winner reverberation vector Y (t) when the unit Bj is selected as a winner unit by prior learning. Therefore, the input vector x (t) constituting the time series data for recognition is input to the self-organizing map in time order, the similarity between the input vector x (t) and the combined weight vector Wj is high, and the winner finish The winning unit s corresponding to the final input vector x (T) can be recognized by sequentially determining the unit Bj of the competitive layer having a high similarity between the vector Y (t) and the experience weight vector Uj as the winning unit s. This corresponds to the contents of the handwritten numerals indicated by the time-series data input to. In this embodiment, the contents of the handwritten numerals indicated by the time-series data input for recognition are determined by checking the identification number s of the winner unit s against the determination data. As described above, according to this embodiment, the transition of the time-series data for recognition can be reflected in the data recognition, so that the recognition accuracy can be improved.

図9は、上記の時系列データ認識方法を適用した時系列データ認識装置の構成を示す図である。同図に示すように、この時系列データ認識装置10は、入力ベクトル受付部12、勝者候補決定部14、結合重みベクトル記憶部16、経験重みベクトル記憶部18、勝者決定部20、勝者余韻ベクトル記憶部22、勝者余韻ベクトル更新部24、判定部26及び判定データ記憶部28を含んでいる。これらの要素は各種のコンピュータに本実施形態に係る認識プログラムを実行させることにより実現されるものである。プログラムは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納されてよい。   FIG. 9 is a diagram illustrating a configuration of a time-series data recognition apparatus to which the above-described time-series data recognition method is applied. As shown in the figure, the time-series data recognition apparatus 10 includes an input vector receiving unit 12, a winner candidate determining unit 14, a combined weight vector storage unit 16, an experience weight vector storage unit 18, a winner determining unit 20, a winner reverberation vector. A storage unit 22, a winner reverberation vector update unit 24, a determination unit 26, and a determination data storage unit 28 are included. These elements are realized by causing various computers to execute the recognition program according to the present embodiment. The program may be stored in a computer-readable information storage medium such as a CD-ROM or DVD-ROM.

まず、結合重みベクトル記憶部16は、競合層の各ユニットBjに関連づけて結合重みベクトルWjを記憶し、経験重みベクトル記憶部18は、競合層の各ユニットBjに関連づけて経験重みベクトルUjを記憶する。これら結合重みベクトルWj及び経験重みベクトルUjの値は、図6及び図7の処理により事前に得られたものである。また、勝者余韻ベクトル記憶部22は、現時刻tにおける勝者余韻ベクトルY(t)を記憶する。   First, the connection weight vector storage unit 16 stores the connection weight vector Wj in association with each unit Bj in the competitive layer, and the experience weight vector storage unit 18 stores the experience weight vector Uj in association with each unit Bj in the competition layer. To do. The values of the connection weight vector Wj and the experience weight vector Uj are obtained in advance by the processes of FIGS. The winner reverberation vector storage unit 22 stores the winner reverberation vector Y (t) at the current time t.

入力ベクトル受付部12は、認識用の時系列データを構成する入力ベクトルx(1)〜x(T)を時間順に受け付ける。そして、勝者候補決定部14及び勝者決定部20は、順次受け付けられた入力ベクトルx(t)と結合重みベクトルWjとの類似度、及び経験重みベクトルUjと勝者余韻ベクトルY(t)との類似度に基づいて、競合層のユニットの中から1の勝者ユニットを選出する。すなわち、順次受け付けられた入力ベクトルx(t)と、競合層の各ユニットBjに関連づけられた結合重みベクトルWjと、の類似度に基づいて、競合層のユニットの中から一部を選出するとともに、選出されたユニットに関連づけられた経験重みベクトルUjと、勝者余韻ベクトルY(t)と、の類似度に基づいて、選出された前記一部のユニットの中から1の勝者ユニットを選出する。   The input vector receiving unit 12 receives input vectors x (1) to x (T) constituting time series data for recognition in time order. Then, the winner candidate determination unit 14 and the winner determination unit 20 sequentially input the similarity between the input vector x (t) and the combined weight vector Wj, and the similarity between the experience weight vector Uj and the winner reverberation vector Y (t). Based on the degree, one winner unit is selected from the units in the competitive layer. That is, based on the similarity between the sequentially accepted input vector x (t) and the coupling weight vector Wj associated with each unit Bj in the competitive layer, a part is selected from the units in the competitive layer. Based on the similarity between the experience weight vector Uj associated with the selected unit and the winner reverberation vector Y (t), one winner unit is selected from the selected units.

具体的には、勝者候補決定部14は、入力ベクトル受付部12により受け付けられる入力ベクトルx(t)及び結合重みベクトル記憶部16から読み出される結合重みベクトルWjを上式(13)に代入し、それにより仮勝者ユニットkを決定する。さらに、上式(14)を満足する、複数の勝者候補ユニットhを決定する。そして、勝者決定部20は、勝者候補ユニットhに関する経験重みベクトルUjを経験重みベクトル記憶部18から読み出し、また勝者余韻ベクトル記憶部22から勝者余韻ベクトルY(t)を読み出し、それらを上式(15)に代入して、勝者候補ユニットhの中から勝者ユニットsを選出する。   Specifically, the winner candidate determination unit 14 substitutes the input vector x (t) received by the input vector reception unit 12 and the connection weight vector Wj read from the connection weight vector storage unit 16 into the above equation (13), Thereby, the temporary winner unit k is determined. Further, a plurality of winner candidate units h that satisfy the above equation (14) are determined. Then, the winner determination unit 20 reads the experience weight vector Uj related to the winner candidate unit h from the experience weight vector storage unit 18, and also reads the winner reverberation vector Y (t) from the winner reverberation vector storage unit 22, and sets them as the above formula ( Substituting into 15), the winner unit s is selected from the winner candidate units h.

勝者余韻ベクトル更新部24は、勝者決定部20により選出された勝者ユニットsに従って勝者余韻ベクトルY(t)を更新する。すなわち、上記の式(6)及び式(8)により、勝者余韻ベクトルY(t)を更新して、時刻t+1における勝者余韻ベクトルY(t+1)を算出する。   The winner reverberation vector update unit 24 updates the winner reverberation vector Y (t) according to the winner unit s selected by the winner determination unit 20. That is, the winner reverberation vector Y (t) is updated by the above equations (6) and (8), and the winner reverberation vector Y (t + 1) at time t + 1 is calculated.

判定データ記憶部28は、既知の内容の時系列データを自己組織化マップに入力して、その最後の入力ベクトルに対して選出された勝者ユニットsの識別番号sと、既知の内容を示す内容データ(例えば手書き数字の内容を示す数字データ)と、を関連づけて記憶するものである。判定部26は、認識用の時系列データを構成する入力ベクトルのうち最後のもの(x(T))に対して選出された勝者ベクトルsの識別番号sを取得して、その識別番号sに関連づけて判定データ記憶部28に記憶された内容データを読み出し、それを判定結果として出力する。   The determination data storage unit 28 inputs time-series data of known contents to the self-organizing map, and the identification number s of the winner unit s selected for the last input vector, and contents indicating the known contents Data (for example, numeric data indicating the contents of handwritten numerals) is stored in association with each other. The determination unit 26 obtains the identification number s of the winner vector s selected for the last one (x (T)) of the input vectors constituting the recognition time-series data, and uses the identification number s as the identification number s. The content data stored in the determination data storage unit 28 in association with each other is read and output as a determination result.

かかる時系列データ認識装置10によれば、比較的軽い情報処理により、認識用の時系列データの推移をデータ認識に反映させ、認識精度を向上させることができる。従って、携帯電話機や携帯情報端末等の小型のコンピュータに適用しても、手書き文字の認識を高速且つ高精度に行うことができるようになる。   According to the time-series data recognition device 10, it is possible to improve the recognition accuracy by reflecting the transition of the time-series data for recognition in the data recognition by relatively light information processing. Therefore, even when applied to a small computer such as a mobile phone or a personal digital assistant, handwritten characters can be recognized at high speed and with high accuracy.

本実施形態に係る時系列データの認識処理において用いられる自己組織化マップのネットワーク構成図である。It is a network block diagram of the self-organization map used in the recognition processing of time series data concerning this embodiment. 学習用又は認識用に自己組織化マップに入力される時系列データの生成手順を示す図である。It is a figure which shows the production | generation procedure of the time series data input into a self-organizing map for learning or recognition. 勝者余韻ベクトルの更新の様子を示す図である。It is a figure which shows the mode of the update of a winner reverberation vector. 時系列データの認識のための事前準備の処理を示すフロー図である。It is a flowchart which shows the process of prior preparation for recognition of time series data. 時系列データの内容判定処理を示すフロー図である。It is a flowchart which shows the content determination processing of time series data. 結合重みベクトルの学習処理を示すフロー図である。It is a flowchart which shows the learning process of a joint weight vector. 経験重みベクトルの学習処理を示すフロー図である。It is a flowchart which shows the learning process of an experience weight vector. 時系列データの認識処理を示すフロー図である。It is a flowchart which shows the recognition processing of time series data. 本実施形態に係る時系列データ認識装置の構成図である。It is a lineblock diagram of the time series data recognition device concerning this embodiment.

符号の説明Explanation of symbols

10 時系列データ認識装置、12 入力ベクトル受付部、14 勝者候補決定部、16 結合重みベクトル記憶部、18 経験重みベクトル記憶部、20 勝者決定部、22 勝者余韻ベクトル記憶部、24 勝者余韻ベクトル更新部、26 判定部、28 判定データ記憶部。   10 time-series data recognition device, 12 input vector reception unit, 14 winner candidate determination unit, 16 joint weight vector storage unit, 18 experience weight vector storage unit, 20 winner determination unit, 22 winner reverberation vector storage unit, 24 winner reverberation vector update Part, 26 determination part, 28 determination data storage part.

Claims (5)

複数のユニットが配置された競合層を備えるとともに、前記各ユニットに第1及び第2の重みベクトルが関連づけられた自己組織化マップの学習を学習用の時系列データを用いて行う学習ステップと、
前記自己組織化マップを用いて認識用の時系列データを認識する認識ステップと、を含み、
前記学習ステップは、
前記学習用の時系列データに対応する学習入力ベクトルを順次受け付けるステップと、
順次受け付けられた前記学習入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するステップと、
選出された前記ユニットに関連づけられた前記第1の重みベクトルを、受け付けられた前記学習入力ベクトルに近づけるステップと、
前記学習用の時系列データに対応する学習入力ベクトルを時間順に受け付けるステップと、
順次受け付けられた前記学習入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するとともに、選出された前記ユニットに関連づけられた前記第2の重みベクトルと、以前に受け付けられた前記学習入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルと、の類似度に基づいて、選出された前記一部のユニットの中から1の勝者ユニットを選出するステップと、
選出された前記勝者ユニットに関連づけられた前記第2の重みベクトルを前記勝者余韻ベクトルに近づけるステップと、
選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新するステップと、を含み、
前記認識ステップは、
前記認識用の時系列データに対応する認識入力ベクトルを時間順に受け付けるステップと、
順次受け付けられた前記認識入力ベクトルと、前記各ユニットに関連づけられた前記第1の重みベクトルと、の類似度に基づいて、前記複数のユニットの中から一部を選出するとともに、選出された前記一部のユニットに関連づけられた前記第2の重みベクトルと、以前に受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルと、の類似度に基づいて、選出された前記一部のユニットの中から1の勝者ユニットを選出するステップと、
選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新するステップと、
選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識するステップと、を含む、
ことを特徴とする時系列データ認識方法。
A learning step that includes a competitive layer in which a plurality of units are arranged, and performs learning of a self-organizing map in which the first and second weight vectors are associated with each unit using time-series data for learning;
Recognizing time-series data for recognition using the self-organizing map,
The learning step includes
Sequentially receiving learning input vectors corresponding to the learning time-series data;
Selecting a part from the plurality of units based on the similarity between the learning input vector received sequentially and the first weight vector associated with each unit;
Bringing the first weight vector associated with the selected unit closer to the accepted learning input vector;
Accepting learning input vectors corresponding to the learning time-series data in chronological order;
Based on the similarity between the sequentially accepted learning input vector and the first weight vector associated with each unit, a part is selected from the plurality of units and the selected unit is selected. Based on the similarity between the second weight vector associated with the unit and the winner reverberation vector indicating the history of the winner unit with respect to the previously accepted learning input vector, Selecting one winner unit from the inside;
Bringing the second weight vector associated with the elected winner unit closer to the winner reverberation vector;
Updating the winner reverberation vector according to the selected winner unit;
The recognition step includes
Receiving recognition input vectors corresponding to the time-series data for recognition in chronological order;
Based on the similarity between the sequentially recognized recognition input vector and the first weight vector associated with each unit, a part is selected from the plurality of units and the selected unit is selected. The part selected based on the similarity between the second weight vector associated with a part of the unit and the winner reverberation vector indicating the history of the winner unit with respect to the previously recognized recognition input vector. Selecting one winner unit from among the units;
Updating the winner reverberation vector according to the selected winner unit;
Recognizing the time-series data for recognition by some or all of the selected winner units.
A time-series data recognition method characterized by the above.
請求項1に記載の時系列データ認識方法において、
前記勝者余韻ベクトルは、前記各ユニットに関連づけられた、該ユニットが勝者ユニットとして選出されるのに応じて更新される勝者余韻値を含む、
ことを特徴とする時系列データ認識方法。
The time-series data recognition method according to claim 1,
The winner reverberation vector includes a winner reverberation value associated with each unit and updated as the unit is elected as a winner unit.
A time-series data recognition method characterized by the above.
請求項2に記載の時系列データ認識方法において、
前記勝者余韻値は、前記学習入力ベクトル又は前記認識入力ベクトルが受け付けられるのに従って減少する、
ことを特徴とする時系列データ認識方法。
In the time series data recognition method according to claim 2,
The winner reverberation value decreases as the learning input vector or the recognition input vector is accepted,
A time-series data recognition method characterized by the above.
複数のユニットが配置された競合層を備える自己組織化マップを用いて、時系列データを認識する時系列データ認識装置であって、
前記各ユニットに関連づけて、第1及び第2の重みベクトルを記憶する重みベクトル記憶手段と、
認識用の時系列データに対応する認識入力ベクトルを時間順に受け付ける認識入力ベクトル受付手段と、
順次受け付けられた前記認識入力ベクトルと前記第1の重みベクトルとの類似度、及び前記第2の重みベクトルと以前に前記認識入力ベクトル受付手段により受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルとの類似度に基づいて、前記複数のユニットの中から1の勝者ユニットを選出する勝者ユニット選出手段と、
選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新する勝者余韻ベクトル更新手段と、
選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識する認識手段と、
を含むことを特徴とする時系列データ認識装置。
A time-series data recognition device for recognizing time-series data using a self-organizing map having a competitive layer in which a plurality of units are arranged,
Weight vector storage means for storing the first and second weight vectors in association with each unit;
A recognition input vector receiving means for receiving a recognition input vector corresponding to time series data for recognition in time order;
The similarity between the recognition input vector and the first weight vector received sequentially, and the history of the winner unit for the recognition input vector previously received by the recognition input vector reception means and the second weight vector. Winner unit selection means for selecting one winner unit from the plurality of units based on the similarity to the winner reverberation vector shown;
Winner reverberation vector update means for updating the winner reverberation vector according to the selected winner unit;
Recognizing means for recognizing the time-series data for recognition by some or all of the selected winner units;
A time-series data recognition apparatus comprising:
複数のユニットが配置された競合層を備える自己組織化マップを用いて、時系列データを認識するプログラムであって、
前記各ユニットに関連づけて、第1及び第2の重みベクトルを記憶する重みベクトル記憶手段、
認識用の時系列データに対応する認識入力ベクトルを時間順に受け付ける認識入力ベクトル受付手段、
順次受け付けられた前記認識入力ベクトルと前記第1の重みベクトルとの類似度、及び前記第2の重みベクトルと以前に前記認識入力ベクトル受付手段により受け付けられた前記認識入力ベクトルに対する勝者ユニットの履歴を示す勝者余韻ベクトルとの類似度に基づいて、前記複数のユニットの中から1の勝者ユニットを選出する勝者ユニット選出手段、
選出された前記勝者ユニットに従って前記勝者余韻ベクトルを更新する勝者余韻ベクトル更新手段、及び
選出された勝者ユニットのうち一部又は全部により、前記認識用の時系列データを認識する認識手段
としてコンピュータを機能させるためのプログラム。
A program for recognizing time-series data using a self-organizing map having a competitive layer in which a plurality of units are arranged,
Weight vector storage means for storing the first and second weight vectors in association with each unit;
A recognition input vector receiving means for receiving recognition input vectors corresponding to time series data for recognition in time order;
The similarity between the recognition input vector and the first weight vector received sequentially, and the history of the winner unit for the recognition input vector previously received by the recognition input vector reception means and the second weight vector. Winner unit selection means for selecting one winner unit from the plurality of units based on the similarity to the winner reverberation vector shown;
The computer functions as a winner reverberation vector updating means for updating the winner reverberation vector according to the selected winner unit, and a recognition means for recognizing the time-series data for recognition by a part or all of the selected winner units. Program to let you.
JP2006043009A 2006-02-20 2006-02-20 Time-series data recognition method, time-series data recognition apparatus and program Active JP4710014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006043009A JP4710014B2 (en) 2006-02-20 2006-02-20 Time-series data recognition method, time-series data recognition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006043009A JP4710014B2 (en) 2006-02-20 2006-02-20 Time-series data recognition method, time-series data recognition apparatus and program

Publications (2)

Publication Number Publication Date
JP2007220032A true JP2007220032A (en) 2007-08-30
JP4710014B2 JP4710014B2 (en) 2011-06-29

Family

ID=38497238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006043009A Active JP4710014B2 (en) 2006-02-20 2006-02-20 Time-series data recognition method, time-series data recognition apparatus and program

Country Status (1)

Country Link
JP (1) JP4710014B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990318A (en) * 2021-03-18 2021-06-18 中国科学院深圳先进技术研究院 Continuous learning method, device, terminal and storage medium
CN113506138A (en) * 2021-07-16 2021-10-15 瑞幸咖啡信息技术(厦门)有限公司 Data estimation method, device, equipment and storage medium of business object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141313A (en) * 1993-11-18 1995-06-02 Fujitsu Ltd Neural circuit element

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141313A (en) * 1993-11-18 1995-06-02 Fujitsu Ltd Neural circuit element

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990318A (en) * 2021-03-18 2021-06-18 中国科学院深圳先进技术研究院 Continuous learning method, device, terminal and storage medium
CN112990318B (en) * 2021-03-18 2024-05-07 中国科学院深圳先进技术研究院 Continuous learning method, device, terminal and storage medium
CN113506138A (en) * 2021-07-16 2021-10-15 瑞幸咖啡信息技术(厦门)有限公司 Data estimation method, device, equipment and storage medium of business object

Also Published As

Publication number Publication date
JP4710014B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
JP4991317B2 (en) Facial feature point detection apparatus and method
Gao et al. Balanced semisupervised generative adversarial network for damage assessment from low‐data imbalanced‐class regime
CN105912990B (en) The method and device of Face datection
JP2018063504A (en) Generation model learning method, device and program
JP7122699B2 (en) Material information output method, material information output device, material information output system, and program
JP6003492B2 (en) Character recognition device and program
US10977566B2 (en) Inferencing and learning based on sensorimotor input data
CN111737439B (en) Question generation method and device
JP2019152964A (en) Learning method and learning device
CN113254927B (en) Model processing method and device based on network defense and storage medium
Ruan et al. Dynamic gesture recognition based on improved DTW algorithm
JP4710014B2 (en) Time-series data recognition method, time-series data recognition apparatus and program
CN111144497B (en) Image significance prediction method under multitasking depth network based on aesthetic analysis
CN111722717A (en) Gesture recognition method and device and computer readable storage medium
Chai et al. Multiple-goal recognition from low-level signals
CN110070120B (en) Depth measurement learning method and system based on discrimination sampling strategy
CN111291611A (en) Pedestrian re-identification method and device based on Bayesian query expansion
CN111091022A (en) Machine vision efficiency evaluation method and system
Muhdalifah Pooling comparison in CNN architecture for Javanese script classification
CN110321822B (en) Face alignment initialization method and device based on nearest neighbor retrieval and storage medium
CN112529078A (en) Service processing method, device and equipment
JP2005301789A (en) Cluster analysis device, cluster analysis method and cluster analysis program
CN113762520A (en) Data processing method, device and equipment
JP5076138B2 (en) Pattern generation method, program and apparatus using self-organizing map
CN113240035A (en) Data processing method, device and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222