JP2014174568A - Recognition device, method, and program - Google Patents

Recognition device, method, and program Download PDF

Info

Publication number
JP2014174568A
JP2014174568A JP2013043509A JP2013043509A JP2014174568A JP 2014174568 A JP2014174568 A JP 2014174568A JP 2013043509 A JP2013043509 A JP 2013043509A JP 2013043509 A JP2013043509 A JP 2013043509A JP 2014174568 A JP2014174568 A JP 2014174568A
Authority
JP
Japan
Prior art keywords
feature
recognition
learning
features
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013043509A
Other languages
Japanese (ja)
Inventor
Minoru Mori
稔 森
Hitoshi Sakano
鋭 坂野
Seiichi Uchida
誠一 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2013043509A priority Critical patent/JP2014174568A/en
Publication of JP2014174568A publication Critical patent/JP2014174568A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow application of a recognition method allowing variation in a time series direction of DP matching or the like even when using features including global features.SOLUTION: A feature extraction unit 22 extracts a plurality of learning features defined by a value between two times, from each of pieces of learning data of time series data, and a feature selection unit 24 selects a plurality of learning features from the plurality of extracted learning features so as to maintain consistency of time series and stores a selected feature string as a string of the selected learning features and a class to which the learning data belongs, in a selected feature string storage unit 30 in association with each other. A feature extraction unit 42 extracts a plurality of object features from recognition object data, and a recognition processing unit 44 uses the selected feature string and the object features to recognize an object which the recognition object data represents, by recognition processing allowing variation in the time series direction.

Description

本発明は、認識装置、方法、及びプログラムに係り、特に、時系列データにより表される対象を認識する認識装置、方法、及びプログラム関する。   The present invention relates to a recognition apparatus, method, and program, and more particularly, to a recognition apparatus, method, and program for recognizing an object represented by time-series data.

従来、オンライン手書き文字認識やジェスチャー認識など、時系列データが表す文字やジェスチャーなどの対象を認識することが行われている。時系列データの認識における代表的な手法として、例えば、標準パターン及び入力パターン共に全ての文字ストロークや動作の軌跡を時刻順どおりに結合して表現した時系列パターンを生成し、これらのオンライン文字における筆点座標系列やジェスチャーにおける各サンプリング時での動作の特徴点間でDPマッチング(Dynamic Programming(動的計画法)によるマッチング)を行うことにより認識する手法が提案されている(例えば、非特許文献1参照)。   Conventionally, recognition of objects such as characters and gestures represented by time-series data such as online handwritten character recognition and gesture recognition has been performed. As a typical technique for recognizing time series data, for example, a standard time pattern and an input pattern are generated by combining all character strokes and motion trajectories in order of time. A method for recognizing by performing DP matching (matching by dynamic programming) between feature points of motion at the time of each sampling in a handwriting coordinate series or gesture has been proposed (for example, non-patent literature) 1).

また、DPマッチングに用いる特徴として、各サンプリング時の特徴点の座標だけではなく、隣接したサンプリング時間の特徴点間の差分としての相対座標値として定義される局所方向を用いる手法もある。   In addition, as a feature used for DP matching, there is a method using not only the coordinates of feature points at the time of each sampling but also a local direction defined as a relative coordinate value as a difference between feature points at adjacent sampling times.

さらに、相対座標値として、隣接したサンプリング時間だけでなく、更に離れたサンプリング時間での特徴点間の差分としての相対座標値を含む大局的特徴を用いる手法も提案されている(例えば、非特許文献2参照)。   Furthermore, as a relative coordinate value, a method using a global feature including a relative coordinate value as a difference between feature points not only at an adjacent sampling time but also at a farther sampling time has been proposed (for example, non-patent). Reference 2).

佐藤幸男、足立秀綱、「走り書き文字のオンライン認識」電子情報通信学会論文誌(D),Vol.J68−(D),Nol.12,pp.2116−2122Yukio Sato, Hidetsuna Adachi, “Online Recognition of Scribbled Characters” IEICE Transactions (D), Vol. J68- (D), Nol. 12, pp. 2116-2122 森稔、内田誠一、坂野等、「大局的構造情報を用いたオンライン数字認識」電子情報通信学会 技術研究報告 パターン認識・メディア理解研究会,vol.111,no.317,PRMU2011−102,pp.19−24,Nov.2011Satoshi Mori, Seiichi Uchida, Sakano et al., “Online Number Recognition Using Global Structure Information” IEICE Technical Report Pattern Recognition / Media Understanding Study Group, vol. 111, no. 317, PRMU2011-102, pp. 19-24, Nov. 2011

しかしながら、非特許文献1に記載の手法のように、各サンプリング時間での特徴点を用いたDPマッチング法では、DPマッチングにより部分的な座標のずれを吸収できるが、座標に大きな変動が生じた際には、そのずれを吸収できず、他のパターンに誤認識される場合がある、という問題がある。   However, as in the method described in Non-Patent Document 1, the DP matching method using feature points at each sampling time can absorb a partial coordinate shift by DP matching, but a large change occurs in the coordinates. In such a case, there is a problem that the deviation cannot be absorbed and may be erroneously recognized by another pattern.

また、局所方向を用いたDPマッチング法では、座標値のずれに対して耐性が向上するが、逆に各サンプリング時間での特徴点を用いないことにより、異なる座標に存在する類似した形状を持つ別のパターンに誤認識される場合がある、という問題がある。   In addition, the DP matching method using the local direction improves the tolerance against the shift of the coordinate value, but conversely, by using no feature point at each sampling time, it has a similar shape existing at different coordinates. There is a problem that it may be misrecognized by another pattern.

また、非特許文献2に記載の手法のように、大局的特徴を用いた手法では、大局的な構造情報を用いることにより、より大きな座標の変動に対して耐性を向上させることが可能であるが、特徴が時系列に並んでいないため、DPマッチング等の時系列方向への変動を許容する認識手法を適用することができない、という問題がある。   In addition, in the method using global features, such as the method described in Non-Patent Document 2, it is possible to improve tolerance to larger coordinate fluctuations by using global structure information. However, since the features are not arranged in time series, there is a problem that it is impossible to apply a recognition method that allows variation in the time series direction such as DP matching.

本発明は上記問題点に鑑みてなされたものであり、大局的特徴を含む特徴を用いた場合でも、DPマッチング等の時系列方向への変動を許容する認識手法を適用することができる認識装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and a recognition apparatus that can apply a recognition technique that allows variation in a time-series direction, such as DP matching, even when features including global features are used. It is an object to provide a method and a program.

上記目的を達成するために、本発明の認識装置は、各時刻の値で表現された時系列データの表す対象が既知の複数の学習データの各々から、2時刻間の値で定義される複数の学習特徴を抽出する特徴抽出手段と、各時刻の値で表現された時系列データの表す対象が未知の認識対象データが表す対象を、時系列方向への変動を許容する認識処理で認識する際に用いるために、前記特徴抽出手段で抽出された複数の学習特徴から、時刻順の整合性を保持するように複数の学習特徴を選択する特徴選択手段と、を含んで構成されている。   In order to achieve the above object, the recognition apparatus of the present invention provides a plurality of time-series data represented by values at each time and a plurality of objects defined by values between two times from each of a plurality of learning data whose known objects are known. The feature extraction means for extracting the learning features of the target and the target represented by the recognition target data for which the target represented by the time-series data represented by the value at each time is unknown is recognized by a recognition process that allows variation in the time-series direction. In order to use it, it is comprised including the feature selection means which selects a some learning feature so that the consistency of time order may be hold | maintained from the some learning feature extracted by the said feature extraction means.

本発明の認識装置によれば、特徴抽出手段が、各時刻の値で表現された時系列データの表す対象が既知の複数の学習データの各々から、2時刻間の値で定義される複数の学習特徴を抽出する。そして、特徴選択手段が、各時刻の値で表現された時系列データの表す対象が未知の認識対象データが表す対象を、時系列方向への変動を許容する認識処理で認識する際に用いるために、特徴抽出手段で抽出された複数の学習特徴から、時刻順の整合性を保持するように複数の学習特徴を選択する。   According to the recognition apparatus of the present invention, the feature extraction unit includes a plurality of time points defined by values between two times from each of a plurality of learning data whose target represented by time-series data expressed by values at each time is known. Extract learning features. Then, the feature selection unit uses the recognition target data represented by the recognition target data whose unknown time series data represented by the value of each time is recognized by the recognition process that allows the variation in the time series direction. In addition, a plurality of learning features are selected from the plurality of learning features extracted by the feature extraction means so as to maintain time order consistency.

これにより、大局的特徴を含む特徴を用いた場合でも、DPマッチング等の時系列方向への変動を許容する認識手法を適用することができる。   Thereby, even when features including global features are used, it is possible to apply a recognition method that allows variation in the time-series direction, such as DP matching.

また、前記特徴選択手段は、学習特徴の各々を定義する2時刻の各々が単調増加または単調減少するように複数の学習特徴を選択することができる。これにより、時刻順の整合性を保持した学習特徴を選択することができる。   The feature selection means can select a plurality of learning features so that each of the two times defining each learning feature monotonously increases or monotonously decreases. Thereby, it is possible to select a learning feature that maintains consistency in time order.

また、前記特徴選択手段は、学習特徴を順次選択する際に、現在選択している学習特徴を定義する2時刻の一方を増加または減少させた学習特徴、及び他方を増加または減少させた学習特徴のうち、前記対象の認識に対する有効性が高い方を次の特徴として選択することができる。これにより、認識性能を向上させる学習特徴を選択することができる。   In addition, when the feature selection unit sequentially selects the learning feature, the learning feature that increases or decreases one of the two times defining the currently selected learning feature, and the learning feature that increases or decreases the other Of these, the one having higher effectiveness for the recognition of the object can be selected as the next feature. Thereby, a learning feature that improves recognition performance can be selected.

また、前記特徴選択手段は、前記有効性を示す指標として、前記対象の種類を各クラスに分類した場合における前記学習特徴毎のクラス内分散とクラス間分散との比を用いることができる。これにより、クラス間の分離精度の高い認識処理を行うことができる。   In addition, the feature selection means can use a ratio between the intra-class variance and the inter-class variance for each learning feature when the target type is classified into each class as an index indicating the effectiveness. Thereby, recognition processing with high separation accuracy between classes can be performed.

また、前記特徴抽出手段は、前記認識対象データから、2時刻間の値で定義される複数の対象特徴を抽出し、前記特徴選択手段により選択された複数の学習特徴と前記複数の対象特徴とを用い、前記時系列方向への変動を許容する認識処理により、前記認識対象データが表す対象を認識する認識処理手段を含んで構成することができる。これにより、大局的特徴を含む特徴を用いた場合でも、DPマッチング等の時系列方向への変動を許容する認識処理により対象を認識することができる。   The feature extraction unit extracts a plurality of target features defined by values between two times from the recognition target data, and a plurality of learning features selected by the feature selection unit and the plurality of target features And a recognition processing means for recognizing the object represented by the recognition object data by the recognition process allowing the variation in the time series direction. Thereby, even when features including global features are used, a target can be recognized by a recognition process that allows variation in the time-series direction such as DP matching.

また、本発明の認識方法は、特徴抽出手段と、特徴選択手段とを含む認識装置における認識方法であって、前記特徴抽出手段は、各時刻の値で表現された時系列データの表す対象が既知の複数の学習データの各々から、2時刻間の値で定義される複数の学習特徴を抽出し、前記特徴選択手段は、各時刻の値で表現された時系列データの表す対象が未知の認識対象データが表す対象を、時系列方向への変動を許容する認識処理で認識する際に用いるために、前記特徴抽出手段で抽出された複数の学習特徴から、時刻順の整合性を保持するように複数の学習特徴を選択する方法である。   Further, the recognition method of the present invention is a recognition method in a recognition apparatus including a feature extraction unit and a feature selection unit, and the feature extraction unit has a target represented by time-series data expressed by values at each time. A plurality of learning features defined by values between two times are extracted from each of a plurality of known learning data, and the feature selection means has an unknown target represented by time-series data represented by values at each time Maintains consistency in time order from a plurality of learning features extracted by the feature extraction means in order to use when the object represented by the recognition target data is recognized by a recognition process that allows variation in the time-series direction. In this way, a plurality of learning features are selected.

また、本発明の認識プログラムは、コンピュータを、上記の認識装置を構成する各手段として機能させるためのプログラムである。   Moreover, the recognition program of this invention is a program for functioning a computer as each means which comprises said recognition apparatus.

以上説明したように、本発明の認識装置、方法、及びプログラムによれば、大局的特徴を含む特徴を用いた場合でも、DPマッチング等の時系列方向への変動を許容する認識手法を適用することができる、という効果が得られる。   As described above, according to the recognition apparatus, method, and program of the present invention, a recognition method that allows variation in the time series direction such as DP matching is applied even when features including global features are used. The effect that it can be obtained.

本実施の形態の文字認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the character recognition apparatus of this Embodiment. 大局的特徴の一例を示す概略図である。It is the schematic which shows an example of a global characteristic. DPマッチングを説明するための概略図である。It is the schematic for demonstrating DP matching. 選択された大局的特徴の一例を示す概略図である。It is the schematic which shows an example of the selected global characteristic. S−T空間の一例を示す概略図である。It is the schematic which shows an example of ST space. 特徴の選択を説明するための概略図である。It is the schematic for demonstrating selection of the characteristic. 本実施の形態における学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine in this Embodiment. 本実施の形態における認識処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the recognition process routine in this Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、オンライン文字を認識する文字認識装置に本発明を適用した例について説明する。なお、オンライン文字とは、文字の筆跡をストローク毎の筆点座標系列で表現したもの、すなわち、各サンプリング時刻の筆点座標値で表現された時系列データの表す文字パターンである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an example in which the present invention is applied to a character recognition device that recognizes online characters will be described. The online character is a character pattern represented by a handwriting of a character expressed by a handwriting coordinate series for each stroke, that is, time-series data expressed by a handwriting coordinate value at each sampling time.

本実施の形態に係る文字認識装置10は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する学習処理及び認識処理を含む文字認識処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、学習部20と認識部40とを含んだ構成で表すことができる。   The character recognition device 10 according to the present embodiment stores a CPU (Central Processing Unit), a RAM (Random Access Memory), and a program for executing a character recognition processing routine including learning processing and recognition processing described later. It is comprised with the computer provided with ROM (Read Only Memory). This computer can be functionally represented by a configuration including a learning unit 20 and a recognition unit 40, as shown in FIG.

まず、学習部20について説明する。学習部20は、さらに、特徴抽出部22と特徴選択部24とを含んだ構成で表すことができる。   First, the learning unit 20 will be described. The learning unit 20 can be expressed by a configuration including a feature extraction unit 22 and a feature selection unit 24.

特徴抽出部22は、時系列データが表す文字パターンが既知の学習用のオンライン文字データ(以下、「学習データ」という)を受け付け、学習データから、ストローク上の任意の2点間を結ぶ相対ベクトルを特徴として抽出する。具体的には、学習データが表す文字パターンの大きさを正規化し、N点の特徴点からなる時系列データにリサンプリングする。ここで、リサンプリングとは、1つの文字に設定する特徴点の数を決めて、特徴点をサンプリングすることをいう。リアルタイムで書かれている文字の特徴点をサンプリングする際に、一定時間毎の特徴点をとると、人によって文字を書くスピードが異なるため、1文字当たりの特徴点数にばらつきがでるためである。例えば、1つの文字に設定する特徴点の数をNとし、各特徴点の間隔が一定の距離になるようにリサンプリングする。なお、Nの数としては、字形を十分に表現可能な点数とする必要がある。   The feature extraction unit 22 receives online character data for learning (hereinafter referred to as “learning data”) whose character pattern represented by the time-series data is known, and is a relative vector connecting any two points on the stroke from the learning data. Are extracted as features. Specifically, the size of the character pattern represented by the learning data is normalized and resampled into time-series data composed of N feature points. Here, resampling means sampling the feature points by determining the number of feature points set for one character. This is because when the feature points of characters written in real time are sampled, if the feature points are taken every certain time, the speed of writing the characters varies depending on the person, and the number of feature points per character varies. For example, the number of feature points set for one character is N, and resampling is performed so that the interval between the feature points is a constant distance. Note that the number of N needs to be a number that can express the character shape sufficiently.

次に、2つの特徴点間で定義される相対ベクトル(dx,dy)を特徴として抽出する。ここでは、1次元目の特徴、・・・、j次元目の特徴、・・・、J次元目の特徴が抽出される。Jは、N個の特徴点から2つを選択する組み合わせの数N×(N―1)/2である。このように、本実施の形態では、隣接する2点間の相対ベクトル及び隣接しない2点間の相対ベクトルを含むストローク上の任意の2点間の相対ベクトルで表される大局的特徴を抽出する。図2に、特徴点Pにおける大局的特徴の一例を示す。ここで、Pはリサンプリングして得られたN個の特徴点中のn番目の特徴点であることを表す。例えば、特徴点Pの座標値を(x,y)、特徴点Pの座標値を(x,y)とすると、この2点間の相対ベクトル(P→P)は、特徴点Pに対する特徴点Pのx軸方向の相対位置dx=x−x、y軸方向の相対位置dy=y−yで表される。 Next, a relative vector (dx, dy) defined between two feature points is extracted as a feature. Here, the features of the first dimension,..., The features of the jth dimension,. J is the number N × (N−1) / 2 of combinations for selecting two from N feature points. Thus, in this embodiment, a global feature represented by a relative vector between any two points on a stroke including a relative vector between two adjacent points and a relative vector between two non-adjacent points is extracted. . FIG. 2 shows an example of a global feature at the feature point Pn . Here, P n represents the n-th feature point among the N feature points obtained by resampling. For example, assuming that the coordinate value of the feature point P n is (x n , y n ) and the coordinate value of the feature point P N is (x N , y N ), the relative vector (P n → P N ) between the two points. the relative position of the x-axis direction of the feature point P n for the feature point P n dx = x n -x n , represented by the relative positions of the y-axis direction dy = y n -y n.

特徴選択部24は、特徴抽出部22で学習用データから抽出された複数の特徴から、時系列方向への変動を許容する認識処理を行う認識処理部44(詳細は後述)に適用可能となるよう、時刻順の整合性を保持した特徴を選択する。   The feature selection unit 24 can be applied to a recognition processing unit 44 (details will be described later) that performs recognition processing that allows variation in the time-series direction from a plurality of features extracted from the learning data by the feature extraction unit 22. Thus, a feature that maintains consistency in time order is selected.

ここで、特徴選択部24において、時刻順の整合性を保持した特徴を選択することの理由について説明する。ここでは、認識処理部44で、時系列方向への変動を許容する認識処理として、DPマッチングを行う例について説明する。なお、「時系列方向への変動を許容する認識処理」とは、時系列データのある点において時系列方向への伸縮が発生した場合でも、対応付け及びマッチングの評価が可能な認識処理のことである。つまり、ある一定の時間間隔や一定の距離間隔でサンプリングした2つの時系列データを比較する場合、一方がM個の点からなる時系列データ、他方がN個(N>MまたはN<M)の点からなる時系列データであっても適用可能な認識処理である。   Here, the reason why the feature selection unit 24 selects a feature that maintains consistency in time order will be described. Here, an example will be described in which the recognition processing unit 44 performs DP matching as the recognition processing that allows variation in the time-series direction. The “recognition process that allows fluctuations in the time series direction” is a recognition process that can evaluate matching and matching even when expansion or contraction in the time series direction occurs at a certain point in the time series data. It is. That is, when comparing two time-series data sampled at a certain time interval or a certain distance interval, one is time-series data consisting of M points and the other is N (N> M or N <M) This is a recognition process that can be applied even to time-series data consisting of these points.

大局的特徴を用いたDPマッチングでは、図3に示すように、参照データ上の大局的特徴の入力データにおける対応先を順次最適化する。すなわち、従来のDPマッチングが始端から終端への時刻順序に沿った最適化であるのに対し、大局的特徴を用いたDPマッチングでは始端及び終端の両方向からの同時最適化となる。   In DP matching using global features, as shown in FIG. 3, the correspondence destination in the input data of the global features on the reference data is sequentially optimized. That is, the conventional DP matching is an optimization in accordance with the time order from the start to the end, whereas the DP matching using the global features is the simultaneous optimization from both the start and end directions.

DPマッチングによる大局的特徴の最適対応付けのアルゴリズムにおいて、最適化すべき変数集合は、図3に示すように、{(s(k),t(k))|k=1,・・・,K}である。s(k)及びt(k)は各々参照データから選択されたk番目の大局的特徴を与える2点S及びTに対する入力データ上での対応点である。これら変数集合を、(s(1),t(1)),・・・,(s(k),t(k)),・・・,(s(K),t(K))の順に逐次決定する過程を考える。目的関数は、対応する大局的特徴間のユークリッド距離K個の総和である。目的関数を最小化するべく各変数の値、すなわち対応関係を決定することになる。 In the algorithm for optimum matching of global features by DP matching, the variable set to be optimized is {(s (k), t (k)) | k = 1,..., K, as shown in FIG. }. s (k) and t (k) are the corresponding points on the input data for the two points S k and T k that give the k th global feature selected from the reference data, respectively. These variable sets are arranged in the order of (s (1), t (1)), ..., (s (k), t (k)), ..., (s (K), t (K)). Consider the process of sequential determination. The objective function is the sum of K Euclidean distances between corresponding global features. In order to minimize the objective function, the value of each variable, that is, the correspondence relationship is determined.

ここで、図4(A)に示すように大局的特徴が選択されている場合には、(s(k),t(k))の決定には(s(k−1),t(k−1))の値しか影響しない。従って、この決定過程は時刻順の整合性を伴うマルコフ決定過程となり、その最適解はDPマッチングで求まる。一方、図4(C)に示すように大局的特徴が選択されている場合には、上記のDPマッチングによる対応付けの最適化が不可能となる。これはkの決定にk−1以外の値が影響してしまい、マルコフ決定過程とならず時刻順の整合性を伴っていないことから明らかである。   Here, when a global feature is selected as shown in FIG. 4A, (s (k-1), t (k) is used for determining (s (k), t (k)). Only the value of -1)) is affected. Therefore, this determination process is a Markov determination process with consistency in time order, and the optimal solution is obtained by DP matching. On the other hand, when the global feature is selected as shown in FIG. 4C, the association cannot be optimized by the DP matching. This is apparent from the fact that values other than k-1 affect the determination of k, which is not a Markov determination process and does not involve time order consistency.

このように、DPマッチングのような時系列方向への変動を許容する認識処理では、N(N−1)/2個の大局的特徴、または全ての大局的特徴の中から任意に選択した大局的特徴群の全てが認識処理に利用可能なわけではない。利用可能な大局的特徴は、全順序性を保持した大局的特徴の列、すなわち図4(A)及び(B)の例に示すように、大局的特徴である相対ベクトルの始点及び終点に相当する特徴点の順番(時刻)が単調に増加または減少するような大局的特徴に限られる。例えば、選択された特徴を並べたときに、相対ベクトルの始点に相当する特徴点の順番が途中で逆に戻ったり、終点に相当する特徴点の順番が途中で逆に戻ったり、始点に相当する特徴点の順番と終点に相当する特徴点の順番とが入れ違いになったりしている場合には、時刻順の整合性が保持できていない。   As described above, in recognition processing that allows variation in the time series direction, such as DP matching, a global feature arbitrarily selected from N (N-1) / 2 global features or all global features. Not all of the feature groups are available for recognition processing. The global features that can be used correspond to the global feature sequence with full ordering, ie, the start and end points of the relative vectors that are global features, as shown in the examples of FIGS. 4A and 4B. The feature points are limited to global features in which the order (time) of the feature points monotonously increases or decreases. For example, when the selected features are arranged, the order of the feature points corresponding to the start point of the relative vector is reversed in the middle, the order of the feature points corresponding to the end point is reversed in the middle, or corresponds to the start point If the order of the feature points to be matched and the order of the feature points corresponding to the end points are misplaced, the consistency in time order cannot be maintained.

上記のような理由により、特徴選択部24では、時刻順の整合性を保持した特徴を抽出する。本実施の形態では、さらに、より多くの特徴を選択し、かつ、文字認識により有効な特徴を選択する場合について、以下に詳細に説明する。   For the reasons described above, the feature selection unit 24 extracts features that maintain consistency in time order. In the present embodiment, a case where more features are selected and an effective feature is selected by character recognition will be described in detail below.

特徴選択部24は、特徴抽出部22で抽出された特徴(相対ベクトル)を、相対ベクトルの始点Sを横軸、終点Tを縦軸にとった空間(以下、「S−T空間」という)の各格子点に対応させる。S−T空間の一例を図5に示す。図5の例では、横軸及び縦軸の各々は、相対ベクトルの始点S及び終点Tが何番目(1,・・・,N)の特徴点であるかを示す。 Feature selection unit 24, a feature extracted by the feature extraction unit 22 (relative vector), the horizontal axis start point S k relative vector space (hereinafter took endpoint T k on the vertical axis, "S-T space" Corresponding to each grid point. An example of the ST space is shown in FIG. In the example of FIG. 5, each of the horizontal axis and the vertical axis indicates how many (1,..., N) feature points the start point S k and end point T k of the relative vector are.

特徴選択部24は、1番目に選択する特徴(以下、k番目に選択する特徴を「第k特徴」という)である相対ベクトル(S,T)として、例えば、図6の左上の図に示すように、1番目の特徴点PとN番目の特徴点Pとを結ぶ相対ベクトルを選択する。図6において、選択した相対ベクトルを点線で示す。また、第1特徴が選択された状態を初期状態とする。この第1特徴である相対ベクトル(S,T)は、図5に示すS−T空間上のS=1、T=Nの格子点に対応する。 The feature selection unit 24 uses, for example, the upper left diagram of FIG. 6 as a relative vector (S 1 , T 1 ) that is the first selected feature (hereinafter, the kth selected feature is referred to as “kth feature”). as shown in the, select the relative vector connecting the first feature point P 1 and the N-th feature point P N. In FIG. 6, the selected relative vector is indicated by a dotted line. The state in which the first feature is selected is set as an initial state. The relative vector (S 1 , T 1 ) that is the first feature corresponds to lattice points of S = 1 and T = N on the ST space shown in FIG.

次に第2特徴として相対ベクトル(S,T)を選択するにあたって、第2特徴が時刻順の整合性を保持した特徴であるためには、上述のように、相対ベクトルの両端点が特徴点列の始端及び終端から単調に増加及び減少するように選択する必要がある。そのためには、図5に示すS−T空間の例では、Sが増加する方向、またはTが減少する方向に存在する格子点に対応する特徴を選択する必要がある。さらに、ここでは、より多くの特徴を選択するために、これらの各方向に1マスずつ進めながら特徴を選択する。従って、S−T空間における現在の格子点からSが増加する方向(図5において右方向)へ1マス進んだ格子点、またはTが減少する方向(図5において下方向)へ1マス進んだ格子点のいずれかを選択する。この条件を満たす格子点は、図5中の格子点Aまたは格子点Bである。格子点A及び格子点Bに対応する特徴は、図6の右上の図のA及びBに示す相対ベクトルとなる。 Next, in selecting the relative vector (S 2 , T 2 ) as the second feature, in order for the second feature to maintain consistency in time order, as described above, both end points of the relative vector are It is necessary to select so as to increase and decrease monotonically from the start and end of the feature point sequence. For this purpose, in the example of the ST space shown in FIG. 5, it is necessary to select features corresponding to lattice points existing in a direction in which S increases or a direction in which T decreases. Further, here, in order to select more features, the features are selected while proceeding by one square in each of these directions. Therefore, the grid point advanced by 1 square from the current grid point in the ST space in the direction in which S increases (rightward in FIG. 5), or advanced by 1 square in the direction in which T decreases (downward in FIG. 5). Select one of the grid points. The lattice point that satisfies this condition is the lattice point A or the lattice point B in FIG. Features corresponding to the lattice points A and B are relative vectors shown in A and B in the upper right diagram of FIG.

特徴選択部24は、より文字認識に有効な特徴を選択するために、有効性を表す指標が高い方の特徴を選択する。有効性を表す指標としては、例えば、クラス内分散とクラス間分散との比であるF比を用いることができる。ここで、クラスとは、認識対象の文字種毎の分類であり、1つのクラスが1つの文字に対応する。F比は、値が大きいほどクラス間の分離度が高く、その特徴が文字認識に有効であると見なすことができるため、有効性を表す指標として用いることができる。例えば、特徴抽出部22で学習データから抽出されたj次元目の特徴のF比は下記(1)式により算出することができる。   The feature selection unit 24 selects a feature having a higher index indicating effectiveness in order to select a feature that is more effective for character recognition. As an index indicating effectiveness, for example, an F ratio that is a ratio of intra-class variance and inter-class variance can be used. Here, the class is a classification for each character type to be recognized, and one class corresponds to one character. The larger the value of the F ratio, the higher the degree of separation between the classes, and it can be considered that the feature is effective for character recognition, and therefore, it can be used as an index representing effectiveness. For example, the F ratio of the j-th feature extracted from the learning data by the feature extraction unit 22 can be calculated by the following equation (1).

=(δb,j)/(δw,j) ・・・(1) F j = (δ b, j ) / (δ w, j ) (1)

ここで、δb,jはj次元目の特徴のクラス内分散、及びδw,jはj次元目の特徴のクラス間分散であり、各々下記(2)式及び(3)式により表される。 Here, δ b, j is the intra-class variance of the j-dimensional feature, and δ w, j is the inter-class variance of the j-dimensional feature, which are expressed by the following equations (2) and (3), respectively. The

δb,j=(Σi=1Σq=1(xi,j q−mi,j))/n ・・・(2)
i,j=Σq=1i,j q/n
δw,j=(Σi=1(mi,j−mj))/n ・・・(3)
j=Σi=1Σq=1i,j q/n
δ b, j = (Σ i = 1 Σ q = 1 (x i, j q −m i, j ) 2 ) / n (2)
m i, j = Σ q = 1 x i, j q / n i
δ w, j = (Σ i = 1 n i (m i, j −m j ) 2 ) / n (3)
m j = Σ i = 1 Σ q = 1 x i, j q / n

ここで、xi,j qはクラスiに属する学習データqのj次元目の特徴、mi,jはクラスiに属する学習データのj次元目の特徴の平均値、mjは全クラス共通のj次元目の特徴の平均値、nはクラスiに属する学習データ数、nは全学習データ数である。 Here, x i, j q is the j-th feature of learning data q belonging to class i, m i, j is the average value of the j-th feature of learning data belonging to class i, and m j is common to all classes. The average value of the features of the j-th dimension, n i is the number of learning data belonging to class i, and n is the total number of learning data.

なお、上記のF比の計算式は一例であり、他の計算式を用いてもよい。例えば、下記(4)式に示すように、下記(5)式に示すクラス毎のクラス内分散δi,b,j、及び下記(6)式に示すクラス間分散δw,jを用いたF比を計算してもよい。 In addition, the calculation formula of said F ratio is an example, and you may use another calculation formula. For example, as shown in the following formula (4), the intra-class variance δ i, b, j for each class shown in the following formula (5) and the interclass variance δ w, j shown in the following formula (6) were used. The F ratio may be calculated.

i,j=(δi,b,j)/(δw,j) ・・・(4)
δi,b,j=Σq=1(xi,j q−mi,j)/n ・・・(5)
i,j=Σq=1i,j q/n
δw,j=Σi=1Σq=1(xi,j q−mj)/n ・・・(6)
j=Σi=1Σq=1i,j q/n
F i, j = (δ i, b, j ) / (δ w, j ) (4)
δ i, b, j = Σ q = 1 (x i, j q −m i, j ) 2 / n i (5)
m i, j = Σ q = 1 x i, j q / n i
δ w, j = Σ i = 1 Σ q = 1 (x i, j q −m j ) 2 / n (6)
m j = Σ i = 1 Σ q = 1 x i, j q / n

(1)式のF比は全クラス共通で用いることができ、(4)式のF比は、学習データが属するクラス毎に対応したF比を用いる。   The F ratio in equation (1) can be used in common for all classes, and the F ratio in equation (4) uses the F ratio corresponding to each class to which the learning data belongs.

特徴選択部24は、特徴抽出部22で抽出した特徴毎にF比を算出し、各特徴に対応するS−T空間の各格子点にそのF比の値を与える。また、特徴選択部24は、S−T空間における現在の格子点からSが増加する方向へ1マス進んだ格子点に与えられたF比と、Tが減少する方向へ1マス進んだ格子点に与えられたF比とを比較し、F比が大きい方の格子点に対応する特徴を選択する。ここでは、例えば、Tが減少する方向へ1マス進んだ格子点に対応する特徴(図6の右上の図の相対ベクトルAで表される特徴)が選択されたものとする。   The feature selection unit 24 calculates the F ratio for each feature extracted by the feature extraction unit 22, and gives the value of the F ratio to each lattice point in the ST space corresponding to each feature. In addition, the feature selection unit 24 calculates the F ratio given to the grid point advanced by 1 square from the current grid point in the ST space and the grid point advanced by 1 square in the direction of decreasing T. And the feature corresponding to the lattice point with the larger F ratio is selected. Here, for example, it is assumed that a feature (a feature represented by a relative vector A in the upper right diagram in FIG. 6) corresponding to a lattice point advanced by one square in the direction in which T decreases is selected.

また、特徴選択部24は、図6の左下の図に示すように、F比の比較及び特徴の選択を、隣接する特徴点間を結ぶ相対ベクトルが選択されるまで繰り返す。S−T空間でみると、選択した格子点(特徴)を接続したパス(図5中の太線)が、S=Tk−1を示す格子点(図5中の破線で示す対角線上の格子点)に到達したときに特徴の選択を終了する。特徴の選択が終了すると、図6の右下の図に示すように、第1特徴,・・・,第K特徴が時刻順の整合性を保持した状態で選択された最終状態となる。 Further, as shown in the lower left diagram of FIG. 6, the feature selection unit 24 repeats the comparison of the F ratio and the selection of features until a relative vector connecting adjacent feature points is selected. In the ST space, the path (thick line in FIG. 5) connecting the selected grid points (features) is on the diagonal line indicated by the broken line in FIG. 5 (S k = T k−1 ). The feature selection is terminated when the grid point is reached. When the feature selection is completed, as shown in the lower right diagram of FIG. 6, the first feature,..., The Kth feature is in a final state selected in a state that maintains consistency in time order.

従って、特徴選択部24は、特徴を時刻順の整合性を保持したまま可能な限り多くの特徴を選択し、かつ選択された特徴のF比の合計が最大になるように特徴を選択する。これにより、時間整合性を前提とする認識処理部44に大局的特徴を適用可能になると共に、認識性能を向上させることができる。なお、特徴選択部24では、特徴の選択に動的計画法(DP)を用いているが、ここでのDPは、認識処理部44で用いられるDPマッチングとは異なる。   Accordingly, the feature selection unit 24 selects as many features as possible while maintaining the consistency of the features in time order, and selects the features so that the sum of the F ratios of the selected features is maximized. As a result, global features can be applied to the recognition processing unit 44 based on time consistency, and the recognition performance can be improved. The feature selection unit 24 uses dynamic programming (DP) for feature selection, but the DP here is different from the DP matching used in the recognition processing unit 44.

図4(A)は、本実施の形態により選択した特徴の一例を示すものであり、時刻順の整合性を保持し、かつ可能な範囲で最大数の特徴が選択されている例である。図4(B)では時刻順の整合性は保持しているが、最大数の特徴を選択できていない例である。図4(C)は、時刻順の整合性を保持していない例である。本実施の形態のような手法を用いることにより、図4(B)及び(C)のような特徴の選択結果になることはない。   FIG. 4A shows an example of the feature selected according to the present embodiment, in which the maximum number of features are selected within the possible range while maintaining the consistency in time order. FIG. 4B is an example in which consistency in time order is maintained, but the maximum number of features cannot be selected. FIG. 4C shows an example in which consistency in time order is not maintained. By using the method as in this embodiment, the feature selection results as shown in FIGS. 4B and 4C are not obtained.

特徴選択部24は、選択した第1特徴,・・・,第K特徴で表される選択特徴列を、学習データが属するクラスと対応付けて、選択特徴列格納部30に格納する。   The feature selection unit 24 stores the selected feature sequence represented by the selected first feature,..., Kth feature in the selected feature sequence storage unit 30 in association with the class to which the learning data belongs.

次に、認識部40について説明する。認識部40は、さらに、特徴抽出部42と認識処理部44とを含んだ構成で表すことができる。   Next, the recognition unit 40 will be described. The recognition unit 40 can be expressed by a configuration including a feature extraction unit 42 and a recognition processing unit 44.

特徴抽出部42は、時系列データが表す文字パターンが未知の認識対象のオンライン文字データ(以下、「認識対象データ」という)を受け付け、学習部20の特徴抽出部22で学習データから全N×(N―1)/2個の相対ベクトル(dx,dy)を特徴として抽出したのと同様に、認識対象データから複数の特徴を抽出する。   The feature extraction unit 42 receives recognition target online character data (hereinafter referred to as “recognition target data”) whose character pattern represented by the time series data is unknown, and the feature extraction unit 22 of the learning unit 20 extracts all N × from the learning data. A plurality of features are extracted from the recognition target data in the same manner as (N-1) / 2 relative vectors (dx, dy) are extracted as features.

認識処理部44は、特徴選択部24で選択された学習データ毎の選択特徴列と、認識対象データから抽出された特徴とを、例えばDPマッチングなどを用いて照合し、学習データ毎に評価値を計算する。具体的には、図3に示すように、学習データの選択特徴列に含まれる第1特徴(S,T),・・・,第k特徴(S,T),・・・,第K特徴(S,T)に対応する特徴(s(1),t(1)),・・・,(s(k),t(k)),・・・,(s(K),t(K))を、特徴抽出部42で抽出された特徴から順次選択し、対応する特徴間の各々について距離を計算する。距離の計算は、例えばユークリッド距離等を用いることができる。計算したK個の距離の総和を、その学習データに対する評価値として算出する。この場合、評価値が小さいほど、認識対象データの表す文字パターンが、学習データの表す文字パターンであることの尤もらしさが高い。 The recognition processing unit 44 collates the selected feature sequence for each learning data selected by the feature selection unit 24 with the features extracted from the recognition target data using, for example, DP matching, and evaluates the evaluation value for each learning data. Calculate Specifically, as shown in FIG. 3, the first feature (S 1 , T 1 ),..., The k-th feature (S k , T k ),. , features corresponding to the K characteristic (S K, T K) ( s (1), t (1)), ···, (s (k), t (k)), ···, (s ( K), t (K)) are sequentially selected from the features extracted by the feature extraction unit 42, and a distance is calculated for each corresponding feature. For example, the Euclidean distance can be used for the calculation of the distance. The total of the calculated K distances is calculated as an evaluation value for the learning data. In this case, the smaller the evaluation value, the higher the likelihood that the character pattern represented by the recognition target data is the character pattern represented by the learning data.

なお、本実施の形態では、図4(A)に示すように、Sk−1=SまたはTk−1=Tのどちらかが成り立つように特徴が選択されている。今、図3に示すように、Sk−1=Sが成り立つ場合、その同一性を対応先でも保持するべく、s(k−1)=s(k)と制約してもよい。さらに、t側については、DPマッチングで広く用いられる単調連続性に倣い、0≦t(k−1)−t(k)≦2と制約してもよい。逆に、Tk−1=Tが成り立つ場合には、t(k−1)=t(k)、0≦s(k−1)−s(k)≦2と制約することができる。 In the present embodiment, as shown in FIG. 4A, the features are selected so that either S k−1 = S k or T k−1 = T k holds. Now, as shown in FIG. 3, when S k−1 = S k holds, the identity may be constrained to be s (k−1) = s (k) in order to retain the identity. Furthermore, the t side may be constrained as 0 ≦ t (k−1) −t (k) ≦ 2 following the monotonic continuity widely used in DP matching. Conversely, when T k-1 = T k holds, it can be constrained that t (k-1) = t (k) and 0 ≦ s (k−1) −s (k) ≦ 2.

また、認識対象データからの特徴の選択は、上記のように学習データの選択特徴列に含まれる各特徴との対応をとりながら順次選択する場合に限定されず、学習データの選択特徴列に含まれる各特徴と同じ次元目の特徴を順番に選択するようにしてもよい。   In addition, the selection of features from the recognition target data is not limited to the case where the features are sequentially selected while corresponding to the features included in the selected feature sequence of the learning data as described above, and is included in the selected feature sequence of the learning data. Features having the same dimension as each feature may be selected in order.

認識処理部44は、例えば、評価値が最小となる学習データの属するクラスを、認識結果として出力する。また、学習データの属するクラス毎に評価値の平均値を算出し、評価値の平均値が最小となるクラスを認識結果として出力してもよい。   For example, the recognition processing unit 44 outputs the class to which the learning data having the smallest evaluation value belongs as the recognition result. Alternatively, an average value of evaluation values may be calculated for each class to which learning data belongs, and a class having the minimum evaluation value average may be output as a recognition result.

次に、本実施の形態の文字認識装置10の作用について説明する。まず、学習部20において図7に示す学習処理ルーチンが実行されて、学習データ毎の選択特徴列が選択される。次に、認識部40において、学習処理で選択された選択特徴列を用いて、図8に示す認識処理ルーチンが実行される。以下、各処理について詳細に説明する。   Next, the operation of the character recognition device 10 of the present embodiment will be described. First, the learning processing routine shown in FIG. 7 is executed in the learning unit 20, and a selection feature string for each learning data is selected. Next, in the recognition unit 40, a recognition process routine shown in FIG. 8 is executed using the selected feature string selected in the learning process. Hereinafter, each process will be described in detail.

まず、図7に示す学習処理のステップ100で、特徴抽出部22が、複数の学習データを受け付け、次に、ステップ102で、各学習データを、文字パターンの大きさを正規化し、N点の特徴点からなる時系列データにリサンプリングする。そして、特徴抽出部22が、2つの特徴点間で定義される相対ベクトル(dx,dy)を特徴(大局的特徴)として抽出する。   First, in step 100 of the learning process shown in FIG. 7, the feature extraction unit 22 accepts a plurality of learning data. Next, in step 102, each learning data is normalized to the size of the character pattern, and N points Resample to time-series data consisting of feature points. Then, the feature extraction unit 22 extracts a relative vector (dx, dy) defined between the two feature points as a feature (global feature).

次に、ステップ104で、特徴選択部24が、上記ステップ102で抽出された特徴の各々について、文字認識の有効性を示す指標として、例えば、上記(1)式または(4)式に示すクラス内分散とクラス間分散との比であるF比を算出する。特徴選択部24は、算出したF比を、例えば、図5に示すようなS−T空間上の各特徴に対応した各格子点に与える。   Next, in step 104, the feature selection unit 24 uses, for example, the class shown in the above equation (1) or (4) as an index indicating the effectiveness of character recognition for each of the features extracted in step 102. The F ratio, which is the ratio between the internal variance and the interclass variance, is calculated. The feature selection unit 24 gives the calculated F ratio to each lattice point corresponding to each feature on the ST space as shown in FIG.

次に、ステップ106で、特徴選択部24が、第1特徴である相対ベクトル(S,T)として、例えば、図6の左上の図に示すように、1番目の特徴点PとN番目の特徴点Pとを結ぶ相対ベクトルを選択する。 Next, in step 106, the feature selection unit 24 uses the first feature point P 1 as the first feature relative vector (S 1 , T 1 ), for example, as shown in the upper left diagram of FIG. A relative vector connecting the Nth feature point PN is selected.

次に、ステップ108で、特徴選択部24が、S−T空間で、第1特徴である相対ベクトル(S,T)に対応する格子点からSが増加する方向へ1マス進んだ格子点に与えられたF比と、Tが減少する方向へ1マス進んだ格子点に与えられたF比とを比較し、F比が大きい方の特徴を第k特徴として選択する。 Next, in step 108, the feature selection unit 24 advances a grid in the ST space from the lattice point corresponding to the relative vector (S 1 , T 1 ) as the first feature in the S-T space in the direction in which S increases. The F ratio given to the point is compared with the F ratio given to the lattice point advanced by 1 square in the direction in which T decreases, and the feature with the larger F ratio is selected as the k-th feature.

次に、ステップ110で、特徴選択部24が、S−T空間において、選択した格子点(特徴)を接続したパスが、S=Tk−1を示す格子点に到達したか否かを判定する。S=Tk−1に到達していない場合には、ステップ108へ戻って、特徴の選択を繰り返す。S=Tk−1に到達した場合には、ステップ112へ移行し、特徴選択部24が、選択した第1特徴,・・・,第K特徴で表される選択特徴列を、学習データが属するクラスと対応付けて、選択特徴列格納部30に格納し、学習処理を終了する。 Next, in step 110, the feature selection unit 24 determines whether or not the path connecting the selected lattice points (features) has reached a lattice point indicating S k = T k−1 in the ST space. judge. If S k = T k−1 has not been reached, the process returns to step 108 to repeat feature selection. When S k = T k−1 is reached, the process proceeds to step 112 where the feature selection unit 24 selects the selected feature sequence represented by the selected first feature,. Is stored in the selected feature string storage unit 30 in association with the class to which the data belongs, and the learning process ends.

なお、上記の学習処理では、ステップ104で、ステップ102で抽出した全ての特徴についてF比を算出する場合について説明したが、ステップ108でSを増加させた特徴とTを減少させた特徴とを比較する際に、各々のF比を算出するようにしてもよい。   In the learning process described above, the F ratio is calculated for all the features extracted in step 102 in step 104. However, the feature in which S is increased and the feature in which T is decreased in step 108 are described. At the time of comparison, each F ratio may be calculated.

次に、図8に示す認識処理のステップ120で、特徴抽出部42が、認識対象データを受け付け、次に、ステップ122で、上記ステップ102で、特徴抽出部22が学習データから相対ベクトル(dx,dy)を特徴として抽出したのと同様に、認識対象データから複数の特徴を抽出する。   Next, in step 120 of the recognition process shown in FIG. 8, the feature extraction unit 42 receives the recognition target data. Next, in step 122, the feature extraction unit 22 uses the relative vector (dx) from the learning data in step 102. , Dy) as a feature, a plurality of features are extracted from the recognition target data.

次に、ステップ124で、選択特徴列格納部30から、学習データの選択特徴列を1つ取得する。次に、ステップ126で、認識処理部44が、学習データの選択特徴列に含まれる第1特徴(S,T),・・・,第k特徴(S,T),・・・,第K特徴(S,T)に対応する特徴(s(1),t(1)),・・・,(s(k),t(k)),・・・,(s(K),t(K))を、上記ステップ122で抽出された特徴から順次選択する。 Next, in step 124, one selected feature string of learning data is acquired from the selected feature string storage unit 30. Next, in step 126, the recognition processing unit 44 includes the first feature (S 1 , T 1 ),..., The k-th feature (S k , T k ),. .. , features (s (1), t (1)),..., (S (k), t (k)),..., (S) corresponding to the Kth feature (S K , T K ) (K), t (K)) are sequentially selected from the features extracted in step 122 above.

次に、ステップ128で、特徴選択部24が、対応する特徴間の各々について距離を計算し、計算したK個の距離の総和を、その学習データに対する評価値として算出する。   Next, in step 128, the feature selection unit 24 calculates a distance for each of the corresponding features, and calculates the sum of the calculated K distances as an evaluation value for the learning data.

次に、ステップ130で、特徴選択部24が、選択特徴列格納部30に選択特徴列が格納された全ての学習データについて評価値を算出したか否かを判定する。未処理の学習データが存在する場合には、ステップ124へ戻って、次の学習データの選択特徴列を取得して、評価値を算出する処理を繰り返す。全ての学習データについて処理が終了した場合には、ステップ132へ移行し、認識処理部44が、例えば、評価値が最小となる学習データの属するクラスを、認識結果として出力し、認識処理を終了する。   Next, in step 130, the feature selection unit 24 determines whether evaluation values have been calculated for all learning data in which the selected feature sequence is stored in the selected feature sequence storage unit 30. If unprocessed learning data exists, the process returns to step 124 to acquire the selected feature string of the next learning data and repeat the process of calculating the evaluation value. When the processing is completed for all learning data, the process proceeds to step 132, and the recognition processing unit 44 outputs, for example, the class to which the learning data having the smallest evaluation value belongs as the recognition result, and ends the recognition processing. To do.

なお、上記認識処理は、1−Nearest Neighborという認識手法を適用した例について説明したが、認識処理は、認識対象データから抽出した特徴が、学習データの各クラスのどれに一番近いかを、DPマッチング等を用いて決定するものであればよい。例えば、k−Nearest Neighbor等の他の認識手法を用いてもよい。   In addition, although the said recognition process demonstrated the example which applied the recognition method called 1-Nearest Neighbor, the recognition process is to which of each class of learning data the feature extracted from the recognition object data is the closest. What is necessary is just to be determined using DP matching or the like. For example, other recognition methods such as k-Nearest Neighbor may be used.

以上説明したように、本実施の形態の文字認識装置によれば、時系列データから抽出した複数の大局的特徴から、時刻順の整合性を保持するように選択した特徴を用いることで、各特徴点の座標値や局所方向の変化だけでなく、大局的特徴を含む特徴を用いた場合でも、認識処理において、時系列方向への変動を許容する認識手法を適用することができる。すなわち、時系列データに時系列方向の伸縮が生じても認識可能となる。   As described above, according to the character recognition device of the present embodiment, from the plurality of global features extracted from the time series data, by using the features selected to maintain the consistency in time order, Even in the case of using features including global features as well as changes in the coordinate values and local directions of feature points, a recognition method that allows variation in the time-series direction can be applied in the recognition processing. In other words, even if the time series data expands or contracts in the time series direction, it can be recognized.

また、特徴を選択する際に、特徴点列の最初の特徴点と最後の特徴点とを結ぶ相対ベクトルを第1特徴として選択し、相対ベクトルの始点及び終点に相当する特徴点を1つずつ進めながら順次特徴を選択することで、より多くの特徴を選択することができ、認識精度を向上させることができる。   Further, when selecting a feature, a relative vector connecting the first feature point and the last feature point of the feature point sequence is selected as a first feature, and feature points corresponding to the start point and end point of the relative vector are selected one by one. By selecting features sequentially while proceeding, more features can be selected, and recognition accuracy can be improved.

また、相対ベクトルの始点側を進めた特徴と終点側を進めた特徴とで、認識の有効性を示す指標が高い方を選択することで、より認識精度を向上させることができる。   In addition, it is possible to further improve the recognition accuracy by selecting a higher index indicating the effectiveness of recognition from the feature advanced from the start point side and the feature advanced from the end point side of the relative vector.

なお、上記実施の形態では、時系列データとしてオンライ文字データを入力し、文字パターンを認識する場合について説明したが、例えば、ジェスチャー認識などの他の時系列データについても本発明を適用することができる。   In the above embodiment, the case has been described in which online character data is input as time-series data and the character pattern is recognized. However, the present invention can also be applied to other time-series data such as gesture recognition. it can.

また、上記実施の形態では、特徴点Pと特徴点Pとを結んだ相対ベクトルを第1特徴とし、相対ベクトルの始点側または終点側を1つずつ進めながら順次特徴を選択する場合について説明したが、これに限定されない。N(N−1)/2個の特徴のうち、いずれを第1特徴として選択してもよい。また、順次特徴を選択する際に、相対ベクトルの始点側または終点側を2つ以上進めながら選択してもよい。ただし、本実施の形態のように、特徴点Pと特徴点Pとを結んだ相対ベクトルを第1特徴とし、相対ベクトルの始点側または終点側を1つずつ進めながら順次特徴を選択する手法が最も多くの特徴を選択することができる。 In the above embodiment, the relative vector connecting the feature point P 1 and the feature point PN is used as the first feature, and the features are sequentially selected while the start point side or the end point side of the relative vector is advanced one by one. Although described, it is not limited to this. Any of the N (N-1) / 2 features may be selected as the first feature. Further, when selecting features sequentially, the features may be selected while advancing two or more start points or end points of relative vectors. However, as in the present embodiment, the relative vectors connecting the feature point P 1 and the feature point P N and the first feature, successively selected features while advancing the starting point side or end side of the relative vector one The technique can select the most features.

また、上記実施の形態では、始点側が単調増加、終点側が単調減少するように進みながら特徴を選択することで、時刻順の整合性を保つ場合について説明したが、これに限定されない。例えば、学習データの特徴点列の真ん中あたりの2つの特徴点を結んだ相対ベクトルを第1特徴として選択し、始点側が単純減少、終点側が単純増加、または始点側及び終点側共に単純減少もしくは単純増加するように進みながら特徴を選択してもよい。   In the above embodiment, the case has been described in which the features are selected while proceeding so that the start point side monotonously increases and the end point side monotonously decreases, so that the consistency in time order is maintained. However, the present invention is not limited to this. For example, a relative vector connecting two feature points in the middle of the feature point sequence of the learning data is selected as the first feature, and the start point side is simply decreased, the end point side is simply increased, or both the start point side and end point side are simply decreased or simply Features may be selected while proceeding to increase.

また、上記実施の形態では、順次特徴を選択する際に、始点側を進めた相対ベクトルと終点側を進めた相対ベクトルとで、F比が高い方を選択する場合について説明したが、その他の認識の有効性を示す指標を用いてもよい。また、処理をより簡素化するために、ランダムに選択するなど、認識の有効性を考慮することなく選択するようにしてもよい。   Further, in the above-described embodiment, when sequentially selecting features, a case has been described in which the higher F ratio is selected between the relative vector advanced from the start point side and the relative vector advanced from the end point side. An index indicating the effectiveness of recognition may be used. Further, in order to simplify the process, the selection may be made without considering the effectiveness of recognition, such as selecting at random.

また、上記実施の形態では、学習部と認識部とを同一のコンピュータで構成する場合について説明したが、別々のコンピュータで構成するようにしてもよい。   In the above embodiment, the learning unit and the recognition unit are configured by the same computer. However, the learning unit and the recognition unit may be configured by separate computers.

また、本発明は、上記実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

また、本願明細書中において、プログラムが予めインストールされている実施の形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   Further, in the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

10 文字認識装置
20 学習部
22 学習部の特徴抽出部
24 特徴選択部
30 選択特徴列格納部
40 認識部
42 認識部の特徴抽出部
44 認識処理部
DESCRIPTION OF SYMBOLS 10 Character recognition apparatus 20 Learning part 22 Feature extraction part 24 of learning part Feature selection part 30 Selection feature sequence storage part 40 Recognition part 42 Feature extraction part 44 of recognition part Recognition processing part

Claims (7)

各時刻の値で表現された時系列データの表す対象が既知の複数の学習データの各々から、2時刻間の値で定義される複数の学習特徴を抽出する特徴抽出手段と、
各時刻の値で表現された時系列データの表す対象が未知の認識対象データが表す対象を、時系列方向への変動を許容する認識処理で認識する際に用いるために、前記特徴抽出手段で抽出された複数の学習特徴から、時刻順の整合性を保持するように複数の学習特徴を選択する特徴選択手段と、
を含む認識装置。
Feature extraction means for extracting a plurality of learning features defined by values between two times from each of a plurality of learning data whose objects represented by time-series data represented by values at each time are known;
In order to use a recognition process that allows variation in the time series direction to recognize a target represented by recognition target data whose time series data represented by each time value is unknown, the feature extraction means Feature selection means for selecting a plurality of learning features so as to maintain time order consistency from the extracted learning features;
A recognition device comprising:
前記特徴選択手段は、学習特徴の各々を定義する2時刻の各々が単調増加または単調減少するように複数の学習特徴を選択する請求項1記載の認識装置。   The recognition apparatus according to claim 1, wherein the feature selection unit selects a plurality of learning features such that each of two times defining each learning feature monotonously increases or monotonously decreases. 前記特徴選択手段は、学習特徴を順次選択する際に、現在選択している学習特徴を定義する2時刻の一方を増加または減少させた学習特徴、及び他方を増加または減少させた学習特徴のうち、前記対象の認識に対する有効性が高い方を次の特徴として選択する請求項2記載の認識装置。   The feature selection means includes a learning feature that increases or decreases one of two times defining a currently selected learning feature, and a learning feature that increases or decreases the other when sequentially selecting learning features. The recognition apparatus according to claim 2, wherein the one having higher effectiveness for the recognition of the object is selected as the next feature. 前記特徴選択手段は、前記有効性を示す指標として、前記対象の種類を各クラスに分類した場合における前記学習特徴毎のクラス内分散とクラス間分散との比を用いる請求項3記載の認識装置。   The recognition apparatus according to claim 3, wherein the feature selection unit uses, as the index indicating the effectiveness, a ratio of intra-class variance and inter-class variance for each learning feature when the target type is classified into each class. . 前記特徴抽出手段は、前記認識対象データから、2時刻間の値で定義される複数の対象特徴を抽出し、
前記特徴選択手段により選択された複数の学習特徴と前記複数の対象特徴とを用い、前記時系列方向への変動を許容する認識処理により、前記認識対象データが表す対象を認識する認識処理手段
を含む請求項1〜請求項4のいずれか1項記載の認識装置。
The feature extraction means extracts a plurality of target features defined by values between two times from the recognition target data,
Using a plurality of learning features selected by the feature selection unit and the plurality of target features, and a recognition processing unit for recognizing a target represented by the recognition target data by a recognition process that allows variation in the time series direction. The recognition apparatus of any one of Claims 1-4 containing.
特徴抽出手段と、特徴選択手段とを含む認識装置における認識方法であって、
前記特徴抽出手段は、各時刻の値で表現された時系列データの表す対象が既知の複数の学習データの各々から、2時刻間の値で定義される複数の学習特徴を抽出し、
前記特徴選択手段は、各時刻の値で表現された時系列データの表す対象が未知の認識対象データが表す対象を、時系列方向への変動を許容する認識処理で認識する際に用いるために、前記特徴抽出手段で抽出された複数の学習特徴から、時刻順の整合性を保持するように複数の学習特徴を選択する
認識方法。
A recognition method in a recognition device including feature extraction means and feature selection means,
The feature extraction means extracts a plurality of learning features defined by values between two times from each of a plurality of learning data whose targets represented by time-series data expressed by values at each time are known,
The feature selecting means is used for recognizing a target represented by recognition target data whose unknown time series data is represented by a value at each time in a recognition process that allows variation in the time series direction. A plurality of learning features are selected from the plurality of learning features extracted by the feature extraction means so as to maintain time order consistency.
コンピュータを、請求項1〜請求項5のいずれか1項記載の認識装置を構成する各手段として機能させるための認識プログラム。   The recognition program for functioning a computer as each means which comprises the recognition apparatus of any one of Claims 1-5.
JP2013043509A 2013-03-05 2013-03-05 Recognition device, method, and program Pending JP2014174568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013043509A JP2014174568A (en) 2013-03-05 2013-03-05 Recognition device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013043509A JP2014174568A (en) 2013-03-05 2013-03-05 Recognition device, method, and program

Publications (1)

Publication Number Publication Date
JP2014174568A true JP2014174568A (en) 2014-09-22

Family

ID=51695772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013043509A Pending JP2014174568A (en) 2013-03-05 2013-03-05 Recognition device, method, and program

Country Status (1)

Country Link
JP (1) JP2014174568A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022124208A (en) * 2021-02-15 2022-08-25 アイタックソリューションズ株式会社 Recognition processing device, recognition processing program, recognition processing method, and recognition processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022124208A (en) * 2021-02-15 2022-08-25 アイタックソリューションズ株式会社 Recognition processing device, recognition processing program, recognition processing method, and recognition processing system
JP7162278B2 (en) 2021-02-15 2022-10-28 アイタックソリューションズ株式会社 Recognition processing device, recognition processing program, recognition processing method, and recognition processing system

Similar Documents

Publication Publication Date Title
Saffari et al. Online multi-class LPBoost
RU2693916C1 (en) Character recognition using a hierarchical classification
Santosh et al. DTW–Radon-based shape descriptor for pattern recognition
GB2516037A (en) Compact and robust signature for large scale visual search, retrieval and classification
KR20120011010A (en) Handwriting recognition method and device
WO2014118980A1 (en) Information conversion method, information conversion device, and information conversion program
JPWO2014002554A1 (en) Image processing apparatus, image processing method, and program
Raut Facial emotion recognition using machine learning
CN104199842A (en) Similar image retrieval method based on local feature neighborhood information
Kim et al. Improving discrimination ability of convolutional neural networks by hybrid learning
JP2013073256A (en) Approximate nearest neighbor search method, nearest neighbor search program, and nearest neighbor search device
CN103336963A (en) Method and device for image feature extraction
Kashef et al. FCBF3Rules: A feature selection method for multi-label datasets
JP2015052994A (en) Feature selection device, learning device, method, and program
JP6125333B2 (en) Search device, method and program
JP2014174568A (en) Recognition device, method, and program
JP2013171441A (en) Apparatus and method for learning character recognition discriminator, and character recognition device, method, and program
Kotsifakos et al. Model-based time series classification
JP6601965B2 (en) Program, apparatus and method for quantizing using search tree
Pratama et al. A comparative study of feature selection methods for authorship invarianceness in writer identification
Fang et al. Multi-dimensional Time Series Approximation Using Local Features at Thinned-out Keypoints.
US20140119641A1 (en) Character recognition apparatus, character recognition method, and computer-readable medium
Inuganti et al. Recognition of online handwritten Telugu stroke by detected dominant points using curvature estimation
Cheng et al. Real-Time Dynamic Gesture Recognition based on Boundary-Constraint Dynamic Time Warping
Taktak et al. 3D handwriting characters recognition with symbolic-based similarity measure of gyroscope signals embedded in smart phone